Uma das principais defesas de quem se destaca em geradores de arte com IA é que, mesmo que os modelos sejam treinados em imagens existentes, tudo o que eles criam é novo. Os missionários de inteligência artificial costumam Compare esses sistemas com artistas reais. Os criadores se inspiram em todos os que vieram antes deles, então por que não tornar a IA semelhante ao trabalho anterior?
A nova pesquisa pode frustrar esse argumento e pode até se tornar um grande ponto de discórdia Vários processos em andamento relacionados a conteúdo e direitos autorais gerados por IA. Pesquisadores da indústria e da academia descobriram que os geradores de imagens de IA mais populares e futuros podem “salvar” imagens dos dados com os quais foram treinados. Em vez de criar algo totalmente novo, alguns prompts farão com que a IA simplesmente reproduza uma imagem. Algumas dessas imagens recriadas podem ter direitos autorais. Pior ainda, os modelos geradores de IA modernos têm a capacidade de salvar e reproduzir informações confidenciais coletadas para uso em um conjunto de treinamento de IA.
estudando Conduzido por pesquisadores de tecnologia – para ser exato o Google e DeepMind – e em universidades como Berkeley e Princeton. A mesma equipe trabalhou estudo prévio que identificou um problema semelhante com modelos de linguagem AI, especificamente GPT2, Introdução aos modelos OpenAI ChatGPT é extraordinariamente popular. Reunindo a banda novamente, pesquisadores liderados pelo pesquisador do Google Brain, Nicholas Carlini, descobriram que tanto o Imagen do Google quanto o popular Stable Diffusion de código aberto foram capazes de reproduzir as imagens, algumas das quais tinham implicações óbvias de direitos autorais e licenciamento.
A primeira imagem desse tweet foi criada usando a legenda incluída no conjunto de dados Stable Diffusion, o banco de dados de imagens fragmentadas de vários terabytes conhecido como LAION. A equipe inseriu a legenda no prompt “Stable Diffusion” e obteve exatamente a mesma imagem, embora ligeiramente distorcida pelo ruído digital. O processo de encontrar essas fotos duplicadas foi relativamente simples. A equipe executou o mesmo prompt várias vezes e, após obter a mesma imagem resultante, os pesquisadores verificaram manualmente se a imagem estava presente no conjunto de treinamento.
G/O Media pode ganhar uma comissão
Dois dos pesquisadores do artigo, Eric Wallace, aluno de doutorado da UC Berkeley, e Vikash Siwag, aluno de doutorado da Universidade de Princeton, disseram ao Gizmodo em uma entrevista ao Zoom que a replicação de imagens é rara. Sua equipe tentou cerca de 300.000 legendas diferentes e encontrou uma taxa de memorização de apenas 0,3%. As imagens duplicadas eram muito mais raras para modelos como Stable Diffusion que desduplicavam imagens em seu conjunto de treinamento, embora no final todos os modelos de difusão tenham o mesmo problema, em maior ou menor grau. Os pesquisadores descobriram que o Imagen era perfeitamente capaz de memorizar imagens que existiam apenas uma vez no conjunto de dados.
“A ressalva aqui é que o modelo deve generalizar e gerar novas imagens, em vez de cuspir uma cópia mantida na memória”, disse Sehwag.
A pesquisa deles mostra que, à medida que os sistemas de IA se tornam maiores e mais complexos, a probabilidade de a IA produzir material replicado aumenta. Um modelo menor como Stable Diffusion simplesmente não tem a mesma quantidade de espaço de armazenamento para armazenar a maioria dos dados de treinamento. que Muita coisa pode mudar nos próximos anos.
“Talvez no próximo ano, seja qual for o novo modelo que seja muito maior e muito mais poderoso, esses tipos de riscos de conservação provavelmente serão muito maiores do que são agora”, disse Wallace.
Por meio de um processo complexo que envolve destruir os dados de treinamento com ruído antes de remover a mesma deformação, os modelos de aprendizado de máquina baseados em difusão geram dados – neste caso, imagens – semelhantes ao que foi treinado neles. Os modelos de difusão foram uma evolução das redes adversárias generativas ou do aprendizado de máquina baseado em GAN.
Os pesquisadores descobriram que os modelos baseados em GAN não têm o mesmo problema para salvar imagens, mas é improvável que as grandes empresas vão além da difusão, a menos que surja um modelo de aprendizado de máquina mais sofisticado que produza imagens mais realistas e de alta qualidade.
Florian Trammer, professor de ciência da computação da ETH Zurich que participou da pesquisa, observou quantas empresas de IA estão aconselhando os usuários, seja em versões gratuitas ou pagas, a conceder uma licença para compartilhar ou mesmo monetizar conteúdo gerado por IA. As próprias empresas de IA também reservam alguns direitos sobre essas imagens. Isso pode ser um problema se a IA criar uma imagem que corresponda exatamente ao copyright existente.
Com uma taxa de salvamento de apenas 0,3%, os desenvolvedores de IA podem analisar este estudo e determinar que não há muito risco. As empresas podem trabalhar para remover imagens duplicadas nos dados de treinamento, diminuindo a probabilidade de serem salvas. Inferno, eles poderiam até desenvolver sistemas de IA que podem detectar se uma imagem é uma duplicata direta de uma imagem nos dados de treinamento e sinalizá-la para exclusão. No entanto, ele oculta todo o risco de privacidade representado pela IA generativa. Carlini e Trammer também ajudaram Outro artigo recente Ao que argumentei que mesmo as tentativas de filtrar os dados ainda não impediram que os dados de treinamento vazassem pelo modelo.
E, claro, há um grande risco de aparecerem nas telas dos usuários imagens que ninguém quer reproduzir. Wallace perguntou se o pesquisador queria criar um conjunto completo de dados médicos sintéticos para radiografias de pessoas, por exemplo. O que deveria acontecer se a inteligência artificial baseada em difusão salvasse E duplicar os registros médicos reais de uma pessoa?
“É muito raro, então você pode não perceber que está acontecendo no começo, e então você pode realmente publicar esse conjunto de dados na web”, disse o aluno da UC Berkeley. “O objetivo deste trabalho é antecipar esses possíveis tipos de erros que as pessoas podem cometer.”
“Incapaz de digitar com luvas de boxe. Geek de álcool. Estudante sem remorso. Criador. Explorador sutilmente encantador. Ninja da TV. Típico fã da web. Viciado em cerveja.”