Nunca foi tão fácil cRecrie imagens que parecem incrivelmente realistas, mas na verdade são falsas.
Qualquer pessoa com conexão à internet e acesso a uma ferramenta que utiliza inteligência artificial (IA) consegue criar imagens realistas em questão de segundose eles podem publicá-lo nas redes sociais em uma velocidade vertiginosa.
Nos últimos dias, muitas dessas fotos surgiram Tornou-se viral: Vladimir Putin aparentemente foi pego ou Elon Musk ficou com a CEO da GM, Mary Barra, para citar alguns.
o problema é que bAmbas as imagens AI mostram eventos que nunca aconteceram. até Paparazzi postou selfies que acabaram sendo imagens geradas por IA.
E embora algumas dessas imagens possam ser engraçadas, elas também podem representar riscos reais em termos de desinformação e propaganda, de acordo com os especialistas consultados pela DW.
Um terremoto nunca aconteceu
Fotos mostrando a prisão de políticos como o presidente russo Vladimir Putin ou Ex-presidente dos Estados Unidos Donald Trump Eles podem ser verificados rapidamente pelos usuários se eles verificarem fontes de mídia confiáveis.
Outras imagens são mais difíceis, como aquela em que as pessoas na imagem não são reconhecíveis, disse o especialista em IA Henry Ader à DW.
Um exemplo: o membro do Parlamento do Partido Alternativo de extrema-direita alemão, um Imagem gerada por IA de homens gritando em sua conta no Instagram para mostrar que é contra a chegada de refugiados.
E, de acordo com Ajder, não são apenas as imagens de pessoas geradas por IA que podem espalhar desinformação.
Ele diz que há exemplos de usuários criando eventos que nunca aconteceram.
Tal foi o caso do poderoso terremoto que supostamente abalou o noroeste do Pacífico dos Estados Unidos e Canadá em 2001.
Mas este terremoto nunca aconteceu, e Fotos compartilhadas no Reddit Criado por inteligência artificial.
E, segundo Ader, isso pode ser um problema. “Se você está criando uma paisagem em vez de um retrato de um ser humano, pode ser difícil de detectar”, explica ele.
No entanto, as ferramentas de IA cometem erros, mesmo que estejam evoluindo rapidamente. Atualmente, desde abril de 2023, programas como Midjourney, Dall-E e DeepAI sofrem com falhas, principalmente com imagens que mostram pessoas.
A equipe de verificação de fatos da DW reuniu algumas sugestões que podem ajudá-lo a avaliar se uma foto é falsa. Mas uma palavra inicial de cautela: as ferramentas de IA estão evoluindo tão rapidamente que este conselho reflete apenas o estado atual das coisas.
1. Aumente o zoom e olhe com atenção
Muitas imagens geradas por IA parecem reais à primeira vista.
Por isso nossa primeira sugestão é olhar bem a imagem. para fazer isso, Encontre a imagem na resolução mais alta possível e amplie os detalhes.
Ampliar a imagem revelará inconsistências e erros que podem não ter sido detectados à primeira vista.
2. Encontre a imagem fonte
Se você não tem certeza se a imagem é real ou gerada por IA, tente encontrar sua fonte.
Você pode ver algumas informações sobre onde a foto foi postada pela primeira vez lendo os comentários que outros usuários postaram abaixo da foto.
Ou você pode fazer uma pesquisa de imagem reversa. Para fazer isso, carregue a imagem em ferramentas como Google Image Reverse Search, TinEye ou Yandex, e você pode encontrar a fonte original da imagem.
Os resultados dessas pesquisas também podem mostrar links para verificações de fatos conduzidas por mídias confiáveis que fornecem contexto adicional.
3. Preste atenção às proporções do corpo
As pessoas retratadas têm as proporções corporais corretas?
Não é incomum que imagens geradas por IA mostrem inconsistências quando se trata de proporções. As mãos podem ser muito pequenas ou os dedos muito longos. Ou que a cabeça e os pés não combinam com o resto do corpo.
É o caso da foto acima, que supostamente é de Putin Ele se ajoelhou na frente de Xi Jinping. Os sapatos da pessoa ajoelhada são desproporcionalmente grandes e largos. A panturrilha parece alongada. A cabeça semicoberta também é muito grande e desproporcional ao resto do corpo.
Mais sobre essa falsificação em nossa verificação de fatos dedicada.
4. Cuidado com os erros típicos de IA
As mãos são atualmente a principal fonte de erros no software de imagem AI, como Midjourney ou DALL-E.
sAs pessoas costumam ter um sexto dedo, como o policial à esquerda de Putin na foto acima.
ou também em Estas são fotos do Papa Francisco, que você já deve ter visto.
Mas você percebeu que o Papa Francisco parece ter apenas quatro dedos na foto certa? E você notou que seus dedos esquerdos são extraordinariamente longos? Essas fotos são falsas.
Outros erros comuns em imagens geradas por IA incluem pessoas com muitos dentesou As armações dos óculos estão estranhamente deformadasou orelhas com formas irrealistas, como na já mencionada foto falsa de Xi e Putin.
Superfícies que refletem, como visores de capacete, também causam problemas para programas de IA, às vezes parecendo se desintegrar, como no caso da suposta prisão de Putin.
Henry é um especialista em inteligência artificial No entanto, Ajder adverte que as versões mais recentes de programas como o Midjourney estão melhorando na geração de mãos, o que significa que os usuários não poderão confiar por muito mais tempo na captura desses tipos de erros.
5. A imagem parece artificial e suave?
aplicativo Midjourney, em particular, cria muitas imagens que parecem boas demais para ser verdade.
Siga seu instinto aqui: essa foto perfeita com pessoas perfeitas pode realmente ser real?
“Os rostos são muito puros e os tecidos expostos são muito harmoniosos”, disse à DW Andreas Dingel, do Centro Alemão de Pesquisa em Inteligência Artificial.
A pele dos sujeitos em muitas imagens de IA costuma ser lisa e desprovida de qualquer irritação, e até mesmo seus cabelos e dentes são perfeitos. Isso geralmente não é o caso na vida real.
Muitas imagens também têm uma aparência artística, brilhante e brilhante que é difícil para os fotógrafos profissionais alcançarem na fotografia de estúdio.
As ferramentas de IA geralmente parecem criar imagens perfeitas que deveriam ser perfeitas e satisfazer o maior número possível de pessoas.
6. Verificação de antecedentes
O fundo de uma foto geralmente revela se ela foi manipulada.
Aqui também as coisas podem parecer distorcidas; Por exemplo, Postes de iluminação pública.
Em alguns casos, os programas de IA clonam pessoas e objetos e os usam duas vezes. Não é incomum que o fundo das imagens AI fique desfocado.
Mas mesmo essa ofuscação pode conter erros. Como o exemplo acima, que pretende mostrar um Will Smith furioso no Oscar. O fundo não está apenas fora de foco, mas parece artificialmente desfocado.
Conclusão
Muitas imagens geradas por IA ainda existem hoje Expor com um pouco de pesquisa. Mas a tecnologia está melhorando e os bugs provavelmente se tornarão mais raros no futuro. Pode Detectores de IA como Hugging Face Ajude-nos a detectar a manipulação?
Com base em nossas descobertas, os detectores fornecem pistas, mas nada mais do que isso.
Os especialistas que entrevistamos tendem a desaconselhar seu uso, dizendo que as ferramentas não são suficientemente desenvolvidas. Até as fotos originais foram declaradas falsas e vice-versa.
Portanto, em caso de dúvida, a melhor coisa que os usuários podem fazer para diferenciar entre eventos reais e falsos é usar o bom senso, confiar em mídias confiáveis e evitar o compartilhamento de imagens.
“Entrepreneur. Professional music nerd. Beer evangelist. Avid tv aficionado. Social mediaholic.”