No final de março, mais de 1.000 líderes de tecnologia, pesquisadores e outros especialistas que trabalham com inteligência artificial assinaram uma carta aberta alertando que as tecnologias de IA apresentam “graves riscos para a sociedade e a humanidade”.
O grupo, que incluía Elon Musk, CEO da Tesla e proprietário do Twitter, instou os laboratórios de IA a interromper o desenvolvimento de seus sistemas mais poderosos por seis meses para que pudessem entender melhor os riscos por trás da tecnologia.
“Sistemas de IA fortes só devem ser desenvolvidos quando estivermos confiantes de que seus efeitos serão positivos e que seus riscos podem ser controlados”, afirma a carta.
A carta, que agora tem mais de 27.000 assinaturas, foi concisa. Sua linguagem era ampla. E alguns dos nomes por trás da carta parecem ter uma relação ambivalente com a IA. Musk, por exemplo, está construindo sua própria empresa de inteligência artificial e é um importante doador da organização que escreveu a carta.
Mas a carta representa uma preocupação crescente entre os especialistas em IA de que os sistemas mais recentes, principalmente o GPT-4, a tecnologia introduzida pela startup OpenAI de San Francisco, possam causar danos à sociedade. Eles acreditavam que os regimes futuros seriam mais perigosos.
Algumas estacas chegaram. Outros não o farão por meses ou anos. Ainda outros são apenas suposições.
“Nossa capacidade de entender o que pode dar errado em sistemas fortes de IA é muito fraca”, disse Yoshua Bengio, professor e pesquisador de inteligência artificial da Universidade de Montreal. “Portanto, precisamos ter muito cuidado.”
Por que eles estão preocupados?
Dr. Bengio é talvez a pessoa mais importante para assinar a carta.
Trabalhando com outros acadêmicos – Geoffrey Hinton, pesquisador do Google até recentemente, e Yann LeCun, agora cientista-chefe de inteligência artificial da Meta, proprietária do Facebook -, o Dr. Bengio passou as últimas quatro décadas desenvolvendo a tecnologia que impulsiona sistemas como o GPT-4 . Em 2018, os pesquisadores receberam o Prêmio Turing, geralmente conhecido como o “Prêmio Nobel da Computação”, em reconhecimento ao seu trabalho em redes neurais.
Uma rede neural é um sistema matemático que aprende habilidades analisando dados. Cerca de cinco anos atrás, empresas como Google, Microsoft e OpenAI começaram a construir redes neurais que aprendiam com grandes quantidades de texto digital chamadas Large Language Models, ou LLMs.
Ao identificar padrões neste texto, o LLM aprende a criar texto por conta própria, incluindo postagens em blogs, poemas e programas de computador. Eles podem até manter uma conversa.
Essa tecnologia pode ajudar programadores de computador, escritores e outros trabalhadores a gerar ideias e fazer as coisas mais rapidamente. Mas o Dr. Bengio e outros especialistas também alertam que os LLMs podem aprender comportamentos indesejados e inesperados.
Esses sistemas podem gerar informações falsas, tendenciosas e outras informações tóxicas. Sistemas como o GPT-4 confundem fatos e informações de quadros, um fenômeno chamado de “alucinações”.
As empresas estão trabalhando para resolver esses problemas. Mas especialistas como o Dr. Bengio temem que, à medida que os pesquisadores tornam esses sistemas mais poderosos, eles introduzam novos riscos.
Riscos de curto prazo: desinformação
Como esses sistemas apresentam informações com o que parece ser total confiança, pode ser difícil separar o fato da ficção quando eles são usados. Os especialistas temem que as pessoas confiem nesses sistemas para aconselhamento médico, apoio emocional e informações brutas que usam para tomar decisões.
“Não há garantia de que esses sistemas estarão corretos em qualquer tarefa que você atribuir a eles”, disse Subbarao Kambhampati, professor de ciência da computação na Arizona State University.
Os especialistas também estão preocupados com o fato de as pessoas abusarem desses sistemas para espalhar desinformação. Como eles podem falar de maneira humana, eles podem ser surpreendentemente persuasivos.
“Agora temos sistemas que podem interagir conosco por meio da linguagem natural, e não podemos distinguir entre o real e o falso”, disse o Dr. Bengio.
Riscos de médio prazo: perda de emprego
Os especialistas temem que a nova inteligência artificial possa matar empregos. Atualmente, tecnologias como GPT-4 tendem a complementar trabalhadores humanos. Mas a OpenAI reconhece que poderia substituir alguns trabalhadores, incluindo as pessoas que moderam o conteúdo online.
Eles ainda não podem replicar o trabalho de advogados, contadores ou médicos. Mas eles podem substituir paralegais, assistentes pessoais e tradutores.
Artigo escrito por pesquisadores da OpenAI Estima-se que 80% da força de trabalho dos EUA poderia ter pelo menos 10% de suas tarefas de trabalho afetadas pelo LLM e que 19% dos trabalhadores poderiam ver pelo menos 50% de suas tarefas afetadas.
“Há um sinal de que os empregos rotineiros estão desaparecendo”, disse Oren Etzioni, CEO fundador do Allen Institute for Artificial Intelligence, um laboratório de pesquisa em Seattle.
Riscos de longo prazo: perda de controle
Algumas das pessoas que assinaram a carta também acreditam que a inteligência artificial pode escapar de nosso controle ou destruir a humanidade. Mas muitos especialistas dizem que isso é muito exagerado.
A carta foi escrita por um grupo do Future of Life Institute, uma organização dedicada a explorar riscos existenciais para a humanidade. Eles alertam que, como os sistemas de IA geralmente aprendem comportamentos inesperados com as grandes quantidades de dados que analisam, eles podem causar problemas sérios e inesperados.
Eles temem que, à medida que as empresas conectam o LLM a outros serviços da Internet, esses sistemas possam ganhar poderes inesperados, pois podem escrever seu próprio código de computador. Eles dizem que os desenvolvedores criarão novos riscos se permitirem que poderosos sistemas de IA executem seu código.
disse Anthony Aguirre, cosmólogo teórico e físico da Universidade da Califórnia, em Santa Cruz, e cofundador do Future Life Institute.
“Se você pegar um cenário menos provável – onde as coisas realmente decolam, onde não há governança real, onde esses sistemas ficam mais fortes do que pensávamos – então as coisas ficam realmente loucas”, disse ele.
O Dr. Etzioni disse que a conversa sobre risco existencial era hipotética. Mas ele disse que outros riscos – principalmente a desinformação – não são mais especulações.
“Agora temos alguns problemas reais”, disse ele. “Eles estão de boa fé. Eles exigem alguma resposta responsável. Eles podem exigir regulamentos e legislação.”
“Entrepreneur. Professional music nerd. Beer evangelist. Avid tv aficionado. Social mediaholic.”