Legisladores da Califórnia votam projeto de lei de segurança de IA em meio à oposição de empresas de tecnologia

Os legisladores da Califórnia estão programados para votar esta semana um projeto de lei que visa reduzir o risco de a inteligência artificial ser usada para fins nefastos, como ataques cibernéticos ou desenvolvimento de armas biológicas.

O projeto de lei 1047 do Senado da Califórnia, de autoria do senador estadual Scott Wiener, seria o primeiro desse tipo nos Estados Unidos a exigir que as empresas de IA construíssem modelos em grande escala para testá-los quanto à segurança.

Os legisladores da Califórnia estão considerando dezenas de projetos de lei relacionados à inteligência artificial nesta sessão. Mas a proposta de Weiner, chamada “Lei de Inovação Segura e Protegida para Modelos Líderes de IA”, atraiu a atenção nacional devido à intensa oposição do Vale do Silício, o principal bastião do desenvolvimento da IA ​​nos Estados Unidos. Os opositores dizem que a imposição de requisitos tecnológicos onerosos e potenciais multas na Califórnia sufocaria a inovação e a competitividade global do país.

OpenAI é o mais recente desenvolvedor de IA a declarar sua oposição e argumentar Em mensagem na quarta-feira que a regulamentação da IA ​​deve ser deixada para o governo federal e afirma que as empresas deixarão a Califórnia se a legislação proposta for aprovada.

A Assembleia Legislativa do estado está agora marcada para votar o projeto de lei, que… O vencedor foi modificado recentemente Em resposta às críticas da indústria tecnológica, ele disse que a nova linguagem não responde a todas as questões levantadas pela indústria.

“Este é um projeto de lei razoável e leve que não impedirá a inovação de forma alguma, mas nos ajudará a superar os riscos que acompanham qualquer tecnologia poderosa”, disse Weiner a repórteres durante uma entrevista coletiva na segunda-feira.

O que o projeto de lei fará?

O projeto de lei exige que as empresas que constroem grandes modelos de IA, aqueles cujo treinamento custa mais de US$ 100 milhões, mitiguem quaisquer riscos significativos no sistema que encontrarem por meio de testes de segurança. Isto inclui a criação de uma capacidade de “desligamento total” – ou uma forma de desligar um modelo potencialmente inseguro em circunstâncias catastróficas.

READ  A gigante do petróleo Saudi Aramco supera a Apple como a empresa mais importante do mundo

Os desenvolvedores também serão obrigados a criar um plano técnico para lidar com os riscos de segurança e reter uma cópia desse plano enquanto o formulário estiver disponível, mais cinco anos. Empresas como Google, Meta e OpenAI já possuem operações significativas de IA Compromissos voluntários É possível que a administração Biden assuma a responsabilidade pela gestão dos riscos da IA, mas a legislação da Califórnia imporia obrigações legais e de execução para essas obrigações.

Todos os anos, um auditor terceirizado avalia a conformidade de uma empresa com a lei. Além disso, as empresas devem documentar a sua conformidade com a lei e comunicar quaisquer incidentes de segurança ao Procurador-Geral da Califórnia. A Procuradoria-Geral pode impor penalidades civis de até US$ 50.000 para as primeiras violações e um adicional de US$ 100.000 para violações subsequentes.

Quais são as críticas?

Grande parte da indústria de tecnologia criticou o projeto de lei proposto por ser muito oneroso. A Anthropic, uma empresa popular de IA que se comercializa focada na segurança, argumentou que uma versão anterior da legislação teria criado obrigações legais complexas que sufocariam a inovação em IA, como a capacidade do procurador-geral da Califórnia de processar por negligência, mesmo que fosse não. Ocorre um desastre de segurança.

A OpenAI sugeriu que as empresas deixariam a Califórnia se o projeto fosse aprovado para evitar suas exigências. Ela também insistiu que a regulamentação da IA ​​deveria ser deixada ao Congresso para evitar que uma série confusa de legislação fosse promulgada em todos os estados.

Ganhador Ela respondeu A Comissão de Negócios Estrangeiros do Senado dos EUA descreveu a ideia de empresas que fogem da Califórnia como um “argumento complicado”, observando que as disposições do projeto de lei ainda se aplicariam a empresas que prestam os seus serviços a residentes da Califórnia, mesmo que a sua sede não seja lá.

READ  Emmett Sherr torna-se CEO interino da OpenAI enquanto as negociações de Altman fracassam – Informações

Na semana passada, oito membros do Congresso dos EUA anunciaram urgir O governador Gavin Newsom vetará o projeto de lei 1.047 do Senado por causa das obrigações que imporia às empresas que fabricam e usam inteligência artificial. A deputada Nancy Pelosi juntou-se aos seus colegas da oposição, chamar A medida é “bem intencionada, mas mal considerada”. (Weiner está de olho no cargo de presidente emérito da Câmara, o que pode exigir um confronto futuro com sua filha, Christine Pelosi, De acordo com o Politico.)

Pelosi e membros do Congresso apoiam a “madrinha da inteligência artificial”, Dra. Vivi Li, cientista da computação da Universidade de Stanford e ex-pesquisadora do Google. Num artigo de opinião recente, Lee disse que a legislação “prejudicaria o nosso ecossistema emergente de IA”, especialmente os pequenos desenvolvedores que “já estão em desvantagem em comparação com as gigantescas empresas de tecnologia de hoje”.

O que dizem os apoiadores?

O projeto de lei recebeu apoio de diversas startups na área de inteligência artificial. Cofundador da Noção Simon Last, e os “padrinhos” da inteligência artificial, Yoshua Bengio e Geoffrey Hinton. Bengio disse que a legislação seria um “passo positivo e razoável” para tornar a IA mais segura e, ao mesmo tempo, encorajar a inovação.

Sem medidas de segurança adequadas, os apoiantes do projecto de lei temem que as terríveis consequências da IA ​​não supervisionada possam representar ameaças existenciais, tais como riscos acrescidos para infra-estruturas críticas e a criação de armas nucleares.

Weiner defendeu a sua legislação “simples e de bom senso”, observando que apenas exigiria que as maiores empresas de IA adotassem medidas de segurança. Ele também elogiou a liderança da Califórnia na política tecnológica dos EUA, levantando dúvidas sobre se o Congresso aprovará alguma legislação substantiva sobre inteligência artificial num futuro próximo.

READ  Uma pesquisa do Fed de Nova York mostrou que as expectativas de inflação aumentaram, apoiadas pelos aumentos esperados nos custos de habitação

“A Califórnia interveio repetidamente para proteger os nossos residentes e preencher o vazio deixado pela inacção do Congresso”, respondeu Weiner, observando a falta de acção federal em matéria de privacidade de dados e regulamentação das redes sociais.

O que vem a seguir?

Na sua última declaração sobre o projecto de lei, Weiner disse que as últimas alterações têm em conta muitas das preocupações expressas pela indústria da inteligência artificial. A versão actual propõe uma pena civil em vez de uma pena criminal, como estava originalmente no projecto de lei, por mentir ao governo. Também remove uma proposta para criar um novo órgão regulador estadual que supervisionaria os modelos de IA.

Antropia disse Em uma carta para Newsom Os benefícios da legislação revista provavelmente superam os potenciais danos para a indústria da IA, sendo os principais benefícios a transparência com o público sobre a segurança da IA ​​e o incentivo às empresas para investir na mitigação de riscos. Mas a Anthropic permanece cautelosa quanto à possibilidade de restrições amplas e requisitos de relatórios ampliados.

“Achamos que é fundamental termos alguma estrutura para gerenciar os principais sistemas de IA que atenda aproximadamente a esses três requisitos”, disse o CEO da Anthropic, Dario Amodei, ao governador, seja essa estrutura SB-1047 ou não.

Os legisladores da Califórnia têm até 31 de agosto, final da sessão, para aprovar o projeto. Se aprovado, irá para o governador Gavin Newsom para aprovação final até o final de setembro. O governador não informou se pretende assinar a legislação.

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *