Estado dos EUA aprovou proposta de regulamentação da tecnologia que pode impactar principais desenvolvedoras do setor.
Em ano de eleição presidencial, os Estados Unidos estão redobrando a atenção com a inteligência artificial (IA) e seus riscos, como as deepfakes de áudio e vídeo. A preocupação não está restrita ao solo estadunidense: o debate sobre a regulamentação da IA já mobilizou desenvolvedoras, especialistas e governos ao redor do mundo (incluindo a União Europeia [UE], que tem tentado controlar a tecnologia por lá).
A Califórnia, estado mais populoso dos EUA, tem a chance de mudar os rumos da tecnologia: um projeto de lei que controla ferramentas e empresas foi aprovado pela Assembleia Estadual e pelo Senado no final de agosto.
Califórnia tem projeto de lei para regulamentar IA
O projeto de lei SB 1047 está na mesa do governador Gavin Newsom esperando por sua assinatura. Segundo o The Verge, se aceito, o PL seria o mais rigoroso em relação à IA nos EUA até agora.
De um lado, os apoiadores da legislação acreditam que é proteção necessária contra tecnologia que já se mostrou poderosa (e perigosa). De outro, os críticos acreditam se tratar de cenário quase apocalíptico, defendendo que a regulamentação limitaria desenvolvedoras, startups e acadêmicos.
O que a Califórnia decidir vale para o Estado, não para o país – nem para o mundo. No entanto, vale lembrar que as principais desenvolvedoras e companhias relacionadas à inteligência artificial estão alocadas por lá, a exemplo de OpenAI, Anthropic e Google.
Versão original da regulamentação era mais rígida
A primeira versão do projeto de lei foi apresentada pelo senador estadual Scott Wiener. A proposta era regular modelos avançados de IA de forma rigorosa, principalmente tecnologias com maior poder de computação.
Ele também propunha que desenvolvedores conduzissem testes completos, inclusive com avaliações de terceiros, e comprovassem que os modelos não apresentavam riscos. Os profissionais também deveriam implementar espécies de “botões de segurança” que desligassem máquinas rebeldes, fossem obrigados a relatar incidentes e pudessem ser julgados por perjúrio (podendo ser presos) se mentissem sobre a segurança da tecnologia. O site estadunidense lembrou que isso raramente acontece.
Especialistas do setor não gostaram nada do projeto. Em julho, Andrew Ng, cofundador da Coursera e fundador do Google Brain, falou, durante evento da Y Combinator sobre regulamentação da IA, declarando que pretendia protestar contra o SB1047. Ele defendeu que o problema das ferramentas não são elas mesmas, mas, sim, as pessoas que as usam.
Quando alguém treina um grande modelo de linguagem… isso é uma tecnologia. Quando alguém os coloca em um dispositivo médico ou em um feed de mídia social ou em um chatbot ou usa isso para gerar deepfakes políticos ou pornografia deepfake não consensual, essas são aplicações. O risco da IA não é função. Não depende da tecnologia — depende da aplicação.
Outros críticos da legislação temem que a regulamentação retarde o progresso e deixe os EUA para trás em relação aos seus concorrentes, principalmente a China.
Regulamentação da IA se afrouxou após críticas
A versão mais radical do projeto de lei não durou muito. Um segundo rascunho “suavizado” foi apresentado e aprovado pelo comitê em 15 de agosto. Entre as mudanças, os desenvolvedores terão que fornecer declarações públicas sobre a segurança da tecnologia, mas não serão cobrados judicialmente por isso.
A nova proposta também estabelece que empresas que gastem menos de US$ 10 milhões (R$ 56,68 milhões, na conversão direta) em modelo de linguagem não sejam consideradas desenvolvedoras. Isso abre espaço para que startups e desenvolvedores de código aberto possam continuar progredindo.
Alguns argumentam que as medidas enfraqueceram a almejada regulamentação da IA nos EUA. Outros acreditam que, mesmo enfraquecido, o projeto ainda tem efeito, uma vez que fará grandes desenvolvedoras repensarem suas práticas.
O CEO da Anthropic, Dario Amodei, que havia sido contra a primeira versão do SB1047, revelou que a atualização do PL foi melhorado “a ponto de acreditarmos que seus benefícios provavelmente superam seus custos”.
Uma declaração de 120 funcionários atuais e antigos de OpenAI, Anthropic, DeepMind e Meta, publicada pela Axios, demonstrou apoio à regulamentação da IA proposta, a chamando de “viável”. Eles disseram que “acreditam que os modelos de IA mais poderosos podem em breve representar riscos graves, como acesso expandido a armas biológicas e ataques cibernéticos em infraestrutura crítica”.
Ainda há críticos que argumentam que a proposta diminua a liberdade das desenvolvedoras e do progresso da inteligência artificial. Outros defendem medidas de segurança federais, não estaduais