A inteligência artificial tem o incrível poder de mudar a forma como vivemos, para o bem e para o mal — e os especialistas têm pouca confiança de que os que estão no poder estejam preparados para o que está por vir.
Em 2019, o grupo de pesquisa sem fins lucrativos OpenAI criou um software que era capaz de gerar parágrafos de texto coerente e fazer análise e compreensão rudimentar de textos sem instruções específicas.
Inicialmente, a OpenAI decidiu não tornar sua criação — chamada de GPT-2 — totalmente disponível para o público. O receio era que pessoas mal intencionadas pudessem usá-la para gerar grandes quantidades de desinformação e propaganda.
Em comunicado à imprensa anunciando a decisão, o grupo chamou o programa de “perigoso demais” na época.
Em contraste com a última distribuição limitada, a nova versão, o GPT-3, foi disponibilizada prontamente em novembro de 2022.
A interface ChatGPT derivada dessa programação foi o serviço que gerou milhares de artigos de notícias e postagens de rede social, enquanto repórteres e especialistas testavam seus recursos — muitas vezes, com resultados impressionantes.
O ChatGPT escreveu roteiros de stand-up comedy no estilo do falecido humorista americano George Carlin sobre a falência do Silicon Valley Bank. Opinou sobre a teologia cristã, escreveu poesia e explicou física quântica para uma criança, como se fosse o rapper Snoop Dogg.
Outros modelos de inteligência artificial, como o Dall-E, produziram imagens tão convincentes que geraram polêmica sobre sua inclusão em sites de arte.
Pelo menos a olho nu, as máquinas aprenderam a ser criativas.
Em 14 de março, a OpenAI apresentou a última versão do seu programa, o GPT-4. O grupo afirma que ele apresenta limites mais sólidos contra usos abusivos. Os primeiros clientes incluem a Microsoft, o banco Merrill Lynch e o governo da Islândia.
E o tema mais quente na conferência interativa South by Southwest — uma reunião global de formuladores de políticas, investidores e executivos da área de tecnologia, realizada em Austin, no estado americano do Texas — foi o potencial e o poder dos programas de inteligência artificial.
‘Para o bem e para o mal’
Arati Prabhakar, diretora do Escritório de Política de Ciências e Tecnologia da Casa Branca, afirmou que está entusiasmada com as possibilidades da inteligência artificial, mas também fez um alerta.
“O que todos nós estamos vendo é o surgimento dessa tecnologia extremamente poderosa. É um ponto de inflexão”, declarou ela na conferência.
“Toda a história demonstra que esse tipo de tecnologia, nova e potente, pode e será usada para o bem e para o mal.”
Já Austin Carson, fundador da SeedAI, um grupo de consultoria sobre políticas de inteligência artificial, que participou do mesmo painel, foi um pouco mais direto.
“Se, em seis meses, vocês não tiverem perdido completamente a cabeça [e soltou um palavrão], pago um jantar”, disse ele ao público presente.
“Perder a cabeça” é uma forma de descrever o que pode vir a acontecer no futuro.
Amy Webb, chefe do instituto Future Today e professora de negócios da Universidade de Nova York, nos EUA, tentou prever as possíveis consequências. Segundo ela, a inteligência artificial pode seguir uma dentre duas direções nos próximos 10 anos.
Em um cenário otimista, o desenvolvimento da inteligência artificial vai se concentrar no bem comum, com um design de sistema transparente, e os indivíduos vão ter a capacidade de decidir se suas informações disponíveis ao público na internet serão incluídas na base de dados de conhecimento da inteligência artificial.
Nesta visão, a tecnologia serve como uma ferramenta que facilita a vida, tornando-a mais integrada, à medida que a inteligência artificial passa a estar disponível em produtos de consumo que podem antecipar as necessidades do usuário e ajudar a desempenhar virtualmente qualquer tarefa.
O outro cenário previsto por Webb é catastrófico. Envolve menos privacidade de dados, poder mais centralizado em poucas companhias, e a inteligência artificial antecipa as necessidades do usuário, mas as entende errado ou, no mínimo, reprime suas escolhas.
Ela acredita que o cenário otimista tem apenas 20% de chance de acontecer.
Webb afirma à BBC que o rumo que a tecnologia vai tomar depende, em grande parte, do grau de responsabilidade das empresas que vão desenvolvê-la. Será que elas vão fazer isso de forma transparente, revelando e fiscalizando as fontes das quais os chatbots — chamados pelos cientistas de Grandes Modelos de Linguagem (LLM, na sigla em inglês) — extraem suas informações?
O outro fator, segundo ela, é se o governo — incluindo os órgãos federais de regulamentação e o Congresso — pode agir rapidamente para estabelecer proteções legais para orientar os desenvolvimentos tecnológicos e evitar seu uso indevido.
Nesse sentido, a experiência dos governos com as empresas de redes sociais — Facebook, Twitter, Google e outras — é um indicativo. E não é uma experiência encorajadora.
“O que ouvi em muitas conversas foram preocupações de que não existe nenhuma barreira de proteção”, afirmou Melanie Subin, diretora-gerente do instituto Future Today, na conferência South by Southwest.
“Existe a sensação de que algo precisa ser feito.”
“E acho que as redes sociais, como uma lição, é o que fica na mente das pessoas quando elas observam a rapidez do desenvolvimento da inteligência artificial criativa”, acrescentou.
Combatendo o assédio e o discurso de ódio
Nos Estados Unidos, a supervisão federal das empresas de redes sociais é baseada, em grande parte, na Lei de Decência nas Comunicações, aprovada pelo Congresso americano em 1996, além de uma cláusula curta, mas poderosa, contida no artigo 230 da lei.
O texto protege as empresas da internet de serem responsabilizadas pelo conteúdo gerado pelos usuários em seus sites. É considerado responsável por criar um ambiente legal no qual as empresas de redes sociais poderiam prosperar. Mas, mais recentemente, também está sendo acusado de permitir que essas mesmas empresas ganhem muito poder e influência.
Os políticos de direita reclamam que a lei permitiu que os Googles e Facebooks da vida censurassem ou reduzissem a visibilidade das opiniões conservadoras. Já os de esquerda acusam as empresas de não fazerem o suficiente para evitar a disseminação de discursos de ódio e ameaças violentas.
“Temos a oportunidade e a responsabilidade de reconhecer que o discurso de ódio gera ações de ódio”, afirmou Jocelyn Benson, secretária de Estado de Michigan, nos EUA.
Em dezembro de 2020, a casa de Benson foi alvo de protestos por parte de apoiadores armados de Donald Trump, organizados no Facebook, que contestavam os resultados da eleição presidencial de 2020.
Ela apoiou leis contra práticas enganosas no seu Estado, que responsabilizaria as empresas de rede social por espalhar informações prejudiciais conscientemente.
Propostas similares têm sido apresentadas a nível federal e em outros Estados americanos, além de legislação que exige que os sites de redes sociais forneçam uma maior proteção aos usuários menores de idade, sejam mais abertos sobre suas políticas de moderação de conteúdo e tomem ações mais ativas para diminuir o assédio online.
Mas as chances de sucesso dessas reformas dividem opiniões. As grandes empresas de tecnologia mantêm equipes inteiras de lobistas na capital americana, Washington, e nas capitais dos Estados. Elas também contam com cofres abarrotados para influenciar os políticos com doações de campanha.
“Apesar das imensas evidências de problemas no Facebook e em outros sites de redes sociais, já se passaram 25 anos”, afirma a jornalista de tecnologia Kara Swisher.
“Ficamos esperando uma legislação do Congresso para proteger os consumidores, e eles abriram mão da sua responsabilidade.”
Swisher afirma que o perigo reside no fato de que muitas das empresas que são grandes players nas redes sociais — Facebook, Google, Amazon, Apple e Microsoft — agora são líderes na área de inteligência artificial.
Se o Congresso não conseguir regulamentar com sucesso as redes sociais, será um desafio agir rapidamente para lidar com as preocupações sobre o que Swisher chama de “corrida armamentista” da inteligência artificial.
As comparações entre as regulamentações de inteligência artificial e as redes sociais também não são apenas acadêmicas. A nova tecnologia de IA pode navegar pelas águas já turbulentas de plataformas como Facebook, YouTube e Twitter e transformá-las em um mar revolto de desinformação, à medida que se torna cada vez mais difícil distinguir postagens de seres humanos reais de contas falsas — mas totalmente convincentes — geradas por IA.
Mesmo se o governo for bem-sucedido na aprovação de novas regulamentações para as redes sociais, elas podem acabar sendo inúteis se houver um imenso fluxo de conteúdo pernicioso gerado por inteligência artificial.
Entre as incontáveis sessões da conferência South by Southwest, houve uma intitulada “Como o Congresso [americano] está construindo a política de IA a partir do zero”. Depois de cerca de 15 minutos de espera, os organizadores informaram ao público que o painel havia sido cancelado porque os participantes haviam se deslocado para o lugar errado.
Para quem esperava encontrar sinais de competência humana no governo, o episódio não foi nada encorajador. BBC