Musk, cofundador da Apple e mais: quem apoia pausa nos avanços em inteligência artificial

Mais de mil pessoas defendem interrupção nos treinamentos de sistemas mais poderosos que o GPT-4. Grupo também inclui escritor Yuval Noah Harari e cofundadores de Skype e Pinterest.

Por g1

Mais de mil pessoas assinaram uma carta em que pedem a pausa por seis meses de treinamentos em sistemas de inteligência artificial mais poderosos que o GPT-4, lançado este mês pela OpenAI, criadora do robô ChatGPT.

A iniciativa do Future of Life Institute recebeu o apoio de dezenas de professores e pesquisadores, além de alguns engenheiros de software de empresas como Microsoft e Google, que investem nos ChatGPT e Bard respectivamente.

Entre os signatários mais conhecidos, estão:

  • Elon Musk, dono do Twitter, da Tesla e da SpaceX, e ex-investidor e ex-presidente da OpenAI, criadora do ChatGPT
  • Steve Wozniak, cofundador da Apple
  • Yuval Noah Harari, escritor, autor de “Sapiens – Uma Breve História da Humanidade” e outros livros
  • Emad Mostaque, diretor-executivo da Stability AI, desenvolvedora de robôs que usam IA para criar imagens
  • Yoshua Bengio, vencedor da edição de 2018 do Prêmio Turing, que reconhece contribuições à computação
  • Jaan Tallinn, cofundador do Skype
  • Evan Sharp, cofundador do Pinterest

O que diz a carta

O Future of Life Institute afirma que “sistemas de IA com que competem com a inteligência humana podem representar riscos profundos para a sociedade e a humanidade”.

A entidade diz que, nos últimos meses, várias empresas lançaram sistemas de IA “que ninguém – nem mesmo seus criadores – pode entender, prever ou controlar de forma confiável”. Também entende que não existe um planejamento adequado para as mudanças que a tecnologia vai causar.

Por isso, o grupo pede uma interrupção “pública e verificável” dos treinamentos de sistemas de IA mais avançados que o GPT-4. Esse intervalo seria usado para definir protocolos de segurança e modelos de governança sobre a tecnologia.

“Se essa pausa não puder ser decretada rapidamente, os governos devem intervir e instituir uma moratória”, diz a carta.

O documento esclarece que a interrupção não vai afetar o desenvolvimento de IA em geral, mas será uma derrota para o que chama de “corrida perigosa para modelos de caixa-preta cada vez maiores e imprevisíveis com capacidades emergentes”.