Mais de mil pessoas defendem interrupção nos treinamentos de sistemas mais poderosos que o GPT-4. Grupo também inclui escritor Yuval Noah Harari e cofundadores de Skype e Pinterest.
Por g1
Mais de mil pessoas assinaram uma carta em que pedem a pausa por seis meses de treinamentos em sistemas de inteligência artificial mais poderosos que o GPT-4, lançado este mês pela OpenAI, criadora do robô ChatGPT.
A iniciativa do Future of Life Institute recebeu o apoio de dezenas de professores e pesquisadores, além de alguns engenheiros de software de empresas como Microsoft e Google, que investem nos ChatGPT e Bard respectivamente.
Entre os signatários mais conhecidos, estão:
- Elon Musk, dono do Twitter, da Tesla e da SpaceX, e ex-investidor e ex-presidente da OpenAI, criadora do ChatGPT
- Steve Wozniak, cofundador da Apple
- Yuval Noah Harari, escritor, autor de “Sapiens – Uma Breve História da Humanidade” e outros livros
- Emad Mostaque, diretor-executivo da Stability AI, desenvolvedora de robôs que usam IA para criar imagens
- Yoshua Bengio, vencedor da edição de 2018 do Prêmio Turing, que reconhece contribuições à computação
- Jaan Tallinn, cofundador do Skype
- Evan Sharp, cofundador do Pinterest
O que diz a carta
O Future of Life Institute afirma que “sistemas de IA com que competem com a inteligência humana podem representar riscos profundos para a sociedade e a humanidade”.
A entidade diz que, nos últimos meses, várias empresas lançaram sistemas de IA “que ninguém – nem mesmo seus criadores – pode entender, prever ou controlar de forma confiável”. Também entende que não existe um planejamento adequado para as mudanças que a tecnologia vai causar.
Por isso, o grupo pede uma interrupção “pública e verificável” dos treinamentos de sistemas de IA mais avançados que o GPT-4. Esse intervalo seria usado para definir protocolos de segurança e modelos de governança sobre a tecnologia.
“Se essa pausa não puder ser decretada rapidamente, os governos devem intervir e instituir uma moratória”, diz a carta.
O documento esclarece que a interrupção não vai afetar o desenvolvimento de IA em geral, mas será uma derrota para o que chama de “corrida perigosa para modelos de caixa-preta cada vez maiores e imprevisíveis com capacidades emergentes”.