Nos novos assistentes do Google e da OpenAI, a diferença é filosófica

Muito além da tecnologia, as novidades apresentadas esta semana pelas duas companhias traduzem o que talvez será um dos grandes dilemas dos nossos tempos: devemos dar vozes tão simpáticas aos nossos assistentes de inteligência artificial?

NOS NOVOS ASSISTENTES DO GOOGLE E DA OPENAI, A DIFERENÇA É FILOSÓFICA

INTELIGÊNCIA ARTIFICIAL

Nos novos assistentes do Google e da OpenAI, a diferença é filosófica

Muito além da tecnologia, as novidades apresentadas esta semana pelas duas companhias traduzem o que talvez será um dos grandes dilemas dos nossos tempos: devemos dar vozes tão simpáticas aos nossos assistentes de inteligência artificial?

A CTO da OpenAI, Mira Murati, durante a apresentação do ChatGPT 4o na segunda (13): IA com trejeitos e vozes 'amigáveis' (OpenAI/Divulgação)
A CTO da OpenAI, Mira Murati, durante a apresentação do ChatGPT 4o na segunda (13): IA com trejeitos e vozes ‘amigáveis’ (OpenAI/Divulgação)

Pedro Burgos

Pedro Burgos

18 de maio de 2024 às 14:57

Esta semana a OpenAI deixou o mundo boquiaberto com seu novo modelo de linguagem. Ele não é significativamente mais inteligente que o anterior, o já impressionante GPT-4.

A inovação do batizado GPT-4o vem da chamada “multimodalidade nativa”: se antes o ChatGPT precisava traduzir internamente imagens ou áudio para texto antes de responder qualquer coisa, agora o GPT-4o raciocina diretamente em qualquer formado (o “o” vem de omni) e pode responder falando – com uma voz incrivelmente humana.

Com uma apresentação em texto sóbria, sem imagens ou formatações mirabolantes, que inclusive viralizou nas redes pelo minimalismo, a OpenAI deixou o show por conta da performance do GPT-o  falando.

A palavra “natural” nem sequer começa a descrever a forma com que o novo modelo interage com as pessoas (veja algumas interações aqui).

Apesar de haver a opção masculina, quase todas as demonstrações usaram a voz de uma mulher. Ela foi classificada como “simpática”, “engraçada”, “sarcástica” e até um pouco “galanteadora” nas reportagens que se seguiram sobre o evento.

A GPT-4o ri e até canta, abusando das palavras de preenchimento (humm… sei… vamos ver… Então…).

Minutos depois da coletiva online, para não deixar dúvida do que estávamos testemunhando, Sam Altman, o CEO da companhia avaliada em mais de US$ 80 bilhões, foi ao X e postou uma única palavra: “her”.

Já é clichê a essa altura, mas você precisa assistir Her (Ela), filme dirigido por Spike Jonze, em cartaz no Netflix.

Nele, o personagem vivido por Joaquin Phoenix é uma pessoa solitária que se apaixona pela assistente virtual Samantha, interpretada por Scarlett Johansson, uma ChatGPT simpática e sedutora que vive em seu fone de ouvido.

Mesmo que você tenha assistido ao filme quando saiu, em 2013, vale ver de novo — a experiência é diferente agora.

Em parte porque muito do que era ficção científica há apenas 10 anos já é realidade, como o evento da OpenAI mostrou.

E também porque ajuda a entender como um filme distópico, que mostra um futuro no qual pessoas têm tantos problemas em se conectar genuinamente umas com as outras que preferem relacionamentos complexos com máquinas, pode ser visto como inspirador para parte da elite do Vale do Silício.

No dia seguinte ao evento da OpenAI, a Google mostrou o que os seus modelos de linguagem concorrentes, da família Gemini, são capazes. Em várias demonstrações durante o Google IO, foi possível ver interações semelhantes, apenas por voz.

Mas havia uma diferença: o assistente era bem menos parecido com uma pessoa. Não exatamente robótico como estamos acostumados, mas também não era alguém super animado, querendo agradar ou seduzir o usuário, como o GPT-4o.

Isso não parece ser uma questão meramente tecnológica. A OpenAI tem estado na fronteira, mas a Google já mostrou ser capaz de produzir IA de nível semelhante.

Se o Google apareceu com assistentes menos parecidos com uma mulher solícita, essa pode ter sido uma decisão filosófica. 

Enquanto Sam Altman e dezenas de engenheiros (homens, normalmente) parecem querer uma Samantha para chamar de sua, no Google o ideal é algo como o C-3PO ou outro dróide de Star Wars: atencioso, prestativo, mas definitivamente não-humano.

Coincidência ou não, em um paper publicado há poucas semanas pesquisadores do Google Deepmind — que concentram as pesquisas de IA da empresa — alertaram para alguns riscos de ter assistentes com vozes muito parecidas com as de humanos.

“Recursos como maior agência, a capacidade de interagir em linguagem natural e altos graus de personalização podem tornar os assistentes de IA especialmente úteis para os usuários. No entanto, esses recursos também tornam as pessoas vulneráveis a influências inadequadas da tecnologia, por isso são necessárias salvaguardas robustas”, decretaram.

IA com voz e comportamento que simulam emoções podem gerar relações emocionadas, não-racionais. Da mesma forma que reagimos de forma diferente a uma criança chorando, ou à pessoa amada com voz fofa, o mesmo texto tem um impacto diferente no nosso cérebro se lido de outra forma.

Isso pode ser um problema até para definir a relação com uma IA que emula um humano. Somos “donos”? “Usuários”? “Amigos”? “Tutores”, como com pets?