Meta AI no WhatsApp tem falhas na política de privacidade

Os padrões inferiores de privacidade na comunicação com a IA do conglomerado podem confundir as expectativas do usuário com privacidade, na avaliação da diretora da associação Data Privacy Brasil Mariana Rielli

(FOLHAPRESS) – Dona do WhatsApp, a Meta decidiu colocar inteligência artificial em todo o aplicativo. A tecnologia pode ser acionada nos grupos, nas conversas pessoais e até nas pesquisas -todos os espaços conhecidos pela garantia de privacidade com criptografia de ponta a ponta. “Pergunte à Meta AI ou pesquise”, diz a nova barra de buscas. Dentro de uma conversa, por exemplo, basta digitar o “@” e o aplicativo já sugere convidar o robô para o bate-papo.

A situação gerou desconfiança dos usuários em relação a quais informações o aplicativo consegue acessar. A empresa diz que a criptografia de ponta a ponta no app está protegida. A Meta AI acessaria apenas as mensagens enviadas a ela, segundo nota da empresa.

Há, porém, recursos de privacidade ligados às IAs da Meta, mencionados na política de privacidade, que ainda não funcionam, após 25 dias do anúncio da ferramenta. Segundo advogados consultados pela reportagem, a política de privacidade da Meta para a tecnologia, que foi alvo de uma medida preventiva da ANPD (Autoridade Nacional de Proteção de Dados) entre julho e agosto, continua “confusa” e “pouco transparente”.

O contrato de proteção de dados do conglomerado diz, por exemplo, que o comando “/saved-details” mostra “os detalhes mais recentes da conversa com as IAs da Meta”. A funcionalidade, já ativa nos Estados Unidos, não entrega o resultado esperado nos aparelhos brasileiros. O robô enviou respostas automáticas a cinco celulares testados pela reportagem.

“Desculpe, mas não tenho acesso a informações pessoais ou detalhes salvos sobre você.” O chatbot, todavia, salvou todas as mensagens que recebera da reportagem -o conteúdo estava disponível na relação de dados armazenados pela Meta, obtida por meio do comando “/download-all-ai-info”.

O professor da Faculdade de Direito da USP Juliano Maranhão diz que falta transparência na política de privacidade da Meta, que deveria informar que a ferramenta não funciona. Por enquanto, segundo o especialista, o caminho é baixar o link que mostra todas as conversas que foram feitas com o robô.

Outro alvo de queixas foi a adição da IA à barra de buscas por mensagens e grupos, cujo conteúdo é protegido por criptografia.

“O usuário não pode desativá-la nesta experiência, mas pode pesquisar da maneira habitual para acessar uma variedade de resultados”, diz a Meta em nota. De acordo com a empresa, o conteúdo das buscas só é usado para treinar modelos de IA caso a pessoa clique na sugestão de comando para o chatbot.

Segundo a política de privacidade da Meta AI, a plataforma usa os metadados como o número identificador do usuário (ID) e o horário do envio para melhorar as respostas.

A Meta diz que o usuário pode acessar o formulário, disponível neste link, de oposição ao uso das suas mensagens com IAs no WhatsApp para treinar modelos de inteligência artificial.

A reportagem, que havia vetado o uso de dados públicos para desenvolvimento de inteligência artificial na versão anterior desse formulário, teve todas as mensagens enviadas à Meta AI armazenadas pela plataforma. A Meta criou um novo documento de privacidade para se adequar às exigências da ANPD e não comunicou se os usuários precisam declarar oposição outra vez.

“O problema é que a política de privacidade é bem confusa e não deixa muito claro se os dados continuam sendo armazenados, embora não sejam usados no treinamento de IAs”, afirma a advogada Marina Fernandes Siqueira, do Idec (Instituto de Defesa de Consumidores).

A ANPD, que atua sob o guarda-chuva do Ministério da Justiça, notificou a Meta por falta de transparência no uso de dados para treinar IA e risco iminente de violações da LGPD (lei geral de proteção de dados), após provocação do Idec .

O principal argumento da entidade era de que o gigante da tecnologia tratava os brasileiros como “cidadãos de segunda classe”, uma vez que a empresa alertou os clientes europeus, com envio de email e opção simples de oposição à medida, sobre o uso de dados pessoais no desenvolvimento de IA. No Brasil, houve, segundo a empresa, uma notificação pop-up da mudança na política de privacidade nos próprios aplicativos.

Após o lançamento da plataforma, no último dia 9, a autoridade de dados solicitou à Meta o envio do relatório de impacto à proteção de dados pessoais e do LIA (um documento que justifica os motivos do usuário ter interesse em determinado processamento de informações) referentes ao tratamento da IA da Meta no WhatsApp, para verificar a regularidade da prática.

O conglomerado, agora, mantém duas políticas de privacidade no WhatsApp: uma vale quando o usuário se comunica com outras pessoas, e o outro, nas comunicações com a empresa para recorrer a modelos de IA. “Eu uso um outro serviço da empresa que está na mesma interface, mas é um outro serviço”, resume Maranhão.

O contrato da ferramenta determina que qualquer pessoa que interagir com a máquina aceita as condições da empresa para a Meta AI de forma automática.

O incremento compulsório da Meta AI no WhatsApp gerou insatisfação do público. Logo após o anúncio da ferramenta, as buscas por uma forma de remover o robô do aplicativo explodiram desde o dia 21, mostra o Google Trends.

Os padrões inferiores de privacidade na comunicação com a IA do conglomerado podem confundir as expectativas do usuário com privacidade, na avaliação da diretora da associação Data Privacy Brasil Mariana Rielli. “A criptografia é sempre uma mensagem muito forte da Meta quando falam de questões de privacidade.”

NOTICIASAOMINUTO