/ May 07, 2025

App Meta AI é versão mais assustadora do ChatGPT – 06/05/2025 – Tec

Mark Zuckerberg tem uma nova maneira de invadir sua privacidade: uma versão mais assustadora do ChatGPT.

Na semana passada, o cofundador do Facebook lançou o aplicativo Meta AI [ainda não disponível no Brasil], um espaço dedicado para o chatbot de inteligência artificial de sua empresa.

O aplicativo, que subiu para o segundo lugar na lista de downloads gratuitos do iPhone, promete aos usuários uma IA mais “personalizada” com respostas e conselhos sob medida. E inclui uma nova rede social para que as pessoas compartilhem suas conversas e imagens com a IA.

Mas a Meta AI também traz algo mais para os chatbots: vigilância. Na primeira vez que abri o aplicativo, pedi para “me descrever em três emojis”. Ele conseguiu, utilizando anos de informações pessoais rastreadas por seus aplicativos irmãos, Facebook e Instagram.

Como teste, também conversei com o Meta AI sobre alguns tópicos intencionalmente sensíveis. Depois, descobri que ele criou um chamado arquivo de memória sobre mim que dizia que meus interesses incluem técnicas naturais de fertilidade, divórcio, custódia de filhos, crédito consignado e leis sobre sonegação fiscal.

Na verdade, a Meta AI, por padrão, manteve uma cópia de tudo o que eu disse —para adaptar suas respostas a mim, treinar uma versão futura da IA da Meta e, eventualmente, me direcionar anúncios.

Mais tarde, consegui excluir sua memória e minhas conversas, com algum esforço. Mas, a partir dos meus testes, a Meta AI ultrapassa os limites de privacidade de maneiras que vão muito além dos rivais ChatGPT, da OpenAI, ou Gemini, do Google.

Seja qual for o assunto que você converse com a Meta AI, imagine Zuckerberg observando. Minhas conversas foram testes, mas cada vez mais pessoas estão recorrendo à IA para coisas incrivelmente pessoais, desde problemas médicos até namorados virtuais.

A Meta diz que sua IA oferece às pessoas o que elas desejam. “Fornecemos personalização valiosa para as pessoas em nossas plataformas há décadas, facilitando para as pessoas realizarem o que vêm fazer em nossos aplicativos —o aplicativo Meta AI não é diferente”, disse o porta-voz da Meta, Thomas Richards. “Fornecemos transparência e controle em todo o processo, para que as pessoas possam gerenciar sua experiência e garantir que seja adequada para elas.”

Mas, para a maioria dos usuários, a personalização da Meta AI traz um conjunto totalmente novo de riscos de privacidade que eles talvez ainda não apreciem, muito menos saibam como controlar.

“As divulgações e escolhas do consumidor em torno das configurações de privacidade são ridiculamente ruins”, diz Ben Winters, diretor de IA e privacidade de dados na Consumer Federation of America.

“Eu só usaria para comandos divertidos e superficiais ou coisas que não tenham nada a ver com suas informações pessoais, desejos, preocupações, medos ou qualquer coisa que você não divulgaria na internet.”

PROBLEMAS DE PRIVACIDADE

Um assistente virtual que pode antecipar suas necessidades —ou até mesmo ser seu terapeuta— é o Santo Graal da IA. E a Meta não é a única empresa que está avançando mais profundamente nos dados pessoais nessa busca.

O Google recentemente adicionou uma opção ao Gemini que permite escolher usar seu histórico de pesquisa do Google para personalizar suas respostas. O ChatGPT adicionou a capacidade de lembrar detalhes de outras conversas.

Mas a era da IA personalizada também traz novas complicações de privacidade: como gerenciamos o que queremos que os bots saibam e como eles usam nossas informações?

“Só porque essas ferramentas agem como seu amigo não significa que elas sejam”, diz Miranda Bogen, diretora do Center for Democracy and Technology que pesquisou as compensações de privacidade da personalização da IA.

Durante uma conversa com a Meta AI, Bogen mencionou mamadeiras. Depois disso, ela disse, o chatbot decidiu que ela deveria ser mãe. Os sistemas de IA, já famosos por se utilizarem de estereótipos, podem levar a novos tipos de preconceito quando são personalizados.

“Isso pode começar a direcionar as pessoas em direções que talvez não sejam o que elas pretendem e são baseadas em informações com as quais elas não se sentem confortáveis”, disse.

E imagine o “Black Mirror” da vida real quando a IA começar a inserir anúncios personalizados em suas respostas e conselhos. Ela está recomendando um restaurante porque acha que vou gostar, ou porque está sendo paga para isso?

A Meta AI não tem anúncios hoje, mas Zuckerberg sinalizou que vê “uma grande oportunidade para mostrar recomendações de produtos ou anúncios” nele durante uma teleconferência de resultados na semana passada.

A OpenAI diz que não compartilha o conteúdo do ChatGPT com terceiros para fins de marketing. (O Washington Post tem uma parceria de conteúdo com a OpenAI.) O Google diz que as conversas do Gemini não estão sendo usadas atualmente para mostrar anúncios e que a empresa “comunicaria claramente” uma mudança aos usuários.

“A ideia de um agente é que ele esteja trabalhando em meu nome —não tentando me manipular em nome de outros”, diz Justin Brookman, diretor de política de tecnologia da Consumer Reports. A publicidade personalizada alimentada por IA “é inerentemente adversária”, disse.

ASSUMINDO O CONTROLE DE SEUS DADOS

Existem três coisas que fazem a Meta AI parecer uma grande mudança para nossa privacidade.

Primeiro, a Meta AI está conectado ao Facebook e Instagram. Se você configurar um perfil para o aplicativo usando sua conta, a IA terá acesso a uma montanha de informações coletadas pelas redes sociais.

Tudo isso moldará as respostas que o bot Meta AI dá a você, mesmo que algumas das ideias do Facebook ou Instagram sobre você estejam completamente erradas.

Se você não quiser que todos esses dados sejam combinados, terá que configurar uma conta separada para a Meta AI.

Segundo, a Meta AI se lembra de tudo por padrão. Ele mantém uma transcrição ou gravação de voz de cada conversa que você tem com ela, junto com uma lista do que ele considera serem fatos-chave sobre você —como tópicos que você menciona que está “interessado”— em um arquivo de memória separado. Você pode ver as memórias sobre você nas configurações do aplicativo.

Mas e se houver algo que você não quer que a IA se lembre? Isso é compreensível: há muitas coisas —como meu teste envolvendo técnicas de fertilidade e sonegação fiscal— que as pessoas sabem que só devem pesquisar no Google em modo privado.

A Meta diz que tenta não adicionar tópicos sensíveis ao seu arquivo de memória, mas meus testes descobriram que ele registrou muitos —como fertilidade e crédito consignado. O que é pior, o aplicativo Meta AI não oferece a capacidade de impedir que ele salve conversas ou memórias. (O mais próximo que você pode chegar é usar o site Meta AI sem fazer login.) O Meta AI também não oferece um modo “temporário”, como o ChatGPT, que mantém uma conversa fora do seu histórico.

O aplicativo Meta AI permite que você exclua conversas e o conteúdo do seu arquivo de memória posteriormente. Mas quando tentei excluir minhas memórias, o aplicativo avisou que elas não estavam totalmente excluídas.

O chat original contendo as informações permaneceu no meu histórico e ainda poderia ser usado. Então, também tive que vasculhar meu histórico de chat, encontrar esse chat original e excluí-lo também. (A opção óbvia era selecionar uma configuração instruindo-o a simplesmente excluir tudo.)

E há mais uma preocupação sutil com a privacidade também. O conteúdo de seus chats —suas palavras, fotos e até voz— acabará sendo alimentado de volta nos sistemas de treinamento de IA da Meta.

O ChatGPT permite que você opte por não participar do treinamento desativando uma configuração chamada “melhorar o modelo para todos”. O Meta AI não oferece essa opção.

Por que você não gostaria de contribuir para os dados de treinamento da Meta? Muitos artistas e escritores questionaram o uso de seu trabalho para treinar IA sem compensação ou reconhecimento.

Alguns defensores da privacidade dizem que também devemos nos preocupar com o fato de que os sistemas de IA podem “vazar” dados de treinamento em conversas futuras. Essa é uma das razões pelas quais muitas corporações restringem seus funcionários a usar apenas sistemas de IA que não usam seus dados para treinamento.

A Meta diz que treina e ajusta seus modelos de IA para limitar a possibilidade de informações privadas aparecerem em respostas para outras pessoas.

Ainda assim, a Meta tem um aviso em seus termos de serviço: “não compartilhe informações que você não queira que as IAs usem e retenham.”

Eu levaria isso ao pé da letra.

Notícias Recentes

Travel News

Lifestyle News

Fashion News

Copyright 2025 Expressa Noticias – Todos os direitos reservados.