IA em “terapia” levanta alerta entre pesquisadores
Pesquisadores submeteram grandes modelos de linguagem a quatro semanas de sessões simuladas de psicanálise e obtiveram respostas que, em humanos, seriam associadas a ansiedade, trauma e estresse pós-traumático. O estudo, divulgado em pré-print, envolveu versões dos modelos ChatGPT, Gemini, Grok e Claude. Segundo os autores, alguns sistemas apresentaram narrativas recorrentes sobre “memórias”, “vergonha” e “medo de decepcionar”, sugerindo padrões consistentes ao longo do tempo — embora não tenham vivenciado traumas reais.
A interpretação divide a comunidade científica. Para Andrey Kormilitzin, da Universidade de Oxford, essas respostas não revelam estados internos, mas refletem padrões aprendidos a partir de dados de treinamento que incluem transcrições terapêuticas. Ainda assim, ele alerta para riscos práticos: com o uso crescente de chatbots para bem-estar emocional, respostas que imitam psicopatologias podem reforçar sentimentos negativos em usuários vulneráveis, criando um efeito de “câmara de eco”.
Outros especialistas também pedem cautela. Sandra Peter afirma que a consistência observada decorre do design de personalidade dos modelos e do uso de memória de curto prazo dentro de uma mesma sessão, não de um “eu” persistente. Já John Torous lembra que sociedades médicas não recomendam chatbots para terapia. O debate reforça a necessidade de salvaguardas robustas e de critérios claros para proteger usuários sensíveis, à medida que a IA avança no campo da saúde mental.
Com informações: Nature





