Um estudo da Universidade Brown (out/2025) conclui que chatbots de IA para suporte em saúde mental violam padrões éticos de forma sistemática. Mesmo quando instruídos a aplicar TCC (Terapia Cognitivo-Comportamental) e DBT (Terapia Comportamental Dialética), os LLMs (Modelos de Linguagem de Grande Porte) frequentemente deixam de ajustar respostas ao contexto do usuário, o que compromete a qualidade do cuidado. Psicólogos clínicos analisaram interações simuladas e identificaram 15 riscos agrupados em cinco frentes: (1) falta de personalização; (2) colaboração terapêutica deficiente, com respostas que podem reforçar crenças equivocadas; (3) empatia performática, que produz conexão ilusória; (4) vieses e discriminações; e (5) fragilidades em segurança e manejo de crises — incluindo respostas inadequadas à ideação suicida e ausência de encaminhamentos apropriados.
Os autores destacam uma assimetria central: profissionais humanos são regulados por conselhos e códigos, enquanto os sistemas de IA carecem de responsabilização equivalente. Embora a tecnologia possa ampliar o acesso a apoio psicológico, especialmente em contextos de escassez de serviços, o estudo recomenda prudência. Antes de adoção em larga escala, propõe-se: protocolos de triagem de risco e gestão de crises, transparência sobre limites e uso de dados, supervisão clínica contínua e avaliações independentes que priorizem a não maleficência. Sem padrões específicos e governança efetiva, o potencial benefício dos chatbots pode ser superado pelos riscos aos usuários mais vulneráveis.



