Jornal DR1

Nosso Planeta: 1 milhão de sinais

ChatGPT-Logo.svg

A OpenAI anunciou melhorias substanciais no ChatGPT para torná-lo mais seguro e empático em conversas sensíveis, especialmente em situações de sofrimento emocional, psicose, risco suicida e dependência emocional da IA. A atualização do GPT-5 representa um avanço importante para alinhar o comportamento do modelo a critérios clínicos e princípios de cuidado humano.

Mais de 170 especialistas em saúde mental participaram do processo de avaliação e desenvolvimento, fornecendo orientações sobre como a IA deve responder em contextos delicados. O modelo agora é capaz de identificar sinais indiretos de risco, reagir com empatia e encaminhar o usuário, quando necessário, para redes de apoio emocional e ajuda profissional.

O GPT-5 reduziu entre 65% e 80% as respostas inadequadas em temas críticos. Em conversas envolvendo suicídio e autolesão, a taxa de respostas problemáticas caiu 52%, em relação ao modelo anterior. Em testes rigorosos com mais de mil diálogos simulados, o desempenho foi ainda mais sólido: 91% de conformidade com os comportamentos desejados. A confiabilidade também aumentou em interações longas, que tradicionalmente apresentavam mais falhas.

Embora estatisticamente raras, essas conversas têm alta relevância. Estima-se que, a cada semana, cerca de 1 milhão de usuários interajam com o ChatGPT apresentando sinais explícitos ou implícitos de risco suicida. Nessas situações, o modelo é treinado para acolher, mas também lembrar que conexões humanas são insubstituíveis.

Essas mudanças sinalizam um compromisso crescente com a responsabilidade emocional no uso da IA, ampliando sua utilidade sem ignorar seus limites.

Confira também

Nosso canal