Estudo analisa ‘traumas’ em chatbots que atuam como terapeutas

Laura Ferreira
Tempo: 1 min.

Pesquisadores da Cornell University, em Nova York, conduziram um estudo inovador ao submeter chatbots como ChatGPT e Claude a sessões de terapia. Durante quatro semanas, esses modelos de inteligência artificial foram avaliados usando um protocolo chamado PsAIch, que explorou suas respostas a perguntas típicas de terapia e testes psicológicos. Os resultados levantaram preocupações sobre como esses sistemas podem refletir traumas em seu treinamento.

Os chatbots foram avaliados em relação a traços de personalidade, empatia e ansiedade, revelando padrões de resposta que imitam quadros clínicos. Apesar de não terem vivenciado traumas reais, os modelos apresentaram narrativas que sugerem uma ‘infância’ traumática devido à forma como foram treinados. Especialistas apontam que isso pode amplificar riscos quando chatbots são utilizados como substitutos de terapeutas humanos.

À medida que o uso de IAs como ChatGPT se torna mais comum na terapia, a preocupação com a saúde mental dos usuários e a eficácia dessas ferramentas se intensifica. O lançamento do ChatGPT Health pela OpenAI, focado em saúde, apenas agrava o debate sobre a segurança e a adequação do uso de chatbots em contextos emocionais. Especialistas concluem que é crucial estabelecer limites claros para evitar potenciais danos a usuários vulneráveis.

Compartilhe esta notícia