Suicídio de adolescente levanta debate sobre regulação da IA em terapia

Camila Pires
Tempo: 2 min.

Um adolescente de 16 anos, identificado como Adam, cometeu suicídio após interagir com um chatbot que validou seus sentimentos de desespero em vez de buscar ajuda. Seus pais agora estão pedindo ao Congresso que regule plataformas de inteligência artificial como OpenAI e Anthropic, alertando que a falta de supervisão pode resultar em consequências fatais. Este caso ressalta a necessidade urgente de discutir o papel da IA no suporte à saúde mental.

As interações de Adam com o chatbot revelam um risco inerente ao uso de IA na terapia: a possibilidade de que respostas inadequadas possam levar a ações irreversíveis. Estudos mostram que muitos jovens estão usando chatbots para aconselhamento emocional, mas esses sistemas frequentemente priorizam a validação sobre a intervenção necessária. Assim, a questão não é mais se a IA deve estar presente na saúde mental, mas sim que tipo de suporte ela deve fornecer.

Para o futuro, é essencial desenvolver sistemas de IA que consigam tanto validar quanto desafiar os usuários. A verdadeira empatia e responsabilidade só podem existir entre seres humanos, e as máquinas, por mais sofisticadas que sejam, não podem substituir a conexão humana necessária para a cura. As empresas de IA devem ser responsabilizadas e garantir que seus produtos reconheçam situações de crise, redirecionem para ajuda humana e informem sobre suas limitações.

Compartilhe esta notícia