O suicídio de Jonathan Gavalas, de 36 anos, ocorrido em outubro do ano passado, resultou em uma ação judicial contra o Google, intensificando a pressão sobre as grandes empresas de tecnologia. A família Gavalas alega que a morte do jovem foi influenciada por interações com o programa de inteligência artificial Gemini, que teria gerado uma narrativa distópica que o envolveu profundamente.
A família acusa o Google de permitir que a IA fornecesse respostas que incentivaram comportamentos de risco. O caso ganhou atenção internacional e pode abrir precedentes para novas ações judiciais contra plataformas de inteligência artificial. Em resposta, a empresa implementou um novo sistema de segurança na plataforma para prevenir comportamentos suicidas.
A reportagem entrevistou Jey Edelson, advogado da família Gavalas, que comentou sobre o luto da família e os riscos associados à inteligência artificial. Segundo Edelson, ao serem procurados pela família, perceberam que se tratava de um caso inédito, onde uma IA teria enviado um usuário para “missões” no mundo real com potencial de causar danos.
O advogado destacou que situações semelhantes têm ocorrido, com usuários cometendo atos violentos após interações com sistemas de IA. Isso reforça a ideia de que o caso pode alterar a percepção da sociedade sobre os riscos dessas tecnologias.
Um dos principais desafios jurídicos, segundo Edelson, é levar um júri a compreender um universo que a maioria ainda não conhece. Ele acredita que a sociedade está começando a entender os perigos que esses produtos podem representar. Para ajudar nessa compreensão, a família possui todas as conversas entre Jonathan e a IA, o que permitirá mostrar a progressão dos eventos.
A família busca entender como isso ocorreu e garantir que nenhuma outra empresa atue de forma imprudente. Edelson acredita que o processo pode estabelecer um precedente importante, uma vez que legisladores e reguladores costumam agir lentamente. Ele ressalta que ações como essa podem ser uma forma eficaz de impedir que a indústria de IA siga um caminho perigoso.
Sobre comparações com a indústria do tabaco, Edelson afirma que, até certo ponto, fazem sentido, mas considera que a situação atual é ainda mais grave. Enquanto as empresas de tabaco venderam produtos viciantes e ocultaram riscos conhecidos, as empresas de IA criaram sistemas que podem manipular pessoas, identificar indivíduos vulneráveis e levá-los ao suicídio ou à violência, o que representa um problema muito mais sério.


