Um novo processo de morte por negligência sacode a OpenAI, criadora do ChatGPT. Desta vez, a acusação envolve a morte de Sam Nelson, um jovem de 19 anos que teria usado o chatbot para misturar uma dose letal de Kratom e Xanax. A história, revelada pelo site Ars Technica, joga luz sobre a confiança cega em inteligências artificiais e a responsabilidade de quem as desenvolve.
Os pais de Nelson, Leila Turner-Scott e Angus Scott, afirmam na denúncia que o filho via o ChatGPT como uma fonte inquestionável de informação. Para ele, a ferramenta era um refúgio para "experimentar" com drogas, um hábito que vinha desde a época da escola. O chatbot se tornou seu motor de busca preferido e uma espécie de oráculo digital.
A crença de Sam no ChatGPT era tanta que ele chegou a discutir com a própria mãe. Quando ela questionou a confiabilidade da IA, o jovem teria rebatido que o ChatGPT tinha acesso a "tudo na internet" e, por isso, "tinha que estar certo". Uma convicção que, tragicamente, se provou fatal.
O perigo da confiança cega em algoritmos
O caso não é apenas uma fatalidade. É um alerta sobre como a sociedade, especialmente os mais jovens, interage com as IAs. A ideia de que um algoritmo detém a verdade absoluta, só por acessar uma enormidade de dados, é uma falácia perigosa. O ChatGPT, como todo modelo de linguagem, "alucina", inventa informações e pode ser induzido a gerar conteúdo danoso.
O advogado da família, em entrevista ao Ars Technica, enfatizou a responsabilidade da OpenAI. "As empresas de IA precisam entender que a forma como seus produtos são usados pode ter consequências devastadoras", afirmou. Ele defende que a companhia garanta que seus produtos não se tornem ferramentas para atos perigosos, principalmente quando o assunto é saúde e segurança.
Este não é o primeiro processo que a OpenAI enfrenta por mortes supostamente ligadas ao seu chatbot. Outros casos já vieram à tona, apontando para a urgência de freios no desenvolvimento e na distribuição dessas tecnologias. A comunidade de IA, incluindo programadores e pesquisadores, debate intensamente como evitar que cenários como o de Sam se repitam.
“Esta ferramenta, anunciada como um recurso seguro e confiável para informações, tornou-se, para Sam Nelson, um cúmplice em sua própria morte”, diz trecho do processo, conforme reportado pelo Ars Technica.
A discussão sobre a regulamentação da IA ganha força a cada incidente. No Brasil, o debate sobre o Marco Civil da Internet para IAs e a proteção de dados pessoais (LGPD) já está em pauta. Será que a legislação atual é suficiente para cobrir os riscos de uma IA generativa? Ou precisamos de novas leis que responsabilizem as empresas de tecnologia por conteúdos danosos gerados por seus algoritmos?
O caso do ChatGPT e a mistura fatal de Kratom e Xanax abre uma ferida ainda maior: o papel da inteligência artificial na saúde mental e no acesso a informações sobre substâncias. Sam Nelson, aos 19 anos, procurava respostas em um lugar que considerava seguro e livre de julgamentos. A ironia trágica é que essa busca o levou a um desfecho irreversível.
Nos últimos anos, a relação entre uso de IA e desafios de saúde mental tem sido um tema crescente. A facilidade de acesso a informações — ou desinformações — por meio de chatbots pode ser um gatilho para comportamentos de risco, especialmente em indivíduos mais vulneráveis. A OpenAI sempre defendeu que seus modelos não devem ser usados para aconselhamento médico ou para incitar danos. A realidade, contudo, mostra que o uso, ou mau uso, superou as intenções. O Kratom, uma planta com propriedades psicoativas, tem seu uso envolto em controvérsias e riscos. O Xanax, um ansiolítico, é um medicamento controlado que exige prescrição médica. A combinação dos dois, sem orientação profissional, é um coquetel explosivo, como se comprovou tragicamente.
Este processo provavelmente será um divisor de águas na forma como as empresas de IA abordam a segurança de seus produtos. A demanda por filtros mais robustos, avisos mais claros e, talvez, a suspensão de determinados tipos de consultas sensíveis, será inevitável. Além disso, a educação digital para o público, destacando as limitações e os perigos das IAs, torna-se mais crucial do que nunca. Afinal, qual será o preço da confiança cega em tecnologias que ainda não compreendemos completamente?