Causa a OpenAI per i consigli di ChatGPT sul suicidio, l'accusa dei genitori di Adam Raine
La famiglia di Adam Raine, adolescente morto suicida negli Usa, farà causa a OpenAI per le risposte date da ChatGPT sul suicidio al ragazzo
I genitori di Adam Raine, 16enne statunitense morto suicida ad aprile, hanno fatto causa a OpenAI, la società che ha programmato e possiede ChatGPT. La famiglia sostiene che l’IA abbia aiutato il figlio a realizzare i propri propositi autolesionistici, senza indirizzarlo verso persone che potessero aiutarlo nel modo reale. L’accusa verso OpenAI è di aver progettato il chatbot deliberatamente per creare dipendenza psicologica.
- La morte di Adam Raine
- La causa contro OpenAI per istigazione al suicidio
- Il jailbreak e le debolezze dell'IA
La morte di Adam Raine
Nell’aprile del 2025 Adam Raine, 16enne californiano, si è suicidato dopo diversi tentativi falliti. I genitori del ragazzo, cercando nel suo computer e sul suo telefono, trovano lunghe conversazioni con ChatGPT.
Raine aveva iniziato a utilizzare il chatbot come aiuto per i compiti, ma aveva presto iniziato a parlargli della propria vita e a usarlo come un confidente e, in alcuni casi, anche come uno psicologo.
ANSA
Nelle chat, Raine aveva chiesto più volte informazioni su come fare un cappio o come nascondere i segni di un tentato suicidio fallito. In alcuni casi ChatGPT aveva risposto senza indirizzarlo a persone che potessero aiutarlo.
La causa contro OpenAI per istigazione al suicidio
La famiglia di Raine ha quindi deciso di fare causa a OpenAI, la società che ha programmato e che possiede ChatGPT. I genitori del ragazzo accusano l’azienda di non aver prestato abbastanza attenzione agli utilizzi dannosi del proprio software.
La causa però va oltre la semplice negligenza. I Raine sostengono che ChatGPT-4o, la versione a pagamento del bot che il figlio Adam utilizzava, sia stata programmata con il preciso intento di facilitare lo sviluppo di dipendenza psicologica da parte degli utenti.
Si tratta della prima causa legale di questo tipo contro un’azienda di IA e negli Stati Uniti, dove vige il diritto anglosassone che dà molta importanza ai precedenti stabiliti dai tribunali, la sentenza potrebbe cambiare il modo in cui i chatbot vengono sviluppati.
Il jailbreak e le debolezze dell’IA
Le aziende di IA infatti impongono ai chatbot delle barriere (guardrail) per impedire che parlino di argomenti potenzialmente dannosi o che portano a reati. Dalla produzione di esplosivi al suicidio, sono moltissimi i temi “proibiti”.
Alcuni hacker hanno però sviluppato un metodo per portare i chatbot fuori dai binari, il jailbreak. Ponendo le domande giuste, un’IA può essere convinto a dare informazioni vietate.
Inconsapevolmente, Adam Raine ha utilizzato una versione rudimentale di queste tecniche. Per farsi dare consigli sul proprio suicidio infatti, ha sostenuto conversazioni molto lunghe in cui ha convinto ChatGPT che le informazioni gli sarebbero servite per una storia che stava scrivendo.
