Florida, innamorato di un chatbot si suicida: qual è la responsabilità dell’IA
Articolo Precedente
Articolo Successivo
Un amore in alcuni momenti platonico, in altri passionale, talvolta tendente all’idealizzazione di rapporti sessuali. È questo il vortice nel quale Sewell Setzer, un quattordicenne statunitense, si è immerso di giorno in giorno sempre più a fondo, finendo per perdervi la vita. Pochi momenti prima di togliersi la vita, infatti, gli ultimi pensieri sono stati rivolti proprio al chatbot: “Mi manchi, sorellina”, ha scritto il ragazzo. (Luce)
Ne parlano anche altri giornali
AI Mortale! Un Ragazzo di 14 anni si Toglie la vita dopo mesi di dialogo con un Chatbot Mesi passati ad interagire con un Chatbot (Red Hot Cyber)
E al personaggio immaginario aveva confidato anche i suoi pensieri suicidi... (Fanpage.it)
A Orlando, in Florida, un'orribile tragedia che ha coinvolto un ragazzo di appena 14 anni ha messo in luce i potenziali rischi legati all’interazione con chatbot basati sull’intelligenza artificiale. (ilmessaggero.it)
Si lega con un chatbot, poi il suicidio: il tragico caso di un adolescente americano Sewell Setzer, un adolescente di Orlando, ha perso la vita il 28 febbraio dopo mesi di interazioni intensive con un chatbot che impersonava Daenerys Targaryen. (Tech Princess)
La madre accusa Character.AI di negligenza, sollevando interrogativi cruciali sulla responsabilità delle aziende tecnologiche nel proteggere la salute mentale dei giovani utenti (Agenda Digitale)
Lo scorso febbraio un ragazzo americano di 14 anni si è suicidato dopo aver stretto un rapporto intimo con un chatbot, ovvero un’intelligenza artificiale in grado di chattare come se fosse un essere umano. (Demografica | Adnkronos)