Florida, innamorato di un chatbot si suicida: qual è la responsabilità dell’IA

Florida, innamorato di un chatbot si suicida: qual è la responsabilità dell’IA
Articolo Precedente

precedente
Articolo Successivo

successivo

Un amore in alcuni momenti platonico, in altri passionale, talvolta tendente all’idealizzazione di rapporti sessuali. È questo il vortice nel quale Sewell Setzer, un quattordicenne statunitense, si è immerso di giorno in giorno sempre più a fondo, finendo per perdervi la vita. Pochi momenti prima di togliersi la vita, infatti, gli ultimi pensieri sono stati rivolti proprio al chatbot: “Mi manchi, sorellina”, ha scritto il ragazzo. (Luce)

Ne parlano anche altri giornali

AI Mortale! Un Ragazzo di 14 anni si Toglie la vita dopo mesi di dialogo con un Chatbot Mesi passati ad interagire con un Chatbot (Red Hot Cyber)

E al personaggio immaginario aveva confidato anche i suoi pensieri suicidi... (Fanpage.it)

A Orlando, in Florida, un'orribile tragedia che ha coinvolto un ragazzo di appena 14 anni ha messo in luce i potenziali rischi legati all’interazione con chatbot basati sull’intelligenza artificiale. (ilmessaggero.it)

Ragazzo suicida a 14anni dopo una ‘relazione’ con un chatbot, la madre denuncia Character.AI – Demografica

Si lega con un chatbot, poi il suicidio: il tragico caso di un adolescente americano Sewell Setzer, un adolescente di Orlando, ha perso la vita il 28 febbraio dopo mesi di interazioni intensive con un chatbot che impersonava Daenerys Targaryen. (Tech Princess)

La madre accusa Character.AI di negligenza, sollevando interrogativi cruciali sulla responsabilità delle aziende tecnologiche nel proteggere la salute mentale dei giovani utenti (Agenda Digitale)

Lo scorso febbraio un ragazzo americano di 14 anni si è suicidato dopo aver stretto un rapporto intimo con un chatbot, ovvero un’intelligenza artificiale in grado di chattare come se fosse un essere umano. (Demografica | Adnkronos)