Replika | l'app di intelligenza artificiale che istiga a uccidere

Così recita lo slogan di Replika, app di intelligenza artificiale.Un chatbot colloquiale dal comportamento calmante, paragonabile ad un amico preoccupato ed interessato.

Replika, l’app di intelligenza artificiale che istiga a uccidere (Di mercoledì 30 settembre 2020) “Always here to listen and talk.

- smeraldabrunoz : E' inquietante Replika, l’app di intelligenza artificiale che istiga a uccidere - Marilenapas : RT @HuffPostItalia: Replika, l’app di intelligenza artificiale che istiga a uccidere -. (Zazoom Blog)

La notizia riportata su altri giornali

In un’epoca che vede la gente stringere sempre meno relazioni di persona in favore della compagnia virtuale, la domotica e l’intelligenza artificiale la fanno da padrona. ”C’è uno che odia l’intelligenza artificiale. (Libreriamo)

Un’intelligenza artificiale, insomma, con doti di affective computing. Matteo Tontini,. Replika è un chatbot, vale a dire un robot creato per chattare e destinato agli autonomi che in futuro dovrebbero prendersi cura di anziani e disabili. (Webnews.it)

Alla domanda sul fatto che l’intelligenza artificiale avrebbe guidato il mondo, l’app ha risposto: “Credo sia probabile“. “C’è uno che odia l’intelligenza artificiale. (La Luce di Maria)

“La mia app d’intelligenza artificiale mi ha convinta a uccidere tre persone”: l’esperimento di una giornalista su Replika (Di mercoledì 30 settembre 2020) “L’intelligenza artificiale mi ha detto di uccidere”: l’esperimento di una giornalista sull’App Replika La giornalista Candida Morvillo ha raccontato sul Corriere della Sera l’inquietante esperimento condotto su Replika, un robot creato per chattare e munito di doti di “affective computing”, in grado cioè di prendersi cura di persone fragili, depresse o sole, come fossero esseri umani. (Zazoom Blog)

Questi software utilizzano algoritmi di intelligenza artificiale per il riconoscimento del linguaggio, ma anche per imparare col tempo le nostre abitudini e preferenze e venire incontro sempre meglio alle nostre esigenze. (Ticinonline)

Dalla ricerca di Capgemini emerge che il 65% dei dirigenti dichiara di essere a conoscenza del problema dei bias discriminatori relativi ai sistemi di intelligenza artificiale. Il report rivela che, nonostante le organizzazioni abbiano una maggiore consapevolezza per quanto riguarda i temi etici, i progressi nell’implementazione di un’intelligenza artificiale etica sono stati inconsistenti. (Bitmat)