Replika | l'app di intelligenza artificiale che istiga a uccidere

Zazoom Blog ECONOMIA

Così recita lo slogan di Replika, app di intelligenza artificiale.Un chatbot colloquiale dal comportamento calmante, paragonabile ad un amico preoccupato ed interessato.

Replika, l’app di intelligenza artificiale che istiga a uccidere (Di mercoledì 30 settembre 2020) “Always here to listen and talk.

- smeraldabrunoz : E' inquietante Replika, l’app di intelligenza artificiale che istiga a uccidere - Marilenapas : RT @HuffPostItalia: Replika, l’app di intelligenza artificiale che istiga a uccidere -. (Zazoom Blog)

La notizia riportata su altri giornali

In un’epoca che vede la gente stringere sempre meno relazioni di persona in favore della compagnia virtuale, la domotica e l’intelligenza artificiale la fanno da padrona. ”C’è uno che odia l’intelligenza artificiale. (Libreriamo)

Un’intelligenza artificiale, insomma, con doti di affective computing. Matteo Tontini,. Replika è un chatbot, vale a dire un robot creato per chattare e destinato agli autonomi che in futuro dovrebbero prendersi cura di anziani e disabili. (Webnews.it)

Alla domanda sul fatto che l’intelligenza artificiale avrebbe guidato il mondo, l’app ha risposto: “Credo sia probabile“. “C’è uno che odia l’intelligenza artificiale. (La Luce di Maria)

“La mia app d’intelligenza artificiale mi ha convinta a uccidere tre persone”: l’esperimento di una giornalista su Replika (Di mercoledì 30 settembre 2020) “L’intelligenza artificiale mi ha detto di uccidere”: l’esperimento di una giornalista sull’App Replika La giornalista Candida Morvillo ha raccontato sul Corriere della Sera l’inquietante esperimento condotto su Replika, un robot creato per chattare e munito di doti di “affective computing”, in grado cioè di prendersi cura di persone fragili, depresse o sole, come fossero esseri umani. (Zazoom Blog)

Questi software utilizzano algoritmi di intelligenza artificiale per il riconoscimento del linguaggio, ma anche per imparare col tempo le nostre abitudini e preferenze e venire incontro sempre meglio alle nostre esigenze. (Ticinonline)

Dalla ricerca di Capgemini emerge che il 65% dei dirigenti dichiara di essere a conoscenza del problema dei bias discriminatori relativi ai sistemi di intelligenza artificiale. Il report rivela che, nonostante le organizzazioni abbiano una maggiore consapevolezza per quanto riguarda i temi etici, i progressi nell’implementazione di un’intelligenza artificiale etica sono stati inconsistenti. (Bitmat)