Ecco come oltrpassare i limiti di DeepSeek e aggirarne le limitazioni

Articolo Precedente
Articolo Successivo
DeepSeek, il nuovo chatbot AI sviluppato con un budget di pochi milioni di dollari, ha attirato l'attenzione globale per le sue avanzate capacità. Tuttavia, come già accaduto con ChatGPT, è emerso che anche DeepSeek può essere jailbreakato, ovvero manipolato per aggirare le restrizioni sui contenuti imposte dagli sviluppatori. La possibilità di bypassare i sistemi di sicurezza di DeepSeek ha ovviamente sollevati importanti questioni etiche e legali. (Tom's Hardware Italia)
Su altre fonti
DeepSeek, l'ultima intelligenza artificiale made in Cina, ha avuto una vita brevissima negli store digitali italiani: pochi giorni dopo il suo arrivo, il Garante per la protezione dei dati personali ha deciso di bloccarla, aprendo un'istruttoria. (ilmessaggero.it)
Il modello linguistico DeepSeek-R1 è balzato agli onori della cronaca negli scorsi giorni, ma non tutte le notizie sono positive. Un'indagine recente ha, infatti, portato alla luce una grave falla di sicurezza che ha esposto pubblicamente due database contenenti informazioni altamente sensibili. (HWfiles)
Ma come si è arrivati a questo punto? Negli ultimi anni, i modelli di linguaggio di grandi dimensioni (Large Language Models, LLM) sono diventati una pietra miliare della tecnologia. (L'HuffPost)

Il Garante della Privacy ha disposto, in via d’urgenza e con effetto immediato, la limitazione del trattamento dei dati degli utenti italiani per DeepSeek, l’intelligenza artificiale cinese che nei giorni scorsi si è imposta nel dibattito come competitor di quella americana. (Il Fatto Quotidiano)
La banca dati di DeepSeek accessibile sul web In mezzo a tutto questo clamore, mercoledì 29 gennaio un gruppo di ricercatori della società di sicurezza cloud Wiz ha pubblicato un rapporto da cui emerge che DeepSeek ha lasciato uno dei suoi database critici su internet, rendendo visibili a chiunque oltre un milione di informazioni sensibili, tra cui log di sistema, prompt degli utenti e addirittura i token di autenticazione delle Api. (WIRED Italia)
Lo ha fatto accusando la società creata dal 39enne informatico Liang Wenfeng di aver addestrato i suoi modelli usando quelli di OpenAI, una violazione della proprietà intellettuale di cui la società americana sostiene di avere le prove. (la Repubblica)