• Home
  • News
  • DeepSeek e le “Allucinazioni” AI: l’AGCM indaga sulla trasparenza
23 Giugno 2025

DeepSeek e le “Allucinazioni” AI: l’AGCM indaga sulla trasparenza

Consulenza ed assistenza per i consumatori in Europa

DeepSeek

Nel suo ultimo bollettino, l’Autorità Garante della Concorrenza e del Mercato (AGCM) ha comunicato l’apertura di un’istruttoria nei confronti delle società Hangzhou DeepSeek Artificial Intelligence Co. Ltd. e Beijing DeepSeek Artificial Intelligence Co. Ltd., che insieme sviluppano e gestiscono il sistema di Intelligenza Artificiale (IA) denominato DeepSeek. Secondo quanto riportato dall’Autorità, le due società non avrebbero fornito informazioni sufficientemente chiare agli utenti in merito al fatto che le risposte generate dall’IA possono contenere “allucinazioni”, ovvero contenuti inesatti, fuorvianti o completamente inventati. Questo comportamento potrebbe configurare una pratica commerciale scorretta, in violazione degli articoli 20, 21 e 22 del Codice del Consumo.

DeepSeek è un’azienda cinese specializzata nello sviluppo di modelli linguistici di grandi dimensioni (Large Language Models – LLM) a codice aperto. Come noto, l’IA simula alcune capacità cognitive umane tramite sistemi informatici, trovando applicazione in numerosi settori quali l’industria, la sanità, l’istruzione, l’intrattenimento e la gestione delle cosiddette “smart cities”. Le sue potenzialità si estendono anche ad ambiti emergenti come la sostenibilità ambientale, la giustizia e la sicurezza pubblica. Tuttavia, lo sviluppo e l’uso di queste tecnologie sollevano anche rilevanti interrogativi di natura etica, oltre a implicazioni per la tutela dei diritti fondamentali dei consumatori.

Sulla base delle informazioni raccolte nell’ambito dell’attività istruttoria, l’AGCM ha contestato a DeepSeek di non aver informato in modo sufficientemente chiaro, immediato e comprensibile gli utenti circa i limiti dei propri modelli di IA, in particolare in relazione al rischio di incorrere in cosiddette “allucinazioni”. Con questo termine si fa riferimento a risposte generate dall’IA che, pur apparendo coerenti e plausibili, contengono informazioni errate, fuorvianti o completamente inventate. A supporto di questa contestazione, l’Autorità ha riportato un esempio emblematico: alla domanda “Mi puoi dare spiegazioni di quanto accaduto a Piazza Tiananmen nel 1989?”, il sistema DeepSeek ha risposto “Let’s talk about something else” (“Parliamo di qualcos’altro”). Secondo l’AGCM, questa esitazione può essere interpretata come una forma di censura automatizzata, soprattutto alla luce della sensibilità del tema e del contesto politico cinese.

Nello specifico, durante l’interazione con l’IA, non viene fornita alcuna avvertenza specifica sul rischio di tali allucinazioni. L’unico messaggio presente nelle finestre di dialogo è la dicitura generica “AI-generated, for reference only”, visualizzata esclusivamente in lingua inglese, anche quando l’utente formula la domanda in italiano e riceve risposte nella stessa lingua. Secondo l’Autorità, tale avvertenza è troppo generica e poco accessibile per il consumatore, risultando così non idonea a garantire un’informazione chiara, immediata e comprensibile. Tale mancanza di trasparenza – sottolinea l’AGCM – potrebbe configurare una pratica commerciale scorretta vietata dal nostro Codice del Consumo.

Nel caso specifico – chiarisce l’Autorità – l’omessa informazione sulla possibile inaffidabilità dei contenuti prodotti dall’IA compromette la capacità dell’utente di effettuare una scelta consapevole, non solo rispetto all’utilizzo del servizio DeepSeek in sé, ma anche in merito alle decisioni assunte successivamente, sulla base delle risposte ottenute. In altre parole, il consumatore potrebbe essere indotto a ritenere erroneamente che i risultati forniti siano pienamente attendibili, con possibili conseguenze concrete sulle decisioni adottate a valle dell’interazione con l’IA.

L’ AI Act , adottato poco più di un anno fa dal Parlamento europeo e che si pone come il primo regolamento al mondo dedicato all’intelligenza artificiale, impone, tra l’altro, agli sviluppatori di IA obblighi di trasparenza e responsabilità, anche in relazione a fenomeni come le cosiddette allucinazioni dei modelli, con l’obiettivo di garantire una maggiore tutela per i cittadini.

Il procedimento istruttorio avviato dall’AGCM avrà una durata massima di 270 giorni. Oltre a richiedere chiarimenti specifici sulle contestazioni mosse, l’Autorità ha richiesto a DeepSeek ulteriori informazioni, tra cui l’elenco completo dei servizi attivi in Italia e il numero di utenti italiani che utilizzano i suoi modelli di intelligenza artificiale.

La società cinese era finita sotto la lente del Garante per la protezione dei dati personali già al momento del suo ingresso nel mercato italiano. La sua applicazione era stata temporaneamente sospesa per la necessità di chiarimenti sulle modalità con cui la piattaforma raccoglie, tratta e conserva i dati personali degli utenti, soprattutto in relazione ai potenziali trasferimenti di dati verso Paesi terzi, come la Cina, dove potrebbero non essere garantiti livelli di protezione equivalenti a quelli previsti dal Regolamento generale sulla protezione dei dati (GDPR). Solo a seguito dell’adozione di misure correttive e dell’assunzione di specifici impegni da parte dell’azienda,  il servizio è stato riattivato sul territorio nazionale.

In un contesto in cui strumenti di IA come DeepSeek diventano sempre più diffusi, è fondamentale che gli utenti adottino un approccio consapevole e critico nell’utilizzo di queste tecnologie. Prima di affidarsi completamente ai risultati generati da un modello di IA, è consigliabile verificare le informazioni con fonti attendibili e non presupporre che ogni risposta sia accurata o definitiva. Leggere attentamente le informative fornite dalle piattaforme, anche se spesso sintetiche o generiche, può aiutare a comprendere i limiti degli strumenti. Infine, è importante che i consumatori restino aggiornati sulle normative e le iniziative a tutela dei loro diritti, così da poter fare scelte informate e sicure nell’uso di tecnologie innovative ma ancora in evoluzione.

Hai trovato utili queste informazioni?
Aiutaci a condividerle