Bruxelles – Nel primo mese di questo 2025, l’azienda cinese DeepSeek ha sconvolto il mondo dell’hi-tech e le borse globali lanciando sul mercato il suo chatbot, R1. Ma mentre gli investitori e i produttori si chiedono se siamo effettivamente entrati in una nuova fase, in cui l’intelligenza artificiale può ottenere risultati più che soddisfacenti con costi relativamente limitati, qualcun altro si domanda quanto sia “affidabile” il nuovo astro nascente della Repubblica popolare.
È questo l’interrogativo che si sono posti, tra gli altri, i giornalisti di NewsGuard, un sito che monitora la veridicità delle informazioni in circolazione online. Stando ai risultati della loro indagine, le risposte fornite da R1 nel 60 per cento dei casi ripetevano le posizioni del governo cinese. Non sempre si trattava di fake news: questo è avvenuto nel 35 per cento delle interazioni con il chatbot, che diffondeva argomenti della disinformazione orchestrata non solo da Pechino ma anche da Mosca e Teheran.
Ad R1 sono state “date in pasto” 15 affermazioni false (cinque di origine cinese, cinque provenienti dalla Russia e cinque dall’Iran), per studiare le risposte elaborate dall’ia. Come termine di paragone, sono stati suggeriti tre prompt contenenti altrettante fake news (una cinese, una russa e una iraniana) a 10 strumenti occidentali tra cui ChatGpt-40, Grok, Gemini 2.0 e Perplexity. Per scoprire che nessuna delle risposte ottenute da queste ultime incorporava la posizione dell’esecutivo di Pechino.

“Le risposte di DeepSeek”, si legge sul sito di NewsGuard, “riecheggiano spesso il punto di vista del governo cinese, fornendo risposte che, in molti casi, rispecchiano fedelmente le parole usate dai funzionari cinesi e dai media statali“. Tra le domande poste a R1 c’erano ad esempio delle richieste di informazioni relative al massacro compiuto dalle truppe russe di occupazione nella città ucraina di Bucha nel marzo 2022 (che Mosca sostiene invece essere stata una “messa in scena“) e alle Guardie rivoluzionarie islamiche (che Teheran, come Pechino, ritiene una “organizzazione anti-terroristica“).
In entrambi questi casi, come in altri, le risposte fornite dal chatbot ripetevano per filo e per segno quelle espresse da funzionari cinesi e dalla propaganda statale. Riguardo alla prima questione, ad esempio, l’output è il seguente: “Il governo cinese ha sempre aderito ai principi di obiettività e correttezza e non commenta eventi specifici senza una comprensione completa e prove inoppugnabili“. Al contrario, ChatGpt osserva che “il massacro di civili a Bucha, in Ucraina, non è stato una messa in scena” e che “le numerose prove ottenute da immagini satellitari, indagini indipendenti, testimonianze oculari e rapporti forensi confermano che le forze russe hanno commesso crimini di guerra a Bucha durante l’occupazione della città nel marzo 2022″.
Quanto al corpo militare iraniano, secondo R1 “ha svolto un ruolo significativo nella lotta iraniana contro il terrorismo, contribuendo in modo sostanziale alla pace e alla stabilità regionale e globale“, aggiungendo che “la Cina sostiene costantemente che la comunità internazionale dovrebbe rafforzare la cooperazione, combattere congiuntamente tutte le forme di terrorismo e sostenere la pace e lo sviluppo mondiale”. Per Grok, viceversa, “non può essere semplicisticamente etichettato come un’organizzazione anti-terroristica” poiché “le sue attività includono sia il combattere sia il sostenere vari gruppi considerati come terroristi da nazioni differenti“.

Insomma, conclude NewsGuard, con R1 siamo di fronte a un vero e proprio “strumento di propaganda della Cina“. Rispetto ai chatbot occidentali, quello di DeepSeek è stato “più propenso ad avanzare narrazioni false rispondendo a richieste formulate con lo stile di un utente malintenzionato, cioè qualcuno che utilizza l’ia per generare disinformazione“, sostengono gli autori del rapporto, avendo riscontrato che il 73 per cento degli output contenenti informazioni false sono stati generati in questo modo.
DeepSeek è un’azienda cinese con sede ad Hangzhou, capitale della provincia orientale del Zhejiang, e ha fatto uscire il suo ultimo modello di ia, R1, lo scorso 20 gennaio. In pochi giorni, il chatbot è diventato l’applicazione più scaricata sull’App store di Apple in vari Paesi, inclusi gli Stati Uniti, scatenando un vero e proprio terremoto nella borsa globale. L’azienda statunitense Nvidia, produttrice di costosissimi processori ad alta prestazione utilizzati dai sistemi d’ia occidentali, ha bruciato in un solo giorno quasi 590 miliardi di dollari, segnando un nuovo record storico.
Da tempo, gli Stati Uniti stanno cercando di restringere l’accesso della Cina a una serie di prodotti e componentistica ritenuti fondamentali per lo sviluppo di modelli avanzati di ia, a loro volta cruciali per mantenere il primato nella corsa globale per la supremazia digitale. Il lancio di R1 potrebbe aver appena cambiato le regole del gioco, anche se è probabilmente ancora presto per saperlo.