![](https://www.albertopuliafito.it/wp-content/uploads/2025/01/Deepseek.png)
DeepSeek è una startup cinese che, a gennaio del 2025, è diventata nota a livello globale grazie al suo modello avanzato di intelligenza artificiale generativa , DeepSeek-R1.
Che cos’è DeepSeek e perché non era noto prima?
Indice dei contenuti
- Che cos’è DeepSeek e perché non era noto prima?
- Perché il garante per la privacy ha bloccato DeepSeek in Italia?
- Cosa rende DeepSeek diverso dagli altri modelli di IA?
- DeepSeek e la distillazione
- Perché le aziende tecnologiche statunitensi sono crollate in borsa?
- L’arrivo di DeepSeek è una buona notizia per il progresso tecnologico?
- Deep seek è davvero open source?
- DeepSeek, la tecnologia MoE e l’apprendimento per rinforzo
- Implicazioni geopolitiche e strategie di mercato dopo DeepSeek
- Benchmark, performance e costi: un’analisi comparativa
- Il modello open source e le opportunità per sviluppo e ricerca
DeepSeek è stata fondata nel 2023 in Cina e ha rapidamente scalato il settore dell’AI. Il modello DeepSeek-R1, lanciato a gennaio 2025, è progettato per compiti complessi come il ragionamento matematico e la programmazione. Si basa su tecnologie avanzate come l’architettura Mixture of Experts (MoE), che attiva solo una parte dei parametri durante l’elaborazione, riducendo il consumo di risorse computazionali senza compromettere le prestazioni. Inoltre, utilizza tecniche di apprendimento per rinforzo per migliorare le capacità di “ragionamento”. La startup era meno conosciuta perché opera in un contesto dominato da colossi tecnologici come OpenAI e Google, che sono molto abili nel marketing dei propri prodotti, e anche perché, essendo cinese, è meno vicina alla nostra visione del mondo.
DeepSeek in italiano e in Italia
Come altri modelli linguistici, DeepSeek funziona in italiano. Se analizziamo la catena di ragionamenti è ipotizzabile che effettui una traduzione verso l’inglese dall’italiano per analizzare l’input e poi di nuovo verso l’italiano per l’output.
Tuttavia, al 1° febbraio 2025, DeepSeek non è più disponibile sugli app store Android e Apple. Inoltre, il garante per la privacy in Italia ha disposto il blocco di DeepSeek sul territorio italiano. In questo momento la versione web del software di intelligenza artificiale funziona ancora, tranne che per la funzione di ricerca sul web.
Perché il garante per la privacy ha bloccato DeepSeek in Italia?
Nel comunicato stampa ufficiale del garante per la protezione dei dati personali si legge che è stata disposta “in via d’urgenza e con effetto immediato, la limitazione del trattamento dei dati degli utenti italiani nei confronti di Hangzhou DeepSeek Artificial Intelligence e di Beijing DeepSeek Artificial Intelligence, le società cinesi che forniscono il servizio di chatbot DeepSeek”.
Il motivo del provvedimento, secondo il comunicato è la “tutela dei dati degli utenti italiani” e “fa seguito alla comunicazione delle società, il cui contenuto è stato ritenuto del tutto insufficiente. Contrariamente a quanto rilevato dall’Autorità, le società hanno dichiarato di non operare in Italia e che ad esse non è applicabile la normativa europea. L’Autorità, oltre a disporre la limitazione del trattamento, ha contestualmente aperto un’istruttoria”.
Cosa rende DeepSeek diverso dagli altri modelli di IA?
DeepSeek si distingue per diversi aspetti:
- Efficienza dei costi: lo sviluppo del modello R1 è costato meno di 6 milioni di dollari, una cifra significativamente inferiore rispetto ai budget multimilionari di aziende come OpenAI. È stato addestrato utilizzando solo 2.000 chip Nvidia H800, molto meno potenti rispetto ai chip utilizzati dai concorrenti occidentali.
- parzialmente open-source: a differenza di molte aziende statunitensi che adottano modelli proprietari, DeepSeek rende il suo codice accessibile a tutti, promuovendo la collaborazione globale e democratizzando l’accesso alla tecnologia.
- prestazioni elevate: nonostante le limitazioni hardware, DeepSeek-R1 supera o equivale modelli avanzati come GPT-4o di OpenAI in test di ragionamento complesso, matematica e coding (come si può verificare anche con i benchmark della Lmarena
- accessibilità: il modello attualmente è gratuito per gli utenti finali e offre un’inferenza a basso costo, rendendolo una soluzione ideale per sviluppatori con risorse limitate.
DeepSeek e la distillazione
OpenAI ha detto al FInancial Times di di aver raccolto prove che DeepSeek ha usato i modelli proprietari di OpenAI per addestrare il proprio concorrente open source, sfruttando la tecnica della distillazione.
In pratica, la distillazione permette di “estrarre” il sapere da un modello avanzato – quello genitore – per istruire un modello più compatto e meno costoso, ma OpenAI accusa DeepSeek di aver abusato di questa pratica in modo da ottenere un vantaggio competitivo, violando esplicitamente i termini d’uso che proibiscono di “copiare” il proprio servizio o di impiegare gli output per sviluppare modelli concorrenti.
Anche se la distillazione è una tecnica comune nel settore, l’utilizzo di tale metodo per trasferire il sapere da un modello “leader” e trasferirlo a un sistema open source solleva serie questioni di proprietà intellettuale e di etica, tanto che il responsabile per le AI e le criptovalute della casa bianca nominato da Trump, David Sacks, ha anche suggerito la possibilità di un furto di proprietà intellettuale.
Questa situazione evidenzia le tensioni in atto nel panorama globale dell’intelligenza artificiale, dove la corsa all’innovazione si scontra sempre più con i limiti imposti dalla protezione dei diritti tecnologici.
La parte ironica della storia è che anche OpenAI è accusata da più parti di aver violato la proprietà intellettuale di chi ha prodotto i contenuti usati per addestrare ChatGPT.
Perché le aziende tecnologiche statunitensi sono crollate in borsa?
Il lancio di DeepSeek-R1 ha scatenato un’ondata di panico sui mercati finanziari globali, perché il capitalismo finanziario funziona così (!).
Nvidia, leader nel settore dei chip per IA, ha perso quasi 600 miliardi di dollari in capitalizzazione di mercato in un solo giorno, segnando il peggior crollo nella storia del mercato azionario statunitense. C’è il timore che la capacità di DeepSeek di sviluppare modelli competitivi a costi molto inferiori possa ridurre la domanda per i costosi chip Nvidia e minare la leadership tecnologica americana nell’IA. Anche altre aziende tecnologiche come Microsoft, Broadcom e AMD hanno subito perdite significative. Gli investitori temono che il successo di DeepSeek possa segnare un cambiamento strutturale nel settore dell’IA, con un passaggio verso modelli più economici ed efficienti.
L’arrivo di DeepSeek è una buona notizia per il progresso tecnologico?
L’impatto di DeepSeek è ambivalente:
- aspetti positivi: Il modello open-source potrebbe accelerare l’innovazione globale nel campo dell’IA, abbassando le barriere all’ingresso per sviluppatori e ricercatori. Inoltre, la sua efficienza nei costi e nei consumi potrebbe democratizzare l’accesso alla tecnologia nei mercati emergenti.
- preoccupazioni geopolitiche: l’ascesa della Cina nel settore dell’IA intensifica la competizione tecnologica con gli Stati Uniti. Questo potrebbe portare a una frammentazione del mercato globale dell’IA e sollevare questioni relative alla sicurezza e alla censura, dato che i modelli cinesi tendono a evitare argomenti politicamente sensibili.
Deep seek è davvero open source?
DeepSeek-R1 è presentato come open-source e rilasciato con licenza MIT, il che consente a chiunque di accedere, modificare e utilizzare il modello, inclusi i pesi del modello stesso, per scopi commerciali o personali senza restrizioni. Vediamo alcuni punti importanti nel dettaglio:
- licenza MIT: è vero che è una delle più permissive e soddisfa i criteri dell’Open Source Initiative (OSI), garantendo libertà di utilizzo, modifica e ridistribuzione del codice e dei pesi del modello
- restrizioni sui dati di addestramento: non ci sono informazioni chiare sulla trasparenza dei dati di addestramento utilizzati per DeepSeek-R1. Questo potrebbe essere rilevante per valutare l’apertura completa del modello, dato che la comunità open-source considera importante anche la disponibilità dei dataset utilizzati
- censura integrata: Il modello include un livello di censura per argomenti politicamente sensibili, in linea con le normative cinesi. Questo solleva interrogativi su quanto effettivamente “aperto” sia il modello in termini di contenuti generati e accessibilità globale senza restrizioni politiche (ricordiamo che tutti i modelli hanno bias).
DeepSeek, la tecnologia MoE e l’apprendimento per rinforzo
La tecnologia Mixture of Experts (MoE) rappresenta una svolta nell’efficienza dei modelli di intelligenza artificiale. DeepSeek-R1 sfrutta questa architettura per attivare solo una parte dei parametri durante l’elaborazione, ottenendo così prestazioni elevate con un consumo di risorse ridotto. L’integrazione con tecniche di apprendimento per rinforzo permette al modello di migliorare continuamente le proprie capacità di ragionamento, adattandosi a compiti complessi come il calcolo matematico e la programmazione. Questo approccio innovativo sta attirando l’attenzione di ricercatrici e sviluppatori, che vedono in MoE un’opportunità per realizzare applicazioni AI più sostenibili ed economicamente vantaggiose.
Implicazioni geopolitiche e strategie di mercato dopo DeepSeek
L’ingresso di DeepSeek nel panorama globale ha scosso gli equilibri geopolitici, evidenziando la crescente competizione tra potenze tecnologiche. La strategia adottata dalla startup cinese, basata su efficienza e apertura del codice, contrasta con i modelli proprietari delle aziende statunitensi e pone interrogativi sul futuro della leadership tecnologica in Occidente. Questo scenario ha generato timori tra gli investitori, con conseguenze dirette sul mercato finanziario, e stimola un dibattito globale sulle modalità di sviluppo e regolamentazione delle tecnologie emergenti, in un contesto in cui trasparenza e censura si intrecciano.
Benchmark, performance e costi: un’analisi comparativa
I benchmark recenti mostrano come DeepSeek-R1 riesca a competere con modelli consolidati quali GPT-4, nonostante risorse hardware e budget significativamente inferiori. I test di ragionamento, capacità matematica e coding indicano che l’architettura MoE e l’ottimizzazione tramite apprendimento per rinforzo consentono di ottenere risultati paragonabili, se non superiori, in determinati scenari. Questa efficienza in termini di costi e consumo energetico non solo offre un vantaggio competitivo, ma rende la tecnologia accessibile anche a realtà con risorse limitate, ampliando le possibilità di applicazione dell’IA in settori tradizionalmente meno serviti.
Il modello open source e le opportunità per sviluppo e ricerca
Il rilascio di DeepSeek-R1 con licenza MIT apre nuove prospettive per la comunità open source, favorendo la collaborazione e la condivisione di conoscenze. Anche se non è completamente open source perché non sono noti i dati di addestramenti, grazie alla possibilità di accedere e modificare sia il codice che i pesi del modello, chi sviluppa e fa ricerca può sperimentare nuove applicazioni e contribuire all’evoluzione del sistema. Questa apertura stimola l’innovazione e consente anche un rapido adattamento del modello a esigenze specifiche.
Lascia un commento