GAN, Transformer e altre tecniche: tecnologie dietro l’AI generativa

Come funziona un’intelligenza artificiale generativa? Non è certo magia. Non è una macchina che si sveglia una mattina con un’idea geniale e si mette a scrivere articoli, generare immagini o comporre musica. Dietro ogni output c’è una serie di tecniche matematiche e computazionali che permettono a questi modelli di creare contenuti plausibili. Se oggi un Transformer può scrivere un saggio o una GAN può generare un volto umano iperrealistico, è grazie a decenni di ricerca e di sperimentazione.

Eppure, la conversazione sull’AI si concentra spesso sui risultati finali e molto meno sui meccanismi che li rendono possibili. Quindi, facciamo un passo indietro e vediamo le tecnologie che stanno dietro alle AI generative, partendo da quelle che hanno segnato la svolta: GAN, modelli autoregressivi e Transformer.

Le GAN: la sfida tra due reti neurali

Le Generative Adversarial Networks (GAN) sono state una rivoluzione. Inventate da Ian Goodfellow nel 2014, hanno introdotto un concetto semplice e potentissimo: far competere due reti neurali tra loro. Da una parte c’è il generatore, che crea nuovi dati (ad esempio, immagini di volti umani mai esistiti). Dall’altra c’è il discriminatore, che valuta se il dato generato è autentico o artificiale. Più il generatore migliora, più il discriminatore diventa esigente. E viceversa.

Il risultato? Le GAN sono alla base delle AI capaci di generare immagini realistiche, deepfake e persino opere d’arte. Midjourney, Stable Diffusion e DALL-E sfruttano variazioni di questa tecnica per trasformare descrizioni testuali in immagini dettagliate. E no, non “capiscono” l’arte. Si limitano a imitare pattern e stili con una precisione inquietante.

Ma le GAN hanno un problema: non sanno gestire bene le sequenze di testo. Qui entrano in gioco altre tecniche.

I modelli autoregressivi: prevedere il futuro (una parola alla volta)

Prima dei Transformer, i modelli di AI generativa erano basati su metodi più semplici e lineari. Uno di questi è il modello autoregressivo, che genera un pezzo di testo prevedendo la parola successiva sulla base di quelle precedenti. Funziona così: “L’intelligenza artificiale generativa è…” e il modello decide, sulla base dei dati di addestramento, quale parola potrebbe seguire con maggiore probabilità (“una tecnologia rivoluzionaria”, “un rischio per il futuro”, ecc.).

Questo metodo ha dato origine a modelli come GPT-2 e GPT-3, ma ha un difetto: ogni nuova parola dipende solo dalle precedenti, senza avere una visione d’insieme del testo. Ecco perché i Transformer hanno cambiato tutto.

I Transformer: l’architettura che ha reso possibile ChatGPT

Nel 2017, un paper di Google ha introdotto un’architettura che ha rivoluzionato l’AI generativa: il Transformer. Il suo motto? “Attention is all you need“. L’idea chiave è il meccanismo di attenzione, che permette al modello di considerare tutto il contesto di un testo invece di leggere parola per parola.

Ecco perché un Transformer sa rispondere meglio a domande complesse, scrivere testi più coerenti e mantenere il filo del discorso per più paragrafi. Funziona analizzando contemporaneamente tutte le parole di un testo e attribuendo pesi diversi alle informazioni più rilevanti. Questo meccanismo ha reso possibile ChatGPT, Claude, Gemini e tutti i modelli che oggi dominano il settore.

Quando ho iniziato a sperimentare con ChatGPT, ricordo la differenza tra la prima versione (basata su GPT-3) e le iterazioni più recenti. La capacità di mantenere il contesto in una conversazione lunga è migliorata a livelli impensabili. Questo perché i Transformer hanno scalato le performance, aggiungendo miliardi di parametri e accedendo a dataset sempre più estesi.

Oltre i Transformer: dove stiamo andando?

Le AI generative non si fermano qui. Stiamo vedendo l’ascesa di tecniche ibride, come le Mixture of Experts (MoE), dove più modelli specializzati collaborano per generare risposte migliori, o gli Agentic Models, che cercano di rendere le AI più autonome nelle decisioni.

Ma il futuro delle AI non è solo una questione tecnica. Dipenderà da come decideremo di usarle, da come regoleremo il loro impatto e da quanto saremo in grado di capirne le implicazioni. Ecco perché conoscere le fondamenta tecnologiche è così importante. Perché non si tratta di accettare passivamente l’AI come una scatola nera, ma di capire cosa c’è dentro e come possiamo controllarla.

L’AI generativa è un’evoluzione continua. La vera domanda è: stiamo davvero imparando a usarla nel modo giusto? Per la mia esperienza, la chiave è la personalizzazione delle AI. Non si tratta solo di ottenere risposte migliori, ma di adattare gli strumenti AI ai bisogni specifici di chi li usa.

Un esempio concreto è il chatbot di Atipiiche, la newsletter sull’ADHD curata da Anna Castiglioni. Questo chatbot è un GPT personalizzato, progettato per offrire esclusivamente informazioni tratte dall’archivio di Atipiche, senza attingere a fonti esterne. L’obiettivo non è solo quello di fornire risposte pertinenti, ma di garantire un ambiente sicuro: il chatbot non fornisce consigli medici, evitando qualsiasi rischio legato all’affidabilità delle informazioni.

Questo modello rappresenta un perfetto esempio di come l’AI possa essere adattata a una comunità specifica, offrendo supporto mirato e affidabile. Se vuoi imparare a costruire soluzioni AI personalizzate come questa, il mio corso AI@Work è un ottimo punto di partenza.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.