ChatGPT: GPT personalizzati, fine-tuning e RTF

Minimal liminal

L’evoluzione dei modelli linguistici d’intelligenza artificiale generativa come ChatGPT prosegue da quando sono stati rilasciati pubblicamente. Questo significa che abbiamo a disposizione strumenti sempre più avanzati per adattare le AI alle nostre esigenze specifiche. Una delle questioni più importanti e sottovalutate dell’intelligenza artificiale è la possibilità di personalizzazione.

ChatGPT offre la possibilità di realizzare GPT personalizzati, fare un fine-tuning supervisionato tradizionale e, dal 6 dicembre 2024, ha aperto in alpha il reinforcement fine-tuning (RFT).

Il 6 dicembre 2024 la OpenAI ha annunciato che il fine-tuning con rinforzo è in fase alpha e si può richiedere accesso in caso di progetti per istituti di ricerca o grandi aziende.


Livelli di personalizzazione di ChatGPT

Il corso gratuito degli Slow News Days

ChatGPT offre diversi livelli di personalizzazione. I primi due sono

  • le istruzioni personalizzate (cioè istruzioni base da dare in generale a ChatGPT per spiegare al modello cosa facciamo e come lo useremo e le istruzioni per spiegare al modello come vogliamo che risponda)
  • la memoria (si attiva su valutazione del modello oppure in maniera proattiva chiedendo a ChatGPT di ricordare una cosa specifica).

GPT personalizzati: configurazioni rapide e flessibili

I GPT personalizzati sono il punto di partenza più semplice per creare un modello AI che risponda a esigenze specifiche. Non richiedono un dataset per il riaddestramento e possono essere configurati direttamente sulla piattaforma OpenAI.

GPT personalizzati: come funzionano

I GPT personalizzati (che possono essere privati, condivisi con persone specifiche o resi pubblici), hanno un funzionamento molto semplice

  • Istruzioni di sistema: Definiscono il comportamento generale del modello.
    • Esempio: “Rispondi alle domande sul diritto italiano citando articoli del codice civile.”
  • Prompt iniziali: Servono per iniziare una conversazione
    • Esempio: “Inizia ogni risposta con un riferimento giuridico rilevante.”
  • Base di conoscenza: È possibile integrare documenti o database specifici per arricchire le risposte e dare al GPT una base da cui si vuole che parta

Quando usarli

Quando si vuole lavorare velocemente per avere un assistente funzionante, i GPT di ChatGPT sono una soluzione possibile.

Io ne ho uno che mi assiste nella stesura della mia newsletter Artificiale, per Internazionale. Mi aiuta a riassumere testi lunghi rispettando le norme editoriali di Internazionale e mi libera tempo per attività più umane.

Altri esempi possono essere:

  1. chatbot per supporto clienti.
  2. assistenti che lavorano con informazioni statiche, come cataloghi o FAQ.
Iscriviti al mio corso AI@Work

Fine-tuning supervisionato: adattare il modello a tono e stile

Il fine-tuning supervisionato è un metodo ormai classico per personalizzare i modelli linguistici. Consiste nel riaddestrare il modello su un dataset fornito dall’utente (in realtà si può fare anche con i GPT personalizzati con qualche escamotage).

In ogni caso, ChatGPT mette a disposizione uno spazio di fine-tuning

Come funziona

Fare fine tuning di ChatGPT ha un costo e richiede di avere un po’ di conoscenze base oppure di seguire dettagliatamente le istruzioni di ChatGPT (e magari di usare lo stesso ChatGPT come assistente per farlO).

  1. Prepara un dataset:
    • Formato JSONL: è un file in cui ogni riga contiene un prompt e una risposta desiderata
  2. Carica i dati
  3. Configura i parametri
  4. Avvia il training: OpenAI restituisce un modello personalizzato, accessibile via API.

Quando usarlo

  • adattare il modello a task specifici, come scrivere report aziendali o articoli

Reinforcement Fine-Tuning (RFT): il futuro della personalizzazione

Il fine tuning con rinforzo (reinforcement fine-tuning, RFT) rappresenta una svolta nel miglioramento dei modelli AI, permettendo di insegnare loro a ragionare in nuovi modi. Utilizza il reinforcement learning per premiare le risposte corrette e penalizzare quelle errate.

Come funziona

Per il momento l’accesso al reinforcement fine-tuning su ChatGPT richiede di fare richiesta attraverso un modulo specifico, questo.

Se si riesce ad avere accesso, la procedura funzionerà più o meno così:

  1. Prepara un dataset avanzato:
    • Include prompt, risposte attese e valutazioni
  2. Integra un grader
    • Il grader dà i voti, valuta le risposte (da 0 a 1) in base alla loro correttezza.
  3. Avvia il training
  4. Valutazione:
    • Il modello viene testato su dati di validazione per garantire la generalizzazione.

Quando usarlo

  • Task complessi che richiedono ragionamenti approfonditi (es. diagnosi mediche).
  • Applicazioni scientifiche, legali o finanziarie.

Quale tecnica scegliere?

AspettoGPT PersonalizzatiFine-Tuning SupervisionatoReinforcement Fine-Tuning (RFT)
CostoBassoMedioAlto
SetupMinuti o oreOre o giorniGiorni
ObiettivoRisposte più statichePersonalizzazione avanzataRagionamenti complessi
Esempi d’usoFAQ, chatbot sempliciArticoli, testi complessiDiagnosi mediche, ricerca avanzata

Come iniziare oggi

Se stai cercando un punto di partenza rapido, i GPT personalizzati sono perfetti. Per esigenze più avanzate, il fine-tuning supervisionato ti consente di plasmare il modello secondo il tuo stile. E per affrontare task altamente complessi, il reinforcement fine-tuning apre nuove frontiere.

La personalizzazione dei modelli AI non è più riservata agli esperti: chiunque può accedere a strumenti potenti per migliorare produttività, efficienza e qualità. La scelta dipende dai tuoi obiettivi e dal livello di complessità richiesto.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.