31 Ago L’apprendimento dell’Intelligenza Artificiale
di Giuseppe Porzio*


Figura 1 Immagine realizzata con AI (CahtGPT 4.0).
Cari lettori e care lettrici,
dopo diversi articoli dedicati all’intelligenza artificiale (IA), vediamo come funziona realmente.
L’IA, infatti, può sembrare complessa, ma molti dei suoi meccanismi sono sorprendentemente
simili a quelli con cui impariamo noi esseri umani.
Pensate, ad esempio, a un bambino che impara a camminare o a parlare: la sua conoscenza si
costruisce per tentativi ed errori, con l’aiuto della ripetizione e del contesto familiare.
In una tipica famiglia, quando nasce un bambino, accade qualcosa di molto interessante. Più volte al
giorno sentirà la mamma rivolgersi a lui dicendo frasi come:
- “Buongiorno piccolo di mamma”,
- “Adesso mamma ti cambia”,
- “Mamma ti fa la pappa”,
- “Mamma è stanca”,
- “Mamma ti fa le coccole”.
La sera, quando torna il papà, invece sentirà: “Che bello, papà è qui!”.
Senza volerlo, arricchendo ogni frase con il termine “mamma”, stiamo addestrando il neonato.
Egli sentirà la parola più volte, la assocerà alla figura che vede quotidianamente e, per questo
motivo, tenderà a pronunciarla per prima. Più tardi imparerà ad associare la parola “papà” alla
figura maschile di casa, per contrapposizione.
Allo stesso modo, un algoritmo di intelligenza artificiale apprende concetti e associazioni in base
alla frequenza con cui gli vengono presentati.
Un altro esempio utile è il riconoscimento delle immagini: se mostriamo ripetutamente a un
sistema foto di cani e di gatti, esso imparerà gradualmente a distinguere le differenze tra le due
categorie. Tuttavia, così come un bambino piccolo può chiamare “papà” una qualsiasi figura
maschile commettendo un piccolo errore, anche un algoritmo può sbagliare e, ad esempio,
scambiare un cane con pelo lungo e orecchie a punta per un gatto.
Le fasi dell’apprendimento artificiale
A livello tecnico, l’apprendimento dell’IA può essere suddiviso in tre fasi principali:
- Addestramento → l’algoritmo viene “nutrito” con un gran numero di esempi, apprendendo
schemi e correlazioni nei dati.
- Test → vengono usati dati mai visti prima per verificare quanto bene l’algoritmo ha
generalizzato ciò che ha imparato.
- Validazione → si ottimizzano i parametri del modello per migliorare le prestazioni ed
evitare fenomeni come l’overfitting (cioè l’eccessiva specializzazione ai soli dati di
addestramento).
Facciamo un esempio numerico:
- 700 immagini di cani e gatti vengono usate per addestrare il modello.
- 200 immagini nuove servono per testarlo: se ne riconosce 180 correttamente significa che ha
un’accuratezza del 90%. Ma attenzione: questo numero da solo non basta. Come in ogni
misura sperimentale, serve valutare la confidenza statistica del risultato. Nel nostro
esempio, possiamo dire che il modello non ha semplicemente “imparato bene”, ma che con
una certa probabilità (ad esempio al 95%) la sua reale capacità di distinguere cani e gatti si
colloca in un intervallo che va circa dall’85% al 95%.
- Infine, le 100 immagini rimanenti vengono utilizzate per validare e ottimizzare il modello,
regolando la sensibilità del riconoscimento per ridurre gli errori futuri e rendere più
affidabili le prestazioni.
ChatGPT e i suoi “cugini” digitali
Per rendere più concreto questo processo, pensiamo a ChatGPT, sviluppato da OpenAI.
ChatGPT è una IA generativa basata su LLM (Large Language Model), cioè un grande modello
linguistico capace di produrre testi in linguaggio naturale. Non possiede conoscenze innate né studia
la grammatica a scuola: apprende esclusivamente dai milioni di testi con cui è stato addestrato,
assimilando pattern e regole d’uso del linguaggio per poter rispondere, raccontare storie o
addirittura scrivere poesie.
In altre parole, ChatGPT è un “lettore digitale” che impara come un bambino: grazie agli esempi
ripetuti, alle verifiche continue e ai piccoli aggiustamenti.
Naturalmente, non è l’unico sistema di questo tipo. Tra i suoi principali competitor troviamo:
- Claude di Anthropic,
- Gemini (ex Bard) di Google DeepMind,
- Copilot di Microsoft (basato su OpenAI),
- LLaMA di Meta.
Ognuno di questi modelli condivide la stessa filosofia di apprendimento statistico, pur differendo
per dimensioni, addestramento e applicazioni pratiche.
In conclusione, tanto un neonato quanto un’IA imparano attraverso ripetizione, associazione e
correzione degli errori. La differenza è che, mentre il bambino cresce circondato da affetto e
contesto familiare, l’IA si forma esclusivamente sulla base dei dati che riceve.
*Coordinatore tecnico del T.A.L. (Tandem Accelerator Laboratory)-Università Vanvi
**********************************************************************************************************************************************************************************************************************************************************************
BACHECA
- A partire da settembre 2025 sarà attivato su questo Giornale un Corso Sintetico sui “Linguaggi Extraverbali “a cura del Direttore Bartolomeo Valentino sottoforma di Articoli-Lezioncine pubblicate ogni Sabato. I Lettori potranno porre domande indirizzandole alla email
- bartolomeo.valentino@alice.it