L’apprendimento dell’Intelligenza Artificiale

L’apprendimento dell’Intelligenza Artificiale

di Giuseppe Porzio*

 

Figura 1 Immagine realizzata con AI (CahtGPT 4.0).

Cari lettori e care lettrici,

dopo diversi articoli dedicati all’intelligenza artificiale (IA), vediamo come funziona realmente.

L’IA, infatti, può sembrare complessa, ma molti dei suoi meccanismi sono sorprendentemente

simili a quelli con cui impariamo noi esseri umani.

Pensate, ad esempio, a un bambino che impara a camminare o a parlare: la sua conoscenza si

costruisce per tentativi ed errori, con l’aiuto della ripetizione e del contesto familiare.

In una tipica famiglia, quando nasce un bambino, accade qualcosa di molto interessante. Più volte al

giorno sentirà la mamma rivolgersi a lui dicendo frasi come:

  • “Buongiorno piccolo di mamma”,
  • “Adesso mamma ti cambia”,
  • “Mamma ti fa la pappa”,
  • “Mamma è stanca”,
  • “Mamma ti fa le coccole”.

La sera, quando torna il papà, invece sentirà: “Che bello, papà è qui!”.

Senza volerlo, arricchendo ogni frase con il termine “mamma”, stiamo addestrando il neonato.

Egli sentirà la parola più volte, la assocerà alla figura che vede quotidianamente e, per questo

motivo, tenderà a pronunciarla per prima. Più tardi imparerà ad associare la parola “papà” alla

figura maschile di casa, per contrapposizione.

Allo stesso modo, un algoritmo di intelligenza artificiale apprende concetti e associazioni in base

alla frequenza con cui gli vengono presentati.

Un altro esempio utile è il riconoscimento delle immagini: se mostriamo ripetutamente a un

sistema foto di cani e di gatti, esso imparerà gradualmente a distinguere le differenze tra le due

categorie. Tuttavia, così come un bambino piccolo può chiamare “papà” una qualsiasi figura

maschile commettendo un piccolo errore, anche un algoritmo può sbagliare e, ad esempio,

scambiare un cane con pelo lungo e orecchie a punta per un gatto.

Le fasi dell’apprendimento artificiale

A livello tecnico, l’apprendimento dell’IA può essere suddiviso in tre fasi principali:

  1. Addestramento → l’algoritmo viene “nutrito” con un gran numero di esempi, apprendendo

schemi e correlazioni nei dati.

  1. Test → vengono usati dati mai visti prima per verificare quanto bene l’algoritmo ha

generalizzato ciò che ha imparato.

  1. Validazione → si ottimizzano i parametri del modello per migliorare le prestazioni ed

evitare fenomeni come l’overfitting (cioè l’eccessiva specializzazione ai soli dati di

addestramento).

Facciamo un esempio numerico:

  • 700 immagini di cani e gatti vengono usate per addestrare il modello.
  • 200 immagini nuove servono per testarlo: se ne riconosce 180 correttamente significa che ha

un’accuratezza del 90%. Ma attenzione: questo numero da solo non basta. Come in ogni

misura sperimentale, serve valutare la confidenza statistica del risultato. Nel nostro

esempio, possiamo dire che il modello non ha semplicemente “imparato bene”, ma che con

una certa probabilità (ad esempio al 95%) la sua reale capacità di distinguere cani e gatti si

colloca in un intervallo che va circa dall’85% al 95%.

  • Infine, le 100 immagini rimanenti vengono utilizzate per validare e ottimizzare il modello,

regolando la sensibilità del riconoscimento per ridurre gli errori futuri e rendere più

affidabili le prestazioni.

ChatGPT e i suoi “cugini” digitali

Per rendere più concreto questo processo, pensiamo a ChatGPT, sviluppato da OpenAI.

ChatGPT è una IA generativa basata su LLM (Large Language Model), cioè un grande modello

linguistico capace di produrre testi in linguaggio naturale. Non possiede conoscenze innate né studia

la grammatica a scuola: apprende esclusivamente dai milioni di testi con cui è stato addestrato,

assimilando pattern e regole d’uso del linguaggio per poter rispondere, raccontare storie o

addirittura scrivere poesie.

In altre parole, ChatGPT è un “lettore digitale” che impara come un bambino: grazie agli esempi

ripetuti, alle verifiche continue e ai piccoli aggiustamenti.

Naturalmente, non è l’unico sistema di questo tipo. Tra i suoi principali competitor troviamo:

  • Claude di Anthropic,
  • Gemini (ex Bard) di Google DeepMind,
  • Copilot di Microsoft (basato su OpenAI),
  • LLaMA di Meta.

Ognuno di questi modelli condivide la stessa filosofia di apprendimento statistico, pur differendo

per dimensioni, addestramento e applicazioni pratiche.

In conclusione, tanto un neonato quanto un’IA imparano attraverso ripetizione, associazione e

correzione degli errori. La differenza è che, mentre il bambino cresce circondato da affetto e

contesto familiare, l’IA si forma esclusivamente sulla base dei dati che riceve.

*Coordinatore tecnico del T.A.L. (Tandem Accelerator Laboratory)-Università Vanvi

**********************************************************************************************************************************************************************************************************************************************************************

BACHECA

  • A partire da settembre 2025 sarà attivato su questo Giornale un Corso Sintetico sui “Linguaggi Extraverbali “a cura del Direttore Bartolomeo Valentino sottoforma di Articoli-Lezioncine pubblicate ogni Sabato. I Lettori potranno porre domande indirizzandole alla email
  • bartolomeo.valentino@alice.it