Come funziona l’intelligenza artificiale – Parte 2

C’è stato un tempo in cui l’intelligenza artificiale si limitava a riconoscere immagini, prevedere numeri o classificare informazioni. Una tecnologia silenziosa, nascosta nei motori di ricerca o negli algoritmi dei social. Poi qualcosa è cambiato: l’IA ha cominciato a scrivere, disegnare, cantare, persino a programmare. È iniziata l’epoca delle intelligenze artificiali generative.

 

Oggi, milioni di persone usano ogni giorno strumenti come ChatGPT per farsi aiutare a scrivere un’email, ideare un testo pubblicitario o persino comporre poesie. Ma cosa rende possibile tutto questo? Cosa succede realmente quando chiediamo a una macchina di scrivere una favola, disegnare un cane con gli occhiali o risolvere un problema tecnico?

 

Per rispondere, dobbiamo entrare nel cuore delle IA generative. A differenza delle intelligenze artificiali tradizionali, che si limitano ad analizzare dati già esistenti, quelle generative producono contenuti nuovi. Non si tratta di semplici copie o collage: generano testi, immagini, suoni o codice che prima non esistevano. Lo fanno partendo da un nostro input — una domanda, una frase, un’idea — e trasformandolo in qualcosa di coerente, spesso sorprendente.

 

Alla base di tutto ci sono i cosiddetti modelli linguistici di grandi dimensioni, noti anche come LLM, Large Language Models. Questi modelli sono reti neurali complesse, addestrate leggendo enormi quantità di testo: libri, articoli, pagine web, forum, dialoghi. L’obiettivo? Imparare a prevedere quale parola viene dopo un’altra. Può sembrare banale, ma è esattamente questo meccanismo, ripetuto miliardi di volte, che permette loro di scrivere frasi corrette, rispondere a domande complesse e simulare dialoghi umani.

 

Immagina di iniziare una frase: “Il gatto salta sul…”. Il modello valuta tutte le possibili continuazioni: divano, tavolo, letto. Poi sceglie quella più probabile in quel contesto. Lo fa parola per parola, costruendo la risposta passo dopo passo. È un po’ come un super-autocompletamento, ma molto più intelligente.

 

 

Uno dei modelli più noti si chiama GPT, acronimo di “Generative Pre-trained Transformer”. È quello che alimenta anche ChatGPT. Ma non è il solo. C’è BERT, sviluppato da Google, specializzato nella comprensione del linguaggio, e PaLM, pensato per combinare testo, immagini e suoni. La cosa impressionante è la loro dimensione: GPT-3, ad esempio, ha 175 miliardi di parametri. Più parametri ha un modello, più fine e sfumata sarà la sua comprensione del linguaggio e dei contesti.

 

Addestrare un LLM richiede risorse enormi. Parliamo di settimane intere su supercomputer, consumi energetici paragonabili a quelli di una piccola città, e quantità di dati impressionanti. Tutto inizia con una fase di pre-training, in cui il modello “legge il mondo” attraverso i testi. Poi si passa a una fase di raffinamento, dove gli ingegneri gli insegnano a rispondere in modo più preciso e utile. Infine, entra in gioco l’intervento umano: persone reali valutano le risposte del modello e lo guidano, premiando le buone risposte e penalizzando quelle inappropriate.

 

Una volta addestrato, il modello è pronto a interagire con gli utenti. Quando scriviamo un prompt — ad esempio, “Scrivimi una poesia sul mare in stile Dante” — il sistema non cerca in rete una poesia esistente. Non copia. Non consulta Wikipedia. Piuttosto, trasforma la nostra richiesta in numeri, li elabora attraverso la rete neurale, e genera un testo originale in tempo reale. Questo processo si chiama inferenza ed è ciò che rende possibile l’uso quotidiano delle IA generative.

 

Ciò che colpisce è quanto queste risposte sembrino “umane”. Il motivo è semplice: il modello ha letto migliaia di testi scritti da persone. Ha imparato come funziona la grammatica, come si usano le metafore, che tono si adotta in un racconto rispetto a una mail di lavoro. Riconosce lo stile e lo replica con naturalezza. Per questo, spesso ci dimentichiamo che dietro la tastiera non c’è una mente cosciente, ma un sofisticato calcolatore statistico.

 

Ma le IA generative possono essere considerate davvero creative? In un certo senso sì, perché producono contenuti nuovi, originali, spesso sorprendenti. In un altro senso, no, perché non hanno intenzioni, emozioni o consapevolezza. Non decidono autonomamente di creare. Lo fanno solo quando viene chiesto loro. Non sentono orgoglio per un testo ben riuscito, né frustrazione per un errore.

 

Tuttavia, questo non le rende meno utili. Sono diventate strumenti formidabili per chi lavora nel campo della creatività: scrittori, designer, sviluppatori, pubblicitari. Aiutano a generare idee, a sbloccare blocchi creativi, a velocizzare i processi. Un grafico può chiedere dieci proposte di layout; un autore può farsi suggerire titoli per un articolo; un team marketing può ottenere slogan alternativi in pochi secondi. Non sostituiscono l’essere umano, ma lo supportano, come un assistente sempre sveglio e reattivo.

 

Ovviamente, non tutto è perfetto. Le IA generative hanno ancora molti limiti. A volte, per esempio, “allucinano”: inventano dati o fatti con grande sicurezza. Possono attribuire un libro al nome sbagliato, oppure spiegare un concetto in modo errato ma convincente. Non hanno senso comune: potrebbero suggerire soluzioni impossibili, come usare un tostapane per congelare il cibo. Inoltre, portano con sé i pregiudizi contenuti nei dati con cui sono state addestrate: se quei dati riflettono stereotipi, l’IA può replicarli.

 

E soprattutto, non hanno volontà. Non fanno domande, non prendono iniziative. Non esistono se non vengono chiamate in causa. Non “vogliono” nulla: rispondono, punto.

Conoscere questi aspetti ci aiuta a usare le IA generative con maggiore consapevolezza. Non come oracoli infallibili, ma come strumenti evoluti che amplificano le capacità umane. È importante saper distinguere tra ciò che un modello può fare e ciò che solo una mente umana può capire, decidere, provare.

 

La rivoluzione delle IA generative è appena iniziata. E comprenderne il funzionamento è il primo passo per viverla da protagonisti, non da spettatori.