L’intelligenza artificiale ha vissuto per decenni nell’ombra. Era una presenza silenziosa, nascosta dietro ai motori di ricerca, alle app di traduzione, ai suggerimenti sui siti di shopping. Poi qualcosa è cambiato. In pochi anni, è uscita dai laboratori e si è fatta sentire ovunque: nelle nostre case, nei nostri smartphone, nelle nostre conversazioni. L’IA non è più soltanto un sistema che analizza. Oggi è anche un sistema che crea.
Quella che stiamo vivendo è l’era dell’IA generativa. Un periodo in cui le macchine non solo capiscono quello che diciamo, ma producono testi, immagini, musica, persino idee. È l’intelligenza che impara da noi e, in un certo senso, comincia a restituirci qualcosa di sorprendente.

Tutto è cominciato nel 2012, in un ambito molto tecnico: il riconoscimento delle immagini. In quell’anno, una rete neurale chiamata AlexNet, creata da Geoffrey Hinton e il suo team, partecipò a una competizione scientifica chiamata ImageNet. L’obiettivo era semplice: far riconoscere a diversi sistemi informatici oggetti e persone presenti in migliaia di fotografie. AlexNet riuscì a battere tutti gli altri, riducendo l’errore del 41% rispetto all’anno precedente.
Quel risultato fece il giro del mondo. Dimostrava che le reti neurali profonde – oggi conosciute come deep learning – erano pronte per essere usate sul serio. Subito dopo, Google, Facebook, Amazon e altri colossi iniziarono a integrare questa tecnologia nei loro prodotti. In breve tempo, cominciammo a ricevere suggerimenti su cosa guardare, cosa ascoltare, cosa comprare. L’IA era entrata nelle nostre vite in modo discreto ma costante.

Dal 2015 in poi, l’intelligenza artificiale è diventata un vero strumento di uso quotidiano. Chiunque, senza competenze tecniche, poteva beneficiarne. I comandi vocali degli assistenti digitali come Siri, Alexa o Google Assistant non sembravano più fantascienza. Le traduzioni automatiche miglioravano giorno dopo giorno. Le aziende la usavano per prevedere la domanda, ottimizzare le scorte, selezionare i candidati. L’intelligenza artificiale non era più soltanto una materia per ricercatori: era una tecnologia applicata, utile, pratica.
Poi è arrivata un’altra svolta, ancora più visibile: l’intelligenza artificiale generativa. Tra il 2022 e il 2023, una nuova generazione di strumenti ha mostrato al grande pubblico cosa una macchina può davvero fare. Modelli linguistici di grandi dimensioni, chiamati LLM (Large Language Models), addestrati su miliardi di parole, sono stati resi accessibili a tutti.
Uno di questi modelli, ChatGPT, è diventato un fenomeno globale. Improvvisamente, milioni di persone potevano parlare con una macchina capace di rispondere come una persona vera. Non solo in modo corretto, ma con tono naturale, con empatia, con creatività. Nel giro di settimane, studenti, insegnanti, professionisti e creativi di ogni settore hanno iniziato a usarlo per studiare, lavorare, risolvere problemi, imparare, scrivere.
Parallelamente, strumenti come DALL·E, Midjourney e Stable Diffusion hanno permesso di generare immagini realistiche a partire da semplici descrizioni. Bastava scrivere una frase – “un tramonto sul pianeta Marte”, “un cane in giacca e cravatta”, “un castello di ghiaccio in stile futurista” – e l’IA creava l’immagine da zero. In pochi secondi.

La capacità creativa delle macchine ha sorpreso e affascinato. Ma ha anche sollevato nuove domande. In un mondo in cui un software può scrivere un racconto, disegnare un logo, comporre una melodia, cosa succede al ruolo dell’essere umano? E cosa accade quando non riusciamo più a distinguere un testo scritto da una persona da uno scritto da una macchina?
Con l’aumento della potenza dell’IA, sono emersi anche i primi grandi dubbi etici. I sistemi di intelligenza artificiale sono diventati così complessi che persino gli ingegneri che li progettano non sempre capiscono come funzionano davvero. È il fenomeno chiamato black box: la macchina dà un risultato, ma il processo decisionale resta opaco.
Inoltre, la stessa tecnologia che può creare contenuti utili può anche essere usata per generare disinformazione. I deepfake – video falsi ma realistici – sono solo la punta dell’iceberg. L’IA può generare testi convincenti, cloni vocali, immagini manipolate. E questo rende più facile ingannare, truffare, influenzare opinioni.
Anche il mondo del lavoro sta vivendo cambiamenti profondi. In alcuni casi, l’IA è uno strumento che affianca i professionisti. I programmatori, ad esempio, la usano per scrivere codice più velocemente. I traduttori la utilizzano come supporto per le versioni iniziali dei testi. I grafici la impiegano per creare bozze rapide. In altri casi, però, l’intelligenza artificiale rischia di sostituire del tutto alcune mansioni.
Ci si interroga, quindi, su diritti, responsabilità e regole. Chi è il vero autore di un testo generato da un’IA? A chi appartiene un’opera visiva creata da un algoritmo? Cosa succede se una macchina commette un errore che causa un danno?
Nel frattempo, la ricerca non si ferma. L’obiettivo più ambizioso resta la AGI – l’Artificial General Intelligence – una forma di intelligenza artificiale capace di apprendere e ragionare in qualsiasi contesto, proprio come fa un essere umano. Non siamo ancora a quel punto, ma i modelli attuali iniziano a mostrare comportamenti sorprendenti: risolvono problemi, pianificano attività, ragionano in più fasi, collegano informazioni diverse.
Sempre più spesso, queste IA vengono integrate nei robot, unendo corpo e cervello digitale. Aziende come Boston Dynamics stanno già sperimentando macchine in grado di camminare, esplorare, adattarsi a nuovi ambienti. In futuro, potremmo avere robot domestici intelligenti, soccorritori autonomi, esploratori spaziali.

Un altro ambito in crescita è quello dell’IA emozionale. I nuovi sistemi non si limitano a riconoscere le parole, ma anche il tono, le emozioni, il livello di stress. Alcuni call center sperimentano già assistenti virtuali capaci di “sentire” se l’interlocutore è agitato o arrabbiato, adattando la risposta per calmarlo o supportarlo.
Nel giro di pochi anni, l’intelligenza artificiale è passata dall’essere una curiosità tecnica a diventare una compagna di vita quotidiana. Non è più il futuro: è il nostro presente.
E la sua storia, anche se affonda le radici nel passato, è appena cominciata.

Marco Stella è un esperto di management, cybersecurity e consulenza informatica con oltre 15 anni di esperienza. Specializzato nella gestione di progetti complessi, opera a livello internazionale nei settori dell’entertainment e dei parchi di divertimento. È titolare di ITParks, CEO di Best Italy Srls, CIO e DPO di MCM Marchetti Costruzioni Meccaniche Srl e consulente anziano per Disney. La sua carriera è caratterizzata da un approccio strategico e innovativo, sempre orientato all’eccellenza operativa e tecnologica.
