IA sotto copertura: l’esperimento segreto che ha manipolato Reddit

Un esperimento con IA su Reddit ha ingannato milioni di utenti: etica, fiducia e sicurezza digitale a rischio.

 

 

Un recente esperimento condotto da un gruppo di ricercatori dell’Università di Zurigo ha sollevato preoccupazioni significative riguardo all’uso dell’intelligenza artificiale (IA) nei contesti sociali online. Per diversi mesi, i ricercatori hanno infiltrato la comunità di Reddit r/changemyview, composta da 3,8 milioni di iscritti, utilizzando commenti generati da modelli linguistici avanzati per testare la capacità persuasiva dell’IA sugli utenti, che erano ignari dell’esperimento. 

 

Dettagli dell’Esperimento

I ricercatori non si sono limitati a generare commenti generici, ma hanno creato identità fittizie complesse che interagivano con gli utenti assumendo ruoli sensibili, come sopravvissuti ad aggressioni sessuali o consulenti specializzati in traumi da abusi. Hanno anche utilizzato un “uomo di colore contrario al movimento Black Lives Matter” come personaggio, amplificando la percezione di violazione della fiducia all’interno della comunità.

Secondo la bozza del paper accademico, i sistemi di IA non si limitavano a rispondere ai post, ma venivano alimentati con informazioni personali dedotte dalla cronologia degli utenti originali, come genere, età, etnia, posizione geografica e orientamento politico, utilizzando un altro modello linguistico per dedurre questi attributi.

 

Reazioni della Comunità e di Reddit

I moderatori di r/changemyview hanno denunciato pubblicamente l’accaduto, definendo l’operazione un caso di “manipolazione psicologica”. Hanno sottolineato come i ricercatori abbiano violato molteplici regole del subreddit, inclusa la policy che richiede di dichiarare quando si utilizzano contenuti generati da IA e il divieto di bot. In risposta, hanno presentato un reclamo ufficiale all’Università di Zurigo, chiedendo che i ricercatori si astengano dal pubblicare il loro paper. 

Reddit ha reagito bannando tutti gli account associati alla ricerca e sta considerando azioni legali contro l’università svizzera. Ben Lee, Chief Legal Officer di Reddit, ha dichiarato che le azioni dei ricercatori erano “profondamente sbagliate sia a livello morale che legale” e costituivano una violazione delle regole generali della piattaforma. Ha aggiunto che Reddit è in procinto di contattare l’Università di Zurigo e il team di ricerca con richieste legali formali per assicurarsi che i ricercatori siano ritenuti responsabili delle loro azioni scorrette. 

 

Posizione dei Ricercatori

I ricercatori hanno difeso il proprio operato affermando che lo studio era stato approvato da un comitato etico universitario e che il loro lavoro potrebbe aiutare comunità online come Reddit a proteggere gli utenti da usi più “malevoli” dell’IA. Tuttavia, la comunità e la piattaforma hanno espresso forti preoccupazioni riguardo all’etica e alla trasparenza dell’esperimento. 

 

Considerazioni Etiche

Questo caso evidenzia le complesse sfide etiche legate all’uso dell’IA nei contesti sociali. Sebbene l’obiettivo dichiarato fosse quello di comprendere meglio come l’IA possa influenzare le opinioni online, l’assenza di consenso informato e la manipolazione di informazioni personali sollevano interrogativi significativi sulla responsabilità etica dei ricercatori.

L’incidente sottolinea l’importanza di stabilire linee guida chiare e rigorose per l’uso dell’IA nella ricerca sociale, garantendo la trasparenza e il rispetto dei diritti degli individui coinvolti. In un’epoca in cui l’IA è sempre più integrata nelle interazioni quotidiane, è fondamentale bilanciare l’innovazione tecnologica con considerazioni etiche e legali per proteggere la fiducia e la sicurezza degli utenti.