di Umberto Rapetto (*)
L’utilità dei sistemi più evoluti è fuori di dubbio. Pure le loro controindicazioni sono egualmente indiscutibili, anche se sono pochi quelli che hanno il coraggio di porle in evidenza e di invitare ad una più cauta loro introduzione nel nostro vivere di tutti i giorni.
Persino i giornalisti, destinati a scomparire grazie a certe soluzioni automatizzate, parlano con entusiasmo dell’intelligenza artificiale (il più delle volte non avendo il minimo barlume di conoscenza e coscienza in proposito) e non vogliono pensare a quando saranno travolti dallo tsunami della produzione elettronica di testi ed articoli naturalmente tutti uguali o comunque molto simili.
Sono tante le categorie di lavoratori che verranno accantonati nel giro di qualche anno, ma nessuno si pone il problema. Anzi, guai a criticare perché in un attimo si viene tacciati di negare i benefici della tecnologia, di somigliare a chi contrastava la rivoluzione industriale, di essere alla guida di una carovana di Amish e così via…
La pigrizia collettiva (e non il progresso) è il primo alleato di chi sviluppa intelligenza artificiale e l’inesorabile processo di omogeneizzazione muove agilmente i suoi passi con evidenze quotidiane.
La cosiddetta IA (o per gli anglofoni AI) fa felici i più ignoranti che finalmente possono redigere corpose relazioni pur disconoscendo l’argomento da trattare e ricordando in modo incompleto persino l’alfabeto. Al contempo preoccupa chi – tutt’altro che “terrapiattista” – assiste addolorato al “terrappiattimento” del nostro domani.
Il disperato grido “Fermate il mondo! Voglio scendere” resta in un vecchio Carosello di Ernesto Calindri e in un’opera cinematografica non proprio monumentale di Lando Buzzanca.
Senza strillare, c’è chi “lavora” per rallentare la corsa dell’intelligenza artificiale, inutilmente inseguita da provvedimenti normativi che suscitano tenerezza e poco risolvono.
La agghiacciante soluzione viene dall’underground computing, ovvero dal mondo sotterraneo dell’elaborazione dei dati che va controcorrente. In qualcosa che ricorda virtualmente le catacombe paleocristiane, c’è chi si dà un gran da fare per avvelenare l’intelligenza artificiale con l’inserimento di un piccolo campione di documenti “sballati” all’interno della massa di dati utilizzati per l’addestramento dei sistemi come ChatGPT e Gemini.
Quello che potrebbe sembrare il fantasioso delirio di un consumatore abituale di LSD è invece il risultato di uno studio che ha visto impegnati l’AI Security Institute britannico, l’Alan Turing Institute e la società Anthropic. La ricerca (qui il documento) ha portato a scoprire che anche solo 250 documenti sono sufficienti a “confondere” i modelli linguistici di grandi dimensioni (LLM) usati dall’intelligenza artificiale portandoli a produrre testo incomprensibile o inattendibile.
Siccome il “machine learning” – ovvero il metodo con cui in modo automatico i sistemi “imparano” assorbendo, classificando, analizzando e rielaborando le informazioni che vengono date loro in pasto – spiana la strada ai moderni carbonari, il problema è serio ed estremamente preoccupante.
La maggior parte degli LLM più diffusi sono preaddestrati su testo pubblico presente su Internet, inclusi siti web personali e post di blog. È fin troppo chiaro che questo consente a chiunque di creare contenuti che potrebbero essere catturati nella raccolta dei dati di addestramento del modello di intelligenza artificiale incapace di riconoscerne l’inattendibilità.
Se davvero basta qualche centinaio di pagine “avvelenate” su Wikipedia per far deragliare le dinamiche di autoapprendimento e per poi far sfornare risultati improbabili e pericolosi per chi se ne serve, forse è il caso che qualcuno (e di sedicenti esperti ce ne sono interi reggimenti) si occupi della faccenda che non è affatto da trascurare.
(*) Docente Universitario, Giornalista
