A colloquio con il Professor Tommaso D’Orsi (Dipartimento Computing Sciences Università Bocconi)
di Giovanni Scipioni (*)
“L’intelligenza artificiale? Può essere una minaccia o un’opportunità”. Tommaso D’Orsi è Assistant Professor nel Dipartimento di Computing Sciences dell’Università Bocconi, dove fa parte del Theory group. È interessato in generale all’informatica, da un punto di vista sia teorico sia applicato; la sua ricerca si concentra in particolare sulla progettazione di algoritmi, sulla complessità computazionale, sulla teoria dell’apprendimento e sulla privacy dei dati. Accetta di scambiare qualche battuta sul tema.
Perché si può parlare di minaccia e opportunità?
Dipende da come la tecnologia viene sviluppata, regolata e distribuita. È un’opportunità perché i benefici scientifici e tecnici sono già evidenti: accelerazione della ricerca, i modelli sono spesso più esperti dei neolaureati in qualsiasi ambito, automazione di compiti ripetitivi, strumenti di supporto a medici, ingegneri e ricercatori, e in generale un aumento di produttività in molti settori. È anche una minaccia perché sembra amplificare fenomeni socialmente destabilizzanti: disinformazione, frodi, sorveglianza, e un aumento della concentrazione di potere economico e tecnologico. Fondamentalmente la nostra struttura sociale, il dibattito pubblico, i nostri legislatori non sono al passo con la velocità del progresso tecnico. Storicamente, grandi avanzamenti scientifici e tecnologici hanno spesso prodotto una fase d’instabilità, prima di tradursi in benefici diffusi; la rivoluzione industriale è un esempio classico. Il punto è capire se sapremo governare questa fase di transizione in modo da distribuire i vantaggi e contenere i rischi. Sembra di no.
Cos’è in realtà l’Intelligenza Artificiale? Se ne parla tanto ma spesso con poca competenza e si fa facilmente confusione.
L’intelligenza artificiale è un insieme di metodi che permette ai computer di svolgere compiti che di solito associamo all’intelligenza umana: comprendere e generare linguaggio, riconoscere immagini e suoni, prendere decisioni, pianificare, e imparare dall’esperienza. Oggi, quando si parla di AI nel dibattito pubblico, quasi sempre ci si riferisce soprattutto al deep learning, e più nello specifico ai Large Language Models. Questi sono sistemi addestrati su grandi corpora di testo, immagini, video e codice (praticamente l’intero output umano presente su internet) per prevedere il prossimo pezzo di linguaggio e, da lì, sviluppano capacità come scrivere, riassumere, tradurre, e assistere in compiti complessi. È però importante chiarire che non sono un’enciclopedia affidabile: sono modelli statistici molto sofisticati che catturano regolarità nel linguaggio.
Cosa cambia nella vita di tutti i giorni?
Nel quotidiano l’impatto più immediato è un cambiamento nell’interazione con gli strumenti digitali. Invece di usare menù e procedure complesse, chiediamo in linguaggio naturale di scrivere un testo, riassumere un documento, organizzare informazioni, o aiutare con un problema. Questo significa che molte attività cognitive “di supporto”, la parte più meccanica e ripetitiva del lavoro intellettuale, diventeranno più rapide. Al tempo stesso, l’effetto più profondo potrebbe essere nell’accelerazione della ricerca e dell’innovazione. Il punto chiave, però, è che questi strumenti funzionano bene quando sono inseriti in processi con verifica e responsabilità.
Cosa cambia nel mondo dei media?
Nel mondo dei media cambiano due cose fondamentali. La prima è che produrre testo credibile diventa estremamente economico e rapido e questo spinge verso l’automazione di una parte del giornalismo più ripetitivo o a basso valore aggiunto. La seconda grande trasformazione riguarda la provenienza di ciò che vediamo e ascoltiamo. Con modelli capaci di generare immagini, audio e video in modo sempre più realistico, cresce il rischio di disinformazione e manipolazione, e diventa indispensabile costruire protocolli per stabilire cosa è generato da IA e cosa no. Per questo sono diventati centrali temi come sistemi di provenance che permettono di tracciare l’origine di un contenuto o watermarking, il tentativo di nascondere nel testo generato da AI, delle regolarità che permettano di distinguerlo da quello umano. Non è chiaro se queste soluzioni siano tecnicamente, politicamente e matematicamente fattibili.
In quali settori della vita quotidiana può diventare importante?
È probabilmente più semplice rispondere chiedendosi in quali settori non diventerà importante. In generale, ovunque ci siano processi basati su testo, documenti, decisioni ripetitive o analisi, l’AI entrerà in modo significativo, perché automatizza o accelera componenti che oggi richiedono tempo e competenze. In molti casi non sostituirà l’intero lavoro, ma ne cambierà la struttura, spostando gli esseri umani verso attività di supervisione, decisione e relazione. I settori che rimarranno più “resistenti” sono quelli in cui il rapporto umano, la fiducia e la responsabilità personale sono centrali. Pensiamo all’assistenza, alla cura o all’ospitalità.
La macchina e l’uomo: è un po’ come la tecnica e l’uso umano che se ne fa?
Sì, ma con una precisazione importante: l’IA non è solo una tecnica neutra che “dipende dall’uso”, perché incorpora inevitabilmente le tracce del mondo da cui apprende e delle persone che la costruiscono. Non è uno specchio neutro: tende a riprodurre e a volte a rafforzare asimmetrie già presenti nelle fonti. C’è anche da considerare il bias di chi sviluppa questi sistemi. Le scelte su cosa raccogliere, cosa filtrare, cosa definire “tossico”, quali lingue e culture coprire meglio, quali obiettivi di sicurezza o utilità ottimizzare, e perfino come impostare le linee guida nell’addestramento con feedback umano, riflettono inevitabilmente i valori e le priorità delle persone e delle organizzazioni coinvolte. il modello non è un oggetto neutro: è il risultato di una lunga catena di decisioni progettuali..
Negli USA sono maggiori le opportunità per studiare IA? In Italia non si può?
In Europa si può fare ottima ricerca in intelligenza artificiale, e ci sono gruppi accademici di primo livello. Quando però parliamo di questo specifico settore scientifico, cioè la ricerca di frontiera sui modelli più grandi e costosi da addestrare e valutare, gli Stati Uniti offrono oggi un vantaggio strutturale molto difficile da replicare qui. La ragione principale è la scala: non solo la disponibilità di capitale, ma anche la capacità di trasformare rapidamente quel capitale in infrastrutture, calcolo e talenti. Una nota della Federal Reserve, per esempio, osserva che tra il 2013 e il 2024 l’investimento privato cumulato in IA negli Stati Uniti ha superato di circa un ordine di grandezza quello dei paesi dell’Unione Europea. La competizione industriale spinge verso una maggiore segretezza. La scienza di migliore qualità, storicamente, diventa tale perché è verificabile: pubblichi metodi e risultati, la comunità li controlla, li replica, li discute, li critica e li migliora. In un contesto in cui pubblicare dettagli tecnici significa potenzialmente regalare vantaggio ai competitor, una parte crescente dei progressi non viene più condivisa con lo stesso livello di trasparenza, oppure viene condivisa in modo parziale. Questa situazione sta cambiando anche il ruolo delle università nel settore e il loro rapporto con l’industria. Per molti anni c’è stato uno scambio relativamente bidirezionale: persone che si muovevano tra aziende e università, collaborazioni e articoli congiunti, e un ecosistema in cui l’accademia contribuiva sia alla teoria sia alla pratica. Oggi, su molti aspetti della frontiera, il flusso tende a essere più sbilanciato verso università che alimentano i lab industriali, perché l’accesso a calcolo, dati e infrastrutture su scala è spesso concentrato nelle aziende. Se metti insieme competizione, segretezza e requisiti crescenti di risorse, l’effetto complessivo è che diventa più difficile fare ricerca di frontiera dall’accademia, la conoscenza si concentra in poche mani, il dibattito scientifico verificabile si restringe e, potenzialmente, si riduce il ruolo delle università proprio nel segmento più strategico della disciplina.
In “2001: Odissea nello spazio” HAL si ribella. Corriamo questo pericolo?
Il rischio reale, oggi, è più sobrio: sistemi molto capaci che finiscono per comportarsi in modi indesiderati, oppure vengono usati da attori umani per scopi dannosi. Quando costruisci qualcosa che può diventare più capace di te in certi domini, il punto non è tanto se “prova sentimenti”, ma se i suoi obiettivi sono allineati ai nostri e se siamo in grado di controllarne il comportamento in modo affidabile. Questo è il tema centrale della ricerca sull’AI safety. E’ importante notare il fatto che questa ricerca non è necessariamente allineata con gli incentivi economici delle aziende che sviluppano queste tecnologie, né con la capacità della politica di regolamentarne lo sviluppo alla stessa velocità con cui la tecnologia avanza. Se invece vogliamo restare per un momento sul terreno della fantascienza, e immaginare un’intelligenza artificiale nettamente superiore a quella umana, allora la domanda diventa quasi “biologica”: quando un essere più forte si prende cura di uno più debole? L’unico esempio che mi viene in mente è il rapporto madre-figli. Questo porta a una domanda provocatoria ma utile: stiamo insegnando ai sistemi di AI qualcosa di simile, cioè una forma di responsabilità verso chi è più vulnerabile?
AI può sviluppare un pensiero?
Dipende da cosa intendiamo con la parola “pensiero”. Se pensiamo al ragionamento come capacità di concatenare passi logici, pianificare e risolvere problemi, allora vediamo già forme di comportamento che assomigliano a questo, con limiti e fallimenti ma soprattutto con miglioramenti importanti di anno in anno. Un modo utile per descrivere questa traiettoria, senza fermarsi ai singoli benchmark, è guardare alla “lunghezza” dei processi che un sistema riesce a portare avanti con affidabilità: non solo risposte singole, ma compiti che richiedono decine di minuti, poi ore, e via via workflow più lunghi. In questo senso ad esempio, alcuni lavori recenti propongono una metrica che misura quanto tempo impiega un umano esperto per svolgere i compiti che l’IA riesce a completare con una certa probabilità di successo, e osservano una crescita sostanzialmente esponenziale di questo “orizzonte”: in media, la durata dei compiti completabili raddoppia su scale di mesi, in modo che ricorda, come dinamica, un equivalente della legge di Moore ma applicato alla complessità temporale dei compiti. Se invece intendiamo “pensiero” come coscienza, esperienza soggettiva, intenzionalità nel senso umano del termine, allora una risposta valida è che non abbiamo criteri scientifici condivisi per stabilirlo in modo convincente.
(*) Giornalista
