Esteri

Social Media e Intelligenza Artificiale potranno determinare l’esito delle prossime elezioni nel mondo?

 

In vista delle ultime elezioni nazionali dell’India nel 2019, i team interni di Twitter si sono imbattuti in una voce diffusa sulla piattaforma secondo cui l’inchiostro indelebile con cui il paese tagga le unghie degli elettori, conteneva sangue di maiale.

“Si trattava di una tattica di disinformazione intesa principalmente a privare i musulmani dei diritti civili e dissuaderli dal votare, e non era vera”, ha ricordato in un’intervista alla rivista americana Foreign Policy, Yoel Roth, allora responsabile dell’integrità del sito responsabile delle elezioni della piattaforma di social media.

Preoccupante è il fatto che la X di Elon Musk non è l’unica grande piattaforma di social media che licenzia i moderatori di contenuti. Meta, proprietaria di Facebook, Instagram e WhatsApp, ha licenziato più di 20.000 dipendenti da novembre 2022, molti dei quali lavoravano sulla fiducia e sulla sicurezza, mentre molti dipendenti di YouTube che lavoravano sulla politica di disinformazione, sono stati colpiti dai licenziamenti presso la società madre Google.

Non potrebbe esserci momento peggiore per lesinare sulla lotta ai contenuti dannosi online. Si prevede che più di 50 paesi, tra cui le tre più grandi democrazie del mondo e Taiwan, terranno elezioni nel 2024. Sette dei 10 paesi più popolosi del mondo: Bangladesh, India, Indonesia, Messico, Pakistan, Russia , e gli Stati Uniti, manderanno complessivamente alle urne un terzo della popolazione mondiale.

Secondo Foreign Policy le elezioni sono il luogo in cui i passi falsi della disinformazione vengono al pettine. Se la disinformazione sui social media è l’equivalente di urlare “al fuoco” in un teatro affollato, la disinformazione elettorale è come farlo quando c’è un film horror in onda e tutti sono già nervosi.

Le aziende proclamano di mantenere il loro impegno per l’integrità elettorale. YouTube ha “fortemente investito nelle politiche e nei sistemi che ci aiutano a sostenere con successo le elezioni in tutto il mondo”, ha affermato la portavoce Ivy Choi. TikTok afferma di avere un totale di 40.000 professionisti della sicurezza e di collaborare con 16 organizzazioni di controllo in 50 lingue globali.

Ma ci sono altri segnali preoccupanti. YouTube ha annunciato lo scorso giugno che avrebbe smesso di rimuovere i contenuti che diffondevano false affermazioni sulle elezioni americane del 2020 o sulle elezioni passate, e Meta ha silenziosamente apportato una modificazione simile alle sue regole sugli annunci politici nel 2022.

E poi c’è il ruolo della intelligenza artificiale. La tecnologia esiste in varie forme da anni, ma ha raggiunto una svolta nel novembre 2022, quando OpenAI con sede in California ha lanciato ChatGPT. Il Chatbot e i suoi successivi aggiornamenti, in grado di generare paragrafi di testo a comando in pochi secondi ed è progettato per simulare la conversazione con un essere umano.

Meta, Google e Microsoft (che ha anche investito miliardi di dollari in OpenAI) hanno lanciato i propri chatbot, così come hanno fatto le più recenti aziende di intelligenza artificiale come Anthropic, Inflection e Cohere e i grandi colleghi cinesi della tecnologia Baidu, Tencent e Alibaba.

Ma oltre ai testi, OpenAI possiede anche DALL-E, uno dei tanti generatori di immagini AI sul mercato che personalizza audio e video in base alle proprie esigenze, infinitamente più semplice dai cosiddetti strumenti di intelligenza artificiale generativa. Questi strumenti generano un’ampia varietà di contenuti online su vari mezzi in risposta alle richieste degli utenti e hanno il potenziale per potenziare la disinformazione sui social media in un modo mai visto prima.

Aziende e governi si stanno affrettando a mettere in atto guardrail. Meta, TikTok, Microsoft e YouTube hanno tutti imposto una qualche forma di obbligo ai creatori e agli inserzionisti politici di rivelare quando i loro contenuti creati utilizzando l’intelligenza artificiale.

Le iniziative governative e multilaterali che stabiliscono quadri normativi sulla tecnologia includono il recente ordine esecutivo dell’amministrazione Biden sull’intelligenza artificiale. l’AI Safety Summit, tenutosi nel Regno Unito lo scorso novembre, ha costituito un nuovo comitato consultivo sull’intelligenza artificiale presso le Nazioni Unite e l’AI Act dell’Unione Europea dovrebbe entrare in vigore entro il 2025.

La domanda, non solo tra i politici, ma anche fra l’industria e la società civile, è se questi guardrail possano essere messi in atto abbastanza velocemente, ma soprattutto se tutti riusciranno anche solo a concordare su cosa difendersi.

OpenAI è stata in prima linea nell’avvertire quanto potrebbero essere dannosi i suoi strumenti mentre ne viene potenziata la capacità. Nel luglio 2023, la società ha formato una partnership chiamata Frontier Model Forum con Anthropic, Google e Microsoft per lavorare insieme sulla sicurezza dell’intelligenza artificiale.

Un altro argomento è che la disinformazione generata dall’intelligenza artificiale potrebbe non corrispondere ai disegni dei malintenzionati perché, fortunatamente, i ripetuti avvertimenti sulle immagini manipolate e sui video deepfake, hanno reso gli utenti dei social media più scettici. Ma i cattivi attori in molti paesi non hanno bisogno dell’intelligenza artificiale per essere efficaci.

Le rivelazioni dell’interferenza della Russia nelle elezioni presidenziali statunitensi del 2016, in particolare attraverso Facebook, è stata un importante campanello d’allarme per le piattaforme di social media e per la comunità dell’intelligence statunitense, aggiungendo una nuova dimensione allarmante al dibattito sulla disinformazione elettorale.

Secondo un rapporto declassificato dell’intelligence USA esaminato da Foreign Policy, gli sforzi di disinformazione online della Russia sono stati continuati durante le elezioni del 2020, invece la Cina non ha compiuto sforzi di interferenza per cambiare l’esito” delle elezioni.

Ma funzionari governativi e aziende tecnologiche avvertono che la volontà della Cina di condurre una guerra dell’informazione è cambiata in modo sostanziale perché “spende miliardi di dollari ogni anno in sforzi di manipolazione delle informazioni straniere”, com riportava lo scorso settembre il Global Engagement Center del Dipartimento di Stato.

E anche se a novembre la maggior parte degli occhi sarà puntata sui sondaggi statunitensi, una delle prime elezioni dell’anno potrebbe essere quella più importante sarà quella di Taiwan che eleggerà un nuovo presidente il 13 gennaio, con una decisione che avrà enormi ripercussioni geopolitiche.

GiElle

Related posts

Afghanistan, i Talebani autorizzano le vaccinazioni contro la poliomielite

Redazione Ore 12

Nasa verso Marte grazie al nucleare. Partenza 2035

Redazione Ore 12

Italiani in fuga dal Niger, arrivano in 36 all’aeroporto di Ciampino. Massiccia la fuga dei francesi

Redazione Ore 12