L’intelligenza artificiale: alleata o minaccia?
Definita come "la capacità di un sistema di interpretare correttamente i dati esterni, imparare da tali dati e utilizzare ciò che ha imparato per raggiungere obiettivi e compiti specifici attraverso un adattamento flessibile", l'”intelligenza artificiale" (AI) implica lo sviluppo di algoritmi e modelli che consentono alle macchine di percepire e ragionare sul loro ambiente e di intraprendere azioni appropriate.
Corina Cristea, 29.09.2024, 19:08
Definita come “la capacità di un sistema di interpretare correttamente i dati esterni, imparare da tali dati e utilizzare ciò che ha imparato per raggiungere obiettivi e compiti specifici attraverso un adattamento flessibile”, l’”intelligenza artificiale” (AI) implica lo sviluppo di algoritmi e modelli che consentono alle macchine di percepire e ragionare sul loro ambiente e di intraprendere azioni appropriate. Questi algoritmi utilizzano grandi volumi di dati e tecniche avanzate come l’apprendimento automatico, il deep learning, l’elaborazione del linguaggio naturale e la visione artificiale. Nata come disciplina accademica nel 1956, l’intelligenza artificiale è sempre più presente e i suoi benefici sono innegabili. „Questi possono variare da un’assistenza sanitaria migliore a processi produttivi più efficienti, da trasporti più sicuri e più puliti a fonti energetiche più economiche e sostenibili. Per le aziende, l’intelligenza artificiale può facilitare, ad esempio, lo sviluppo di una nuova generazione di prodotti e servizi e migliorare la sicurezza sul lavoro, poiché i robot possono svolgere compiti pericolosi. L’intelligenza artificiale, tuttavia, presenta aspetti negativi, come possibili minacce alla sicurezza, alla democrazia, alle aziende e ai posti di lavoro. Siamo arrivati al punto in cui temiamo che l’intelligenza artificiale e gli strumenti con cui altera la nostra realtà decideranno il nostro futuro? Ci sono voci che sostengono che questo non è escluso. Un esempio riguarda la sfera politica, le possibilità di influenzare l’elettorato, ad esempio attraverso deep-fake, realizzati sfruttando l’intelligenza artificiale.
La docente universitaria Dott.ssa Flavia Durach, specialista nello studio della disinformazione, spiega il suo meccanismo di funzionamento. “Ci sono alcuni rischi legati ai deep-fake. Si tratta innanzitutto di esacerbare la componente emotiva, certe disposizioni emotive a livello dell’elettorato, che in un dato momento possono favorire un certo candidato o una certa forza politica. Perché la manipolazione emotiva svolge un ruolo importante nella disinformazione e perché può portare a decisioni irrazionali, a indebolire il pensiero critico, a credere in un certo tipo di messaggio che ha una forte componente emotiva, ad esempio la paura o questo sentimento di essere scandalizzati. In termini di integrità elettorale, qui possiamo davvero avere quel tipo di situazioni in cui un candidato, una squadra elettorale o alcuni attori che hanno un interesse possono creare deep-fakes per screditare gli sfidanti, per creare dubbi nella mente degli elettori. E qui, la posta in gioco più grande sono gli elettori indecisi, quelli che sono soggetti forse a pressioni incrociate da parte del loro ambiente per inclinare il voto in un modo o nell’altro, probabilmente sono i più suscettibili. I deep-fake hanno per natura un alto potenziale di viralità, sono facili da seguire, solitamente hanno tutte le caratteristiche dei contenuti audio-video con forte viralità, quindi possono diffondersi facilmente.”
Nel tentativo di contrastare tali pratiche, un gruppo di 20 aziende tecnologiche, tra cui importanti sviluppatori di software di intelligenza artificiale, hanno firmato un accordo nella prima parte dell’anno che li invita a combattere la disinformazione elettorale nel 2024. I principali firmatari includono OpenAI, Microsoft e Meta. Annunciato alla Conferenza sulla sicurezza di Monaco di Baviera, l’accordo comprende, oltre alle società di intelligenza artificiale, alcuni dei social network più popolari. Meta, insieme a TikTok e X (ex Twitter), devono garantire che qualsiasi contenuto dannoso o falso viene rimosso dalle loro piattaforme. OpenAI, Microsoft e altre società di intelligenza artificiale garantiranno di identificare immagini, video e audio generati dall’intelligenza artificiale e di informare correttamente gli utenti. La misura concordata dalla maggior parte delle aziende è quella di etichettare i contenuti AI, principalmente tramite un watermark. È stato un buon inizio, crede Flavia Durach. “Tuttavia, dobbiamo tenere presente che abbiamo anche l’esperienza di notizie false meno sofisticate durante la pandemia di COVID-19, quando esistevano tali promesse, queste misure di etichettatura dei contenuti sono state adottate, ma studi indipendenti di think tank o ricercatori non affiliati a queste piattaforme digitali hanno riscontrato una serie di limitazioni a queste misure. Nel senso che buona parte dei contenuti che disinformano in quei contesti sono riusciti a sfuggire alle politiche di moderazione, alle misure di rilevazione. Pertanto, senza conoscere gli aspetti tecnici, nutro una dose di scetticismo sull’efficacia e l’efficienza di queste misure alla luce delle esperienze precedenti.”
“In assenza di misure legislative, di regolamenti stabiliti a livello nazionale, sovranazionale, se non fondiamo i nostri sforzi su alcune politiche per lo sviluppo dell’intelligenza artificiale su basi etiche e con la minimizzazione dei rischi, non saremo in grado di fare qualsiasi cosa”, ritiene la specialista in disinformazione Flavia Durach. Alcuni passi importanti in questo senso sono già stati fatti a livello comunitario. Il Consiglio dell’UE ha approvato lo scorso maggio l’Artificial intelligence (AI) act, la cosiddetta legge sull’intelligenza artificiale, destinata ad armonizzare le norme sull’intelligenza artificiale con un approccio “basato sul rischio”, ossia maggiore è il rischio di provocare danni alla società, più severe saranno le regole.