La “natura” conformista (e per niente green) dell’AI. Intervista ad Andrea Daniele Signorelli


di Giovanna Carnevale 

L’intelligenza artificiale sta cambiando letteralmente il mondo sotto ai nostri occhi. Il lavoro, le abitudini, il modo di informarsi e di comunicare sono tra gli ambiti in cui gli impatti, ma anche i rischi, sono più evidenti.

Di intelligenza artificiale e di come la si sta sperimentando anche nel mondo del non profit si è parlato in una scorsa edizione del GRS WEEK (si può riascoltare a questo link: https://tinyurl.com/45kfh6rr).

Ma le domande su cosa comporta e può comportare ancora di più in futuro un uso diffuso dell’AI sono molte. Ne abbiamo poste alcune ad Andrea Daniele Signorelli, giornalista freelance che si occupa dell’impatto sulla società delle tecnologie emergenti.

È possibile parlare di una “natura” dell’intelligenza artificiale? È una tecnologia che esclude o può essere inclusiva?

Purtroppo per sua “natura” l’intelligenza artificiale tende a essere escludente perché, sia che si parli dell’AI predittiva (quella usata ad esempio per scegliere a chi elargire un mutuo), sia che si parli di intelligenza artificiale generativa (quindi Chat Gpt e simili), il meccanismo è basato su previsioni statistiche provenienti da una grandissima mole di dati. Questo porta i sistemi di AI ad operare, spesso e volentieri, in base a una sorta di media della popolazione ed è per questa ragione che troppo spesso tendono a premiare le persone che fanno parte della media e, inevitabilmente, a escludere le parti che si trovano agli estremi, chi non rientra nella figura “attesa”.

Ci sono tantissimi esempi che spiegano qual è la situazione: uno dei più noti risale a qualche anno fa e ha come protagonista un algoritmo di intelligenza artificiale usato negli Stati Uniti per la selezione di curriculum sviluppato da Amazon. Dopo poco tempo è stato ritirato perché si era scoperto che questo algoritmo tendeva sistematicamente ad escludere i curriculum femminili ogni volta che si trattava di una posizione nel cosiddetto ambito Stem (discipline scientifiche, tecnologiche, ingegneristiche e matematiche). Perché questo avveniva? Perché storicamente e per ragioni esclusivamente socio-culturali, la stragrande maggioranza delle persone che ha lavorato in questo settore è rappresentata da uomini e, quindi, i curricula con cui l’AI è stata addestrata per selezionarli erano praticamente tutti di uomini. L’intelligenza artificiale, in sostanza, aveva imparato che il solo fatto che il cv appartenesse a una donna fosse sufficiente per escluderla sistematicamente dalle posizioni Stem.

Rispetto all’AI generativa, invece, sappiamo anche per esempio che se chiediamo ai sistemi di generazione immagini di raffigurare un terrorista creerà sempre un terrorista dalle sembianze medio-orientali, mentre se chiediamo una “persona ricca” raffigurerà sempre un uomo bianco. Questo proprio perché tende ad adattarsi alla visione conformista della società ed è proprio su questi aspetti che bisogna porre estrema attenzione.

 

 

Esistono dati e informazioni molto allarmanti rispetto al consumo di energie e alla sostenibilità ambientale dell’AI, ma ancora se ne parla troppo poco. Che tipo di impatto ambientale ha questa tecnologia?

 

L’ai generativa, cioè quella che crea testi video musica ecc… ha un impatto ambientale fortissimo. Facciamo un esempio: quando noi poniamo una domanda al motore di ricerca di Google, possiamo ipotizzare che in un data center in Nevada si accenda una metaforica lampadina che consuma pochissimo. Quando poniamo una domanda a Chat Gpt o simili o, ancora peggio, generiamo un video, all’interno di questo presunto data center si accendono decine dei più potenti processori che costano decine di migliaia di dollari l’uno: si accendono e iniziano a macinare a tutta potenza. Questi sistemi di AI, infatti, per elaborare le loro risposte o generare video e immagini hanno bisogno di enorme potere computazionale, di tantissima energia e questo inevitabilmente ha ricadute sotto il punto di vista ambientale e delle emissioni. Sappiamo infatti che le aziende Amazon, Microsoft, Google e Meta attorno al 2020 si erano poste come obiettivo dichiarato quello di raggiungere, in circa dieci anni, emissioni nette pari a zero. Bene, attorno al 2023-2024 sono usciti dei report che hanno mostrato come questo percorso non solo si fosse interrotto ma addirittura come si stesse tornando indietro: piuttosto che essere ridotte, le emissioni stavano aumentando tra il 25 e il 35%.

Questo perché nel 2023 hanno iniziato a diffondersi sistemi di AI generativa e, complice un po’ anche il cambiamento del clima politico, queste grandi aziende hanno dato la priorità allo sviluppo di enormi data center senza più prestare fondamentalmente nessuna attenzione alle questioni ambientali.

 

 

Cambiamo argomento e parliamo dell’impatto dell’intelligenza artificiale sul mondo dell’informazione e del giornalismo. C’è un reale rischio in termini di termini di perdite di visualizzazioni e quindi anche di sostenibilità? Considerando che ancora buona parte dei siti e delle testate online si sostiene molto con la pubblicità…

Assolutamente sì, ci sono già dei dati che lo confermano. Le grandi testate giornalistiche stanno vedendo un pesante declino nelle visite. Nel momento in cui non sono più i link ai siti ma è Google stesso a fornire le risposte con il suo sistema “Mode AI”, Google si sta trasformando da motore di ricerca in “macchina delle risposte”.  Quando utilizziamo Chat Gpt, Gemini o Claude non solo come assistenti in ambito professionale ma anche per svolgere ricerche e ottenere informazioni che un tempo avremmo eseguito esclusivamente tramite motori di ricerca, inevitabilmente sia le testate giornalistiche ma anche siti di qualunque tipo e natura che si sostengono tramite la pubblicità perdono tantissimo traffico. Meno clic equivalgono a meno pubblicità e quindi a minori possibilità di sostentarsi economicamente.

Questo è un rischio per almeno due ragioni: il primo è che le stesse intelligenze artificiali hanno bisogno di un ecosistema informativo a 360 gradi attivo perchè hanno bisogno costante di essere aggiornati con nuove informazioni per poter funzionare. Se domani, ipotizziamo, tutti i siti smettessero di funzionare perchè nessuno fosse più in grado di sostenersi economicamente, gli stessi sistemi di intelligenza artificiale non avrebbero più il materiale necessario per i loro aggiornamenti e rimarrebbero bloccati. La speranza, per le stesse aziende di AI, è che tramite accordi economici o sistemi di qualche tipo si trovi una soluzione, anche perché ci sono già tantissimi siti che stanno dando grandi segnali di sofferenza. C’è poi un’altra questione molto importante.

Quale?

 

Ancora un esempio. Anche Google funziona in maniera algoritmica e quindi ha la possibilità di controllare la distribuzione delle informazioni, ma quando facciamo una ricerca possiamo osservare i link che ci sono stati offerti, cercare la fonte di cui ci fidiamo di più o più vicina alla nostra sensibilità politica: insomma siamo noi i responsabili dell’informazione che andiamo a leggere e abbiamo una vasta gamma di scelta. Nel momento in cui invece utilizziamo i sistemi di intelligenza artificiale riceviamo una risposta univoca. Ora, se si tratta di una ricetta per cucinare, la riposta univoca può andare benissimo ma se, come sempre più spesso capita, usiamo l’AI ad esempio per capire quali sono le origini del conflitto in Medio Oriente o quale può essere un bilancio dei primi anni di governo Trump o qualunque altra questione molto più delicata, in cui non c’è una verità oggettiva ma varie opinioni e fatti che vanno analizzati e contestualizzati, ecco che ciò rischia di conferire alla tecnologia – e in particolare ai big della Silicon Valley – il potere di plasmare l’informazione. Anche questo è uno scenario assolutamente da evitare.