Di tutti i grandi vertici di cui ho riferito nel corso degli anni, quelli che producono meno sono quelli che portano le agende più pompose e ad ampio raggio. Il vertice d’azione sull’intelligenza artificiale di Parigi, tenutosi questa settimana, rischia di essere uno di questi eventi. Ha visto capi di stato, alti funzionari governativi, amministratori delegati e dirigenti e scienziati di aziende tecnologiche, oltre ad altre parti interessate del mercato e dell’industria e alla società civile provenienti da oltre 100 paesi, scontrarsi con gli impatti del mondo reale dell’IA.
A due anni dall’emergere del chatbot ChatGPT di OpenAI, l’IA ha alimentato sia un’immensa speranza che, a volte, una paura esagerata, a seconda della parte dell’equazione in cui ti trovi.
Il vertice di Parigi è stato il terzo raduno di questo tipo. Il primo si è tenuto nel 2023 nel Regno Unito e ha portato a un impegno non vincolante da parte di 28 nazioni per affrontare i rischi dell’IA. Una riunione di follow-up ospitata dalla Corea del Sud l’anno scorso ha assicurato un altro impegno a creare una rete di istituti pubblici di sicurezza dell’IA per far progredire la ricerca e i test.
I partecipanti a Parigi hanno riaffermato il fatto che il mondo sta vivendo una rivoluzione tecnologica e scientifica che raramente si è vista prima. Ma non offrivano molto in termini di consentire alle persone di vivere meglio, imparare meglio, lavorare meglio o prendersi cura meglio. Ancora una volta non sono riusciti a colmare il divario tra le parti interessate e gli sviluppatori dell’IA e il mercato, il consumatore e le autorità di regolamentazione, in particolare quando la geopolitica e gli interessi statali entrano nella mischia. L’abilità tecnologica non è sempre sinonimo di potere militare e politico?
E, come previsto, il mondo era diviso ancora una volta, con gli Stati Uniti e il Regno Unito da una parte e l’UE, la Cina e l’India dall’altra. La dichiarazione di chiusura della riunione di Parigi ha accettato di dare priorità alla regolamentazione per rendere lo sviluppo dell’IA “aperto” e “etico”, ma né il Regno Unito né gli Stati Uniti, che ospitano le più grandi società di intelligenza artificiale del mondo, hanno firmato l’accordo. Gli americani hanno affermato che la regolamentazione uccide l’IA e gli inglesi hanno insistito sul fatto che la dichiarazione non affrontava sufficientemente “domande più difficili sulla sicurezza nazionale”.
Gli organizzatori hanno cercato di far si che i paesi si impegnassero in un’IA più etica, democratica e sostenibile dal punto di vista ambientale. Ma nel mondo frammentato in cui viviamo, non è ancora arrivato il momento di mettere da parte la competizione a favore del bene comune. Il recente litigio, quando è emerso un modello di intelligenza artificiale più economico sotto forma di DeepSeek cinese, è molto significativo su come il mondo sia ancora troppo distanato per riunirsi e concordare governance, regolamenti e due diligence per limitare i danni causati dall’IA.
I francesi, come molti nell’UE, volevano usare questo vertice per recuperare e rivendicare una quota dello sviluppo e della proprietà dell’IA, poiché si è concluso che la tecnologia non è un mero clamore, ma un punto di svolta a tutti i livelli. E coloro che non riescono ad attingere ad esso potrebbero essere lasciati indietro politicamente, economicamente, socialmente e persino militarmente. Quindi, la Francia e l’Europa in generale sembrano sempre più in procinto di abbandonare i loro guardrail nella corsa per sviluppare un’IA migliore dell’essere umana attraverso la pura potenza di calcolo e le iniziali richieste di Parigi per indirizzare l’IA verso la risoluzione dei problemi della società, in particolare i mali dell’industria e del settore sanitario, sono diventati smorzati.
Sembra che l’allineamento con l’era di Trump 2.0 sia in cima all’agenda dei leader del vecchio continente, indipendentemente da ciò che dicono. Sono sempre più certi che il mondo sia cambiato e le vecchie norme di rispetto nominale dello stato di diritto e delle istituzioni e della governance multilaterali sono sempre più irrilevanti. Gli Stati Uniti non evitano di affermare il loro desiderio di diventare la capitale mondiale dello sviluppo dell’IA attraverso l’attingendo alle loro riserve di petrolio e gas per alimentare questa tecnologia affamata di energia. Inoltre, la narrazione di Donald Trump indica un approccio tiepido anche alla regolamentazione leggera, mentre cerca di mantenere la supremazia e la leadership globale dell’America attraverso la riduzione delle barriere normative e la costruzione di sistemi di intelligenza artificiale liberi da qualsiasi pregiudizio ideologico.
L’UE, nonostante sia un terzo concorrente in una gara di due cavalli guidata da Washington e Pechino, potrebbe avere la possibilità di avere un impatto, ma solo se inverte anni di burocrazia e regolamentazione volta a proteggere la società dagli eccessi della tecnologia AI e dai suoi potenziali danni.
Il rilascio di DeepSeek del suo ultimo modello il mese scorso ha sbalordito il mondo a causa della sua capacità di rivaleggiare con giocatori occidentali come ChatGPT. Ha anche intensificato la più ampia resa dei conti geopolitica tra Pechino e Washington sulla supremazia tecnologica. Ma ha anche mostrato all’UE che ci sono possibilità per una nuova svolta che potrebbe far pendere l’equilibrio verso l’Europa, rendendo effettivamente l’IA una gara di tre cavalli.
I messaggi dell’UE sul vertice hanno riflesso una chiara divergenza dalla sua precedente retorica nel tentativo di ammorbidire la sua narrazione, così come il suo regolamento. Henna Virkkunen, il commissario europeo per la sovranità tecnologica, la sicurezza e la democrazia, concorda con l’industria tecnologica sulla necessità di rivedere il regime normativo dell’UE è senza precedenti. I suoi appelli a rivedere le normative sovrapposte e a rimuovere l’onere amministrativo dall’industria tecnologica dell’UE sono stati applauditi, ma la domanda è fino a che punto si spingerà? L’UE andomerà anche il suo AI Act, il primo insieme completo di regole al mondo che regola la tecnologia?
Semmai, il vertice di Parigi ha tristemente dimostrato che rendere l’IA più sostenibile per le persone e il pianeta è fuori, poiché una maggior parte della produttività dell’Europa dipende dall’essere un leader in questa tecnologia emergente e dall’utilizzarla per servire i suoi stati membri, le imprese e le società, garantendo al contempo la sua indipendenza nel regno tecnologico in un modo che serve gli interessi nazionali.
Per ora, sembra che la via da seguire per l’UE sia quella di tentare un approccio più leggero alla regolamentazione dell’IA. La preoccupazione è che indebolire le normative esistenti potrebbe non essere sufficiente, poiché il mondo – guidato da Trump e dai suoi partner tecnologici – sta guidando l’agenda e ci sta spingendo sia direttamente che indirettamente verso una maggiore incertezza, meno diritti umani e intelligenza artificiale che alla fine sfiderà le norme esistenti e le competenze umane, rendendo alcuni posti di lavoro rindipendenti e tutti i lavoratori meno protetti.