Non nego che l’AI Act sia una rivoluzione nella regolamentazione delle intelligenze artificiali, in quanto primo documento al mondo che sistematicamente ne definisce i limiti. Non posso fingere non lo sia: in fondo per una volta quella diplomazia europea che spesso definiamo anchilosata ha messo da parte gli interessi individuali e si è messa di buona lena a lavorare su di una delle emergenze del domani.

Eppure, stando ai dati, non possiamo che notare che i membri dell’EU non siano fra i principali produttori di tecnologie AI, settore in cui anzi si configurano come timidi pretendenti delle due superpotenze USA e Cina, irraggiungibili nelle loro Silicon Valley. Con questo, non voglio certo sostenere che l’AI Act sia inutile: gli Stati Europei sono fattualmente i prossimi contendenti dei due duellanti; l’Act è una risposta a un bisogno anche europeo di risolvere questioni etiche indiscutibili.

Eppure quanto senso ha gioire di un successo che sia solo relativo? Possiamo davvero fregiarci di aver consegnato all’umanità una legge solida, che protegga la privacy di tutti i cittadini della comunità globale, che obblighi i più infidi despoti a firmare e a rispettare le parole della democrazia? Afferma il contrario l’esperienza, in cui le camere dei bottoni europee legiferano a nome di tutto il mondo e in cui i loro banditori saranno partiti solo per sbattere contro le mura dei nuovi imperi.

Un’altra questione: non sarebbe ragionevole regolamentare l’AI in termini di privacy precisamente in quegli Stati in cui la privacy è più a rischio? Qual è lo stato della privacy in Italia? È buono, buonissimo. Le forze di polizia abusano delle tecnologie biometriche in Germania? Non mi risulta. Abbiamo mai visto sistemi di credito sociali in Francia? Mai.

Ora, penso che sia assolutamente necessario regolare l’AI in relazione ai suoi potenziali usi biometrici, nell’evenienza che anche in Europa possano palesarsi disegni di autoritarismo; eppure che progresso è un progresso in cui non regoliamo l’AI nei Paesi che più la producono, e in cui non proteggiamo la privacy proprio nei Paesi che meno la proteggono?

Sono statunitensi i Safe Harbor, patti che proteggevano scambi transatlantici di dati personali fra società europee ed americane, dichiarati nulli nel 2015; gli USA sono coloro che non hanno tutelato il privacy shield, accordo simile del 2016; il progetto Sharp Eyes è stato lanciato in Cina, con l’obiettivo di raggiungere una sorveglianza del 100% del Paese; è la Cina quella che sta cercando di implementare un sistema di credito sociale.

Queste sono solo alcune delle iniziative americane e cinesi più problematiche circa la privacy dei propri cittadini: iniziative che verrebbero enfatizzate e rese più efficienti proprio dall’implementazione sregolata delle tecnologie AI in queste policy di sorveglianza.

Poi c’è anche da considerare che l’AI non è solo questo. È sì sorveglianza, è mezzo utilissimo per monitorare terroristi (La War on Terror statunitense) e minoranze pericolose (gli Uiguri in Cina), eppure è anche molto altro: è medicina, è parte fondante della tech industry, della ricerca; è la nuova filiera dell’industria bellica, dell’informazione imbavagliata.

Ancora, questo discorso è perlopiù applicabile non in Europa, quanto in Cina e in Russia, dove sono stati sviluppati veri e propri chatbot AI, per contrastare i chatbot statunitensi e diffondere il proprio paradigma, l’unico possibile.

Ironicamente, anche la Cina ha sviluppato delle linee guida per un progetto di regolamentazione dell’AI generativa: eppure le proposte dell’estate del 2023 stabiliscono che qualsiasi contenuto prodotto dall’IA deve rispettare i “valori fondamentali del socialismo” e non deve né diffondere informazioni errate né sovvertire l’autorità ufficiale.

Oltre alla dimensione della privacy, constatiamo dunque quanto l’AI possa risultare rivoluzionaria nel futuro, estendendo la propria influenza anche in branche apparentemente scollegate: AI dunque significa progresso, che significa anche un indizio di predominio, che sia questo culturale o economico non importa.

L’AI è pertanto strumento imperdibile cui noi Europei stupidamente andiamo ponendo lacci. È quasi come se le nostre precauzioni etiche potessero aumentare ancora di più il divario già esistente fra Europa, Cina ed Usa, che pongono l’etica in secondo piano per investire su uno scriteriato slancio verso il futuro, che vada a corroborare governi sempre più centrali ed autoritari, sia come tirannidi sia sotto falsa scorza democratica.

Sicché rallentare il progresso legato all’AI non rientra negli interessi né degli Stati Uniti né della Cina, che invece derivano solo profitti nel lasciare via libera ai propri colossi informatici, non possiamo sperare che nell’immediato futuro le cose cambino. 

Potremmo illuderci che l’America sia diversa; che, nonostante una fosca storia a riguardo (il Patriot Act e il caso Snowden, che hanno palesato le mire indagatrici dell’NSA contro i propri stessi cittadini), sia comunque una democrazia: eppure l’ambizione di un monopolio tecnologico, e il federalismo statunitense, con la sua pluralità di istanze, renderebbero tutt’al più tortuosa e frammentaria una risposta legale ai rischi dell’AI.

Se dunque anche la nazione più democratica fra le non-europee si dimostra almeno riluttante a rifiutare parte dei propri profitti, cosa ci aspettiamo dalla Cina, da Israele, dalla Russia?

Che fare dunque? Nient’altro se non tentare di aumentare la rilevanza dell’industria AI europea nel mondo, così da poter imporre le nostre regolamentazioni anche sui nuovi imperi, nonché cercare di utilizzare l’autorità dell’EU per far siglare ad altri Stati accordi sulla privacy, come il data privacy framework, stipulato recentemente con gli Usa. Sperando però che, a differenza del privacy shield e dei Safe Harbor sopraccitati, questa volta venga rispettato…

0 Comments

Leave a reply

Log in with your credentials

or    

Forgot your details?

Create Account