L’intelligenza artificiale (IA) rappresenta una doppia sfida per l’Europa, poiché si cerca di sfruttare a pieno la sua potenzialità, ma allo stesso tempo di mantenere bassa la preoccupazione per la sua pericolosità. L’Europa ha scelto un approccio che regolamenta norme etiche e legali dello sviluppo dell’IA, mentre altre grandi potenze, come Stati Uniti e Cina, hanno scelto vie divergenti. Gli Stati Uniti prediligono l’innovazione, con un approccio meno restrittivo al regolamento dell’IA. Questo ha permesso una rapida crescita e l’adozione di tecnologie avanzate, ma crea al contempo un aumento di responsabilità. La Cina, invece, ha scelto uno sviluppo accelerato dell’IA. Questo ha portato a importanti progressi tecnologici, ma tuttavia ha ingenerato il dubbio che ci sia una mancanza di controlli etici. Penso che una corsa al dominio dell’IA, per il quale Stati Uniti e Cina competono per il controllo, possa determinare una mancanza di attenzione sull’evoluzione che questo possa avere, dal momento che ne sappiamo ancora così poco a riguardo. Proprio per questo l’Europa si trova a svolgere un ruolo importante nel scegliere un approccio bilanciato, cercando di favorire l’innovazione, ma con particolare attenzione a etica e sicurezza. L’AI Act, sebbene sia un passo importante verso la regolamentazione dell’intelligenza artificiale in Europa, potrebbe rischiare di diventare inefficace in breve tempo, data la rapida evoluzione dell’IA. Il periodo di approvazione e implementazione delle leggi può richiedere anni, durante i quali la tecnologia può raggiungere nuovi traguardi a non finire. Siamo dunque capaci di regolamentare un settore in sviluppo costante? Io credo che la sfida di saper da un lato regolamentare l’IA e dall’altro di rendere questa regolamentazione adattabile anche al futuro dell’IA sia ardua; se siamo capaci di regolamentarlo oggi, saremo capaci, un domani, di accogliere il cambiamento?