L’AI Act nasce dalla consapevolezza dell’urgenza di indirizzare le implicazioni etiche di una tecnologia in costante evoluzione. La sua finalità è tutelare i valori fondamentali dell’UE, garantendo il controllo umano, la sicurezza, la trasparenza e il benessere sociale ed ambientale nell’uso degli AI system. Si suddivide il rischio in categorie, imponendo regolamentazioni proporzionate all’entità del rischio stesso.

L’Intelligenza Artificiale va ben oltre i semplici chatbot, che ad oggi sono molto oggetto di dibattito; infatti le normative dell’AI Act si estendono a mezzi come il riconoscimento facciale e l’utilizzo di dati biometrici. Questi strumenti, seppur innovativi e utili, sollevano importanti problematiche legate alla privacy.

In modo particolare, il riconoscimento facciale e l’impiego di dati biometrici rappresentano una parte fondamentale delle sfide affrontate dall’AI Act. Questi aspetti sono infatti cruciali per consentire la creazione di sistemi sofisticati capaci di identificare individui in maniera accurata e istantanea. Purtroppo, però, questa stessa precisione solleva preoccupazioni sulla gestione dei dati personali e sulla protezione della privacy.

Gli algoritmi complessi utilizzati nell’IA rendono difficile per gli esseri umani comprendere come vengano prese le decisioni. Ciò comporta il rischio che i dati personali vengano utilizzati in modo non trasparente, senza consapevolezza da parte degli individui sulle decisioni che li riguardano direttamente.

Diverse sono le questioni sollevate: come vengono gestiti e protetti i dati biometrici? Chi ha accesso a tali dati e con quali scopi vengono utilizzati? Probabilmente, queste sono le stesse domande che l’UE si è posta e, per questo, ha deciso di affrontare queste problematiche attraverso l’AI Act.

0 Comments

Leave a reply

Log in with your credentials

or    

Forgot your details?

Create Account