Alpha Fold costituisce la dimostrazione pratica di come l’intelligenza artificiale sia in grado di cambiare per sempre la ricerca e l’applicazione nell’ambito della biologia molecolare, aprendo nuove possibilità nella farmacia, nella medicina e nelle tecnologie ambientali. Esso infatti ha risolto con successo il Protein Folding Problem, grazie alle tecnologie di deep Learning utilizzate dal team di DeepMind (azienda inglese operativa nel mondo dell’intelligenza artificiale dal 2010 e appartenente all’ecosistema google dal 2014). Le tecniche di apprendimento profondo delle reti neurali che stanno alla base dell’intelligenza artificiale (il deep learning) si avvalgono di algoritmi capaci di risolvere problemi con un elevato grado di accuratezza. L’uomo è centrale nel ciclo di produzione dell’IA (intelligenza artificiale) in quanto il loro addestramento si basa nell’immagazzinare un gran numero di dati relativi agli individui. La privacy stessa rischia di diventare un input di tale processo produttivo. Gli algoritmi nel corso del tempo, grazie al miglioramento delle tecniche di apprendimento, migliorano per complessità, pervasività e delicatezza dei settori che ne fanno uso: la sanità, la giustizia, il sistema economico e finanziario, la meteorologia, la sicurezza, l’arte e la guida autonoma. Quindi possiamo affermare che l’intelligenza artificiale sia trasversale e ubiqua. Il tema della black box (scatola nera) esprime tutte le complicate tecniche di apprendimento automatico dell’IA. Le reti neurali riescono con enorme accuratezza a portare a termine anche le richieste più complesse, ma allo stesso tempo appare estremamente difficile dare un senso ai tanti milioni di neuroni coinvolti in questo processo. La trasparenza in questo caso gioca un ruolo molto critico. La trasparenza algoritmica è volta ad acquisire la capacità di individuare le fonti dei flussi di dati sfruttati e creati dal sistema di IA, di descrivere e di replicare accuratamente i meccanismi attraverso cui i modelli applicano determinate azioni. Essa, inoltre, aiuta ad evitare di compiere una decisione errata comprendendo le cause e permettendoci di intervenire correggendola. La rete neurale non è esente da errori, il problema diventa ancora più grave pensando che i neuroni possono essere ingannati, indotti all’errore tramite artifizi sperimentali in laboratorio. Bisogna quindi essere molto attenti sul rapporto di fiducia tra l’uomo e l’IA. L’intelligenza artificiale può infatti influenzare preferenze, comportamenti e scelte, e può produrre un impatto rilevante sul piano emotivo e dal punto di vista etico. Questa questione è ulteriormente complessa, in quanto le relative esigenze sono funzionali al contesto. È quindi essenziale capire il funzionamento del deep learning con i suoi algoritmi nelle situazioni di più grande sensibilità degli individui. Per colmare la scarsa trasparenza del deep learning ci forniamo dell’IA spiegabile, un sistema fondato su regole per spiegare le azioni dell’IA. Una delle sue funzioni principali è appunto rendere la tecnologia trasparente, è importante conoscere errori e pregiudizi nei dati che potrebbero indurre ad assumere scelte errate o ingiuste, serve anche a garantire conformità, etica, equità e mancanza di pregiudizi.

0
0 Commenti

Lascia un commento

CONTATTACI

Hai una domanda? inviaci una e-mail e ti risponderemo al più presto.

Il Quotidiano in Classe è un'idea di Osservatorio Permanente Giovani-Editori © 2012-2021 osservatorionline.it

Effettua il login

o    

Hai dimenticato i tuoi dati?

Crea Account