• 24 Novembre 2024 0:03

Corriere NET

Succede nel Mondo, accade qui!

Iezzi (Tinexta Cyber): “L’uomo è già al centro dell’IA. E il problema è proprio questo”

Mag 6, 2024

AGI – Uno di messaggi che più spesso si sentono in sede di Governo e anche recentemente di G7 è “l’uomo sia al centro dell’intelligenza artificiale”. Così il ministro dell’Impresa e del Made in Italy Adolfo Urso a conclusione del G7 dell’Industria recentemente organizzato a Verona e Trento. Ma si tratta di una frase ricorrente, pronunciata più e più volte sia da componenti del Governo sia dell’opposizione. Secondo l’esperto di cybersicurezza e strategic business director di Tinexta Cyber Pierguido Iezzi questo concetto non scoglie tutti i nodi della questione.

“L’uomo è già al centro dell’intelligenza artificiale – ha spiegato all’AGI – ma non perché questo sia stato scelto in maniera etica e virtuosa, ma perché l’IA, proprio perché antropocentrica in concezione è fallibile quanto il suo creatore: per la modalità con cui raccoglie i dati, le fonti, l’algoritmo, i possibili rischi, la possibile manipolazione dell’algoritmo. Per un concetto di base: se fornisci un input sbagliato, avrai inevitabilmente un output sbagliato. È proprio la sua architettura a mettere l’uomo al centro ed è proprio qui che sta la sua fallibilità”. 

 

I conflitti in corso in più parti del mondo, in primis quello tra Russia e Ucraina, ma anche quello in Medio Oriente e le sue ripercussioni nel Mar Rosso, ne sono la dimostrazione. L’intelligenza artificiale è un alleato in processi decisionali che sono comunque gestiti, architettati, impostati dall’uomo.

“Il G7 deve quindi cambiare la domanda – prosegue Iezzi – e mettere al centro l’affidabilità di un sistema di IA. Bene le regole e regolamenti ma dobbiamo puntare a formare cittadini e affrontare il tema di un cambio delle abitudini di una intera nazione e società”.
Il rischio è ripetere quanto accaduto con i social network quando la (quasi) piena consapevolezza dei rischi legati al loro utilizzo è arrivata più di un decennio dopo la loro diffusione. E non ve dimenticato che nel caso dell’intelligenza artificiale sottovalutare i pericoli connessi rischierebbe di avere effetti ben più devastanti.

 

“Si è sovrani dei propri dati per davvero solo se si ha la piena consapevolezza di cosa può significare questo – ha infine concluso – la realtà è che non esiste un programma di formazione e sensibilizzazione mirato a prepararci al nuovo. Se l’uomo deve essere davvero al centro deve sapere quali sono i margini, le opportunità, i possibili rischi. Serve una formazione per un vero change habit AI management”, solo così l’uomo resta al centro. E qui l’alleanza pubblico-privato è strategica perché se io formo un dipendente questo diventa un portatore sano di conoscenza che poi diffonderà a casa sua, tra gli amici, tra la sua cerchia di conoscenti. Questo è il vero tema. E su questo Governo – in maniera bipartisan – e G7 si devono interrogare”.

 

 

 

 

 

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. Guarda la Policy

The cookie settings on this website are set to "allow cookies" to give you the best browsing experience possible. If you continue to use this website without changing your cookie settings or you click "Accept" below then you are consenting to this.

Close