• 23 Novembre 2024 9:15

Corriere NET

Succede nel Mondo, accade qui!

Dallo stop alle app ingannevoli alla “macchina della verità” per i migranti. Ecco il Regolamento europeo sull’IA

Nov 5, 2024

AGI – Scatta lo stop all’intelligenza artificiale ingannevole ed è in dirittura d’arrivo l’uso dell’Ia per sottoporre i migranti richiedenti asilo alla macchina della verità o stabilire la priorità nell’invio dei servizi di emergenza sanitaria o dei vigili del fuoco. Fa tutto parte della scaletta del nuovo, e finora unico, Regolamento europeo sull’Ia.

A dicembre in Europa saranno vietati quei sistemi definiti “inaccettabili”, capaci di “manipolazione comportamentale” e “di classificare le persone sulla base di razza, religione e orientamento sessuale” e attraverso l’analisi dei loro dati biometrici. La novella legge è stata pubblicata in Gazzetta Ufficiale europea il 12 luglio scorso e dopo 20 venti giorni c’è stato il primo via libera. Ma non a tutte le sue parti. Passato il mese prossimo, la successiva data utile per l’attuazione delle norme generali sarà il giugno 2025. Mentre il varo dei vincoli per i sistemi ad alto rischio – quelli cioè ritenuti potenzialmente pericolosi per diritti e salute del cittadino, come la macchina della verità appunto – è stato rimandato dal 2026 al 2027. Nel novembre scorso l’Ue ha cercato di giocare d’anticipo stringendo un patto con le “parti interessate” (volontarie), organizzando un webinar per informare e “condividere esperienze” sull’Ia”.

A conti fatti, dunque, non sono ancora all’opera le regole che dovranno scandagliare i sistemi intelligenti ad alto rischio. Quando lo saranno, l’Unione “valuterà l’impatto sui diritti fondamentali”, garantirà “una maggiore trasparenza” degli apparati registrati in banca dati e, laddove si userà l’Ia per il riconoscimento delle emozioni, il documento stabilisce che “si dovranno informare le persone esposte” all’occhio elettronico. Inoltre, la legge baderà che le macchine intelligenti possiedano tre requisiti considerati fondamentali: “Accuratezza, robustezza e cybersicurezza”. Aggiungendo l’avvertenza: “Le imprese che non rispettano le norme – si scandisce nell’atto – saranno sanzionate fino al 7% del fatturato annuo globale per le violazioni di applicazioni di Ia vietate, fino al 3 % per le violazioni di altri obblighi e fino al 1,5% per la fornitura di informazioni inesatte”.

 

Sembra fantascienza, ma è già realtà

Nel frattempo, i sofisticati apparati continuano a “girare” come sempre e, con tutte le cautele del caso, lo faranno anche dopo. E sembra già fantascienza. Infatti – si riassume dal Regolamento – l’intelligenza artificiale esegue controlli sul lavoro, a scuola, nei centralini delle emergenze e negli ospedali, per gestire il traffico stradale, reti di gas, luce elettrica e riscaldamento di casa. Addirittura, viene ingaggiata anche la macchina della verità, il poligrafo. A pagina 127 del Regolamento, nell’allegato III vengono spiegati settori e ruoli dove sono al lavoro sistemi di Ia da sorvegliare. Si parte dalla “biometria, per il riconoscimento delle emozioni”.

Si prosegue con l’Ia nei componenti di sicurezza per la “gestione delle infrastrutture digitali del traffico stradale, fornitura di acqua, gas, riscaldamento o elettricità”. Quindi, gli algoritmi si usano nel “settore istruzione e formazione professionale: per determinare accesso, ammissione o assegnazione di persone agli istituti d’istruzione e formazione; valutare risultati di apprendimento, livello di istruzione e comportamenti degli studenti durante le prove negli istituti”. E poi nel comparto “occupazione, gestione dei lavoratori e accesso al lavoro autonomo”. Ovvero, “per assunzione o selezione di persone, pubblicizzare i posti vacanti, vagliare le candidature, valutare i soggetti nel corso di colloqui o prove”.

L’elenco continua. Le speciali macchine offrono informazioni utili all’uomo per prendere “decisioni in materia di promozione e cessazione dei rapporti contrattuali di lavoro, assegnazione dei compiti, monitoraggio e valutazione di prestazioni e comportamento delle persone nell’ambito di tali rapporti di lavoro”. Il quinto punto coinvolge gli algoritmi nell’“accesso a prestazioni e servizi pubblici e privati essenziali”. Che significa “valutare l’ammissibilità (o inaccettabilità, ndr) delle persone a prestazioni e a servizi di assistenza pubblica, l’affidabilità creditizia o per stabilire” il personale “merito di credito”. L’adozione dell’Ia è ammessa perfino “per inviare servizi di emergenza di primo soccorso o per stabilire priorità in merito all’invio di tali servizi, compresi vigili del fuoco e assistenza medica”.

 

Arriva la macchina della verità

Nel contrasto al crimine i supersistemi sono un’arma in più per “determinare il rischio che una persona diventi vittima di reati”. E anche qui, quando è necessario, il Regolamento prevede l’adozione della macchina della verità. Il suo impiego è indicato finanche nella “gestione della migrazione, dell’asilo e del controllo delle frontiere per rilevare lo stato emotivo di una persona e il rischio che si corre facendola entrare in uno Stato membro dell’Ue”; per il momento, il nostro ministero dell’Interno non ha ricevuto alcuna preallerta sull’uso del poligrafo. L’ultimo punto dell’allegato è sui sistemi ad alto rischio in servizio nell’“amministrazione della giustizia e processi democratici”.

Precisamente, ma non solo, “per assistere un’autorità giudiziaria nella ricerca e nell’interpretazione dei fatti e del diritto e nell’applicazione della legge a una serie concreta di fatti, o a essere utilizzati in modo analogo nella risoluzione alternativa delle controversie”. Su questo campo d’azione dell’Ia al riguardo i ragionamenti di giudici, magistrati e avvocati mostrano luci e ombre. Le toghe temono ingerenze nel loro lavoro. 

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. Guarda la Policy

The cookie settings on this website are set to "allow cookies" to give you the best browsing experience possible. If you continue to use this website without changing your cookie settings or you click "Accept" below then you are consenting to this.

Close