• 27 Gennaio 2025 5:09

Corriere NET

Succede nel Mondo, accade qui!

L’intelligenza artificiale in guerra. Il progetto rivoluzionario di Thales

Gen 26, 2025

AGI – Come addestriamo gli algoritmi quando sono in gioco vite umane? Nell’ambito di Thales, più di 600 esperti stanno sviluppando l’intelligenza artificiale per i settori della difesa e della sicurezza, con vincoli sproporzionati rispetto all’IA dei consumatori.

“Questo ambiente particolare ci porta doveri che non esistono in un ambiente tradizionale. I limiti vengono impostati dalla fase di progettazione dell’algoritmo di intelligenza artificiale, che non può funzionare come una scatola nera e dove l’essere umano è assolutamente essenziale”, ha detto all’AFP Philippe Keryer, direttore della strategia, della ricerca e della tecnologia di Thales, il principale detentore di brevetti di intelligenza artificiale per sistemi di difesa in Europa.

In vista dell’AI Action Summit, che si terrà a Parigi il 10 e 11 febbraio, questa settimana Thales ha aperto i suoi laboratori di ricerca a Palaiseau, in vista dell’Aerial Counter-Drone System (AI), nella regione parigina.

L’impatto di queste innovazioni è “enorme per le sfide della sicurezza, della sovranità e dell’efficienza energetica”, ha dichiarato Patrice Caine, CEO di Thales, che equipaggia 50 eserciti in tutto il mondo e i cui sistemi gestiscono il 40% dello spazio aereo mondiale.

Spada e scudo

“Abbiamo la responsabilità di ripensare a fondo il modo in cui funziona l’IA e i modelli di apprendimento”, afferma Philippe Keryer. Poiché il numero di dati in queste aree sensibili è limitato, il gruppo genera dati sintetici basati sulla sua esperienza per addestrare i suoi algoritmi. Impiega “hacker etici” per anticipare le minacce, inventare gli attacchi più sofisticati e sottoporre il software a un “crash test di resilienza” prima di essere convalidato.

Un principio “spada e scudo” già applicato ai sistemi d’arma (droni e sistemi anti-drone). “È pensando al male con gli attacchi più insidiosi che creeremo il bene”, dice Philippe Keryer. Un’altra sfida: su un campo di battaglia, “siamo limitati in termini di dimensioni, peso, potenza, ma anche dal tipo di rete a cui siamo connessi”, afferma Fabien Flacher, responsabile della sicurezza informatica di Thales. Su una fregata, su un Rafale o su un carro armato, non abbiamo “server farm” come Google, aggiunge.

E se le intelligenze artificiali sono generalmente addestrate su dati che sono “congelati per molto tempo”, questo non può funzionare per i conflitti moderni. “Insegniamo immediatamente all’IA a essere più rilevante” dopo ogni missione, ad esempio da un aereo da ricognizione in cui è integrata.

Le persone vincono 

“Le IA sono giudicate più duramente degli esseri umani”, afferma Christophe Meyer, direttore tecnico di CortAIx Labs, responsabile dell’IA per Thales. Ma la decisione cruciale spetta sempre all’essere umano. “Se ci fossero droni con capacità di ripresa, ci sarebbe una decisione umana che dicesse +Confermo questo suggerimento che mi stai facendo, con i miei criteri che sono criteri umani+”, osserva.

Le soluzioni offerte da questo tipo di IA contengono anche una spiegazione razionale.

I calcoli che fornisce consentono all’operatore di alleviare il suo carico cognitivo e talvolta di trascorrere meno tempo in un’area in cui la sua vita è in pericolo.

Ad esempio, un radar intelligente “può riconoscere le dimensioni di centinaia di bersagli in poche decine di secondi, mentre prima ci volevano decine di minuti”, spiega Nicolas Léger, esperto di radar di Thales.

Lo stesso vale per la lotta alle mine: le antenne che rilevano i dispositivi sospetti sono sempre più potenti, ma producono una quantità di dati impossibile da digerire per un essere umano.

Gli algoritmi aiutano a “velocizzare la classificazione e a valutare la pertinenza delle operazioni di identificazione e neutralizzazione”, spiega Benoît Drier de Laforte, consulente per l’azione contro le mine. Questa tecnica produce solo “dall’1% al 2%” di falsi allarmi, mentre “gli americani si accontentavano di un margine di errore del 20% su certe operazioni” di questo tipo, secondo lui.

Tuttavia, gli algoritmi non sono ancora pronti a sostituire le “grandi orecchie” umane. “Se l’algoritmo non è stato addestrato ad affrontare una nuova minaccia, potrebbe non funzionare bene come dovrebbe”, sottolinea l’esperto.

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. Guarda la Policy

The cookie settings on this website are set to "allow cookies" to give you the best browsing experience possible. If you continue to use this website without changing your cookie settings or you click "Accept" below then you are consenting to this.

Close