• 22 Aprile 2026 14:18

Corriere NET

Succede nel Mondo, accade qui!

Anthropic indaga sull’accesso non autorizzato sul modello di IA Mythos

Apr 22, 2026

AGI – L’azienda leader nello sviluppo di intelligenza artificiale Anthropic sta indagando per accertare se un gruppo di utenti abbia ottenuto un accesso non autorizzato al suo modello Claude Mythos, rilasciato solo a poche aziende fidate per via delle sue avanzate funzionalità di sicurezza informatica. Il laboratorio di intelligenza artificiale ha dichiarato martedì di stare esaminando le segnalazioni secondo cui un gruppo di persone avrebbe avuto accesso al modello attraverso un sistema predisposto per aziende terze che lavorano per Anthropic.

Dichiarazioni ufficiali e preoccupazioni

L’azienda ha dichiarato: “Stiamo indagando su una segnalazione che denuncia un accesso non autorizzato a Claude Mythos Preview tramite uno degli ambienti di un nostro fornitore terzo”. L’incidente solleva preoccupazioni sulla capacità del laboratorio di intelligenza artificiale di Antropic di impedire che la tecnologia che sviluppa finisca nelle mani di malintenzionati. Anthropic ha limitato la diffusione di Claude Mythos Preview a un ristretto gruppo di aziende tecnologiche fidate, a causa del rischio che il modello potesse essere utilizzato impropriamente per condurre attacchi informatici su una scala e con una velocità superiori alle capacità umane. Il rischio di accessi non autorizzati non farà che aumentare l’ansia legata a Mythos, che ha già scosso i mercati e innescato dibattiti di alto livello tra istituzioni finanziarie e autorità di regolamentazione globali.

Dettagli dell’incidente

Secondo Bloomberg, che per prima ha riportato la notizia, una delle persone che ha ottenuto l’accesso non autorizzato è riuscita a utilizzare i propri permessi di collaboratore esterno per Anthropic per accedere a Mythos. Anthropic ha dichiarato di non avere prove di attività che si estendano al di fuori dell’“ambiente del fornitore”, che terze parti utilizzano per accedere ai sistemi per lo sviluppo di modelli. I laboratori di intelligenza artificiale si avvalgono comunemente di appaltatori esterni per attività come il collaudo dei modelli, sebbene non sia chiaro quale fornitore sia stato coinvolto nell’incidente. All’inizio di questo mese Anthropic ha lanciato Mythos, rivolgendosi ad aziende come Amazon, Microsoft, Apple, Cisco e CrowdStrike.

Rischi per la sicurezza e precedenti

L’azienda con sede a San Francisco ha dichiarato che questi partner sarebbero stati in grado di individuare e proteggere le vulnerabilità informatiche utilizzando le funzionalità avanzate di Mythos prima che il modello venisse reso pubblico. Gli esperti di sicurezza hanno avvertito che, nelle mani sbagliate, gli hacker potrebbero sfruttare le vulnerabilità più velocemente di quanto le organizzazioni riescano a risolverle. I processi di sicurezza di Anthropic sono stati oggetto di un’intensa analisi dopo che, a marzo, sono state scoperte in una cache di dati accessibile al pubblico descrizioni del modello, incluso il suo nome. Il laboratorio di intelligenza artificiale ha attribuito la colpa a un errore umano. All’inizio di questo mese, in un secondo episodio, è stato reso pubblico anche il codice sorgente interno dell’assistente di programmazione dell’azienda, Claude Code.

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. Guarda la Policy

The cookie settings on this website are set to "allow cookies" to give you the best browsing experience possible. If you continue to use this website without changing your cookie settings or you click "Accept" below then you are consenting to this.

Close