AGI – Oltre 350 esperti, professori e alti esponenti del settore tecnologico hanno lanciato l’allarme sull’intelligenza artificiale, avvertendo del “rischio estinzione” per l’umanità che comporta ed esortando i politici a equiparare la minaccia a quelle di pandemie e guerra nucleare.
“Mitigare il rischio di estinzione derivante dall’intelligenza artificiale dovrebbe essere una priorità globale insieme ad altri rischi su scala sociale come le pandemie e la guerra nucleare”, hanno sottolineato in una succinta lettera pubblicata dal Center for AI Safety (Cais). Tra i firmatari, Sam Altman, amministratore delegato di OpenAI, che ha creato ChatGPT, insieme a Geoffrey Hinton e Yoshua Bengio, considerati i ‘padrini’ dell’IA.
L’ad di DeepMind, Demis Hassabis, Max Tegmark del MIT, il co-fondatore di Skype Jaan Tallinn e il musicista Grimes sono tra gli altri firmatari di un messaggio volutamente “conciso” perché, si legge sul sito del Cais, i suoi sostenitori intendono evitare che il loro appello su “alcuni dei rischi più gravi dell’Intelligenza Artificiale avanzata” venga soffocato dalla discussione su altri “rischi importanti e urgenti derivanti dall’Intelligenza Artificiale” che, pur rilevantissimi, rischiano di distrarre il dibattito dal pericolo più concreto.
Pericoli futuri e storture presenti
La popolarizzazione dell’intelligenza artificiale generativa, con la diffusione di chatbot come ChatGPT, ha portato a una moltiplicazione di appelli per valutare le implicazioni dello sviluppo di tali strumenti. Su tutti, lo scorso marzo, la lettera aperta cofirmata da Elon Musk che chiedeva una pausa di sei mesi sullo sviluppo di modelli più potenti del GPT-4 di OpenAI per consentire il tempo necessario per elaborare protocolli di sicurezza condivisi da applicare all’intelligenza artificiale avanzata.
L’avvertimento sui rischi posti da “menti digitali sempre più potenti che nessuno, nemmeno i loro creatori, può comprendere, prevedere o controllare in modo affidabile” non convince però tutti gli addetti ai lavori. Alcune testate specializzate, come TechCrunch, ritengono sospetto che imprenditori coinvolti nel settore dell’AI evochino scenari così apocalittici.
Secondo il sito specializzato, puntare il dito sui pericoli futuri distoglie l’attenzione dalle storture presenti, tra i quali “l’uso gratuito da parte degli strumenti di dati protetti da copyright per addestrare i sistemi di intelligenza artificiale senza autorizzazione o consenso (o pagamento); la raccolta sistematica di dati personali online in violazione della privacy delle persone; la mancanza di trasparenza da parte dei giganti dell’IA sui dati utilizzati per addestrare questi strumenti”.