• 9 Maggio 2024 3:11

Corriere NET

Succede nel Mondo, accade qui!

Intelligenza artificiale, presente e futuro: quali sono i “veri” rischi? – International Business Times Italia

Dic 2, 2016

Le parole “intelligenza” e “artificiale”, poste l’una accanto all’altra, possono scatenare due diverse reazioni: quella di chi vede in questa tecnologia l’inevitabile evoluzione del progresso, in grado di semplificarci enormemente la vita, e quella di chi la considera la chiave di un terrificante futuro nel quale le macchine proveranno a soppiantare gli umani come specie dominante del pianeta. Si tratta di un tema che ha avuto (e probabilmente avrà) grande successo al cinema: basti pensare a film come Terminator e Matrix o al computer HAL9000 di 2001: Odissea nello spazio.

Un buon punto di partenza per parlare di intelligenza artificiale è quello di provare a capire di cosa si tratti: secondo l’enciclopedia Treccani, l’IA mira a creare “sistemi hardware e sistemi di programmi software atti a fornire all’elaboratore elettronico prestazioni che, a un osservatore comune, sembrerebbero essere di pertinenza esclusiva dell’intelligenza umana“.

LEGGI ANCHE: Diventerete criminali? Questo sistema di intelligenza artificiale prova a capirlo dalla vostra faccia

La parte che dovrebbe colpire maggiormente di questa definizione sono le parole “a un osservatore comune”. L’idea che l’IA sia un modo per permettere ad un computer di ragionare come farebbe un essere umano ma con una capacità di calcolo incredibilmente superiore è in effetti errata, almeno parzialmente.

“A volte si tratta di questo, ma non sempre e neanche spesso”, spiega John McCarthy della Stanford University. “L’intelligenza coinvolge dei meccanismi (mentali, ndr), e la ricerca sull’IA ha scoperto come farne svolgere alcuni ai computer, ma non tutti. Se svolgere un compito richiede soltanto meccanismi che oggi sono ben compresi, i programmi per computer possono fornire prestazioni impressionanti. Questi programmi dovrebbero essere considerati ‘intelligenti in qualche modo’ “.

Intelligenza artificialeL’intelligenza artificiale può spaventare: ecco perché Google, Amazon, Facebook, Microsoft e IBM hanno deciso di parlare chiaramente e approfonditamente al pubblico REUTERS/Michael Buholzer

Chiarito che l’IA non significa scimmiottare l’intelligenza umana (non necessariamente, almeno), cosa è possibile fare con questa tecnologia? Un aspetto poco conosciuto dai non addetti ai lavori è che l’IA non è qualcosa che vedremo in un indefinito futuro, ma una realtà della quale abbiamo continue testimonianze. A volte gli esempi sono eclatanti, come la vittoria di AlphaGo contro Lee Se-dol, uno dei più grandi campioni nella storia del gioco strategico Go.

L’intelligenza artificiale non è (solo) il futuro: è il presente

Ma l’intelligenza artificiale è molto più di questo: si tratta di qualcosa con la quale interagiamo ogni giorno. Per esempio, quando utilizziamo Gmail: Google sfrutta infatti l’IA per identificare lo spam nel suo servizio di posta elettronica o anche per effettuare traduzioni non eccessivamente “meccaniche” con Google Translate.

Il colosso di Mountain View sta però provando ad andare ben oltre questo: di recente, il motore di ricerca ha introdotto RankBrain, una serie di algoritmi in grado di capire una richiesta dell’utente in linguaggio naturale e di restituirgli i risultati che gli servono anche se questa non pare fare riferimento alle parole-chiave cercate.

In altre parole: dalla parte opposta c’è un computer capace di comprendere cosa un utente stia cercando anche se non sa spiegarlo bene. Si tratta di un compito che fino a neanche troppi anni fa sarebbe stato considerato più che naturale per un essere umano, ma totalmente impensabile per un computer. In informatica, la forma più elementare di struttura di un programma è stata quella “if-then-else”: se si verifica la condizione A allora fai B, altrimenti fai C. Intelligenza artificiale significa anche avere un sistema in grado di capire che l’utente potrebbe voler ottenere il risultato C, ma non sa come arrivarci.

LEGGI ANCHE: Il 2016 di Microsoft: mai così creativa, dinamica e aperta. Le 3 sorprese del 2017

Qualcosa del genere viene fatto quotidianamente da Facebook, che sfrutta costantemente i suoi algoritmi per provare a restituirci un news feed che contenga ciò che potenzialmente è più in grado di interessarci e coinvolgerci (il che, a sua volta, ci spinge a restare sul sito per più tempo, ma questo è un altro discorso).

Proprio il social network di Mark Zuckerberg potrebbe avere un ruolo fondamentale nello sviluppo dell’IA: nei giorni scorsi, gli ingegneri di Facebook hanno pubblicato alcuni video nel tentativo di “demistificare” l’intelligenza artificiale spiegando le basi della tecnologia ed il modo nel quale questa è entrata, entra e continuerà ad entrare nella nostra vita di tutti i giorni.

Peraltro, Facebook potrebbe sfruttare l’IA per risolvere una questione che nelle scorse settimane ha portato la società di Menlo Park nell’occhio del ciclone delle polemiche: l’incapacità del social network nel limitare la diffusione delle bufale avrebbe infatti avuto, secondo molti, un peso significativo nella recente vittoria di Donald Trump nelle elezioni presidenziali USA.

Nel “piano di battaglia” delineato da Zuckerberg per la riduzione delle false notizie su Facebook, il giovane multimiliardario ha parlato anche di “migliori sistemi tecnici per rilevare cosa le persone contrassegneranno come ‘falso’ prima ancora che lo facciano”. Si sta ovviamente parlando di un sistema di intelligenza artificiale, capace di comprendere ciò che intendiamo fare quando ancora noi stessi non l’abbiamo capito. Un po’ come quando Spotify o Netflix offrono suggerimenti su cosa ascoltare o vedere basandosi sui nostri gusti.

Il tentativo di far comprendere l’intelligenza artificiale ad un pubblico più vasto possibile non è decisamente uno sforzo inutile considerando la “cattiva pubblicità” che questa tecnologia ha accumulato nel corso degli anni.

Non commettete però l’errore di pensare che i timori provengano soltanto da persone scientificamente illetterate: negli anni, contro l’IA sono state mosse critiche (o quantomeno inviti a trattarla con grande attenzione) da personaggi come il più celebre scienziato vivente, Stephen Hawking (“Una minaccia per l’umanità“), il più grande visionario tecnologico dei nostri tempi, Elon Musk (“È come invocare il demonio“), o il co-fondatore di Apple, Steve Wozniak (“Diventeremo gli animaletti dei robot“).

La paura dell’IA? Giusto che ci sia, ma non per un futuro alla Terminator

Qual è quindi l’atteggiamento corretto nei confronti dell’intelligenza artificiale? Dobbiamo incentivarla o dobbiamo temerla? La risposta è: ambedue le cose, ma il timore non deve essere quello che noi pensiamo. Questo è il parere di Stuart Russell, lo scienziato a capo del Center for Human-Compatible Artificial Intelligence, un ente di ricerca lanciato nei mesi scorsi dalla University of California, Berkeley.

Secondo Russell le probabilità che un giorno i sistemi di intelligenza artificiale possano danneggiarci inavvertitamente nel tentativo di eseguire i nostri ordini sono decisamente maggiori di una rivolta anti-esseri umani dei robot in puro stile Terminator o Matrix. Un esempio da questo punto di vista, decisamente estremo ma molto esplicativo, è stato fatto da Elon Musk e può essere ascoltato in Lo and Behold – Internet: il futuro è oggi, un documentario di Werner Herzog sul futuro della tecnologia, uscito a gennaio di quest’anno.

TerminatorIl futuro immaginato nella serie di Terminator, con un guerra fra umani e robot, potrebbe diventare reale? Alcuni, tra i quali Stephen Hawking ed Elon Musk, temono di sì Paramount Pictures

Musk (che certo non può essere accusato di essere un tecnofobo) immagina un fondo finanziario gestito da un sistema di intelligenza artificiale il cui unico compito è quello di massimizzare il valore del portafoglio di investimenti. A quel punto, spiega Musk, come facciamo a sapere che il computer non deciderà che il modo migliore per farlo sia acquistare azioni di aziende connesse al settore della difesa e poi, in qualche modo, far scoppiare una guerra?

“Anche quando pensi di aver posto delle recinzioni intorno a ciò che un sistema di intelligenza artificiale può fare, questo tenderà a trovare delle scappatoie, proprio come facciamo noi con le nostre leggi fiscali”, spiega Russell. “Ciò che vogliamo è un sistema di IA che non sia motivato a trovare queste scappatoie. Il problema non è la coscienza, ma la competenza. Se si creano delle macchine incredibilmente competenti nel raggiungere degli obiettivi, queste causeranno incidenti tentando di raggiungere questi obiettivi”.

LEGGI ANCHE: “Resuscita” l’amico in chat grazie all’intelligenza artificiale

L’esempio utilizzato da Russell è inerente all’ambito di lavoro di Musk, che con Tesla Motors sta sviluppando sistemi di guida autonoma sempre più efficienti. Lo scienziato statunitense immagina un veicolo a guida autonoma al quale viene “insegnato” a non passare mai oltre un semaforo rosso. L’auto potrebbe però trovare il modo di introdursi nel sistema di controllo delle luci dei semafori e farli diventare tutti verdi al suo passaggio. In questo modo non avrebbe infranto l’ordine di non passare col rosso, ma rappresenterebbe comunque un pericolo.

In altri termini, il rischio è che le macchine, pur limitandosi ad eseguire ciò che vogliamo che facciano (o almeno: ciò che qualcuno vuole che facciano) danneggino in ogni caso degli esseri umani. Il che magari non è un’idea di futuro inquietante quanto quella dipinta in Terminator, ma di certo non è piacevole.

Da un certo punto di vista, Google è l’azienda al mondo che ha saputo lavorare meglio (o quantomeno in misura maggiore) sia sulle potenzialità che sui rischi. Per quanto riguarda questi ultimi, qualche mese fa vi abbiamo raccontato di come alcuni scienziati di DeepMind (società britannica di IA acquisita da Big G nel 2014 per 400 milioni di dollari) avessero prodotto un’analisi, intitolata “Safely Interruptible Agents“, in cui viene descritto il modo di “prendere il controllo di un robot che si sta comportando in modo errato [prima che questo] possa portare a conseguenze irreversibili”. Stiamo parlando di un “pulsante di spegnimento” che permetta di evitare o limitare i danni.

LEGGI ANCHE: Google taglia i consumi energetici grazie all’intelligenza artificiale di DeepMind

L’azienda di Mountain View sta trasformando ogni giorno che passa il motore di ricerca in un “assistente personale” per l’utente, chiamato Google Assistant: questo sistema sarà progressivamente integrato in tutti i dispositivi, già negli smartphone Pixel (o nell’app di messaggistica Allo) o anche Google Home, una sorta di assistente vocale (simile all’Echo di Amazon) che, anziché essere integrato in un device elettronico, è presente nel mondo reale sotto forma di uno speaker capace di interagire con l’utente grazie a dei comandi vocali.

Verso un mondo con l’intelligenza artificiale al centro

In vendita negli Stati Uniti ad un prezzo di circa 120 euro, non si sa ancora quando Google Home sarà lanciato nel resto del mondo. Il dubbio è però soltanto in merito al “quando” e non per il “se”, visto che si tratta di un dispositivo perfettamente inserito nella previsione del CEO Google, Sundar Pichai, secondo il quale ci stiamo spostando da un mondo “mobile-centrico” verso uno “IA-centrico”.

Sundar Pichai, CEO di GoogleSundar Pichai, CEO di Google REUTERS/Robert Galbraith

“Storicamente, siamo largamente stati dispositivo-centrici”, ha spiegato Pichai a maggio di quest’anno in un’intervista a Forbes. “Secondo me, nel tempo sarebbe sensato che la capacità di computazione sia lì, nel contesto di ciò che stai facendo. Sarai in grado di farlo perché ci sono dispositivi più intelligenti. Ci riusciremo perché possiamo realizzare l’intelligenza artificiale. Siamo nelle fasi iniziali dell’IA. Siamo ad uno stadio incredibilmente eccitante dell’IA“.

Annunciato alla I/O del 2016, Google Assistant è considerato una specie di evoluzione di Google Now che però è in grado di instaurare una conversazione a due vie, utilizzando gli algoritmi di elaborazione del linguaggio naturale sviluppati da Big G. Ma quando si parla di interazione e di linguaggio naturale, Google intende fare sul serio.

Gummi Hafsteinsson, direttore product-management di Google Home, ha spiegato come l’azienda abbia coinvolto degli scrittori professionisti, così come dei contributori del sito di satira The Onion, per costruire una “personalità” all’assistente che “vive” dentro il dispositivo: l’idea è quella di riuscire ad instaurare una sorta di rapporto emozionale con gli utenti.

Un sistema ben noto sul quale Google sta lavorando e che coinvolge sia l’interazione umana che la capacità di apprendimento automatico è quello delle celebri auto a guida autonoma che Big G sta sviluppando ormai da anni. L’auto senza pilota dell’azienda californiana per orientarsi nell’ambiente che la circonda sfrutta un sistema LIDAR (Laser Imaging Detection and Ranging): volendo iper-semplificare, si tratta di una specie di “sonar” come quello dei pipistrelli, ma anziché le onde sonore adopera il laser.

Una delle auto Google a guida autonomaUna delle auto Google a guida autonoma all’interno della sede dell’azienda a Mountain View (California) Michael Shick (CC BY-SA 4.0), via Wikimedia Commons

Per quanto il sistema di orientamento sia eccezionalmente avanzato, la parte più interessante delle auto Google a guida autonoma è il modo nel quale queste vetture “imparino” a guidare. Ovviamente i veicoli vengono portati a percorrere chilometri di strade reali (cosa che a volte causa dei curiosi inconvenienti ed anche un incidente), ma ciò che li fa davvero migliorare sono i chilometri “virtuali”.

Secondo un report del febbraio di quest’anno, dall’inizio del progetto (2009) fino a quel punto, le auto Google a guida autonoma avevano percorso circa 2,29 milioni di km “reali”, ossia su vere strade. Un dato notevole, ma non quanto il fatto che all’interno dei simulatori queste auto “percorrano” qualcosa come tre milioni di miglia (4,8 km) ogni singolo giorno.

“Un beneficio dell’insegnare ad un computer a guidare è che questo ha una grande memoria ed è capace di ricordare“, spiegano da Google. “Con il nostro simulatore, siamo in grado di richiamare i milioni di miglia che abbiamo già percorso e ripercorrerle con il nostro software aggiornato. Per esempio, per rendere più confortevole una svolta a sinistra ad un incrocio per i nostri passeggeri, abbiamo modificato il nostro software per correggere l’angolo col quale le nostre auto viaggerebbero”.

Un cervello umano “fonderebbe” davanti alla semplice prospettiva di condurre un auto per quasi 5 milioni di km per imparare a svoltare a sinistra, un computer è invece capace di farlo senza problemi giorno dopo giorno. Una macchina è da questo punto di vista simile ad un essere umano: una volta sviluppato un “metodo di studio” può apprendere in modo incredibilmente veloce. Tutto sta a vedere cosa le si insegna.

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. Guarda la Policy

The cookie settings on this website are set to "allow cookies" to give you the best browsing experience possible. If you continue to use this website without changing your cookie settings or you click "Accept" below then you are consenting to this.

Close