• 29 Aprile 2024 0:56

Corriere NET

Succede nel Mondo, accade qui!

L’Intelligenza artificiale genera volti umani più realistici di una foto

Nov 16, 2023

AGI – Le sembianze dei volti di carnagione bianca generati dall’intelligenza artificiale appaiono più realistiche di quelle umane. È quanto emerge da una nuova ricerca condotta dagli scienziati dell’Australian National University, pubblicata su Psychological Science, una rivista dell’Association for Psychological Science. Nello studio, la maggior parte dei partecipanti ha riconosciuto come umani i volti dalla carnagione bianca generati dall’IA, rispetto ai volti di persone reali. Lo stesso risultato non è stato riscontrato con le immagini di persone di colore.

“La ragione di questa discrepanza è che gli algoritmi di intelligenza artificiale vengono addestrati per lo più sui volti dalla carnagione bianca”, ha spiegato Amy Dawel, autrice senior del lavoro. “Se i volti di carnagione bianca dell’intelligenza artificiale vengono costantemente percepiti come più realistici, questa tecnologia potrebbe avere serie implicazioni per le persone di colore, rafforzando in ultima analisi i pregiudizi razziali online”, ha dichiarato Dawel.

“Questo problema è già evidente nelle attuali tecnologie di intelligenza artificiale utilizzate per creare foto dall’aspetto professionale: quando vengono utilizzate per le persone di colore, l’IA altera il colore della pelle e degli occhi, rendendolo simile a quello delle persone caucasiche”, ha aggiunto Dawel. I ricercatori hanno scoperto che uno dei problemi dell'”iperrealismo” dell’IA è che spesso gli individui non si rendono conto di essere ingannati. “È preoccupante notare che le persone che pensavano che i volti dell’IA fossero reali il più delle volte erano anche le più sicure della correttezza dei loro giudizi”, ha detto Elizabeth Miller, coautrice dello studio e dottoranda presso l’ANU.

“Ciò significa che le persone che scambiano gli impostori creato dall’IA per persone reali non sanno di essere ingannate”, ha continuato Miller. I ricercatori sono riusciti anche a scoprire perché i volti dell’intelligenza artificiale riescono a ingannare così bene gli umani. “È emerso che esistono ancora differenze fisiche tra i volti delle IA e quelli umani, ma le persone tendono a interpretarle in modo errato; per esempio, i volti caucasici delle IA tendono a essere più proporzionati e le persone li scambiano per un segno di umanità”, ha affermato Dawel.

“Tuttavia, non possiamo fare affidamento su questi indizi fisici per molto tempo, in quanto la tecnologia dell’intelligenza artificiale sta avanzando cosi’ rapidamente che le differenze tra l’intelligenza artificiale e i volti umani probabilmente scompariranno presto”, ha proseguito Dawel. I ricercatori sostengono che questa tendenza potrebbe avere serie implicazioni per la proliferazione della disinformazione e del furto di identità e che è necessario intervenire con delle azioni mirate che prevengano tali possibilità.

“La tecnologia dell’IA non può essere isolata in modo che solo le aziende tecnologiche sappiano cosa succede dietro le quinte: è necessaria una maggiore trasparenza sull’IA, in modo che gli scienziati e la società civile possano identificare i problemi prima che diventino gravi”, ha sottolineato Dawel. Secondo gli autori, anche la sensibilizzazione dell’opinione pubblica può svolgere un ruolo significativo nel ridurre i rischi posti dalla tecnologia. “Dato che gli esseri umani non sono più in grado di riconoscere i volti dell’IA, la società ha bisogno di strumenti in grado di identificare con precisione le simulazioni dell’IA”, ha precisato Dawel. “Educare le persone sul realismo percepito dei volti dell’IA potrebbe contribuire a rendere la popolazione adeguatamente scettica nei confronti delle immagini che vede online”, ha concluso Dawel. 

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. Guarda la Policy

The cookie settings on this website are set to "allow cookies" to give you the best browsing experience possible. If you continue to use this website without changing your cookie settings or you click "Accept" below then you are consenting to this.

Close