Facebook userà l’intelligenza artificiale per identificare contenuti offensivi durante le dirette video. Il social network più popolato al mondo si trova con sempre maggiore frequenza impantanato in controversie sulla moderazione, tra scelte drastiche che sembrano limitare la libertà di espressione ad assenza di moderazione su alcuni contenuti controversi.
Joaquin Candela, direttore per l’applicazione del machine learning, ha spiegato che se finora il social network si è affidato principalmente ai propri utenti per identificare i contenuti offensivi, poi vagliati dal personale dell’azienda, d’ora in avanti Facebook sfrutterà anche degli algoritmi d’intelligenza artificiale per assolvere meglio questo compito.
“È un algoritmo che rileva nudità, violenza e qualsiasi cosa non rispetti le nostre regole”, ha affermato Candela. L’azienda sta già applicando la stessa soluzione tecnologica per identificare contenuti estremisti come i filmati messi in circolazione da ISIS.
Da queste ore il sistema sarà messo alla prova anche con Facebook Live, il servizio di streaming video che sta diventando sempre più popolare, in quanto usabile da chiunque abbia un account sul social e uno smartphone.
L’uso dell’intelligenza artificiale per catturare potenziali video live offensivi è ancora una ricerca e pone delle sfide. “La prima è che il nostro algoritmo di computer vision deve essere veloce. La seconda è che bisogna dare priorità alle cose nel modo in cui una persona le vede, deve essere un esperto che comprende le nostre policy e agisce”.
Facebook usa già processi automatizzati per decine di milioni di report che riceve dagli utenti ogni settimana, in modo da riconoscere duplicazioni e indirizzare i contenuti “equivoci” verso i propri utenti con la migliore esperienza in materia.
Il boss di Facebook Mark Zuckerberg ha dichiarato nelle scorse settimane che la tecnologia sarà usata anche per verificare la circolazione delle cosiddette “fake news”, ossia contenuti falsi fatti ad hoc per far passare messaggi non corretti. Una tattica molto usata in capo politico – non solo negli Stati Uniti nel caso della recente elezione di Trump, ma anche in Italia – e anche in altri ambiti, come ad esempio quello sanitario – con potenziali gravi ripercussioni per la salute di chi crede a informazioni false.
Sul tema delle” fake news” Facebook si muove su un filo sottile, tra il rischio di applicare una censura spinta e il lasciare correre troppo, ma anche tra libertà di espressione e necessità di far circolare informazioni corrette e non ingannevoli. “Queste sono domande che vanno ben al di là del fatto che siamo in grado o no di sviluppare l’intelligenza artificiale”, ha detto Yann LeCun, direttore per la ricerca sulla IA di Facebook. “Si tratta di compromessi che non sono nella posizione di determinare”.
Nel frattempo Facebook ha lanciato una campagna per educare le persone sul tema dell’intelligenza artificiale, spiegarne le molteplici sfaccettature e mostrare come funziona realmente. “L’intelligenza artificiale, infatti, non è una scatola magica, ma è matematica (anche se si tratta matematica davvero complessa)”, dice il social.
Nel blog di Facebook Engineering si trovano ulteriori informazioni su quello che l’intelligenza artificiale rappresenta per l’azienda, sull’importanza degli investimenti nel campo della matematica e delle scienze, oltre a una serie di video quasi interamente basati su animazioni che spiegano visivamente questi concetti. A questo indirizzo il post sul blog di Facebook in cui trovare ulteriori informazioni.