• 19 Aprile 2024 20:26

Corriere NET

Succede nel Mondo, accade qui!

Come fanno le macchine a parlarci e a capirci?

Feb 27, 2017
universita insubria

L’annuncio di un ritardo alla stazione del treno, il navigatore dello smartphone che suggerisce percorsi e destinazioni, il risponditore telefonico automatico degli URP della mutua e la guida vocale dei caselli autostradali rappresentano alcuni esempi dell’elaborazione artificiale e del trattamento del linguaggio verbale umano; ma come fanno le macchine a comprendere e a parlare?

La linguistica computazionale è la disciplina di contatto tra informatica, robotica, ingegneria e linguistica che si occupa del trattamento elettronico delle lingue per mezzo del Natural Language Processing (NLP). In altri termini, la linguistica computazionale è la base teorica dell’NLP, che ne costituisce l’applicazione pratica, all’interno del più vasto bacino dell’intelligenza artificiale e dell’apprendimento automatico (machine learning).

Depositphotos 8086135 l 2015 © michaeldb
Foto: © michaeldb / Depositphotos

Il primo fattore da prendere in considerazione, se ci si vuole accostare alla linguistica computazionale da profani, riguarda i sistemi di regole. Prima di poter essere capite e riprodotte, le lingue devono essere analizzate e matematizzate mediante una serie di algoritmi o regole e, una volta istruita la macchina rispetto alle norme di una lingua, essa potrà riprodurla e comprenderla, grazie ai progressi della tecnologia.

Leggi anche: Google Translate, bravo quasi quanto un traduttore umano

Le regole sono inserite all’interno di una grammatica computazionale e riguardano ogni aspetto della lingua; dalla sua realizzazione fonico-acustica (i suoni della lingua), alla descrizione morfologica e sintattica (struttura delle parole e delle frasi), fino a giungere alle proprietà semantiche (i significati di una parola in base al contesto e alla collocazione).

Gli algoritmi consentono di coprire la lingua nella sua globalità, mentre i sistemi di regole permettono di valutare in maniera più precisa gli aspetti specifici. La coesistenza degli algoritmi e dei sistemi di regole è la condizione essenziale perché vi sia NLP; occorre disporre di un’équipe di linguisti esperta nella descrizione delle regole della lingua e di un macchinario potente per l’inserimento di enormi quantità di dati.

Depositphotos 61429009 l 2015 © Vaicheslav
Foto: © Vaicheslav / Depositphotos

Le macchine che comprendono e riproducono il linguaggio verbale si comportano a grandi linee come un cervello umano; per parlare partono dall’identificazione dei significati per giungere alla produzione della lingua, mentre per comprendere recepiscono il segnale acustico, eliminano interferenze e rumori, segmentano il parlato in stringhe sulla base delle regole di segmentazione, identificano i significati e così reagiscono allo stimolo vocale.

Molti individui si domandano come mai alcuni linguaggi artificiali siano strani, talvolta antipatici, suonino male e perché molte macchine non capiscano gli input proposti. In realtà queste domande si traducono nelle problematiche sulle quali la comunità tecnico-scientifica si interroga, non senza progressi nel corso degli ultimi decenni.

Leggi anche: Il traduttore europeo definitivo, 5,6 mln di investimento

Un linguaggio artificiale può suonare male, se il suono non è naturale o vicino al naturale; se l’onda sonora non assomiglia a quella di una voce umana, oppure se l’andamento melodico della frase – prosodia – non è rispettato, violando le regole di intonazione, di tono, di accento di parola o di frase.

Anche le pause sono rilevanti; se all’interno di un testo audio le esitazioni sono troppo ricorrenti, si avrà l’impressione di una “frase a scatti”, di un insieme di parole sconnesse. Se le pause sono lacunose, la produzione risulterà ansiosa, anomala rispetto alle regole che scandiscono la velocità del parlato.

Le sensazioni scaturite dalle voci artificiali sono vicine a quelle derivanti dalla violazione delle regole che commettono i parlanti più o meno inconsapevolmente: possono suscitare divertimento, imbarazzo, frustrazione, ansia e rabbia. In linea di principio, la comprensione della lingua da parte delle macchine è forse più complessa della produzione, perché rimanda a un’enciclopedia pregressa dei significati possibili e alla capacità di segmentazione del parlato, di interpretazione e di disambiguazione sulla base delle varietà sociolinguistiche (cambiamenti della lingua rispetto al mezzo, all’area geografica, al registro, al gruppo sociale, all’individuo).

Depositphotos 132131870 l 2015 © minervastock
Foto: © minervastock / Depositphotos

Oltre a questi aspetti, la lingua permette anche di esprimere concetti astratti, emozioni, umorismo, ironia, metafore e altri elementi non immediatamente percepibili dalla mera scomposizione delle sequenze fonico-acustiche. I fattori ancora più problematici per gli addetti ai lavori riguardano l’interazione uomo-macchina, nonostante la soddisfazione relativa ai primi esperimenti sulle prestazioni di robot istruiti con un vocabolario e funzioni ridotti.

La procedura più faticosa da parte di quanti si occupano di linguistica computazionale è l’etichettamento delle strutture linguistiche; il fatto di dover rendere regolari gli aspetti della lingua, di associare un valore a ciascuna realizzazione o insieme di realizzazioni (ad esempio, non tutti gli individui pronunciano la /r/ allo stesso modo), e di fornire istruzioni rispetto alle ambiguità.

Per quanto concerne la somiglianza del parlato artificiale rispetto a quello umano sono stati fatti passi in avanti nel corso degli ultimi dieci anni; le voci artificiali sono state trattate, implementate e talvolta fuse con quelle naturali per eliminare il divario fra uomo e macchina.

Il contributo della linguistica computazionale non riguarda solamente l’NLP; grazie alla riproduzione e alla comprensione della lingua da parte delle macchine, è progredita la conoscenza scientifica della lingua stessa.

Per approfondire: Isabella Chiari, Introduzione alla linguistica computazionale, Editori Laterza, Roma-Bari 2007.

Giulio Facchetti è professore di Glottologia e Linguistica del Dipartimento di Scienza e Alta Tecnologia, Università degli Studi dell’Insubria. Insegna Linguistica e Semiotica nei Corsi di Scienze della Comunicazione, è autore di decine di articoli su riviste scientifiche nazionali e internazionali nonché di vari saggi specialistici e divulgativi. È direttore di Expressio, Rivista di linguistica, letteratura e comunicazione.

Paolo Nitti è dottorando di ricerca in Diritto e Scienze umane all’Università degli Studi dell’Insubria, si occupa di linguistica acquisizionale e applicata, specializzandosi nell’acquisizione dell’italiano L2 e della lettoscrittura.

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. Guarda la Policy

The cookie settings on this website are set to "allow cookies" to give you the best browsing experience possible. If you continue to use this website without changing your cookie settings or you click "Accept" below then you are consenting to this.

Close