Skip to main content

Il linguaggio non è algebra

4 Aprile 2024

I progettisti di reti neurali che si accostano al linguaggio, vedono questo come uno spazio combinatorio di stringhe o singoli caratteri alfabetici. Questi elementi non sono simbolici (sýmbolon, che porta insieme), in quanto per le macchine essi non significano nulla più che numeri. Di fatto, l’unica cosa che questi automi possono apprendere sono le relazioni sintattiche (sýntaksis, disposizione) che tali numeri esibiscono nelle sequenze in cui occorrono, cioè nei testi. L’insieme di queste combinazioni formano un immenso spazio algebrico. L’idea dei matematici è che in questo spazio si proiettino le ombre dei significati, e circola perfino l’ipotesi che tali ombre rendano conto del contenuto concettuale delle parole meglio di quanto possano fare i dizionari.

John Searle, ai tempi dell’AI classica (anni ’80), osservava che una macchina programmata per tradurre da una lingua totalmente sconosciuta (il cinese, nel suo esempio) era come una persona che, chiusa in una stanza, ricevesse dall’esterno messaggi in quella lingua e usasse per tradurli una tavola di corrispondenze, cioè una sorta di dizionario, senza tuttavia comprendere nulla di ciò che leggeva[1]. Per l’AI di oggi, il dizionario neanche esiste, e nella stanza non c’è più nessuno. Esiste solo l’immenso spazio combinatorio dei dati e un’enorme potenza di calcolo.

L’idea alla base delle tecnologie linguistiche attuali può apparire come un delirio tecnocratico. Tuttavia, alcuni sostengono che essa abbia radici nel pensiero linguistico novecentesco. La rappresentazione basata su embedding, tipica delle reti neurali, trova assonanza con l’ipotesi distribuzionale generalmente attribuito a Harris[1], cioè l’osservazione che le parole che appaiono negli stessi contesti veicolano significati simili. In effetti, per ciascuna parola, un embedding è, grosso modo, un insieme di altre parole che appaiono frequentemente nelle medesime combinazioni.

Anche la nozione di gioco linguistico di Wittgenstein è stata evocata per sottolineare come, riguardo al significato, un approccio basato sui dati possa essere più veritiero della lessicografia classica e delle sue controparti informatiche[2]. Di fatto, Wittgenstein ha guardato al significato delle parole nei termini del loro uso concreto, dunque in qualche modo rintracciabile nei testi e dunque, con i giusti algoritmi, quantificabile. Tuttavia, né Harris né Wittgenstein hanno mai proposto di sbarazzarsi dei dizionari. D’altra parte, è assai improbabile che l’analisi quantitativa delle combinazioni delle parole nei testi possa restituire la ricchezza esplicativa di una voce lessicografica. In realtà, in linguistica, il distribuzionalismo è più che altro un metodo per verificare ipotesi, specialmente utile per lo studio delle lingue non scritte, non certo per ricavare teorie.  Quanto ai giochi linguistici, questi avvengono in situazioni reali dove la parola acquista significato a contatto con entità, eventi e interlocutori. Di queste aderenze tra locuzioni e situazioni, i documenti scritti riportano una vista molto parziale e comunque incomprensibile senza concrete esperienze e conoscenze del mondo.

Con i dati e la potenza di calcolo attualmente disponibili, i metodi algebrico-lineari delle reti neurali sono senz’altro convenienti sotto diversi profili e per alcuni scopi specifici, ma questo fa apparire un po’ sospetta la ricerca di una loro giustificazione nella linguistica classica e nella filosofia. Di fatto, nella semiologia edificata da Ferdinand de Saussure all’inizio del secolo scorso su antiche fondamenta, un segno linguistico è un’unità dove qualcosa (il significante) sta per qualcos’altro (il significato), e il significante non dice nulla sul significato se non appunto in forza del segno stesso (principio di arbitrarietà)[1]. Il segno non è dunque scindibile nelle sue componenti, così come una molecola non è riducibile alla somma dei suoi atomi tralasciando il legame che tra loro si stabilisce. Non a caso, i sistemi linguistici neurali valutano efficacemente la similarità tra frasi, mentre i rapporti logici e di implicazione (entailment), che richiedono conoscenze semantiche profonde, sembrano sostanzialmente fuori dalla loro portata.

In ogni modo, è bene chiarire che l’AI linguistica non si pone l’obiettivo precipuo di risalire dalla disposizione dei significanti a quella dei significati e in genere non ambisce a spiegare come e perché questa operazione si possa compiere. Piuttosto, essa sfrutta pragmaticamente il fatto che, entro certi limiti, tale risalita spesso in effetti funziona. Mentre la fisica e la chimica hanno risposte chiare alla domanda su cosa tenga insieme gli atomi e le molecole, l’AI, riguardo all’unità del segno linguistico, non si esprime. D’altra parte, se volesse affrontare seriamente la semantica, dovrebbe inoltrarsi nella giungla filosofica della teoria del significato[1], dove è difficile sopravvivere armati solo di dati e algebra lineare.


[1] Stanford Encyclopedia of Philosophy, Theory of Meaning, https://plato.stanford.edu/entries/meaning/

[1] F. de Saussure, Cours de linguistique Générale, 1916

[1] Z. Harris, Z. Distributional structure, in Word (1954)

[2]  O. Goldhill, Google Translate is a manifestation of Wittgenstein’s theory of language, Quarz, 2019 https://qz.com/1549212/google-translate-is-a-manifestation-of-wittgensteins-theory-of-language/

[1] J. Searle, Minds, Brains and Programs, in Behavioral and Brain Sciences (1980)

Il linguaggio non è algebra