Traduttori automatici, calcoli probabilistici e simulacri di senso

L’intelligenza artificiale sarà la Morte Nera?

di Norman Gobetti

Un po’ di tempo fa stavo traducendo insieme ad Anna Nadotti il primo capitolo della Maledizione della noce moscata (Neri Pozza, 2022), quando mi imbattei in un passaggio in cui l’autore, Amitav Ghosh, raccontava come durante il lockdown avesse scaricato per le sue ricerche il pdf di un testo scritto in olandese antico e, non sapendo leggere quella lingua e trovandosi confinato in casa, avesse fatto ricorso a “un programma di traduzione online molto usato”: “Digitai una frase (…) e con mia sorpresa ne uscì una sequenza di parole dotate di senso”; e più avanti: “Fu come una magia (…) cominciai a digitare intere pagine nel programma, frase per frase, paragrafo per paragrafo”. Ecco che, proprio laddove meno me lo aspettavo, ovvero nelle pagine di uno scrittore che stavo traducendo, trovavo la dimostrazione del fatto che quello che a lungo era stato considerato un tentativo destinato a sicuro fallimento – affidare a una macchina la traduzione di un testo complesso – stava dando frutti inaspettati, e inaspettatamente minacciosi. Ne era passata di acqua sotto i ponti da quando, neanche vent’anni prima, Umberto Eco iniziava il suo Dire quasi la stessa cosa (Bompiani, 2003) facendosi beffe di un “sistema di traduzione automatica offerto su Internet da Altavista” che, messo alla prova, aveva reso the works of Shakespeare con “gli impianti di Shakespeare” e speaker of the chamber of deputies con “altoparlante dell’alloggiamento dei delegati”.

Oggi, non lo si può negare, la traduzione automatica non fa più ridere; anzi, fa paura. Quella indistinta macchiolina sullo schermo è andata rapidamente ingrandendosi fino a occupare quasi tutto il campo visivo, come quando in Star Wars la Morte Nera emerge dalle profondità dello spazio siderale, col suo cannone laser capace di annientare in pochi secondi un intero pianeta, il pianeta della traduzione letteraria eseguita da esseri umani. Da quando ho vissuto quella perturbante epifania, colgo ogni occasione per chiedere a persone competenti delucidazioni sulle potenzialità della traduzione basata sull’intelligenza artificiale, ed è sorprendente come i miei interlocutori esprimano opinioni talmente disparate da essere fra loro inconciliabili: da chi mi rassicura spiegandomi che tanto per cominciare l’intelligenza artificiale non è un’intelligenza, e che in ogni caso tradurre un testo letterario resta (e forse resterà sempre) un compito molto al di là delle capacità di una macchina, a chi resta sbalordito trovandosi di fronte a una persona che traduce “come una volta”, e mi guarda come se mi ostinassi a lavorare con penna d’oca e calamaio, con un’espressione che sembra dire “ohi ohi”.

La verità, probabilmente, sta da qualche parte nel mezzo. Ma dove? Certo, oggi è ancora possibile dimostrare con qualche esempio ben scelto che un testo letterario complesso tradotto da una macchina tende a pullulare di goffaggini, rigidità e veri e propri errori (lo ha fatto mirabilmente Silvia Pareschi qualche settimana fa in un’intervista concessa al “Tascabile”). È però molto probabile che goffaggini, rigidità ed errori andranno sempre più diminuendo col passare del tempo, dato che, a quanto si sente dire, l’intelligenza artificiale va migliorando le sue prestazioni “in modo esponenziale”. Potremmo quindi chiederci, e molti se lo stanno già chiedendo, se per una persona che di mestiere traduce letteratura possa essere una buona idea affidare a una macchina almeno una prima fase del lavoro, riservandosi il compito di rivedere, risistemare e correggere.

Almeno su questo fra le mie colleghe e i miei colleghi sembra esserci un certo consenso: no, non è una buona idea. Chi ci ha provato sostiene che rivedere una traduzione automatica è un compito arduo, faticoso, sfibrante. Un compito, letteralmente, disumano. E questo non perché i testi letterari tradotti dalle macchine presentino un’eccessiva mole di goffaggini, rigidità ed errori, ma proprio per il motivo opposto, ovvero per l’ingannevole scorrevolezza e “correttezza” del testo prodotto. A prima vista, infatti, un testo uscito da un buon traduttore automatico (ad esempio DeepL) di solito dà l’impressione di essere (quasi) impeccabile, ma se ci si prende la briga di esaminarlo a fondo emergono spesso problemi gravi.

Quando traduce, una persona cerca prima di capire il senso – contenutistico e formale (in letteratura le due cose sono ovviamente inseparabili) – del testo che ha davanti, poi cerca il modo per trasferire meglio che può quel senso in un’altra lingua. Una traduzione automatica è invece il frutto non di una comprensione del testo originale ma di un tirare a indovinare. Attingendo a uno sterminato bacino di dati e in base all’addestramento ricevuto, la macchina calcola quale parola o serie di parole nella lingua d’arrivo sia il corrispettivo più probabile di una parola o serie di parole nella lingua di partenza. Di fatto quindi chi rivede una traduzione automatica mette a confronto un testo originale dotato di un senso profondo, di una tonalità emotiva, di sottili sfumature, di una irriducibile complessità, insomma un organismo vivente, con un testo d’arrivo che per sua natura è privo di profondità e avverso alla complessità, insomma con un simulacro di un testo letterario, un simulacro di un organismo vivente. Un po’ come un dottor Frankenstein (o un Godwin Baxter) che a suon di scariche elettriche cerchi di riportare in vita un corpo inerte.

Rivedendo una traduzione automatica bisognerà chiedersi a ogni frase se quell’insieme di parole assemblate con un criterio probabilistico trasmetta davvero un senso analogo a quello dell’originale, o dia solo l’impressione di farlo. Provo a chiarire quel che intendo con un piccolo esempio tratto da uno dei brani citati da Silvia Pareschi nell’intervista al “Tascabile”: se DeepL rende il boys enter the house di un racconto di Rick Moody con “i ragazzi entrano in casa”, il senso sembra essere lo stesso (quasi, perché quell’articolo aggiunto è un po’ sospetto), ma in realtà non è affatto lo stesso, perché, come qualunque persona che legga o traduca il racconto originale non potrebbe non notare, i boys di cui parla Moody sono neonati. Una resa che renda davvero conto del senso potrebbe essere “bambini”, oppure, volendo marcare il genere come fa l’originale, ma forzando un po’ sul piano del registro, “maschietti”. Le traduzioni basate sull’intelligenza artificiale tendono (al momento) a essere piene di questi infidi simulacri di senso, evidentemente molto più gravosi da individuare e correggere del buffo “altoparlante dell’alloggiamento dei delegati” di cui narrava Umberto Eco.

Potremmo, per concludere, chiederci se questi limiti siano imperfezioni destinate a essere superate dal rapido progresso della tecnica o siano invece una spia di un problema più radicale. Io propendo per la seconda ipotesi. Sostituire traduttrici e traduttori umani con delle macchine (o asservirle e asservirli al loro operato) significherebbe rinunciare a quello che è il cuore dell’esperienza traduttiva, che è un’esperienza intensamente umana: porsi in un atteggiamento di ascolto con attenzione ed empatia, sforzarsi di comprendere ciò che un’altra persona intende dire, cercare di trasportare nel modo più rispettoso possibile quelle intenzioni in un altro contesto… tutto ciò non è solo il presupposto indispensabile per scrivere una buona traduzione, ma è anche un esercizio di umanità, sempre più raro e sempre più necessario.

norman.gobetti@tiscali.it
N. Gobetti è traduttore