Su Google Translate compaiono strane profezie



Qualcuno ipotizza che Google sfrutti le conversazioni per il suo sistema di traduzione, ma l’azienda smentisce categoricamente: gli strani risultati del servizio di traduzione si dovrebbero all’incapacità di leggere testi innaturali per il sistema

Quando tornerà Gesù? L’ora dell’Apocalisse, è vicina? Verremo sterminati tutti da massi di ghiaccio mandati da chissà chi? Chiedere a Google Translate. Il servizio di traduzione di Google sta mostrando strane profezie (ma anche altre frasi molto più casuali) specie in corrispondenza di lingue meno battute delle altre.

Per esempio, se si digita partendo dal Maori la parola “dog” 16 volte, chiedendone la traduzione in inglese, si ottiene il seguente risultato: “Il giorno del giudizio universale segna tre minuti alla mezzanotte. Stiamo facendo esperienza di personaggi e drammatici sviluppi del mondo, il che ci conferma che stiamo procedendo verso la fine del mondo e il ritorno di Cristo”. 

Si tratta di solo una delle bizzarre traduzioni che il servizio sembra fornire ed emerse su Reddit. Quello che è stato denominato il “Translate Gate” in realtà viene fuori dal canale di 4chan  /x/ board, dove la tesi di base era quella per cui nelle traduzioni stessero comparendo testi provenienti da conversazioni private e altre tracce lasciate a zonzo per la rete.

Ma su questo Justin Burr, un portavoce dell’azienda, ha spiegato a Motherboard, che per primo ha riportato al notizia, che la traduzione di Google impara dalle parole in rete e non ha niente a che vedere con i messaggi privati (“Il sistema non ha neanche accesso a quel tipo di contenuti“). Sull’accaduto, ha commentato: “È semplicemente un’immissione di assurdità all’interno del sistema, alla quale viene corrisposta una serie di sciocchezze”.

 

Le ragioni possono essere tante e varie: dipendenti stanchi, oppure utenti che hanno esagerato con i suggerimenti di una traduzione migliore (vedi tasto “suggerisci una traduzione”)? Gli esperti hanno detto a Motherboard che l’algoritmo potrebbe tentare (fallendo) di razionalizzare parole senza senso, specialmente perché lingue come maori e il somalo hanno un corpo più piccolo di testi tradotti rispetto alle altre.

Google Translate utilizza un metodo di traduzione denominato Neural Machine Learning, che si basa sull’apprendimento dai testi tradotti. Dal momento che i testi non includono parole senza senso e la maggior parte delle parole e frasi tradotte arrivano probabilmente da testi religiosi, anche se questo non è stato confermato dal portavoce. Le traduzioni sbagliate quindi, deriverebbero dall’incapacità del sistema di decifrare stringhe di testo che non riconosce come naturali.

Tra le lingue coinvolte infatti non compare solo il maori: gli utenti di Reddit hanno pubblicato i propri contenuti anche in somalo, greco, khmer, francese e in una varietà di altre lingue non inglesi. Vedere la gallery qui sopra per credere.


Fonte: WIRED.it