En la actualidad vivimos en una sociedad interconectada, gracias al Internet recibimos información procedente de todos los rincones del mundo y en muchas ocasiones necesitamos traducir textos para acceder a contenidos escritos en otro idioma.
Seguramente en más de una ocasión el traductor de Google te ha salvado y se ha convertido en tu fiel diccionario de idiomas.
Esta herramienta logra interpretar palabras, oraciones y hasta textos completos y cambiarlos al idioma que desees. Actualmente cuenta con la posibilidad de traducir 64 y su popularidad se debe a que además de sencillo es gratuito y puede ser consultado por cualquier internauta.
Sin embargo, recientemente, más que una ayuda, se convirtió en una ‘herramienta apocalíptica’, según varios usuarios de Reddit.
Según reporta Mother Vice, se descubrió una extraña conducta que puede llegar a ‘predecir el fin del mundo’ si se le pide que traduzca textos sin sentido de idiomas poco comunes al inglés.
Por ejemplo, si se escribe la palabra ‘dog’ 19 veces del maorí al inglés el resultado que aparece es de película de terror:
«El Reloj del Juicio Final es de tres minutos para las doce. Estamos experimentando personajes y desarrollos dramáticos en el mundo, lo que indica que nos estamos acercando cada vez más al final de los tiempos y al regreso de Jesús».
De igual manera, la repetición de las letras ‘ag’ también da resultados curiosos si se escribe 25 veces para traducirlo del somalí al inglés.
Aunque algunas personas abromean atribuyendo los extraños resultados a ‘actividad paranormal’, la explicación podría deberse al algoritmo del traductor, que busca ‘crear orden en el caos’.
Así lo cree el especialista de la compañía BBN Technologies, Sean Cobath, quien afirma que es posible que Google utilice textos religiosos como la Biblia para crear modelos de traducción en lenguas minoritarias de su servicio.
Por su parte, Alexander Rush, profesor de la Universidad de Harvard, cree que se debe a la llamada «traducción neuronal mecanizada», una forma de instruir al sistema a través de grandes cantidades de textos traducidos en uno y otro idioma para crear automáticamente un modelo entre ambos. Según Rush, al insertar textos sin sentido, el sistema, programado para «producir algo que se parezca, a cualquier coste, a un lenguaje humano» puede fallar y generar resultados absurdos.