Traductores automáticos basados en IA: ¿Nos permitirán comunicarnos también con nuestras mascotas?

Tuesday, October 9, 2018

Traductores automáticos basados en IA: ¿Nos permitirán comunicarnos también con nuestras mascotas?

¿Te gustaría poder hablar con tu perro? El Dr Doolittle era capaz de hablar el lenguaje de los animales, y mucho antes que él, San Antonio y San Francisco ya “hablaban con los pajarillos”. Hoy día, esta fantasía puede hacerse realidad gracias a la aplicación de técnicas de IA a la traducción de idiomas. De hecho, ya en 2017 el informe de tendencias futuras "Then Next Big Thing"  publicado por Amazon, predecía la llegada de “traductores de mascotas” en los próximos 10 años.

Figura 1: Imagen de un perro
Figura 1: Imagen de un perro.

La carrera de la traducción automática a otros idiomas

Si hace unos años las empresas competían por lanzar el “wearable” perfecto, hoy Microsoft, IBM, y Google pugnan por crear el traductor perfecto, cómo no, basándose en IA. No se puede negar que el más popular es el intérprete de Google, con más de 500 millones de traducciones diarias  a más de 100 idiomas distintos (datos de 2017).  Pero ¿cómo funciona? Los investigadores de Google, se dieron cuenta rápidamente de que no tenía sentido intentar enseñar al sistema el vocabulario y las reglas gramaticales de todos los idiomas, debido al gran número de excepciones que tiene cada uno de ellos y, las lenguas son algo “vivo”, a su evolución. Por ello, en lugar de plantearse el reto desde un punto de vista lingüístico, decidieron tirar de Estadística. El proceso de “traducción automática estadística” (SMT) consiste en buscar similitudes entre un gran corpus de traducciones realizadas por profesionales de carne y hueso. Este sistema usa ejemplos de textos iguales en  lenguas distintas (lo que se conoce como corpus) y estima parámetros de sendos modelos estadísticos que establecen la probabilidad con la que ciertas palabras son susceptibles de traducirse por otras, así como las posiciones más probables que tienden a ocupar las palabras de la lengua destino en función de las palabras correspondientes de la frase origen.  Se podría resumir en algo así como:

“esta frase en inglés parece que se traduce en esta otra frase al español, pero sólo si está cerca de esta otra palabra” (Peter Novig, Google)

Con este sistema es fácil entender que haya errores de traducción, ya que la única forma de aumentar la calidad de la interpretación es alimentar la base de datos con un mayor número de traducciones profesionales adecuadas. También es por éste motivo, por el que “Google Translator” no traduce directamente entre distintas lenguas, sino que traduce primero todo al inglés, y después a la lengua que el usuario desee. No sólo resulta más efectivo en cuanto al uso de recursos, sino que también es mucho más fácil encontrar documentos traducidos del igbo nigeriano y del criollo haitiano al inglés, que traducciones directas entre estos dos idiomas.

La traducción estadística fue el paradigma de traducción automática más estudiado desde 2006. A finales de 2016, Google Translator cambió de estrategia y pasó a utilizar un sistema basado en redes neuronales profundas, que permiten reconocer patrones y estructuras en las oraciones. Al dejar de traducir palabra por palabra y poder tener en cuenta el contexto, la calidad de las traducciones mejoró considerablemente. Además, el sistema aprende con el tiempo, con lo que cada día sus traducciones son mejores y más naturales. Otra de las ventajas de esta tecnología es que ya no es necesario estar conectado a internet: funciona en la aplicación móvil de la plataforma.

Sin embargo, dado que para entrenar el modelo son necesarias grandes cantidades de textos en un idioma y sus traducciones a otros idiomas, aquellos idiomas para los que el corpus disponible es limitado (por ejemplo, somalí, hawaiano, maorí) fueron protagonistas de una curiosa polémica. Al intentar traducir del maorí al inglés una cadena de palabras sin sentido (la palabra “dog” 19 veces), el traductor ofrecía como resultado una apocalíptica predicción del Día del Juicio Final, para regocijo de los amantes del catastrofismo esotérico. (Lo hemos intentado reproducir, pero ya lo han resuelto, la imagen corresponde a las publicaciones de entonces).


Traductor de Google
Figura 2: Imagen de la respuesta que daba el traductor de Google a cierto texto sin sentido.

La cuestión es que el sistema está entrenado para ofrecer siempre una respuesta pretendidamente “natural”, aunque los datos de entrada no tengan sentido. En el caso de  lenguas poco representadas en la base de datos de traducción, se suele usar la Biblia, como texto traducido a un gran número de ellas, como fuente de textos de entrenamiento. Así que, para una entrada “absurda”, ofrecía una respuesta tirando los textos que tenía en la base de datos. Podía salir el Apocalipsis, en Cantar de los Cantares, o cualquier otra cosa, pero sin duda el Apocalipsis daba mucho más juego en los titulares.

Como hemos dicho al principio, Google no es la única empresa que apuesta fuerte por las tecnologías de traducción. Por ejemplo, el traductor de Microsoft, que también utiliza una tecnología basada en redes neuronales, es capaz de traducir entre 62 idiomas (datos de Agosto 2018), tiene un modo de conversación, y permite traducir textos recibidos a través de la cámara del dispositivo, como por ejemplo, la carta de un restaurante. Por otra parte, fabricantes de dispositivos, como Huawei, también han empezado a incorporar en sus últimos modelos IA capaz de traducir texto desde imágenes.


¿Y si en lugar de idiomas humanos creamos un corpus de  lenguaje animal?

Eso es precisamente lo que se plantearon Aza Raskin y Britt Selvitelle, ingenieros de software de reconocido prestigio. Su objetivo es crear una especie de “Piedra Rosetta”, que permita comprender el lenguaje de los animales. Para ello, están recopilando un importante corpus de comunicación animal, que incluye sonidos de ballenas, monos e incluso elefantes. En este caso, el desafío, claramente, está en poder traducir de un lenguaje a otro sin conocer el lenguaje ni disponer de ejemplos de traducción entre ambos. Para ello, han analizado 70 lenguas humanas, con el objeto de encontrar un patrón universal que permita traducir de forma automática de una a otra, sin necesidad de comprenderlas.

En esta misma línea, el profesor Slobodchikoff, de la Universidad de Arizona del Norte, lleva más de 30 años investigando en comunicación animal, para aplicar este conocimiento al desarrollo de sistemas que utilicen IA para aprender y traducir al lenguaje humano, sonidos y expresiones faciales de los animales.


Pero ¿existe algo parecido a un lenguaje animal?

Slobodchikoff investigó en particular el complejo sistema de comunicación de los perritos de las praderas. Se dio cuenta de que era tan sofisticado que podría considerarse un lenguaje. Para ello realizó una serie de experimentos en los que grabó y analizó sus llamadas de alerta.  Pronto detectó que usaban sonidos distintos para alertar al resto del grupo, según el peligro potencial detectado fuese un halcón, un perro, un coyote, o un humano. También observó que eran capaces de transmitir información sobre el aspecto y la velocidad a que se movía el posible depredador.  En el siguiente vídeo, el  profesor nos explica de forma clara y sencilla, pero al mismo tiempo, con rigor científico los distintos experimentos que le llevaron a estas conclusiones.






En términos de lenguaje humano, el tipo de depredador puede ser considerado un sustantivo, mientras que las descripciones pueden asimilarse a adjetivos o adverbios. De esa forma, una simple llamada de alerta se puede asimilar a una frase de lenguaje humano. Por ejemplo: 

“Humano alto y delgado con camiseta azul camina despacio por la colonia”


¿Y qué papel juega la IA en todo esto?

Para poder crear un “traductor” de lenguaje animal basado en aplicaciones de Inteligencia Artificial es necesario “entrenar” el sistema mediante un gran número de vídeos que reflejen sonidos y muestras de comportamiento del animal (gruñir, mostrar los dientes, mover la cola, echar las orejas hacia atrás… y todo el tipo de sonidos asociados a estos comportamientos). De esta forma, el algoritmo aprende a interpretar esos patrones de comportamiento y sonido, y asociarlos al lenguaje humano. Slobodchikoff se planteó que, si era posible hacerlo con los perritos de las praderas e incluso con otros animales, ¿por qué no con nuestras mascotas? Con esta idea en mente, creó la empresa Zoolingua, dedicada exclusivamente a desarrollar un traductor de sonidos, expresiones faciales y movimientos corporales de perros y gatos.

Claro que no es la primera vez que se intenta algo parecido. La empresa No more woof ("no más ladridos) ofrecía un sistema que hacía un electroencefalograma al perro para después "traducir" estas ondas a lenguaje humano, con locuciones y un altavoz. No tuvo mucho éxito. De hecho, acabó formando parte de la exposición de “Peores innovaciones tecnológicas de la historia” del Museo de los Fracasos de Suecia.

Hemos hablado de la importancia de disponer de un “corpus” de entrenamiento, pero hemos pasado de puntillas por un detalle importante. ¿Cómo puede traducir el algoritmo lo que significa un ladrido, o un movimiento de cola? Evidentemente, es necesario que esa interpretación la haga un humano. En el caso de Google Translator, contábamos con traducciones de expertos a otros lenguajes. Pero ¿qué humano es experto en “ladridos”? Si tenemos en cuenta nuestra incuestionable tendencia al antropomorfismo el riesgo es evidente.

No, aunque a ti te lo parezca, esa expresión de tu perro no significa que se sienta culpable por haber destrozado tus zapatillas favoritas. Simplemente, tiene miedo, porque le estás regañando.


Para evitar este problema, Slobodchikoff propone basar esas interpretaciones no en mera adivinación, sino en cuidados experimentos científicos como los mostrados en el vídeo anterior, que permiten descifrar el significado de esos sonidos o comportamientos animales. En el siguiente vídeo de BBC Earth,  Slobodchikoff  explica qué tipo de analíticas software aplica a los sonogramas registrados en los experimentos y el tipo de conclusiones que se pueden extraer de éstos.






Sin embargo, no toda la comunidad científica es igual de optimista respecto a la posibilidad de encontrar el traductor ideal ladrido/maullido—lenguaje humano. La profesora Juliane Kaminski, psicóloga en la Universidad de Portsmouth no considera que los ladridos de un perro pueden considerar como un “lenguaje”. Es cierto que ofrecen señales rudimentarias sobre lo que quieren y lo que sienten. Pero, esas señales pueden ser tan poco claras para un sistema de traducción automático, como lo son para un humano. Además, dependen mucho del contexto. Sin embargo, sí reconoce su utilidad para aquellas personas que carecen de intuición para comprender a un animal, como los niños pequeños que al ver a un perro enseñar los dientes, creen que “está sonriendo”.

Conclusión:

Es probable que, aunque un “traductor de mascotas” llegue a ser técnicamente posible en pocos años,  resulte del todo innecesario para la mayoría de las personas que conviven con un perro, un gato o cualquier otro animal. Comercialmente, le auguramos tan poco éxito como tuvo “No more Woof”. Sin embargo, ya han surgido otros campos para los que una herramienta de este tipo podría resultar muy práctica. En particular, hablamos de poder detectar sufrimiento animal. Investigadores de la Universidad de Cambridge entrenaron un algoritmo de Machine Learning con 480 imágenes de ovejas, etiquetadas según sistema de "muestras faciales de sufrimiento animal "creado por veterinarios. Deformación de fosas nasales, rotación de orejas, párpados cerrados…Entrenaron el algoritmo con el 90% de las imágenes, usaron el 10% restante para probar su precisión, que llegó a igualar el promedio humano (67%). Está claro que una detección previa de muestras de sufrimiento en animales tan poco expresivos como las ovejas (y otro tipo de ganado), permite un diagnóstico y acceso al tratamiento más rápidos y eficaces, con lo que la utilidad de una herramienta de este tipo sí que es evidente.

Figura 3: ¿cómo crees que se siente esta oveja?¿está sana?.
Figura 3: ¿cómo crees que se siente esta oveja?¿está sana?.

En los próximos años, comprobaremos si esta predicción del futuro se cumple y qué tipo de consecuencias éticas y económicas sacaremos de ello.


Para mantenerte al día con LUCA visita nuestra página web, y no olvides seguirnos en TwitterLinkedIn YouTube.

No comments:

Post a Comment