Ciencia Ficción vs Inteligencia Artificial: Interestellar, "...hey TARS ¿cuál es tu parámetro de honestidad?"

Tuesday, February 27, 2018

Ciencia Ficción vs Inteligencia Artificial: Interestellar, "...hey TARS ¿cuál es tu parámetro de honestidad?"

Escrito por Fran Ramírez (@cybercaronte) Investigador de seguridad informática en Eleven Paths y escritor del libro "Microhistorias: anecdotas y curiosidades de la historia de la informática". 

En nuestro anterior artículo de Ciencia Ficción vs Inteligencia Artificial, hablamos de los robots que aparecen en la saga Star Wars y por qué son programados con poca empatía en su relación con los humanos. Esta vez en cambio, vamos a hablar de otro punto de vista aplicado a los robots  que aparecen en la película Interestellar (llamados TARS) los cuales nos ofrecen una interesante solución intermedia sobre cómo tiene que ser el aspecto físico de los robots del futuro así como su forma de interactuar con los seres humanos.


Aviso : es posible que haya algún que otro espoiler a partir de este punto ...

El argumento principal de la película nos traslada a un futuro no muy lejano donde la Tierra se encuentra casi al límite de sus recursos. De repente, aparece una esperanza de migrar a un nuevo planeta gracias a un agujero de gusano que prácticamente se ha materializado instantáneamente cerca de Saturno. Este agujero de gusano es un portal hacia un agujero negro llamado "Gargantua" el cual tiene orbitando alrededor varios planetas potencialmente habitables. La NASA (o lo que queda de ella) envía una misión con cuatro tripulantes humanos, Cooper, Romily, Doyle y Amelia y dos tripulantes no humanos, TARS y CASE. Son estos dos robots (en concreto TARS) y su peculiar programación lo que nos ha llamado la atención.

Estos robots son unidades tácticas militares desarrollados por la U.S. Marine Corps. En la película aparecen cuatro de ellos llamados PLEX, CASE, KIPP y TARS. Como ya hemos comentado, TARS, es el más interesante de ellos, ya que este modelo está programado para parecerse a un ser humano al menos en su forma de interactuar con ellos. En cambio, en lo relativo a su forma física es todo lo contrario, su diseño está más orientado a su funcionalidad que su posible parecido con un ser humanoide. De hecho, su aspecto tampoco se parece a ningún robot de los que hemos visto hasta ahora. Miden metro y medio de alto por uno de ancho, están fabricados utilizando cuatro bloques rectangulares verticales con diferentes segmentos que se puede desacoplar e incluso hacerlos rotar en diferentes direcciones para realizar acciones como andar, correr, rodar, llevar objetos, etc.

Photo of an astronaut floating in space.
Figura 1 : Astronauta.


TARS habla como un ser humano, exactamente igual con la misma fluidez y entonación, pero además es capaz de hacer bromas o comentarios sarcásticos lo cual le otorga aún más una personalidad humana como podemos ver en esta conversación entre Cooper (el protagonista) y TARS:

  • Cooper: Hey TARS, ¿cuál es tu parámetro de honestidad?
  • TARS: 90%
  • Cooper: ¿90%?
  • TARS: la honestidad absoluta no es siempre la forma más diplomática o la más segura a la hora de comunicarse con seres emocionales.

Pero quizás el momento más memorable entre las conversaciones entre la tripulación y TARS sea este durante el lanzamiento de camino a los nuevos planetas (puedes encontrarlo en Youtube):

  • Cooper: Listos para la separacion de la primera fase
  • TARS: Fase 1, pasamos a Mach 1
  • Cooper: ¿Todo el mundo ok?
  • TARS: Sí, lleno de esclavos para mi nueva colonia de robots
  • Doyle: Ellos le proporcionaron al robot sentido del humor pero parece que no le queda bien a este, cree que nos relaja.
  • Cooper: un robot gigante sarcástico ¡qué gran idea!
      ....
  • Cooper: ¿Cual es tu configuración de humor TARS?
  • TARS: es 100%
  • Cooper: pues vamos a bajarla a 75%, por favor


En marzo de 2017 unos investigadores chinos desarrollaron un "chatbot" llamado ECM que era capaz de mostrar emociones como felicidad, tristeza o disgusto a la hora de entablar una conversación con un humano. Para conseguir este logro desarrollaron un algoritmo de "clasificación de emociones" que había aprendido de más de 23.000 publicaciones obtenidas directamente de la red social Weibo . Como podemos ver, las conversaciones entre TARS y sus compañeros humanos no están tan lejos de convertirse en una realidad.

Mientras que hoy día parece ser que es necesario crear robots a imagen y semejanza del ser humano, aquí en la película se ofrece otra teoría muy diferente: crear robots que hablen y se comporten como humanos pero que no se parezcan físicamente a ellos. De esta forma desaparece la sensación de miedo al ser sustituidos por ellos creando en cambio herramientas complejas muy inteligentes pero evitando el problema del Valle Inquietante

Durante la película, estos robots salvan a seres humanos por encima de su propia existencia individual lo que denota una firme programación cercana a las tres leyes de la robótica de Asimov. Pero esto no quiere decir que no tengan instinto de supervivencia, de hecho, TARS cuestiona todas las ordenes que puedan afectar su integridad buscando la lógica y la solución óptima para la integridad del ser humano y él mismo. Este comportamiento lo hace muy similar a otra IA de la que ya hemos hablado en esta sección, nuestro querido HAL 9000.


Photo looking at Earth from space.
Figura 2 :la Tierra dessde el espacio.



   
Otra de las características que ofrecen algunas ideas sobre su aplicación al mundo real parte de su gran habilidad de explicar sus decisiones o acciones en términos que un ser humano pueda entender sin problemas debido a su dominio del lenguaje. Pero, además, también tienen la función de modificar su funcionamiento más profundo como, por ejemplo, la modificación del valor de honestidad que hemos podido ver en la anterior conversación entre TARS y Cooper, dando una sensación de transparencia que ayuda a evitar los miedos relacionados con la IA al otorgar control absoluto sobre ella.

En definitiva, Interestellar nos ofrece algunas posibles pistas de cómo tendríamos que diseñar las nuevas IA y los robots para poder tenerlos bajo control. Hemos visto teorías que van desde crear robots "tontos" orientados a tareas muy específicas y por otro lado otras teorías no llevan a crear robots súper inteligentes con forma humanoide, cuando es posible que la solución sea más sencilla: crear robots que sepan comunicarse perfectamente con un ser humano pero sin tener que parecerse demasiado a ellos. Esto es por lo que TARS se ha convertido en uno de nuestros robots favoritos de ficción y también nuestra apuesta sobre cómo serán los robots del futuro.

Si te ha gustado esta entrada, no dudes en visitar otros artículos de esta misma serie:

4 comments:

  1. Pues yo veo un fallo serio de diseño, pues con esa pregunta no podemos estar seguros de no ser engañados por TARS. Si el nivel de honestidad es del 10%, la respuesta podría ser la contraría perfectamente. Incluso si la configuración es la que TARS afirma, cabe la posibilidad de que mienta y afirme que tiene una configuración diferente. Si se quiere programar una AI con niveles de honestidad hay que hacerlo a prueba de la paradoja del mentiroso, si no el efecto de "aumento de confianza" se pierde.

    ReplyDelete
  2. Estoy de acuerdo en lo que comentas, quizás el valor de honestidad sea demasiado peligrosos, pero claro, suponiendo que un futuro hipotético se implementara, se podrían poner límites y controles como el que comentas de la paradoja del mentiroso. Por otro lado, que tenga un 10% de honestidad no quiere decir que tenga un 90% de mentiroso ;) Realmente, no le veo mucha utilidad al parámetro de honestidad más allá de un factor más para humanizar al robot siempre y cuando como bien comentas, no provoque algún conflicto con los seres humanos. Gracias por publicar tu opinión y por visitarnos.

    ReplyDelete
    Replies
    1. Veo otra contradicción o mas bien mi duda, ¿la honestidad es contraria a la mentira y esta oposición de la honestidad?, es la paradoja 1, la mentira es la falta de verdad, no de honestidad, lleva a la paradoja 2. No es lo mismo, no es igual decir con honestidad: hay un 75% de probabilidad que te mates; que decir con honestidad pero mintiendo: hay un 25% de probabilidad que te rompas todos los huesos y sufras graves heridas. Ergo, te puede llevar a una muerte pero no lo digo.

      Delete
  3. Hola Nahuel, buena reflexión. Aquí es donde, para empezar, sería útil aplicar las tres leyes de la Robótica de Asimov:
    - Un robot no hará daño a un ser humano, ni permitirá con su inacción que sufra daño.
    - Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entrasen en conflicto con la primera ley.
    - Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.
    Así de una tacada nos quitamos muchos de los problemas como el tema de la seguridad del ser humano y que el robot no obedezca órdenes (es decir, si le hago una pregunta es una orden, no puede mentirnos).
    Luego, complementando a lo que ya dije en el anterior comentario, en vez de medir los parámetros como "honestidad" sería más seguro mediciones dobles relacionadas. Por ejemplo, "honestidad" - "sinceridad" (25% honestidad y 75% sinceridad) así te aseguras que la respuesta estará dentro de unos márgenes lógicos.
    Como conclusión, estos parámetros son más bien sólo para aumentar la sensación de estar hablando con un ser humano en vez de una máquina. No se podrían aplicar al 100% por los problemas que comentas.
    Gracias por visitarnos!!

    ReplyDelete