Una Breve Historia del Machine Learning

Monday, November 5, 2018

Una Breve Historia del Machine Learning

Escrito por Víctor González Pacheco, Team Leader y Data Scientist en LUCA

Como miembros de la comunidad del Machine Learning es bueno que conozcamos la historia del sector en el que trabajamos. Aunque actualmente estamos viviendo un auténtico boom del Machine Learning, este campo no siempre ha sido tan prolífico, alternando épocas de altas expectativas y avances con “inviernos” donde sufría severos estancamientos.

Imagen de una biblioteca
Figura 1. Hoy estamos viviendo una tercera explosión de la inteligencia artificial








Nacimiento [1952 – 1956]

1950 — Alan Turing crea el “Test de Turing” para determinar si una máquina era realmente inteligente. Para pasar el test, una máquina tenía que ser capaz de engañar a un humano haciéndole creer que era humana en lugar de un computador.

1952 — Arthur Samuel escribe el primer programa de ordenador capaz de aprender. El software era un programa que jugaba a las damas y que mejoraba su juego partida tras partida.

1956 — Martin Minsky y John McCarthy, con la ayuda de Claude Shannon y Nathan Rochester, organizan la conferencia de Darthmouth de 1956, considerada como el evento donde nace el campo de la Inteligencia Artificial. Durante la conferencia, Minsky convence a los asistentes para acuñar el término “Artificial Intelligence” como nombre del nuevo campo.  

1958 — Frank Rosenblatt diseña el Perceptrón, la primera red neuronal artificial.

Primer Invierno de la IA (AI-Winter) – [1974 – 1980]

En la segunda mitad de la década de los 70 el campo sufrió su primer “Invierno”. Diferentes agencias que financian la investigación en IA cortan los fondos tras numerosos años de altas expectativas y muy pocos avances.

1979 — Estudiantes de la Universidad de Stanford inventan el  “Stanford Cart”, un robot móvil capaz de moverse autónomamente por una habitación evitando obstáculos.

1967 — Se escribe el algoritmo “Nearest Neighbor”. Este hito está considerado como el nacimiento al campo del reconocimiento de patrones (pattern recognition) en computadores.

La explosión de los 80  [1980 – 1987]

Los años 80 estuvieron marcados por el nacimiento de los sistemas expertos, basados en reglas. Estos fueron rápidamente adoptados en el sector corporativo, lo que generó un nuevo interés en Machine Learning.

1981 — Gerald Dejong introduce el concepto “Explanation Based Learning” (EBL), donde un computador analiza datos de entrenamiento y crea reglas generales que le permiten descartar los datos menos importantes.

1985 — Terry Sejnowski inventa NetTalk, que aprende a pronunciar palabras de la misma manera que lo haría un niño.

Segundo AI Winter [1987 – 1993]

A finales de los 80, y durante la primera mitad de los 90, llegó el segundo “Invierno” de la Inteligencia Artificial. Esta vez sus efectos se extendieron durante muchos años y la reputación del campo no se recuperó del todo hasta entrados los 2000.

1990s — El trabajo en Machine Learning gira desde un enfoque orientado al conocimiento (knowledge-driven) hacia uno orientado al dato (data-driven). Los científicos comienzan a crear programas que analizan grandes cantidades de datos y extraen conclusiones de los resultados.

1997 — El ordenador Deep Blue, de IBM vence al campeón mundial de ajedrez Gary Kaspárov.

Explosión y adopción comercial [2006-Actualidad]

El aumento de la potencia de cálculo junto con la gran abundancia de datos disponibles han vuelto a lanzar el campo de Machine Learning. Numerosas empresas están transformando sus negocios hacia el dato y están incorporando técnicas de Machine Learning en sus procesos, productos y servicios para obtener ventajas competitivas sobre la competencia.

2006 — Geoffrey Hinton acuña el término “Deep Learning” (Aprendizaje Profundo) para explicar nuevas arquitecturas de Redes Neuronales profundas que son capaces de aprender mucho mejor modelos más planos.

2011 — El ordenador Watson de IBM vence a sus competidores humanos en el concurso Jeopardy que consiste en contestar preguntas formuladas en lenguaje natural.

2012 — Jeff Dean, de Google, con la ayuda de Andrew Ng (Universidad de Stanford), lideran el proyecto GoogleBrain, que desarrolla una Red Neuronal Profunda utilizando toda la capacidad de la infraestructura de Google para detectar patrones en vídeos e imágenes.

2012 — Geoffrey Hinton lidera el equipo ganador del concurso de Visión por Computador a Imagenet utilizando una Red Neuronal Profunda (RNP). El equipo venció por un amplio margen de diferencia, dando nacimiento a la actual explosión de Machine Learning basado en RNPs.

2012 — El laboratorio de investigación Google X utiliza GoogleBrain para analizar autónomamente vídeos de Youtube y detectar aquellos que contienen gatos.

2014 — Facebook desarrolla DeepFace, un algoritmo basado en RNPs que es capaz de reconocer a personas con la misma precisión que un ser humano.

2014 — Google compra DeepMind, una startup inglesa de Deep Learning que recientemente había demostrado las capacidades de las Redes Neuronales Profundas con un algoritmo capaz de jugar a juegos de Atari simplemente viendo los píxeles de la pantalla, tal y como lo haría una persona. El algoritmo, tras unas horas de entrenamiento, era capaz de batir a humanos expertos en algunos de esos juegos.

2015 — Amazon lanza su propia plataforma de Machine Learning.

2015 — Microsoft crea el “Distributed Machine Learning Toolkit”, que permite la distribución eficiente de problemas de machine learning en múltiples computadores.

2015 — Elon Musk y Sam Altman, entre otros, fundan la organización sin ánimo de lucro OpenAI, dotándola de 1000 Millones de dólares con el objetivo de asegurar que el desarrollo de la Inteligencia Artificial tenga un impacto positivo en la humanidad.

2016 – Google DeepMind vence en el juego Go (considerado uno de los juegos de mesa más complicados) al jugador profesional Lee Sedol por 5 partidas a 1. Jugadores expertos de Go afirman que el algoritmo fue capaz de realizar movimientos “creativos” que no se habían visto hasta el momento.

A fecha de hoy estamos viviendo una tercera explosión de la inteligencia artificial. Aunque existen escépticos que no descartan un posible tercer invierno, esta vez los avances del sector están encontrando aplicabilidad en empresas hasta el punto de crear mercados enteros y producir cambios significativos en la estrategia de grandes y pequeñas empresas.

La gran disponibilidad de datos parece ser el fuel que está alimentando los motores de los algoritmos que, a su vez, han roto las limitaciones de cálculo que existían antes de la computación distribuida. Todo parece indicar que seguiremos disponiendo de más y más datos con los que alimentar nuestros algoritmos mientras que la comunidad científica no parece quedarse sin ideas con las que seguir avanzando en el campo. Los próximos años prometen ser realmente frenéticos.



Para mantenerte al día con LUCA visita nuestra página web, y no olvides seguirnos en TwitterLinkedIn YouTube.

No comments:

Post a Comment