viernes, 1 de junio de 2018

Cómo los investigadores enseñan a la IA a aprender como un niño




Por Matthew Hutson

Es un sábado por la mañana en febrero, y Chloe, una curiosa niña de 3 años con una camisa a rayas y polainas, está explorando las posibilidades de un juguete nuevo. 
Su padre, Gary Marcus, un científico cognitivo del desarrollo de la Universidad de Nueva York (NYU) en la ciudad de Nueva York, ha traído a casa algunas tiras de cinta diseñadas para adherir ladrillos Lego a las superficies. Chloe, muy versada en Lego, está intrigada. Pero ella siempre ha construido hacia arriba. ¿Podría usar la cinta para construir de lado o boca abajo? Marcus sugiere construir desde el lado de una mesa. Diez minutos después, Chloe comienza a pegar la cinta a la pared. "Será mejor que lo hagamos antes de que mamá regrese", dice Marcus con voz monótona. "Ella no será feliz". (Spoiler: La pintura de la pared sufre.)
Implícito en el esfuerzo de Marcus es un experimento. ¿Podría Chloe aplicar lo que había aprendido sobre una actividad a un nuevo contexto? En cuestión de minutos, ella tiene una escultura de Lego que sobresale de la pared. "¡Papá, lo hice!" ella exclama. En su capacidad de adaptación, Chloe está demostrando sentido común, un tipo de inteligencia que, hasta ahora, los científicos informáticos han tenido dificultades para reproducirse. Marcus cree que el campo de la inteligencia artificial (IA) haría bien en aprender lecciones de pensadores jóvenes como ella.
Los investigadores en el aprendizaje automático argumentan que las computadoras entrenadas en montañas de datos pueden aprender prácticamente cualquier cosa, incluido el sentido común, con pocas, si alguna, reglas programadas. Estos expertos "tienen un punto ciego, en mi opinión", dice Marcus. "Es algo sociológico, una forma de envidia de la física, donde las personas piensan que lo más simple es mejor". Él dice que los científicos informáticos están ignorando décadas de trabajo en las ciencias cognitivas y psicología del desarrollo que muestran que los seres humanos tienen habilidades innatas, instintos programados que aparecen en el nacimiento o en la primera infancia, que nos ayudan a pensar de manera abstracta y flexible, como Chloe. Él cree que los investigadores de IA deberían incluir tales instintos en sus programas.
Sin embargo, muchos científicos informáticos, que se basan en los éxitos del aprendizaje automático, están explorando ansiosamente los límites de lo que puede hacer una IA ingenua. "La mayoría de las personas que aprenden máquinas, creo, tienen un sesgo metodológico en contra de poner en gran cantidad de conocimientos previos, porque en cierto sentido lo vemos como un fracaso", dice Thomas Dietterich, un científico informático de la Universidad Estatal de Oregón en Corvallis. Él agrega que los científicos informáticos también aprecian la simplicidad y tienen una aversión a la depuración de código complejo. Las grandes compañías como Facebook y Google son otro factor que impulsa a AI en esa dirección, dice Josh Tenenbaum, un psicólogo del Instituto de Tecnología de Massachusetts (MIT) en Cambridge. Esas empresas están más interesadas en problemas estrechamente definidos a corto plazo, como la búsqueda web y el reconocimiento facial.
Pero a más largo plazo, los científicos informáticos esperan que las IAs asuman tareas mucho más difíciles que requieren flexibilidad y sentido común. Quieren crear chatbots que expliquen las noticias, taxis autónomos que pueden manejar el caótico tráfico de la ciudad y robots que cuidan a los ancianos. "Si queremos construir robots que realmente puedan interactuar en el mundo humano como C-3PO", dice Tenenbaum, "vamos a tener que resolver todos estos problemas en una configuración mucho más general".
Algunos científicos informáticos ya lo están intentando. En febrero, el MIT lanzó Intelligence Quest, una iniciativa de investigación que ahora recauda cientos de millones de dólares para comprender la inteligencia humana en términos de ingeniería. Esos esfuerzos, esperan los investigadores, darán como resultado AIs que se ubican en algún lugar entre el aprendizaje automático puro y el instinto puro. Arrancarán siguiendo algunas reglas integradas, pero también aprenderán sobre la marcha. "En cierto sentido, esto es como el viejo debate sobre la naturaleza y la crianza, ahora traducido a términos de ingeniería", dice Tenenbaum.
Parte de la búsqueda será descubrir lo que los bebés saben y cuándo: lecciones que luego pueden aplicarse a las máquinas. Eso llevará tiempo, dice Oren Etzioni, CEO del Instituto Allen de Inteligencia Artificial (AI2) en Seattle, Washington. AI2 recientemente anunció un esfuerzo de $ 125 millones para desarrollar y probar el sentido común en IA. "Nos encantaría construir sobre la estructura representacional innata en el cerebro humano", dice Etzioni, "pero no entendemos cómo el cerebro procesa el lenguaje, el 
Finalmente, Tenenbaum dice: "Estamos tratando de tomar en serio uno de los sueños más antiguos de AI: que podrías construir una máquina que se convierta en inteligencia como lo hace un ser humano, que comienza como un bebé y aprende como un niño".
En los últimos años, AI ha demostrado que puede traducir el habla, diagnosticar el cáncer y vencer a los humanos en el póker. Pero por cada victoria, hay un error. Los algoritmos de reconocimiento de imágenes ahora pueden distinguir las razas de perros mejor que usted, pero a veces confunden a un chihuahua con un panecillo de arándano. Los AI pueden jugar videojuegos clásicos de Atari como Space Invaders con habilidades sobrehumanas, pero cuando eliminas a todos los alienígenas excepto uno, la inteligencia artificial falla inexplicablemente.
El aprendizaje automático, un tipo de AI, es responsable de esos éxitos y fracasos. En términos generales, AI se ha movido de un software que depende de muchas reglas programadas (también conocidas como Good Old-Fashioned AI, o GOFAI) a sistemas que aprenden a través de prueba y error. El aprendizaje automático ha despegado gracias a potentes computadoras, big data y avances en algoritmos llamados redes neuronales. Esas redes son colecciones de elementos de computación simples, modelados de forma flexible en las neuronas del cerebro, que crean vínculos más fuertes o más débiles a medida que ingieren datos de entrenamiento.
Con sus programas Alpha, DeepMind de Google ha llevado el aprendizaje profundo a su apoteosis. Cada vez que se sustraían las reglas, el software parecía mejorar. En 2016, AlphaGo venció a un campeón humano en Go, un clásico juego de estrategia chino. El próximo año, AlphaGo Zero venció fácilmente a AlphaGo con muchas menos pautas. Meses más tarde, un sistema aún más simple llamado AlphaZero venció a AlphaGo Zero, y también dominó el ajedrez. En 1997, una IA clásica, basada en reglas, Deep Blue de IBM, había derrotado al campeón de ajedrez Garry Kasparov. Pero resulta que el verdadero virtuosismo del ajedrez radica en conocer las excepciones a las excepciones a las excepciones, información mejor obtenida a través de la experiencia. AlphaZero, que aprende jugando a sí mismo una y otra vez, puede vencer a Deep Blue, a los mejores programas de ajedrez de la actualidad y a cada campeón humano.
Sin embargo, sistemas como Alpha claramente no están extrayendo las lecciones que conducen al sentido común. Para jugar Go en un tablero de 21 por 21 en lugar del tablero estándar de 19 por 19, la IA debería aprender el juego de nuevo. A finales de la década de 1990, Marcus formó una red para tomar un número de entrada y escupirlo de nuevo, sobre la tarea más simple imaginable. Pero lo entrenó solo en números pares. Cuando se probó con números impares, la red fracasó. No podía aplicar el aprendizaje de un dominio a otro, como Chloe cuando comenzó a construir su Lego de lado.
La respuesta es no regresar a GOFAI basados ​​en reglas. Un niño no reconoce a un perro con reglas explícitas como "si número de patas = 4, y cola = verdadero, y tamaño> gato". El reconocimiento es más matizado: un chihuahua con tres patas no se deslizará más allá de un niño de 3 años. Los humanos no son pizarras en blanco, ni estamos cableados. En cambio, la evidencia sugiere que tenemos predisposiciones que nos ayudan a aprender y razonar sobre el mundo. La naturaleza no nos da una biblioteca de habilidades, solo el andamiaje para construir una.
La psicóloga de la Universidad de Harvard Elizabeth Spelke ha argumentado que tenemos al menos cuatro sistemas de "conocimiento básico" que nos dan una ventaja en la comprensión de objetos, acciones, números y espacio. Somos físicos intuitivos, por ejemplo, rápidos para comprender objetos y sus interacciones. Según un estudio, los bebés de solo 3 días de edad interpretan los dos extremos de una varilla parcialmente oculta como partes de una entidad, una señal de que nuestros cerebros podrían estar predispuestos a percibir objetos cohesivos. También somos psicólogos intuitivos. En una ciencia 2017El estudio, Shari Liu, un estudiante graduado en el laboratorio de Spelke, descubrió que los bebés de 10 meses podían inferir que cuando un personaje animado escala una colina más grande para alcanzar una forma que para llegar a otra, el personaje debe preferir la primera. Marcus ha demostrado que los bebés de 7 meses pueden aprender las reglas; muestran sorpresa cuando las oraciones de tres palabras ("wo fe fe") rompen el patrón gramatical de oraciones previamente escuchadas ("ga ti ga"). Según investigaciones posteriores, los recién nacidos de un día mostraron un comportamiento similar.


Los bebés nacen con instintos que nos ayudan a aprender el sentido común, hasta ahora esquivos para los algoritmos de inteligencia artificial. NATALIADERIABINAI / ISTOCKPHOTO.
Marcus ha compuesto una lista mínima de 10 instintos humanos que cree que deberían incluirse en IAs, incluyendo nociones de causalidad, análisis de costo-beneficio y tipos versus instancias (perro versus mi perro). En octubre pasado, en NYU, defendió su lista en un debate sobre si AI necesita "más maquinaria innata", frente a Yann LeCun, un científico informático de la Universidad de Nueva York y científico jefe de IA de Facebook. Para demostrar su defensa del instinto, Marcus mostró un tobogán de cabras montesas descendiendo por un acantilado. "No pueden hacer un aprendizaje de prueba de un millón", dijo. "Si se equivocan, es un problema".
LeCun, en desacuerdo con muchos psicólogos del desarrollo, argumentó que los bebés podrían estar aprendiendo esas habilidades en cuestión de días, y de ser así, los algoritmos de aprendizaje automático también podrían hacerlo. Su fe proviene de la experiencia. Trabaja en el reconocimiento de imágenes, y en la década de 1980 comenzó a argumentar que los algoritmos codificados a mano para identificar las características de las imágenes serían innecesarios. Treinta años después, se demostró que tenía razón. Los críticos le preguntaron: "¿Por qué aprender cuando puedes construirlo?" Su respuesta: construir es difícil, y si no entiendes completamente cómo funciona algo, es probable que las reglas que diseñes sean incorrectas.
Pero Marcus señaló que LeCun mismo había incorporado uno de los 10 instintos clave en sus algoritmos de reconocimiento de imágenes: la invarianza traslacional, la capacidad de reconocer un objeto sin importar dónde aparezca en el campo visual. La invariancia traslacional es el principio detrás de las redes neuronales convolucionales, o convnets, el mayor reclamo de fama de LeCun. En los últimos 5 años se han convertido en un elemento central para el reconocimiento de imágenes y otras aplicaciones de inteligencia artificial, dando inicio a la locura actual por el aprendizaje profundo.
LeCun le dice a Science que la invarianza traslacional también podría emerger por sí sola con mejores mecanismos generales de aprendizaje. "Muchos de esos elementos surgirán espontáneamente como consecuencia de aprender cómo funciona el mundo", dice. Geoffrey Hinton, un pionero del aprendizaje profundo en la Universidad de Toronto en Canadá, está de acuerdo. "La mayoría de las personas que creen en el conocimiento innato fuerte tienen una creencia infundada de que es difícil aprender miles de millones de parámetros desde cero", dice. "Creo que el progreso reciente en el aprendizaje profundo ha demostrado que en realidad es sorprendentemente fácil".
El debate sobre dónde situar a una IA en un espectro entre el aprendizaje puro y el instinto puro continuará. Pero ese problema pasa por alto una preocupación más práctica: cómo diseñar y codificar una máquina tan combinada. Cómo combinar el aprendizaje automático (y sus miles de millones de parámetros de redes neuronales) con reglas y lógica no está claro. Tampoco es cómo identificar los instintos más importantes y codificarlos de manera flexible. Pero eso no ha impedido que algunos investigadores y compañías lo intenten.
Un laboratorio de robótica en la Universidad de Nueva Gales del Sur en Sídney, Australia, está vestido para parecerse a una sala de estar y cocina, con botellas de Premium Lager de James Boag en la nevera. El informático Michael Thielscher explica que el laboratorio es un banco de pruebas para un robot doméstico. Su equipo está tratando de dotar a un robot de soporte humano (HSR) de Toyota, que tiene un brazo y una pantalla para una cara, con dos instintos similares a los humanos. En primer lugar, esperan programar el HSR para descomponer los desafíos en problemas más pequeños y más fáciles, del mismo modo que una persona analizaría una receta en varios pasos. En segundo lugar, quieren darle al robot la capacidad de razonar sobre las creencias y los objetivos, la forma en que los humanos piensan instintivamente sobre las mentes de los demás. ¿Cómo respondería el HSR si una persona le pidiera que buscara un vaso rojo, y solo encontró una taza azul y un plato rojo?
Hasta el momento, su software muestra algunas habilidades humanas, incluyendo el buen sentido de buscar la copa azul en lugar de la placa roja. Pero hay más reglas programadas en el sistema de las que le gustaría a Thielscher. Su equipo ha tenido que decirle a su IA que la taza suele ser más importante que el rojo. Idealmente, un robot tendría los instintos sociales para aprender rápidamente las preferencias de las personas por sí mismo.
Otros investigadores están trabajando para inyectar sus IA con la misma física intuitiva con la que parecen nacer los bebés. Los informáticos de DeepMind en Londres han desarrollado lo que llaman redes de interacción. Incorporan una suposición sobre el mundo físico: que los objetos discretos existen y tienen interacciones distintivas. Del mismo modo que los bebés analizan rápidamente el mundo en entidades que interactúan, esos sistemas aprenden rápidamente las propiedades y relaciones de los objetos. Sus resultados sugieren que las redes de interacción pueden predecir el comportamiento de caída de hilos y bolas rebotando en una caja de forma mucho más precisa que una red neuronal genérica.


En un triunfo del aprendizaje automático, AlphaGo venció al campeón de Go Ke Jie en 2017. XU YU / XINHUA / ALAMY - FOTO DE STOCK.
Vicarious, una compañía de software de robótica en San Francisco, California, está llevando la idea más allá con lo que llama redes de esquema. Esos sistemas también asumen la existencia de objetos e interacciones, pero también intentan inferir la causalidad que los conecta. Al aprender a través del tiempo, el software de la compañía puede planificar hacia atrás de los resultados deseados, como lo hacen las personas. (Quiero que mi nariz deje de picarme, probablemente sea útil rascarlo.) Los investigadores compararon su método con una red neuronal de última generación en el juego Atari Breakout, en el que el jugador desliza una paleta para desviar una bola y noquear los ladrillos. Debido a que la red de esquema podría aprender acerca de las relaciones causales, como el hecho de que la pelota golpea los ladrillos al contacto sin importar su velocidad, no necesitó entrenamiento adicional cuando el juego fue alterado. Podrías mover los ladrillos objetivo o hacer que el jugador hiciera malabarismos con tres bolas, y la red de esquemas aún mejoraba el juego. La otra red se agitó.
Además de nuestras habilidades innatas, los humanos también se benefician de algo que la mayoría de las IA no tienen: un cuerpo. Para ayudar al software a razonar sobre el mundo, Vicarious lo está "incorporando" para que pueda explorar entornos virtuales, tal como un bebé podría aprender algo sobre la gravedad al derribar un conjunto de bloques. En febrero, Vicarious presentó un sistema que buscaba regiones delimitadas en escenas 2D al tener esencialmente un pequeño personaje virtual que atraviesa el terreno. A medida que exploraba, el sistema aprendió el concepto de contención, lo que ayuda a dar sentido a las nuevas escenas más rápido que un connet de reconocimiento de imágenes estándar que examinaba pasivamente cada escena en su totalidad. Los conceptos -conocimientos que se aplican a muchas situaciones- son cruciales para el sentido común. "En robótica, es extremadamente importante que el robot pueda razonar sobre situaciones nuevas", dice Dileep George, un cofundador de Vicarious. Más adelante este año, la compañía probará su software en almacenes y fábricas, donde ayudará a los robots a recoger, ensamblar y pintar objetos antes de empacarlos y enviarlos.
Una de las tareas más desafiantes es codificar los instintos de forma flexible, para que las IAs puedan hacer frente a un mundo caótico que no siempre sigue las reglas. Los autos autónomos, por ejemplo, no pueden contar con que otros conductores obedezcan las leyes de tránsito. Para lidiar con esa imprevisibilidad, Noah Goodman, psicólogo e informático de la Universidad de Stanford en Palo Alto, California, ayuda a desarrollar lenguajes de programación probabilísticos (PPL). Los describe como la combinación de las rígidas estructuras del código de la computadora con las matemáticas de la probabilidad, haciéndose eco de la forma en que las personas pueden seguir la lógica pero también de la incertidumbre: si la hierba está mojada, probablemente llovió, pero tal vez alguien encendió un rociador. Fundamentalmente, un PPL se puede combinar con redes de aprendizaje profundo para incorporar el aprendizaje extensivo. Mientras trabajaba en Uber, Goodman y otros inventaron una "PPL profunda" llamado Pyro. La empresa de viajes compartidos está explorando los usos para Pyro, como el envío de conductores y la planificación de rutas de forma adaptativa en medio de la construcción de carreteras y los días de juegos. Goodman dice que los PPL pueden razonar no solo sobre física y logística, sino también sobre cómo las personas se comunican, lidiando con formas de expresión difíciles como la hipérbole, la ironía y el sarcasmo.
Es posible que Chloe no domine el sarcasmo hasta su adolescencia, pero su habilidad innata para el lenguaje ya está clara. En un punto del departamento de Marcus, ella sostiene un par de ladrillos Lego pegados. "Papá, ¿puedes desacoplar esto para mí?" Su padre lo obliga sin corregir su moneda. Las palabras y las ideas son como piezas de Lego, sus partes se mezclan y emparejan fácilmente, y se prueban ansiosamente en el mundo.
Después de que Chloe se cansa de construir en la pared, un sistema inteligente más viejo y algo más experimentado tiene la oportunidad de probarlo: su hermano Alexander, de 5 años. Construye rápidamente un edificio Lego que sobresale más. "Puedes ver las raíces de lo que está haciendo en lo que hizo", dice Marcus. Cuando se le preguntó, Alexander estima qué tan lejos podría sobresalir la estructura antes de que caiga. "Está bastante bien calibrado", observa Marcus. "No ha tenido 10 millones de pruebas de cosas Lego pegadas a la pared para evaluar la integridad estructural. Toma lo que sabe sobre física, y demás, y hace algunas inferencias".
Marcus obviamente se enorgullece, no solo de las capacidades de su descendencia, sino también de que defienden sus teorías de cómo aprendemos sobre el mundo, y cómo las IA deberían estar aprendiendo también. Hecho con sus edificios Lego, Chloe y Alexander saltan a los brazos de su padre. Chillan de placer mientras él les da vueltas y vueltas, ofreciéndoles otra oportunidad de afinar sus sentidos intuitivos de física y diversión.