Por Matthew
Hutson
Es un sábado
por la mañana en febrero, y Chloe, una curiosa niña de 3 años con una camisa a
rayas y polainas, está explorando las posibilidades de un juguete
nuevo.
Su padre, Gary Marcus, un científico cognitivo del desarrollo de la
Universidad de Nueva York (NYU) en la ciudad de Nueva York, ha traído a casa
algunas tiras de cinta diseñadas para adherir ladrillos Lego a las
superficies. Chloe, muy versada en Lego, está intrigada. Pero ella
siempre ha construido hacia arriba. ¿Podría usar la cinta para construir
de lado o boca abajo? Marcus sugiere construir desde el lado de una
mesa. Diez minutos después, Chloe comienza a pegar la cinta a la
pared. "Será mejor que lo hagamos antes de que mamá regrese",
dice Marcus con voz monótona. "Ella no será feliz". (Spoiler:
La pintura de la pared sufre.)
Implícito en
el esfuerzo de Marcus es un experimento. ¿Podría Chloe aplicar lo que
había aprendido sobre una actividad a un nuevo contexto? En cuestión de
minutos, ella tiene una escultura de Lego que sobresale de la
pared. "¡Papá, lo hice!" ella exclama. En su capacidad
de adaptación, Chloe está demostrando sentido común, un tipo de inteligencia
que, hasta ahora, los científicos informáticos han tenido dificultades para
reproducirse. Marcus cree que el campo de la inteligencia artificial (IA)
haría bien en aprender lecciones de pensadores jóvenes como ella.
Los
investigadores en el aprendizaje automático argumentan que las computadoras
entrenadas en montañas de datos pueden aprender prácticamente cualquier cosa,
incluido el sentido común, con pocas, si alguna, reglas programadas. Estos
expertos "tienen un punto ciego, en mi opinión", dice
Marcus. "Es algo sociológico, una forma de envidia de la física,
donde las personas piensan que lo más simple es mejor". Él dice que
los científicos informáticos están ignorando décadas de trabajo en las ciencias
cognitivas y psicología del desarrollo que muestran que los seres humanos
tienen habilidades innatas, instintos programados que aparecen en el nacimiento
o en la primera infancia, que nos ayudan a pensar de manera abstracta y
flexible, como Chloe. Él cree que los investigadores de IA deberían
incluir tales instintos en sus programas.
Sin embargo,
muchos científicos informáticos, que se basan en los éxitos del aprendizaje
automático, están explorando ansiosamente los límites de lo que puede hacer una
IA ingenua. "La mayoría de las personas que aprenden máquinas, creo,
tienen un sesgo metodológico en contra de poner en gran cantidad de
conocimientos previos, porque en cierto sentido lo vemos como un fracaso",
dice Thomas Dietterich, un científico informático de la Universidad Estatal de
Oregón en Corvallis. Él agrega que los científicos informáticos también
aprecian la simplicidad y tienen una aversión a la depuración de código
complejo. Las grandes compañías como Facebook y Google son otro factor que
impulsa a AI en esa dirección, dice Josh Tenenbaum, un psicólogo del Instituto
de Tecnología de Massachusetts (MIT) en Cambridge. Esas empresas están más
interesadas en problemas estrechamente definidos a corto plazo, como la búsqueda
web y el reconocimiento facial.
Pero a más
largo plazo, los científicos informáticos esperan que las IAs asuman tareas
mucho más difíciles que requieren flexibilidad y sentido común. Quieren
crear chatbots que expliquen las noticias, taxis autónomos que pueden manejar
el caótico tráfico de la ciudad y robots que cuidan a los
ancianos. "Si queremos construir robots que realmente puedan
interactuar en el mundo humano como C-3PO", dice Tenenbaum, "vamos a
tener que resolver todos estos problemas en una configuración mucho más
general".
Algunos
científicos informáticos ya lo están intentando. En febrero, el MIT lanzó
Intelligence Quest, una iniciativa de investigación que ahora recauda cientos
de millones de dólares para comprender la inteligencia humana en términos de
ingeniería. Esos esfuerzos, esperan los investigadores, darán como resultado
AIs que se ubican en algún lugar entre el aprendizaje automático puro y el
instinto puro. Arrancarán siguiendo algunas reglas integradas, pero
también aprenderán sobre la marcha. "En cierto sentido, esto es como
el viejo debate sobre la naturaleza y la crianza, ahora traducido a términos de
ingeniería", dice Tenenbaum.
Parte de la
búsqueda será descubrir lo que los bebés saben y cuándo: lecciones que luego
pueden aplicarse a las máquinas. Eso llevará tiempo, dice Oren Etzioni,
CEO del Instituto Allen de Inteligencia Artificial (AI2) en Seattle,
Washington. AI2 recientemente anunció un esfuerzo de $ 125 millones para
desarrollar y probar el sentido común en IA. "Nos encantaría
construir sobre la estructura representacional innata en el cerebro
humano", dice Etzioni, "pero no entendemos cómo el cerebro procesa el
lenguaje, el
Finalmente,
Tenenbaum dice: "Estamos tratando de tomar en serio uno de los sueños más
antiguos de AI: que podrías construir una máquina que se convierta en
inteligencia como lo hace un ser humano, que comienza como un bebé y aprende
como un niño".
En los últimos
años, AI ha demostrado que puede traducir el habla, diagnosticar el cáncer y
vencer a los humanos en el póker. Pero por cada victoria, hay un
error. Los algoritmos de reconocimiento de imágenes ahora pueden
distinguir las razas de perros mejor que usted, pero a veces confunden a un
chihuahua con un panecillo de arándano. Los AI pueden jugar videojuegos
clásicos de Atari como Space Invaders con habilidades sobrehumanas,
pero cuando eliminas a todos los alienígenas excepto uno, la inteligencia
artificial falla inexplicablemente.
El
aprendizaje automático, un tipo de AI, es responsable de esos éxitos y
fracasos. En términos generales, AI se ha movido de un software que
depende de muchas reglas programadas (también conocidas como Good Old-Fashioned
AI, o GOFAI) a sistemas que aprenden a través de prueba y error. El
aprendizaje automático ha despegado gracias a potentes computadoras, big data y
avances en algoritmos llamados redes neuronales. Esas redes son
colecciones de elementos de computación simples, modelados de forma flexible en
las neuronas del cerebro, que crean vínculos más fuertes o más débiles a medida
que ingieren datos de entrenamiento.
Con sus
programas Alpha, DeepMind de Google ha llevado el aprendizaje profundo a su
apoteosis. Cada vez que se sustraían las reglas, el software parecía
mejorar. En 2016, AlphaGo venció a un campeón humano en Go, un clásico
juego de estrategia chino. El próximo año, AlphaGo Zero venció fácilmente
a AlphaGo con muchas menos pautas. Meses más tarde, un sistema aún más
simple llamado AlphaZero venció a AlphaGo Zero, y también dominó el
ajedrez. En 1997, una IA clásica, basada en reglas, Deep Blue de IBM,
había derrotado al campeón de ajedrez Garry Kasparov. Pero resulta que el
verdadero virtuosismo del ajedrez radica en conocer las excepciones a las
excepciones a las excepciones, información mejor obtenida a través de la
experiencia. AlphaZero, que aprende jugando a sí mismo una y otra vez,
puede vencer a Deep Blue, a los mejores programas de ajedrez de la actualidad y
a cada campeón humano.
Sin embargo,
sistemas como Alpha claramente no están extrayendo las lecciones que conducen
al sentido común. Para jugar Go en un tablero de 21 por 21 en lugar del
tablero estándar de 19 por 19, la IA debería aprender el juego de nuevo. A
finales de la década de 1990, Marcus formó una red para tomar un número de
entrada y escupirlo de nuevo, sobre la tarea más simple imaginable. Pero
lo entrenó solo en números pares. Cuando se probó con números impares, la
red fracasó. No podía aplicar el aprendizaje de un dominio a otro, como
Chloe cuando comenzó a construir su Lego de lado.
La respuesta
es no regresar a GOFAI basados en reglas. Un niño no reconoce a un perro
con reglas explícitas como "si número de patas = 4, y cola = verdadero, y
tamaño> gato". El reconocimiento es más matizado: un chihuahua con
tres patas no se deslizará más allá de un niño de 3 años. Los humanos no
son pizarras en blanco, ni estamos cableados. En cambio, la evidencia
sugiere que tenemos predisposiciones que nos ayudan a aprender y razonar sobre
el mundo. La naturaleza no nos da una biblioteca de habilidades, solo el
andamiaje para construir una.
La psicóloga
de la Universidad de Harvard Elizabeth Spelke ha argumentado que tenemos al
menos cuatro sistemas de "conocimiento básico" que nos dan una
ventaja en la comprensión de objetos, acciones, números y espacio. Somos
físicos intuitivos, por ejemplo, rápidos para comprender objetos y sus
interacciones. Según un estudio, los bebés de solo 3 días de edad
interpretan los dos extremos de una varilla parcialmente oculta como partes de
una entidad, una señal de que nuestros cerebros podrían estar predispuestos a
percibir objetos cohesivos. También somos psicólogos intuitivos. En
una ciencia 2017El estudio, Shari Liu, un estudiante graduado en el
laboratorio de Spelke, descubrió que los bebés de 10 meses podían inferir que
cuando un personaje animado escala una colina más grande para alcanzar una
forma que para llegar a otra, el personaje debe preferir la primera. Marcus
ha demostrado que los bebés de 7 meses pueden aprender las
reglas; muestran sorpresa cuando las oraciones de tres palabras ("wo
fe fe") rompen el patrón gramatical de oraciones previamente escuchadas
("ga ti ga"). Según investigaciones posteriores, los recién
nacidos de un día mostraron un comportamiento similar.
Los bebés nacen
con instintos que nos ayudan a aprender el sentido común, hasta ahora esquivos
para los algoritmos de inteligencia artificial. NATALIADERIABINAI / ISTOCKPHOTO.
Marcus ha
compuesto una lista mínima de 10 instintos humanos que cree que deberían
incluirse en IAs, incluyendo nociones de causalidad, análisis de
costo-beneficio y tipos versus instancias (perro versus mi perro). En
octubre pasado, en NYU, defendió su lista en un debate sobre si AI necesita
"más maquinaria innata", frente a Yann LeCun, un científico
informático de la Universidad de Nueva York y científico jefe de IA de
Facebook. Para demostrar su defensa del instinto, Marcus mostró un tobogán
de cabras montesas descendiendo por un acantilado. "No pueden hacer
un aprendizaje de prueba de un millón", dijo. "Si se equivocan,
es un problema".
LeCun, en
desacuerdo con muchos psicólogos del desarrollo, argumentó que los bebés
podrían estar aprendiendo esas habilidades en cuestión de días, y de ser así,
los algoritmos de aprendizaje automático también podrían hacerlo. Su fe
proviene de la experiencia. Trabaja en el reconocimiento de imágenes, y en
la década de 1980 comenzó a argumentar que los algoritmos codificados a mano
para identificar las características de las imágenes serían innecesarios. Treinta
años después, se demostró que tenía razón. Los críticos le preguntaron:
"¿Por qué aprender cuando puedes construirlo?" Su respuesta:
construir es difícil, y si no entiendes completamente cómo funciona algo, es
probable que las reglas que diseñes sean incorrectas.
Pero Marcus
señaló que LeCun mismo había incorporado uno de los 10 instintos clave en sus
algoritmos de reconocimiento de imágenes: la invarianza traslacional, la
capacidad de reconocer un objeto sin importar dónde aparezca en el campo
visual. La invariancia traslacional es el principio detrás de las redes
neuronales convolucionales, o convnets, el mayor reclamo de fama de
LeCun. En los últimos 5 años se han convertido en un elemento central para
el reconocimiento de imágenes y otras aplicaciones de inteligencia artificial,
dando inicio a la locura actual por el aprendizaje profundo.
LeCun le
dice a Science que la invarianza traslacional también podría emerger
por sí sola con mejores mecanismos generales de aprendizaje. "Muchos
de esos elementos surgirán espontáneamente como consecuencia de aprender cómo
funciona el mundo", dice. Geoffrey Hinton, un pionero del aprendizaje
profundo en la Universidad de Toronto en Canadá, está de acuerdo. "La
mayoría de las personas que creen en el conocimiento innato fuerte tienen una
creencia infundada de que es difícil aprender miles de millones de parámetros
desde cero", dice. "Creo que el progreso reciente en el
aprendizaje profundo ha demostrado que en realidad es sorprendentemente fácil".
El debate
sobre dónde situar a una IA en un espectro entre el aprendizaje puro y el
instinto puro continuará. Pero ese problema pasa por alto una preocupación
más práctica: cómo diseñar y codificar una máquina tan combinada. Cómo
combinar el aprendizaje automático (y sus miles de millones de parámetros de
redes neuronales) con reglas y lógica no está claro. Tampoco es cómo
identificar los instintos más importantes y codificarlos de manera
flexible. Pero eso no ha impedido que algunos investigadores y compañías
lo intenten.
Un
laboratorio de robótica en la Universidad de Nueva Gales del Sur en Sídney,
Australia, está vestido para parecerse a una sala de estar y cocina, con
botellas de Premium Lager de James Boag en la nevera. El informático
Michael Thielscher explica que el laboratorio es un banco de pruebas para un
robot doméstico. Su equipo está tratando de dotar a un robot de soporte
humano (HSR) de Toyota, que tiene un brazo y una pantalla para una cara, con
dos instintos similares a los humanos. En primer lugar, esperan programar
el HSR para descomponer los desafíos en problemas más pequeños y más fáciles,
del mismo modo que una persona analizaría una receta en varios pasos. En
segundo lugar, quieren darle al robot la capacidad de razonar sobre las
creencias y los objetivos, la forma en que los humanos piensan instintivamente
sobre las mentes de los demás. ¿Cómo respondería el HSR si una persona le
pidiera que buscara un vaso rojo, y solo encontró una taza azul y un plato rojo?
Hasta el
momento, su software muestra algunas habilidades humanas, incluyendo el buen
sentido de buscar la copa azul en lugar de la placa roja. Pero hay más
reglas programadas en el sistema de las que le gustaría a Thielscher. Su
equipo ha tenido que decirle a su IA que la taza suele ser más importante que
el rojo. Idealmente, un robot tendría los instintos sociales para aprender
rápidamente las preferencias de las personas por sí mismo.
Otros
investigadores están trabajando para inyectar sus IA con la misma física
intuitiva con la que parecen nacer los bebés. Los informáticos de DeepMind
en Londres han desarrollado lo que llaman redes de interacción. Incorporan
una suposición sobre el mundo físico: que los objetos discretos existen y
tienen interacciones distintivas. Del mismo modo que los bebés analizan
rápidamente el mundo en entidades que interactúan, esos sistemas aprenden
rápidamente las propiedades y relaciones de los objetos. Sus resultados
sugieren que las redes de interacción pueden predecir el comportamiento de
caída de hilos y bolas rebotando en una caja de forma mucho más precisa que una
red neuronal genérica.
En un
triunfo del aprendizaje automático, AlphaGo venció al campeón de Go Ke Jie en
2017. XU YU / XINHUA / ALAMY - FOTO DE STOCK.
Vicarious,
una compañía de software de robótica en San Francisco, California, está
llevando la idea más allá con lo que llama redes de esquema. Esos sistemas
también asumen la existencia de objetos e interacciones, pero también intentan
inferir la causalidad que los conecta. Al aprender a través del tiempo, el
software de la compañía puede planificar hacia atrás de los resultados
deseados, como lo hacen las personas. (Quiero que mi nariz deje de
picarme, probablemente sea útil rascarlo.) Los investigadores compararon su
método con una red neuronal de última generación en el juego Atari Breakout,
en el que el jugador desliza una paleta para desviar una bola y noquear los
ladrillos. Debido a que la red de esquema podría aprender acerca de las
relaciones causales, como el hecho de que la pelota golpea los ladrillos al
contacto sin importar su velocidad, no necesitó entrenamiento adicional cuando
el juego fue alterado. Podrías mover los ladrillos objetivo o hacer que el
jugador hiciera malabarismos con tres bolas, y la red de esquemas aún mejoraba
el juego. La otra red se agitó.
Además de
nuestras habilidades innatas, los humanos también se benefician de algo que la
mayoría de las IA no tienen: un cuerpo. Para ayudar al software a razonar
sobre el mundo, Vicarious lo está "incorporando" para que pueda
explorar entornos virtuales, tal como un bebé podría aprender algo sobre la
gravedad al derribar un conjunto de bloques. En febrero, Vicarious
presentó un sistema que buscaba regiones delimitadas en escenas 2D al tener
esencialmente un pequeño personaje virtual que atraviesa el terreno. A
medida que exploraba, el sistema aprendió el concepto de contención, lo que
ayuda a dar sentido a las nuevas escenas más rápido que un connet de
reconocimiento de imágenes estándar que examinaba pasivamente cada escena en su
totalidad. Los conceptos -conocimientos que se aplican a muchas
situaciones- son cruciales para el sentido común. "En robótica, es
extremadamente importante que el robot pueda razonar sobre situaciones
nuevas", dice Dileep George, un cofundador de Vicarious. Más
adelante este año, la compañía probará su software en almacenes y fábricas,
donde ayudará a los robots a recoger, ensamblar y pintar objetos antes de
empacarlos y enviarlos.
Una de las
tareas más desafiantes es codificar los instintos de forma flexible, para que
las IAs puedan hacer frente a un mundo caótico que no siempre sigue las
reglas. Los autos autónomos, por ejemplo, no pueden contar con que otros
conductores obedezcan las leyes de tránsito. Para lidiar con esa
imprevisibilidad, Noah Goodman, psicólogo e informático de la Universidad de
Stanford en Palo Alto, California, ayuda a desarrollar lenguajes de
programación probabilísticos (PPL). Los describe como la combinación de
las rígidas estructuras del código de la computadora con las matemáticas de la
probabilidad, haciéndose eco de la forma en que las personas pueden seguir la
lógica pero también de la incertidumbre: si la hierba está mojada,
probablemente llovió, pero tal vez alguien encendió un
rociador. Fundamentalmente, un PPL se puede combinar con redes de aprendizaje
profundo para incorporar el aprendizaje extensivo. Mientras trabajaba en
Uber, Goodman y otros inventaron una "PPL profunda" llamado
Pyro. La empresa de viajes compartidos está explorando los usos para Pyro,
como el envío de conductores y la planificación de rutas de forma adaptativa en
medio de la construcción de carreteras y los días de juegos. Goodman dice
que los PPL pueden razonar no solo sobre física y logística, sino también sobre
cómo las personas se comunican, lidiando con formas de expresión difíciles como
la hipérbole, la ironía y el sarcasmo.
Es posible
que Chloe no domine el sarcasmo hasta su adolescencia, pero su habilidad innata
para el lenguaje ya está clara. En un punto del departamento de Marcus,
ella sostiene un par de ladrillos Lego pegados. "Papá, ¿puedes
desacoplar esto para mí?" Su padre lo obliga sin corregir su
moneda. Las palabras y las ideas son como piezas de Lego, sus partes se
mezclan y emparejan fácilmente, y se prueban ansiosamente en el mundo.
Después de
que Chloe se cansa de construir en la pared, un sistema inteligente más viejo y
algo más experimentado tiene la oportunidad de probarlo: su hermano Alexander,
de 5 años. Construye rápidamente un edificio Lego que sobresale
más. "Puedes ver las raíces de lo que está haciendo en lo que
hizo", dice Marcus. Cuando se le preguntó, Alexander estima qué tan
lejos podría sobresalir la estructura antes de que caiga. "Está
bastante bien calibrado", observa Marcus. "No ha tenido 10
millones de pruebas de cosas Lego pegadas a la pared para evaluar la integridad
estructural. Toma lo que sabe sobre física, y demás, y hace algunas
inferencias".
Marcus
obviamente se enorgullece, no solo de las capacidades de su descendencia, sino
también de que defienden sus teorías de cómo aprendemos sobre el mundo, y cómo
las IA deberían estar aprendiendo también. Hecho con sus edificios Lego,
Chloe y Alexander saltan a los brazos de su padre. Chillan de placer
mientras él les da vueltas y vueltas, ofreciéndoles otra oportunidad de afinar
sus sentidos intuitivos de física y diversión.