DeepMind: el proyecto de IA de Google aprende como un bebé
El proyecto DeepMind de IA (inteligencia artificial) de Google es para alguna gente un poco aterrador. Unos miedos que no se acabarán precisamente al saber que DeepMind está empezando a entender el mundo que le rodea de la misma manera que lo haría un bebé. También está aprendiendo a caminar así que cuando tenga piernas de robot no tendremos escapatoria.
Por supuesto Google no está trabajando para construir una máquina asesina, sino investigando cómo funcionan los sistemas de IA. La compañía ha sido capaz de replicar en un cerebro de IA procesos de pensamiento similares a los humanos. La mente humana es capaz de emplear herramientas conceptuales para solucionar los problemas que se les presentan. Utilizamos materias primas que nos permiten resolver un problema, por ejemplo al construir un ábaco con arcilla, cañas y madera que nos ayuda a contar grandes cantidades.
La IA, en cambio, no piensa así. Hasta ahora no podía dar el salto que supone combinar conceptos conocidos hasta llegar a algo completamente nuevo y diferente. Gracias a un nuevo componente de red neuronal llamado Symbol-Concept Association Network (SCAN) (Red de Asociación de Concepto Simbólico), la IA de DeepMind puede imitar a la visión humana para entender conceptos de jerarquía visual.
Esto significa que DeepMind está entendiendo su mundo visual de la misma manera que lo haría un niño. Su rango de visión es limitado por lo que hay que colocar los objetos donde pueda verlos. Es capaz de interpretar objetos como una manzana, un sombrero o una maleta, teniendo en cuenta sus propiedades físicas: color, forma, tamaño…
Luego DeepMind combina esta información con una confirmación y descripción sobre lo que está viendo. Así, si se trata de una manzana roja en una pared azul, los investigadores le dicen a la IA que está viendo “manzana roja. Pared azul”. DeepMind no mira simplemente a la manzana y la compara con las otras imágenes de manzanas que tiene en su memoria, sino que aprende qué forma tiene una manzana.
Este nivel de comprensión permite a la IA imaginar por sí misma nuevos conceptos. Un ejemplo podría ser la imagen de una maleta blanca sobre un suelo rojo junto a una pared azul. SCAN conoce a cada elemento y sabe cómo diferenciar a cada uno. Estos procesos de pensamiento similar al humano está permitiendo a DeepMind aprender a caminar. En vez de simplemente enseñar a un robot cómo caminar, la IA de DeepMind está empezando a comprender lo que son sus extremidades digitales. Está aprendiendo a caminar, a entender su propia inercia y el espacio físico para poder realizar diferentes tareas en lugares complejos. Esta capacidad permite a los humanos escalar o saltar por encima de vallas y también simplemente caminar por la calle. No estamos hechos para un sola actividad.
Hasta ahora para enseñar a caminar a un robot había que emplear información de captura de movimiento que se introducía en el sistema. Sin embargo esto no permite a la IA adaptarse con facilidad a una nueva situación y lleva mucho tiempo. DeepMind fue capaz de enseñar a un sistema de IA a caminar sin caerse, además de cruzar diferentes paisajes digitales en los que era necesario correr, saltar, girar o agacharse.
En otro experimento el equipo de DeepMind descubrió que la IA había aprendido por sí misma a pasar de un modo de caminar a otro. Estos proyectos ponen de manifiesto que el desarrollo de la IA esta alcanzando una nueva era. En vez de darle a la máquina una cantidad ingente de información, ésta ya empieza a aprender sobre el mundo que la rodea de forma parecida a la que lo hace la mente humana. Lo que es algo un poco aterrador y es una de las razones por las que Elon Musk quiere que haya más leyes que controlen la inteligencia artificial. Desde luego es un algo escalofriante ver a la IA aprender a caminar como un ser humano…
Si te ha gustado esta noticia y quieres más, date de alta en nuestra newsletter: