La computación neuromórfica se ha convertido en uno delos pilares más importantes en el mundo de la IA y del aprendizaje profundo, y también es uno de los frentes de investigación y desarrollo fundamentales para Intel Labs. Como recordarán nuestros lectores habituales, el gigante del chip ha conseguido logros importantes en este campo que imita la estructura y el funcionamiento del cerebro humano. Loihi 2 fue uno de los más recientes, y de los más interesantes, pero no ha sido el único.

Intel Labs acaba de presentar un nuevo modelo para el aprendizaje de objetos basado en redes neuronales, cuyo desarrollo ha sido posible gracias a la colaboración del Instituto Italiano de Tecnología y la Universidad Técnica de Múnich. Este nuevo modelo está dirigido especialmente al desarrollo de asistentes robóticos que interactúan con entornos sin restricciones, entre los que podemos destacar por ejemplo la logística, la asistencia sanitaria o el cuidado de personas mayores.

Obvia decir que este nuevo modelo representa un importante paso adelante para mejorar, con la máxima eficiencia, las capacidades futuros robots dedicados a la asistencia y la fabricación. El uso de la computación neuromórfica se produce a través de nuevos métodos interactivos de aprendizaje de objetos en línea, lo que permite a los robots obtener la base que necesitan para poder seguir aprendiendo a reconocer nuevos objetos una vez que han sido desplegados. Dicho de otra forma, los robots nunca dejarán de aprender.

Intel Labs, junto al Instituto Italiano de Tecnología y la Universidad Técnica de Múnich, hicieron una demostración de con éxito de este modelo de aprendizaje interactivo utilizando el chip Loihi, y el resultado fue todo un éxito, ya que lograron completar el aprendizaje de una nueva instancia con una velocidad y precisión similares a las de los métodos convencionales bajo CPU, pero con un consumo 175 veces menor. Impresionante, sin duda. Para realizar esa demostración los investigadores implementaron una arquitectura de red neuronal de picos en el chip Loihi que localizaba el aprendizaje en una sola capa de sinapsis plásticas, y que daba cuenta de las diferentes vistas de los objetos recurriendo a un proceso de «reclutación de neuronas» en función de sus necesidades («bajo demanda»). Esto hizo que, además, el proceso de aprendizaje se desarrollará de forma autónoma mientras se interactuaba con el usuario.

Yulia Sandamirskaya, Directora de investigación en Robótica del Laboratorio de Informática Neuromórfica de Intel, ha publicado un artículo muy interesante sobre este tema que podéis leer siguiendo este enlace, y ha comentado:

«Cuando un humano descubre un nuevo objeto, le echa un vistazo, le da la vuelta, pregunta qué es y luego es capaz de reconocerlo de nuevo en todo tipo de entornos y condiciones de forma instantánea. Nuestro objetivo es aplicar capacidades similares a futuros robots que trabajen en entornos interactivos, permitiéndoles adaptarse a lo imprevisto y trabajar de forma más natural junto a los humanos. Nuestros resultados con Loihi refuerzan el valor de la computación neuromórfica para el futuro de la robótica».

Fuente info
Autor: Isidro Ros