Si hablamos de computación cuántica y de computación neuromórfica está claro que Intel es, a día de hoy, uno de los jugadores más importantes dentro de ambos sectores. El gigante del chip lleva años apostando por ambos tipos de computación tanto a nivel de hardware como de software, y su división Intel Labs ha venido haciendo un trabajo tan bueno que le ha permitido convertirse en todo un referente.

Hace unos días tuve la oportunidad de asistir a un interesante evento enmarcado en el escenario de la Intel Innovation, donde el gigante de Santa Clara presentó algunos de sus avances más relevantes en los sectores de la computación cuántica y neuromórfica. La presentación fue bastante densa, algo positivo ya que nos dejó muchos detalles e información muy valiosa, pero en este artículo quiero compartir con vosotros un resumen simplificado con las claves fundamentales para que sea asequible para todos nuestros lectores.

Dentro del sector de la computación cuántica lo más importante fue el anuncio del «Intel Quantum Software Development Kit», es decir, del primer kit de desarrollo del gigante del chip centrado en la computación cuántica. Es algo muy grande, y representa un paso de gigante hacia la democratización de la computación cuántica, como habrán podido imaginar muchos de nuestros lectores.

El «Intel Quantum Software Development Kit» responde a los principios clásicos de la computación cuántica, como la superposición, el entrelazamiento cuántico y la fragilidad de los cúbits. Dicha fragilidad sigue siendo uno de los grandes desafíos dentro de este sector, y es que cosas tan simples como el ruido o la vibración pueden producir grandes pérdidas de datos.

Este kit de desarrollo adopta un enfoque amplio que cubre todos los frentes clave, incluyendo desde las aplicaciones y los algoritmos hasta el compilador cuántico, el tiempo de ejecución, el simulador de control de cúbits y el simulador de puntos cuánticos. Todo esto quiere decir que ofrece un mundo de posibilidades, y que estamos ante un auténtico kit de desarrollo con un profundo grado de optimización y de especialización.

La beta de este kit de desarrollo ya se encuentra disponible, y la versión 1.0 llegará en el primer trimestre de 2023. Esta última ofrecerá simulación de hardware cuántico intel como un backend alternativo. Entre las aplicaciones más importantes de este kit que citado Intel podemos destacar la dinámica de fluidos, los sistemas lineales de ecuaciones y el diseño de materiales.

Saltamos ahora a hablar de computación neuromórfica, otro sector en el que Intel Labs lleva tiempo demostrando su buen hacer. Parece mentira, pero han pasado ya cinco años desde la presentación de Intel Loihi, un chip neuromórfico que ofrecía un salto importante con una superficie de tan solo 60 m2. Fue una revolución en el sector, y gracias a su alta escalabilidad marcó un punto de inflexión que hizo que la computación neuromórfica dejase de ser el futuro para empezar a convertirse en el presente.

El uso de Intel Loihi ha permitido grandes hitos en el sector, y algunos de ellos aparecen perfectamente representados en la imagen adjunta. Este chip ha hecho que sea posible crear un sistema de reconocimiento y aprendizaje olfativo que es 3000 veces más eficiente trabajando con datos de aprendizaje profundo, también ha servido para dar forma a un sistema de control adaptativo de un brazo robotizado que es 40 veces más eficiente y un 50% más rápido (comparado con una GPU), y ha sido clave para crear un sistema de reconocimiento de gestos y aprendizaje, configurado con Intel Loihi y la cámara DAVIS 240C, que tiene un consumo de solo 60 mW.

La computación neuromórfica tiene mucho camino por delante, y muchísimo potencial, pero como hemos podido ver Intel Labs ya ha empezado a demostrarlo, y ha hecho de esta un valor seguro a presente y a futuro. Loihi 2, y el framework Lava, son la confirmación de esta realidad, y durante la Intel Innovation el gigante del chip ha aprovechado para anunciar Kapoho Point, un sistema altamente escalable formado por 8 chips Loihi 2 que incluye neuronas programables y mejora la eficiencia y la tasa de aprendizaje en 15 y 12 veces, respectivamente.

Fuente info
Autor: Isidro Ros