Durante mucho tiempo se pensó que el cerebro humano estaba compuesto de 100.000 millones de neuronas. En 2012, la doctora Herkulano-Houzel rebajó la cifra a 86.000 millones, de acuerdo a su estudio publicado en Nature. Entre ellas, imaginen la cantidad de interconexiones necesarias para facilitar su comunicación, el tráfico de información por impulsos eléctricos que conforman nuestro pensamiento. Parece (y es) un milagro de la naturaleza, una construcción biológica tan elaborada y compleja que nunca hemos comprendido del todo y, mucho menos, podido replicarla. O al menos hasta ahora.

Dice el experto en inteligencia artificial Raymond Kurzweil que "cuando las computadoras igualen la capacidad de cálculo del cerebro humano, necesariamente lo superarán". Y en esas lides, surge una aproximación -la computación neuromórfica,desarrollada a partir del proyecto Synapse de DARPA en 2013- que busca precisamente eso: copiar y tomar la forma de trabajar del cerebro humano, donde se interconectan miles de millones de neuronas para procesar información y sobre todo entender, interpretar e inferir conocimiento.  

"La diferencia más relevante y evidente  con la computación tradicional es la forma en que los chips neuromórficos procesan la información, ya que recrean una sinapsis artificial intercambiando ráfagas de señales eléctricas a diferentes intensidades, muy parecido a las neuronas del cerebro y de una forma que podemos tildar de analógica", explica Marc Isern, analista senior en Penteo a INNOVADORES. "Por su lado la computación tradicional se basa en el tratamiento de señales eléctricas binarias, que hemos convenido en llamar digitales, sobre la arquitectura de base diseñada por Von Neumann en los años 40 donde se intercambian datos entre el procesador central y la memoria en una secuencia lineal de cálculos". 

El enfoque de diseño tan distinto es lo que le confiere sus características esenciales de alta capacidad de computación -ya que una señal analógica es mucho más rica que una señal digital- y su bajo consumo, motivado a su vez porque el procesamiento y la memoria no están separados, sino que forman parte de un todo en el que no se pierde energía ni tiempo enviando datos. 

De hecho, es esa capacidad de actuar y procesar información en tiempo real la que marca la diferencia entre la computación tradicional (incluyendo las populares redes neuronales que sustentan actualmente la inteligencia artificial o la aún futurista computación cuántica) y la neuromórfica. "Estos chips tienen la capacidad de entender el tiempo. Mientras que las redes neuronales necesitan enormes conjuntos de datos, los sistemas neuromórficos aprenden rápidamente a partir de unas pocas imágenes o unas pocas palabras", detalla Alberto de Torres, coordinador Académico y profesor de ESIC, a INNOVADORES. "Vivimos en un mundo de interacciones; por lo que lo neuromórfico será muy potente para permitir a las computadoras la comprensión de los entornos no estructurados".

Esta velocidad de pensamiento, si se permite la expresión, también tiene sus contras. "Por realizar la comparación con una CPU tradicional, las unidades informáticas de los chips neuromórficos no pueden realizar muchas operaciones diferentes. Tienen el poder suficiente para realizar la función de una sola neurona", admite José Antonio Cano, director de Análisis de IDC España. "No es una opción sustitutiva de la tradicional, sino complementaria, porque son adecuadas para problemáticas distintas".

De la misma opinión es Isern, quien defiende que esta confluencia de tecnologías marcará un antes y un después en la historia de la inteligencia artificial: "La supercomputación, las GPUs, las TPUs y los algoritmos que funcionan por encima para programar la IA están en expansión comercial y continuarán mejorando su rendimiento en los próximos años. Luego esperamos que las plataformas de aprendizaje profundo incorporen capacidades cuánticas y neuromórficas a medida que se comercialicen. Los sistemas cuánticos eliminarán la restricción del tiempo para problemas típicamente de optimización mientras que los sistemas neuromórficos prometen mejorar la capacidad de aprendizaje mediante sets de datos pequeños y no etiquetados". A su vez, los sistemas convencionales seguirán primando en los entornos donde la precisión en los cálculos sea el factor fundamental.

O lo que es lo mismo: las CPU seguirán ocupándose de los complejos algoritmos que exigen una gran variedad de datos heterogéneos, mientras que la neuromórfica reinará en aquellos escenarios en que sea necesaria mucha capacidad de cálculo en tiempo real pero con conjuntos de información relativamente similares. "El diseño de algoritmos que permitan procesar datos en tiempo real provenientes de entornos de gran ruido permitirá obtener unos niveles de eficiencia muy superiores a los actuales, precisamente porque los algoritmos tradicionales requieren de una preparación previa de los datos y un aislamiento del ruido para poder ser procesados", aclara Cano. 

Entre las aplicaciones que servirán de catalizador para esta tecnología y que podrían materializarse sobre sistemas neuromórficos, los expertos coinciden en áreas como la detección de objetos para la conducción autónoma, en los asistentes virtuales por voz donde instalar un chip neuromórfico capaz de entender el lenguaje natural en el extremo, prótesis inteligentes que incorporen chips que ayuden realizar el movimiento correcto, o aspectos más de retaguardia como la ciberseguridad para la detección de anomalías.

Su democratización

Hoy por hoy, la computación neuromórfica sigue siendo un terreno incipiente, en plena ebullición de innovación pero sin apenas calado comercial. Alberto de Torres no espera "ningún negocio significativo antes de 2024, aunque el valor de la oportunidad podría ser grande durante décadas". De hecho, uno de los pocos informes (Neuromorphic Sensing and Computing 2019 de Yole Development) que ponen cifras a esta realidad constata esta evolución exponencial: si todas las cuestiones técnicas se resuelven en los próximos años, el mercado asociado a la computación neuromórfica podría aumentar de 43 millones en 2024 a 2.000 millones de dólares en 2029 y 4.700 millones en 2034. 

Una carrera en la que los principales fabricantes de chips ya están inmersos, desde Samsung o Intel hasta SK Hynix. "Con estos chips neuromórficos podemos resolver problemas cotidianos cien veces más rápido y con 1000 veces menos consumo energético frente a una CPU normal", detalla Mike Davies, director del Laboratorio de Computación Neuromórfica de Intel. Este fabricante estadounidense -que trabaja junto a Accenture, General Electric, Airbus o Hitachi- ya ofrece, de manera comercial, sistemas basados en esta tecnología (bajo la marca Loihi), que integran hasta 130.000 neuronas capaces de realizar hasta 128 millones de sinapsis. "Sus utilidades inmediatas son inmensas en terrenos como la búsqueda de patrones en imágenes o mapas, de resolver problemas con imágenes corruptas o de dispersión en redes sociales. También a la hora de replicar el sistema olfativo, logrando mapear niveles muy bajos de cómo funciona el cerebro y procesando los cálculos en tiempo real en apenas milisegundos".

Pero junto a estos colosos, también encontramos a numerosas startups que están contribuyendo al acelerado desarrollo de este sector. Así, nos encontramos con General Vision (cuya tecnología de clasificación de patrones es usada en la red neuronal Quark SE de Intel), Brainchip (que posee un sistema neuromórfico Akida en chip que comprende no menos de 1,2 millones de neuronas y 10.000 millones de sinapsis), AnotherBrain (la cual recientemente recaudó otros 19 millones de euros en financiación para acelerar el desarrollo de su chip orgánico basado en software ), la suiza aiCTX o las asiáticas Nepes y Celepixel. A ellas hemos de sumar otras que, aunque no centradas en la computación neuromórfica, son elementos imprescindibles para su madurez, como las americanas Robosensing, Memry, Symetrix Weebit, Knowm en el campo de la memoria disruptiva y Weebit Nano, con sede en Francia, que combina tecnología de memoria no volátil con diseño de chips de computación neuromórfica.

"Después de más de una década de desarrollo, existe cierta madurez con implementaciones en determinados verticales de la industria robótica, aeroespacial o defensa, previas a la comercialización a escala", añade Marc Isern. "La madurez aumentará a partir de iteraciones de soluciones específicas. Además, dichas soluciones para la industria en general, en una primera oleada, vendrán incrustadas en productos comerciales, y espero que podremos verlos en unos 4 o 5 años".

¿Esperanza para Europa?

En un terreno fértil y todavía por explotar como es el de la computación neuromórfica, cabe preguntarse cuál es el papel que nuestro país juega y puede jugar. Para Alberto de Torres, "España y Europa están equilibradas frente a su competencia a nivel mundial, ya que los centros de investigación de IA que tenemos en esta región son buenos. Hay mucha esperanza de que una gran parte de la investigación neuromórfica provenga de Europa y en consorcios con España como el CSIC. Aunque actualmente no hay ninguna startup española que esté liderando algún desarrollo neuromórfico".

Sin darnos ni cuenta

Marc Iserna aboga porque la explosión de la computación neuromórfica se producirá sin que apenas nos demos cuenta: "Las organizaciones y empresas van a utilizarla sin saberlo a través de servicios en la nube, en el borde, o incrustados en maquinaria y software de terceros, tal y como sucede con la IA actual"