A medida que avanza la inteligencia artificial (IA), sus logros plantean retos de gran consumo energético.
Un estudio predice que, si persiste el crecimiento de los datos, el consumo acumulado de energía de las operaciones binarias podría superar los 10^27 julios en 2040, más de lo que puede generar el mundo.
Exploremos, pues, el impacto medioambiental de la IA, las limitaciones de los modelos informáticos convencionales y cómo la computación neuromórfica (CN) se inspira en el cerebro humano, eficiente desde el punto de vista energético, para lograr avances sostenibles en IA.
Inteligencia Artificial: El dilema
En los últimos a?os, la inteligencia artificial (IA) ha logrado hitos notables, ejemplificados por la evolución de modelos lingüísticos como ChatGPT y los avances en visión por ordenador que potencian la tecnología autónoma y elevan la imagen médica.
Además, la asombrosa destreza de la IA en el aprendizaje por refuerzo, como demuestran sus victorias sobre campeones humanos en juegos como el ajedrez y el go, pone de relieve sus notables capacidades.
Aunque estos avances han permitido a la IA transformar industrias, fomentar la innovación empresarial, descubrir avances científicos y causar una fuerte impresión en la sociedad, no están exentos de consecuencias.
Además de esa alarmante previsión para 2040, incluso hoy en día el almacenamiento de una gran cantidad de datos y el entrenamiento de modelos de IA utilizando estos conjuntos de datos requiere una cantidad significativa de energía y recursos computacionales, con investigaciones que demuestran que:
- Entrenar un modelo puede consumir más energía que la vida útil de un coche medio, según MIT Technology Review.
- El impacto medioambiental de la computación en nube supera ya al de las aerolíneas.
- Los centros de datos contribuyen entre un 2 y un 3% a las emisiones mundiales de gases de efecto invernadero, y los servidores de alto consumo energético consumen el 7% de la electricidad de Dinamarca y el 2,8% en Estados Unidos.
De ahí que resulte vital lograr un equilibrio entre los avances y las necesidades energéticas, teniendo en cuenta sus efectos medioambientales, a medida que la IA sigue desarrollándose.
Arquitectura Von Neumann: El cuello de botella
Los modelos de IA funcionan en el marco de la arquitectura Von Neumann, un dise?o informático que esencialmente separa el procesamiento y la memoria, lo que requiere una comunicación constante entre ambos.
A medida que los modelos de IA se hacen más complejos y se amplían los conjuntos de datos, esta arquitectura se enfrenta a importantes obstáculos.
En primer lugar, las unidades de procesamiento y memoria compartían un bus de comunicación, lo que ralentizaba los cálculos de IA y dificultaba la velocidad de entrenamiento.
En segundo lugar, la unidad de procesamiento de la arquitectura carece de capacidad de procesamiento paralelo, lo que repercute en el entrenamiento.
Aunque las GPU alivian el problema al permitir el procesamiento paralelo, introducen una sobrecarga en la transferencia de datos.
El frecuente movimiento de datos conlleva una sobrecarga adicional debida a la jerarquía de memoria, lo que repercute en el rendimiento.
Los grandes conjuntos de datos provocan tiempos de acceso a la memoria prolongados y un ancho de banda de memoria limitado, lo que provoca cuellos de botella en el rendimiento.
Los complejos modelos de IA sobrecargan los sistemas Von Neumann, limitando las capacidades de memoria y procesamiento. Estas limitaciones han dado lugar a elevadas demandas de energía y emisiones de carbono en los sistemas de IA.
Resolver estos problemas es crucial para optimizar el rendimiento de la IA y minimizar el impacto ambiental.
Cerebro biológico: La inspiración
El cerebro humano es más potente que cualquier máquina de IA en lo que a capacidades cognitivas se refiere.
A pesar de su inmensa potencia, el cerebro es increíblemente ligero y funciona con sólo 10 W de potencia, en contraste con las máquinas hambrientas de energía que utilizamos hoy en día.
Según una estimación, incluso este modesto presupuesto de energía permite al cerebro alcanzar la asombrosa cifra de 1 exaflops, equivalente a 1.000 petaflops, una haza?a que el superordenador más rápido del mundo, con sus 30 megavatios de potencia, se esfuerza por igualar con 200 petaflops.
El secreto del cerebro reside en sus neuronas, que integran procesamiento y memoria, a diferencia de la arquitectura Von Neumann.
El cerebro procesa la información de forma masivamente paralela, con miles de millones de neuronas y billones de sinapsis trabajando simultáneamente. A pesar de su extraordinaria complejidad, el cerebro es compacto y consume poca energía.
?Qué es la computación neuromórfica?
La computación neuromórfica (CN) es una rama de la tecnología informática inspirada en la estructura y el funcionamiento de las redes neuronales del cerebro humano.
Su objetivo es dise?ar y desarrollar arquitecturas y sistemas informáticos que imiten las capacidades de procesamiento paralelo y distribuido del cerebro, permitiendo un procesamiento eficiente y energéticamente eficaz de tareas complejas.
Este enfoque pretende superar las limitaciones que plantea la arquitectura Von Neumann para las tareas de IA, especialmente mediante la ubicación conjunta de la memoria y el procesamiento en un único lugar.
Para comprender la CN, es vital entender cómo funciona el cerebro. Las neuronas, componentes básicos del cerebro, se comunican mediante se?ales eléctricas para procesar la información.
Al recibir se?ales de neuronas interconectadas, procesan y emiten impulsos.
Estos impulsos viajan por vías formadas por neuronas, con sinapsis -espacios entre neuronas- que facilitan la transmisión.
En el marco de las CN, se utilizan memristores analógicos para reproducir la función de las sinapsis, logrando la memoria mediante el ajuste de la resistencia.
La comunicación rápida entre neuronas se consigue normalmente mediante la utilización de redes neuronales con pico (SNN).
Estas SNN enlazan neuronas en espiga mediante dispositivos sinápticos artificiales, como los memristores, que emplean circuitos analógicos para imitar se?ales eléctricas similares a las del cerebro.
Estos circuitos analógicos ofrecen una eficiencia energética significativamente mayor que la arquitectura Von Neumann convencional.
Tecnologías neuromórficas
El auge de la IA está impulsando la demanda de computación neuromórfica.
Se espera que el mercado mundial de computación neuromórfica crezca de 31,2 millones de dólares en 2021 a alrededor de 8.275,9 millones de dólares en 2030, con una impresionante CAGR del 85,73%. En respuesta, las empresas están avanzando en tecnologías neuromórficas, como:
- TrueNorth de IBM: Presentado en 2014, es un circuito integrado CMOS neuromórfico con 4096 núcleos, más de un millón de neuronas y 268 millones de sinapsis. TrueNorth supera los cuellos de botella von Neumann, consumiendo solo 70 milivatios.
- Loihi de Intel: Presentado en 2017, Loihi es 1000 veces más eficiente energéticamente que el entrenamiento típico de redes neuronales. Cuenta con 131 072 neuronas simuladas y muestra una eficiencia energética entre 30 y 1000 veces mayor que las CPU/GPU.
- Akida NSoC de BrainChip: Utiliza una arquitectura de red neuronal de espigas e integra 1,2 millones de neuronas y 10.000 millones de sinapsis. Akida admite aplicaciones de IA de bajo consumo en tiempo real, como la detección de objetos en vídeo y el reconocimiento de voz.
Estas innovaciones se?alan la rápida evolución de la computación neuromórfica para satisfacer las demandas de la IA.
Retos de la computación neuromórfica
Aprovechar el potencial de la CN en la IA exige abordar retos específicos.
En primer lugar, es crucial desarrollar algoritmos eficientes compatibles con el hardware neuromórfico. Esto requiere un profundo conocimiento de las operaciones del hardware y adaptaciones a medida.
En segundo lugar, es crucial la necesidad de manejar conjuntos de datos más grandes e intrincados. Los experimentos actuales de CN incluyen conjuntos de datos relativamente modestos, por lo que es necesario explorar su rendimiento con problemas más sustanciales y complejos.
A medida que aumentan el tama?o y la complejidad de los conjuntos de datos, se incrementan las exigencias computacionales de NC. El reto consiste en dise?ar sistemas de CN capaces de satisfacer estas demandas y, al mismo tiempo, ofrecer soluciones precisas y eficaces.
A pesar de los alentadores resultados de las pruebas a menor escala, el rendimiento de NC con conjuntos de datos más grandes e intrincados sigue sin probarse.
Es esencial seguir investigando y desarrollando para optimizar la tecnología en aplicaciones prácticas.
En resumen
La computación neuromórfica (CN) se inspira en las redes neuronales del cerebro para revolucionar la IA con eficiencia energética.
A medida que los avances de la IA suscitan preocupaciones medioambientales, la NC ofrece una alternativa imitando el procesamiento paralelo del cerebro.
A diferencia de la arquitectura Von Neumann, que obstaculiza la eficiencia, las CN ubican la memoria y el procesamiento en el mismo lugar, superando así los cuellos de botella.
Innovaciones como TrueNorth de IBM, Loihi de Intel y Akida NSoC de BrainChip muestran el potencial de las tecnologías neuromórficas.
Los retos persisten, como la adaptación de algoritmos y la escalabilidad a conjuntos de datos más grandes. A medida que la CN evoluciona, promete soluciones de IA energéticamente eficientes con un potencial de crecimiento sostenible.