
El imparable desarrollo de la inteligencia artificial ha venido acompañado de un problema que cada vez preocupa más a la industria: el elevado consumo de energía que implican tanto el entrenamiento como el uso masivo de los grandes modelos. Una sola consulta compleja en sistemas tipo ChatGPT puede llegar a gastar una cantidad de electricidad similar a la que utiliza un hogar medio de Estados Unidos en un minuto, una cifra que, multiplicada por miles de millones de peticiones, dispara la huella ambiental.
Ante este escenario, investigadores y empresas tecnológicas buscan fórmulas para conseguir una IA mucho más eficiente y sostenible. Entre las alternativas que están ganando peso destaca la computación analógica en memoria (AIMC, por sus siglas en inglés), un enfoque que propone cambiar de raíz la forma en que los chips almacenan y procesan la información.
Qué es la computación analógica en memoria y por qué puede cambiar las reglas del juego
En las arquitecturas digitales actuales, los datos se mueven continuamente entre la memoria y las unidades de procesamiento. Esa ida y vuelta consume tiempo y, sobre todo, mucha energía. La computación analógica en memoria plantea justo lo contrario: que los datos permanezcan en el mismo lugar mientras se realizan las operaciones matemáticas necesarias para ejecutar los modelos de IA.
Para lograrlo, la AIMC recurre a chips analógicos capaces de almacenar y calcular de forma conjunta, aprovechando directamente las propiedades físicas del hardware. En lugar de representar la información únicamente con ceros y unos bien definidos, el sistema utiliza señales continuas y las características eléctricas de los materiales para llevar a cabo las operaciones.
Según trabajos recientes liderados por el investigador Tianyi Chen, en colaboración con equipos de IBM y del Rensselaer Polytechnic Institute, este enfoque permitiría reducir el consumo energético hasta mil veces en comparación con las plataformas digitales convencionales, manteniendo al mismo tiempo la capacidad de ejecutar modelos de inteligencia artificial de gran tamaño.
La clave está en que, al no tener que desplazar constantemente la información, el sistema puede “dejar que la física haga el trabajo”, utilizando los propios pulsos eléctricos y las respuestas del material para resolver operaciones de forma prácticamente instantánea. Este cambio de paradigma resulta especialmente atractivo para centros de datos y aplicaciones con un uso intensivo de IA, también en Europa, donde la eficiencia energética se ha convertido en un factor estratégico.
Ventajas y límites del hardware analógico para inteligencia artificial
La computación analógica en memoria no parte de cero. Desde hace años se sabía que este tipo de hardware podía ejecutar ciertos cálculos de manera muy rápida y con un consumo reducido, lo que la convertía en una opción interesante para acelerar la inferencia de modelos ya entrenados. Sin embargo, su aplicación en la fase de entrenamiento había resultado hasta ahora mucho más complicada.
El principal escollo está en las imperfecciones inherentes al hardware analógico. Los pulsos que actualizan los parámetros del modelo pueden variar ligeramente de una operación a otra, aparecer ruido eléctrico o producirse pequeñas desviaciones que, acumuladas, terminan perjudicando la calidad del aprendizaje. Este comportamiento contrasta con la precisión y repetibilidad del hardware digital, donde las operaciones son más fáciles de controlar.
En la práctica, estas limitaciones se traducían en gradientes inexactos y entrenamientos inestables, dos problemas que hacían poco viable trasladar sin más los algoritmos clásicos de aprendizaje automático a los chips analógicos. Pese a su potencial, la AIMC quedaba relegada a tareas muy concretas, lejos del objetivo de entrenar grandes modelos con fiabilidad.
El trabajo del equipo de Chen se centra precisamente en este punto: cómo aprovechar la eficiencia extrema del hardware analógico sin renunciar a la precisión necesaria para que los modelos de IA mantengan su calidad y su capacidad de generalización. La propuesta consiste en adaptar en profundidad los algoritmos de entrenamiento a las características reales de estos sistemas físicos.
Residual Learning: una versión analógica de la retropropagación
Para sortear los problemas de precisión, el grupo de investigación ha desarrollado una reformulación analógica del algoritmo de retropropagación, la técnica más extendida para entrenar redes neuronales profundas. A esta variante la han bautizado como Residual Learning, un nombre que hace referencia a la idea de ir corrigiendo de forma constante los errores que se producen durante el proceso de actualización de parámetros.
El método introduce una capa adicional de control que supervisa cómo responde realmente el hardware a cada operación de entrenamiento. A partir de esa información, el sistema ajusta los gradientes y compensa las desviaciones causadas por el ruido, los pulsos irregulares o cualquier otra imperfección física, de manera que el aprendizaje se mantenga en el rumbo previsto.
Con esta estrategia, se consigue que los modelos entrenados en chips analógicos alcancen una precisión muy cercana a la obtenida en plataformas digitales, pero con una fracción del gasto energético. En esencia, el algoritmo acepta que el hardware no es perfecto y se diseña para convivir con esas imperfecciones, en lugar de intentar ignorarlas.
El equipo defiende que esta aproximación no solo mejora la estabilidad del entrenamiento, sino que también introduce un marco más sistemático para controlar la imparcialidad y el comportamiento estadístico de los modelos en entornos analógicos. Esto resulta especialmente relevante cuando se piensa en aplicaciones sensibles, en las que los sesgos o los errores de predicción pueden tener consecuencias significativas.
Presentación en NeurIPS y reacción de la comunidad científica
Los resultados de esta línea de trabajo se presentaron de forma destacada en la Conferencia Anual sobre Sistemas de Procesamiento de Información Neural (NeurIPS), uno de los foros internacionales de referencia en inteligencia artificial. La ponencia, celebrada en diciembre, generó interés por mostrar una vía concreta para hacer frente al problema energético sin depender únicamente de mejoras incrementales en el hardware digital.
Entre los aspectos más valorados por la comunidad se encuentra la combinación de teoría de aprendizaje automático y diseño de circuitos, un terreno donde la colaboración entre universidades y empresas como IBM resulta clave. La investigación se sitúa en la intersección entre la informática, la física y la ingeniería electrónica, un espacio en el que también hay centros europeos muy activos.
Aunque gran parte del desarrollo experimental se ha realizado en Estados Unidos, el impacto potencial es claramente global. El sector de los centros de datos en la Unión Europea, sometido a regulaciones cada vez más estrictas en materia de consumo energético y emisiones, mira con atención este tipo de avances, que podrían ayudar a cumplir los objetivos de reducción de carbono sin frenar la adopción de la IA.
De acuerdo con los autores del estudio, el camino por delante pasa por escalar los prototipos, integrar el enfoque en infraestructuras existentes y contrastar el rendimiento con modelos de código abierto utilizados de forma generalizada por la comunidad investigadora, lo que facilitaría comparaciones más transparentes.
Aplicaciones prácticas: de los centros de datos a los dispositivos médicos
Si la computación analógica en memoria logra consolidarse, las repercusiones podrían notarse en múltiples ámbitos cotidianos. En primer lugar, afectaría a los grandes centros de datos que alimentan servicios en la nube y asistentes basados en IA, reduciendo los costes de operación y la factura eléctrica asociada a estos sistemas.
Pero uno de los cambios más llamativos se daría en los entornos donde la energía disponible es muy limitada. Hablamos de dispositivos médicos implantables o portátiles, tecnología vestible, sensores distribuidos en fábricas o infraestructuras críticas, y robots autónomos que necesitan funcionar durante largos periodos con baterías reducidas.
En estos escenarios, tener chips capaces de entrenar o reajustar modelos de forma local, con un consumo mínimo, abriría la puerta a aplicaciones que hoy resultan poco prácticas. Por ejemplo, sistemas que aprendan del propio paciente para adaptar tratamientos o monitorizar constantes vitales de manera más personalizada, sin enviar todos los datos a la nube.
En el ámbito industrial, sensores y robots podrían tomar decisiones más complejas en el borde de la red, facilitando una automatización más fina y flexible sin necesidad de recurrir constantemente a servidores remotos. Esto encaja con las estrategias europeas de digitalización y con la apuesta por reducir la dependencia de infraestructuras externas para servicios críticos.
Desde el punto de vista del usuario final, la mejora puede traducirse en dispositivos con mayor autonomía de batería y menos necesidad de conexión permanente, un aspecto que en el día a día resulta tan práctico como invisible: el sistema simplemente funcionaría más tiempo y de forma más silenciosa en términos de consumo.
Próximos pasos y posibilidades para Europa
El equipo liderado por Tianyi Chen ya ha señalado su intención de extender el enfoque de Residual Learning a un conjunto amplio de modelos de código abierto, lo que permitiría a otros grupos reproducir los resultados y explorar nuevas variantes adaptadas a diferentes tipos de hardware analógico.
Paralelamente, se están estudiando posibles colaboraciones con la industria para integrar estos conceptos en plataformas comerciales. Esta fase será clave para saber si la computación analógica en memoria puede competir de tú a tú con las soluciones digitales de alto rendimiento que dominan actualmente el mercado.
En Europa, donde existe un interés creciente por reforzar la soberanía tecnológica y la eficiencia energética, la AIMC podría encontrar un terreno fértil. Iniciativas relacionadas con chips de nueva generación, infraestructuras de supercomputación y proyectos de IA de bajo consumo podrían beneficiarse de la experiencia acumulada en este tipo de desarrollos.
Al mismo tiempo, quedarán por resolver retos importantes, como la fabricación a gran escala de hardware analógico fiable, la estandarización de herramientas de desarrollo y la formación de perfiles técnicos capaces de moverse con soltura entre la física del dispositivo y los algoritmos de aprendizaje profundo.
La computación analógica en memoria se está consolidando como una de las alternativas más serias para recortar el gasto energético asociado a la inteligencia artificial, manteniendo unas prestaciones competitivas. Si las próximas fases de investigación y despliegue confirman las promesas iniciales, podría convertirse en una pieza relevante del puzle tecnológico con el que Europa y el resto del mundo intentan compatibilizar la expansión de la IA con los objetivos de sostenibilidad y reducción de emisiones.