Un grupo de científicos de la Universidad Nacional de Singapur ha dado un paso crucial en la evolución de la inteligencia artificial al crear una nueva arquitectura de computación en memoria (CIM). Este diseño integra el procesamiento y el almacenamiento de datos en un solo espacio físico, una solución que promete cambiar radicalmente la eficiencia de la IA. De acuerdo con el sitio especializado Tech Xplore, el sistema logra ejecutar modelos de IA a gran velocidad, mientras que el consumo energético se reduce a menos de la mitad en comparación con los métodos convencionales.
La innovación emplea una matriz de memristores de diseleniuro de hafnio y surge como respuesta directa a la creciente necesidad de optimizar los recursos en IA. Para ponerlo en perspectiva, el entrenamiento de un modelo de lenguaje masivo como GPT-3 puede demandar más de USD 10 millones y más de 700.000 litros de agua.
Esta característica se vuelve fundamental frente al cuello de botella que representa la arquitectura tradicional de los ordenadores. El profesor Ang Kah Wee, del Departamento de Ingeniería Eléctrica y Computación de la Universidad Nacional de Singapur, señaló que la mayor parte del tiempo y de la energía en las tareas de IA no se consume en el procesamiento en sí, sino en el movimiento de datos entre la memoria y el procesador.
El sistema desarrollado, cuyos detalles fueron publicados en la prestigiosa revista Nature Communications, elimina esa transferencia: los datos se almacenan y procesan en un mismo lugar gracias a los memristores. A diferencia de los transistores comunes, estos dispositivos mantienen su estado de resistencia sin necesidad de energía y operan de forma similar a las sinapsis del cerebro humano.

Diseño y rendimiento del sistema
La arquitectura se sustenta en una matriz de 1.024 memristores (matriz 32×32) fabricados con diseleniuro de hafnio, un material bidimensional que consume poca energía y permite cambios de estado ultrarrápidos. Cada memristor cuenta con un selector de silicio que actúa como un controlador de tráfico para evitar interferencias eléctricas no deseadas, conocidas como corriente parásita. Este diseño uno a uno facilita el control de cada unidad, posibilita una alta densidad de integración y asegura la compatibilidad con los procesos estándar de fabricación de semiconductores.
El equipo logró ensamblar la delicada capa activa de los memristores directamente sobre sustratos de silicio sin causar daños, lo que representa una ventaja fundamental para su futura adopción industrial. La integración de circuitos periféricos elimina la necesidad de conversores analógico-digitales tradicionales, reemplazados por sensores de dominio temporal que interpretan las señales eléctricas midiendo el tiempo necesario para que ocurran cambios de voltaje. Este método reduce de manera significativa el tamaño y el gasto energético de los componentes.
Durante las pruebas realizadas con una red neuronal convolucional simple para reconocimiento de patrones, el sistema alcanzó una precisión del 97,5%, un valor prácticamente idéntico al de los sistemas digitales convencionales, pero con un consumo energético notablemente inferior. Los memristores demostraron una capacidad de conmutación —la velocidad a la que pueden encenderse y apagarse para procesar datos— en nanosegundos y soportaron más de 26.000 ciclos de programación sin mostrar signos de degradación.
Este resultado posiciona al sistema como una alternativa viable para aplicaciones en edge computing —procesamiento de datos directamente en el dispositivo, sin depender de la nube—, sistemas autónomos y entornos donde la energía es un recurso crítico y la latencia debe reducirse al mínimo.

Camino hacia la producción y nuevas aplicaciones
Ang destacó que el diseño propuesto es compatible con silicio, lo que implica que no requiere nuevos procesos de fabricación ni materiales exóticos. Esto facilita una posible transición desde la investigación hacia la producción en masa para impulsar el hardware especializado en IA.
La combinación de conmutación rápida, alta durabilidad y bajo voltaje hace que el sistema sea ideal para aplicaciones de computación neuromórfica. Este campo busca emular el funcionamiento del cerebro humano, y la integración directa de funciones de activación —elementos esenciales de las redes neuronales— en el hardware elimina etapas de procesamiento adicionales, mejorando así la eficiencia general del sistema.
Por ahora, el grupo de investigación explora el escalado de la matriz y el manejo de conjuntos de datos más complejos, con la meta de acercar estas capacidades a usos en tiempo real.
Fuente: Infobae