No data was found

Nvidia Lanza Nemotron 3: IA Abierta Para Sistemas Multiagente

Nvidia ha irrumpido en el panorama tecnológico con el lanzamiento de su innovadora familia de modelos de inteligencia artificial de código abierto, denominada Nemotron 3. Esta nueva generación, que se presenta en tres tamaños distintos: Nano, Super y Ultra, se fundamenta en una arquitectura híbrida de ‘mezcla de expertos’ (MoE). El objetivo principal es potenciar el desarrollo y la implementación de sistemas multiagente que sean, a la vez, más transparentes y considerablemente más eficientes.

La compañía tecnológica ha puesto de manifiesto los crecientes desafíos que enfrentan las empresas al migrar de simples ‘chatbots’ basados en un único modelo a complejos sistemas colaborativos de IA multiagente. Estos saltos tecnológicos suelen acarrear problemas como la sobrecarga de comunicación, la pérdida de contexto y, no menos importante, costos de inferencia elevados.

Ante esta coyuntura, Nvidia ha enfatizado la importancia crucial de adoptar sistemas de IA que ofrezcan transparencia, permitiendo así que las organizaciones depositen su confianza en los modelos que automatizan sus flujos de trabajo. Para responder directamente a estas necesidades, la empresa presenta su flamante familia Nemotron 3.

Estos flamantes modelos de IA de código abierto han sido concebidos con la visión de fomentar el desarrollo de una IA agéntica más “transparente, eficiente y especializada”, diseñada para optimizar el rendimiento en una vasta gama de industrias. Así lo detalló la propia Nvidia en un reciente comunicado publicado en su blog oficial.

La arquitectura subyacente de la familia Nemotron 3 es una nueva arquitectura híbrida de mezcla de expertos (MoE). Esta avanzada estructura está diseñada para facilitar a los desarrolladores la creación y despliegue de sistemas de IA multiagente más confiables y escalables.

En esencia, esta arquitectura permite que el modelo en cuestión seleccione y utilice únicamente las partes o ‘expertos’ necesarios para ejecutar una tarea específica. Esto se traduce en un aumento significativo de la eficiencia al generar resultados y gestionar tareas, especialmente cuando se ejecutan múltiples operaciones de forma simultánea, como es habitual en los sistemas agénticos.

La familia Nemotron 3 se despliega en tres configuraciones principales:

  • Nemotron 3 Nano: La opción más compacta, equipada con 30 mil millones de parámetros activos. Se destina a tareas específicas que demandan alta eficiencia y un uso optimizado de recursos computacionales.
  • Nemotron 3 Super: Con aproximadamente 100 mil millones de parámetros y hasta 10 mil millones activos por token, está optimizada para aplicaciones complejas que involucran múltiples agentes de IA.
  • Nemotron 3 Ultra: La versión más potente, ostenta cerca de 500 mil millones de parámetros y hasta 50 mil millones activos por token, ideal para abordar las tareas de IA más exigentes y complejas.

La versión Nemotron 3 Nano se posiciona como la más ventajosa en términos de costo computacional. Ha sido meticulosamente optimizada para ejecutar tareas como la depuración de software, la generación de resúmenes de contenido, la potenciación de flujos de trabajo de asistentes de IA y la recuperación de información, todo ello con costos de inferencia reducidos. Destaca su rendimiento, ofreciendo un rendimiento de tokens hasta cuatro veces superior al de su predecesor, el modelo Nemotron 2 Nano.

Nemotron 3 Nano tiene una mayor capacidad de recuerdo, lo que lo hace más preciso y capaz de conectar información en tareas largas y de varios pasos”, afirmó la compañía en relación a esta versión.

Las versiones Super y Ultra emplean el avanzado formato de entrenamiento NVFP4 de 4 bits de Nvidia sobre la arquitectura Nvidia Blackwell. Según la empresa, esta combinación permite una reducción significativa de los requisitos de memoria y una aceleración notable del proceso de entrenamiento de los modelos.


alt=»Diagrama de la arquitectura híbrida de mezcla de expertos (MoE)»
src=»https://www.infobae.com/new-resizer/sI-dK0fE2d31wL1QJ_W3Fk6J99s=/arc-editorial-uploads/q1w2e3r4t5y6u7i8o9p0/nemotron.png»
style=»width: 100%; height: auto;»>

Con esta completa gama de opciones, los desarrolladores ahora tienen la libertad de seleccionar el modelo abierto de la familia Nemotron 3 que mejor se adapte a sus requerimientos específicos, eligiendo el tamaño más apropiado para sus cargas de trabajo con agentes de IA.

Con Nemotron, estamos transformando la IA avanzada en una plataforma abierta que ofrece a los desarrolladores la transparencia y la eficiencia que necesitan para crear sistemas agénticos a escala”, declaró Jensen Huang, fundador y CEO de Nvidia.

En cuanto a su disponibilidad, el modelo Nemotron 3 Nano ya se encuentra accesible a través de plataformas como Hugging Face, proveedores de servicios de inferencia, y diversas plataformas empresariales de IA e infraestructuras de datos. También está disponible mediante Amazon Bedrock y cuenta con compatibilidad en Google Cloud, CoreWeave y Microsoft Foundry, entre otras opciones. Nvidia ha informado adicionalmente que está disponible como un microservicio a través de Nvidia NIM.

Por otro lado, el lanzamiento de las versiones Nemotron 3 Super y Ultra está programado para la primera mitad de 2026, cuando estarán disponibles para su uso por parte de los desarrolladores y empresas interesadas.

Fuente: Infobae

COMPARTIR ESTA NOTICIA

Facebook
Twitter

FACEBOOK

TWITTER