Nvidia presentó nuevos modelos de inteligencia artificial (IA) en el evento CES 2025. Estos se ejecutan localmente en equipos con GPU GeForce RTX Serie 50. Los modelos, denominados “modelos básicos” y ofrecidos como microservicios Nvidia NIM, están diseñados para impulsar el desarrollo de agentes digitales, la generación de contenido, la productividad y otros flujos de trabajo ligados a la IA desde el entorno de la PC.
La nueva generación de GPU GeForce RTX Serie 50 integra la arquitectura Blackwell, la cual incluye compatibilidad con cálculos FP4, un avance que duplica el rendimiento de inferencia de IA. Estas GPU ofrecen 32 GB de VRAM y logran hasta 3.352 billones de operaciones por segundo en tareas de inteligencia artificial. Con esta capacidad, es posible ejecutar modelos generativos localmente, en un espacio de memoria menor que el requerido por la generación previa de hardware.
La empresa explicó que la plataforma GeForce ha sido un recurso clave en el área de la inteligencia artificial desde hace varios años. El desarrollo de la red de aprendizaje profundo AlexNet, entrenada en 2012 con la entonces GeForce GTX 580, es uno de los antecedentes históricos citados como ejemplo de esta trayectoria. De acuerdo con la compañía, más del 30 % de los trabajos de investigación sobre IA publicados el año pasado utilizaron GeForce RTX en sus procesos.
La empresa también hizo referencia a herramientas que permiten usar modelos de IA sin necesidad de programar extensamente. Ejemplos como AnythingLLM, ComfyUI, Langflow o LM Studio simplifican la integración de la IA en diversas tareas. Nvidia señala que la combinación de dichas herramientas con microservicios NIM facilitará la adopción y despliegue de modelos de IA generativa en la PC.
Para cubrir la creciente demanda de equipos preparados para tareas de inteligencia artificial, varios fabricantes y ensambladores de sistemas —entre ellos Acer, ASUS, Dell, GIGABYTE, HP, Lenovo, MSI, Razer y Samsung— lanzarán PC listas para NIM con GPU GeForce RTX Serie 50. Corsair, Falcon Northwest, LDLC, Maingear, Mifcon, Origin PC, PCS y Scan también ofrecerán opciones locales.
Nuevos microservicios y modelos para impulsar la IA
Los microservicios NIM están diseñados para ofrecer la infraestructura requerida a fin de ejecutar modelos de IA de distinta índole en la PC. Se pondrán a disposición diversas soluciones desarrolladas por empresas como Black Forest Labs, Meta, Mistral y Stability AI, centradas en casos de uso que incluyen grandes modelos de lenguaje (LLM), modelos de visión, generación de imágenes, síntesis de voz y extracción de datos de PDF.
En el evento se anunció igualmente la llegada de la familia de modelos abiertos Llama Nemotron, la cual abarca el modelo Llama Nemotron Nano. Este ofrece capacidades en tareas de seguimiento de instrucciones, llamadas a funciones, chat, codificación y operaciones matemáticas, y se incluirá como microservicio NIM para PC y estaciones de trabajo con GPU RTX. Todos los microservicios NIM se optimizan para la implementación en GPU Nvidia, ya sea en la nube, centros de datos o equipos RTX de escritorio.
De acuerdo con directivos de Microsoft, la integración con Windows 11 y el entorno Windows Subsystem for Linux (WSL) facilitará a desarrolladores y entusiastas la descarga, configuración y ejecución de microservicios NIM directamente en sus computadoras personales. Estos servicios serán compatibles con diversos marcos de desarrollo y agentes de IA —por ejemplo, AI Toolkit para VSCode, AnythingLLM, ComfyUI, CrewAI, Flowise AI, LangChain, Langflow y LM Studio— a través de puntos de conexión estándar.
Project R2X: un avatar para la PC
Nvidia presentó asimismo Project R2X, un prototipo de asistente virtual con visión artificial capaz de integrarse a aplicaciones de escritorio, videoconferencias y documentos. El avatar funciona con Nvidia RTX Neural Faces, un algoritmo generativo que combina la rasterización tradicional con píxeles generados por IA. Para la animación de labios y lengua, se emplea un modelo Audio2Face 3D basado en difusión.
Este asistente permite la conexión a servicios de IA en la nube, como GPT4 o Grok, y a microservicios NIM para funciones adicionales, como extracción de información en PDF o uso de modelos alternativos. Habilitará un registro para quienes deseen recibir información sobre las actualizaciones de Project R2X.
AI Blueprints y microservicios en la PC
La compañía también anunció la disponibilidad de AI Blueprints, que son flujos de trabajo de referencia para la implementación de IA en computadoras con GPU RTX. Algunos ejemplos incluyen la conversión de PDF a podcasts y la generación de imágenes basada en modelos 3D.
En el primer caso, el blueprint analiza documentos PDF para extraer texto, imágenes y tablas, y luego crea un guion editable para un podcast, el cual puede grabarse mediante voces integradas o emplear muestras de voz del usuario. Adicionalmente, la conversación en tiempo real con el presentador virtual facilita la interacción y la búsqueda de información puntual sobre el contenido.
En el segundo caso, la generación de imágenes cuenta con un componente guiado por 3D. Mediante objetos en un entorno 3D (por ejemplo, Blender), los creadores pueden posicionar elementos para definir la composición de la imagen final. Después, se utiliza el microservicio FLUX NIM para producir imágenes de alta calidad que se ajustan a la escena diseñada.
Los microservicios Nvidia NIM y los AI Blueprints estarán disponibles a partir de febrero. En una primera etapa, se brindará soporte para las GPU profesionales GeForce RTX Serie 50, GeForce RTX 4090 y 4080, además de las Nvidia RTX 6000 y 5000. Se prevé que otras GPU se sumen al soporte de estas soluciones en el futuro.