Por Sharon Wrobel

Arquitectura de computación Rubin, el chip de IA de próxima generación de Nvidia. (Cortesía de Nvidia)
El gigante estadounidense de chips, Nvidia, presentó el lunes por la noche su plataforma informática de próxima generación, compuesta por seis nuevos chips desarrollados parcialmente en Israel, que prometen avances en velocidad y eficiencia para el entrenamiento de modelos complejos de inteligencia artificial y agentes de IA.
Cada chip Rubin está diseñado para una función específica, que incluye procesamiento, memoria y redes. La plataforma está diseñada para funcionar en conjunto como parte de una plataforma informática integrada similar a una supercomputadora de IA.
Los ingenieros de los centros de I+D de Nvidia en Israel desarrollaron cuatro componentes clave de red y conectividad de la plataforma Rubin. Muchos de los procesadores y chips de red más avanzados de la compañía – cruciales para el entrenamiento de los modelos de IA más grandes – también se desarrollan allí.
Las actividades de I+D de Nvidia en Israel son las más grandes de la empresa fuera de Estados Unidos. El fabricante de chips emplea a más de 5.000 trabajadores en Israel en siete centros de I+D, desde Yokne’am, en el norte – la sede de Mellanox, adquirida por Nvidia en 2020 – hasta Tel Aviv, Jerusalén, Ra’anana y Beersheba, en el sur.
«La cantidad de computación necesaria para la IA se está disparando… Rubin llega en el momento justo, ya que la demanda de computación de IA, tanto para entrenamiento como para inferencia, se ha disparado», declaró Jensen Huang, fundador y director ejecutivo de Nvidia. «Con nuestra cadencia anual de entrega de una nueva generación de supercomputadoras de IA – y un diseño de código extremo en seis nuevos chips – Rubin da un gran paso hacia la próxima frontera de la IA».
En su intervención en la feria anual Feria de electrónica de consumo (CES por sus siglas en inglés), Huang anunció que la plataforma Rubin, que lleva el nombre de la astrónoma judía Vera Rubin, está en plena producción y estará disponible a partir del segundo semestre de 2026.

Los procesos de IA analizan enormes conjuntos de datos y requieren un rendimiento computacional ultrarrápido y una memoria masiva. El auge de las aplicaciones y cargas de trabajo de IA generativa, como ChatGPT de OpenAI, presenta nuevos desafíos para las redes dentro de los centros de datos. Como resultado de estos importantes cambios, los sistemas de IA en la nube deben entrenarse utilizando enormes cantidades de datos.
Nvidia afirmó que el lanzamiento de la plataforma informática de próxima generación se produce en medio de un cambio en la industria de la IA, donde las empresas están pasando del entrenamiento de modelos de IA a la obtención de respuestas razonadas de ellos. Las cargas de trabajo de IA modernas dependen cada vez más de la IA agéntica y de los modelos de razonamiento, que desafían los límites de la computación.
La plataforma Rubin marca la arquitectura de chip de tercera generación de Nvidia y sucederá a la Blackwell.

Entre los primeros proveedores de servicios en la nube en implementar la infraestructura del chip Rubin en 2026 se encontrarán Amazon Web Services, Google Cloud y Microsoft, socios de Nvidia, así como fabricantes de computadoras como Dell Technologies.
«La plataforma Rubin de Nvidia promete ofrecer la innovación radical en rendimiento y eficiencia necesaria para implementar los modelos más avanzados para miles de millones de personas», afirmó Mark Zuckerberg, fundador y director ejecutivo de Meta.
Nvidia prevé que laboratorios de IA, como Meta, Anthropic, OpenAI y xAI de Elon Musk, adopten la plataforma Rubin a medida que entrenan modelos de IA más grandes, potentes y complejos.

«Rubin de Nvidia será un motor para la IA», dijo Musk. «Si quieres entrenar e implementar modelos de vanguardia a escala, esta es la infraestructura que necesitas – y Rubin le recordará al mundo que Nvidia es el referente».
