OpenAI invierte $10.000 millones en Cerebras: ChatGPT será hasta 70 veces más rápido con chips especializados

Publicado el

OpenAI firma un acuerdo de $10.000 millones con Cerebras para integrar chips de IA especializados y acelerar ChatGPT. Descubre cómo esta alianza estratégica revolucionará la velocidad y capacidad de los modelos de inteligencia artificial.

OpenAI, la vanguardista compañía detrás de ChatGPT, ha sellado un acuerdo multimillonario con Cerebras Systems, una innovadora empresa de chips de inteligencia artificial, en un movimiento estratégico que busca transformar drásticamente la velocidad y la capacidad de respuesta de sus modelos de IA. El acuerdo, valorado en más de 10.000 millones de dólares, promete una integración masiva de infraestructura informática especializada que acelerará significativamente las interacciones con ChatGPT y otras herramientas de IA de OpenAI.

La alianza, anunciada oficialmente el 14 de enero de 2026, aunque reportada por varias fuentes el 15 y 16 de enero, contempla la adquisición de hasta 750 megavatios de capacidad de computación de Cerebras durante un período de tres años, con un despliegue progresivo que se extenderá hasta 2028. Esta iniciativa es un paso crucial en la estrategia de OpenAI para asegurar la infraestructura necesaria frente a una demanda de usuarios en constante crecimiento, que actualmente supera los 800 millones de personas que utilizan sus herramientas semanalmente.

El objetivo principal de esta colaboración es potenciar la inferencia de IA, es decir, el proceso por el cual los modelos de inteligencia artificial responden a las consultas y generan contenido para los usuarios. Los chips Wafer-Scale Engines (WSEs) de Cerebras son reconocidos por su diseño poco convencional, incluyendo un procesador del tamaño de un plato que mantiene los datos en un solo chip masivo, reduciendo los cuellos de botella y aumentando la velocidad. Esta arquitectura permite que los modelos de lenguaje grandes en los sistemas de Cerebras entreguen respuestas hasta 15 veces más rápido que los sistemas basados en GPU, y algunas fuentes incluso sugieren mejoras de hasta 70 veces en la velocidad de inferencia para ciertos modelos.

La necesidad de esta inversión masiva surge de la presión que los servicios de IA a gran escala ejercen sobre la disponibilidad de energía, las redes y la conectividad entre centros de datos. OpenAI busca alternativas más rápidas y rentables a las GPU dominantes de Nvidia, diversificando así su infraestructura. Este acuerdo con Cerebras se suma a otros esfuerzos de la compañía para expandir su capacidad, incluyendo el trabajo en un chip de IA personalizado con Broadcom y planes para implementar los últimos aceleradores de AMD.

Para los usuarios de ChatGPT y otras aplicaciones de OpenAI, esta mejora en la velocidad de inferencia se traducirá en experiencias mucho más fluidas y naturales. Las consultas complejas, la generación de código, la creación de imágenes y el uso de agentes de IA verán una reducción drástica en el tiempo de respuesta. Específicamente, en modos de voz, donde la inmediatez es clave, las interacciones podrían sentirse como conversaciones reales, permitiendo un flujo más dinámico y sin interrupciones.

La colaboración entre OpenAI y Cerebras no es una novedad; ambos equipos han estado compartiendo investigaciones y desarrollo desde 2017, lo que sugiere que esta asociación es el resultado de una estrategia cuidadosamente orquestada y no una respuesta apresurada a las presiones del mercado. Greg Brockman, cofundador y presidente de OpenAI, ha afirmado que esta alianza convertirá a ChatGPT en la plataforma de IA no solo más capaz, sino también la más rápida del mundo, lo que ayudará a desbloquear la próxima generación de casos de uso y atraerá a los próximos mil millones de usuarios a la IA.

Cerebras, por su parte, se beneficiará enormemente de esta victoria de alto perfil, que la acerca a capitalizar las decenas de miles de millones de dólares que se invierten en la infraestructura de computación de IA. La empresa tiene planes de construir o arrendar nuevos centros de datos llenos de su hardware personalizado, con la capacidad informática entrando en línea en etapas hasta 2028. Este acuerdo es también significativo para Cerebras, ya que se prepara para un segundo intento de cotización pública, con una potencial salida a bolsa en 2026, después de un aplazamiento en 2025.

El acuerdo subraya la intensa carrera entre las empresas de IA para asegurar vastos recursos informáticos, a medida que la inversión en infraestructura de IA se acelera. Algunos analistas, sin embargo, han advertido que el aumento de las valoraciones y el gasto podrían recordar a burbujas tecnológicas pasadas. Además, se ha señalado un posible conflicto de intereses, ya que Sam Altman, el director ejecutivo de OpenAI, ha invertido personalmente en Cerebras. A pesar de estas consideraciones, la apuesta de OpenAI por la tecnología de Cerebras es un claro indicador de que la velocidad y la eficiencia en la inferencia son ahora una prioridad fundamental en la evolución de la inteligencia artificial.

Tecnología, OpenAI, Cerebras, ChatGPT, Chips IA, Inferencia IA,