Negocios

El escándalo de DeepSeek ha generado un panorama favorable para algunas empresas emergentes de chips de IA

Para muchas empresas emergentes de chips de inteligencia artificial que buscan desafiar a Nvidia, el escándalo de DeepSeek representa la oportunidad que tanto esperaban.

Un día después de que la empresa china DeepSeek borrara más de 800.000 millones de dólares de la capitalización de mercado de los gigantes estadounidenses de chips de inteligencia artificial, uno pensaría que Andrew Feldman, CEO de la empresa de chips de última generación Cerebras, estaría en una sala de crisis tratando de salvar su compañía. Sin embargo, lo que realmente está haciendo es celebrando.

“Estamos un poco contentos”, comentó a Forbes. “Son días maravillosos. No podemos responder a los teléfonos lo suficientemente rápido en este momento”.

Aunque parece contradictorio para una startup de chips de IA, Feldman asegura que su empresa, que podría salir a bolsa a finales de este año, ha recibido un gran interés desde que DeepSeek desafiara la convención de Silicon Valley de que más chips y mayores presupuestos siempre se traducen en mejor IA. Tras el lanzamiento de dos modelos de código abierto por parte de DeepSeek, que rivalizan con la mejor tecnología estadounidense, pero son mucho más baratos de entrenar y operar, surgió un pánico sobre la supremacía de la IA de EE.UU. Feldman cree que este cambio es clave, ya que apuesta a que el uso de la IA seguirá creciendo.

“Cada vez que mejoramos el rendimiento de los sistemas informáticos y reducimos sus costos, el mercado se hace más grande, no más pequeño”, afirmó Feldman. “Siempre”.

El optimismo de Feldman se debe a que Cerebras, actualmente valorada en 4 mil millones de dólares, fabrica chips diseñados específicamente para hacer más eficiente el uso de la IA. Este proceso se conoce como “inferencia”, que básicamente consiste en ejecutar un modelo de IA para permitirle “pensar” y razonar como lo haría un humano, a diferencia de entrenar un modelo con datos para enseñarle a hacer ese razonamiento desde cero. La inferencia es lo que sucede, por ejemplo, cuando pides a ChatGPT que redacte un correo electrónico o resuelva un problema de codificación.

En el campo de la inferencia, la dominancia de Nvidia no es tan fuerte, lo que ha abierto espacio para que surjan varias empresas emergentes. Otros jugadores de la industria de chips para empresas emergentes también comparten el entusiasmo por los cambios que DeepSeek ha provocado. “DeepSeek cambió el guion de la IA para el código abierto y la inferencia”, comentó Rodrigo Liang, CEO de SambaNova, valorada en 5.1 mil millones de dólares. Sunny Madra, director de operaciones de Groq (con un valor de 2.8 mil millones de dólares), le dijo a Forbes que ha notado un aumento en las suscripciones y el uso de sus chips desde que añadieron el modelo R1 de DeepSeek a su plataforma GroqCloud, donde alquilan acceso a su poder de cómputo. “Es realmente bueno para las personas que se centran en la inferencia”, señaló.

Robert Wachen, cofundador de Etched, una startup que recaudó 120 millones de dólares en una Serie A en junio, agregó: “Es una reacción que se venía esperando desde hace mucho tiempo, para que la inferencia se volviera mucho más importante que el entrenamiento”.

“No sabemos si fueron 6 millones o 60 millones, pero no fueron 600 millones”, comentó Rodrigo Liang, CEO de SambaNova.

Las afirmaciones de DeepSeek —que entrenó su modelo de lenguaje V3, con 671 mil millones de parámetros, en solo dos meses por tan solo $5,58 millones, mucho menos que los $100 millones que OpenAI gastó en su (aunque más grande) modelo GPT-4— están siendo fuertemente cuestionadas. Muchos en la industria creen que DeepSeek utilizó más recursos financieros y poder computacional del que la empresa ha revelado. El CEO de Scale, Alexandr Wang, afirmó que DeepSeek habría utilizado alrededor de 50,000 H100, los chips de última generación de Nvidia que están prohibidos en China. Sin embargo, el impacto del modelo económico de DeepSeek ha sorprendido a sus competidores estadounidenses. “No sabemos si fueron $6 millones o $60 millones, pero no fueron $600 millones”, dijo Liang de SambaNova.

DeepSeek no solo demostró que es posible entrenar un modelo de manera más económica, sino que también dejó claro que invertir más en inferencia produce mejores resultados. La semana pasada, DeepSeek lanzó el código abierto de R1, un modelo de razonamiento similar al modelo O1 de OpenAI, pero de uso gratuito (mientras que OpenAI cobra $200 al mes por su modelo). Y R1, como todos los modelos de razonamiento, utiliza más poder de inferencia a medida que “piensa” en los múltiples pasos de las consultas. La existencia de modelos que demandan mayor inferencia, combinada con un mayor número de personas utilizando IA por su menor costo, es una excelente noticia para empresas como Cerebras y otras similares.

Este tipo de reacción es, por supuesto, interesada para este grupo de compañías que compiten por destronar a Nvidia, que sigue valorada en 2.93 billones de dólares, incluso después de una caída del mercado del 17% el lunes, que eliminó casi 600.000 millones de dólares en valor. La caída fue interpretada como “un juicio sobre el hecho de que la mayor parte del negocio de Nvidia se basa en que grandes empresas compren muchos racks de GPU para el preentrenamiento”, no tanto para hacer inferencias, comentó Liang.

Sin embargo, el CEO de Nvidia, Jensen Huang, sigue siendo un competidor formidable. Ha estado promoviendo las capacidades de inferencia de la compañía durante meses, y todas las empresas emergentes de chips le dijeron a Forbes que la caída de las acciones de Nvidia fue una reacción exagerada. Después de la caída, la empresa respondió con una declaración destacando sus propias capacidades de inferencia: “La inferencia requiere una cantidad significativa de GPU Nvidia y redes de alto rendimiento”, dijo la compañía.

Mientras tanto, los grandes laboratorios de vanguardia en IA, como OpenAI, Anthropic y Google DeepMind, que han invertido miles de millones en las GPU de Nvidia, no han desperdiciado su dinero. DeepSeek ha demostrado a la industria cómo optimizar más allá de lo que se había logrado anteriormente, lo que solo significa una IA más grande y avanzada para todos. “Si tienes un proceso de entrenamiento más eficiente, entonces tomas el mismo cálculo y entrenas un modelo más grande”, comentó Evan Conrad, cofundador de la tienda de GPU San Francisco Compute Company, a Forbes.

Además de las proezas técnicas que Silicon Valley seguramente emulará, el éxito de DeepSeek ha tenido otras repercusiones para las empresas de chips más pequeñas que aún operan a la sombra de Nvidia. “Para aquellos de nosotros que somos los menos favorecidos, esto debería entusiasmarnos”, dijo Feldman.

Related posts

Existen 100 mil oportunidades laborales para migrantes repatriados desde Estados Unidos, según empresas de seguridad

4C News Digital

Poder del Consumidor lamenta la venta excesiva de alcohol y tabaco en tiendas de conveniencia

4C News Digital

Café en Crisis: El Impacto Desgarrador de la Crisis Climática en las Tierras Cafetaleras del Sur Mexicano

4C News Digital

Hay 100,000 toneladas de granos atrapadas en barcos debido al bloqueo del tren en la vía Veracruz-México

4C News Digital

Giro inesperado: Maquila tamaulipeca logra acuerdo y evita huelga

4C News Digital

Coparmex sugiere un incremento del 12% en el salario mínimo para el año 2025

4C News Digital