China lanzó el algoritmo de inteligencia artificial DeepSeek-R1 y las acciones de las tecnológicas estadounidenses se desploman

Fue diseñado para competir con algunos de los modelos más avanzados de IA del mercado, como ChatGPT de OpenAI, Gemini de Google y Copilot de Microsoft. Su entrenamiento resultó mucho más barato, y es de código abierto, además de poder descargarse gratis. Pone en jaque el modelo de negocios Silicon Valley basado en enormes inversiones, secretismo y hardware de última generación

Internacional27/01/2025ClaudiaClaudia
deepseek-1024x574

NVIDIA Corporation perdió más de 384.000 millones de dólares en valor de bolsa por la irrupción de la startup china de inteligencia artificial DeepSeek. El rey del hardware para la aceleración y entrenamiento en IA sufrió una abrupta pérdida de valor en Bolsa con el anuncio del modelo R1 de DeepSeek, con amplias ventajas sobre sus homólogos de Silicon Valley.

NVIDIA acumula una caída en la Bolsa récord. El viernes sus acciones tenían un valor de 142,62 dólares y este lunes, para muchos un lunes negro, estas acciones bajaron a 126,41 dólares. El motivo es que el modelo de IA DeepSeek R1 se ha mostrado como uno de los más avanzados del mundo y eso pese a que China tiene vetado el hardware más avanzado del mercado por las restricciones de Estados Unidos.

El modelo estrella de DeepSeek, el R1, fue diseñado para competir con algunos de los modelos más avanzados de IA del mercado, como ChatGPT de OpenAI, Gemini de Google y Copilot de Microsoft.

Las acciones de NVIDIA se derrumbaban en la apertura de la Bolsa más de un 12%, en la mayor pérdida de capitalización bursátil o valor por parte de una compañía en un solo día: más de 400.000 millones de dólares (unos 380.000 millones de euros).

A la espera de que se confirme al cierre de la jornada, el récord negativo bate la anterior marca de Nvidia, del 3 de septiembre de 2024. Entonces perdió 278.900 millones de dólares en un solo día tras presentar unos resultados que decepcionaron al mercado. El valor se recuperó con creces de ese desplome, y alcanzó su máximo histórico hace solo tres semanas, el 6 de enero, cuando su cotización superaba los 149 dólares. Ahora, la inesperada entrada en juego de un competidor chino y, sobre todo, la idea de que las barreras de entrada a la industria de los chips de IA son más permeables de lo que se pensaba en un principio, retrocedió a  un valor inferior a los 130 dólares que la relega a la tercera posición de las cotizadas más valiosas, por detrás de Apple y Microsoft.

DeepSeek-R1 es un Gran Modelo Lingüístico (LLM, por sus siglas en inglés) que no solo es eficiente en la generación de texto, sino que también es capaz de realizar tareas complejas como la programación, la resolución de problemas matemáticos y la inferencia de lenguaje natural.

A diferencia de otros modelos, DeepSeek-R1 se destaca por su capacidad de ofrecer respuestas precisas y concisas, lo que lo convierte en una herramienta muy útil para tareas como la automatización empresarial y el desarrollo de software. Además, uno de los aspectos más atractivos de DeepSeek-R1 es que es completamente gratuito para los usuarios, lo que lo pone al alcance de un público mucho más amplio.

Apenas pasaron siete días desde su lanzamiento, pero DeepSeek R1 provocó un terremoto en los mercados, con caídas de las acciones también de Microsoft y ASML. La amenaza para la industria estadounidense de IA está en su naturaleza abierta: DeepSeek está democratizando tecnología que Silicon Valley mantiene celosamente guardada.

Es que la industria occidental de IA se ha construido sobre dos pilares que DeepSeek acaba de dinamitar: la necesidad de inversiones multimillonarias en hardware y el secretismo extremo sobre la arquitectura de sus modelos.

El nuevo jugador puso en jaque a los inversores, que ahora se preguntan cómo justificar proyectos como Stargate (y su medio billón de dólares) si existe una alternativa abierta y eficiente. Y qué valor tiene la propiedad intelectual cuando competidores como los chinos publican abiertamente sus avances.

La estrategia china parece clara: usar el código abierto como caballo de Troya para desestabilizar el dominio occidental en IA. Y DeepSeek eligió el momento del lanzamiento: cuando los modelos estadounidenses muestran signos de estancamiento (por ejemplo el retrasado GPT-5) y las inversiones en infraestructura se disparan.

Algunos expertos calificaron el momento como el del Sputnik para la IA: cuando Estados Unidos descubrió que no tenía el monopolio del avance en la carrera espacial. 

A pesar de las restricciones de Estados Unidos, mucho más accesible, económico y que gasta menos energía

deepseek-fundador

El programa procesa las solicitudes a través de “cadenas de pensamiento” que emulan los procesos de razonamiento humano. Fue entrenado con base en el funcionamiento del chatbot V3, también de DeepSeek, mediante técnicas de aprendizaje de refuerzo, por la que se recompensa al sistema cuando llega a una respuesta correcta y cuando describe su «pensamiento» en los procesos de resolución. Los investigadores también utilizaron una arquitectura de “mezcla de expertos”, que habilita al modelo para decidir qué redes de procesamiento debe activar para cada tarea.

La metodología resultó en un costo de entrenamiento cercano a los 6 millones de dólares, una cifra notablemente menor a los más de 60 millones que Meta destinó para capacitar a su modelo Llama 3.1. Este ahorro en recursos informáticos reduce de manera drástica los precios de acceso para los usuarios, y así el uso de DeepSeek-R1 cuesta una trigésima parte de lo que implica utilizar OpenAI o1.

Mario Krenn, director del Laboratorio de Ciencias Artificiales del Instituto Max Planck, señala que «un experimento que costaba más de 300 libras con OpenAI o1, ahora puede hacerse por menos de 10 dólares. Esta es una diferencia drástica que influirá en la futura adopción (del algoritmo chino)».

La idea convencional era que las empresas de inteligencia artificial necesitaban chips informáticos caros y de última generación para entrenar a los mejores sistemas, lo que justificó un enorme gasto por parte de las mayores empresas tecnológicas estadounidenses, como Alphabet y Meta Platforms.

Sin embargo, DeepSeek no tiene esa potencia financiera, y sus modelos están a la par o con ventajas sobre los principales rivales estadounidenses. Además, la start up china dice que utiliza chips menos avanzados, combinados con técnicas innovadoras de entrenamiento de modelos.

Por lo tanto, crece la duda de si realmente se necesitan chips como los de Nvidia y otros microprocesadores para llevar a cabo tareas de AI y plantea dudas sobre el monto de inversión para toda la cadena de suministro de inteligencia artificial.

DeepSeek-R1 ya se publicó bajo una licencia del Instituto Tecnológico de Massachusetts como una herramienta «open-weight». Esto significa que sus cadenas de pensamiento son accesibles para los investigadores y que el modelo puede reutilizarse sin restricciones. No es de código abierto, sin embargo, porque sus datos de entrenamiento no están disponibles. Pese a ello, Marco Dos Santos, científico informático de la Universidad de Cambridge, afirmó que la accesibilidad del programa “permite una mejor interpretación de los procesos de razonamiento del modelo”.

A pesar de su enfoque de código abierto, DeepSeek sigue siendo rentable, una hazaña inusual en un campo dominado por subsidios y pérdidas. El fundador de la start up china ve el código abierto como una estrategia y una declaración cultural: “Nuestro valor reside en nuestro equipo, que crece y acumula conocimientos. Construir una organización y una cultura que puedan innovar constantemente es nuestra verdadera fortaleza”, dijo Liang Wenfeng, fundador de DeepSeek en una entrevista.

Los expertos destacan que DeepSeek-R1 se ha construido a pesar de los estrictos controles de exportación de hardware impuestos por Estados Unidos. El expresidente estadounidense Joe Biden presentó a principios de este mes un programa para limitar aún más el envío de chips y modelos base de inteligencia artificial a China y otros países. François Chollet, investigador de IA y creador de la biblioteca de aprendizaje profundo Kera, enfatizó que “el hecho de que DeepSeek-R1 provenga de China demuestra que la eficiencia en el uso de recursos es más crucial que la mera escala de cómputo”. Alvin Wang Graylin, vicepresidente global de HTC, agregó que “la ventaja que Estados Unidos alguna vez percibió tener se ha reducido. Ambas naciones deben adoptar un enfoque colaborativo para desarrollar una IA avanzada en lugar de perpetuar la actual competencia estéril de carrera armamentista”.

Te puede interesar
Lo más visto
policiales

Policía baleó a otro en la zona norte: le metió un tiro en el abdomen

Claudia
Policiales15/02/2025

Según la información preliminar, un civil y tres policías manipulaban un arma en la vía pública, en Vila y Anchoris. Según uno de los uniformados, se le escapó un tiro que fue a dar contra la humanidad de uno de sus pares, que se encuentra en disponibilidad y que fue derivado al hospital Eva Perón de Granadero Baigorria

Suscríbete al newsletter para recibir periódicamente las novedades en tu email