Qué señala DeepSeek sobre el rumbo de la IA
por Toby E. Stuart

El lanzamiento de su modelo R1 por parte de DeepSeek a finales de enero de 2025 provocó un fuerte caída de las valoraciones bursátiles en toda la cadena de valor de la IA, desde los desarrolladores de modelos hasta los proveedores de infraestructuras. Los inversores vieron el R1, un rival poderoso pero económico para los modelos de IA estadounidenses establecidos, como una amenaza para las altísimas proyecciones de crecimiento que habían justificado unas valoraciones desmesuradas. Sin embargo, para aquellos que han estado prestando atención, la llegada de DeepSeek —o algo parecido— era inevitable.
Aun así, este es un momento útil para reflexionar sobre el rumbo de la IA. En lugar de entender la R1 de DeepSeek como un hito, es más útil verla como una señal de dónde estamos realmente ahora mismo y un presagio de lo que está por venir.
Estas son cinco lecciones que los líderes empresariales deberían aprender de este momento.
Del reconocimiento de patrones a la resolución de problemas
Los grandes modelos lingüísticos se llevaron el espectáculo en 2023 y 2024, pero en 2025 nos asombrarán los sistemas de IA que pueden razonar, planificar y funcionar de forma autónoma. Esto se debe a que dos tendencias relacionadas dominarán el panorama de la IA este año: el auge de los modelos de razonamiento y la llegada de los agentes de IA preparados para el horario de máxima audiencia. Estas capacidades se basan en gran medida en el aprendizaje por refuerzo (RL), que es un método para entrenar a un agente inteligente para que tome una secuencia de buenas decisiones. Piense en ello como aprender a jugar a un videojuego. Cuando da en el blanco, salta por encima de una zanja ancha o adivina una palabra, gana puntos. A medida que juega, aprende a realizar acciones que son recompensadas.
La última generación de modelos, como el GPT 4, comparaban patrones increíbles: se entrenaban previamente con grandes cantidades de información, lo contextualizaban todo y nos dejaron boquiabiertos con sus asombrosas predicciones de la siguiente palabra para responder a nuestras instrucciones.
DeepSeek R1 es un modelo de razonamiento gratuito para todos, al igual que los modelos ChatGPT o3 mini y Copilot o1 de Microsoft, que acaban de lanzar OpenAI. Estos modelos representan un cambio crucial de una predicción incierta de la siguiente palabra a una resolución metódica de problemas que se basa en gran medida en la RL. El razonamiento les permite realizar ciertas tareas mucho mejor que los modelos anteriores, como resolver problemas matemáticos. Piense en intentar multiplicar dos números grandes. La mayoría de la gente no puede mirarlos y adivinar la respuesta: tienen que sacar lápiz y libreta, dividir el problema en pasos y resolverlo. Los modelos de razonamiento también pueden hacer esto cada vez más.
Con la capacidad de desglosar y razonar los problemas, los agentes de IA pueden aprender a navegar de forma dinámica por flujos de trabajo complejos, adaptándose a la nueva información a medida que se presenta en el proceso de finalización de las tareas, en lugar de limitarse a guiones rígidos y predefinidos. Esto es justo lo que hacemos los humanos en nuestro trabajo, por ejemplo, cuando los agentes del servicio de atención al cliente responden a las consultas, los empleados de la administración crean horarios y planifican los viajes, y cuando los analistas de datos recopilan información, la analizan y escriben un informe.
El punto de inflexión económico de la IA
Uno de los grandes titulares en torno a DeepSeek R1 es su coste de desarrollo declarado de 5,5 millones de dólares. Esa cifra es engañosa. Es probable que solo refleje el coste de una única formación, excluyendo los gastos de infraestructura, ingeniería e implementación. Una cifra total que incluía esos gastos sería mucho más alto — aunque sigue siendo significativamente inferior a las estimaciones de los costes de desarrollo para OpenAI, Anthropic, Google y otros modelos contra los que compite R1.
En lugar de centrarnos únicamente en estas cifras, deberíamos prestar más atención a los costes de inferencia, es decir, los gastos asociados con el uso real de los modelos una vez entrenados. La formación requiere una inversión inicial sustancial, pero los costes de inferencia son cruciales para las aplicaciones empresariales. DeepSeek R1 y otros participantes recientes, incluida la serie de modelos Llama de Meta, representar grandes reducciones en estos gastos. Por regla general, la caída de los precios tiende a estimular la competencia e impulsar la adopción por parte de los usuarios. Basta con pensar en la caída de los precios ajustados por rendimiento en los mercados de todos los productos electrónicos (teléfonos inteligentes, televisores, ordenadores portátiles) impulsada por el aumento de la eficiencia en la producción de semiconductores. Esta es la Ley de Moore que impulsa las caídas de precios y el aumento de las tasas de adopción de demasiados productos finales como para nombrarlos. Lo mismo ocurre en la IA.
La IA de código abierto y la patentada coexistirán
Una de las razones por las que deberíamos haber esperado un desarrollo como DeepSeek R1 es por la economía básica del software de código abierto. Históricamente, los proyectos de código abierto han desafiado las soluciones propietarias al reducir significativamente los costes, como Unix/Linux en la informática empresarial, Android en el sistema operativo móvil, MySQL en las bases de datos y, por supuesto, Llama en la IA. La ventaja económica del software de código abierto es bien documentado. Es predecible que la IA siga una trayectoria similar.
En la IA, los modelos patentados de empresas como OpenAI, Alphabet y Anthropic se mantienen a la vanguardia en cuanto a capacidades multimodales, seguridad (parece ser DeepSeek R1 fácil de hackear) y otros puntos de referencia. Aun así, los modelos de peso abierto como DeepSeek R1 han cerrado la brecha en el razonamiento basado en el texto y el modelo es increíblemente eficiente. El potencial de los casos de uso empresarial del modelo se refleja en la decisión de un día para otro de Microsoft de integrar DeepSeek R1 en Azure. Gracias a sus costes más bajos y a su mayor flexibilidad, los modelos abiertos como DeepSeek R1 resultarán muy atractivos para los usuarios. También lo harán un montón de modelos lingüísticos pequeños, tipo El Phi-4 de Microsoft, que han demostrado un buen rendimiento en muchos casos de uso.
Por ahora, parece que podemos esperar una estructura de mercado con una gama diversa de jugadores, frente a un escenario en el que el ganador se lo lleva casi todo.
La escasez de silicio impulsa la innovación algorítmica
Otra parte de la reacción a DeepSeek R1 se ha centrado en la «sorprendente» noticia de que China parece haber cerrado la brecha en los Estados Unidos en los modelos de IA fronterizos. Las restricciones estadounidenses a la exportación tenían por objeto limitar el acceso de China a los semiconductores más avanzados y ayudar a preservar el liderazgo de las empresas estadounidenses en la investigación de la IA. (Algunos sostienen que solo esto refuerza la necesidad de esos controles.) El hecho de que este enfoque no haya tenido un éxito total no debería sorprendernos mucho. ¿Recuerda el viejo adagio de que la necesidad es la madre de la invención? Las restricciones del silicio han llevado a los investigadores chinos a priorizar la eficiencia algorítmica por encima de la potencia de cálculo bruta, una estrategia que podría resultar profética como consumo de energía del centro de datos explota. Pero este hecho —y la elegancia de la investigación algorítmica realizada en China— es cierto desde hace algún tiempo. El panorama de la LLM en China ha crecido rápidamente con 117 LLM disponibles para uso público el año pasado. A pesar de las estrictas restricciones en cuanto a los datos de entrenamiento y a los resultados, bastantes LLM chinos son competitivos en las tablas de clasificación mundiales, especialmente sobresaliendo en las tareas en chino. La reserva de talentos de IA allí es excepcional; la propia DeepSeek cuenta con un equipo de investigación extremadamente innovador, y la profundidad del talento de la IA en el país es enorme.
DeepSeek R1 no lo cambió todo
Dicho todo esto, los principales laboratorios de IA e hiperescaladores de Occidente —incluidos Microsoft, Meta, Alphabet y Amazon— seguirán invirtiendo a niveles vertiginosos para garantizar que la demanda de GPU e infraestructuras de IA de última generación siga siendo alta. Los modelos abiertos no sustituirán por completo a los propietarios y es probable que veamos que se consumen inmensos recursos computacionales en el entrenamiento y la inferencia de modelos. Como resultado, la lucha codo a codo por los sistemas de IA más capaces seguirá impulsando la demanda de chips de alto rendimiento e infraestructuras de nube a gran escala, a pesar de que los costes de inversión ahora superan con creces los ingresos de muchos actores de la industria.
Además, los grandes compradores de infraestructuras en Occidente están sin duda preocupados por el riesgo de suministro, ya que la mayoría de los semiconductores avanzados se fabrican en una planta de TSMC ubicada en Taiwán. Dada la tensión en las relaciones entre Estados Unidos y China y el valor estratégico de Taiwán, es probable que los principales compradores de Occidente estén pensando en acumular potencia de cálculo.
Podría decirse que el ritmo de avance de la IA —así como la importancia social y económica de este conjunto de tecnologías— no tienen precedentes históricos. Con el aprendizaje reforzado que permite avances en los modelos de razonamiento y los agentes de IA, lo que a su vez conducirá a innumerables aplicaciones nuevas, 2025 estará repleto de momentos de «DeepSeek». Espere un avance continuo, un aumento de los casos de uso en el mundo real y el verdadero comienzo de una remodelación de la economía a escala sísmica.
Artículos Relacionados

La IA es genial en las tareas rutinarias. He aquí por qué los consejos de administración deberían resistirse a utilizarla.

Investigación: Cuando el esfuerzo adicional le hace empeorar en su trabajo
A todos nos ha pasado: después de intentar proactivamente agilizar un proceso en el trabajo, se siente mentalmente agotado y menos capaz de realizar bien otras tareas. Pero, ¿tomar la iniciativa para mejorar las tareas de su trabajo le hizo realmente peor en otras actividades al final del día? Un nuevo estudio de trabajadores franceses ha encontrado pruebas contundentes de que cuanto más intentan los trabajadores mejorar las tareas, peor es su rendimiento mental a la hora de cerrar. Esto tiene implicaciones sobre cómo las empresas pueden apoyar mejor a sus equipos para que tengan lo que necesitan para ser proactivos sin fatigarse mentalmente.

En tiempos inciertos, hágase estas preguntas antes de tomar una decisión
En medio de la inestabilidad geopolítica, las conmociones climáticas, la disrupción de la IA, etc., los líderes de hoy en día no navegan por las crisis ocasionales, sino que operan en un estado de perma-crisis.