El Potencial Impacto de Deepseek en Ciertas Industrias

Una visión matizada

Hola y bienvenid@ de nuevo a Invirtiendo en Calidad,

Como compartí en mi último Noticias de la Semana, una startup china enfocada en el desarrollo de modelos de AI llamada Deepseek lanzó recientemente un modelo a la altura en términos de rendimiento con el modelo más reciente de OpenAI. ¿Cuál es el problema? Que Deepseek afirmó haber invertido solo $6 millones en entrenar su modelo, algo que contrasta de manera significativa con las inversiones realizadas por empresas como OpenAI o Anthropic para desarrollar los suyos (Anthropic afirmó que su modelo actual cuesta entre $100 millones y $1,000 millones). Por lo tanto, el debate en la industria parece girar en torno a que los chinos han podido desarrollar algo similar a las empresas americanas incurriendo una fracción del coste, y no tanto sobre el rendimiento del modelo como tal.

El lanzamiento del modelo de Deepseek desató una riada de especulación enfocada en la parte del coste de la ecuación. Deepseek reveló que la cifra de $6 millones ignoraba ciertos costes relevantes (así que es una cifra ajustada), y varias fuentes de la industria afirman que el coste de desarrollo ha sido significativamente mayor y que se ha logrado utilizando GPUs de Nvidia (H100), que teóricamente están prohibidas por las restricciones de exportación actuales. Aunque parece poco creíble que China haya logrado superar a EE.UU. de manera tan significativa en costes en tan poco tiempo y que es evidente que China tiene incentivos para mentir sobre estos desarrollos (para que EE.UU. piense que las restricciones de exportación no están dando resultados), estoy asumiendo que tanto la información de rendimiento y coste es verídica para entender las implicaciones a largo plazo que esto podría tener para algunas industrias relacionadas. Solo un pequeño apunte: no me considero la persona más experta en el tema (y no creo que muchas personas puedan afirmar que lo son), pero el objetivo aquí es ofrecer una opinión con matices de cómo creo que todo se acabará desarrollando a largo plazo.

Como me imagino que habrás visto, cualquier tema relacionado con "IA" está sufriendo caídas materiales, desde las famosas hyperscalers (Amazon, Google, Microsoft) pasando por la industria de semiconductores y las Big Tech en general. Dado que los índices en EE.UU. están muy expuestos a estas compañías, los índices también estaban sufriendo caídas importantes en el pre-market.

La primera cosa que me sorprendió un poco fue ver tanto a los semis como a los hyperscalers cayendo al unísono. Las inversiones en infraestructura de IA se traducen en ingresos para la gran mayoría de empresas de semiconductores, pero en gastos para las hyperscalers, así que me cuesta entender cómo podría ser algo malo para ambas al mismo tiempo. Si el coste de desarrollar IA es mucho menor de lo que se esperaba, las hyperscalers necesitarán invertir menos en infraestructura (menos Capex) y, teóricamente, deberían generar más efectivo en el futuro (no creo que esta sea una visión diferenciada a estas alturas). En resumen, las Amazon, Microsoft y Googles de turno necesitarían pagar menos dinero a Nvidia y otros proveedores de infraestructura. Al mismo tiempo, no creo que la demanda de dichos servicios se viese muy comprometida porque estos modelos se ejecutan donde se encuentran los datos, y actualmente los datos están en la nube (sin una alternativa visible). También soy reacio a pensar que muchas empresas darían sus datos a una empresa China.

Lo anterior potencialmente significa que los ingresos relacionados con la IA de muchas empresas de semiconductores deberían disminuir (o desacelerarse) en el futuro. Dicho esto, no creo que las ramificaciones aquí sean tan directas como mucha gente cree. Muchas personas afirman que un coste más bajo llevará a menos inversiones en infraestructura de IA y, por lo tanto, a menos ingresos para todas las empresas de semiconductores. Aunque esto podría ser cierto a corto o mediano plazo, creo que puede no serlo a largo plazo.

La industria de semiconductores ha dependido históricamente de una disminución en los costes de desarrollo tecnológico (no en un aumento). La lógica aquí es que un menor coste de desarrollo tecnológico termina generando más innovación tecnológica y una adopción más rápida y generalizada, lo que en última instancia incrementa el volumen de chips requeridos (que es el KPI principal para la gran mayoría de empresas del sector). Peter Wennink, CEO de ASML, explicó este ciclo virtuoso en el Investor Day de la empresa en 2022:

Y todavía es un desafío hoy conectar todos los puntos, pero es el valor de la Ley de Moore, que básicamente reduce el costo por función, ¿sí? Eso impulsará nuestro negocio y creará estos bloques de construcción para el crecimiento y para resolver algunos de los mayores desafíos de la humanidad, y creemos firmemente en esto. Y la Ley de Moore está viva. Todavía está viva y activa, y se trata del costo por función.

Y todos sabemos que si el chip te da más funcionalidad, más valor, entonces disminuye el costo. Vamos a crear aplicaciones y soluciones, y eso está ocurriendo. Quiero decir, las cosas están ocurriendo en todo el mundo.

Si los costes de desarrollar IA caen de manera significativa, entonces (en teoría) la IA debería proliferar más rápido e impulsar más innovación tecnológica, lo que eventualmente debería llevar a más semiconductores (no menos). Esto es lo que mi cabeza me dice que deberían acabar pasando a largo plazo, pero podría ser muy diferente a corto plazo.

También vale la pena entender qué empresas tienen ingresos relacionados con la IA en la actualidad y cuáles no (o no en la misma medida). Varias empresas dentro del subsegmento semicap no han disfrutado de los vientos de cola de la IA ni en sus valoraciones ni en sus fundamentos debido al tiempo que se tarda en construir la oferta. Como mencionó Christophe Fouquet (CEO actual de ASML) en la última call de resultados (estoy parafraseando): "Si no fuera por la IA, la industria en general estaría triste". ASML ciertamente ha estado triste porque no ha visto la aceleración de la demanda ocasionada por la IA todavía. Muchos de los beneficios de la IA han recaído en ciertas empresas de la industria como TSMC y Nvidia.

Nunca he analizado a fondo TSMC y Nvidia, pero han sido las primeras empresas en beneficiarse del aumento de inversiones en infraestructura de IA. Esto me hace pensar que si las inversiones caen, también deberían ser las primeras empresas en sufrir por ello. No quiero que se me malinterprete, esta menor demanda eventualmente acabaría impactando a la cadena de suministro o semicap (a través del efecto látigo), pero gran parte de la cadena de suministro aún no había visto una alta demanda por la IA de todos modos, por lo que sería como si nada hubiera pasado (para los fundamentales, no para el precio de las acciones).

Lo que parece bastante evidente, independientemente de la veracidad que uno quiera darle a la parte de costes de Deepseek, es que los LLMs (Large Language Models) parecen haber iniciado una carrera hacia el abismo (es decir, hacia la comoditización). Esto no es algo que no hayamos escuchado antes, ya que muchas empresas de software lo han venido diciendo durante los últimos meses: lo que importa no es el modelo en sí, sino la diferenciación en otras capas. Adobe compartió hace relativamente poco un framework de tres capas y comentaron que la diferenciación se produciría en la capa de Apps and Interfaces:

Fuente: Adobe Investor Day

Esta es también la razón por la que a Adobe no le tiembla el pulso a la hora de permitir el uso de modelos distintos a Firefly en sus aplicaciones. La compañía cree que esta commoditización y menor coste llevará a una mayor generación de contenido, lo que en última instancia los beneficiará a través de las interfaces (edición y distribución).

Todavía es muy pronto en la “carrera de la IA”, y es innegable que tener una opinión firme hoy parece un tanto atrevido, más aún porque no me considero un experto en el tema (no creo que muchas personas lo sean considerando lo temprano que estamos en la IA). El objetivo de este artículo ha sido compartir mi visión matizada sobre el tema, tratando de entender qué podría significar a largo plazo para algunas de mis acciones.

Un abrazo,

Leandro

Reply

or to participate.