Skip to main content

The Short Case for Nvidia Stock

Jeffrey Emanuel

El articulo que conmocionó el mercado de la IA

Technology
Featured Image
El autor. Photo by Marketwatch Photo Illustration/Getty Images

El 25 de enero de 2025, este artículo conmocionó el mundo de la Inteligencia Artificial. Expuso de una forma demoledora lo que ya se empezaba a sospechar en los círculos de expertos en IA: que el desarrollo de los productos basados en IA iba a ser mucho más barato y sencillo de lo que se suponía. Y cuando digo mucho es mucho: unas 30 o 40 veces más barato. Como consecuencia de ello, el mercado se percató de que las empresas como NVIDIA, que se prometían un negocio espectacular para los próximos años, estaban sobrevaloradas en bolsa.

El artículo es muy largo y muy técnico. El autor, Jeffrey Emanuel, es un experto en bolsa y además un experto en IA y tecnología. Por lo que junta las dos experiencias necesarias para abordar el tema de la valoración de empresas como NVIDIA. Su artículo es por lo tanto demoledor.

Pero vayamos con la historia de cómo sucedió todo (que se cuenta muy bien en este artículo escrito una semana más tarde).

Last Friday afternoon (el 24 de enero 2025), Jeffrey Emanuel sat down in his Brooklyn apartment and started writing a blog post. For hours, he pounded away on his keyboard while his wife kept their young children occupied and brought him food. Emanuel worked late into the night, and by early Saturday morning he had written nearly 12,000 words.

El punto de Emanuel era que la empresa más “caliente” de la bolsa en ese momento (NVIDIA) estaba sobrevalorada. (Merecía la pena ponerse “en corto”, apostar por que iba a bajar en bolsa). Y ello era debido a una serie de movimientos de fondo en el mundo de la IA, incluida, pero no solo, la aparición de DeepSeek de la que se llevaba algunas semanas hablando en los círculos de expertos pero aún no había llamado la atención de los medios. Había ya varias empresas en USA que al igual que DeepSeek estaban encontrando maneras de hacer lo mismo que las grandes como Meta u OpenAI pero con un coste mucho menor. Gracias a maneras innovadoras e ingeniosas de entrenar y hacer funcionar la Inteligencia Artificial, esta podía dar resultados similares pero de una manera mucho más eficiente y barata.

Publicó el artículo en su blog personal y lo citó en sus cuentas de las redes sociales. Ese sábado ya avanzada la mañana, tenía 35 visitas.

Not bad traffic for a personal blog built into the website of his YouTube transcription-service side project, he thought.

Pero entonces se hizo viral.

Varias personas de mucha influencia lo comentaron en sus cuentas de X y otros medios. Y el sábado por la noche ya tenía más de medio millón de visitas.

But one thing it did pick up was that by the end of the night, the city with the most concurrent readers was San Jose, Calif. — near where Nvidia’s corporate headquarters is located.

Emanuel’s argument shook Silicon Valley … His main point was simply that [the big USA Tech companies] were nowhere near as smart and efficient as Wall Street was touting them as. The big tech companies had built and trained their artificial-intelligence breakthroughs using tremendous amounts of data and advanced computing resources that required them to pay for Nvidia’s data-center hardware, which is sold at very high gross margins. Emanuel pointed out that a China-based company, DeepSeek, had recently launched its own top-notch AI product using fewer expensive chips… What countless Wall Street firms and investment analysts had seemingly missed was being pointed out by some guy in his apartment.

Then on Monday things got real. Nvidia’s stock plummeted about 12.5% at market open and continued falling from there. By the end of the day, the slide had wiped out nearly $600 billion from Nvidia’s market capitalization — the largest single-day market-cap drop to date for any company.

Matt Levine, the prominent Bloomberg News financial columnist… claimed Emanuel’s post was a “candidate for the most impactful short research report ever.”

¿Y cuál es la esencia del artículo? Esencialmente describe 5 áreas de peligro para NVIDIA que podían afectar a su beneficio o crecimiento:

With five distinct vectors of attack— architectural innovation, customer vertical integration, software abstraction, efficiency breakthroughs, and manufacturing democratization— the probability that at least one succeeds in meaningfully impacting NVIDIA’s margins or growth rate seems high. At current valuations, the market isn’t pricing in any of these risks.

Para el caso de DeepSeek analiza en detalle los artículos técnicos que la propia compañía ha publicado, se bajó el código y lo instaló en su ordenador (es de código abierto) y lo comparó con otros modelos de IA. Y encontró varias innovaciones realmente originales e ingeniosas que podrían ser copiadas por cualquier otra compañía y que tenían un impacto considerable en el coste de la IA.

many people are speculating that DeepSeek is simply lying about the number of GPUs and GPU hours spent training these models because they actually possess far more H100s than they are supposed to have … While it’s certainly possible, I think it’s more likely that they are telling the truth, and that they have simply been able to achieve these incredible results by being extremely clever and creative in their approach to training and inference. They explain how they are doing things, and I suspect that it’s only a matter of time before their results are widely replicated and confirmed by other researchers at various other labs.

Y describe qué mal rato van a pasar los ingenieros de Meta (Facebook) cuando tengan que explicar que estos chinos consiguen casi lo mismo que ellos pero con un coste total en la inversión que es menor que los sueldos que cobran.

Apparently, the Llama project within Meta has attracted a lot of attention internally from high-ranking technical executives, and as a result they have something like 13 individuals working on the Llama stuff who each individually earn more per year in total compensation than the combined training cost for the DeepSeek-V3 models which outperform it. How do you explain that to Zuck with a straight face? How does Zuck keep smiling while shoveling multiple billions of dollars to Nvidia to buy 100k H100s when a better model was trained using just 2k H100s for a bit over $5mm?

But you better believe that Meta and every other big AI lab is taking these DeepSeek models apart, studying every word in those technical reports and every line of the open source code they released, trying desperately to integrate these same tricks and optimizations into their own training and inference pipelines. So what’s the impact of all that? Well, naively it sort of seems like the aggregate demand for training and inference compute should be divided by some big number. Maybe not by 45, but maybe by 25 or even 30? Because whatever you thought you needed before these model releases, it’s now a lot less.

Efectivamente, unos días más tarde supimos que Meta tenía más de 4 comités de crisis para estudiar el caso de DeepSeek.

En definitiva, el mundo de la IA ya no será nunca el mismo despues de este artículo. Probablemente será mejor para todos porque la va a hacer mucho más accesible y barata. Bueno, para todos menos para los que habian invertido fuerte en NVIDIA… aunque, tampoco tanto. Si hubieses invertido 6$ en NVIDIA hace 5 años, hoy tendrias 130$. Estas conmociones en la bolsa que tanto agita la prensa para vender mas no son tanto como parecen a largo plazo.