博威---云架构决胜云计算

 找回密码
 注册

QQ登录

只需一步,快速开始

搜索
楼主: network

DeepSeek 策略如何影响半导体链的全面分析

[复制链接]
 楼主| 发表于 2025-1-29 19:03:40 | 显示全部楼层
Morgan Stanley lowered its price target for Nvidia from $166 to $152 on Tuesday, citing investor concerns sparked by the release of DeepSeek’s AI model.
Analysts trimmed Nvidia’s valuation multiple from 35x to 32x amid broader questions about AI efficiency, export controls, and near-term demand.

- emphasized that industry contacts have indicated, “This will not change our spending plans,” and “There’s nothing magical here.”
- highlighted ongoing robust demand for  Blackwell products but acknowledged short-term headwinds.
- Demand for Nvidia’s current Hopper GPUs has started to stall as customers await Blackwell’s release.
- Additionally, manufacturing yield concerns for the GB200 chip could temper near-term upside.
- remains optimistic about the long-term outlook for AI semiconductors, citing strong underlying demand for Blackwell products.
- “We expect to return to meaningful upside in 2H,” as Nvidia’s new products ramp up production and adoption.

翻译自 英语
摩根士丹利周二将英伟达的目标价从 166 美元下调至 152 美元,理由是 DeepSeek 的 AI 模型发布引发了投资者的担忧。
在对人工智能效率、出口管制和近期需求产生更广泛疑问的背景下,分析师将 Nvidia 的估值倍数从 35 倍下调至 32 倍。

- 强调业内人士表示,“这不会改变我们的支出计划”和“这里没有什么神奇的东西。”
- 强调了对 Blackwell 产品的持续强劲需求,但承认短期内存在阻力。
- 由于客户等待 Blackwell 的发布,对 Nvidia 当前 Hopper GPU 的需求开始停滞。
- 此外,对 GB200 芯片制造良率的担忧可能会抑制近期的上行空间。
- 仍然对人工智能半导体的长期前景持乐观态度,并指出对 Blackwell 产品的强劲潜在需求。
- 随着 Nvidia 新产品的产量和采用率不断提升,“我们预计下半年将恢复有意义的上升趋势”。
 楼主| 发表于 2025-1-29 19:42:18 | 显示全部楼层
I don't have too too much to add on top of this earlier post on V3 and I think it applies to R1 too (which is the more recent, thinking equivalent).

I will say that Deep Learning has a legendary ravenous appetite for compute, like no other algorithm that has ever been developed in AI. You may not always be utilizing it fully but I would never bet against compute as the upper bound for achievable intelligence in the long run. Not just for an individual final training run, but also for the entire innovation / experimentation engine that silently underlies all the algorithmic innovations.

Data has historically been seen as a separate category from compute, but even data is downstream of compute to a large extent - you can spend compute to create data. Tons of it. You've heard this called synthetic data generation, but less obviously, there is a very deep connection (equivalence even) between "synthetic data generation" and "reinforcement learning". In the trial-and-error learning process in RL, the "trial" is model generating (synthetic) data, which it then learns from based on the "error" (/reward). Conversely, when you generate synthetic data and then rank or filter it in any way, your filter is straight up equivalent to a 0-1 advantage function - congrats you're doing crappy RL.

Last thought. Not sure if this is obvious. There are two major types of learning, in both children and in deep learning. There is 1) imitation learning (watch and repeat, i.e. pretraining, supervised finetuning), and 2) trial-and-error learning (reinforcement learning). My favorite simple example is AlphaGo - 1) is learning by imitating expert players, 2) is reinforcement learning to win the game. Almost every single shocking result of deep learning, and the source of all *magic* is always 2. 2 is significantly significantly more powerful. 2 is what surprises you. 2 is when the paddle learns to hit the ball behind the blocks in Breakout. 2 is when AlphaGo beats even Lee Sedol. And 2 is the "aha moment" when the DeepSeek (or o1 etc.) discovers that it works well to re-evaluate your assumptions, backtrack, try something else, etc. It's the solving strategies you see this model use in its chain of thought. It's how it goes back and forth thinking to itself. These thoughts are *emergent* (!!!) and this is actually seriously incredible, impressive and new (as in publicly available and documented etc.). The model could never learn this with 1 (by imitation), because the cognition of the model and the cognition of the human labeler is different. The human would never know to correctly annotate these kinds of solving strategies and what they should even look like. They have to be discovered during reinforcement learning as empirically and statistically useful towards a final outcome.

(Last last thought/reference this time for real is that RL is powerful but RLHF is not. RLHF is not RL. I have a separate rant on that in an earlier tweet
https://x.com/karpathy/status/1821277264996352246?lang=en)

翻译自 英语
对于 V3 的早期帖子,我没有太多要补充的,而且我认为它也适用于 R1(这是较新的、具有思考能力的版本)。

我想说的是,深度学习对计算有着传奇般的狂热,这是人工智能领域从未开发过的其他算法所不具备的。你可能并不总是充分利用它,但我绝不会打赌计算不是长期可实现智能的上限。这不仅适用于单个最终训练运行,也适用于默默支撑所有算法创新的整个创新/实验引擎。

数据在历史上一直被视为与计算不同的类别,但即使数据在很大程度上也处于计算的下游 - 您可以花费计算来创建数据。大量的数据。您听说过这被称为合成数据生成,但不太明显的是,“合成数据生成”和“强化学习”之间存在非常深的联系(甚至是等价的)。在 RL 的反复试验学习过程中,“试验”是模型生成(合成)数据,然后根据“错误”(/奖励)从中学习。相反,当您生成合成数据然后以任何方式对其进行排名或过滤时,您的过滤器直接等同于 0-1 优势函数 - 恭喜您做糟糕的 RL。

最后的想法。不确定这是否显而易见。有两种主要的学习类型,既有儿童学习,也有深度学习。有 1) 模仿学习(观看和重复,即预训练、监督微调)和2)反复试验学习(强化学习)。我最喜欢的简单例子是 AlphaGo - 1) 通过模仿专家玩家进行学习,2) 是通过强化学习赢得比赛。深度学习的几乎每一个令人震惊的结果,以及所有 *魔法* 的来源总是 2。2 明显更强大。2 是让你感到惊讶的。2 是当球拍学会在 Breakout 中击打挡块后面的球时。2 是当 AlphaGo 甚至击败李世石时。2 是 DeepSeek(或 o1 等)发现它可以很好地重新评估你的假设、回溯、尝试其他方法等时的“顿悟时刻”。这是你看到这个模型在其思路链中使用的解决策略。这就是它如何来回思考。这些想法是*突发的*(!!!)这实际上是非常不可思议、令人印象深刻和新颖的(如公开和记录等)。模型永远无法通过 1(通过模仿)学习这一点,因为模型的认知和人类标记者的认知是不同的。人类永远不会知道如何正确地注释这些类型的解决策略,甚至不知道它们应该是什么样子。它们必须在强化学习过程中被发现,因为它们在经验和统计上对最终结果有用。

(这次的最后一个想法/参考是,RL 很强大,但 RLHF 却不是。RLHF 不是 RL。我在之前的一条推文中对此进行了单独的吐槽
https://x.com/karpathy/status/1821277264996352246?lang=en
 楼主| 发表于 2025-1-30 07:18:10 | 显示全部楼层
你以为DeepSeek的AI奇迹,只靠神秘算法? 大错特错! 真正令他们领先的秘诀,恰恰是连CEO梁文峰都亲自下场干的“脏活” —— 数据标注!

与那些轻率的 “AI玄学” 论调截然相反,DeepSeek R1的突破,根植于海量的优质人工生成和合成数据。 事实上,DeepSeek模型在开源领域,正以惊人的数据量刷新纪录:

1️⃣60万条核心推理数据 (驱动模型深度思考)

2️⃣20万条监督微调 (SFT) 数据 (提升模型指令跟随能力)

3️⃣规模惊人的RLHF人工偏好数据集 (据估计至少300-500万条样本!远超同行,塑造更符合人类价值观的AI)

4️⃣关键的CoT链式推理合成数据 (高质量“冷启动”燃料,加速模型效率飞升)

正是这史无前例的高质量数据投喂,才最终成就了DeepSeek R1在低成本下,推理能力的惊人涌现 ,开创AI新范式! 如此规模的优质合成数据,究竟从何而来? 答案或许已呼之欲出。
 楼主| 发表于 2025-1-30 07:19:05 | 显示全部楼层
你以为DeepSeek的AI奇迹,只靠神秘算法? 大错特错! 真正令他们领先的秘诀,恰恰是连CEO梁文峰都亲自下场干的“脏活” —— 数据标注!

与那些轻率的 “AI玄学” 论调截然相反,DeepSeek R1的突破,根植于海量的优质人工生成和合成数据。 事实上,DeepSeek模型在开源领域,正以惊人的数据量刷新纪录:

60万条核心推理数据 (驱动模型深度思考)

20万条监督微调 (SFT) 数据 (提升模型指令跟随能力)

规模惊人的RLHF人工偏好数据集 (据估计至少300-500万条样本!远超同行,塑造更符合人类价值观的AI)

关键的CoT链式推理合成数据 (高质量“冷启动”燃料,加速模型效率飞升)正是这史无前例的高质量数据投喂,才最终成就了DeepSeek R1在低成本下,推理能力的惊人涌现 ,开创AI新范式! 如此规模的优质合成数据,究竟从何而来? 答案或许已呼之欲出。


























下午1:29 · 2025年1月29日
·
8.1万
查看






 楼主| 发表于 2025-1-30 07:37:02 | 显示全部楼层
在这除夕夜里,来聊点全世界唯一首发的重量级干货吧,看问题需要看本质,今天带大家读懂奥卡姆剃刀下DeepSeek一炮而红真正的原因,那就是“工程的胜利”与“这依然是个达尔文的世界”,这是人类自我迭代道路上的又一次精彩的自发性纠错。并且,在最近20年的科技发展史上,已经不止一次重现了这样的精彩过程,虽说世界是残酷的达尔文,但这种迭代过程下所展现出的协作能力,也向我们证明了达尔文与人文的共存法则,下面详细说说:

一、DeepSeek揭示了一个残酷的事实,天才永无上限,人与人差距巨大

具体技术细节的东西,就不多赘述了,即使外行人,这几天通过看新闻和各类大神的帖子,应该也能模糊理解出一个大概,即这次DeepSeek在工程和思维模式上实现了一些突破,也在低成本要求下探索出一些巧思。

那么这种大浪淘沙下进步的核心因素,就是幻方不缺钱的背景,以及最重要的一件事:他的人才储备机制。特别是后者,这相当重要,这相当重要,这相当重要,一定要重复三次。国内头部量化公司,大抵上都爱招聘IOI、MOI、NOIP、ACM的获奖人才,甚至ACM这种偏业务建模向的人才会面临被瞧不上的风险,这不是玩笑,而是严肃的智力等级差异。

很多人会觉得,难道META、谷歌、微软、阿里、腾讯这些大厂的高端人才就不行吗?老实说,还真就不行,这里有多个角度上的差异。

首先大厂有一些他固有的规矩和世俗,哪怕谷歌微软这样众所周知的技术纯粹向的大厂也做不到完全自由开放的研发环境,这和学界众多的学阀故事有着异曲同工之妙。

而幻方恰恰是在这方面实现了一定程度的降维打击,量化机构的决策机制特别个人化或者小团队化,而在建模能力和最终策略的绩效考核上,也和能力强挂钩,特别有趣的一点是,全世界最没心没肺爱拿老板的服务器烧钱测试自己的模型和策略的,就属量化工程师了。所以这就造就了一个天然的、特别适合的,用来做数学向、算法向创业的人才土壤环境。

再者,大家低估了对于固定范式挑战的难度,说一个更听得懂的通俗的例子,在大家都用Python做AI产品、金融分析的时候,突然跳出来一个人大叫一声说,Python是垃圾的动态语言,想要更上一层楼,一定要提高行业入门门槛,基于更加适合工程化的大型静态语言才能实现更牛逼的应用。不好意思,对于发出这么一声大叫,真的很难很难很难,不仅需要面临对范式的挑战,更要求发声者有着深厚的软件工程理解、强大的心理素质以及无比厉害的思想实验深度,而如果他不是行业大佬,还只是个新人,那么他能做的只有默默研发,等真正基于他的想法做出好东西的时候,才能得到认可和理解,否则一定无人问津。

这个例子换到DeepSeek上也是如此,纵观整个大模型研发的过程,别说软件工程了,涉及核心原理神经网络相关的数学工程、涉及高维数据处理的数学工程、涉及训练过程的算法工程、涉及性能处理的算法工程等等。在这些方面,一般的大厂的高级架构师和核心主程甚至光是看明白原理都已经够吃一壶了,在老板的目标压力下,能做的也只有在依葫芦画瓢下夹缝创新了。

所以说到这,不知道你是否稍微能理解为何AI的成功首先出现在美国,而之前中国各大厂除了追赶也只能追赶,这背后的因素,除了土壤,还是土壤。

实际上,一切的一切也才刚刚开始,我们甚至可以说,在大模型领域,连工程都谈不上,目前还只是方法、函数与过程的阶段,哪怕你说这也算工程了,那么也只是数学工程、算法工程上的小架构和小进步,至少这次DeepSeek,还没看到任何软件工程、业务工程、管理工程上的明显突破性进展。作为一名资深软件架构师,请相信我的判断,我能够大胆的说一句,到目前为止,就我个人长期的体验来看,目前大模型世界的所有软件产品背后的业务建模和产品产出(包括各端),除了WebUI好看外,都还是草台班子,是巨大的草台班子,是全行业全员草台班子。不用看代码,只看产品体验就完全感受不到背后对业务建模的深度理解和渴望,即使版本频发也只是功能的迭代而非架构的解耦和重构,换言之,有相当数量的非软件专家在从事AI产品的开发工作,比如就我自己比较多看过的SD的核心和UI,一个字,惨不忍睹,赶紧来个人重构下吧。。

但不管如何,这既是迭代过程的无奈和必须,也是未来的巨大机会。今天我们所讨论的是工程的胜利,而工程这东西,本质上就是各行各业的金字塔尖的一群人,在所属领域内的智慧涌现,这种涌现,很多时候不是循序渐进,而是突然转向的,当你看清楚这个事实的时候,就会知道我们现在需要的是什么,不是人才而是天才:

是思维深度比别人强10倍的天才!
是光通过思想实验就能建立起迷之自信的天才!
是对重构、对解耦有着极致追求和快感的天才!
是在重大决策上可以一眼万年的天才!
是绝对的超级天才!

在这里,我也歪个楼说一段题外话,前段时间我说准备在春节期间好好讲讲川普和左与右的事情,今天先说一小段,对于川普本人,每个人都有自己的评价,但不管如何,在这次的大选,他与马斯克对于美国,对于全世界,最大的贡献,就是将这个世界恢复正常,重新回到残酷的达尔文普世价值中来,对的,这个说法,左派不敢提、不敢想,一往深说就如丧考妣,但很遗憾,这才是正常的世界样貌,这才是正确的世界走向。如果说中国共产党在过去50年做对了什么,那么高考制度一定是其中一件,再看看美国的高校和大厂在搞啥,DEI?不要以为这东西清除了就没有后遗症,真正劲大的还在后面,至少延迟5-10年的长期影响。

这个世界,在过去的200年,每一项重大的科技革命和突破,都是厚积薄发的必然加上个别天才的偶然。没有爱因斯坦,狭义相对论大家伙都差临门一脚,但广义相对论可能要延迟至少50年。如果只有富兰克林的数据和思维,没有沃森和克里克超强的想象力和洞察力,10年也未必解读出双螺旋结构。如果没有香农构建出信息熵的世界观,那么通信时代和计算机时代,很可能要等热力学的老大爷们再折腾几十年才能步入正轨。类似的例子实在太多了,我们必须承认,这个世界的进步属于天才。

二、但庆幸的是,在近20年,人类已经建立起一套天才与普通人有效协作的机制

我们无比悲观的是,天才的涌现是偶然的,因为这依赖全人类突突突生育下的基因突变(目前我还不能理解这种随机,也许有一天能够发现涌现天才的必然性原理和机制),但同时非常开心的事情是,在过去的20年,天才与普通人的协作机制已经越来越纯熟。

前面我说过一个东西,那就是GitHub奇迹,详细可以看这篇帖子:https://x.com/chumacn/status/1687074056829612032。原文中我总结道:“Github奇迹,也可以理解为,一帮原本没有展示自我机会的中上游开发人员,通过Github崭露头角,带领着千千万万的中下游开发人员,浪里淘沙、百里挑一,成就了一个又一个新的软件奇迹”。

而原文中没有补充说明的是,这种GitHub所给予的机会,是需要天才适时来纠错的,在这里,就不得不再此搬出安大神(Anders Hejlsberg)-这位全世界最科班、最静态、最深度、最抽象、最解耦、最重构的超级程序员、超级架构师。

当这种绝对天才级人物,发现全世界这么多受益于GitHub奇迹的前端程序员或者低端程序员们,始终受困于javascript那不堪一击的工程能力时,是的,他出手了,捣鼓出了TypeScript,直接将相关软件生态的工程能力,拉升到了一个全新的高度。

这就是天才和普通人之间的协作,你可以说这种协作是偶然的,比如PHP也经历过相当的繁荣,但至今看不到谁来拯救。但也可以说这种协作是必然的,用整体的熵增换取局部的熵减,这是人类至今为止的发展规律,特别是经历了PC互联网时代、全球化时代、移动互联网时代后,直到现在的GitHub、arXiv时代。我们越来越能感受到,“全民大力出奇迹”和“坐等天才涌现”这两件事在各行各业中持续贯彻和发展。

三、恐怖的自迭代和工程爆炸

在过去的2年里,当我第一次领略到ChatGPT能做什么时,我的脑海里就已经涌现出“永生”二字,很多人觉得我在开玩笑,但我深深的知道,这是一种“在必然中等待偶然”的必然。其背后的思考,就是AI时代,自迭代的恐怖和对工程能力的爆炸级促进。

也许下面这个例子的类比不太恰当,但差不多可以帮助思考,这次DeepSeek除了整体的工程进步外,也在调教AI的自迭代能力,也许人文领域不使用RLHF与人类对齐会造成很奇怪的结果,但在纯逻辑领域已经有所顿悟。那么未来的一天,如果能够持续的在思考上自我迭代,这会产生多少无法预料但又十分可观的涌现。

其实对于AI自迭代这块的思考,我的知识储备和知识结构还不足以支撑我去深度思考和理解这个领域的走向,但从一个大的方向看,信息与计算,在物理上的本质已经慢慢被揭示,相互之间的同步感越来越强烈,过去200年,我们搞清楚了物理的世界,就像研究粒子为何自发的运动,在未来的100年,信息的规律也会逐层揭开。你要说未来的AI不能自迭代,我是不信的。

那么再回到工程爆炸,其实这条路径,早就有了十分具象化的清晰画像,通俗的说,哪怕GPT就停留在2025年初的水平,那么他也能帮助全球所有领域所有工程人员提升工程效率,这种提升,是一种肉眼可见的能够量变产生质变的级别。比如软件开发,AI已经切实的减少了至少一半以上的工作量,最重要的是,AI还能实现更加靠谱的自动化测试,甚至能主动提出设计模式、全盘性的对架构提出切实有效的重构建议。没搞过软件工程的人可能无法理解这其中的疯狂所在,这对产业来说,就是光速促进,唯一欠缺的就是各位软件公司的老板,应该好好想想如何能强迫、强制自己的程序员把AI全面应用到工作中来。而软件产业,也已经成了所有产业的底层基石,当基石都在疯狂加速的时候,对上层产业和学科的促进可想而知。

我们能想到所有的学科领域,都会在未来的5-10年里,在一种必然的工程爆炸下,慢慢进入到一些很神奇、很微妙的类似AI自迭代的过程,在观察中你会慢慢发现,人类开始跑步迈向永生了,这不是纯粹生物学的事,这是全部学科的共同进步所带来的真正的天方夜谭。

其实这次DeepSeek事件里,我本人是非常激动的,作为一个喜欢正本清源的纯粹架构师,看我的BIO就能知道,我在软件领域里是小众,当所有的大厂架构师都在吹嘘自己如何知晓云原生,如何构建超大规模基于云的系统时,其实真正的天才架构师一定会建立高效而靠谱的物理机架构,云原生唯一的价值只是去耦合那不得不用他的CDN等场景,而StackOverFlow就是类似DeepSeek的天才。

现在,一个DeepSeek天才勇敢的站出来,给大家指明了方向,那么未来,我看真的不远了!
 楼主| 发表于 2025-1-30 14:47:48 | 显示全部楼层
英伟达,大幅度反弹,暴跌又暴涨?这是怎么了?

英伟达反弹超过8%,表面是主要受投资者逢低买入和对英伟达长期AI领导地位的乐观情绪推动。

实际是,市场开始质疑,Deepseek的信用了,本来幻方就没信用,

你不可能认为Deepseek句句都是实话。

知名分析机构如Tigress Financial和Wedbush将英伟达评级上调至“强烈买入”,

理由是其旗舰GPU的需求依然强劲,并对DeepSeek所谓的成本效益优势持怀疑态度。

分析师,在质疑,Deepseek吹牛逼,而且,其低成本模式可能难以长期维持。

Scale AI的首席执行官Alexandr Wang公开表示,DeepSeek实际上拥有约5万块H100 GPU。

埃隆·马斯克在社交媒体上回应Wang的声明,表示“显然如此(obviously)“

如果属实,这将构成对美国出口管制政策的违反,将对幻方产生能致命制裁。

目前就等,英伟达,和台积电调查结果。
 楼主| 发表于 2025-1-30 14:48:37 | 显示全部楼层
I’ve been thinking about this for a year, and today I wanted to call this out.

In the future, AI models will likely be trained in real time based on new data from inference.

For example, if a Tesla FSD car makes a mistake due to a recent road change, it would be beneficial for that edge case to be updated instantly for all other vehicles. Similarly, if an LLM solves a problem incorrectly and a human provides a correction, the model should learn from it immediately.

The demand for training will be skyrocketed, and NVIDIA’s versatile hardware architecture will likely continue to dominate. $NVDA

翻译自 英语
我已经思考这个问题一年了,今天我想说出来。

未来,AI模型可能会根据推理得出的新数据进行实时训练。

例如,如果特斯拉 FSD 汽车由于最近的道路变化而犯了错误,那么立即为所有其他车辆更新该边缘情况将大有裨益。同样,如果 LLM 错误地解决了问题,而人类提供了纠正,那么模型应该立即从中吸取教训。

训练的需求将会猛增,而 NVIDIA 的多功能硬件架构可能会继续占据主导地位。 $NVDA
 楼主| 发表于 2025-1-30 17:09:20 | 显示全部楼层
早上读到了Ben Thompson大神的分享,深以为然。分享几点中文总结。
$英伟达 (NVDA.US)$
by Computer King
早上读到了Ben Thompson大神的分享,深以为然。

分享几点中文总结,可以回答很多对DeepSeek的恶意而且无根据的指责。原文连接放在最后,英文好的请直接看原文。

第一:质疑训练成本的人才需要拿出证据。

特别是在你理解了 V3 架构之后。还记得 DeepSeekMoE 的那个关键点吗?V3 模型虽然有 6710 亿个参数,但每次处理 token 只会激活 370 亿个专家参数,也就是说,每个 token 实际上只需要计算 3333 亿次浮点运算(FLOP)。

另外,DeepSeek 还搞了一项精度优化:虽然参数存储时是 BF16 或 FP32,但计算时会降到 FP8,大大减少了计算需求。而 2048 张 H800 GPU 的算力大概是 3.97 exaflops(3.97 亿亿次浮点计算能力)。训练数据集的规模是 14.8 万亿 tokens,如果你把所有数学计算过一遍,就会发现 280 万 H800 计算小时 基本够跑完整个 V3 训练。这里说的是最终运行的时间,不是总成本,但这个数字是合理的。

第二,Scale AI 的 CEO 说 DeepSeek 有 50,000 张 H100?

Scale AI 的 CEO Alexandr Wang 说 DeepSeek 有 5 万张 H100,但这消息的来源不太清楚。我猜他参考的是 Dylan Patel 在 2024 年 11 月的推文,里面提到 DeepSeek 有超过 5 万张 Hopper GPU。

但这里有个关键点:H800 也是 Hopper GPU,只是受美国制裁影响,H800 的内存带宽比 H100 要低。

DeepSeek 做了很多优化,就是为了弥补 H800 带宽的不足。如果你前面认真算过,就会发现 DeepSeek 其实计算力是富余的。他们甚至专门编程,让 每张 H800 上 132 个处理单元中的 20 个 负责跨芯片通信。这种操作用 CUDA 是做不到的,DeepSeek 的工程师直接降级到了 PTX(Nvidia GPU 的底层汇编语言),这优化水平直接拉满,完全是为了 H800 量身定制。

换句话说,DeepSeek 真的在极限挖掘 H800 的潜力,而不是单纯靠硬件堆叠。

第三:赢家和输家

从长远来看,模型变得商品化,推理成本大幅下降——就像 DeepSeek 证明的那样——对大科技公司来说绝对是个好消息。微软可以用超低成本为客户提供 AI 服务,这意味着他们在数据中心和 GPU 上的支出会减少,或者,换个角度来看,AI 服务的使用量可能会暴增,因为成本下降得太快了。

另一个大赢家是亚马逊。AWS 这些年一直没能拿出自己顶尖的 AI 模型,但如果市场上有非常强大的开源模型,能用远低于预期的成本去运行,那 AWS 其实也不亏,甚至可能因此受益。

苹果的好处也很明显。推理对内存的要求降低,意味着 AI 在本地设备上运行变得更现实,而苹果恰好在硬件上最有优势。苹果的芯片用的是统一内存架构,CPU、GPU、NPU(神经处理单元)都可以共享同一片内存池。这让苹果的高端设备成为消费级最强的 AI 计算平台——对比一下,Nvidia 的游戏 GPU 顶多 32GB VRAM,而苹果芯片可以做到 192GB RAM。

然后就是Meta,这家公司可能是所有人里赢得最多的。我去年秋天就说过,AI对Meta的业务影响深远,但推理成本一直是个大问题。现在推理便宜了,甚至训练成本也有望降低,Meta想推动的AI发展路径突然变得更现实了。

谷歌呢?情况可能没那么乐观。AI 运行对硬件的需求降低了,直接削弱了他们在 TPU(自家 AI 芯片)上的竞争优势。而且,如果 AI 真的能做到“零成本推理”,那么搜索这个老本行的生存空间可能会被压缩。虽然谷歌自己的 AI 成本也会降低,但一旦行业格局变了,整体来看未必是好事。

第四:我有英伟达的股票!完了?

这条新闻确实给 Nvidia 带来了不小的挑战。一直以来,Nvidia 有两大核心优势:
* CUDA 生态:几乎所有 AI 模型的开发都用 CUDA,而 CUDA 只能在 Nvidia 芯片上跑。
* 多 GPU 组合:Nvidia 在把多个 GPU 连接成一个超级计算单元方面,远远领先于对手。

这两点相辅相成,比如美国的 AI 研究机构很少花时间优化计算资源,直接买 Nvidia 服务器就行了,因为 Nvidia 会不断推出更强的系统,简单又高效。但 DeepSeek 证明了另一种路径——通过深度优化,即使在较弱的硬件和较低的带宽下,也能做出强大的模型。 这意味着,未来 AI 发展不一定非得靠砸钱买更贵的 Nvidia 硬件。

不过,Nvidia 依然有三点优势:
* 优化 ≠ 计算无用:如果 DeepSeek 的方法应用在 H100 或即将推出的 GB100 上,效果可能更炸裂。找到更高效的计算方式,不代表计算资源就不值钱了。
* 推理成本下降 = AI 使用量增加:长远来看,更便宜的推理可能让 AI 应用爆发式增长,这对 Nvidia 依然是利好。微软 CEO 纳德拉甚至深夜发推,似乎就是在安抚市场。
* 计算能力仍然是核心:像 R1、O1 这样的模型表现出色,还是因为计算力的加持。AI 进步越依赖计算力,Nvidia 受益就越大。

但问题是,DeepSeek 证明了一些事情:

以前认为“只有 Nvidia 解决方案才是最优”的想法被打破了。
* 未来推理任务可能会更偏向专门的 AI 芯片,而不是 Nvidia 这种通用 GPU。利好ASIC vendor,$MRVL,$AVGO。
* AMD 的 GPU 在推理上可能成为更划算的选择,因为它们虽然芯片间通信能力较弱,但如果推理优化到极致,就不一定是大问题。

总结一下:Nvidia 不会倒,但市场对它的增长预期可能需要调整,短期内可能面临更大的不确定性,而市场最怕的就是不确定性。

A must read here:
stratechery.com/2025/deepseek-…
 楼主| 发表于 2025-1-30 17:11:27 | 显示全部楼层
0250130
[color=var(--h1-color)][color=var(--h1-color-v2,--h1-color)][color=rgba(13, 106, 240, 0.8)]$英伟达 (NVDA.US)$



[color=var(--h1-color)][color=var(--h1-color-v2,--h1-color)]上来写下吧,整体英伟达还是在空头掌控中。



[color=var(--h1-color)][color=var(--h1-color-v2,--h1-color)]一、分析



[color=var(--h1-color)][color=var(--h1-color-v2,--h1-color)]1、日线图:在148.97下来的日线笔(-1,1)ing,116.25要素不完备,但有跳空,就看会不会回补了。本ID暂时认为这个116.25不是本次日线笔的低先;
2、30min图:如下图,30min反弹笔到129位置嘎然而止,也成功制造了5min级别的三卖,而且最重要的是连前上涨中枢倒数第二个中枢的ZD都没过,可想这下跌空头多猛。所以暂时做出后续还得跌的初步结论;而且如图,周一暴跌后就画出后续可能的走势,不过实际走势反弹力度还是比当初预期的要猛,之前认为能过124就不错了,结果到了129。



[color=var(--h1-color)][color=var(--h1-color-v2,--h1-color)](补充一嘴,正因为过了129,所以有一种最贪婪的走法,就是摸到前上涨趋势最后一个5min中枢的ZD去构造三卖,顺道补缺口)



[color=var(--h1-color)][color=var(--h1-color-v2,--h1-color)]综上,暂时按照下跌5min趋势第一个5min中枢【120.05,129.00】盘整构造中,后续完成下跌5min中枢构造后,继续下跌,初步看空到114.36附近。如果看30min级别,基本上可以看空到101了。美股刺不刺激~



[color=var(--h1-color)][color=var(--h1-color-v2,--h1-color)]F35都烟花绽放了,美股也下来绽放下呗~!



[color=var(--h1-color)]







[color=var(--h3-color)]风险及免责提示:以上内容仅代表作者个人观点,不代表富途任何立场,亦不构成任何投资建议,富途对此不作任何保证与承诺。 [color=var(--h2-color)][url=]更多信息[/url]
4




 楼主| 发表于 2025-1-30 17:21:14 | 显示全部楼层
为什么说DeepSeek出自一个量化交易团队,实属必然?
高频量化交易的核心就是:同等条件下,极致编程实现最高性能,达到最高交易速度!
再看看DeepSeek团队做了什么:“DeepSeek 做了很多优化,就是为了弥补 H800 带宽的不足。如果你前面认真算过,就会发现 DeepSeek 其实计算力是富余的。他们甚至专门编程,让 每张 H800 上 132 个处理单元中的 20 个 负责跨芯片通信。这种操作用 CUDA 是做不到的,DeepSeek 的工程师直接降级到了 PTX(Nvidia GPU 的底层汇编语言),这优化水平直接拉满,完全是为了 H800 量身定制。换句话说,DeepSeek 真的在极限挖掘 H800 的潜力,而不是单纯靠硬件堆叠。”
所以DeepSeek出自一个量化交易团队,实属必然!
数学家最擅长这个,确实全部是金牌才干得了!
您需要登录后才可以回帖 登录 | 注册

本版积分规则

小黑屋|手机版|Archiver|boway Inc. ( 冀ICP备10011147号 )

GMT+8, 2025-3-14 13:28 , Processed in 0.094929 second(s), 13 queries .

Powered by Discuz! X3.4

Copyright © 2001-2021, Tencent Cloud.

快速回复 返回顶部 返回列表