博威---云架构决胜云计算

 找回密码
 注册

QQ登录

只需一步,快速开始

搜索
查看: 1101|回复: 1

chat gpt访问量与NVIDIA的出货量

[复制链接]
发表于 2023-5-26 20:51:54 | 显示全部楼层 |阅读模式
看到一个有点惊讶的消息,本周chatGPT日访问量竟然比上个月下降了5%,这才刚出来几个月呢就过峰值了
Google日访问大概28亿,chatGPT日访问是6240万,大概进军Google搜索规模的2%就停止了,这个减缓趋势并不是暂时的,从图里看三月份以来基本上就进入平台期了

从这些数据里想到一些有意思的东西
1.chatGPT取代Google搜索的份额可能没有那么容易Google目前的搜索份额已经完全稳住阵脚了,这一个多月甚至还有回升(加上Bard也在增长),历史上这种颠覆性的产品,比如当年的tiktok,都不会这么早就进入衰退,也许是因为chatGPT并不是娱乐/社交领域,有点像在线教育那一拨革命,没有那么“好玩有趣”,不吸引人,用好的门槛也不低,取代搜索这一步比预想中的慢一些

chatGPT之前4月号称有1.73亿用户,这个量已经不小了,他们的预计是2023年2亿美元收入,每天的支出是70万美元(也就是每年2.6亿成本,亏本),2024年10亿美元收入

2.Nvidia明年能不能延续这么夸张的增长率Nvidia五月11号在台积电上修的投片增量30万个GPU(正好对应每个季度多了4B服务器收入所以股价大涨),感觉基本上是这几个月各大小厂商恐慌性下单用来LLM training的GPU(而CUDA训练有绝对优势),这些GPU上的投资多半都是是短期内的一次性投资,不太可能明年再买一次,毕竟商业效果还没出来,盲目的明年再同样扩大前期GPU投资不现实

从LLM的高昂的使用成本看,想要快速产生产值不是一件容易的事情(连chatGPT都在亏本)。目前还很难有短期商业应用模式能回收LLM训练庞大的资金,想象力确实是很大,但好的应用还需要时间扩大市场,就像2016年AI1.0火出圈,Nvidia云端上规模也是2019年的事情了

等明年用来训练的GPU需求浪潮褪去(比如fine-tuning的兴起而不是重新训练),inference推理端应用的GPU需求短期能接力上吗?从目前的推理端应用市场看,大概只占了2%的搜索市场(chatGPT),推理用的GPU只有1.5~2万个A100 GPU的规模,就算明年在LLM上的应用需求多了40倍,也只有60~80万个A100 GPU增量用来推理,和今年训练用新增GPU收入比还是变少了很多,维持50%的增长速度不容易(除非明年再来40万个 H100 GPU新订单用来训练)

另一方面Nvidia的CUDA在推理端的优势就没有那么大了,推理端面临的竞争会大很多(AMD还有各家自研AI芯片),Nvidia的溢价和份额在推理端都会降低,更何况还有那么多专业细分领域小模型即将大放异彩

目前比较直观的应用就是copilot everything,微软的windows copilot(不收钱亏本),还有office copilot(也许能多一点订阅,不一定亏),更多应用,可能要等更6~9个月之后,更好的base model出来,开发出更多特定领域效果较好的模型,才能开始慢慢的打开应用空间,产生更多的推理端GPU增量

QQ截图20230526204950.jpg QQ截图20230526205003.jpg QQ截图20230526205014.jpg


 楼主| 发表于 2023-5-26 21:02:13 | 显示全部楼层
Alphabet Stock Is a Buy As Google Still Has Edge Over ChatGPT: BofA https://markets.businessinsider. ... gine-markets-2023-5
您需要登录后才可以回帖 登录 | 注册

本版积分规则

小黑屋|手机版|Archiver|boway Inc. ( 冀ICP备10011147号 )

GMT+8, 2024-5-16 17:00 , Processed in 0.088985 second(s), 19 queries .

Powered by Discuz! X3.4

Copyright © 2001-2021, Tencent Cloud.

快速回复 返回顶部 返回列表