SemiAnalysis创始人Dylan最股票推荐官网_今日牛股+明日潜力股全解析_短线+长线策略每日更新新访谈--AI、半导体和中美
2025-10-06股票推荐,今日牛股,短线股票推荐,明日股票推荐,热门板块分析/每日精选A股潜力牛股,覆盖短线爆发股与长线价值股,附技术图形、资金动向与题材热点分析,助您提前抓住风口,精准进场!
我们之前写过不少SemiAnalysis的文章,Dylan对半导体公司的分析可以说是非常透彻,但对我们国家有些敌意,所以大家在看SemiAnalysis的报告时,对那些涉及村内的事,要多留个心眼,SA的信息可能有偏见,需要再多方确认查证。
但这次的博客,个人认为干货还是很多的,访谈时间有两个小时,也解答了我自己想问的几个问题。从OpenAI和Nvidia的合作开始,讨论了AI计算需求、模型训练的缩放定律、token经济学、强化学习的应用、未来应用场景、电力和供应链问题、美中AI竞争的差异,以及对几家公司的看法。Dylan的观点基于他的硬件背景,分析得很具体。
访谈开头直接谈OpenAI和Nvidia的公告。Dylan认为这不是简单的资金循环,而是OpenAI为了满足计算需求而采取的策略。OpenAI需要大量计算资源来训练和运行模型,先要有集群才能租出去用于推理,或者训练出能解锁新用例的模型。用例的采用需要时间,所以一切都要有顺序。OpenAI面临的风险是规模太小。尽管有8亿用户,但营收只有15-20亿美元的规模,而竞争对手是万亿级公司,如Meta、Google和xAI。Dylan提到,OpenAI早期的成功在于他们在大模型如GPT-3和GPT-4上投入了更多计算,那时只是几亿美元,现在已经变成数百亿美元。
Zuckerberg看到这点后,直接和Apollo签了30亿美元的数据中心合同,尽管Meta现金流很强,但光建大楼不够,里面要放的芯片和设备成本更高。Google起步慢,数据中心运营也没跟上,所以尽管他们有潜力,但OpenAI目前还在领先。但OpenAI需要盟友。Microsoft的合作有些问题,Oracle能帮忙但资产没那么雄厚。Nvidia的交易是:他们投100亿美元股权给OpenAI,用于建10GW集群,但实际10GW的CapEx是500亿美元。Nvidia从中捕获大部分GPU订单,毛利75%,一半留在账上,一半作为股权。这让OpenAI用股权支付部分成本,Nvidia则确保GPU需求。
Dylan解释,这笔交易的风险在OpenAI:他们签了300亿美元的五年合同,但营收怎么覆盖?如果成功,纯利润上百亿;失败,就得举债。其他巨头如Amazon用TPU或Tranium会自己垫CapEx,但GPU需要别人先投。Sam Altman得去挪威或沙特筹钱,而Zuckerberg只需内部批准。这显示了OpenAI的弱势,但也是必要一步。我补充一点,从播客听来,这类合作反映了AI行业的整体动态:计算是先决条件,谁先建集群谁就有优势。短期看,Nvidia稳赚;长期,取决于OpenAI能不能转化成营收。Dylan还提到,这整个过程像一场“帕斯卡赌注”,因为AI的潜力无限,但如果模型不进步,整个经济都可能陷入衰退——从50亿到500亿的投资,如果没回报,那窟窿会吞掉整个行业。
补充一点,从播客听下来,这类合作反映了AI行业的整体动态:计算是先决条件,谁先建集群谁就有优势。短期看,Nvidia稳赚;长期,取决于OpenAI能不能转化成营收。
接下来讨论模型训练的底层假设。Dylan不认为这是递减回报。他用log-log规模来说明:10倍计算带来下一阶性能,不是线性增长,而是从低水平到更高水平的转变。比如,从6岁孩子到13岁青少年的能力差异——前者效率低,后者能处理复杂任务。以GPT-5为例,它和GPT-4o大小类似,甚至稍便宜,不是更大模型。原因是大模型如早期的GPT-4.5太难服务:成本高、速度慢,用户体验差。Anthropic的Claude 3 Opus更智能,但Sonnet版本用得更多,因为更快。
硬件推理速度没跟上。缩放定律基于计算、数据和模型大小,但互联网数据快用尽了。Dylan认为,文本预训练接近尾声,但多模态如图像和视频还有空间。Google的Veo和Imagen模型就是靠这个扩展。没有架构改进,单纯扔更多资源就能进步,但实际中,模型大小受服务限制。扩展来说,播客提到,如果模型进步停滞,从50亿到500亿支出都没ROI,那问题就大了。Dylan用公司员工比喻:无限高中生只能做简单活,无限资深工程师能取代2万亿软件工资。当前,AI在软件开发上最有效,Anthropic营收从1亿到7-8亿,主要来自代码工具如Claude Code、Cursor和GitHub Copilot。这些工具不是取代开发者,而是作为力乘器,让产出增加2-5倍,甚至10倍。在VBA等旧工具上,AI也不错,尽管不是完美。这显示价值潜力大,但需要解决服务瓶颈。Dylan认为,当前我们处在软件开发的“高中生”阶段,但潜力是“大学毕业生”水平。进一步说,这也解释了为什么Anthropic的营收增长这么快——他们专注代码领域,而OpenAI在分散精力到科学和消费应用上。整个缩放过程不是直线,而是曲线,需要平衡训练和推理的资源分配,否则大模型再聪明也白搭。
Dylan引入“tokenomics”概念,token的经济性:计算多少,产出多少智能,智能值多少钱。Nvidia叫它“AI工厂”,1GW容量能服务不同规模的模型——大模型贵但价值高,小模型多但质量低。OpenAI的挑战:有几GW容量,但推理需求每两个月翻倍。怎么最大化?别急着放大模型,先服务更多用户,爬上采用曲线。成本已降很多:GPT-3现在2000倍便宜,GPT-4o和DeepSeek更低。GPT-4到4 Turbo缩小一半大小,质量类似或更好。需求饱和点?低智能用例如GPT-3能覆盖全球简单任务,但采用慢:GPT-3没人注意,ChatGPT+3.5开始火,GPT-4才普及。
OpenAI用率限来管,但用户多账号绕过。未来,推理主导计算,token需求无限,但硬件不是每两个月翻倍,所以需算法降本。Dylan认为,容量比延迟更重要。现有延迟够用,再低10倍就能跑更大模型。但理想是无限容量+低延迟,就能建更好模型。播客扩展到用户行为:人们用慢模型如Opus少,因为时间值钱,转用Sonnet。从经济看,这关乎价值创造:从“孩子军团”挖沟,到高价值业务。AI能外包决策,如研究电动牙刷——Dylan自己做过 spreadsheet,现在AI能直接比对。Dylan还提到,tokenomics的核心是价值链:智能产出得有实际应用,否则就是烧钱。举例,Etsy有10%流量来自GPT查询购物建议,Amazon虽挡但如果开放,会更高。这显示推理不只是成本中心,还是营收引擎——未来AI代理能抽成1-2%,像Visa一样稳赚。
强化学习是重点:模型通过环境迭代学,而不是死记。湾区有40家初创建环境,如假Amazon购物(比三款假除臭剂,买对的)、数据清洗(分地址列)、数学谜题或医疗诊断。OpenAI也建自己的。当前是post-training早期,像“第二局”。人类学通过试错,AI也需:生成数据、测试、反馈。
Dylan用侄子例子:宝宝塞手到嘴校准感官,AI得类似“具身”——Elon认为AGI需机器人交互,视频学不会触感。记忆方面,Transformer注意力好短上下文,但长上下文需优化。人类记忆稀疏(记 gist 不细节),AI用RAG:写笔记、查数据库。OpenAI的Deep Research就是:45分钟百万token,压缩信息再合成。
未来,AI从问答变行动:买东西、决策。Etsy 10%流量从GPT,Amazon挡但潜力大。Shopify的购物代理显示,AI将抽成如Visa。播客提到,环境可复杂:用另一模型评分诊断。RL链接推理:花更多脑周期解决问题,像人类解Sudoku——先步步想,后直觉。人类反应快(数百赫兹),但本能多;AI需平衡即时和思考。扩展,Dylan认为,我们扔掉一生信息,AI也得学遗忘。训练需百万GPU试不同参数,不是建更大模型,而是实验。这部分让我想到,RL不只是技术升级,还模拟人类成长——从实习生花夏天搞数据,到资深员工三小时解决。未来,AI代理会从“被动工具”变成“主动助手”,如自动订维生素或研究产品,这会重塑消费习惯。
访谈中,Dylan花了不少时间谈硬件和电力问题,因为他的业务就是追踪这些。
他先指出,AI数据中心的电力需求已经开始对整体电网造成压力。目前,AI相关数据中心占美国电力消耗的3-4%,其中一半是传统数据中心,一半是AI专用。但Dylan强调,这其实还不是特别大的比例——相比之下,整个数据中心行业在美国的电力占比也才2-3%。真正的问题在于,美国已经40年没有大规模新建发电设施了,主要是在从煤炭逐步转向天然气的过程中,花了很长时间调整。
具体到OpenAI,他们计划的2GW数据中心,其电力消耗相当于整个费城城市的用电量。这听起来很大,但Dylan认为,我们以前为几百MW的新数据中心就兴奋,现在500MW的规模都觉得一般——因为建起来要25亿美元的CapEx,包括GPU和一切设备。整个行业在学习怎么快速建电厂:从双循环燃气轮机,到Mitsubishi的设备,再到一些小创新如用柴油卡车引擎并联发电。这些引擎的工业产能很大,还没被充分利用,所以有人开始把它们组装成临时发电系统,来填补涡轮机产能的空缺——涡轮机从下单到交付往往要两年。Elon Musk的例子也很典型:他从波兰买电力设备,直接船运到美国,因为本地供应链跟不上。工资方面,移动电工的薪水已经翻倍,尤其是在西德州,那里数据中心建设热火朝天,类似于2015年的页岩油时代——不需要特别高技能,就能赚不少,但人手还是不够。
Dylan自己的公司SemiAnalysis就用AI来分析卫星照片和许可文件,追踪数据中心进度,比如看到Amazon某个中心的风扇开始转动,就能预测他们的营收贡献。这项业务是他们第二高营收来源,没有AI,根本做不到——几年前要几十人手动审阅,现在几个人加AI就行。电网稳定性是另一个痛点。AI工作负载变化快,尤其是训练阶段,会导致瞬时功率波动。如果电网没有足够的惯性,或者没有缓冲设备,可能会引起褐出或黑出。更微妙的是,这些波动会让电网频率从60Hz偏到59Hz,影响附近家电如冰箱的电机寿命——用户可能不知道,但数据中心附近的东西坏得更快。
Texas的ERCOT和东北部的PJM电网已经出台规则:对大负载用户提前24或72小时通知,可以切掉一半电力,以保证居民用电。这在美国很常见,不会像中国台湾那样在干旱时限居民用水(中国台湾2021-2022年有城市限一周三次淋浴,以优先TSMC)。但切电后,数据中心得启动现场发电机,通常是柴油或天然气,但空气许可限制每月只能跑8小时——密度太高就违规。供应链的差异也很明显。不同公司建数据中心的方式不一样:Google的风格和Vantage或EdgeConneX不同,QTS和Amazon又各有侧重,所以每个供应链都有独特瓶颈。Dylan提到,Nvidia的Blackwell芯片在制造上遇到问题,导致供应链公司的资产负债表膨胀,AI服务器部署延后。这些芯片之间需要18TB/s的带宽连接,每架柜里的芯片都能互相连——这带宽高到难以想象,从早年的字节/秒到现在,进步巨大。但DRAM内存行业投资重,难有突破;网络和光电桥接更有空间,能让芯片共享内存,减少对新内存技术的依赖。
总体上,Dylan认为这些问题主要是供应链和劳动力短缺,不是电力本身需求太大。行业在调整:GE计划双倍涡轮产能,Amphenol在推固态变压器,韩国和中国供应商也被拉进来,尽管有些不情愿。未来,随着AI需求持续增长,这些调整会加速,但短期内,建大型集群如10GW的还是挑战。这也让我想到,硬件不是瓶颈,而是适应速度——AI发展太快,供应链像在追高铁。
Dylan在谈美中差异时,观点很直接:如果没有AI,美国很可能在十年内失去全球霸权,甚至更快。中国已经在很多领域通过长期投资领先,如钢铁、稀土、太阳能板、手机和PCB制造。他们靠的是更勤奋的劳动力、更高的平均教育水平,以及政府主导的资本投入。如果AI不出现,美国的债务负担会继续加重——经济增速跟不上债务,过度消费而生产不足,金融化加剧社会不稳定。收入不平等本身不是最大问题,而是社交媒体放大了炫富,让人们更易分裂;算法还喂不同内容,导致文化从过去的单一种植(大家看同一部电影)变成现在你我feed完全不同,进一步拉大鸿沟。
AI对美国来说是救赎:它能大幅加速GDP增长,扩大蛋糕,而不是分蛋糕。中国则不需要AI来“赢”——他们已经在玩长线游戏,通过补贴和生态构建逐步主导。举例,过去十年,中国通过国有企业、税收政策、土地补贴和政府基金,投了至少4000-5000亿美元到半导体领域,比美国的CHIPS Act大得多。这些投资不求短期盈利,而是建自给自足的生态。中国有完整的产业链,从原材料到成品,不像美国需要从全球进口钛或其他东西。
其实这里Dylan讲了很多内容,有些比较敏感,有兴趣的读者可以到星球查看,或者油管直接看Dylan播客的原始视频。
访谈后半段,Dylan做了快速点评,覆盖了OpenAI、Anthropic、AMD、xAI、Oracle、Meta和Google等关键玩家。他不是简单打分,而是结合硬件和商业角度分析每个公司的定位、优势和风险。这部分特别有意思,因为Dylan的硬件视角让他看到别人忽略的点,比如供应链依赖和执行力。我按顺序整理,添加了播客中的具体例子和Dylan的延伸思考。
先说OpenAI:Dylan整体看好,认为他们“超赞”,但也指出问题——焦点太散。他们不只做消费应用如ChatGPT,还涉足科学工具和各种实验,这分散了资源。尽管有8亿用户和快速增长的营收,但相比Anthropic的专注,OpenAI的执行有点儿拉胯。Dylan提到,OpenAI的魔法在于早期大胆下注计算,但现在他们得证明能把这些投资转成可持续业务,比如通过API和企业服务。风险是,如果300亿的Oracle合同付不出,股权稀释会很痛。
Anthropic的部分Dylan更乐观。他认为Anthropic的营收加速更快,因为他们死磕软件开发这个2万亿市场。Anthropic从不到1亿营收跳到7-8亿,主要靠代码相关产品:自家Claude Code、Cursor和GitHub Copilot(后两个用Anthropic模型)。Dylan强调,这不是取代程序员,而是力乘器——开发者用AI产出翻倍。相比OpenAI的广撒网,Anthropic的专注让它们在开发者生态中领先。播客中,Dylan说Anthropic的Claude 3 Opus聪明但慢,用户更爱Sonnet版,这反映了他们对服务优化的重视。未来,如果Anthropic继续深耕代码,他们可能先吃到大蛋糕。
AMD的点评带点儿个人感情。Dylan直说“我爱AMD,但他们挺中规中矩”。作为硬件爱好者,他从小就喜欢AMD的underdog精神——总在对抗“邪恶”的Intel和Nvidia。AMD的MI系列GPU在AI上抢份额,但Dylan觉得他们没革命性突破,更多是跟跑。播客中,他回忆AMD是他的第一只多倍股(尽管现在合规不能持股),这让他对AMD有软肋。但客观看,AMD的性价比高,适合中端市场,只是高端AI集群还靠Nvidia主导。
xAI的看法两极:Dylan赞Elon是“最好的”,团队专注,但警告资本风险。xAI的Colossus将是全球最大单体数据中心(30-50万Blackwell GPU),但要跟上OpenAI的10GW规模,Elon得不断融资。商业模式是痛点:当前Grok像“动漫女孩”聊天机器人,Dylan觉得Elon在错过机会——可以整合OnlyFans,做AI版创作者代理,Trojan马式吞并平台成“everything app”。播客中,Dylan说有些xAI员工已离开,因为方向不明朗。但他相信Elon不会让xAI落后——他们有Tesla的机器人数据优势,专注embodiment(具身智能)可能成杀手锏。只是,下一步3GW集群得靠营收或大笔融资,否则难赛巨头。
Oracle的部分简单粗暴:如果OpenAI成功付300亿合同,Oracle就赚翻。Dylan说Oracle是低风险玩家——他们垫CapEx,拿稳定租金,毛利高。Larry Ellison的赌注大,但Oracle的云业务已成熟,不像OpenAI那么赌命。扩展看,这也暴露了OpenAI的弱点:依赖伙伴的资产,而Oracle有数据中心专长,能帮OpenAI避开部分硬件坑。
Meta的点评最长,Dylan认为他们“有牌能赢一切”。Meta的全栈是关键:新眼镜带屏硬件+自家模型+海量推荐系统+资本。Dylan预测,下个人机界面是语音直达现实——说“买这个”,AI就执行,不用触屏。Meta的Llama开源版已比老GPT-4好(加工具调用),加上Instagram/TikTok的推荐经验,能完美匹配内容。播客中,他说Zuck的30亿数据中心合同显示Meta在补计算课,但现金流让他们无后顾。风险是执行——眼镜要普及,但如果AI代理成真,Meta可能垄断消费端。
Google的转变最大:Dylan两年前看空,现在超看好。Google醒了:TPU开始外卖,模型如Gemini竞争性强,基础设施投资激进。尽管公司内部还有官僚,但Android、YouTube和搜索IP能桥接专业和消费市场。Dylan说,Google的垂直栈让token成本最低,未来能捕专业工具(如代码)和消费(如搜索)。播客扩展,Google的多模态如Veo在视频上领先,这让他们在post-training中占优。只是,历史慢醒的教训还在——他们得保持激进。
除了大厂,Dylan提了初创Periodic Labs:由OpenAI和Google老将+材料科学家组成,用RL搞电池化学。如果效率升25%,就能解锁面部AI设备(如眼镜级电脑),大幅提生产力。Dylan说,这类硬科技初创是低挂果实——RL从数字跳到物理,飞轮虽慢,但回报高。总体,Dylan强调,这些公司定位不同,但执行是王道:如Meta的眼镜+推荐,能重塑HCI;Anthropic的代码专注,能先变现。硬件公司如AMD得找突破,否则中游难翻身。
今天星球中回答了关于1.6T光模块价格传言、华铁的杭州X公司数据中心大单泡汤的消息,有兴趣的读者可以星球中查看。