为什么我们相信英伟达能到万亿|投什么

作者:李广密,李双星

本篇研究是拾象团队过去半年关于AI投资的思考总结,既包括AI/LLM前沿趋势追踪,也有对二级市场AI板块投资主线和关键公司的分析,我们希望在一二级融合的视角下,为市场输出更全局的AI投资参考。

对于一级市场,我们有一个很深的体会:今天很难判断AI创业公司能否颠覆巨头,很多AIStart-up很少能做到完整的产品商业闭环,更多是在给老公司打样、站在巨头的阴影下。因此,AI早期的叙事下,更多的价值是被大公司捕捉到的。

而在二级市场,我们能明显感受到的是,AI正成为驱动科技股增长的力量。

例如,Mag7中每一家公司都有自己的AI布局,且有极高潜力充分受益于这波AI,尤其是英伟达,因而这些公司在2023年的增长远超过S&P500和Nasdaq100。拾象推出的

因为追踪的是真正受益于这一波AI的公司,在ChatGPT发布以来,相比于其他的几个科技指数,它的表现也是最好的。

AGI到底有多大是今天最大的非共识。

iPhone在2008年上市,这一年Apple公司的股价从8美元涨到了10美元,而今天,Apple的股价已经达到230~240美元。在16年的时间里,Apple公司的股价涨了15~16倍。

当一个大的科技革命到来时,我们永远无法预测它所带来的增量和长期的投资回报,

这也是为什么我们坚信英伟达估值远没有饱和、将达到至少5万亿美元市值的底层逻辑之一。在这篇分享中,我们也对英伟达的5万亿之路进行了拆解。

在二级投资中,拾象选择将精力集中在5条投资主线中,分别是算力、云基础设施、端侧、互联与软件,沿着这5条AI投资主线,除了英伟达(NVDA)外,我们还会对Amazon(AMZN)、Apple(AAPL)、博通(AVGO)以及Servicenow(NOW)等AGIXIndex中的重要公司进行基本面梳理。

💡

目录💡

01为什么要坚定下注AI

02AI投资的关键判断

03如何在二级市场捕获AIAlpha

01.

为什么要坚定下注AI

投资逻辑1:

相信PowerLaw

过去10年,1%的美股头部科技公司贡献了美国科技股99%的回报。2013年,美股大概有1,700家科技公司,当时的总市值为4.2万亿美元,现在美股科技公司的总市值涨到了20万亿美元,但头部的1%差不多是由大概10家公司贡献的,从2万亿涨到18万亿美元,基本上相当于这头部的十几家公司贡献了涨幅的99%,这些公司无疑都抓住了移动互联网和云计算这两波关键的技术变革。这也决定了拾象的策略是:只专注于下注大赛道下的头部公司,且下注比较重。拾象在一级市场也已经投了一批最优秀的头部独角兽公司,它们的总估值加起来超过了6000亿美元。

毫无疑问,AI领域一定会诞生下一代头部科技公司,powerlaw也在LLM领域被验证。

投资逻辑2:

AI-native是未来10年的科技投资范式

复盘过去2年LLM领域的发展,AI一定会是接下来科技投资的核心驱动力。

ChatGPT发布以来,很明显AI驱动了美股科技股的增长,Mag7在2023年的增长其实是超过了S&P500的:Mag7的每一家公司都有自己的AI布局,且有极高潜力充分受益于这波AI,尤其是英伟达。

我们也对比了几个指数,从ChatGPT发布以来,AI含量越高的指数增长就越优秀。哪怕把QQQ和纳斯达克100的IT板块单独拆分出来,这些指数的表现也会更好。

我们最近有一个很强的体会是:今天我们很难判断AI创业公司能否颠覆巨头。比如,手机还是我们未来3-4年里最核心的设备,今天很多的AI消费设备是替换不了手机的。其次,AI创业公司还是比较烧钱的,没有以前广告平台的商业模式好,而且巨头的卡位也很好。

因此,我们认为第一波叙事受益的还是巨头,二级市场成熟的科技公司机会很大,从今天的AI投资叙事来看,大基建逻辑下的头部公司是最值得配置,新一代AI唱主角的公司的序幕还没有正式展开,为了更好地量化这种趋势,我们针对AGI做了一个追踪指数,ChatGPT发布以来,相比于其他的几个科技指数,它的表现也是最好的。我们也希望AGIX能够成为大家冲浪未来AGI黄金十年的工具。

投资逻辑3:

AI会带来商业模式的重构

过去两年,拾象团队专注在大模型这一个环节做了很多研究,我们在大模型研究上的投入至少已经达到了1万小时。最近几个月我们也在做大模型应用场景的调研,我们有一个很强的感受就是:硅谷的很多一级AI公司都是在AIfeature方面进行创新的,但很少有公司做到了完整的产品商业闭环,而有可能是在给老公司打样。

就连OpenAI这样的大公司也都在巨头的阴影之下:

GPU受限于英伟达,infra基建受限于微软,GPT企业级市场也要靠微软的销售,到了toC端其实就是iPhone上的一个feature。因此,我们认为在AGI链路中,ToC的很多果子会被Apple摘走,而ToB的很多果子则会被微软摘走。

我们特别喜欢几个例子:

•Adobe从转云之前只是一个当年从一个几十亿美金的传统软件公司,但转云之后,它的商业模式、市场规模、增速都有变化,并且一跃成为了一个差不多3000亿美金的公司;

•海康威视在上一波计算机视觉的变革中,从卖设备转为卖系统,商业模式变得更加recurring,利润率和估值倍数都变高了;

所以,我们相信AI肯定也会带来类似的故事,但这个大幕还没有真正展开,我们很期待AI能改变更多传统行业公司的商业模式。

02.

AI投资的关键判断

判断1:

我们并不知道AGI到底有多大

现阶段大家还没有对AGI的定义和理解达成一个共识,我们听过的最好的一个定义是:AGI能在90%的行业,超过90%的专家,完成90%有经济价值的工作。

其实这三个90%还是很激进的,但它代表了一种愿景。

另外,AGI不完全是一个商业问题,它还兼具了科学发现的属性。它的背后是永无止境的研究发现精神,不断地探索新的能力边界。更抽象地来说,AGI是怎么用能源和芯片来产出智能?未来各大公司比拼的就是智能产出的效率和能力到底有多高,是否可以无限产出几亿的新劳动力?

从历史上看,科技进步是创造增量价值最关键的要素。有一个有意思的现象是:历史上每一波技术变革的头部公司市值都会比上一波头部公司的市值再加一个0。

10年前,投中一个10亿美金估值的独角兽就很厉害,但今天,很多公司半年内就成为了独角兽、甚至一出生就是10亿美金估值。2010年前后Apple的市值也才2000多亿美金,那个时候,我们根本不会想象到全球还会有万亿美金的公司,就像我们今天也不会想到未来可能会出现10万亿美金的公司。

在2016年的AI投资热潮中,英伟达从200亿美金涨到了千亿美金市值,但是我们也无法想象英伟达今天可以达到3万亿美元这么大。

所以,今天AI领域最大的一个非共识就是:其实我们并不知道AGI到底有多大。

之前软件产品都是按照人头数定价的,比如一个人20美金,但未来可能会按照结果产出来定价,比如AI帮我的工作创造的增量价值是1万元,那AI技术拿走其中的5-10%是很合理的,其实现在电商和广告平台已经在按结果付费了。我们认为,未来的工作任务很可能是按结果付费的,这就相当于在增量的GDP里面抽税了。

判断2:

AI是拉动未来15年全球增长的关键力量

AI和AGI一定是未来10-15年GDP的最强拉动力。结合之前SamAltman的观点,我们也有一个预测:AI有机会在10-15年内让全球的GDP翻倍,从今天的100万亿美元涨到200万亿美元,

但今天100万亿的GDP中和AGI浪潮直接相关的可能还不到0.1%,离解锁90%还有很远。

另外一个计算方法是:大模型赋能或颠覆的其实是“知识工作者”这个群体,简单地说就是全球每天在办公室工作的10亿白领。

从历史上看,农业的机械化已经让90%的农民不用再种地了,我们认为这一波AI技术基本上能够让这些白领90%的日常工作内容实现自动化。坦白来讲,绝大部分知识工作者的内容也是相对简单、机械的重复,所以,就像自动驾驶在很多情况下的安全水平已经超过司机的平均水平那样,如果可以“造出”3亿的白领,那未来电费和芯片的成本就可以替代掉每个白领3万多美金的年薪,也就是10万亿美元级别的收入,如果要对应到市值,这个数字还要再乘以10。

主观上,我们更期待的是AI能创造出李白和杜甫。平均每1000万人中,可能会有一个像李白、杜甫这样的天才,而AI也是一个概率模型,随着模型能力解锁、如果能从根本上提升AI的审美和创造水平,就能更批量地创造出李白和杜甫了,那这将成为一个新文化和创意涌现的时代。

判断3:

LLM正处于大基建初期

很多人关心现在AI处在什么阶段,拾象团队一个很深的体会是:全球AI大模型目前还处在大基建的初期,也是人类AGI基建的早期阶段。

为什么基建很重要?过去中国的4G、5G和智能手机都是一种基建,只有在电信基建完成后,才有了短视频和移动支付应用的大爆发;公路、铁路基建带来了电商和快递大爆发;城市化基建带来了外卖、本地生活消费的大爆发。

也有人会问AGI应用为什么还没有大爆发,我们的答案也很清晰:因为算力的基建还不够,算法和数据一直在等算力基建。

整个2023年全球GPU的消耗时间,如果按照2亿人的基数算,平均每人每天只能算1分钟,我们相信它在未来很有可能会像短视频一样渗透到30-50亿人,每人每天消耗1小时的算力,所以我们目前还处于AGI大基建的早期阶段,而AI是一个供给驱动型的市场。

今年,硅谷的一线大模型公司已经拥有了3.2万张H100充分互联的GPU集群,再加上它们部署的小集群,年底的GPU总量已经超过了10万张,

在明年的竞争格局中,就是10万张卡充分互联的单体集群,这个数字一点也不夸张,而且是一个单体的充分互联集群。极有可能在2027-2028年,会有2-3家公司建造出1000亿美元的超级计算机,这个超级计算机所产生的影响和曼哈顿计划、登月计划一样。

很多人都很关心这个计算集群的投入产出会是什么?它的产出结果其实就是无限的智力和能力提升或者是更高级的生产力,

随之也会对全球地缘政治产生非常大的影响。鸦片战争的本质就是工业社会从高维度碾压低维度的农业社会,新旧世纪交替时的海湾战争也是信息化社会碾压了传统的工业化部队。AGI今天就到了这样一个新的技术革命转折点,它的影响幅度可能会超过以往的所有技术革命。AI的进步速度很快,过去一年中AI的进步速度超过了人类历史几千年的发展。

今天很多人也在讨论会不会持续,模型会不会继续变大?我们的观点是目前scalinglaw还没有失效,边际收益也没有递减,所以模型在未来几年中会继续变大。今天最大的模型有1-2万亿参数,未来可能会走向百万亿参数,和人脑神经元相当。

模型变大的同时,大家还低估了一个趋势,那就是模型变小的速度也很快,OpenAI刚发布了GPT-4omini模型,单位参数小模型的知识密度也在快速提升,可能在一年内大家就能看到手机和电脑端侧可以跑一个GPT-4能力水平的模型。

端侧小模型的趋势也引出了我们的另一个关键判断:除了英伟达代表的数据中心基建,Apple等手机厂商和手机产业链代表的消费端侧基建也是大基建的一大主题,和数据中心一样重要。

无论是数据中心基建,还是Apple手机端侧基建,几乎100%的高端芯片都产自台积电,因此台积电将会连续受益于这两波基建浪潮。

判断4:

AGI基建是工程问题,

通过资金投入和时间可以解决

AGI基建是工程问题,人工智能行业没有解决的问题比解决的问题还要多,因为科学问题往往不是能够立刻看清的,但AGI大基建是可以通过投入资金和时间来解决的。

拿GPT-4的训练来举例。现在训练出一个GPT-4最少也要8000张H100的有效算力,接近万卡集群。万卡集群是一个标配,如果自己买卡,每张H100的售价接近3万美金,再加上周边设备,仅硬件成本就需要3亿美金。当然也可以租,如果租H100一年,需要差不多1.5亿美金。

为什么万卡集群工程的难度很大?

这个和GPU的特点有关,传统CPU是串行计算的,一个CPU坏了是不会影响到其他CPU做任务的。但GPU是并行计算的,1万张卡里1张坏了或者1张的处理速度慢了,剩余卡的任务进度也会慢下来,这就需要我们快速定位出故障的卡,这件事很难,而且万卡集群基本上每天都会坏,每天都有故障率,因为本身GPU的故障率就很高。

第二就是能源上的问题,每张H100的功耗是很高的,差不多要1000瓦。假设GPT-4用8000张H100训练100天,对应就需要2600万度电,这意味着三峡一天的发电量,或上海一天用电量的5%。此外,模型训练对电力的波峰波谷需求很明显,有些任务很耗算力自然对电力消耗也很大,如果规划不好可能会影响到居民用电。之前大家都没预料到AI会发展这么快,而重新建造一个电站往往要2年左右的建设周期,而且很多地区都有能源环保政策,因此修建电站会比我们想象中还要慢。

我们一直在谈论1万张卡的用电量,10万H100集群一年的用电量大概是12.4亿度,这大概是整个上海一年用电量的0.8-1%。现在AGI数据中心主要是在美国本土,美国一年的总用电量在过去20年里一直都比较稳定,大概是4万亿度,其中数据中心可能要用2000亿度,也就是5%左右。但媒体预测,到2028年,美国本土的数据中心用电量会增至6700亿度电,也就是在5年内涨3倍,从5%涨到16%,这对制造和基建能力明显退化的美国来说,其实是一个很大的挑战。

判断5:

未来2-3年能看到Coding领域AGI

拾象团队经常说的一点还有“AGI不是一蹴而就的”,它的关键词是“渐进式解锁”,就像前面提到的,画一条登山路线图,模型能力每增长一点,就会解锁一些新场景,产生一些新应用。

目前来看,搜索是LLM初期最大的KillerApp。

GPT-4出来已经一年多了,但AI应用还没有大爆发,从结果上来看是比较无聊的。但如果抛开ChatGPT这种大模型公司的应用,硅谷主流VC投资的、已经跑出来且发展到一定估值的,我可能只能想到Perplexity一家。

但如果拉开时间维度,我们认为未来2-3年有机会看到Coding领域的AGI,

也就是一个做各种任务都非常不错的程序员。因为软件的逻辑更清楚,更容易有从0到1的反馈。有一个很好的比喻是:过去互联网是搜索网页的信息,叫搜索引擎,但未来coding可能叫任务引擎,用来解决有经济价值的任务。

目前我们用的软件是由产品经理定义出头部需求后,再由一个很大的开发团队去开发执行。和拍电影一样,需要导演先发出一个定义,再由整个团队合作来拍。未来,长尾的需求或个性化需求是不需要团队负责开发的,AI组合各种Agent就可以解决。这个场景在历史上已经多次重复实现过了,比如拍电影成本很高,但在短视频爆发后,每个人都可以拍自己的电影。

在今年年初发布的总结中,我们其实也提出到了“大模型是一个”,

其中分为两条主线:第一条主线就是智能能力的进化,每1-2年模型水平就会提升一代;第二条主线是模型的成本会非常快地下降,每18个月就会下降10倍以上。现在很多开发者在创业的时候,都是用的最好的模型来做PMF,但很快他们就可以用更便宜的模型来降低成本了,再发展一到两代就很有可能会带来更多AGI应用的爆发。

03.

如何在二级市场

捕获AIAlpha?

当一个大的科技革命到来的时候,长期的投资回报是非常可观的:

iPhone在2008年上市,Apple当年的股价从8美元涨到了10美元,16年过去后,Apple现在的股价在230~240美元之间。16年的时间里,Apple公司的股价涨了15~16倍。考虑到我们现在其实还处于AI革命的早期,所以现在是参与AI投资最好的时间。

最近这几周,硬件板块出现过一些回调,也因此市场上开始讨论接下来要如何布局AI投资的问题。对于这次回调背后的原因,我们整体上认为有两方面:

•在逻辑趋势上,市场上有相当一部分观点开始担心AI的货币化;

•另一个很重要的点就是美国进入了一个偏风格轮动的阶段。

从基本面的趋势角度来讲,我们认为其实并没有特别大的变化。以Meta为例,在它基于GPU算法的广告模型中,客户每投入1美元,就可以创造3-4美元的收入,所以这个GPU的推荐广告算法带来的收入端增益其实是非常不错的。我们之前也测算过微软的GPU回本周期,大概是3年左右,也就是说每年大概能带来30%现金层面回报,从大的互联网公司角度来说,这个投资回报率还算不错,这个是无需质疑的,这也是为什么这些公司今年都在不断地上调资本支出的指引。在我们和ServiceNow以及其他公司的调研和交流中,我们也能很深切地体会到AI投入的ROI是非常高的。

但从企业用户角度,他们采用LLM的瓶颈其实并不是因为ROI的问题,而是用模型时需要确保在基础设施、网络、客户隐私以及准确度上符合要求,企业用户采用LLM很多时候普遍会考虑三个问题:

•准确率高不高?

•数据安全性问题能不能得到解决?

•应用场景上会不会有各方面合规的要求?

其实现实角度,美国很多企业已经开始在内部部署LLM了,比如内部的IT答疑系统,如果是一个大型企业,假如有一个IT问题,在过去处理这个问题可能需要5个工程师把所有的问题问清楚后,再去找到系统的问题并进行修复,但用了LLM之后就完全替代了这5个工程师的人力。

随着下半年模型的能力会进一步发展,尤其是在逻辑推理能力、多模态能力、agent能力上都会有进一步的发展。模型能力的进步也会解锁更多的应用场景,我们相信企业也在不断地尝试各种场景,预计明年会看到更多应用端的出现。所以从基本面角度来讲,我们认为AI还是在发展的,我们也对明后年非常期待。

短期来讲,可能会出现板块轮动的现象,包括美国大选等外部事件带来的不确定因素等都会成为波动的原因,所以,我们的观点是基本面还是在发展,短期的这些因素更多的还是市场因素,是非基本面的因素。

在二级投资中,拾象选择将精力集中在5条投资主线中,分别是算力、云基础设施、端侧、互联与软件。

结合我们的调研与研究,我们也会根据AI领域的进展来动态地调整我们在这五个方面的布局。

当前我们认为算力与云基础设施仍然是制约AI大发展的瓶颈,算力的需求仍然非常强劲,因此我们在算力与云基础设施上的布局相对更重一些。作为对比,AI对软件的影响不是非常明确,因此我们暂时对软件的布局会相对轻一些。但预计在未来2年,我们能够看到端侧的应用与AI软件侧的进步都会越发明显,因此我们可能会在未来两年中进一步增加端侧和软件侧的布局。

投资主线1:

世界需要更多算力,

廉价的算力永远是稀缺品

前面我们提到,目前全球平均有两亿人每人每天会使用一分钟GPUtime,如果沿着这个思路去想,假设未来有20亿人每人每天使用一小时GPUtime,那对算力的需求可能会增长100倍甚至1000倍。

有一类主流观点认为:算力在等待模型进步,市场的发展需要看到应用端的爆发,但我们认为这个观点本末倒置了,在拾象团队的视角中,模型一直在等待更廉价的算力,廉价的算力永远是稀缺品。

算力成本越低,经济可行的算法会越多。以GPT的发展为例,GPT-5需要5万张H100集群训练6个月,所以当前每一代模型如果要训练成功,需要6-9个月,模型的迭代速度非常慢,制约模型发展的最主要瓶颈其实就是算力。但如果我们用下一代英伟达B100的卡去训练GPT-5,它的训练时间可能会大幅缩短,只需要1-2个月,那模型的迭代速度就可以大幅度提升。

中长期看,我们看到有3个方面的因素会进一步拉动算力的需求。

1.我们仍然处于scalinglaw的早期,模型的能力还是会随着模型参数的增加而提高。

OpenAI、微软与Anthropic等头部公司的高层曾在访谈中多次提到:scalinglaw远远没有触及边界,他们的产品仍在你追我赶的过程中。算力军备竞赛仍然在如火如荼地进行。

2.多模态模型,尤其是上周GPT-4omini的发布,会进一步解锁更多应用场景,

例如随身携带摄像头,提供实时的AI助手功能等。多模态模型也可以进一步地替代人工成本较高的职位,例如医生出诊、律师咨询、销售等,这些职位以后都将有可能被AI所取代,这样AI所带来的经济价值也会越来越高。

3.我们可以有一些大胆的假设,当前每年全球国防开支约为24000亿美元,如果大模型能够进一步解锁图像与视频领域的新能力,假设每年有3~5%的国防开支用于AI或信息相关投资,就有1000亿美元的边际增量

综合各方面因素,我们认为世界仍然需要更多的算力。

TopPick:英伟达(NVDA)

英伟达仍是我们目前在算力这个投资逻辑中最为看重的一支股票,虽然它的股价已经涨了很多,但我们认为估值远远没有饱和,目前英伟达的市值已经达到了3万亿美元,但我们对英伟达的心理价位至少是5万亿美元左右。

市场上会有观点认为,因为竞品的快速追赶,英伟达护城河与此同时也在不断变窄,但拾象的判断是:推理对系统要求更高,英伟达系统的护城河其实是越来越宽的,这是英伟达实现5万亿的前提。

我们对英伟达看多有三方面原因:

•从市场规模来讲,我们认为整个加速芯片市场会进一步扩大,有机会达到3000-4000亿美元的规模;

•英伟达拥有从芯片、互联到软件三位一体的竞争优势。在短期内,我们看不到英伟达有任何的竞争对手;

•英伟达有非常完善的产品矩阵。英伟达在今年的展览会上明确宣布了它在2024年下半年、2025年以及2026年的产品路线图。我们能看到它正在从卖芯片逐渐转向发展成熟的系统和软件,不仅路线图明确,产品力也在逐年提高。

在此前面看多英伟达的基础上,关于“为什么英伟达至少可以达到5万亿的市值”,

我们的逻辑是:

未来5年之后,数据中心的基础设施将达到2万亿美元的市场规模,这里的2万亿指的是整个IT基础设施的规模,即同时涵盖了CPU和GPU,现在存量的数据中心规模大概在1万多亿,每年有大概2000-3000亿的增量,5年后就会达到2万亿美元左右的规模。

在数据中心规模达到2万亿后,就会出现:现在硬件的使用周期一般是七年左右,为什么我们相信英伟达能到万亿|投什么如果以7年作为一个替换周期,那实际上每年的替换率有15%。正常情况下,每年的增长大概是高单位数,也就是7-8%左右,所以15%的替换周期加上高单位数的自然增长,那每年就会有近20%的替换加增长的一个市场空间,随之也会带来一个4000亿的Capex的空间。

过去的每个时代,最头部的企业都占到了70-80%的价值量,并且今天来看英伟达的护城河非常宽、也很值得市场的信任,所以我们认为英伟达仍旧可以占到75%的价值量,也就是说,它可以达到3000亿美元的收入体量。

目前英伟达的净利润率是45-46%,随着规模扩大,它的经营杠杆会进一步体现,所以我们认为它有机会达到50%的利润率,也就是1500亿的数据中心盈利。

数据中心之外,再叠加上比如自动驾驶,gaming,以及它在帮很多企业开发的数据中心业务等等,我们认为英伟达肯定是可以达到5万亿的。值得强调下英伟达在自动驾驶上的布局,英伟达可能是除了Tesla之外在自动驾驶上投入第二大的公司,我们认为这一点其实是被市场忽略了。

投资主线2:

AI对云厂商的盈利拉动开始显现

云厂商能最直接受益于大模型进步与应用。我们已经能看到AI对云厂商的收入拉动在逐步增加:

过去四个季度中,AI对微软的边际贡献分别是1%、3%、6%和7%,

在很多CIO调研中也能明显感受到全球头部企业在云上的投资意愿是在不断增加的,2025、2026年在云上的投资意愿都显著高于2024年,也因此,我们对几大云厂商在未来几年的收入都是非常乐观的。

TopPick:Amazon(AMZN)

Amazon是四家云厂商中我们目前最喜欢的一家,并且我们认为市场其实低估甚至忽略了AWS受益于GenAI的程度,也因此我们看好AWS的长期增长潜力。

拾象团队对于Amazon的投资逻辑,主要基于以下两点。

•首先,如前面所提到的,AWS作为云厂商也是LLM的重要分发渠道,其中,AWS和Anthropic的合作虽然不能100%看作Azure和OpenAI,但也是相当深度的合作。Anthropic最新发布的Claude3.5系列模型的表现数据很惊艳,从市场反馈来看,ClaudeSonnet3.5是一个和OpenAIGPT-4o不相伯仲的一个模型;

•第二,因为Amazon收入中很重要的一部分来源于零售以及广告,而今年和明年零售和广告业务会进入一个快速复苏和增长的环节,

总结来说,无论是在近期零售与广告的复苏,还是中长期在大模型的布局与云服务上,我们都非常看好亚马逊。所以,现在这四朵云中,我们的首选是亚马逊。

更进一步,我们可以把AWS和Azure进行对比,来感受为什么AWS的实际表现可能比市场认知中要更强。

和AWS相比,微软更擅长为大企业和政府服务,它和OpenAI绑定更深。但是我们也能看到它和OpenAI之间彼此有一定提防的,比如OpenAI其实并没有把某些交互的API权限开放给微软Azure,但AWS对中小企业更友好,尤其对start-up更友好。

从模型能力的差异来看,两者可以说是齐头并进,在某种程度上,虽然Anthropic的每一代模型虽然可能比OpenAI稍微晚几个月,但其实它的效果在很多方面,尤其是在长文本的阅读能力、作图能力等上都略高于OpenAI,所以我们认为亚马逊和微软在能力上并没有绝对的差异。

甚至和AWS相比,微软更封闭一点,因为它的目标是通过AI来推动其他产品的销售,比如推动Office365和Windows的销售,所以微软的主观性更强,有更强的主观控制的tendency。而Amazon就更开放一些,如果我们相信AI会产生一个新的独角兽或者产生一个新的颠覆式的公司,那么这个公司很有可能最早是AWS的客户。

也因为市场对微软的共识太强了,这就导致它的PE的multiple很高,可能有35倍左右。但因为对Amazon的预期不太高,甚至觉得它会因为AI受损,所以multiple并不高,这也是一个非常大的区别。

投资主线3:

端侧应用开始进展

ToC端,今年是AIphone的元年。2008年,我们看到的是smartphone开始取代过去的featurephone,随着Apple在今年的WWDC上推出的AppleIntelligence,我们认为今年进入了AIphone的时代。在企业端,在很多survey中都能看到,企业高管们对端侧的AI都是非常看重的,也都非常愿意进一步投资端侧的AI应用。

TopPick:Apple(AAPL)

在端侧的布局上,我们目前的首选就是Apple,我们认为Apple最关键的价值在于,因为它在软硬件上布局足够全面,所以能够把控整个流量的入口,Apple是AI时代ToC端当之无愧的最大受益者。

先从入口角度,除了OpenAI的GPT系列模型外,Apple还在和很多家LLM公司接触,它选择的是一个所谓的热插拔的策略,也有报道说它在和Google谈新的合作,在WWDC上,我们也能看到Apple很明确地表示要把流量入口抓在自己手里。

AIChatbot对于Apple来说一定是一个相对比较大的应用,但是在系统级的层面上,它一定、并且也会牢牢地把所有的流量入口、分发权以及APP的调用权控制在了自己的手里。这也是我们为什么非常喜欢Apple的原因:在AI时代,它仍然是最能占据流量入口和心智的卡位。

我们对这次WWDC最大的感受也是:Apple非常有机地把AI结合到了iOS系统中,我们甚至可以说,一方面是Apple深度地拥抱AI,另一方面AI也在某种程度上在重构Apple。

可以想象一下,未来AI时代的手机入口可能不再需要点击屏幕上的一个个APP,Siri变成了一个全能的Agent,因为它的权限很大,可以把各种应用都调用起来、完成复杂任务和交互。

举个例子,我们可以让Siri帮忙查询一班明天北京到上海的飞机,根据我目前的日历行程,也许一个上午10点从北京机场飞到浦东机场的机票会更合适,目前可能我们还需要到几个APP中自己搜、比价,但在可预见的未来里,这件事可能会变成通过我们和手机的交互,让手机帮我们实现这个操作。

如果看Apple在LLM模块化上的思考,即在云端以三个不同大小的模型来实现复杂程度不同的任务上,也能感受到Apple接下来的潜力。

此外,我们认为iCloud作为Apple的服务端,它的增长潜力远远被市场低估了。

Apple目前的手机销量慢慢进入了2亿的相对平稳期,LLM首先会改善这个情况,但更重要的是随之而来的隐私刚需也会带动iCloud这个“个人云”的收入提升。Apple服务端的渗透率目前只有10%,如果随着未来AI功能的加入,用户订阅iCloud的比例增长,那么每一个点的渗透率的提升都会给Apple贡献3-4个点的EPS(EarningsPerShare)增速。所以我们认为Apple在未来的3-4年将会进入一个超级换机周期,同时它的服务端也将会有很大的收入增长的可预见性,所以在端侧,我们现在的首选是Apple。

投资主线4:

存储与互联的超级周期仍在展开

下一代大模型的训练是以作为基础的,当下按照训练GPT-5的需求来看,我们目前能够利用的集群规模在3-4万张卡的水平,而下一代模型的入场门槛就要到十万张卡,整个规模都要进一步地大幅度拓展。而且scalinglaw仍在快速推进中,对模型的参数以及数据的带宽都会有进一步的要求。此外,随着LLM的进一步普及,我们也会创造出更多的数据,比如说今年的Sora模型会不断加快视频的产生速度,可以想象,未来几年视频的数据会爆炸式地增长,这就会对数据的存储、互联、交互都会提出更高的新要求。

TopPick:博通(AVGO)

在互联与存储的环节,我们现在的首选是博通。博通可以说是在互联中最具有战略意义的公司。

之所以看重互联环节是因为它属于数据中心中除了计算之外的,第二大支出项目。以Meta为例,它的2.4万张卡集群中,复用率占了70%,互联占了25%左右,所以互联在整个数据中心基建中具有非常重要的作用。

我们喜欢博通的另一个原因是:博通是定制化芯片的最主要、最大的生产商

博通与Google已经合作了六代定制芯片TPU,今年将开始研发第七代TPU。我们可以看到,像Meta和字节也都是到博通做的定制化芯片。所以,除了英伟达,对很多大型互联网公司来说,必不可少的另外一家硬件公司就是博通。

投资主线5:

按席位的SaaS模式转变为按计算量的

Token-as-a-Service模式

在一开始的投资判断中,我们也提到LLM会革新商业模型,我们认为在SaaS领域这个趋势是一定会发生的,过去Seats-based的软件模式有可能会转变成Token-as-a-Service的模式。

过去软件是按照人头收费的,因为每一个生产力的单元都是员工,所以软件最主要的增长方式是服务更多的员工,但是进入AI时代后,业务或者生产力的增长点可能不在员工数,而是变成LLM数,也就是说未来企业的生产力将不再由员工数来决定,而是由企业有多少个LLM,LLM能产生多少个token、它的计算量有多大。这些因素会成为未来企业盈利增长最主要的模式。

所以我们现在思考的一个问题就是:整个软件的模式会不会出现一个翻天覆地的变化?按照人头、席位数的模式会不会被以计算量为服务模式的软件公司所取代?

最近有一篇关于Salesforce的研究中写到,AI会降低Salesforce10%的席位数,我们认为这则消息证实了我们的一个猜想:未来的软件模式将由席位数逐渐转变成token数,

不过可能有更贵的token,也可能有更便宜的token,比如说模型好的公司可能token的价格就会更高。我们会沿着这个思路去做相应的投资布局。

TopPick:ServiceNow(NOW)

当前我们在软件方面最喜欢的公司是ServiceNow,我们认为ServiceNow目前是在海外SaaS公司中最明确的AI收益标的。

目前来说,帮助企业部署AI、部署LLM的公司非常少,而ServiceNow是我们目前看到的能帮助企业部署AI的有限的几个公司中最好的一家。

ServiceNow主要业务是为企业IT自动化提供各种服务,经过这么多年的发展已经成为很多大型公司的长期合作伙伴,对很多公司内部的IT系统和数据系统都非常熟悉,所以在AI时代,如果很多公司想部署LLM,首先找到的合作伙伴就是ServiceNow。因此,从去年开始ServiceNow就在很多场合提到它的订单非常强劲,无论是基于LLM能力的NowAssist服务,还是提供的解决企业数据、企业内搜索等方面的服务,都受到了很多企业客户的好评,相关需求也很多。

在LLM的实施过程中,很重要的一点就是企业内部搜索,ServiceNow在这方面做得是最好的,

比如很多时候大家诟病LLM在应用过程中的一点是模型会在应用过程中产生一些幻觉,幻觉主要有两个解决方案:RAG,以及企业内的图谱搜索,ServiceNow在这两方面都推出了相应的服务,所以ServiceNow是企业在部署LLM时很重要的一个合作伙伴。

NowAssist是ServiceNow过去20年里所有产品中增长最快的一个,这件事其实表明了两点:第一,企业部署LLM的需求非常强劲。第二,企业对ServiceNow服务是认可且非常信任的。

因此,我们认为,无论是订单、现金流、所处的位置,还是横向拓展的能力,ServiceNow现在都属于AI时代第一批最受AI收益的标的,也是我们目前在软件领域最喜欢的一个标的。

**本文仅作为科普分享及学习资料,不构成任何投资建议或金融产品推荐,并且及不应被视为邀约、招揽、邀请、建议买卖任何投资产品或投资决策之依据,文中所涉及的分析、观点及结论均为作者基于公开信息的研究和主观判断,不代表任何投资机构或金融机构的官方立场,亦不应被诠释为专业意见。投资有风险,入市需谨慎。**

排版:Doro

免责声明:本网站部分内容由用户自行上传,若侵犯了您的权益,请联系我们处理,谢谢!联系QQ:2760375052

分享:

扫一扫在手机阅读、分享本文

谨腾

这家伙太懒。。。

  • 暂无未发布任何投稿。

最近发表