
强人工智能,也称为通用人工智能(Artificial General Intelligence, AGI),是指具备与人类相当或超越人类水平的全面智能系统。这种AI不仅能执行特定任务,还能像人类一样理解、学习、推理、规划、解决复杂问题,并适应全新的、未知的环境和任务。它拥有自主意识、自我学习能力和跨领域迁移能力,理论上可以胜任人类所能完成的任何智力工作。与当前广泛使用的弱人工智能不同,强人工智能不局限于预设程序或单一功能。例如,今天的语音助手、图像识别系统或推荐算法都属于弱AI,它们在特定任务中表现出色,但无法跨领域思考或自主创造。而强AI的目标是实现真正的通用智能,能够整合知识、处理不确定性、进行抽象思维,甚至可能具备情感理解和价值观体系。
说人话就是,AGI其实就是机器有了意识,可以进行复杂的思考,那么人类有没有可能制造出AGI?之前图灵奖得主Yann LeCun和强化学习之父Richard Sutton都认为LLM不可能达到AGI,他们提出需要强化学习和世界模型来通往AGI:
世界模型是一种计算模型,能够模拟和理解周围环境,通过感知输入(如视觉图像、声音等)构建对环境的内部表示,并在此基础上做出决策或预测。它能够预测自然世界的演化,以及由行为者采取的一系列行动所产生的未来世界状态。它帮助机器学习世界的运作规律,从而更快速地学习、规划复杂任务,并适应不熟悉的情况。LeCun认为,要让AI像婴儿一样了解世界,需要像婴儿一样学习世界如何运作。
再说强化学习,简单说就是面向智能体的学习,从经验中学习,与环境交互来达成目标。在这些层面上,它比其他类型的机器学习更贴近现实、更有雄心、也更自主,因为智能体在外面行动,不一定有人帮忙。动物在成年以后也没有什么特别的外部帮助,对吧?所以强化学习的核心是带有延迟反馈的试错学习,你最终得到的只是一个奖励信号,告诉你有没有得到你想要的东西。
强化学习和世界模型真的能够通往AGI吗?我们认为也够呛,理由如下:
说人话的话,强化学习和世界模型本质上是试图模仿生物与外部环境交互的过程,通过外界的信息和刺激来判断行为是正确还是错误,从而让机器不断进化,但是这套方案我们认为至少有以下几个缺陷:
一、刺激和强化学习的不完备性:无论我们给予世界模型和强化学习多少信息和刺激,我们能给予的信息和刺激始终是有限的,那么如何在有限的信息下进行有效的预测和决策,这个是一个问题。要知道,自然界的信息可是无穷无尽,在这种无穷无尽的信息之下都花了几十亿年才演化出人类文明,难度可想而知。
二、实现迁移和泛化能力的困难性:迁移和泛化其实是两种不同的能力,泛化相对来说要简单一点:你在家里学会了开自家的白色轿车。当你去租车行租了一辆黑色的、型号稍微不同的轿车时,你依然能够顺利地驾驶它。这就是你对“开车”这一技能的泛化。而迁移是什么:比如一个模型先学会了“识别猫狗”,然后利用这些视觉特征的基础,只需少量调整就能学会“识别肿瘤”,目前强化学习和世界模型如何实现迁移和泛化还需要更多的研究。
三、意识的谜团:我们认为,有意识的生物才能学会思考,换言之,复杂的思考过程的前提是拥有意识,但是客观物质的组合如何产生主观体验?时至今日意识是什么我们都没有搞清楚,所以要想在没搞清楚意识本质的前提下让机器诞生意识并且学会复杂的思考,难度极大。我们连自己是谁都没搞清楚,就妄想制造出另一个和自己平级甚至超越自己的智能成为造物主,多少有点痴人说梦了。
0x04 AI的估值与对当下的影响
基于上述分析,我们认为当下的AI更多还是应该集中于专用任务AI的应用推广上,而AGI在我们看来还只是镜花水月,无论是LLM还是强化学习、世界模型,从我们掌握的常识来说,想要实现具备自我思考能力,进行复杂推理的AGI难度都非常大,那么ANI真是一无是处吗?也不是。我们在0x02讨论了AI能做什么以及它目前存在的问题,AI对现代社会的影响到底有多大?
我们认为,评判一项技术的颠覆性,能不能大幅推动生产力进步,那要看这个技术能不能普惠所有人。回想一下历史上的几次工业革命,几乎都是影响覆盖了绝大多数人,第一次是蒸汽机,或者说机械化;然后是电气化,电的广泛使用影响了全世界的人;再到电脑和手机的信息技术,互联网提高了信息传输效率,人手一台手机。前面几次工业革命的代表性技术都可以认为影响到了绝大多数人,AI是否符合这个标准了?要知道当下市场可是给AI超高的溢价,根据价值投资的原则,AI能提升多少效率决定了AI估值的上限,AI如果不能大幅提高生产力带来巨额现金流的话估值必然会下杀。AI的证实需要两方面因素推动,第一是爆款,或者说渗透率,指望一个爆款支撑当前AI的估值目前来看不现实,我们认为需要许许多多不那么爆款的实用应用,比如100个惠及100万人的应用场景,第二是资本开支,这个要关注能源和AI硬件和训练成本下降的进展。
所以我们基于上面的论述,从资本开支端和AI应用端提出一个“AI发展指数”:
一是AI营收占比:营收/资本开支 *50%
二是月活用户占比:AI应用月活跃用户总数/全球人口 *50%
两者加起来得到一个AI发展指数。
下面来简单的计算一下,先算AI营收占比(下表是我叫AI直接使用美股七巨头2025年财报数据生成的):

排除英伟达和苹果,我们可以看到其他几家的AI营收占比普遍在0.2左右,也就是说1美元的AI资本开支大概带来0.2美元的AI营收。
再看各家的月活用户数:

从上表可以看到,排除英伟达和卖手机的苹果,各家的AI产品月活用户总数大约在17亿,则月活用户占比=17亿/81亿全球总人口=0.21。
则根据我们的定义,美股七巨头的AI发展指数=0.21*0.5+0.2*0.5=0.205。
这个指数的满分是1(1美元资本开支带来1美元营收、覆盖绝大多数人类),则目前AI发展还处于较早阶段。可能有人会说,全球80亿人口多少有点有失偏颇,那我们拿发达国家+中等收入国家总人口48亿来计算,则AI发展指数为0.2*0.5+(17亿/48亿)*0.5=0.28。
因此,基于这个指数,我们可以认为AI目前处于资本开支高企,应用端落地能力较弱的阶段,急需爆款应用带来现金流把资本开支的影响降下来。
下面是我们认为可能存在爆款机会的一些应用领域,我们将持续关注AI在这些领域的应用进展:
1、影视传媒:包括AI短视频生成和一些特殊的领域,此外可以关注AI长视频生成。
2、基础科学研究:典型例子是谷歌的AlphaFold,AI可以作为科研助手在基础科学研究领域取代人类研究院做大量基础重复性实验,只要足够好用,全世界各大高校和科研机构不会吝啬这点经费。
3、自动驾驶:就是马斯克在搞的那个,自动驾驶的主要问题除了技术上还不够成熟之外还有法律和社会配套不健全的问题,此外自动驾驶带来的失业冲击也需要考虑。
4、专用任务AI:我们的观点和Lecun一样,大模型是死胡同,不可能达到AGI,但是专用任务AI在特定任务上超越人类我们认为是可以的,比如专门进行编程的AI模型。
虽然AI速度和效率远超人类,但我们预计以下一些行业受到AI影响较小:
1、安全攸关领域:例如医疗,AI只能作为辅助诊断工具,不能主导外科手术,因为手术过程千变万化,需要人类医生随机应变。
2、体力劳动领域:厨师、家政保姆、精细手工业者等。
3、复杂思考活动领域:数学、物理、化学等基础科学研究的创造性工作不受影响,还有金融、保险等领域的高端从业者受到的影响也不会大。
0x05 ANI浪潮下一些可能的机会
这部分内容也是仅供娱乐,不构成任何投资建议。
前段时间付鹏大佬出了一个视频,他把AI的机会分为两段:一是以英伟达为代表的“基础设施建设”的机会,二是AI的应用端机会。此前英伟达等卖铲子的公司受益于AI的巨额基础设施建设投入从而股价节节升高,这段相当于修了高速公路。而现在上游算力基建投入已基本完成,2026年将进入下游企业级应用能否落地并兑现盈利的“证伪之年”,也就是高速公路上到底有多少车在跑。根据我们的观察,前半段的AI基础设施建设机会已经基本上到头,目前Meta等公司在AI上沉重的资本开支已经开始引起投资人的担忧,所以这部分机会我们不会去参与了。那剩下的另一部分机会就在应用端,也就是所谓的“爆款”,这部分的参与风险其实远高于参与英伟达,原因有以下几个:
一、市场爆款的难以预测:由于各家公司,不管是上市的还是不上市的,其开发的AI产品基本上都属于商业秘密,很难打听到,而且即使打听到了也没用,谁都不敢拍着胸脯说我家开发的AI产品投入市场之后一定会爆火。至于那些没上市的企业就更不用说了,DeepSeek出来之前谁都没想到它会爆火,Kimi出来火了一段时间也泯然众人矣,我们不是风险投资,没能力也没必要冒着这种巨大的风险去押注爆款。
二、AI存在证伪风险:根据我们在0x04的分析,AI想要证明它的价值,证明它值如此高的溢价,需要产生的预期收益是非常大的,目前我们认为单一爆款不足以撑起当前市场给予AI的超高溢价,因此需要密切关注AI的爆款数量和发展情况,但这个时间不是无限的,一但AI的爆款不多,普惠不到大多数人,无法形成像电力、机械这样的工业革命,则AI估值一定会下杀。此外如果AI被证伪,全球股市都将面临剧烈波动。
三、技术进步的不可预测性:还是用DeepSeek举例,我们无法预测新技术会如何进步,也不知道哪家公司的哪个科学家会发明出颠覆性的AI技术,因此在AI应用前景不明朗的当下寻找合适的AI应用标的是非常困难的,也许会在未来发明颠覆性技术的公司压根就没上市。
但是,基于AI会渗透进社会生产这一逻辑,我们还是可以找到一些确定性较高的机会:
一、互联网巨头:互联网巨头的逻辑是它们拥有充足的现金流,可以在爆款出现之后第一时间复制或者收购,从而形成强者恒强的格局。持有互联网巨头不需要去费尽心思寻找潜在的爆款,只需要等待爆款出现后互联网巨头把爆款复刻或者收购就行了,当年开心农场的例子不就是这样吗?
二、能源:这部分主要是电力,AI是电老虎已经是不争的事实,无论DeepSeek之流如何极致优化,模型结构如何精巧,这种基于统计规律的AI能耗都是惊人的,特别是当爆款应用逐步增多之后,巨型算力中心对电力的需求会越来越惊人,这种情况下水电、火电、核电的利润就会受益于AI的发展。当然,即使AI证伪也没事,水电和核电作为电网的优秀能源从来都是文明的必需品,所以这块的安全性还是很高的。
三、AI基础服务运营商:无论是自动驾驶,又或者是其它AI爆款应用,必然会带来天量的算力和通讯需求,尤其是自动驾驶对通讯互联服务(比如超高速的6G)的要求一定会高,在这种情况下,提供通讯服务、算力服务等基础服务的运营商会一定程度上受益,带动现金流和利润的增长。但这个逻辑的前提是AI不能证伪。
0x06 AI与人形机器人
这个话题不能讲太深入,只说一点吧:人形机器人可以跳舞也可以耍武术,但在生活场景中基于事先编程或使用LLM驱动的人形机器人还有很长的路要走,目前人形机器人的用途仅限于展览、表演和科研,还远到不了走进千家万户的时候。
关于这个事情我们此前和另一位投资人吃饭的时候讨论过,他对此比较乐观,说虽然LLM不靠谱,那就用固定编程的形式可以给每个场景都编写一套程序。我们对此的反驳是:人能理解的操作机器理解起来很困难,因为很多操作是模糊的,存在许多额外条件。假设这样一个场景:比如我说我要吃某某感冒药,叫机器人拿药来喂我。光是这个指令,就有很多隐藏条件,如果感冒药是糖浆,那就不需要顺便拿水,但是你要拿个勺子给我,如果是药片,你得顺便把水拿来给我,不然我怎么咽药片?好,即使机器人知道要拿水,那么杯子里有没有水?没有水的话是要去饮水机烧水还是去厨房水壶接水来烧?即使烧了,也不能给我端杯沸水啊,是不是要等冷了再端来?那么水的冷热机器又该如何判断?
也就是说,简单一个生活中的任务,就可能有无数种突发情况,事先编程不可能完全考虑到家居环境中的所有情况,必须要随机应变。而LLM又因为幻觉和遗忘问题做不到随机应变,那人形机器人要走进千家万户就还有很遥远的距离,因此我们看来冲进市场为人形机器人买单是很高风险的行为。


