推广 热搜: 采购方式  甲带  滤芯  气动隔膜泵  减速机型号  减速机  履带  链式给煤机  带式称重给煤机  无级变速机 

IT行业分析(零):AI的过去,现在与未来

   日期:2026-02-25 01:07:20     来源:网络整理    作者:本站编辑    评论:0    
IT行业分析(零):AI的过去,现在与未来
注:本文仅记录研究结果,仅代表个人观点,文中提到的任何内容均不构成任何投资建议,仅供娱乐,往下阅读即表示同意该声明,文内观点如不认同可当笑话看,杠就是你对。
AI是近几年IT领域绕不开的话题,但AI其实是一种古老的技术。图灵早在上世纪早期就提出了AI的相关概念,1986年经典的决策树算法ID3就已经提出。我是在2014年的时候接触到AI,那会我编写的第一个AI程序是用Java实现了KNN算法,用来识别手写数字,很有意思。在当时当时千亿参数的大模型还没有兴起,2014年还是贝叶斯、支持向量机、CNN等模型的天下,计算机视觉和聚类分析等领域是当时的主流研究方向,自然语言处理还没那么火,GAN也才刚刚出世,OpenAI、注意力机制、Transformers等事物还没出现,后面我读硕士的时候开始接触到CNN、RNN、NLP和迁移学习,深度学习技术以一种疯狂的速度进行迭代,那会我和我的同学们的毕业论文都不约而同地选择了深度学习。 
现在十二年过去了,ChatGPT、Sora、o1、DeepSeek、通义千问、元宝、豆包等国内的,国外的大语言模型一浪推一浪,关于AI的信息铺天盖地,这让我想起了当年如火如荼的云计算行业。那么到了现在,AI行业是否像当年的PC机产业、手机产业、电商产业一样,有了成熟的盈利模式,可以实现自我造血,稳定盈利?
一项新技术要广泛铺开并深入千家万户,一定要有盈利的落脚点,必然要有成熟的商业变现模式,而要有成熟的商业变现模式,那这项技术一定要对生产力进步有较大的作用,下面就着重讨论这个问题:AI发展到哪一步了?能不能形成对生产力的巨大推动?
0x00 AI的过去
在深入分析AI的现状和未来之前,我们有必要介绍一下AI的一些基本知识。因为现在的大语言模型可以和用户多轮对话,而且聪明绝顶上知天文下知地理,很容易让人有一种狂热,认为AI的智能即将超越人类,消灭大量工作岗位,但如果对AI的底层技术有所了解的话,或许会对AI的进展有更理性的认识。
先从比较古老的AI技术说起吧,AI的雏形可以追溯到上世纪五十年代提出的感知机算法。感知机算法的设计初衷是模仿生物神经元的工作方式,用于二分类问题的线性分类器,其核心是权重更新规则,其中学习过程通过调整连接权重来进行,是神经网络和支持向量机等后来算法的基石。
再往后的最近邻算法KNN、决策树、支持向量机等其实都是这个思路,当时AI叫做“机器学习”,主要是用于解决二分类和多分类问题,训练过程的核心思路都是根据训练数据的特征和标签更新其分类函数的权重,然后根据训练结束后更新的权重对测试数据进行预测,给出分类标签。
再到后面出现的CNN、RNN等神经网络模型以及后面出现的大语言模型(LLM)也基本延续了感知机算法的“提取特征-更新函数权重-给出预测”的思路,只不过在处理算法、性能优化等方面更加复杂,还引入了注意力机制等算法来加强特征的提取以达到更强的性能,具体的技术细节就不讨论了,本文讨论的不是学术,面向的不是专业搞机器学习的学者。
所以,现在的AI通俗理解其实就是一个函数f(x),给定一个输入x,然后根据函数的计算规则输出计算之后的结果y=f(x),没什么稀奇的,只不过这个函数的内部非常复杂,而且是可以通过越来越多的训练数据不断优化它的计算规则f(x),实现更好的输出。我觉得这个f(x)的类比应该上过高中的人都能理解吧。
大语言模型其实也是一样,输入一句话给大语言模型这个函数,函数计算之后输出另一句话作为回答,仅此而已。大语言模型之所以像人而且看起来无所不知,其原因是这个函数使用的训练数据非常巨大,计算规则经过训练之后非常精细,从而可以根据从训练数据提取的特征输出非常恰当的答案,所以会让人感觉它非常像人。
0x01 AI的幻觉与遗忘
上面说的就是现在的AI,无论是决策树还是LLM,又或者是谷歌的AlphaFold,其实都没有脱离感知机算法基本原理的窠臼,目标依然都是设计一个超级复杂的函数来对输入给出最恰当的计算结果。因此在计算机专业里面,现在这些AI其实都属于弱人工智能(ANI)。
什么是ANI:弱人工智能仅在训练数据覆盖的范围内有效,无法处理未预设的任务,ANI需人类定义参数并提供数据,无自我意识或理解任务语义的能力,大语言模型看似像人,只是因为它训练数据太大,大到覆盖了大多数人的知识范围,所以在常人看来似乎无所不知。
但是ANI因为它本身的局限会戳破它“无所不知”的泡泡,这就是“幻觉”和“遗忘”。
先说什么是幻觉,这是我问Gemini的一个关于智能体透明度的问题:
看我划红线的部分,实际上2025年欧盟并未出台所谓的《智能体透明度法案》,那么为什么AI会在回答里用这个法案来增强它的观点呢?问题还是出在这个函数f(x)上,它只是个不会思考,只会机械根据规则进行计算的函数f(x),它并不理解自己接收到的输入x是什么东西,它只知道把输入x丢进函数f(x)中,出来的y里面包含这个法案,然后原样输出给用户,这就是幻觉的通俗解释,而实际的底层原因比这要复杂得多而且没完全研究清楚,就不再多做讨论了。
再说遗忘:遗忘这个词我认为取得不太恰当,会让非计算机专业的人产生误解,以为现在的AI真的有意识了,会像人类一样遗忘。在我看来这个“遗忘”应该改成“输入长度上限”或者叫“重要特征丢失”。从前文我们知道,AI其实就是一个函数f(x),但这个函数其实是有限制的:它能处理的输入长度有限(至于为什么有限,这个和AI的底层数学结构和计算机硬件限制有关,这里也不展开讨论)。
也就是说,当输入的内容太长的时候,它会无法处理如此长的输入,就会产生截断。说人话就是,比如我给f(x)输入一个hello,这个词很短,f(x)能够全部处理掉,那就能产生非常恰当的回答“hello,how are you?”,但是,如果我给f(x)输入的是“hello,请帮我总结这本书的内容,内容是:(后面接100万字)”,那么总的输入达到上百万字,那么f(x)就无法处理上百万字这种如此长的输入了,它就会把后面的内容丢弃掉,只处理它能处理的那部分内容。
那么问题来了:如果后面的内容包含非常重要的信息呢?这种情况在一些长文本中非常常见,一些数学和物理的论文更是如此,在这种情况下AI因为无法处理超长的输入从而丢弃了一部分信息,导致“遗忘”掉了重要的特征,也会导致f(x)生成的结果不符合用户的预期。
0x02 AI的现状
为了解决幻觉和遗忘问题,也引入了注意力机制,使用更干净的数据集进行训练等方式来减轻这种问题,但现有AI本身依然是基于特征提取和统计关系的预测,仍旧在ANI的范畴之内。当前的AI尤其是大型语言模型,正处于从“只会聊天的工具”向“能够行动的智能体”跨越的关键期。目前的现状可以概括为:多模态能力爆发、逻辑推理增强,但在真实性与物理常识上仍有短板。2025年的前沿模型已经能通过“思维链”进行多步逻辑拆解,解决奥数级数学题或复杂的架构设计,AI不再只能读文字,还能直接理解和生成视频、图像、音频。你可以给它看一张手绘原型图,让它直接生成可运行的代码,还能够调用外部工具(如搜索、发邮件、跑脚本),在无人干预下完成一连串任务,扮演“数字助理”的角色。但AI当前尽管准确率提升,但模型本质上仍是概率预测。它会一本正经地胡说八道,因此不能在无人类审核的情况下直接用于严谨的司法判断或医疗处方,而且AI没有“身体”,AI可以告诉你如何修水龙头,但无法感知水温,也无法在物理空间中操作物体。此外目前的大多数模型一旦训练完成,其知识就停留在“断档点”。它无法像人类一样,在对话过程中即时永久地更新自己的知识库。
0x03 AI的未来、强化学习、世界模型与AGI圣杯
通过前面的讨论,现在我们知道当前的AI其实是一种基于统计学预测的弱人工智能。那么什么是强人工智能?先给个定义:

强人工智能,也称为通用人工智能(Artificial General Intelligence, AGI),是指具备与人类相当或超越人类水平的全面智能系统。这种AI不仅能执行特定任务,还能像人类一样理解、学习、推理、规划、解决复杂问题,并适应全新的、未知的环境和任务。它拥有自主意识、自我学习能力和跨领域迁移能力,理论上可以胜任人类所能完成的任何智力工作。与当前广泛使用的弱人工智能不同,强人工智能不局限于预设程序或单一功能。例如,今天的语音助手、图像识别系统或推荐算法都属于弱AI,它们在特定任务中表现出色,但无法跨领域思考或自主创造。而强AI的目标是实现真正的通用智能,能够整合知识、处理不确定性、进行抽象思维,甚至可能具备情感理解和价值观体系。

说人话就是,AGI其实就是机器有了意识,可以进行复杂的思考,那么人类有没有可能制造出AGI?之前图灵奖得主Yann LeCun和强化学习之父Richard Sutton都认为LLM不可能达到AGI,他们提出需要强化学习和世界模型来通往AGI:

世界模型是一种计算模型,能够模拟和理解周围环境,通过感知输入(如视觉图像、声音等)构建对环境的内部表示,并在此基础上做出决策或预测。它能够预测自然世界的演化,以及由行为者采取的一系列行动所产生的未来世界状态。它帮助机器学习世界的运作规律,从而更快速地学习、规划复杂任务,并适应不熟悉的情况。LeCun认为,要让AI像婴儿一样了解世界,需要像婴儿一样学习世界如何运作。

再说强化学习,简单说就是面向智能体的学习,从经验中学习,与环境交互来达成目标。在这些层面上,它比其他类型的机器学习更贴近现实、更有雄心、也更自主,因为智能体在外面行动,不一定有人帮忙。动物在成年以后也没有什么特别的外部帮助,对吧?所以强化学习的核心是带有延迟反馈的试错学习,你最终得到的只是一个奖励信号,告诉你有没有得到你想要的东西。

强化学习和世界模型真的能够通往AGI吗?我们认为也够呛,理由如下:

说人话的话,强化学习和世界模型本质上是试图模仿生物与外部环境交互的过程,通过外界的信息和刺激来判断行为是正确还是错误,从而让机器不断进化,但是这套方案我们认为至少有以下几个缺陷:

一、刺激和强化学习的不完备性:无论我们给予世界模型和强化学习多少信息和刺激,我们能给予的信息和刺激始终是有限的,那么如何在有限的信息下进行有效的预测和决策,这个是一个问题。要知道,自然界的信息可是无穷无尽,在这种无穷无尽的信息之下都花了几十亿年才演化出人类文明,难度可想而知。

二、实现迁移和泛化能力的困难性:迁移和泛化其实是两种不同的能力,泛化相对来说要简单一点:你在家里学会了开自家的白色轿车。当你去租车行租了一辆黑色的、型号稍微不同的轿车时,你依然能够顺利地驾驶它。这就是你对“开车”这一技能的泛化。而迁移是什么:比如一个模型先学会了“识别猫狗”,然后利用这些视觉特征的基础,只需少量调整就能学会“识别肿瘤”,目前强化学习和世界模型如何实现迁移和泛化还需要更多的研究。

三、意识的谜团:我们认为,有意识的生物才能学会思考,换言之,复杂的思考过程的前提是拥有意识,但是客观物质的组合如何产生主观体验?时至今日意识是什么我们都没有搞清楚,所以要想在没搞清楚意识本质的前提下让机器诞生意识并且学会复杂的思考,难度极大。我们连自己是谁都没搞清楚,就妄想制造出另一个和自己平级甚至超越自己的智能成为造物主,多少有点痴人说梦了。

0x04 AI的估值与对当下的影响

基于上述分析,我们认为当下的AI更多还是应该集中于专用任务AI的应用推广上,而AGI在我们看来还只是镜花水月,无论是LLM还是强化学习、世界模型,从我们掌握的常识来说,想要实现具备自我思考能力,进行复杂推理的AGI难度都非常大,那么ANI真是一无是处吗?也不是。我们在0x02讨论了AI能做什么以及它目前存在的问题,AI对现代社会的影响到底有多大?

我们认为,评判一项技术的颠覆性,能不能大幅推动生产力进步,那要看这个技术能不能普惠所有人。回想一下历史上的几次工业革命,几乎都是影响覆盖了绝大多数人,第一次是蒸汽机,或者说机械化;然后是电气化,电的广泛使用影响了全世界的人;再到电脑和手机的信息技术,互联网提高了信息传输效率,人手一台手机。前面几次工业革命的代表性技术都可以认为影响到了绝大多数人,AI是否符合这个标准了?要知道当下市场可是给AI超高的溢价,根据价值投资的原则,AI能提升多少效率决定了AI估值的上限,AI如果不能大幅提高生产力带来巨额现金流的话估值必然会下杀。AI的证实需要两方面因素推动,第一是爆款,或者说渗透率,指望一个爆款支撑当前AI的估值目前来看不现实,我们认为需要许许多多不那么爆款的实用应用,比如100个惠及100万人的应用场景,第二是资本开支,这个要关注能源和AI硬件和训练成本下降的进展。

所以我们基于上面的论述,从资本开支端和AI应用端提出一个“AI发展指数”:

一是AI营收占比:营收/资本开支 *50%

二是月活用户占比:AI应用月活跃用户总数/全球人口 *50%

两者加起来得到一个AI发展指数。

下面来简单的计算一下,先算AI营收占比(下表是我叫AI直接使用美股七巨头2025年财报数据生成的):

排除英伟达和苹果,我们可以看到其他几家的AI营收占比普遍在0.2左右,也就是说1美元的AI资本开支大概带来0.2美元的AI营收。

再看各家的月活用户数:

从上表可以看到,排除英伟达和卖手机的苹果,各家的AI产品月活用户总数大约在17亿,则月活用户占比=17亿/81亿全球总人口=0.21。

则根据我们的定义,美股七巨头的AI发展指数=0.21*0.5+0.2*0.5=0.205。

这个指数的满分是1(1美元资本开支带来1美元营收、覆盖绝大多数人类),则目前AI发展还处于较早阶段。可能有人会说,全球80亿人口多少有点有失偏颇,那我们拿发达国家+中等收入国家总人口48亿来计算,则AI发展指数为0.2*0.5+(17亿/48亿)*0.5=0.28。

因此,基于这个指数,我们可以认为AI目前处于资本开支高企,应用端落地能力较弱的阶段,急需爆款应用带来现金流把资本开支的影响降下来。

下面是我们认为可能存在爆款机会的一些应用领域,我们将持续关注AI在这些领域的应用进展:

1、影视传媒:包括AI短视频生成和一些特殊的领域,此外可以关注AI长视频生成。

2、基础科学研究:典型例子是谷歌的AlphaFold,AI可以作为科研助手在基础科学研究领域取代人类研究院做大量基础重复性实验,只要足够好用,全世界各大高校和科研机构不会吝啬这点经费。

3、自动驾驶:就是马斯克在搞的那个,自动驾驶的主要问题除了技术上还不够成熟之外还有法律和社会配套不健全的问题,此外自动驾驶带来的失业冲击也需要考虑。

4、专用任务AI:我们的观点和Lecun一样,大模型是死胡同,不可能达到AGI,但是专用任务AI在特定任务上超越人类我们认为是可以的,比如专门进行编程的AI模型。

虽然AI速度和效率远超人类,但我们预计以下一些行业受到AI影响较小:

1、安全攸关领域:例如医疗,AI只能作为辅助诊断工具,不能主导外科手术,因为手术过程千变万化,需要人类医生随机应变。

2、体力劳动领域:厨师、家政保姆、精细手工业者等。

3、复杂思考活动领域:数学、物理、化学等基础科学研究的创造性工作不受影响,还有金融、保险等领域的高端从业者受到的影响也不会大。

0x05 ANI浪潮下一些可能的机会

这部分内容也是仅供娱乐,不构成任何投资建议。

前段时间付鹏大佬出了一个视频,他把AI的机会分为两段:一是以英伟达为代表的“基础设施建设”的机会,二是AI的应用端机会。此前英伟达等卖铲子的公司受益于AI的巨额基础设施建设投入从而股价节节升高,这段相当于修了高速公路。而现在上游算力基建投入已基本完成,2026年将进入下游企业级应用能否落地并兑现盈利的“证伪之年”,也就是高速公路上到底有多少车在跑。根据我们的观察,前半段的AI基础设施建设机会已经基本上到头,目前Meta等公司在AI上沉重的资本开支已经开始引起投资人的担忧,所以这部分机会我们不会去参与了。那剩下的另一部分机会就在应用端,也就是所谓的“爆款”,这部分的参与风险其实远高于参与英伟达,原因有以下几个:

一、市场爆款的难以预测:由于各家公司,不管是上市的还是不上市的,其开发的AI产品基本上都属于商业秘密,很难打听到,而且即使打听到了也没用,谁都不敢拍着胸脯说我家开发的AI产品投入市场之后一定会爆火。至于那些没上市的企业就更不用说了,DeepSeek出来之前谁都没想到它会爆火,Kimi出来火了一段时间也泯然众人矣,我们不是风险投资,没能力也没必要冒着这种巨大的风险去押注爆款。

二、AI存在证伪风险:根据我们在0x04的分析,AI想要证明它的价值,证明它值如此高的溢价,需要产生的预期收益是非常大的,目前我们认为单一爆款不足以撑起当前市场给予AI的超高溢价,因此需要密切关注AI的爆款数量和发展情况,但这个时间不是无限的,一但AI的爆款不多,普惠不到大多数人,无法形成像电力、机械这样的工业革命,则AI估值一定会下杀。此外如果AI被证伪,全球股市都将面临剧烈波动。

三、技术进步的不可预测性:还是用DeepSeek举例,我们无法预测新技术会如何进步,也不知道哪家公司的哪个科学家会发明出颠覆性的AI技术,因此在AI应用前景不明朗的当下寻找合适的AI应用标的是非常困难的,也许会在未来发明颠覆性技术的公司压根就没上市。

但是,基于AI会渗透进社会生产这一逻辑,我们还是可以找到一些确定性较高的机会:

一、互联网巨头:互联网巨头的逻辑是它们拥有充足的现金流,可以在爆款出现之后第一时间复制或者收购,从而形成强者恒强的格局。持有互联网巨头不需要去费尽心思寻找潜在的爆款,只需要等待爆款出现后互联网巨头把爆款复刻或者收购就行了,当年开心农场的例子不就是这样吗?

二、能源:这部分主要是电力,AI是电老虎已经是不争的事实,无论DeepSeek之流如何极致优化,模型结构如何精巧,这种基于统计规律的AI能耗都是惊人的,特别是当爆款应用逐步增多之后,巨型算力中心对电力的需求会越来越惊人,这种情况下水电、火电、核电的利润就会受益于AI的发展。当然,即使AI证伪也没事,水电和核电作为电网的优秀能源从来都是文明的必需品,所以这块的安全性还是很高的。

三、AI基础服务运营商:无论是自动驾驶,又或者是其它AI爆款应用,必然会带来天量的算力和通讯需求,尤其是自动驾驶对通讯互联服务(比如超高速的6G)的要求一定会高,在这种情况下,提供通讯服务、算力服务等基础服务的运营商会一定程度上受益,带动现金流和利润的增长。但这个逻辑的前提是AI不能证伪。

0x06 AI与人形机器人

这个话题不能讲太深入,只说一点吧:人形机器人可以跳舞也可以耍武术,但在生活场景中基于事先编程或使用LLM驱动的人形机器人还有很长的路要走,目前人形机器人的用途仅限于展览、表演和科研,还远到不了走进千家万户的时候。

关于这个事情我们此前和另一位投资人吃饭的时候讨论过,他对此比较乐观,说虽然LLM不靠谱,那就用固定编程的形式可以给每个场景都编写一套程序。我们对此的反驳是:人能理解的操作机器理解起来很困难,因为很多操作是模糊的,存在许多额外条件。假设这样一个场景:比如我说我要吃某某感冒药,叫机器人拿药来喂我。光是这个指令,就有很多隐藏条件,如果感冒药是糖浆,那就不需要顺便拿水,但是你要拿个勺子给我,如果是药片,你得顺便把水拿来给我,不然我怎么咽药片?好,即使机器人知道要拿水,那么杯子里有没有水?没有水的话是要去饮水机烧水还是去厨房水壶接水来烧?即使烧了,也不能给我端杯沸水啊,是不是要等冷了再端来?那么水的冷热机器又该如何判断?

也就是说,简单一个生活中的任务,就可能有无数种突发情况,事先编程不可能完全考虑到家居环境中的所有情况,必须要随机应变。而LLM又因为幻觉和遗忘问题做不到随机应变,那人形机器人要走进千家万户就还有很遥远的距离,因此我们看来冲进市场为人形机器人买单是很高风险的行为。

 
打赏
 
更多>同类资讯
0相关评论

推荐图文
推荐资讯
点击排行
网站首页  |  关于我们  |  联系方式  |  使用协议  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  皖ICP备20008326号-18
Powered By DESTOON