推广 热搜: 采购方式  甲带  滤芯  气动隔膜泵  带式称重给煤机  减速机型号  无级变速机  链式给煤机  履带  减速机 

【行业分析】AI的真相——AI底层逻辑、发展和风险前瞻

   日期:2026-04-21 16:45:06     来源:网络整理    作者:本站编辑    评论:0    
【行业分析】AI的真相——AI底层逻辑、发展和风险前瞻

2025年春节Deepseek横空出世,AI就一直处于风口浪尖;迭代之快、应用之广,前所未有。如今,不谈AI,不用AI,似乎就是和时代脱节。然而AI真的那么无所不能吗?笔者不这么认为。笔者认为:当前社会对AI的热情偏于讨论其可能带来的好处——这对AI当下的发展有利,而对其潜在的问题和危险讨论不足——这对AI的长远发展不利;事实上,AI投资可能已经存在泡沫。

AI真的具有智能吗?——AI的底层逻辑

AI所具有的智能和人类经过数百万年进化而来的智能是一码事吗?要回答这个问题,就必须了解AI的底层逻辑。

语言(文字及符号)是技术和思想的载体,当前AI智能是对文字符号的计算处理。通俗地讲,AI智能是的本质是一个对单个语言符号寻求最佳排列组合的计算过程,其底层逻辑逻辑大致和拼图类似:AI首先将文字符号分拆为若干最小单元——词元(Token);AI根据此前拼图(大模型初始训练)得到的经验(统计学上的大概率事件),预测下一个词元,然后将预测的词元与此前已经找到的每一个词元以及已经拼接好的部分,进行穷尽式的排列和验证,从而选择一个最佳的结果(统计学上的大概率事件)输出——这相当于把每一个拼图都拼接试一遍,然后比较看哪一个最合适,如此循环拼初步完全部拼图,这个过程的计算是海量的;最后,结果接受训练师或用户的反馈,AI根据重复以上计算过程,直到训练师或用户认为“正确”或OK,于是AI体现出了“智能”。

从中我们可以发现,AI所谓的智能本质是对语言进行海量、机械式的排列组合运算,只是因为计算机超强、超快的算力,才给人以“智能”的错觉。事实上,AI对语言本身无感、无知,对无法用语言表达或语言表达出现偏差的东西更是无能为力——而这些恰恰是智能的核心。例如,“窗前明月光,疑是地上霜”,用文字表达对这句话的理解,或者将之具象化为画作等,AI可能比人做的还好;但人对其中的每个字的含义、对这首诗的意境、情愫有非常明确和具体的意识!而AI的输出和创作,只是对其计算大概率事件的输出而已,它对字词句、意境、情愫的理解、分析、创作并无意识。

关于AI的底层逻辑,还有一个形象的类喻:假设有无数猴子、无数的打印机,这些猴子在无限时间里,随机敲击打字机,最终可以创作出完本的《红楼梦》。然而,即便如此,猴子永远都无法象曹雪芹创作或读者阅读《红楼梦》时,对社会、生活、生命的复杂认知和情愫。

由此可见,AI智能不过是一个对语言符号进行海量计算进行机械式排列组合的过程尽管它计算超快、超强,进而给人“智能”的错觉,但它与人的“智能”根本不是同一码事,它并不具备人的“智力”——二者之间存在本质的区别。

AI往何处去?——AI发展前瞻

AI的发展,恐怕只有两条:一是通用大模型,如GPT、Deepseek,类似电脑、手机的操作系统(如Windows、MacOS、Unix或者Android、iOS等),是AI的基础,只有少数公司能开发,而且如果没有脑科学研究和认知的突破,光靠堆砌算力,AI难以跨越“计算”到真智能之间的鸿沟。二是通用大模型在特定领域的应用,如在交通、医疗、编程、法律等领域的,类似电脑、手机上的应用程序。AI在特定领域的应用最具想象力和发展空间,也最为混乱。

AI在特定领域的应用,至少要解决两个问题:一是对该领域需求进行准确画像,二是足够的二次训练。第一个问题解决能不能用的问题,第二个问题解决好不好用的问题。而且第二个问题又与第一个问题的解决质量密切相关。这是因为大模型虽然进行了初始训练,但只是相当于基本的通识教育,要用于特定领域,则还必须进行专门的二次训练——专业训练。如果二次训练数据数量或质量得不到应有的保障,或人类训练师训练时间投入不足或专业能力不够,那么这样的智能体很难满足现实需求并将最终被淘汰——AI泡沫主要就存在这一部分。以AI在法律服务领域的应用为例:法律服务领域的AI智能体很多,但由于法律服务工作内容保密及缺乏统一的技术标准等原因,智能体的二次训练素材非常有限性(通常限于单位内部)且质量难以获得有效保障,当前很多AI智能体的输出结果其实非常粗糙,如果盲目将其输出用于解决实际问题,很可能会造成不可弥补的损害。

AI可以信赖和托付吗?——AI滥用和依赖

很多人对AI持有极高的警惕,担心AI取代人类。这种担心是正常和必要的,但我们尚有时间来为之思考和解决。相比之下,另一个更现实和紧迫的问题是:如何防止AI滥用以及过度依赖AI造成的麻烦。

AI的滥用,如利用AI技术非法使用、合成肖像从事违法犯罪行为或侵犯个人权利等;再如当下波斯湾战争中,因为过度依赖AI造成对平民的误炸等。 AI依赖则更为普遍:做什么事情都问AI并信以为真,以至于不知不觉中丧失学习、分析和解决问题的主动性和意识,这是无形且致命的。

在现实层面,就AI的发展及应用而言,则面临如下问题:

首先,训练数据充分性和质量问题。通常大模型公司会向数据库服务商或第三方购买数据用于大模型训练,并且对训练数据及效果通常有明确的数量指标和评估,其投入通常以百亿计,训练数据充分性和质量通常有一定保障;而AI的具体应用,因为高度聚焦于特定领域或专业,所需训练数据的可得性更难、成本更高,这就需要在训练与成本之间进行平衡。 可以说,训练数据的质和量决定了AI“智能”的上限,最终取决于投入的成本。 

其次,高水平训练师的充分训练。AI的训练,需要足够、高水平的训练师参与。Deepseek表现惊艳,除了其技术创新外,据业内人士推测,还与其数百名训练师持续、高水平训练相关。AI在特定领域的应用(如医疗),充分的高水平人类训练师的有效训练更加重要,然而,很多AI智能体并未披露这些信息,还有一些甚至只是根据应用场景搭了一个架子,进行了简单的二次训练——但这显然是不够的。

其三,训练数据合法性问题。如前所述,AI训练需要大量的数据,购买是很重要的方式,但从现实和成本角度看,也有大量从公共互联网取得的数据,显然这会产生未经同意或合法授权而产生的侵权问题。

其四,AI生成内容权利归属、保护和责任。这实际上包括以下几个子问题:1、AI生成内容是否构成权利客体或保护的对象——如果不构成权利客体或保护的对象,那就谈不上权属、保护,这个问题实际上非常复杂。2、AI生成的内容权利归谁?当前,有观点认为AI生成内容权属可以参照知识产权法相关规定,知识产权生产过程相对清晰不同,AI生成过程是个暗盒,而且AI生产的原始素材及生成内容可能还具有某种公共属性,因而其权利归属和主体可能更多、更难以认定。3、AI生成内容权利保护更加复杂。AI权属的多主体性、AI原料数据和生成内容的公共属性,致使不同权利主体的权利内容、边界及平衡更为复杂。由于以上原因,AI生成内容一旦侵犯他人合法权利,相应责任由何人承担、如何承担同样变得复杂而困难

AI时代,如何与之共生

毫无疑问,AI将彻底改变人类生活方式甚至将改变人类发展轨迹。面对汹涌而来的AI热潮,我们应该保持敬畏和警惕,从这个角度,我是支持对AI发展进行某种规制和限制的,这一态度起码要维持到人类基本搞清楚和AI共存的基本方法和原则的时候;就当下而言,警惕和预防AI滥用和过度依赖可能造成现实风险。AI是一种前所未见的高能工具,它的功能是强大的,可能产生的危害也是巨大的,在我们没能完全了解和掌控之前,还是谨慎一些为好,以免伤了自己后连补救的机会都没有了——与狼共舞当然够豪横,但在与狼共舞之前,是不是要先解决如何避免被狼吃了这一现实安全问题?

 
打赏
 
更多>同类资讯
0相关评论

推荐图文
推荐资讯
点击排行
网站首页  |  关于我们  |  联系方式  |  使用协议  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  皖ICP备20008326号-18
Powered By DESTOON