作者:吉爱名 博士 联系方式:1877979071@qq.com
引言
2025年11月,OpenAI联合创始人、前首席科学家伊利亚·斯茨凯弗(Ilya Sutskever)在其新创立的安全超级智能公司(SSI)成立一周年之际,通过长达1.5小时的深度访谈向全球AI界抛出了一个震撼性观点:“Scaling时代已经结束,我们正重新走向研究时代“。这一论断不仅标志着他与老东家OpenAI在技术路线上的彻底分道扬镳,更可能预示着整个AI产业发展范式的根本性转变。
伊利亚的观点并非空穴来风。作为OpenAI的技术灵魂人物,他曾是推动GPT系列模型从1.17亿参数发展到1.76万亿参数的核心决策者。然而,正是这位Scaling范式的缔造者,如今却成为了它最尖锐的批判者。他在访谈中明确指出,当前大模型算法存在根本性缺陷,单纯依靠堆砌算力、数据和参数的Scaling路线已经走到尽头。
这一观点的提出恰逢其时。2025年8月,OpenAI千呼万唤的GPT-5终于发布,但其表现却被业界普遍认为是“渐进式而非颠覆性的“。与此同时,业界开始形成一种共识:单纯依靠堆砌算力和数据,并不能让大模型进化成无所不知的“数字神灵“。自GPT-4发布至今已超过两年,OpenAI再未能推出一款真正具有划时代意义的模型,“缩放定律失效“的论调正从少数人的预警演变为越来越多从业者的共识。
伊利亚的批判直指当前大模型的三大核心缺陷:首先,“Scaling范式“边际效益急剧下降,数据总量有限,继续盲目加算力只会造出“更大却不更聪明“的模型;其次,算法设计导致模型泛化能力严重缺失,强化学习训练本质上是“针对评测刷分“,而非培养通用智能;第三,模型缺乏关键的内生价值系统,无法像人类一样通过情感和直觉进行自我纠正。
本文将从技术机制、产业影响和学术反响三个维度,深入剖析伊利亚“Scaling失效论“的理论基础、实践验证和深远影响,探讨这一观点是否真的预示着AI发展范式的历史性转折,以及它将如何重塑未来的技术路线和产业格局。
一、技术机制剖析:Scaling范式的内在缺陷与失效逻辑
1.1 Scaling Law的理论基础与现实偏差
要理解伊利亚“Scaling失效论“的技术本质,首先需要回顾Scaling Law的理论基础。2020年,OpenAI在其里程碑式论文《Scaling Laws for Neural Language Models》中提出,语言模型的损失与模型规模、数据集大小和训练计算量呈幂律关系,这种趋势跨越了七个数量级以上。这一发现被业界视为AI发展的“第一性原理“,其核心逻辑简单而诱人:只要模型参数、数据量和计算量三者协同增长,模型的性能就会持续、可预测地提升。
从GPT-2到GPT-3的百倍规模跃迁,再到GPT-4技惊四座的表现,每一次迭代似乎都在完美印证着缩放定律的魔力。在ChatGPT用户破亿的狂热氛围中,风险资本如潮水般涌入,Sam Altman甚至在《万物的摩尔定律》一文中描绘了AGI触手可及的未来。然而,伊利亚现在却指出,这种基于幂律关系的增长模式正在遭遇根本性瓶颈。
首先是数据稀缺性成为不可逾越的障碍。伊利亚在NeurIPS'24的获奖演讲中明确表示,“我们所知的预训练将会终结“。他指出,计算正在快速增长,但由于依赖网络抓取,数据没有增长,研究者不能永远进行扩展,我们已经实现了“峰值数据“。这一观点得到了清华大学的印证,该校研究人员在2025年学术年会上表示,随着可用于预训练的开源数据挖掘殆尽、模型训练所需的算力资源紧缺,大模型发展遵循的Scaling Law即将失效。
其次是成本效益的急剧恶化。根据市场估算,GPT-5一次为期6个月的训练仅算力成本就需要花费5亿美元,而GPT-4的训练成本“仅“为1亿美元。从参数规模来看,OpenAI的模型参数从GPT-1的1.17亿增长到GPT-4的1.76万亿,增长了约10倍。然而,GPT-5相比GPT-4的能力提升却呈现明显的边际递减:GPT-5实现了25倍的提升,而GPT-4相比GPT-3的提升是36倍。
更为关键的是,GPT-5的开发过程本身就印证了Scaling范式的困境。据《华尔街日报》爆料,GPT-5已经至少完成2轮训练,每次长达数月,但每次训练后都遇到新问题。OpenAI不得不专门雇人写代码、做数学题来为GPT-5从头创建数据,甚至使用o1合成数据,但效率仍然不够高。这种“数据饥荒“的出现,恰恰证明了伊利亚关于“峰值数据“论断的前瞻性。
1.2强化学习训练的根本性缺陷
伊利亚批判的第二个重点是当前强化学习训练机制的根本性缺陷。他认为,当前的强化学习训练本质上是“针对评测刷分“,而非培养真正的通用智能。这一观点得到了清华大学最新研究的有力支撑。
清华大学和上海交通大学的联合研究通过大量实验证明,RLVR(带验证的强化学习)只是让模型更会“猜答案“,并未突破原有潜力。研究团队设计了一个巧妙的“开卷考试“实验——pass@k测试:让模型对同一问题生成k个答案,只要有一个正确就算通过。结果显示,当k=1时,RLVR模型胜出;但当k=256时,基础模型反超。
这一结果揭示了一个令人震惊的事实:在允许“无限次重考“的情况下,基础模型反而能解决更多难题。在奥数题AIME24中,基础模型通过“穷举“找到了RLVR模型从未触达的正确解法。这说明,所有RLVR的“高级推理“,其实早已藏在基础模型的可能性中,RLVR只是让模型更擅长“快速找到已知解法“,但牺牲了探索新方法的能力。
伊利亚用一个生动的比喻解释了这种现象:现在的模型就像“刷了1万小时竞赛题的学生“,虽能在考试中取得高分,却无实际解决问题的能力。他指出,在编程debug场景中,模型会在两个错误之间反复切换——用户指出第一个bug,模型修复时引入第二个bug;用户指出第二个bug,模型修复时又把第一个bug带回来。“至少人类在写代码时,至少知道不要重复犯同样的错误,但LLM像是在两个bug之间来回'跳房子'“。
这种现象的技术根源在于RL的训练机制。伊利亚分析道,强化学习让模型变得过于一根筋、视野狭窄,导致它们虽然在某些方面很敏锐,却在基本任务上显得“无知“。RL训练通过奖励机制让模型输出分布偏向高奖励路径,导致输出熵降低,多样性减少,就像学生只背标准答案,不再思考其他解法。
1.3价值函数缺失:人类智能与AI的根本差距
伊利亚批判的第三个核心是当前大模型缺乏关键的内生价值系统。他通过一个神经科学案例深刻阐述了这一观点:一位因脑损伤失去情绪处理能力的病人,虽然智力、语言、逻辑能力都正常,却失去了做决定的能力——他会花几个小时决定穿哪双袜子,或者做出极差的财务决策。
这个案例揭示了一个关键洞察:人类内置的情绪在让我们成为一个“可行主体“(Viable Agent)方面起着至关重要的作用,情绪实际上就是一种价值函数。伊利亚进一步解释道,价值函数能在思考过程中实时评估“这一步走得好不好“,就像下棋时丢了车就是坏事,不需要等到终局就能知道。价值函数能让你在得出最终方案之前,就“短路“掉那些错误的路径,从而极大地提高效率。
相比之下,当前的AI系统存在根本性缺陷。伊利亚指出,现在的强化学习(如o1、R1)通常是给模型一个问题,它进行长时间的思考(Chain of Thought),最后给出一个答案,我们只对最终答案打分,这意味着如果思考过程很长,中间步骤是得不到反馈的。这种机制导致模型缺乏像人类情绪一样的内在价值系统,无法在决策过程中进行实时的自我评估和纠正。
为了验证这一观点,伊利亚提到了一个有趣的实验:青少年学开车时没有外部老师时刻打分,但他们有自己的内部价值函数,能立刻感觉到“我不自信、我开得不好“,然后迅速自我修正。人类的这种价值函数非常鲁棒。这种内生的价值系统使得人类能够在没有明确外部奖励的情况下进行高效学习,而这正是当前AI系统所缺失的关键能力。
1.4从Scaling到“研究时代“的范式转换
基于对上述三大缺陷的深刻认识,伊利亚提出了一个历史性判断:AI发展正从“Scaling时代“回归“研究时代“。他将AI的发展历程划分为两个阶段:2012-2020年是“研究的时代“,那时大家通过不断尝试新想法来获得结果;2020-2025年是“Scaling的时代“,Scaling Laws和GPT-3的出现让大家意识到“只要扩大规模就行“。
伊利亚指出,Scaling时代的一个严重后果是“把屋子里的空气都吸干了“,大家都开始做同一件事——大模型、更大模型、再大一点的模型。但随着Scaling天花板临近,瓶颈变成了点子本身。未来,我们将回到那种“小而美的实验产生巨大突破“的时代,大量奇怪的想法会冒出来,以及不依赖超级算力的创新。就像AlexNet当时仅用两张GPU训出,Transformer用8-64块GPU做出,包括ResNet同样如此。也许下一次重大范式转变,也来自一套“看起来不够大“的实验。
这一判断得到了产业界的广泛共鸣。英伟达CEO黄仁勋等行业领袖认为,Scaling Law本身未失效,但传统“堆规模“路径已到极限,未来重点将转向更高效、更聪明的迭代方式。新的训练范式包括合成数据生成、课程学习、架构创新、神经符号融合等,2025年的拐点证明,无脑堆参数已成过去式,智能密度才是AGI通关密钥。
二、SSI的技术路线:从“超级学习者“到安全AGI的新路径
2.1 SSI的创立背景与战略定位
在对Scaling范式进行深刻批判的同时,伊利亚于2024年6月19日创立了Safe Superintelligence Inc.(SSI),与Daniel Levy和Daniel Gross(前Apple AI负责人)共同担任创始人。这家公司的诞生本身就标志着伊利亚对OpenAI路线的彻底背离。
SSI的发展轨迹堪称AI创业史上的奇迹。公司成立不到一年,在没有任何公开产品或收入的情况下,估值已飙升至惊人的320亿美元。这一估值通过两轮巨额融资实现:2024年9月以50亿美元的估值融资10亿美元,仅仅几个月后,又在2025年4月以320亿美元的估值完成了20亿美元的新一轮融资,总融资额超过30亿美元。
SSI的独特之处在于其“直通超级智能“(Straight-shot)策略。与其他AI公司不同,SSI专注于开发“安全超级智能“,而不先创建像ChatGPT这样的商业产品,公司保持纯研究模式直到实现其最终的ASI(人工超级智能)目标。伊利亚明确表示,SSI的目标是先解决安全超级智能问题,再考虑产品化,短期内不以盈利为主要目标,而是把资源投入到探索核心科学问题。
2.2 “超级学习者“:重新定义AGI的本质
伊利亚对AGI的理解发生了根本性转变。他推翻了传统的AGI定义,提出了一个革命性的观点:人类不是“啥都会的全才“,而是“持续学习的学习者“,超级智能也一样——它不是“出生就全能“,而是“部署后在实践中快速学习“。
这种新的理解体现在SSI的技术路线图中:新范式为“预训练→模型具备学习能力→部署→在岗学习→不断进化“,预计2027-2030年这一新范式将逐渐出现,某个团队(可能是SSI)将实现更好的泛化能力。伊利亚设想的超级智能是一个“超级聪明的15岁少年“,原本什么都不懂,但他学医、学编程的速度极快,部署本身就是一个学习和试错的过程。
这种理念的核心在于强调持续学习(continual learning)而非预训练。伊利亚指出,人类确实具备一套基础能力,但我们的知识储备极其有限;我们真正依赖的是持续学习——不断在世界中试错、修正、积累。SSI的目标是构建一个能通过“持续学习“掌握经济中所有工作的系统。
2.3内生价值系统:构建类人智能的核心机制
SSI技术路线的另一个核心是构建类似人类的内生价值系统。伊利亚认为,Scaling价值函数,让AI以更像人类的方式学习,即为模型内置类似人类的判断直觉、稳定价值感受器,任务过程中的“自我评分“,这样才能学得更快。
SSI的技术规划包括AI的三阶段演化:初期实现跨模态感知融合,中期构建自我反思机制,最终形成自主探索世界的能力。这一规划直接回应了伊利亚对当前大模型三大缺陷的批判,特别是针对价值函数缺失这一核心问题。
为了实现这一目标,SSI正在研究一种全新的替代方法来扩展预训练。伊利亚在访谈中透露,SSI正在探索一种与OpenAI完全不同的Scaling方法,但他拒绝透露具体细节,只是表示这是一种“扩大正确的规模“的方法。这种神秘的技术路线引发了业界的强烈好奇和猜测。
2.4资金与资源:30亿美元背后的研究雄心
SSI虽然融资总额达到30亿美元,但相比其他AI巨头仍然相对较少。然而,伊利亚指出了一个关键优势:SSI无需将算力分流至服务亿级用户的产品推理(Inference),也无需维持庞大工程与销售团队;其研究算力的实际占比远超同行,足以验证前沿想法。
历史经验证明,突破性创新并不一定需要天文数字般的算力。AlexNet用了两块GPU,Transformer用了不到64块GPU,这些改变世界的创新都诞生于相对较小的计算规模。伊利亚认为,对于“验证研究想法“,并不一定需要超级算力,SSI有足够的算力来验证他们的想法。
SSI的组织架构也体现了其研究优先的理念。公司仅有约20名员工,却能够获得320亿美元的估值,这种“小而精“的模式与传统AI巨头形成鲜明对比。这种组织形式使得SSI能够保持高度的灵活性和创新活力,避免了大公司常见的官僚主义和资源分散问题。
三、产业影响与市场反应:Scaling范式转变的连锁效应
3.1 OpenAI的困境与战略调整
伊利亚的批判和离职对OpenAI产生了深远影响。根据《The Information》的报道,OpenAI的下一代模型Orion(即GPT-5的内部代号)的开发遭遇了严重困境。尽管Orion完成了训练过程的20%,但Sam Altman承认,它在智能和执行任务、回答问题的能力上已经与GPT-4不相上下。这意味着,投入巨额算力和资源训练的新模型,其提升幅度远低于预期。
更为严峻的是,GPT-5的发布时间一再推迟。Sam Altman此前表示,GPT-5不会有明确的发布时间,等什么时候准备好了,就什么时候发,这个时间可能是2025年,也可能是2026年。这种不确定性反映了OpenAI在Scaling路径上的迷茫和困境。
OpenAI的困境不仅体现在技术层面,更体现在商业层面。根据估算,GPT-5的训练成本可能高达5-10亿美元,而其性能提升却呈现明显的边际递减。这种“高投入、低回报“的剪刀差如果持续扩大,将对OpenAI的商业模式构成严重挑战。
3.2其他AI巨头的应对策略
面对Scaling范式的挑战,其他AI巨头也在积极调整策略。Anthropic推出了Claude Code和Max Plan,专注于推理时Scaling。在GPQA评估中,使用相当于256个独立样本的计算量、学习评分模型和最大64k-token思考预算,Claude 3.7 Sonnet实现了84.8%的GPQA分数(包括96.5%的物理学子分数)。
Google则通过Gemini 3 Pro展示了Scaling Law在推理时的新可能。据泄露消息,Gemini 3 Pro是一个参数量达数万亿的MoE模型,其总参数很可能落在5到10万亿区间。这一规模远超GPT-4,显示Google仍然相信Scaling的潜力,但其重点已经从预训练Scaling转向了模型架构创新。
DeepMind首席科学家Jack Rae提出了一个重要观点:推理模型是AI发展的新范式,推理模型并非追求即时响应,而是通过增加推理时的思考时间来提升答案质量,这导致了一种新的Scaling Law。这种“慢思考“模式为Scaling范式提供了新的可能性——不是在训练时投入更多算力,而是在推理时投入更多计算资源。
3.3学术界的验证与理论突破
学术界对伊利亚观点的验证和理论突破为“Scaling失效论“提供了强有力的支撑。NeurIPS 2025的最佳论文名单被认为是对伊利亚观点的“实证级背书“。其中,《Artificial Hivemind: The Open-Ended Homogeneity of Language Models》揭示了一个令人担忧的现象:SOTA模型正在陷入严重的同质化。
研究团队通过Infinity-Chat数据集量化了当前主流模型的输出分布,结果显示,在当前的训练范式下(尤其是涉及奖励模型对齐时),SOTA模型在开放式生成任务中表现出极高的模型间一致性。这意味着,当前的对齐技术本质上是在切断模型分布的长尾,迫使不同架构的模型收敛到同一个安全但平庸的局部最优解。
更为关键的是,《Does Reinforcement Learning Really Incentivize Reasoning Capacity?》这篇论文通过严格的控制变量实验证明,RLVR(带验证的强化学习)更多是在优化“采样效率“,即让模型更有可能输出它本来就有能力输出的那个正确答案,而非让模型掌握了它原本不懂的推理逻辑。这一发现直接印证了伊利亚关于“RL训练导致泛化能力缺失“的论断。
在理论突破方面,《Superposition Yields Robust Neural Scaling》通过Toy Model实验提出,“特征叠加“(Superposition)是Scaling Law背后的关键驱动力——即神经网络在有限维度内通过非正交方式存储了远超维度的特征数量。当叠加程度较高时,Loss与模型维度呈现反比缩放关系,这为将Scaling Law从经验公式转化为物理定律迈出了关键一步。
3.4产业投资格局的重塑
伊利亚的观点和SSI的成功融资正在重塑AI产业的投资格局。SSI在没有任何产品和收入的情况下获得320亿美元估值,这一现象本身就反映了投资者对Scaling范式的反思和对新路径的期待。
传统的投资逻辑正在被颠覆。过去,投资者追捧的是能够快速推出更大模型的公司;现在,投资者开始关注那些可能带来范式创新的小而精的研究团队。SSI的成功融资证明,即使是一家只有20名员工的公司,只要有正确的技术 vision,仍然能够获得巨额投资。
这种投资格局的变化也反映在人才流动上。越来越多的顶尖AI研究者开始离开大公司,加入或创立专注于基础研究的小团队。这种趋势可能会加速AI领域的创新,因为小团队通常更加灵活,能够快速验证新想法,而不必受制于大公司的官僚体系和商业压力。
四、技术发展趋势:从Scaling到“智能密度“的新范式
4.1推理时Scaling:计算资源的重新配置
面对预训练Scaling的瓶颈,业界开始探索推理时Scaling这一新范式。这种方法的核心思想是,与其在训练时投入巨额算力,不如在推理时投入更多计算资源来提升模型性能。
DeepMind的研究显示,通过增加推理时的计算量,可以实现性能的显著提升。在数学、科学、技术、工程和编码、多模态等领域,推理模型都展现出了显著的能力提升。这种“慢思考“模式虽然会延长响应时间,但对于许多对延迟不敏感的应用场景(如代码生成、科学计算等)来说,是完全可以接受的。
推理时Scaling的优势在于它能够充分利用现有的模型架构,通过增加计算资源来提升性能,而不需要重新训练模型。这不仅大大降低了成本,还提高了开发效率。更重要的是,这种方法为资源有限的团队提供了与巨头竞争的可能性——他们可以通过优化推理算法来提升模型性能,而不必在预训练上投入巨资。
4.2合成数据与算法创新:突破数据瓶颈
面对“峰值数据“的挑战,业界开始积极探索合成数据和算法创新的新路径。伊利亚在NeurIPS上提出了几个潜在解决方案:具备独立思考和推理能力的AI智能体、合成数据生成,以及推理时计算能力的增加。
合成数据生成正在成为突破数据瓶颈的关键技术。通过使用已有的高性能模型生成训练数据,可以在一定程度上缓解数据稀缺问题。然而,NeurIPS 2025的研究也警告,如果所有模型都生成相似的数据,未来的Scaling将因为缺乏足够的信息熵而失效。因此,如何保持合成数据的多样性和质量,成为这一技术路线的关键挑战。
在算法创新方面,研究人员正在探索各种新的架构和训练方法。例如,阿里千问团队提出的门控注意力机制(Gated Attention)通过在注意力输出端引入门控机制,有效地控制了残差流中的数值幅度,解决了Transformer训练中的不稳定性和Attention Sink问题。这种针对底层算子的精细化改进,代表了从“堆砌规模“到“精耕细作“的转变。
4.3多模态融合与具身智能:通向通用智能的新路径
另一个重要趋势是多模态融合与具身智能的兴起。伊利亚提出的AI三阶段演化中,第一阶段就是实现跨模态感知融合。这种趋势反映了业界对单一语言模型局限性的认识,以及对更全面、更像人类的智能形式的追求。
具身智能的发展为解决当前大模型的泛化能力问题提供了新思路。通过将AI系统与物理世界进行直接交互,让它们在真实环境中学习和成长,可以培养出更强的理解能力和适应性。这种方法虽然在短期内可能需要更多的资源投入,但它有望从根本上解决当前模型“纸上谈兵“的问题。
4.4价值对齐与安全AI:从技术到伦理的全面考量
伊利亚的观点还推动了业界对AI安全和价值对齐问题的深入思考。他提出的“构建一个稳健地关心'有感知力的生命'的AI“的愿景,超越了传统的“人类中心主义“,提出了一个更加宏大和包容的目标。
这种理念的转变反映在技术实践中。OpenAI在发布o3推理模型的同时,也发布了一篇关于安全问题的论文,引入了一种名为“慎重对齐“(deliberative alignment)的对齐方式,直接向推理模型传授人工编写、可解释的安全规范,并训练它们在回答之前对这些规范进行明确的推理。
这种方法的创新之处在于,它不需要人工标记的思维链或答案,就可以高度精确地遵守安全政策。研究显示,o1在一系列内部和外部安全基准方面显著优于GPT-4o等其他最先进模型,并且在许多具有挑战性的安全数据集上的性能达到饱和。这一发现揭示了推理将成为提高模型安全性的一条新途径。
结语
伊利亚·斯茨凯弗的“Scaling失效论“不仅是对过去五年AI发展路径的深刻反思,更可能预示着AI产业发展范式的历史性转折。通过对技术机制、产业影响和学术反响的全面分析,我们可以得出以下关键结论:
首先,Scaling范式确实正在遭遇根本性瓶颈。数据稀缺、成本效益恶化、模型泛化能力缺失等问题已经成为不可回避的现实。GPT-5的“平庸“表现和开发困境,以及学术界的理论验证,都为这一判断提供了有力支撑。
其次,SSI的技术路线代表了一种全新的可能性。通过重新定义AGI为“超级学习者“,构建内生价值系统,以及采用“小而精“的研究模式,SSI正在探索一条与传统Scaling完全不同的技术路径。这种探索虽然充满不确定性,但它为陷入困境的AI产业提供了新的希望。
第三,产业格局正在发生深刻变化。从OpenAI的困境到其他巨头的策略调整,从学术界的理论突破到投资格局的重塑,Scaling范式的转变正在引发整个产业的连锁反应。这种变化不仅体现在技术路线的调整上,更体现在对AI本质和发展方向的重新思考上。
展望
AI产业将面临一个充满挑战但也充满机遇的新时代。在这个时代,“智能密度“将取代“规模“成为核心竞争力,算法创新将比算力投入更加重要,而对AI本质的理解将比技术指标更加关键。
对于产业参与者而言,这意味着需要进行战略层面的调整:
对于大型科技公司,应该从“军备竞赛“式的规模扩张转向技术创新和架构优化,加大对基础研究的投入,培养更多具有创新思维的研究人才。
对于初创企业和研究机构,这是一个前所未有的机遇期。小团队可以通过创新的算法和架构设计与巨头竞争,关键是要有独特的技术 vision和扎实的研究能力。
对于投资者,需要调整投资逻辑,从追捧“大模型“转向支持“好想法“,给予创新团队更多的时间和空间来验证其技术路线。
对于政策制定者,应该为AI的创新发展创造良好的环境,同时加强对AI安全和伦理问题的关注,确保技术进步与人类福祉的协调发展。
伊利亚的“Scaling失效论“或许不是终点,而是一个新起点。在这个起点上,AI产业将告别“大力出奇迹“的粗放时代,进入“精工出细活“的创新时代。这是一个充满不确定性的时代,但也是一个充满可能性的时代。正如伊利亚所说,“也许下一次重大范式转变,也来自一套'看起来不够大'的实验“。让我们期待并参与这场可能改变人类未来的技术革命。
伊利亚认为,现在的模型只是“刷题机器”,只会死记硬背和过拟合奖励函数。他主张结束“Scaling时代”(单纯堆算力、堆数据),回归“研究时代”。他追求的是一种“稳健的超级智能”,这种智能不是因为参数多,而是因为算法更聪明、更接近智能的本质。这种模式得到了投资者的高度认可。
以QDST框架开发的物理智能大模型QDST-AGI在理论上比SSI目前的公开描述更具“物理根基”:
从“黑盒”到“白盒”: SSI目前更多是一个愿景(320亿美金的估值买的是伊利亚的信誉和愿景,他并没有实质的物理理论支撑),而QDST-AGI大模型有一套完整的理论(QDST)和工程架构(六层引擎)作为支撑,通过物理机制(退相干势、能量守恒等)强制约束了推理的逻辑一致性。


