推广 热搜: 采购方式  甲带  滤芯  气动隔膜泵  带式称重给煤机  减速机型号  无级变速机  链式给煤机  履带  减速机 

太空算力与太空计算综合分析报告 | 万字长文

   日期:2026-04-15 10:38:58     来源:网络整理    作者:本站编辑    评论:0    
太空算力与太空计算综合分析报告 | 万字长文

研究时间:2026 年 4 月 | 所属领域:航天科技 × AI 算力基础设施 | 研究对象类型:技术概念 + 新兴产业赛道

1

一、一句话定义

太空算力,是把数据中心搬到近地轨道上——用太空中近乎无限的太阳能供电、用深空的 3K 低温辐射散热、用激光星间链路互联——来运行 AI 训练和推理任务的一整套技术体系与产业实践。

听起来像科幻。但 2025 年,已经有 GPU 在轨道上跑通了大模型训练。

2

二、纵向分析:从阿波罗到百万颗卫星

2.1

前传:人类在太空里算了六十年

太空计算的历史,几乎和太空探索一样长。

1969 年,阿波罗制导计算机(AGC)把原本占据整面墙的电子设备压缩成一个 70 磅的盒子,送上了月球。它的全部内存只有约 74KB——今天一张微信表情包都装不下。但它完成了人类历史上最复杂的实时导航计算。

1977 年,旅行者号探测器带着三台计算机启程。每台只有 69KB 内存,但 NASA 做了一个当时看来极其前瞻的决定:让它们可以被远程重新编程。正是这个决定,让旅行者号在之后几十年里不断被「教会」新技能,执行远超原始设计的任务。它至今仍在传回数据。

这段前史揭示了太空计算最早的基因:在极端资源约束下,用最少的算力完成最关键的任务。

从阿波罗到国际空间站,太空里的计算机有一个共同特征——它们的算力跟同时代的地面设备相比,落后得令人发指。1990 年代中期,BAE Systems 推出的 RAD6000 处理器跑在约 20MHz 主频上,而同时期的奔腾处理器已经到了 200MHz。2001 年发布的 RAD750,至今仍是大量航天器的主力芯片,200MHz 主频,单套系统售价 20 万美元。

为什么?因为太空辐射。

宇宙射线会翻转芯片里的比特位(单粒子翻转),甚至永久烧毁晶体管。为了在这个环境下稳定工作,航天级芯片必须经过辐射加固——这意味着更大的晶体管尺寸、更保守的设计、以及比地面芯片落后两到三代的制程。当 NVIDIA 的 A100 已经达到 156 TFlops 时,太空中最先进的 RAD5500 处理器只有 0.9 GFlops。差距是五个数量级。

这个差距,就是太空算力这个赛道存在的根本原因:如果太空芯片永远比地面落后五个数量级,那在太空里做复杂计算就永远是天方夜谭。但如果有什么办法能把商用级芯片带上太空呢?

2.2

学术破冰:轨道边缘计算的诞生(2018-2020)

转折发生在卡内基梅隆大学(CMU)。

2018 到 2019 年间,CMU 的博士生 Bradley Denby 和他的导师 Brandon Lucia 发表了一篇论文——《Orbital Edge Computing: Machine Inference in Space》。这篇论文第一次系统地提出了一个问题:随着地球观测卫星的分辨率从 10 米提升到 0.3 米,同等覆盖范围下的数据量暴增了约 1000 倍,但卫星对地通信的带宽和每圈过顶的时间窗口几乎没变。

换句话说,卫星拍到的数据越来越多,但传回地面的管道没有变粗。

Denby 和 Lucia 的提案很直接:别传了。让卫星自己在轨道上把数据处理好,只把有价值的结果传下来。他们把这叫做「轨道边缘计算」(Orbital Edge Computing, OEC)。

2020 年,他们的后续论文《Orbital Edge Computing: Nanosatellite Constellations as a New Class of Computer System》在计算机体系结构的顶会 ASPLOS 上发表,并拿到了最佳论文奖。这篇论文做了一件更有野心的事——它不只是说「在卫星上跑算法」,而是提出:纳卫星星座本身就是一种全新类别的计算机系统。

这个概念的出现有它的时代背景。2018 年前后,SpaceX 开始大规模部署 Starlink 星座,一箭 60 星的「饺子下锅」式发射让 LEO 卫星的数量从几百颗跳到了几千颗。商业遥感公司 Planet Labs 已经有超过 200 颗鸽子卫星在轨。空间里突然挤满了卫星,而这些卫星上的计算能力依然停留在上个世纪。

学术界看到了这个缺口。但从论文到产品,还需要另一个条件。

2.3

HPE 的试水与中国的先手(2017-2022)

在 CMU 写论文的同时,有人已经开始在太空里装电脑了。

2017 年,NASA 和 HPE(惠普企业)合作,把一台商用服务器——Spaceborne Computer——送上了国际空间站。这台机器没有经过传统的辐射加固,而是依赖软件层面的错误检测和纠正来应对辐射。它在 ISS 上运行了超过一年,处理了各种科学计算任务,证明了一件事:商用硬件在适当保护下,可以在太空环境中存活。

2021 年,升级版的 Spaceborne Computer-2 上天。这一次它直接对接了 Azure 云服务,实现了 ISS 和地面云之间的混合计算。宇航员可以在太空里运行机器学习模型,而不需要等待数据传回地面。

中国这边的动作更有体系感。

2017 年,中国科学院软件研究所组建了「软件定义卫星技术联盟」,核心理念是把卫星从固化的硬件系统变成可编程的软件平台。2018 年 11 月,验证星「天智一号」发射。它搭载了一颗寒武纪的 AI 芯片和一个开源的卫星软件平台(ISOS),可以在轨运行深度学习推理任务。

天智一号的意义在于:它第一次把 AI 芯片和可编程软件架构同时带上了太空。虽然算力有限,但思路已经打通——卫星不再是一个发射时就被「锁死」功能的盒子,而是一个可以持续升级的计算节点。

同一时期,大厂也在布局。2019 年,AWS Ground Station 正式上线,在全球部署了托管地面站网络,让卫星运营商能直接把数据推进 AWS 云。2020 年 9 月,微软宣布 Azure Space 和 Azure Orbital,提供「地面站即服务」。

但请注意,AWS 和微软做的事情跟「太空算力」有本质区别——它们是把卫星数据拉到地面来算,而不是在天上算。计算仍然发生在地球表面。这是「太空接入云」,不是「太空计算云」。

这个区分很重要,因为它划出了赛道的真正边界。

2.4

点火时刻:为什么是 2024 年?

2023 年到 2024 年初,几件事同时发生,共同引爆了这个赛道。

第一件事:AI 算力需求的指数爆炸。 2024 年,全球数据中心的电力消耗达到约 415 TWh,占全球用电量的 1.5%。高盛预测 2030 年将翻番到 945 TWh。GPT-4 的单次训练消耗约 30MW 的电力。OpenAI 的 Stargate 项目需要 GW 级的数据中心。AI 服务器的功耗是传统服务器的 2 到 4 倍,且每年以 30%的速度增长。

地面数据中心正在逼近三重极限:电网承载不住(美国数据中心 2030 年将消耗全美 13%的电力,2024 年是 4%)、土地审批慢得让人绝望(5 年起步)、水资源消耗引发地方政府的抵制。

第二件事:SpaceX 把发射成本打到了历史最低。 航天飞机时代,把 1 公斤载荷送入 LEO 需要约 65000 美元。猎鹰 9 号可重用后降到了 1500 到 2500 美元。Starship 的远期目标是 10 到 20 美元/公斤。虽然离目标还很远,但趋势是确定的——进入太空的经济门槛正在以指数速度下降。

第三件事:激光星间链路成熟了。 Starlink 已经在超过 10000 颗卫星上部署了激光通信终端,每个 100Gbps。中国的「激光星际」公司在 2024 到 2025 年间实现了 400Gbps 的激光星间链路(世界纪录)。这解决了太空计算最关键的基础设施问题——卫星之间怎么高速传数据。

三根柱子同时立住:算力需求推力、发射成本下降、星间通信打通。太空算力从学术论文里的优美概念,变成了资本和工程师都愿意赌的方向。

2.5

Starcloud:从 YC 创业到独角兽的 17 个月

2024 年 1 月,三个人在加州 El Segundo 创立了一家公司,最初叫 Lumen Orbit。

Philip Johnston,麦肯锡前顾问,专注航天战略。Adi Oltean,先后在 SpaceX Starlink 和微软 Azure 做过网络工程。Ezra Feilden,在空客防务与航天设计了十年卫星。这个组合很有意思——一个懂商业叙事,一个懂卫星互联网的实操,一个能造硬件。

2024 年 2 月,公司搬到了华盛顿州 Redmond。为什么是 Redmond?因为那里是 SpaceX Starlink、AWS 和 Azure 的人才聚集地。太空计算这件事,需要同时懂卫星和懂云计算的人,Redmond 可能是地球上这类人才密度最高的地方。

2024 年 3 月,240 万美元天使轮。2024 年夏天,入选 Y Combinator S24 批次。在 YC 的 Demo Day 上,这家公司引爆了投资人的热情——据报道有超过 200 家 VC 想要投进来。2024 年 10 月,1100 万美元种子轮关闭,由 NFX 领投,估值 4000 万美元。2025 年 3 月,因为跟电信公司 Lumen Technologies 的商标冲突,改名为 Starcloud。

然后是技术验证的关键一步。

2025 年 11 月,Starcloud-1 发射。这是一颗 60 公斤的小卫星,但它搭载了一块 NVIDIA H100 GPU——比此前太空中最强的 GPU 算力高出 100 倍。在轨道上,Starcloud-1 做了三件事:运行了 Google Gemma 开源大模型的推理任务,完成了 NanoGPT 的微调训练,以及处理了来自 Capella Space 的合成孔径雷达数据。

人类第一次在太空中训练了一个大语言模型。

2026 年 3 月 30 日,Starcloud 宣布完成 1.7 亿美元的 A 轮融资,由 Benchmark 和 EQT Ventures 领投,估值 11 亿美元。从 YC Demo Day 到独角兽,只用了 17 个月——YC 历史上最快。

Starcloud 的愿景很疯狂也很清晰:建造一个 5GW 级的轨道数据中心,太阳能电池板和散热板延展面积约 4×4 公里。用太空中几乎免费的太阳能驱动下一代 AI 训练。下一颗卫星 Starcloud-2 计划 2026 年 10 月发射,搭载 NVIDIA Blackwell B200 GPU 和 AWS 服务器刀片,功率 200 千瓦、重 3 吨。Starcloud-3 则是为 Starship 大运力部署设计的。

2.6

中国:举国体制的算力星座(2024-2026)

在 Starcloud 于硅谷融资的同一时期,中国以另一种方式在推进同一个方向。

2024 年 7 月,之江实验室——浙江省委省政府主导的顶级新型研发机构——成立了「计算星座科研任务总体部」。他们要突破的核心技术包括:星载智能计算机、星载高通量路由器、天基分布式操作系统、以及天基 AI 模型。这不是一家创业公司在做的事,这是一个国家科研体系在做的事。

2024 年 9 月,成都的国星宇航(ADA Space)发射了一颗 AI 大模型科学卫星,完成了在轨 AI 验证。

2024 年 11 月 21 日,世界互联网大会乌镇峰会。国星宇航与之江实验室联合发布了「星算计划」(Star-Compute)。目标:2800 颗 AI 算力卫星,组网后总算力达到 1000 POPS(每秒 10^18 次运算)。首批 54 家合作伙伴加入联盟,后来扩展到 108 家。

2025 年 5 月 14 日,酒泉卫星发射中心,长征二号丁火箭升空。12 颗计算卫星一次性入轨,每颗最高算力 744 TOPS,星座总算力 5 POPS。100Gbps 的激光星间链路把 12 颗卫星编织成一个在轨计算集群。这是全球第一个太空计算星座。

然后是更让人注目的事:2025 年 9 月,阿里巴巴的通义千问 Qwen-3 大模型被部署到了这个在轨星座上,实现了常态化商业运营。这是人类第一次在太空中运行通用大语言模型的商业服务。2025 年 8 月,之江实验室还为天宫空间站内的航天员部署了「悟空 AI」大模型助手。

2026 年 2 月,新华社报道了在轨验证的成果:星座运行了 80 亿参数的遥感模型和 80 亿参数的天文时域模型,后者对伽马射线暴的分类精度达到 99%。

中国的路径跟美国完全不同。Starcloud 是风险投资驱动的创业公司,靠 Demo Day 的演示和独角兽估值来融资。中国的三体计算星座是政府科研机构和商业航天公司的合体,资金来源包括四川省中国银行 50 亿人民币的授信。两条路殊途,但在 2025 年交汇到了同一个方向——把 GPU 送上轨道。

而且,中国在时间线上其实领先了。三体星座 2025 年 5 月入轨运营,比 Starcloud-1 早了半年。

2.7

巨头入场:2025 年末到 2026 年初的疯狂三个月

2025 年末到 2026 年初的几个月,是太空算力赛道从「初创公司的游戏」变成「巨头的战场」的转折点。

2025 年 11 月,Google 公布了 Project Suncatcher。

这是 Google Research 内部的一个 moonshot 项目,由高级总监 Travis Beals 牵头。核心方案:在黎明-黄昏太阳同步轨道部署搭载 Google TPU 的卫星集群,81 颗卫星以数百米间距紧密编队飞行,形成一个半径约 1 公里的空间计算阵列。星间用自由空间光学链路互联,实验室已验证单收发器对 1.6 Tbps 的传输速率。

最让人惊讶的是辐射测试结果。Google 用 67 MeV 的质子束轰击了他们的 Trillium v6e TPU 芯片。在累计剂量达到 2 krad(Si)之前,芯片没有出现任何异常——这相当于 5 年屏蔽任务预期剂量的 3 倍。直到 15 krad(Si)才出现硬失效。

这个发现颠覆了一个长期假设:商用 AI 芯片在太空中活不久。Google 的 TPU 意外地证明,某些商用芯片本身就具备相当程度的抗辐射能力。如果这个结论可以推广,那传统辐射加固芯片——连同它五个数量级的性能差距——就不再是唯一选项了。

Google 与 Planet Labs 合作,计划 2027 年初发射两颗原型卫星进行在轨验证。Sundar Pichai 说:「十年内,轨道数据中心将成为常态。」

不过 Google 也清醒地指出了经济可行性的门槛:发射成本需要降到 200 美元/公斤以下,目前大约是 1000 美元/公斤,预计 2030 年代中期才能到位。

2025 年 11 月,同一个月,NVIDIA 宣布了「Space Computing」生态。

黄仁勋在发布会上说:「Space computing, the final frontier, has arrived.」NVIDIA 推出了面向太空的 Jetson Orin 平台适配方案,并将 CUDA 生态和 AI 软件栈向太空应用开放。更重要的是,2026 年 3 月的 GTC 大会上,NVIDIA 发布了专为太空设计的 Space-1 Vera Rubin Module——相比 H100,AI 推理性能提升 25 倍,同时针对太空环境做了尺寸-重量-功耗(SWaP)优化。

NVIDIA 的入场意味着:太空算力不再缺「卖铲子的人」了。

2026 年 1 月 30 日,SpaceX 向 FCC 提交了可能是人类航天史上最疯狂的申请。

申请内容:部署最多 100 万颗轨道数据中心卫星,运行在 500 到 2000 公里的近地轨道上,30 度倾角和太阳同步轨道兼顾,激光链路互联,太阳能驱动。百万颗。不是百颗,不是万颗,是百万颗。

分析师们的反应两极分化。看多的人认为这是 SpaceX 垂直整合能力(Starship 发射 + Starlink 网络 + xAI 算力需求)的自然延伸。看空的人认为这是为 2026-2027 年 IPO 制造的叙事炸弹——一个 100 万颗卫星的远景比一个务实的商业计划更能支撑万亿美元的估值。

两天后,2026 年 2 月 2 日,SpaceX 宣布收购 xAI,合并估值 1.25 万亿美元。火箭 + 卫星网络 + AI 模型,三位一体。马斯克说:「太空将在 2 到 3 年内成为最低成本的算力来源。」

2026 年 3 月 19 日,Blue Origin 提交了自己的 FCC 申请——Project Sunrise。

51600 颗太阳同步轨道卫星,500 到 1800 公里,光学星间链路网格,地面通过 TeraWave 宽带系统连接。Bezos 的表态更冷静:「轨道数据中心将在不超过 20 年内在成本上击败地面数据中心。」

至此,太空算力赛道的参与者从初创公司扩展到了人类最有资源的几家公司。但正如很多宏大叙事一样,声音越大的时候,质疑也越猛。

2.8

冷水:物理定律不讲情面

2026 年 2 月,Sam Altman 在一次公开场合说了一句话:「现在把数据中心放太空的想法是荒谬的(ridiculous)。太空轨道数据中心不会在这个十年里大规模落地。」

Gartner 的 VP 分析师 Bill Ray 更直接,用了「Peak insanity」来形容。他指出:太空级太阳能板的成本是地面版的 1000 倍;散热需要氨液系统(ISS 已经验证了这有多复杂);轨道温度在 100K 到 400K 之间剧烈交变。

做空投资人 Jim Chanos 把太空数据中心称为「AI Snake Oil」——太空发射、保险、冗余、宇宙辐射的综合成本远超节省的地面电费。

Varda Space Industries 的 R&D 负责人 Andrew McCalip 说了一句很精炼的话:「物理上不是立刻致命,但经济上很残酷(savage)。」

HackerNews 上的技术社区讨论更深入。核心质疑集中在散热:太空中只能辐射散热,1MW 的废热需要约 1200 平方米的辐射面积。GW 级的数据中心意味着数平方公里的散热板。而且 AI 训练需要节点之间极低延迟的 NVLink 级互联——这在物理上分隔数百米的卫星之间怎么实现?

还有一个容易被忽略的数字:截至 2026 年,所有太空中运行的 GPU 加起来大概在「几十块」的量级。而 NVIDIA 在地面已经卖出了近 400 万块。差距不是百倍千倍,是数万倍。

这些质疑都是严肃的。太空算力目前面临的不是一个挑战,而是一整组互相耦合的物理和工程极限:

散热是最根本的瓶颈。辐射散热效率受 Stefan-Boltzmann 定律约束(单面约 850W/m² @ 80°C),无法绕过。大面积辐冷板意味着更大的卫星结构、更多的发射质量、更复杂的姿态控制。Sophia Space 提出了一个有趣的方案——把整个卫星表面设计成散热器(一面太阳能板、一面辐射板),但这还只是实验室概念。

辐射防护正在出现新的解法。Google TPU 的测试结果是一个积极信号,但需要更多芯片和更长时间的在轨验证。目前的策略是「软件容错 + 商用芯片」替代「物理辐射加固」,这条路是否走得通还需要时间证明。

通信延迟限制了适用场景。LEO 到地面往返延迟约 20-50ms,对批处理 AI 训练不是问题,但排除了所有需要实时响应的应用。更关键的是,分布式训练需要节点间极高带宽极低延迟的互联——Google 的 1.6 Tbps 光学链路是一个突破,但距离 NVLink 的数百 GB/s 带宽和纳秒级延迟还有本质差距。

在轨维护几乎不可能。坏了就是坏了。只能靠冗余设计、OTA 软件更新和极高的可靠性来应对。OrbitsEdge 与 Rogue Space Systems 签了在轨服务协议,试图打开一条维修通道,但这在技术上还很初期。

2.9

2026 年 4 月的格局:泡沫还是黎明?

写到这里,把时间轴拉到当下。

2026 年 4 月的太空算力赛道,像极了 2016 年的自动驾驶——确定性和不确定性同时存在,而且存在于不同的时间尺度上。

确定的是:AI 算力需求在指数增长,地面数据中心的三重极限(电网、土地、水)是真实存在的物理约束而非人为瓶颈,发射成本的下降趋势不可逆,激光星间链路已经从实验室走到了部署。这些趋势的方向不会改变。

不确定的是:什么时候?Starship 的 200 美元/公斤何时实现?散热问题能否在工程上突破 Stefan-Boltzmann 的天花板?太空中的 GPU 集群能否跑通分布式训练?这些是具体的工程和时间问题,答案可能是 5 年,也可能是 25 年。

但有一件事已经发生了:太空不再只是一个数据传输的介质,它正在变成一个计算的场所。从 Starcloud 在轨道上训练出的那个 NanoGPT 模型开始,太空计算从概念变成了事实。接下来的问题不是「能不能做到」,而是「多大规模、多快速度、什么成本」。

3

三、横向分析:竞争图谱

3.1

场景判断:这是一个百花齐放的早期市场

太空算力赛道当前的竞争格局属于典型的「场景 C」——玩家充分,但尚未形成明确的胜负格局。按参与者类型可以分为五个梯队:

第一梯队:专注太空计算的初创公司。 Starcloud、Aethero、OrbitsEdge、Sophia Space、Aetherflux。这些公司 all-in 太空算力,是最纯粹的赛道参与者。

第二梯队:大厂的太空计算项目。 Google Project Suncatcher、NVIDIA Space Computing 生态、Microsoft Azure Space、AWS Ground Station。

第三梯队:巨型太空公司的延伸。 SpaceX 轨道数据中心计划、Blue Origin Project Sunrise、Axiom Space ODC。

第四梯队:中国国家队。 国星宇航 + 之江实验室的三体计算星座、北京辰光一号规划、上海东方天算。

第五梯队:国际参与者。 欧盟 ASCEND 项目、日本 NTT Space Compass、以色列 Ramon.Space、印度 TakeMe2Space。

让我逐一拆开看。

3.2

Starcloud vs 中国三体计算星座:两种模式的正面碰撞

这是当前赛道上最有代表性的对比。

Starcloud的打法是硅谷创业的经典范式:小团队快速迭代,用风险资本加速,先发射最小可行产品(Starcloud-1,一颗 60kg 小卫星 + 一块 H100),用技术验证结果撬动下一轮更大的融资(1.7 亿美元 A 轮),再用融资造更大的卫星(Starcloud-2,3 吨级,200kW)。核心优势是速度和叙事能力——17 个月做到独角兽,YC 历史最快。

但 Starcloud 目前在轨的算力还非常有限。Starcloud-1 只有一块 H100。整个公司的在轨计算能力,大概相当于地面一台普通 AI 服务器的水平。从「首次在太空训练 LLM」到「大规模商业化太空算力服务」,中间隔着几个数量级的工程鸿沟。

三体计算星座的打法完全不同。它是政府主导的系统工程:之江实验室负责核心技术攻关(星载计算机、操作系统、AI 模型),国星宇航负责卫星平台和发射,108 家联盟成员提供各环节支持,四川中行提供 50 亿人民币银行授信。

三体星座在规模上已经领先。12 颗卫星在轨,总算力 5 POPS,100Gbps 激光星间链路,80 亿参数模型在轨运行。这不是概念验证,这是已经在产生商业数据的运营中星座。规划中还有 2800 颗的最终规模。

两者的差异折射出中美科技竞争的一个有趣侧面:美国的初创公司在商业叙事和资本效率上更强——Starcloud 用 2 亿美元融资就做到了独角兽,而三体星座背后的投入可能高出一个数量级。但中国的体系在执行确定性的大规模工程上更有效率——你很难想象一家硅谷初创公司能在 18 个月内完成 12 颗卫星的设计、制造、发射和组网。

用户评价也不同。Starcloud 在 HackerNews 和 Twitter 上有大量讨论(正面和负面都有),在技术社区的可见度很高。三体星座在中文技术社区有较多报道,但在英文世界的讨论相对有限——部分原因是语言障碍,部分原因是中国航天的信息公开程度有限。

3.3

Sophia Space:最优雅的技术路线

在一众太空算力初创公司中,Sophia Space 的技术思路最让人印象深刻。

这家公司 2023 年成立于帕萨迪纳,创始人 Leon Alkalai 是 NASA JPL(喷气推进实验室)的前研究员。他提出了一个叫 TILE(Thermal-Integrated LEO Edge)的架构:把太阳能电池板和辐射冷却器一体化集成到模块化的「瓦片」上。卫星的每一面都同时是发电器和散热器——朝向太阳的一面发电,背向深空的一面散热。92%的发电功率直接用于计算,不需要任何主动冷却系统。

这个设计的优雅之处在于:它直接面对了太空算力最核心的物理限制(散热),而不是试图用工程复杂度去硬扛。多个 tile 可以堆叠成机架,机架可以扩展为更大的阵列,最终目标是 MW 级甚至 GW 级。

2026 年 2 月,Sophia Space 完成了 1000 万美元的种子轮融资。他们还很早期,但如果 TILE 架构在轨验证成功,可能会定义太空计算硬件的标准形态。

3.4

Aetherflux:从太空太阳能到太空算力的战略转向

Aetherflux 的故事是赛道叙事变迁的缩影。

这家公司的创始人是 Baiju Bhatt——Robinhood 的联合创始人。最初的使命是「太空太阳能」(space-based solar power),通过红外激光把轨道上采集的太阳能传输到地面。但在 2024 年左右,公司发现了一个更直接的商业路径:既然已经在太空里搞定了大面积太阳能供电,为什么不直接在太空里用这些电力来跑 AI 呢?

于是战略转向:从卖能源变成卖算力。2025 年 4 月完成 5000 万美元 A 轮融资,用于 2026 年的 LEO 演示发射。目前正在谈 2.5 到 3.5 亿美元的 B 轮,目标估值 20 亿美元。

Aetherflux 与 NVIDIA 合作,计划使用 Space-1 Vera Rubin Module。如果 B 轮顺利,它可能成为 Starcloud 之后第二个达到独角兽的太空算力初创公司。

3.5

大厂的不同姿态

Google、NVIDIA、SpaceX、Blue Origin——四家大厂在太空算力上的打法截然不同。

Google Project Suncatcher是研究导向的 moonshot。81 颗 TPU 卫星组成 1 公里阵列、1.6 Tbps 光学链路、商用 TPU 意外的抗辐射性——每一项发现都是有原创贡献的技术研究。但 Google 也最清醒地标注了经济可行性的前提条件(发射成本降至 200 美元/公斤),并给出了一个现实的时间表(2030 年代中期)。

NVIDIA是典型的「卖铲子」策略。不自己造卫星,而是把 GPU 和开发生态推向所有太空算力公司。Space-1 Vera Rubin Module 的推出意味着 NVIDIA 开始为太空定制硬件。如果太空算力赛道成功,NVIDIA 赢。如果失败,NVIDIA 只是少赚一个小众市场的钱。这是零风险参与。

SpaceX的百万卫星申请更像是一种战略声明。凭借 Starship 的运力(目标 200 美元/公斤的发射成本)和 Starlink 的网络基础设施(超 10000 颗卫星的激光链路骨干),SpaceX 理论上是最有可能大规模部署轨道数据中心的公司。但百万颗卫星在短期内显然不可能实现——FCC 申请更可能是为 IPO 叙事服务的远景规划。真正的赌注是:Starship 何时实现商业化运营?

Blue Origin的 Project Sunrise(51600 颗卫星)比 SpaceX 保守了一个数量级,但仍然是一个极其宏大的计划。Bezos 的优势是长期耐心和不差钱(个人财富支撑),劣势是 New Glenn 火箭的成熟度仍远落后于猎鹰 9 号。

3.6

欧洲 ASCEND:气候叙事驱动的第三条路

欧盟的 ASCEND 项目提供了一个完全不同的视角。

它由 Thales Alenia Space 主导,Airbus、ArianeGroup、HPE、Orange 等 12 家欧洲机构参与,资金来自 Horizon Europe 计划。但推动 ASCEND 的核心动力不是 AI 算力需求——而是碳减排和数字主权。

欧洲的逻辑是这样的:如果数据中心的碳排放持续增长(2030 年翻番),那么把计算搬到太空、用太阳能供电、就能从源头上消除数据中心的碳足迹。同时,轨道数据中心不受美国 CLOUD Act 的司法管辖,有助于欧洲的「数字主权」。

2024 年 6 月的可行性研究结论是积极的:技术可行、经济可行(前提是发射成本降 10 倍)、环境可行(前提是使用低碳火箭)。路线图是:2031 年概念验证、2036 年开始建设、2050 年前部署 1GW 算力。

跟美中的激进时间表比,ASCEND 的 2050 年目标看起来极其保守。但这也许恰恰反映了欧洲人对工程风险的诚实评估。他们不需要用独角兽故事来融资。

3.7

日本 Space Compass 与以色列 Ramon.Space

NTT Space Compass是日本电信巨头 NTT 和 SKY Perfect JSAT 的合资公司,方案设计得最有「日本特色」:三层集成架构——GEO 卫星(数据中心 + 光学中继)、LEO 卫星(传感与通信)、平流层 HAPS(高空平台站),全部通过光学无线网络连接。NTT 的光子电子融合技术是核心差异化。2025-2026 年发射和运营。

Ramon.Space可能是赛道里最低调但技术积淀最深的公司。2004 年成立于以色列,以哥伦比亚号航天飞机失事的以色列航天员 Ilan Ramon 命名。他们的核心技术是「虚拟辐射加固」——不在物理上加固芯片,而是用软件模拟太空辐射环境来验证商用硬件的可靠性。技术已参与 NASA CYGNSS、ESA Solar Orbiter、JUICE 木星探测器等 50 多个太空任务,零失败记录。2023 年获得富士康子公司 Ingrasys 的 2600 万美元战略投资。

3.8

一张对比表

维度
Starcloud
三体计算星座
Google Suncatcher
SpaceX ODC
Sophia Space
定位
通用 AI 算力云
国家级算力基础设施
研究型 moonshot
垂直整合算力平台
散热架构创新者
在轨算力(当前)
1 块 H100
5 POPS(12 星)
尚未发射
尚未发射
尚未发射
技术路线
商用 GPU+辐射屏蔽
国产 AI 芯片+激光通信
TPU+自由空间光学
Starlink 基础设施延伸
TILE 被动散热架构
资金来源
风险投资($200M)
政府+银行授信(50 亿元+)
Google 内部
内部(万亿美元估值)
风险投资($13.5M)
目标规模
5GW 轨道数据中心
2800 颗/1000 POPS
81 颗/簇
100 万颗
MW→GW 级
经济可行性门槛
$500/kg 发射成本
国家意志驱动
$200/kg 发射成本
Starship 商业化
未明确
最早商业化
2026-2027 年
已在运营
2030 年代
2028-2030 年
2028 年+

3.9

用户社区的真实声音

技术社区对太空算力的评价高度两极化。

HackerNews 上最高赞的评论之一是:「在北极建数据中心比在太空建更有意义。那里有水冷、有大地散热、有电缆、发射成本是零。」

Reddit 的 r/space 板块里有人计算:把 NVIDIA 在地面卖出的 400 万块 GPU 全送上太空,需要多少次 Starship 发射?答案是「你得把整个 Starship 产能用好几年」。

中文社区(知乎)的讨论更分裂。支持者引用「数字中国」「太空新基建」的政策叙事。质疑者指出:成本追平需要约 15 年,谁来持续投入?这跟元宇宙的叙事逻辑有什么区别?

但也有一些中间派的声音值得注意。一位在 NASA 工作过的工程师在 HackerNews 上写道:「别把太空算力当成地面数据中心的替代品。它的第一个真实用例不是在天上训练 GPT-5,而是让遥感卫星不再需要把原始数据传回地面。仅此一项就能省出巨额的通信成本。」

我觉得这个判断是对的。太空算力的第一波真实价值不在于「替代 AWS」,而在于「让太空中产生的数据在太空中被处理」。从这个角度看,OrbitsEdge 和 Aethero 这样做星载边缘计算的公司,可能比 Starcloud 这样追求通用算力云的公司更早找到 product-market fit。

3.10

市场规模:分歧比数字更重要

关于太空算力的市场规模预测,不同机构给出的数字差异极大:

来源
预测
Fortune Business Insights
2025 年$12.8 亿 → 2034 年$38.1 亿(CAGR 13%)
BIS Research
2029 年$17.7 亿 → 2035 年$390.9 亿(CAGR 67%)
行业分析师中观预测
2030 年$150-200 亿(CAGR 85-90%)

数字之间差了一个数量级。这本身就说明了一切——没有人真正知道这个市场会有多大,因为它的规模完全取决于几个还没有确定答案的变量:Starship 何时实现商业化?散热工程何时突破?商用芯片的在轨可靠性如何?

4

四、横纵交汇洞察

4.1

历史如何塑造了当下

拉开距离看,太空计算 60 年来的发展可以浓缩为一句话:太空中的算力一直在追赶地面,但差距始终没有缩小,直到有人决定不再追赶,而是直接把地面的芯片搬上去。

从阿波罗 AGC 的 74KB 内存,到 RAD750 的 200MHz 主频,到 RAD5500 的 0.9 GFlops——太空芯片在绝对性能上一直在进步,但跟同时代地面芯片的差距反而在拉大。摩尔定律在地面上用 18 个月翻一番的速度狂奔,辐射加固芯片却受限于保守的设计哲学和漫长的认证周期,始终慢两到三代。

这个差距在 AI 时代被放大到了不可容忍的程度。当 NVIDIA A100 达到 156 TFlops 时,最好的太空处理器停留在 0.9 GFlops。这五个数量级的鸿沟意味着:如果继续走辐射加固路线,太空永远不可能做有意义的 AI 计算。

真正的转折不是某一项技术突破,而是一个认知转变:也许不需要辐射加固。 HPE Spaceborne Computer 在 2017 年证明了商用服务器可以在 ISS 上存活。Google 在 2025 年证明了 TPU 意外地具备抗辐射能力。Starcloud 在 2025 年证明了 H100 可以在开放轨道上运行。

这条「商用芯片直接上天」的路径一旦被打通,太空计算就不再是一个需要等待专用硬件追上来的领域,而变成了一个可以直接跟着 NVIDIA 路线图走的领域。每一代新 GPU 发布,太空算力的理论上限就跟着跳一步。

4.2

竞品的纵向对比:时间线揭示了什么

把主要玩家放到时间线上看,一个有趣的分化立刻浮现:

技术积累型:Ramon.Space(2004 年成立,20 年太空计算硬件经验)、OrbitsEdge(数年的 SatFrame 平台开发)。这些公司从太空硬件出发,逐步向计算服务延伸。

AI 浪潮催生型:Starcloud(2024 年 1 月成立)、Aethero(2023 年)、Sophia Space(2023 年)、Aetherflux(战略转向于 2024 年)。这些公司的诞生或转向直接对应 AI 算力需求的爆发时间点。

国家战略催生型:中国三体计算星座(2024 年 7 月之江实验室成立总体部)、ASCEND(2023 年获 Horizon Europe 资助)。

两个观察——

其一,太空算力作为一个独立产业方向的真正「诞生年」是 2024 年,不是更早。虽然学术概念(2019 年 OEC 论文)和技术验证(2017 年 HPE Spaceborne Computer)更早出现,但产业化的加速器是 2023-2024 年间 AI 算力需求的暴增。没有 GPT-4 和它背后的 GW 级电力需求,太空算力可能还会在学术论文里安静地躺好几年。

其二,中国在工程落地上的速度令人意外。从 2024 年 7 月立项到 2025 年 5 月 12 颗卫星入轨运营,只用了 10 个月。这个速度即使在中国航天的语境下也是罕见的。部分原因是「软件定义卫星」的前期积累(2017 年联盟成立、2018 年天智一号发射),部分原因是举国体制的资源调度能力。

4.3

优势与劣势的历史根源

Starcloud 的核心优势——硅谷的融资速度和叙事能力——根植于 YC 生态和美国风险投资体系。但它的核心劣势——在轨实际算力极其有限——也是这个模式的必然结果。资本可以快速跟进,但太空硬件的迭代周期(设计→制造→发射→在轨验证)天然比软件慢几个数量级。

三体计算星座的核心优势——大规模工程执行力——根植于中国航天的举国体制传统。但它的核心劣势是:商业模式的国际化存在障碍(地缘政治敏感性、信息透明度不足),且最终 2800 颗卫星的经济性仍然高度依赖政府补贴。

Google 的核心优势——TPU 抗辐射性的意外发现和 1.6 Tbps 光学链路——来自其在 AI 芯片和高速网络领域长达十年的研发积累。但 Google 的核心劣势是:它是一家软件公司,没有造卫星和发射火箭的经验,必须依赖 Planet Labs 等合作伙伴。

SpaceX 的核心优势——Starship + Starlink + xAI 的三位一体——是任何其他公司都无法复制的垂直整合。但 SpaceX 的核心劣势是:它的百万卫星计划在物理上受限于轨道空间(LEO 能容纳多少颗卫星?太空碎片风险如何管理?),以及 Starship 本身的商业化时间表。

4.4

未来推演:三个剧本

最可能的剧本:分层发展,2030 年代初步商业化

太空算力不会替代地面数据中心,而是形成一个新的层级。最先商业化的场景是卫星数据的在轨处理(遥感、SAR 数据减量),而不是通用 AI 训练。Starcloud 和中国三体星座在 2027-2028 年分别完成百颗级别的星座部署,为特定客户(国防、地球观测)提供在轨算力服务。通用 AI 训练要等到 2030 年代 Starship 实现规模化运营后才具备经济可行性。总市场规模在 2030 年达到$50-100 亿,远低于最乐观的预测,但足以支撑赛道里几家头部公司的生存。

最危险的剧本:太空碎片与 Kessler 综合征

当前 LEO 已经有超过 54000 个被跟踪的碎片和约 9300 颗活跃卫星。SpaceX 每月执行超过 4000 次规避机动。如果百万颗卫星的计划真的开始执行,即使其中只有一小部分失败或碰撞,都可能触发级联效应。ESA 的模型显示,部分轨道高度已经接近「临界密度」。Kessler 综合征不需要让 LEO 完全不可用,只需要让保险费率和碎片规避成本飙升到无法承受的程度,就足以杀死整个太空数据中心产业。

最乐观的剧本:Starship 突破 + 商用芯片验证 = 太空算力指数增长

Starship 在 2028-2029 年实现$200/kg 的发射成本。Google 和 Starcloud 的在轨测试证明商用 GPU/TPU 可以在 LEO 环境中可靠运行 3-5 年。Sophia Space 或类似公司的被动散热架构突破了 MW 级的工程验证。三个条件同时成立时,太空算力的经济性将出现拐点——在某些场景下(持续训练大模型、对延迟不敏感的批处理任务)成本低于地面。到 2035 年,轨道数据中心可能承载全球 AI 训练总算力的 5-10%,市场规模达到数百亿美元。这个剧本需要一切都顺利,但也不是不可能。

4.5

最后一层

太空算力这个赛道,像极了人类文明的一个永恒命题:当你在一个空间里把资源用尽时,你是选择优化存量,还是开拓新的空间?

地面数据中心正在逼近电力、土地和水的三重极限。工程师们当然可以继续优化——更好的芯片能效、更高效的冷却系统、更智能的电网调度。这些优化空间是真实的。

但太空提供了另一种可能性:在一个没有电网容量上限、没有土地审批、没有水资源争夺的环境里,用几乎免费的太阳能运行计算。这个可能性是否能兑现,取决于工程师能否在辐射散热、芯片可靠性和通信延迟这三个物理约束中找到可行的平衡点。

我的判断是:太空算力在 2026 年还不是一个成熟的产业,甚至不是一个已被验证的商业模式。但它也不是炒作或泡沫。它是一个正在被认真工程化的可能性,由真实的物理需求(AI 算力暴增)驱动,由真实的技术进展(商用芯片上天、激光通信成熟、发射成本下降)支撑。

它让我想到 Freeman Dyson 在 1960 年提出的戴森球概念——一个围绕恒星建造的能量采集结构。Starcloud 的 5GW 太阳能阵列、SpaceX 的百万颗卫星,虽然离戴森球还差十几个数量级,但底层逻辑是一样的:当你的文明对能量的需求超过了行星表面能提供的上限,你就开始向太空寻找。

也许 Kardashev 说对了。I 型文明向 II 型文明的跃迁,不是从某一天突然开始的。它从一块在轨道上跑通大模型训练的 H100 GPU 开始,一颗卫星一颗卫星地慢慢累积。

 
打赏
 
更多>同类资讯
0相关评论

推荐图文
推荐资讯
点击排行
网站首页  |  关于我们  |  联系方式  |  使用协议  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  皖ICP备20008326号-18
Powered By DESTOON