推广 热搜: 采购方式  甲带  滤芯  气动隔膜泵  减速机  减速机型号  履带  带式称重给煤机  链式给煤机  无级变速机 

研究报告:NVIDIA Orin与Thor系列——赋能自主机器时代的计算基石与未来演进(截至2025年底回顾)

   日期:2026-01-23 16:27:21     来源:网络整理    作者:本站编辑    评论:0    
研究报告:NVIDIA Orin与Thor系列——赋能自主机器时代的计算基石与未来演进(截至2025年底回顾)

研究报告:NVIDIA Orin与Thor系列——赋能自主机器时代的计算基石与未来演进(截至2025年底回顾)

报告日期: 2026年1月23日

摘要

本报告旨在对NVIDIA公司在边缘计算和汽车智能领域的两大核心产品系列——Orin和Thor——进行一次全面而深入的回顾性研究。时间范围聚焦于2024年至2025年,这是Orin平台大规模商业化落地并占据市场主导地位的关键时期,同时也是其继任者Thor平台从发布走向初步量产的过渡阶段。

报告首先详细梳理了Orin家族(涵盖汽车级的DRIVE Orin与面向机器人/边缘AI的Jetson Orin系列)各款芯片的具体技术规格,分析了其基于Ampere架构的设计理念、可扩展的性能阶梯以及功耗管理策略。随后,报告对下一代“超级芯片”Thor的已知技术细节、架构革新(如引入Grace CPU、Ada Lovelace/Hopper/Blackwell GPU及Transformer引擎)及其对未来集中式计算架构的战略意义进行了前瞻性剖析。

在性能评估方面,本报告指出了获取标准AI模型(如ResNet-50、YOLOv5、BERT)在两大平台上精确、可比的第三方实测延迟与吞吐量数据的挑战。尽管如此,报告通过分析NVIDIA官方公布的理论算力(TOPS)以及部分新兴模型(如大型语言模型)的性能指标,揭示了Thor相较于Orin在处理复杂AI任务,尤其是Transformer模型时的代际飞跃。

应用场景与市场生态部分,报告描绘了Orin在2024-2025年如何凭借其强大的性能和成熟的软件生态(CUDA、TensorRT),在高级辅助驾驶(ADAS)、自动驾驶(AD)、智能机器人、智慧城市等领域实现了广泛渗透。同时,报告重点分析了Thor作为车载“数据中心”的核心定位,以及其如何推动汽车电子电气(E/E)架构向“中央计算+区域控制”的变革,并列举了极氪(Zeekr)、比亚迪(BYD)、理想汽车(Li Auto)等主流车企作为其早期采纳者的战略意义。

最后,关于价格和销量,报告阐明了OEM定价的非公开性,并转而分析了Jetson Orin系列开发套件的公开价格作为参考。对于2024-2025年的销量,尽管精确的出货量数据属于商业机密,本报告基于公开的市场信息、合作伙伴公告及行业趋势,对Orin在该时间段内的市场主导地位和Thor在2025年开始的初期市场导入进行了定性分析和逻辑推断。

总体而言,在2024-2025年,Orin系列是NVIDIA巩固其在智能边缘和汽车领域领导地位的基石,而Thor的出现则清晰地预示了NVIDIA对于未来十年算力需求的宏大布局,标志着一个由软件定义、AI驱动的全新计算时代的到来。

第一章:NVIDIA Orin 系列深度解析——成熟生态与广泛赋能

截至2025年底,NVIDIA Orin系列已经成为高性能边缘计算和智能汽车领域的事实标准。其成功不仅在于硬件性能的卓越,更在于其构建了一个从硬件、软件到开发工具的完整生态系统。Orin系列主要分为两大分支:面向汽车的NVIDIA DRIVE Orin和面向更广泛边缘AI应用的NVIDIA Jetson Orin。

1.1 NVIDIA DRIVE Orin SoC:定义智能汽车的算力核心

NVIDIA DRIVE Orin片上系统(SoC)是专为满足从L2+级高级辅助驾驶到L5级完全自动驾驶不同需求的汽车级计算平台。在2024-2025年期间,它已被数十家全球主流汽车制造商、初创公司和Tier 1供应商采用,成为高端智能电动汽车的首选方案。

1.1.1 产品定位与市场策略

DRIVE Orin的核心定位是提供一个可扩展的、功能安全的AI计算平台。其市场策略的成功之处在于“可扩展性”:车企可以根据车型定位,选择配置单颗、双颗甚至多颗Orin SoC的方案,以实现从约254 TOPS到超过1000 TOPS的算力覆盖,从而在同一硬件架构下开发不同级别的自动驾驶功能,极大降低了研发成本和复杂性。在L3+市场,Orin在2024-2025年几乎形成了垄断地位,订单量巨大 。例如,瑞典商用车巨头Scania就选择使用NVIDIA DRIVE Orin进行高级传感器数据处理 。

1.1.2 核心技术规格详解

根据已披露的技术文档和数据,单颗DRIVE Orin SoC的核心规格如下:

l中央处理器 (CPU): 搭载了12个Arm® Cortex®-A78AE v8.2 64位核心。其中“AE”代表“Automotive Enhanced”,表明这些核心经过了针对汽车功能安全(如ASIL-D)的特殊设计,为自动驾驶系统中的高可靠性决策提供了坚实的通用计算基础。

l图形处理器 (GPU): 集成了NVIDIA Ampere架构GPU,包含2048个CUDA核心和64个第三代Tensor Core。这不仅使其能够处理复杂的3D渲染任务(如高精度地图和可视化),更重要的是,Tensor Core为AI模型的推理提供了硬件级的加速,是其强大AI性能的源泉。

lAI 推理性能: 单颗SoC可提供高达254至275 TOPS(INT8,万亿次整数运算每秒)的AI算力。这一性能足以实时处理来自多个摄像头、激光雷达、毫米波雷达等传感器融合后的海量数据。

l深度学习加速器 (DLA): 内置了2个NVIDIA深度学习加速器(NVDLA v2.0)这是一种专门用于执行深度神经网络(DNN)推理的硬件引擎,可以在极低的功耗下处理特定的AI任务,分担GPU的负载,提升系统整体能效。

l内存系统: 配备高达64GB的256位LPDDR5内存提供超过200 GB/s的内存带宽,确保CPU、GPU和其它处理器能够无瓶颈地访问数据,这对于处理高分辨率传感器数据流至关重要。

l功耗: 功耗范围可在15W至60W之间进行配置。这种宽泛的功耗范围允许开发者根据实际应用需求和散热条件,灵活地平衡性能与能耗。

l制造工艺: 采用三星的8nm工艺制造 [[20]]。

1.2 NVIDIA Jetson Orin 系列:赋能万物智能的边缘AI平台

与DRIVE Orin专注于汽车领域不同,Jetson Orin系列面向更广阔的机器人、自主机器、医疗设备、工业自动化、智慧城市等边缘AI市场。它将DRIVE Orin的核心技术下放,并以模块化(System-on-Module, SoM)的形式提供,拥有统一的软件栈,使得开发者可以轻松地将原型设计扩展到大规模生产部署。

Jetson Orin系列内部也形成了从高到低的产品梯度,以满足不同场景对性能、功耗和成本的精细化需求。

1.2.1 Jetson AGX Orin

这是Jetson Orin家族的旗舰产品,性能最强,直接对标DRIVE Orin,被誉为“边缘AI的性能怪兽”。

l产品定位: 适用于需要顶级AI性能和丰富I/O接口的复杂应用,如高级自主移动机器人(AMR)、自动驾驶测试车队、医疗影像分析设备等。

l核心技术规格:

lCPU: 与DRIVE Orin相同的12核 Arm Cortex-A78AE CPU。

lGPU: 同样是2048个CUDA核心和64个Tensor Core的Ampere架构GPU。

lAI 性能: 高达275 TOPS (INT8)。

l内存: 提供32GB和64GB两种LPDDR5内存配置。

l功耗: 功耗范围为15W至60W。

1.2.2 Jetson Orin NX

Jetson Orin NX系列在保持强大性能的同时,采用了更紧凑的SO-DIMM外形尺寸,与前代Jetson Xavier NX兼容,便于用户升级。

l产品定位: 平衡了性能、功耗和尺寸,是主流机器人、无人机、智能相机和便携式医疗设备的理想选择。

l核心技术规格: 提供16GB和8GB两种版本。

lCPU: 8核或6核的Arm Cortex-A78AE CPU。

lGPU: 1024个CUDA核心和32个Tensor Core的Ampere架构GPU。

lAI 性能: 高达100 TOPS (INT8)。也有资料显示性能可达157 TOPS 或 248 TOPS,这可能取决于不同的时钟频率或软件优化版本。

l内存: 16GB或8GB的128位LPDDR5内存。

l功耗: 功耗范围为10W至25W/40W。

1.2.3 Jetson Orin Nano

Jetson Orin Nano是该系列的入门级产品,以极具吸引力的成本提供了强大的AI性能,旨在推动AI在更广泛、成本敏感型应用中的普及。

l产品定位: 适用于入门级AI应用,如小型机器人、智能家居设备、AIoT设备和教育领域。

l核心技术规格: 提供8GB和4GB两种版本。

lCPU: 6核Arm Cortex-A78AE CPU。

lGPU: 512个CUDA核心和16个Tensor Core的Ampere架构GPU。

lAI 性能: 高达40 TOPS (INT8)。也有资料显示为20 TOPS或高达67 TOPS,这同样可能与具体配置和运行模式有关。

l内存: 8GB或4GB的128位LPDDR5内存。

l功耗: 功耗范围仅为7W至15W/25W能效比非常出色。

1.3 Orin系列的价格分析

需要明确的是,NVIDIA并未公开DRIVE Orin SoC或Jetson Orin模块的直接OEM(原始设备制造商)销售价格,这些价格通常是与汽车制造商或大型企业客户通过批量采购协议秘密协商的。然而,我们可以通过Jetson系列开发套件的公开售价来间接了解其价格定位:

lJetson AGX Orin 开发套件: 售价约为 $1,999。该套件包含一个AGX Orin 64GB模块和一个功能齐全的载板,用于产品原型开发和评估。

lJetson Orin NX 开发套件: 售价约为 $499(通常搭配16GB模块)。

lJetson Orin Nano 开发套件: 售价约为 $299(通常搭配8GB模块)。

这些价格反映了Orin系列从高端到入门级的市场覆盖策略。单个模块的批量采购价会远低于开发套件的价格,但其相对价值梯度应与开发套件保持一致。对于DRIVE Orin,考虑到其车规级认证、功能安全设计以及更严苛的测试流程,其单颗SoC的OEM价格预计会显著高于同等规格的Jetson AGX Orin模块。

第二章:NVIDIA Thor 系列前瞻性研究——通往车载计算的“终局”

在Orin系列大获成功的同时,NVIDIA早已着眼于未来。于2022年9月正式发布的NVIDIA DRIVE Thor,不仅仅是Orin的简单升级,它代表了NVIDIA对未来汽车计算架构的革命性构想——将自动驾驶、智能座舱、车载信息娱乐系统(IVI)、驾驶员监控等多个原本分散的计算域,整合到一颗“超级芯片”上。Thor的目标是成为车辆的中央计算大脑。

2.1 Thor的战略定位与市场意义

Thor的出现,是对汽车行业E/E架构从分布式向集中式演进趋势的直接回应。在2024-2025年,尽管Orin主导了市场,但许多高端车型仍采用“Orin (ADAS) + 高通 (座舱)”的双芯片方案。Thor的目标就是终结这种分离状态,通过一颗芯片提供远超Orin的算力,同时满足自动驾驶的功能安全需求和智能座舱的丰富应用生态。

这一战略的优势是多方面的:

l降低成本和复杂性: 整合多个ECU(电子控制单元)到单一SoC,可以显著减少硬件数量、布线复杂度和整车重量,从而降低制造成本。

l提升效率与协同: 数据无需在不同处理器之间低效传输,可以在片上高速共享。例如,自动驾驶系统感知的外部环境信息,可以无缝地用于座舱的AR-HUD(增强现实抬头显示)渲染。

l软件定义的灵活性: 强大的中央计算平台使得整车功能可以通过OTA(空中下载)更新来持续升级和演进,真正实现“软件定义汽车”。

2.2 Thor的核心技术规格预测与分析

截至2025年底,关于Thor的许多详细规格仍处于NVIDIA官方逐步披露的过程中,但根据已公布的信息和行业分析,我们可以勾勒出其大致轮廓。值得注意的是,关于其具体架构的描述在不同阶段有所演变,最初提及Grace CPU和Ada Lovelace GPU后期则更多地与更先进的Blackwell架构关联。

lAI 推理性能: 这是Thor最引人注目的指标,其算力高达 2000 TOPS (FP8)。这不仅是Orin(约275 TOPS INT8)的近8倍,更重要的是,它原生支持FP8(8位浮点)数据格式。FP8在保持接近INT8的性能的同时,提供了更高的精度和动态范围,尤其适合大型Transformer模型的推理。

lGPU架构: Thor的GPU被认为融合了NVIDIA最先进的图形和计算架构。早期信息指向 Ada Lovelace 和 Hopper 架构而更新的信息则明确指向了下一代的 Blackwell 架构。Blackwell架构引入了第二代Transformer引擎和第五代Tensor Core,能够极大地加速大型语言模型(LLM)和多模态模型的推理。

lCPU架构: Thor的CPU将采用高性能的Arm核心。早期提及的是基于 Grace CPU 的设计后续的资料则指向了 Arm Neoverse V2 或 V3AE 核心这些都是专为数据中心和高性能计算设计的服务器级核心,将为车辆提供前所未有的通用计算能力。

lTransformer引擎: Thor集成了专门用于加速Transformer模型的硬件单元。这是其与Orin在架构上的一个关键区别。随着车载AI从传统的感知、决策模型(基于CNN)向基于Transformer的大模型(如BEV、视觉语言模型)演进,这一硬件单元将提供指数级的性能提升。

l内存系统: 支持高速的 LPDDR5X 内存。有信息显示,其相关开发平台Jetson Thor可能配置高达128GB的内存,预示着Thor本身将支持极大的内存容量,以应对多任务并发和大型AI模型的需求。

l多域隔离: Thor在设计上支持硬件级的安全隔离,可以在同一颗芯片上同时运行不同安全等级和操作系统的任务。例如,它能同时运行通过ASIL-D认证的QNX实时操作系统(用于自动驾驶)和功能丰富的Android Automotive OS(用于信息娱乐系统),且两者互不干扰。

l制造工艺: 预计将采用台积电(TSMC)的 4nm 工艺或更先进的3nm级别工艺,以在如此巨大的晶体管规模下控制功耗。

l功耗: 尽管官方未公布确切的SoC功耗,但其开发平台Jetson AGX Thor的TDP(热设计功耗)被提及为350W,这暗示了Thor SoC本身的功耗将远高于Orin,可能在250-500W的范围内,对车辆的散热系统提出了极高要求。

2.3 Thor的发布时间线与市场采纳

l发布时间: NVIDIA于2022年9月的GTC大会上首次宣布Thor芯片。

l量产时间: Thor计划于2024年开始量产,并于2025年开始搭载于量产车型上市

l首批合作伙伴: 中国车企成为Thor最积极的拥抱者。吉利汽车集团旗下的**极氪(Zeekr)**宣布其下一代旗舰车型将成为首款搭载DRIVE Thor的量产车,计划于2025年上市。此外,比亚迪、理想汽车等头部新势力也已宣布将采用Thor平台。这一系列的“背书”为Thor的成功奠定了坚实的市场基础。

第三章:性能评测:从理论TOPS到实际推理表现

衡量AI芯片性能是一个复杂的问题。理论峰值算力(TOPS)是重要的参考指标,但实际应用中的性能(如延迟、吞吐量)受到模型类型、软件优化、功耗限制等多种因素影响。

3.1 理论算力 (TOPS) 对比分析

产品系列

型号

理论AI算力 (INT8/FP8)

架构基础

Orin 系列

Jetson Orin Nano

20 - 40 TOPS (INT8)

Ampere

Jetson Orin NX

100 TOPS (INT8)

Ampere

Jetson/DRIVE AGX Orin

275 TOPS (INT8)

Ampere

Thor 系列

DRIVE Thor

2000 TOPS (FP8)

Blackwell

从上表可以清晰地看到Thor在理论算力上的巨大飞跃。这不仅仅是数字上的8倍增长,更关键的是对FP8数据格式的支持以及底层架构的革新,使其在能效和对新兴模型的支持上远超Orin。Orin的Ampere架构在处理卷积神经网络(CNN)如ResNet、YOLO等模型时效率极高,但在处理日益庞大的Transformer模型时则面临瓶颈。Thor的Blackwell架构和专用的Transformer引擎正是为了解决这一痛点而生。

3.2 实测推理性能数据的挑战与分析

重要声明: 经过对所提供搜索结果的详尽分析,并未找到针对NVIDIA Orin和Thor平台在标准AI模型(如ResNet-50、YOLOv5、BERT)上精确的、第三方或官方发布的延迟(latency)、吞吐量(throughput)实测基准数据。这类数据通常出现在专业的评测报告或学术论文中,所以这些信息并未包含在本报告内。

造成数据缺失的原因主要有:

1.商业敏感性: 厂商发布的官方数据往往经过精心挑选和优化,而第三方独立评测需要严格控制变量,执行起来非常复杂。

2.评测标准不一: 性能会因模型版本、输入分辨率、批处理大小(Batch Size)、TensorRT优化等级、功耗模式等设置的不同而产生巨大差异,难以直接比较。

3.Thor的阶段: 在2024-2025年,Thor仍处于从工程样品到早期量产的阶段,大规模的第三方性能评测尚未普及。

替代性性能指标分析:

尽管缺少传统模型的直接数据,但还是可以获取Jetson AGX Thor和Jetson AGX Orin在处理大型语言模型(LLM)、视觉语言模型(VLM)和视觉语言动作模型(VLA)时的Token输出速率对比,这为我们提供了宝贵的洞察:

l场景: 该对比测试了在相似条件下,两个平台运行生成式AI模型时,生成文本(Token)的速度。

l结果分析: 虽然具体数值未在摘要中给出,但报告明确指出Thor在处理这些基于Transformer的模型时表现出压倒性的性能优势。这直接验证了Thor内置的Transformer引擎和更先进的Tensor Core架构的有效性。对于Orin来说,运行这类大模型可能需要复杂的量化和优化,且性能可能仅限于“可用”级别;而对于Thor,则可以实现实时、流畅的交互。

推理与逻辑演绎:

基于架构差异和上述Token速率对比,我们可以进行如下逻辑推理:

l对于ResNet-50、YOLOv5等CNN模型: Orin平台已经能够提供非常高效的推理性能。例如,AGX Orin可以轻松地实时处理多路高清视频流的检测和分割任务。Thor虽然也会更快,但其相对于Orin的性能提升幅度可能不如在Transformer模型上那么惊人,因为这些任务并非Thor架构革新的主要优化目标。

l对于BERT及更大的LLM: 这是Thor展现其代际优势的核心领域。Orin运行BERT-Large这类模型可能会有较高的延迟,而Thor凭借其FP8支持和Transformer引擎,能够将延迟降低一个数量级以上,实现从“离线处理”到“实时交互”的跨越。这对于实现车载自然语言助手、情景感知等高级座舱功能至关重要。

第四章:应用场景与市场生态

4.1 Orin系列:2024-2025年市场应用全景

在2024-2025年,Orin平台已经深度融入了多个行业的智能化转型中。

l汽车领域 (DRIVE Orin):

l主流ADAS/AD方案: 绝大多数在2024-2025年发布的中高端智能电动车,其高级辅助驾驶系统(如高速NOA、城市NOA)都基于DRIVE Orin平台开发。它已经成为车企实现L2++功能并向L3探索的主力芯片。

l自动驾驶出租车 (Robotaxi) 和卡车: Orin的强大性能和功能安全特性,使其成为开发L4级自动驾驶系统的首选平台之一。

l机器人与自主机器 (Jetson Orin):

l物流与仓储: AGV(自动导引车)和AMR(自主移动机器人)使用Jetson Orin进行环境感知、路径规划和自主导航。

l农业与建筑: 农业机器人利用Orin进行精准喷洒、作物识别;建筑机器人则用于自动化砌砖、工地巡检。

l医疗影像: Jetson AGX Orin的强大算力被用于加速CT、MRI等医学影像的AI辅助诊断,实现实时分析。

l零售与服务: 服务机器人、自动结算系统等利用Orin Nano/NX进行人脸识别、商品识别和行为分析。

4.2 Thor系列:开启未来汽车“中央大脑”时代

Thor的应用场景高度聚焦于下一代汽车的集中式E/E架构。

l多域融合的中央计算机: 这是Thor的核心应用。它将打破传统汽车中ADAS域、座舱域、网联域等之间的壁垒。

l自动驾驶与安全: Thor将处理所有与自动驾驶相关的功能,包括传感器融合、感知、决策和控制,并满足最高等级的功能安全要求。

l沉浸式智能座舱: 利用其强大的GPU,Thor可以驱动多个高清大屏,支持复杂的3D HMI(人机界面)、车载游戏、AR-HUD,并流畅运行丰富的应用程序。

l生成式AI车载应用: Thor的Transformer性能使其能够 natively 运行大型语言模型,实现真正智能、可主动服务的车载语音助手。它还能支持车内视觉模型,通过摄像头理解乘客的状态和需求,甚至结合车外环境感知,提供前所未有的情景化交互体验。

l软件定义汽车的基石: Thor的强大算力冗余为汽车的持续进化提供了硬件基础。车企可以在车辆的整个生命周期内,通过OTA推送全新的功能和应用,甚至解锁更高阶的自动驾驶能力,从而创造新的商业模式和服务收入。

第五章:销量与市场渗透(2024-2025年)

核心结论: 尽管暂无法获取NVIDIA Orin和Thor在2024-2025年的具体销售量或出货量数据,因为这些数据属于高度敏感的商业机密,但我们可以基于公开信息对其市场渗透情况进行高质量的定性分析。

5.1 Orin系列:市场巅峰与主导地位

l2024年: 可以被视为“Orin年”。在这一年,搭载DRIVE Orin的各品牌车型迎来了集中上市和交付的高峰期。Orin在高端智能汽车市场的渗透率达到了顶峰,几乎所有追求高阶智能驾驶功能的车型都将其作为首选。在非汽车的边缘计算市场,Jetson Orin系列也完成了对前代产品(Xavier)的替代,成为新项目的默认选择。

l2025年: Orin的强劲势头得以延续。其庞大的装机量和成熟的生态系统使其在市场上仍具有强大的竞争力。尽管Thor开始崭露头角,但Orin凭借其成本优势和经过市场验证的稳定性,在中端车型和对算力要求稍低的边缘应用中,依然是极具吸引力的选择。可以预见,Orin的生命周期还将持续数年,尤其是在Jetson系列所覆盖的工业、医疗等领域。

5.2 Thor系列:战略导入与市场预热

l2024年: 是Thor从发布到落地的关键一年。这一年,NVIDIA的主要工作是与首批汽车合作伙伴(如极氪)进行深度适配和开发,提供工程样品,完善软件工具链。市场对Thor的讨论热度极高,其2000 TOPS的算力成为行业热议的焦点,成功地吊起了市场和消费者的胃口。

l2025年: 标志着Thor时代的开启。随着首款搭载Thor的车型(预计为极氪的新车)在年底左右正式亮相或上市,Thor实现了从PPT到产品的跨越。2025年的销量主要是初期的少量爬坡产量,其象征意义远大于实际的销售数字。它向整个行业宣告:下一代车载计算的战争已经打响,而NVIDIA已经抢得了先手。Thor庞大的“期货”订单(即车企宣布未来车型将采用Thor)是其市场潜力的最佳证明。

第六章:结论与未来展望

站在2026年初回望过去两年,NVIDIA通过Orin和Thor两大产品系列的无缝衔接,成功地描绘并主导了智能机器和自动驾驶的算力演进路线图。

lOrin:坚实的现在。 在2024-2025年,Orin以其卓越的性能、成熟的软件生态和灵活的产品组合,在市场上取得了决定性的成功。它不仅为NVIDIA带来了丰厚的商业回报,更重要的是,它教育了市场,建立了一个庞大的开发者社区,为NVIDIA在AI计算领域的长期领导地位打下了坚实的基础。

lThor:清晰的未来。 Thor则代表了NVIDIA对“终局”的思考。它不仅仅是算力的堆砌,更是对未来汽车E/E架构和车载智能体验的深刻理解。通过将多域计算整合于一,并前瞻性地内置对Transformer模型的硬件加速,Thor为即将到来的车载大模型时代做好了充分准备。其在2025年的初步量产,预示着全球汽车产业的智能化竞争将进入一个新的维度。

未来展望:

展望未来,从Orin到Thor的过渡将是未来几年行业的主旋律。Orin将继续在成本敏感型市场和非汽车领域发光发热,而Thor将定义旗舰智能汽车的算力标准。真正的挑战将不再是单纯的硬件TOPS之争,而是围绕着Thor这样强大的中央计算平台,如何构建创新的软件应用和数据闭环生态。NVIDIA凭借其从底层芯片到上层应用软件的全栈能力,在这场新的竞争中已经占据了极为有利的位置。Thor的成功与否,将深刻影响未来十年全球汽车产业的格局。

 
打赏
 
更多>同类资讯
0相关评论

推荐图文
推荐资讯
点击排行
网站首页  |  关于我们  |  联系方式  |  使用协议  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  皖ICP备20008326号-18
Powered By DESTOON