博通是AI基础设施的关键角色
AI/加速计算是分布式计算,依赖于开放且可扩展的网络系统,这发挥了博通核心网络专业知识的优势。
针对消费类人工智能运营商的定制ASIC芯片机会,博通与谷歌、Meta等客户的10年合作经营,可以实现定制AI ASIC在成本、功耗和形态因素方面的改进(与通用商用GPU相比),因为它针对特定工作负载进行了优化。
以太网成为首选的后端网络织物,博通开放的生态系统和成本/功耗性能,已经获得了云/超大规模用户的强烈采用。
博通团队正在推动强大的产品创新,并在其网络业务中维持其领导地位,这得益于其强大的R&D规模(每年超过30亿美元)。
越来越多的计算需求正在加速博通网络产品的迭代节奏(例如,PCIe交换机/重定时器的年度产品节奏),并推动新技术的采用(例如,共封装光学,每个交换平台代表了2-3倍的收入捕获机会)。
博通的AI产品线快速迭代
AI计算加速器(XPU):定制化的AI加速芯片,针对特定AI模型和工作负载进行优化。
以太网交换机:如Jericho3-AI交换机,支持大规模AI集群内部高性能通信。
光模块:如VCSEL、EML等,支持不同距离范围内的AI集群内外连接。
PCIe交换机和Retimer:支持AI服务器内部CPU、存储、加速器等设备间高速连接。
高速SerDes技术:如112Gbps和200Gbps级别SerDes,支持不同距离内外连接。
数字信号处理技术(DSP):支持高速光电通信,如100G PAM4光模块。
封装技术:如2.5D/3D封装,支持XPU多片集成。
集成光子芯片(CPO):将光模块直接封装在交换机或其他设备上,降低成本和功耗。
网络控制和自动化软件:支持大规模AI集群管理。
AI优化操作系统:支持AI工作负载高效运行。
博通定制的AI加速器
博通定制化AI加速器的一些核心要素:
1. 针对客户内部特定AI模型和工作负载进行硬件架构优化,实现更高计算效率。
2. 采用模块化设计,支持不同AI模型的快速适配。
3. 集成内存控制器和高速I/O接口,满足高带宽需求。
4. 采用2.5D/3D封装技术,支持多芯片集成以提升计算能力。
5. 集成高速SerDes和光模块接口,支持不同距离内外高速连接。
6. 采用先进工艺节点,实现更低功耗。
7. 考虑散热能力和机械可靠性要求。
8. 提供软件和开发工具链,简化集成和应用开发。
9. 实现年度迭代升级,跟上AI模型和算法的快速发展。
10. 长期合作,支持客户多代产品开发。
11. 保证产品质量和交付时间,满足大规模商用需求。
业绩表现
2024Q1(202311/4至2024/2/4),博通半导体解决方案的总收入74亿美元,占季度总收入的62%,同比增长4%,毛利率约为67%,同比下降了190个基点,主要是由于半导体终端市场的产品组合变化(ASIC业务占比提升,该业务相对低毛利),营业运营利润率为56%。AI的增长超出预期,抵消了企业和电信领域的当前周期性放缓。
网络:收入为33亿美元,同比增长46%,占半导体收入的45%。这主要是由两个CSP客户对定制AI加速器的强劲需求推动的。不仅限于AI加速器,交换机、以太网网卡、重定时器、DSP和光学组件在AI数据中心中也有强劲的需求。2024财年网络收入的同比增速从30%上调到35%。
无线:收入为20亿美元,环比下降1%,同比下降4%,占半导体收入的27%。与北美客户的战略合作非常深入、长期。2024财年,预计无线收入将与去年持平。
服务器存储连接:收入8.87亿美元,占半导体收入的12%,同比下降29%。上半年需求较弱,但预计下半年将恢复。2024财年的同比降幅从highteens下调到25%左右。
宽带:收入同比下降23%至9.4亿美元,占半导体收入的13%。正在经历周期性的低谷,因为电信支出持续减弱,预计到年底才会有所改善。2024财年的同比增速从-15%下调到-30%。
工业:收入为2.15亿美元,同比下降6%。2024财年预计工业转售将同比下降高个位数。
业绩指引



