高通成为数据中心芯片的新玩家。

当地时间10月27日,高通公司宣布推出其面向数据中心的新一代人工智(AI)推理芯片高通AI200和AI250 ,以及基于这两款AI芯片的加速卡及机架级解决方案。

高通表示,凭借公司在神经处理单元(NPU)技术方面的领先地位,这些解决方案可提供机架级性能和卓越的内存容量,以极高的性价比实现快速的生成式AI推理,标志着在跨行业实现可扩展、高效且灵活的生成式AI方面迈出了重大一步。

其中,高通AI200和AI250分别在2026年和2027年上市销售。 受该利好消息影响,高通股价在10月27日的美股盘中一度暴涨近22%,收盘涨幅回落至11.09%。

数据中心芯片GPU主要是英伟达主导,AMD也分享一小部分市场,还有大型互联网公司如谷歌自研的Asic芯片。但无论英伟达还是AMD,他们的算力芯片都非常“昂贵”。

如今,高通以差异化的策略来加入这一市场竞争中,主要为推理市场提供更有性价比的产品。

具体来说,高通 AI200 是一款专用机架级 AI 推理解决方案,旨在为大型语言和多模态模型 (LLM、LMM) 推理及其他 AI 工作负载提供低总拥有成本 (TCO) 和优化的性能。每张加速卡支持 768 GB LPDDR内存,可提供更高的内存容量和更低的成本,从而为AI 推理提供扩展性和灵活性。

高通 AI250 解决方案首次采用 “近内存计算” 创新架构,通过提供超过10 倍的有效内存带宽和更低的功耗,为 AI 推理工作负载带来效率和性能的跨越式提升。这不仅支持分解式 AI 推理,还能高效利用硬件资源,同时满足客户对性能和成本的要求。

两种机架解决方案均采用直接液体冷却以提高热效率,采用 PCIe 进行纵向扩展,采用以太网进行横向扩展,采用机密计算以确保安全的 AI 工作负载,机架级功耗为160 kW。

“借助高通 AI200 和 AI250,我们正在重新定义大规模机架式人工智能推理所能实现的极限。这些创新的新型人工智能基础设施解决方案使客户能够以前所未有的总体拥有成本(TCO)部署生成式人工智能,同时还能保持现代数据中心所需的灵活性和安全性。”高通技术公司边缘解决方案与数据中心技术规划高级副总裁兼总经理 Durga Malladi说道。

据外媒报道,Durga Malladi上周在与记者的电话会议上表示:“我们首先想在其他领域证明自己,一旦我们在那里建立了实力,我们就很容易在数据中心层面更上一层楼。”

Malladi表示,高通还将单独出售其 AI 芯片和其他部件,尤其是针对那些喜欢自行设计机架的超大规模数据中心客户。他表示,其他 AI 芯片公司,例如英伟达或 AMD,甚至可能成为高通部分数据中心部件(例如中央处理器)的客户,“我们试图确保我们的客户能够选择全部购买,或者说’我要混合搭配’。”

由于算力芯片价格高昂,Open AI、谷歌、微软等都在寻找更低价的解决方案,自研芯片被认为是一种方案,如今,高通的方案也给他们提供了另外一种选择。

高通表示,其AI芯片在功耗、拥有成本以及内存处理的新方法方面均优于其他加速器。

高通之前一直在移动芯片领域耕耘,如今进入数据中心领域,也为公司开辟了一块全新市场。

推理芯片被认为比训练芯片有更大的市场需求,大模型走向生产环境后,每一次用户调用、每一份报告生成、每一条代码补全,都需要实时算力。

不过,高通作为新玩家的挑战也同样不小,尽管并非从零起步,但数据中心市场对高通来说是全新的,其生态构建以及客户拓展都需要时间。