news 2026/5/1 2:10:37

AI网络通信热度飙升,Upscale AI获大额融资引领全栈革新

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
AI网络通信热度飙升,Upscale AI获大额融资引领全栈革新

AI网络通信热度提升

最近一段时间,AI网络通信领域愈发火热。一方面,硅谷的AI网络通信初创公司频频获得大额融资;另一方面,二级市场的AI网络通信,尤其是光通信公司,股价也快速增长。

热度提升的原因

AI网络通信热度提升的本质是需求推动。模型尺寸越来越大,Token消耗越来越多,算力出现紧缺。要从算力端以较低成本榨出更多算力,就得从底层技术想办法。加快芯片与芯片间、节点与节点之间的通信,提高整个算力基础设施的效率,是一条正在被验证的路。

Upscale AI融资情况

一家叫Upscale AI的公司近期融资势头很猛。它在2025年9月获得1亿美元种子轮融资,由Mayfield与Maverick Silicon共同领投,StepStone Group、Celesta Capital、Xora、Qualcomm Ventures、Cota Capital、MVP Ventures及Stanford University参投。2026年1月又获得2亿美元A轮融资,由Tiger Global、Premji Invest和Xora Innovation领投,Maverick Silicon、StepStone Group、Mayfield、Prosperity7 Ventures、Intel Capital和Qualcomm Ventures参投。最近,又有消息称,它在洽谈1.8亿至2亿美元的新一轮融资。

Upscale AI团队背景

Upscale AI创立不到一年却能接连获得大额融资,与它的创始团队有很大关系。Upscale AI是从Auradine孵化出来的,Auradine现已改名Velaura AI,致力于为云端、边缘及实体人工智能应用提供经过验证的突破性超低功耗计算方案。Upscale AI的联合创始人和CEO Barun Kar,此前是Auradine的COO;联合创始人及执行董事长Rajiv K此前是Auradine的CEO,现在也是Velaura AI的CEO;Upscale AI的CTO Puneet Agarwal此前在博通工作十年,还在Marvell当过数据中心部门的CTO。Barun Kar和Rajiv K在前一次创业之前,也都有巨型企业的工作经历,这是一支在行业里浸淫多年、经验丰富的团队。

AI网络通信的重要性

AI网络通信很重要,需从技术底层说起。AI计算负载高度同步,大规模模型训练、MoE架构以及分布式推理等现代工作负载,会给网络带来极高的同步压力。训练过程中,模型的参数梯度需以高度同步的波次在成千上万张GPU之间传递;推理计算会产生大规模扇出流量,同时对时延提出严苛要求。网络一旦跟不上,GPU就会停转等待,时延持续攀升,算力集群的效率随之崩塌。这是架构错配,不是调优可以解决的。传统网络追求通用性,兼容多种负载引入的复杂性,在AI场景中反而成了阻力。确定性通信以及GPU集合通信所要求的强同步,正在超越传统网络的设计极限。AI算力集群需要的网络,必须能在大规模环境下,支持确定性、同步化、高吞吐的通信,AI网络必须从底层重新构建,围绕Scale - Up与Scale - Out连接的真实需求来设计。

模型对AI算力集群网络的压力

现在模型的两个特点对AI算力集群网络压力特别大。一是模型的参数规模指数提升,二是长上下文和Cot的持续进化。以刚发布的DeepSeek V4 pro为例,它的尺寸参数达1.6T,上下文达到1M。1.6T的尺寸需要1.6T内存,一块卡的内存不够,需切分到大量加速器上运行,芯片间通信迅速成为瓶颈。超长上下文窗口会让KV cache的体量急剧膨胀,超过单张GPU的HBM内存容量,对内存容量和通信带宽形成双重挤压。

全栈革新的解决方案

要完成大参数和长上下文窗口模型的训练和流畅推理,需重定义“计算边界”,让更多的GPU以超高速网络连接,拥有亚微秒级时延和高吞吐集合通信能力,可将它们看成一个“超级GPU”,于是机架这种形式出现了。以NVIDIA的NVL72为例,它不再把72张GPU视为彼此独立的设备,而是将其作为一个具备内存语义的一致性机器来运行,内部NVLink带宽达130TB/s。这里引入了AI基础设施的两个连接层级:机架级GPU互连(Scale - Up)和集群级网络结构互连(Scale - Out),这两个层面必须协同运作,才能让成千上万张GPU像一个统一的分布式计算引擎那样高效工作。

Upscale AI的网络架构

Upscale AI针对AI基础设施的两个连接层级,开发了一套为AI定制的网络架构。对于机架级AI互连(Scale - Up),它有SkyHammer芯片架构;对于集群级AI网络结构(Scale - Out),它有Open Ethernet。SkyHammer是为突破Scale - Up AI网络瓶颈而打造的芯片架构,基于开放标准,目标是在超大规模下实现确定性时延、极致带宽与可预测性能,使GPU和XPU能作为一个高度同步的计算引擎协同运行。其确定性时延特点,能高度可预测地控制数据在机架内部各组件之间传输所需的时间。SkyHammer从ASIC层开始构建,并在芯片、系统与机架三个层面进行整体协同设计,确保各层协调工作。它支持ESUN、UEC、UALink等新兴标准,也为未来创新预留了空间,凭借灵活架构可在不重构、不妥协的前提下平滑适配新的标准定义,在开放且多元的环境中实现互操作,同时保持性能表现。基于SkyHammer架构的产品计划于2026年发布。Open Ethernet主要针对集群级AI网络结构(Scale - Out)。在集群层面,AI系统需要开放性、互操作性以及海量带宽。Upscale AI打造的针对AI优化的Open Ethernet网络结构,基于NVIDIA Spectrum - X Ethernet交换芯片以及SONiC网络操作系统构建,并提供端到端支持。通过整合ASIC原生遥测能力、确定性无损以太网行为以及行业标准化网络工作流,系统能在大规模场景下提供可预测的性能、简化运维以及高可靠性,可将数千张GPU连接为一张统一的高性能网络,支撑分布式训练与大规模推理。为了这个项目,Upscale AI加入NVIDIA Partner Network,并正与NVIDIA及其生态伙伴紧密合作,围绕参考架构与经验证设计展开协同,以加速大规模AI数据中心网络的部署。

创业机会涌现

AI算力基础设施有巨大发展潜力,可能会长期处于与AI软件,尤其是模型,交替创新的状态。当模型架构创新,AI算力基础设施的硬件或软件出现结构性错配时,新的机会就出现了。现在,MoE架构、超大参数、超长的上下文窗口、Agent对于Token的渴求,让AI算力供不应求,也让AI算力基础设施有了创新机会。在算力芯片层面,最近半年关注到了Unconventional AI(融资4.75亿美元),MatX(融资5亿美元);在AI赋能芯片设计领域,关注到了Ricursive(融资3亿美元)、Cognichip(融资6000万美元);当然还有AI数据中心的网络互联,例如Upscale AI (已经融资3亿美元,还计划融2亿),Eridu(融资2亿美元)、Ethernovia(融资9000万美元)。中国的开源AI模型已实现全球领先,尤其是最近发布的DeepSeek V4,但在AI基础设施层面,中国暂时还处于追赶状态,不过这也代表了巨大的创新空间,中国创投市场已有大量创新公司涌现,部分已初步获得成功。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/5/1 2:08:29

喜马拉雅音频下载器:如何将付费内容永久保存到本地?

喜马拉雅音频下载器:如何将付费内容永久保存到本地? 【免费下载链接】xmly-downloader-qt5 喜马拉雅FM专辑下载器. 支持VIP与付费专辑. 使用GoQt5编写(Not Qt Binding). 项目地址: https://gitcode.com/gh_mirrors/xm/xmly-downloader-qt5 你是否…

作者头像 李华
网站建设 2026/5/1 2:02:22

视觉定位技术:从GUI自动化到智能交互的演进

1. 视觉定位技术的本质与演进十年前我第一次接触GUI自动化测试时,还需要手动计算每个按钮的像素坐标。如今视觉定位技术已经让机器能够像人类一样"看懂"界面元素。这项技术的核心在于建立屏幕像素坐标与界面逻辑元素之间的智能映射关系。早期的基于坐标的…

作者头像 李华
网站建设 2026/5/1 2:01:25

FigmaCN中文插件终极指南:5种用户场景下的完美汉化解决方案

FigmaCN中文插件终极指南:5种用户场景下的完美汉化解决方案 【免费下载链接】figmaCN 中文 Figma 插件,设计师人工翻译校验 项目地址: https://gitcode.com/gh_mirrors/fi/figmaCN 还在为Figma的英文界面感到困惑?专业术语看不懂&…

作者头像 李华