
AI 推理瓶颈正从计算转向存储,不可能再用旧的存储系统来应付。
「AI 推理瓶颈正从计算转向存储,不可能再用旧的存储系统来应付。」2026 年 1 月 CES 大展上,英伟达 CEO 黄仁勋的一句话,戳中了当下 AI 行业的核心焦虑。彼时,行业正陷入一个矛盾:大模型算力不断飙升,存储却成了拖后腿的「老古董」——GPU 利用率因 I/O 等待跌到 30%-50%,跨域数据流动像「搬砖」一样费劲,长上下文推理更是让显存成本飙升。
十天后,1 月 15 日北京,XSKY 星辰天合举办「数据常青 智算无界」发布会,推出全栈 AI 数据方案 AIMesh。这套被定义为「AI 工厂数据与内存网」的方案,用 MeshFS、MeshSpace、MeshFusion 三大产品组合,精准拆解了黄仁勋口中的「旧存储困局」,也为企业 AI 落地提供了一套「不堆硬件也能提效」的新解法。
大模型同质化后,数据成了企业唯一的「护城河」
黄仁勋在 CES 上还提过一个判断:「AI 存储将承载全球人工智能的工作记忆,这会是一个从未存在过的大市场。」这个「工作记忆」的核心,在 XSKY 看来,正是企业手里攥着的「专有数据」。

「专有数据」是 AI 时代真正的护城河
现在的大模型赛道早不是「算法为王」了,开源模型每隔半年就追近前沿水平,DeepSeek R1 的下载量呈爆发式增长,算法同质化已成定局。企业能守住的差异化,只剩那些带行业经验、藏业务细节的专有数据——可能是金融机构的交易记录,也可能是制造业的设备运维日志,这些数据因安全合规不能「外溢」到公有云,却又是 AI 生成价值的「独家配方」。
但数据中心的角色还没跟上这种变化。过去它是「存得进、找得到」的图书馆,现在从「被检索」进化成「被计算」的 AI 工厂——每一份文档、每一张图片都要作为生成智能的燃料。XSKY 要做的,就是给这座工厂搭一个「安全又能跑」的底座:既不让核心数据泄露,又能让这些数据高效流转,变成 AI 能直接用的「原材料」。
百模大战里,「中立」才是对抗不确定性的底气
「今天的顶流模型,明天可能就被颠覆。」这是现在企业布局 AI 的普遍焦虑。算力硬件 3-5 年就迭代一轮,大模型架构半年一更新,要是数据底座绑死某类 GPU 或某套系统,过不了多久可能就要推倒重来。

开放解耦,做中立的数据底座
XSKY 的解法是「开放解耦」:AIMesh 不绑定任何一种算力——不管是英伟达、昇腾还是其他国产芯片,也不管是什么大模型引擎,都能提供统一的数据服务。这种「中立」不是妥协,而是看清了行业本质:算力的摩尔定律在失效,数据的价值定律却在生效。硬件可能 3 年就淘汰,但数据资产要存续 10 年甚至 20 年,与其追着算力跑,不如建一个「铁打的数据底座」。
就像 Intel 评价的那样,AIMesh 的「软硬协同」没有「绑定硬件要溢价」的路,反而把精力放在「榨干现有硬件潜力」上——比如 MeshFS 针对至强处理器的 AVX-512 指令集做优化,MeshFusion 用 NVMe SSD 扩展内存,这种不搞「独家绑定」的思路,反而让企业在百模大战里有了主动权:就算明天换了新算力,数据底座不用动,成本和效率都能稳住。
三网合一:不用堆硬件,拆了 AI 效率的三堵墙
黄仁勋在 CES 上没明说的是,旧存储系统的问题不只是「慢」,而是「跟不上 AI 的工作方式」——既要处理训练时的海量数据吞吐,又要应对推理时的长上下文,还要让跨地域数据自由流动。XSKY 用 AIMesh 的「三网合一」,正好对应解决这三个痛点。

XSKY AIMesh 数据与内存网
先看最直观的 IO 墙。AI 训练时,GPU 常因等数据空转,就像「厨师等着买菜的人」。MeshFS 把 XGFS 的全协议兼容能力和 XSEA 全闪底座的性能捏到一起,Python 或 TensorFlow 代码不用改一行就能跑,顺序读带宽比同类产品高 30%,顺序写带宽超 50%。换句话说,数据能像电流一样快地喂给 GPU,之前 50% 的 GPU 利用率,现在能再提一截。
再看跨域的数据重力墙。企业数据从 TB 涨到 EB 级后,跨地域调动堪比「愚公移山」——成本高、延迟大,还容易形成数据孤岛。MeshSpace 的解法是「全局命名空间」:把北京、上海甚至云端的集群抽象成一个逻辑整体,数据不用迁移就能自由流动,单个存储桶每秒能写 100 万个对象,大块写性能提了近 50%。Minimax 用混合云架构,之前最头疼「数据孤岛」,现在直言 MeshSpace 是「量身定做」,业务不用管数据存在哪,直接调用就行。
最后是最烧钱的内存墙。AI 推理要处理百万级 token 的长上下文,KVCache 一爆炸,就得买更贵的 HBM 显存——这相当于「用黄金装沙子」。MeshFusion 把服务器里的 NVMe SSD 变成「外部内存」,成本只花 1%,性能却跟 DRAM 差不到 10%,高并发时吞吐量还能线性涨,资源不够时甚至能反超 20%。对企业来说,这意味着不用再为了长上下文硬堆显存,推理成本能砍一大截。
生态实战:十年积累不是「纸上谈兵」
AIMesh 不是凭空造出来的,而是 XSKY 十年存储技术的「自然进化」——从 2015 年解耦集中式存储,到 2022 年提前布局全闪底座,再到现在的三网合一,每一步都踩着行业需求走。现在这套方案,已经过了头部客户的实战验证。
Minimax 的 PB 级核心数据一直存在 XSKY 上,不管是训练时的 dataload,还是推理时的服务上线,稳定性和性能都经过了考验。现在盼着 AIMesh 上线,主要是冲 MeshSpace 的全局命名空间——能解决混合云的数据孤岛问题,MeshFS 的高吞吐还能让近万个推理服务快速启动。
Intel 和 XSKY 合作了十年,从早期一起玩 SPDK 技术,到现在联合预研 CXL 内存池化,最认可的是 AIMesh 的「不浪费硬件」:没有为了卖方案硬推新硬件,而是把现有 CPU、SSD 的潜力榨到极致,这种思路跟 Intel「软硬协同」的方向完全契合。
还有 ZStack,从云时代就是「背靠背的战友」,现在做 AIOS 智塔平台,发现 AIMesh 的 MeshFS 能解训练的 I/O 瓶颈,MeshFusion 能降推理成本,正好跟自己的智算规划对上——双方想把云时代的合作模式复制到 AI,一起搭算存协同的底座。
黄仁勋预测,AI 存储会成为「全球最大的存储市场」。对 XSKY 来说,这不是单纯的商业机会,而是要守住「数据常青」的底线——让数据不管过多少年,不管换多少轮算力,都能持续产生价值。从云时代的解耦,到 AI 时代的三网合一,XSKY 一直没离开「数据」这个核心,而这种专注,或许正是 AI 基础设施最需要的定力。
来源:互联网



