DeepAI 深算智能引擎重磅发布:多元场景玩转 DeepSeek

摘要

日前,在 2025 全球开发者先锋大会上,中科曙光正式发布DeepAI 深算智能引擎,通过打造端到端全栈 AI 加速套件,助力各行各业 AI 应用开发与落地。

日前,在 2025 全球开发者先锋大会上,中科曙光正式发布DeepAI 深算智能引擎,通过打造端到端全栈 AI 加速套件,助力各行各业 AI 应用开发与落地。

中科曙光智能计算产品事业部副总经理胡晓东

DeepSeek 等大模型在全球范围内的爆火,进一步激发了各行各业对于低成本、高效率的 AI 需求。多年前中科曙光就预见到「算力即是生产力」的大势所趋,针对大模型在多元场景的实际需求,DeepAI 深算智能引擎带来三大升级:

●  高性能:全面支持基于新一代国产 AI 异构加速卡的框架/组件功能适配,并深度优化算子,性能总吞吐量提升 120%;

●  高易用:自研独立完整软件栈,同时完全兼容主流生态,CUDA 核心组件功能覆盖率除硬件外达到 100%;

●  高耦合:推出大模型应用平台和大模型云原生 AI 平台,支持主流大模型开放纳管。

围绕「高性能、高可用、高耦合」持续迭代,DeepAI 深算智能引擎为广大开发者群体提供灵活、易用、低成本的 AI 套件,帮助客户围绕 DeepSeek 等大模型构建 AI 能力,真正实现人工智能从技术积累到价值释放的关键跃迁。

全链条优化

大模型从训练开发到推理部署,性能调优是关键支撑。为此,在去年推出的 Al 软件栈 DAS 基础上,DeepAI 深算智能引擎从 GPUFusion 兼容层、基础算子层、框架工具层、模型扩展组件层等四个层面入手,进行深度优化,目标算子性能提升 30-70%,模型性能提升 20-50%,单卡推理速度最高提升 1 倍以上。

针对新一代国产 AI 异构加速卡,DeepAI 深算智能引擎实现「算子-框架-模型」全链条深度优化,并首发自研推理框架 SGInfer,提供包括稀疏化实现、runtime 层优化、图层优化等在内的多种策略,单卡推理性能总吞吐量最高提升 1 倍以上,做到「软硬协同、敏捷开发、高效部署」。

全周期服务

围绕大模型开发、训练、微调、推理、部署等全流程,DeepAI 深算智能引擎内嵌 DAP 智能平台,基于国产 AI 异构加速芯片打造大模型应用平台、云原生 AI 平台,预置 100+关键场景应用、300+精调模型与加速算法。

其中,大模型应用平台具备知识融合增强、智能体可视化编排、数据智能分析能力,云原生 AI 平台具备数据处理、模型训练和微调、大模型推理服务能力,共同为大模型的多元场景落地提供「数据治理-算法研发-模型部署-应用集成」全生命周期服务。

全场景适配

面向金融、医疗、政务、能源、科研、教育等行业场景,DeepAI 深算智能引擎依托完整软件栈和优化集成、完善的模型适配基础、广泛应用的 AI 智能平台,覆盖从十亿级推理到千亿级训练的全场景产品方案,快速响应不同行业、不同场景定制需求,让 AI 变得触手可及。

截至目前,中科曙光以 DeepAI 深算智能引擎为核心,已经进入众多关键行业,持续为中国气象局、深圳纪委、中国电信天翼云、PICC 人保财险、中石化物探院等头部客户提供高品质服务。

来源:互联网

最新文章

极客公园

用极客视角,追踪你不可错过的科技圈.

极客之选

新鲜、有趣的硬件产品,第一时间为你呈现。

张鹏科技商业观察

聊科技,谈商业。