购买与服务热线:400-810-0466
服务邮箱:Support@sugon.com
登录
微信登录
打开手机微信,扫描二维码
扫描成功
请勿刷新本页面,按手机提示操作
中科曙光不会以任何理由要求您转账汇款,谨防诈骗
您的微信还未注册
您可以同时关注中科曙光微信公众号
使用微信扫一扫即可登录! 查阅资料更方便、 快捷!
您已经注册账号和
关注微信公众号
2025年1月
服务热线:400-810-0466
需求在线留言
咨询电话
最新资料下载
成为合作伙伴
公众号
小程序
人工咨询 在线报修 保修期查询 设备绑定 意见投诉
发布时间: 2025-03-27
曙光存储副总裁张新凤
AI训练再提速 效率提升3倍以上曙光存储ParaStor F9000专为AI训练场景量身打造,针对AI训练带来的GUP利用率低、KV Cache、向量数据库存储和检索性能低等问题,升级后的ParaStor可整机柜交付,提供千卡/万卡/十万卡集群整机柜交付方案,轻松容纳DeepSeek-R1这样千亿级参数的大模型,部署时间缩短50%。性能方面,ParaStor F9000更是表现卓越,拥有500万IOPS的强大处理能力和190GB/s的高速带宽。借助五级加速技术和秒级弹性扩容功能,可将GPT - 4 级别模型的训练周期从原本的3个月大幅缩短至1周,加速AI技能迭代。AI推理零卡顿 时延降低80%大模型实时推理往往带来每秒千万级的并发请求,对存储性能要求极高。FlashNexus 集中式全闪存储在AI推理领域树立了新的性能标杆,其32控配置可实现超3000万 IOPS 的惊人性能,时延低至0.202ms,在SPC - 1基准评测中荣获全球第一。基于国内最新芯片级研发成果,优化从处理器芯片、RDMA网络芯片、PCIe芯片、NVMe控制器芯片的端到端协议路径。微控架构建立无锁化的数据IO“超级隧道”,将写性能提升2倍以上。为AI推理的向量数据库、KV Cache长文本存储提供了更优方案。此外,高性能数据加密、完善的数据保护等技术为用户最关键的私域核心数据资产提供全方位保护。面对大模型实时推理需求,该产品可“零帧起手”支撑每秒百万级并发需求;聚焦自动驾驶决策实时性需求,可以毫秒级速度加载TB级路况数据;针对金融客户,可在高波动市场环境下稳定处理高频量化交易数据流,让交易更高效、安全。AI成本更优解 海量存储再升级升级后的ParaStor S6000系列,以1.44PB/框的超大容量和20%成本降低支撑千亿参数归档。单框配置14块NVMe盘和60块SATA/SAS盘,通过冷热数据分层技术和智能数据调度功能,实现动态优化存储资源的分配、跨形态热温冷数据无感流动,提高存储资源的利用率。通过与2U2N全闪节点的统一管理和使用,利用系统间无缝数据迁移等技术,显著降低使用和运维成本。ParaStor高密存储可满足AI大模型的数据预处理以及模型、参数的归档,高端计算+AI科学计算数据湖应用等场景,显著降低AI大模型应用存储系统的构建成本,是百PB-EB级超大规模AI基础设施的更佳选择。
上一篇:上海市浦东新区领导调研中科曙光,共谋新篇章
下一篇:三重大礼,限时开抢!
联系我们
售后服务
严正声明