泄漏的DeepSeek R2信息揭示其运用自主AI基础设施实现性能提升
cnBeta.COM中文业界资讯站 - Telegram Channel泄漏的DeepSeek R2信息揭示其运用自主AI基础设施实现性能提升
根据华为实验室的数据,这大约是 NVIDIA 旧款 A100 集群所提供的性能的 91%,但 DeepSeek 声称它将单位训练成本降低了 97.3%。DeepSeek R2 背后是一个精心培育的合作伙伴生态系统。拓维信息是昇腾系列的领先OEM厂商,承接了DeepSeek超过一半的超级计算硬件订单,而曙光则提供每台功率高达40kW的液冷服务器机架。为了控制功耗,旭创科技的硅光收发器与传统解决方案相比,可再降低35%的功耗。从地理位置上看,运营分布在几个主要的枢纽:润建股份运营着华南超级计算中心,每年的合同金额超过50亿元人民币,中贝通信在西北地区保留了1500PetaFLOP的备用计算能力,以应对峰值需求。在软件方面,DeepSeek R2已经支持私有部署和微调,通过云赛智联平台为15个省的智慧城市计划提供支持。由鸿博股份旗下英博数字负责监管的华北节点将计算能力再提升3000PetaFLOP。如果计算能力不足,华为准备部署其CloudMatrix 384 系统,该系统定位为 NVIDIA 200 GB NVL72 的国产替代方案。它配备 384 个 Ascend 910C 加速器,可实现 NVL72 集群整体 petaFLOPS 的 1.7 倍和 HBM 总容量的 3.6 倍——然而,其单芯片性能明显落后,功耗几乎是 NVL72 集群的四倍。 ...
PC版:https://www.cnbeta.com.tw/articles/soft/1495638.htm
手机版:https://m.cnbeta.com.tw/view/1495638.htm
cnBeta.COM
泄漏的DeepSeek R2信息揭示其运用自主AI基础设施实现性能提升 - AI 人工智能 - cnBeta.COM据知名AI业内人士@iruletheworldmo在X上透露,DeepSeek凭借其R1模型席卷AI世界之后,目前正在准备发布一款据称性能得到大幅改进的全新DeepSeekR2模型。在华为Ascend910B芯片集群、潜在的华为Atlas900以及DeepSeek内部分布式训练框架的支持下,R2将这些加速器的利用率提升至令人印象深刻的82%,相当于512PetaFLOPS的FP16性能——计算能力
Generated by RSStT. The copyright belongs to the original author.