相关结果约17个
8ep.click相关信息
2025-03-26 07:53:20 - 第二天:用于 MoE 模型训练和推理的开源 EP 通信库DeepEP。DeepEP是一套用于MoE模型中专家间信息传输的通信系统。
2025-03-01 21:38:09 - 上最高可达1350+FP8 TFLOPS。
2025-03-04 10:48:26 - DeepSeek开源周第二日:开源用于MoE训练和推理的开源EP通信库。第二日开源的是DeepEP。DeepEP是首个用于MoE(混合专家模型)训练和推理的开源EP通信库。MoE模型训练和推理中,不同专家模型需高效协作,这对通信效率要求极高。
2025-02-28 23:58:29 - 第二天被开源的是DeepEP,这是首个用于MoE(混合专家)模型训练和推理的开源EP(expert parallelism,专家并行)通信库,主要适用于大模型训练,特别是需要EP的集群训练。
2025-03-02 08:30:22 - DeepSeek统计了2月27日24点到2月28日24点,最近的24小时里DeepSeek V3 和 R1推理服务占用节点总和,峰值占用为278个节点,平均占用226.75个节点(每个节点为 8个H800 GPU)。
2025-02-27 14:42:04 - 首个开源的代码库为针对Hopper GPU优化的FlashMLA,第二日是首个用于MoE模型训练和推理的开源EP通信库DeepEP,26日则开源了一个支持密集和MoE GEMM的FP8 GEMM 库,为V3/R1训练和推理提供支持。
2025-03-01 18:30:51 - 在宣布后的约20分钟内,DeepEP已在GitHub、微软(MSFT.US)等平台上获得超过1000个Star收藏。
2025-03-02 08:36:18 - 小米集团董事长及首席执行官雷军3月1日也在其个人微博上预告,3月2日晚8点,他将返场直播,聊聊刚发布的小米SU7 Ultra。 2. DeepSeek:3月1日,DeepSeek在知乎官方账号发布题为《DeepSeek-V3/R1推理系统概览》的文章。
2025-02-25 18:43:29 - DeepEP是用于MoE(混合专家)模型训练和推理的EP(Expert Parallelism,专家并行)通信库,可以实现高效且优化的全对全通信,支持包括FP8在内的低精度运算,适配现代高性能计算需求。
2025-02-28 17:01:18 - 这是一个专为专家混合(MoE)和专家并行(EP)量身定制的通信库。 简单而言,它通过建立一个全对全的中间系统,高效协同专家模型之间的通信,实现高吞吐量和低延迟的兼顾,并且支持FP8等低精度操作以降低计算资源消耗,最终大幅提升了大模型的训练和推理效率。