漫步远方,心荡神往

双机2*H20(8*96GiB)部署满血DeepSeek-R1(fp8)验证过程

双机2*H20(8*96GiB)部署满血DeepSeek-R1(fp8)验证过程、vllm 与 sglang 双机测试与性能对比

环境信息 机器配置 OS:CentOS Linux release 7.6 (Final) Kernel:4.19.0-1.0.0.9 驱动: Driver Version: 535.216.03 CUDA Version: 12.2 GPU:NVIDIA H20 vLLM:htt

单机H20(8*96GiB)部署满血DeepSeek-R1(fp8)验证过程

单机H20(8*96GiB)部署满血DeepSeek-R1(fp8)验证过程、vllm 验证过程、sglang 验证过程

环境信息 机器配置 OS:CentOS Linux release 7.6 (Final) Kernel:4.19.0-1.0.0.9 驱动: Driver Version: 535.216.03 CUDA Version: 12.2 GPU:NVIDIA H20 vLLM:htt

单台 H20 机器 DeepSeek R1 (FP8)、DeepSeek-R1-Block-INT8 精度测试与性能测试过程

测试下 DeepSeek R1(FP8)、DeepSeek-R1-Block-INT8 使用单台 H20 机器在 aime、math500、gpqa (使用开源工具 evalscope) 数据集下进行精度测试;给定输入、输出等参数,性能压测;

测试目标 测试下 DeepSeek R1(FP8) 使用单台 H20 机器在 aime、math500、gpqa (使用开源工具 evalscope) 数据集下进行精度测试; 给定输入、输出等参数,

DeepSeek R1 推理 GPU 资源配置

普及 NVIDIA 基础知识,如硬件类型/厂家、NVIDIA 显卡系列、SXM 与 PCIe、DeepSeek R1 资源需求示例

介绍 NVIDIA 基础知识,如硬件类型/厂家、NVIDIA 显卡系列、SXM 与 PCIe、DeepSeek R1 资源需求示例

LLM 教程(3)- 《DeepSeek R1 论文精读 - 通过强化学习推动大语言模型推理能力的突破与创新》

LLM 教程(3)- 精读 DeepSeek-R1 的论文,了解现象级 R1 模型是怎么做出来的;

1. 序言 下图展示了 OpenAI(公开文献) 从预训练开始逐步训练出一个 GPT 助手的步骤;pre-training -> SFT -> RM -> RL 是典型的大模型训练过程。