漫步远方,心荡神往

AI-Infra:构建支撑大规模训练与推理基础设施平台

**为什么需要 AI-Infra**:从模型能力的竞争,走向算力、系统与平台的综合竞争;**AI-Infra 架构全景**:解析支撑大规模训推的关键技术栈与分层架构;**平台实践案例**:结合工程与平台视角,探讨 AI-Infra 如何真正落地并持续演进;**AI-Infra 发展趋势和总结**:探索 AI Infra 的技术趋势,洞察 AI Infra 未来演进方向

国内近期开源大模型调研与核心技术解析

国内开源大模型最新动态 从 2025 到 2026.01 这段时间,国内开源大模型蓬勃发展,日益繁荣,我们总结下近期(2025.11-2026.02)国内大模型发展最新

2026 新年快乐(Happy New Year)

新年的钟声已经敲响,我们迎来了充满活力与奔赴感的 2026 马年!🎉 感谢过去一年里的陪伴与支持,新的一年,愿我们策马前行,奔赴更远的目标,收获更多值得

聊聊 LLM 推理加速常见手段

推理常见加速手段 大模型推理的常见加速手段,本质上围绕 “少算、快算、少等、少搬” 四个方向展开: 一方面通过算法与模型层优化,如 KV Cache、Fl

聊聊 LLM 推理架构演进中的几个关键技术节点

导读 本文尝试以一种偏“杂谈”的方式,围绕大模型推理部署中的几个关键技术节点,梳理其演进脉络与核心动机。 最早的大模型部署,基本沿用了传统深度学