漫步远方,心荡神往

国内近期开源大模型调研与核心技术解析

国内开源大模型最新动态 从 2025 到 2026.01 这段时间,国内开源大模型蓬勃发展,日益繁荣,我们总结下近期(2025.11-2026.02)国内大模型发展最新

2026 新年快乐(Happy New Year)

新年的钟声已经敲响,我们迎来了充满活力与奔赴感的 2026 马年!🎉 感谢过去一年里的陪伴与支持,新的一年,愿我们策马前行,奔赴更远的目标,收获更多值得

聊聊 LLM 推理加速常见手段

推理常见加速手段 大模型推理的常见加速手段,本质上围绕 “少算、快算、少等、少搬” 四个方向展开: 一方面通过算法与模型层优化,如 KV Cache、Fl

聊聊 LLM 推理架构演进中的几个关键技术节点

导读 本文尝试以一种偏“杂谈”的方式,围绕大模型推理部署中的几个关键技术节点,梳理其演进脉络与核心动机。 最早的大模型部署,基本沿用了传统深度学