WHAT is LLM API KV Cache

KV Cache 是连接「Transformer 理论」和「LLM 工程部署」的一个关键概念。理解它,你就打通了从「模型怎么算」到「模型怎么跑」的最后一环。

2026-03-05 · 15 min · 7103 words · Andy SI
阅读全文

理解 Transformer 的数学直觉

此文使我(也许也可以使你)更加深刻地理解transformer的基本原理,告别对当前主流LLM的黑箱式理解。cheers!

2026-02-24 · 15 min · 7302 words · Andy SI
阅读全文