《LLM Interview Handbook》读书笔记与全译系列
本系列把 LLM / GenAI 面试里常见的基础与工程问题按原书章节整理;正文为 Language Models Interview Handbook(2026,Lamhot Siagian)的学习笔记与中文全译,配合 Interview Anchor、Interview Cheatsheet 与书中问答编号,便于按主题检索与口述演练。
声明:不是原书官方中译;转载请注明出处,勿用于商业再发行。商业用途请购买正版。
在线目录(全书 16 章)
| 章 | 主题 | 链接 |
|---|---|---|
| 1 | 导论、基础与 LLM 职业路线图 | 阅读 |
| 2 | Token、分词与上下文窗口 | 阅读 |
| 3 | 嵌入与语义表示 | 阅读 |
| 4 | Transformer、注意力与位置推理 | 阅读 |
| 5 | 预训练目标、模型家族与经典对照 | 阅读 |
| 6 | 基于大语言模型的分类 | 阅读 |
| 7 | 主题建模、聚类与规模化主题发现 | 阅读 |
| 8 | 大规模语言模型系统的检索基础 | 阅读 |
| 9 | 生产级 RAG 架构与有据作答 | 阅读 |
| 10 | 提示、上下文学习与 LLM 编排 | 阅读 |
| 11 | 多模态大语言模型 | 阅读 |
| 12 | 定制嵌入与检索优化 | 阅读 |
| 13 | 微调、PEFT 与适配策略 | 阅读 |
| 14 | 语言模型的优化与数学基础 | 阅读 |
| 15 | 文本生成、解码与规模化服务 | 阅读 |
| 16 | 架构、扩展与实务部署 | 阅读 |
- 仅章名与表格的目录页(方便收藏):/books/llm-interview/
为何开这个系列
- 岗位侧:面试官常问 tokenizer、attention、检索、微调、推理与评测如何在成本、延迟与合规下落地。
- 学习侧:需要一条「机制 → 系统 → 产品」的主线,避免名词堆或纯 Prompt 玄学。
- 实践侧:按主题归档,写方案时便于对齐同事或面试官可能追问的点。
原书共 16 章、151 道问答,涵盖 token、embedding、预训练、分类、主题发现、检索与 RAG、PEFT、解码与服务、部署与治理等。各章将表格、速记条与代码整理为 Markdown,部分章配有原书示意图,图片均放在站点 /images/llm-interview-handbook/。
| 顺序 | 主题概要 |
|---|---|
| 1 | 导论:何谓 LLM、现代栈、学习路线与招聘趋势 |
| 2 | Token、分词与上下文窗口 |
| 3 | 嵌入与语义表示 |
| 4 | Transformer、注意力与位置信息 |
| 5 | 预训练目标与模型家族 |
| 6–7 | 分类、主题与聚类 |
| 8–10 | 检索、RAG、Prompt 等 |
| 11+ | 多模态、PEFT、训练数学、解码、服务与生产部署等 |