主题
附录 06 高频面试题库
这份题库面向“前端转 AI Agent 工程师”的真实面试场景,目标不是帮你背标准答案,而是帮你建立一套稳定的答题框架。相比通用八股,这里更强调:
- 你如何把前端经验迁移到 AI Agent 工程。
- 你如何解释自己的项目决策。
- 你如何回答追问,而不是只会说概念。
1. 怎么使用这份题库
推荐按下面的方式使用:
- 先按主题挑题,不要一次性背完。
- 每道题都尝试用“概念 -> 场景 -> 方案 -> 指标 -> 复盘”的顺序组织答案。
- 尽量把回答绑定到你自己的项目线,而不是停留在抽象概念。
- 对高频问题准备 1 分钟版和 3 分钟版两个版本。
2. 基础认知题
题 1:什么是 AI Agent?它和普通聊天机器人有什么区别?
回答要点
- 聊天机器人更偏“单轮问答”。
- Agent 更强调目标、规划、工具调用、状态管理和执行闭环。
- 真正的 Agent 系统通常包含模型、工具、上下文、工作流、评测和治理能力。
推荐答法 “我理解的 AI Agent,不只是一个会回答问题的聊天机器人,而是一个能围绕目标做决策、调用工具、读取上下文并执行任务的系统。聊天产品更关注对话本身,而 Agent 更关注任务完成闭环。对工程实现来说,Agent 还需要状态管理、失败恢复、评测和可观测性,这也是它和普通 Demo 的关键差别。”
题 2:为什么前端工程师适合转 AI Agent 工程?
回答要点
- 前端已经具备工程协作、接口契约、状态管理、交互设计等基础。
- Agent 产品非常需要前端在可解释交互、执行状态展示和人工接管方面的能力。
- 真正稀缺的不是单点模型调用,而是把能力做成可用产品。
题 3:你怎么理解 Prompt Engineering 和 Context Engineering 的区别?
回答要点
- Prompt Engineering 更偏单次指令优化。
- Context Engineering 更偏整体输入结构设计,包括系统规则、检索证据、工具结果、历史摘要和输出约束。
- 工程项目里后者通常更重要。
3. 单 Agent 与工具调用题
题 4:Tool Calling 的核心价值是什么?
回答要点
- 让模型从“只会说”变成“能做事”。
- 核心不只是调用工具,而是安全地选择工具、约束输入输出、处理失败和做日志追踪。
题 5:你如何设计一个稳定的工具 schema?
回答要点
- 工具名要清晰表达用途。
- 参数要强约束、少歧义。
- 返回结构要明确、可消费。
- 要定义失败返回和边界条件。
- 高风险工具要有人工确认和权限控制。
题 6:什么时候不应该使用多 Agent?
回答要点
- 当任务本身不复杂,只用一个 Agent + 几个工具就能完成。
- 当多角色带来的上下文同步和治理成本大于收益。
- 当团队还没把单 Agent、RAG 和评测打稳时。
4. RAG 相关题
题 7:为什么企业 Agent 几乎一定会做 RAG?
回答要点
- 企业知识是动态的,不能只依赖模型参数记忆。
- 需要引用来源和拒答机制。
- 需要把私有知识安全接入系统。
题 8:RAG 的关键链路有哪些?
回答要点
- 文档处理与切片。
- 检索召回。
- 重排与上下文压缩。
- 回答生成。
- 引用与拒答。
- 评测与优化。
题 9:如果检索到了正确文档,但回答还是错的,你会怎么排查?
推荐答法框架
- 先看最终注入模型的上下文里是否保留了关键条款。
- 再看是否有无关证据稀释了注意力。
- 再看 Prompt 是否要求了错误的总结方式。
- 再看前端展示引用是否和后端返回一致。
5. 工作流与多 Agent 题
题 10:Workflow 和 Agent 有什么关系?
回答要点
- Workflow 更强调确定性流程和节点编排。
- Agent 更强调不完全确定下的规划与决策。
- 真正的系统里二者往往结合使用:大框架用 Workflow 控制,局部节点用 Agent 决策。
题 11:你如何设计一个可恢复的工作流?
回答要点
- 节点职责清晰。
- 状态机明确。
- 失败分类清楚。
- 有重试、回退、补偿和人工接管方案。
题 12:多 Agent 系统最容易出什么问题?
回答要点
- 角色边界不清。
- 上下文同步混乱。
- 协作成本过高。
- 错误归因困难。
- 表面上很高级,实际没有比单 Agent 更有效。
6. 评测与上线题
题 13:你怎么给 AI Agent 做评测?
回答要点
- 先定义业务目标,再定义指标。
- 建立覆盖正常、边界、拒答场景的样本集。
- 运行自动回归。
- 把评测做成发布门禁,而不是发布后补救。
题 14:AI Agent 系统上线后最该看哪些指标?
回答要点
- 成功率。
- 延迟。
- 成本。
- 引用准确率或任务完成率。
- 用户取消率。
- 人工介入比例。
- 高风险操作确认通过率。
题 15:为什么要做 tracing?
回答要点
- 因为 Agent 链路长,问题跨多个层次。
- 没有 trace,无法还原一次请求的真实执行路径。
- tracing 能帮助区分是检索、工具、模型还是前端状态出了问题。
7. 安全与治理题
题 16:AI Agent 的安全问题和传统 Web 安全有什么不同?
回答要点
- 传统 Web 更关注 XSS、CSRF、鉴权、越权等问题。
- Agent 还要额外关注 prompt injection、工具滥用、越权调用、数据污染和不当自动执行。
- 重点是把权限边界和人工确认前置到设计阶段。
题 17:你如何控制高风险工具调用?
回答要点
- 工具按风险分级。
- 高风险操作不默认开放。
- 增加计划展示、用户确认、审计日志和回滚能力。
8. 前端迁移题
题 18:你觉得前端工程师做 Agent 产品最有优势的地方是什么?
回答要点
- 把过程做得可见、可控、可解释。
- 擅长状态管理和交互设计。
- 更容易识别“技术成功但体验失败”的问题。
题 19:为什么 Agent UI 不能只做成聊天框?
回答要点
- 因为用户还需要看到步骤、状态、证据、确认节点和失败恢复路径。
- 聊天只是入口,不是全部交互结构。
题 20:你如何设计 Human-in-the-Loop?
回答要点
- 在关键节点保留人工决策权。
- 不是所有步骤都确认,而是在高风险、低置信度和副作用操作处确认。
- 前端要展示计划、上下文、影响范围和下一步动作。
9. 项目追问题
题 21:你做过的项目里,最难的问题是什么?你怎么解决的?
答题框架
- 业务背景是什么。
- 为什么这是难点。
- 你做了哪些拆解。
- 最终用什么方法验证。
- 复盘还有什么没做好。
题 22:你在项目里承担了哪些职责?
回答建议 不要只说“我负责前端页面”。 更建议说:
- 我负责哪条核心链路。
- 我做了哪些设计决策。
- 我推动了哪些评测、治理或可观测能力。
- 我如何和产品、后端、算法协作。
题 23:如果让你重做一次这个项目,你会怎么改?
回答建议 面试官不是想听“我都做得很好”,而是想看你有没有复盘能力。 建议从这几个方向回答:
- 哪些阶段做得太早或太晚。
- 哪些地方应该更早做评测。
- 哪些复杂度其实不该一开始就引入。
10. 行为与求职题
题 24:为什么你想从前端转向 AI Agent 工程?
回答建议 不要答成“因为 AI 很火”。 更好的说法是:
- 你看到交互式产品正在变成智能系统。
- 你希望从“实现界面”升级到“设计完整智能产品闭环”。
- 你不是放弃前端,而是把前端能力迁移到更高一层产品与工程问题中。
题 25:如果入职后让你从 0 到 1 做一个 Agent 项目,你会怎么推进?
答题框架
- 先明确目标场景和成功指标。
- 用最小链路验证价值。
- 尽快补评测和观测。
- 再补权限、上线和回滚。
- 最后做规模化和复用。
11. 自托管与私有化部署
题 26:什么场景下应该选择自托管模型而不是云端 API?请从技术和业务两个角度分析。
回答要点
- 业务角度:数据合规(金融/医疗/政务不允许数据出境)、成本控制(月调用量 >100 万次时自建更划算)、SLA 自主可控。
- 技术角度:离线/内网环境、低延迟需求(本地推理 <100ms vs API >500ms)、定制化微调。
- 反面论证:小规模/原型阶段用 API 更合理,运维成本不可忽视。
面试加分 能给出 ROI 计算框架——当月 API 费用 > GPU 月租时考虑自建。
题 27:Ollama、vLLM、llama.cpp 分别适合什么场景?如何为团队做技术选型?
回答要点
- Ollama:开发调试、原型验证、个人学习,一键安装无需配置。
- vLLM:生产环境、高并发(PagedAttention 优化)、需要 OpenAI 兼容 API 的团队。
- llama.cpp:边缘设备、资源受限环境、需要 CPU 推理的场景。
- 选型框架:并发量 → GPU 预算 → 运维能力 → 生态集成需求。
面试加分 能说出 PagedAttention 的原理和优势。
题 28:自托管 RAG 和云端 RAG 在工程实现上有什么关键差异?
回答要点
- Embedding 层:本地 BGE-M3 vs OpenAI text-embedding-3(精度接近但延迟和成本不同)。
- 向量库:自建 Qdrant/ChromaDB vs 托管 Pinecone(运维 vs 免运维)。
- 推理层:本地模型上下文窗口通常更小,需要更精细的 chunk 策略。
- 端到端延迟:本地全链路可控 vs 云端受网络影响。
面试加分 能画出自托管 RAG 架构图并标注每层的技术选型。
题 29:如何评估一个开源模型是否适合你的业务场景?请描述你的评估流程。
回答要点
- Step 1:明确任务类型(对话/推理/代码/Tool Calling/多语言)。
- Step 2:硬件约束评估(可用显存 → 可选参数量 → 量化方案)。
- Step 3:Benchmark 对比(MMLU/HumanEval/C-Eval 等,但要关注与自己场景的相关性)。
- Step 4:业务场景实测(准备 50-100 条真实 case,人工评分)。
- Step 5:量化损失评估(FP16 vs Q4 在自己任务上的表现差异)。
面试加分 强调「通用 Benchmark 只是筛选,业务实测才是决策依据」。
12. 一页通用答题框架
你可以把大多数技术题都压缩到下面这个结构里:
text
1. 先定义问题:这个问题在真实业务里为什么重要。
2. 再拆关键因素:有哪些核心变量或链路。
3. 再说工程做法:你如何设计、实现、评测和治理。
4. 再给项目例子:你在什么场景里这样做过。
5. 最后讲复盘:这样做的收益、局限和下一步优化方向。13. 高频反问模板
面试结束时,你也可以主动反问,体现成熟度:
- 你们当前 Agent 项目最大的工程挑战是什么?
- 团队更看重模型效果、交付速度还是稳定性治理?
- 目前评测、上线和观测体系建设到什么阶段?
- 前端在 Agent 产品里承担哪些核心职责?
14. 面试准备建议
建议你用这份题库做三层准备:
- 第一层:准备概念题,保证不会卡住。
- 第二层:绑定项目线,把题目和项目证据串起来。
- 第三层:录音或模拟面试,练习在被追问时还能保持结构清晰。
15. 最终目标
真正理想的状态不是“背会很多题”,而是形成一种稳定的表达方式:
- 能解释概念。
- 能讲清工程方案。
- 能用项目证明自己。
- 能在追问下保持逻辑不乱。