Skip to content

附录 06 高频面试题库

这份题库面向“前端转 AI Agent 工程师”的真实面试场景,目标不是帮你背标准答案,而是帮你建立一套稳定的答题框架。相比通用八股,这里更强调:

  • 你如何把前端经验迁移到 AI Agent 工程。
  • 你如何解释自己的项目决策。
  • 你如何回答追问,而不是只会说概念。

1. 怎么使用这份题库

推荐按下面的方式使用:

  • 先按主题挑题,不要一次性背完。
  • 每道题都尝试用“概念 -> 场景 -> 方案 -> 指标 -> 复盘”的顺序组织答案。
  • 尽量把回答绑定到你自己的项目线,而不是停留在抽象概念。
  • 对高频问题准备 1 分钟版和 3 分钟版两个版本。

2. 基础认知题

题 1:什么是 AI Agent?它和普通聊天机器人有什么区别?

回答要点

  • 聊天机器人更偏“单轮问答”。
  • Agent 更强调目标、规划、工具调用、状态管理和执行闭环。
  • 真正的 Agent 系统通常包含模型、工具、上下文、工作流、评测和治理能力。

推荐答法 “我理解的 AI Agent,不只是一个会回答问题的聊天机器人,而是一个能围绕目标做决策、调用工具、读取上下文并执行任务的系统。聊天产品更关注对话本身,而 Agent 更关注任务完成闭环。对工程实现来说,Agent 还需要状态管理、失败恢复、评测和可观测性,这也是它和普通 Demo 的关键差别。”

题 2:为什么前端工程师适合转 AI Agent 工程?

回答要点

  • 前端已经具备工程协作、接口契约、状态管理、交互设计等基础。
  • Agent 产品非常需要前端在可解释交互、执行状态展示和人工接管方面的能力。
  • 真正稀缺的不是单点模型调用,而是把能力做成可用产品。

题 3:你怎么理解 Prompt Engineering 和 Context Engineering 的区别?

回答要点

  • Prompt Engineering 更偏单次指令优化。
  • Context Engineering 更偏整体输入结构设计,包括系统规则、检索证据、工具结果、历史摘要和输出约束。
  • 工程项目里后者通常更重要。

3. 单 Agent 与工具调用题

题 4:Tool Calling 的核心价值是什么?

回答要点

  • 让模型从“只会说”变成“能做事”。
  • 核心不只是调用工具,而是安全地选择工具、约束输入输出、处理失败和做日志追踪。

题 5:你如何设计一个稳定的工具 schema?

回答要点

  • 工具名要清晰表达用途。
  • 参数要强约束、少歧义。
  • 返回结构要明确、可消费。
  • 要定义失败返回和边界条件。
  • 高风险工具要有人工确认和权限控制。

题 6:什么时候不应该使用多 Agent?

回答要点

  • 当任务本身不复杂,只用一个 Agent + 几个工具就能完成。
  • 当多角色带来的上下文同步和治理成本大于收益。
  • 当团队还没把单 Agent、RAG 和评测打稳时。

4. RAG 相关题

题 7:为什么企业 Agent 几乎一定会做 RAG?

回答要点

  • 企业知识是动态的,不能只依赖模型参数记忆。
  • 需要引用来源和拒答机制。
  • 需要把私有知识安全接入系统。

题 8:RAG 的关键链路有哪些?

回答要点

  • 文档处理与切片。
  • 检索召回。
  • 重排与上下文压缩。
  • 回答生成。
  • 引用与拒答。
  • 评测与优化。

题 9:如果检索到了正确文档,但回答还是错的,你会怎么排查?

推荐答法框架

  • 先看最终注入模型的上下文里是否保留了关键条款。
  • 再看是否有无关证据稀释了注意力。
  • 再看 Prompt 是否要求了错误的总结方式。
  • 再看前端展示引用是否和后端返回一致。

5. 工作流与多 Agent 题

题 10:Workflow 和 Agent 有什么关系?

回答要点

  • Workflow 更强调确定性流程和节点编排。
  • Agent 更强调不完全确定下的规划与决策。
  • 真正的系统里二者往往结合使用:大框架用 Workflow 控制,局部节点用 Agent 决策。

题 11:你如何设计一个可恢复的工作流?

回答要点

  • 节点职责清晰。
  • 状态机明确。
  • 失败分类清楚。
  • 有重试、回退、补偿和人工接管方案。

题 12:多 Agent 系统最容易出什么问题?

回答要点

  • 角色边界不清。
  • 上下文同步混乱。
  • 协作成本过高。
  • 错误归因困难。
  • 表面上很高级,实际没有比单 Agent 更有效。

6. 评测与上线题

题 13:你怎么给 AI Agent 做评测?

回答要点

  • 先定义业务目标,再定义指标。
  • 建立覆盖正常、边界、拒答场景的样本集。
  • 运行自动回归。
  • 把评测做成发布门禁,而不是发布后补救。

题 14:AI Agent 系统上线后最该看哪些指标?

回答要点

  • 成功率。
  • 延迟。
  • 成本。
  • 引用准确率或任务完成率。
  • 用户取消率。
  • 人工介入比例。
  • 高风险操作确认通过率。

题 15:为什么要做 tracing?

回答要点

  • 因为 Agent 链路长,问题跨多个层次。
  • 没有 trace,无法还原一次请求的真实执行路径。
  • tracing 能帮助区分是检索、工具、模型还是前端状态出了问题。

7. 安全与治理题

题 16:AI Agent 的安全问题和传统 Web 安全有什么不同?

回答要点

  • 传统 Web 更关注 XSS、CSRF、鉴权、越权等问题。
  • Agent 还要额外关注 prompt injection、工具滥用、越权调用、数据污染和不当自动执行。
  • 重点是把权限边界和人工确认前置到设计阶段。

题 17:你如何控制高风险工具调用?

回答要点

  • 工具按风险分级。
  • 高风险操作不默认开放。
  • 增加计划展示、用户确认、审计日志和回滚能力。

8. 前端迁移题

题 18:你觉得前端工程师做 Agent 产品最有优势的地方是什么?

回答要点

  • 把过程做得可见、可控、可解释。
  • 擅长状态管理和交互设计。
  • 更容易识别“技术成功但体验失败”的问题。

题 19:为什么 Agent UI 不能只做成聊天框?

回答要点

  • 因为用户还需要看到步骤、状态、证据、确认节点和失败恢复路径。
  • 聊天只是入口,不是全部交互结构。

题 20:你如何设计 Human-in-the-Loop?

回答要点

  • 在关键节点保留人工决策权。
  • 不是所有步骤都确认,而是在高风险、低置信度和副作用操作处确认。
  • 前端要展示计划、上下文、影响范围和下一步动作。

9. 项目追问题

题 21:你做过的项目里,最难的问题是什么?你怎么解决的?

答题框架

  • 业务背景是什么。
  • 为什么这是难点。
  • 你做了哪些拆解。
  • 最终用什么方法验证。
  • 复盘还有什么没做好。

题 22:你在项目里承担了哪些职责?

回答建议 不要只说“我负责前端页面”。 更建议说:

  • 我负责哪条核心链路。
  • 我做了哪些设计决策。
  • 我推动了哪些评测、治理或可观测能力。
  • 我如何和产品、后端、算法协作。

题 23:如果让你重做一次这个项目,你会怎么改?

回答建议 面试官不是想听“我都做得很好”,而是想看你有没有复盘能力。 建议从这几个方向回答:

  • 哪些阶段做得太早或太晚。
  • 哪些地方应该更早做评测。
  • 哪些复杂度其实不该一开始就引入。

10. 行为与求职题

题 24:为什么你想从前端转向 AI Agent 工程?

回答建议 不要答成“因为 AI 很火”。 更好的说法是:

  • 你看到交互式产品正在变成智能系统。
  • 你希望从“实现界面”升级到“设计完整智能产品闭环”。
  • 你不是放弃前端,而是把前端能力迁移到更高一层产品与工程问题中。

题 25:如果入职后让你从 0 到 1 做一个 Agent 项目,你会怎么推进?

答题框架

  1. 先明确目标场景和成功指标。
  2. 用最小链路验证价值。
  3. 尽快补评测和观测。
  4. 再补权限、上线和回滚。
  5. 最后做规模化和复用。

11. 自托管与私有化部署

题 26:什么场景下应该选择自托管模型而不是云端 API?请从技术和业务两个角度分析。

回答要点

  • 业务角度:数据合规(金融/医疗/政务不允许数据出境)、成本控制(月调用量 >100 万次时自建更划算)、SLA 自主可控。
  • 技术角度:离线/内网环境、低延迟需求(本地推理 <100ms vs API >500ms)、定制化微调。
  • 反面论证:小规模/原型阶段用 API 更合理,运维成本不可忽视。

面试加分 能给出 ROI 计算框架——当月 API 费用 > GPU 月租时考虑自建。

题 27:Ollama、vLLM、llama.cpp 分别适合什么场景?如何为团队做技术选型?

回答要点

  • Ollama:开发调试、原型验证、个人学习,一键安装无需配置。
  • vLLM:生产环境、高并发(PagedAttention 优化)、需要 OpenAI 兼容 API 的团队。
  • llama.cpp:边缘设备、资源受限环境、需要 CPU 推理的场景。
  • 选型框架:并发量 → GPU 预算 → 运维能力 → 生态集成需求。

面试加分 能说出 PagedAttention 的原理和优势。

题 28:自托管 RAG 和云端 RAG 在工程实现上有什么关键差异?

回答要点

  • Embedding 层:本地 BGE-M3 vs OpenAI text-embedding-3(精度接近但延迟和成本不同)。
  • 向量库:自建 Qdrant/ChromaDB vs 托管 Pinecone(运维 vs 免运维)。
  • 推理层:本地模型上下文窗口通常更小,需要更精细的 chunk 策略。
  • 端到端延迟:本地全链路可控 vs 云端受网络影响。

面试加分 能画出自托管 RAG 架构图并标注每层的技术选型。

题 29:如何评估一个开源模型是否适合你的业务场景?请描述你的评估流程。

回答要点

  • Step 1:明确任务类型(对话/推理/代码/Tool Calling/多语言)。
  • Step 2:硬件约束评估(可用显存 → 可选参数量 → 量化方案)。
  • Step 3:Benchmark 对比(MMLU/HumanEval/C-Eval 等,但要关注与自己场景的相关性)。
  • Step 4:业务场景实测(准备 50-100 条真实 case,人工评分)。
  • Step 5:量化损失评估(FP16 vs Q4 在自己任务上的表现差异)。

面试加分 强调「通用 Benchmark 只是筛选,业务实测才是决策依据」。

12. 一页通用答题框架

你可以把大多数技术题都压缩到下面这个结构里:

text
1. 先定义问题:这个问题在真实业务里为什么重要。
2. 再拆关键因素:有哪些核心变量或链路。
3. 再说工程做法:你如何设计、实现、评测和治理。
4. 再给项目例子:你在什么场景里这样做过。
5. 最后讲复盘:这样做的收益、局限和下一步优化方向。

13. 高频反问模板

面试结束时,你也可以主动反问,体现成熟度:

  • 你们当前 Agent 项目最大的工程挑战是什么?
  • 团队更看重模型效果、交付速度还是稳定性治理?
  • 目前评测、上线和观测体系建设到什么阶段?
  • 前端在 Agent 产品里承担哪些核心职责?

14. 面试准备建议

建议你用这份题库做三层准备:

  • 第一层:准备概念题,保证不会卡住。
  • 第二层:绑定项目线,把题目和项目证据串起来。
  • 第三层:录音或模拟面试,练习在被追问时还能保持结构清晰。

15. 最终目标

真正理想的状态不是“背会很多题”,而是形成一种稳定的表达方式:

  • 能解释概念。
  • 能讲清工程方案。
  • 能用项目证明自己。
  • 能在追问下保持逻辑不乱。