AI Agent 应用开发学习路线
面向有前端 + Node.js 后端经验的开发者,系统掌握大模型与 AI Agent 应用开发。
第一阶段:基础认知(1-2 周)
目标:理解大模型和 Agent 的核心概念,建立全局认知
必备知识
- LLM 基础概念 —— Token、Prompt、Completion、Temperature、Top-P 等参数含义
- Prompt Engineering —— 零样本/少样本提示、CoT(思维链)、ReAct 模式
- API 调用 —— OpenAI API / Claude API / 国内模型 API 的使用
- 模型能力边界 —— 什么适合 LLM 做,什么不适合
行动建议
- 注册 OpenAI / Claude / 国内大模型(DeepSeek、Qwen 等)的 API
- 用 Node.js 写几个简单的 API 调用脚本
- 体验 Prompt 的不同写法对输出的影响
- 读完 OpenAI 官方的 Prompt Engineering 指南
第二阶段:框架学习(2-4 周)
目标:掌握 LLM 应用开发框架,能构建基本的 Chain 和 Agent
核心框架
| 框架 | 定位 | 优先级 |
|---|---|---|
| LangChain.js | LLM 应用开发框架(JS/TS 版) | ⭐⭐⭐⭐⭐ 必学 |
| LangGraph.js | Agent 工作流编排框架 | ⭐⭐⭐⭐⭐ 必学 |
| Vercel AI SDK | 流式 UI + LLM 集成(前端友好) | ⭐⭐⭐⭐ 推荐 |
| OpenAI SDK | 官方 SDK,最底层的调用 | ⭐⭐⭐⭐ 推荐 |
核心概念
- Chain(链) —— 将多个 LLM 调用串成流水线
- LCEL —— LangChain Expression Language,声明式编排
- Agent —— LLM 自主决策调用工具的循环
- Tool —— 扩展 LLM 能力的外部函数
- Memory —— 对话上下文的管理
- Structured Output —— 让 LLM 输出结构化的 JSON
行动建议
- 跟着 LangChain.js 官方文档过一遍核心模块
- 用 LangChain.js 实现一个带 Memory 的聊天机器人
- 实现一个能调用 Tool 的 ReAct Agent
- 学习 LangGraph.js,实现一个多步骤工作流
第三阶段:RAG 与知识库(2-3 周)
目标:掌握检索增强生成(RAG),能构建基于私有数据的 AI 应用
必备知识
- Embedding(向量嵌入) —— 文本转向量的原理和使用
- 向量数据库 —— Pinecone / Weaviate / Chroma / pgvector 的使用
- 文档加载与切分 —— PDF、Markdown、网页等文档的处理策略
- 检索策略 —— 相似度搜索、混合搜索、重排序(Reranking)
- RAG 优化 —— 分块策略、查询改写、多路召回
技术选型建议
| 组件 | 推荐 | 说明 |
|---|---|---|
| 向量数据库 | pgvector / Chroma | pgvector 基于 PostgreSQL,前端同学可能已经熟悉 |
| 文档处理 | LangChain Document Loaders | 开箱即用 |
| 前端展示 | Next.js + Vercel AI SDK | 流式输出 + React UI |
行动建议
- 理解 Embedding 和向量搜索的原理
- 用 LangChain.js 构建一个完整的 RAG 管道
- 尝试不同的分块策略和检索策略
- 构建一个「文档问答」应用作为练手项目
第四阶段:Agent 进阶(3-4 周)
目标:构建复杂的 Agent 系统,理解多 Agent 协作和工作流编排
核心主题
- Multi-Agent 系统 —— 多个 Agent 协作完成复杂任务
- 工作流编排 —— 用 LangGraph 实现条件分支、循环、人机协作
- Tool 体系设计 —— 如何设计和管理 Agent 的工具集
- Human-in-the-Loop —— 在关键节点引入人工审核
- Streaming —— 流式输出中间步骤和最终结果
- Error Handling —— Agent 失败时的重试和降级策略
行动建议
- 用 LangGraph 实现一个多 Agent 协作系统
- 实现 Human-in-the-Loop 工作流
- 研究 OpenClaw 等开源 Agent 框架的设计思路
- 构建一个生产可用的 Agent 应用
第五阶段:生产化与工程化(持续)
目标:将 AI 应用推向生产环境,具备完整的工程化能力
必备技能
| 领域 | 内容 | 说明 |
|---|---|---|
| 可观测性 | LangSmith / LangFuse | 追踪 LLM 调用链路、分析延迟和成本 |
| 评估体系 | LLM 评估 / 人工评估 | 如何衡量 AI 应用的质量 |
| 安全防护 | Prompt 注入防御、输出过滤 | 防止恶意输入和不当输出 |
| 成本控制 | Token 计算、模型选择、缓存策略 | 控制 API 调用成本 |
| 部署架构 | 流式 API、队列、超时处理 | LLM 调用耗时长,架构设计不同 |
| 缓存优化 | 语义缓存 / 精确缓存 | 减少重复调用 |
必备技能树
已有技能(直接复用)
✅ TypeScript / JavaScript
✅ Node.js 后端开发
✅ REST API 设计
✅ 前端 React/Vue 开发
✅ 数据库使用经验
✅ Git / CI/CD需要新学的技能
🔴 核心必备
| 技能 | 说明 | 学习周期 |
|---|---|---|
| Prompt Engineering | 写好 Prompt 是一切的基础 | 1 周 |
| LangChain.js / LangGraph.js | JS 生态的 Agent 框架 | 2-3 周 |
| Embedding & 向量搜索 | RAG 的核心 | 1 周 |
| Streaming 处理 | LLM 流式输出的前后端处理 | 几天 |
| Structured Output | 让 LLM 输出可靠的结构化数据 | 几天 |
🟡 强烈推荐
| 技能 | 说明 | 学习周期 |
|---|---|---|
| Python 基础 | AI 生态主力语言,很多教程和工具是 Python 的 | 1-2 周 |
| 向量数据库 | pgvector / Chroma / Pinecone | 1 周 |
| Vercel AI SDK | 前端 + AI 集成的最佳工具 | 几天 |
| LLM 评估方法 | 如何量化 AI 应用的效果 | 1 周 |
🟢 锦上添花
| 技能 | 说明 | 场景 |
|---|---|---|
| Fine-tuning | 模型微调 | 需要定制模型行为时 |
| MCP 协议 | Model Context Protocol | Agent 工具标准化 |
| 多模态 | 图像/音频/视频处理 | 需要处理非文本数据时 |
| 本地模型部署 | Ollama / vLLM | 需要私有化部署时 |
推荐学习资源
| 资源 | 类型 | 说明 |
|---|---|---|
| LangChain.js 官方文档 | 文档 | JS/TS 开发者的主力框架 |
| LangGraph.js 官方文档 | 文档 | Agent 编排必读 |
| Vercel AI SDK 文档 | 文档 | 前端集成最佳 |
| OpenAI Cookbook | 教程 | 最佳实践合集 |
| DeepLearning.AI Short Courses | 课程 | Andrew Ng 的短课,含 LangChain 系列 |
| Anthropic Prompt Engineering | 文档 | Prompt 工程指南 |
前端开发者的独特优势
作为前端 + Node.js 开发者,进入 AI Agent 领域有几个别人没有的优势:
- 全栈交付能力 —— 能独立完成从 AI 后端到前端 UI 的完整产品
- Streaming 经验 —— 前端处理 SSE/流式数据是强项,这正是 LLM 应用的核心交互模式
- 产品化能力 —— 懂用户体验,AI 产品不只是模型好,交互体验同样重要
- TypeScript 生态 —— LangChain.js、Vercel AI SDK、OpenAI SDK 都有一流的 TS 支持
💡 建议:不要觉得必须先学 Python。用你熟悉的 TypeScript 栈快速上手,先做出东西来,有需要时再补 Python 知识。