Appearance
90天AI全栈特训营
欢迎来到90天AI全栈特训营,这里提供系统化的AI学习路径,从AI发展史到最新技术实战,帮助你全面掌握AI技术栈。
特训营概述
本特训营采用"总-分-总"的学习模式,总计90天,涵盖AI发展的前世今生、核心技术模块和综合实战项目。这种学习模式源自认知科学的研究成果,先建立全局认知框架,再深入各个技术细节,最后通过综合项目将知识融会贯通。整个学习过程就像攀登一座高山,先在山脚俯瞰全貌,再逐步攀登各个山峰,最终登顶时便能将整座山的壮美尽收眼底。
学习模式分为三个阶段:第一阶段用10天时间回顾AI发展史,帮助你建立对AI技术演进的全局认知;第二阶段用70天时间深入学习核心技术模块,每个模块都有完整的理论讲解和实践项目;第三阶段用20天时间完成综合实战项目,将所学知识融会贯通。这种设计确保学习者既能把握宏观方向,又能掌握具体技能。
通过本特训营的学习,你将理解AI技术发展历程和趋势,掌握LLM、RAG、Agent、MCP、Skills等核心技术,能够独立开发AI应用,并具备AI产品化能力。无论你是零基础AI学习者、想转行AI的工程师、AI应用开发者、AI产品经理还是AI研究者,都能在本特训营中找到适合自己的学习路径。
参加本特训营需要具备Python编程基础、基本的数学知识(线性代数、概率论)以及了解基本的机器学习概念。这些前置知识将帮助你更好地理解课程内容,但即使某些方面有所欠缺,也可以在学习过程中逐步补充。
第一阶段:AI发展史(10天)
人工智能的发展历程是一部充满智慧与挑战的史诗。从1950年图灵提出"机器能否思考"的哲学命题,到2025年AI Agent爆发元年,这75年间AI技术经历了多次起伏与突破。了解这段历史,不仅能帮助你理解当前AI技术的来龙去脉,更能让你洞察未来发展的方向。
第一阶段为期10天,将带领你穿越时空,见证AI从概念诞生到技术爆发的完整历程。你将从图灵测试和达特茅斯会议出发,了解AI的起源与早期发展;穿越机器学习时代,理解统计学习方法如何改变了AI的发展轨迹;见证深度学习革命,感受AlphaGo战胜人类棋手的历史性时刻;探索Transformer与大语言模型的崛起,理解GPT系列如何改变了自然语言处理;体验生成式AI的爆发,感受ChatGPT带来的震撼;追踪AI Agent的兴起,理解从"助手"到"操盘手"的质变;最后展望AI现状与未来,把握技术发展的脉搏。
| 天数 | 主题 | 核心内容 |
|---|---|---|
| 第1天 | AI起源与早期发展(1950-1980) | 图灵测试、符号主义AI、专家系统 |
| 第2天 | 机器学习时代(1980-2010) | 统计学习方法、SVM、决策树 |
| 第3天 | 深度学习革命(2010-2017) | CNN、RNN、LSTM、AlphaGo |
| 第4天 | Transformer与大语言模型(2017-2022) | Transformer、BERT、GPT系列 |
| 第5天 | 生成式AI爆发(2022-2023) | ChatGPT、AIGC、Prompt Engineering |
| 第6天 | AI Agent兴起(2023-2024) | LangChain、AutoGPT、RAG |
| 第7天 | MCP协议发布(2024年底) | Model Context Protocol详解 |
| 第8天 | Skills标准发布(2025年) | Anthropic Skills标准 |
| 第9天 | AI Agent爆发元年(2025) | 从"助手"到"操盘手"的质变 |
| 第10天 | AI现状与未来(2025-2026) | 推理模型、新形态Agent、未来趋势 |
第二阶段:核心技术模块(70天)
第二阶段是特训营的核心部分,为期70天,涵盖9个核心技术模块。每个模块都经过精心设计,既有深入的理论讲解,又有丰富的实践项目。这种"理论+实践"的学习方式,能帮助你真正掌握技术本质,而不是停留在表面理解。
模块1:大语言模型基础(8天)
大语言模型(LLM)是当前AI技术的核心引擎,理解LLM的原理和应用是学习AI的第一步。本模块将从Transformer架构出发,深入讲解Self-Attention机制、位置编码等核心概念,帮助你理解LLM为什么能够理解和生成自然语言。
在主流模型对比部分,你将深入了解GPT、BERT、T5、LLaMA、PaLM、Gemini等架构的设计理念和适用场景。国内大模型方面,文心一言、通义千问、混元、豆包、GLM、Kimi、DeepSeek、Yi等各具特色,你将学会如何根据实际需求选择合适的模型。在API开发实战中,你将亲手开发一个LLM API封装库,实现流式输出和Function Calling等高级功能。Prompt Engineering是使用LLM的关键技能,你将掌握Few-shot Learning、Chain of Thought等技术,学会如何让模型输出更准确、更有用的结果。最后,通过智能问答系统项目,将所学知识付诸实践。
| 天数 | 主题 | 核心内容 | 实践 |
|---|---|---|---|
| 第11天 | LLM原理与架构 | Transformer、Self-Attention、位置编码 | 从零实现Self-Attention |
| 第12天 | 主流LLM架构对比 | GPT、BERT、T5、LLaMA、PaLM、Gemini | 对比不同模型的输出 |
| 第13天 | 国内大模型详解 | 文心一言、通义千问、混元、豆包、GLM、Kimi、DeepSeek、Yi | 调用5个国内模型API对比 |
| 第14天 | 国外大模型详解 | GPT-4、Claude、Gemini、Llama、Mistral | 调用3个国外模型API对比 |
| 第15天 | LLM API开发实战 | API调用、流式输出、Function Calling | 开发LLM API封装库 |
| 第16天 | Prompt Engineering | Prompt设计、Few-shot、CoT | 优化Prompt提升任务效果 |
| 第17天 | LLM评估与选择 | 评估指标、基准测试、成本分析 | 评估3个模型在特定任务上的表现 |
| 第18天 | LLM模块总结与项目 | 知识点回顾、技术选型 | 实战项目:智能问答系统 |
模块2:MCP协议开发(8天)
MCP(Model Context Protocol)是Anthropic于2024年底推出的标准化协议,旨在解决AI模型与外部工具之间的交互问题。这个协议的出现,标志着AI应用开发进入了一个新的阶段——开发者可以通过统一的标准,让AI模型调用各种外部工具和服务,大大扩展了AI的能力边界。
本模块将深入解析MCP协议的设计理念和核心概念,带你理解Server、Client、Resource、Tool等关键组件。在实践环节,你将从零开始开发一个MCP Server,学习如何定义资源和工具、处理请求、返回结果。随后,你将开发MCP Client,学习如何连接Server、发现工具、调用工具。最后,你将把开发的MCP Server集成到Claude Desktop中,体验MCP协议的实际应用。通过文件操作MCP工具项目,你将完整掌握MCP开发的全部流程。
| 天数 | 主题 | 核心内容 | 实践 |
|---|---|---|---|
| 第19天 | MCP协议深度解析 | MCP协议标准、架构设计 | 分析MCP协议规范 |
| 第20天 | MCP Server开发基础 | Server架构、资源定义、工具定义 | 开发简单MCP Server |
| 第21天 | MCP工具开发 | 工具定义、参数验证、错误处理 | 开发MCP工具集 |
| 第22天 | MCP资源管理 | 资源定义、资源访问、权限控制 | 实现MCP资源管理 |
| 第23天 | MCP Client开发 | Client架构、Server连接、工具调用 | 开发MCP Client |
| 第24天 | MCP与Claude Desktop集成 | Claude Desktop配置、MCP Server注册 | 将MCP Server集成到Claude Desktop |
| 第25天 | MCP生态与工具 | 主流MCP工具、MCP Server市场 | 调研5个主流MCP工具 |
| 第26天 | MCP模块总结与项目 | 知识点回顾、最佳实践 | 实战项目:文件操作MCP工具 |
模块3:Skills标准开发(8天)
Skills是Anthropic于2025年发布的开放标准,采用文档驱动的方式定义AI能力。与MCP协议不同,Skills更加强调能力的声明和发现,让AI系统能够自动理解和使用各种技能。这种设计理念代表了AI应用开发的最新趋势——从"硬编码"到"声明式"的转变。
本模块将深入解析Skills标准规范,理解skill.md文件的结构和编写方式。你将学习Skills与MCP、SubAgent的区别和联系,理解它们各自的适用场景和协同使用方式。在实践环节,你将从编写简单的skill.md开始,逐步掌握Skills开发的核心技能。通过实现Skills能力发现机制,你将理解AI系统如何自动发现和加载技能。最后,通过Skills工具集项目,你将开发一套可复用的Skills库。
| 天数 | 主题 | 核心内容 | 实践 |
|---|---|---|---|
| 第27天 | Skills标准深度解析 | skill.md规范、目录结构、能力发现 | 分析Skills标准规范 |
| 第28天 | Skills vs MCP vs SubAgent | 三者区别、应用场景、协同使用 | 对比分析三者应用场景 |
| 第29天 | Skills开发基础 | Skills目录结构、skill.md编写 | 开发简单Skill |
| 第30天 | Skills文档驱动开发 | 文档驱动开发理念、Markdown结构化 | 编写专业的skill.md |
| 第31天 | Skills能力发现 | 能力定义、动态加载、技能注册 | 实现Skills能力发现机制 |
| 第32天 | Skills最佳实践 | Skills设计原则、技能组合、技能复用 | 开发可复用的Skills库 |
| 第33天 | Skills生态与市场 | GitHub上的Skills项目、Skills市场 | 调研10个主流Skills |
| 第34天 | Skills模块总结与项目 | 知识点回顾、最佳实践 | 实战项目:Skills工具集 |
模块4:AI Agent开发(10天)
AI Agent是当前AI应用的核心形态,它能够自主感知环境、制定计划、执行行动,并与人类进行自然交互。从简单的对话助手到复杂的多Agent协作系统,Agent技术正在重新定义人机交互的方式。2025年被称为"AI Agent爆发元年",各种Agent产品如雨后春笋般涌现,从"助手"角色向"操盘手"角色转变。
本模块将系统讲解Agent的核心概念和架构,包括感知模块、规划模块、行动模块和记忆模块。你将深入理解ReAct框架的工作原理,学会如何让Agent进行推理和行动。在框架实践环节,你将学习LangChain这一主流AI应用开发框架,掌握Chains、Tools、Agents等核心概念。AutoGPT和BabyAGI代表了自主Agent的发展方向,你将理解它们的设计理念和实现方式。SubAgent(子智能体)是处理复杂任务的关键技术,你将学习如何设计和实现多Agent协作系统。最后,通过个人助理Agent项目,你将亲手开发一个能够管理日程、处理邮件、查询信息的智能助理。
| 天数 | 主题 | 核心内容 | 实践 |
|---|---|---|---|
| 第35天 | Agent基础概念 | Agent定义、架构、核心组件 | 理解Agent架构 |
| 第36天 | Agent感知与规划 | 感知模块、规划模块、ReAct框架 | 实现Agent感知与规划 |
| 第37天 | Agent行动与记忆 | 行动模块、记忆模块、反思评估 | 实现Agent行动与记忆 |
| 第38天 | LangChain框架(上) | LangChain核心概念、Chains、Prompts | 使用LangChain构建简单Chain |
| 第39天 | LangChain框架(下) | 自定义Tool、自定义Agent、LangGraph | 开发自定义Tool |
| 第40天 | AutoGPT与BabyAGI | AutoGPT原理、任务分解与执行 | 使用AutoGPT框架 |
| 第41天 | SubAgent(子智能体) | SubAgent概念、多Agent架构、协作模式 | 实现SubAgent系统 |
| 第42天 | Agent记忆系统 | 记忆类型、记忆管理、向量记忆 | 实现Agent记忆 |
| 第43天 | Agent反思与评估 | 反思机制、自我评估、错误纠正 | 实现Agent反思机制 |
| 第44天 | Agent模块总结与项目 | 知识点回顾、设计模式 | 实战项目:个人助理Agent |
模块5:RAG技术(7天)
RAG(Retrieval-Augmented Generation,检索增强生成)是解决大语言模型知识局限性的关键技术。通过将外部知识库与大语言模型结合,RAG技术让AI系统能够访问和利用最新的、特定领域的知识,大大提升了回答的准确性和可靠性。在企业应用中,RAG已经成为构建知识库问答系统的首选方案。
本模块将从RAG的基本原理出发,讲解检索增强生成的完整流程。向量数据库是RAG系统的核心组件,你将学习向量表示、相似度计算、向量索引等核心概念,并对比Chroma、FAISS、Milvus、Pinecone等主流向量数据库的特点和适用场景。文档处理是RAG系统的前端环节,你将学习如何解析PDF、Word、Markdown等格式的文档,如何进行文本切片,如何管理元数据。检索优化是提升RAG系统性能的关键,你将学习各种检索策略、查询扩展技术和上下文优化方法。最后,通过企业知识库问答系统项目,你将完整实现一个RAG应用。
| 天数 | 主题 | 核心内容 | 实践 |
|---|---|---|---|
| 第45天 | RAG原理与架构 | RAG概念、检索增强生成流程 | 理解RAG工作流程 |
| 第46天 | 向量数据库基础 | 向量表示、相似度计算、向量索引 | 使用Chroma创建向量库 |
| 第47天 | 向量数据库对比 | Chroma、FAISS、Milvus、Pinecone | 对比3个向量数据库 |
| 第48天 | 文档处理与切片 | 文档解析、文本切片、元数据管理 | 实现文档处理流水线 |
| 第49天 | 检索优化 | 检索策略、查询扩展、上下文优化 | 优化检索准确率 |
| 第50天 | RAG高级技术 | 多轮对话RAG、多模态RAG、知识图谱RAG | 实现多轮对话RAG |
| 第51天 | RAG模块总结与项目 | 知识点回顾、最佳实践 | 实战项目:企业知识库问答系统 |
模块6:大模型微调(6天)
大模型微调是让通用大语言模型适应特定领域和任务的关键技术。通过微调,可以让模型学习特定领域的知识和表达方式,显著提升在特定任务上的表现。LoRA和QLoRA等参数高效微调技术的出现,大大降低了微调的计算成本,使得个人开发者也能进行模型微调。
本模块将深入讲解微调的原理和方法,对比微调与预训练的区别。你将学习PEFT(Parameter-Efficient Fine-Tuning)技术,理解LoRA如何通过低秩适配实现高效微调,QLoRA如何通过量化进一步降低显存需求。数据准备是微调成功的关键,你将学习如何收集、清洗、标注和格式化微调数据。在训练环节,你将学习训练配置、超参数调优和训练监控。部署环节将讲解模型导出、推理框架选择和API服务搭建。最后,通过垂直领域问答模型项目,你将亲手微调一个特定领域的模型。
| 天数 | 主题 | 核心内容 | 实践 |
|---|---|---|---|
| 第52天 | 微调原理 | 微调vs预训练、PEFT、LoRA原理 | 理解微调流程 |
| 第53天 | LoRA与QLoRA | LoRA原理、QLoRA原理、量化技术 | 使用LoRA微调模型 |
| 第54天 | 微调数据准备 | 数据收集、清洗、标注、格式化 | 准备微调数据集 |
| 第55天 | 模型训练与评估 | 训练配置、超参数调优、训练监控 | 训练并评估模型 |
| 第56天 | 模型部署 | 模型导出、推理框架、API服务 | 部署微调模型 |
| 第57天 | 微调模块总结与项目 | 知识点回顾、最佳实践 | 实战项目:垂直领域问答模型 |
模块7:AI应用部署(6天)
将AI模型部署到生产环境是AI应用开发的最后一步,也是最容易被忽视的环节。一个成功的AI应用不仅需要优秀的模型,还需要高效的推理服务、可靠的监控系统和合理的成本控制。本模块将系统讲解AI应用部署的各个方面,帮助你将模型转化为可用的产品。
模型量化是降低推理成本的重要手段,你将学习GPTQ、AWQ、GGUF等主流量化技术的原理和应用场景。推理加速是提升服务性能的关键,vLLM、TGI、TensorRT-LLM等框架各有特点,你将学会根据实际需求选择合适的方案。边缘部署让AI应用能够运行在资源受限的设备上,你将学习ONNX Runtime、OpenVINO等边缘推理框架。云服务部署是AI应用的主流方式,你将了解AWS、Azure、阿里云、腾讯云等平台的AI服务。监控与优化是保证服务稳定运行的关键,你将学习性能监控、成本优化和负载均衡技术。最后,通过高并发LLM服务项目,你将搭建一个生产级的AI推理服务。
| 天数 | 主题 | 核心内容 | 实践 |
|---|---|---|---|
| 第58天 | 模型量化 | 量化原理、GPTQ、AWQ、GGUF | 量化模型 |
| 第59天 | 推理加速 | vLLM、TGI、TensorRT-LLM | 使用vLLM部署模型 |
| 第60天 | 边缘部署 | ONNX Runtime、OpenVINO、移动端部署 | 边缘部署模型 |
| 第61天 | 云服务部署 | AWS、Azure、阿里云、腾讯云 | 云服务部署 |
| 第62天 | 监控与优化 | 性能监控、成本优化、负载均衡 | 实现监控系统 |
| 第63天 | 部署模块总结与项目 | 知识点回顾、最佳实践 | 实战项目:高并发LLM服务 |
模块8:AI安全与伦理(4天)
AI技术的快速发展带来了前所未有的机遇,同时也带来了安全风险和伦理挑战。Prompt注入攻击可以让AI系统泄露敏感信息,对抗样本可以欺骗AI模型做出错误判断,数据泄露可能导致用户隐私被侵犯。作为AI从业者,理解这些风险并掌握防护技术是必不可少的职业素养。
本模块将系统讲解AI安全的基础知识,包括Prompt注入、对抗样本、数据泄露等常见攻击方式。你将学习输入过滤、输出过滤、对抗训练等防护技术,亲手测试和防御各种攻击。AI伦理是另一个重要话题,你将了解AI偏见、公平性、透明性、可解释性等概念,学会评估模型的伦理风险。合规与治理是AI应用必须面对的现实问题,你将了解国内外的AI法规,学习数据隐私保护的最佳实践,掌握AI治理框架的设计方法。
| 天数 | 主题 | 核心内容 | 实践 |
|---|---|---|---|
| 第64天 | AI安全基础 | Prompt注入、对抗样本、数据泄露 | 测试Prompt注入 |
| 第65天 | AI防护技术 | 输入过滤、输出过滤、对抗训练 | 实现安全过滤 |
| 第66天 | AI伦理 | AI偏见、公平性、透明性、可解释性 | 评估模型偏见 |
| 第67天 | 合规与治理 | AI法规、数据隐私、AI治理框架 | 设计AI治理方案 |
模块9:国内外平台深度对比(5天)
国内外AI平台百花齐放,各有特色。选择合适的平台是AI应用开发的重要决策,需要综合考虑性能、价格、功能、易用性等多个维度。本模块将深度对比国内外主流AI平台,帮助你做出明智的选择。
国内平台方面,文心一言依托百度的知识图谱优势,在中文理解和知识问答方面表现出色;通义千问提供多种尺寸的模型,满足不同场景的需求;混元是腾讯推出的多模态大模型,支持文本、图像等多种输入;豆包是字节跳动推出的对话模型,在对话体验上做了大量优化;GLM是智谱AI自研的模型架构,在开源社区有良好口碑;Kimi以超长上下文著称,能够处理数十万字的文档;DeepSeek采用MoE架构,在代码生成方面表现优异;Yi是零一万物推出的模型,对开发者友好。
国外平台方面,GPT系列是OpenAI的旗舰产品,生成能力强,生态完善;Claude系列是Anthropic的产品,注重安全性和有用性;Gemini是Google推出的多模态模型,与Google生态深度整合;Llama系列是Meta开源的模型,社区活跃,生态丰富;Mistral以高效著称,在资源受限场景下表现优异。
| 天数 | 主题 | 核心内容 | 实践 |
|---|---|---|---|
| 第68天 | 国内平台深度对比(上) | 文心一言、通义千问、混元、豆包 | 深度测试4个平台 |
| 第69天 | 国内平台深度对比(下) | GLM、Kimi、DeepSeek、Yi | 深度测试4个平台 |
| 第70天 | 国外平台深度对比 | GPT、Claude、Gemini、Llama | 深度测试4个平台 |
| 第71天 | 多维度对比分析 | 性能、价格、功能、易用性对比 | 生成对比报告 |
| 第72天 | 平台选型指南 | 应用场景、技术需求、成本预算分析 | 为特定场景选择平台 |
第三阶段:综合实战项目(20天)
第三阶段是特训营的收官阶段,通过5个完整项目将所学知识融会贯通。这些项目涵盖了AI应用的主要场景,从智能客服到个人助理,从企业知识库到代码助手,每个项目都代表了一类典型的AI应用。通过这些项目,你将不仅掌握技术实现,更会理解产品设计和工程实践。
项目1:智能客服系统(5天)
智能客服是AI技术最广泛的应用场景之一。一个优秀的智能客服系统需要理解用户意图、检索相关知识、生成准确回答,并能处理复杂的多轮对话。本项目将综合运用LLM、RAG、Agent等技术,构建一个完整的智能客服解决方案。
项目从需求分析开始,你将学习如何梳理业务需求、确定技术选型、设计系统架构。后端开发分为两部分:第一部分实现API设计、LLM集成和RAG检索;第二部分实现Agent集成、记忆系统和工具调用。前端开发将构建对话界面和管理后台,提供良好的用户体验。最后,通过Docker部署和性能优化,将系统推向生产环境。
| 天数 | 主题 | 核心内容 | 技术栈 |
|---|---|---|---|
| 第73天 | 需求分析与架构设计 | 需求分析、技术选型、架构设计 | LLM + RAG + Agent |
| 第74天 | 后端开发(上) | API设计、LLM集成、RAG实现 | Python + FastAPI |
| 第75天 | 后端开发(下) | Agent集成、记忆系统、工具调用 | LangChain |
| 第76天 | 前端开发 | 界面设计、对话组件、管理后台 | React + Ant Design |
| 第77天 | 部署与优化 | Docker部署、性能优化、监控告警 | Docker + Nginx |
项目2:个人助理Agent(4天)
个人助理Agent代表了AI应用的未来方向——一个能够理解你的需求、帮你处理各种事务的智能助手。本项目将综合运用Agent、Skills、MCP等技术,构建一个功能丰富的个人助理。
项目将实现日程管理、邮件处理、信息查询等核心功能,以及任务提醒、智能推荐等高级功能。通过SubAgent协作,助理能够处理更复杂的任务。最终,助理将集成到微信小程序中,让你随时随地都能使用。
| 天数 | 主题 | 核心内容 | 技术栈 |
|---|---|---|---|
| 第78天 | 需求分析与架构设计 | 功能需求、技术选型、架构设计 | Agent + Skills + MCP |
| 第79天 | 核心功能开发 | 日程管理、邮件处理、信息查询 | LangChain + MCP |
| 第80天 | 高级功能开发 | 任务提醒、智能推荐、SubAgent协作 | Skills |
| 第81天 | 集成与部署 | 第三方集成、微信小程序、部署上线 | 微信小程序 |
项目3:企业知识库(4天)
企业知识库是RAG技术的典型应用场景。通过将企业的文档、手册、规章制度等知识向量化存储,员工可以用自然语言提问,快速获取所需信息。本项目将构建一个完整的企业知识库系统。
项目从需求分析开始,设计文档处理、向量化存储、检索问答的完整流程。文档处理系统支持多种格式的文档上传和解析,向量化存储使用Chroma作为向量数据库。问答系统实现检索、生成、引用展示的完整流程。管理后台提供文档管理和数据统计功能。
| 天数 | 主题 | 核心内容 | 技术栈 |
|---|---|---|---|
| 第82天 | 需求分析与架构设计 | 需求分析、技术选型、架构设计 | RAG + 向量数据库 |
| 第83天 | 文档处理系统 | 文档上传、文档解析、向量化存储 | Chroma + Unstructured |
| 第84天 | 问答系统 | 检索系统、问答生成、引用展示 | LangChain |
| 第85天 | 管理后台与部署 | 文档管理、数据统计、部署上线 | React + Ant Design |
项目4:代码助手系统(3天)
代码助手是开发者最期待的AI应用之一。一个优秀的代码助手能够理解代码上下文、生成代码片段、审查代码质量、修复Bug。本项目将综合运用LLM、MCP、Code Interpreter等技术,构建一个实用的代码助手。
项目将实现代码生成、代码审查、Bug修复等核心功能,并通过VS Code插件的形式提供便捷的开发体验。MCP协议让助手能够访问文件系统、执行代码、调用开发工具。
| 天数 | 主题 | 核心内容 | 技术栈 |
|---|---|---|---|
| 第86天 | 需求分析与架构设计 | 功能需求、技术选型、架构设计 | LLM + MCP + Code Interpreter |
| 第87天 | 核心功能开发 | 代码生成、代码审查、Bug修复 | LangChain + MCP |
| 第88天 | 插件开发与部署 | IDE插件、MCP集成、部署发布 | VS Code Extension |
项目5:智能文档分析(2天)
智能文档分析是AI在办公场景的重要应用。通过OCR识别文档内容,结合LLM进行信息提取和摘要生成,大大提升文档处理效率。本项目将构建一个端到端的文档分析系统。
项目将实现文档上传、OCR识别、信息提取、摘要生成的完整流程,并通过Web界面提供便捷的操作体验。
| 天数 | 主题 | 核心内容 | 技术栈 |
|---|---|---|---|
| 第89天 | 需求分析与架构设计 | 功能需求、技术选型、架构设计 | LLM + OCR + RAG |
| 第90天 | 核心功能开发与部署 | 文档解析、信息提取、摘要生成 | Python + FastAPI + React |
核心技术栈
本特训营涉及的技术栈覆盖了AI应用开发的各个环节。在大语言模型方面,我们既关注开源模型如Llama、Qwen、GLM、DeepSeek、Yi,也深入讲解国外平台如OpenAI GPT、Anthropic Claude、Google Gemini,以及国内平台如文心一言、通义千问、混元、豆包、Kimi等。
AI框架是开发AI应用的基础设施。LangChain以80k+的GitHub star数成为最受欢迎的AI应用开发框架,它提供了Chains、Tools、Agents等核心抽象;LlamaIndex专注于数据连接和索引构建;AutoGPT代表了自主Agent的发展方向;Microsoft AutoGen则提供了多Agent协作的解决方案。
MCP生态正在快速发展。Anthropic官方提供的MCP SDK是开发MCP Server和Client的标准工具;丰富的MCP Servers生态让AI能够访问各种外部工具和服务;Claude Desktop作为支持MCP的AI助手,是体验MCP功能的最佳平台。
Skills生态代表了AI能力定义的最新方向。Anthropic Skills是官方的Skills标准,采用文档驱动的方式定义能力;Skills Marketplace提供了技能分享和发现的平台;GitHub上越来越多的开源Skills项目正在丰富这个生态。
向量数据库是RAG系统的核心组件。Chroma以轻量级著称,适合快速原型开发;FAISS是Meta开源的向量搜索库,性能优异;Milvus是云原生向量数据库,适合大规模生产环境;Pinecone提供了托管的向量数据库服务,降低了运维成本。
推理框架决定了AI应用的性能和成本。vLLM以高性能著称,支持PagedAttention等优化技术;TGI是Hugging Face推出的推理框架,与模型生态深度整合;Ollama让本地运行大语言模型变得简单,是个人开发者的首选。
开发工具方面,Hugging Face是模型和数据集的宝库,拥有130k+的GitHub star;Gradio和Streamlit都提供了快速构建机器学习应用的能力,让开发者能够专注于核心逻辑。
学习路径推荐
不同的学习者有不同的背景和目标,因此我们提供了多条学习路径供选择。
如果你是AI应用开发者,希望快速上手,建议按照以下路径学习:先完成第1-10天的AI发展史,建立全局认知;然后学习第11-18天的大语言模型基础,掌握LLM的使用方法;接着学习第45-51天的RAG技术,理解知识检索增强;再学习第35-44天的AI Agent开发,掌握Agent的设计和实现;最后完成第73-77天的智能客服系统项目,将所学知识付诸实践。
如果你是AI工程师,希望深入技术,建议按照以下路径学习:先完成第1-10天的AI发展史;然后学习第35-44天的AI Agent开发;接着学习第19-26天的MCP协议开发和第27-34天的Skills标准开发;再学习第45-51天的RAG技术;最后完成第78-81天的个人助理Agent项目。
如果你是AI产品经理,关注产品导向,建议按照以下路径学习:先完成第1-10天的AI发展史;然后学习第11-18天的大语言模型基础;接着学习第68-72天的国内外平台对比;再完成第73-77天的智能客服系统项目;最后学习第64-67天的AI安全与伦理。
如果你是AI研究者,关注前沿探索,建议按照以下路径学习:先完成第1-10天的AI发展史;然后学习第52-57天的大模型微调;接着学习第45-51天的RAG技术;再学习第35-44天的AI Agent开发;最后完成第86-88天的代码助手系统项目。
学习建议
学习节奏对于掌握知识至关重要。建议每天投入3-5小时,其中理论学习1-2小时,实践操作2-3小时。每周安排时间复习本周内容,巩固所学知识。每个模块完成后,务必完成对应的实践项目,将知识转化为能力。
学习顺序方面,建议按照天数顺序循序渐进地学习,打好基础。每个模块应该完整学习后再进入下一个模块,避免知识碎片化。项目阶段可以根据自己的兴趣选择1-2个完整项目深入实践。
实践是学习AI技术的关键。每天的实践任务必须完成,理论只有通过实践才能真正理解。每个模块的项目是巩固知识的重要环节,不能跳过。最终阶段至少要完成2个完整项目,才能说真正掌握了所学内容。
工具选择方面,建议优先选择开源工具,便于学习和定制。关注GitHub star数,选择社区活跃的工具。查看项目的维护状态,选择还在持续更新的工具。考虑文档质量,选择文档完善的工具,可以大大降低学习成本。
特训营特色
本特训营采用"总-分-总"的学习模式,这是认知科学研究成果的实践应用。第一阶段建立全局认知框架,让你知道"AI是什么、从哪里来、到哪里去";第二阶段深入各个技术模块,让你掌握"AI怎么做";第三阶段通过综合项目,让你理解"AI用来做什么"。
课程内容紧跟时代潮流。MCP协议是Anthropic 2024年底推出的标准化协议,代表了AI工具交互的最新方向;Skills标准是Anthropic 2025年发布的开放标准,代表了AI能力定义的最新趋势;SubAgent技术让复杂任务的拆解和协作成为可能;2025年被称为"AI Agent爆发元年",各种Agent产品正在改变人机交互的方式;o1、DeepSeek R1等推理模型的出现,标志着AI推理能力的重大突破;Manus等新形态Agent产品,展示了AI应用的无限可能。
开源优先是本特训营的另一个特色。所有推荐工具优先选择开源项目,关注GitHub star数和活跃度,选择还在维护的项目。这样既能降低学习成本,又能深入理解技术原理。
实用性导向贯穿整个特训营。每天都有实践任务,每个模块都有实战项目,最终阶段有5个完整项目。通过大量的实践,你将真正掌握AI应用开发的能力。
国内外对比是本特训营的独特价值。我们深度对比国内外平台,从性能、价格、功能、易用性等多个维度进行分析,帮助你做出明智的技术选型决策。
常见问题
零基础可以学习吗?
可以。特训营从AI发展史开始,循序渐进,适合零基础学习者。不过,建议在学习过程中补充Python编程和基础数学知识。
需要什么前置知识?
需要Python编程基础、基本的数学知识(线性代数、概率论)、了解基本的机器学习概念。这些知识可以在学习过程中逐步补充。
每天需要多长时间?
建议每天3-5小时,理论1-2小时,实践2-3小时。如果时间有限,可以适当延长学习周期。
必须按顺序学习吗?
建议按顺序学习,但可以根据自己的基础和兴趣调整。如果某些内容已经掌握,可以快速浏览或跳过。
项目必须全部完成吗?
每个模块的项目建议完成,这是巩固知识的重要环节。最终阶段至少完成2个完整项目。
工具必须用特训营推荐的吗?
不一定。特训营推荐的是主流、开源、活跃的工具,你可以根据实际情况选择。重要的是理解技术原理,而不是拘泥于特定工具。
开始学习
点击上方链接开始学习90天AI全栈特训营!建议从第1天开始,循序渐进地学习。
祝你学习愉快!
