Appearance
AI课程模块介绍
模块概述
本AI课程包含9个核心模块,每个模块都专注于特定的AI技术领域,为学习者提供深入、系统的学习内容。模块之间相互关联,形成完整的AI学习体系。课程设计遵循"总-分-总"的学习模式,第一阶段建立全局认知,第二阶段深入技术细节,第三阶段通过综合项目融会贯通。
模块一:大语言模型基础(第11-18天)
大语言模型(LLM)是当前AI技术的核心引擎,理解LLM的原理和应用是学习AI的第一步。本模块从Transformer架构出发,深入讲解Self-Attention机制、位置编码等核心概念,帮助你理解LLM为什么能够理解和生成自然语言。
在主流模型对比部分,你将深入了解GPT、BERT、T5、LLaMA、PaLM、Gemini等架构的设计理念和适用场景。国内大模型方面,文心一言、通义千问、混元、豆包、GLM、Kimi、DeepSeek、Yi等各具特色,你将学会如何根据实际需求选择合适的模型。在API开发实战中,你将亲手开发一个LLM API封装库,实现流式输出和Function Calling等高级功能。Prompt Engineering是使用LLM的关键技能,你将掌握Few-shot Learning、Chain of Thought等技术,学会如何让模型输出更准确、更有用的结果。最后,通过智能问答系统项目,将所学知识付诸实践。
| 天数 | 主题 | 核心内容 |
|---|---|---|
| 第11天 | LLM原理与架构 | Transformer、Self-Attention、位置编码 |
| 第12天 | 主流LLM架构对比 | GPT、BERT、T5、LLaMA、PaLM、Gemini |
| 第13天 | 国内大模型详解 | 文心一言、通义千问、混元、豆包、GLM、Kimi、DeepSeek、Yi |
| 第14天 | 国外大模型详解 | GPT-4、Claude、Gemini、Llama、Mistral |
| 第15天 | LLM API开发实战 | API调用、流式输出、Function Calling |
| 第16天 | Prompt Engineering | Prompt设计、Few-shot、CoT |
| 第17天 | LLM评估与选择 | 评估指标、基准测试、成本分析 |
| 第18天 | LLM模块总结与项目 | 知识点回顾、技术选型、智能问答系统项目 |
模块二:MCP协议开发(第19-26天)
MCP(Model Context Protocol)是Anthropic于2024年底推出的标准化协议,旨在解决AI模型与外部工具之间的交互问题。这个协议的出现,标志着AI应用开发进入了一个新的阶段——开发者可以通过统一的标准,让AI模型调用各种外部工具和服务,大大扩展了AI的能力边界。
本模块深入解析MCP协议的设计理念和核心概念,带你理解Server、Client、Resource、Tool等关键组件。在实践环节,你将从零开始开发一个MCP Server,学习如何定义资源和工具、处理请求、返回结果。随后,你将开发MCP Client,学习如何连接Server、发现工具、调用工具。最后,你将把开发的MCP Server集成到Claude Desktop中,体验MCP协议的实际应用。通过文件操作MCP工具项目,你将完整掌握MCP开发的全部流程。
| 天数 | 主题 | 核心内容 |
|---|---|---|
| 第19天 | MCP协议深度解析 | MCP协议标准、架构设计 |
| 第20天 | MCP Server开发基础 | Server架构、资源定义、工具定义 |
| 第21天 | MCP工具开发 | 工具定义、参数验证、错误处理 |
| 第22天 | MCP资源管理 | 资源定义、资源访问、权限控制 |
| 第23天 | MCP Client开发 | Client架构、Server连接、工具调用 |
| 第24天 | MCP与Claude Desktop集成 | Claude Desktop配置、MCP Server注册 |
| 第25天 | MCP生态与工具 | 主流MCP工具、MCP Server市场 |
| 第26天 | MCP模块总结与项目 | 知识点回顾、最佳实践、文件操作MCP工具项目 |
模块三:Skills标准开发(第27-34天)
Skills是Anthropic于2025年发布的开放标准,采用文档驱动的方式定义AI能力。与MCP协议不同,Skills更加强调能力的声明和发现,让AI系统能够自动理解和使用各种技能。这种设计理念代表了AI应用开发的最新趋势——从"硬编码"到"声明式"的转变。
本模块深入解析Skills标准规范,理解skill.md文件的结构和编写方式。你将学习Skills与MCP、SubAgent的区别和联系,理解它们各自的适用场景和协同使用方式。在实践环节,你将从编写简单的skill.md开始,逐步掌握Skills开发的核心技能。通过实现Skills能力发现机制,你将理解AI系统如何自动发现和加载技能。最后,通过Skills工具集项目,你将开发一套可复用的Skills库。
| 天数 | 主题 | 核心内容 |
|---|---|---|
| 第27天 | Skills标准深度解析 | skill.md规范、目录结构、能力发现 |
| 第28天 | Skills vs MCP vs SubAgent | 三者区别、应用场景、协同使用 |
| 第29天 | Skills开发基础 | Skills目录结构、skill.md编写 |
| 第30天 | Skills文档驱动开发 | 文档驱动开发理念、Markdown结构化 |
| 第31天 | Skills能力发现 | 能力定义、动态加载、技能注册 |
| 第32天 | Skills最佳实践 | Skills设计原则、技能组合、技能复用 |
| 第33天 | Skills生态与市场 | GitHub上的Skills项目、Skills市场 |
| 第34天 | Skills模块总结与项目 | 知识点回顾、最佳实践、Skills工具集项目 |
模块四:AI Agent开发(第35-44天)
AI Agent是当前AI应用的核心形态,它能够自主感知环境、制定计划、执行行动,并与人类进行自然交互。从简单的对话助手到复杂的多Agent协作系统,Agent技术正在重新定义人机交互的方式。2025年被称为"AI Agent爆发元年",各种Agent产品如雨后春笋般涌现,从"助手"角色向"操盘手"角色转变。
本模块系统讲解Agent的核心概念和架构,包括感知模块、规划模块、行动模块和记忆模块。你将深入理解ReAct框架的工作原理,学会如何让Agent进行推理和行动。在框架实践环节,你将学习LangChain这一主流AI应用开发框架,掌握Chains、Tools、Agents等核心概念。AutoGPT和BabyAGI代表了自主Agent的发展方向,你将理解它们的设计理念和实现方式。SubAgent(子智能体)是处理复杂任务的关键技术,你将学习如何设计和实现多Agent协作系统。最后,通过个人助理Agent项目,你将亲手开发一个能够管理日程、处理邮件、查询信息的智能助理。
| 天数 | 主题 | 核心内容 |
|---|---|---|
| 第35天 | Agent基础概念 | Agent定义、架构、核心组件 |
| 第36天 | Agent感知与规划 | 感知模块、规划模块、ReAct框架 |
| 第37天 | Agent行动与记忆 | 行动模块、记忆模块、反思评估 |
| 第38天 | LangChain框架(上) | LangChain核心概念、Chains、Prompts |
| 第39天 | LangChain框架(下) | 自定义Tool、自定义Agent、LangGraph |
| 第40天 | AutoGPT与BabyAGI | AutoGPT原理、任务分解与执行 |
| 第41天 | SubAgent(子智能体) | SubAgent概念、多Agent架构、协作模式 |
| 第42天 | Agent记忆系统 | 记忆类型、记忆管理、向量记忆 |
| 第43天 | Agent反思与评估 | 反思机制、自我评估、错误纠正 |
| 第44天 | Agent模块总结与项目 | 知识点回顾、设计模式、个人助理Agent项目 |
模块五:RAG技术(第45-51天)
RAG(Retrieval-Augmented Generation,检索增强生成)是解决大语言模型知识局限性的关键技术。通过将外部知识库与大语言模型结合,RAG技术让AI系统能够访问和利用最新的、特定领域的知识,大大提升了回答的准确性和可靠性。在企业应用中,RAG已经成为构建知识库问答系统的首选方案。
本模块从RAG的基本原理出发,讲解检索增强生成的完整流程。向量数据库是RAG系统的核心组件,你将学习向量表示、相似度计算、向量索引等核心概念,并对比Chroma、FAISS、Milvus、Pinecone等主流向量数据库的特点和适用场景。文档处理是RAG系统的前端环节,你将学习如何解析PDF、Word、Markdown等格式的文档,如何进行文本切片,如何管理元数据。检索优化是提升RAG系统性能的关键,你将学习各种检索策略、查询扩展技术和上下文优化方法。最后,通过企业知识库问答系统项目,你将完整实现一个RAG应用。
| 天数 | 主题 | 核心内容 |
|---|---|---|
| 第45天 | RAG原理与架构 | RAG概念、检索增强生成流程 |
| 第46天 | 向量数据库基础 | 向量表示、相似度计算、向量索引 |
| 第47天 | 向量数据库对比 | Chroma、FAISS、Milvus、Pinecone |
| 第48天 | 文档处理与切片 | 文档解析、文本切片、元数据管理 |
| 第49天 | 检索优化 | 检索策略、查询扩展、上下文优化 |
| 第50天 | RAG高级技术 | 多轮对话RAG、多模态RAG、知识图谱RAG |
| 第51天 | RAG模块总结与项目 | 知识点回顾、最佳实践、企业知识库问答系统项目 |
模块六:大模型微调(第52-57天)
大模型微调是让通用大语言模型适应特定领域和任务的关键技术。通过微调,可以让模型学习特定领域的知识和表达方式,显著提升在特定任务上的表现。LoRA和QLoRA等参数高效微调技术的出现,大大降低了微调的计算成本,使得个人开发者也能进行模型微调。
本模块深入讲解微调的原理和方法,对比微调与预训练的区别。你将学习PEFT(Parameter-Efficient Fine-Tuning)技术,理解LoRA如何通过低秩适配实现高效微调,QLoRA如何通过量化进一步降低显存需求。数据准备是微调成功的关键,你将学习如何收集、清洗、标注和格式化微调数据。在训练环节,你将学习训练配置、超参数调优和训练监控。部署环节将讲解模型导出、推理框架选择和API服务搭建。最后,通过垂直领域问答模型项目,你将亲手微调一个特定领域的模型。
| 天数 | 主题 | 核心内容 |
|---|---|---|
| 第52天 | 微调原理 | 微调vs预训练、PEFT、LoRA原理 |
| 第53天 | LoRA与QLoRA | LoRA原理、QLoRA原理、量化技术 |
| 第54天 | 微调数据准备 | 数据收集、清洗、标注、格式化 |
| 第55天 | 模型训练与评估 | 训练配置、超参数调优、训练监控 |
| 第56天 | 模型部署 | 模型导出、推理框架、API服务 |
| 第57天 | 微调模块总结与项目 | 知识点回顾、最佳实践、垂直领域问答模型项目 |
模块七:AI应用部署(第58-63天)
将AI模型部署到生产环境是AI应用开发的最后一步,也是最容易被忽视的环节。一个成功的AI应用不仅需要优秀的模型,还需要高效的推理服务、可靠的监控系统和合理的成本控制。本模块系统讲解AI应用部署的各个方面,帮助你将模型转化为可用的产品。
模型量化是降低推理成本的重要手段,你将学习GPTQ、AWQ、GGUF等主流量化技术的原理和应用场景。推理加速是提升服务性能的关键,vLLM、TGI、TensorRT-LLM等框架各有特点,你将学会根据实际需求选择合适的方案。边缘部署让AI应用能够运行在资源受限的设备上,你将学习ONNX Runtime、OpenVINO等边缘推理框架。云服务部署是AI应用的主流方式,你将了解AWS、Azure、阿里云、腾讯云等平台的AI服务。监控与优化是保证服务稳定运行的关键,你将学习性能监控、成本优化和负载均衡技术。最后,通过高并发LLM服务项目,你将搭建一个生产级的AI推理服务。
| 天数 | 主题 | 核心内容 |
|---|---|---|
| 第58天 | 模型量化 | 量化原理、GPTQ、AWQ、GGUF |
| 第59天 | 推理加速 | vLLM、TGI、TensorRT-LLM |
| 第60天 | 边缘部署 | ONNX Runtime、OpenVINO、移动端部署 |
| 第61天 | 云服务部署 | AWS、Azure、阿里云、腾讯云 |
| 第62天 | 监控与优化 | 性能监控、成本优化、负载均衡 |
| 第63天 | 部署模块总结与项目 | 知识点回顾、最佳实践、高并发LLM服务项目 |
模块八:AI安全与伦理(第64-67天)
AI技术的快速发展带来了前所未有的机遇,同时也带来了安全风险和伦理挑战。Prompt注入攻击可以让AI系统泄露敏感信息,对抗样本可以欺骗AI模型做出错误判断,数据泄露可能导致用户隐私被侵犯。作为AI从业者,理解这些风险并掌握防护技术是必不可少的职业素养。
本模块系统讲解AI安全的基础知识,包括Prompt注入、对抗样本、数据泄露等常见攻击方式。你将学习输入过滤、输出过滤、对抗训练等防护技术,亲手测试和防御各种攻击。AI伦理是另一个重要话题,你将了解AI偏见、公平性、透明性、可解释性等概念,学会评估模型的伦理风险。合规与治理是AI应用必须面对的现实问题,你将了解国内外的AI法规,学习数据隐私保护的最佳实践,掌握AI治理框架的设计方法。
| 天数 | 主题 | 核心内容 |
|---|---|---|
| 第64天 | AI安全基础 | Prompt注入、对抗样本、数据泄露 |
| 第65天 | AI防护技术 | 输入过滤、输出过滤、对抗训练 |
| 第66天 | AI伦理 | AI偏见、公平性、透明性、可解释性 |
| 第67天 | 合规与治理 | AI法规、数据隐私、AI治理框架 |
模块九:国内外平台深度对比(第68-72天)
国内外AI平台百花齐放,各有特色。选择合适的平台是AI应用开发的重要决策,需要综合考虑性能、价格、功能、易用性等多个维度。本模块深度对比国内外主流AI平台,帮助你做出明智的选择。
国内平台方面,文心一言依托百度的知识图谱优势,在中文理解和知识问答方面表现出色;通义千问提供多种尺寸的模型,满足不同场景的需求;混元是腾讯推出的多模态大模型,支持文本、图像等多种输入;豆包是字节跳动推出的对话模型,在对话体验上做了大量优化;GLM是智谱AI自研的模型架构,在开源社区有良好口碑;Kimi以超长上下文著称,能够处理数十万字的文档;DeepSeek采用MoE架构,在代码生成方面表现优异;Yi是零一万物推出的模型,对开发者友好。
国外平台方面,GPT系列是OpenAI的旗舰产品,生成能力强,生态完善;Claude系列是Anthropic的产品,注重安全性和有用性;Gemini是Google推出的多模态模型,与Google生态深度整合;Llama系列是Meta开源的模型,社区活跃,生态丰富;Mistral以高效著称,在资源受限场景下表现优异。
| 天数 | 主题 | 核心内容 |
|---|---|---|
| 第68天 | 国内平台深度对比(上) | 文心一言、通义千问、混元、豆包 |
| 第69天 | 国内平台深度对比(下) | GLM、Kimi、DeepSeek、Yi |
| 第70天 | 国外平台深度对比 | GPT、Claude、Gemini、Llama |
| 第71天 | 多维度对比分析 | 性能、价格、功能、易用性对比 |
| 第72天 | 平台选型指南 | 应用场景、技术需求、成本预算分析 |
模块关系与学习路径
本课程的9个模块之间存在明确的递进关系。大语言模型基础模块是整个课程的基础,它帮助你理解LLM的核心原理和使用方法。MCP协议开发和Skills标准开发模块是工具集成能力的培养,让你能够扩展AI模型的能力边界。AI Agent开发模块是应用能力的提升,让你能够构建复杂的AI应用。RAG技术和大模型微调模块是专业能力的深化,让你能够处理特定领域的问题。AI应用部署和AI安全与伦理模块是工程能力的完善,让你能够将AI模型转化为可靠的产品。国内外平台深度对比模块是选型能力的培养,让你能够做出明智的技术决策。
不同的学习者有不同的背景和目标,因此我们提供了多条学习路径供选择。如果你是AI应用开发者,希望快速上手,建议按照以下路径学习:先完成大语言模型基础模块,然后学习RAG技术模块,再学习AI Agent开发模块,最后完成智能客服系统项目。如果你是AI工程师,希望深入技术,建议按照以下路径学习:先完成AI Agent开发模块,然后学习MCP协议开发和Skills标准开发模块,再学习RAG技术模块,最后完成个人助理Agent项目。如果你是AI产品经理,关注产品导向,建议按照以下路径学习:先完成大语言模型基础模块,然后学习国内外平台对比模块,再完成智能客服系统项目,最后学习AI安全与伦理模块。如果你是AI研究者,关注前沿探索,建议按照以下路径学习:先完成大模型微调模块,然后学习RAG技术模块,再学习AI Agent开发模块,最后完成代码助手系统项目。
学习建议
学习节奏对于掌握知识至关重要。建议每天投入3-5小时,其中理论学习1-2小时,实践操作2-3小时。每周安排时间复习本周内容,巩固所学知识。每个模块完成后,务必完成对应的实践项目,将知识转化为能力。
学习顺序方面,建议按照天数顺序循序渐进地学习,打好基础。每个模块应该完整学习后再进入下一个模块,避免知识碎片化。项目阶段可以根据自己的兴趣选择1-2个完整项目深入实践。
实践是学习AI技术的关键。每天的实践任务必须完成,理论只有通过实践才能真正理解。每个模块的项目是巩固知识的重要环节,不能跳过。最终阶段至少要完成2个完整项目,才能说真正掌握了所学内容。
总结
本AI课程的模块设计旨在为学习者提供系统、全面的AI学习内容,从大语言模型基础到高级应用,覆盖AI技术的核心领域。通过按照模块顺序学习,学习者可以逐步建立完整的AI知识体系,掌握实用的AI开发技能,为未来的AI职业生涯打下坚实基础。
每个模块都经过精心设计,内容丰富、结构清晰,适合不同背景的学习者。无论你是AI初学者还是有一定经验的开发者,都能在本课程中找到适合自己的学习内容和挑战。

扫描二维码关注"架构师AI杜"公众号,获取更多技术内容和最新动态
