Appearance
AI课程阶段介绍
课程概述
本AI课程是一个全面的人工智能学习体系,旨在帮助学习者从基础知识逐步进阶到高级应用。课程采用"总-分-总"的三阶段学习模式,总计90天,涵盖AI发展的前世今生、核心技术模块和综合实战项目。这种学习模式源自认知科学的研究成果,先建立全局认知框架,再深入各个技术细节,最后通过综合项目将知识融会贯通。
课程设计遵循认知规律和技术递进关系,每个阶段都有明确的学习目标和核心内容。第一阶段用10天时间回顾AI发展史,建立全局认知;第二阶段用70天时间深入学习核心技术模块;第三阶段用20天时间完成综合实战项目。这种设计确保学习者既能把握宏观方向,又能掌握具体技能。
第一阶段:AI发展史(第1-10天)
人工智能的发展历程是一部充满智慧与挑战的史诗。从1950年图灵提出"机器能否思考"的哲学命题,到2025年AI Agent爆发元年,这75年间AI技术经历了多次起伏与突破。了解这段历史,不仅能帮助你理解当前AI技术的来龙去脉,更能让你洞察未来发展的方向。
这一阶段的学习目标是建立对AI技术演进的全局认知。你将从图灵测试和达特茅斯会议出发,了解AI的起源与早期发展;穿越机器学习时代,理解统计学习方法如何改变了AI的发展轨迹;见证深度学习革命,感受AlphaGo战胜人类棋手的历史性时刻;探索Transformer与大语言模型的崛起,理解GPT系列如何改变了自然语言处理;体验生成式AI的爆发,感受ChatGPT带来的震撼;追踪AI Agent的兴起,理解从"助手"到"操盘手"的质变;最后展望AI现状与未来,把握技术发展的脉搏。
这一阶段适合所有对AI感兴趣的学习者,无论你是零基础初学者还是希望系统了解AI发展历程的专业人士。通过这一阶段的学习,你将建立起对AI技术的宏观认知,为后续深入学习打下坚实基础。
第二阶段:核心技术模块(第70天)
第二阶段是课程的核心部分,涵盖9个核心技术模块。每个模块都经过精心设计,既有深入的理论讲解,又有丰富的实践项目。这种"理论+实践"的学习方式,能帮助你真正掌握技术本质,而不是停留在表面理解。
模块1:大语言模型基础(第11-18天)
大语言模型(LLM)是当前AI技术的核心引擎,理解LLM的原理和应用是学习AI的第一步。本模块从Transformer架构出发,深入讲解Self-Attention机制、位置编码等核心概念,帮助你理解LLM为什么能够理解和生成自然语言。在主流模型对比部分,你将深入了解GPT、BERT、T5、LLaMA、PaLM、Gemini等架构的设计理念和适用场景。国内大模型方面,文心一言、通义千问、混元、豆包、GLM、Kimi、DeepSeek、Yi等各具特色,你将学会如何根据实际需求选择合适的模型。最后通过智能问答系统项目,将所学知识付诸实践。
这一模块适合有一定编程基础的学习者,以及希望深入了解大语言模型的开发者。通过这一模块的学习,你将掌握LLM的核心原理、API调用方法和Prompt Engineering技巧。
模块2:MCP协议开发(第19-26天)
MCP(Model Context Protocol)是Anthropic于2024年底推出的标准化协议,旨在解决AI模型与外部工具之间的交互问题。这个协议的出现,标志着AI应用开发进入了一个新的阶段——开发者可以通过统一的标准,让AI模型调用各种外部工具和服务,大大扩展了AI的能力边界。
本模块深入解析MCP协议的设计理念和核心概念,带你理解Server、Client、Resource、Tool等关键组件。在实践环节,你将从零开始开发一个MCP Server,学习如何定义资源和工具、处理请求、返回结果。随后,你将开发MCP Client,学习如何连接Server、发现工具、调用工具。最后,你将把开发的MCP Server集成到Claude Desktop中,体验MCP协议的实际应用。
这一模块适合有一定后端开发经验的开发者,以及希望扩展AI模型能力的工程师。通过这一模块的学习,你将掌握MCP协议的核心概念和开发技能。
模块3:Skills标准开发(第27-34天)
Skills是Anthropic于2025年发布的开放标准,采用文档驱动的方式定义AI能力。与MCP协议不同,Skills更加强调能力的声明和发现,让AI系统能够自动理解和使用各种技能。这种设计理念代表了AI应用开发的最新趋势——从"硬编码"到"声明式"的转变。
本模块深入解析Skills标准规范,理解skill.md文件的结构和编写方式。你将学习Skills与MCP、SubAgent的区别和联系,理解它们各自的适用场景和协同使用方式。在实践环节,你将从编写简单的skill.md开始,逐步掌握Skills开发的核心技能。通过实现Skills能力发现机制,你将理解AI系统如何自动发现和加载技能。最后,通过Skills工具集项目,你将开发一套可复用的Skills库。
模块4:AI Agent开发(第35-44天)
AI Agent是当前AI应用的核心形态,它能够自主感知环境、制定计划、执行行动,并与人类进行自然交互。从简单的对话助手到复杂的多Agent协作系统,Agent技术正在重新定义人机交互的方式。2025年被称为"AI Agent爆发元年",各种Agent产品如雨后春笋般涌现,从"助手"角色向"操盘手"角色转变。
本模块系统讲解Agent的核心概念和架构,包括感知模块、规划模块、行动模块和记忆模块。你将深入理解ReAct框架的工作原理,学会如何让Agent进行推理和行动。在框架实践环节,你将学习LangChain这一主流AI应用开发框架,掌握Chains、Tools、Agents等核心概念。AutoGPT和BabyAGI代表了自主Agent的发展方向,你将理解它们的设计理念和实现方式。SubAgent(子智能体)是处理复杂任务的关键技术,你将学习如何设计和实现多Agent协作系统。
模块5:RAG技术(第45-51天)
RAG(Retrieval-Augmented Generation,检索增强生成)是解决大语言模型知识局限性的关键技术。通过将外部知识库与大语言模型结合,RAG技术让AI系统能够访问和利用最新的、特定领域的知识,大大提升了回答的准确性和可靠性。在企业应用中,RAG已经成为构建知识库问答系统的首选方案。
本模块从RAG的基本原理出发,讲解检索增强生成的完整流程。向量数据库是RAG系统的核心组件,你将学习向量表示、相似度计算、向量索引等核心概念,并对比Chroma、FAISS、Milvus、Pinecone等主流向量数据库的特点和适用场景。文档处理是RAG系统的前端环节,你将学习如何解析PDF、Word、Markdown等格式的文档,如何进行文本切片,如何管理元数据。检索优化是提升RAG系统性能的关键,你将学习各种检索策略、查询扩展技术和上下文优化方法。
模块6:大模型微调(第52-57天)
大模型微调是让通用大语言模型适应特定领域和任务的关键技术。通过微调,可以让模型学习特定领域的知识和表达方式,显著提升在特定任务上的表现。LoRA和QLoRA等参数高效微调技术的出现,大大降低了微调的计算成本,使得个人开发者也能进行模型微调。
本模块深入讲解微调的原理和方法,对比微调与预训练的区别。你将学习PEFT(Parameter-Efficient Fine-Tuning)技术,理解LoRA如何通过低秩适配实现高效微调,QLoRA如何通过量化进一步降低显存需求。数据准备是微调成功的关键,你将学习如何收集、清洗、标注和格式化微调数据。在训练环节,你将学习训练配置、超参数调优和训练监控。部署环节将讲解模型导出、推理框架选择和API服务搭建。
模块7:AI应用部署(第58-63天)
将AI模型部署到生产环境是AI应用开发的最后一步,也是最容易被忽视的环节。一个成功的AI应用不仅需要优秀的模型,还需要高效的推理服务、可靠的监控系统和合理的成本控制。本模块系统讲解AI应用部署的各个方面,帮助你将模型转化为可用的产品。
模型量化是降低推理成本的重要手段,你将学习GPTQ、AWQ、GGUF等主流量化技术的原理和应用场景。推理加速是提升服务性能的关键,vLLM、TGI、TensorRT-LLM等框架各有特点,你将学会根据实际需求选择合适的方案。边缘部署让AI应用能够运行在资源受限的设备上,你将学习ONNX Runtime、OpenVINO等边缘推理框架。云服务部署是AI应用的主流方式,你将了解AWS、Azure、阿里云、腾讯云等平台的AI服务。
模块8:AI安全与伦理(第64-67天)
AI技术的快速发展带来了前所未有的机遇,同时也带来了安全风险和伦理挑战。Prompt注入攻击可以让AI系统泄露敏感信息,对抗样本可以欺骗AI模型做出错误判断,数据泄露可能导致用户隐私被侵犯。作为AI从业者,理解这些风险并掌握防护技术是必不可少的职业素养。
本模块系统讲解AI安全的基础知识,包括Prompt注入、对抗样本、数据泄露等常见攻击方式。你将学习输入过滤、输出过滤、对抗训练等防护技术,亲手测试和防御各种攻击。AI伦理是另一个重要话题,你将了解AI偏见、公平性、透明性、可解释性等概念,学会评估模型的伦理风险。合规与治理是AI应用必须面对的现实问题,你将了解国内外的AI法规,学习数据隐私保护的最佳实践。
模块9:国内外平台深度对比(第68-72天)
国内外AI平台百花齐放,各有特色。选择合适的平台是AI应用开发的重要决策,需要综合考虑性能、价格、功能、易用性等多个维度。本模块深度对比国内外主流AI平台,帮助你做出明智的选择。
国内平台方面,文心一言依托百度的知识图谱优势,在中文理解和知识问答方面表现出色;通义千问提供多种尺寸的模型,满足不同场景的需求;混元是腾讯推出的多模态大模型,支持文本、图像等多种输入;豆包是字节跳动推出的对话模型,在对话体验上做了大量优化;GLM是智谱AI自研的模型架构,在开源社区有良好口碑;Kimi以超长上下文著称,能够处理数十万字的文档;DeepSeek采用MoE架构,在代码生成方面表现优异;Yi是零一万物推出的模型,对开发者友好。
国外平台方面,GPT系列是OpenAI的旗舰产品,生成能力强,生态完善;Claude系列是Anthropic的产品,注重安全性和有用性;Gemini是Google推出的多模态模型,与Google生态深度整合;Llama系列是Meta开源的模型,社区活跃,生态丰富;Mistral以高效著称,在资源受限场景下表现优异。
第三阶段:综合实战项目(第73-90天)
第三阶段是课程的收官阶段,通过5个完整项目将所学知识融会贯通。这些项目涵盖了AI应用的主要场景,从智能客服到个人助理,从企业知识库到代码助手,每个项目都代表了一类典型的AI应用。通过这些项目,你将不仅掌握技术实现,更会理解产品设计和工程实践。
智能客服系统项目将综合运用LLM、RAG、Agent等技术,构建一个完整的智能客服解决方案。个人助理Agent项目将综合运用Agent、Skills、MCP等技术,构建一个功能丰富的个人助理。企业知识库项目将构建一个完整的企业知识库系统,实现文档处理、向量化存储、检索问答的完整流程。代码助手系统项目将综合运用LLM、MCP、Code Interpreter等技术,构建一个实用的代码助手。智能文档分析项目将构建一个端到端的文档分析系统,实现文档上传、OCR识别、信息提取、摘要生成的完整流程。
学习路径推荐
不同的学习者有不同的背景和目标,因此我们提供了多条学习路径供选择。
如果你是AI应用开发者,希望快速上手,建议按照以下路径学习:先完成第一阶段的AI发展史,建立全局认知;然后学习大语言模型基础模块,掌握LLM的使用方法;接着学习RAG技术模块,理解知识检索增强;再学习AI Agent开发模块,掌握Agent的设计和实现;最后完成智能客服系统项目,将所学知识付诸实践。
如果你是AI工程师,希望深入技术,建议按照以下路径学习:先完成第一阶段的AI发展史;然后学习AI Agent开发模块;接着学习MCP协议开发和Skills标准开发模块;再学习RAG技术模块;最后完成个人助理Agent项目。
如果你是AI产品经理,关注产品导向,建议按照以下路径学习:先完成第一阶段的AI发展史;然后学习大语言模型基础模块;接着学习国内外平台对比模块;再完成智能客服系统项目;最后学习AI安全与伦理模块。
如果你是AI研究者,关注前沿探索,建议按照以下路径学习:先完成第一阶段的AI发展史;然后学习大模型微调模块;接着学习RAG技术模块;再学习AI Agent开发模块;最后完成代码助手系统项目。
学习建议
学习节奏对于掌握知识至关重要。建议每天投入3-5小时,其中理论学习1-2小时,实践操作2-3小时。每周安排时间复习本周内容,巩固所学知识。每个模块完成后,务必完成对应的实践项目,将知识转化为能力。
学习顺序方面,建议按照天数顺序循序渐进地学习,打好基础。每个模块应该完整学习后再进入下一个模块,避免知识碎片化。项目阶段可以根据自己的兴趣选择1-2个完整项目深入实践。
实践是学习AI技术的关键。每天的实践任务必须完成,理论只有通过实践才能真正理解。每个模块的项目是巩固知识的重要环节,不能跳过。最终阶段至少要完成2个完整项目,才能说真正掌握了所学内容。
预期成果
通过本课程的系统学习,你将掌握AI的核心概念和技术原理,了解大语言模型的工作机制和应用方法,学会开发和集成MCP工具,具备开发高级AI应用的能力。
在技能提升方面,你将获得AI模型开发和部署能力、工具集成和系统架构设计能力、问题分析和解决能力、团队协作和项目管理能力。
在职业发展方面,你将具备成为AI工程师、机器学习工程师、数据科学家、AI产品经理、AI研究科学家的能力基础。
总结
本AI课程的阶段划分是基于学习的认知规律和技术的递进关系设计的,旨在为学习者提供一条清晰、系统的学习路径。通过按照阶段顺序学习,学习者可以逐步建立AI知识体系,掌握核心技术,最终成为AI领域的专业人才。
无论你是AI初学者还是有一定经验的开发者,都可以根据自己的背景和目标,选择适合自己的学习路径,在AI领域不断探索和成长。

扫描二维码关注"架构师AI杜"公众号,获取更多技术内容和最新动态
