Skip to content

第1天:AI起源与早期发展(1950-1980)

学习目标

  • 理解AI的定义和起源
  • 掌握图灵测试的概念和意义
  • 了解符号主义AI的核心思想
  • 掌握专家系统的原理和应用
  • 理解早期AI发展的局限性和挑战

课程内容

1. AI的定义与起源

1.1 什么是人工智能

人工智能(Artificial Intelligence,AI)是指由人制造出来的机器所表现出来的智能。通常,AI是指通过普通计算机程序来呈现人类智能的技术。

AI的核心特征

  • 学习能力:从数据中学习规律和模式
  • 推理能力:基于已知信息推导新结论
  • 问题解决能力:找到解决复杂问题的方法
  • 感知能力:理解环境中的信息
  • 语言能力:理解和生成自然语言

1.2 AI的起源

1950年:图灵测试

艾伦·图灵(Alan Turing)在论文《计算机器与智能》中提出了著名的"图灵测试"。

图灵测试的核心思想

  • 如果一台机器能够与人类进行对话,而人类无法分辨对方是机器还是人,那么这台机器就具有智能。

图灵测试的意义

  • 首次提出了"机器能否思考"的问题
  • 为AI研究提供了可操作的定义
  • 至今仍是评估AI智能水平的重要标准

图灵测试的局限性

  • 只关注行为表现,不关注内部机制
  • 容易被欺骗和模仿
  • 不能全面反映智能的各个方面

1.3 达特茅斯会议(1956)

1956年夏天,约翰·麦卡锡(John McCarthy)、马文·明斯基(Marvin Minsky)、克劳德·香农(Claude Shannon)和纳撒尼尔·罗彻斯特(Nathaniel Rochester)在达特茅斯学院组织了一次为期两个月的研讨会。

达特茅斯会议的意义

  • 正式提出了"人工智能"这一术语
  • 标志着AI作为一门独立学科的诞生
  • 汇集了AI领域的先驱者
  • 确定了AI研究的早期方向

会议的主要议题

  • 自动计算机
  • 如何为计算机编程以使用语言
  • 神经网络
  • 计算规模理论
  • 自改进
  • 抽象
  • 随机性和创造性

2. 符号主义AI

2.1 符号主义AI的核心思想

符号主义AI(Symbolic AI),也称为"老式人工智能"(GOFAI),是早期AI研究的主流范式。

核心思想

  • 智能的本质是对符号的操作
  • 人类思维可以表示为符号的推理过程
  • 通过逻辑推理和知识表示实现智能

关键概念

  • 符号:表示概念、对象、关系的基本单位
  • 知识表示:将知识形式化、符号化
  • 逻辑推理:基于规则进行推理和决策

2.2 知识表示方法

2.2.1 逻辑表示

使用形式逻辑(如命题逻辑、一阶逻辑)表示知识。

示例

如果 下雨 那么 带伞
今天 下雨
因此 带 伞

优点

  • 形式化、精确
  • 推理过程可解释
  • 适合处理确定性知识

缺点

  • 难以处理不确定性
  • 知识获取困难
  • 计算复杂度高

2.2.2 语义网络

用图结构表示概念及其关系。

示例

鸟 --是动物--> 动物
鸟 --有--> 翅膀
鸟 --会--> 飞行
企鹅 --是鸟--> 鸟
企鹅 --不会--> 飞行

优点

  • 直观、易于理解
  • 可以表示复杂关系
  • 支持推理

缺点

  • 缺乏形式化语义
  • 推理规则不明确
  • 难以处理大规模知识

2.2.3 框架(Frames)

由马文·明斯基提出,用于表示对象和概念的结构化知识。

框架结构

框架:鸟
  属性:
    有翅膀:是
    会飞行:是
    有羽毛:是
  默认值:
    颜色:棕色
    体型:中等

优点

  • 结构化、层次化
  • 支持继承
  • 易于扩展

缺点

  • 缺乏标准化
  • 推理机制不明确
  • 难以处理例外情况

2.3 符号主义AI的成功案例

2.3.1 逻辑理论家(Logic Theorist,1956)

由纽厄尔(Newell)和西蒙(Simon)开发,能够证明数学定理。

成就

  • 证明了怀特海和罗素《数学原理》中的38条定理
  • 其中一条证明比原书更简洁
  • 被认为是第一个AI程序

2.3.2 通用问题求解器(GPS,1957)

由纽厄尔和西蒙开发,能够解决各种类型的问题。

特点

  • 使用"手段-目的分析"(Means-Ends Analysis)
  • 将问题分解为子问题
  • 通过搜索找到解决方案

2.3.3 ELIZA(1966)

由约瑟夫·魏岑鲍姆(Joseph Weizenbaum)开发,模拟心理治疗师。

特点

  • 使用模式匹配和规则
  • 能够进行简单的对话
  • 让许多人误以为它是真人

示例对话

用户:我感到很沮丧
ELIZA:为什么你会感到沮丧?
用户:因为我的工作
ELIZA:你的工作让你感到沮丧?

启示

  • 即使简单的规则也能产生看似智能的行为
  • 人们容易将人类特征投射到机器上
  • 提醒我们要警惕AI的局限性

3. 专家系统

3.1 专家系统的定义

专家系统(Expert System)是一种模拟人类专家决策过程的计算机系统,它使用知识库和推理引擎来解决特定领域的问题。

核心组件

  • 知识库:存储领域专家的知识
  • 推理引擎:使用知识进行推理和决策
  • 用户界面:与用户交互
  • 解释机制:解释推理过程

3.2 专家系统的架构

┌─────────────────┐
│   用户界面      │
└────────┬────────┘

┌────────▼────────┐
│   推理引擎      │
└────────┬────────┘

┌────────▼────────┐
│    知识库       │
│  - 规则         │
│  - 事实         │
│  - 概念         │
└─────────────────┘

3.3 知识表示:规则

IF-THEN规则

IF 条件1 AND 条件2 AND ...
THEN 结论

示例

IF 温度 > 38 AND 咳嗽 AND 头痛
THEN 可能是感冒

规则的特点

  • 直观、易于理解
  • 易于修改和扩展
  • 推理过程可解释

3.4 推理机制

3.4.1 前向推理(Forward Chaining)

从已知事实出发,应用规则推导新结论。

示例

已知事实:
- 温度 = 39
- 咳嗽 = 是
- 头痛 = 是

规则:
IF 温度 > 38 AND 咳嗽 AND 头痛
THEN 可能是感冒

推理:
1. 匹配规则:温度 > 38 ✓,咳嗽 ✓,头痛 ✓
2. 应用规则:可能是感冒

3.4.2 后向推理(Backward Chaining)

从目标出发,寻找支持目标的证据。

示例

目标:是否感冒?

规则:
IF 温度 > 38 AND 咳嗽 AND 头痛
THEN 可能是感冒

推理:
1. 要证明"感冒",需要:温度 > 38,咳嗽,头痛
2. 检查温度 > 38:39 > 38 ✓
3. 检查咳嗽:是 ✓
4. 检查头痛:是 ✓
5. 结论:感冒 ✓

3.5 著名的专家系统

3.5.1 MYCIN(1970年代)

由斯坦福大学开发,用于诊断血液感染。

特点

  • 包含约600条规则
  • 准确率达到专家水平
  • 引入了"置信度"(Certainty Factor)处理不确定性

示例规则

IF 感染是革兰氏阴性菌
AND 培养部位是血液
AND 患者是中性粒细胞减少症
THEN 推荐使用庆大霉素(置信度0.8)

3.5.2 DENDRAL(1960年代)

由斯坦福大学开发,用于分析化学结构。

特点

  • 第一个成功的专家系统
  • 能够从质谱数据推断分子结构
  • 性能超过人类专家

3.5.3 XCON(1980年代)

由DEC公司开发,用于配置计算机系统。

特点

  • 商业上最成功的专家系统之一
  • 每年为DEC节省数千万美元
  • 处理了数千条配置规则

4. 早期AI发展的挑战

4.1 莫拉维克悖论(Moravec's Paradox)

悖论内容

  • 对计算机而言,高级推理(如下棋、证明定理)相对容易
  • 低级感知和运动技能(如走路、识别物体)却非常困难

原因

  • 高级推理是最近才进化的,我们对其理解较深
  • 低级技能经过了数亿年的进化,我们对其理解较浅

启示

  • AI的发展路径可能与人类智能进化路径不同
  • 不要低估感知和运动技能的复杂性

4.2 知识获取瓶颈

问题

  • 将人类专家的知识形式化非常困难
  • 专家往往"知其然而不知其所以然"
  • 知识获取过程耗时耗力

影响

  • 专家系统的开发成本高昂
  • 知识库难以维护和更新
  • 限制了专家系统的应用范围

4.3 计算能力限制

问题

  • 早期计算机计算能力有限
  • 搜索空间爆炸导致组合爆炸
  • 无法处理大规模知识库

影响

  • 只能处理小规模、简化的问题
  • 难以模拟真实世界的复杂性
  • 限制了AI的应用

4.4 AI寒冬(1974-1980,1987-1993)

第一次AI寒冬(1974-1980)

  • 原因

    • AI研究未能实现早期承诺
    • 政府和投资者失去信心
    • 资金大幅削减
  • 影响

    • 许多AI项目被取消
    • 研究人员转向其他领域
    • AI研究进入低谷

第二次AI寒冬(1987-1993)

  • 原因

    • 专家系统的局限性显现
    • 专用硬件(Lisp机器)被通用计算机取代
    • 商业化失败
  • 影响

    • AI公司纷纷倒闭
    • 研究再次进入低谷
    • 但基础研究仍在继续

AI寒冬的教训

  • 避免过度承诺
  • 重视基础研究
  • 关注实际应用
  • 保持合理的期望

实践任务

任务1:实现简单的规则推理系统

目标:使用Python实现一个简单的基于规则的推理系统。

要求

  1. 定义一个知识库,包含至少10条IF-THEN规则
  2. 实现前向推理和后向推理
  3. 提供用户界面,允许用户输入事实
  4. 系统能够推理出结论并解释推理过程

示例规则

python
rules = [
    {
        "conditions": ["发烧", "咳嗽", "头痛"],
        "conclusion": "可能是感冒",
        "confidence": 0.8
    },
    {
        "conditions": ["发烧", "喉咙痛", "乏力"],
        "conclusion": "可能是流感",
        "confidence": 0.7
    },
    # ... 更多规则
]

代码框架

python
class ExpertSystem:
    def __init__(self):
        self.rules = []
        self.facts = set()
    
    def add_rule(self, conditions, conclusion, confidence=1.0):
        """添加规则"""
        pass
    
    def add_fact(self, fact):
        """添加事实"""
        pass
    
    def forward_chaining(self):
        """前向推理"""
        pass
    
    def backward_chaining(self, goal):
        """后向推理"""
        pass
    
    def explain(self, conclusion):
        """解释推理过程"""
        pass

任务2:实现ELIZA简化版

目标:实现一个简化的ELIZA对话系统。

要求

  1. 定义一组模式匹配规则
  2. 实现简单的对话逻辑
  3. 能够进行基本的对话
  4. 测试系统的对话能力

示例规则

python
patterns = [
    (r"我感到(.*)", "为什么你会感到\1?"),
    (r"因为(.*)", "\1让你感到困扰吗?"),
    (r"我的(.*)", "你的\1怎么样?"),
    # ... 更多规则
]

任务3:分析图灵测试

目标:深入分析图灵测试的优缺点。

要求

  1. 阅读图灵的原始论文《计算机器与智能》
  2. 分析图灵测试的核心思想
  3. 讨论图灵测试的局限性
  4. 提出改进图灵测试的建议
  5. 撰写1000字的分析报告

课后作业

作业1:知识表示练习

题目:使用语义网络表示以下知识:

  • 鸟是动物
  • 鸟有翅膀
  • 鸟会飞行
  • 企鹅是鸟
  • 企鹅不会飞行
  • 企鹅生活在南极
  • 企鹅会游泳

要求

  1. 画出语义网络图
  2. 解释节点和边的含义
  3. 说明如何进行推理

作业2:规则设计

题目:设计一个医疗诊断专家系统的规则。

要求

  1. 选择一个具体的疾病领域(如感冒、流感、过敏等)
  2. 设计至少10条诊断规则
  3. 说明每条规则的条件和结论
  4. 考虑不确定性和置信度

作业3:AI发展史研究

题目:研究AI发展史上的一个重要事件或人物。

要求

  1. 选择一个事件或人物(如图灵、达特茅斯会议、ELIZA等)
  2. 深入研究其背景、内容、影响
  3. 撰写1500字的研究报告
  4. 准备5分钟的演讲

参考资料

必读文献

  1. Turing, A. M. (1950). "Computing Machinery and Intelligence". Mind, 59(236), 433-460.

    • 图灵测试的原始论文
  2. McCarthy, J., Minsky, M. L., Rochester, N., & Shannon, C. E. (1955). "A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence".

    • 达特茅斯会议提案
  3. Newell, A., & Simon, H. A. (1956). "The Logic Theory Machine: A Complex Information Processing System". IRE Transactions on Information Theory, 2(3), 61-79.

    • 逻辑理论家论文

推荐阅读

  1. Russell, S., & Norvig, P. (2020). Artificial Intelligence: A Modern Approach (4th ed.). Pearson.

    • AI经典教材,第1-3章
  2. Nilsson, N. J. (2010). The Quest for Artificial Intelligence: A History of Ideas and Achievements. Cambridge University Press.

    • AI发展史详细回顾
  3. Buchanan, B. G., & Shortliffe, E. H. (1984). Rule-Based Expert Systems: The MYCIN Experiments of the Stanford Heuristic Programming Project. Addison-Wesley.

    • 专家系统经典著作

在线资源

  1. Stanford Encyclopedia of Philosophy: https://plato.stanford.edu/entries/artificial-intelligence/

    • AI哲学视角
  2. AI History Timeline: https://www.eecs.yorku.ca/course_archive/2002-03/F/3311/SectionA/timeline.html

    • AI发展时间线
  3. ELIZA Simulator: http://psych.fullerton.edu/mbirnbaum/psych466/eliza/eliza.htm

    • 在线体验ELIZA

扩展阅读

AI哲学

  • Searle, J. R. (1980). "Minds, Brains, and Programs". Behavioral and Brain Sciences, 3(3), 417-424.

    • 中文房间论证
  • Dennett, D. C. (1991). Consciousness Explained. Little, Brown and Co.

    • 意识与智能

AI伦理

  • Bostrom, N. (2014). Superintelligence: Paths, Dangers, Strategies. Oxford University Press.

    • 超级智能的挑战
  • Tegmark, M. (2017). Life 3.0: Being Human in the Age of Artificial Intelligence. Knopf.

    • AI时代的未来

下节预告

下一节我们将学习机器学习时代(1980-2010),了解机器学习的兴起、统计学习方法、支持向量机、决策树等核心技术,以及它们如何推动AI的发展。


架构师AI杜公众号二维码

扫描二维码关注"架构师AI杜"公众号,获取更多技术内容和最新动态