一文梳理AI大事纪——从图灵机开始

74 阅读9分钟

前言

从1936年图灵机理论的提出到2026年的今天,人工智能经历了从理论构想到技术突破、从实验研究到产业应用的发展周期:

  • 理论奠基与早期探索
  • 人工智能诞生与符号主义时代
  • 连接主义的复兴与统计学习时代
  • 深度学习时代
  • 大语言模型时代

每个阶段都有其独特的技术特征和应用突破。

理论奠基与早期探索(1936-1956年)

图灵机(1936)

图灵机是英国数学家图灵提出的一种抽象的计算模型,它的基本思想是模拟人用纸笔计算的过程:

  • 在纸上书写或擦除某个符号;
  • 把注意力从纸的一个位置移动到另一个位置;

图灵机证明了任何可计算的问题,也就是任何可以用明确的、有限步骤描述的计算过程,理论上都可以由一台图灵机完成。

4 + 3 = 7的计算过程:

1.png

早期神经网络(1943)

沃伦・麦卡洛克和沃尔特・皮茨在 1943 年提出的一个高度原创和富有启发性的假设人类的心理能力,特别是逻辑思维能力,直接来源于大脑中执行逻辑运算的神经元电路

通过这个理论创建了一个麦卡洛克 - 皮茨模型(M-P 模型),这是一个简化的生物神经元数学模型;

控制论(1948)

诺伯特・维纳于1948年提出的,起源于他在二战时解决防空系统中火炮总是打不准的问题;他通过观察生物系统与人工系统发现并总结了三条关键的思想:

  • 系统的整体性与动态性: 系统通过持续的信息交互和反馈,适应外部环境的变化;
  • 信息是控制的核心: 控制的本质是信息的传递与处理;
  • 反馈机制: 系统将输出的一部分信息返回到输入端,通过正反反馈机制来调整后续的输入与行为;

图灵测试(1950)

图灵1950年提出来的用于判断机器是否具有人类智能。

通过让评估者与受试者(机器或人类)进行交流,如果超过30%的评估者无法确定受试者是人还是机器,那么这台机器就被认为通过了测试,具有人类智能

人工智能诞生与符号主义时代(1956-1970年代)

达特茅斯会议(1956)

达特茅斯会议被广泛认为是人工智能诞生的起点,该会议首次提出人工智能这一基本概念并被广泛采用,它也被广泛认为是人工智能作为一个独立学科正式诞生的标志。

符号主义(1957 - 1970年代)

达特茅斯会议之后,人工智能进入到了符号主义的黄金时期。

这一时期的特征是研究者们相信通过符号操作和逻辑推理可以实现人类水平的智能

符号主义方法强调使用人类可读的符号和明确的逻辑规则来表示知识和进行推理

结果是在1970年代中期第一次AI寒冬到来:

  • 知识获取瓶颈: 如何从领域专家那里获取编码知识
  • 组合爆炸问题: 随着问题复杂度的增加,所需的规则数量呈指数级上涨
  • 常识推理的困难: 人类的常识知识难以用明确的规则来表示

连接主义的复兴与统计学习时代

连接主义(1980 - 1990年代)

经历了1970年代中期的第一次AI寒冬之后,人工智能在1980年代迎来了连接主义的复兴;

连接主义复兴主义的主要推动力反向传播算法的重新发现多层神经网络训练技术的突破;

连接主义强调通过大量简单处理单元(模拟神经元)的并行交互来实现人工智能

结果是在1990年代初期第二次AI寒冬到来

  • 硬件限制: 无GPU,神经元在CPU上运行非常吃力;
  • 理论限制: 对神经网络的工作原理和泛化能力缺乏深入了解;

统计学习(1990 - 2010年代)

进入到1990年代之后,人工智能研究开始从连接主义转向为统计学习方法;

研究者们认识到许多AI的问题的本质上统计问题,可以通过概率论和统计学的方法来解决;

基于统计学习的理论基础,研究者们在自然语言处理、计算机视觉、数据挖掘、强化学习等领域接连突破,出现了很多的经典算法和技术,并走向了实际的应用;

同时,硬件领域也爆发发展,CPU、内存、硬盘、GPU性能快速提升,为AI的发展提供了算力基础;

深度学习时代(2010 - 2020年)

2010年代是人工智能发展史上的一个重要转折点,深度学习的爆发式发展彻底改变了AI的技术格局和应用前景;

AlexNet神经网络(2012年)

AlexNet是2012年提出的深度卷积神经网络,它在ImageNet竞赛中取得了突破性成绩,开创了深度学习在计算机视觉领域的新纪元;

TensorFlow(2015)和PyTorch(2017)

2015年谷歌发布了TensorFlow开源深度学习框架,提供了构建AI模型的各种灵活工具和库;

2017年faceBook发布PyTorch,进一步降低了深度学习的使用门槛,推动了技术的快速普及;

同时,GPU在深度学习发展中提供了关键作用GPU专为并行处理设计,可以同时执行数千个任务;由于神经网络由大量相同的神经元组成,具有高度的并行性,这种并行性与GPU的架构天然匹配。

大语言模型时代(2020年 - 至今)

进入到2020年代,人工智能进入到了大语言模型时代,标志Transformer 架构的广泛应用大规模预训练语言模型的出现;

ChatGPT(2022.11.30)

OpenAI全新对话式AI模型ChatGPT 3.5正式发布,标志着人工智能领域内自然语言处理技术的重大突破;

LLaMA(2023.02.24)

LLaMA在Meta于2023年2月首次发布,打破了 OpenAI 等公司的技术垄断,为全球研究者提供了免费获取前沿大模型的机会,形成了AI发展开源闭源两种生态;

GPT-4(2023.03.14)

GPT-4 于 2023 年 3 月 14 日由 OpenAI 正式发布,这一事件标志着 AI 技术从 "文本交互" 向 "通用智能助手" 的质的飞跃,是首个具备跨模态理解深度推理能力的通用智能体,它支持文本+图像双输入;

Midjourney V5(2023.03.15)

idjourney V5 于 2023 年 3 月 16 日正式发布,这一版本实现了 AI 图像生成领域的 质变级突破,将 AI 绘画从 "艺术实验" 推向 "专业生产力工具";

AutoGPT(2023.03.30)

AutoGPT 于 2023 年 3 月 30 日发布,标志AI 从工具向智能体的重要转变,它的核心创新在于其自主任务执行能力,具备五大核心功能特性:

  • 联网访问能力用于搜索和信息收集;
  • 长期和短期记忆管理 系统;
  • 多个 GPT-4 实例 进行文本生成;
  • 访问流行网站和平台 的能力;
  • 文件存储和 GPT-3.5 驱动的摘要功能;

Sora(2024.02.15)

OpenAI 于 2024 年 2 月 15 日发布 Sora,这是该公司首个文本生成视频模型,标志着 AI 在视频内容创作领域的重大突破:

  • 支持长达60秒的视频生存
  • 能生成具有多个角色、特定运动类型和复杂背景的复杂场景
  • 具备图像到视频的转换能力

o1-preview(2024.09.12)

OpenAI 于 2024 年 9 月 12 日发布 o1-preview 和 o1-mini,这标志AI 推理能力的重大飞跃, 与传统 LLM 不同,o1 能够在回答前进行多步推演与自检,像人类一样 "花更多时间思考问题再做出反应";

MCP(2024.12.25)

Anthropic于2024年12月25日推出模型上下文协议(Model Context Protocol,MCP),这是一项开放标准,被类比为"AI应用的USB-C端口",旨在解决三大问题:

  • 碎片化 :每个模型需单独适配工具
  • 高耦合 :工具逻辑与模型代码深度绑定,难以复用
  • 上下文丢失 :多轮调用时状态管理复杂

核心目标: 定义一套与模型无关的标准化协议,让任意 AI 模型通过统一接口调用任意工具

9.png

DeepSpeek R1(2025.01.20)

DeepSeek-R1于2025年1月20日正式发布,作为国产多模态大模型的标杆产品,打破了“砸钱出奇迹”的行业逻辑:

  • 训练成本 DeepSeek-V3 仅用557.6 万美元实现接近 GPT-4 Turbo 的性能,约为行业平均水平的1/10
  • 算力效率 通过动态调整神经元激活范围、FP8 混合精度训练等技术,显著降低对昂贵算力的依赖
  • 推理成本 推理速度提升200%,模型大小减少 40%, 但性能不变,大幅降低部署门槛

豆包手机(2025.12.01)

字节跳动于2025年12月1日正式发布豆包手机,这是首款深度集成豆包AI助手的原生智能终端,标志AI技术从云端服务走向硬件终端的深度融合,重新定义智能手机交互体验;