| 序号 | 事件 | 时间 | 相关公司、人物 | 备注 |
|---|---|---|---|---|
01 | DeepSeek-R1 模型 | 2025/01/20 | 深度求索 | 开源并使用新的算法减低训练成本 |
02 | o1-preview 模型 | 2024/09/12 | OpenAI | 首个拥有高阶推理能力的大型语言模型 |
03 | GPT 3.5 模型 | 2022/11/30 | OpenAI | 可写出人类无法与电脑区别的文章与字符串 |
04 | DALL-E 模型 | 2021/01/05 | OpenAI | 从文本描述中生成逼真的图像 |
05 | 《Attention Is All You Need》论文 | 2017/06/12 | 提出了 Transformer 架构,成为后续模型的基础 |
|
06 | ResNet 残差网络 | 2015/12/10 | 何恺明 | 解决了深层神经网络的训练难题 |
07 | TensorFlow 框架 | 2015/11/09 | 开源机器学习框架,推动了深度学习的发展 |
|
08 | GAN 生成对抗网络 | 2014 | Ian Goodfellow | 用于生成逼真图像和数据的深度学习模型 |
09 | 深度学习概念 | 2006 | Geoffrey Hinton | 开启了深度学习浪潮 |
10 | 随机森林 | 2001 | Leo Breiman | 提升了分类和回归的准确性 |
11 | CRF 条件随机场 | 2001 | John Lafferty | 用于序列标注任务的概率模型 |
12 | LSTM 长短期记忆网络 | 1997 | Sepp Hochreiter、Jürgen Schmidhuber | 解决了传统 RNN 的长程依赖问题 |
13 | 深蓝战胜国际象棋世界冠军 | 1997 | 标志着人工智能在复杂游戏中的胜利 |
|
14 | SVM 支持向量机 | 1995 | Vladimir Vapnik | 一种强大的分类与回归算法 |
15 | CNN 卷积神经网络 | 1989 | Yann LeCun | 用于图像识别的深度学习模型 |
16 | 通用近似定理 | 1989 | George Cybenko | 证明了单隐层前馈神经网络可以逼近任何连续函数 |
17 | 玻尔兹曼机 | 1983 | Geoffrey Hinton | 一种随机神经网络,用于无监督学习 |
18 | HNN 霍普菲尔德神经网络 | 1982 | John Hopfield | 联想记忆和优化问题的求解,RNN 源于 Hopfield 神经网络 |
19 | 《视觉计算理论》 | 1982 | David Marr | 提出计算机视觉的概念 |
20 | 第一届机器学习国际研讨会 | 1980 | 卡内基梅隆大学 | 首次专门讨论机器学习的国际会议 |
21 | BP (反向传播)算法 | 1974 | Paul Werbos | 用于训练多层神经网络的关键算法 |
22 | 专家系统 | 1968 | 爱德华·费根鲍姆 | 用于模拟人类专家决策过程的计算机系统 |
23 | KNN(K 最近邻算法) | 1967 | Thomas Cover | 一种基本的分类与回归算法 |
24 | AI 威胁论 | 1965 | I.J.古德 | 提出超级智能可能威胁人类生存 |
25 | LR(逻辑回归) | 1958 | David Cox | 用于二分类问题的统计模型 |
26 | “感知机”模型 | 1958 | 弗兰克·罗森布拉特 | 最早的神经网络模型 |
27 | 提出”AI“这一术语 | 1956 | 达特茅斯学院人工智能夏季研讨会 | 人类历史上第一次人工智能研讨 |
28 | 图灵测试 | 1950 | 艾伦·图灵 | 测试机器是否能表现出与人无法区分的智能 |
29 | 麦卡洛克-皮特斯模型(MP 模型) | 1943 | 沃伦·麦卡洛克、沃尔特·皮特斯 | 提出首个神经元数学模型,成为人工神经网络的基础结构 |