波澜壮阔70年:机器究竟有没有在思考?AI-lab学习笔记

5/9/2026

序:2022年11月30日,一声惊雷

2022年11月30日,旧金山,一个普通的星期三。

OpenAI悄悄上线了一个对话程序。没有发布会,没有广告投放,只有一条推文和一个网页链接。

五天后,用户破百万。两个月后,月活用户过亿——这是人类历史上增长最快的消费产品。TikTok用了9个月达到这个数字,Instagram用了两年半。

ChatGPT像一颗炸弹落入平静的湖面。全世界突然意识到:机器,好像真的可以思考了。

但如果你往回追溯——越过GPT-3的1750亿参数,越过2017年那篇改变一切的论文,越过深度学习的两次寒冬,越过那些在黑暗中独行的研究者——你会发现,这不是横空出世。

这是一条70年的长路。

而这条路上最惊心动魄的,不是那些改变世界的论文,而是那些在所有人都放弃的年代,选择继续相信的人。

本系列共三篇,沿着一条时间线展开——从最初的梦想,到最深的低谷,再到最终的爆发。

上篇:梦想与寒冬(1943—2006)← 本文

达特茅斯的夏天 → 赋予机器记忆 → 两次AI寒冬 → 黎明前的坚守

从"人工智能"这个词的诞生,到三十年无人问津的至暗时刻。

中篇:复兴与爆发(2009—2022)

GPU革命 → AlexNet转折点 → Transformer → GPT四级跳 → ChatGPT

两块游戏显卡如何改写历史,以及"注意力就是一切"为什么是AI的最重要发现。

下篇:争鸣与未来

AI到底缺什么 → 反对派的深层批判 → 对齐与觉醒 → 当造物审视造物主

最有分量的质疑者们在担心什么?而70年AI之路给我们最深的启示是什么?

第一章:播种——那些疯狂的先驱者(1943—1957)

一切始于一篇数学论文

1943年,第二次世界大战的炮火还在欧洲燃烧。

在芝加哥大学,神经科学家 Warren McCulloch 和数学家 Walter Pitts 发表了一篇论文:《A Logical Calculus of the Ideas Immanent in Nervous Activity》。标题拗口,意思却很直白——他们用数学公式描述了一个人工神经元。

这个"神经元"极其简单:接收几个输入信号,加权求和,如果总和超过一个阈值,就输出1;否则输出0。

没有人把它太当回事。但回头看,这是人类第一次用数学语言说:大脑的思维过程,也许可以用计算来模拟。

McCulloch & Pitts (1943), A Logical Calculus of the Ideas Immanent in Nervous Activity, Bulletin of Mathematical Biophysics

一句话意义: 人工神经元的数学模型——人类第一次把"思考"写成了方程。

1950年,英国曼彻斯特。

Alan Turing——破解了纳粹密码机Enigma、奠定了现代计算机理论的天才——发表了一篇日后被引用无数次的论文:《Computing Machinery and Intelligence》。

论文的开头只有一句话:

"I propose to consider the question, 'Can machines think?'"

"我想讨论一个问题:机器能思考吗?"

Turing没有直接回答,而是提出了一个替代方案——后来被称为"图灵测试":如果你和一台机器进行文字对话,无法分辨对方是人还是机器,那么我们就可以说这台机器在"思考"。

这个标准在70年后依然是AI领域最著名的思想实验。ChatGPT在2023年的表现,让无数人第一次真正感受到了图灵测试的重量。

Alan Turing (1950), Computing Machinery and Intelligence, Mind

一句话意义: 提出图灵测试——"如果你分不清它是不是在思考,那它就是在思考。"

达特茅斯的夏天:AI得名

1956年夏天,美国新罕布什尔州,达特茅斯学院。

一个年轻的数学家 John McCarthy 说服了洛克菲勒基金会,资助了一场为期两个月的研讨会。他邀请了十位当时最聪明的人,包括信息论之父 Claude Shannon、认知科学先驱 Marvin Minsky、IBM的 Nathaniel Rochester,以及后来发明LISP语言的McCarthy本人。

McCarthy在申请书上写道:

"We propose that a 2-month, 10-man study of artificial intelligence be carried out... The study is to proceed on the basis of the conjecture that every aspect of learning or any other feature of intelligence can in principle be so precisely described that a machine can be made to simulate it."

这段话翻译过来就是:

"学习的每一个方面,智能的每一个特征,原则上都可以被精确描述,从而制造一台机器来模拟它。我们建议用两个月来研究这个问题。"

两个月。他们以为两个月就能取得突破性进展。

这是"人工智能"(Artificial Intelligence)这个词第一次被正式使用。从那个夏天算起,到2026年的今天——AI研究已经走过了整整70年。

现实证明,McCarthy低估了这个问题的难度。低估了大约三十五倍。

1956年达特茅斯会议(Dartmouth Conference)

参会者: John McCarthy, Marvin Minsky, Claude Shannon, Nathaniel Rochester 等10人

历史意义: "Artificial Intelligence"一词诞生。与会者乐观预测"20年内"可解决智能问题。

残酷现实: 70年后的今天,我们仍在争论机器是否真的在"思考"。

感知机:第一道曙光

达特茅斯会议之后的第二年,1957年,Frank Rosenblatt 在康奈尔大学造出了感知机(Perceptron)——第一个可以通过数据学习的神经网络。

感知机能做什么?它能学会区分简单的图形模式,比如把三角形和正方形分开。

美国海军大为兴奋,给了Rosenblatt大量资助。媒体更是疯狂——《纽约时报》报道说,这台机器"将能走路、说话、看东西、写字,甚至能自我复制、感知自身的存在"。

1957年的人们真诚地相信,真正的人工智能近在咫尺。

他们不知道的是,一场漫长的寒冬即将到来。

第二章:第一次寒冬——一本书如何杀死一个领域(1969—1980s)

Minsky的致命一击

1969年,Marvin Minsky和Seymour Papert出版了一本书:《Perceptrons》。

讽刺的是,Minsky本人也是达特茅斯会议的参加者之一——他曾经也是AI的信徒。但在这本书里,他用严格的数学证明指出了感知机的致命缺陷:单层感知机无法解决XOR(异或)问题。

XOR是什么?这是一个简单得令人尴尬的逻辑问题:

输入A 输入B → 输出

0 0 → 0

0 1 → 1

1 0 → 1

1 1 → 0

就是"两个输入不同时输出1,相同时输出0"。一个小学生都能理解的规则,感知机却学不会。

Minsky的证明是正确的——对于单层感知机而言。但问题在于,他的表述方式让整个学术界得出了一个远超他本意的结论:神经网络是死路一条。

这本书的杀伤力是毁灭性的。

美国国防高级研究计划局(DARPA)大幅削减了神经网络研究的经费。英国政府在Lighthill报告的影响下,几乎完全停止了AI领域的资助。学术界的风向瞬间逆转——研究神经网络的人从先驱变成了异端。

一位年轻的英国研究者后来回忆说:

"在那个年代,如果你说你研究神经网络,人们会觉得你不是疯了,就是蠢。更可能两者兼有。"

这个年轻人叫 Geoffrey Hinton。他的故事,我们后面会讲。

符号AI的统治

《Perceptrons》之后,符号AI(Symbolic AI) 成为主流。这种方法认为,智能的本质是逻辑推理和规则运算——只需要把人类的知识编码成"如果...那么..."的规则,机器就能变得智能。

1980年代,这种思路催生了"专家系统"热潮。日本政府投入近9亿美元启动了"第五代计算机"计划,目标是造出能够自主推理的计算机。各大公司纷纷投入重金开发专家系统。

但专家系统很快暴露了致命问题:

:每条规则都需要人类专家手工编写。一个医疗诊断系统可能需要上万条规则,而且规则之间经常矛盾

:面对规则库之外的情况,系统彻底懵圈,连"这个我不知道"都说不出来

:这些系统不会从经验中成长,永远只能做被明确编程的事

到了1980年代末,专家系统的泡沫破裂。日本的"第五代"计划以失败告终。AI迎来了第二次寒冬。

第三章:暗流——寒冬中的播种者(1986—1997)

寒冬并不意味着所有人都停下了脚步。

恰恰相反,AI历史上最重要的几项发明,都诞生在这段"无人关注"的年代。就像种子在冰雪下悄悄萌发,等待春天。

反向传播:多层网络学会了训练自己(1986)

1986年,三位研究者发表了一篇论文,解决了一个困扰神经网络领域十几年的核心问题:多层神经网络怎么训练?

Scroll for more