1956年夏天,美国新罕布什尔州达特茅斯学院的一间会议室里,十多位学者聚集在一起,讨论着一个当时看来近乎科幻的概念——"用机器模拟人类智能"。这场为期两个月的研讨会,后来被公认为人工智能领域的奠基性事件。会议发起人约翰·麦卡锡首次使用了"Artificial Intelligence"这个术语,将其定义为"制造智能机器的科学与工程"。
当时参会者包括克劳德·香农(信息论奠基人)、马文·明斯基(后来的MIT AI实验室创始人)、艾伦·纽厄尔和赫伯特·西蒙(计算机科学先驱)等顶尖学者。他们乐观地预测:"经过一个夏天的努力,我们就能在机器智能方面取得重大突破。"这种天真的预期后来被称为"达特茅斯之梦"。
有趣的是,会议提案中已经包含了现代AI研究的几乎所有核心方向:自然语言处理、神经网络、计算理论、创造性思维和机器学习。这些概念在当时的计算机(如IBM 704每秒只能执行12,000次加法运算)上几乎不可能实现,却为后续发展划定了蓝图。
人工智能的思想根源可以追溯到更早的时期。17世纪莱布尼茨就设想过"通用符号系统",布尔在19世纪中期建立的布尔代数,为计算机逻辑运算提供了数学基础。20世纪30-40年代,哥德尔、丘奇、图灵等人关于可计算性的研究,从理论上证明了机器处理符号逻辑的可能性。
图灵在1950年发表的《计算机器与智能》中提出了著名的"图灵测试"——如果一台机器能够通过文本对话让人无法区分它是机器还是人类,就可以认为它具有智能。这篇论文还探讨了机器学习、遗传算法等概念,比达特茅斯会议早了整整六年。
1943年,麦卡洛克和皮茨发表了《神经活动中内在思想的逻辑演算》,首次用数学模型描述神经元工作原理。1949年,赫布提出"赫布理论",解释神经网络如何通过经验改变连接强度——这成为后来深度学习的重要理论基础。
同一时期,维纳的控制论研究系统如何通过反馈实现自我调节,这些思想直接影响了早期AI研究者对智能系统的理解。1951年,明斯基建造了第一个随机连接的神经网络机器SNARC,使用3000个真空管模拟40个神经元。
会议期间,纽厄尔和西蒙展示了"逻辑理论家"程序,这是第一个能够自动证明数学定理的软件。它采用启发式搜索方法,成功证明了《数学原理》中52个定理中的38个,甚至发现了更优雅的证明方式。这个程序首次展示了计算机不仅能执行计算,还能进行类似人类推理的符号操作。
程序的工作原理是:
另一位参会者亚瑟·塞缪尔正在开发国际跳棋程序,这是最早的机器学习系统之一。它通过以下创新实现了自我改进:
到1962年,这个程序已经能击败州冠军选手,证明了机器学习在特定领域的潜力。塞缪尔创造了"机器学习"这个术语,将其定义为"让计算机不通过明确编程就能学习的研究领域"。
尽管与会者预期的"重大突破"没有在那个夏天实现,但会议产生了深远影响:
最初的乐观主义很快遇到现实挑战。1966年的ALPAC报告指出机器翻译进展缓慢,导致相关经费大幅削减,这是AI领域的第一次"寒冬"。明斯基后来反思:"问题比我们想象的要复杂几个数量级。"
达特茅斯会议后,AI研究逐渐分化为两大阵营:
符号主义(纽厄尔、西蒙):
连接主义(罗森布拉特):
这种分化持续至今,现代深度学习可视为连接主义的延伸,而知识图谱则继承了符号主义的传统。
AI领域经历了多次"寒冬"与"复兴"的循环:
当前深度学习的热潮让人想起达特茅斯的早期乐观,但研究者已经学会更谨慎地评估技术成熟度。一个显著进步是:现代AI系统如GPT-3确实在某些狭窄领域展现出类似人类的表现,尽管它们的工作原理与人类智能截然不同。
达特茅斯会议提出的许多基本问题仍然开放:
这些问题不仅关乎技术实现,还涉及哲学、心理学和神经科学。正如明斯基所说:"AI是最深刻的科学之一,因为它迫使我们重新思考思考本身。"