来源:市场资讯
(来源:图灵人工智能)
人工智能是一门融合计算机科学、控制论、神经生理学、心理学等多学科的交叉领域,其核心是通过计算机模拟人类的感知、推理、决策与学习能力,延伸和拓展自然智能。
从人类对智能机器的朦胧构想,到如今人工智能深度融入日常生活,这一历程充满了艰辛与曲折,既有突破性进展的喜悦,也有陷入瓶颈的沉寂,一代代研究者的坚守与探索,推动着这项技术不断迭代前行,最终走向与人类共生共融的新阶段。
本文将梳理人工智能的完整发展脉络,剖析各时期的技术突破与局限,并结合相关参考资料,还原这段波澜壮阔的技术演进史。
一、萌芽与诞生:符号主义的兴起(20世纪40年代-60年代)
本阶段核心是符号主义初步探索,人工智能正式诞生,关键时间节点与突破如下:
1913年:罗素《数学原理》出版,构建严密数理逻辑体系,为机器模拟人类推理奠定理论基础。
1943年:麦卡洛克和皮茨提出人工神经网络概念,构建人工神经元MP模型,开创人工神经网络研究时代。
1946年:世界上第一台数字式电子计算机诞生,为人工智能提供核心硬件支撑。
1949年:赫布提出赫布学习定律,揭示大脑神经元协同工作机制,为机器学习提供重要启发。
1950年:图灵在《计算机械与智能》一文中提出图灵测试,确立机器智能判定标准,同时研发出世界上第一个AI国际象棋程序。
1956年:达特茅斯会议召开,麦卡锡首次提出“人工智能”概念,标志着人工智能正式诞生;同年,纽厄尔、西蒙、肖研制成功“逻辑理论机”,塞谬尔研制出具备自学能力的跳棋程序。
1958年:麦卡锡发明LISP语言,成为早期人工智能研发的核心工具。
本阶段技术发展呈现逐步上升态势,核心成果集中在理论奠基与初步实践,以下折线图直观展示该阶段的技术突破节奏:
![]()
尽管这一时期取得了一系列突破性进展,但技术局限也逐渐显现。早期的人工智能系统高度依赖人工编写的逻辑规则,缺乏自主学习和适应复杂环境的能力,只能处理特定领域的简单问题,无法应对现实世界中的不确定性和复杂语义。
例如,当时的跳棋程序仅能处理跳棋这一单一场景,无法迁移到其他博弈场景;逻辑理论机也只能处理简单的数学定理证明,难以应用于实际生产生活。此外,当时的计算机内存和处理速度有限,无法承载复杂的智能算法,也无法构建庞大的知识库来支撑程序学习更丰富的知识。
这些局限使得早期人工智能的发展逐渐陷入瓶颈,人们对人工智能的过高期望与实际应用效果之间的差距不断扩大,为后续第一次人工智能寒冬的到来埋下了伏笔。
参考资料来源:
- 谭营. 了解人工智能[M]. 清华大学出版社, 2019.
- Turing A M. Computing Machinery and Intelligence[J]. Mind, 1950, 59(236): 433-460.(图灵测试原始论文)
- McCarthy J, Minsky M L, Rochester N, et al. A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence[R]. Dartmouth College, 1955.(达特茅斯会议提案,人工智能概念首次提出)
- Russell S J, Norvig P. 人工智能:一种现代方法(第3版)[M]. 殷建平, 祝恩, 刘越, 等译. 清华大学出版社, 2013.(权威教材)
二、第一次繁荣与沉寂:专家系统的兴衰(20世纪70年代-80年代初)
本阶段核心是专家系统兴起与繁荣,随后因技术局限陷入第一次人工智能寒冬,关键时间节点与突破如下:
1966年-1972年:美国斯坦福国际研究所研制出首台人工智能移动机器人Shakey,可自主感知环境、规划行进路线;同期,麻省理工学院魏泽鲍姆发布世界上第一个聊天机器人ELIZA。
1968年:费根鲍姆研制成功第一个专家系统DENDRAL,可根据质谱数据判断有机化合物分子结构,标志着专家系统分支诞生。
1971年:斯坦福大学肖特利夫等人开始研制医疗专家系统MYCIN,采用“知识库+推理机”结构,引入“可信度”概念进行非确定性推理。
1976年:斯坦福研究所杜达等专家启动地质勘探专家系统研发,1981年研制成功,激发人工智能“淘金热”。
20世纪70年代末-80年代初:企业界、商业界纷纷投资智能产业,专家系统广泛应用,但技术局限逐渐凸显,资助机构停止相关资助,人工智能进入第一次沉寂期。
繁荣背后的技术局限日益凸显,最终导致了第一次人工智能寒冬的到来。当时的专家系统存在明显的局限性:
一是知识获取难度大,专家系统的性能高度依赖领域专家的知识输入,而人工提取和整理专家知识的过程繁琐、效率低下,难以覆盖复杂领域的所有知识;
二是通用性差,每个专家系统仅能处理特定领域的问题,无法跨领域应用,且无法适应环境变化,一旦遇到超出知识库范围的问题就会失效;
三是硬件支撑不足,当时的计算机内存和处理速度有限,无法承载大规模的知识库和复杂的推理算法,导致专家系统的运行效率低下。
此外,人们对人工智能的过高期望未能实现,原本提供资助的英国政府、美国国防部高级研究计划局等机构逐渐停止对人工智能研究的资助,美国国家科学委员会在拨款二千万美元后也停止了相关资助,人工智能的科学活动和商业活动大幅衰退,从1970年代开始,进入了长达近20年的沉寂期。
参考资料来源:
- 谭营. 了解人工智能[M]. 清华大学出版社, 2019.
- Russell S J, Norvig P. 人工智能:一种现代方法(第3版)[M]. 殷建平, 祝恩, 刘越, 等译. 清华大学出版社, 2013.(权威教材)
- Feigenbaum E A, Buchanan B G, Lederberg J. DENDRAL: A Case Study of the First Expert System for Scientific Hypothesis Formation[J]. Artificial Intelligence, 1971, 2(4): 165-190.(DENDRAL专家系统原始论文)
三、第二次繁荣与沉寂:连接主义的复兴与遇挫(20世纪80年代-90年代初)
本阶段核心是连接主义复兴,多层神经网络取得突破,随后再次陷入沉寂,关键时间节点与突破如下:
1981年:日本经济产业省拨款8.5亿美元,启动第五代计算机项目,试图研发具备自主学习、推理和决策能力的智能计算机,引发全球技术竞争。
1984年:道格拉斯·莱纳特带领启动Cyc项目,目标构建庞大常识知识库,推动人工智能向通用智能迈进。
1986年:鲁梅尔哈特、辛顿等人在《自然》杂志发表论文,提出多层神经网络和BP反向传播算法,推动人工神经网络研究复兴。
20世纪80年代末:世界500强企业中近一半研制或使用专家系统,广泛应用于工业制造、金融、医疗等领域。
1987年-1993年:连接主义面临训练效率低、过拟合等瓶颈,专家系统弊端凸显,资金减少,人工智能进入第二次寒冬。
但此次繁荣并未持续太久,技术局限和市场变化再次导致人工智能陷入沉寂。
一方面,连接主义的发展面临瓶颈,当时的多层神经网络虽然解决了部分学习问题,但存在训练效率低、过拟合等问题,且受限于数据量不足,无法实现复杂的智能任务;
另一方面,专家系统的弊端日益凸显,其高昂的软硬件开销、有限的实用性难以适应市场需求,20世纪80年代晚期,苹果、IBM开始推广第一代台式机,其费用远低于专家系统的软硬件开销,使得企业逐渐放弃专家系统,转向更实用的计算机应用。
此外,美国国防部高级研究计划局的新任领导认为人工智能并非“下一个浪潮”,转而资助更容易出成果的项目,资金的减少进一步加剧了人工智能的衰退,从1987年开始,人工智能进入第二次寒冬,持续至1993年。
参考资料来源:
- Rumelhart D E, Hinton G E, Williams R J. Learning representations by back-propagating errors[J]. Nature, 1986, 323(6088): 533-536.(BP反向传播算法原始论文)
- 尼克. 人工智能简史[M]. 人民邮电出版社, 2017.
- Russell S J, Norvig P. 人工智能:一种现代方法(第3版)[M]. 殷建平, 祝恩, 刘越, 等译. 清华大学出版社, 2013.(权威教材)
四、复苏与突破:统计学习与深度学习的崛起(20世纪90年代-21世纪10年代)
本阶段核心是统计学习成熟、深度学习突破,人工智能逐步复苏并快速发展,关键时间节点与突破如下:
1995年:软边距非线性 SVM(支持向量机)提出,标志着统计学习理论成熟,广泛应用于文本分类、图像识别等领域。
1997年5月:IBM “深蓝”超级计算机击败国际象棋世界冠军卡斯帕罗夫,成为首个在标准时限内击败该级别选手的电脑系统,推动机器博弈领域发展。
2002年:美国 iRobot 公司推出吸尘器机器人 Roomba,成为家用人工智能产品早期代表,可自主避障、规划路线、自动充电。
2011年:IBM Watson 在美国智力问答节目中击败两位人类冠军,展现自然语言处理和知识检索领域的突破。
2012年:加拿大神经学家团队创造虚拟大脑 Spaun,通过基础智商测试;克里泽夫斯基等人在 NIPS 2012 发表论文,提出 AlexNet,大幅提升图像识别准确率,推动深度学习崛起。
2013年:Facebook 成立人工智能实验室,Google 收购 DNNResearch,百度创立深度学习研究院,推动深度学习技术迭代。
2014年:聊天程序“尤金·古斯特曼”通过图灵测试,标志自然语言交互领域重大突破。
2017年:Google 团队 Ashish Vaswani 等人在 NeurIPS 2017 发表《Attention Is All You Need》论文(即 Transformer 论文),首次提出基于自注意力机制的 Transformer 架构,彻底颠覆传统循环神经网络(RNN)和长短期记忆网络(LSTM),大幅提升模型并行化能力和长距离依赖处理能力,成为现代大模型的核心架构基础,为后续 GPT 系列、BERT 等模型的研发奠定了关键基础[3]。
本阶段后期,Transformer 架构的出现成为深度学习向大模型演进的关键转折点。
这一时期的技术突破解决了此前人工智能的诸多局限,数据量的积累、计算力的提升和算法的创新,使得人工智能能够处理更复杂的任务,泛化能力和适应能力大幅提升。
其中,2017年 Transformer 论文的发表具有里程碑意义,其提出的自注意力机制无需依赖传统循环或卷积结构,能够同时关注输入序列中的所有位置,不仅提高了模型训练效率,还为大规模语言模型的研发铺平了道路,成为现代大模型的“标准建筑块”,此后几乎所有前沿生成式AI系统都基于这一架构演进而来。
但本阶段局限性依然存在:深度学习需要大量标注数据,数据获取和标注的成本高昂;算法的可解释性差,难以说明人工智能决策的具体逻辑,被称为“黑箱模型”;此外,人工智能的应用范围仍局限于特定领域,未能实现通用智能,无法像人类一样灵活应对各种复杂场景。
参考资料来源:
- Krizhevsky A, Sutskever I, Hinton G E. ImageNet Classification with Deep Convolutional Neural Networks[C]//Advances in Neural Information Processing Systems. 2012: 1097-1105.(AlexNet原始论文,NIPS 2012)
- 人民论坛网. 人类智能和机器智能共生共融的科学逻辑[EB/OL]. 2025-12-04.
- Russell S J, Norvig P. 人工智能:一种现代方法(第3版)[M]. 殷建平, 祝恩, 刘越, 等译. 清华大学出版社, 2013.(权威教材)
- Vaswani A, Shazeer N, Parmar N, et al. Attention Is All You Need[C]//Advances in Neural Information Processing Systems. 2017: 5998-6008.(Transformer原始论文,NeurIPS 2017)
五、爆发与共生:大模型时代的来临(2020年至今)
本阶段核心是大模型崛起,人工智能进入爆发式发展,向通用智能迈进,关键时间节点与突破如下:
2020年:布朗等人在 NeurIPS 2020 发表论文,提出 GPT-3 千亿参数模型,展现上下文学习等涌现能力,推动生成式人工智能商业化(基于 Transformer 架构迭代)。
2021年:AlphaFold 2 精准预测98.5%的人类蛋白质结构,开启计算生物学新纪元。
2022年:ChatGPT 实现规模化应用,单日注册用户超百万,推动生成式人工智能进入主流场景(基于 Transformer 架构优化)。
2023年:GPT-4V 多模态大模型发布,支持图文联合推理,提升人工智能感知与理解能力(延续 Transformer 核心架构)。
2025年:中国人工智能企业超 6000 家,核心产业规模预计突破 1.2 万亿元;《人工智能大模型》系列国家标准正式实施,规范行业发展。
尽管大模型时代的人工智能取得了前所未有的突破,但依然面临诸多挑战。
伦理问题日益凸显,生成内容的真实性难以保证,算法偏见可能加剧社会不公;大模型的训练需要巨大的计算资源和能源消耗,带来了一定的环境压力;
此外,通用人工智能(AGI)仍未实现,大模型虽然具备较强的涌现能力,但在自主意识、情感理解等方面与人类智能仍有较大差距,无法完全模拟人类的复杂思维和行为。需要强调的是,现代大模型的爆发式发展,核心得益于2017年 Transformer 架构的突破,其自注意力机制为大模型的并行训练、长文本处理和高效学习提供了关键支撑,成为大模型研发的基本标准。
中国电子技术标准化研究院牵头制定的《人工智能大模型》系列国家标准正式实施,为大模型产业发展提供了统一规范,推动行业健康有序发展。
参考资料来源:
- Brown T B, Mann B, Ryder N, et al. Language Models are Few-Shot Learners[C]//Advances in Neural Information Processing Systems. 2020: 1877-1901.(GPT-3原始论文,NeurIPS 2020)
- 中国电子技术标准化研究院. 人工智能产业发展报告(2025)[R]. 2025.(行业报告)
- 中国电子技术标准化研究院. 人工智能大模型系列国家标准解读[EB/OL]. 2025-12-29.
- 人民论坛网. 人类智能和机器智能共生共融的科学逻辑[EB/OL]. 2025-12-04.
六、结语
回望人工智能的发展历程,从符号主义的初步探索到连接主义的复兴,从统计学习的崛起至大模型的爆发,每一次突破都离不开研究者的坚守与创新,每一次沉寂都为后续的飞跃积累了经验。其中,2017年 Transformer 论文的发表是关键转折点,其奠定的架构基础,直接推动人工智能从深度学习阶段迈入大模型时代,成为现代大模型的核心技术标准。人工智能的发展,本质上是人类对自身智能的探索与模拟,在这一过程中,人类与机器的边界逐渐变得模糊。
机器越来越像人,是因为人工智能在不断模拟人类的感知、推理、学习甚至情感表达能力。如今的大模型能够理解人类的语言、识别人类的情绪,能够自主学习新知识、解决复杂问题,甚至在某些领域展现出超越人类的能力。深度学习奠基者杰弗里·辛顿曾指出,人类大脑和大语言模型对语言的理解几乎是同一种方式,机器也会像人类一样产生“幻觉”,这一观点揭示了机器智能与人类智能的深层关联。从 ELIZA 简单的语言交互,到 ChatGPT 的自然对话;从“深蓝”的国际象棋博弈,到 AlphaGo 的围棋胜利,机器正在一步步靠近人类的智能水平,甚至在某些方面实现了超越。
这种相互靠近、相互融合的趋势,并非人类与机器的对立,而是共生共融的开始。正如李德毅院士所提出的,人类智能与机器智能在 “物理上同源,数学上同构”,二者都是通过吸收信息以抵抗熵增、维系自身秩序的系统。人类的优势在于具身探索与推理决策,机器的专长在于高速建模与数据处理,二者的深度融合,将构建一个更高效的协同整体,推动人类文明向更高层次演进。未来,人工智能的发展仍将充满挑战,但可以肯定的是,人与机器的共生共融,将成为人工智能发展的终极方向,也将重塑人类的未来。
机器越来越像人,人越来越像机器。
大家都有幻觉,大家都有美好的未来~
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.