人工智能(AI),如今已深刻地改变着我们的世界。它并非横空出世,而是历经数十载的沉淀、探索、挫折与突破。每一次技术的飞跃,都离不开那些富有远见、敢于坚持的先行者。他们或是潜心理论的智者,或是架构宏图的工程师,或是开疆拓土的企业家。正是这群关键人物,将冰冷的代码与抽象的算法,浇灌成了今天蓬勃生长的智能之树。
本文将追溯人工智能波澜壮阔的发展历程,按时代脉络划分其演进阶段,深入剖析各阶段的核心技术突破。同时,我们将过程中驱动变革的关键人物的个人故事、性格特质与他们的开创性贡献无缝融合,揭示AI是如何一步步走向今天,并展望其未来图景。
第一阶段:概念的诞生与符号主义的黄金时代 (1950s - Late 1960s)
人工智能的故事,始于对“机器能否思考”这一古老哲学命题的现代技术追问。
- 概念的火花:图灵测试与“人工智能”的提出
1950年,英国数学家、逻辑学家艾伦·图灵(Alan Turing)发表了划时代的论文《计算机器与智能》(Computing Machinery and Intelligence),提出了著名的图灵测试。他避开了对“思考”进行哲学定义,转而设计了一个判别标准:如果一台机器在与人类交流时,能够让大部分人无法分辨它与真人之间的区别,那么就可以认为这台机器具有智能。图灵以其跨学科的深邃思考,将智能从生物学桎梏中解放,置于计算的可能性范畴,为AI研究奠定了理论基石。图灵短暂而充满传奇色彩的一生,他对可计算性、通用计算模型(图灵机)的探索,都彰显了他超前的洞察力,远在计算机尚属蹒跚学步的年代,他已预见到机器智能的潜力。
艾伦·图灵
,他提出的图灵测试至今仍是衡量机器智能的标杆
真正的“人工智能”一词,则在几年后被正式提出。1956年夏天,一个历史性的会议在美国达特茅斯学院召开。会议的发起人之一,年轻的数学家约翰·麦卡锡(John McCarthy)正是为了给这个新兴的研究领域命名,创造了“Artificial Intelligence”(人工智能)这个术语。麦卡锡、马文·明斯基(Marvin Minsky)、克劳德·香农(Claude Shannon)、赫伯特·西蒙(Herbert Simon)等科学家汇聚一堂,希望用整个夏天的时间,探索如何制造出能够模拟人类学习或其他智能行为的机器。达特茅斯会议被公认为人工智能作为一门独立学科的正式起点。这些早期研究者充满了理想主义和乐观精神,他们相信只要赋予机器一套符号规则和推理能力,很快就能复制甚至超越人类智能,这催生了早期的符号主义AI浪潮。
约翰·麦卡锡
,他不仅为AI命名,也为AI研究奠定了早期的方法论
- 符号处理与早期探索
符号主义的核心思想是将人类智能视为基于符号的逻辑操作和推理过程。研究者们尝试构建能够进行定理证明、下棋甚至解决初级代数问题的程序。例如,由西蒙和纽维尔(Allen Newell)开发的“逻辑理论家”(Logic Theorist)和“通用问题解决程序”(GPS),试图模拟人类解决问题的思维过程,在有限的问题领域取得了一定的成功。
- 神经网络的萌芽:感知机
与此同时,另一条技术路线——连接主义——也开始萌芽。受到生物神经元结构的启发,研究者试图构建模拟大脑神经网络的模型。1950年代末,美国心理学家弗兰克·罗森布拉特(Frank Rosenblatt)发明了感知机(Perceptron)。这是一个简单的单层神经网络模型,能够进行线性分类。罗森布拉特对感知机寄予厚望,认为它最终能够实现感知、识别甚至意识等复杂智能行为。感知机代表了早期连接主义的尝试,为后续的神经网络研究埋下了伏笔,尽管它的简单性决定了其处理复杂问题的局限。罗森布拉特的乐观与执着,反映了早期连接主义者对模拟大脑的朴素信仰。
弗兰克·罗森布拉特,
感知机模型,神经网络的雏形,开启了机器“学习”的大门
尽管早期的AI系统在特定“玩具问题”(toy problems)上表现不俗——这些问题通常是规则明确、范围有限的理想化场景,如棋类游戏或定理证明——但这一时期弥漫着对通用人工智能的过度乐观情绪。研究者们低估了现实世界的复杂性、常识知识的获取难度以及所需的庞大计算资源。这为即将到来的挑战埋下了伏笔。
第二阶段:现实的碰撞与第一次AI寒冬 (Late 1960s - Late 1970s)
早期的狂热过后,人工智能研究遭遇了现实的冰冷。
AI寒冬:理想与现实的巨大差距导致了研究的停滞期
- 梦想与现实的差距
早期符号主义AI在解决现实世界问题时遇到了巨大障碍。它们难以处理充满不确定性、模糊性和非结构化信息的世界。机器无法理解常识,知识库的构建和维护也异常困难。例如,一个符号系统可以证明数学定理,但无法理解一个简单的句子在不同上下文中的含义。
罗森布拉特的感知机虽然理论上能进行线性分类,但其局限性被明斯基和帕珀特(Seymour Papert)在1969年的著作《感知机》中以数学方式证明,指出简单的感知机无法解决非线性问题(如异或问题)。这一打击使得当时尚处于萌芽期的神经网络研究陷入低谷,几乎销声匿迹。
- 资金削减与“寒冬”降临
技术上的瓶颈很快传导到了研究经费上。早期的过度承诺未能兑现,导致资助机构信心动摇。1966年,美国政府对机器翻译项目的评估报告(ALPAC报告)指出进展缓慢、投入巨大,导致该领域资金大幅削减。1973年,英国利特希尔报告(Lighthill report)严厉批评了英国AI研究,认为其未能带来预期的社会效益,随之而来的也是AI项目的大量削减。
研究经费的减少、项目的终止、人才的流失,使得人工智能研究进入了第一次“AI寒冬”。这是一个充满挑战的时代,研究者们开始反思早期方法的不足,寻找新的突破口。虽然寒冬抑制了AI整体的快速发展,但一些研究者并未放弃,他们在边缘地带默默耕耘,探索新的可能性,为后来的复兴积蓄力量。
第三阶段:专家系统崛起与连接主义的微光 (1980s - Early 1990s)
经历了寒冬的洗礼,人工智能在1980年代迎来了短暂的复兴,主要得益于“专家系统”的成功,同时,神经网络研究也开始悄悄地重获生机。
- 专家系统的实用化浪潮
专家系统是这一时期AI领域最显著的成就。它是一种模拟人类专家在特定领域进行决策和推理的计算机程序,通常由一个知识库(包含事实和规则)和一个推理引擎组成。例如,用于医学诊断的MYCIN系统,虽然未投入临床使用,但在特定诊断任务上表现出媲美人类专家的水平。在商业领域,专家系统在故障诊断、金融分析、资源调度等方面取得了商业成功,为企业带来了实实在在的效益,开启了AI的第一次商业化浪潮。这股热潮吸引了新的投资,AI研究也随之恢复了活力。
专家系统将人类知识规则化,在特定领域取得了商业成功
然而,专家系统高度依赖于人工构建的知识库,知识获取(或称“知识瓶颈”)成为其推广和维护的巨大障碍。每个新领域都需要从头构建知识库,且难以处理不确定性信息和进行自我学习,这最终导致专家系统在1980年代末期再度衰落,AI研究进入了第二次低谷。
- 神经网络的复兴:反向传播与CNN雏形
就在专家系统如日中天之际,沉寂多年的神经网络研究者们并未停下脚步。1980年代,他们重新发现了反向传播算法(Backpropagation, BP)的重要性并对其进行了改进。虽然BP算法的理论基础在更早之前就已存在,但正是杰弗里·辛顿(Geoffrey Hinton)与他的合作者在1986年发表的论文,系统地阐述了如何使用BP算法有效训练多层神经网络。
杰弗里·辛顿
,深度学习领域的精神领袖,他的坚持迎来了AI的春天
辛顿,这位后来被誉为“深度学习之父”的科学家,有着对大脑学习机制的深厚兴趣。他在AI的低谷时期坚持探索连接主义路线,相信模拟大脑神经网络是实现智能的关键。BP算法的普及,使得神经网络能够学习输入与输出之间的复杂非线性映射,克服了感知机的局限,为训练更深的神经网络模型奠定了基础。辛顿的坚持不懈,以及他对BP算法的贡献,是神经网络研究能够走出低谷、迈向复兴的关键。
紧随其后,另一位深度学习领域的先驱——杨立昆(Yann LeCun)——在贝尔实验室工作期间,基于生物视觉的启发,发展了卷积神经网络(Convolutional Neural Network, CNN)的理论和结构。1989年,杨立昆团队开发了经典的LeNet模型,并在手写数字识别任务上取得了当时的最佳效果。LeNet的成功,标志着CNN在解决实际视觉问题上的潜力,为后续计算机视觉领域被深度学习彻底改变埋下了伏笔。杨立昆将理论创新与工程实践相结合的能力,使其成为推动CNN从概念走向实用的关键人物。
杨立昆
(Yann LeCun),他的CNN研究为后来的计算机视觉革命铺平了道路
在这一时期,“符号主义”与“连接主义”的争论仍在继续。虽然专家系统的商业成功让符号主义一度占据上风,但辛顿、杨立昆等人的工作,如微弱的火光,预示着连接主义路线的勃兴潜力。计算能力的逐步提升,也开始为更复杂的神经网络模型训练提供了可能。
第四阶段:统计学习与机器学习的实用化 (Mid 1990s - Late 2000s)
进入20世纪90年代中期,随着互联网的普及和计算能力的飞速发展,人工智能研究变得更加务实,统计机器学习方法成为主流,并在多个应用领域取得了显著成功。
从规则到数据,统计学习为AI带来了范式转移
- 数据为王:统计机器学习的兴盛
互联网的兴起带来了海量的数据——网页文本、用户行为、图像、视频等等。研究者们发现,与其试图人工构建复杂的知识库,不如让机器从大量数据中学习规律。以支持向量机(SVM)、决策树、随机森林等为代表的统计机器学习方法,在分类、回归等任务上表现出色。这些方法理论基础坚实,泛化能力较强,并且能够有效利用不断增长的数据。机器学习作为一个更广泛的概念开始流行,涵盖了各种从数据中学习的技术,不再局限于特定的智能模拟方式。
这一时期,AI在搜索引擎、垃圾邮件过滤、推荐系统、自然语言处理的特定任务(如文本分类)等互联网应用中发挥了关键作用。1997年,IBM的深蓝超级计算机在国际象棋中击败了当时的人类世界冠军卡斯帕罗夫,这更多是计算能力和特定领域搜索算法的胜利,但也极大地提升了AI的知名度,展示了机器在复杂决策任务中超越人类的可能性。
- 基础设施与数据基石
统计机器学习的成功,离不开背后日益强大的计算能力和数据处理能力。在谷歌这样的互联网公司,处理海量数据成为了核心挑战。杰夫·迪恩(Jeff Dean)作为谷歌的核心技术骨干,设计并实现了多项奠定现代大规模计算基础的系统,包括分布式计算框架MapReduce、分布式存储系统Bigtable、全球分布式数据库Spanner等。这些基础设施极大地简化了海量数据的处理和分析,为后来深度学习所需的分布式训练提供了坚实的工程基础。迪恩作为一位卓越的系统工程师,其贡献印证了AI的进步并非只有算法层面的突破,强大的计算和数据处理系统同样不可或缺。他像一位默默构建地基的巨人,支撑起了互联网时代的数据大厦。
杰夫·迪恩
,他为Google乃至整个AI世界构建了强大的计算基础设施
仅仅有数据和算法还不够,还需要高质量、大规模的标注数据集来训练模型。在计算机视觉领域,这个问题尤为突出。斯坦福大学教授李飞飞(Fei-Fei Li)敏锐地认识到,“数据饥饿”是制约计算机视觉发展的关键因素。她坚信,要想让机器真正“看懂”世界,需要一个庞大且多样化的图像数据库。在克服了巨大的挑战后,她领导团队于2009年构建并发布了具有里程碑意义的ImageNet大规模视觉数据库。ImageNet包含了1400多万张按层级结构分类的图像,迅速成为评估计算机视觉模型性能的标准数据集。李飞飞以其远见卓识和坚韧的组织能力,为计算机视觉,乃至整个深度学习领域,提供了一块肥沃的土壤。
李飞飞
构建并发布
mageNet,为计算机视觉提供了肥沃的土壤
- 教育的普及与人才的培养
除了数据和算力的积累,人才的培养同样重要。吴恩达(Andrew Ng)作为斯坦福大学教授和后来的百度首席科学家,在推动机器学习和深度学习教育普及方面做出了巨大贡献。他在斯坦福开设的机器学习课程深受好评,并在2012年联合创办了Coursera在线教育平台,将高质量的机器学习课程推向全球数百万学习者。吴恩达以其清晰易懂的教学风格,降低了AI学习的门槛,培养了新一代的AI从业者和研究者。他的努力极大地促进了机器学习技术的传播和应用,是连接学术研究与工业实践、推动AI技术普惠的重要力量。吴恩达的职业生涯轨迹——从学术到工业再到教育——体现了他将AI的潜力带给更多人的愿望。
吴恩达
推动机器学习和深度学习教育普及
在统计学习实用化时期,尽管神经网络研究相对低调,但以Jeff Dean为代表的工程基础设施建设、以李飞飞为代表的数据集构建,以及以吴恩达为代表的人才培养和早期大规模实验探索,共同为即将到来的深度学习革命积蓄了关键力量。
第五阶段:深度学习的革命与现代AI浪潮 (Early 2010s - Present)
21世纪10年代初,大数据、高性能计算(特别是GPU)和算法进步三股力量汇聚,点燃了深度学习的燎原之势,将人工智能带入了前所未有的新纪元。
- 引爆点:ImageNet与AlexNet
2012年,在ImageNet大规模视觉识别挑战赛(ILSVRC)上,由杰弗里·辛顿教授领导的多伦多大学团队开发的深度卷积神经网络AlexNet模型一鸣惊人,将图像识别错误率大幅降低,取得了压倒性胜利。AlexNet是一个深层的卷积神经网络(CNN),它充分利用了GPU(图形处理器)强大的并行计算能力进行训练。GPU原本为图形渲染而设计,但其大规模并行架构被证明异常适合进行神经网络的矩阵运算。ImageNet提供的数据,GPU提供的算力,加上CNN强大的特征提取能力和BP算法的有效训练,共同促成了AlexNet的成功。
ImageNet提供了“燃料”,AlexNet点燃了引擎,开启了计算机视觉的新纪元
AlexNet的突破性表现,彻底改变了计算机视觉领域,也向整个AI界证明了深度学习的巨大潜力。这一刻被广泛视为深度学习革命的真正开端,标志着AI发展进入了一个新的阶段。辛顿教授几十年来对神经网络的坚持终于迎来了辉煌的时刻,他的“教父”地位也由此确立。近年来,辛顿教授开始公开表达对AI潜在风险的担忧,这显示了他作为一位顶级科学家对技术社会影响的深刻反思。
AlexNet团队的关键成员之一,伊尔亚·苏茨克维(Ilya Sutskever),正是辛顿的学生。他不仅在AlexNet的架构设计和训练上发挥了重要作用,此前也在循环神经网络(RNN)及其重要变种长短期记忆网络(LSTM)方面做出了贡献。这些序列模型对于处理文本、语音等时序数据至关重要。伊尔亚后来成为OpenAI的联合创始人兼首席科学家,他在OpenAI领导团队,深入探索Transformer架构,并推出了影响深远的GPT系列大语言模型。伊尔亚的技术天赋和对构建越来越强大的AI模型的专注,使他成为推动现代自然语言处理革命的核心人物。他代表了对AGI(通用人工智能)执着追求的技术理想主义者。
伊尔亚·苏茨克维
推动现代自然语言处理革命的核心人物
- CV与NLP的飞跃
深度学习的浪潮迅速席卷了AI的各个子领域。在计算机视觉领域,杨立昆奠定的CNN架构成为主流,并在图像分类、目标检测、语义分割等任务中取得了令人瞩目的进展。杨立昆作为CNN的先驱,持续在Meta(原Facebook)的AI研究院(FAIR)推动前沿研究,包括探索新的神经网络结构和对未来AI模型(如“世界模型”)的独到思考,有时与当前大模型的主流方向形成有趣对比。他的贡献跨越了CNN的早期探索和深度学习的爆发时代。
在自然语言处理(NLP)领域,RNN和LSTM在机器翻译、语音识别等方面取得了突破。随后,2017年谷歌提出的Transformer模型凭借其强大的并行计算能力和对长距离依赖关系的有效捕捉,几乎统一了NLP的主流架构。Transformer的出现,以及随后的预训练模型(如BERT)和大规模语言模型(LLMs)的爆发,彻底革新了NLP领域。
- 生成模型的崛起与强化学习的新高度
深度学习不仅提升了AI的感知和理解能力,也极大地增强了其“创造”能力。2014年,伊恩·古德费洛(Ian Goodfellow)提出了一种全新的生成模型框架——生成对抗网络(GAN,Generative Adversarial Network)。GAN包含一个生成器网络和一个判别器网络,两者通过相互对抗的方式进行训练:生成器试图生成逼真的样本,而判别器试图区分真实样本和生成样本。这种巧妙的博弈机制使得GAN能够生成高度逼真的图像、音频等数据,为AI生成内容(AIGC)领域开启了新的篇章。古德费洛在“一夜之间”构思并实现GAN的故事,彰显了其非凡的算法洞察力和快速将想法变为现实的能力。
伊恩·古德费洛
提出了一种全新的生成模型框架——
生成对抗网络
与此同时,强化学习也迎来了里程碑式的突破。戴密斯·哈萨比斯(Demis Hassabis)创办的DeepMind公司,致力于将强化学习与深度学习结合,解决复杂决策问题。作为一位神经科学家和前游戏开发者,哈萨比斯对人类智能的运作机制有着独特的理解,并希望通过AI来探索智能的本质。
戴密斯·哈萨比斯
致力于将强化学习与深度学习结合,解决复杂决策问题
2016年,DeepMind开发的围棋程序AlphaGo,在一场举世瞩目的比赛中击败了人类围棋世界冠军李世石。AlphaGo结合了深度学习(用于评估棋局和选择落子)和蒙特卡洛树搜索,展现了AI在复杂策略游戏中的超凡能力。AlphaGo的胜利不仅是一个技术成就,更在文化上产生了巨大影响,让公众直观感受到了现代AI的强大。DeepMind在哈萨比斯的领导下,随后又推出了无需人类棋谱、完全通过自我对弈学习的AlphaGo Zero,并在蛋白质结构预测(AlphaFold)等科学领域取得突破,展示了AI for Science的巨大潜力。哈萨比斯将不同领域的知识融合,推动AI解决现实难题,体现了他对AGI愿景的执着。
- 大模型时代的浪潮与产业格局
进入21世纪20年代,以Transformer为基础的大规模预训练语言模型(如GPT-3, GPT-4)以前所未有的通用性和能力震撼了世界。它们在文本生成、翻译、问答、代码编写等多种任务上表现出色。2022年底,OpenAI发布的ChatGPT,基于GPT-3.5模型,以其流畅自然的交互能力迅速风靡全球,成为现象级应用。这标志着大模型技术走向了大众,引爆了新一轮的AI热潮。
OpenAI的CEO,萨姆·奥尔特曼(Sam Altman),是推动这一浪潮的关键人物。他曾是知名创业孵化器Y Combinator的总裁,拥有卓越的商业洞察力和战略执行力。在他的领导下,OpenAI成功从一个研究实验室转型为一家全球瞩目的AI产品公司。奥尔特曼凭借其创业家的敏锐,推动GPT模型快速迭代和商业化,构建了以用户为中心的AI生态系统。他对AGI的看法和对AI安全与监管的积极参与,也使其成为AI时代最具影响力的公众人物之一。他像一位富有魅力的指挥家,将OpenAI的技术实力转化为席卷全球的产业浪潮。
萨姆·奥尔特曼
推动GPT模型快速迭代和商业化,构建了以用户为中心的AI生态系统
在这一时期,杰夫·迪恩继续在谷歌扮演着AI基础设施和系统工程的领导者角色。他推动了TensorFlow深度学习框架的发展,以及专为AI计算设计的TPU(张量处理单元)硬件的研发。这些强大的工具和硬件平台,是谷歌及全球范围内进行大规模深度学习训练和部署的重要支撑。迪恩的工作确保了算法创新的想法能够落地并实现规模化应用,是连接理论突破与工业实践的桥梁。
李飞飞教授在ImageNet之后,继续关注以人为本的AI发展。她在斯坦福大学共同创立了以人为本人工智能研究院(HAI),致力于研究AI的社会影响、伦理、安全和普惠性。她强调AI的发展应始终围绕人类福祉,并在AI教育和跨学科研究方面持续发力。李飞飞以其人文关怀,引导AI技术向着更健康、更负责任的方向发展。
- 中国力量的崛起:本土创新与开源探索
在全球AI竞争日益激烈的背景下,中国本土的AI力量也在快速崛起。其中,深度求索(DeepSeek)公司凭借其在大模型领域的原创性技术突破受到关注。公司的创始人梁文锋,被描述为一位兼具深厚工程能力和模型研究能力的领导者。
梁文锋
及DeepSeek团队在大模型架构上的创新
旨在提高大模型的推理效率并降低成本
梁文锋及DeepSeek团队在大模型架构上的创新是其核心贡献。他们提出的MLA (Multi-head Latent Attention) 架构和DeepSeekMoE-Sparse结构,旨在提高大模型的推理效率并降低成本。特别是DeepSeek V3、R1模型,凭借其高性价比,直接引发了大模型市场的“价格战”。梁文锋坚持技术创新和开源路线,希望改变中国AI领域长期以来侧重应用而非底层技术创新的局面,推动中国成为全球AI原创创新的贡献者。他的故事代表了新一代中国AI企业家对技术理想主义的追求,以及在激烈的市场竞争中开辟新路径的努力。尽管在更广阔的国际AI史叙事中,梁文锋作为新近涌现的人物尚需时间沉淀以确立其长期地位,但他在中国大模型浪潮中扮演的关键角色及其对技术架构创新的贡献,无疑是现代AI发展中值得关注的本土力量。
总结与展望:迈向通用智能的未来
回望人工智能波澜壮阔的进化史,我们看到了一条从哲学思辨到符号推理,从专家系统到统计学习,最终走向深度学习、大模型和生成式AI的清晰脉络。每一次范式转移的背后,都离不开计算能力的指数级增长、可获得数据的海量积累,以及最关键的——那些充满智慧与勇气的科学家、工程师和企业家的不懈探索。
艾伦·图灵点燃了智能计算的火花,约翰·麦卡锡正式定义了AI的疆域。罗森布拉特、辛顿、杨立昆则在连接主义的道路上踽踽前行,最终辛顿引领了深度学习的爆发。杰夫·迪恩构建了支撑大规模AI的基础设施,李飞飞用ImageNet浇灌了计算机视觉的数据沃土,吴恩达则让机器学习的知识普惠大众。伊恩·古德费洛开创了生成模型的新纪元,戴密斯·哈萨比斯用AlphaGo展示了深度强化学习的力量与AI For Science的潜力。萨姆·奥尔特曼则将大模型技术推向了全球舞台,而梁文锋等中国力量则在架构创新和本土生态建设上贡献着独特的力量。
当前,AI正以前所未有的速度发展,从专用智能(ANI)向通用人工智能(AGI)的愿景迈进。多模态AI融合视觉、听觉、文本等信息,AI For Science加速基础科学研究,AI Agent(智能体)探索自主决策与规划的能力。
然而,AI也面临着诸多挑战:如何确保AI系统的安全、可解释性和鲁棒性?如何处理数据隐私和算法偏见?AGI何时到来,又将如何影响人类社会、经济和就业?
这些问题没有简单的答案。人工智能的未来,将是技术持续创新、伦理规范建立、社会结构调整以及全球协作共同塑造的结果。那些在AI发展史上留下浓墨重彩的关键人物,他们的思想遗产和未竟事业,将继续指引和激励着新一代AI探索者。从实验室的理论突破到改变世界的广泛应用,人工智能的故事远未结束。我们正站在新的起点上,共同见证和参与这场由智能驱动的史诗级变革。
*本文由MOE大模型辅助完成。图片创意ChatGPT、豆包、Comfyui。
All rights reserved. Copyright © 2025 ZGCICPA .
* 既往观点 *
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.