![]()
人类是地球唯一具备高等智慧的生命体,经过数百万年进化,大脑演化出约860亿个神经元,形成了复杂的神经网络系统。这套系统支撑着人类的感知、推理、语言创造、知识传承等核心智能能力,让我们成为了地球食物链的顶端。但人类大脑并非完美——它的记忆容量有限,对大量数据的处理效率低下,比如背诵千位数字易出错、重复计算百次乘法易失误。于是,人类开始探索制造辅助工具,以此解放大脑的算力与记忆力。
![]()
1946年,第一台计算机ENIAC诞生,开创性地解决了“快速运算、精准存储”的难题。但此时的计算机,本质上只是“执行指令的机器”,它能快速完成千次乘法计算,却无法思考计算背后的逻辑,更不能自主学习规律。科学家受人类大脑神经网络的启发,提出了一个大胆设想:能否模仿大脑神经元的连接方式,构建出“机器神经网络”?这一设想,正是AI技术的最初雏形。
![]()
1956年,达特茅斯会议顺利召开,约翰·麦卡锡等科学家在会议上正式提出“人工智能(Artificial Intelligence,缩写为AI)”概念,明确了“让机器模拟人类感知、思考、决策、执行”的核心目标。这次会议,标志着AI正式成为一门独立学科,开启了人类探索AI的新纪元。
要让机器模拟人类智能,首先要解决“沟通”问题——机器无法直接理解人类的自然语言。于是,自然语言处理(NLP)技术应运而生,其核心目标是让计算机“听懂人话、说人话、看懂文字、生成人类可理解的内容”。NLP成为了早期AI发展的核心支撑,也是AI与人类建立连接的重要桥梁。
早期的机器翻译,完全依赖词典、语法规则库和转换规则,属于“直译式”应用。比如英文句子“The apple is red”,机器会拆分单词并查询词典,再按照预设的语法规则排列,最终直译为“这苹果是红色的”。
但这种方式存在明显缺陷:表达生硬、缺乏语境感。它无法理解人类语言中的习惯用法,比如日常口语中更常说“这个苹果很红”,而不是“这苹果是红色的”;也无法根据上下文调整翻译,一旦遇到超出规则库的语言变体,就会给出错误结果。
![]()
这一阶段的AI,被称为“规则式AI”。它就像一个只会死记硬背的小学生,严格按照老师(人类)制定的规则执行任务,缺乏灵活性和自主判断能力。一旦遇到规则之外的问题,就会束手无策。这一阶段也被称为AI发展的“懵懂阶段”,为后续技术升级埋下了伏笔。
![]()
“规则式AI”的局限性日益凸显,科学家们开始思考:能否让机器不再依赖人工预设规则,而是通过自主学习数据来提炼规律?由此,机器学习(Machine Learning,缩写为ML)技术应运而生,成为AI发展的核心转折点。
机器学习的出现,让垃圾邮件过滤系统实现了质的飞跃,与早期规则式方法形成鲜明对比:
1.数据准备:给机器提供1000封标注为“垃圾邮件”和1000封标注为“正常邮件”的训练数据,这种带有明确标签的学习方式,被称为监督学习,就像“老师带着学生刷题”。
2.自主学习:机器对训练数据进行统计分析,自主发现规律——垃圾邮件中高频出现“免费”“优惠”“发票”等词汇,而正常邮件中“会议”“项目”“通知”“放假”等词汇占比更高。
3.实际应用:当新邮件进入系统时,机器会快速对比自身提炼的规律,若包含大量垃圾邮件高频词则判定为垃圾,反之则判定为正常。相比规则式方法,它不仅更灵活,还能识别部分语言变体,大幅降低误判率。
![]()
机器通过分析数据提炼出的“规律”“经验”,就是AI模型。它本质上是一个数学函数或程序,包含三大核心要素:输入(接收新数据)、处理(运用规律分析数据)、输出(生成最终结果)。AI模型的能力,直接取决于训练数据的质量和数量,以及学习算法的合理性。
这一阶段的AI,被称为“统计式AI”。它就像一个刷题总结规律的中学生,掌握了从数据中提炼规律的能力,解决了“不会学习”的问题。但它依然存在明显的短板——偏科严重。它只能处理训练数据覆盖范围内的问题,一旦遇到全新的领域或超出训练范围的场景,就无法给出准确判断,这也成为了AI进一步突破的核心瓶颈。
![]()
为解决“统计式AI”的偏科问题,2017年谷歌研究团队发表论文《Attention Is All You Need》,提出Transformer架构。这一架构的出现,彻底革新了AI模型的设计逻辑,直接引爆了AI的爆发式发展,让AI迈入了大模型时代。
此前的AI模型架构存在明显缺陷:RNN(循环神经网络)逐词阅读内容,容易出现“健忘症”,无法处理长文本;CNN(卷积神经网络)只能关注局部短语,缺乏全局观,无法理解内容整体逻辑。
而Transformer架构的核心优势,在于自注意力机制:
1.全局并行处理:不再逐词阅读,而是能瞬间捕捉文本中的所有词汇,实现并行处理,效率大幅提升。
2.关联关系分析:能自动识别词汇之间的关联,比如在诈骗邮件中,“奖金”与“链接”“领取”的关联度极高,模型能快速识别出“诱饵+诱导”的诈骗套路。
3.意图理解:能从整体上分析文本逻辑,理解内容的核心意图,而非机械匹配关键词。
这一突破,让AI模型具备了处理海量多领域数据的能力,为大模型的诞生奠定了技术基础。
2018年,OpenAI推出GPT-1,标志着AI大模型正式问世。随着参数规模的不断扩大——GPT-2达15亿参数,GPT-3达1750亿参数,大模型(Large Model,缩写为LM)概念正式确立。
大模型的核心特征是参数规模巨大、训练数据量庞大。参数越多,模型的知识储备越广,学习能力越强,能够覆盖多领域、多场景的需求,彻底解决了“统计式AI”的偏科问题。截至2025年,参数规模在100亿以上的模型均被定义为大模型,如腾讯混元TurboS大模型(5600亿参数),已成为AI技术的核心载体。
![]()
1.大语言模型(LLM):大模型最初的核心形态,聚焦于自然语言处理,能够理解、生成、翻译人类语言。GPT-3、GPT-4、国内的腾讯混元Turbos等,均属于大语言模型。后续发展的GPT-4o,进一步升级为多模态,支持文本、图像等多种信息输入。
2.多模态大模型:突破单一语言处理的局限,能够同时处理文本、图像、音频、视频等多种类型信息。比如输入“猫的照片+写实风格 阳光草地 吃饼干”的文本与图像信息,就能生成符合要求的图片,实现“多信息输入-多维度理解-多形式输出”。
1.ChatGPT:2023年正式问世,以对话形式普及大模型,让大众直观感受到AI的能力。它就像一个无所不知的助手,能解答知识疑问、辅助办公创作、进行日常对话,成为AI落地的“敲门砖”。
2.智能体(Agent):AI的进阶形态,具备自主感知、决策、执行能力。你只需给出目标(如“策划三亚旅行,人均预算8000元,喜欢潜水”),它就能自主查询实时航班、酒店价格,根据预算和偏好制定详细行程,甚至生成预算表。智能体让大模型从“纸上谈兵”的“说”,真正落地为“实操落地”的“做”。
为提升大模型的准确性和适配性,两大核心技术不可或缺:
·RAG(检索增强生成):给大模型配备“外部参考书库”,生成答案前先检索知识库中的权威信息,解决大模型“知识过时”“编造信息”的问题,大幅提升输出准确性。
·微调:通过额外的训练数据优化模型输出,分为基于人工标注的监督学习微调和基于反馈的强化学习微调(RLHF)。前者通过提供优质答案让模型学习,后者通过“奖励-试错”机制让模型优化决策,让大模型更贴合特定场景需求。
![]()
这一阶段的AI,被称为“深度学习/大模型AI”。它就像一个读遍群书、拥有丰富实习经验的大学生,既有渊博的知识储备,又具备落地实践的能力,已全面渗透到办公、生活、工业、医疗等各个领域,成为推动社会发展的核心技术力量。
![]()
AI的快速发展,离不开数据、算力、算法三大核心支撑:数据是AI学习的“原材料”,云计算、GPU等算力技术是AI运行的“硬件基础”,而Transformer架构等算法突破,则是AI升级的“核心动力”。
![]()
未来,AI将不再只是一个工具,而是与人类深度协同的重要伙伴。它将承担起数据处理、内容创作、复杂决策等繁琐工作,解放人类的双手与精力,让我们专注于创新、创造等高价值工作。对于从业者而言,关键不再是被动使用AI,而是主动理解AI、结合AI,掌握与AI协同的能力。只有这样,才能在AI时代中,持续提升自身竞争力,与AI共同成长、创造更多价值。
![]()
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.