
引言构建更像人脑的人工智能可能比用数据淹没它更重要
![]()
最新研究表明,人工智能无需海量的训练数据就能开始像人脑一样运作。当研究人员重新设计人工智能系统以使其更接近生物大脑时,一些模型甚至无需任何训练就能产生类似大脑的活动。这挑战了目前人工智能开发中对数据需求过高的传统模式。该研究表明,更智能的设计可以显著加快学习速度,同时大幅降低成本和能源消耗。
约翰·霍普金斯大学的一项新研究表明,受生物学启发而设计的人工智能系统,即使在接受任何数据训练之前,也能开始模拟人脑活动。该研究表明,人工智能的架构方式可能与它处理的数据量同等重要。
这项发表在《自然·机器智能》上的研究成果挑战了人工智能开发的主流策略。该研究强调,与其依赖数月的训练、庞大的数据集和强大的计算能力,不如从构建类似大脑的架构基础入手,这才是更有价值的做法。
重新思考AI的数据密集型方法
“人工智能领域目前的发展趋势是向模型投入大量数据,并构建规模堪比小型城市的计算资源。这需要花费数千亿美元。与此同时,人类仅需极少的数据就能学会观察,”论文第一作者、约翰·霍普金斯大学认知科学助理教授米克·邦纳说道。“进化或许有其合理的原因,才最终形成了这种设计。我们的研究表明,更接近大脑的架构设计能让人工智能系统拥有非常有利的起点。”
邦纳和他的同事们旨在测试,仅靠架构是否就能使人工智能系统拥有更像人类的起点,而无需依赖大规模训练。
比较流行的AI架构
研究团队重点研究了现代人工智能系统中常用的三种主要神经网络设计:Transformer 神经网络、全连接网络和卷积神经网络。
他们反复调整这些设计,创建了数十种不同的神经网络。所有模型均未事先进行训练。研究人员随后向这些未经训练的系统展示物体、人物和动物的图像,并将其内部活动与人类和非人灵长类动物观看相同图像时的大脑反应进行比较。
为什么卷积神经网络脱颖而出
增加Transformer网络和全连接网络中的人工神经元数量几乎没有产生任何实质性变化。然而,对卷积神经网络进行类似的调整,却使其活动模式更接近人脑的活动模式。
研究人员表示,这些未经训练的卷积模型性能与传统的AI系统不相上下,而传统的AI系统通常需要接触数百万甚至数十亿张图像。研究结果表明,架构在塑造类脑行为方面发挥的作用比之前认为的更大。
通往更智能AI的更快途径
邦纳表示:“如果海量数据训练真的是关键因素,那么单靠架构修改是无法构建出类似大脑的人工智能系统的。这意味着,如果我们从正确的蓝图入手,并可能结合生物学的其他见解,或许就能显著加快人工智能系统的学习速度。”
该团队目前正在探索受生物学启发的简单学习方法,这些方法可能会催生新一代深度学习框架,从而使人工智能系统速度更快、效率更高,并且对海量数据集的依赖性更低。
免责声明:
本文所发布的内容和图片旨在传播行业信息,版权归原作者所有,非商业用途。如有侵权,请与我们联系删除。所有信息不构成任何投资建议,加密市场具有高度风险,投资者应基于自身判断和谨慎评估做出决策。投资有风险,入市需谨慎。
设为星标 避免错过
虚拟世界没有旁观者,每个点赞都是创造历史的像素
关注我,一起探索AWM⁺
2025-12-31
2025-12-30
2025-12-29
商业赞助
![]()
点击下方 “目录” 阅读更多
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.