01
今天谈一个相对陌生但实际上与信息时代息息相关的概念——算力,英文名computing power,直译就是计算机能力,通俗理解就是「计算能力」,主要指向计算机处理器的运算速度。
这种能力是人类在自我发展中不断强调但无论如何训练都受到限制的能力。比如说,一个人可以凭借自身的智力优势和后天练习,发展出超出常人一截的口算心算能力,但即便加上笔算,人脑的计算力仍然有不可逾越的天花板。
一个普通人计算三位数的加减法尚可,乘除法就异常困难,不信你自己默算一下223乘489等于多少,基本上在短时间内算不出来,甚至干脆算不出。但是这样的题目对于最低级的计算器只是须臾之力。更别提平方、立方、多次方乃至开方的口算心算笔算了,听着就头疼,嗡嗡的。
实际上,在现代科学和技术领域,算力要求的东西远比人脑能承受的范围大得多得多,比如导弹的滑行轨迹,火箭的运行数据,哪怕是一辆电动汽车的控制,也涉及到无法估量的计算。
设想一台新能源车要在自动驾驶模式下贴库停车,借助传感器和摄像头的数据,它要在很短时间内算出方位、距离、制动方法,这里边涉及到的数据很多,你不能说让它算上几个小时再缓慢完成这个指令动作,那就没什么意义了,不如让一位「手潮」的女司机试试,大不了碰车嘛,时间才是金钱。
02
在微型计算机出现之前,西方早就发明了简易的计算器,拿在手里薄薄的一板,放入锂电池后,黑白显示器能用类似电梯显示器标识数字的方式,迅速把人输入的计算题给出答案,只不过这个答案只能给到小数点后8——10位数,它是由计算器的有效位数和四舍五入决定的。
即便如此,对初碰计算器的小朋友而言,它的神奇和魔法是如此巨大,难以用语言形容。这就是「算力」的威力。
![]()
但这些实际都是电流的通与不通构成的二进制算法实现的,一个0,一个1,就能发生万千变化,实现科技飞跃。现在最先进的CPU,比如2025年AMD推出的旗舰桌面处理器AMD Ryzen 9 9950X3D,算力已经达到了这样的地步,最高加速频率约5.7 GHz。
意思就是,在条件允许时,这颗CPU的某个核心,每一秒钟能完成大约57亿个最基础的节拍动作,它每秒能动57亿次,天哪!普通人每秒可控制的心理节奏大概是1到5次,特别专注和熟练也不过5到10次,与计算机相比,算力差了好多个十万八千里。
算力诚可谓信息科技时代的最强核心,令吾辈望尘莫及。更何况如今已进入AI时代,处理能力更有赖于算力,对算力的竞争近乎国运之争。
现在,我们就回顾一下「算力」的发展简史,它主要是伴随计算机中央处理器的发展发生的。
03
第一阶段:古典时期
古代的算力主要是围绕人的大脑发生,十七世纪以前,主要是树枝、算盘用于基本加减乘除。
1617年,约翰·纳皮尔发明「纳皮尔骨」,简化乘除运算,由一系列刻有数字的木制或骨制圆柱(或称为「骨头」)组成,通过将它们排列并对齐来快速计算乘积,是现代计算器的先驱之一,特别适用于多位数乘法。
1642年,写过《思想录》的哲学家布莱斯·帕斯卡在很年轻时发明了一种机械计算器帕斯卡计算器,这个计算器上的转盘相互链接,可以实现输入和计算的进位等功能,但操作和制作相对复杂,不太普及。
1672年,荷兰哲学家、数学家戈特弗里德·莱布尼茨发明了一种开创性的机械计算器步进式计算器(莱布尼茨计算器),它是第一台使用独特的「步进式滚筒」(莱布尼茨轮)机制执行所有四种基本算术运算(加、减、乘、除)的机器,该机制允许通过重复的加法、减法实现自动乘法和除法。
说实话这台机器现存仅一台,到底怎么个用法很难一时弄清。不过据说帕斯卡、莱布尼茨的机械设备提高了计算精度和自动化,但速度慢、易出错,受限于手动操作。
1822年,查尔斯·巴贝奇设计出了Difference Engine计算器,通过有限差分法(任何多项式函数,都可以通过有限次加法来计算)用于自动计算多项式表格。该设备由Analytical Engine于1833年引入算术逻辑单元、内存和穿孔卡片编程,支持条件分支和循环,成为图灵完备的先驱。
与此同时,艾达·洛夫莱斯编写了第一个算法程序。这些设计程序奠定了通用计算基础,但未实际建造,只是提高了理论计算能力。
04
第二阶段:电子和机电时代
1930至1940年代出现了早期数字计算机。
1941年,康拉德·楚泽的Z3计算器,使用继电器,实现浮点二进制运算,是第一个可编程数字计算机。
![]()
1942年,阿塔纳索夫·贝里计算器引入电子开关,每15秒可执行一次操作。
1945年,第一台可编程通用电子数字计算机ENIAC在二战期间由宾夕法尼亚大学建造,用于炮兵计算表等军事计算,实际战后才最终完工。这台庞大的机器使用17468个真空管,其速度之快(每秒可执行数千次运算)堪称举世无双,只是如果要重新编程需要复杂的物理线路改造。尽管它功耗高、体积大,存在局限性和维护难题,但为现代计算机的发展铺平了道路。
05
第三阶段:晶体管时代
1947年,贝尔实验室发明晶体管,1953年应用于计算器曼彻斯特晶体管计算机(Manchester TC),这是世界上第一台可运行的晶体管计算机。它使用不可靠但低功耗的点接触晶体管,为更可靠的结型晶体管版本和商业型号Metrovick 950铺平了道路,展示了对未来计算至关重要的早期晶体管电路技术。
1950年代,晶体管替代了真空管,成为计算器的主要原件。
1955年出现的世界上第一台完全晶体管化的电脑TRADIC Phase One,每秒可执行一百万次逻辑运算。
06
第四阶段:集成电路时代
1950年代末,杰克·基尔比和罗伯特·诺伊斯发明集成电路IC,将多个晶体管集成到硅芯片上。到1964年CDC集成卡性能达到每秒执行300万条指令,是当时最快超级计算机。
1971年,出现第一个单芯片CPU,即微处理器Intel 4004,集成了2300个晶体管,每秒能进行9万次操作,这个处理器证明复杂的CPU可以装在一个芯片上,使计算机更小、更便宜、更容易获得,并使英特尔进入了如今占据主导地位的处理器市场,彻底革新了电子技术,开启了微型计算机时代。
![]()
1975年,MITS公司推出了一款具有开创性的微型计算机,该计算机采用英特尔8080 CPU,8080处理器最初的运行时钟频率为2 MHz(1 MHz相当于每秒100万次时钟跳变,时钟跳变并不等于相同次数的计算),常用指令的执行时间为4到11个时钟周期,每秒可执行数十万次指令。后来推出了两个速度更快的变体,8080A-1和8080A-2,时钟频率分别提升至3.125 MHz和2.63 MHz。
这款电脑因其在《大众电子》杂志封面上的亮相而名声大噪,并由此引发了个人电脑革命。它以价格亲民的套件形式出售,为微软和苹果的崛起奠定了基础。
1977年,苹果公司推出个人电脑Apple II,这一机型一直生产到1993年。该电脑使用8位处理器MOS Technology 6502,每秒可执行280,000条指令。
1980年代以后,集成电路芯片按照摩尔定律(每18个月芯片的性能提高一倍)的预测不断更新换代。
![]()
2000年代出现了多核处理器和GPU,如AMD和Intel产品,支持并行处理。GPU(如NVIDIA)用于图形和AI加速。IBM Roadrunner处理速度达到1 petaFLOP(每秒几十万亿条指令),用于模拟。
2010至2020年代出现了量子和exascale计算。2019年,谷歌Sycamore实现量子霸权,解决特定问题比经典计算机更快。2022年出现的Frontier超级计算机性能达到1.1 exaFLOP(百亿亿级),用于气候和基因模拟。新兴硬件如AI芯片(TPU)和量子计算机进一步提升计算边界,处理指数级复杂任务。
07
机器算力实际上是对人类的一种解放,为科技发展走向纵深和数学应用的最大化提供了计算基础,更高更快更强,但同时也限制了人脑计算能力的发展。
不过不必为此焦虑,因为人虽然短时间内算得慢但比计算机有自己的直觉和寻找解决问题途径的优势。二者相加,才是无敌的。就如现在的人工智能,尽管能搜罗万象进行综合推理,但是用它的人提不出有价值的问题,也是枉然。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.