你有没有想过一个问题:为什么天气预报永远不可能100%准确?为什么你再怎么努力,房间也会自动变乱?为什么你永远找不到那只配套的袜子?
这些问题背后,都藏着一个让物理学家头疼了一百多年的幽灵——熵。
昨天我们聊了麦克斯韦妖这个思想实验,讲到它是如何让物理学家们抓狂了半个多世纪。今天咱们接着聊,聊一个更颠覆认知的事实:知道某些信息,居然需要付出真实的代价。
不是心理代价,是物理意义上的、能量层面的、实实在在的代价。
一个让热力学第二定律差点崩溃的思想实验
先简单回顾一下。1871年,麦克斯韦提出了一个让所有物理学家都坐不住的想法:
假设有一个密封的容器,里面装满了气体分子。容器中间有一道门,一个小妖怪负责把守。它只做一件事:看到速度快的分子就把它挡在一边让过去,看到速度慢的分子也挡在一边让过去。结果呢? 一边气体的平均速度越来越快(变热),另一边越来越慢(变冷)。这么一来,本来均匀的温度分布,被这个小妖怪硬生生拉开了差距。
问题来了:热力学第二定律说,热量会自发从高温流向低温,温度差会越来越小。但这个小妖怪似乎能让这个过程逆转,让系统变得更加有序。
这不是在打热力学第二定律的脸吗?
当时很多物理学家觉得这是胡扯,但又说不出哪里不对。毕竟这个小妖怪的行为看起来确实没什么毛病——它只是"看了看"分子的速度,然后做了个判断而已。
这个漏洞,一留就是六十多年。
西拉德出手了:这个妖不简单
1929年,一个叫利奥·西拉德的匈牙利物理学家站了出来。他写了一篇论文,标题叫《论由智能生物引发的热力学系统的降低熵操作》,名字很长,但核心观点就一个:麦克斯韦妖不是免费的,它干活需要信息,而信息是有成本的。
西拉德认为,这个小妖怪不是凭空存在的。它要工作,就必须先"知道"分子的速度。要做到这一点,它必须跟分子发生某种相互作用——不管是光学手段、热力学手段,还是别的什么。
而任何获取信息的过程,都必然伴随着能量的消耗或熵的产生。
这个想法在当时石破天惊。在西拉德之前,大家都觉得信息就是信息,是一种抽象的、跟物理世界没什么关系的东西。但西拉德说:不对,信息是物理的。你要获取信息,就得付出代价。
他甚至还给出了一个具体的思想实验:利用一个假想的单分子热机来论证,如果小妖怪能够无代价地获取信息,那么第二类永动机就是可能的。
物理学不允许这种事存在,所以小妖怪必须付出代价。
布里丰补了一刀:观测就要耗能
西拉德的论证很精彩,但还不够具体。1956年,法国物理学家列昂·布里渊进一步完善了这个理论。
布里丰的具体论证是这样的:
小妖怪要"看到"分子,首先得有光(或者别的什么信号)照在分子上,然后反射回来被它接收。但问题是,光本身就是一种能量。 当光子和分子相互作用的时候,它不可避免地会给分子一个冲量,改变分子的运动状态。
换句话说,小妖怪每"看"一次分子,就相当于在分子身上"戳"了一下。这个"戳"的动作会把能量传递给分子,改变系统的状态。
布里丰还算了一笔账:为了获取一个分子的位置和速度信息所付出的能量,刚好等于小妖怪"节省"下来的那部分熵。 一进一出,熵不减反增,热力学第二定律稳如老狗。
当然,后来的研究指出布里丰的论证在某些细节上并不完全准确(比如他假设观测需要光子照明,但理论上可以有被动观测的方式)。但他的核心结论是对的:信息获取不是免费的午餐。
本内特的终极解答:记忆才是最费钱的
到了1982年,IBM的物理学家查尔斯·本内特给出了一个更完整的解答。他的论证直指问题的核心:
你们都在讨论"观测"要花多少能量,但其实你们忽略了最重要的一步——记忆。
就算小妖怪成功地把分子的速度信息记录下来了,它也不可能无限期地保留这些信息。任何一个物理系统,存储容量都是有限的。当它记录了新的信息,旧的信息就必须被擦除。
而问题来了:擦除信息,同样需要消耗能量。
这就是后来被称为兰道尔原理的核心内容。1961年,IBM的另一位物理学家罗尔夫·兰道尔证明:在经典计算机中,擦除一个比特的信息,理论上至少会产生k·ln2的热量(k是玻尔兹曼常数)。
这个数字很小,大概是10的-21次方焦耳级别。但原理是颠覆性的:记忆不是免费的,忘记同样需要代价。
本内特把这个洞见用在了麦克斯韦妖上:你以为小妖怪只是在"观测"和"判断"吗?它还得把每次观测的结果存储起来,不然它怎么知道之前哪些分子通过了、哪些没有?等它存储空间满了,它必须擦除旧数据,才能继续工作。而这个擦除过程产生的热量,刚好抵消了它之前"节省"下来的熵。
小妖怪勤勤恳恳干了一辈子,最后发现自己白干了。
熵增定律再次安然无恙。
信息熵:这个熵不太一样
说到这儿,可能有同学要问了:你说的这个"信息",跟香农的信息熵是一回事吗?
好问题。
不完全是。 这里我们需要做一个重要的区分。
我们之前讨论的"信息",更准确的叫法是"物理信息"——它是跟具体物理状态相关的信息,比如"这个分子的速度是500米/秒"。这种信息是真实的、具体的,跟物理世界绑定在一起。
而香农提出的"信息熵",则是一个更加抽象的概念。它衡量的是一条消息携带的信息量的多少——或者说,你收到这条消息之后,不确定性的减少程度。
举个例子。你收到一条天气预报说"明天晴",这条消息的信息量其实很低,因为"晴天"本来就是一个大概率事件,你本来也不太意外。但如果预报说"明天有史无前例的暴雪",那这条消息的信息量就爆炸了,因为它太出乎意料了。
信息熵高的消息,往往意味着小概率事件发生了。
这个概念跟热力学熵有某种形式上的相似性(所以香农才用了"熵"这个字),但它们的本质并不完全相同。热力学熵描述的是系统的混乱程度,而信息熵描述的是你"有多惊讶"。
当然,这两者之间的联系并没有完全切断。后来的研究表明,在某些条件下,它们确实可以建立起定量联系。这也是为什么我们经常能看到"信息就是负熵"这样的说法——虽然这种说法需要一些限定条件。
为什么这件事值得你花三分钟了解
可能有人觉得,这是物理学家在象牙塔里玩的思想游戏,跟我的生活有什么关系?
关系大了去了。
第一,理解信息的代价,是理解一切数字化技术的基础。
你手机里的芯片每秒钟运算那么多次,每一次运算都在擦除和写入信息,每一次都产生热量。这就是为什么你的手机会发热,为什么芯片的能耗问题是如此重要。兰道尔原理告诉我们,能耗的下限跟信息处理量成正比——你处理的信息越多,消耗的能量就越多。
第二,它重塑了我们对"知道"这件事的理解。
以前我们觉得,知道某件事是纯粹的收益。你可以提前知道明天的天气,可以提前知道股票涨跌,可以提前知道对手的策略。但现在我们知道了:知道也是需要付出代价的。 天气预报不可能100%准确,因为你要精确预测明天的天气,需要采集和处理的信息量是天文数字,代价太高。
第三,它打通了物理学和信息论之间的壁垒。
这是最神奇的部分。你以为物理学和信息学是两码事?错了。信息是有物理实体的,是跟能量和熵纠缠在一起的。在某种程度上,宇宙的历史可以理解为一个不断产生熵、不断创造信息的历史。
从一个奇点开始,宇宙膨胀、基本粒子形成、恒星诞生、行星凝聚、生命出现……每一步都伴随着熵增和信息量的增加。你读这篇文章的时候,你的大脑正在处理文字信息,而处理这些信息的过程中,你的身体也在消耗能量、产生热量。
一切都有关联。一切都遵守着某些深层的、对称的、优美的定律。
麦克斯韦妖让我们明白了,我们不可能不劳而获地"知道"什么。要让世界的无序程度降低,就必须有别的什么地方无序程度增加。这个交换是公平的,物理学从不欺骗任何人。
所以下次当你找不到那只配套的袜子的时候,别太自责。也许它只是遵循了熵增定律,而你只是还没有找到足够的信息来定位它。
或者,你可以选择买一打袜子。这样,就算信息不足,你也不至于光脚出门。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.