原子量:概念、测量与应用

分享至

在化学的微观世界里,原子量是一个极为关键的概念,它像一把神奇的钥匙,为我们打开了理解物质构成、化学反应以及众多化学现象的大门。那么,原子量究竟是什么?它又是如何被测定的?在实际应用中又发挥着怎样至关重要的作用呢?今天,就让我们一同深入探寻原子量的奥秘。​
原子量的概念​
原子量,更准确地说是相对原子质量,是指某元素的一个原子的平均质量与标准原子质量单位(碳 - 12 原子质量的 1/12)的比值 。对于自然界存在的元素,我们所熟知的原子量是按各同位素丰度权重而取的平均值。打个比方,如果把原子比作一个个不同重量的小珠子,那么原子量就是这些小珠子平均重量的一种相对表示。例如,氢元素有氕、氘、氚三种同位素,它们的原子质量各不相同,而我们平常所说的氢的原子量约为 1.008,就是综合考虑了这三种同位素在自然界中的丰度后得出的平均值 。​
原子量的测量方法演变​
早期化学测量法​
原子量的测量历史可以追溯到 19 世纪初期。英国化学家约翰・道尔顿在 1803 年提出了自己的原子论,并于 1805 年发表了一个原子量表 。他设定 H = 1 作为原子量基准,通过元素相互作用时的比例来确定其他原子的相对重量。但由于当时确定化合物组成原则缺乏科学依据,加上测定化合物中各原子质量百分比不准确,导致他求出的原子量值错误较多 。​
随后,瑞典科学家贝齐里乌斯在 1814 - 1826 年间,先后发表了化学法测定的 50 个元素的原子量表,测量精度达到 ±(1% - 2%) 。他改进了道尔顿的方法,利用气体反应体积简比定律等成果来确定化合物组成,同时选择氧作为原子量基准,规定氧的原子量为 100 。但对于非气体物质,他的假设存在局限性,导致部分原子量测定有误 。​
1860 年,比利时化学家斯达提出以 Ar (O) = 16 为基准,很快得到大家的公认并在化学领域沿用了整整一个世纪 。他通过提高样品纯度,将天平的灵敏度提高到 0.03 毫克,以及选用高纯度的金属银作为测定基准物等一系列改进方法,实现了多种元素原子量的精确测量 。美国化学家理查兹发明了著名的 “哈佛法”,对斯达的原子量值进行了修正,进一步提高了原子量量值的准确度 。

付费解锁全篇
购买本篇
《购买须知》  支付遇到问题 提交反馈
相关推荐
无障碍浏览 进入关怀版