一首歌从创作者到听众耳中,需要经历采样、编码、传输、解码、播放等多个环节,每一个环节都是信号处理技术的精妙应用。
本文将带我们穿越时空,看看信号技术如何彻底改变了音乐的创作、传播和聆听方式。
1
从声波到0和1的魔法
要理解信号与音乐的关系,首先得回答一个根本问题:音乐是什么?
从物理学角度来说,音乐本质上是声波——一种通过空气振动传播的机械波。
人耳能听到的频率范围大约在20Hz到20,000Hz之间,不同频率的组合就是不同音高的声音,而振幅的变化则构成了音量。
数字世界只能处理0和1,所以要让音乐进入数字领域,必须完成一次华丽的变身:模数转换(Analog-to-Digital Conversion)。
这个过程包括两个关键步骤:
采样(Sampling)
以固定时间间隔"拍照"声波。
根据奈奎斯特定理,要完整保留音频信号,采样频率必须至少是信号最高频率的两倍。
CD音质采用44.1kHz的采样率,意味着每秒钟对声波拍照44,100次。
量化(Quantization)
给每个采样点赋予一个数字值。
16位量化就像用65,536个台阶来表示振幅,这让我们几乎听不出量化噪声(理想情况下)。
采样定理的数学表达非常简单:f_s ≥ 2 × f_{max},其中f_s是采样频率,f_{max}是信号最高频率。
这个公式奠定了整个数字音频的基础——无线电话音(8kHz)、CD音质(44.1kHz)、高解析度音频(96kHz或192kHz)都源于此。
2
音乐传输技术的进化史
音乐的"旅行"方式经历了多次变革,每一步都离不开信号技术的进步。
模拟时代(1877-1980年代)
爱迪生的留声机,通过机械振动直接在蜡筒上刻录沟槽,播放时再用唱针还原振动。
这完全是物理的信号传输——没有电,没有数字化。后来发展出的磁带、黑胶唱片,虽然介质不同,本质仍是模拟信号的物理存储与传输。
这一时期的"传输"是面对面的:我们必须拿到实体介质才能听音乐。
数字有线时代(1980-2000年代)
CD的出现标志着音乐进入数字时代,而真正的传输革命要等到互联网普及。
早期的MP3文件通过拨号上网传输,一首5MB的歌曲需要45分钟以上。随着光纤普及和ADSL技术成熟,下载时间缩短到几分钟。
此时的传输依赖有线网络,信号通过光电转换在光纤中高速传输。
无线革命(2000年代至今)
蓝牙技术(1999年诞生,2004年广泛普及)让音乐摆脱了线缆束缚。
蓝牙使用2.4GHz ISM频段,通过自适应跳频技术避免干扰。
早期蓝牙音频使用SBC编码,音质损失明显;后来的aptX、LDAC等编码已能接近CD级别的无线传输。
流媒体时代(2010年代至今)
各大音乐平台将音乐存储在了云端。
当我们点击播放时,音乐信号从数千公里外的服务器出发,经过多个路由节点,通过4G/5G/WiFi网络到达我们的设备。
这一过程涉及复杂的编解码(如AAC)、动态码率调整、抗丢包技术。
如今,一个典型的音乐传输链路包括:
编码端:音源文件 → 压缩编码(减少数据量)→ 封装 → 网络传输
传输层:TCP/UDP协议 → 路由选择 → 无线接入 → 可能的数据包丢失
解码端:接收数据包 → 缓冲 → 解码 → 数模转换 → 扬声器/耳机
3
音质、延迟与完美传输的博弈
任何信号传输技术,都有其物理限制,音乐传输也不例外。
音频工程师和通信工程师一直在面对各种挑战:
压缩损失
无损音频(如WAV、FLAC)文件太大,对网络传输的要求比较高。
MP3、AAC等有损编解码通过去除"听不见"的频率来减小文件体积。
然而,什么频率"听不见"因人而异——发烧友能分辨320kbps MP3和FLAC的区别,而大多数人可能觉得128kbps已经足够。
网络延迟
延迟对实时音乐体验(在线直播、远程合奏)是影响极大的。
人类能察觉的音频延迟大约是20ms。4G网络平均延迟50-100ms,5G理论延迟1ms,实际约10-30ms。WiFi延迟波动更大(20-150ms)。
这就是为什么远程音乐表演通常需要专业设备和专线。
丢包与抖动
UDP协议不保证数据包可靠传输,但实时音频更看重低延迟而非完美无瑕。
少量丢包(<5%)人耳几乎察觉不到。
先进的抗丢包技术如前向纠错(FEC)会发送冗余数据,接收端用冗余数据 recover 丢失的数据包,避免重传带来的延迟。
带宽限制
高保真流媒体需要高带宽。
无损音频约1.4Mbps,高解析度(24bit/96kHz)约4.6Mbps。
在网络拥堵时,流媒体平台会自动降码率以保证连续播放——比如将最高码率从320kbps降至256kbps或更低。
协议选择
WebRTC专为实时通信设计,延迟低但抗网络波动能力有限;HLS/DASH更适合点播,延迟较高但有更好的缓冲机制。
音乐平台选择不同协议:Apple Music使用HLS,Spotify使用自有协议,而实时合奏服务使用低延迟协议如RTP/RTCP。
4
AI、5G与新音乐体验
技术仍在快速进化,音乐与信号的关系将更加紧密。
AI生成音乐
当AI不仅能传输音乐还能创作音乐,信号的边界变得模糊。
已经有AI模型可以根据文本描述生成音乐。这些模型使用大型神经网络学习音乐的时间序列特征,然后生成新的音频波形。
信号处理在这里既是输入(音频特征提取)也是输出(波形合成)。
空间音频与沉浸式体验
各种新技术让声音定位不再局限于左右声道。通过多声道阵列和头部相关传输函数(HRTF),音乐可以在三维空间定位。
传输这样的音频需要更高带宽和元数据支持——信号不仅要传递音质,还要传递空间信息。
5G+AI切片网络
未来的网络可以为音乐应用"定制"传输路径。一场VR演唱会,观众可以用头盔"坐在"虚拟前排,歌手和乐器的声音根据虚拟位置精确传播。
这需要毫秒级延迟和极高的带宽,5G网络切片技术可专门为此分配资源。
脑机接口与情感音乐
最前沿的研究尝试直接从大脑信号中提取情感信息并转化为音乐。虽然仍处于实验阶段,但有研究机构已能通过脑电波(EEG)识别情绪状态并匹配音乐特征。
如果实现,音乐"传输"将变成从大脑到大脑的直接信号沟通。
音乐从未脱离信号技术独立存在,音乐的每一次"进化"都伴随着技术的飞跃。
采样定理保证了我们能够听到清晰的声音,压缩算法让海量音乐库装进口袋,网络传输让地球变成地球村,AI技术正在开创全新的创作方式。
下一次我们戴上耳机时,不妨想一想:我们听到的不仅是美妙的旋律,更是一百多年信号传输技术的科学智慧。
来源:中兴文档
编辑:测不准的小阳
转载内容仅代表作者观点
不代表中科院物理所立场
如需转载请联系原公众号
![]()
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.