网易首页 > 网易号 > 正文 申请入驻

土耳其顶尖高校最新研究:让手机AI训练既保护隐私又少传数据

0
分享至


这项由土耳其盖布泽理工大学计算机工程系主导的研究,发表于2025年3月的IEEE Access期刊第13卷,论文编号为DOI: 10.1109/ACCESS.2025.3554138,有兴趣深入了解的读者可通过该编号查询完整原文。

当你在手机上使用输入法、人脸解锁或医疗健康应用时,手机背后的AI其实一直在悄悄学习。但这里有个棘手的问题:AI要变聪明,就需要大量数据;可数据里偏偏藏着你的隐私。为了解决这个矛盾,科学家发明了一种叫做"联邦学习"的训练方式。用一句话概括,这套方法的核心思路是:数据不出门,但经验可以共享。每部手机只把自己学到的"经验总结"上传给中央服务器,而不是把原始数据交出去,服务器把所有人的经验汇总后,再把升级后的AI模型发回给每部手机。

然而,这套看似完美的方案在实际落地时面临两道难关。第一道难关是通信堵塞:每次手机把经验总结上传、再把新模型下载回来,传输的数据量巨大,对于网速慢、流量有限的手机用户来说,这简直是一场噩梦。第二道难关是隐私泄露:即便没有上传原始数据,研究人员发现,光是分析那些"经验总结"(也就是模型更新的参数),有时也能反推出你的原始数据,比如你输入过哪些敏感词汇,甚至是银行卡号。

为了同时攻克这两道难关,盖布泽理工大学的研究团队提出了一套"双保险"组合方案:一边给数据"加密"(通过差分隐私技术注入噪音),一边给数据"压缩"(通过自适应量化技术降低精度),让传输的数据既更小,又更难被破解。这项研究最引人关注的地方,在于它是目前已知首批在"数据分布极度不均匀"的真实环境下、并且在多达1000个客户端的大规模场景里,同时测试这两种技术组合效果的研究。实验结果相当亮眼:与不压缩的标准传输方式相比,在手写数字识别任务上通信数据量最高可削减52.64%,在图像分类任务上可削减45.06%,而模型的识别准确率几乎没有明显下降。

一、联邦学习到底是怎么工作的,为什么单靠它还不够安全?

把联邦学习的工作流程理解成一场跨城市的烹饪大赛,也许是最直观的方式。假设全国有1000位厨师,每人手里都有一份私家食谱(这就是他们的本地数据)。赛事主办方(也就是中央服务器)想培养出一位集众家之长的"超级厨师AI",但每位厨师都不愿意把食谱的原稿寄出去。于是,规则改成这样:每位厨师按照主办方发来的"参考菜谱"在家练习,然后只把自己练习后总结出的"改进心得"邮寄回主办方;主办方把所有人的心得汇总,生成一份更好的参考菜谱,再寄给所有人。这个过程反复进行1000轮,最终大家共同炼就了一份顶级菜谱。

这套流程里有一个关键操作,叫做FedAvg(联邦平均):每一轮结束时,服务器按照每位厨师练习食材的多少(也就是数据量的大小),给他们的"心得"赋予不同的权重,然后加权平均,生成新的全局模型。数据多的厨师,他的心得在汇总时占的份量更重一些,因为他积累了更多的实战经验。

然而,这套方案有一个隐患被后来的研究者揭穿了。通过精密的数学分析,有人发现,只要仔细观察那些"改进心得"的细节,就能大致猜出某位厨师原本在练习什么菜。比如,美国卡内基梅隆大学的研究人员就证明过,仅仅通过分析一个用于预测文字的神经网络所上传的模型更新,就能把用户打过的信用卡号等极度敏感的信息还原出来。换句话说,联邦学习只保护了数据的"肉身",但数据留下的"影子"依然可能泄露。

除了隐私问题,还有另一个让工程师头疼的现实困境——数据分布不均匀,学术界称之为"非独立同分布"(Non-IID)。继续用烹饪比赛的比喻:如果1000位厨师里,有800位专门做川菜,有100位专门做粤菜,只有100位什么都做,那么汇总出来的"超级菜谱"就会严重偏向川菜,对粤菜一窍不通。在真实的手机用户场景中,这种不均匀性极为普遍——每个用户的习惯、所在地区、使用场景都天差地别,他们手机里积累的数据当然也大不相同。这种不均匀性会让AI训练变得极不稳定,收敛变慢,甚至根本学不好。

二、"加密"这步怎么做——拉普拉斯噪音的隐私防护逻辑

为了给那些"改进心得"盖上一层面纱,研究团队引入了一种叫做"差分隐私"的技术。这个概念初听起来有些玄乎,但核心思路其实非常朴素:在你上传"心得"之前,故意往里面混入一些随机的杂音,让别人就算截获了心得,也很难从中精确还原出你的原始数据。

衡量隐私保护强度的指标叫做隐私预算(用希腊字母ε表示)。ε越小,加入的杂音越多,隐私保护越强,但AI学到的东西也越失真;ε越大,加入的杂音越少,AI学得更准,但隐私防护也更薄弱。这就像给一张照片打马赛克:马赛克越粗,脸越认不出来(隐私越安全),但图片也越模糊(准确率越低)。

这套框架有一个关键的设计参数叫做δ,代表"隐私意外泄露的概率"。该研究选择将δ设置为0,意味着隐私保护是绝对的、没有任何意外泄露的概率存在,这是最严格的隐私保证级别。

在具体选择噪音类型时,研究团队选择了"拉普拉斯分布"噪音,而不是目前业界更常用的"高斯分布"噪音。两者的区别可以这样理解:在数轴上,高斯噪音像一座宽而矮的小山,中间最厚、两边慢慢变薄;拉普拉斯噪音则像一座尖而陡的山峰,中间极厚、两边急剧变薄。这种形状差异让拉普拉斯噪音在保护同等强度隐私的前提下,对数据造成的失真更小。更重要的是,拉普拉斯噪音对应的"敏感度"度量方式是L1范数(可以粗略理解为绝对值之和),而高斯噪音对应L2范数(可以粗略理解为平方和的平方根)。对于联邦学习里上传的模型参数这类有明确边界的数值,L1范数往往能给出更紧凑、更精确的隐私界,加入的噪音也就可以更少。

在实际操作中,每次客户端在本地训练完模型后,首先要对梯度(可以理解为"改进方向")做一步"裁剪"——把每个方向上的变化幅度限制在一个阈值ξ以内,防止任何一个样本对整体更新产生过大影响。实验中,研究团队测试了ξ=10、20、50、100以及无上限这几个档位。结果发现,ξ=100时,在MNIST手写数字数据集上准确率为93.71%,在CIFAR10图像分类数据集上为75.30%,与没有裁剪时(分别为98.93%和81.97%)相比,差距可以接受,而且这个值能保持训练稳定性,因此被选为后续实验的默认设置。

裁剪完成后,系统会根据每个客户端的数据量大小、训练轮数等参数,自动计算出该加入多少拉普拉斯噪音。数据量越少的客户端,噪音越大(因为单个样本的影响力越强,越需要掩盖);数据量越多的客户端,噪音可以相对少一些。这一设计使得整个系统能根据每个客户端的具体情况动态调整保护强度。

实验结果揭示了一个有趣的规律:客户端数量越多,每个客户端分到的数据就越少,系统就需要加入更多噪音,模型准确率也就越低。在50个客户端的情况下,ε=10000时MNIST准确率可达93.22%,CIFAR10可达75.46%;但当客户端数量增加到1000个时,同样的ε=10000在CIFAR10上只能达到31.19%,甚至无法正常收敛,必须把ε提高到500000以上才能让模型正常运转。

三、"压缩"这步怎么做——自适应量化如何给数据瘦身

解决了隐私问题,下一步是解决通信效率问题。在AI训练中,模型的参数通常用32位浮点数来表示,就像一把有32个刻度的尺子,精度极高。但如果把这把尺子换成8个刻度(8位整数),精度下降了,但存储和传输所需的空间也只有原来的四分之一。这个过程就叫做"量化"。

量化最直接的方式是固定用某个位数,比如全程用8位或16位。但研究团队认为,固定位数太死板:训练刚开始时,模型还在快速调整,需要高精度来准确传达"改进方向";等训练到后期,模型已经趋于稳定,每次更新的幅度很小,用低精度就够了。因此,他们提出了一种"随训练进程动态降低精度"的方案,并用"余弦退火"曲线来控制这个降低过程。

余弦退火这个名字听起来很物理,但实际上只是一条特定形状的曲线:开始时下降缓慢,中间加速,快到终点时再次减缓。这条曲线描述的是量化精度随训练轮次的变化方式——从最初的32位出发,沿着这条平滑的曲线一路降至最低设定值(在MNIST和CIFAR10实验中设为8位,在医学图像实验中设为12位)。平滑降低的好处是,模型有充裕的时间适应精度变化,不会因为某一轮突然从32位跌到8位而产生剧烈震荡。

这是第一种方案,研究中称为"Cosine"方案,服务器下发模型给客户端时,以及客户端上传更新给服务器时,都遵循同一条余弦退火曲线,所有客户端的压缩力度完全相同。

第二种方案更加精细,称为"Dynamic"方案,核心思想是:不同客户端对模型训练的贡献不同,贡献大的客户端应该用更高精度传输,让其更新充分体现在全局模型中;贡献小的客户端可以用更低精度,省下通信资源。

衡量每个客户端"贡献度"的方法叫做"香农熵",这是信息论里的一个经典指标,可以理解为数据内容的丰富程度。如果一个客户端的数据里每种类别都有,分布很均匀,就像一个什么菜都做的全能厨师,熵值高,说明这个客户端掌握的信息多样、全面,对训练整体模型非常有价值。反之,如果客户端的数据里99%都是同一类,就像一个只会做一道菜的偏科厨师,熵值低,对全局模型的帮助相对有限。

除了数据多样性,客户端的数据量也很重要——数据越多,统计上越可靠,更新的质量也更高。于是,研究团队把这两个因素合并成一个综合"重要性评分"(用νi表示),通过一个可调节的权重参数λh(范围在0到1之间)来平衡两者的影响。νi最终映射到量化精度上:重要性越高,分配到的量化位数越多;重要性越低,分配到的位数越少。

在具体量化实现上,研究团队采用的是"随机均匀量化"配合"对称量化"。前者的特点是,在把一个小数转换为整数时,不是简单地四舍五入,而是按照距离远近以概率决定取哪个整数——比如3.7,有70%的概率取4,30%的概率取3。这种概率化的取整方式从统计上保证了量化的无偏性,即大量数据平均下来,量化后的值等于量化前的真实值,不会系统性地偏高或偏低。

四、实验怎么设计的,结果又说明了什么?

为了让结论有足够的说服力,研究团队设计了一套涵盖多个数据集、多种客户端规模、多种隐私预算的大规模实验体系,全部运行在一台配备NVIDIA RTX 3090显卡的单机上,使用FedML这一联邦学习框架完成。

在标准数据集部分,他们使用了MNIST(手写数字,10个类别,约6.2万训练样本)和CIFAR10(彩色图像,10个类别,5万训练样本)两个经典数据集,分别对应一个简单的两层卷积神经网络(约160万参数)和一个被称为VGG7的更复杂网络(约30万参数)。客户端数量分别设为50、100、200和1000,并保持"每轮参与训练的客户端数量 = 总客户端数量 × 10%"的比例,比如1000个客户端时每轮抽取100个参与。总训练轮数为1000轮,每个客户端本地训练5个epoch,批次大小为64,使用SGD优化器,学习率0.1。

为了模拟现实中的数据不均匀性,CIFAR10数据集用Dirichlet分布(参数α=0.5)打散分配给各个客户端,让某些客户端的数据严重偏向某几个类别;MNIST数据集则直接按原始来源(来自1000名不同书写者)自然分配,每个客户端只有两种数字的样本,天然构成了不均匀分布。

对比实验中,团队测试了固定4位、固定8位、固定16位、固定32位(浮点数)这四种静态量化方案,以及Cosine和Dynamic两种自适应量化方案。结果非常清晰地呈现了一个规律:4位量化虽然数据量最小,但严重破坏了模型更新的信息,尤其在非均匀数据分布下会导致训练过程剧烈震荡甚至崩溃,根本无法使用。8位量化在大多数情况下表现出色,准确率接近32位,通信量只有32位的四分之一,是静态量化里性价比最高的选择。

自适应方案中,Cosine方法相比32位训练平均减少了约37.46%的通信量,而Dynamic方法更进一步,在MNIST上减少了49.54%到52.64%,在CIFAR10上减少了43.45%到45.06%,且准确率与32位训练相当甚至略有超出。以1000个客户端为例,Dynamic方案在MNIST上达到65.55%的准确率(32位为66.50%,差距极小),但通信量从1239.31GB压缩到586.92GB,节省了超过一半。同样情形下,CIFAR10的Dynamic方案准确率为59.51%(32位为59.35%,基本持平),通信量从242.67GB压缩到133.32GB。

在λh参数(平衡数据多样性与数据量两个因素的权重)的调优实验中,研究发现,当客户端数量较少时,数据多样性(熵)对准确率的影响更显著,λh取0.5到0.75之间效果最好;当客户端数量增多(如1000个),每个客户端的数据量急剧减少,这时数据量本身变得更关键,λh偏小(如0.25)在通信效率上更占优势。综合考量后,团队在后续所有实验中统一采用λh=0.75作为默认值。

五、医学图像上的表现如何——更接近真实世界的测试

为了让研究结论更具现实说服力,团队还在三个医学图像数据集上进行了进一步验证,因为医疗场景对隐私保护的要求极高,同时数据量通常有限、分布极不均匀。

三个数据集分别是PAP-Smear(宫颈细胞图像,5个类别,共4049张)、Pneumonia(胸部X光肺炎诊断,2个类别,共5856张)和BreakHisV1(乳腺癌组织病理图像,2个类别,共7909张)。这次实验使用的是在ImageNet上预训练过的EfficientNet-B0模型,这是一种参数效率极高的轻量级网络,广泛用于医学图像分析。实验规模设为10个客户端,训练100轮,评估指标除准确率外还包括精确率、召回率、F1分数以及平衡准确率(BACC)。量化的最低位数设为12位(而不是之前的8位),因为在这些复杂医学图像上,更低精度会导致模型完全崩溃。

结果显示,在PAP-Smear数据集上,Dynamic方案将通信量从30.22GB压缩到19.00GB,降幅约37%,BACC从91.03%小幅下降至89.59%,F1分数从89.96%降至89.41%,代价相当小。在Pneumonia数据集上,Cosine方案将通信量压缩至20.85GB(降幅31%),F1分数从93.99%微降至93.79%,几乎没有损失。在BreakHisV1数据集上,Dynamic方案通信量从30.22GB压缩至18.43GB(降幅约39%),F1分数从91.44%降至87.03%,降幅稍大,但仍处于可接受范围。

这组实验还揭示了一个值得关注的现象:在医学图像场景下,有时固定16位量化的表现反而优于Cosine和Dynamic方案,不仅准确率更高,通信量有时也更少。原因在于,自适应方案在训练初期会短暂使用较高位数,这在某些特定训练阶段反而形成了额外的通信开销。此外,拉普拉斯噪音与量化误差的叠加效应,在复杂模型上会产生比较大的方差,导致BACC曲线比32位训练更加抖动、不稳定,这是目前方案的一个明显局限。

六、这项研究有什么做得到位的地方,又有什么潜在局限?

这套方案有几处设计值得一提。首先,两步噪音——先加拉普拉斯噪音、再量化——的组合在理论上是无偏的:拉普拉斯噪音的均值为零,不会系统性地拉偏参数;随机均匀量化的期望值也等于原始值。因此,虽然两步操作都增加了方差(让结果更不稳定),但不会让模型系统性地偏向错误方向,这是这套方案能在大规模实验中保持竞争力的重要原因。

其次,香农熵的计算复杂度是线性的——处理多少个样本就花多少时间,不会随着数据量增大而急剧膨胀,在实际工程中完全可行。

然而,方案也有几处明显的局限。Dynamic方案中的λh参数需要针对具体应用场景进行调优,没有放之四海而皆准的最优值,这在真实部署中增加了工程复杂度。更深层的问题在于,现有的客户端重要性评估只考虑了数据的数量和分布均匀性,并没有考虑数据的质量——一个数据量大、分布均匀但标注错误率很高的客户端,在当前方案下会被赋予很高的重要性,反而可能拉低全局模型的质量。研究团队在论文中也承认了这一点,并指出未来可以引入数据价值估计等更精细的机制来弥补这一不足。

此外,当前实验全部在单机模拟环境下完成,虽然测试了多达1000个客户端,但毕竟不是真实的分布式网络环境。在真实网络中,延迟、丢包、客户端随机掉线等因素都会对方案的实际表现产生影响,这是从实验室走向真实产品部署时必须面对的工程挑战。

说到底,这项研究做的事情可以用一句话概括:在保护你隐私的同时,还帮你省流量。两件事放在一起做,原本各自都不容易,放在一起更难,尤其是在数据极度不均匀、设备数量庞大的真实场景下。这个研究给出了一套经过大量实验验证的可行方案,证明这两件事可以同时做,而且代价(准确率损失)比人们预想的要小得多。

对于普通人来说,这意味着什么?可以这样理解:如果未来你的手机医疗APP、输入法或者语音助手背后用了这套技术,你的隐私数据不仅不会离开你的手机,就连那些"学习心得"也被加了保险,同时每次训练消耗的流量还能减少将近一半。对于网速慢、流量贵的用户来说,这是实实在在的改善。

当然,这套方案目前仍处于研究阶段,从论文到产品落地还有很长的路要走。研究团队表示,下一步他们希望探索更先进的客户端重要性评估方法,并考虑引入安全多方计算等更强的隐私保护机制,进一步强化系统的整体安全性。对这一话题感兴趣的读者,可以通过DOI: 10.1109/ACCESS.2025.3554138查找原论文,或在IEEE Xplore数据库中搜索Access期刊2025年第13卷的相关内容。

Q&A

Q1:联邦学习为什么还需要差分隐私,本来不是已经不上传原始数据了吗?

A:联邦学习确实不传原始数据,但研究发现,仅仅通过分析上传的模型参数更新,攻击者有时可以反推出原始数据的敏感内容,比如用户输入过的信用卡号等。差分隐私通过在上传前往参数里加入随机噪音,让这种反推变得极为困难,从而形成双重保护。

Q2:自适应量化里的"香农熵"具体是怎么衡量客户端数据质量的?

A:香农熵衡量的是数据中各类别分布的均匀程度。如果一个客户端的数据涵盖了很多类别且每类数量差不多,熵值就高,说明数据信息丰富;如果数据几乎全是同一类,熵值就低。研究中把熵值高(数据多样)和数据量大的客户端判定为"贡献度高",在传输时分配更高的量化精度,让其更新信息更完整地体现在全局模型中。

Q3:为什么医学图像实验中最低量化位数要设12位,而不是像普通数据集那样用8位?

A:医学图像分类任务使用的EfficientNet-B0是一个更复杂的预训练模型,其参数对精度损失更敏感。实验中发现,将量化精度降到8位以下时,模型完全无法正常收敛训练,识别能力崩溃。因此12位被选为该场景下的最低可用精度,在通信效率和模型稳定性之间取得平衡。

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
中国商务部首动阻断禁令,114国拒绝签字,鲁比奥气急放狠话

中国商务部首动阻断禁令,114国拒绝签字,鲁比奥气急放狠话

潋滟晴方DAY
2026-05-08 00:19:42
关税这些都是小打小闹,真正的中美大决战,决胜于未来五年

关税这些都是小打小闹,真正的中美大决战,决胜于未来五年

诡谲怪谈
2025-05-02 15:35:06
150人死而复生后,说出1个惊人共同点,科学家至今无法解释

150人死而复生后,说出1个惊人共同点,科学家至今无法解释

Thurman在昆明
2026-05-07 14:37:38
黄瓜大量上市!医生再三强调:糖尿病患者吃黄瓜,多注意这6点!

黄瓜大量上市!医生再三强调:糖尿病患者吃黄瓜,多注意这6点!

橘子约定
2026-05-07 20:49:09
历史竟开了个玩笑:先倒下的不是乌克兰,却是百年中立的瑞士?

历史竟开了个玩笑:先倒下的不是乌克兰,却是百年中立的瑞士?

聊历史的阿稼
2026-05-08 00:13:39
记者:麦卡利斯特状态低迷,利物浦面临出售他的重大决策

记者:麦卡利斯特状态低迷,利物浦面临出售他的重大决策

画夕
2026-05-07 15:35:06
《低智商犯罪》被观众要求下架!理由:主演招人烦、演技尴尬

《低智商犯罪》被观众要求下架!理由:主演招人烦、演技尴尬

林轻吟
2026-05-06 19:40:05
年租金1512元!温州知名豪宅业主天塌了

年租金1512元!温州知名豪宅业主天塌了

温州巡捕房
2026-05-07 17:48:17
王晶71岁生日全家照曝光!70岁太太罕露面,结婚48年容忍所有绯闻

王晶71岁生日全家照曝光!70岁太太罕露面,结婚48年容忍所有绯闻

橙星文娱
2026-05-05 13:51:49
股市唯一100%获利法:涨停回调买入法,进场就是主升浪,从未失手

股市唯一100%获利法:涨停回调买入法,进场就是主升浪,从未失手

一方聊市
2026-03-12 19:20:06
马筱梅带娃打扮精致,大S当初却素面朝天,当妈后全身心照顾孩子

马筱梅带娃打扮精致,大S当初却素面朝天,当妈后全身心照顾孩子

甜柠檬吖
2026-05-07 12:05:42
上海:研究出台普惠性青年安居政策 减轻青年租房负担

上海:研究出台普惠性青年安居政策 减轻青年租房负担

观点机构
2026-05-07 16:14:16
津媒谈裁判评议:唐顺齐已3次漏判点球,他会如何被处理?

津媒谈裁判评议:唐顺齐已3次漏判点球,他会如何被处理?

懂球帝
2026-05-07 22:50:24
敌人的炮管都快怼到脸上了,我们的人居然还在翻书查国际法?

敌人的炮管都快怼到脸上了,我们的人居然还在翻书查国际法?

安安说
2026-04-19 15:00:16
搞垮中国交通的罪魁祸首,并非是车太多?这几座山不移除就白搭了

搞垮中国交通的罪魁祸首,并非是车太多?这几座山不移除就白搭了

原来仙女不讲理
2026-05-07 23:09:21
8场,43个失误!改变哈登+激活莫布里,是击败活塞的关键

8场,43个失误!改变哈登+激活莫布里,是击败活塞的关键

一登侃球
2026-05-08 00:13:11
大雨、暴雨!云南新一轮降温降水来袭

大雨、暴雨!云南新一轮降温降水来袭

云南网络广播电视台
2026-05-07 23:04:23
一把椅子绑42个气球,美国男子飞到4900米高空,下降时挂电线上

一把椅子绑42个气球,美国男子飞到4900米高空,下降时挂电线上

怪罗
2026-05-06 17:22:39
43岁身材还这么“满”?王心凌的身材到底是怎么保持的?

43岁身材还这么“满”?王心凌的身材到底是怎么保持的?

马拉松跑步健身
2026-05-04 19:32:40
一个家庭开始走下坡路的信号,不是没钱,而是这几件事在发生

一个家庭开始走下坡路的信号,不是没钱,而是这几件事在发生

木言观
2026-05-05 06:57:17
2026-05-08 03:16:49
科技行者 incentive-icons
科技行者
科技正在如何变革商业世界
8262文章数 563关注度
往期回顾 全部

科技要闻

月之暗面完成20亿美元融资,估值突破200亿

头条要闻

日媒询问中国是否希望恢复中日之间人员往来 中方回应

头条要闻

日媒询问中国是否希望恢复中日之间人员往来 中方回应

体育要闻

巴黎再进欧冠决赛,最尴尬的情况还是发生了

娱乐要闻

Lisa主持!宁艺卓观看脱衣秀风波升级

财经要闻

人均年薪406万,这家ST公司惊呆市场!

汽车要闻

雷克萨斯全新纯电三排SUV 全新TZ全球首发

态度原创

健康
艺术
亲子
数码
公开课

干细胞治烧烫伤面临这些“瓶颈”

艺术要闻

探索施密德的油画,感受无法抵挡的艺术魅力!

亲子要闻

最新回复!东湖学府幼儿园开园有变,延至明年春

数码要闻

大疆宣布ROMO 2代扫地机器人5月11日发布:清洁力更强 不怕零食掉渣

公开课

李玫瑾:为什么性格比能力更重要?

无障碍浏览 进入关怀版