网易首页 > 网易号 > 正文 申请入驻

德克萨斯大学奥斯汀分校研究出新型"轻量级"数据压缩神经网络

0
分享至


这项由德克萨斯大学奥斯汀分校系统机器学习实验室完成的研究,以预印本形式于2026年5月7日发布在arXiv平台,论文编号为arXiv:2605.06628,研究方向属于信号处理与深度学习的交叉领域。有兴趣深入了解的读者可以通过上述编号在arXiv上检索完整论文。

**一、从一个你每天都在经历的困境说起**

每天,无数穿戴设备、医疗传感器、卫星相机和自动驾驶汽车的摄像头都在持续不断地产生海量数据。这些数据就像一条条奔涌的河流,但传输它们所用的"管道"——也就是网络带宽——却始终是有限的,设备的电池也不允许无休止地消耗。所以,如何把数据"压缩"得足够小,同时又不丢失关键信息,是一个长期困扰工程师的核心问题。

你可以把数据压缩理解成一种"打包行李"的艺术。出门旅行时,你要把所有生活必需品装进一个有限容量的行李箱。打包技艺高超的人知道哪些东西可以折叠、哪些可以省略、哪些必须带上,最终用最小的空间装下最完整的生活。数据压缩做的正是同样的事——只不过它处理的不是衣物,而是图像、声音和视频。

现有的压缩工具大致分成两大阵营。一类是我们熟悉的"标准压缩格式",比如图片领域的JPEG、视频领域的MPEG。它们经过几十年的打磨,运行效率很高,但有个根本性的局限:它们的设计目标是让人眼看起来舒服,而不是让机器"读懂"信号。对于卫星的高光谱相机、医院的三维CT扫描仪或者空间音频阵列来说,这类工具就显得力不从心了,因为这些信号的结构与普通照片差异悬殊。另一类是近年兴起的"神经网络编解码器",它们通过深度学习来捕捉信号中隐藏的规律,压缩效果令人惊叹,但往往体积庞大、计算开销极高,完全无法在一块手表大小的传感器芯片上运行。

正是这个夹缝——需要高效、通用、又足够轻量的压缩方案——催生了这篇论文的核心工作:**LiVeAction**。这个名字来自三个英文词的首字母组合:**Li**ghtweight(轻量级)、**Ve**rsatile(通用性强)、**A**symmetric(不对称设计),加上"ction"让它读起来像"直播行动",隐喻实时处理能力。

**二、为什么以前的方案都差点意思**

要理解LiVeAction的价值,先得搞清楚现有方案分别败在哪里。

用"标准压缩"打包行李,相当于所有人用同一套折叠规则,不管你要去滑雪还是去海边。规则简单、速度快,但对特殊需求完全无感——你带了厚羽绒服,却发现目的地是热带海岛。JPEG和MPEG针对人眼进行了精细调优,对于人眼不在乎的细节(比如高频纹理)大胆删除。但如果压缩的是高光谱图像,每一条光谱带都可能对应一种矿物成分,"人眼不在乎"恰恰是机器最需要的部分。

另一边,近年来大热的"生成式神经编解码器",代表作包括用于视频生成的Cosmos、用于音频合成的Stable Audio,以及图像生成领域的各类VAE(变分自编码器)。这些模型的解码器极其强大,能够凭借压缩后的极少信息"脑补"出细节,重建出栩栩如生的画面。听起来很美?问题在于,这种"脑补"本质上是一种有创意的猜测——模型会用统计规律填充它认为"应该存在"的纹理,而这些纹理未必真实存在于原始信号中。对于医学影像来说,这简直是灾难性的:一块被脑补出来的阴影,可能被误判为肿瘤。

此外,这类生成模型普遍庞大且计算密集,光是编码器部分就动辄数千万参数,运行一次需要大量计算资源。在手持设备或远程传感器上实时运行,根本是无稽之谈。它们的训练也极度依赖专门为特定信号类型设计的"感知损失函数"——用来衡量"图像看起来像不像"的指标,比如LPIPS。这种指标对图像有效,对高光谱数据或三维医疗体素则完全没有意义,导致这类模型几乎无法迁移到新的信号类型上。

还有一类更朴素的通用方案:标量量化(把每个数值直接取整)或分辨率降低(直接缩小图像)。这类方法简单直接、对任何信号都能用,但它们完全不考虑信号内部的结构和规律,就像打包行李时把所有东西一股脑压进箱子,没有任何折叠技巧,浪费大量空间。

**三、LiVeAction的设计思路:拆成两半,各司其职**

面对上述三类方案的共同不足,研究团队提出的解决思路可以用一句话概括:**让编码器尽可能轻,让解码器尽可能强,两者不必对称。**

打个比方:你是一个在野外工作的地质学家,需要把岩石样本的信息发回给实验室。你随身携带的野外装备(编码器)必须轻便、耐用、省电,只需要完成基本的采样和记录工作。而实验室里的大型分析仪器(解码器)可以非常精密,耗时也无妨,因为它不用跋山涉水。这种"野外轻装、实验室精析"的分工模式,正是LiVeAction的核心逻辑。

大多数现有神经网络编解码器采用的是"对称架构"——编码器和解码器的规模、深度基本相同,就像两个同等体量的仪器分别安置在野外和实验室。但研究团队发现,加深或加宽编码器带来的收益是递减的:花双倍计算量不会带来双倍的压缩质量。既然如此,为什么不把资源集中到解码器上,让编码器"够用就好"呢?

**四、轻量编码器的秘密:像FFT一样分组处理**

编码器的轻量化是LiVeAction技术含量最高的部分之一,但核心思想其实并不难理解。

普通的神经网络层,其实就是一个巨大的"乘法表"——把输入的每一个数值与每一个权重参数相乘再求和。这个矩阵越大,计算量越大。以一个处理1080p视频的编码器为例:将视频信号变换到频域后,每个小区域会产生1536个数值,需要将它们压缩到12个潜在变量,对应的矩阵运算仅此一步每秒就需要超过17亿次浮点运算。这还只是编码器里的一个投影步骤。

LiVeAction的解决方案借鉴了两个经典思想。第一个是FFT(快速傅里叶变换)的分组策略:FFT之所以"快",正是因为它把一个大问题拆成若干相互独立的小问题并行处理,每组之间不互相干扰,大幅减少计算步骤。第二个是ShuffleNet和Monarch矩阵的"块对角结构":把一个大矩阵分成若干小块,每块独立计算,块与块之间通过通道重排(就像洗牌一样交换位置)来保证信息流通。两者合用,就像把一个100人的大班级分成10个10人小组分别完成作业,再汇总结果——总工作量远小于100人同时相互协作。

具体实现上,LiVeAction的编码器用多层"分组卷积"替换了单一的大型矩阵投影。每一层只有少量参数,计算量极低,但多层叠加后加入了非线性激活函数(GELU)和分组归一化(GroupNorm),使整个编码器具备了捕捉复杂信号特征的能力。研究团队在图3中展示了一个清晰的对比:随着信号维度(即小波变换的级数J)增加,单一大矩阵的参数量呈三次方爆炸增长,而分组结构对的参数量增长则平缓得多,两者之间的差距在高维场景下可以达到几个数量级。

**五、解码器的"奢侈品":线性注意力机制**

既然编码器要轻,解码器就可以用更强的武器。LiVeAction的解码器基于EfficientViT这一架构,其核心是"线性注意力机制"。

普通的Transformer注意力机制(支撑着GPT等大模型的关键技术)在处理高分辨率信号时有个致命弱点:计算量随着序列长度的平方增长。换句话说,图像分辨率翻倍,计算量变成原来的四倍。这对于处理高分辨率视频或图像的解码器来说是个巨大负担。

EfficientViT用ReLU函数替代了标准注意力中的Softmax,使计算量从平方增长变为线性增长——图像分辨率翻倍,计算量也只翻倍。研究团队在此基础上做了两处改动:一是把原来的批归一化(BatchNorm)换成分组归一化(GroupNorm),消除了训练时和实际使用时行为不一致的问题;二是把原本只支持二维图像的架构扩展到支持一维(音频)和三维(医疗体素、视频)信号,使同一套解码器架构能适配所有信号类型。

**六、整体处理流程:从原始信号到压缩文件,再还原回来**

LiVeAction的完整压缩流程就像一条有序的装配流水线,每道工序都有其特定职责。

信号进入系统后,首先经过小波包变换(WPT)。小波变换是一种经典的数学工具,可以把信号分解成不同频率的成分,就像把一首音乐分解成低音鼓点、中音旋律和高音和声。这一步用的是Cohen-Daubechies-Feauveau 9/7滤波器,这是图像和音频压缩领域公认的高效分解工具,也是JPEG 2000标准采用的核心技术。分解之后,信号从时间/空间维度"折叠"进了频率维度,相邻位置的冗余信息被有效去除。

接下来是一个可逆的"幂律压扩变换",作用类似于音频处理中的动态压缩:把大值稍微压小、把小值稍微放大,让数值分布更均匀,方便后续处理。

然后信号进入轻量化编码器,产生潜在表示向量。之后经过一个基于拉普拉斯累积分布函数的非线性映射,把每个潜在值压缩到-127到127的整数范围内,严格控制在8位以内。这一步的"σ参数"是通过训练学习的,能够自适应地匹配不同信号的统计特性。

量化步骤采用有限标量量化(FSQ):在训练前期,量化用"加随机噪声"来模拟,让编码器学会容忍量化误差;训练到70%时冻结编码器,后续只训练解码器,量化改为真实的取整操作。这种"先软后硬"的策略可以避免早期训练因量化不连续而产生的梯度问题。

量化后的整数序列经过熵编码(类似于用ZIP压缩整数文件),最终写入磁盘或网络传输。研究发现,WEBP无损格式和JPEG-LS在压缩效率与速度之间的平衡最佳,但不同熵编码方案之间的差异其实很小。

解压时,整个流程反向执行:熵解码→反量化→解码器重建→逆幂律变换→逆小波变换,得到重建信号。

**七、训练目标的简化:用方差代替概率模型**

传统的学习型压缩方案需要同时训练一个"概率密度模型"来精确估计每个潜在变量的信息量,并配备一个独立的辅助优化器来维护这个模型。这套机制确实能精确控制码率,但显著增加了系统的设计复杂度,而且对于每种新信号类型都需要重新调整。

LiVeAction团队提出了一个大胆的简化方案:直接用潜在变量的**样本方差的对数**来近似码率。这背后有扎实的理论基础——对于指数族分布(比如广义高斯分布,而实际信号的潜在表示通常符合这类分布),最大熵原理告诉我们,在均值和方差固定的情况下,分布的熵(即信息量)与方差的对数成正比。换句话说,控制方差就等效于控制码率。

于是,最终的训练损失函数只有两项:第一项是均方误差(MSE),衡量重建信号与原始信号的差距;第二项是潜在变量方差的对数,充当码率惩罚项。二者之间用一个权重参数λ平衡,研究团队发现λ=0.03在所有信号类型上都能稳定工作,无需针对每种信号单独调参。这个λ值大约能把平均码率压缩一半——从每个潜在通道8比特降到大约4比特。

为了验证这个简化的代价有多小,研究团队专门做了对比实验。结果显示,使用精确概率模型的版本每像素需要0.83比特,重建PSNR为31.19 dB;而使用简化方差损失的版本只需要0.65比特,PSNR为30.85 dB。简化版本在码率上节省了22%,质量损失极其微小。对于大多数应用场景,这是一个非常划算的交换。

**八、为什么不用感知损失和对抗损失**

生成式编解码器(如Stable Audio、Cosmos)通常使用"感知损失"(比如LPIPS,衡量深度神经网络提取的特征相似度)和"对抗损失"(让一个判别器来评判重建结果是否足够逼真)来训练解码器产生视觉上令人满意的输出。这两类损失的本质,都是在引导解码器去"填充"人眼喜欢看到的细节,即便这些细节并不来自原始信号。

LiVeAction完全放弃了这两类损失,只用MSE。原因有三:第一,感知损失依赖特定的神经网络特征提取器,这些特征提取器往往专门针对图像设计,对音频、高光谱或医疗体素没有任何意义;第二,对抗训练极不稳定,对超参数极度敏感,容易崩溃,需要大量调试经验;第三,对于机器感知任务,"逼真但不准确"比"略微模糊但忠实"危害更大——一个自动驾驶系统可不希望因为编解码器"脑补"了一道不存在的路障而紧急刹车。

当然,纯MSE训练的代价是解码器不会主动合成高频纹理细节,重建图像在放大后可能略显平滑。研究团队对此给出了一个优雅的补充方案:在解码器输出之后,可以选择性地接入一个独立的生成模型(比如FLUX ControlNet)来做"后处理增强"。这个生成模型以解码器输出为条件,补充纹理细节。实验结果显示,这种后处理能带来约0.5 dB的DISTS指标提升,且更重要的是显著恢复了视觉上的细节质感,同时由于生成增强是完全独立的可选模块,核心编解码器的保真度不受任何影响。

**九、如何适配不同信号类型:几条实用经验**

LiVeAction声称可以适配任意信号类型,但实际操作时仍需要根据信号特性选择若干超参数。研究团队总结了一套简洁的设计经验,并将完整配置代码开放在GitHub上。

关于信号维度的选择,大多数情况下是自然确定的:单通道音频显然是一维,彩色图像是二维。但对于多通道信号(比如224个波段的高光谱图像),如果通道数与空间分辨率处于同一量级,且所有通道的物理单位一致(都是辐射度值),就可以把通道维度当作额外的空间维度处理,让模型在通道之间也发现冗余规律。

关于潜在变量数量(即压缩到多少个"核心数值"),研究团队推荐选取原始信号维度的1/64。对于自然信号,冗余度通常很高,64倍的维度压缩往往不会带来明显的质量损失。

关于小波分解的级数J,建议选取使得每层内部的隐藏维度落在512到1536之间的值。这个区间被实验证明是计算效率和表达能力的甜蜜点——太小则模型容量不足,太大则计算浪费。

关于编解码器深度,研究发现编码器4层、解码器8层的组合能在实时编码速度、解码器训练成本和压缩质量之间取得最佳平衡。这种不对称的深度配置恰好体现了"轻编码器、强解码器"的核心设计哲学。

**十、实验结果:从音频到3D医疗图像,全面超越对手**

研究团队为六种不同的信号类型训练了专属编解码器,并与业界最强的对比方案进行了系统性评测。

**立体音乐**方面,对比对象是Stable Audio(一款支撑Stability AI音频生成产品的VAE)。Stable Audio的潜在变量因为没有码率约束,熵值很高,需要用16位浮点数存储才能避免量化失真,实际压缩比仅为64:1。LiVeAction的码率惩罚有效压低了潜在变量的熵,实现了195:1的压缩比,高出Stable Audio约3倍。音质方面,LiVeAction达到36.57 dB的PSNR,比Stable Audio高出8.15 dB。编码速度方面,由于结构化卷积运算远比Stable Audio的标准CNN层高效,LiVeAction的编码吞吐量超出Stable Audio 16倍以上,在大段音频上尤为突出(5012 KSamp/s对比229 KSamp/s)。

**空间音频**方面,对比对象是Meta的EnCodec(当前业界最广泛使用的神经音频编解码器)。LiVeAction实现了12.8倍的维度压缩(64倍 vs EnCodec的5倍),2.2倍更高的压缩比(1013:1 vs 455:1),以及35.6倍更快的编码速度。在信号质量上,空间音频特有的空间失真指标(SSDR)提高了6.09 dB,残差失真指标(SRDR)提高了13.55 dB,说明LiVeAction在保持空间音场结构方面有显著优势。

**RGB图像**方面,这是评测最为全面的一块。在低功耗移动处理器(Intel Arrow Lake 255U)上,LiVeAction的编码吞吐量为9.95百万像素/秒,高于WaLLoC(6.12 Mpix/s)和AVIF(3.01 Mpix/s),而Cosmos根本无法在这款CPU上运行。相对于JPEG 2000的BD-rate(Bj?ntegaard Delta率,用于综合评估不同码率下的质量差距,负值越大越好):在PSNR指标上节省36.55%的码率,在SSIM指标上节省70.30%,在DISTS指标上节省70.27%。Cosmos在PSNR上表现差(+49.61%,反而需要更多码率),但在SSIM和DISTS上有优势(因为它会生成视觉上更锐利的细节)。

特别值得关注的是机器感知实验:研究团队将不同编解码器压缩后的图像送入EVA-CLIP视觉Transformer模型进行ImageNet 1000类分类,以分类准确率衡量"压缩后信息保留了多少"。LiVeAction在0.19 bpp下达到79.81%的分类准确率,与Cosmos(同样约0.25 bpp下约87%)的差距来自于Cosmos是在ImageNet上训练的(相当于刷题),而LiVeAction完全没有见过ImageNet数据。即便如此,LiVeAction在相同或更低码率下与Cosmos不相上下,说明其压缩对机器视觉任务同样有效。

**高光谱图像**方面,LiVeAction对比的是JPEG 2000(高光谱领域常用的通用压缩方案)。两者在相同压缩比(575:1)下,LiVeAction的PSNR(18.52 dB)略高于JPEG 2000(18.18 dB),同时维度压缩比高出64倍(LiVeAction为64维度压缩,JPEG 2000不做维度压缩)。编码速度上,LiVeAction在GPU上达到600 MVox/s,是CPU版JPEG 2000(12.47 MVox/s)的约48倍;即使都跑在CPU上,LiVeAction(14.93 MVox/s)也超过JPEG 2000(6.45 MVox/s)两倍以上。

**三维医疗体素**方面,在MEDMNIST 3D数据集(包含器官、骨折、结节等6类医疗影像)上,LiVeAction以64倍维度压缩、2.1倍更高的体积压缩比(209:1 vs 95.62:1)和2.7 dB更高的PSNR(24.74 dB vs 22.00 dB)全面超越JPEG 2000,同时编码速度(54.08 MVox/s)是CPU版JPEG 2000(13.60 MVox/s)的约4倍。

**视频**方面,Cosmos DV8×8是业界最强的神经视频标记器之一。但Cosmos在处理完整1080p视频时会遭遇内存溢出,必须以24帧为单位分块处理,还需要50%的重叠来避免边界伪影,这导致实际压缩比和速度大打折扣。LiVeAction无需分块,单次通过即可处理全长1080p视频,在RTX 4090上达到52.94帧/秒的编码速度,而Cosmos即使在分块模式下也只有13.73帧/秒。压缩比方面,LiVeAction(约330倍)比Cosmos DV8×8的实际可用压缩比(约192倍)高出约1.7倍。在CPU上,LiVeAction以107.6帧/秒处理240p视频,实现了低分辨率下的真实时编码。

表V中还列出了更详细的RGB图像对比数据,涵盖Kodak测试集和ImageNet 1k数据集,包括PSNR、LPIPS、DISTS、SSIM等多个指标,以及在不同码率配置下与Balle 2018 Hyperprior、AVIF等主流方案的全面比较。总体趋势是:在相同PSNR下,LiVeAction通常需要更少的码率;在相同码率下,LiVeAction的结构相似度指标(SSIM、DISTS)普遍优于未使用生成损失的方案,而PSNR则与Balle 2018等传统学习型压缩方案接近。

**十一、参数规模与训练资源:小而精的哲学**

LiVeAction的规模对比数据令人印象深刻。Cosmos的编解码器有3200万参数;WaLLoC有9200个参数(极度精简的线性投影版本);LiVeAction有49.3万参数,落在两者之间,但在性能上显著超越Cosmos的BD-rate表现。

训练数据规模上,LiVeAction使用的训练集都是相对小规模的领域数据集:音乐用的是MUSDB18-HQ(约7小时高质量音乐),图像用的是LSDIR,视频用的是6000个Vimeo90k短片段。与之形成对比的是Cosmos,训练消耗了数百乃至数千GPU天的计算资源,并且使用了互联网规模的数据。LiVeAction的图像编解码器据估计可在单张GPU上完成训练,大大降低了研究门槛,也意味着任何机构都可以为自己的专有信号类型训练定制版本,而无需科技巨头级别的算力支持。

说到底,LiVeAction做的事情有点像给工地上的搬砖工配备了一辆轻便的电动平板车:它不是最豪华的运输工具,不能一次拉几十吨货,但它足够轻、足够省电,让一个人在工地上快速穿梭,而真正的精细组装工作留给仓库里的大型设备来完成。这种分工哲学并不新鲜,但在神经网络编解码器领域,它以前从未被如此系统、彻底地执行过。

从更宏观的角度来看,这项工作的意义在于降低了"为新型传感器设计专属压缩方案"的门槛。以前,你要么用不合身的通用标准,要么花费巨额资源训练一个庞大的生成模型。现在,借助LiVeAction的设计框架和几条超参数经验,一个小团队在合理的时间和计算预算内,就能为一款全新的传感器打造出超越传统标准的专属编解码器。这对于医疗影像、环境监测、太空探索等领域来说,潜在价值值得持续关注。

研究团队也坦承了若干局限性和未来方向:目前LiVeAction是固定码率训练的,一个模型对应一个压缩比率,未来希望探索可变码率训练;另外,与下游机器学习任务的联合优化(即让压缩直接服务于检测、分类等任务,而非重建质量)也是一个自然的延伸方向。对这项研究感兴趣的读者,可以通过arXiv编号**2605.06628**找到完整论文,研究代码已开放在GitHub的UT-SysML/liveaction仓库中。

Q&A

Q1:LiVeAction和普通的JPEG压缩有什么本质区别?

A:JPEG是根据人眼感知特性设计的,会优先保留人眼敏感的低频信息,丢弃人眼不在意的高频细节。LiVeAction是通过神经网络从大量真实数据中学习信号本身的统计规律来压缩,不依赖人眼特性,因此对高光谱、医疗体素等"机器看"而非"人看"的信号效果更好。在相同的文件大小下,LiVeAction在结构相似度指标(SSIM)上比JPEG 2000节省约70%的码率。

Q2:LiVeAction的"不对称设计"具体指什么,为什么这样设计?

A:不对称指的是编码器(把原始信号变成压缩表示)非常轻量,只有49.3万参数且使用分组卷积结构;而解码器(把压缩表示还原为信号)更深、更强,使用线性注意力机制。这样设计是因为传感器设备需要实时编码,计算资源极有限,而解码往往在云端服务器上进行,资源充裕。研究发现加深编码器的收益递减,把资源集中在解码器上更划算。

Q3:LiVeAction为什么不用感知损失,去掉之后图像质量会不会变差?

A:感知损失(如LPIPS)依赖专门为图像设计的特征提取器,对音频、医疗体素等非图像信号完全无法使用,会限制通用性。去掉感知损失后,重建图像不会主动合成高频纹理,放大后略显平滑,但不会出现"脑补"出不存在内容的问题,对医疗影像等需要精确还原的场景更安全。研究团队验证:纯MSE训练后可选接入FLUX ControlNet做后处理增强,能在不影响核心保真度的情况下补充视觉细节,DISTS指标提升约0.5 dB。

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
上海半决赛开门红仍存隐患:险遭20分逆转+三分23中5 张镇麟惊艳

上海半决赛开门红仍存隐患:险遭20分逆转+三分23中5 张镇麟惊艳

醉卧浮生
2026-05-15 21:29:04
俄罗斯超大舰队进入东海

俄罗斯超大舰队进入东海

烽火观天下
2026-05-14 10:58:42
中使馆提醒:一次沉迷,终生悔恨!欢迎举报或自首

中使馆提醒:一次沉迷,终生悔恨!欢迎举报或自首

南方都市报
2026-05-15 08:19:03
夏奇拉:这已经是我第四届世界杯,Waka Waka是最爱歌曲之一

夏奇拉:这已经是我第四届世界杯,Waka Waka是最爱歌曲之一

懂球帝
2026-05-15 17:50:13
4000万年薪泡汤?伦敦之夜,张本宇看儿女惨败,红着眼眶收拾书包。

4000万年薪泡汤?伦敦之夜,张本宇看儿女惨败,红着眼眶收拾书包。

最爱乒乓球
2026-05-15 00:08:05
18年了!汶川地震丢下学生逃跑的“范跑跑”,如今竟过成了这样?

18年了!汶川地震丢下学生逃跑的“范跑跑”,如今竟过成了这样?

一盅情怀
2026-05-14 09:05:26
蓉城2-1逆转津门虎 创纪录9连胜 不败+暂14分领跑中超 韦世豪双响

蓉城2-1逆转津门虎 创纪录9连胜 不败+暂14分领跑中超 韦世豪双响

我爱英超
2026-05-15 21:36:31
梅总大逆转,辛纳遭调侃,高芙退双保单,郑钦文列第二替补

梅总大逆转,辛纳遭调侃,高芙退双保单,郑钦文列第二替补

网球之家
2026-05-15 14:14:39
3-2逆天改命!东部诞生最大黑马,1人立下大功,快船肠子都悔青了

3-2逆天改命!东部诞生最大黑马,1人立下大功,快船肠子都悔青了

揽星河的笔记
2026-05-15 17:14:03
世乒赛刚结束,日本主帅评价梁靖崑,只字未提实力却句句戳心

世乒赛刚结束,日本主帅评价梁靖崑,只字未提实力却句句戳心

阿讯说天下
2026-05-15 11:51:27
护送空军一号飞入中国领空后,美空军末日飞机掉头,决定降落日本

护送空军一号飞入中国领空后,美空军末日飞机掉头,决定降落日本

走过海棠
2026-05-15 14:23:13
何九华官宣当爸!直言生女没得选全程不提孩子妈,和王鸥真离了?

何九华官宣当爸!直言生女没得选全程不提孩子妈,和王鸥真离了?

萌神木木
2026-05-14 11:18:28
特朗普结束访华,专机离开北京,已当面发出邀请,回国后准备迎客

特朗普结束访华,专机离开北京,已当面发出邀请,回国后准备迎客

魔神主的仇恨
2026-05-15 19:31:45
日本乒协没想到,被骂惨的张本智和,如今一句话在中国逆转了口碑

日本乒协没想到,被骂惨的张本智和,如今一句话在中国逆转了口碑

天天热点见闻
2026-05-15 06:26:40
巅峰时期的QQ有多“狂”?2008年,腾讯竟打算用Q币给员工发工资

巅峰时期的QQ有多“狂”?2008年,腾讯竟打算用Q币给员工发工资

荆楚寰宇文枢
2026-05-14 23:20:07
没给日本的,中方都给了特朗普,除了21响礼炮,还有一个重要承诺

没给日本的,中方都给了特朗普,除了21响礼炮,还有一个重要承诺

肖兹探秘说
2026-05-15 13:42:33
随特朗普访华企业家:看好中国长远发展和市场机遇

随特朗普访华企业家:看好中国长远发展和市场机遇

新华社
2026-05-15 11:50:54
1995年,49岁的特朗普来到香港,怀中抱着一位神秘女人,她是谁?

1995年,49岁的特朗普来到香港,怀中抱着一位神秘女人,她是谁?

文史达观
2025-01-26 06:45:03
特朗普访华首日,大陆宣布统一后安排!岛内学者:台军应消灭台独

特朗普访华首日,大陆宣布统一后安排!岛内学者:台军应消灭台独

浪子阿邴聊体育
2026-05-14 21:15:28
马斯克儿子四个月婚姻破裂,两年后产女并爱上男DJ

马斯克儿子四个月婚姻破裂,两年后产女并爱上男DJ

李橑在北漂
2026-05-15 14:26:39
2026-05-15 22:20:49
科技行者 incentive-icons
科技行者
科技正在如何变革商业世界
8357文章数 564关注度
往期回顾 全部

科技要闻

直降千元起步!苹果华为率先开启618让利

头条要闻

生产成本疑不足40元 "童鞋界爱马仕"泰兰尼斯广告翻车

头条要闻

生产成本疑不足40元 "童鞋界爱马仕"泰兰尼斯广告翻车

体育要闻

德约科维奇买的球队,从第6级联赛升入法甲

娱乐要闻

方媛为何要来《桃花坞6》没苦硬吃?

财经要闻

腾讯掉队,马化腾戳破真相

汽车要闻

高尔夫GTI刷新纽北纪录 ID. Polo GTI迎全球首秀

态度原创

时尚
数码
健康
房产
本地

日常衣服千万不用买太贵,准备几件白色T恤,清爽百搭又实用

数码要闻

艾为电子连启三场 mini研讨会 | 携手合作伙伴全域赋能生态

专家揭秘干细胞回输的安全风险

房产要闻

老黄埔热销之下,珠江春,为何去化仅3成?

本地新闻

用苏绣的方式,打开江西婺源

无障碍浏览 进入关怀版