品玩12月18日讯,据 9to5Mac 暴动,Apple近日发布名为SHARP的新模型,可在标准GPU上通过单次神经网络前向传播,在不到一秒内从单张2D图像重建出具有真实尺度的光度逼真3D场景。
该技术基于3D高斯表示,支持实时渲染邻近视角,并在多个数据集上刷新SOTA,LPIPS和DISTS指标分别降低25–34%与21–43%。
SHARP通过合成与真实数据联合训练,实现零样本跨场景泛化,但仅限于原视角附近的合理视点合成。Apple已将SHARP开源至GitHub,供研究社区验证与拓展。
![]()
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.