![]()
苹果公司于2025年12月17日发布了一款名为SHARP的新型开源人工智能模型,该模型能够在不到一秒钟的时间内,将单张二维照片转换为具有真实感的三维视图。相关研究成果以论文《Sharp Monocular View Synthesis in Less Than a Second》形式公开,并已上线GitHub平台供开发者使用。
SHARP模型的核心技术基于3D高斯溅射(3D Gaussian Splatting),通过一次神经网络前向传递即可预测出图像场景的完整三维结构。与以往需要多角度图像输入的传统方法不同,SHARP仅凭一张照片就能重建出具备精确距离和现实尺度的3D环境,整个过程在标准GPU上耗时不足一秒。
该模型之所以高效,是因为其采用了一种称为“度量化表示”(metric representation)的技术,使生成的3D场景支持真实的摄像机位移操作。实验数据显示,SHARP在多个基准测试中表现优异,相比此前最优模型,LPIPS指标降低25%-34%,DISTS指标下降21%-43%,同时合成速度提升了三个数量级。
尽管SHARP无法生成原视角之外完全不可见的区域,因此仅适用于邻近视角渲染,但这一设计有效保障了结果的真实性与计算效率。目前已有开发者在社交媒体上分享测试成果,包括利用M3芯片运行模型、结合Three.js实现Web端渲染等创新应用。
随着SHARP的开源发布,苹果进一步展示了其在计算机视觉与生成式AI领域的技术实力,也为虚拟现实、增强现实及内容创作等应用场景提供了新的可能性。
参考链接:
https://9to5mac.com/2025/12/17/apple-sharp-ai-model-turns-2d-photos-into-3d-views/
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.