果粉之家,专业苹果手机技术研究十年!您身边的苹果专家~
近日,有不少果粉反馈说,他们更新了iOS 15正式版后有部分新功能无法使用,如打开图片根本没有对应的实况文本功能。细问之下,才知道原来他们使用的是 iPhone X 及以下机型。
为什么 iPhone X 及以下机型用不了实况文本呢?在iOS 15功能介绍页中,苹果用小字强调了,实况文本功能仅在配备 A12仿生或后续芯片的 iPhone 上提供。而最早搭载 A12芯片的机型是2018年发布的 iPhone XS、iPhone XS Max 以及 iPhone XR,也就是说在他们之前的机型都不支持实况文本功能。
除了实况文本功能外,FaceTime 中的人像模式、宽谱模式、语音突显模式、键盘连续听写等一系列iOS 15新功能,都需要达到A12仿生芯片这个门槛才能够使用。
乍一看,苹果似乎打算用数个 iOS 15新功能来告诫果粉该换新机了。但事实上,苹果也不是故意关闭 iPhone X及以下机型的新功能,毕竟这些都是四年前的机型了,其芯片的计算能力已然无法支持新功能运行了。
用过实况文本功能的小伙伴应该都知道它是一个非常实用的新功能,而其功能就是识别图片中的文本内容,而这些内容包括了电话、地址、邮箱等复杂信息,甚至还支持打开摄像头进行实时识别并输出文本结果。
如果这些信息是通过上传数据到云端然后再识别输出结果,那么对手机的算力要求也不会太高。但苹果对于隐私极为重视,并没有把这些数据上传,而是在iPhone 设备上本地运行。这就意味着 iPhone 想要运行实况文本功能就需要强大的算力支持,尤其是iPhone 还支持7种语言翻译,实况文本功能的门槛进一步拔高。
需要注意的是,这里说的算力并不是我们常说的 CPU 和 GPU,而是苹果 A 系列芯片中的 AI 神经引擎模块。该模块具备强大算力和智能识别功能,它能够更好地配合智能算法,完成低精度高计算量的运算。
那么为什么是从A12芯片开始支持?根据苹果 A 系列芯片的发展史就可以知晓,在A11上苹果首次加入了神经引擎模块,算力达到了每秒6000亿次运算,而这只能算是一次尝试。
到了 A12苹果的 AI 神经引擎方面技术才是真正走向成熟,芯片工艺从10nm 走向了7nm ,让神经引擎模块迎来了跨越式的提升,直接从每秒6000亿次运算提升到每秒5万亿次运算。
换句话来说,真正限制 iPhone X 及以下机型的是芯片的 AI 算力,而 A12芯片刚好达到iOS 15新功能的算力门槛。
从国外分析师的报告中可以看出,近几年来苹果有意放缓A系列芯片的CPU和GPU提升,而着重加强AI神经引擎模块。在 AI 神经引擎算力方面从A12每秒5万亿次运算增加到了每秒15.8万亿次运算,整整提升了三倍多。
随着AI 神经引擎模块不断加强,越来越多的iPhone 新功能开始与算力联系起来,如iPhone 13 Pro 系列新增的“电影模式”就需要强大的算力支持。很显然,未来苹果将在这条道越走越远,终有一天 A15芯片也会成为一个淘汰者。
有果粉的地方就有果粉之家,学习苹果使用技巧,了解最新苹果资讯请关注:果粉之家!
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.