如今手机的拍照功能在老百姓的眼里已经远远超过了相机。动辄上亿的像素,听着就不是一般货。但你们有没有做过这样一个思考,就算上万块钱的手机,貌似拍出来的照片也没有我们眼睛看到的景象细腻、鲜活。
难道,咱们的眼睛天生就自带滤镜吗?想要理解这个问题,咱们还要从像素这个东西说起。
像素就好比乐高一样。我们看到的照片如果放大到极致,你会发现,它其实是由一个个不同颜的小方块组成的。在有限的照片尺寸内,这些小方块越多,拼出的画面也就越细腻。
而相机里负责产生像素的部分叫做感光元件,感光元件上面布满了能接收光线的小点。相机有几千万像素,感光元件上就有几千万个这样的小点。
而感光元件也有大小之分,它直接影响了拍照效果。个头大的感光元件自然容纳的像素点就多。抓光的能力也就越强。摄影圈有句话叫“底大一级压死人”,意思就是大尺寸感光元件天生就比小的更“扛打”。
说完了相机,再来说说咱们的眼睛。它的构造其实和相机挺像的。眼睛里的瞳孔就像相机的光圈,瞳孔的大小会随着光线的强弱而变化,眼睛里的晶状体好比相机的镜头,能灵活地调节视线的远近。而视网膜就相当于相机的感光元件,专门负责接收光线信号,再把信号传给大脑。
而在视网膜上,住着两种特别能干的“打工细胞”,视锥细胞和视杆细胞。视锥细胞都扎堆在视网膜正中间,专门负责在光线充足的时候“开工”。它能精准区分各种颜色,像路边红艳艳的花朵、绿油油的树叶,都是靠它才能看得清楚。视锥细胞差不多有600万到800万个!
视杆细胞则像舞台周围的群演,数量有1.2亿个左右,它们对光线特别敏感,让我们在昏暗的地方不至于两眼一抹黑。不过视杆细胞没办法分辨颜色,所以在暗处看东西基本就是黑白色的。
如果把这两种细胞加起来算像素,也就1.28亿左右。现在很多手机像素也都上亿了,可为什么拍出来的照片依旧不像眼睛看到的那样呢?
有人说了,按照视网膜来计算像素是不对的,还是要从视野角度来估算。咱人眼看东西,水平方向大约有120度的范围,上下加起来能看到135度,相当于相机的35毫米焦段。
而人眼看到的细节又特别丰富,两条挨得特别近的细线,只要夹角超过0.01度,咱就能分清它们是两根线。这0.01度就好比两个像素点之间的距离。换算一下,一个像素差不多占0.005度的角度。要是把120度的水平视野想象成一个正方形,这么算下来,里面居然能塞下5.76亿个0.005度的小像素!
但这个算法有个大问题!咱平时看东西,其实只有正前方那一小块看得最清楚。具体来说,只有视野正中间大概10度角的范围才能看清细节,稍微偏一点,到20度开外,余光扫到的全是模糊的影子。举个超真实的例子:你现在盯着电脑屏幕中间的字看,是不是就完全看不清桌面边边角角?必须得把想看的东西挪到视线正中间,才能看清细节。
所以啊,眼睛的有效像素根本没5.76亿那么夸张,顶天也就几千万。可奇怪的是,就算是几千万像素,咱眼睛看到的画面为啥还是比手机拍出来的清晰那么多呢?答案是大脑。
咱们的大脑就像一个超厉害的“图像优化大师”。眼睛看到东西时会先把画面变成信号传给大脑。这时候大脑会自动忽略那些模糊不清的边角,只专心精修正前方最清楚的画面。
而且大脑还能把不同时刻看到的信息拼凑起来。咱们看东西的时候,眼球其实一直在微微转动,就像相机在不停地调整角度,大脑会把这些不同角度的画面整合起来,形成一个连贯、立体的场景。
可手机拍照就不一样了,它只是一瞬间的记录,按下快门的那一刻,感光元件把接收到的光线信号直接变成照片,没有大脑这样的“优化处理”。自然也就缺少了层次感。
另外,咱们眼睛看东西的亮度范围,可比相机厉害太多了!在强光下,咱们能看清明亮的蓝天、白云,同时也能看到树荫里的细节;而相机在这种情况下,要么把强光部分拍成一片白,要么把暗处拍成一片黑,很难兼顾。这就像咱们的眼睛是一个能灵活调节的“超级滤镜”,而相机的滤镜功能再强,也赶不上这种天生的能力。
这么说吧,眼睛看着好像比不过相机的像素,但配上大脑这“超级处理器”,再加上眼睛能自动对焦、调节光线,咱们看到的世界才这么鲜活、立体。高端相机、手机再厉害也只是照着眼睛的原理做的,根本没法取代它。毕竟人类这套“视觉系统”是大自然最牛的拍照神器。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.