侵权投诉
订阅
纠错
加入自媒体

三星正在研发6亿像素的摄像头模组,如此高的像素真的好吗?

2020-12-15 08:49
我的极刻
关注

这也就引出了第二个概念:分辨率。

其实,在不同情况下我们所说的分辨率也是不同的概念,例如在提到数码图像时所说的分辨率在英语中是Resolution,在提到数码打印或显示器时所说的分辨率其实是ppi(pixels per inch,每英寸像素数)等,小黑在这里主要说明的,还是我们在拍摄照片、视频时会遇到的分辨率,即Resolution。

其实,数码像素与数码图像分辨率的换算其实很简单,将数码图像分辨率简单相乘,就可以得到一张图片的数码像素数了。

以小米10为例,在进入一亿像素拍照模式之后所拍摄的照片,分辨率会达到9024×12032px,像素数大约是1亿零857万个,因此我们可以在小米10的摄像头上看到108MP的字样。

至于小米10的一亿像素究竟有没有用,在开头提到的那篇文章中也有实际样张对比,下面的对比图片也可以看出它们的区别。

在上面的图片中,左边是主摄像头为5000万像素的某型号手机所拍的照片,右边是小米手机108M模式所拍摄的照片,差别还是很明显的。

所以,像素数量的高低,确实是影响图片质量的重要因素之一。

像素越高,拍摄的照片真的更好吗?

既然像素的高低能够影响图片质量,那么为何高端专业相机现在大多也只有4000万~6000万像素呢(以索尼α7R3和α7R4为例)?

关于这一点,小黑也曾在《一亿像素和大底大像素传感器,手机拍照到底挑哪个?》一文中做过简单的说明。在那篇文章中,小黑给出的一个重要原因就是传说中的“底大一级压死人”。

上图中列出了一部分常见图像传感器的尺寸,其中放在最上面的,就是常见高端相机中使用的全画幅传感器,最下面的,则是目前手机中经常使用的传感器。可以看出,相机传感器与手机传感器在尺寸上有天壤之别。

我们都知道,人眼能够看到物体,是因为物体反射了光线映入人眼的结果,而图像传感器的成像也运用了这一原理。

当我们使用相机拍摄物体时,物体反射的光线会通过镜头透射到图像传感器上,图像传感器再将其收集,并通过一系列复杂的步骤将这些光线转换成数字信号,最后经过色彩校正等调整,再存储为图像的。

因此,传感器的尺寸,才是影响照片质量的重中之重。原因很简单,图像传感器的尺寸越大,单个像素能够感应光线的面积也就越大,也就可以记录下更多的信息,不论是成像质量还是宽容度、暗光表现也会更好。

这也是苹果为什么至今还在用“老掉牙”的1200万像素摄像头系统的原因之一。

除了图像传感器的尺寸之外,决定成片质量的另一个重点,就是镜头。

<上一页  1  2  3  4  下一页>  
声明: 本文由入驻维科号的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。

发表评论

0条评论,0人参与

请输入评论内容...

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

    电子工程 猎头职位 更多
    扫码关注公众号
    OFweek电子工程网
    获取更多精彩内容
    文章纠错
    x
    *文字标题:
    *纠错内容:
    联系邮箱:
    *验 证 码:

    粤公网安备 44030502002758号