iPhone 6 后置摄像头使用什么传感器,为什么仍保持 800 万像素?

主流旗舰手机像素 1300W、1600W、2000W 层出不穷,技术瓶颈应该是没有的。技术瓶颈尚未达到的情况下,如果仅是说 800W 像素够用,恐怕不能令人信服,尼康当年的 600W 够用论,1200W 够用论就曾经被打脸。
关注者
1,354
被浏览
197,257

54 个回答

一直想写篇文章纠正一些数码影像领域一般用户常见的误解,解答一些问题,但确实这个话题涉及的知识比较多并且还比较困难,好多专业性的资料我的水平根本看不懂,所以总是在等知乎有一些内行出来科普。但既然这么久以来都没什么专业人士发言,我就以我目前能掌握的知识尽可能就这方面的问题做些科普吧。


首先纠正一个几乎所有普通用户都会搞错,也曾困扰我多年的误解:

绝大部分数字成像设备的传感器是拜耳阵列传感器。这种传感器的基础形态如下:

拜耳阵列传感器的每一个像素都是单色像素,相邻的2x2共四个像素组成一个基本阵列,每个阵列有二绿一蓝一红像素。


拜耳阵列传感器的像素数量即是所有负责成像的单色像素数量之和。典型地,一个1000万像素传感器会有500万个绿色、250万个红色和250万个蓝色像素。


但是几乎所有的数字显示设备,包括显示器、投影仪等,其像素数量是所有彩色成像单元的总数量。每一个显示器的“像素”都是由红绿蓝三个子像素组成的,一些特殊的显示设备如三星的Pentile屏幕,每一个像素由一个绿色和一个红或者蓝色像素,共两个像素组成。换句话说,一般的显示设备的单色像素数量是其标称的像素数量的3倍或2倍。如果像成像设备一样以单色像素计算像素总数,那么典型的1080p显示器就有1920x1080x3,大约620万的单色像素。

大部分的显示屏都是这样的形态,每个像素由红绿蓝三个子像素组成。常说的“24bit色彩”指的就是红绿蓝三色各有8bit深度,加起来就是24bit。


但是大家都知道,大多数的数字成像设备拍摄出来的图像都是以三色像素计数的。例如800万像素的相机输出的jpg照片,在浏览器里看属性一定是800万像素,每个像素都是24bit彩色。可既然传感器每个像素都是单色,为什么输出的却是彩色的信息呢?这就涉及到拜耳阵列传感器输出图像的关键步骤——反拜耳运算了。


所谓反拜耳运算属于数字插值技术的一种。具体来说就是传感器生成图像时,每一个单色像素参考同阵列的其他三个像素捕捉的光学信息,“猜”出本像素接收的其他两种光线的数据,并以此生成包含三色光谱信息的像素。换句话说,反拜耳运算是一种三倍插值运算。与普通用户的常识不同,绝大多数拍摄设备所生成的图像从一开始就是这样插值出来的,所谓“没做任何插值运算”的图像除了少量专业设备外一般是不存在的。


接下来进入主题:成像设备像素数量、感光面积和图像质量的关系。


首先,既然我们已经知道拜耳传感器生成的图像都是经过插值的,那么该如何计算图像的清晰度呢?倘若没有这个插值过程,比较好理解的就是理想状况下图像的清晰度=图像的像素数量,亦即每一个像素都真实地还原了其捕捉到的场景的某一点的光线信息。但是既然存在这样的插值,就有可能出现生成图像的信息并不是真实的场景信息的情况。这方面有一些对应的数学研究,其结论是在理想状况下,拜耳传感器生成图像的实际清晰度在每个方向都等于传感器像素数的约78%。例如某个传感器的分辨率是4000x3000,则纵向上其实际清晰度是3120条垂直线;横向上其清晰度是2340条水平线。理想状况下如果用它拍摄一组密集排列的黑白相间的细条纹,生成的图像上可以数出横向最多2340条黑色/白色的条纹。

测试设备分辨率时,用设备拍摄类似这样的测试卡,输出图像后看看能看清哪个等级的线条组,则设备分辨率就是什么等级。


而医学上经过研究发现,人眼的分辨率同样是有限的。我们常说某人视力是1.0、1.5,指的就是眼睛分辨场景细节的能力。典型1.0的视力下,在30cm的距离上人眼最多分辨每英寸300条水平线。物体距离人眼越远,人眼能分辨物体的细节就越少(亦即“越远越看不清楚”);同时,距离越近人眼聚焦的范围越小,越远范围越大,30cm距离上人眼只能关注一小块屏幕,3m距离上人眼可以关注一个60寸的电视。进一步就可以推导出,人眼不动时对于某一张图像的细节分辨能力是有极限的。比如一幅清明上河图,无论是放大到原始大小还是缩小到A4纸尺寸,人们都不可能一眼就看清整幅图像的全部细节——尺寸太大,一次看不过来;尺寸太小,过小的细节又不可能看得清楚。这个极限经过研究,大约是在1000-2000水平线左右。那么结合上面拜耳传感器的清晰度计算方法我们可以知道,理想状况下大约4000x3000的传感器生成的图像就足以让人一眼看上去觉得足够清晰了。无论是在7寸照片上打印还是在100寸屏幕上投影,这样精度的图像不细看是看不出细节的不足的。


然而现实总是比理想残酷很多。上面所说的这种情况仅仅是最佳条件下的状况。实际情况远比这要复杂许多。


首先,拜耳传感器生成图像的清晰度受算法的影响。虽然理想状况下其能达到像素数78%的清晰度,但当场景颜色排布较为复杂时,生成的图像往往会出现物体边缘伪彩、条纹物体摩尔纹、边缘锯齿等状况。这些状况降低了图像的实际清晰度。


更为严重的状况出现在场景明暗反差过大时。传感器捕捉场景信息时,场景的明暗反差很有可能超过传感器性能极限。场景的明暗反差程度被称为动态范围,传感器承受场景明暗反差的范围被称为宽容度,单位是ev。某个场景的动态范围是1档,意味着场景最亮点的亮度是最暗点亮度的2倍;如果是两档就是2^2=4倍,以此类推。晴天中午,太阳与树荫下的亮度差异可以达到近20档。当场景的动态范围超过传感器的宽容度时,记录下的图像中超过宽容度的部分就会变成相同的亮度,且细节基本丢失。

可以看出,第一张图片明亮部分的细节以及男性身体阴影部分的细节几乎完全丢失。很显然,传感器的宽容度会在明暗反差较大的场景中影响图像的细节还原能力。


另一种情况出现在场景过暗时。绝大多数用户都很熟悉“噪点”这个词汇。当设定的传感器灵敏度过高(亦即ISO设定过高)时,接收较少光线照射的传感器像素的自身电流会掩盖接收光线所产生的电流,生成无规则色彩的像素点,亦即噪点。黑暗场景下为了拍出亮度正常的照片,用户往往需要设定较高的ISO值,结果就会在图像上发现大量噪点。很显然,这些噪点会严重影响图像的清晰度。传感器抑制噪点的性能被称为信噪比,信噪比越高则噪点出现的越少。

哪些是星星,分得清吗?


讲了这么多宽容度和噪点的东西,这些又和传感器像素有什么关系呢?


非常不幸的是由于数字成像设备的技术原理限制,在其他条件都相同的情况下,一定尺寸的传感器的像素数量与宽容度和信噪比都成反比。想要同时增加像素数量、宽容度和信噪比,只有提高传感器整体技术水平或缩减色彩表现力(很少使用的手段)、降低像素刷新速度等(会影响连拍、摄像性能,所以也很少用)。换句话说如果技术水平没有提升,传感器尺寸不变,那么提升像素数量几乎必然会影响到宽容度和信噪比。而宽容度和信噪比的下降,反过来又会在很多场景中严重影响成像清晰度。本来增加像素是为了提高清晰度,可是这样一来增加的清晰度又被抵消很多,甚至于下降了。可是很少有成像设备能够经常在理想的场景下拍摄图像,尤其是通常没有任何辅助拍摄器材,又需要随时记录生活的普通消费者最容易碰上上面这个尴尬的矛盾。专业的摄影场景通常都会使用遮光、反光设备和灯光来降低整个场景的明暗比,增加场景的亮度。为了尽可能获得理想的成像,专业设备通常使用尺寸较大、耗电较多的高性能传感器以及沉重、巨大、高精度的镜头;结果经常需要面临更加严苛拍摄场景的用户却只能拿着小体积的手机拍照,简直就是痛苦的考验。


在这样的事实面前,消费级成像设备就必须做出艰难的选择和取舍。一方面,成像单元的体积、重量、能耗往往受到严格的限制;另一方面,用户拍摄的场景却是千变万化。寻找应对这样情况的最佳策略是非常困难的。最理想的情况是技术迅速进步,使得小尺寸设备达到如今高性能摄影机的性能水平——但多年的经验证明这方面的进步速度相当缓慢。那么在种种限制下,选择成像器件的像素数量指标就成了很重要的一环。


前面我们已经知道,当像素数达到千万级别时理想状况下生成的图像只要不做裁剪就已经足够绝大多数用户使用了。但是当宽容度和信噪比过低时,图像清晰度会受到严重的影响。如今典型的1000万像素级别手机摄像头的宽容度只有5档甚至更低,而信噪比与高级单反的差距可达数十倍。由于这两项指标的巨大差距,一颗2000万像素手机摄像头在较为严苛的场景下生成图像的清晰度,甚至比不上一部467万像素摄影机。片面提高像素只能在一部分场景中产生正面作用,在另外很多场景中反而会有严重的负面效果。事实上,在手机常用的1/2-1/3寸的传感器上,像素数超过5-600万(这是拍摄《复仇者联盟》使用的摄影机的传感器像素水平)后负面作用就会越来越明显。传感器厂商如果完全为用户考虑,提高产品整体技术水平的时候不应该把改进后的技术用来增加像素,而是应该保持较大像素尺寸并提高宽容度与信噪比指标。小尺寸传感器的像素提升道路早在一两年前就应该终止了。


遗憾的是,增加像素数量指标的市场效果是如此之好,以至于厂商都热衷于提升设备的像素数,而对其他指标有意避而不谈。多年来的宣传让消费者形成了“像素数量=画质”的印象,结果到头来损失最大的还是消费者自身。


苹果在专业图像处理领域的技术积累是很深的,拥有较好的图像和视频处理算法。现在新款iPhone又拥有性能较好的芯片,因此手机整体的图像处理性能在业界是数一数二的。苹果选择手机图像传感器的标准重心并不是像素数量,其首先考虑的其实是传感器的体积、重量和耗电。这几个指标大致确定之后传感器的感光面积自然也就确定了。接下来,苹果是选择这个尺寸下使用最新技术,但像素数最少的传感器产品。苹果的传感器供应商现在是Sony,iP6选择的传感器尺寸约是1/3英寸(实际要更大些)。800万像素应该是Sony在这个尺寸下能供货的单像素面积最大的传感器了。如果Sony肯以最新的技术生产600万甚至500万像素的传感器,其综合画质会更佳——但是Sony自然不会这样做,恐怕消费者也难以认可。因此,800万像素算是苹果的一种妥协:尽可能地在这样的尺寸下提高宽容度、信噪比指标,提高摄像头在复杂环境中的成像品质,同时还能保证产品的供货量。那么为什么苹果不换用尺寸更大的传感器?一方面是手机整体设计的考虑,另一方面,Sony能提供的大底传感器因为像素数量太多,单个像素的尺寸反而比现在的800万像素版本要小不少。增加的像素带来的效果被减少的宽容度、信噪比抵消后也就所剩无几,甚至可能有反效果。既然如此还不如继续使用体积较小的800万像素传感器,还能减少电力损耗。


讽刺的是,当大量专业拍摄设备的像素数量还停留在2000万以下,甚至1000万以下时,普通消费者使用的小小的手机的摄像头却普遍有了千万甚至两千万的像素数。苹果作为少有的坚持较少像素数量的厂商却招来很多无知的嘲弄与讥笑。希望这篇文章能够帮助一般用户更好地理解相机像素、尺寸与画质的关系,在选择和评价设备时多一点理性,少一些盲从。

首先声明,这是一个纯粹的技术问题。

而且我这里讲的将是800w像素的摄像头成像质量也会如此巨大,这里面有多少可以play的空间,而不是讲apple如何做,因为这是谁也不可能知道或者讲出来的绝对商业机密。

我们先来看看Imaging Sensor(图像传感器)如何工作。

毫不客气的说,手机和单反里面的Imaging Sensor是设计难度最低的Imaging Sensor,核心技术几乎完全是工艺的问题。

因为手机的Imaging Sensor全部采用4T结构的设计。

什么是4T结构?

一张图解决问题:
首先,这个是日本和美国发明的,所以现在行业内做的最好的依然是日本和美国公司。

几乎所有的手机相机,低到200w,高到2300W,几乎无一例外全部是这样的结构。因为这样的结构相比较6T,7T的结构,Fill Factor(感光率)高很多,而且支持Global Reset(全局重置)并且如果使用一些特殊技术,也可以实现Global Shutter(全局快门),从而很好的保证了拍照的速度。

那么什么决定了一个Imaging Sensor的好坏呢?

那就是感光器件的核心——Photo Diode(感光二极管),Photo Diode的工作原理是利用特殊掺杂的硅,让照射进来的光子激发出电子空穴对,然后利用Transfer Gate(传输门TX)读出。工作原理是很简单的,但是说起来容易,做起来就难了。

首先,具体到硅基上的Photo Diode尺寸,究竟该如何设计?设计成什么形状?这几乎没有任何设计工具可以依赖,完全是一次次的实验,而这种实验是以千万美金计算的研发费用。

除了Photo Diode的设计之外,感光部分的硅基如何掺杂,Transfer Gate如何平衡传输电子的势能差,这都十分影响一个Imaging Sensor的功能。

感光质量的好坏,最基本地可以用以下三个指标来衡量:

解析力,线性度,和 Dynamic Range。


我们经常谈及的所谓800W像素,可以影响的就是解析力,但是解析力并不只依赖于有多少的pixel(像素点)。现在pixel已经小到1-2um的时代,Cross Talk(串扰)和Micro lens的质量才是解析力的关键。

而且如果在面积一定的情况下,1300W像素的成像质量很可能差于800W。

线性度的问题,很大程度上取决于器件的工艺和读取电路的设计。

Dynamic Range影响了我们究竟可以拍出多亮的白色和多暗的黑色,最好的体现就是夜间和强光下拍摄的质量。


这一项,首先取决于Charge Well的面积,越大则越好。所以小的感光芯片,比如说手机,是没有任何可能拍出好夜景的,这也就是为什么全幅单反都那么大。

除了Charge Well的面积,Dynamic Range很大程度上也受工艺和使用时温度的影响,比如说有没有使用SOI,有没有使用Local sensor来校准。

所以暗光拍摄的质量和像素的多少,没有很大的关系。

如此可以继续得出,发热大的手机,也部分影响成像质量。

说了这么多,回到问题,iphone的800w像素为什么牛逼?

首先,iphone的摄像头,历来是Sony为其定制的,Sony最好的工艺(也就是全世界最好的工艺)一定会用在这上面,而我私以为,Apple和Sony在这一部分上是有排他协议的。也就是说,Apple的摄像头,用的工艺就比别人的好,起点就比较高。

其次,由于高度保密,我们无法知道iphone的pixel究竟是如何设计,Micro lens是什么排布。虽然官网上很笼统的标注了pixel的大小是1.5um,但是pixel里Photo Diode的形状和面积,尤其是在面积一定的情况下,如何和Charge Well进行trade off,所有这些关键参数,我们根本无法知道。

同样是1.5um的pixel,因为设计的不同,表现出的成像特性也会千差万别。

Appple的800w像素是精心定制的,和其他厂商用的800w,完全不是一个概念。

所以用Apple的800w和其他手机的800w相比较,是很业余的做法。

综上所述,根本原因就是Apple用的800w是专业量身定制的,不可以和其他的所谓800w,1300w拿来比较。

除了Imaging Sensor,影响相机成像的还有DSP,而Apple在这一方面,是领域内的专家,如何做一个好的ISP(Image Signal Processing) ,Apple是很有信心的。甚至我认为Sensor部分和ISP的设计是一体的,这个概念是法国人提出的可计算电路,就是在电路层面实现一部分固定的算法,这个技术现状主要使用在核成像上。

除了这个,在硬件上,一个良好的读取电路对保证成像的线性度是很重要的,而这一部分,Apple也下了大工夫。几年前ISSCC做ADC的best paper得主现在就在Apple工作。

而且在整机设计,比如说消除串扰,散热方面,Apple也做到了业界最好。

Apple把提升成像质量的工作都做在了消费者不容易看见的地方,而不是一味提高像素这种噱头上,这是一种认真,求实的工程态度。

所以,iphone 800w像素的高成像质量是事实,这背后体现的是Apple整个公司超高的工程实力和品质把控,是一个多因素影响的复杂工程。


这是真正的硬实力!
-------------------------------------------------------------------------------------------------------------------------------------------
最后,鉴于有些朋友略微捉急的阅读理解能力,我强调一下,我没说apple 800w是最好的,但是和其他普通的800w还有部分1300w比起来,还是有优势的。

而且,我说了,ISP很重要的。。。你让我具体说说?我想就算是入门的讲出来非技术人员也听不懂,不想听。。。

至于Sony为啥不用这个,IP啊,IP啊,这是一个customized design啊。

Apple也不是不升级,你看6 plus不也上浮动镜组了嘛。。。