首先放一张眼球的基本结构图:
一、光学系统部分:
基本参数:
人眼简化模型的光学参数
曲率半径 r=5.7mm
介质折射率 n = 1.3333
视网膜曲率半径 r’ = 9.7mm
强光光圈
低光光圈
可以计算出以下参数
物方焦距 f = -5.7 / 0.3333 = -17.10mm
像方焦距 f’ = 1.3333 x 17.10 = 22.80mm
像方光焦度φ= 0.3333 / x 10-3) = 58.48
1.1优点:
(1)出色的转动机械系统,可以快速对准想要观察的物体。
(2)软组织肌肉拉伸形变对焦,耐用性极强,正常使用时间可超过百年!
(3)单眼156°双眼188°超广角单透镜镜头[5]
(感谢 @黄潇的提醒)
如图为双眼视度图
∠xyz实际上就是被鼻子挡住的位置,图2全部白色的范围实际上就是人眼的盲区,除了可以 看到自己的鼻子和眼眶。∠cyg这个范围内观看到的事物有立体感。人单眼的舒适视域为60度;
单眼的视野画在极坐标里覆盖的范围是这样的:
(4)数亿年进化倾情打造的透镜面,超低畸变,消除球差相差各种差的能力极强
(5)软组织近圆形无级可调光圈(虹膜) 参考:光圈_百度百科
(6)损伤自修复
(7)微距对焦能力强,最近对焦距离5-10cm,微距细节分辨率326像素/英寸(by Apple)
(8)双摄像头即时测距真3D
1.2缺点:
(1)硬度低,易受损伤
(2)在不卫生环境下有受各种细菌病毒侵蚀染病的风险(详见:眼科疾病有哪些[6])
(3)有因晶状体蛋白质变性而发生混浊的风险 (详见:白内障_百度百科[7])
(4)不能长时间暴露在空气中,需要不间断湿润,不停地眨眼保持工作状态(每一分钟需要眨眼10~20次,每次0.2~0.4s[8])
(5)有因过疲劳、衰老、遗传因素等原因造成光学系统形变,产生在一定距离段上无法准确对焦的风险(近视在远端无法对焦,远视在近端(严重的甚至远端也)无法对焦) 谢谢 @Adagios 提醒
(6)焦距基本固定(仅在对焦时发生小范围变化),不能进行光学变焦放大物体
(7)由于遗传,后天损伤,衰老等因素会造成透镜形变或内部折射率发生变化,可能导致不能准确聚焦成像(详见:散光_百度百科[9])
二、感光器部分:
2.1优点:
(1)高像素 [1]
目前科学界公认的数据表明,观看物体时,人能清晰看清视场区域对应的分辨率为2169X1213。再算上上下左右比较模糊的区域,人眼分辨率是6000X4000。那么,2169X1213是怎么计算出来的呢?
人观看物体时,能清晰看清视场区域对应的双眼[视角]大约是35°(横向)X20°(纵向)。同时人眼在中等亮度,中等对比度的[分辨力(d)]为0.2mm,对应的[最佳距离(L)]为0.688m。其中d与L满足tg(θ/2)=d/2L,θ为[分辨角],一般取值为1.5',是一个很小的角。将视场近似地模拟为地面为长方形的正锥体,其中锥体的高为h=L=0.688m,θ1=35°(水平视角),θ2=20°(垂直视角)。以0.0002m为一个点,可以得知底面长方形为2169X1213的分辨率。
(2)超高动态范围 [2]
人眼在动态感光范围最大的优势是两个:
局部调节细胞iso
光强信号的记录是模拟的,不存在二进制数位数的限制。
从刺目的阳光到星光之间整整相差了10^8数量级,也就是一亿倍.计算一下Log2 10^8=26.6.
用摄影的语言讲光线的动态范围应该在27Ev这个数量级,实际上因为不同场景下人眼感光度不同,动态范围应该会低于这个值(感谢 @刘延@彭渤 的提醒)。
作比较:
其实相机的感光元件能够记录宽范围的动态范围,但是由于需要 进行光电信息的转换,在数码里边叫做位深度(bit)。因为当极亮或者极暗时,画面亮部的信息会被统一记录为位色数字的最大值(比如说八位彩色的255),所以模电转换的过程就限制了动态范围。记录的深度越高,能记录的动态范围就越大。从网上down一张位深度和动态范围之间的关系图:
大部分单反数码相机的RAW文件可以记录10到14的位深,因此理论的动态范围是10-14EV。大部分数码相机实际可用的动态范围能是5-9EV。而人眼刚才说到传递的是模拟信号,理论上位数是无穷的,自然动态范围要高很多。
(3)高数据带宽 [1]
索尼7680×4320超高清晰分辨率的未经压缩的18分钟未经压缩的超高清视频大小为3.5TB,平均每分钟194GB,按照这个数据量,每分钟经过人眼的数据量约为140.34GB。也就是说,平均打一个小时的XBOX360,将有8420.4GB的数据被传导到大脑。这些数据如果刻成蓝光光碟,需要337张!而如果把人眼想象成一个高清摄像头,这个摄像头的总线带宽为2.339GB/秒。
(4)可局域自动调节感光度 [3]
人眼的感光度是可以自动调节的。在环境光强发生变化的情况下,人眼通过调节虹膜中视网膜色素的含量,增加或减少感光度。但这种调节是相当慢的,最长可达半个小时。黑夜中突然打开日光灯会觉得很刺眼,就是这个原因。你在远离市区的乡村可以看到很多星星,在充满光污染的城市中可能连月亮都看不到,除了有光散射的原因以外,也是感光度调节在作怪。
在一个测试中,有人使用Canon EOS 10D和5英寸针孔透镜,在ISO 400情况下12秒钟内记录了14颗星星。而我们可在10秒钟之内认清楚14颗星。(Clark, R.N., Visual Astronomy of the Deep Sky, Cambridge U. Press and
Sky Publishing, 355 pages, Cambridge, 1990)粗略估计,人眼的最高感光度相当于ISO 800。
另外据统计,10D在ISO 800时,CMOS上的每个像素点平均接收2.7个电子。而视神经接受外界的光信号,同样需要至少一对电子。
在日光下,眼睛的感光度非常低,几乎为夜间的1/600(Middleton, Vision Through the Atmosphere, U. Toronto
Press, Toronto, 1958),也就是说,日光下的感光度基本达到ISO 1。如此低的感光度可以有效的保护视神经和虹膜。
而数码相机方面,感光度ISO 12800在数码单反上早已经非常普及,但是,数码相机在高感光度下的噪点始终是困扰整个数码成像业的大问题。
(5)全适应白平衡 [4]
相关的详细资料没有找到,不过人眼具有独特的适应性,使我们有的时候不能发现色温的变化。比如在钨丝灯下呆久了,并不会觉得钨丝灯下的白纸偏红,如果突然把日光灯改为钨丝灯照明,就会觉查到白纸的颜色偏红了,但这种感觉也只能够持续一会儿。(by百度百科 大家可以自己试验一下)
(6)不同种感光元件组合
人单眼视网膜上约有700万个锥体细胞,1亿2千万杆体细胞。锥体细胞负责强光感知和颜色分辨,杆体细胞负责弱光感知,只能分辨明暗。两种细胞的搭配极大地提高了人眼对环境的适应能力和动态感光范围。(详见:视细胞)
(7)低噪声 (待讨论)
@十六日千秋 提到了人眼黑暗条件和闭眼的时候都会出现大量噪点的问题,所以这一条待讨论,而且并没有找到可靠的材料,不过人脑的除噪能力想必是极强的~
生物系的快研究一下视觉细胞和人脑的除燥,发nature啦!!!
2.2缺点:
(1)对运动物体的识别帧率较低
一般认为人眼视觉流畅的帧数为24fps。(感谢 @彭渤)
大家可以通过下面的网页来做实验,人眼确实可以分辨高帧数和低帧数的差别,但是不代表 完全记录了信息
(30fps运动物体)
(60fps运动物体)
(2)感光元件易疲劳,拖影现象严重
(3)供能系统和数据线布局不合理
血管直接从表面通过,数据线直接占据感光原件的一部分,视网膜结构如图:
血管集中的部位就是盲点,中央部位就是我们的视觉中心区。视网膜的微观结构如图:
可以看到各种传导信息的神经细胞都是在感光元件上方的。不过正因为如此,我们是可以真真切切地 看 见 它们的。
(4)感光度调高过程比调低过程缓慢非常多
(5)低光照条件下色彩还原度差
(6)当照度太强、太弱时或当背景亮度太强时,人眼分辨率降低。
(7)当视觉目标运动速度加快时,人眼分辨率降低。
(8)人眼对彩色细节的分辨率比对亮度细节的分辨率要差,如果黑白分辨率为1,则黑红为0.4,绿蓝为0.19。
三、处理系统部分:
3.1优点:
(1)超强实时数据处理能力,超智能信息过滤能力
(2)超强的图像缺陷补充算法(让你完全无法注意到视网膜上密布的血管,而且除了视野中心其实其他地方全部是超级模糊的,而且双眼数据线部位有严重的图像缺失。)
(3)双眼视图实时全局测距并且导出为直觉格式
(4)实时调用记忆储备,将视场图像中分离的色块与形状组合成有意义的分离的实体,边缘识别自动锐化
最经典的例子如图所示:
图中A与B的颜色其实是相同的(真 的 是 相 同 的 )但是人脑在看到图形的一瞬间就把B归为了白色色块,A归为了深灰色色块,导致在脑中的映像A比较B要深很多。
内些质疑这个图的也是醉了,看下图,就问你 服~不~服!
(5)高级图形识别能力(人脸),并且实时输出为直觉格式
(6)专注能力,可以自动过滤不重要信息,减少cpu消耗
(7)自动检测场景中突发变化,直接调用小脑运动驱动器甚至脊髓协处理器
(8)全自动白平衡算法,四十亿年进化积累超强iso与光圈算法,超强自动测光算法
(9)符号信息自动整体识别整理,信息分析 (阅读与信息处理能力)
3.2缺点:
(1)存在各种类型的错视现象[10]
当人观察物体时,基于经验主义或不当的参照会形成的错误的判断和感知
类型有:
几何学错视
生理错视(由感光器件引起)
认知错视
具体详见维基百科:错视
(2)信息筛选剔除比例极大
上面有提到视网膜记录并输入人脑的信息量是很大的,但是人脑经过筛选之后剔除了巨量的信息,当然也有可能剔除许多有价值的信息
(3)对图像信息整合处理过度,导致部分信息错误
同时也是刚才的A、B色块的例子,如果需要的是类似图像中绝对的明暗信息(比如绘画)那么这样的信息整合能力就会对你造成误导
(4)信息转化存储能力极差
这个想必不用多解释,盯着红宝书看一分钟也记不住几十个bit信息量的单词和解释,也是挺无力的。
(5)对色彩的分辨能力不强 [11][12]
1) 人眼对饱和度高的色彩的敏感度较弱
2) 色调不同,人眼对色调方向上的色差敏感度也不一样
3) 在亮度方向上的色差敏感度也会随着亮度的不同而发生变化
蜂鸟摄影微信订阅号 fnsywx
1.文章《怎么获取swf中的所有元件名》援引自互联网,为网友投稿收集整理,仅供学习和研究使用,内容仅代表作者本人观点,与本网站无关,侵删请点击页脚联系方式。
2.文章《怎么获取swf中的所有元件名》仅供读者参考,本网站未对该内容进行证实,对其原创性、真实性、完整性、及时性不作任何保证。
相关推荐
- . 现代买票为什么带上携程保险
- . 潮阳怎么去广州南站
- . 湖南马拉河怎么样
- . 烧纸为什么到三岔路口
- . 百色为什么这么热
- . 神州租车怎么样
- . 芜湖方特哪个适合儿童
- . 护肤品保养液是什么类目
- . 早晚的护肤保养有哪些项目
- . 女孩护肤品怎么保养的最好