Use digital focus. OV and Micron are developing this technology.
Ref from : http://www.tmworld.com.cn/article.aspx?id=28280
对多数工程师来说,EDOF(扩展焦深)后面的技术并不十分直观明确,除非他们在从事物理光学工作。因此,也许作某些解释是理所当然的。下面是与 Arie Shapira 的一次讨论,他是新兴 Dblur 技术有限公司负责 EDOF 的销售工程总监。
在一个一般的光学系统中,镜头将来自场景每一点的光波聚焦到图像的单个对应点上,在数码相机中,是聚焦到图像传感器阵列的表面。如果来自场景中某一点的光覆盖了一片区域,而不是集中在一个点上,则镜头就没有对准焦点,图像也会模糊不清。这种模糊不是随机的。Shapira 解释说,镜头通过一种叫做点扩散(point-spread)函数的算术变换,将一个点光源转变成一个模糊点。你可以把它看作是镜头的 2D 脉冲响应。
作为一种变换,这种模糊是可逆的。在某些条件下,数字信号处理可以将场景所有点的全部模糊图像作叠加,重构出一个清晰的图像。逆向 2D 变换是一件很容易的事,可以用一种 2D 回旋法实现。如果传感器有较好的线性,并且点扩散函数功能正常,则这种方法就可以使用。用 Photoshop的不清晰蔽光框修改过数码相机照片的人都清楚这个思路。
下面就是有意思的部分了:你可以设计一种镜头,它会故意不对准焦点,这样一个点光源任何时候都产生一个模糊图像,(这部分很关键),这样点扩展函数就几乎不受点光源与镜头距离的制约。因此,无论场景中的点是在一张 10 cm 外的名片表面,或者是在 100m 外的建筑侧面,你都能在图像上获得相同种类的原型。
当复原算法将这些独立的模糊点变换为良好而清晰的点时,反向变换仍然与物体与镜头之间的距离无关。靠近镜头的名片在焦点内,建筑也在焦点内。你可以将焦深扩展到一般镜头以外。这种技术还有其它使用方式:如控制镜头上已知的畸变,或者增加光学系统对机械精度不够的宽容度。
这一技术的关键是,你必须一块儿设计出 Shapira 强调的镜头和复原算法,使镜头完成图像处理器反向的同一种空间变换。因此,镜头与软件必须相互匹配。另外,过程中必然出现损失,因此重要的是镜头与传感器提供的图像质量要超过用户的期望值。这样,复原后的最终图像将能够满足用户的要求。
[此贴子已经被作者于2007-9-19 15:05:14编辑过]
[br]<p align=right><font color=red>+5 RD币</font></p> |