找回密码
 注册
搜索
楼主: feel

[讨论] 手机摄像头调试,有奖征文!

[复制链接]
发表于 2007-2-26 16:54:00 | 显示全部楼层
广告:
专业生产0.3-3.0M 像素 手机摄像模组,OV sensor,有需要的联系我
MSN:lili82416@hotmail.com
点评回复

使用道具 举报

发表于 2007-2-27 14:27:00 | 显示全部楼层
有这方面的资料就要拿出来共享一下。。。。。
点评回复

使用道具 举报

发表于 2007-3-1 10:31:00 | 显示全部楼层
Lasert看到您的留言,国内现在就两家(一个是我们一个是楼下那位仁兄-格科微),国外的居多,所以竞争还是比较激烈的。
格科微的兄台,我们可以认识一下啊!
点评回复

使用道具 举报

发表于 2007-3-2 13:15:00 | 显示全部楼层
据我所知,国内做cmos sensor的公司不下四家,有些公司已经在秘密出货了。
点评回复

使用道具 举报

发表于 2007-3-7 11:56:00 | 显示全部楼层
呵呵,是吗,我还没听说,消息闭塞啊,看来!楼上的,你还知道有哪几家国内原厂?
点评回复

使用道具 举报

发表于 2007-3-9 12:46:00 | 显示全部楼层
我们是这一行的,但我不是搞电子的,可以联系,我们可以代设计测试治工具。hotzgs@126.com
点评回复

使用道具 举报

发表于 2007-3-16 10:43:00 | 显示全部楼层
<DIV class=quote><B>以下是引用<I>sunnybigboss</I>在2007-3-1 10:31:00的发言:</B>
Lasert看到您的留言,国内现在就两家(一个是我们一个是楼下那位仁兄-格科微),国外的居多,所以竞争还是比较激烈的。
格科微的兄台,我们可以认识一下啊!</DIV>


二位仁兄,比亚迪集团下属的比亚迪微电子有限公司也是国内做SENSOR的   design  house.
是我们公司的客户,现在主要成熟产品BF2903、BF3303、BF3403
我感觉蛮好用的~~
点评回复

使用道具 举报

发表于 2007-3-16 10:44:00 | 显示全部楼层
支持国产,支持中国芯。
点评回复

使用道具 举报

发表于 2007-3-16 12:28:00 | 显示全部楼层
镜头的选择和主要参数

摄像头镜头是视频监视系统的最关键设备,它的质量(指标)优劣直接影响摄像头的整机指标,因此,摄像头镜头的选择是否恰当既关系到系统质量,又关系到工程造价。

  镜头相当于人眼的晶状体,如果没有晶状体,人眼看不到任何物体;如果没有镜头,那么摄像头所输出的图像就是白茫茫的一片,没有清晰的图像输出,这与我们家用摄像头和照相机的原理是一致的。当人眼的肌肉无法将晶状体拉伸至正常位置时,也就是人们常说的近视眼,眼前的景物就变得模糊不清;摄像头与镜头的配合也有类似现象,当图像变得不清楚时,可以调整摄像头的后焦点,改变CCD芯片与镜头基准面的距离(相当于调整人眼晶状体的位置),可以将模糊的图像变得清晰。由此可见,镜头在闭路监控系统中的作用是非常重要的。

  工程设计人员和施工人员都要经常与镜头打交道:设计人员要根据物距、成像大小计算镜头焦距,施工人员经常进行现场调试,其中一部分就是把镜头调整到最佳状态。


1、镜头的分类
按外形功能分 按尺寸大小分 按光圈分 按变焦类型分 按焦距长矩分
球面镜头     1”25mm     自动光圈 电动变焦     长焦距镜头
非球面镜头   1/2”3mm   手动光圈 手动变焦     标准镜头
针孔镜头     1/3”8.5mm 固定光圈 固定焦距     广角镜头
鱼眼镜头     2/3”17mm     


(1) 以镜头安装分类
  所有的摄像头镜头均是螺纹口的,CCD摄像头的镜头安装有两种工业标准,即C安装座和CS安装座。两者螺纹部分相同,但两者从镜头到感光表面的距离不同。
  
  C安装座:从镜头安装基准面到焦点的距离是17.526mm。
  CS安装座:特种C安装,此时应将摄像头前部的垫圈取下再安装镜头。其镜头安装基准面到焦点的距离是12.5mm。如果要将一个C安装座镜头安装到一个CS安装座摄像头上时,则需要使用镜头转换器。

(2) 以摄像头镜头规格分类
  摄像头镜头规格应视摄像头的CCD尺寸而定,两者应相对应。即摄像头的CCD靶面大小为1/2英寸时,镜头应选1/2英寸。摄像头的CCD靶面大小为1/3英寸时,镜头应选1/3英寸。摄像头的CCD靶面大小为1/4英寸时,镜头应选1/4英寸。如果镜头尺寸与摄像头CCD靶面尺寸不一致时,观察角度将不符合设计要求,或者发生画面在焦点以外等问题。
(3) 以镜头光圈分类
  镜头有手动光圈(manual iris)和自动光圈(auto iris)之分,配合摄像头使用,手动光圈镜头适合于亮度不变的应用场合,自动光圈镜头因亮度变更时其光圈亦作自动调整,故适用亮度变化的场合。

  自动光圈镜头有两类:一类是将一个视频信号及电源从摄像头输送到透镜来控制镜头上的光圈,称为视频输入型,另一类则利用摄像头上的直流电压来直接控制光圈,称为DC输入型。自动光圈镜头上的ALC(自动镜头控制)调整用于设定测光系统,可以整个画面的平均亮度,也可以画面中最亮部分(峰值)来设定基准信号强度,供给自动光圈调整使用。

  一般而言,ALC已在出厂时经过设定,可不作调整,但是对于拍摄景物中包含有一个亮度极高的目标时,明亮目标物之影像可能会造成"白电平削波"现象,而使得全部屏幕变成白色,此时可以调节ALC来变换画面。
另外,自动光圈镜头装有光圈环,转动光圈环时,通过镜头的光通量会发生变化,光通量即光圈,一般用F表示,其取值为镜头焦距与镜头通光口径之比,即:F=f(焦距)/D(镜头实际有效口径),F值越小,则光圈越大。

  采用自动光圈镜头,对于下列应用情况是理想的选择,它们是:在诸如太阳光直射等非常亮的情况下,用自动光圈镜头可有较宽的动态范围。要求在整个视野有良好的聚焦时,用自动光圈镜头有比固定光圈镜头更大的景深。要求在亮光上因光信号导致的模糊最小时,应使用自动光圈镜头。

(4) 以镜头的视场大小分类
  标准镜头:视角30度左右,在1/2英寸CCD摄像头中,标准镜头焦距定为12mm,在1/3英寸CCD摄像头中,标准镜头焦距定为8mm。
  广角镜头:视角90度以上,焦距可小于几毫米,可提供较宽广的视景。
  远摄镜头:视角20度以内,焦距可达几米甚至几十米,此镜头可在远距离情况下将拍摄的物体影响放大,但使观察范围变小。
  
  变倍镜头(zoom lens):也称为伸缩镜头,有手动变倍镜头和电动变倍镜头两类。
  可变焦点镜头(vari-focus lens):它介于标准镜头与广角镜头之间,焦距连续可变,即可将远距离物体放大,同时又可提供一个宽广视景,使监视范围增加。变焦镜头可通过设置自动聚焦于最小焦距和最大焦距两个位置,但是从最小焦距到最大焦距之间的聚焦,则需通过手动聚焦实现。
  针孔镜头:镜头直径几毫米,可隐蔽安装。

(5) 从镜头焦距上分
  短焦距镜头:因入射角较宽,可提供一个较宽广的视野。
  中焦距镜头:标准镜头,焦距的长度视CCD的尺寸而定。
  长焦距镜头:因入射角较狭窄,故仅能提供狭窄视景,适用于长距离监视。
  变焦距镜头:通常为电动式,可作广角、标准或远望等镜头使用。

2、选择镜头的技术依据

(1) 镜头的成像尺寸
  应与摄像头CCD靶面尺寸相一致,如前所述,有1英寸、2/3英寸、1/2英寸、1/3英寸、1/4英寸、1/5英寸等规格。

(2) 镜头的分辨率
  描述镜头成像质量的内在指标是镜头的光学传递函数与畸变,但对用户而言,需要了解的仅仅是镜头的空间分辨率,以每毫米能够分辨的黑白条纹数为计量单位,计算公式为:
镜头分辨率N=180 / 画幅格式的高度。

  由于摄像头CCD靶面大小已经标准化,如1/2英寸摄像头,其靶面为宽6.4mm*高4.8mm,1/3英寸摄像头为宽4.8mm*高3.6mm,因此对1/2英寸格式的CCD靶面,镜头的最低分辨率应为38对线/mm。对1/3英寸格式摄像头,镜头的分辨率应大于50对线,摄像头的靶面越小,对镜头的分辨率越高。

(3) 镜头焦距与视野角度
  首先根据摄像头到被监控目标的距离,选择镜头的焦距,镜头焦距f 确定后,则由摄像头靶面决定了视野。

(4) 光圈或通光量
  镜头的通光量以镜头的焦距和通光孔径的比值来衡量,以F为标记,每个镜头上均标有其最大的F值,通光量与F值的平方成反比关系,F值越小,则光圈越大。所以应根据被监控部分的光线变化程度来选择用手动光圈还是用自动光圈镜头。

3、变焦镜头(zoom lens)
  变焦镜头有手动伸缩镜头和自动伸缩镜头两大类。伸缩镜头由于在一个镜头内能够使镜头焦距在一定范围内变化,因此可以使被监控的目标放大或缩小,所以也常被成为变倍镜头。典型的光学放大规格有6倍(6.0~36mm,F1.2)、8倍(4.5~36mm,F1.6)、10倍(8.0~80mm,F1.2)、12倍(6.0~72mm,F1.2)、20倍(10~200mm,F1.2)等档次,并以电动伸缩镜头应用最普遍。

  为增大放大倍数,除光学放大外还可施以电子数码放大。在电动伸缩镜头中,光圈的调整有三种,即:自动光圈、直流驱动自动光圈、电动调整光圈。其聚焦和变倍的调整,则只有电动调整和预置两种,电动调整是由镜头内的马达驱动,而预置则是通过镜头内的电位计预先设置调整停止位,这样可以免除成像必须逐次调整的过程,可精确与快速定位。在球形罩一体化摄像系统中,大部分采用带预置位的伸缩镜头。

  另一项令用户感兴趣的则是快速聚焦功能,它由测焦系统与电动变焦反馈控制系统构成。

4、镜头与摄像头CCD尺寸的关系
  1/2"镜头既可用于1/2"摄像头,也可用于1/3"摄像头,但视角会减少25%左右。1/3"镜头不能用于1/2"摄像头,只能用于1/3"摄像头。

5、不同种类镜头的应用范围
手动、自动光圈镜头的应用范围:
  手动光圈镜头是最简单的镜头,适用于光照条件相对稳定的条件下,手动光圈由数片金属薄片构成。光通量通过镜头外径上的一个环调节。旋转此圈可使光圈收小或放大。在照明条件变化大的环境中或不是用来监视某个固定目标,应采用自动光圈镜头,比如在户外或人工照明经常开关的地方,自动光圈镜头的光圈的动作由马达驱动,马达受控于摄像头的视频信号。

  手动光圈镜头和自动光圈镜头又有定焦距(光圈)镜头自动光圈镜头和电动变焦距镜头之分。

  定焦距(光圈)镜头,一般与电子快门摄像头配套,适用于室内监视某个固定目标的场所作用。定焦距镜头一般又分为长焦距镜头,中焦距镜头和短焦距镜头。中焦距镜头是焦距与成像尺寸相近的镜头;焦距小于成像尺寸的称为短距镜头,短焦距镜头又称广角镜头,该镜头的焦距通常是28mm以下的镜头,短焦距镜头主要用于环境照明条件差,监视范围要求宽的场合;焦距大于成像尺寸的称为长焦距镜头,长焦距镜头又称望远镜头,这类镜头的焦距一般在150mm以上,主要用于监视较远处的景物。

  手动光圈镜头可与电子快门摄像头配套,在各种光线下均可使用。

  自动光圈镜头(EF)可与任何CCD摄像头配套,在各种光线下均可使用,特别用于被监视表面亮度变化大、范围较大的场所。为了避免引起光晕现象和烧坏靶面,一般都配自动光圈镜头。

  电动变焦距镜头,可与任何CCD摄像头配套,在各种光线下均可使用,变焦距镜头是通过遥控装置来进行光对焦,光圈开度,改变焦距大小的。

6、镜头的主要性能指标有以下几个:
(1) 焦距
  焦距的大小决定着视场角的大小,焦距数值小,视场角大,所观察的范围也大,但距离远的物体分辨不很清楚;焦距数值大,视场角小,观察范围小,只要焦距选择合适,即便距离很远的物体也可以看得清清楚楚。由于焦距和视场角是一一对应的,一个确定的焦距就意味着一个确定的视场角,所以在选择镜头焦距时,应该充分考虑是观测细节重要,还是有一个大的观测范围重要,如果要看细节,就选择长焦距镜头;如果看近距离大场面,就选择小焦距的广角镜头

(2) 光阑系数
  即光通量,用F表示,以镜头焦距f和通光孔径D的比值来衡量。每个镜头上都标有最大F值,例如6mm/F1.4代表最大孔径为4.29毫米。光通量与F值的平方成反比关系,F值越小,光通量越大。镜头上光圈指数序列的标值为1.4,2,2.8,4,5.6,8,11,16,22等,其规律是前一个标值时的曝光量正好是后一个标值对应曝光量的2倍。也就是说镜头的通光孔径分别是1/1.4,1/2,1/2.8,1/4,1/5.6,1/8,1/11,1/16,1/22,前一  数值是后一数值的根号2倍,因此光圈指数越小,则通光孔径越大,成像靶面上的照度也就越大。

  另外镜头的光圈还有手动(MANUAL IRIS)和自动光圈(AUTO IRIS)之分。配合摄像头使用,手动光圈适合亮度变化不大的场合,它的进光量通过镜头上的光圈环调节,一次性调整合适为止。自动光圈镜头会随着光线的变化而自动调整,用于室外、入口等光线变化大且频繁的场合。

(3) 自动光圈镜头
  自动光圈镜头目前分为两类:一类称为视频(VIDEO)驱动型,镜头本身包含放大器电路,用以将摄像头传来的视频幅度信号转换成对光圈马达的控制。另一类称为直流(DC)驱动型,利用摄像头上的直流电压来直接控制光圈。这种镜头只包含电流计式光圈马达,要求摄像头内有放大器电路。对于各类自动光圈镜头,通常还有两项可调整旋钮,一是ALC调节(测光调节),有以峰值测光和根据目标发光条件平均测光两种选择,一般取平均测光档;另一个是LEVEL调节(灵敏度),可将输出图像变得明亮或者暗淡。

(4) 变倍镜头
  变倍镜头分为手动(MANUAL ZOOM LENS)和电动(AUTO ZOOM LENS)两种,手动变倍镜头一般用于科研项目而不用在闭路监视系统中。在监控很大的场面时,摄像头通常要配合电动镜头和云台使用。电动镜头的好处是变焦范围大,既可以看大范围的情况,也可以聚焦某个细节,再加上云台可以上下左右的转动,可视范围就非常大了。

  电动镜头有6倍、10倍、15倍、20倍等多种倍率,如果再知道基准焦距,就可以确定镜头焦距的可变范围。例如一个6倍电动镜头,基准焦距为8.5毫米,那么其变焦范围就是8.5到51毫米连续可调,视场角为31.3到5.5度。电动镜头的控制电压一般是直流8V~16V,最大电流为30毫安。所以在选控制器时,要充分考虑传输线缆长度,如果距离太远,线路产生的电压下降会导致镜头无法控制,必须提高输入控制电压或更换视频矩阵主机配合解码器控制。

7、视场和焦距的计算
  视场指被摄取物体的大小,视场的大小是以镜头至被摄取物体距离,镜头焦头及所要求的成像大小确定的。

(1) 焦距的计算
  镜头的焦距,视场大小及镜头到被摄取物体的距离的计算如下:
f=wL/W
f=hL/h
f;镜头焦距      w:图象的宽度(被摄物体在CCD靶面上成象宽度)
W:被摄物体宽度    L:被摄物体至镜头的距离
h:图象高度(被摄物体在ccd靶面上成像高度)视场(摄取场景)高度
H:被摄物体的高度

CCD靶面规格尺寸:单位mm
规格 1/3" 1/2" 2/3" 1"
W   4.8   6.4   8.8 12.7
H     3.6   4.8   6.6   9.6


  由于摄像头画面宽度和高度与电视接收机画面宽度和高度一样,其比例均为4:3,当L不变,H或W增大时,f变小,当H或W不变,L增大时,f增大。
  举例:假设用1/2”CCD摄像头观测,被测物体宽440毫米,高330毫米,镜头焦点距物体2500毫米。
由公式可以算出:
焦距f=6.4 * 2500 / 440≈36毫米或
焦距f=4.8 * 2500 / 330≈36毫米
  当焦距数值算出后,如果没有对应焦距的镜头是很正常的,这时可以根据产品目录选择相近的型号,一般选择比计算值小的,这样视角还会大一些。

(2) 视场角的计算
  如果知道了水平或垂直视场角便可按公式计算出现场宽度和高度。
W=2LtanQw/2 ( Qw:水平视角)
H=2LtanQh/2 ( Qh:垂直视角)
水平视场角Qw(水平观看的角度)
Qw =2tg-1(W/2L)
垂直视场角Qh(垂直观看的角度)
Qh =2tg-1(H/2L)

  视场由宽(W)、高(H)和与摄像头的距离(L)决定,一旦决定了摄像头要监视的景物,正确地选择镜头的焦距就由来3个因素决定:
l 欲监视景物的尺寸
l 摄像头与景物的距离
l 摄像头成像器的尺寸
8、选配镜头的原则
  为了获得预期的摄像效果,在选配镜头时,应着重注意六个基本要素:(1)被摄物体的大小;(2) 被摄物体的细节尺寸;(3) 物距;(4)焦距;(5) CCD摄像机靶面的尺寸;(6) 镜头摄像系统的分辩率。
[br]<p align=right><font color=red>+5 RD币</font></p>[br]<p align=right><font color=red>+3 RD币</font></p>
点评回复

使用道具 举报

发表于 2007-3-29 13:11:00 | 显示全部楼层
如何测试,也要讨论讨论嘛,这是俺的小小建议[em06]
点评回复

使用道具 举报

发表于 2007-3-29 18:46:00 | 显示全部楼层
以下以OV76X0为例来说明如何插入dummy 改变frame rate 增加亮度 消除banding:

我们插入Dummy的话一般有三个位置:
1)增加1处的宽度,使得Vsync周期拉长,降低桢率,增加曝光时间 0x2D 0x2E
2)在2处插入,dummy pixel   0x2A 0x2B
3) 在3处也就是在一行的数据传输完后下一行数据传输之前,不会改变桢率,常用于调节Banding  0x92  0x93

自动曝光控制和白平衡处理实现方法如下:
  采集一帧RGB原始图像,先计算出整幅图像亮度的均值m(Y);然后对图像做直方图均衡化,再计算出此时图像的亮度均值并作为一个阈值Yt。将m(Y)与Yt进行比较,如果m(Y) &lt; Yt,则调大sensor的INT(Integration Time)寄存器的值以增加曝光时间;反之,减小曝光时间。白平衡的调节与此相似,根据原始图像与均衡化后的Cr和Cb的均值,通过sensor的RCG(Red Color Gain)、BCG(Blue Color Gain)调节红色、蓝色通道的增益。YCrCb和RGB的转换关系式为:
  Y=0.59G+0.31R+0.11B
  Cr=0.713×(R-Y)
  Cb=0.564×(B-Y)
  其中,Y是亮度分量,Cr和Cb则是色差分量。
  sensor的曝光时间范围为0~(224-1)个像素时钟周期,即0~1.34s@12.5MHz;增益范围一般为30~63。试验结果表明,经过5~10次的迭代就能取得较为理想的效果。



在AE收敛到0x26高四位之前,是以16倍速的方式收敛,在0x26---0x24之间两倍速,当0x26---0x24之间的间距太小时,会造成收敛不稳定,画面闪烁。


消除banding  CMOS是行暴光,也就是在每行暴光时间决定了画面的亮度,举例:一个50HZ的光源,电压曲线为正弦曲线,那能量曲线定性分析可以认为是取了绝对值的电压曲线。那就是能量做1/100秒的周期变化。那就要求暴光的时间必须是1/100秒的整数倍。如果没有把暴光时间调整到1/100秒的整数倍,就有可能会有每行的暴光值不一样,造成同一个image上有水波纹现象。算法:line time *0x58(page 2)/PCLK=N/100
      Vsync * (508+Dummy_Line)/100 = 50Hz Banding Filter Value
Dummy_Line = 0x92R  0x93R  0x2D 0x2E, ????
50Hz Banding Filter Value `0x9dR
(用这个公式算出来的值还要进行微调试,reg 0x58是mt9m111的寄存器,不同的sensor是不一样的,但一定能找到一个类似的寄存器,N是自然数)
[/QUOTE][br]<p align=right><font color=red>+5 RD币</font></p>[br]<p align=right><font color=red>+5 RD币</font></p>
点评回复

使用道具 举报

发表于 2007-4-1 13:02:00 | 显示全部楼层
提供给大家OV7670的DATASHEET

【文件名】:0741@52RD_OV7670_DS (1.1).pdf
【格 式】:pdf
【大 小】:917K
【简 介】:OV7670
【目 录】:DATASHEET

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?注册

×
点评回复

使用道具 举报

发表于 2007-4-1 13:03:00 | 显示全部楼层
OV SENSOR   CAMERA MOUDLE   诊断方法!
&#8226;检查硬件设计
–检查照相模组
&#8226;在测试版上能够正确显示图像
&#8226;数字和模拟地分开
–检查手机端照相模组接口设计
&#8226;接口定义正确
&#8226;单独LDO为模组供电
–AVDD:不能与其他元件共用LDO
–DVDD:可以与其他元件共用LDO
–DOVDD:可以与其他元件共用LDO
&#8226;模组地与其他电路分开
–模组尤其不能和LCD电源共地
&#8226;照相模组开始工作
–模组工作特征
&#8226;有像素时钟输出:PCLK
&#8226;有同步信号输出:HREF,VSYNC
&#8226;有数据输出:D[9:0]
–检查项目
&#8226;电源供电正确
–AVDD电压正确
–DVDD电压正确
–DOVDD电压正确
&#8226;有时钟信号输入
–PCLK
&#8226;输入信号状态正确
–PWDN=0
–Reset=0
–SIOC=1
–SIOD=1
–上述条件都满足,仍然不工作
&#8226;照相模组可能损坏


----------------------------------------------
办法总比困难多!


电视信号原理基础 [52RD.com]
[52RD.com]
    电视信号原理基础
    1、人的视觉特性和彩色电视图像的空间变换
    要谈彩色电视的标准和清晰度,首先得从人的视觉特性谈起。人们获取信息的70%来自视觉系统,颜色是视觉系统对可见光的感知结果。人眼对不同频率的红(R)绿(G)蓝(B)光的感知度不同,例如对蓝光的感知度最弱,只有0.1左右,对绿光的感知度最强,约为0.6。人眼对亮度的感知度较大,为0.8左右。
    通常,我们看到的光不是一种波长的光,而是许多不同波长的光的组合。自然界中的任何一种颜色都可用这三种基本颜色按不同的比例混合得到,它们构成一个三维的RGB矢量空间。某一种颜色和这三种颜色之间的关系可用下面的式子来描述:
    颜色=R(红色的百分比)+G(绿色的百分比)+B(蓝色的百分比)
    例如,电视机和计算机的显示器的阴极射线管(CRT),就是使用3个电子枪分别产生红、绿和蓝三种波长的光,并以各种不同的相对强度综合起来产生颜色的。
    一幅彩色图像可以看成由许多点组合,这些点称为像素。电视画面也是分解成许许多多细小单元(像素)加以传输。在接收端,像素按行和列排列构成电视画面。由于每个像素反映的阴暗和色彩不一,人眼分辨细节的能力又有限,因此在人们面前就呈现出一幅幅明暗有别、色彩分明的完整图像。
    如前所述,由于人眼对红绿蓝光和亮度的感知度不同,利用人眼的这一特性,可降低电视图像传输所需要的容量。人眼对彩色细节的分辨能力远比对亮度细节的分辨能力低。若把人眼刚能分辨出的黑白相间的条纹换成不同颜色的彩色条纹,那么眼睛就不再能分辨出这些条纹来。由于这个原因,就可以把彩色分量的分辨率降低而不明显影响图像的质量,也就是可以把几个相邻像素不同的彩色值当作一个相同的彩色值来处理。
    为了将彩色图像按亮度和颜色分别处理,就要把RGB空间表示的彩色图像变换到其他彩色空间。目前采用的彩色空间变换有三种:YIQ、YUV和YCrCb。每种变换使用的参数是为了适应某种类型的显示设备。例如,YIQ用于NTSC彩色电视制式,YUV用于PAL制和SECAM彩色电视制式,而YCrCb用于计算机用的显示器。
    在YUV模型中,Y表示亮度,U、V是构成彩色的两个分量。考虑人的视觉系统和阴极射线管的非线性特性,YUV和RGB的对应关系可以近似地用下面的式子来表示:
    Y=0.299R+0.587G+0.114B
    U=-0.147R-0.289G+0.436B
    V=0.615R-0.515G-0.100B;
NTSC制的YIQ ,它与YUV的区别与关系:[52RD.com]
I = V Cos33 - U Sin33[52RD.com]
Q = V Sin33 + U Cos33
[52RD.com]
    用YUV或YIQ模型来表示彩色图像的优点是亮度信号Y和色差信号UV(或IQ)是相互独立的,可对Y,U和V三种图像进行单独编辑和编码。同时,由于亮度(灰度)信号是独立传输的,我们使用的黑白电视机也能够接受彩色电视信号。
    在电视和计算机工业中,由于彩色显像管使用红、绿、蓝这三种磷光材料发光合成彩色,这就需要把用YUV或YIQ表示的图像信号转换成用RGB表示的图像信号才能显示。现在人们已经开发了一套标准转换表,用来表示在这几种彩色空间中颜色值的对应关系。
    2、图像分辨率和显示分辨率
    既然图像可以看成由许多像素组成,一幅图像包含的像素越多,图像的清晰度也就越高。图像像素的多少也称为分辨率。分辨率有两种:图像分辨率和显示分辨率。
    (1)图像分辨率
    图像分辨率是指组成一幅图像的像素密度的度量方法。对同样大小的一幅图,如果组成该图的图像像素数目越多,则说明图像的分辨率越高,看起来就越逼真。相反,图像显得越粗糙。
    在用扫描仪扫描彩色图像时,通常要指定图像的分辨率,用每英寸多少点(DIP)表示,如果用300DIP来扫描一幅8"×10"的彩色图像,就职得到一幅2400×3000个像素的图像。
    像素深度是存储每个像素所用的位数,像素深度决定彩色图像的每个像素可能有的颜色数,或者是灰度图像的每个像素可能有的灰度级数。如果像素深度太浅,也影响图像的质量,图像看起来让人觉得很粗糙和很不自然。
    (2)显示分辨率
    显示分辨率是指显示屏上能够显示出的像素数目。例如,显示分辨率为640×480表示显示屏分成480行,每行显示640个像素,整个显示屏就含有307200个显像点。屏幕能够显示的像素越多,说明显示设备的分辨率越高,显示的图像质量也就越高。在计算机上,显示分辨率可人为设定。
    显示屏上的每个彩色像点由代表R、G、B三种模拟信号的相对强度决定,这些彩色像点就构成一幅彩色图像。计算机用的CRT和家用电视机用的CRT之间的主要差别是显像管玻璃面上的孔眼掩膜和所涂的荧光物不同。孔眼之间的距离称为点距。因此常用点距来衡量一个显示屏的分辨率。普通电视机用的CRT的分辨率为0.76mm,而标准SVGA显示器的分辨为为0.28mm。孔眼越小,分辨率就越高。目前已有点距为0.19mm。
    图像分辨率与显示分辨率是两个不同的概念。图像分辨率是确定组成一幅图像的像素数目,而在某一显示分辨率下,可确定显示图像的区域大小。例如显示屏的分辨率为640×480,那么一幅320×240的图像只占显示屏的1/4;相反,2400×3000的图像在这个显示屏上就不能显示一幅完整的画面。
    3、电视制式及清晰度
    目前世界上流行的彩色电视制式有三种:NTSC制、PAL制和SECAM制。
    NTSC彩色电视制式是1952年美国国家电视标准委员会定义的彩色电视广播标准,称为正交平衡调幅制。PAL称为逐行倒相正交平衡调幅制,是1962年德国制定的彩色电视广播标准,中国使用这种制式。SECAM为法国制定的彩色电视广播标准,称为顺序传送彩色与存储制。这三种电视制式都是兼容制制式。
    我国使用PAL彩色电视制式规定,一帧图像的总行数为625,隔行扫描。行扫描频率是15625Hz,周期为64μs;场扫描频率是50Hz,帧帧是25Hz。在发送电视信号时,每一行中传送图像的时间是52.2μs,其余的11.8μs是行扫描的逆程时间,不传送图像,每一场的扫描行数为625/2=312.5行,其中25行作场回归,不传送图像,因此每帧只有575行有图像。颜色模型采用YUV。
    决定电视的清晰度的重要参数是场频率和视频系统的频带宽度。最大垂直清晰度由垂直扫描总行数所决定。由于隔行扫描会造成局部的并行,所以实际的垂直清晰度还要把有效扫描行数乘以一个Kell系数。在2:1隔行扫描方式中,Kell系数为0.7,即垂直清晰度为电视有效行数的0.7倍。
    水平清晰度定义为图像上可以分清的垂直线条数。水平清晰度与图像传感器的像素数和视频系统的频带宽度有直接关系。理论上,水平清晰度和垂直清晰度应采用统一的度量标准,所以当屏幕上的水平线条间隔和垂直线条间隔相同时,图像的垂直清晰度和水平清晰度应该是一样的。图像的宽高比系数大于1,所以,图像的水平清晰度线数应该是图像上实际能分清的黑白垂直条数除以宽高比系数。电视的水平清晰度的计算公式为:
    水平清晰度TVL/PH=有效行时间(μs)×2×频带宽度(MHz)÷宽高比系数
    按我国GB3174-82彩色电视标准,一帧电视画面由625行扫描线组成,也就是共有625条像素行,电视画面的宽高之比是4:3,由此可计算出每行应有833个像素。实际上,每帧图像的有效行数为575行,因此我国现行电视标准的垂直清晰度为575×0.7=403TVL/PH。应该指出的是,电视的垂直清晰度是由电视制式决定的,与电视信号的传输和视频带宽无关。
    我国电视标准规定行周期为64μs,有效行时间为52.2μs,标称视频带宽为6MHz,所以我国现行电视标准的水平清晰度为:
    水平清晰度(SDTV)=52(μs)×2×6(MHz)÷(4/3)=468TVL/PH。
    应该指出的是,电视图像的清晰度指的是黑白亮度(灰度)的分辨率,因为图像彩色分量的分辨率与图像扫描的格式有关,往往低于亮度的分辨率。
    4、彩色电视图像数字化标准
    由于技术上的原因,早期电视技术一直沿着模拟信号处理技术的方向发展,直到世纪70年代才开始开发数字电视。数字电视系统都用彩色分量来表示图像数据。如:RGB、YIQ和YCrCb。故又称为“分量数字化电视”。
    早在上世纪80年代,国际无线电咨询委员会(CCIR)就制定了彩色电视图像数字化标准,称为CCIR 601标准,现改为ITU-RBT.601标准。该标准规定了彩色电视图像转换成数字图像时使用的采样频率,RGB和YCbCr两个彩色空间之间的转换关系等。
    1)CCIR为NTSC制、PAL制和SECAM制规定了共同的电视图像采样频率。
    PAL制、SECAM制:
    采样频率为:fs=625×25×N=15625×N=13.5MHz,N=864
    NTSC制:
    采样频率为:fs=525×29.97×N=15734×N=13.5MHz,N=858
    其中,N为每一扫描行上的采样数目。
    2)对彩色空间之间的转换,在数字域中,RGB和YCbCr两个彩色空间之间的转换关系用下式表示:
    Y=0.299R+0.587G+0.114B
    Cr=(0.500R-0.4187G-0.0813B)+128
    Cb=(-0.1687R-0.3313G+0.500B)+128
    3)有效显示分辨率:对PAL制和SECAM制的亮度信号,每一条扫描行采样864个样本;对NTSC制的亮度信号,每一条扫描行采样858个样本。对所有的制式,每一扫描行的有效样本数均为720个。
    4)数字电视的数据库
    模拟电视信号经过采样和量化之后,数字电视信号的数据量大得惊人,因此要对数字电视信号进行压缩。CCIR在PAL、NTSC和SECAM彩色电视制之间确定一个共同的数字化参数,推荐使用4:2:2的采样格式(图2),亮度信号Y的采样频率选择为13.5MHz,而色差信号Cr和Cb的采样频率选择6.75MHz/s,在传输数字电视信号通道上的数据传输率为270Mb/s(兆比特/秒),即
    亮度(Y):
    858样本/行×525行/帧×30帧/秒×10比特/样本=135兆比特/秒(NTSC)
    864样本/行×625行/帧×25帧/秒×10比特/样本=135兆比特/秒(PAL)
    Cr和Cb:
    429样本/行×525行/帧×30帧/秒×10比特/样本=68兆比特/秒(NTSC)
    429样本/行×625行/帧×25帧/秒×10比特/样本=68兆比特/秒(PAL)
    总计:
    (13.5+6.8+6.8)兆样本/秒×10比特/样本=271兆比特/秒(见图2)
    有关彩色电视图像数字化处理的另一个标准是MPEG标准:
    MPEG(运动图像专家组)成立于1988年,是ISO/IEC(国际标准化组织/国际电工技术委员会)的工作组,负责开发影视图像、声音的处理、压缩、解压缩、编码和它们的组合标准。到目前为止,已经开发的标准有:
    MPEG-1:低档数字电视压缩标准,1992发布。MPEG-1处理的是标准图像交换格式,压缩的输出速率定义在1.5Mb/s。
    MPEG-2:数字电视压缩标准,已于1994年发布,它是一个直接与数字电视广播有关的高质量图像和声音编码标准。例如,增加了隔行扫描电视的编码并提供缩放性功能。目标位速率是4-9M/s,最高达15Mb/s。
    MPEG-3:已于1992年7月合并到HTDV工作组
    MPEG-1和MPEG-2标准已经得到广泛应用。例如应用于CD-交互系统、在网络上的数字声音广播、数字电视广播和影视点播、VCD和DVD的压缩存储及数字电视标准上。
1.        很多时候其实是鬼影,画面颜色乱得鬼画图书一样(但颜色显示不正常、并带有较大的色块光斑等等现象),不专业的同志往往把这也叫花屏。这个原因主要是数据线上的信号不对,比如D[5]跟GND短路,或者断开。越是高位的信号线出问题,鬼影现象将越严重,低位信号(如D[1]、D[0])则对画面影响不大,所以,在十位输出格式中,往往为了兼容8位的IO口,把低两位去掉,只要高8位。如何理解高位信号线的重要性?大家知道8位信号可以表示256个不同的级别,比如亮度值Y的高低级别、或者色度值U/V的强度级别。假如D[7:0]=10000000代表的是128亮度值,那么显示出来就是灰色,但是如果D[7]断开、或者短路,那么CPU得到的值将是00000000,显示出黑色,差别就大咯。同样对于色度信号,也将出现颜色错误。所以出现这种情况,先查查信号通路(一般是Connector连接不良居多、然后是Sensor焊接绑定不良次之),然后再看驱动程序是否有弄错
2.        图像反色,在RGB颜色系统中就是红绿蓝三个颜色的错乱,在YUV系统中就是亮度信号跟色度信号的错乱,当然也有两个色度信号之间错乱的。举例说明,一个YUV422格式的Camera,其输出的有效Pixel一般是:(Y0+U0)、(Y1+V0)、(Y2+u1)、(Y3+V1)....,如果因为Camera的输出时序错位(比如Camera输出的是(U0+Y0)、(V0+Y1)....),而CPU还傻不拉几地认为是前面一种标准时序,那么就出现每个象素点的亮度信号跟色度信号反了,对于构建画面清晰最为重要的亮度信号Y被拉去作为U(或叫蓝色偏量Cb),那么就会出现高亮度的地方呈现绿色,低亮度的区域呈现红色,而且画面整体亮度也大大偏低。其他情况大体相似,可以类推之。不过出现画面反色一般都表现为画面大红大绿的情况。对这种情况,一般先看看送给Sensor的参数中有没有设错相关寄存器的值,或者检查CPU这边驱动程序的设置是否跟送出来的数据格式一致。
3.        画面条纹,而且一般都是彩色的横条纹。这种彩色的条纹是固定在某些行,或者不断闪现在不同的行。从单个行数据来看,出错的原因跟上面第2条一样,都是由数据错位引起。这次拿RGB Raw数据格式来说,RGB Raw输出一般是第一行/第二行:RGRG.../GBGB...,如果第一行的数据R没有被采样到,那么CPU采集到的数据实际上就是GRGR....0/GBGB....(假设此CPU对一行数据中不足的位用0补齐),但是它又按照前面那个标准的数据排列来进行颜色插补的工作(对颜色插补不明白的等以后有时间再讨论),如果照偏绿色的背景(R的分量很小,G的分量很大),但是由于采样错位,CPU把较大分量G的值当成是第一个象素R的值,本来弱小的R分量就这样莫名其妙的被大大地提升了,所以显示保存图片的时候这一行将整体的偏红色,了解颜色插补的同志应该还会想到,即使第二行没有错位,也会受到一定的影响,呈现出偏红的迹象。对于这样的问题,不像第2那样是整个画面出现错位,而只是某些行数据出现,这一般是由元器件制造时的差别引起的,Sensor生产商不能保证每个Sensor的性能都一样,也不能保证每行的数据时序都分毫不差。当然也跟信号受到外部的影响有关,比如行同步信号HREF受到外部影响,上升沿长,将可能引起第一个PCLK丢失。再假如PCLK信号如果受到干扰、或者驱动能力不够,也有可能导致某些象素的丢失,从而一行数据的排列都会错位,出现画面的条纹现象。所以在设计硬件或者调试驱动程序的时候,良好的信号同步策略,以及设置更好的信号容差范围将是系统长期稳定性的基础
4.        画面噪点,画面过多的噪点也往往会被说成是画面花屏,可能从直观理解,噪点这种“花屏”才真叫花,照出来满脸的麻子,而且是花花绿绿,姹紫嫣红啊。噪点我放到最后才讲是因为这个问题嘛,现在已经越来越不是问题了。随着CMOS技术的进步,已经ISP的集成,Sensor中降噪的能力越来越强,除了低照度(几个LUX)下的噪点还很难消除外,其它时候已经可以通过颜色矫正、自动增益调节、自动Gmma、黑白点矫正等ISP功能基本消除掉。如果是用RGB Raw数据格式的兄弟可是要费一番功夫了,调试驱动的时候要充分利用CPU集成的一些ISP功能,消除掉那些红鬼蓝鬼。画面噪点主要跟Sensor的设计制造技术有关,我们往往也只能望而兴叹,但是如果Boss比较大方、应用于高端机型的,还是得买贵的Sensor啊,现在这个市场啊,已经挤得水泄不通了,价格也不会不靠谱,基本上是一分钱一分货了。
  
你那种接法建议你把625的LCM_RST和CPU控制LCM的BYPASS RST接入一个与门,输出作为LCM复位
这样,当没有BYPASS的时候,可以由625GPIO控制LCM复位。当BYPASS LCM的时候,CPU GPIO直接控制LCM RESET  
首先这个问题不一定是LCD的数据线有问题,如果是其中一根数据线有问题的话就不是显示变色了很可能图象显示不正常了.我们遇到过相似的问题:就是在preview时拍照,图象要在LCD停住这时显示的是用户已经拍下的照片,有时候会出现两种现象:一是像楼上那样颜色不对,另一种就是图象出现断层的现象.后来分析是软件的原因,在软件上做了修改就解决了.我们那个项目的camera是130万象素的,LCD是26万色的TFT屏,所以使用了中芯微的一个视频处理芯片来管理他们俩,在preview时camera来的数据直接通过视频芯片送给LCD显示(这时显示都是正常的),但用户要拍照时camera的数据就会由视频芯片压缩然后送给基带去存储(步骤1)同时再由基带将图象解压缩送到LCD显示(步骤2).在基带储存的图象是正确的(我们将图象调出来看),这说明步骤1是完全正确的,问题出在步骤2上.由于camera的是130万象素容量大所以软件中在步骤2中不是一次将它送完,是分两次来送的,分析有可能是第二次的数据和第一次没有衔接好导致的,我们在软件中修改成一次传送完成就再没有出现这个问题了.
假使我的理解是对的,那么我将做如下分析:
lz强调是在preview过程中偏色;那么在偏色的时候capture一张照片,放到pc机上看是否偏色,
  如果偏色,那么说明不是lcd的问题,可能是sensor的数据或者是在处理senosr后的数据出问题了;
  如果不偏色,那么比对在你在preview过程中和capture中取sensor数据是否相同,如果相同
      那么可能是awb等相关问题引起的;如果不同,那么就出在preview对图像数据的处理出问题了。
5.        个人觉得是对sensor出来后的数据处理出了问题。主要是AWB等相关工作引起的。
  
LZ,这个问题要分三个方面看的:
  1,low light下会比较明显,normal下还好的话,请check module的 HW signal,通常是power和clock被干扰居多。
  2,一直都会有,preview有capture无:请在driver下调整preview的时序,应该是抓数据不适当; preview和capture都有的话,两处都要check。
  3。时有时无,可以check drive current是否够,量量signal就知道了
水波纹 有可能是由于sensor 的50hz 和60 hz 调节问题导致 ,如果室内紧紧是对着灯光的才有水波纹,可能不是这个问题了。
你可以做测试,对着灯光拍摄一张,downlaod 到pc上看这个图有没有水波纹,如果没有 那么在手机上直接decode到屏幕上看看 有没有(如果有,就要查查 对屏幕控置的操作),如果还是没有,可能你需要对sensor 调节 ,看看你的preview fps 和你lcd的刷新率,已经你的背光频率。
  
对于手机back-end IC 的30 FPS抓拍频率是适合美/日电网制式的
而中国用的50HZ就不是30FPS的整数倍,就有交调干扰的现象,普遍存在的。除非改变电网频率或者修改底层代码使之变成25FPS的抓拍频率
这个是没办法改变的,不是BUG,而是不同的标准产生的所谓适当“不兼容”的小插曲~哈哈
日光灯是有频闪的,最好不要作为拍摄的对象,还是拍静态物体吧



一般先给电源 ,然后给 MCLK SENSOR的 时钟  然后复位 PWDN改变极性使SENSOR 进入工作状态,让后再过几百ms 进行 IIC 操作, 然后就进入 PREVIEW 模式了,拍照的话 是 截取完整的一帧信号而已,有时会关闭SENSOR 的AWB AE功能。

YUV(亦称YCrCb)是被欧洲电视系统所采用的一种颜色编码方法(属于PAL)。YUV主要用于优化彩色视频信号的传输,使其向后兼容老式黑白电视。与R GB视频信号传输相比,它最大的优点在于只需占用极少的带宽(RGB要求三个独立的视频信号同时传输)。其中“Y”表示明亮度(Lumina nce或Luma),也就是灰阶值;而“U”和“V”表示的则是色度(Chrominance或Chroma),作用是描述影像色彩及饱和度,用于指定像素的颜色。“亮度”是通过R GB输入信号来创建的,方法是将RGB信号的特定部分叠加到一起。“色度”则定义了颜色的两个方面—色调与饱和度,分别用Cr和CB来表示。其中,C r反映了GB输入信号红色部分与RGB信号亮度值之间的差异。而CB反映的是RGB输入信号蓝色部分与RGB信号亮度值之同的差异
点评回复

使用道具 举报

发表于 2007-4-5 15:50:00 | 显示全部楼层
<DIV class=quote><B>以下是引用<I>sheree</I>在2006-11-23 16:55:00的发言:</B>



对于这个摩尔纹问题,经常碰到
我想知道应该怎么解决呢
[em13]</DIV>


用Foveon的sensor做出来的CCM就不会有这种摩尔纹问题了
因为有FOVEON &reg; X3TM技术做保障!
Foveon之前是和Sigma合作做数码单反相机的,eg.SD14,现在进军手机应用这一块
我们公司现在就在代理FOVEON 的3M,4M,5M, CMOS Sensor or Module http://www.spacltd.com.cn/sc/Ps.asp?id=312


有兴趣的可以上FOVEON 官网先了解一下这个全球唯一一个可以实现真彩的X3技术[/COLOR]:
http://www.foveon.com/
[em14]
点评回复

使用道具 举报

高级模式
B Color Image Link Quote Code Smilies

本版积分规则

Archiver|手机版|小黑屋|52RD我爱研发网 ( 沪ICP备2022007804号-2 )

GMT+8, 2024-7-8 10:19 , Processed in 0.079861 second(s), 15 queries , Gzip On.

Powered by Discuz! X3.5

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表