|
发表于 2007-4-1 13:03:00
|
显示全部楼层
OV SENSOR CAMERA MOUDLE 诊断方法!
•检查硬件设计
–检查照相模组
•在测试版上能够正确显示图像
•数字和模拟地分开
–检查手机端照相模组接口设计
•接口定义正确
•单独LDO为模组供电
–AVDD:不能与其他元件共用LDO
–DVDD:可以与其他元件共用LDO
–DOVDD:可以与其他元件共用LDO
•模组地与其他电路分开
–模组尤其不能和LCD电源共地
•照相模组开始工作
–模组工作特征
•有像素时钟输出:PCLK
•有同步信号输出:HREF,VSYNC
•有数据输出:D[9:0]
–检查项目
•电源供电正确
–AVDD电压正确
–DVDD电压正确
–DOVDD电压正确
•有时钟信号输入
–PCLK
•输入信号状态正确
–PWDN=0
–Reset=0
–SIOC=1
–SIOD=1
–上述条件都满足,仍然不工作
•照相模组可能损坏
----------------------------------------------
办法总比困难多!
电视信号原理基础 [52RD.com]
[52RD.com]
电视信号原理基础
1、人的视觉特性和彩色电视图像的空间变换
要谈彩色电视的标准和清晰度,首先得从人的视觉特性谈起。人们获取信息的70%来自视觉系统,颜色是视觉系统对可见光的感知结果。人眼对不同频率的红(R)绿(G)蓝(B)光的感知度不同,例如对蓝光的感知度最弱,只有0.1左右,对绿光的感知度最强,约为0.6。人眼对亮度的感知度较大,为0.8左右。
通常,我们看到的光不是一种波长的光,而是许多不同波长的光的组合。自然界中的任何一种颜色都可用这三种基本颜色按不同的比例混合得到,它们构成一个三维的RGB矢量空间。某一种颜色和这三种颜色之间的关系可用下面的式子来描述:
颜色=R(红色的百分比)+G(绿色的百分比)+B(蓝色的百分比)
例如,电视机和计算机的显示器的阴极射线管(CRT),就是使用3个电子枪分别产生红、绿和蓝三种波长的光,并以各种不同的相对强度综合起来产生颜色的。
一幅彩色图像可以看成由许多点组合,这些点称为像素。电视画面也是分解成许许多多细小单元(像素)加以传输。在接收端,像素按行和列排列构成电视画面。由于每个像素反映的阴暗和色彩不一,人眼分辨细节的能力又有限,因此在人们面前就呈现出一幅幅明暗有别、色彩分明的完整图像。
如前所述,由于人眼对红绿蓝光和亮度的感知度不同,利用人眼的这一特性,可降低电视图像传输所需要的容量。人眼对彩色细节的分辨能力远比对亮度细节的分辨能力低。若把人眼刚能分辨出的黑白相间的条纹换成不同颜色的彩色条纹,那么眼睛就不再能分辨出这些条纹来。由于这个原因,就可以把彩色分量的分辨率降低而不明显影响图像的质量,也就是可以把几个相邻像素不同的彩色值当作一个相同的彩色值来处理。
为了将彩色图像按亮度和颜色分别处理,就要把RGB空间表示的彩色图像变换到其他彩色空间。目前采用的彩色空间变换有三种:YIQ、YUV和YCrCb。每种变换使用的参数是为了适应某种类型的显示设备。例如,YIQ用于NTSC彩色电视制式,YUV用于PAL制和SECAM彩色电视制式,而YCrCb用于计算机用的显示器。
在YUV模型中,Y表示亮度,U、V是构成彩色的两个分量。考虑人的视觉系统和阴极射线管的非线性特性,YUV和RGB的对应关系可以近似地用下面的式子来表示:
Y=0.299R+0.587G+0.114B
U=-0.147R-0.289G+0.436B
V=0.615R-0.515G-0.100B;
NTSC制的YIQ ,它与YUV的区别与关系:[52RD.com]
I = V Cos33 - U Sin33[52RD.com]
Q = V Sin33 + U Cos33
[52RD.com]
用YUV或YIQ模型来表示彩色图像的优点是亮度信号Y和色差信号UV(或IQ)是相互独立的,可对Y,U和V三种图像进行单独编辑和编码。同时,由于亮度(灰度)信号是独立传输的,我们使用的黑白电视机也能够接受彩色电视信号。
在电视和计算机工业中,由于彩色显像管使用红、绿、蓝这三种磷光材料发光合成彩色,这就需要把用YUV或YIQ表示的图像信号转换成用RGB表示的图像信号才能显示。现在人们已经开发了一套标准转换表,用来表示在这几种彩色空间中颜色值的对应关系。
2、图像分辨率和显示分辨率
既然图像可以看成由许多像素组成,一幅图像包含的像素越多,图像的清晰度也就越高。图像像素的多少也称为分辨率。分辨率有两种:图像分辨率和显示分辨率。
(1)图像分辨率
图像分辨率是指组成一幅图像的像素密度的度量方法。对同样大小的一幅图,如果组成该图的图像像素数目越多,则说明图像的分辨率越高,看起来就越逼真。相反,图像显得越粗糙。
在用扫描仪扫描彩色图像时,通常要指定图像的分辨率,用每英寸多少点(DIP)表示,如果用300DIP来扫描一幅8"×10"的彩色图像,就职得到一幅2400×3000个像素的图像。
像素深度是存储每个像素所用的位数,像素深度决定彩色图像的每个像素可能有的颜色数,或者是灰度图像的每个像素可能有的灰度级数。如果像素深度太浅,也影响图像的质量,图像看起来让人觉得很粗糙和很不自然。
(2)显示分辨率
显示分辨率是指显示屏上能够显示出的像素数目。例如,显示分辨率为640×480表示显示屏分成480行,每行显示640个像素,整个显示屏就含有307200个显像点。屏幕能够显示的像素越多,说明显示设备的分辨率越高,显示的图像质量也就越高。在计算机上,显示分辨率可人为设定。
显示屏上的每个彩色像点由代表R、G、B三种模拟信号的相对强度决定,这些彩色像点就构成一幅彩色图像。计算机用的CRT和家用电视机用的CRT之间的主要差别是显像管玻璃面上的孔眼掩膜和所涂的荧光物不同。孔眼之间的距离称为点距。因此常用点距来衡量一个显示屏的分辨率。普通电视机用的CRT的分辨率为0.76mm,而标准SVGA显示器的分辨为为0.28mm。孔眼越小,分辨率就越高。目前已有点距为0.19mm。
图像分辨率与显示分辨率是两个不同的概念。图像分辨率是确定组成一幅图像的像素数目,而在某一显示分辨率下,可确定显示图像的区域大小。例如显示屏的分辨率为640×480,那么一幅320×240的图像只占显示屏的1/4;相反,2400×3000的图像在这个显示屏上就不能显示一幅完整的画面。
3、电视制式及清晰度
目前世界上流行的彩色电视制式有三种:NTSC制、PAL制和SECAM制。
NTSC彩色电视制式是1952年美国国家电视标准委员会定义的彩色电视广播标准,称为正交平衡调幅制。PAL称为逐行倒相正交平衡调幅制,是1962年德国制定的彩色电视广播标准,中国使用这种制式。SECAM为法国制定的彩色电视广播标准,称为顺序传送彩色与存储制。这三种电视制式都是兼容制制式。
我国使用PAL彩色电视制式规定,一帧图像的总行数为625,隔行扫描。行扫描频率是15625Hz,周期为64μs;场扫描频率是50Hz,帧帧是25Hz。在发送电视信号时,每一行中传送图像的时间是52.2μs,其余的11.8μs是行扫描的逆程时间,不传送图像,每一场的扫描行数为625/2=312.5行,其中25行作场回归,不传送图像,因此每帧只有575行有图像。颜色模型采用YUV。
决定电视的清晰度的重要参数是场频率和视频系统的频带宽度。最大垂直清晰度由垂直扫描总行数所决定。由于隔行扫描会造成局部的并行,所以实际的垂直清晰度还要把有效扫描行数乘以一个Kell系数。在2:1隔行扫描方式中,Kell系数为0.7,即垂直清晰度为电视有效行数的0.7倍。
水平清晰度定义为图像上可以分清的垂直线条数。水平清晰度与图像传感器的像素数和视频系统的频带宽度有直接关系。理论上,水平清晰度和垂直清晰度应采用统一的度量标准,所以当屏幕上的水平线条间隔和垂直线条间隔相同时,图像的垂直清晰度和水平清晰度应该是一样的。图像的宽高比系数大于1,所以,图像的水平清晰度线数应该是图像上实际能分清的黑白垂直条数除以宽高比系数。电视的水平清晰度的计算公式为:
水平清晰度TVL/PH=有效行时间(μs)×2×频带宽度(MHz)÷宽高比系数
按我国GB3174-82彩色电视标准,一帧电视画面由625行扫描线组成,也就是共有625条像素行,电视画面的宽高之比是4:3,由此可计算出每行应有833个像素。实际上,每帧图像的有效行数为575行,因此我国现行电视标准的垂直清晰度为575×0.7=403TVL/PH。应该指出的是,电视的垂直清晰度是由电视制式决定的,与电视信号的传输和视频带宽无关。
我国电视标准规定行周期为64μs,有效行时间为52.2μs,标称视频带宽为6MHz,所以我国现行电视标准的水平清晰度为:
水平清晰度(SDTV)=52(μs)×2×6(MHz)÷(4/3)=468TVL/PH。
应该指出的是,电视图像的清晰度指的是黑白亮度(灰度)的分辨率,因为图像彩色分量的分辨率与图像扫描的格式有关,往往低于亮度的分辨率。
4、彩色电视图像数字化标准
由于技术上的原因,早期电视技术一直沿着模拟信号处理技术的方向发展,直到世纪70年代才开始开发数字电视。数字电视系统都用彩色分量来表示图像数据。如:RGB、YIQ和YCrCb。故又称为“分量数字化电视”。
早在上世纪80年代,国际无线电咨询委员会(CCIR)就制定了彩色电视图像数字化标准,称为CCIR 601标准,现改为ITU-RBT.601标准。该标准规定了彩色电视图像转换成数字图像时使用的采样频率,RGB和YCbCr两个彩色空间之间的转换关系等。
1)CCIR为NTSC制、PAL制和SECAM制规定了共同的电视图像采样频率。
PAL制、SECAM制:
采样频率为:fs=625×25×N=15625×N=13.5MHz,N=864
NTSC制:
采样频率为:fs=525×29.97×N=15734×N=13.5MHz,N=858
其中,N为每一扫描行上的采样数目。
2)对彩色空间之间的转换,在数字域中,RGB和YCbCr两个彩色空间之间的转换关系用下式表示:
Y=0.299R+0.587G+0.114B
Cr=(0.500R-0.4187G-0.0813B)+128
Cb=(-0.1687R-0.3313G+0.500B)+128
3)有效显示分辨率:对PAL制和SECAM制的亮度信号,每一条扫描行采样864个样本;对NTSC制的亮度信号,每一条扫描行采样858个样本。对所有的制式,每一扫描行的有效样本数均为720个。
4)数字电视的数据库
模拟电视信号经过采样和量化之后,数字电视信号的数据量大得惊人,因此要对数字电视信号进行压缩。CCIR在PAL、NTSC和SECAM彩色电视制之间确定一个共同的数字化参数,推荐使用4:2:2的采样格式(图2),亮度信号Y的采样频率选择为13.5MHz,而色差信号Cr和Cb的采样频率选择6.75MHz/s,在传输数字电视信号通道上的数据传输率为270Mb/s(兆比特/秒),即
亮度(Y):
858样本/行×525行/帧×30帧/秒×10比特/样本=135兆比特/秒(NTSC)
864样本/行×625行/帧×25帧/秒×10比特/样本=135兆比特/秒(PAL)
Cr和Cb:
429样本/行×525行/帧×30帧/秒×10比特/样本=68兆比特/秒(NTSC)
429样本/行×625行/帧×25帧/秒×10比特/样本=68兆比特/秒(PAL)
总计:
(13.5+6.8+6.8)兆样本/秒×10比特/样本=271兆比特/秒(见图2)
有关彩色电视图像数字化处理的另一个标准是MPEG标准:
MPEG(运动图像专家组)成立于1988年,是ISO/IEC(国际标准化组织/国际电工技术委员会)的工作组,负责开发影视图像、声音的处理、压缩、解压缩、编码和它们的组合标准。到目前为止,已经开发的标准有:
MPEG-1:低档数字电视压缩标准,1992发布。MPEG-1处理的是标准图像交换格式,压缩的输出速率定义在1.5Mb/s。
MPEG-2:数字电视压缩标准,已于1994年发布,它是一个直接与数字电视广播有关的高质量图像和声音编码标准。例如,增加了隔行扫描电视的编码并提供缩放性功能。目标位速率是4-9M/s,最高达15Mb/s。
MPEG-3:已于1992年7月合并到HTDV工作组
MPEG-1和MPEG-2标准已经得到广泛应用。例如应用于CD-交互系统、在网络上的数字声音广播、数字电视广播和影视点播、VCD和DVD的压缩存储及数字电视标准上。
1. 很多时候其实是鬼影,画面颜色乱得鬼画图书一样(但颜色显示不正常、并带有较大的色块光斑等等现象),不专业的同志往往把这也叫花屏。这个原因主要是数据线上的信号不对,比如D[5]跟GND短路,或者断开。越是高位的信号线出问题,鬼影现象将越严重,低位信号(如D[1]、D[0])则对画面影响不大,所以,在十位输出格式中,往往为了兼容8位的IO口,把低两位去掉,只要高8位。如何理解高位信号线的重要性?大家知道8位信号可以表示256个不同的级别,比如亮度值Y的高低级别、或者色度值U/V的强度级别。假如D[7:0]=10000000代表的是128亮度值,那么显示出来就是灰色,但是如果D[7]断开、或者短路,那么CPU得到的值将是00000000,显示出黑色,差别就大咯。同样对于色度信号,也将出现颜色错误。所以出现这种情况,先查查信号通路(一般是Connector连接不良居多、然后是Sensor焊接绑定不良次之),然后再看驱动程序是否有弄错
2. 图像反色,在RGB颜色系统中就是红绿蓝三个颜色的错乱,在YUV系统中就是亮度信号跟色度信号的错乱,当然也有两个色度信号之间错乱的。举例说明,一个YUV422格式的Camera,其输出的有效Pixel一般是:(Y0+U0)、(Y1+V0)、(Y2+u1)、(Y3+V1)....,如果因为Camera的输出时序错位(比如Camera输出的是(U0+Y0)、(V0+Y1)....),而CPU还傻不拉几地认为是前面一种标准时序,那么就出现每个象素点的亮度信号跟色度信号反了,对于构建画面清晰最为重要的亮度信号Y被拉去作为U(或叫蓝色偏量Cb),那么就会出现高亮度的地方呈现绿色,低亮度的区域呈现红色,而且画面整体亮度也大大偏低。其他情况大体相似,可以类推之。不过出现画面反色一般都表现为画面大红大绿的情况。对这种情况,一般先看看送给Sensor的参数中有没有设错相关寄存器的值,或者检查CPU这边驱动程序的设置是否跟送出来的数据格式一致。
3. 画面条纹,而且一般都是彩色的横条纹。这种彩色的条纹是固定在某些行,或者不断闪现在不同的行。从单个行数据来看,出错的原因跟上面第2条一样,都是由数据错位引起。这次拿RGB Raw数据格式来说,RGB Raw输出一般是第一行/第二行:RGRG.../GBGB...,如果第一行的数据R没有被采样到,那么CPU采集到的数据实际上就是GRGR....0/GBGB....(假设此CPU对一行数据中不足的位用0补齐),但是它又按照前面那个标准的数据排列来进行颜色插补的工作(对颜色插补不明白的等以后有时间再讨论),如果照偏绿色的背景(R的分量很小,G的分量很大),但是由于采样错位,CPU把较大分量G的值当成是第一个象素R的值,本来弱小的R分量就这样莫名其妙的被大大地提升了,所以显示保存图片的时候这一行将整体的偏红色,了解颜色插补的同志应该还会想到,即使第二行没有错位,也会受到一定的影响,呈现出偏红的迹象。对于这样的问题,不像第2那样是整个画面出现错位,而只是某些行数据出现,这一般是由元器件制造时的差别引起的,Sensor生产商不能保证每个Sensor的性能都一样,也不能保证每行的数据时序都分毫不差。当然也跟信号受到外部的影响有关,比如行同步信号HREF受到外部影响,上升沿长,将可能引起第一个PCLK丢失。再假如PCLK信号如果受到干扰、或者驱动能力不够,也有可能导致某些象素的丢失,从而一行数据的排列都会错位,出现画面的条纹现象。所以在设计硬件或者调试驱动程序的时候,良好的信号同步策略,以及设置更好的信号容差范围将是系统长期稳定性的基础
4. 画面噪点,画面过多的噪点也往往会被说成是画面花屏,可能从直观理解,噪点这种“花屏”才真叫花,照出来满脸的麻子,而且是花花绿绿,姹紫嫣红啊。噪点我放到最后才讲是因为这个问题嘛,现在已经越来越不是问题了。随着CMOS技术的进步,已经ISP的集成,Sensor中降噪的能力越来越强,除了低照度(几个LUX)下的噪点还很难消除外,其它时候已经可以通过颜色矫正、自动增益调节、自动Gmma、黑白点矫正等ISP功能基本消除掉。如果是用RGB Raw数据格式的兄弟可是要费一番功夫了,调试驱动的时候要充分利用CPU集成的一些ISP功能,消除掉那些红鬼蓝鬼。画面噪点主要跟Sensor的设计制造技术有关,我们往往也只能望而兴叹,但是如果Boss比较大方、应用于高端机型的,还是得买贵的Sensor啊,现在这个市场啊,已经挤得水泄不通了,价格也不会不靠谱,基本上是一分钱一分货了。
你那种接法建议你把625的LCM_RST和CPU控制LCM的BYPASS RST接入一个与门,输出作为LCM复位
这样,当没有BYPASS的时候,可以由625GPIO控制LCM复位。当BYPASS LCM的时候,CPU GPIO直接控制LCM RESET
首先这个问题不一定是LCD的数据线有问题,如果是其中一根数据线有问题的话就不是显示变色了很可能图象显示不正常了.我们遇到过相似的问题:就是在preview时拍照,图象要在LCD停住这时显示的是用户已经拍下的照片,有时候会出现两种现象:一是像楼上那样颜色不对,另一种就是图象出现断层的现象.后来分析是软件的原因,在软件上做了修改就解决了.我们那个项目的camera是130万象素的,LCD是26万色的TFT屏,所以使用了中芯微的一个视频处理芯片来管理他们俩,在preview时camera来的数据直接通过视频芯片送给LCD显示(这时显示都是正常的),但用户要拍照时camera的数据就会由视频芯片压缩然后送给基带去存储(步骤1)同时再由基带将图象解压缩送到LCD显示(步骤2).在基带储存的图象是正确的(我们将图象调出来看),这说明步骤1是完全正确的,问题出在步骤2上.由于camera的是130万象素容量大所以软件中在步骤2中不是一次将它送完,是分两次来送的,分析有可能是第二次的数据和第一次没有衔接好导致的,我们在软件中修改成一次传送完成就再没有出现这个问题了.
假使我的理解是对的,那么我将做如下分析:
lz强调是在preview过程中偏色;那么在偏色的时候capture一张照片,放到pc机上看是否偏色,
如果偏色,那么说明不是lcd的问题,可能是sensor的数据或者是在处理senosr后的数据出问题了;
如果不偏色,那么比对在你在preview过程中和capture中取sensor数据是否相同,如果相同
那么可能是awb等相关问题引起的;如果不同,那么就出在preview对图像数据的处理出问题了。
5. 个人觉得是对sensor出来后的数据处理出了问题。主要是AWB等相关工作引起的。
LZ,这个问题要分三个方面看的:
1,low light下会比较明显,normal下还好的话,请check module的 HW signal,通常是power和clock被干扰居多。
2,一直都会有,preview有capture无:请在driver下调整preview的时序,应该是抓数据不适当; preview和capture都有的话,两处都要check。
3。时有时无,可以check drive current是否够,量量signal就知道了
水波纹 有可能是由于sensor 的50hz 和60 hz 调节问题导致 ,如果室内紧紧是对着灯光的才有水波纹,可能不是这个问题了。
你可以做测试,对着灯光拍摄一张,downlaod 到pc上看这个图有没有水波纹,如果没有 那么在手机上直接decode到屏幕上看看 有没有(如果有,就要查查 对屏幕控置的操作),如果还是没有,可能你需要对sensor 调节 ,看看你的preview fps 和你lcd的刷新率,已经你的背光频率。
对于手机back-end IC 的30 FPS抓拍频率是适合美/日电网制式的
而中国用的50HZ就不是30FPS的整数倍,就有交调干扰的现象,普遍存在的。除非改变电网频率或者修改底层代码使之变成25FPS的抓拍频率
这个是没办法改变的,不是BUG,而是不同的标准产生的所谓适当“不兼容”的小插曲~哈哈
日光灯是有频闪的,最好不要作为拍摄的对象,还是拍静态物体吧
一般先给电源 ,然后给 MCLK SENSOR的 时钟 然后复位 PWDN改变极性使SENSOR 进入工作状态,让后再过几百ms 进行 IIC 操作, 然后就进入 PREVIEW 模式了,拍照的话 是 截取完整的一帧信号而已,有时会关闭SENSOR 的AWB AE功能。
YUV(亦称YCrCb)是被欧洲电视系统所采用的一种颜色编码方法(属于PAL)。YUV主要用于优化彩色视频信号的传输,使其向后兼容老式黑白电视。与R GB视频信号传输相比,它最大的优点在于只需占用极少的带宽(RGB要求三个独立的视频信号同时传输)。其中“Y”表示明亮度(Lumina nce或Luma),也就是灰阶值;而“U”和“V”表示的则是色度(Chrominance或Chroma),作用是描述影像色彩及饱和度,用于指定像素的颜色。“亮度”是通过R GB输入信号来创建的,方法是将RGB信号的特定部分叠加到一起。“色度”则定义了颜色的两个方面—色调与饱和度,分别用Cr和CB来表示。其中,C r反映了GB输入信号红色部分与RGB信号亮度值之间的差异。而CB反映的是RGB输入信号蓝色部分与RGB信号亮度值之同的差异 |
|