资讯详情

安防资料总结

1、CCD和CMOS的区别CCD CCD和CMOS的区别CCD,英文全称:Charge-coupled Device,中文全称:电荷耦合元件。可以称为CCD图像传感器。CCD它是一种由大量光敏元件组成的特殊半导体器件,通常按矩阵排列。透过镜头照射光线CCD每个元件上的电荷量取决于其光强。按快门,CCD将各元件的信息传输到模/数转换器上,模拟电信号经模/数转换器处理后变成数字信号,数字信号以一定格式压缩后存储在缓存中。然后以数字信号和视频信号的形式输出图像数据。目前市场上大部分数码相机使用的感光元件都是CCD。 我们对CMOS理解是从佳能公司发布的EOSD30准专业级数码机身开始。当时很多业内人士都很惊讶,用这种便宜的材料做感光元件是不可思议的。CMOS成像质量不能满足专业用户的需求。那用CMOS感光元件在成像质量上真的一无是处吗?让我们先来看看什么CMOS吧。CMOS在微处理器、闪存和ASIC半导体在技术上占有绝对重要的地位。CMOS和CCD半导体也可以用来感受光的变化。CMOS主要由硅和锗制成的半导体CMOS带负电和带正电的晶体管实现基本功能。处理芯片记录并解释这两种互补效应产生的电流。 CCD和CMOS的区别 CCD目前的技术比较成熟,在尺寸上也有一定的优势(由于工艺原因CMOS尺寸不能很大),但其工艺复杂,成本高 不可否认的是,耗电量大,像素提升难度大。CMOS由于制造工艺简单,可在普通半导体生产线上生产 成本相对较低。 CCD和CMOS我们可以从技术的角度比较两者的主要区别: (a)不同的信息读取方法 CCD传感器存储的电荷信息需要在同步信号控制下一个接一个地读取,电荷信息转移和读取输出需要时钟控制电路和三组 整个电路由不同的电源配合而复杂。CMOS光电转换后,传感器直接产生电流(或电压)信号,读取信号非常简单。 (b)速度不同 CCD在同步时钟的控制下,传感器应以行为单位逐一输出信息,速度较慢;CMOS当传感器收集光信号时,可以取出电源 信号还可以同时处理各单元的图像信息,速度比CCD快很多。 (c)电源和耗电量 CCD大多数传感器电荷耦合器需要三组电源,耗电量大;CMOS传感器只需要一个电源,耗电量很小,只是CCD电荷 耦合器的1/8到1/10,CMOS光电传感器在节能方面具有很大优势。 (d)成像质量 CCD传感器生产技术起步较早,技术相对成熟PN结合二氧化硅隔离层的隔离噪声,成像质量相对较高CMOS传感器有一定的优点 。由于CMOS传感器集成度高,光电传感元件接近电路,光、电、磁干扰严重,噪声对图像质量影响很大。 CCD与CMOS两种传感器在内部结构和外部结构上是不同的。 CCD的成像点为X-Y纵横矩阵排列,每个成像点由光电二极管及其控制的相邻电荷存储区组成。光电二极管将光(光电二极管) 将量子转换为电荷(电子),聚集的电子数量与光的强度成正比。在读取这些电荷时,各行数据被移动到垂直电荷传输方向的缓存器中 。通过电荷/电压转换器和放大器传感,连续读取每行电荷信息。这种构造产生的图像具有低噪音、高性能的特点。但是生产CC D时钟信号和偏压技术需要使用,因此整个结构复杂,增加了功耗和成本。 数码相机成像过程 CMOS数字逻辑电路、时钟驱动器、模/数转换器等传感器周围的电子设备可以集成在同一加工程序中。CMOS传感 该装置的结构就像一个存储器,每个成像点包括一个光电二极管、一个电荷/电压转换单元、一个重置和选择晶体管和一个放大器, 金属互连器(计时应用和读取信号)和垂直排列的输出信号互连器覆盖整个传感器,可以简单地使用X-Y寻址技术读取信 号。 CCD电荷耦合器只能输出模拟电信号,输出的电信号需要经过后续地址译码器、模数转换器和图像信号处理器处理,并提供三个 不同电压的电源和同步时钟控制电路集成度很低。CCD由电荷耦合器组成的数码相机通常有六个芯片,有的多达八个芯片,最少 有三片,使CCD由电荷耦合器制成的数码相机成本较高。 CMOS光电传感器的加工采用半导体制造商生产集成电路的过程,可将数码相机的所有部件集成到光敏元件、图像等芯片上 信号放大器、信号读取电路、模数转换器、图像信号处理器和控制器都可以集成在芯片上,并且有额外的DRAM的优点。只需要一 因此,一个芯片可以实现数码相机的所有功能CMOS光电图像转换系统的整体成本很低。 其实,CCD也有两种:全帧(full frame)的和隔行(interline)的。这两种CCD性能差别很大。 一般来说,全帧CCD性能最好。其次,隔行CCD。CMOS综合性能最差。full frame CCD最突出的优点是分辨率和动态范围。最弱的是贵,耗电。 CMOS最差的是分辨率、动态范围和噪声。优点是便宜,省电。 interline CCD比CMOS强的地方在于噪音。 一般来说,两种CCD颜色还原都比CMOS强。 现在一般的消费级数码相机,在宣传上都不是Full frame CCD还是Interline CCD。当然,大多数都是后者。专业数码相机,一定是前者。所以,Full frame CCD 和Interline CCD专业级数码相机和消费级机之间存在差异。当然,专业级数码相机彩色大面积使用CCD好处更加突出。 原创文章:"http://www.52solution.com/knowledge/knowledgeinfo/id/1219" 2、IPC 方案总结 Atmel OV、TI OV、FreeScale OV、海思 OV四款IP Camera方案 IP Camera概述 IP Camera它是一种可以通过有线或无线网络生成数字视频流并传输视频的摄像机。它超越了地域限制,只要有网络,就可以进行远程监控和录像。对于系统集成商或工程师来说,如果大多数设备都配备了网线,则使用它IP Camera安装布线将节省大量成本。同时,IP Camera还可以让用户从远端观看现场的实时画面,真正实现远程监控无限。 未来IP Camera企业用户市场将以防盗和避免入侵为一般需求,具有图像质量高、集中管理方便、数字分析可用的特点IP Camera物体移动检测、温湿度环境感知、车牌识别和集成POS系统或ATM系统等。家庭市场主要是电信行业推出的低级网络摄像头和传感器。家庭可以通过固定网络、移动网络和终端设备远程控制,即使外出也可以与家庭保持联系。 对日益增长的需求IP Camera市场,WPG下属世平集团(WPI)推出了Atmel OV、TI OV、FreeScale OV、海思 OV满足家庭和企业需求的四大主流方案。 Atmel OV IP Camera 方案 产品特性 ● 低成本(PCBA,15美金以内) ● CMOS传感器,30万像素 ● MJPEG编码方式 ● VGA@30fps的帧速率 ● 支持TCP/IP、ARP、ICMP、UDP、uPnP、SMTP、PPPoE、DHCP、FTP、DDNS、NTP等多种网络协议 ● 支持云台控制,SD卡 TI OV IP Camera方案 产品特性 ● CMOS/CCD130万像素传感器 ● MPEG4/MPEG/MJPEG编码方式 ● 30fps的帧速率 ● 支持TCP/IP、DHCP、HTTP、UDP、UPnP、FTP、SMTP、RTP等多种网络协议 ● 支持PoE(以太网供电) ● 支持WiFi功能 ● 支持SD卡 Freescale OV IP Camera方案 产品特性 ● CMOS Sensor,200万像素 ● H.264/H.263/MPEG4编码方式 ● 30fps的帧速率 ● 支持TCP/IP、DHCP、HTTP、UDP、UPnP、FTP、SMTP、RTP等等各种网络协议 ● 支持PoE(以太网供电)功能 ● 支持WiFi功能 ● 支持SD/MMC卡、USB或硬盘 Hi3512 OV IP Camera方案 产品特性 ● CMOS传感器 ● MJPEG/H.264双码流 ● D1/VGA实时编码 ● 支持TCP/IP、DHCP、HTTP、UDP、UPnP、FTP、SMTP、RTP等多种网络通讯协定 ● 支持PoE(以太网供电)功能 ● 支持WiFi功能 ● 支持SD/MMC卡 ● 双向语音对讲 3、芯防电子代理分销安防芯片: 一、Techwell/Nextchip TW2815 TW2864B TW2865 TW2866 TW2867 TW2868 TW2823 TW2824Q TW2834 TW2835 TW2837 TW2862 TW9900_QFN32/_LQFP32   TW9910_QFN48/_LQFP44 NVP1104,NVP1114,NVP1114A,NVP1104A,NVP1204,NVP1004 二、海思半导体/ Ti: Hi3510  Hi3511 Hi3512 Hi3515  Hi3516  Hi3520  HI3507 TMS320DM365  TMS320DM368  TMS32DM8168  TMS32ODM355 TVP5150AM1  TVP5158 三、OmniVision/Micron OV7720 OV7725 OV9710 OV9712 OV9715 OV2710 OV2715 MT9P031 MT9M001 MT9M033 MT9M034 四、PowerView: NVP1104,NVP1114,NVP1114A,NVP1104A,NVP1204,NVP1004 五、Silicon Image:    Sil3512ECTU128   Sil3114CTU176 六、SAMSUNG : K4T51163Q-HCE7 ,K4T51163QI-HCE7 ,K4T1G164QF-BCF7 , K4T1G164QE-HCE7 ,K4T1G164QF-BCE7 ,K4T1G164QE-HCE6 七、SPANSION: S29GL064N90TFI040  S29GL128P10TFI010D  S29GL128N10TFI01 S29GL256P10TFI010  S29GL512N10TFI010 M25P128-VMF6PB 八、REALTEK :   RTL8201CP  RTL8211EG 4、码率,帧率,分辨率和清晰度的关系 为了了解视频的码率、帧率、分辨率。我们先来看看视频编码的基本原理:视频图像数据有极强的相关性,也就是说有大量的冗余信息。其中冗余信息可分为空域冗余信息和时域冗余信息。压缩技术就是将数据中的冗余信息去掉(去除数据之间的相关性),压缩技术包含帧内图像数据压缩技术、帧间图像数据压缩技术和熵编码压缩技术。视频文件一般涉及到三个参数:帧率、分辨率和码率。   帧率:每秒显示的图片数。影响画面流畅度,与画面流畅度成正比:帧率越大,画面越流畅;帧率越小,画面越有跳动感。由于人类眼睛的特殊生理结构,如果所看画面之帧率高于16的时候,就会认为是连贯的,此现象称之为视觉暂留。并且当帧速达到一定数值后,再增长的话,人眼也不容易察觉到有明显的流畅度提升了。   分辨率:(矩形)图片的长度和宽度,即图片的尺寸   码率:把每秒显示的图片进行压缩后的数据量。影响体积,与体积成正比:码率越大,体积越大;码率越小,体积越小。 (体积=码率×时间)   帧率X分辨率=压缩前的每秒数据量(单位应该是若干个字节)    压缩比=压缩前的每秒数据量/码率  (对于同一个视频源并采用同一种视频编码算法,则:压缩比越高,画面质量越差。)     所谓“清晰”,是指画面十分细腻,没有马赛克。并不是分辨率越高图像就越清晰。   简单说: 在码率一定的情况下,分辨率与清晰度成反比关系:分辨率越高,图像越不清晰,分辨率越低,图像越清晰。 在分辨率一定的情况下,码率与清晰度成正比关系,码率越高,图像越清晰;码率越低,图像越不清晰。   但是,事实情况却不是这么简单。可以这么说: 在码率一定的情况下,分辨率在一定范围内取值都将是清晰的;同样地,在分辨率一定的情况下,码率在一定范围内取值都将是清晰的。     在视频压缩的过程中, I帧是帧内图像数据压缩,是独立帧。而P帧则是参考I帧进行帧间图像数据压缩,不是独立帧。在压缩后的视频中绝大多数都是P帧,故视频质量主要由P帧表现出来。由于P帧不是独立帧,而只是保存了与邻近的I帧的差值,故实际上并不存在分辨率的概念,应该看成一个二进制差值序列。而该二进制序列在使用熵编码压缩技术时会使用量化参数进行有损压缩,视频的质量直接由量化参数决定,而量化参数会直接影响到压缩比和码率。   视频质量可以通过主观和客观方式来表现,主观方式就是通常人们提到的视频清晰度,而客观参数则是量化参数或者压缩比或者码率。在视频源一样,压缩算法也一样的前提下比较,量化参数,压缩比和码率之间是有直接的比例关系的。   分辨率的变化又称为重新采样。由高分辨率变成低分辨率称为下采样,由于采样前数据充足,只需要尽量保留更多的信息量,一般可以获得相对较好的结果。而由低分辨率变成高分辨率称为上采样,由于需要插值等方法来补充(猜测)缺少的像素点,故必然会带有失真,这就是一种视频质量(清晰度)的损失。 5、分辨率 我们常说的视频多少乘多少,严格来说不是分辨率,而是视频的高/宽像素值。分辨率是用于度量图像内数据量多少的一个参数,通常表示成ppi(每英寸像素Pixel per inch)那个视频的320X180是指它在横向和纵向上的有效像素,窗口小时ppi值较高,看起来清晰;窗口放大时,由于没有那么多有效像素填充窗口,有效像素ppi值下降,就模糊了。(放大时有效像素间的距离拉大,而显卡会把这些空隙填满,也就是插值,插值所用的像素是根据上下左右的有效像素“猜”出来的“假像素”,没有原视频信息)习惯上我们说的分辨率是指图像的高/宽像素值,严格意义上的分辨率是指单位长度内的有效像素值ppi。差别就在这里。图像的高/宽像素值的确和尺寸无关,但单位长度内的有效像素值ppi和尺寸就有关了,显然尺寸越大ppi越小。 简介   常有人对分辨率不是很清楚,那么各种分辨率到底指的是什么?在这里给大家共享一下,帮助来认识分辨率。   CIF简介   CIF是常用的标准化图像格式(Common Intermediate Format)。在H.323协议簇中,规定了视频采集设备的标准采集分辨率。CIF = 352×288像素   QCIF全称Quarter common intermediate format。QCIF也是常用的标准化图像格式。在H.323中,规定QCIF = 176×144像素。   CIF格式具有如下特性:   ⑴ 电视图像的空间分辨率为家用录像系统(Video Home System,VHS)的分辨率,即352×288。   ⑵ 使用非隔行扫描(non-interlaced scan)。   ⑶ 使用NTSC帧速率,电视图像的最大帧速率为30 000/1001≈29.97幅/秒。   ⑷ 使用1/2的PAL水平分辨率,即288线。   ⑸ 对亮度和两个色差信号(Y、Cb和Cr)分量分别进行编码,它们的取值范围同ITU-R BT.601。即黑色=16,白色=235,色差的最大值等于240,最小值等于16。 参数说明   下面为5种CIF 图像格式的参数说明。参数次序为“图象格式亮度取样的象素个数(dx) 亮度取样的行数 (dy) 色度取样的象素个数(dx/2) 色度取样的行数(dy/2)”。   sub-QCIF 128×96 64 48   QCIF 176×144 88 72   CIF 352×288 176 144   4CIF 704×576 352 288(即我们经常说的D1)   16CIF 1408×1152 704 576   目前监控行业中主要使用Qcif(176×144)、CIF(352×288)、HALF D1(704×288)、D1(704×576)等几种分辨率。   DCIF分辨率是什么?   经过研究发现一种更为有效的监控视频编码分辨率(DCIF),其像素为528×384。DCIF分辨率的是视频图像来历是将奇、偶两个HALF D1,经反隔行变换,组成一个D1(720*576),D1作边界处理,变成4CIF(704×576),4CIF经水平3/4缩小、垂直2/3缩小,转换成528×384.528×384的像素数正好是CIF像素数的两倍,为了与常说的2CIF(704*288)区分,我们称之为DOUBLE CIF,简称DCIF。显然,DCIF在水平和垂直两个方向上,比Half D1更加均衡。   什么是D1?   做闭路电视监控系统这一行久了,大家都以为D1是硬盘录像机显示、录像、回放的分辨率,实际上不是的,D1是数字电视系统显示格式的标准,共分为以下5种规格:   D1:480i格式(525i):720×480(水平480线,隔行扫描),和NTSC模拟电视清晰度相同,行频为15.25kHz,相当于我们所说的4CIF(720×576)   D2:480P格式(525p):720×480(水平480线,逐行扫描),较D1隔行扫描要清晰不少,和逐行扫描DVD规格相同,行频为31.5kHz   D3:1080i格式(1125i):1920×1080(水平1080线,隔行扫描),高清方式采用最多的一种分辨率,分辨率为1920×1080i/60Hz,行频为33.75kHz   D4:720p格式(750p):1280×720(水平720线,逐行扫描),虽然分辨率较D3要低,但是因为逐行扫描,市面上更多人感觉相对于1080I(实际逐次540线)视觉效果更加清晰。不过个人感觉来说,在最大分辨率达到1920×1080的情况下,D3要比D4感觉更加清晰,尤其是文字表现力上,分辨率为1280×720p/60Hz,行频为45kHz   D5:1080p格式(1125p):1920×1080(水平1080线,逐行扫描),目前民用高清视频的最高标准,分辨率为1920×1080P/60Hz,行频为67.5KHZ。   其中D1 和D2标准是我们一般模拟电视的最高标准,并不能称的上高清晰,D3的1080i标准是高清晰电视的基本标准,它可以兼容720p格式,而D5的1080P只是专业上的标准。 编辑本段 主要分类介绍 4:3 家族   4:3 是最常见屏幕比例,从电视时代流传下来的古老(?)标准。在近代宽屏幕 兴起前,绝大部份的屏幕分辨率都是照着这个比例的。不过最近逛逛电脑商场,好像要买个 4:3 比例的屏幕非常困难了啊   VGA (640x480) - 「VGA」 其实本来不是个分辨率的规格,而是 IBM 计算机的一种显示标准。在规范里有 320x200 / 256 色、320x200 / 16 色、640x350 / 16 色、640x480 / 16 色等多种模式,甚至还有 80x25 和 40x25 等文字模式。只是最后因为官方支持的最高分辨率是 640x480,所以 VGA 就成为了 640x480 的代名词。VGA 的重要地位在于它是所有显卡都接受的基准分辨率,Windows 在加载显卡驱动程序之前(BIOS 之后)有个蓝棒子跑跑跑的画面,那个画面就是在 VGA 分辨率下的。SVGA (800x600) - SVGA 的情况和 VGA 有点像,也是以一种「规格」的身份起家的,只是最后好像变成无论规格如何,所有比 VGA 强的显示器都自称自已是 Super VGA,或 SVGA。在分辨率上,SVGA 专指 800x600 的分辨率 -- 即使当年标榜自已是 SVGA 的屏幕其实常常可到达 1024x768,或更高。XGA (1024x768) - 到了 SVGA 的年代,IBM 已经失去了市场的独占性,PC 界也正式进入了百家争鸣的时代。IBM 虽然定义出了XGA 的规格,但实际上它只是当年多种 Super VGA 规格中的一种。XGA 最后成为 1024x768 这个分辨率的代名词。SXGA+ (1400x1050) - 咦?跳过了 SXGA?等会儿再回来 XD。SXGA+ 是大约 2003 年~2007 年间偶尔会在笔电上看到的分辨率。不过近年来随着宽屏幕笔电大行其道,这个分辨率很难看到了。小姜的两台笔电都是这个分辨率的,算是工作需求吧 orz。UXGA (1600x1200) - UXGA 又称为 UGA,分辨率刚好是 VGA 的四倍。UXGA 是许多 4:3 的 20" 和 21" 屏幕的析度,不过随着 4:3 屏幕愈来愈少见,要买到这个分辨率的屏幕是愈来愈困难了。小姜桌上有一颗 20" UXGA 的 Dell 屏幕转直的用,还蛮方便的 :p。QXGA (2048x1536) - QXGA 的分辨率是 XGA 的四倍,也是大部份 4:3 屏幕支持的极限。小姜以前有一台 Viewsonic 的 p90f CRT 屏幕可以硬撑到这个数字,不过像素已经小于遮栅开孔的大小了,所以其实只是名义上有到而已,显示器根本显示不了。更高 - 更高的 4:3 分辨率存在,像是 QUXGA,但这只是个理论上的名字。在真实世界没有采用这个分辨率的产品存在。 16:10 家族   16:10 就是常见的「宽屏幕」比例,近几年来突然间变得很常见,差不多把市场给独占了。取决于你看事情的角度,你可以说 16:10 有各种好处,例如可以并排两个窗口同时观看、人眼横向移动比较不吃力、笔电可以做得比较小台等。或者你也可以阴谋论一点,说在同样的对角线长度下,16:10 的面板其实面积比较小。总之,16:10 看来已经是所有屏幕的共同标准(除了 16:9 之外)了,喜欢、不喜欢,都认命吧~ WVGA   (800x480) - VGA 的加宽版,大部份的 MID 和小号的 Netbook 采用的分辨率。第一代的 7" Eee PC 就是这个分辨率的。WSVGA (1024x600) - 好吧,老实说这个比例并不是 16:10(960x600 才是),不过这是个愈来愈常见的宽屏幕分辨率,所以就列在一起了。8.9" 的 Netbook 大多是这个分辨率,部份的 10" Netbook(Wind NB)也是。WXGA (1280x800、1366x768) - WXGA 最早是指 1366x768(1024x768 的加宽版),是 LCD TV 面板最常见的分辨率。但到了电脑上 WXGA 通常是指 1280x800 这个分辨率,通常出现在 13~15" 的笔电上。WXGA+ (1440x900) - 也是宽屏幕笔电常见的分辨率,但更常出现在 19" 的宽屏幕 LCD 上。WSXGA+ (1680x1050) - 20" 和 22" 宽屏幕 LCD 和部份 15.4" 笔电爱用的分辨率。WUXGA (1920x1200) - UXGA 的宽屏幕版。必须要到达这个分辨率才能在屏幕上无损地显示 1080p 的影片。桌电上 1920x1200 大致上是 24"~27" LCD 的领域,而笔电则是 17" 以上才比较看得到。WQXGA (2560x1600) - 主要是 30" LCD 屏幕在用的分辨率,著名的 Apple Cinema Display、Dell UltraSharp 3007WFP / 3008 WFP 都是这个分辨率。 16:9 家族   16:9 主要是 HD 电视在用的比例。常听到的 720p、1080p 都是这个比例。   720p (1280x720) - 与其这是一种分辨率,还不如说它是一种信号?没听说有电脑屏幕是这个分辨率的,电视面板好像也都是做 1366x768 的多? 1080p (1920x1080) - 1080p 就是俗称的 Full HD(Sony 超拼的),以前只有在电视上看得到(电脑用 1920x1200 的多),不过最近开始出现采用 1080p 面板的笔电,像第二代的 Acer 宝石机,标榜可以「让画面塞满屏幕,不留黑边」。 5:4 家族   说是说家族,其实只有 SXGA 这一个成员而已。怎么,从来没注意到自已的屏幕比较方?其实 1280x1024 除下来比例是 5:4 才对,不是 4:3。 SXGA   (1280x1024) - 后期的 17" 屏幕和绝大部份非宽屏幕的 19" 屏幕都是这个分辨率。为什么 SXGA 要采用 5:4 的比例到现在还是个谜,但总之它是成了办公室中几乎无所不在的存在。5:4 因为很接近正方形,其实旋转起来意义不大 XD 6、 视频参数介绍以及之间的关系 视频的参数主要有编码格式,分辨率,码率,帧率,这些影响着视频的清晰度和体积大小。   编码格式有很多种,在技术不断进步的情况下,针对不同的用途,产生了各种编码格式。不同编码格式的压缩率不一样,且在不同码率下保证的画面质量也不一样。   分辨率大家应该比较熟悉了,视频文件的用途决定分辨率的大小。大家应该选择合适的分辨率,能有效提高视频编码效率和控制文件大小,并获得最佳观赏效果。   码率直接与文件体积有关。完整的视频文件是由音频流与视频流2个部分组成的,音频和视频分别使用的是不同的码率,因此一个视频文件的码率是音频码率+视频码率。码率与编码格式配合是否合适,直接关系到视频文件是否清晰。 码率的一般计算公式: 文件大小(MB为单位)× 1024 × 8 / 影片总长度(秒为单位) = 码率(Kbps) 这里的码率是视频码率和音频码率的总和 7、PAL PAL由德国人Walter Bruch在1967年提出,当时他是为德律风根(Telefunken)工作。“PAL”有时亦被用来指625 线,每秒25格,隔行扫描,PAL色彩编码的电视制式。PAL制式中根据不同的参数细节,又可以进一步划分为G、I、D等制式,其中PAL-D制是我国大陆采用的制式。这两种制式是不能互相兼容的,如果在PAL制式的电视上播放NTSC的影像,画面将变成黑白,NTSC制式的也是一样。 PAL电视标准,每秒25帧,电视扫描线为625线,奇场在前,偶场在后,标准的数字化PAL电视标准分辨率为720*576, 24比特的色彩位深,画面的宽高比为4:3, PAL电视标准用于中国、欧洲等国家和地区,PAL制电视的供电频率为50Hz,场频为每秒50场,帧频为每秒25帧,扫描线为625行,其中,帧正程575行,帧逆程50行。采用隔行扫描方式,每场扫描312.5行,场正程287.5行,逆程25行。场周期为20毫秒。行频为15625赫兹。图像信号带宽分别为4.2MHz、5.5MHz、5.6MHz等,   PAL和NTSC制式区别在于节目的彩色编、解码方式和场扫描频率不同。中国(不含香港地区)、印度、巴基斯坦等国家采用PAL制式,美国、日本、韩国以及我国台湾地区等采用NTSC制式。   PAL与NTSC的区别电影放映的时候都是每秒24个胶片帧。而视频图像PAL制式每秒50场,NTSC制是每秒60场,由于现在的电视都是隔行场,所以可以大概认为PAL制每秒25个完整视频帧,NTSC制30个完整视频帧。 8、 什么是QCIF? CIF?2CIF?4CIF?DCIF? l QCIF全称Quarter common intermediate format。QCIF是常用的标准化图像格式。在H.323协议簇中,规定了视频采集设备的标准采集分辨率。QCIF = 176×144像素。 l CIF是常用的标准化图像格式(Common Intermediate Format)。在H.323协议簇中,规定了视频采集设备的标准采集分辨率。CIF = 352×288像素。 CIF格式具有如下特性: (1) 电视图像的空间分辨率为家用录像系统(Video Home System,VHS)的分辨率,即352×288。 (2) 使用非隔行扫描(non-interlaced scan)。 (3) 使用NTSC帧速率,电视图像的最大帧速率为30 000/1001≈29.97幅/秒。 (4) 使用1/2的PAL水平分辨率,即288线。 (5) 对亮度和两个色差信号(Y、Cb和Cr)分量分别进行编码,它们的取值范围同ITU-R BT.601。 即黑色=16,白色=235,色差的最大值等于240,最小值等于16。 l DCIF分辨率是什么? 经过研究发现一种更为有效的监控视频编码分辨率(DCIF),其像素为528*384。DCIF分辨率的是视频图像来历是将奇、偶两个HALF D1,经反隔行变换,组成一个D1(720*576),D1作边界处理,变成4CIF(704*576),4CIF经水平3/4缩小、垂直2/3缩小,转换成528*384。528*384的像素数正好是CIF像素数的两倍,为了与常说的2CIF(704*288)区分,我们称之为DOUBLE CIF,简称DCIF。显然,DCIF在水平和垂直两个方向上,比Half D1更加均衡。 l 为什么选用DCIF分辨率? 9     数字化监控行业对数字监控产品提出两项要求:首先要求数据量低,保证系统能够长时间录像和稳定实时的网络传输;其次要求回放图像清晰度高,满足对细节的要求。而DCIF分辨率在目前的软硬件平台上,能很好的满足以上两项要求。   Half D1分辨率已被部分产品采用,用来解决CIF清晰度不够高和D1存储量高、价格高昂的缺点。但由于他相对于CIF只是水平分辨率的提升,图像质量提高不是特别明显,但码流增加很大。   经过对大量视频信号进行测试,基于目前的视频压缩算法,DCIF分辨率比Half D1能更好解决CIF清晰度不够高和D1存储量高、价格高昂的缺点,用来解决CIF和4CIF,特别是在512Kbps码率之间,能获得稳定的高质量图像,满足用户对较高图像质量的要求,为视频编码提供更好的选择。   CIF清晰度不够高和D1存储量高、价格高昂的缺点分辨率,静态回放分辨率理论上最高可达360TVline的图像质量,超过模拟监控中标准VHS 磁带录像机280TVline的图像水平,达到公安部安防行业视频标准二级和三级项目的清晰度要求,满足绝大部分视频监控的要求。 ================================================ 一般ADSL 2M 指的是  上行512Kbps,下行(下载的带宽)2Mbit每秒(2Mbps) ================================================ 所谓视频传输就是将图片一张张传到屏幕,由于传输速度很快,所以可以让大家看到连续动态的画面,就像放电影一样。一般当画面的传输数量达到每秒24帧时,画面就有了连续性。在进行这种图片的传输时,必须将图片进行压缩,一般压缩方式有如H.261、JPEG、MPEG等,否则传输所需的带宽会变得很大。大家用RealPlayer不知是否留意,当播放电影的时候,在播放器的下方会有一个传输速度250kbps、400kbps、1000kbps…画面的质量越高,这个速度也就越大。而摄像头进行视频传输也是这个原理,如果将摄像头的分辨率调到640*480,捕捉到的图片每张大小约为50kb左右,每秒30帧,那么摄像头传输视频所需的速度为50*30kb/s=1500kbps= 1.5Mbps。而在实际生活中,人们一般用于网络视频聊天时的分辨率为320*240甚至更低,传输的帧数为每秒24帧。换言之,此时视频传输速率将不到300kbps,人们就可以进行较为流畅的视频传输聊天。如果采用更高的压缩视频方式,如MPEG-1等等,可以将传输速率降低到200kbps不到。这个就是一般视频聊天时,摄像头所需的网络传输速度。 宽带网络: 视频压缩上已经可以满足应用的标准,但视频聊天的实现,还需要互联网条件的认可。一般来说,在国内我们可以通过以下几种方式上网: 可以看出,除了56K Modem,ISDN以外,一般的宽带网络都可以满足用户进行视频传输的需求。而根据不同上网方式给用户提供的带宽,还可以自己调节摄像头传输画面的质量,如分辨率、真彩色级别、画面捕捉传输速度等等。比如,当带宽达到2Mbps时,我们就可以采用分辨率为640*480,每秒30帧来进行视频聊天,这时不论是画面的质量还是流畅性都是相当高的,如同两个人面对面交流一样。 ================================================ 在视频监控系统中,对存储空间容量的大小需求是与画面质量的高低、及视频线路等都有很大关系。下面对视频存储空间大小与传输带宽的之间的计算方法做以介绍。 比特率是指每秒传送的比特(bit)数。单位为 bps(Bit Per Second),比特率越高,传送的数据越大。比特率表示经过编码(压缩)后的音、视频数据每秒钟需要用多少个比特来表示,而比特就是二进制里面最小的单位,要么是0,要么是1。比特率与音、视频压缩的关系,简单的说就是比特率越高,音、视频的质量就越好,但编码后的文件就越大;如果比特率越少则情况刚好相反。 码流(Data Rate)是指视频文件在单位时间内使用的数据流量,也叫码率,是视频编码中画面质量控制中最重要的部分。同样分辨率下,视频文件的码流越大,压缩比就越小,画面质量就越高。   上行带宽就是本地上传信息到网络上的带宽。上行速率是指用户电脑向网络发送信息时的数据传输速率,比如用FTP上传文件到网上去,影响上传速度的就是“上行速率”。 下行带宽就是从网络上下载信息的带宽。下行速率是指用户电脑从网络下载信息时的数据传输速率,比如从FTP服务器上文件下载到用户电脑,影响下传速度的就是“下行速率”。 不同的格式的比特率和码流的大小定义表:      格式类型     CIF     D1     720P      1080P 比特率大小 512Kbps 1.5Mbps 2Mbps 4Mbps 码流大小 64kB/s 192kB/s 256kB/s 512kB/s 传输带宽计算:     比特率大小 × 摄像机的路数 = 网络带宽至少大小;     注:监控点的带宽是要求上行的最小限度带宽(监控点将视频信息上传到监控中心);监控中心的带宽是要求下行的最小限度带宽(将监控点的视频信息下载到监控中心);例:电信2Mbps的ADSL宽带,理论上其上行带宽是512kbps = 64kB/s  ,其下行带宽是2Mbps = 256kB/s 例:监控分布在5个不同的地方,各地方的摄像机的路数:n = 10(20路)1个监控中心,远程监看及存储视频信息,存储时间为30天。不同视频格式的带宽及存储空间大小计算如下: 地方监控点: CIF视频格式每路摄像头的比特率为512Kbps,即每路摄像头所需的数据传输带宽为512Kbps,10路摄像机所需的数据传输带宽为:   512Kbps(视频格式的比特率)×10(摄像机的路数)≈ 5120Kbps = 5Mbps(上行带宽)   即:采用CIF视频格式各地方监控所需的网络上行带宽至少为5Mbps; D1视频格式每路摄像头的比特率为1.5Mbps,即每路摄像头所需的数据传输带宽为1.5Mbps,10路摄像机所需的数据传输带宽为:  1.5Mbps(视频格式的比特率)×10(摄像机的路数)= 15Mbps(上行带宽)   即:采用D1视频格式各地方监控所需的网络上行带宽至少为15Mbps; 720P(100万像素)的视频格式每路摄像头的比特率为2Mbps,即每路摄像头所需的数据传输带宽为2Mbps,10路摄像机所需的数据传输带宽为:  2Mbps(视频格式的比特率)×10(摄像机的路数)= 20Mbps(上行带宽)   即:采用720P的视频格式各地方监控所需的网络上行带宽至少为20Mbps; 1080P(200万像素)的视频格式每路摄像头的比特率为4Mbps,即每路摄像头所需的数据传输带宽为4Mbps,10路摄像机所需的数据传输带宽为:  4Mbps(视频格式的比特率)×10(摄像机的路数)= 40Mbps(上行带宽)   即:采用1080P的视频格式各地方监控所需的网络上行带宽至少为40Mbps; 监控中心: CIF视频格式的所需带宽: 512Kbps(视频格式的比特率)×50(监控点的摄像机的总路数之和)=25600Kbps = 25Mbps(下行带宽) 即:采用CIF视频格式监控中心所需的网络下行带宽至少25Mbps D1视频格式的所需带宽: 1.5Mbps(视频格式的比特率)×50(监控点的摄像机的总路数之和)= 75Mbps(下行带宽) 即:采用D1视频格式监控中心所需的网络下行带宽至少75Mbps 720P(100万像素)的视频格式的所需带宽: 2Mbps(视频格式的比特率)×50(监控点的摄像机的总路数之和) = 100Mbps(下行带宽) 即:采用720P的视频格式监控中心所需的网络下行带宽至少100Mbps 1080P(200万像素)的视频格式的所需带宽: 4Mbps(视频格式的比特率)×50(监控点的摄像机的总路数之和) = 200Mbps(下行带宽) 即:采用1080P的视频格式监控中心所需的网络下行带宽至少200Mbps 存储空间计算:     码流大小(单位:kB/s;即:比特率÷8)×3600(单位:秒;1小时的秒数)×24(单位:小时;一天的时间长)×30(保存的天数)×50(监控点要保存摄像机录像的总数)÷0.9(磁盘格式化的损失10%空间)=所需存储空间的大小(注:存储单位换算1TB=1024GB; 1GB=1024MB; 1MB=1024KB)     50路存储30天的CIF视频格式录像信息的存储空间所需大小为: 64×3600×24×30×50÷0.9 = 8789.1GB≈9TB 50路存储30天的D1视频格式录像信息的存储空间所需大小为: 192×3600×24×30×50÷0.9 = 26367.2GB≈26TB   50路存储30天的720P(100万像素)视频格式录像信息的存储空间所需大小为: 256×3600×24×30×50÷0.9 = 35156.3GB≈35TB 50路存储30天的1080P(200万像素)视频格式录像信息的存储空间所需大小为: 512×3600×24×30×50÷0.9 = 70312.5GB≈69TB ================================================ 单路CIF视频编码器:   技术规格:    支持PAL或NTSC格式    视频码率32Kbps-4Mbps连续可调,帧率1-30 (1-25)连续可调    视频流占用平均带宽200kbps(分辨率352x288,25帧)    画面延迟小于200毫秒(局域网)    嵌入式Web服务,支持IE浏览、配置、升级    支持动态域名、局域网、广域网    支持双向语音对讲    报警预录功能 5 秒 -30 秒 , 支持报警上传    支持图像抓拍、录像    支持网络断线自动连接功能    支持异常情况自动重启恢复功能        项目 规格  与  参数     视频制式 NTSC/PAL     视频编码 MPEG-4     帧率 25fps(PAL),30fps(NTSC),向下可调     音频编码 MP3     视频编码尺寸 PAL: 352×288    NTSC:352×240     带宽占用 200 kbps(分辨率352×288,25帧)     画面延迟 小于200毫秒(局域网)     图像调节 亮度、对比度、色度、饱和度,图像质量级别调节     分辨率 PAL: 352×288    NTSC:352×240     性能 输出帧率最大为30fps,网络带宽占用最小为32Kbps     触发事件及行动 触发条件:时间/报警输入/视频移动侦测/视频丢失    动作:继电器输出控制外围设备     建议访问用户数 10     IO及控制接口 RS485透明通道     嵌入式WEB服务 支持IE浏览、配置、升级     视频输入 复合视频:1.0V p-p/75Ω,BNC连接器×1     音频输入(可选) BNC接口 麦克风输入或线性输入     音频输出 BNC接口 线性输出     硬件 音视频处理芯片:高性能DSP处理器    主CPU:高性能嵌入式MIPS处理器    操作系统:实时嵌入式LINUX操作系统    ROM:8M Bytes Flash ROM    RAM: 64M Bytes SDRAM     网络接口 10/100M     报警输入 4个开关量输入     报警输出 4个继电器输出     音频 双向语音对讲     系统要求 CPU:PⅢ或者更高    内存:96M或者更高    显示器:17寸@1024×768以获得最佳显示效果     安全性 3层密码保护     工作温度 5 ~ 60 ℃     工作湿度 20 ~ 80%     输入电压 DC12V /3A     功率 小于5 瓦     整机尺寸 263mm(W)*44mm(H)*140mm(D) 10、 1. 目标 手机摄像头模组用ISP功能模块的市场走向及研发方向。为能够正确认识手机摄像模组行业提供技术及市场依据。  2. ISP在模组上的应用原理  2.1 功能区域  无论数码相机、摄像机或者摄像手机,其影像数据从前端感应后,皆须经过ASP(Analog Signal Processing)、ADC(Analog-Digital Converter)、前期影像处理(Pre-ISP)与后端影像处理(Post-ISP)四个阶段后,影像数据才能最终呈现于终端设备上(图一)。   但由于图像传感器的像素高低不同、及其他成本等的考虑,ISP各功能区域会依手机市场特性做分散配置或整合处理,例如,低端相机将Pre-ISP与传感器整合在一起,2.0M像素手机将所有的ISP功能单独做成一个芯片等。   2.1.1 ASP   ASP(Analog Signal Processor)主要是针对图像传感器采集的电压或电流信号进行处理,主要作用是信号放大、自动曝光调整、时序控制、像素抽样控制等。因其与初始信号的绝对相关性,一般的图像传感器厂商皆会将此项功能直接与传感器做在一块。在图一中即为蓝色部分。传感数据经过ASP处理后,输出数据为Raw Data。   2.1.2 Pre-ISP   Pre-ISP(Image Signal Processor)为前端影像处理,主要针对ADC转换后传出的数字数据(Raw data),进行影像坏点修补、白平衡、gamma校正、锐利度、颜色插值等。在低像素的产品中,例如0.3M像素,因影像数据较少,不需要大规模的复杂处理,会将Pre-ISP与图像传感器做在同一颗芯片中;但高像素CMOS传感器,因需要处理的像素数越来越多,虽然将Pre-ISP集成在sensor 内部从制造技术上来讲不困难,但因成本及成像质量的原因,有些手机设计公司在设计时会将集成于sensor内部的Pre-ISP功能屏蔽掉,并维持传感器 ADC输出的原始资料,交由单独的ISP芯片或集成在Baseband的ISP进行处理。   由Pre-ISP处理完后的数据分为RGB和YUV,RGB为三原色,数据比YUV较大,可以方便后续处理单元(Post-ISP)做更为多元的变化;YUV为RGB三原色经内插法所得,数据量较小,但不利于后续的处理单元进行处理。   对于实力强的手机研发公司比较倾向于使用Raw data数据或者RGB数据,这样可以根据自己的需要调整出更完美的画面质量。Raw data数据也为以后高端市场的使用方向,但国内现阶段2.0M像素的模组应用还处于初级阶段。因此还是以YUV输出的为主。   2.1.3 Post-ISP   Post-ISP虽然也称为后端影响处理,但其与成像相关的工作不多,主要负责数据压缩与后端接口界面控制,以及数据传输、控制等工作,其中还包括LCD影像预览、镜头对焦控制、使用界面等。   2.2 ISP发展阶段   2.2.1 第一阶段   第一阶段因像素不高(CIF等级),因此其结构与一般手机相差不多, Pre-ISP功能与图像传感器整合,而Post-ISP则依赖手机基带芯片,显示屏则经由系统提供,其结构如下     图二 手机摄像模组后端芯片第一阶段原理图   2.2.2 第二阶段   随着像素增加(CIF至VGA),为维持后端手机基带芯片的通讯功能,开始将原来负责的JPEG压缩、数据流的协调处理等功能独立成单一芯片完成,而影像处理Pre-ISP则交由手机设计公司自行决定,分集成到图像传感器内部和与Post-ISP整合两种。   此阶段方案已被淘汰,VGA像素的Post-ISP功能已可被Baseband集成。   图三 手机摄像模组后端芯片第二阶段原理图  2.2.3 第三阶段  此时像素已由VGA转为百万像素,高像素的Pre-ISP,因所需的存储器及电源需求过大,在当时的技术条件下,sensor端已无法全部处理,因此将 Pre-ISP与Post-ISP整合成完整的ISP。另因为对显示屏幕的处理要求更高,此阶段也将显示器控制功能一并整合,以减少baseband的处理负担,其结构见图四。   图四手机摄像模组后端芯片第三阶段原理图   2.2.4 第四阶段   Main Panel   (240*320)     随像素增加到2.0M及以上,厂商将更多的功能例如MP3、3D sound processor、audio processor等亦集成进单独的ISP芯片,此时称之为MMP(Mobile Multimedia Processor),   图五手机摄像模组后端芯片第四阶段原理图  表一 手机摄像模组后端芯片发展趋势   阶段搭配像素趋势项目   第一阶段CIFl 结构与一般手机相差无异   l Pre-ISP功能可与图像传感器整合   l Post-ISP依靠手机基带芯片   第二阶段VGAl Post-ISP独立成单一芯片   l Pre-ISP或由sensor集成或与Post-ISP整合   第三阶段Megal 图像传感器无法全部处理Pre-ISP,与Post-ISP整合成单独的ISP芯片   第四阶段2Mega及以上l 单独的MMP(ISP)芯片集成更多的功能,以迎合2.5G及3G的发展     3. 现阶段ISP的主要应用方案   表二 现阶段ISP的主要应用方案   像素输出格式ISP或手机设计方案备注   VGAYUV/RGB/   Raw datal Sensor集成Pre-ISP;   l Baseband集成Post-ISP。OV是VGA的首选sensor厂家,其主流产品:OV7660/OV7663/OV7670皆集成Pre-ISP,而MTK则将Post-ISP部分集成进Baseband。   l Baseband未集成Post-ISP;   l ISP(Pre-ISP&Post-ISP)功能被集成于MMP中;有一定比例的Baseband厂商(例如英飞凌)未将Post-ISP集成进Baseband。而是采用MMP的方式来处理。   2.0Mega及以上YUV/RGBl Sensor中集成Pre-ISP;   l ISP(Pre- ISP&Post-ISP)功能被集成于MMP中。Baseband不参与图像处理手机设计公司可以采用sensor输出的YUV或RGB,或者直接将Pre-ISP屏蔽掉,所有图像处理工作由MMP芯片来做。(理论上来讲,MMP处理效果应该好一点,实际上有时因调试工程师水平的原因,无法完全发挥MMP的潜力。)  Raw datal Sensor中不集成Pre-ISP;   l ISP(Pre-ISP & Post-ISP)功能被集成于MMP中。Baseband不参与图像处理所有图像处理工作由MMP芯片来做。     将来的趋势,因成本的原因,基带芯片会集成所有的图像处理功能。

标签: k4光电传感器传感器k4p10m接近开关传感器dc12

锐单商城拥有海量元器件数据手册IC替代型号,打造 电子元器件IC百科大全!

锐单商城 - 一站式电子元器件采购平台