随着人们安防意识的增强,视频监控系统应用越来广泛,许多公共场所,如学校、工厂、政府、银行都设有视频监控系统。网络技术、图像处理技术及嵌入式技术的快速发展,使得视频监控系统技术有了很大的进步,功能也越来越丰富,单纯的视频画面的监控已经不能满足人们的要求。兼容丰富的通信协议、强大的系统控制管理功能和智能化的监测能力的视频监控系统就成了当今视频监控系统的研究开发的热点。 现在流行的视频监控的构架大致分为两类,一种基于数字信号处理器,一种基于通用微处理器。数字信号处理器擅长复杂的计算、音视频处理,而通用微处理器适用于系统控制、管理。两种方案可以满足简单的视频监控的要求,各自功能也相对单一。如果把两种方案结合在一起,必定可以达到易于扩展多种功能的满意的效果。 本文分析了现有的数字视频监控系统的几种方案,为了满足视频监控系统功能越来越丰富全面的要求,设计了一款基于ARM和DSP的双处理器的视频监控平台,该平台易于进行功能的扩展和升级。系统采用三星公司的S3C2410 ARM9处理器和TI公司的TMS320DM642数字信号处理器,ARM负责视频的传输和外围控制,DSP负责视频的采集和压缩。本文主要着眼于平台的软件方面。硬件电路方面,主要介绍了视频采集电路和ARM与DSP的通信电路。软件方面,搭建了ARM嵌入式Linux操作系统平台,开发了主机口(HPI)驱动程序,以及基于实时传输协议RTP的服务器端和客户端程序。DSP部分,基于DSP/BIOS实时操作系统和RF5参考框架,开发了多任务的上层应用程序。移植并优化了MPEG-4编码器,依据DSP/BIOS的类/微驱动开发模型,开发了SAA7111视频编码器的驱动程序。 经过实验测试,ARM端搭建的嵌入式Linux软件平台运行良好。DSP端视频采集效率基本达到了25帧/秒的采集要求,经过优化的MPEG-4编码器对CIF格式的图像的压缩编码率为13帧/秒,视频服务器可满足视频传输的实时性需要。该设计的基于ARM和DSP双处理器架构视频监控平台在视频监控领域将会有很好的应用前景。关键词:视频监控;嵌入式系统;Linux;驱动程序;视频压缩
上传时间: 2013-04-24
上传用户:zmy123
在风力发电系统中,并网逆变器是实现电能馈送给电网的重要环节。并网逆变器的性能的好坏直接影响整个风力发电系统。 首先建立了并网逆变器的数学模型, 分析了空间矢量脉宽调制技术 (SVPWM) 。然后采用电
上传时间: 2013-04-24
上传用户:chens000
信息化社会的到来以及IP技术的兴起,正深刻的改变着电信网络的面貌以及未来技术发展的走向。无线通信技术的发展为实现数字化社区提供了有力的保证。而视频通信则成为多媒体业务的核心。如何在环境恶劣的无线环境中,实时传输高质量的视频面临着巨大的挑战,因此这也成为人们的研究热点。 对于无线移动信道来说,网络的可用带宽是有限的。由于多径、衰落、时延扩展、噪声影响和信道干扰等原因,无线移动通信不仅具有带宽波动的特点,而且信道误码率高,经常会出现连续的、突发性的传输错误。无线信道可用带宽与传输速率的时变特性,使得传输的可靠性大为降低。 视频播放具有严格的实时性要求,这就要求网络为视频的传输提供足够的带宽.有保障的延时和误码率。为了获得可接受的重建视频质量,视频传输至少需要28Kbps左右的带宽。而且视频传输对时延非常敏感。然而无线移动网络却无法提供可靠的服务质量。 基于无线视频通信面临的挑战,本文在对新一代视频编码国际标准H.264/AVC研究的基础上,主要在提高其编码效率和H.264的无线传输抗误码性能,以及如何在嵌入式环境下实现H.264解码器进行了研究。 结合低码率和帧内刷新,提出一种针对感兴趣区的可变帧内刷新方法。实验表明该方法可以使用较少的码率对感兴趣区域进行更好的错误控制,以提高区域图像质量,同时能根据感兴趣区及信道的状况自动调整宏块刷新数量,充分利用有限的码率。 为了有效的平衡编码效率和抗误码能力的之间的矛盾,笔者提出了一种自适应FMO(Flexible Macroblock Order)编码方法,可根据图像的复杂度自适应地选择编码所需的FMO模式。仿真结果表明这种FMO编码方式完全可行,且在运动复杂度频繁变化时效果更加明显,完全可应用在环境恶劣的无线信道中。 在对嵌入式PXA270硬件结构和X264研究的基础上,基本实现了基于H.264的嵌入式解码,在PXA270基础上进行环境的配置,定制WirtCE操作系统,并编译、产生开发所用的SDK和下载内核到目标机。利用开发工具EVC实现在PC机上的实时开发和在线仿真调试,最终实现了对无差错H.264码流实时解码。
上传时间: 2013-06-18
上传用户:也一样请求
在嵌入式系统的开发过程中,仿真器是一个必不可少的开发工具。特别是对于初级嵌入式系统开发工程师,借助一个功能强大的仿真器进行开发工作,可以达到事半功倍的效果。一个嵌入式仿真、调试系统支持单步执行、设置断点、观察变量内容及寄存器内容等功能。开发人员可以通过各类调试功能观察变量和寄存器的变化,从而可以很清楚的了解整个程序运行的状况,及时的调整和修改程序,并不需要反复的向芯片烧写程序,就可以完成对于程序的调试工作。 @@ 本文在分析了目前市场上常用仿真器的设计原理的基础上,提出了以三星公司的S3C44BO ARM7处理器为主CPU,通过以太网接口进行数据传输的ARMJTAT仿真器的设计方案。利用这种仿真器进行程序调试,不仅可以大幅度的提高下载速度,还可以实现仿真器资源的共享,而且调试时程序是在目标板上运行,仿真更接近于目标硬件。 @@ 文中首先对于传统仿真器的设计原理、作用、存在的问题进行了研究,然后提出了基于S3C44BO的以太网接口的ARM-JTAG仿真器的设计。该仿真器的设计主要分为以下几步:第一,提出总体设计方案,包括硬件的设计及软件的设计。第二,详细介绍该仿真器的硬件结构设计和程序开发过程,其中特别对以太网接口的设计进行了研究。第三,总结了该仿真器的功能、特点。 @@关键词:仿真器;S3C44BO;以太网接口;JTAG;LwIP
上传时间: 2013-06-16
上传用户:253189838
随着电力系统的迅速发展和电力电子技术的广泛应用,电能污染日益严重,电能质量问题已经成为电力部门及电力用户越来越关注的问题。电能质量的各项指标若偏离正常水平过大,会给发电、输变电和用电设备带来不同程度的危害。电能质量的好坏直接关系到国民经济的总体效益,因此对电能质量进行检测和分析从而提高和改善电能质量具有非常重要的意义。 本文首先介绍了电能质量的基本概念,对各种电能质量问题的分类、特征及产生原因和危害作了详细的阐述。通过对电能质量各项指标(供电电压偏差、频率偏差、公用电网谐波、三相电压不平衡度、电压波动与闪变)的分析,以传统的傅立叶变换理论为基础,针对目前电能质量分析的难点即对突变的、暂态的、非平稳的信号的检测与分类,提出了基于快速傅立叶变换的暂态电能质量分析方法。 在系统的研究了电能质量分析的相关理论和检测技术的基础上,针对电能质量分析系统中需要支持复杂算法和保持实时性的特殊要求,研制了基于DSP与ARM构架的嵌入式电能质量分析系统的硬件平台和软件系统。重点分析了DSP与ARM的选型依据、结构特点、具体应用等。并且详细的介绍了硬件平台的各部分组成和电路原理图。随后,提出了该装置软件部分设计思想,其中重点介绍了DSP部分的FFT算法设计、ARM部分的UC/OS-II操作系统移植和MiniGUI图形界面开发。最后对论文的主要工作进行了总结,对以后可深入研究的方向进行了展望。
上传时间: 2013-05-22
上传用户:hw1688888
指令集仿真器是目前嵌入式系统研究中一个极其重要的领域,一个灵活高效且准确度高的仿真器不仅可以实现对嵌入式系统硬件环境的仿真,而且是现代微处理器结构设计过程中性能评估的重要工具. 仿真器的性能已经成为影响整个设计效率的重要因素,在现有的指令集仿真技术中,编译型仿真技术虽然可以获得高的仿真速度,但其对应用的假设过于严格,限制了其在商业领域中的应用;解释型仿真器虽被普遍使用,但其缺点也很明显,由于模拟过程中需要耗费大量时间用于指令译码,解释型模拟器速度往往很有限,使用性能较低。由此可见,如何减少仿真过程中的指令译码时间,是提高仿真器的性能的关键。 本文旨在提出一个指令集仿真器的原型,重点解决指令解码过程中的速度瓶颈,在其基础可以进行扩充和改进,以适应不同硬件平台的需要。文章首先从ARM指令集的指令功能和编码格式入手,通过分析和比较找出了一般常用指令的编码和实现规律,并在此基础上进行了高级语言的描述,其后提出了改进版解释型指令集仿真器的设计方案,包括为提高仿真器性能,减少译码时间,创新性的在流程设计中加入了预解码的步骤,同时用自己设计的压缩算法解决了因预解码产生大量译码信息而带来的内存过度消耗难题。接下来,描述了仿真器的实现,包括指令的取指、译码、执行等基本功能,并着重描述了如何通过划分存储域和存储块的方式模拟真实存储器的读写访问实现。 另外,需要特别指出的是,针对仿真器中普遍存在的调试难问题,本文从一线程序开发人员的角度,在调试模块的设计中除了断点设置、程序暂停、恢复等基本功能外,还添加了各类监视设备和程序跟踪的功能,以期能提高本仿真器的实用性。 在文章的结尾,提出了仿真器的验证方案,并按照该方案对仿真器进行了功能和性能上的验证,最后对进一步的工作进行了展望。
上传时间: 2013-08-02
上传用户:宋桃子
随着电力系统的迅速发展和电力电子技术的广泛应用,电能污染日益严重,电能质量问题已经成为电力部门及电力用户越来越关注的问题。电能质量的各项指标若偏离正常水平过大,会给发电、输变电和用电设备带来不同程度的危害。电能质量的好坏直接关系到国民经济的总体效益,因此对电能质量进行检测和分析从而提高和改善电能质量具有非常重要的意义。 本文首先介绍了电能质量的基本概念,对各种电能质量问题的分类、特征及产生原因和危害作了详细的阐述。通过对电能质量各项指标(供电电压偏差、频率偏差、公用电网谐波、三相电压不平衡度、电压波动与闪变)的分析,以传统的傅立叶变换理论为基础,针对目前电能质量分析的难点即对突变的、暂态的、非平稳的信号的检测与分类,提出了基于小波变换的暂态电能质量分析方法。利用小波变换模极大值原理检测信号奇异点作为是否发生暂态扰动的判据,克服了传统方法中无时域局部性的缺点。 在系统的研究了电能质量分析的相关理论和检测技术的基础上,针对电能质量分析系统中需要支持复杂算法和保持实时性的特殊要求,研制了基于DSP与ARM构架的嵌入式电能质量分析系统的硬件平台和软件系统。重点分析了DSP与ARM的选型依据、结构特点、具体应用等。并且详细的介绍了硬件平台的各部分组成和电路原理图。随后,提出了该装置软件部分设计思想,其中重点介绍了DSP部分的FFT算法设计、ARM部分的uC/OS-II操作系统移植和MiniGUI图形界面开发。最后对论文的主要工作进行了总结,对以后可深入研究的方向进行了展望。
上传时间: 2013-07-10
上传用户:ZJX5201314
智能控制器是智能断路器的核心,不仅具有普通脱扣器的各种保护功能,而且还具有实时参数显示、故障记忆和查询、自诊断等多项功能。在回顾和总结了智能断路器的发展历程后,讨论了当前智能断路器的发展趋势,提出了基于ARM的断路器智能控制器的研究。本论文介绍了断路器智能控制器的设计原理,同时重点阐述了断路器智能控制器的各项参数测量及保护原理和算法,并进行了具体的硬件和软件模块的设计,旨在实现断路器的智能保护。 本文涉及的断路器智能控制器,在硬件上以PHILIPS公司的ARM芯片LPC2294为核心处理器,主要进行数据的实时采集处理和断路器的故障保护。硬件设计采用了标准化模块设计方法,硬件电路尽可能选择标准化、模块化结构的典型电路,以便扩展。其中,液晶选用的是SMG240128A,键盘芯片选用的是ZLG7290。软件的编制采用模块化编程方法,每一个模块相对独立,完成特定功能,便于维护添加新功能。编程工具为ARM公司提供的ADS1.2。为了保证智能控制器各种保护功能的可靠实现,论文中对智能控制器的干扰源进行了分析,从硬件和软件两个方面采取了多项设计措施,提高了智能控制器的稳定性和可靠性。实践证明,论文中构建的断路器智能控制器结构简单,易于实现,可以满足系统需要,因此具有较高的实用价值。
上传时间: 2013-06-10
上传用户:yy307115118
指纹识别是在指纹图像上找到指纹的特征,通过计算机模糊比较的方法,把两个指纹的特征模板进行比较,计算出它们的相似程度,最终得到两个指纹的匹配结果。本文对现已存在的多种指纹识别算法进行编程比较,并对细化算法提出改进。同时采用基于ARM7TDMI内核的32位处理器S3C44B0作为主控制器,半导体电容传感器FPS200作为指纹数据采集设备,构建了自动指纹识别系统。论文完成主要工作如下: 1、指纹采集模块的设计:根据FPS200的相关寄存器资源和管脚特性,完成指纹传感器FPS200的电路设计;研究FPS200主要寄存器的功能和图像采集方式,给出FPS200在三种工作方式下的工作流程,并且对三种工作模式进行分析。 2、指纹识别算法研究:通过对现已存在的多种图像预处理算法进行编程实现和对比研究发现,细化后的图像多存在短线、断线、毛刺等干扰以及细化不彻底的现象,为此提出了新的修复算法:分析目标点周围纹线的走向趋势,选择去除或者保留周围的相连点,较好地解决了细化不彻底的问题;再对细化后的图像采用方形模板进行纹线跟踪,去除伪特征点,克服了逐步递进的纹线跟踪算法过于复杂、不易实现等问题。 3、采用Sansung公司基于ARM7TDMI内核的32位RISC处理器S3C44B0,构建了自动指纹识别系统。该系统主要包括电源管理部分、指纹图像采集模块、存储器模块、JTAG调试接口以及与外设连接的串行接口。硬件部分主要完成指纹采集模块接口的设计与开发,软件部分主要完成指纹图像采集程序、指纹识别算法程序和串口通信程序的开发,此外还通过串口实现指纹数据上传到上位机,在VB环境下实现了简易的人机交互软件,提供指纹图像的直观显示,用于对指纹识别程序进行测试,并对测试结果进行了分析。
上传时间: 2013-05-22
上传用户:Andy123456
随着半导体工艺的飞速发展和芯片设计水平的不断进步,ARM微处理器的性能得到大幅度地提高,同时其芯片的价格也在不断下降,嵌入式系统以其独有的优势,己经广泛地渗透到科学研究和日常生活的各个方面。 本文以ARM7 LPC2132处理器为核心,结合盖革一弥勒计数管对Time-To-Count辐射测量方法进行研究。ARM结构是基于精简指令集计算机(RISC)原理而设计的,其指令集和相关的译码机制比复杂指令集计算机要简单得多,使用一个小的、廉价的ARM微处理器就可实现很高的指令吞吐量和实时的中断响应。基于ARM7TDMI-S核的LPC2132微处理器,其工作频率可达到60MHz,这对于Time-To-Count技术是非常有利的,而且利用LPC2132芯片的定时/计数器引脚捕获功能,可以直接读取TC中的计数值,也就是说不再需要调用中断函数读取TC值,从而大大降低了计数前杂质时间。本文是在我师兄吕军的《Time-To-Count测量方法初步研究》基础上,使用了高速的ARM芯片,对基于MCS-51的Time-To-Count辐射测量系统进行了改进,进一步论证了采用高速ARM处理器芯片可以极大的提高G-M计数器的测量范围与测量精度。 首先,讨论了传统的盖革-弥勒计数管探测射线强度的方法,并指出传统的脉冲测量方法的不足。然后讨论了什么是Time-To-Count测量方法,对Time-To-Count测量方法的理论基础进行分析。指出Time-To-Count方法与传统的脉冲计数方法的区别,以及采用Time-To-Count方法进行辐射测量的可行性。 接着,详细论述基于ARM7 LPC2132处理器的Time-To-Count辐射测量仪的原理、功能、特点以及辐射测量仪的各部分接口电路设计及相关程序的编制。 最后得出结论,通过高速32位ARM处理器的使用,Time-To-Count辐射测量仪的精度和量程均得到很大的提高,对于Y射线总量测量,使用了ARM处理器的Time-To-Count辐射测量仪的量程约为20 u R/h到1R/h,数据线性程度也比以前的Time-To-CotJnt辐射测量仪要好。所以在使用Time-To-Count方法进行的辐射测量时,如何减少杂质时间以及如何提高计数前时间的测量精度,是决定Time-To-Count辐射测量仪性能的关键因素。实验用三只相同型号的J33G-M计数管分别作为探测元件,在100U R/h到lR/h的辐射场中进行试验.每个测量点测量5次取平均,得出随着照射量率的增大,辐射强度R的测量值偏小且与辐射真实值之间的误差也随之增大。如果将测量误差限定在10%的范围内,则此仪器的量程范围为20 u R/h至1R/h,量程跨度近六个数量级。而用J33型G-M计数管作常规的脉冲测量,量程范围约为50 u R/h到5000 u R/h,充分体现了运用Time-To-Count方法测量辐射强度的优越性,也从另一个角度反应了随着计数前时间的逐渐减小,杂质时间在其中的比重越来越大,对测量结果的影响也就越来越严重,尽可能的减小杂质时间在Time-To-Count方法辐射测量特别是测量高强度辐射中是关键的。笔者用示波器测出此辐射仪器的杂质时间约为6.5 u S,所以在计算定时器值的时候减去这个杂质时间,可以增加计数前时间的精确度。通过实验得出,在标定仪器的K值时,应该在照射量率较低的条件下行,而测得的计数前时间是否精确则需要在照射量率较高的条件下通过仪器标定来检验。这是因为在照射量率较低时,计数前时间较大,杂质时间对测量结果的影响不明显,数据线斜率较稳定,适宜于确定标定系数K值,而在照射量率较高时,计数前时间很小,杂质时间对测量结果的影响较大,可以明显的在数据线上反映出来,从而可以很好的反应出仪器的性能与量程。实验证明了Time-To-Count测量方法中最为关键的环节就是如何对计数前时间进行精确测量。经过对大量实验数据的分析,得到计数前时间中的杂质时间可分为硬件杂质时间和软件杂质时间,并以软件杂质时间为主,通过对程序进行合理优化,软件杂质时间可以通过程序的改进而减少,甚至可以用数学补偿的方法来抵消,从而可以得到比较精确的计数前时间,以此得到较精确的辐射强度值。对于本辐射仪,用户可以选择不同的工作模式来进行测量,当辐射场较弱时,通常采用规定次数测量的方式,在辐射场较强时,应该选用定时测量的方式。因为,当辐射场较弱时,如果用规定次数测量的方式,会浪费很多时间来采集足够的脉冲信号。当辐射场较强时,由于辐射粒子很多,产生脉冲的频率就很高,规定次数的测量会加大测量误差,当选用定时测量的方式时,由于时间的相对加长,所以记录的粒子数就相对的增加,从而提高仪器的测量精度。通过调研国内外先进核辐射测量仪器的发展现状,了解到了目前最新的核辐射总量测量技术一Time-To-Count理论及其应用情况。论证了该新技术的理论原理,根据此原理,结合高速处理器ARM7 LPC2132,对以G-计数管为探测元件的Time-To-Count辐射测量仪进行设计。论文以实验的方法论证了Time-To-Count原理测量核辐射方法的科学性,该辐射仪的量程和精度均优于以前以脉冲计数为基础理论的MCS-51核辐射测量仪。该辐射仪具有量程宽、精度高、易操作、用户界面友好等优点。用户可以定期的对仪器的标定,来减小由于电子元件的老化对低仪器性能参数造成的影响,通过Time-To-Count测量方法的使用,可以极大拓宽G-M计数管的量程。就仪器中使用的J33型G-M计数管而言,G-M计数管厂家参考线性测量范围约为50 u R/h到5000 u R/h,而用了Time-To-Count测量方法后,结合高速微处理器ARM7 LPC2132,此核辐射测量仪的量程为20 u R/h至1R/h。在允许的误差范围内,核辐射仪的量程比以前基于MCS-51的辐射仪提高了近200倍,而且精度也比传统的脉冲计数方法要高,测量结果的线性程度也比传统的方法要好。G-M计数管的使用寿命被大大延长。 综上所述,本文取得了如下成果:对国内外Time-To-Count方法的研究现状进行分析,指出了Time-To-Count测量方法的基本原理,并对Time-T0-Count方法理论进行了分析,推导出了计数前时间和两个相邻辐射粒子时间间隔之间的关系,从数学的角度论证了Time-To-Count方法的科学性。详细说明了基于ARM 7 LPC2132的Time-To-Count辐射测量仪的硬件设计、软件编程的过程,通过高速微处理芯片LPC2132的使用,成功完成了对基于MCS-51单片机的Time-To-Count测量仪的改进。改进后的辐射仪器具有量程宽、精度高、易操作、用户界面友好等特点。本论文根据实验结果总结出了Time-To-Count技术中的几点关键因素,如:处理器的频率、计数前时间、杂质时间、采样次数和测量时间等,重点分析了杂质时间的组成以及引入杂质时间的主要因素等,对国内核辐射测量仪的研究具有一定的指导意义。
标签: TimeToCount ARM 辐射测量仪
上传时间: 2013-06-24
上传用户:pinksun9