开关磁阻电机驱动系统(SRD)是一种新型交流驱动系统,以结构简单、坚固耐用、成本低廉、控制参数多、控制方法灵活、可得到各种所需的机械特性,而备受瞩目,应用日益广泛.并且SRD在宽广的调速范围内均具有较高的效率,这一点是其它调速系统所不可比拟的.但开关磁阻电机(SRM)的振动与噪声比较大,这影响了SRD在许多领域的应用.本文针对上述问题进行了研究,提出了一种新型齿极结构,可有效降低开关磁阻电机的振动与噪声.通过电磁场有限元计算可看出,在新型齿极结构下,导致开关磁阻电机振动与噪声的径向力大为减小,尤其是当转子极相对定子极位于关断位置时,径向力大幅度地减小,并改善了径向力沿定子圆周的分布,使其波动减小,从而减小了定子铁心的变形与振动,进而降低了开关磁阻电机的噪声.静态转矩因转子极开槽也略微减小,但对电机的效率影响不大.开关磁阻电机因磁路的饱和导致参数的非线性,又因在不同控制方式下是变结构的.这使得开关磁阻电机的控制非常困难.经典的线性控制方法如PI、PID等方法用于开关磁阻电机的控制,效果不好.其它的控制方法如滑模变结构控制、状态空间控制方法等可取得较好的控制效果但大都比较复杂,实现起来比较困难.而智能控制方法如模糊控制本身为一种非线性控制方法,对于非线性、变结构、时变的被控对象均可取得较好的控制效果且不需知道被控对象的数学模型,这对于很难精确建模的开关磁阻电机来说尤其适用.同时,模糊控制实现比较容易.但对于变参数、变结构的开关磁阻电机来说固定参数的模糊控制在不同条件下其控制效果难以达到最优.为取得最优的控制效果,该文采用带修正因子的自组织模糊控制器,采用单纯形加速优化算法通过在线调整参数,达到了较好的控制效果.仿真结果证明了这一点.
上传时间: 2013-05-16
上传用户:大三三
船舶气象仪是一套船载的自动化海洋气象观测系统,该系统广泛的布置在各种船只上,可以获得船只经过的海域内的风、湿、温、气压、降雨等气象参数。通过对海洋气象环境实时的掌握,能够使船舶航行安全、省时、经济,并使因灾害性天气造成的损失减小到最低限度。通过对海洋气象数据的存储、统计,对我国观测海洋环境、研究海洋、开发海洋、利用海洋都有着重要的意义。 现代测控系统除了具有高性能的数据采集、信号处理、I/O和通信接口以外,通常均需具备良好的人机接口、友好的用户界面和强大的网络功能等。ARM架构的嵌入式处理器和嵌入式Linux操作系统由于其优异的性能和很高的性价比,已经被广泛地应用到各种电子产品的设计当中,并受到愈来愈多的自动化设备和智能仪表设计人员的青睐。 本课题主要研究基于ARM+Linux架构的嵌入式船舶气象仪的设计与开发。系统硬件平台选用ATMEL公司的AT91RM9200处理器,扩展了64M SDRAM和8M NAND FLASH,同时扩展了外围通信设备接口包括通用串行口、CAN总线接口、网络接口和人机交互接口等;并根据实际环境需要,进行了传感器的选型。 软件平台的设计主要涉及了U-Boot引导装载程序的建立,同时根据开发平台的资源,配置和裁剪Linux的内核,并编写、添加源代码中没有的驱动程序,如AD、键盘、CAN总线控制器等,重新编译内核,下载到开发平台。并在此基础上,进行了应用程序的编写。同时深入研究了嵌入式Linux下的图形界面,将图形界面系统MiniGUI移植到Linux系统中,设计了较完善、友好的图形用户界面,大大方便了用户的操作。
上传时间: 2013-06-12
上传用户:天大地大
温室技术是我国实现农业信息化的重要环节,温度是温室中的重要环境参数。实时控制是指在规定的时间内,系统必须做出相应的响应,是现代温室控制发展的更高要求。随着精细农业的发展,传统的大棚已经不能满足现代高精度、快速采集及响应的要求,由于温度的滞后性和难调控性,温度实时控制一直是温室控制的一大难题。 本课题整合了CPID与ARM的优点,提出运用CPID硬件来实现数据采集,移植实时操作系统到ARM来实现复杂算法控制,采用高精度数字传感器DS18820,并设计出混合PID模糊控制器来实现温室的变温管理,这对于现代温室的智能化控制有着十分重要的实际意义。较传统温室,优点在于(1)它改变以往依靠单片机软件来实现传感器周期性采集,改用CPID硬件产生数字传感器所需的读写时序,这种“以硬代软”的方案实时性好,且大大避免了软件运行时的不稳定性、系统冗余等先天缺陷。(2)操作系统能实现多任务、多线程以及友好的人机界面。 试验以华中农业大学的华北型机械通风式连栋塑料温室为试验模型,选择了ALTERA公司的EPM7128SLC84-15芯片和SAMSUNG公司的S3C44BOX芯片为目标板,以PC机为宿主机,设计了实时温度控制平台。 主要工作: (1)概述了温度实时测控的必要性并介绍了CPLD、ARM技术及嵌入式实时操作系统的发展。 (2)介绍了温度采集模块及CPLD与ARM通讯接口模块的设计。 (3)通过ARM存储模块、LCD显示模块、串口模块、Rt18019AS网口模块、uClinux操作系统模块等系统完成了本试验平台。 (4)介绍混合PID模糊控制算法并通过Simulink工具箱进行了仿真,得出混合PID模糊控制器较经典PID控制具有更快的动态响应、更小超调、抗干扰强的结论。 (5)最后,通过试验数据验证了整套系统实时采集的稳定性及可靠性,指出了本课题的不足之处和待改善的问题。
上传时间: 2013-04-24
上传用户:songyuncen
条码技术是随通信技术,计算机技术的发展应运而生的自动识别技术的一种。根据二进制编码规则对应形成的由对光反映率不同的条、空组成的图形,经光电扫描识读器扫描,将采集的信息经处理器进行处理,从而达到自动识别的目的。条码技术自出现以来,得到了人们的普遍关注,发展十分迅速,已广泛用于交通运输、商业、医疗卫生、制造业、仓储业、邮电业等领域,极大的提高了数据采集和信息处理的速度,提高了工作效率,并为管理的科学化、信息化和现代化作出了贡献。目前常用的是一维条码,但一维条码最大的弱点就是表征的信息量是有限的,需要依赖外部数据库支持,离开这个数据库条码本身就没有意义了。二维条码克服了这一弱点,它是在一维条码基础上形成的高密度、高信息量的条码,可以将大量信息在小区域内编码,它本身就是一个完整的数据文件,是实现证件、卡片等信息存储、携带并可以通过机器自动识读的理想方法。 本课题采用流行的嵌入式技术,采用S3C44BOX作为二维条码PDF417识别器的数据采集终端,该终端内嵌μC/OS-Ⅱ操作系统,将应用分解成多任务,简化了应用系统软件设计;使控制系统的实时性得到了保证,提高了系统的可靠性和稳定性;同时也增强了系统的可扩展性和产品开发的可延续性。 本课题的主要任务是PDF417(Portable Data File)二维条码图像的识别。先由扫描仪或照相机获取二维条码的原始图像,再由PC(Personal Computer)计算机中的图象处理程序对图象数据进行处理,然后在条码中定位单个码字符号的图像,利用算法识别出单个码字符号。本文在条码图像的预处理方面进行了算法改进,取得了较好的成果,能够有效的去掉干扰噪声和图像定位。通过实验结果表明:本课题研究的二维条码识别系统是比较令人满意的。
上传时间: 2013-08-01
上传用户:caiiicc
随着半导体工艺的飞速发展和芯片设计水平的不断进步,ARM微处理器的性能得到大幅度地提高,同时其芯片的价格也在不断下降,嵌入式系统以其独有的优势,己经广泛地渗透到科学研究和日常生活的各个方面。 本文以ARM7 LPC2132处理器为核心,结合盖革一弥勒计数管对Time-To-Count辐射测量方法进行研究。ARM结构是基于精简指令集计算机(RISC)原理而设计的,其指令集和相关的译码机制比复杂指令集计算机要简单得多,使用一个小的、廉价的ARM微处理器就可实现很高的指令吞吐量和实时的中断响应。基于ARM7TDMI-S核的LPC2132微处理器,其工作频率可达到60MHz,这对于Time-To-Count技术是非常有利的,而且利用LPC2132芯片的定时/计数器引脚捕获功能,可以直接读取TC中的计数值,也就是说不再需要调用中断函数读取TC值,从而大大降低了计数前杂质时间。本文是在我师兄吕军的《Time-To-Count测量方法初步研究》基础上,使用了高速的ARM芯片,对基于MCS-51的Time-To-Count辐射测量系统进行了改进,进一步论证了采用高速ARM处理器芯片可以极大的提高G-M计数器的测量范围与测量精度。 首先,讨论了传统的盖革-弥勒计数管探测射线强度的方法,并指出传统的脉冲测量方法的不足。然后讨论了什么是Time-To-Count测量方法,对Time-To-Count测量方法的理论基础进行分析。指出Time-To-Count方法与传统的脉冲计数方法的区别,以及采用Time-To-Count方法进行辐射测量的可行性。 接着,详细论述基于ARM7 LPC2132处理器的Time-To-Count辐射测量仪的原理、功能、特点以及辐射测量仪的各部分接口电路设计及相关程序的编制。 最后得出结论,通过高速32位ARM处理器的使用,Time-To-Count辐射测量仪的精度和量程均得到很大的提高,对于Y射线总量测量,使用了ARM处理器的Time-To-Count辐射测量仪的量程约为20 u R/h到1R/h,数据线性程度也比以前的Time-To-CotJnt辐射测量仪要好。所以在使用Time-To-Count方法进行的辐射测量时,如何减少杂质时间以及如何提高计数前时间的测量精度,是决定Time-To-Count辐射测量仪性能的关键因素。实验用三只相同型号的J33G-M计数管分别作为探测元件,在100U R/h到lR/h的辐射场中进行试验.每个测量点测量5次取平均,得出随着照射量率的增大,辐射强度R的测量值偏小且与辐射真实值之间的误差也随之增大。如果将测量误差限定在10%的范围内,则此仪器的量程范围为20 u R/h至1R/h,量程跨度近六个数量级。而用J33型G-M计数管作常规的脉冲测量,量程范围约为50 u R/h到5000 u R/h,充分体现了运用Time-To-Count方法测量辐射强度的优越性,也从另一个角度反应了随着计数前时间的逐渐减小,杂质时间在其中的比重越来越大,对测量结果的影响也就越来越严重,尽可能的减小杂质时间在Time-To-Count方法辐射测量特别是测量高强度辐射中是关键的。笔者用示波器测出此辐射仪器的杂质时间约为6.5 u S,所以在计算定时器值的时候减去这个杂质时间,可以增加计数前时间的精确度。通过实验得出,在标定仪器的K值时,应该在照射量率较低的条件下行,而测得的计数前时间是否精确则需要在照射量率较高的条件下通过仪器标定来检验。这是因为在照射量率较低时,计数前时间较大,杂质时间对测量结果的影响不明显,数据线斜率较稳定,适宜于确定标定系数K值,而在照射量率较高时,计数前时间很小,杂质时间对测量结果的影响较大,可以明显的在数据线上反映出来,从而可以很好的反应出仪器的性能与量程。实验证明了Time-To-Count测量方法中最为关键的环节就是如何对计数前时间进行精确测量。经过对大量实验数据的分析,得到计数前时间中的杂质时间可分为硬件杂质时间和软件杂质时间,并以软件杂质时间为主,通过对程序进行合理优化,软件杂质时间可以通过程序的改进而减少,甚至可以用数学补偿的方法来抵消,从而可以得到比较精确的计数前时间,以此得到较精确的辐射强度值。对于本辐射仪,用户可以选择不同的工作模式来进行测量,当辐射场较弱时,通常采用规定次数测量的方式,在辐射场较强时,应该选用定时测量的方式。因为,当辐射场较弱时,如果用规定次数测量的方式,会浪费很多时间来采集足够的脉冲信号。当辐射场较强时,由于辐射粒子很多,产生脉冲的频率就很高,规定次数的测量会加大测量误差,当选用定时测量的方式时,由于时间的相对加长,所以记录的粒子数就相对的增加,从而提高仪器的测量精度。通过调研国内外先进核辐射测量仪器的发展现状,了解到了目前最新的核辐射总量测量技术一Time-To-Count理论及其应用情况。论证了该新技术的理论原理,根据此原理,结合高速处理器ARM7 LPC2132,对以G-计数管为探测元件的Time-To-Count辐射测量仪进行设计。论文以实验的方法论证了Time-To-Count原理测量核辐射方法的科学性,该辐射仪的量程和精度均优于以前以脉冲计数为基础理论的MCS-51核辐射测量仪。该辐射仪具有量程宽、精度高、易操作、用户界面友好等优点。用户可以定期的对仪器的标定,来减小由于电子元件的老化对低仪器性能参数造成的影响,通过Time-To-Count测量方法的使用,可以极大拓宽G-M计数管的量程。就仪器中使用的J33型G-M计数管而言,G-M计数管厂家参考线性测量范围约为50 u R/h到5000 u R/h,而用了Time-To-Count测量方法后,结合高速微处理器ARM7 LPC2132,此核辐射测量仪的量程为20 u R/h至1R/h。在允许的误差范围内,核辐射仪的量程比以前基于MCS-51的辐射仪提高了近200倍,而且精度也比传统的脉冲计数方法要高,测量结果的线性程度也比传统的方法要好。G-M计数管的使用寿命被大大延长。 综上所述,本文取得了如下成果:对国内外Time-To-Count方法的研究现状进行分析,指出了Time-To-Count测量方法的基本原理,并对Time-T0-Count方法理论进行了分析,推导出了计数前时间和两个相邻辐射粒子时间间隔之间的关系,从数学的角度论证了Time-To-Count方法的科学性。详细说明了基于ARM 7 LPC2132的Time-To-Count辐射测量仪的硬件设计、软件编程的过程,通过高速微处理芯片LPC2132的使用,成功完成了对基于MCS-51单片机的Time-To-Count测量仪的改进。改进后的辐射仪器具有量程宽、精度高、易操作、用户界面友好等特点。本论文根据实验结果总结出了Time-To-Count技术中的几点关键因素,如:处理器的频率、计数前时间、杂质时间、采样次数和测量时间等,重点分析了杂质时间的组成以及引入杂质时间的主要因素等,对国内核辐射测量仪的研究具有一定的指导意义。
标签: TimeToCount ARM 辐射测量仪
上传时间: 2013-06-24
上传用户:pinksun9
根据机械电子工程类专业测控实验教学平台数据采集的需要,在综合考虑成本和性能基础上,提出以为主处理芯片的数据采集卡设计方案。 该方案的主要特点是,使用基于ARM7TDMI内核的,工作主频最高可达44MHz;内置高性能的ADC和DAC模块,采样速度最高可达1MSPS,采样精度为12位;模拟信号输入通道最多可达16路,模拟信号输出通道最高可达4路;具有丰富的外设资源可以使用,GPIO口数目最高可达40个。 在设计中采用了模块化思想,将系统分为四个功能模块:主模块的功能是控制ADC进行信号采集和DAC进行模拟信号输出;模拟信号模块的作用是对传感器输入信号和DAC输出波形进行简单的调理;数字信号模块引出32路数字I/O口,可用于需要采集数字量的场合;JTAG模块可进行程序的调试和下载,对于数据采集卡的二次开发有很大的作用。 在本数据采集卡上,尝试进行了μC/OSⅡ操作系统的移植,成功实现了四个任务的管理。在实际应用中,工作数小时仍可保持正常的运行。 为检验数据采集卡的串口通讯能力,利用LabVIEW程序读取下位机串口发送的已采集到的数据,进行波形图绘制。 为检验本数据采集卡的ADC和DAC精度,设计实验利用DAC输出波形,并利用ADC将采集到的波形通过LabVIEW显示,测量结果显示两者电压值误差均在可允许的3LSB(Least Significant Bit)范围内,表明本数据采集卡已基本实现预期设计指标。
上传时间: 2013-04-24
上传用户:bruce
自“9.11”后,随着人们对安防需求的升级,门禁控制系统得到日益广泛的应用,不断提高门禁系统的安全性成为研究的重要课题。第四代门禁系统结合了人体生物特征识别技术,利用人体本身具有的物理特征(如指纹、虹膜、脸型、掌纹等)或行为特征(如步态、签名等)来确定人的身份,取代或加强传统的身份识别方法。 论文采用掌形识别为控制方案,基于ARM920T内核的EP9315芯片为门禁系统CPU,设计和调试了系统的硬件平台。 论文研究了掌形识别算法,进行了三方面的工作。 首先研究了掌形中的手形特征,提出了一种基于骨架特征的手形识别算法,很好的克服了手指旋转给识别带来的干扰。 然后研究了掌形中的掌纹特征,通过系列图像处理,分离出手掌的三条主线,提取主线端点,并在主线上等间隔采样,利用端点和采样点进行匹配,拥有很高的识别率。 最后结合手形与掌纹特征,实现掌形识别。依据手形特征对掌形库进行粗分类,利用掌纹特征进行匹配,算法拥有很快的识别速度与稳定较高的识别率。对分类规则提出了新思路与方法。 论文还提出了基于ARM的门禁系统方案。成功设计了以基于ARM920T内核的EP9315芯片为CPU的最小系统,设计PCB图并制板,最后调试了系统的底层电路。 论文的研究设计工作,通过提高掌形识别算法的识别率,达到了提高门禁系统安全性的目的;ARM平台的设计与调试,在工程实际中有参考价值。
上传时间: 2013-04-24
上传用户:zsjzc
嵌入式系统是以应用为中心,以计算机技术为基础,软件硬件均可裁剪,能满足应用系统对功能、可靠性、成本、体积、功耗有严格要求的专用计算机系统。随着信息技术、计算机技术、网络技术的发展,嵌入式技术得到了广阔的发展空间。其中ARM微处理器凭借体积小、功耗低、成本低而性能高等优点,己被成功应用于移动通信、手持设备、多媒体数字消费等诸多嵌入式领域。ARM也逐步成为了嵌入式的代名词。另外,嵌入式操作系统经过多年的发展目前也已十分丰富,特别是自由免费软件Linux的出现。Linux凭借源码开放、内核可裁减、功能丰富、运行稳定等优势,被移植到了多种不同结构的CPU和硬件平台上,且得到了大量优秀开发工具软件的支持。 本论文的目的是建立一个以ARM为基础的嵌入式linux系统控制平台.本文详细介绍了整个系统平台的研究开发和设计实现过程。论文首先介绍ARM和嵌入式Linux操作系统的特点和当前的发展概况。再阐述了以AT91RM19200为核心的开发平台的硬件组成,详细研究了硬件平台设计过程,平台的外围配置包括存储模块、串口模块、 CAN总线模块、以太网模块、USB模块及JTAG调试模块、实时模块等多种功能模块,包括各个功能模块的芯片选择和原理图,还对硬件电路设计的注意事项进行了探讨。再以此硬件平台为基础,详细的论述了嵌入式Linux系统开发流程以及移植到具体硬件平台需要完成的工作,如U-BOOT的移植、Linux内核的编译与裁减、文件系统的制作、驱动程序的编写等。最后对系统性能进行了测试,通过测试表明平台达到设计要求,性能稳定。
上传时间: 2013-04-24
上传用户:hooooor
变电站电压无功综合控制是通过自动调节有载变压器的分接头和投切并联补偿电容器组来实现的,它是确保电压质量和无功平衡、提高供电网可靠性和经济性的重要措施。采用九区图控制策略的电压无功综合控制,实际运行时存在着频繁调节变压器分接头和投切电容器组的缺陷,甚至可能会出现震荡现象。 本文针对上述不足,根据有功功率和无功功率的负荷预测曲线,以降损收益最大为适配值函数,以电压约束、电气极限约束和控制约束为约束条件,提出了一种改进的禁忌搜索算法。引入最低收益阈值来限制调节次数的增加,在此基础上建议了一种确定最佳调整次数的方法。还建议了一种有约束线性最小二乘算法,基于变电站内的量测数据以及变压器的参数来估计系统电压和系统阻抗参数。算例结果表明建议的方法是可行的,并且具有可以有效地减少调节次数的特点。基于ARM的LPC2292微控制器和嵌入式实时操作系统(μC/OS-II),采用ADS1.2开发工具进行编程,实现了变电站内电压无功综合控制功能。软件模块开发主要包括:嵌入式实时操作系统(μC/OS-II)和图形用户界面GUI移植,数据读取任务,数据处理任务,电压无功控制任务,基于GPRS/CDMA的通讯任务、键盘扫描和液晶显示任务等。采用信号发生器产生电能信号,采用继电器的动作模拟变压器分接头档位的调节和电容器组的投切,构建了一个变电站内的电压无功控制模拟测试台,对提出的设计方案进行了全面的功能测试,测试结果表明提出的设计方案是可行的。
上传时间: 2013-04-24
上传用户:pinksun9
H.264作为新一代视频编码标准,相比上一代视频编码标准MPEG2,在相同画质下,平均节约64﹪的码流。该标准仅设定了码流的语法结构和解码器结构,实现灵活性极大,其规定了三个档次,每个档次支持一组特定的编码功能,并支持一类特定的应用,因此。H.264的编码器的设计可以根据需求的不同而不同。 H.264虽然具有优异的压缩性能,但是其复杂度却比一般编码器高的多。本文对H.264进行了编码复杂度分析,并统计了整个软件编码中计算量的分布。H.264中采用了率失真优化算法,提高了帧内预测编码的效率。在该算法下进行帧内预测时,为了得到一个宏块的预测模式,需要进行592次率失真代价计算。因此为了降低帧内预测模式选择的计算复杂度,本文改进了帧内预测模式选择算法。实践证明,在PSNR值的损失可以忽略不计的情况下,该算法相比原算法,帧内编码时间平均节约60﹪以上,对编码的实时性有较大帮助。 为了实现实时编码,考虑到FPGA的高效运算速度和使用灵活性,本文还研究了H.264编码器基本档次的FPGA实现。首先研究了H.264编码器硬件实现架构,并对影响编码速度,且具有硬件实现优越性的几个重要部分进行了算法研究和FPGA.实现。本文主要研究了H.264编码器中整数DCT变换、量化、Zig-Zag扫描、CAVLC编码以及反量化、逆整数DCT变换等部分。分别对这些模块进行了综合和时序仿真,并将验证后通过的系统模块下载到Xilinx virtex-Ⅱ Pro的FPGA中,进行了在线测试,验证了该系统对输入的残差数据实时压缩编码的功能。 本文对H.264编码器帧内预测模式选择算法的改进,算法实现简单,对软件编码的实时性有很大帮助。本文对在单片FPGA上实现H.264编码器做出了探索性尝试,这对H.264编码器芯片的设计有着积极的借鉴性。
上传时间: 2013-05-25
上传用户:refent