本论文围绕提高高速变频电机设计水平和促进电机CAD技术发展这一主题,对高速变频电机电磁设计和电机智能设计方法进行了深入的研究。 1.分析了集肤效应对高速变频电机设计的影响。针对高速变频电机转子导体中集肤效应现象较为严重的特点,用有限元法对不同转子槽型在不同频率时的集肤效应进行了分析,并提出了一种利用有限元法的精确计算结果和人工神经网络的非线性映射能力计算电机转子集肤效应系数的新方法,能够快速有效的给出转子不同槽型不同频率时的集肤效应系数。 2.研究了电压型SPWM变频器输出时间谐波频谱以及调制参数对输出谐波的影响,为精确分析高速变频电机的谐波效应和选择适当的变频器提供参考。分析了时间谐波对高速变频电机效率、功率因数及输出转矩的影响,对提高高速变频电机设计精度具有指导意义。 3.从电磁设计的角度探讨了高速变频电机设计过程,所得出的结论对于高速变频电机设计具有指导意义。论文还提出了一个可以考虑时间谐波效应的高速变频电机分析模型,在此基础上编制了高速变频电机电磁仿真程序。 4.前人工作的基础上,进一步研究了人工智能技术在电机设计中的应用。针对电机设计不同阶段的特点,首次提出了面向电机设计过程的智能设计集成推理体系。 5.从设计过程优化的角度,研究了电机设计状态评价问题,建立了电机设计状态综合评价模型,能够对电机设计的不同层次、不同阶段及时进行设计状态评价。@ @ 6.研究了基于实例推理技术在电机初始方案设计过程中的应用,首次提出了一种基于知识引导和相似优先的混合型实例检索算法,给出了基于BP神经网络的实例相似度判定机制,可以提高检索效率。 7.针对传统电机调整设计专家系统的缺陷,提出了一种新型的基于神经网络推理机制的电机调整设计混合型专家系统模型,该模型将专家系统技术与神经网络、电机综合设计方法有效结合,具有并行推理和系统自学习能力,解决了调整设计过程中调整力度难以确定的问题。 8.论支还研究了基于遗传算法的电机优化设计方法。针对遗传算法中普遍存在的早熟收敛和搜索效率低的现象,提出了一种改进遗传算法一变焦自适应遗传算法,有助于提高优化效率和克服早熟。 9.在上述工作的基础上,首次提出了支持远程设计的电机智能设计集成平台的概念,给出了基于软总线和组件机制的平台实现模型。并对集成平台中电机模型集成技术、基于Objectorx的电机图形绘制技术和基于Web的远程设计支持技术等关键技术进行了讨论。
上传时间: 2013-04-24
上传用户:dbs012280
变电站是电力系统的一个重要环节,它的运行情况直接影响到电力系统的可靠、经济运行。一个变电站运行情况的优劣,在很大程度上取决于其二次设备的工作性能。现在的变电站有三种运行模式:一种是常规变电站,一种是部分实现微机管理、具有一定自动化水平的变电站,再有一种是实现无人值班、全面微机化的综合自动化变电站。在常规变电站中,其继电保护、中央信号系统、变送器、远动及故障录波装置等所有二次设备都是采用传统的分立式设备,而且站内配备大量控制、保护、记录用屏盘。使装备设置复杂,占地面积大,日常维护管理工作繁重。这种常规变电站的一个致命弱点是不具备自诊断能力,对二次系统本身的故障无法监测。因此,这种常规变电站已逐渐被淘汰。 要提高变电站运行的可靠性及经济性,一个最有效的方法就是提高变电站运行管理的自动化水平,实现变电站的综合自动化,以微机化的新型二次设备取代传统使用的分立式设备。开发集保护、控制、监测及远动等功能为一体的新型设备,并实现设备共享、信息资源共享,使变电站设计简捷、布局紧凑,运行更加可靠安全。 随着微型计算机技术、集成电路技术的迅速发展,原来越多的新技术和新产品应用到变电站的二次设备中去,使变电站的二次设备得到不断的更新换代。该项研究把一种新型的低压电能量测量芯片与高性能的数字信号处理器(DSP)结合起来,利用DSP体积小、功能强、功耗低、速度快、性价比高等优点,设计出新型的变电站线路测控单元,实现对高压线路的测量、监视和控制,这种新型的二次设备比传统的二次设备具有更高的精度和更快的相应速度。 与此同时,网络理论和技术的发展,也使变电站监控系统的结构发生了很大的变化,由原来的集中控制型逐步过渡到功能分散、模块化的分散网络型,通过现场总线,使主控室和现场之间的联系变成了串行通信联系,从而提高的系统的可靠性和可维护性。CAN总线应用于变电站的监控系统中,组成变电站的数据通信网络,可以提高系统的抗干扰能力和容错能力。 该文就以上的两个方面进行研究和设计,主要内容包括:一是在简单介绍新型电能测量芯片和DSP的基本知识的基础上,提出了一个变电站测控单元的设计方案,并从从硬件和软件两个方面进行了详细的介绍,主要部分是对测量模块的设计;二是系统的通信接口模块设计,从硬件和软件方面详细的介绍了通信模块的三种不同的通信接口的设计,分别是RS-232串行通信、RS-485总线通信、CAN总线通信;三是在分析现代测控系统发展历史,指出了现场总线测控系统的优越性;四是设计出的测控系统单元的基础上,利用CAN现场总线构建变电站的综合监控系统。 该文提出的方案、技术以及结论对于变电站监控系统和自综合动化系统的研究开发、工程设计都具有实际的参考意义。
上传时间: 2013-04-24
上传用户:fhzm5658
超级单片机工具集,单片机相关的小软件集合!
标签: 超级单片机
上传时间: 2013-07-09
上传用户:面具爱人丿
常用ARM7TDMI(-S)指令集及汇编,
上传时间: 2013-06-28
上传用户:jhksyghr
PROTEUS教程合集pdf文件,其中包括一些proteus的用法,和一部分元器件中英文对照,等等……
上传时间: 2013-04-24
上传用户:gokk
C语言程序_300实例集C语言程序_300实例集
上传时间: 2013-08-03
上传用户:asd_123
抽油机井工况监测是石油生产过程中非常重要的环节,可以为油井提高泵效、高效管理提供可靠依据。随着石油工业的迅速发展,传统的人工操作远远不能满足现代化石油生产的要求。将远程监测系统应用于油井工况监测,可以降低工人劳动强度,提高生产效率和油田管理水平。针对目前已有油井工况监测系统存在的不足,本文研制出一种集计算机技术、电子技术和通信技术于一身、功能完善、可靠性高、成本低廉的抽油机井工况远程监测系统。 示功图是常用的用于判断抽油机井工作状况的方法,它是抽油机光杆在作往复运动的一个周期中,光杆相对位移与载荷的对应关系曲线。传统的利用拉线位移传感器获取位移的方式,不能实现长期连续的监测。本系统采用加速度传感器作为冲次传感器,获取每个周期的起始点,再利用拉线位移传感器对一个周期中按时间等分的点的位移进行标定,既解决了拉线位移不能长期连续监测的问题,又保证了位移的精度。 本系统由工况传感器、数据中继单元、数据中心和手持机四部分组成。安装在抽油井上的工况传感器定时获取并存储示功图数据,定时将数据发送到数据中继单元。由数据中继单元将多个工况传感器的示功图数据集中后,通过远程网络传送到数据中心。数据中心实现对所有示功图数据的存储、查询、分析和打印,并可以通过网络实现数据共享。手持机用于对工况传感器进行设置和标定,并可以现场获取示功图。 硬件电路采用低功耗设计方法,使用低电压、低功耗的基于ARM7内核的LPC2138/2148微处理器及微功率无线数传模块,将硬件电路功耗降到最低。采用SD卡作为存储器,增加了数据存储容量和数据可靠性。采用单轴加速度传感器ADXL105作为冲次传感器,具有高精度、低功耗、高可靠性的优点。CDMA模块采用基于CDMA1X数据通信网络的H7710,组成高速、永远在线、透明数据传输的数据通信网络。 软件设计遵循模块化设计思想,既考虑到各模块功能的实现,又兼顾了系统总体的协调性。本系统软件由工况传感器软件、手持机软件、数据中继单元软件及数据中心软件四部分组成。工况传感器软件、手持机软件和数据中继单元软件由ADS集成开发环境编写,并由AXD仿真调试器生成可执行代码,最后通过EasyJTAG仿真器下载到微处理器芯片中。数据中心运行于服务器/客户机工作模式,使用SQL Server数据库。数据中心处理软件由Visual Basic6.0编写,运行于Windows操作系统中。 通讯网络由无线数传网络和CDMA网络组成,工况传感器与数据中继单元组成无线数传网络,采用ISM工作频段,实现近距离无线通讯。数据中继单元作为无线数传网络的中心节点,通过CDMA网络与数据中心通信处理机相联,实现数据的远程传输。 本系统首次利用加速度传感器与拉线位移传感器相结合的方式,实现抽油井工况长期连续监测,提高了整个系统的可靠性;利用ARM单片机作为微处理器,低功耗电路设计,低功耗工作模式,延长了电池的寿命;无线数传网络与CDMA网络相结合,兼具无线数传网络与CDMA网络的优点,降低了整个系统的安装和运行费用;数据中心采用服务器/客户机工作模式,便于用户共享数据。目前该系统的各部分均经过硬件、软件及运行测试,已经在油田试运行。运行结果表明,该系统性能完善,运行可靠,安装及维护简便,取得了较好的效果。
上传时间: 2013-07-12
上传用户:ivan-mtk
指令集仿真器是目前嵌入式系统研究中一个极其重要的领域,一个灵活高效且准确度高的仿真器不仅可以实现对嵌入式系统硬件环境的仿真,而且是现代微处理器结构设计过程中性能评估的重要工具. 仿真器的性能已经成为影响整个设计效率的重要因素,在现有的指令集仿真技术中,编译型仿真技术虽然可以获得高的仿真速度,但其对应用的假设过于严格,限制了其在商业领域中的应用;解释型仿真器虽被普遍使用,但其缺点也很明显,由于模拟过程中需要耗费大量时间用于指令译码,解释型模拟器速度往往很有限,使用性能较低。由此可见,如何减少仿真过程中的指令译码时间,是提高仿真器的性能的关键。 本文旨在提出一个指令集仿真器的原型,重点解决指令解码过程中的速度瓶颈,在其基础可以进行扩充和改进,以适应不同硬件平台的需要。文章首先从ARM指令集的指令功能和编码格式入手,通过分析和比较找出了一般常用指令的编码和实现规律,并在此基础上进行了高级语言的描述,其后提出了改进版解释型指令集仿真器的设计方案,包括为提高仿真器性能,减少译码时间,创新性的在流程设计中加入了预解码的步骤,同时用自己设计的压缩算法解决了因预解码产生大量译码信息而带来的内存过度消耗难题。接下来,描述了仿真器的实现,包括指令的取指、译码、执行等基本功能,并着重描述了如何通过划分存储域和存储块的方式模拟真实存储器的读写访问实现。 另外,需要特别指出的是,针对仿真器中普遍存在的调试难问题,本文从一线程序开发人员的角度,在调试模块的设计中除了断点设置、程序暂停、恢复等基本功能外,还添加了各类监视设备和程序跟踪的功能,以期能提高本仿真器的实用性。 在文章的结尾,提出了仿真器的验证方案,并按照该方案对仿真器进行了功能和性能上的验证,最后对进一步的工作进行了展望。
上传时间: 2013-08-02
上传用户:宋桃子
随着半导体工艺的飞速发展和芯片设计水平的不断进步,ARM微处理器的性能得到大幅度地提高,同时其芯片的价格也在不断下降,嵌入式系统以其独有的优势,己经广泛地渗透到科学研究和日常生活的各个方面。 本文以ARM7 LPC2132处理器为核心,结合盖革一弥勒计数管对Time-To-Count辐射测量方法进行研究。ARM结构是基于精简指令集计算机(RISC)原理而设计的,其指令集和相关的译码机制比复杂指令集计算机要简单得多,使用一个小的、廉价的ARM微处理器就可实现很高的指令吞吐量和实时的中断响应。基于ARM7TDMI-S核的LPC2132微处理器,其工作频率可达到60MHz,这对于Time-To-Count技术是非常有利的,而且利用LPC2132芯片的定时/计数器引脚捕获功能,可以直接读取TC中的计数值,也就是说不再需要调用中断函数读取TC值,从而大大降低了计数前杂质时间。本文是在我师兄吕军的《Time-To-Count测量方法初步研究》基础上,使用了高速的ARM芯片,对基于MCS-51的Time-To-Count辐射测量系统进行了改进,进一步论证了采用高速ARM处理器芯片可以极大的提高G-M计数器的测量范围与测量精度。 首先,讨论了传统的盖革-弥勒计数管探测射线强度的方法,并指出传统的脉冲测量方法的不足。然后讨论了什么是Time-To-Count测量方法,对Time-To-Count测量方法的理论基础进行分析。指出Time-To-Count方法与传统的脉冲计数方法的区别,以及采用Time-To-Count方法进行辐射测量的可行性。 接着,详细论述基于ARM7 LPC2132处理器的Time-To-Count辐射测量仪的原理、功能、特点以及辐射测量仪的各部分接口电路设计及相关程序的编制。 最后得出结论,通过高速32位ARM处理器的使用,Time-To-Count辐射测量仪的精度和量程均得到很大的提高,对于Y射线总量测量,使用了ARM处理器的Time-To-Count辐射测量仪的量程约为20 u R/h到1R/h,数据线性程度也比以前的Time-To-CotJnt辐射测量仪要好。所以在使用Time-To-Count方法进行的辐射测量时,如何减少杂质时间以及如何提高计数前时间的测量精度,是决定Time-To-Count辐射测量仪性能的关键因素。实验用三只相同型号的J33G-M计数管分别作为探测元件,在100U R/h到lR/h的辐射场中进行试验.每个测量点测量5次取平均,得出随着照射量率的增大,辐射强度R的测量值偏小且与辐射真实值之间的误差也随之增大。如果将测量误差限定在10%的范围内,则此仪器的量程范围为20 u R/h至1R/h,量程跨度近六个数量级。而用J33型G-M计数管作常规的脉冲测量,量程范围约为50 u R/h到5000 u R/h,充分体现了运用Time-To-Count方法测量辐射强度的优越性,也从另一个角度反应了随着计数前时间的逐渐减小,杂质时间在其中的比重越来越大,对测量结果的影响也就越来越严重,尽可能的减小杂质时间在Time-To-Count方法辐射测量特别是测量高强度辐射中是关键的。笔者用示波器测出此辐射仪器的杂质时间约为6.5 u S,所以在计算定时器值的时候减去这个杂质时间,可以增加计数前时间的精确度。通过实验得出,在标定仪器的K值时,应该在照射量率较低的条件下行,而测得的计数前时间是否精确则需要在照射量率较高的条件下通过仪器标定来检验。这是因为在照射量率较低时,计数前时间较大,杂质时间对测量结果的影响不明显,数据线斜率较稳定,适宜于确定标定系数K值,而在照射量率较高时,计数前时间很小,杂质时间对测量结果的影响较大,可以明显的在数据线上反映出来,从而可以很好的反应出仪器的性能与量程。实验证明了Time-To-Count测量方法中最为关键的环节就是如何对计数前时间进行精确测量。经过对大量实验数据的分析,得到计数前时间中的杂质时间可分为硬件杂质时间和软件杂质时间,并以软件杂质时间为主,通过对程序进行合理优化,软件杂质时间可以通过程序的改进而减少,甚至可以用数学补偿的方法来抵消,从而可以得到比较精确的计数前时间,以此得到较精确的辐射强度值。对于本辐射仪,用户可以选择不同的工作模式来进行测量,当辐射场较弱时,通常采用规定次数测量的方式,在辐射场较强时,应该选用定时测量的方式。因为,当辐射场较弱时,如果用规定次数测量的方式,会浪费很多时间来采集足够的脉冲信号。当辐射场较强时,由于辐射粒子很多,产生脉冲的频率就很高,规定次数的测量会加大测量误差,当选用定时测量的方式时,由于时间的相对加长,所以记录的粒子数就相对的增加,从而提高仪器的测量精度。通过调研国内外先进核辐射测量仪器的发展现状,了解到了目前最新的核辐射总量测量技术一Time-To-Count理论及其应用情况。论证了该新技术的理论原理,根据此原理,结合高速处理器ARM7 LPC2132,对以G-计数管为探测元件的Time-To-Count辐射测量仪进行设计。论文以实验的方法论证了Time-To-Count原理测量核辐射方法的科学性,该辐射仪的量程和精度均优于以前以脉冲计数为基础理论的MCS-51核辐射测量仪。该辐射仪具有量程宽、精度高、易操作、用户界面友好等优点。用户可以定期的对仪器的标定,来减小由于电子元件的老化对低仪器性能参数造成的影响,通过Time-To-Count测量方法的使用,可以极大拓宽G-M计数管的量程。就仪器中使用的J33型G-M计数管而言,G-M计数管厂家参考线性测量范围约为50 u R/h到5000 u R/h,而用了Time-To-Count测量方法后,结合高速微处理器ARM7 LPC2132,此核辐射测量仪的量程为20 u R/h至1R/h。在允许的误差范围内,核辐射仪的量程比以前基于MCS-51的辐射仪提高了近200倍,而且精度也比传统的脉冲计数方法要高,测量结果的线性程度也比传统的方法要好。G-M计数管的使用寿命被大大延长。 综上所述,本文取得了如下成果:对国内外Time-To-Count方法的研究现状进行分析,指出了Time-To-Count测量方法的基本原理,并对Time-T0-Count方法理论进行了分析,推导出了计数前时间和两个相邻辐射粒子时间间隔之间的关系,从数学的角度论证了Time-To-Count方法的科学性。详细说明了基于ARM 7 LPC2132的Time-To-Count辐射测量仪的硬件设计、软件编程的过程,通过高速微处理芯片LPC2132的使用,成功完成了对基于MCS-51单片机的Time-To-Count测量仪的改进。改进后的辐射仪器具有量程宽、精度高、易操作、用户界面友好等特点。本论文根据实验结果总结出了Time-To-Count技术中的几点关键因素,如:处理器的频率、计数前时间、杂质时间、采样次数和测量时间等,重点分析了杂质时间的组成以及引入杂质时间的主要因素等,对国内核辐射测量仪的研究具有一定的指导意义。
标签: TimeToCount ARM 辐射测量仪
上传时间: 2013-06-24
上传用户:pinksun9
作为嵌入式系统核心的微处理器,是SOC不可或缺的“心脏”,微处理器的性能直接影响着整个SOC的性能。 与国际先进技术相比,我国在这一领域的研究和开发工作还相当落后,这直接影响到我国信息产业的发展。本着赶超国外先进技术,填补我国在该领域的空白以摆脱受制于国外的目的,我国很多科研单位和公司进行了自己的努力和尝试。经过几年的探索,已经有多种自主知识产权的处理器芯片完成了设计验证并逐渐进入市场化阶段。我国已结束无“芯”的历史,并向设计出更高性能处理器的目标迈进。 艾科创新微电子公司的VEGA处理器,是公司凭借自己的技术力量和科研水平设计出的一款64位高性能RSIC微处理器。该处理器基于MIPSISA构架,采用五级流水线的设计,并且使用了高性能处理器所广泛采用的虚拟内存管理技术。设计过程中采用自上而下的方法,根据其功能将其划分为取指、译码、算术逻辑运算、内存管理、流水线控制和cache控制等几个功能块,使得我们在设计中能够按照其功能和时序要求进行。 本文的首先介绍了MIPS微处理器的特点,通过对MIPS指令集和其五级流水线结构的介绍使得对VEGA的设计有了一个直观的认识。在此基础上提出了VEGA的结构划分以及主要模块的功能。作为采用虚拟内存管理技术的处理器,文章的主要部分介绍了VEGA的虚拟内存管理技术,将VEGA的内存管理单元(MMU)尤其是内部两个翻译后援缓冲(TLB)的设计作为重点给出了流水线处理器设计的方法。结束总体设计并完成仿真后,并不能代表设计的正确性,它还需要我们在实际的硬件平台上进行验证。作为论文的又一重点内容,介绍了我们在VEGA验证过程中使用到的FPGA的主要配置单元,FPGA的设计流程。VEGA的FPGA平台是一完整的计算机系统,我们利用在线调试软件XilinxChipscope对其进行了在线调试,修正其错误。 经过模块设计到最后的FPGA验证,VEGA完成了其逻辑设计,经过综合和布局布线等后端流程,VEGA采用0.18工艺流片后达到120MHz的工作频率,可在其平台上运行Windows-CE和Linux嵌入式操作系统,达到了预计的设计要求。
上传时间: 2013-07-07
上传用户:标点符号