频率是电子技术领域内的一个基本参数,同时也是一个非常重要的参数。稳定的时钟在高性能电子系统中有着举足轻重的作用,直接决定系统性能的优劣。随着电子技术的发展,测频系统使用时钟的提高,测频技术有了相当大的发展,但不管是何种测频方法,±1个计数误差始终是限制测频精度进一步提高的一个重要因素。 本设计阐述了各种数字测频方法的优缺点。通过分析±1个计数误差的来源得出了一种新的测频方法:检测被测信号,时基信号的相位,当相位同步时开始计数,相位再次同步时停止计数,通过相位同步来消除计数误差,然后再通过运算得到实际频率的大小。根据M/T法的测频原理,已经出现了等精度的测频方法,但是还存在±1的计数误差。因此,本文根据等精度测频原理中闸门时间只与被测信号同步,而不与标准信号同步的缺点,通过分析已有等精度澳孽频方法所存在±1个计数误差的来源,采用了全同步的测频原理在FPGA器件上实现了全同步数字频率计。根据全同步数字频率计的测频原理方框图,采用VHDL语言,成功的编写出了设计程序,并在MAX+PLUS Ⅱ软件环境中,对编写的VHDL程序进行了仿真,得到了很好的效果。最后,又讨论了全同步频率计的硬件设计并给出了电路原理图和PCB图。对构成全同步数字频率计的每一个模块,给出了较详细的设计方法和完整的程序设计以及仿真结果。
上传时间: 2013-06-05
上传用户:wys0120
许多资料上都写有UC3842/3的频率计算公式,有的资料上为:1.72/Rt×Ct;也有的资料上为: 1.8/Rt×Ct,其实这些公式都为近似值,条件为
上传时间: 2013-06-12
上传用户:telukeji
频率特性测试仪(简称扫频仪)是一种测试电路频率特性的仪器,它广泛应用于无线电、电视、雷达及通信等领域,为分析和改善电路的性能提供了便利的手段。而传统的扫频仪由多个模块构成,电路复杂,体积庞大,而且在高频测量中,大量的分立元件易受温度变化和电磁干扰的影响。为此,本文提出了集成化设计的方法,针对可编程逻辑器件的特点,对硬件实现方法进行了探索。 本文对三大关键技术进行了深入研究: 第一,由扫频信号发生器的设计出发,对直接数字频率合成技术(DDS)进行了系统的理论研究,并改进了ROM压缩方法,在提高压缩比的同时,改进了DDS系统的杂散度,并且利用该方法实现了幅度和相位可调制的DDS系统-扫频信号发生器。 第二,为了提高系统时钟的工作频率,对流水线算法进行了深入的研究,并针对累加器的特点,进行了一系列的改进,使系统能在100MHz的频率下正常工作。 第三,从系统频率特性测试的理论出发,研究如何在FPGA中提高多位数学运算的速度,从而提出了一种实现多位BCD码除法运算的方法—高速串行BCD码除法;随后,又将流水线技术应用于该算法,对该方法进行改进,完成了基于流水线技术的BCD码除法运算的设计,并用此方法实现了频率特性的测试。 在研究以上理论方法的基础上,以大规模可编程逻辑器件EP1K100QC208和微处理器89C52为实现载体,提出了基于单片机和FPGA体系结构的集成化设计方案;以VerilogHDL为设计语言,实现了频率特性测试仪主要部分的设计。该频率特性测试仪完成扫频信号的输出和频率特性的测试两大主要任务,而扫频信号源和频率特性测试这两大主要模块可集成在一片可编程逻辑器件中,充分体现了可编程逻辑器件的优势。 本文首先对相关的概念理论进行了介绍,包括DDS原理、流水线技术等,进而提出了系统的总体设计方案,包括设计工具、语言和实现载体的选择,而后,简要介绍了微处理器电路和外围电路,最后,较为详细地阐述了两个主要模块的设计,并给出了实现方式。
上传时间: 2013-06-08
上传用户:xiangwuy
激光测距技术被广泛应用于现代工业测量、航空与大地的测量、国防及通信等诸多领域。本文从已获得广泛应用的脉冲激光测距技术入手,重点分析了近年提出的自触发脉冲激光测距技术(STPLR)特别是其中的双自触发脉冲激光测距技术(BSTPLR),通过分析发现其核心部件之一就是用于测量激光脉冲飞行时间(周期)的高精度高速计数器,而目前一般的方式是采用昂贵的进口高速计数器或专用集成电路(ASIC)来完成,这使得激光测距仪在研发、系统的改造升级和自主知识产权保护等诸多方面受到制约,同时在其整体性能上特别是在集成化、小型化和高可靠性方面带来阻碍。为此,本文研究了采用现场可编程门阵列(FPGA)来实现脉冲激光测距中的高精度高速计数及其他相关功能,基本解决了以上存在的问题。 论文通过对双自触发脉冲激光测距的主要技术要求和技术指标进行分析,对其中的信号处理单元采用了FPGA+单片机的设计形式。由FPGA主控芯片(EPF10K20TC144-4)作为周期测量模块,在整个测距系统中是信号处理的核心部件,借助其用户可编程特性及很高的内部时钟频率,设计了专用于BSTPLR的高速高精度计数芯片,负责对测距信号产生电路中的时刻鉴别电路输出信号进行计数。数据处理模块则主要由单片机(AT89C51)来实现。系统可以通过键盘预置门控信号的宽度以均衡测量的精度和速度,测量结果采用7位LED数码管显示。本设计在近距离(大尺寸)范围内实验测试时基本满足设计要求。
上传时间: 2013-06-02
上传用户:
AVR单片机频率计的设计与原理图+源码,自主研发,适合有一定经验的人员。
上传时间: 2013-06-03
上传用户:huangzchytems
随着半导体工艺的飞速发展和芯片设计水平的不断进步,ARM微处理器的性能得到大幅度地提高,同时其芯片的价格也在不断下降,嵌入式系统以其独有的优势,己经广泛地渗透到科学研究和日常生活的各个方面。 本文以ARM7 LPC2132处理器为核心,结合盖革一弥勒计数管对Time-To-Count辐射测量方法进行研究。ARM结构是基于精简指令集计算机(RISC)原理而设计的,其指令集和相关的译码机制比复杂指令集计算机要简单得多,使用一个小的、廉价的ARM微处理器就可实现很高的指令吞吐量和实时的中断响应。基于ARM7TDMI-S核的LPC2132微处理器,其工作频率可达到60MHz,这对于Time-To-Count技术是非常有利的,而且利用LPC2132芯片的定时/计数器引脚捕获功能,可以直接读取TC中的计数值,也就是说不再需要调用中断函数读取TC值,从而大大降低了计数前杂质时间。本文是在我师兄吕军的《Time-To-Count测量方法初步研究》基础上,使用了高速的ARM芯片,对基于MCS-51的Time-To-Count辐射测量系统进行了改进,进一步论证了采用高速ARM处理器芯片可以极大的提高G-M计数器的测量范围与测量精度。 首先,讨论了传统的盖革-弥勒计数管探测射线强度的方法,并指出传统的脉冲测量方法的不足。然后讨论了什么是Time-To-Count测量方法,对Time-To-Count测量方法的理论基础进行分析。指出Time-To-Count方法与传统的脉冲计数方法的区别,以及采用Time-To-Count方法进行辐射测量的可行性。 接着,详细论述基于ARM7 LPC2132处理器的Time-To-Count辐射测量仪的原理、功能、特点以及辐射测量仪的各部分接口电路设计及相关程序的编制。 最后得出结论,通过高速32位ARM处理器的使用,Time-To-Count辐射测量仪的精度和量程均得到很大的提高,对于Y射线总量测量,使用了ARM处理器的Time-To-Count辐射测量仪的量程约为20 u R/h到1R/h,数据线性程度也比以前的Time-To-CotJnt辐射测量仪要好。所以在使用Time-To-Count方法进行的辐射测量时,如何减少杂质时间以及如何提高计数前时间的测量精度,是决定Time-To-Count辐射测量仪性能的关键因素。实验用三只相同型号的J33G-M计数管分别作为探测元件,在100U R/h到lR/h的辐射场中进行试验.每个测量点测量5次取平均,得出随着照射量率的增大,辐射强度R的测量值偏小且与辐射真实值之间的误差也随之增大。如果将测量误差限定在10%的范围内,则此仪器的量程范围为20 u R/h至1R/h,量程跨度近六个数量级。而用J33型G-M计数管作常规的脉冲测量,量程范围约为50 u R/h到5000 u R/h,充分体现了运用Time-To-Count方法测量辐射强度的优越性,也从另一个角度反应了随着计数前时间的逐渐减小,杂质时间在其中的比重越来越大,对测量结果的影响也就越来越严重,尽可能的减小杂质时间在Time-To-Count方法辐射测量特别是测量高强度辐射中是关键的。笔者用示波器测出此辐射仪器的杂质时间约为6.5 u S,所以在计算定时器值的时候减去这个杂质时间,可以增加计数前时间的精确度。通过实验得出,在标定仪器的K值时,应该在照射量率较低的条件下行,而测得的计数前时间是否精确则需要在照射量率较高的条件下通过仪器标定来检验。这是因为在照射量率较低时,计数前时间较大,杂质时间对测量结果的影响不明显,数据线斜率较稳定,适宜于确定标定系数K值,而在照射量率较高时,计数前时间很小,杂质时间对测量结果的影响较大,可以明显的在数据线上反映出来,从而可以很好的反应出仪器的性能与量程。实验证明了Time-To-Count测量方法中最为关键的环节就是如何对计数前时间进行精确测量。经过对大量实验数据的分析,得到计数前时间中的杂质时间可分为硬件杂质时间和软件杂质时间,并以软件杂质时间为主,通过对程序进行合理优化,软件杂质时间可以通过程序的改进而减少,甚至可以用数学补偿的方法来抵消,从而可以得到比较精确的计数前时间,以此得到较精确的辐射强度值。对于本辐射仪,用户可以选择不同的工作模式来进行测量,当辐射场较弱时,通常采用规定次数测量的方式,在辐射场较强时,应该选用定时测量的方式。因为,当辐射场较弱时,如果用规定次数测量的方式,会浪费很多时间来采集足够的脉冲信号。当辐射场较强时,由于辐射粒子很多,产生脉冲的频率就很高,规定次数的测量会加大测量误差,当选用定时测量的方式时,由于时间的相对加长,所以记录的粒子数就相对的增加,从而提高仪器的测量精度。通过调研国内外先进核辐射测量仪器的发展现状,了解到了目前最新的核辐射总量测量技术一Time-To-Count理论及其应用情况。论证了该新技术的理论原理,根据此原理,结合高速处理器ARM7 LPC2132,对以G-计数管为探测元件的Time-To-Count辐射测量仪进行设计。论文以实验的方法论证了Time-To-Count原理测量核辐射方法的科学性,该辐射仪的量程和精度均优于以前以脉冲计数为基础理论的MCS-51核辐射测量仪。该辐射仪具有量程宽、精度高、易操作、用户界面友好等优点。用户可以定期的对仪器的标定,来减小由于电子元件的老化对低仪器性能参数造成的影响,通过Time-To-Count测量方法的使用,可以极大拓宽G-M计数管的量程。就仪器中使用的J33型G-M计数管而言,G-M计数管厂家参考线性测量范围约为50 u R/h到5000 u R/h,而用了Time-To-Count测量方法后,结合高速微处理器ARM7 LPC2132,此核辐射测量仪的量程为20 u R/h至1R/h。在允许的误差范围内,核辐射仪的量程比以前基于MCS-51的辐射仪提高了近200倍,而且精度也比传统的脉冲计数方法要高,测量结果的线性程度也比传统的方法要好。G-M计数管的使用寿命被大大延长。 综上所述,本文取得了如下成果:对国内外Time-To-Count方法的研究现状进行分析,指出了Time-To-Count测量方法的基本原理,并对Time-T0-Count方法理论进行了分析,推导出了计数前时间和两个相邻辐射粒子时间间隔之间的关系,从数学的角度论证了Time-To-Count方法的科学性。详细说明了基于ARM 7 LPC2132的Time-To-Count辐射测量仪的硬件设计、软件编程的过程,通过高速微处理芯片LPC2132的使用,成功完成了对基于MCS-51单片机的Time-To-Count测量仪的改进。改进后的辐射仪器具有量程宽、精度高、易操作、用户界面友好等特点。本论文根据实验结果总结出了Time-To-Count技术中的几点关键因素,如:处理器的频率、计数前时间、杂质时间、采样次数和测量时间等,重点分析了杂质时间的组成以及引入杂质时间的主要因素等,对国内核辐射测量仪的研究具有一定的指导意义。
标签: TimeToCount ARM 辐射测量仪
上传时间: 2013-06-24
上传用户:pinksun9
39839电感量计算小巧实用的绿色软件,根据输入的线圈长度、线圈直径、导线直径、线圈匝数及工作频率快速计算出电感量、自分布电容、空载Q值、自谐振频率
上传时间: 2013-06-03
上传用户:夜月十二桥
11201频率计算器含有多种频率计算工具,有LC谐振频率计算软件,RC谐振频率计算工具,并含有多种软件
上传时间: 2013-07-26
上传用户:mj16166
激光测距技术被广泛应用于现代工业测量、航空与大地的测量、国防及通信等诸多领域。本文从已获得广泛应用的脉冲激光测距技术入手,重点分析了近年提出的自触发脉冲激光测距技术(STPLR)特别是其中的双自触发脉冲激光测距技术(BSTPLR),通过分析发现其核心部件之一就是用于测量激光脉冲飞行时间(周期)的高精度高速计数器,而目前一般的方式是采用昂贵的进口高速计数器或专用集成电路(ASIC)来完成,这使得激光测距仪在研发、系统的改造升级和自主知识产权保护等诸多方面受到制约,同时在其整体性能上特别是在集成化、小型化和高可靠性方面带来阻碍。为此,本文研究了采用现场可编程门阵列(FPGA)来实现脉冲激光测距中的高精度高速计数及其他相关功能,基本解决了以上存在的问题。 论文通过对双自触发脉冲激光测距的主要技术要求和技术指标进行分析,对其中的信号处理单元采用了FPGA+单片机的设计形式。由FPGA主控芯片(EPF10K20TC144-4)作为周期测量模块,在整个测距系统中是信号处理的核心部件,借助其用户可编程特性及很高的内部时钟频率,设计了专用于BSTPLR的高速高精度计数芯片,负责对测距信号产生电路中的时刻鉴别电路输出信号进行计数。数据处理模块则主要由单片机(AT89C51)来实现。系统可以通过键盘预置门控信号的宽度以均衡测量的精度和速度,测量结果采用7位LED数码管显示。本设计在近距离(大尺寸)范围内实验测试时基本满足设计要求。
上传时间: 2013-04-24
上传用户:dapangxie
数字信息在有噪声的信道中传输时,受到噪声的影响,误码总是不可避免的。根据香农信息理论,只要使Es/N0足够大,就可以达到任意小的误码率。采用差错控制编码,即信道编码技术,可以在一定的Es/N0条件下有效地降低误码率。按照对信息元处理方式不同,信道编码分为分组码与卷积码两类。卷积码的k0和n0较小,实现最佳译码与准最佳译码更加容易。卷积码运用广泛,被ITU选入第三代移动通信系统,作为包括WCDMA,CDMA2000和TD-SCDMA在内的信道编码的标准方案。 本文研究了CDMA2000业务通道中的帧结构,对CDMA2000系统中的卷积码特性及维特比译码的性能限进行了分析,并基于MATLAB平台做了相应的译码性能仿真。我们设计了一种可用于CDMA2000通信系统的通用、高速维特比译码器。该译码器在设计上具有以下创新之处:(1)采用通用码表结构,支持可变码率;帧控制模块和频率控制器模块的设计中采用计数器、定时器等器件实现了可变帧长、可变数据速率的数据帧处理方式。(2)结合流水线结构思想,利用四个ACS模块并行运行,加快数据处理速度;在ACS模块中,将路径度量值存贮器的存储结构进行优化,防止数据读写的阻塞,缩短存储器读写时间,使译码器的处理速度更快。(3)为了防止路径度量值和幸存路径长度的溢出,提出了保护处理策略。我们还将设计结果在APEXEP20K30E芯片上进行了硬件实现。该译码器芯片具有可变的码率和帧长处理能力,可以运行于40MHZ系统时钟下,内部最高译码速度可达625kbps。本文所提出的维特比译码器硬件结构具有很强的通用性和高速性,可以方便地应用于CDMA2000移动通信系统。
上传时间: 2013-06-24
上传用户:lingduhanya