当今,移动通信正处于向第四代通信系统发展的阶段,OFDM技术作为第四代数字移动通信(4G)系统的关键技术之一,被包括LTE在内的众多准4G协议所采用。IDFT/DFT作为OFDM系统中的关键功能模块,其精度对基带解调性能产生着重大的影响,尤其对LTE上行所采用的SC_FDMA更是如此。为了使定点化IDFT/DFT达到较好的性能,本文采用数字自动增益控制(DAGC)技术,以解决过大输入信号动态范围所造成的IDFT/DFT输出信噪比(SNR)恶化问题。 首先,本文简单介绍了较为成熟的AAGC(模拟AGC)技术,并重点关注近年来为了改善其性能而兴起的数字化AGC技术,它们主要用于压缩ADC输入动态范围以防止其饱和。针对基带处理中具有累加特性的定点化IDFT/DFT技术,进一步分析了AAGC技术和基带DAGC在实施对象,实现方法等上的异同点,指出了基带DAGC的必要性。 其次,根据LTE协议,搭建了从调制到解调的基带PUSCH处理链路,并针对基于DFT的信道估计方法的缺点,使用简单的两点替换实现了优化,通过高斯信道下的MATLAB仿真,证明其可以达到理想效果。仿真结果还表明,在不考虑同步问题的高斯信道下,本文所搭建的基带处理链路,采用64QAM进行调制,也能达到在SNR高于17dB时,硬判译码结果为极低误码率(BER)的效果。 再次,在所搭建链路的基础上,通过理论分析和MATLAB仿真,证明了包括时域和频域DAGC在内的基带DAGC具有稳定接收链路解调性能的作用。同时,通过对几种DAGC算法的比较后,得到的一套适用于实现的基带DAGC算法,可以使IDFT/DFT的输出SNR处于最佳范围,从而满足LTE系统基带解调的要求。针对时域和频域DAGC的差异,分别选定移位和加法,以及查表的方式进行基带DAGC算法的实现。 最后,本文对选定的基带DAGC算法进行了FPGA设计,仿真、综合和上板结果说明,时域和频域DAGC实现方法占用资源较少,容易进行集成,能够达到的最高工作频率较高,完全满足基带处理的速率要求,可以流水处理每一个IQ数据,使之满足基带解调性能。
上传时间: 2013-05-17
上传用户:laozhanshi111
宽带无线通信的持续高速的需求增长刺激了新的通信技术的不断产生,而这些技术的发展,很大程度上都来自于不同技术的互相补充与融合,这也成为新标准的源泉。正交频分复用(OFDM)技术在提供高效的频谱利用率以及良好的抗多径性能的同时,通过多输入输出(MIMO)技术来进一步增加信道容量,在不增加信号带宽的基础上取得更高的传输速率和更好的传输质量。因此MIMO-OFDM技术近年来在成为研究热点的同时,已被认为是下一带移动通信和网络接入标准中的核心技术。 本文主要对MIMO-OFDM系统物理层的关键技术进行了研究,并主要对系统的同步和信道估计算法进行了深入的分析,并提出了一些改进。最后进行了MIMO-OFDM基带系统基于FPGA的物理层设计,对其中一些关键模块的设计,比如信道估计和空时译码模块进行了详细的讨论。 第一章绪论部分首先结合宽带无线通信技术发展的历史就MIMO-OFDM技术产生发展的背景进行了分析,指出了MIMO-OFDM研究与发展方向,最后总结了本文的工作目标和基本要求。 第二章主要是推导分析了MIMO-OFDM系统的基本原理,先分别从OFDM技术和MIMO技术两方面概括性的介绍了其理论以及技术特点,最后对MIMO与OFDM结合的关键技术进行了讨论。 第三章是对MIMO-OFDM同步算法的研究,主要针对基于训练序列的同步算法进行了深入讨论,关注点是训练序列的设计。针对原有的一些算法进行了总结与比较,并主要对基于频域设计的训练序列符号同步算法做出了改进。 第四章首先从基于导频的信道估计算法推导开始,关注点放在MIMO-OFDM系统下的自适应信道估计算法研究。文章将原有的一些OFDM自适应信道估计算法扩展到MIMO领域,结合基于共轭梯度的自适应算法并做出了一些改进。 第五章节是本文的硬件设计部分,文章基于一个2发2收MIMO-OFDM系统进行了基带数字处理部分的FPGA设计工作,根据设计要求实现了发送端和接收端数据处理的基本功能,为完善的和更高性能的MIMO-OFDM系统实现奠定了基础。
上传时间: 2013-06-26
上传用户:wl9454
H.264/AVC是由ITU和ISO两大组织联合组成的JVT共同制定的一项新的视频压缩技术标准,在较低带宽上提供高质量的图像传输是H.264/AVC的应用亮点。在同样的视觉质量前提下,H.264/AVC比H.263和MPEG-4节约了50%的码率。但H.264获得优越性能的代价是计算复杂度的增加,据估计其编码的计算复杂度大约为H.263的3倍,因此很难应用于实时视频处理领域。针对这一现状,业内做了大量的研究工作,力图降低其计算复杂度和提高运行效率。比如在运动估计方面,国内外在这方面的研究已经很成熟。而针对帧内/帧间预测编码的研究却较少。因此研究预测模式的快速算法具有理论意义和应用价值。 本文在详细研究H.264标准视频压缩编码特点基础上,分析了H.264帧内编码, 帧间编码及变换,量化技术的原理及特点,提出了一种基于局部边缘方向信息的快速帧内模式判决算法,通过结合SAD的模式选择方法来减少模式选择数目。它采用了Sobel梯度算子计算当前块的边缘信息,累加当前块中属于同一方向像素点的边缘矢量构造不同模式下的边缘方向直方图,以便确定最可能的预测模式。该算法有效降低了编码器的运算复杂度,在并未显著降低编码性能的情况下提升了编码器效率。仿真表明:Foreman 图像序列编码性能有了提高,其中PSNR平均降低了0.06dB,Bitrate平均降低了19.4%,这大大提高了视频传输的质量。 另外在帧间预测模式选择算法方面进行了改进研究:按顺序对不同类型进行判决,有选择地去比较可能模式,使得在有效减少需判决的模式数量的同时,结合小块模式搜索中途停止准则来确定最优模式。仿真表明:改进算法相对与原来算法能够节省很多的编码时间(平均下降了49.3%),但带来的图像质星的下降(平均下降0.08dB,可以忽略)和码率较少的增加。 同时在整数DCT变换模块中,提出了一种快速蝶形算法,使得对4×4点数据做一次变换,只需通过8×8次加法和2×8次移位运算便可完成,与原来12×8次加法和4×8次移位相比,新算法大大降低了运算复杂度。 最后介绍FPGA的特点及设计流程,并实现了H.264编解码器中变换编码及量化和熵解码模块的硬件。这种基于FPGA所实现的H.264编码视频处理模块设计具备了成本低,周期短,设计方法灵活等优点,具有广阔的市场应用前景。 仿真表明,通过使用本文提出的帧内/帧间速算法方法可使得H.264编码速度获得显著的提高,使H.264 Baseline编码器能在PC平台上实现实时编码。
上传时间: 2013-07-18
上传用户:zukfu
建立在数据率转换技术之上的宽带数字侦察接收机要求能够实现高截获概率、高灵敏度、近乎实时的信号处理能力。双信号数据率转换技术是宽带数字侦察接收机关键技术之一,是解决宽带数字接收机中前端高速ADC采样的高速数据流与后端DSP处理速度之间瓶颈问题的可行方案。测频技术以及带通滤波,即宽带数字下变频技术,是实现数据率转换系统的关键技术。本文首先介绍了宽带数字侦察接收关键技术之一的数据率转换技术,着重研究了快速、高精度双信号测频算法以及实验系统硬件实现。论文主要工作如下: (1)分析了现代电子侦察环境下的信号特征,指出宽带数字接收机必须满足宽监视带宽、流水作业以及近实时的响应时间。给出了一种频率引导式的数字接收机方案,简要介绍这种接收机的关键技术——快速、高精度频率估计以及高效的数据率转换。 (2)介绍了FFT技术在测频算法中的应用,比较了FFT专用芯片及其优点和缺点,指出为了满足实时处理要求,必须选用FPGA设计FFT模块。 (3)在分析常规的插值算法基础上,提出了一种单信号的快速插值频率估计方法,只需三个FFT变换系数的实部构造频率修正项,计算量低。该方法具有精度高、测频速率快的特点。 (4)基于DFT理论和自相关理论,提出了结合FFT和自相关的双信号频率估计算法。该方法先用DFT估计其中一个信号的频率和幅度,以此频率对信号解调并对消该频率成分,最后利用自相关理论估计出另一个信号的频率。 (5)基于DFT理论和FFT技术,研究了信号平方与FFT结合的双信号频率估计算法。根据信号中两频率分量的幅度比,只需一次一维平方信号谱峰搜索,就可以得到双信号的和频与差频分量的估计值,并利用插值技术提高测频精度。该算法能够精确地估计频率间隔小的双信号频率,且容易地扩展到复信号,FPGA硬件实现容易。 (6)基于现代谱分析理论,研究了基于AR(2)模型的双信号频率估计算法。方法在利用AR(2)模型系数估计双正弦信号频率之和的同时,利用FFT快速测频算法估计其中强信号分量的频率值。算法仿真验证和性能分析表明了提出的算法能快速高精度地估计双信号频率。 (7)给出了基于频谱重心算法的雷达双信号频率估计的FPGA硬件实现架构,并进行了时序仿真。 (8)讨论了双信号带宽匹配接收系统的硬件设计方案,给出了快速测频及带宽估计模块设计。
上传时间: 2013-06-02
上传用户:youke111
网络带宽依然在不断增长(尤其是在本地网),最后一公里的高速接入日益普及;另一方面的情况是大容量的磁盘、FLASH移动存储盘和激光盘的容量不断增大,使得传送和储存数据的成本不断地下降。不仅使人发问:我们孜孜不倦的搞视频压缩高级算法还有多少意义?我们可以看到,算法的复杂性日益增加,但性能的提高却接近边缘。 是什么还在要求更高的压缩速率?还有被我们遗忘的地方吗?还有什么应用让我们继续追求更精妙的压缩算法? 在作者看来,这个应用领域就是移动视频服务。无线频谱这种稀缺资源的有限性决定了我们必须继续对视频压缩技术进行研究。即使伴随UMTS/IMT2000的到来,移动终端可以获得的数据速率也限制在144Kbit/s,在微蜂窝的时候最高能达到的速率上限也在2Mbit/s。144Kbit/s的速率对于较高质量的视频传输来讲,仍然是有限的。因此,可以预见,移动终端的空中接口这个瓶颈使得我们必须继续进行视频压缩。 另一方面,移动终端领域开发视频压缩算法,在其低功耗和实时性要求下,也是异常困难的。为了减少计算的复杂性和运动估计的功耗,业界提出了许多快速算法,例如2-D的对数搜索,三步搜索,联合搜索。尽管这些方法减少了功耗,其结果是视频压缩性能的降低,因为这些算法的本质是减少了运动搜索的空间。为了实现运动搜索的低功耗,在电路领域又提出了搜索窗口和时钟管理的措施。但这些方法都是在牺牲视频压缩比性能的基础进行的折中,并没有强调算法映射结构上做出处理。 本论文提出了一种新的解决MPEG-4运动估计运算的低功耗实时处理器架构。其基础是采用了心肌阵列并行处理技术和低功耗控制电路。运动估计的繁复运算通过心肌阵列分布式运算得到有效处理。从理论上看,心肌阵列有其简单易理解性,然后,由于FPGA的互联网络有限性,设计这样一个阵列仍有许多值得注意的问题。论文提出使用保守近似处理在全局运动估计中减少功耗,其本质是消除不必要的冗余运算。宏块的最小误差匹配是一个典型的串行操作过程。论文新提出的方法是在进行绝对匹配前使用保守计算,如果保守误差值与最小误差差别过大,则不进行绝对误差计算。 总的说来,论文实现了两个目标:通过心肌阵列实现了实时的运动估计编码,通过在算法层次引入控制电路,降低运动估计电路的功耗。
上传时间: 2013-06-23
上传用户:lacsx
本代码实现了OFDM系统的子空间盲信道估计,实现了ber性能
上传时间: 2013-04-24
上传用户:gzming
随着现代电力系统向大容量、高电压方向发展,广泛用于大型发电机组测量和保护用的大电流互感器的研制就变得很紧迫。考虑到大电流互感器具有大电流、强电磁干扰和多相运行等特点,在设计大电流互感器时,必须采取有效的屏蔽措施,屏蔽来自邻相的杂散磁通。传统的屏蔽方案是采用金属屏蔽罩,尽管有效,但设备笨重。本文中,作者对有外层屏蔽绕组的大电流互感器进行了各种研究。 大电流互感器采用绕组屏蔽方式后,如何优化设计屏蔽绕组,使屏蔽绕组能够充分有效地屏蔽杂散磁通对环形铁心的影响呢?针对上述的问题,本文作者主要完成如下几个方面的工作: 1、首先对国内外大电流互感器的发展与研究现状进行了叙述,并成功设计了15000/5A大电流互感器。 2、对精典的电磁场理论和场路耦合法的数学理论进行了深入的研究,建立了大电流互感器的三维场路耦合有限元分析的数学模型和仿真模型。应用有限元软件ANSYS建立三维有限元仿真模型和基于场路耦合原理的外部耦合电路。 3、理论分析了杂散磁通对电流互感器铁心的影响;重点分析了绕组屏蔽杂散磁通理论;通过等值电流法,得到无论三相还是多相电流互感器条件下,中间相的电流互感器所受到的杂散磁通是最为严重的,为大电流互感器的有效保护提供了科学依据。 4、为了得到最优化屏蔽绕组,对屏蔽绕组的匝数采用离散化替代连续性,再考虑屏蔽绕组在环形铁心上的位置,共提出了多种优化方案;根据三维场路耦合有限元分析模型,精确计算出屏蔽绕组中的电流、电流分布、环形铁心中的磁感应强度分布和外层绕组的局部最高温升,通过比较多种计算结果,得到大电流互感器屏蔽绕组的最优化方案。 5、最后建立了大电流互感器的等效磁势法和降流回路法两种试验方案模型,通过比较试验方案仿真计算结果和出厂试验结果,证明了仿真计算结果是正确的,可靠的。 通过对屏蔽绕组进行优化设计后,有效地削弱了杂散磁通,使得大电流互感器轻型化、小型化,节约了大量的铜材料,使得其运输更加方便。
上传时间: 2013-04-24
上传用户:yolo_cc
永磁同步电机(PMSM)是一种性能优越、应用领域广阔的电机,其传统的理论分析与设计方法已比较成熟。它的进一步推广应用,在很大程度上有赖于对控制策略的研究。实践中,使用通用变压变频(VVVF)变频器来驱动没有阻尼绕组的永磁同步电动机开环运行时,有时电机的运行频率超过某一频率,系统就会变得不稳定,甚至导致系统失步。本文研究了无位置传感器的永磁同步电机的速度控制问题。 论文提出了一种将推广卡尔曼滤波(EKF)原理应用于永磁同步电机无位置传感器调速系统的方法。对永磁同步电机的数学模型和卡尔曼滤波原理作了详细的分析,在dq转子同步坐标系中应用推广卡尔曼滤波算法,对永磁同步电机的转角和转速进行实时在线估计。所选取的滤波算法只需测量电流和逆变器直流母线电压,具有不改造电机、可靠性高和经济耐用的优点。利用在线估计出的转速和电流实现转速电流双闭环的永磁同步电机矢量控制。同时还提出了基于磁饱和原理的永磁转子初始位置的检测方法。针对转子磁场定向方式及矢量控制方案,采用了空间矢量脉宽调制方法对系统进行控制,此方法可以输出任意给定位置的电压矢量,在不增加功率管开关频率和不增加系统复杂性的前提下,明显提高电机的调速性能。 在Matlab6.5环境下进行的系统仿真实验表明,所提出的位置估计算法和控制方法具有优良的转角跟踪特性和速度控制性能,同时系统具有较强的抗负载扰动性能和较好的鲁棒性。实验结果表明本文的方法达到了预期的效果。
上传时间: 2013-04-24
上传用户:huangld
交流电动机是一个多变量、高阶、强耦合的非线性系统,不象直流电机那样易于控制转矩,采用矢量控制技术可解决传统交流调速的难题,使交流电机可以按直流电机的控制规律来进行控制,而无传感器矢量控制技术由于可以省去速度传感器,使相应的交流调速系统变得简便、廉价和可靠,所以成为当前研究的热点,本论文工作就是这方面的一个尝试。 论文首先介绍了矢量控制技术的基本理论。对感应电动机在三相静止坐标系下强耦合和互感变参数的数学模型,通过坐标变换,导出感应电机在两相同步旋转坐标系下的数学模型,然后将同步坐标系按转子磁场定向,实现了对转子磁链和转矩的分别控制,从而可以按直流电机的控制规律来控制交流电机。 其次,论文基于同步轴系下的感应电动机电压磁链方程式,提出了一种感应电动机按转子磁场定向的矢量控制方法,利用在同步轴系中T轴电流的误差信号实现对电机速度的估算,这种速度估算方法结构简单,有一定的自适应能力。同时在该无传感器矢量控制系统中,由于采用了经典的PI调节器,使得控制系统更为简单易行。 论文利用MATLAB建立了该无传感器矢量控制系统的仿真模型。为提高系统的适应性和仿真结果的准确性,仿真模型采用了标么值系统,并考虑了控制周期和采样信号周期对仿真结果的影响。讨论了离散控制引起的相位补偿问题,使仿真结果更接近实际工程系统。 最后,通过仿真进一步验证了本文提出的无传感器矢量控制系统的正确性和可行性,也证明了速度估计模型对速度估计准确,且对参数的变化有较强的鲁棒性。
上传时间: 2013-06-02
上传用户:libinxny
永磁直流微电机作为一种机电能量转换器件,随着永磁新材料的开发,得到了迅猛的发展和广泛的应用。作为元器件,它的失效会关联到相应的工作系统和机构的正常运作,所以微电机的寿命可靠性分析和失效研究显得很重要,是准确估计其相关复杂工程系统稳定可靠性的基础。 论文基于永磁直流微电机产品是大批量且生产过程处于严格的统计质量控制状态下,而对其进行可靠性及失效分析。由于在影响微电机寿命的因素中,有很多属于随机性因素,因此可结合概率统计学原理,运用相关的数学工具,来探讨微电机失效分布函数的特征、类型和评价指标。论文针对微电机的特征,把一般的可靠性、失效分布类型函数进行整合、变换,运用到了微电机的可靠性分析上。 论文对微电机寿命可靠性及失效分析的数据处理也作了一些探讨。具体包括三个方面的内容:首先是根据试验测量结果,对预先假定的可靠性分布模式,即随机变量分布规律进行检验(假设检验)的方法作了探讨;其次是基于试验测量的样本值,估计随机分布参数的数值和推断这种估计的误差范围(一定置信水平下);再次是在预先根本不知道或不确定分布函数类型情形下,而根据寿命试验的测量数据结果,从中寻找出失效的分布特征,或者寻找出某一数学函数表达式,在某一确定精度下,运用数值分析原理来逼近数据分布规律。还结合微电机寿命试验的结果,作了可靠性实例分析。 论文还针对微电机失效的常见主要形式、状态,对组成微电机的主要零部件从工程应用角度作了系统分析。内容包括结合个人护理应用微电机的开发实例,建立了电刷振动分析模型,使用计算机软件模拟分析技术和激光振动测试技术,对微电机电刷片振动作了模拟和实际测量的对比分析,探讨了微电机电刷失效问题及改善、优化途径;运用材料学分析方法系统地探索了杯士和换向器设计、材料选择及失效问题;运用可靠性理论对电机结构进行了优化设计;并运用设计编程的电磁场有限元软件,对微电机电磁场进行了模拟优化设计;样机的实际测量结果和理论模拟基本吻合,并略为有所提高;还探讨了微电机寿命改善和能力提高的方法。
上传时间: 2013-07-18
上传用户:龙飞艇