软件无线电(Software Defined Radio)是无线通信系统收发信机的发展方向,它使得通信系统的设计者可以将主要精力集中到收发机的数字处理上,而不必过多关注电路实现。在进行数字处理时,常用的方案包括现场可编程门阵列(FPGA)、数字信号处理器(DSP)和专用集成电路(ASIC)。FPGA以其相对较低的功耗和相对较低廉的成本,成为许多通信系统的首先方案。正是在这样的前提下,本课题结合软件无线电技术,研究并实现基于FPGA的数字收发信机。 @@ 本论文主要研究了发射机和接收机的结构和相关的硬件实现问题。首先,从理论上对发射机和接收机结构进行研究,找到收发信机设计中关键问题。其次,在理论上有深刻认识的基础上,以FPGA为手段,将反馈控制算法、反馈补偿算法和前馈补偿算法落实到硬件电路上。同步一直是数字通信系统中的关键问题,它也是本文的研究重点。本文在研究了已有各种同步方法的基础上,设计了一种新的同步方法和相应的接收机结构,并以硬件电路将其实现。最后,针对所设计的硬件系统,本文还进行了充分的硬件系统测试。硬件测试的各项数据结果表明系统设计方案是可行的,基本实现了数字中频收发机系统的设计要求。 @@ 本文中发射机系统是以Altera公司EP2C70F672C6为硬件平台,接收机系统以Altera公司EP2S180F1020C3为硬件平台。收发系统均是在Ouartus Ⅱ 8.0环境下,通过编写Verilog HDL代码和调用Altera IP core加以实现。在将设计方案落实到硬件电路实现之前,各种算法均使用MATLAB进行原理仿真,并在MATLAB仿真得到正确结果的基础上,使用Quartus Ⅱ 8.0中的功能仿真工具和时序仿真工具进行了前仿真和后仿真。所有仿真结果无误后,可下载至硬件平台进行调试,通过Quartus Ⅱ 8.0中集成的SignalTap逻辑分析仪,可以实时观察电路中各点信号的变化情况,并结合示波器和频谱仪,得到硬件测试结果。 @@关键词:SDR;数字收发机;FPGA;载波同步;符号同步
上传时间: 2013-04-24
上传用户:diaorunze
GSM是全球使用最为广泛的一种无线通信标准,不仅在民用领域,也在铁路GSM-R等专用领域发挥着极为重要的作用。由于无线信道具有瑞利衰落和延时效应,在通信系统的收发两端也存在不完全匹配等未知因素,因此接收的信号叠加有各种误差因素的影响。GSM接收机的实现离不开系统的同步,为了得到更好的同步质量,就必须对GSM基带同步技术进行研究,选择一种最合适的同步算法。GSM的同步既有时间同步,也有频率同步。 @@ 软件无线电是当前通信领域引入注目的热点之一。长期以来,GSM的接收和解调都是由专用的ASIC芯片来完成的,通过软件来实现GSM接收机的基带算法,体现了软件无线电技术的思想,选择用它们来实现的GSM接收机具有灵活、可靠、扩展性好的优点。 @@ 论文主要讨论GSM接收机同步算法与基于FPGA和DSP的GSM接收机设计, @@ 主要内容包括: @@ 通过相关理论知识的学习,设计验证了GSM基带同步算法。对FB时间同步,讨论了包络检测和FFT变换两种不同的方法;对SB时间同步,介绍实相关和复相关两种方法;对频率同步,给出了一种对FB运用相关运算来精确估计频率误差的算法。 @@ 设计了使用GSM射频收发芯片RDA6210并通过实验室的ALTERA EP3C25FPGA开发板进行控制的GSM射频端的解决方案,论文对RDA6210的性能和控制方式进行了详细的介绍,设计了芯片的控制模块,得到了下变频后的GSM基带信号。 @@ 设计了基于RF前端+FPGA的GSM接收机方案。利用ALTERA EP2S180开发平台来完成基带数据的处理。针对ALTERA EP2S180开发平台模数转换器AD9433的特点使用THS4501设计了单独的差分运算放大器模块;设计了平台的数据存储方案并将该平台得到的基带采样数据用于同步算法的仿真。 @@ 设计了基于RF前端+DSP的GSM接收机方案。利用模数转换器AD9243、FPGA芯片和TMS320C6416TDSP芯片来完成基带数据的处理。设计了McBSP+EDMA传输的数据存储方案。 @@ 给出了接收机硬件测试的结果,从多方面验证了所设计硬件平台的可靠性。 @@关键词:GSM接收机;同步;RF; FPGA;DSP;
上传时间: 2013-07-01
上传用户:sh19831212
随着航天技术的发展,载人飞船、空间站等复杂航天器对空-地或空-空之间数据传输速率的要求越来越高。在此情况下,为了提高空间通信中数据传输的可靠性,保证接收端分路系统能和发送端一致,必须要经过帧同步。对卫星基带信号处理来说,帧同步是处理的第一步也是关键的一步。只有正确帧同步才能获取正确的帧数据进行数据处理。因此,帧同步的效率,将直接影响到整个卫星基带信号处理的结果。 @@ 本设计在研究CCSDS标准及帧同步算法的基础上,利用硬件描述语言及ISE9.2i开发平台在基于FPGA的硬件平台上设计并实现了单路数据输入及两路合路数据输入的帧同步算法,并解决了其中可能存在的帧滑动及模糊度问题。在此基础之上,针对两路合路输入时可能存在的两路输入不同步或帧滑动在两路中分布不均匀问题,设计实现了两路并行帧同步算法,并利用ModelSim SE 6.1f工具对上述算法进行了前仿真和后仿真,仿真结果表明上述算法符合设计要求。 @@ 本论文首先介绍了课题研究的背景及国内外研究现状,其次介绍了与本课题相关的基础理论及系统的软硬件结构。然后对单路数据输入帧同步、两路数据合路输入帧同步和两路并行帧同步算法的具体设计及实现过程进行了详细说明,并给出了后仿真结果及结果分析。最后,对论文工作进行了总结和展望,分析了其中存在的问题及需要改进的地方。 @@关键词 FPGA;CCSDS;帧同步:模糊度;帧滑动
上传时间: 2013-06-11
上传用户:liglechongchong
调整视频图像的分辨率需要视频缩放技术。如果图像缩放技术的处理速度达到实时性要求就可以应用于视频缩放。 传统图像缩放技术利用插值核函数对已有像素点进行插值重建还原图像。本文介绍了图像插值的理论基础一采样定理,并对理想重建函数Sinc函数进行了讨论。本文介绍了常用的线性图像插值技术及像素填充、自适应插值和小波域图像缩放等技术。然后,本文讨论了分级线性插值算法的思想,设计并实现了FPGA上的分级双三次算法。最后本文对各种算法的缩放效果进行了分析和讨论。 本文在分析现有视频缩放算法基础之上,提出了分级线性插值算法,并应用在简化线性插值算法中。分级线性插值算法以牺牲一定的计算精度为代价,用查找表代替乘法计算,降低了算法复杂度。本文设计并实现了分级双三次插值算法,详细说明了板上系统的模块结构。最后本文将分级线性插值算法与原线性插值算法效果图进行比较,比较结果显示分级插值算法与原算法误差较小,在放大比例较小时可以取代原算法。结果证明分级双三次线性插值算法的FPGA实现能够满足额定帧频,可以进行实时视频缩放。
上传时间: 2013-04-24
上传用户:亚亚娟娟123
当今,移动通信正处于向第四代通信系统发展的阶段,OFDM技术作为第四代数字移动通信(4G)系统的关键技术之一,被包括LTE在内的众多准4G协议所采用。IDFT/DFT作为OFDM系统中的关键功能模块,其精度对基带解调性能产生着重大的影响,尤其对LTE上行所采用的SC_FDMA更是如此。为了使定点化IDFT/DFT达到较好的性能,本文采用数字自动增益控制(DAGC)技术,以解决过大输入信号动态范围所造成的IDFT/DFT输出信噪比(SNR)恶化问题。 首先,本文简单介绍了较为成熟的AAGC(模拟AGC)技术,并重点关注近年来为了改善其性能而兴起的数字化AGC技术,它们主要用于压缩ADC输入动态范围以防止其饱和。针对基带处理中具有累加特性的定点化IDFT/DFT技术,进一步分析了AAGC技术和基带DAGC在实施对象,实现方法等上的异同点,指出了基带DAGC的必要性。 其次,根据LTE协议,搭建了从调制到解调的基带PUSCH处理链路,并针对基于DFT的信道估计方法的缺点,使用简单的两点替换实现了优化,通过高斯信道下的MATLAB仿真,证明其可以达到理想效果。仿真结果还表明,在不考虑同步问题的高斯信道下,本文所搭建的基带处理链路,采用64QAM进行调制,也能达到在SNR高于17dB时,硬判译码结果为极低误码率(BER)的效果。 再次,在所搭建链路的基础上,通过理论分析和MATLAB仿真,证明了包括时域和频域DAGC在内的基带DAGC具有稳定接收链路解调性能的作用。同时,通过对几种DAGC算法的比较后,得到的一套适用于实现的基带DAGC算法,可以使IDFT/DFT的输出SNR处于最佳范围,从而满足LTE系统基带解调的要求。针对时域和频域DAGC的差异,分别选定移位和加法,以及查表的方式进行基带DAGC算法的实现。 最后,本文对选定的基带DAGC算法进行了FPGA设计,仿真、综合和上板结果说明,时域和频域DAGC实现方法占用资源较少,容易进行集成,能够达到的最高工作频率较高,完全满足基带处理的速率要求,可以流水处理每一个IQ数据,使之满足基带解调性能。
上传时间: 2013-05-17
上传用户:laozhanshi111
现代数字信号处理对实时性提出了很高的要求,当最快的数字信号处理器(DSP)仍无法达到速度要求时,唯一的选择是增加处理器的数目,或采用客户定制的门阵列产品。随着可编程逻辑器件技术的发展,具有强大并行处理能力的现场可编程门阵列(FPGA)在成本、性能、体积等方面都显示出了优势。本文以此为背景,研究了基于FPGA的快速傅立叶变换、数字滤波、相关运算等数字信号处理算法的高效实现。 首先,针对图像声纳实时性的要求和FPGA片内资源的限制,设计了级联和并行递归两种结构的FFT处理器。文中详细讨论了利用流水线技术和并行处理技术提高FFT处理器运算速度的方法,并针对蝶形运算的特点提出了一些优化和改进措施。 其次,分析了具有相同结构的数字滤波和相关运算的特点,采用了有乘法器和无乘法器两种结构实现乘累加(MAC)运算。无乘法器结构采用分布式算法(DA),将乘法运算转化为FPGA易于实现的查表和移位累加操作,显著提高了运算效率。此外,还对相关运算的时域多MAC方法及频域FFT方法进行了研究。 最后,完成了图像声纳预处理模块。在一片EP2S60上实现了对160路信号的接收、滤波、正交变换以及发送等处理。实验表明,本论文所有算法均达到了设计要求。
上传时间: 2013-06-09
上传用户:zgu489
随着人们对数字电视和数字视频信息的需求越来越大,数字电视广播在中国迅速的发展起来。近几年,数字电视传输系统技术逐渐成熟,数字电视地面广播(DTTB)传输标准也于2006年8月30号正式出台。此标准技术是由我国多家单位联合研究的,具有自主知识产权的数字地面电视传输标准。DTTB系统标准的研究与仿真,具有巨大的实用价值和广阔的市场前景。 @@ 本文首先研究了地面数字电视广播标准中平方根升余弦(SRRC)滤波器(滚降系数为0.05)的结构设计,介绍了一种适合在FPGA中实现的高阶高速FIR滤波器的并行流水线结构。在本设计中,以CSD数优化滤波器系数,并运用简化加法器图(Reduced Adder Graph,RAG)算法进行改进,最后采用并行处理的转置型流水线结构实现。 @@ 接着研究数字电视地面传输标准采用的传输技术-OFDM的基本概念和技术特点,并研究了清华大学提出的DMB-T方案中TDS-OFDM信号帧的组成结构以及相关原理。 @@ 最后,本文针对OFDM调制所需要的3780点FFT处理器进行研究。为了保证OFDM信号的采样率和时域导频的采样率相同,以达到较好的同步性能,采用了3780个正交子载波的设计方案。在实现过程中,分析比较了多种算法的计算复杂性,设计出在硬件实现复杂度上进行优化的3780点FFT处理器的数据流流水线算法。之后,通过定点仿真比较各模块输出的动态范围和概率分布,设计出定点字长的优化方案,并分析计算了这一处理器的输出信噪比与内部各模块字长的关系,进一步降低了硬件实现复杂性。 @@关键字:数字电视地面广播传输(DTTB);平方根升余弦滤波器(SRRC);正交频分复用调制(OFDM);快速傅立叶变换(FFT); 3780
上传时间: 2013-04-24
上传用户:mdrd3080
人脸自动识别技术是模式识别、图像处理等学科的一个最热门研究课题之一。随着社会的发展,各方面对快速有效的自动身份验证的要求日益迫切,而人脸识别技术作为各种生物识别技术中最重要的方法之一,已经越来越多的受到重视。对于具有实时,快捷,低误识率的高性能算法以及对算法硬件加速的研究也逐渐展开。 本文详细分析了智能人脸识别算法原理,发展概况和前景,包括人脸检测算法,人眼定位算法,预处理算法,PCA和ICA 算法,详细分析了项目情况,系统划分,软硬件平台的资源和使用。并在ISE软件平台上,用硬件描述语言(verilog HDL)对算法部分严格按照FPGA代码风格进行了RTL 硬件建模,并对C++算法进行了优化处理,通过仿真与软件算法结果进行比对,评估误差,最后在VirtexII Pro FPGA 上进行了综合实现。 主要研究内容如下: 首先,对硬件平台xilinx的VirtexII Pro FPGA 上的系统资源进行了描述和研究,对存储器sdram,RS-232 串口,JTAG 进行了研究和调试,对Coreconnect的OPB总线仲裁机理进行了两种算法的比较,RTL 设计,仿真和综合。利用ISE和VC++软件平台,对verilog和C++算法进行同步比较测试,使每步算法对应正确的结果。对软硬件平台的合理使用使得在项目中能尽可能多的充分利用硬件资源,制板时正确选型,以及加快设计和调试进度。其次,对人脸识别算法流程中的人脸检测,人眼定位,预处理,识别算法分别进行了比较研究,选取其中各自性能最好的一种算法对其原理进行了分析讨论。人脸检测采用adaboost 算法,因其速度和精度的综合性能表现优异。人眼定位采用小块合并算法,因为它具有快速,准确,弱时实的特点。预处理算法采用直方图均衡加平滑的算法,简单,高效。 识别算法采用PCA 加ICA 算法,它能最大的弱化姿态和光照对人脸识别的影响。 最后,使用Verilog HDL 硬件描述语言进行算法的RTL 建模,在C++算法的基础上,保证原来效果的前提下,根据FPGA 硬件特点对算法进行了优化。视频输入输出是人脸识别的前提,它提供FPGA 上算法需要处理的数据,预处理算法在C++算法的基础上进行了优化,最大的减少了运算量,提高了运算速度,16 位计算器模块使得在算法实现时可以根据系统要求,在FPGA的ip 核和自己设计的模块之间选择性能更好的一个来调用,FIFO的设计提供同步和异步时钟域的数据缓存。设计在ISE和VC++软件平台同时进行,随时对verilog和C++数据进行监测和比对。全部设计模块通过仿真,达到预定的性能要求,并在FPGA 上综合实现。
上传时间: 2013-07-13
上传用户:李梦晗
现代通信朝着全网IP化的进程逐步发展,越来越多的通信需要IP路由查找;同时光纤技术的发展,使得比特速率达到了20Gbps,路由技术成了整个通信系统的瓶颈,迫切需要一种具有高查找性能,低成本的路由算法,能够适应大规模应用。 本文研究了一种高性能、低成本的路由算法。在四分支并行路由查找算法的基础上,实现了双分支并行,每个分支流水查找的16-8-8路由算法。该算法由三级表构成,长度小于16的前缀通过扩展成为长度16的前缀存储在第一级表中;长度小于24位的前缀通过扩展成为长度24的前缀存储在前两级表中;长度大于24的前缀则通过专门的存储空间进行存储。将IP路由的二维查找转化为一维精确查找,每次查找最多访问存储器3次,就可以查得下一跳的路由信息。使用Verilog语言实现了本文提出的算法,并对算法进行了功能仿真。为了实现低成本,该算法采用了FPGA和SSRAM的硬件结构实现。 功能仿真表明本文设计的算法查找速度能适应20Gbps的接口转发速率。
上传时间: 2013-04-24
上传用户:金宜
Scaler是平板显示器件(FPD,Flat Panel Display)中的重要组成部分,它将输入源图像信号转换成与显示屏固定分辨率一致的信号,并控制其显示在显示屏上。本文在研究图像缩放算法和scaler在FPD中工作过程的基础上,采用自上而下(Top-down)的设计方法,给出了scaler的设计及FPGA验证。该scaler支持不同分辨率图像的缩放,且缩放模式可调,也可以以IP core的形式应用于相关图像处理芯片中。 图像缩放内核是scaler的核心部分,它是scaler中的主要运算单元,完成图像缩放的基本功能,它所采用的核心算法以及所使用的结构设计决定着缩放性能的优劣,也是控制芯片成本的关键。因此,本文从缩放内核的结构入手,对scaler的总体结构进行了设计;通过对图像缩放中常用算法的深入研究提出了一种新的优化算法——矩形窗缩放算法,并对其计算进行分析和简化,降低了计算的复杂度。FPGA设计中,采用列缩放与行缩放分开处理的结构,使用双口RAM作为两次缩放间的数据缓冲区。使用这种结构的优势在于:行列缩放可以同时进行,数据处理的可靠性高、速度快:内核结构简单明了,数据缓冲区大小合适,便于设计。此外,本文还介绍了其他辅助模块的设计,包括DVI接口信号处理模块、缩放参数计算与控制模块以及输出信号检测与时序滤波模块。 本设计使用Verilog HDL对各模块进行了RTL级描述,并使用Quartus II7.2进行了逻辑仿真,最后使用Altera公司的FPGA芯片来进行验证。通过逻辑验证和系统仿真,证明该scaler的设计达到了预期的目标。对于不同分辨率的图像,均可以在显示屏上得到稳定的显示。
上传时间: 2013-05-30
上传用户:xiaowei314