虫虫首页| 资源下载| 资源专辑| 精品软件
登录| 注册

优化算法,模式识别

  • 基于DSP和FPGA的车牌识别系统设计及实现.rar

    随着我国国民经济的高速发展,国内高速公路、城市道路、停车场建设越来越多,对交通控制、安全管理的要求也日益提高,智能交通系统( IntelligentTransportation Systems,简称ITS)已成为当前交通管理发展的主要方向,而车牌识别系统(License Plate Recognition System,简称LPRS)技术作为智能交通系统的核心,起着举足轻重的作用,可以被广泛地应用于高速公路自动收费(ElectronicToll Collection,简称ETC)、停车场安全管理、被盗车辆的追踪、车流统计等。 目前,车牌识别系统大多都是基于PC平台的,其优势是实现容易,但是成本高、实时性不强、稳定性不高等缺点使其不能广泛推广。为了克服以上的缺点,且满足识别速度和识别率的要求,本文在原有车牌识别硬件系统设计的基础上做了一定的改进(原系统在图像采集、接口通信、系统稳定、脱机工作等方面存在一定问题),与团队成员一起设计出了新的车牌识别硬件系统,采用单DSP+FPGA和双DSP+FPGA双板子的方式来共同实现(本人负责单DSP+FPGA的原理图和PCB绘制,另一成员负责双DSP+FPGA的原理图和PCB绘制)。 本文所涉及的该车牌硬件系统,主要工作由以下几个部分组成: 1.团队共同完成了新车牌识别系统的硬件设计,采用两个板子实现。其中,本人负责单DSP+FPGA板子绘制。 2.团队一起完成了整个系统的硬件电路调试。主要分为如下模块进行调试:电源,DSP,FPGA,SAA7113H视频解码器,LCD液晶显示和UART接口等。 3.负责完成了整个系统的DSP应用程序设计。采用DSP/BIOS操作系统来构建系统的框架,添加了多个任务对象进行管理系统的调度;用CSL编写了DSP上的底层驱动:完成了车牌识别算法在DSP上的移植与优化。 4.参与完成了部分FPGA程序的开发,主要包括图像采集、存储、传输几个模块等。 最终,本系统实现了高效、快速的车牌识别,各模块工作稳定,能脱机实现图像采集、传输、识别、结果输出和显示为一体化的功能;为以后进行高性能的车牌识别算法开发提供了一个很好的硬件平台。

    标签: FPGA DSP 车牌识别

    上传时间: 2013-04-24

    上传用户:slforest

  • 图像缩放算法的研究与FPGA设计.rar

    Scaler是平板显示器件(FPD,Flat Panel Display)中的重要组成部分,它将输入源图像信号转换成与显示屏固定分辨率一致的信号,并控制其显示在显示屏上。本文在研究图像缩放算法和scaler在FPD中工作过程的基础上,采用自上而下(Top-down)的设计方法,给出了scaler的设计及FPGA验证。该scaler支持不同分辨率图像的缩放,且缩放模式可调,也可以以IP core的形式应用于相关图像处理芯片中。 图像缩放内核是scaler的核心部分,它是scaler中的主要运算单元,完成图像缩放的基本功能,它所采用的核心算法以及所使用的结构设计决定着缩放性能的优劣,也是控制芯片成本的关键。因此,本文从缩放内核的结构入手,对scaler的总体结构进行了设计;通过对图像缩放中常用算法的深入研究提出了一种新的优化算法——矩形窗缩放算法,并对其计算进行分析和简化,降低了计算的复杂度。FPGA设计中,采用列缩放与行缩放分开处理的结构,使用双口RAM作为两次缩放间的数据缓冲区。使用这种结构的优势在于:行列缩放可以同时进行,数据处理的可靠性高、速度快:内核结构简单明了,数据缓冲区大小合适,便于设计。此外,本文还介绍了其他辅助模块的设计,包括DVI接口信号处理模块、缩放参数计算与控制模块以及输出信号检测与时序滤波模块。 本设计使用Verilog HDL对各模块进行了RTL级描述,并使用Quartus II7.2进行了逻辑仿真,最后使用Altera公司的FPGA芯片来进行验证。通过逻辑验证和系统仿真,证明该scaler的设计达到了预期的目标。对于不同分辨率的图像,均可以在显示屏上得到稳定的显示。

    标签: FPGA 图像 法的研究

    上传时间: 2013-05-30

    上传用户:xiaowei314

  • Adaboost算法的VLSI设计研究和FPGA实现.rar

    随着计算机科学在人机交互领域的极大发展,作为人脸信息处理中的一项关键技术,人脸检测现在已经成为模式识别,计算机视觉和人机交互领域不可缺少的一部分。但是,人脸检测算法存在计算量大、速度慢等缺点。软件实现方式无法达到实时处理要求,而现有的硬件实现需要占用大量硬件资源。 本文针对现有人脸检测硬件实现的缺点,通过对Adaboost算法和现有硬件结构的分析,提出了双流水线硬件检测架构:扫描窗口流水线、特征向量流水线。并在Vertex-II Pro FPGA平台验证成功,达到实时检测的标准。具体工作和创新点包括如下几点: 介绍了人脸检测的原理以及人脸检测经典算法。其中,详细介绍了Adaboost算法。 对现有的结构进行详细分析。指出现有各架构的缺点,即资源占用多,检测速度慢。针对这两个问题,本文提出了一个适合嵌入式应用的扫描窗口、特征向量双流水线检测硬件架构,详细说明了该架构的工作原理,并在该架构基础上,通过加入预测加载技术,进一步提高检测速度。随后,采用存储器访问效率,架构内部存储单元大小,检测时间长短,运算单元数量四个标准,详细比较了新架构和现有架构的差别,显示出新架构的优势。 基于提出的架构,给出了Adaboost人脸检测系统的VLSI实现方案。本文中,采用自顶向下的设计方法将人脸检测系统分成若干个子模块,然后对每个子模块进行详细的设计和说明,给出了每个子模块的硬件架构、状态转换以及verilog实现后的仿真波形。 采用Xilinx公司的VII Pro FPGA开发板完成人脸检测系统的硬件验证。FPGA验证结果表明对于QCIF分辨率的视频图像,人脸检测系统能够达到50fps的检测速度,满足实时检测的要求。

    标签: Adaboost VLSI FPGA

    上传时间: 2013-06-15

    上传用户:1193169035

  • H264AVC的CAVLC编码算法研究及FPGA实现.rar

    H.264/AVC是国际电信联盟与国际标准化组织/国际电工委员会联合推出的活动图像编码标准,简称H.264。作为最新的国际视频编码标准,H.264/AVC与MPEG-4、H.263等视频编码标准相比,性能有了很大的提高,并已在流媒体、数字电视、电话会议、视频存储等诸多领域得到广泛的应用。 本论文的研究课题是基于H.264/AVC视频编码标准的CAVLC(Context-based Adaptive Variable Length Coding,基于上下文的自适应可变长编码)编码算法研究及FPGA实现。对于变换后的熵编码,H.264/AVC支持两种编码模式:基于上下文的可变长编码(CAVLC)和基于上下文的自适应算术编码(CABAC,Context-based Adaptive BinaryArithmetic Coding)。在H.264/AVC中,尽管CAVLC算法也是采用了VLC编码,但是同以往标准不同,它所有的编码都是基于上下文进行。这种方法比传统的查单一表的方法提高了编码效率,但也增加了设计上的困难。 作者在全面学习H.264/AVC协议和深入研究CAVLC编码算法的基础上,确定了并行编码的CAVLC编码器结构框图,并总结出了影响CAVLC编码器实现的瓶颈。针对这些瓶颈,对CAVLC编码器中的各个功能模块进行了优化设计,这些优化设计包括多参考块的表格预测法、快速查找表法、算术消除法等。最后,用Verilog硬件描述语言对所设计的CAVLC编码器进行了描述,用EDA软件对其主要功能模块进行了仿真,并在Cyclone II系列EP2C20F484的FPGA上验证了它们的功能。结果表明,该CAVLC编码器各编码单元的编码速度得到了显著提高且均能满足实时通信要求,为整个CAVLC编码器的实时通信提供了良好的基础。

    标签: CAVLC H264 FPGA 264

    上传时间: 2013-06-22

    上传用户:diamondsGQ

  • 基于H.264编解码的算法优化研究及FPGA的硬件实现.rar

    H.264/AVC是由ITU和ISO两大组织联合组成的JVT共同制定的一项新的视频压缩技术标准,在较低带宽上提供高质量的图像传输是H.264/AVC的应用亮点。在同样的视觉质量前提下,H.264/AVC比H.263和MPEG-4节约了50%的码率。但H.264获得优越性能的代价是计算复杂度的增加,据估计其编码的计算复杂度大约为H.263的3倍,因此很难应用于实时视频处理领域。针对这一现状,业内做了大量的研究工作,力图降低其计算复杂度和提高运行效率。比如在运动估计方面,国内外在这方面的研究已经很成熟。而针对帧内/帧间预测编码的研究却较少。因此研究预测模式的快速算法具有理论意义和应用价值。 本文在详细研究H.264标准视频压缩编码特点基础上,分析了H.264帧内编码, 帧间编码及变换,量化技术的原理及特点,提出了一种基于局部边缘方向信息的快速帧内模式判决算法,通过结合SAD的模式选择方法来减少模式选择数目。它采用了Sobel梯度算子计算当前块的边缘信息,累加当前块中属于同一方向像素点的边缘矢量构造不同模式下的边缘方向直方图,以便确定最可能的预测模式。该算法有效降低了编码器的运算复杂度,在并未显著降低编码性能的情况下提升了编码器效率。仿真表明:Foreman 图像序列编码性能有了提高,其中PSNR平均降低了0.06dB,Bitrate平均降低了19.4%,这大大提高了视频传输的质量。 另外在帧间预测模式选择算法方面进行了改进研究:按顺序对不同类型进行判决,有选择地去比较可能模式,使得在有效减少需判决的模式数量的同时,结合小块模式搜索中途停止准则来确定最优模式。仿真表明:改进算法相对与原来算法能够节省很多的编码时间(平均下降了49.3%),但带来的图像质星的下降(平均下降0.08dB,可以忽略)和码率较少的增加。 同时在整数DCT变换模块中,提出了一种快速蝶形算法,使得对4×4点数据做一次变换,只需通过8×8次加法和2×8次移位运算便可完成,与原来12×8次加法和4×8次移位相比,新算法大大降低了运算复杂度。 最后介绍FPGA的特点及设计流程,并实现了H.264编解码器中变换编码及量化和熵解码模块的硬件。这种基于FPGA所实现的H.264编码视频处理模块设计具备了成本低,周期短,设计方法灵活等优点,具有广阔的市场应用前景。 仿真表明,通过使用本文提出的帧内/帧间速算法方法可使得H.264编码速度获得显著的提高,使H.264 Baseline编码器能在PC平台上实现实时编码。

    标签: FPGA 264 编解码

    上传时间: 2013-07-18

    上传用户:zukfu

  • ECC密码算法的FPGA实现及优化设计

      本文主要对基于FPGA芯片的椭圆曲线密码算法的实现及优化设计进行了研究。由于点乘运算极大影响了椭圆曲线密码系统的加/解密速度,本文对点乘运算的FPGA设计进行了重点优化。首先比较分析了三种点乘算法,从运算复杂度的角度确定了蒙哥马里算法是最利于FPGA芯片实现的。然后根据蒙哥马里算法,用VerilogHDL语言实现了基于FPGA芯片的椭圆域中的基本运算(模加、模乘、模平方和模逆)。通过三种模乘算法在FPGA上的实现,设计出一种串并混合的乘法器,达到了面积与速度的最佳匹配。 本文利用Modelsim对本课题设计的硬件系统进行了仿真实验,验证了所设计的硬件系统完成了椭圆曲线密码算法在FPGA上的实现。最后使用SynplifyPro进行综合及布局布线,综合报告文件证明了本课题所设计的ECC加密系统达到了优化芯片速度和面积的目的。

    标签: FPGA ECC 密码算法 优化设计

    上传时间: 2013-04-24

    上传用户:thuyenvinh

  • H.264解码算法优化及在ARM上的移植

    在信息化发展的当前,音视频等多媒体作为信息的载体,在社会生活的各个领域,起着越来越重要的作用。数字视频的海量性成为阻碍其应用的的瓶颈之一。在这种情况下,H.264作为新一代的视频压缩标准,以其高性能的压缩效率,成为备受关注的焦点和研究问题。H.264通过运动估计/运动补偿(MP/MC)消除视频时间冗余,对差值图像进行离散余弦变换(DCT)消除空间冗余,对量化后的系数进行可变长编码(VLC)消除统计冗余,获得了极高的压缩效率。随着嵌入式处理器性能的逐渐提升和3G网络即将商用的推动,H.264以其优秀的压缩性能,无论是无线信道传输方面,还是存储容量有限的嵌入式设备都具有广阔的应用前景。 但H.264在提升压缩性能的同时付出的代价是算法复杂度的成倍增加,实际应用中人们对视频解码的实时性要求严格,已出现的对应算法代码多基于PC通用处理器实现,而嵌入式设备的主频和处理能力仍然相对有限,存储容量相对较小,总线速率相对偏低,因此必须对标准对应算法进行优化移植,才能满足实际应用的需求。 本文在对H.264标准及其新特性进行详细介绍后,重点研究了在解码端如何针对解码耗时较多的模块进行改进,然后将算法移植到ARM平台,并针对平台特点作出相应优化,最后完成解码图象显示,并给出了测试结果。本文主要完成的工作如下: 详细分析了H.264的参考软件JM中解码流程,并利用测试工具分析了各模块耗时,针对耗时较多的模块如插值运算及去块滤波模块,提出了对应的改进算法并在H.264的参考软件JM86上进行了实现,PC测试实验证明了算法改进的优越性和运算优化的可行性。最后针对ARM平台,在对程序结构和对应代码进行优化之后,将其移植到WINCE系统之下,同时给出了WINCE平台解码后图象加速显示方法,并对最终测试结果与性能做出了评价。

    标签: 264 ARM 解码 算法优化

    上传时间: 2013-06-04

    上传用户:shijiang

  • 基于ARM的人脸识别系统设计与实现

    人脸识别技术作为生物识别技术之一,是模式识别在图像领域中的具体运用,其应用前景非常广阔,可以应用到身份证件的鉴别、自动门禁控制系统、银行取款机、家庭安全,图片检索等领域。 人脸识别系统主要分为人脸检测定位,特征提取和人脸分类三部分。人脸的检测和定位,即从输入的图像中找到人脸及人脸存在的位置,并将人脸从背景中分离出来。在特征提取部分,先对原始人脸数据进行特征提取,之后原始数据由维数较少的有效特征数据表示并存储在数据库中,接下来进行人脸分类,在识别待测人脸图像时,将待测图像的特征数据与数据库中存储数据相比对,判断是否为库中的某一人,从而实现自动识别人脸的目的。 在过去的十年里,人脸识别技术一直是图像处理领域里具有挑战性的课题,随着研究的深入,许多人脸检测及识别算法被提出来。其中基于主成分分析的Eigenface的算法及其变形已经成为测试人脸识别系统性能的基准算法;同时Adaboost人脸检测算法,在PC上基本可以达到实时,在嵌入式产品广泛应用的今天,只有让人脸识别算法在嵌入式平台上实现,才能获得更广阔的应用,本文研究了在嵌入式平台上Adaboost人脸检测算法的性能。 嵌入式是后PC时代的一个亮点,目前已经应用在社会生活的方方面面。嵌入式产品的开发平台分为包括很多,如:DSP,ARM,PowerPC等等。本文采用的ARM9作为嵌入式开发平台,研究人脸识别在ARM平台的性能,为实用的嵌入式人脸识别系统的设计提供参考。 本文从PC平台的软件实现入手,分别实现了PC平台下的AdaBoost人脸检测算法和PCA人脸识别算法,分析了现象及结果,接下来搭建了基于ARM嵌入式系统的硬件平台,对AdaBoost人脸检测算法进行了硬件平台的移植,并得出相应实验效果。

    标签: ARM 人脸识别 系统设计

    上传时间: 2013-05-31

    上传用户:saharawalker

  • 基于ARM的嵌入式指纹识别系统

    生物识别技术代表了未来身份验证技术的发展方向,而指纹识别技术又是最可靠、最有效的生物识别技术之一。目前,指纹识别技术是优于其它生物识别技术的身份鉴别方法。这是因为人的指纹各不相同、终生基本不变的特点已经得到公认,特别是现有的指纹识别算法已达到识别迅速、准确可靠的水平,是完全可以商业化的生物识别技术。 传统的指纹识别系统多是基于PC平台,这种系统将指纹图像处理和指纹匹配甚至指纹采集控制都放在PC平台上,在获得了较高速度和开发效率的同时,缺点也是显而易见的,其体积庞大,成本较高。而已有的嵌入式指纹识别系统多是基于单片机和DSP的,不是在运算速度上受到硬件限制,就是在系统的扩展性、可维护性及用户交互上有诸多不足。 近年来指纹识别应用的普及对自动指纹识别系统的便携性和易用性提出了更高的要求,指纹识别技术正向着小型化和嵌入式的方向发展。在微电子领域,以ARM、DSP、FPGA为代表的嵌入式微处理器的性能飞速提高,为构建嵌入式系统提供了硬件保证。 ARM是当前最为流行的32位RISC处理器架构,目前ARM占RISC处理器市场的七成左右。三星公司的S3C2410是基于ARM920T内核的通用32位微处理器,它具有高性能和低功耗的特性,被设计用于手持设备和通用嵌入式系统。 嵌入式系统对操作系统和其上运行的软件有特别的要求。针对本课题所采用的ARM硬件平台,详细介绍了嵌入式操作系统Arm-Linux的移植。分别说明了交叉编译工具链的安装、引导装载器的移植和Linux内核的裁减和交叉编译过程。为了运行应用程序,还介绍了文件系统的构建。 指纹识别系统需要指纹采集设备。FPS200是Veridicom公司推出的第三代半导体指纹传感器,是一款专为嵌入式系统设计的高性能、低成本、低功耗的电容式固态指纹传感器。本文详细阐述了基于FPS200的USB接口指纹采集卡的设计与实现。 指纹图像处理与匹配是整个系统的重要环节,论文介绍了图像处理与匹配的一般概念,并提出了新的指纹匹配方法。指纹匹配是自动指纹识别中的一个难点。现有的指纹匹配方法大致可以归结为图形匹配和人工神经网络匹配两大类,本文提出的基于线段的特征点匹配算法属于图形匹配。 嵌入式系统需要完善的软件支持。随着嵌入式技术的飞速发展,用户交互界面也由传统的字符界面向图形界面转变,图形用户界面系统得到了长足的发展。MiniGUI 是一个非常适合于工业控制实时系统以及嵌入式系统的可定制的、小巧的图形用户界面支持系统。本文介绍了基于MiniGUI的可视化指纹识别软件设计。 综上所述,本文针对特定硬件条件,构建了定制的嵌入式操作系统;设计了支持USB数据传输的指纹采集卡;指纹图像的滤波、提取特征和指纹特征匹配均针对嵌入式系统的实际情况进行了优化;利用MiniGUI图形支持库完成了界面美观友好的可视化指纹识别程序。系统具有安全可靠、易于扩展、性价比高等优点。

    标签: ARM 嵌入式 指纹识别系统

    上传时间: 2013-08-02

    上传用户:小儒尼尼奥

  • 基于ARM核嵌入式系统的AES算法优化

    本文从AES的算法原理和基于ARM核嵌入式系统的开发着手,研究了AES算法的设计原则、数学知识、整体结构、算法描述以及AES存住的优点利局限性。 针对ARM核的体系结构及特点,对AES算法进行了优化设计,提出了从AES算法本身和其结构两个方面进行优化的方法,在算法本身优化方面是把加密模块中的字节替换运算、列混合运算和解密模块中的逆列混合运算中原来的复杂的运算分别转换为简单的循环移位、乘和异或运算。在算法结构优化方面是在输入输山接口上采用了4个32位的寄存器对128bits数据进行了并行输入并行输出的优化设计;在密钥扩展上的优化设计是采用内部扩展,即在进行每一轮的运算过程的同时算出下一轮的密钥,并把下一轮的密钥暂存在SRAM里,使得密钥扩展与加/解密运算并行执行;加密和解密优化设计是将轮函数查表操作中的四个操作表查询工作合并成一个操作表查询工作,同时为了使加密代码在解密代码中可重用,节省硬件资源,在解密过程中采用了与加密相一致的过程顺序。 根据上述的优化设计,基于ARM核嵌入式系统的ADS开发环境,提出了AES实现的软硬件方案、AES加密模块和解密模块的实现方案以及测试方案,总结了基于ARM下的高效编程技巧及混合接口规则,在集成开发环境下对算法进行了实现,分别得出了初始密钥为128bits、192bits和256bits下的加密与解密的结果,并得剑了正确验证。在性能测试的过程中应用编译器的优化选项和其它优化技巧优化了算法,使算法具有较高的加密速度。

    标签: ARM AES 嵌入式系统 算法优化

    上传时间: 2013-04-24

    上传用户:liansi