一、基于DSP的实时视频压缩系统的开发(论文文献综述)
王涛[1](2020)在《基于TMS320DM8127双路视频压缩传输系统设计与实现》文中认为随着图像处理技术的不断发展,视频监控系统广泛地应用在智能交通、平安城市、飞机目标跟踪等诸多领域,在日常生活和国防建设中都扮演着重要角色。除了高数据量带来的视频质量和清晰度问题,不同应用场景带来的不同格式视频源兼容性问题也是亟待解决的问题之一。能够兼容多格式输入的视频压缩传输系统有着广阔的应用前景和市场需求。本文基于此背景,研究设计并实现基于H.264视频编码的支持多格式输入的双路视频压缩传输系统。系统采用FPGA+DSP处理器架构,以TI公司的Davinci系列TMS320DM8127为核心处理器,配以大容量高速DDR3,分别采用GS2970和TVP5151完成对SDI视频和PAL视频的采集,通过FPGA对两路视频进行信号切换和数据格式转换,利用DM8127对双路视频同时压缩编码,并将SDI压缩视频以RTP协议分发组播,将PAL压缩视频以TCP协议传输至存储模块。本设计以DM8127为核心构建了集采集、压缩、传输为一体的网络视频服务终端。具体而言,本文的主要工作在以下几个方面。硬件设计工作主要包括1、视频采集模块的设计,分别通过高清视频解码芯片将原始SDI视频转换为BT.1120格式,通过标清视频解码芯片将原始PAL视频转换为BT.656格式,两路视频通过FPGA完成信号切换及数据格式转换。2、网络传输模块采用了双网冗余设计保证系统传输的稳定性。3、电源模块的设计,首先通过分析各模块所需电压的特性,分别为其选用合适的电源转换芯片完成电路设计。其次设计使用集成电源管理芯片通过EEPROM编程实现对DM8127上电时序的控制。软件设计工作主要包括1、采集芯片驱动的设计,通过I2C总线控制标清视频解码芯片,通过SPI总线控制高清视频解码芯片。2、视频数据链路的构建与实现,设计并实现本项目需求的双路视频压缩传输数据链路。3、实现基于TCP和RTP协议的视频网络传输。在完成双路视频压缩传输系统的设计与实现后,本文进行了系统测试。结果表明本文设计的系统同时支持PAL和SDI视频输入,可以同时进行组播和存储,视频压缩传输的延时低于300ms,且解码后的视频无卡顿、掉帧等现象,视频压缩比达到125左右,同时系统的稳定性也达到项目需求。
易伟男[2](2020)在《基于DSP的非制冷红外成像技术研究》文中认为红外成像技术具有穿透烟雾能力强和可长时间工作等优点,这些优点使其在军事武器配备、工业生产和安防监控等领域具有广阔的应用前景。然而随着技术的快速发展,对于应用领域而言,低成本、高灵敏度系统和高清晰度红外图像的需求日益迫切。由于非制冷型探测器具有价格低、体积小、不需要制冷设备,因而在工业检测领域得到广泛应用。但由于加工工艺及材料的影响,非制冷红外探测器存在一定的非均匀性及电子噪声,限制了成像效果。因此利用信号处理技术对红外图像进行处理,提高成像效果,不仅具有重要的理论意义,而且具有实用价值。首先本文详细地介绍非制冷型红外成像系统的基本理论,理论主要是介绍红外辐射的基本特性、红外光学系统、非制冷红外焦平面阵列的结构和三种影响红外成像质量的因素。然后本文搭建了基于DSP的非制冷红外成像系统硬件平台,设计CPLD+DSP+MCU的整体架构,其中CPLD主要是做图像采集的准备工作和传输图像数据工作;DSP主要是完成对各个硬件单元模块的初始化、管理和对经过焦平面转换的辐射信号的算法处理;MCU主要使非制冷焦平面阵列探测像元的温度稳定处于30℃。接着本文研究了红外图像预处理非均匀性校正技术。针对图像的非均匀性,本文分析了人眼的视觉特性和两种传统非均匀性校正的优缺点,创新性地提出基于人眼视觉特性的多点压缩校正算法来提高图像清晰度。最后本文介绍了红外成像系统的测试与分析,研究了DSP核心处理器的视频处理子系统,且提出新型的循环软件存储设计,详细地阐述了硬件平台和软件平台的搭建并对红外图像处理算法在红外系统上的实现进行了分析。在硬件系统搭建、红外成像技术和算法的研究基础上,本文通过成像系统对红外图像进行采集处理和MATLAB仿真实验。结果说明本文提出的非均匀性校正算法可使红外图像的非均匀性降为4%以下,明显减少了储存数据量和算法的运行时间,提高了系统的实时性;固定阈值伪彩映射算法可提高了红外热图像的对比度和效果。
杨耀森[3](2020)在《基于嵌入式的流媒体加密传输与存储平台设计》文中提出随着5G与AI的落地,新型通信时代下的流媒体技术对于嵌入式运算平台的需求急剧的增加,在硬件性能和软件版本提升的同时,随着保密意识的增强,安全性也成为了平台发展的重要关注点。因此,本文将围绕视频会议这一流媒体应用点,构建一种流媒体传输存储的专用嵌入式平台并为其设计加密方案,致力于为新型智能的流媒体发展提供一种可观的硬件选择。本文首先从新视频时代下流媒体数据的传输、存储以及加密三个方向切入,对硬件选择和软件设计展开叙述。硬件设计方面采用DSP+ARM的嵌入式SOC架构,选用TI公司生产的基于Davinci技术的TMS320DM8148芯片作为CPU,搭建外围附属电路,完成硬件设计;软件方面首先搭建开发环境,移植linux操作系统,做好初期的准备工作,接着设计基于McFW视频框架的流媒体软件架构,插入同步音频数据的采集并进行压缩编码、媒体封装,最后移植流媒体开源服务器live555对封装包进行传输和存储,其中网络传输的接口为千兆RMGII模式,支持RJ45接口,存储设备则支持可插拔的USB便携存储器。流媒体平台设计完毕后接着进行加密模块的设计,本文选用一种新型的隐写加密技术(将要加密的数据通过相关的算法嵌入到压缩的视频数据中),首先在传统的隐写算法上引入最小化失真框架,接着构造出基于边缘特征的代价函数,并设计隐写规则进行数据的隐写,最后提出一种基于嵌入式平台的隐写流程,提供出隐写算法的伪代码。文章最后对流媒体平台进行独立硬件性能测试和完整系统运行测试,并给出实验结论,证明该流媒体平台不仅在硬件配置上处于较高的水平,可以作为视频会议等流媒体应用的平台选择,而且高性能DSP核支持音视频算法的植入,系统拥有一定算力,相信在新的智能信息时代中也可以作基础硬件平台使用。
李意弦[4](2020)在《基于C66x的HEVC视频编码优化技术研究》文中提出随着视频技术的发展与应用,人们对视频图像的质量与分辨率的要求越来越高,但是主流视频编码如H.264等的压缩性能难以满足人们的需求。高效视频编码HEVC(High Efficient Video Coding)是由ITU-T VCEG继H.264之后制定的新一带编码标准,HEVC继承了H.264的编码框架,增加了多项新技术。在相同图像质量条件下,HEVC码流大小仅为H.264的一半。但是HEVC在新技术引入的同时,算法复杂度急剧增长,编码效率难以满足实际工程应用。嵌入式DSP芯片作为专门的数字信号处理芯片,其在数字信号处理方面具有强大的优势。本文主要研究基于TI公司的高性能多核C66x-DSP开展HEVC视频编码优化工作,以提升HEVC编码算法在DSP平台上的实时性。本文的研究工作主要包括四个方面:基于C66x的HEVC单核编码系统搭建、HEVC算法优化、多核并行实现与DSP平台优化技术应用。(1)搭建基于SYS/BIOS实时操作系统的多核应用工程,将HEVC开源工程homer-HEVC移植到DSP平台。PC端的算法工程在DSP开发环境中存在兼容性问题,因此需要对不兼容部分进行调整或替换。(2)深入研究了HEVC中的核心技术,从算法层面对现有编码模型进行加速和优化,降低编码算法复杂度。HEVC编码器为了寻找最佳编码尺寸,使用了大量的迭代与递归以确保编码后的代价最低。此类编码模式虽能得到最佳的编码性能,但也牺牲了大量的编码效率。大量研究证明,视频中的时域以及空域相邻区域存在着强烈的相关性,并具有类似的编码行为。因此可利用此类相似性对HEVC算法进行改进,减少不必要的迭代和递归,在编码性能损失极少的条件下提升编码效率。(3)研究DSP平台下的HEVC算法多核并行。TI公司的TMS320C6678具有八个CPU内核,其中一个内核用于管理系统,其他核用于并行编码。为了实现并行,需要保证DSP处理的数据不存在依赖关系,为此修改了HEVC算法框架以实现并行处理。(4)通过DSP平台下的高效优化技术对HEVC算法进行优化,进一步提升编码效率。系统级优化能够使数据靠近CPU,降低数据访问时间消耗;模块级优化能够提高指令执行的软件流水,在单个周期内执行更多的指令。本文的面向C66x-DSP平台HEVC视频编码系统,通过多种优化技术,其编码效率显着提升,优化后的编码效率相较于未优化系统普遍提升了数十倍,实现了对标清视频的实时编码。
王艳杰[5](2020)在《便携式耳鼻喉科通用接口电子内窥镜图像处理器设计与实现》文中认为电子内窥镜系统是微创医学的重要装备,其图像处理器设计是核心关键技术,也是研究热点。随着集成电路及嵌入式软件系统的发展,图像处理器向着更通用、更高数据吞吐率、更便携的方向发展。以耳鼻喉科对电子内窥镜系统的需求为例,急诊时需要方便接入多种内窥镜,出诊时需要系统轻便易携带。因此,能同时接入电子鼻咽喉镜、麻醉喉镜等多种电子内窥镜的便携式图像处理器成为设计重点。本文对已有产品性能特点和未来发展趋势进行分析,提出了 一种便携式耳鼻喉科通用接口电子内窥镜图像处理器的设计方案,克服了常规内窥镜系统笨重、不灵活、扩展性差的弊端,具有重要研究意义和应用价值。本论文采用先进的28nm HKMG低功耗工艺制作的ARM架构嵌入式平台,以及新版Linux 3.4.39内核对上述临床医学需求进行方案设计。所选平台具有小尺寸、低功耗、视频处理能力强的特性,适合实现便携式医用电子内窥镜图像处理器。在通用视频输入接口设计方面,本文针对主流的DVP、MIPI、USB接口图像传感器,研发了高效率的视频流软件架构及驱动软件,设计了专用视频流框架,为实现视频的高速低延迟处理,设计了多硬件共用视频缓冲区的方案,实现了多种视频输出接口的软件设计。综上,论文实现了高清720p、200万像素及500万像素多种图像传感器的接入,以及视频实时显示、冻结、拍照、录像、回放、照片浏览、文件管理等功能,以触摸屏控制的方式实现人机交互。本系统所实现的双屏显示功能,也符合现行主流电子内窥镜图像处理器的使用方式。最后,在满足系统通用输入接口及实时图像处理的设计目标基础上,进一步探索了图像分辨率损失度和编码比特率,以及编码帧率的关系,在系统延迟性、图像压缩质量、图像解码还原度等方面做了优化,并对评价内窥镜系统的其他重要参数进行了定量测试分析。本文针对便携式耳鼻喉科电子内窥镜图像处理器的临床医学需求,研发了基于嵌入式处理器的开源驱动模型,并实现了图像压缩的进一步优化,这为未来驱动框架、系统软件和像质分析等相关研究工作的进一步开展打下了良好的基础。
郭志翼[6](2019)在《基于嵌入式平台的实时目标跟踪算法及优化方法研究》文中进行了进一步梳理作为计算机视觉领域的基本技术之一,目标跟踪技术在自动驾驶、视频监控、武器导引等方面有着广泛的应用。在各种架构的嵌入式平台中,FPGA+DSP架构的嵌入式平台在图像处理运算中具备优势,并且性价比较高。为此,选择使用FPGA+DSP架构的嵌入式平台完成目标跟踪任务。针对平台计算能力较弱的特点及不同应用场景的需求,提出了一种局部辅助定位目标跟踪算法和一种全图重检测目标跟踪算法,并移植到了嵌入式平台。论文开展的具体工作如下。(1)提出了一种局部辅助定位目标跟踪算法。算法包括自适应更新的时空上下文连续跟踪环节和自适应更新的压缩感知重定位环节两个部分。OTB2013测试框架是国际通用的目标跟踪算法评测框架,能够评价算法在复杂跟踪场景下的综合性能。使用该框架对算法的跟踪效果进行测试,算法跟踪精度较基准算法提升了13.35%,成功率提升了27.46%。将该算法移植到嵌入式系统平台,可以实现实时稳定跟踪。(2)提出了一种全图重检测目标跟踪算法,具备目标出视场又从任意路径返回后重新锁定目标的能力。算法包括基于自适应更新的时空上下文跟踪主环节和归一化互相关目标检测环节两个部分。使用OTB2013标准测试框架进行测试,算法精度较基准算法提升5.19%,成功率提升15.90%。移植到嵌入式平台后,人工营造目标出视场的场景,当目标重新进入视场后,全图重检测跟踪算法可以准确锁定目标,继续实时稳定跟踪。(3)在算法的嵌入式平台实现过程中,为了提升算法的运算效率,从算法和嵌入式平台的特性出发,在程序结构、编译环境、软件流水、内存空间、支持库等方面对程序进行了优化,经过优化后,算法在嵌入式平台上能够实现实时跟踪。局部辅助定位跟踪算法与全图重检测跟踪算法在稳定跟踪时处理速度为每秒53帧,优化效果显着。
刘亚婷[7](2019)在《X-DSP中H.264编码器加速模块的设计与实现》文中研究说明DSP可以灵活的实现编码器,且X-DSP芯片主频高、并行处理能力强,适用于视频图像的处理,是实现H.264编码器的理想平台。但基于X-DSP的纯软件无法满足视频编码高清实时的要求,因此设计基于X-DSP的专用视频编码加速模块,利用ASIC技术实现部分复杂核心的编码算法,利用DSP实现部分算法,兼顾编码器的灵活与性能。本文中利用DSP芯片特点,以实际通信系统的应用需求为背景,在深入研究H.264编码器算法的基础上,重点对编码算法中计算复杂度高、数据相关性强、难以并行处理的核心算法进行优化,针对高清视频的实时编码要求,设计出H.264编码器硬件加速模块的微体系结构,主要研究工作和成果如下:1、基于H.264编码标准,本文采用H.264编码器加速模块的微体系结构。基于编码数据流及控制流,设计访问接口、访问冲突控制机制,流畅实现算法中的“生成-消费”。2、基于加速模块的计算特点,设计编码器各模块的硬件架构,包括帧内预测、帧间预测、变换量化、CAVLC、CABAC、去块滤波模块。基于各模块计算特点配置存储资源。针对串行编码,采取4路、8路并行编码机制,提高编码效率。针对同一数据的频繁访问,采取存储器共享实现数据复用。针对多种模式选择,采取快速判断算法,降低模式选择计算量。针对运动估计算法,采取快速全搜索算法,提高搜索速度。针对读取更新上下文时的数据相关,采取两路存储器存放,实现数据并行。针对滤波顺序复杂,采取分组滤波算法,解决数据相关,降低控制滤波的复杂度。3、对H.264编码器加速模块RTL设计进行验证与综合,设计的加速模块总面积为2090529 um2,总功耗为2170 mW,关键路径延时为1.59 ns。使用4种视频序列对加速模块性能评测,结果显示加速模块的编码速度平均可以达到32帧每秒,而实时要求每秒30帧,满足实时编码要求,且经加速模块处理的图像质量,主观、客观方面都表现良好。将H.264编码器加速模块分别与FPGA-1、FPGA-2、ASIC这三种实现方案的编码器在性能、面积、功耗方面做比较,结果显示本文设计的编码器的编码效率高、面积较小、功耗较低。本文设计的H.264编码器加速模块微体系结构,设计了帧内预测、帧间预测、变换量化、CAVLC、CABAC、去块滤波等模块的架构,为高清视频实时编码器的研究设计奠定重要的理论基础。
高兴鹏[8](2019)在《音视频信号采集压缩及传输系统的设计与实现》文中指出随着数字技术的发展,音视频技术正在进入人们的工作和生活,提高了人们的工作效率和生活水平。音视频系统包括对声音和图像信号的采集、处理、存储或者传输,广泛应用于通信、娱乐和安防等领域。目前,音视频系统已经应用在了视频监控、ATM、医疗设备、和许多手持设备上。随着音视频技术在嵌入式平台上的广泛应用,嵌入式音视频采集传输系统已经成为研究热点。本文设计并实现了音视频信号采集压缩及传输系统,其主要内容如下:该系统采用TI的TMS320DM365处理器,加上相应的外设,可以采集音视频信号,进行模数转换,对转换后的音视频数据进行压缩封装以及传输。并在此基础上扩展了许多其它功能。通过研究嵌入式Linux软件编程技术和DaVinci技术,实现了对音视频信号的采集和压缩。首先在嵌入式硬件平台上搭建起嵌入式Linux系统,然后详细分析DaVinci技术中的DVSDK(音视频软件开发套件),设计了包括视频捕获线程、视频编码线程、视频写线程和音频线程的多线程程序,实现了音视频信号的采集和压缩,并在此基础上作进一步的开发,实现了参数配置、视频添加时间字幕的功能。基于FFmpeg音视频框架设计并实现了音视频压缩数据的封装和传输。分析了TS流格式和FFmpeg音视频框架的结构,通过调用FFmpeg中的函数设计程序,将音频压缩码流和视频压缩码流封装成了TS流,并实现了音视频同步,然后通过FFmpeg的内存数据操作方法,结合EMIF驱动把封装后的TS流通过EMIF接口从DSP传输给FPGA。最后对整个系统进行了测试,正确并高效的完成了音视频信号的采集、压缩、封装并从DM365传输给FPGA,然后FPGA对音视频数据进行缓存,传输给上位机播放。并且实现了上位机对音视频参数的配置和视频添加时间字幕的功能。本系统采用了DaVinci技术的硬件以及软件和FFmpeg音视频框架,使开发者可以更便捷和快速的实现二次开发,并且拥有很好的移植性。
陈坤[9](2019)在《基于SOC的图像压缩和目标跟踪模块设计》文中研究说明光电导引头可以完成图像实时采集处理、目标监测跟踪等任务,在海洋监测、视觉导航、精确制导系统等民用和军事领域都有着广泛的应用,本文基于相关课题需求,设计了一种图像压缩和目标跟踪模块。作为迷你光电导引头的主要组成部分,该模块需要完成对红外相机、可见光相机和伺服精确控制,红外和可见光图像实时采集、压缩、传输,红外和可见光图像目标实时跟踪,同时对外和飞控导航系统、机载数据终端进行通讯。本文首先介绍了课题背景和研究意义,以及国内外图像压缩和目标跟踪技术的研究发展现状。其次,对课题需求进行了分析,针对课题所提技术要求,目前主流的整体解决方案主要有三种:基于FPGA+DSP的解决方案、基于嵌入式GPU的解决方案和基于嵌入式SOC的解决方案。结合当前解决方案的优缺点以及系统高性能、低成本、低功耗和小体积的设计需求,本文提出了以XC7Z030和Hi3516A SOC为核心的总体方案设计。其次,本文进行了硬件平台总体设计,将系统硬件平台分成电源模块、图像输入与采集、图像存储与传输、目标跟踪、图像压缩和图像解码这六部分,详细介绍了各部分硬件电路的设计和测试过程,并对测试结果进行简要分析,验证了硬件平台设计的正确性。然后,针对课题的功能需求,结合硬件平台特点,本文对系统软件功能进行了设计,将系统软件分为七部分,并对其中主控软件、图像采集软件、图像存储软件、图像传输软件、图像压缩软件和图像解码软件六个部分的设计过程进行详细介绍,同时基于硬件平台对各部分软件进行了测试分析。接着,本文对系统中目标跟踪软件进行了设计,分析系统使用场景和硬件平台资源,提出一种基于改进卡尔曼滤波和模板匹配的目标跟踪算法,并结合ARM NEON技术对目标跟踪算法进行实现和优化。最后,对本文研究内容进行了总结,抛开课题设计需求,结合当前技术发展进程,对系统中部分模块的实现提出了改进方案。本文设计的基于SOC的图像压缩和目标跟踪模块具有低功耗高性能的特点,可完成最大分辨率达到1920*1080像素的可见光和红外图像的实时和并行采集、存储和传输;系统同时支持H.264和H.265压缩编码标准,编码性能可控;目标跟踪算法中加入了防遮挡设计,可实现目标实时稳定连续跟踪;硬件平台整体典型功耗约5W,峰值功耗仅5.5W,重量仅41.8g,表面积仅133cm2,板卡最厚处不超过8mm,整体设计非常适用于迷你导引头。
陈君杰[10](2019)在《基于FPGA和DSP的高清全景视频采集与处理系统》文中认为全景成像系统能实时获取水平方向360°范围内的场景信息,近年来随着全景成像技术的快速发展,全景成像系统已经广泛应用于无人驾驶、环境监测、三维场景重构等领域。全景图像生成过程涉及复杂的计算,因此目前高分辨率全景成像系统大都直接输出未处理的全景视频图像,处理任务由后级计算机完成。本文提出了一种基于FPGA(Field-Programmable Gate Array)和DSP(Digital Signal Processor)的高清全景视频采集与处理系统设计方案,该系统充分发挥FPGA和DSP各自的优势,直接输出适合人眼观测的矩形全景图像。首先,介绍系统工作原理和系统总体设计方案。选择双曲面折反射全景成像方案,采用500万像素图像传感器OV5640采集视频信号。FPGA选用Xilinx XC6SLX16,DSP选用TI TMS320C6748。然后,根据系统总体设计方案进行系统软硬件分模块设计。为了提升全景图像展开的速度与效果,在总结现有展开算法的基础上提出一种适合本全景视频采集与处理系统的对称重用分区插值展开法。将原始环形全景图像均匀分成八块,对其中一块利用光路跟踪的原理展开,其余七块根据对称关系进行展开;对不同的环形区域采用不同的插值算法,既保证了全景展开的速度又提升了展开图像的质量。最后,对本高清全景视频采集与处理系统进行实验。实验结果表明本系统能将分辨率为2592×1944、帧频为15fps的环形全景视频实时展开成分辨率为5904×726的柱面全景视频,满足设计要求。
二、基于DSP的实时视频压缩系统的开发(论文开题报告)
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
三、基于DSP的实时视频压缩系统的开发(论文提纲范文)
(1)基于TMS320DM8127双路视频压缩传输系统设计与实现(论文提纲范文)
摘要 |
ABSTRACT |
符号对照表 |
缩略语对照表 |
第一章 绪论 |
1.1 研究背景与意义 |
1.2 国内外相关研究现状 |
1.2.1 现有视频压缩标准概述 |
1.2.2 编码实现平台 |
1.2.3 视频监控的发展及现状 |
1.3 主要研究内容及结构安排 |
第二章 视频压缩相关技术 |
2.1 视频压缩原理 |
2.2 视频压缩标准 |
2.2.1 H.264标准的结构框架 |
2.2.2 H.264标准的档次 |
2.2.3 H.264编解码器结构 |
2.2.4 H.264视频编码新技术 |
2.3 本章小结 |
第三章 网络视频服务终端系统总体设计 |
3.1 系统总体模块化设计 |
3.2 硬件平台TMS320DM8127介绍 |
3.2.2 ARM子系统 |
3.2.3 DSP子系统 |
3.2.4 高清视频图像协处理器(HDVICP2) |
3.2.5 高清视频处理子系统(HDVPSS) |
3.3 软件平台IPNC-RDK介绍 |
3.3.1 IPNC-RDK软件开发包 |
3.3.2 Link机制 |
3.4 本章小结 |
第四章 网络视频服务终端硬件设计 |
4.1 硬件总体设计 |
4.2 视频采集模块设计 |
4.2.1 标清视频采集 |
4.2.2 高清视频采集 |
4.2.3 FPGA架构 |
4.3 网络传输模块设计 |
4.4 电源模块设计 |
4.5 存储模块设计 |
4.5.1 DDR模块 |
4.5.2 FLASH模块 |
4.6 SD卡模块设计 |
4.7 本章小结 |
第五章 基于IPNC-RDK的软件设计 |
5.1 开发环境的搭建 |
5.2 U-Boot和内核编译与移植 |
5.3 视频采集驱动的设计与实现 |
5.3.1 标清视频采集驱动设计与实现 |
5.3.2 高清视频采集驱动设计与实现 |
5.4 应用程序开发 |
5.4.1 视频链路总体布局 |
5.4.2 视频采集模块设计 |
5.4.3 视频编码模块设计 |
5.4.4 传输模块设计 |
5.5 本章小结 |
第六章 系统测试 |
6.1 测试环境搭建 |
6.2 功能性测试 |
6.3 延时性测试 |
6.3.1 SDI视频延时性测试 |
6.3.2 PAL视频延时测试 |
6.4 稳定性测试 |
6.5 本章小结 |
第七章 总结与展望 |
7.1 总结 |
7.2 展望 |
参考文献 |
致谢 |
作者简介 |
(2)基于DSP的非制冷红外成像技术研究(论文提纲范文)
摘要 |
abstract |
注释表 |
第1章 引言 |
1.1 研究背景与意义 |
1.2 国内外研究现状 |
1.3 论文内容与结构安排 |
第2章 非制冷红外成像系统的基本理论 |
2.1 红外辐射特性 |
2.1.1 红外辐射的基本特性 |
2.1.2 介质对红外辐射的影响 |
2.2 红外光学系统 |
2.3 非制冷红外焦平面阵列结构 |
2.4 影响红外成像质量的因素 |
2.4.1 输出的非均匀性 |
2.4.2 盲元 |
2.4.3 图像的对比度 |
2.5 本章小结 |
第3章 非制冷红外成像系统的架构设计 |
3.1 系统方案 |
3.1.1 系统设计需求 |
3.1.2 系统指标 |
3.1.3 总体架构设计 |
3.2 核心模块设计 |
3.2.1 CPLD采集模块 |
3.2.2 DSP主芯片模块 |
3.2.3 电源模块 |
3.2.4 扩展模块 |
3.2.5 存储模块 |
3.3 本章小结 |
第4章 红外图像预处理技术 |
4.1 人眼的视觉特性研究 |
4.2 传统非均匀性校正算法研究 |
4.2.1 两点校正算法 |
4.2.2 多点校正算法 |
4.3 基于人眼视觉特性的多点压缩校正算法 |
4.4 实验结果与分析 |
4.4.1 算法的非均匀性及图形效果 |
4.4.2 算法运行时间 |
4.5 本章小结 |
第5章 红外成像系统测试与分析 |
5.1 非制冷系统测试的需求分析 |
5.1.1 系统硬件平台的需求 |
5.1.2 系统软件平台的需求 |
5.2 非制冷成像系统的搭建 |
5.2.1 硬件平台的搭建 |
5.2.2 软件平台的搭建 |
5.3 图像处理算法的实现 |
5.3.1 非均匀性校正算法 |
5.3.2 伪彩映射算法 |
5.4 系统的成像效果与分析 |
5.5 本章小结 |
第6章 总结与展望 |
6.1 主要工作总结 |
6.2 后续研究工作 |
参考文献 |
致谢 |
攻读硕士学位期间从事的科研工作及取得的成果 |
(3)基于嵌入式的流媒体加密传输与存储平台设计(论文提纲范文)
摘要 |
abstract |
1.绪论 |
1.1 课题研究的背景和意义 |
1.2 国内外发展现状 |
1.2.1 流媒体发展现状 |
1.2.2 视频加密发展现状 |
1.2.3 嵌入式平台发展现状 |
1.3 章节安排 |
2.流媒体相关技术选择 |
2.1 编码技术选择 |
2.2 封装格式选择 |
2.3 传输协议选择 |
2.4 本章小结 |
3.基于TMS320DM8148 的平台硬件设计 |
3.1 硬件平台整体设计方案 |
3.2 CPU芯片介绍 |
3.3 平台电源设计 |
3.3.1 电源转换设计 |
3.3.2 处理器上电设计 |
3.3.3 复位时钟管理 |
3.4 视频输入模块设计 |
3.5 音频输入模块设计 |
3.6 网卡电路设计 |
3.7 本章小结 |
4.系统软件设计 |
4.1 软件开发环境的选择与搭建 |
4.1.1 交叉开发环境 |
4.1.2 交叉编译工具链 |
4.1.3 流媒体软件框架 |
4.1.4 传输协议 |
4.2 软件系统搭建 |
4.2.1 Uboot移植 |
4.2.2 内核移植 |
4.2.3 文件系统移植 |
4.3 系统软件设计 |
4.3.1 视频框架设计 |
4.3.2 音频框架设计 |
4.3.3 存储与传输设计 |
4.4 本章小结 |
5.视频加密设计 |
5.1 隐写算法设计 |
5.1.1 最小化失真框架引入 |
5.1.2 代价函数构造 |
5.1.3 映射规则选取 |
5.2 隐写方案实现 |
5.2.1 消息嵌入 |
5.2.2 消息提取 |
5.3 隐写加密测试 |
5.3.1 安全性分析 |
5.3.2 编码效率分析 |
5.3.3 信噪比分析 |
5.4 本章小结 |
6.系统测试与功能验证 |
6.1 测试环境搭建 |
6.2 硬件性能测试 |
6.2.1 FLASH速率测试 |
6.2.2 USB存储模块测试 |
6.2.3 千兆网口模块测试 |
6.3 系统功能测试 |
6.4 本章小结 |
7.总结与展望 |
7.1 工作总结 |
7.2 工作展望 |
参考文献 |
攻读硕士学位期间发表的论文及所取得的研究成果 |
致谢 |
(4)基于C66x的HEVC视频编码优化技术研究(论文提纲范文)
摘要 |
abstract |
1 绪论 |
1.1 课题的研究背景及意义 |
1.2 国内外研究现状 |
1.2.1 视频编码标准的发展历程 |
1.2.2 HEVC研究现状 |
1.3 DSP平台的发展现状与趋势 |
1.4 论文主要内容及组织安排 |
2 基于C66x-DSP的视频编码系统设计 |
2.1 多核DSP平台 |
2.2 软件开发框架 |
2.2.1 软件开发套件MCSDK |
2.2.2 SYS/BIOS实时操作系统 |
2.3 以太网通信模块 |
2.3.1 千兆以太网硬件结构 |
2.3.2 以太网软件设计方案 |
2.4 HEVC视频编码技术 |
2.4.1 编码结构 |
2.4.2 预测编码 |
2.4.3 变换和量化 |
2.5 系统设计 |
2.6 本章小结 |
3 HEVC视频编码优化 |
3.1 预测编码优化概述 |
3.2 帧内编码优化 |
3.2.1 深度估计 |
3.2.2 模式筛选 |
3.2.3 帧内编码优化效果 |
3.3 帧间编码优化 |
3.3.1 基于模式信息的提前终止划分 |
3.3.2 模式选择优化 |
3.3.3 帧间编码优化效果 |
3.4 本章小结 |
4 多核DSP并行实现及平台优化 |
4.1 HEVC并行策略 |
4.2 核间通信 |
4.2.1 数据迁移 |
4.2.2 IPC核间通信 |
4.3 多核并行处理 |
4.3.1 并行处理模型 |
4.3.2 多核并行处理实现 |
4.4 DSP平台优化 |
4.4.1 优化概述 |
4.4.2 系统级优化 |
4.4.3 模块级优化 |
4.4.4 线性汇编优化 |
4.4.5 其他优化方法 |
4.5 本章小结 |
5 系统优化效果及分析 |
5.1 软硬件平台搭建 |
5.2 优化效果与分析 |
5.3 本章小结 |
6 总结与展望 |
6.1 全文总结 |
6.2 不足与展望 |
致谢 |
参考文献 |
攻读学位期间取得的研究成果 |
(5)便携式耳鼻喉科通用接口电子内窥镜图像处理器设计与实现(论文提纲范文)
致谢 |
摘要 |
Abstract |
1 绪论 |
1.1 研究背景 |
1.2 国内外研究现状 |
1.3 研究内容 |
1.4 论文结构 |
2 系统方案与硬件设计 |
2.1 系统结构介绍 |
2.2 采集前端方案 |
2.3 处理后端方案 |
2.3.1 基于DSP的后端处理方案 |
2.3.2 基于FPGA的后端处理方案 |
2.3.3 基于ARM的后端处理方案 |
2.4 系统硬件设计 |
2.4.1 MIPI输入接口电路设计 |
2.4.2 LVDS显示接口电路设计 |
2.5 本章小结 |
3 开发环境搭建与系统总体软件设计 |
3.1 开发环境搭建 |
3.2 软件总体设计 |
3.3 系统各部分界面展示及功能介绍 |
3.4 本章小结 |
4 系统软件功能设计 |
4.1 系统驱动分析与设计 |
4.1.1 Linux设备驱动总述 |
4.1.2 Linux设备驱动模型 |
4.1.3 触摸屏与按键驱动的设计与实现 |
4.1.4 摄像头IIC驱动的设计与实现 |
4.1.5 ION驱动实现与分析 |
4.1.6 视频显示有关驱动分析 |
4.2 视频流架构设计 |
4.2.1 系统专用视频流框架设计 |
4.2.2 视频共用缓冲区设计 |
4.3 视频采集显示与冻结功能的实现 |
4.4 视频编解码与拍照功能的实现 |
4.4.1 H.264标准及VPU介绍 |
4.4.2 视频H.264编码功能实现 |
4.4.3 视频H.264解码功能实现 |
4.4.4 JPEG拍照功能实现 |
4.5 双屏显示功能的实现 |
4.6 本章小结 |
5 系统性能测试与分析 |
5.1 系统不同接口镜头成像效果测试 |
5.2 双屏显示效果测试 |
5.3 系统显示时延测试与分析 |
5.4 系统编解码性能测试 |
5.4.1 编码耗时测试 |
5.4.2 图像还原度之分辨率测试 |
5.4.3 图像还原度之色差测试 |
5.5 摄像系统关键性能评估 |
5.6 本章小结 |
6 总结与展望 |
6.1 总结 |
6.2 展望 |
参考文献 |
作者简历 |
(6)基于嵌入式平台的实时目标跟踪算法及优化方法研究(论文提纲范文)
摘要 |
ABSTRACT |
第1章 绪论 |
1.1 课题的研究背景与意义 |
1.2 国内外研究现状 |
1.2.1 视频目标跟踪技术的发展与现状 |
1.2.2 嵌入式目标跟踪系统的发展与现状 |
1.3 论文的主要研究内容及结构安排 |
第2章 嵌入式系统硬件平台及软件框架设计 |
2.1 嵌入式系统硬件平台 |
2.1.1 硬件平台构成 |
2.1.2 DSP芯片主要特性 |
2.1.3 跟踪子系统模块 |
2.2 DSP软件框架设计 |
2.2.1 软件开发环境 |
2.2.2 DSP/BIOS系统 |
2.2.3 软件框架设计 |
2.3 本章总结 |
第3章 基于嵌入式平台的目标跟踪算法研究 |
3.1 局部辅助定位目标跟踪算法 |
3.1.1 算法框架 |
3.1.2 自适应更新的时空上下文目标跟踪 |
3.1.3 压缩感知辅助定位环节 |
3.1.4 算法流程 |
3.1.5 实验验证 |
3.1.6 嵌入式平台下算法性能验证 |
3.2 全图重检测目标跟踪算法 |
3.2.1 自适应更新的时空上下文目标跟踪 |
3.2.2 目标检测环节 |
3.2.3 算法流程 |
3.2.4 实验验证 |
3.2.5 嵌入式平台下算法性能验证 |
3.3 本章总结 |
第4章 算法的DSP程序优化 |
4.1 程序优化流程 |
4.2 程序优化方法 |
4.2.1 对程序结构的优化及加速解算 |
4.2.2 基于编译器的优化 |
4.2.3 基于软件流水的优化 |
4.2.4 基于存储空间的优化 |
4.2.5 基于支持库的优化 |
4.3 程序优化实验结果 |
第5章 总结与展望 |
5.1 全文总结 |
5.2 工作展望 |
参考文献 |
发表论文和参加科研情况说明 |
致谢 |
(7)X-DSP中H.264编码器加速模块的设计与实现(论文提纲范文)
摘要 |
ABSTRACT |
符号对照表 |
缩略语对照表 |
第一章 绪论 |
1.1 概述 |
1.1.1 视频压缩必要性 |
1.1.2 视频编码标准 |
1.1.3 视频编码标准发展 |
1.2 国内外研究现状 |
1.3 本文主要工作 |
1.4 本文章节安排 |
第二章 H.264视频编码算法研究 |
2.1 编码算法分析 |
2.2 计算复杂度分析 |
2.3 帧内预测算法 |
2.3.1 4×4亮度块预测模式 |
2.3.2 16×16亮度块预测模式 |
2.3.3 模式选择 |
2.4 帧间预测算法 |
2.4.1 可变尺寸块运动补偿 |
2.4.2 运动估计 |
2.5 变换量化算法 |
2.5.1 变换 |
2.5.2 量化 |
2.6 熵编码算法 |
2.6.1 Exp_Golumb编码 |
2.6.2 CAVLC编码 |
2.6.3 CABAC编码 |
2.7 去块滤波算法 |
2.7.1 滤波顺序 |
2.7.2 滤波过程 |
2.8 本章小结 |
第三章 H.264 编码器设计 |
3.1 编码器微体系结构设计 |
3.1.1 模块间数据流设计 |
3.1.2 模块间数据复用设计 |
3.1.3 模块间数据交换设计 |
3.1.4 模块间控制机制设计 |
3.2 帧内预测模块 |
3.2.1 存储资源配置 |
3.2.2 数据分配 |
3.2.3 4×4亮度块预测值产生 |
3.3 帧间预测模块 |
3.3.1 存储资源配置 |
3.3.2 整像素运动估计 |
3.3.3 分像素运动估计 |
3.4 变换量化模块 |
3.4.1 变换量化模块结构设计 |
3.4.2 DCT与 IDCT变换模块 |
3.4.3 量化与反量化模块 |
3.5 CAVLC模块 |
3.5.1 编码参数统计 |
3.5.2 编码单元 |
3.6 CABAC模块 |
3.6.1 FSM |
3.6.2 宏块上下文管理 |
3.6.3 二值化 |
3.6.4 二进制算术编码 |
3.7 去块滤波模块 |
3.7.1 滤波模块结构设计 |
3.7.2 滤波顺序 |
3.7.3 滤波控制 |
3.7.4 缓存单元 |
3.7.5 滤波参数计算 |
3.7.6 转置单元 |
3.8 本章小结 |
第四章 H.264 编码器设计的验证和综合 |
4.1 仿真结果 |
4.1.1 编码器总体仿真结果 |
4.1.2 各模块仿真结果 |
4.2 综合结果 |
4.3 性能测试 |
4.4 本章小结 |
第五章 总结与展望 |
参考文献 |
致谢 |
作者简介 |
(8)音视频信号采集压缩及传输系统的设计与实现(论文提纲范文)
摘要 |
ABSTRACT |
符号对照表 |
缩略语对照表 |
第一章 绪论 |
1.1 课题的研究背景和意义 |
1.2 国内外研究现状 |
1.3 论文的主要内容及章节安排 |
第二章 嵌入式音视频采集传输系统开发的相关技术 |
2.1 DaVinci技术 |
2.1.1 DaVinci技术概述 |
2.1.2 DaVinci视频处理器TMS320DM365 |
2.1.3 数字视频软件开发套件(DVSDK) |
2.2 嵌入式Linux操作系统 |
2.2.1 Linux操作系统概述 |
2.2.2 嵌入式Linux内核 |
2.2.3 内核的编译及移植 |
2.3 Linux多进程和多线程编程 |
2.3.1 进程和进程调度 |
2.3.2 Linux多线程编程 |
2.3.3 进程间通信 |
2.4 音视频采集传输系统总体方案设计 |
2.5 本章小结 |
第三章 基于嵌入式的音视频信号采集和编码的原理及实现 |
3.1 音视频采集过程介绍 |
3.2 音视频压缩编码的原理及标准 |
3.2.1 数字视频压缩MEPG系列标准简介 |
3.2.2 视频压缩编码原理 |
3.2.3 视频压缩编码标准 |
3.2.4 音频压缩编码原理 |
3.2.5 音频压缩编码标准 |
3.3 音视频采集编码程序设计 |
3.3.1 音频线程程序设计 |
3.3.2 视频线程程序设计 |
3.4 音视频采集编码参数配置 |
3.4.1 音视频参数介绍 |
3.4.2 音视频参数配置 |
3.5 视频字幕叠加的设计与实现 |
3.5.1 校正Linux系统时间 |
3.5.2 图像的颜色编码 |
3.5.3 视频字幕叠加方案设计 |
3.6 本章小结 |
第四章 嵌入式平台上的音视频流封装及传输的原理及实现 |
4.1 MPEG-2 传输流介绍 |
4.1.1 TS流格式介绍 |
4.1.2 音视频同步原理分析 |
4.2 FFmpeg音视频封装解决方案 |
4.2.1 FFmpeg音视频编解码框架介绍 |
4.2.2 嵌入式Linux平台下FFmpeg的移植 |
4.3 音视频流封装及实时传输程序设计 |
4.3.1 FFmpeg实现多媒体码流的TS格式封装 |
4.3.2 FFmpeg内存数据操作 |
4.3.3 音视频数据的传输 |
4.4 本章小结 |
第五章 音视频采集压缩和封装传输程序测试及结果分析 |
5.1 程序功能测试与分析 |
5.1.1 音视频采集编码程序测试 |
5.1.2 音视频封装程序测试 |
5.1.3 TS流传输程序测试 |
5.1.4 音视频参数配置及测试 |
5.1.5 视频字幕叠加程序测试 |
5.2 程序烧写及系统启动 |
5.2.1 烧写内核和文件系统 |
5.2.2 嵌入式Linux系统启动流程 |
5.3 本章总结 |
第六章 总结与展望 |
6.1 总结 |
6.2 展望 |
参考文献 |
致谢 |
作者简介 |
(9)基于SOC的图像压缩和目标跟踪模块设计(论文提纲范文)
摘要 |
ABSTRACT |
符号对照表 |
缩略语对照表 |
第一章 绪论 |
1.1 课题背景及研究意义 |
1.2 国内外研究现状 |
1.2.1 图像压缩技术研究现状 |
1.2.2 目标跟踪技术研究现状 |
1.3 论文主要内容和结构 |
第二章 总体方案及硬件平台设计 |
2.1 需求分析 |
2.2 总体方案设计 |
2.3 硬件平台设计 |
2.3.1 硬件总体设计 |
2.3.2 电源模块设计 |
2.3.3 图像输入与采集设计 |
2.3.4 图像存储与传输设计 |
2.3.5 目标跟踪模块设计 |
2.3.6 图像压缩模块设计 |
2.3.7 图像解码模块设计 |
2.4 硬件平台测试 |
2.5 本章小结 |
第三章 系统软件设计 |
3.1 软件总体设计 |
3.2 主控软件设计 |
3.3 图像采集软件设计 |
3.4 图像存储软件设计 |
3.5 图像传输软件设计 |
3.6 基于Hi3516A的图像压缩软件设计 |
3.6.1 系统控制 |
3.6.2 视频输入 |
3.6.3 视频处理 |
3.6.4 视频编码 |
3.7 基于Hi3536DV100的图像解码软件设计 |
3.8 软件测试与分析 |
3.9 本章小结 |
第四章 目标跟踪算法软件设计 |
4.1 模板匹配算法 |
4.1.1 灰度模板匹配 |
4.1.2 模板更新 |
4.2 卡尔曼滤波算法 |
4.3 基于改进卡尔曼滤波器和模板匹配的目标跟踪算法 |
4.4 目标跟踪算法试验结果与分析 |
4.5 目标跟踪算法在硬件平台上的实现与优化 |
4.6 本章小结 |
第五章 总结与展望 |
5.1 本文研究总结 |
5.2 研究展望 |
参考文献 |
致谢 |
作者简介 |
(10)基于FPGA和DSP的高清全景视频采集与处理系统(论文提纲范文)
摘要 |
ABSTRACT |
第1章 绪论 |
1.1 课题研究目的及意义 |
1.2 全景视觉系统国内外研究与应用现状 |
1.2.1 国外研究与应用现状 |
1.2.2 国内研究与应用现状 |
1.3 课题来源及设计要求 |
1.4 本文主要研究内容 |
第2章 全景视频采集与处理系统总体方案设计 |
2.1 系统总体结构及工作原理 |
2.1.1 系统总体结构 |
2.1.2 系统工作原理 |
2.2 系统关键器件选型 |
2.2.1 反射镜选型 |
2.2.2 图像传感器选型 |
2.2.3 FPGA选型 |
2.2.4 DSP选型 |
2.3 本章小结 |
第3章 全景视频采集与处理系统硬件设计 |
3.1 系统总体硬件方案设计 |
3.2 图像传感器驱动电路设计 |
3.3 FPGA外围电路设计 |
3.3.1 FPGA程序配置模块 |
3.3.2 FPGA仿真调试接口 |
3.3.3 FPGA时钟 |
3.3.4 外部数据存储器 |
3.4 DSP外围电路设计 |
3.4.1 DSP程序配置模块 |
3.4.2 DSP仿真调试接口 |
3.4.3 DSP时钟 |
3.4.4 外部数据存储器 |
3.5 FPGA与DSP数据传输接口设计 |
3.6 系统电源设计 |
3.6.1 系统功耗分析 |
3.6.2 上电时序分析 |
3.6.3 电源方案设计 |
3.7 视频输出接口设计 |
3.7.1 原始视频输出接口 |
3.7.2 全景视频输出接口 |
3.8 本章小结 |
第4章 全景视频采集与处理系统硬件设计 |
4.1 全景视频采集软件设计 |
4.1.1 全景视频采集总体流程 |
4.1.2 驱动OV5640 |
4.1.3 读写SDRAM数据 |
4.1.4 图像VGA接口输出 |
4.2 全景视频核间传输软件设计 |
4.3 全景视频展开软件设计 |
4.3.1 常用全景图像展开算法介绍 |
4.3.2 对称重用分区插值展开法 |
4.3.3 对称重用分区插值展开算法的DSP实现 |
4.4 全景视频输出软件设计 |
4.4.1 图像压缩处理 |
4.4.2 以太网图像输出 |
4.5 本章小结 |
第5章 系统实验结果分析 |
5.1 视频采集实验结果分析 |
5.2 系统整体运行实验结果分析 |
5.3 本章小结 |
第6章 总结与展望 |
6.1 总结 |
6.2 展望 |
参考文献 |
硕士期间主要研究成果 |
致谢 |
四、基于DSP的实时视频压缩系统的开发(论文参考文献)
- [1]基于TMS320DM8127双路视频压缩传输系统设计与实现[D]. 王涛. 西安电子科技大学, 2020(05)
- [2]基于DSP的非制冷红外成像技术研究[D]. 易伟男. 重庆邮电大学, 2020(02)
- [3]基于嵌入式的流媒体加密传输与存储平台设计[D]. 杨耀森. 中北大学, 2020(11)
- [4]基于C66x的HEVC视频编码优化技术研究[D]. 李意弦. 西南科技大学, 2020(08)
- [5]便携式耳鼻喉科通用接口电子内窥镜图像处理器设计与实现[D]. 王艳杰. 浙江大学, 2020(02)
- [6]基于嵌入式平台的实时目标跟踪算法及优化方法研究[D]. 郭志翼. 天津大学, 2019(01)
- [7]X-DSP中H.264编码器加速模块的设计与实现[D]. 刘亚婷. 西安电子科技大学, 2019(02)
- [8]音视频信号采集压缩及传输系统的设计与实现[D]. 高兴鹏. 西安电子科技大学, 2019(02)
- [9]基于SOC的图像压缩和目标跟踪模块设计[D]. 陈坤. 西安电子科技大学, 2019(02)
- [10]基于FPGA和DSP的高清全景视频采集与处理系统[D]. 陈君杰. 长春理工大学, 2019(01)