IBR虚拟现实系统中镜头模型的建立与实现

IBR虚拟现实系统中镜头模型的建立与实现

一、IBR虚拟现实系统中透镜模型的建立与实现(论文文献综述)

胡晓龙[1](2021)在《基于稀疏相机阵列的集成成像系统设计与实现》文中认为集成成像技术是利用光学器件记录完整场景信息并实现显示过程的一种三维显示技术。由于该技术具有全部视差,显示色彩逼真和无视觉疲劳的优点,使其具有良好的发展前景。集成成像系统由场景信息记录阶段和场景信息显示阶段两部分组成,信息记录阶段利用透镜阵列将场景信息记录在微单元图像上,信息显示阶段利用光学或者计算重建的方法再现场景信息。利用稀疏相机阵列实现集成成像系统的记录和显示过程,可以简化系统的复杂度,提高分辨率和降低成本。但是,该方式在很多方面依旧有继续提升的空间。(1)记录的视点个数较少,合成多视点时效率较低,而且合成视点的质量有待提高。(2)显示分辨率仍需进一步的提高,来适应实际需求。为提高视点的采集效率,降低视点采集成本,并保证视点合成的质量,提出了基于分层聚类二维视点合成的集成成像系统。在该集成成像系统中,采用电动平移台结合单个相机的视点采集方式采集稀疏视点图像;为提高视点采集效率,使用基于分层聚类二维虚拟视点合成方法实现图像间的虚拟视点合成;通过像素映射得到微单元图像阵列,实现计算重建过程。实验结果表明该系统不仅可以满足高效率的三维信息采集,而且在保证合成视点质量的同时还提高了分辨率质量,增加了集成成像系统的灵活性。为适应显示分辨率的提高,提出基于视点合成的超分辨率集成成像系统。为验证该系统的可行性,设计了集成成像虚拟场景实验和实景实验来验证所提出的方案。在虚拟场景实验中,利用3Dmax软件搭建相机阵列和三维场景模型,完成微单元图像阵列的采集过程;用超分辨率技术对微单元图像进行处理,得到高分辨率微单元图像阵列,并实现计算重建过程。在实景采集实验的过程中,利用稀疏视点图像阵列合成得到多视点图像阵列,然后通过超分辨率算法实现图像分辨率的提高。实验结果显示,该系统通过视点合成和超分辨率的方法,实现了显示质量的提高。

倪丽霞[2](2021)在《三维光场精准再现关键技术研究》文中研究指明三维显示技术能够为人们提供自然的三维视觉感知,符合人类对真实世界的观察体验。在诸多三维显示技术中,光场三维显示技术由于其显示质量的优越性而广受关注,这归功于该类系统对场景光场强大的再现能力,因而能提供舒适三维视觉体验所需的各类深度暗示。但是目前光场显示的质量仍受限于硬件系统对光场的构建精度以及作为显示图像源的光场精度。因此,从这两方面研究对三维光场进行高精度再现的技术对提升显示质量具有重要意义。本文首先对多投影显示光场在真实空间中的高精度再现技术进行研究。由于多投影系统的硬件组成较为庞大复杂,容易存在装配误差,而投影仪之间也可能存在各不相同的图像畸变,则实际显示的光场和理想光场之间将存在较大偏差,导致系统无法提供正确的三维视觉效果。针对该问题,本文提出了一种光场校正方法,用于提高实际显示光场的再现精度。该方法首先利用无需标定、自由摆放的相机对畸变光场进行自动化多视角采样。然后利用贝塞尔曲面来表示光场中存在的复杂畸变,以实现对系统装配误差和光学系统畸变的联合校正。实验证明,本文方法能够对大尺度密集投影光场进行光线级别的校正,并明显提升了显示效果。此外,该方法虽然基于多投影系统提出,但从原理上并不受限于显示系统结构,因此可以为各类光场显示系统的校正提供参考。接下来,本文对精确合成高分辨率的光场显示内容进行研究,旨在从图像源角度提升显示光场精度。由于硬件限制,目前的采集光场其密度和精度均无法满足现有显示系统的需要。为了解决该问题,且考虑到现有设备较容易获得空间高分辨的光场图像,因此本文主要对光场在角度域的超分辨合成进行研究,并提出了两种密集光场视点合成方法。第一种方法针对平面采集阵列得到的光场图像。该方法首先通过将视差作为几何代理,降低了对输入视图的密度要求。然后通过遮挡估计网络来实现几何估计精度的提升和新视图中空洞区域的合理填补,最后利用合成视图的循环一致性检验实现了网络的无监督训练,因而不再需要高密度的光场作为监督,进一步突破了硬件采集的限制。该方法得到的合成视图在常见的图像评价指标上能和全监督的方法相比,甚至在遮挡处理方面能得到比全监督方法更稳定锐利物体边缘,从而保证了合成光场的准确性。然而上述方法仅适用于平面阵列的光场采集系统及平面视点分布的显示系统。为了打破这些限制,本文设计了一种自由视点合成方法,能够对随意采集的稀疏视图进行密集自由视点合成,因此能够满足各种显示视点密度及视点分布的需求。为了处理稀疏视点输入,该方法基于多视角重建网络设计了深度估计模块。为了提高场景结构的估计精度和视图混合质量,该方法引入了注意力机制用于标注输入视图在目标视点位置的可见像素,进一步确保了参与深度估计和视点混合的输入视图像素遵循光度一致性假设,从而提升了密集合成视图序列中场景结构的稳定性和一致性。根据实验结果,该视图序列作为光场显示系统的输入时能在空间中再现高质量光场,并能得到比计算机生成的三维模型更逼真的显示效果。最后对本文研究内容进行总结,并展望了未来可进一步探索的研究方向。

冯洁[3](2021)在《面向集成成像光场视图的显着性检测技术研究》文中提出相较于其他立体显示技术,集成成像技术具有诸多优势,是未来立体显示的重要趋势。目前集成成像技术面临的主要问题为三维重建图像的分辨率较低、观看时感受到的颗粒感较为严重,立体效果并不十分理想。本文主要研究面向集成成像光场视图的显着性检测技术,利用该技术对集成成像相机阵列所采集到的光场视图中的显着性目标进行提取,为后续立体内容生成部分的三维模型重建步骤提供良好的显着性目标片源。但现有的显着性检测方法在处理包含多个显着目标或显着目标的某些区域与背景区域对比不明显等复杂实际场景时,检测得到的显着性结果在细节上表现得并不理想,会出现丢失部分显着性区域或将背景区域的部分误判为显着性区域等问题。本文提出一种结合光场重聚焦的显着性检测算法,首先通过场景的多幅视点图像对中心视点图像中某一指定深度层进行协同超分辨率的重聚焦,产生在该深度层上的物体得以清晰显示,而其它深度层上的物体受到不同程度模糊的重聚焦图像。然后以重聚焦图像作为显着性检测的输入,利用场景的深度、聚焦信息进行基于图的显着性检测。并在基于图的流形排序的显着性检测方法的基础上提出结合全局和局部的平滑度约束,防止错误标签传播,提高检测结果的精细程度。在4D光场图像数据集上进行了对比实验,结果表明:本文算法所得显着性检测结果更接近人为标注的真值图,显着图与真值图之间的平均绝对误差较现有方法有所降低。另外,将本文算法用于对实际采集到的真实场景的多视点图像阵列进行显着性检测,检测结果包含丰富的显着性目标的信息,在细节上处理得也较为完善,可以为集成成像后续步骤提供良好的显着性目标片源。本文的主要研究工作如下:1.对集成成像技术的原理进行研究。从光场采集过程和光学重建过程两个部分研究了集成成像真三维立体显示的实现过程。在采集部分采用基于稀疏相机阵列采集的方式对真实场景进行拍摄,在内容生成部分通过计算机重建三维模型、生成虚拟视点图像,进而合成用于在立体显示系统上进行显示的立体元图像阵列。对于该技术路线中涉及到的相关技术进行了研究,对面向集成成像光场视图的显着性检测技术的研究方向和目标有了清晰的认知。2.对基于光场图像的重聚焦算法进行研究。搭建了相机阵列光场采集系统,研究了基于多视点图像阵列的计算重聚焦的原理。针对多次插值导致的重聚焦后图像质量不高的问题,提出了基于超分辨率协同重建的选择性光场视图重聚焦算法,该算法将散焦渲染和超分辨率重建集成到同一方案,来生成重聚焦图像。实验结果表明,对于输入的多幅视点图像,通过选择对场景的某一深度层进行重聚焦,能够使位于该深度层上的物体清晰显示,对位于其它深度层上的物体产生不同程度的模糊。3.对基于图的显着性检测算法进行研究。针对现有显着性检测方法在处理相机阵列对某些复杂实际场景采集到的图像时,所得显着图不够精细,甚至会丢失某些显着性区域的不足加以改进。本文提出一种结合多视点图像阵列选择性光场重聚焦的显着性检测方法,通过同一场景的多幅视点图像,利用场景的深度、聚焦信息结合基于图的显着性检测方法,同时提出结合全局和局部的平滑度约束来解决上述问题。实验结果表明本文所提出的算法效果良好,相较于其他方法,检测出的显着图最为精细,与真值图之间的平均绝对误差有所降低。

韩露[4](2020)在《基于双向深度图像渲染的实时高质量3D内容的生成》文中提出近年来,三维显示技术不断发展。自由立体显示技术作为三维显示领域的新兴技术,因其能够使观众在自由立体显示器前观看到逼真的三维影像,获得真实场景般的视觉体验,并且可供观看的范围广,引起了专家学者的广泛关注和国家大量的投入,拥有非常广阔的发展前景。由于自由立体显示器观看角度大,仅依靠单个参考相机生成虚拟视点,会生成很多难以填补的信息空洞。在当前的研究中,如何实时生成大视角高分辨率的3D内容成为一个热点。对此,本文在基于双向深度图像渲染基础上对自由立体内容的生成方法进行了研究,为解决虚拟视点绘制中出现的空洞和伪影等问题,提出了修复和优化方法,包括对深度图像的多层次滤波处理,最后采用GPU并行处理进行算法加速。本文的主要研究内容和创新性工作如下:(1)为填补双向DIBR生成视点图后存在的小空洞,改进了反向映射过程。在反向映射前,对前向映射后的深度图重复进行多层次的均值滤波,滤波窗口由大到小,进而填补了虚拟视点深度图中的小空洞。再利用填补好的深度图,重投影到参考图像。最后利用插值的方式,得到空洞处对应虚拟视点坐标位置上的像素值。(2)提出了基于深度图的图像修复算法。在DIBR过程中产生的较大空洞一般属于背景区域。修复空洞时,前景像素会造成干扰,因此本文中利用深度图像,将前景和背景分开,分别填充背景和前景剩余的空洞信息,使图像质量具有明显的提升,图片峰值信噪比能达到35dB,与传统的双视点DIBR相比平均约高3.5dB。(3)用GPU加速改进算法,并对算法的实时性进行评价和比较。算法的实时性是本课题的一个重要关注点,本文在设计算法时,尽量降低时间复杂度,采用较为高效的算法程序。实验结果表明,渲染一幅1920×1080的图像,耗时在40ms以下,与只用CPU计算相比,速率提升了约26倍,基本达到实时渲染的水平。最后,在Unity3D渲染平台上设计了一款可交互的赛车游戏,并在自由立体显示器上运行,实现了操作者与游戏模型间的交互。

刘畅[5](2020)在《基于深度偏移映射的高效3D图像编码方法研究》文中提出现如今,为了进一步满足人们对视觉信息的获取需求,同时具有显示场景平面信息和深度信息的3D显示技术得到了各界专家学者的广泛关注,其中3D显示内容的生成也成为3D显示技术实现商业化的重要一环。由于3D图像所需信息量大,并且对图像准确率要求严格,传统3D图像采集方式由于受到相机参数、拍摄环境所带来的误差影响,需要进行必要的图像处理,导致图像渲染周期增加,从而难以实现实时渲染。基于深度信息的编码算法借助于图像的深度信息来进行虚拟视点的合成,一定程度上简化了图像采集过程。然而随着显示技术向着高分辨率、大尺寸的方向不断发展,传统基于深度信息的编码算法在合成图像的过程中存在大量的信息冗余,同时需要很高的传输带宽,对硬件的要求急剧增加,不利于实现系统集成和商业化。本文针对以上问题,提出了一种基于深度偏移映射的高效3D图像编码方法,并对该方法在多种3D显示系统中的应用进行了研究。本文的主要研究内容和创新点如下:(1)提出了基于深度偏移映射的高效3D图像编码方法。基于深度偏移映射的高效3D图像编码方法使用一张2D彩色图作为参考图,利用其对应的深度图获得深度信息以计算各个子像素点的偏移量,根据显示器与观看位置的几何关系以及光路可逆原理直接进行3D图像渲染,合成后的3D图像通过具备相应参数的显示装置呈现,使观看者双眼分别看到的视差图中不同的子像素点有着不同的偏移量,从而形成深度感知。该方法不需要合成虚拟视点,从而降低了硬件系统的内存需求,也提高了计算速度和效率,更有利于实现实时渲染和系统集成。(2)实现了基于深度偏移映射的高效3D图像编码方法在传统3D显示系统中的应用。针对不同3D显示系统的结构特点,可以对基于深度偏移映射的高效3D图像编码方法进行调整,本文对算法在光栅立体显示和集成成像立体显示中的应用进行了编码研究。实验证明在保证显示效果的情况下,该算法能够快速、高效地进行3D图像的渲染,并且在一定角度范围内匹配精度较高,同时具有广泛的适用性。实验使用智能Android主板RK3399作为硬件装置,相比传统PC和GPU有着更高的集成度,更利于系统的广泛推广。(3)实现了基于深度偏移映射的高效3D图像编码方法在高立体感3D显示系统中的应用。为了增强3D显示系统中的立体感,采用了一种柱透镜光栅与圆透镜阵列相结合的双层折光高立体感3D显示系统。系统利用柱透镜在水平方向的折光作用,使水平方向进入人眼的光线数增加,更好地还原了光场信息,从而增强显示效果的立体感。基于深度偏移映射的高效3D图像编码方法经过调整后,实现了在高立体感3D显示系统中的应用,实验证明该算法能够实现良好的观看效果,并且能够实现快速渲染,同时双层折光系统相比于传统单层系统具有更好的立体感,进一步提高了显示效果。(4)实现了基于深度偏移映射的高效3D图像编码方法在高分辨率3D显示系统中的应用。针对高分辨率显示问题,采用显示屏拼接方式,实验使用2×2的四个显示屏进行拼接,对每个显示屏进行单独调视区,使观看者在不同位置观看到多屏拼接出来的正确的图像。实验将基于深度偏移映射的高效3D图像编码方法应用其中,通过调节各显示屏的驱动装置,从而进行多屏同步显示。实验最终实现了一个拼接型高分辨率且能够实时渲染3D图像的显示系统。

夏正德[6](2020)在《基于稀疏采样的稠密光场重建方法研究》文中研究表明光场成像技术因其具有多维视觉信息感知和表达能力已经成为获取空间目标信息的重要手段。通过获取空间场景光场信息,可以实现计算重聚焦、去遮挡重建、全聚焦合成和场景深度分布等方面的应用,是光电成像领域的研究热点问题。但是当前的光场成像方式存在无法保证同时获得高空间分辨率与高角度分辨率的问题,制约了该技术的发展和推广应用。相关领域的研究人员针对上述问题采用增加探测器数量、角度光线插值、几何深度视点合成和频率复用等方法试图解决该问题,虽然一定程度上提高了光场分辨率,但是存在重建光场的图像信噪比较低,算法计算复杂度高、适应的场景范围有限等问题。本文针对光场成像技术无法同时获取高空间——角度分辨率的问题,开展了基于稀疏采样的稠密光场重建方法研究,以稀疏表示理论为基础构建了稠密光场重建算法框架。在此基础上,开展了光场采集、表征与多维数据稀疏编码方法研究,建立了光场字典学习与稀疏编码数学模型,训练了小规模全局光场字典,将光场多维度数据映射至低维度稀疏表示域中,解决了光场全局字典训练与稀疏编码求解问题;通过进一步研究光场多维数据内存在的空间——角度关联性和冗余性,全局——局部约束关系,提出了光场虚拟角度图像稀疏编码恢复数学模型,将虚拟角度图像的求解问题转化为图像在训练的字典上的稀疏表出问题,结合图像融合技术恢复了虚拟视角图像,解决了光场虚拟角度图像的构建问题。最终设计实验,将该算法应用于稀疏采样的多场景稠密光场重建中,实验结果表明,算法能够对场景中的高、低频信息进行有效地区分,可以对复杂的光照阴影变化和遮挡信息进行高质量地恢复,说明本文方法能够完成基于稀疏采样的稠密光场重建任务。

赵梓薇[7](2020)在《基于稀疏相机阵列的集成成像获取系统研究》文中研究表明三维显示技术起源于一百多年前,经过一个多世纪的发展,目前,市场上运用最广泛的三维显示技术基本都是利用双目视差原理实现的,这就需要观看者佩戴相应的辅助设备才能达到观看到立体效果,因此会使观看者产生诸如设备佩戴不方便、视觉疲劳等问题。而集成立体成像显示技术作为一种新兴的裸眼三维显示技术,具备不会给观看者造成视觉疲劳、不需要辅助设备,可以只利用双眼就可以观看到立体效果等优点,因而具有良好的发展前景。但是通过传统的透镜阵列来采集三维场景信息会产生采集不准确等一些问题。因此,利用相机阵列采集和虚拟视点绘制算法相结合的方法来构建集成成像获取系统具有重要的现实意义。利用稀疏相机阵列对集成成像元素图像进行采集并且优化,以及提升虚拟视点的生成效果,可以提高利用集成成像技术获取到的元素图像的质量,提高裸眼三维的显示效果。在改进集成成像获取到的元素图像方面,本文基于稀疏相机阵列中可能会出现的相机位置偏移问题,用一种校正方法来改进通过稀疏相机阵列所获取到的元素图像。先对相机阵列进行位置标定,再设置参考点。经过计算参考点的位置坐标以及相机位置的误差,分析相机阵列位置误差与元素图像间的关系以及校正算法的精度。随后利用光学重构实验对提出方法进行了验证。结果表明,此方法可以有效减轻相机阵列位置偏差对元素图像阵列的影响,使得校正后重构出的三维图像质量优于校正之前的效果。在利用集成成像技术进行虚拟视点的绘制方面,本文提出了一种优化视差图生成质量的办法,进而能够提高虚拟视点合成的质量。即首先在HIS空间内将图像的进行颜色分割,接着采用改良后的动态规划算法对图像进行立体匹配生成视差图。在匹配代价的计算过程中加入基于HIS空间的代价函数,采用Winner-Takes-All思想计算视差以提高视差计算的精度,随后进行虚拟视点的生成。实验仿真结果显示,与传统算法相比,改进后的算法优化了视差图的生成质量,以此生成的虚拟视点图像质量也得到提升,较好的保留了图像中的信息。

韩洋[8](2020)在《室内VR漫游系统若干关键技术研究与设计》文中研究表明虚拟现实室内场景应用的需求日益增长,人们对场景真实感不足、画面流畅度有限、使用易疲劳等影响用户体验的问题要求越来越苛刻。在虚拟现实所使用的绘制技术中,传统的PBR技术面对越来越精细、复杂度越来越高的场景顶点数据日渐乏力,开始陷入性能瓶颈。光场技术作为一种前景光明的IBR技术随着近年来的硬件不断跟进开始在虚拟现实领域崭露头角。该技术拥有绘制结果逼真、计算开销与场景复杂度无关、符合人眼视觉习惯等巨大优势,但该技术目前仍然存在着采集成本较高、数据运算量较大及实时性有限等问题。针对以上问题,文中做了如下工作:(1)提出了一种适用于室内复杂静态场景的低成本光场采集方案。仅需一台相机即可进行采集,避免了相机阵列昂贵巨大且难以操控的问题,同时还继承了相机阵列方案空间分辨率高的优势。(2)提出一种基于相机标定和光流模拟的数据校正和扩充方法,作为低成本采集方案的优化和补充。针对方案中人工调整单台拍摄位置精度有限的问题,利用标定数据通过相机标定对采集的图像进行校正;针对方案中采集密度有限的问题,从图像运动分析的角度进行分析,运用光流法进行图像合成,实现了采集数据集的扩充。(3)提出一种基于渲染贡献的光场重构计算优化方法,提升了光场重构的实时性。通过对光场重构过程和重采样对最终结果的贡献情况进行分析,给出了重采样贡献度的计算方法和计算终止条件,以此降低重构计算量。(4)在上述研究成果的基础上,利用Visual Studio 2017及Qt5进行了系统架构设计、封装及用户交互界面设计,实现了室内VR漫游系统。包括场景数据预处理系统和VR漫游系统。

朱仁杰[9](2019)在《夏热冬冷地区气候响应式动态建筑表皮设计方法研究》文中研究指明与传统的不可变建筑表皮相比,动态建筑表皮在应对全年多变的气候环境上具有更大的灵活性和节能优势。尤其对于占我国国土面积16.2%的夏热冬冷地区,既要考虑夏季隔热降温,又要考虑冬季保温节能的情况下,动态建筑表皮是一种非常具有竞争力的低能耗建筑表皮解决方案。目前国外已有的新型动态表皮开发与性能评价的相关研究案例较多,但国内对于动态建筑表皮的研究多关注于理论类型的探索,很少有对动态表皮节能性能的定量化系统研究。由此,本文主要研究夏热冬冷气候区气候响应式动态建筑表皮的设计及优化方法,并且通过提出的相变材料(Phase change material,PCM)驱动的动态表皮进行方法实践,主要分为设计响应气候、选型与应用、性能评价与优化三部分。首先,分析了国内外传统建筑中针对不同气候挑战所采用的设计策略,并且针对夏热冬冷气候区气候特征,总结了夏热冬冷气候挑战驱动的动态建筑表皮设计需求以及应对方法,为建筑师进行动态建筑表皮设计时提供了理论参考。其次,分类研究了当下已建成动态表皮的变形方式、环境适应性以及能源依赖性,得到动态建筑表皮应对冬夏季气候挑战可采用的部分策略、形式及原理,在此基础上提出了一种PCM驱动的新型动态建筑表皮原型。最后,动态建筑表皮性能评价与优化部分由三个方面进行研究,分别为基于遗传算法的夏热冬冷气候区动态表皮单元尺寸优化研究、动态表皮对夏热冬冷气候区室内光热环境的影响研究、基于Arduino的虚拟表皮与物理环境交互研究,并通过PCM驱动的动态表皮进行实践,证明了针对以上研究所采用的方法的可行性以及效果。在实践部分,基于Grasshopper、LBNL Window和Fluent可模拟出动态表皮在不同工作状态下的SHGC值、VT值和U值,通过Octopus,Honeybee进行机器学习和建筑运行能耗模拟,最终以Galapagos Evolutional Solver优化出了PCM驱动的动态表皮最优单元尺寸区间。同时计算机模拟和热箱对比实验证明了该表皮在夏热冬冷气候区应用的节能优势以及在实际工程中应用的经济合理性,可有效降低冬夏季室内冷热负荷。应用Radiance的光环境模拟证明该表皮对室内光环境有一定影响,在遮阳球完全膨胀状态下会导致室内天然光采光不足的问题,还需进一步优化。交互实验部分搭建了具有普适性的交互程序,实现了动态表皮计算机模型与物理现实中光环境和热环境的正向和反向反馈。

田西雨[10](2019)在《用于光场显示的多视点内容处理方法》文中进行了进一步梳理人类通过视觉以三维(3D)的方式来感受和认知世界。在日常生活中,人类获取的大多数信息都来自于视觉的输入。显示系统作为视觉信息传输中一个重要的组成部分在现代人类生活中无处不在,它以最直观的形式将信息呈现给观看者,具有重要的意义。传统的显示器设备所显示的内容缺乏深度信息,极大地限制了观看者在显示器所呈现的画面中感知和了解真实世界的能力。与传统的显示设备相比三维立体显示增加了第三维度的深度信息,最大程度的还原真实的场景。三维立体显示追求向观看者展示接近真实场景的立体画面,符合人们观察真实世界的感受。因此三维立体显示技术向着多视点,高分辨率,大视角的方向发展。想要实现理想的显示效果,三维立体显示需要丰富的输入信息,其显示内容也从传统的两个视差图变为密集的光场图像。这种变化不仅使得数据量急剧增加,同时也让数据结构产生了巨大的改变。这种转变对三维信息的采集和处理都提出了更高的要求。在实际应用中,光场立体显示需要结合各种图像处理算法以实现理想的显示效果。本文基于这样的三维立体显示发展背景,提出了一系列用于光场显示的多视点内容处理方法。目前用于立体显示的图像处理算法多数还是基于双目立体显示相关算法进行拓展。对于全视差,多视点的自由立体显示来说,这些算法还存在不足。对于数据量庞大的光场数据来说,需要在处理时保重所有视点图的一致性,并且需要提升算法的效率以达到光场信息的实时处理。针对以上问题,本文对用于光场显示的多视点内容处理技术进行了研究。论文的主要研究内容和创新点如下:(1)基于光场图像的密集视点生成三维立体显示中提高视点密度可以提高显示内容的视觉平滑性,展示出更近接近真实场景的立体画面。本文提出一种基于光场图像重聚焦的密集视点生成方法。根据重聚模型设计基于光场的重聚焦实现方法,计算生成重聚焦图像。通过重聚焦图像,推测其对应的深度值。最后利用全局深度信息,进行图像变形从而描绘出新的视点图。除此之外,本文还提出一种基于插值算法生成密集视点的实现方法。首先通过光场图像的特征和编码原理,将虚拟相机拍摄得到的视差图阵列重新编码得到原始光场图像。然后对光场图像进行插值计算,并对插值后的图像进行子图像提取,得到更加密集的视点图阵列。基于光场的密集视点生成算法大大降低了拍摄成本,解决了多相机阵列拍摄时间过长的问题,实现了光场的实时绘制。(2)用于光场显示的自由视点漫游技术现有的基于图像的渲染相关技术中,多数方法需要使用深度信息和多个图像之间的特征匹配来生成新的视图,实现步骤相对复杂。本文提出了一种用于光场显示的虚拟视点漫游的方法,通过一组原始的输入图像,来合成任意拍摄位置的新视点图,实现光场显示的自由视点漫游。这种技术的关键在于将输入图像定义为4D光场表示,通过组合和重新采样预先获取的图像集合来构建任意相机位置的新视图,并在集成像光场显示系统中进行显示。该方法无需深度信息获取和特征匹配,易于在个人计算机上实现光场的自由视点漫游。

二、IBR虚拟现实系统中透镜模型的建立与实现(论文开题报告)

(1)论文研究背景及目的

此处内容要求:

首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。

写法范例:

本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。

(2)本文研究方法

调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。

观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。

实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。

文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。

实证研究法:依据现有的科学理论和实践的需要提出设计。

定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。

定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。

跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。

功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。

模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。

三、IBR虚拟现实系统中透镜模型的建立与实现(论文提纲范文)

(1)基于稀疏相机阵列的集成成像系统设计与实现(论文提纲范文)

摘要
abstract
1 绪论
    1.1 研究背景及意义
    1.2 国内外研究现状
    1.3 论文的主要内容和结构
2 集成成像技术理论基础
    2.1 集成成像技术的基本原理
    2.2 集成成像记录阶段
        2.2.1 利用透镜阵列获取场景信息
        2.2.2 利用相机阵列获取场景信息
        2.2.3 利用计算机获取场景信息
    2.3 集成成像显示阶段
        2.3.1 全光学集成成像显示
        2.3.2 计算集成成像显示
    2.4 集成成像系统的性能参数
        2.4.1 集成成像系统的分辨率
        2.4.2 集成成像系统的视角
        2.4.3 集成成像系统的景深
    2.5 本章小结
3 基于分层聚类二维视点合成的集成成像系统
    3.1 虚拟视点合成技术
        3.1.1 基于模型的虚拟视点合成
        3.1.2 基于图像的虚拟视点合成
    3.2 虚拟视点合成质量评价标准
        3.2.1 峰值信噪比
        3.2.2 图像结构相似性
    3.3 DIBR技术原理
        3.3.1 像素坐标系和图像坐标系
        3.3.2 针孔相机模型
        3.3.3 摄像机参数
        3.3.4 三维图形变换方程
    3.4 分层聚类二维视点合成
        3.4.1 生成视差图
        3.4.2 生成初始虚拟视点
        3.4.3 图像融合
        3.4.4 分层聚类空洞填充
    3.5 提出的集成成像系统
        3.5.1 稀疏视点采集
        3.5.2 虚拟视点合成
        3.5.3 像素映射成微单元图像阵列
        3.5.4 计算集成成像重建
    3.6 本章小结
4 基于视点合成的超分辨率集成成像系统
    4.1 超分辨率技术
    4.2 超分辨率集成成像系统
        4.2.1 视点采集
        4.2.2 低分辨率微单元图像阵列
        4.2.3 高分辨率微单元图像阵列
    4.3 集成成像虚拟场景实验
        4.3.1 虚拟场景信息采集
        4.3.2 生成高分辨率微单元图像阵列
        4.3.3 虚拟场景重建结果
    4.4 集成成像实景采集实验
        4.4.1 三维场景的搭建和视点采集
        4.4.2 获得低分辨率多视点图像阵列
        4.4.3 获得高分辨率多视点图像阵列
        4.4.4 集成成像重建结果
    4.5 本章总结
5 总结与展望
    5.1 工作总结
    5.2 展望
致谢
参考文献
攻读硕士学位期间主要研究成果

(2)三维光场精准再现关键技术研究(论文提纲范文)

致谢
摘要
Abstract
1 绪论
    1.1 三维显示技术概述
        1.1.1 人眼三维视觉
        1.1.2 体视三维显示
        1.1.3 体三维显示
        1.1.4 光场三维显示
    1.2 光场采集及重建
        1.2.1 光场采集
        1.2.2 光场重建
    1.3 本文主要研究工作
2 光场再现的理论基础
    2.1 光场三维显示理论基础
        2.1.1 光场理论
        2.1.2 投影光场显示系统原理
    2.2 平面光场采集原理
    2.3 基于几何代理的虚拟视点合成原理
        2.3.1 摄像机成像和场景稀疏重建
        2.3.2 场景稠密重建:视差和深度估计
        2.3.3 视点变换
        2.3.4 视点混合
        2.3.5 本章小结
3 基于机器视觉的光场定位与校正
    3.1 系统显示原理及畸变分析
    3.2 光场校正方法
    3.3 校正实验及结果分析
    3.4 本章小结
4 基于平面稀疏采集阵列的场景高密度光场重建
    4.1 引言
    4.2 稠密光场合成问题描述
    4.3 网络模块与损失函数
        4.3.1 视差估计
        4.3.2 遮挡估计
        4.3.3 损失函数
    4.4 实验及结果分析
        4.4.1 数据集
        4.4.2 实验细节
        4.4.3 和全监督方法的对比结果
        4.4.4 和无监督方法的对比结果
        4.4.5 消融实验
        4.4.6 应用
    4.5 本章小结
5 基于稀疏自由视角输入的场景高密度光场重建
    5.1 引言
    5.2 自由视点合成方法
        5.2.1 深度估计模块
        5.2.2 视点混合模块
        5.2.3 图像误差掩膜
        5.2.4 损失函数
    5.3 实验
        5.3.1 数据集和实验细节
        5.3.2 视图合成结果
    5.4 在扫描光场显示系统中的显示效果
        5.4.1 显示系统结构及参数
        5.4.2 扫描显示系统的多视角显示算法
        5.4.3 基于显示系统结构的视点合成
        5.4.4 实际显示效果
    5.5 本章小结
6 总结与展望
参考文献
作者简历

(3)面向集成成像光场视图的显着性检测技术研究(论文提纲范文)

摘要
abstract
第1章 绪论
    1.1 引言
    1.2 课题研究背景及意义
    1.3 国内外发展现状
        1.3.1 集成成像技术
        1.3.2 显着性检测技术
    1.4 本文主要研究内容
        1.4.1 本文主要研究内容及创新点
        1.4.2 本文结构安排
第2章 集成成像技术
    2.1 集成成像技术的工作原理
        2.1.1 集成成像光场采集过程
        2.1.2 集成成像光学重建过程
    2.2 虚拟视点生成技术
        2.2.1 基于模型的渲染技术
        2.2.2 基于图像的渲染技术
    2.3 生成立体元图像阵列
        2.3.1 立体元图像阵列到多视点图像阵列的映射
        2.3.2 多视点图像阵列到立体元图像阵列的映射
    2.4 本章小结
第3章 基于超分辨率协同重建的选择性光场视图重聚焦算法
    3.1 光场重聚焦概述
    3.2 基于多视点图像阵列的计算重聚焦
        3.2.1 双目立体图像重聚焦原理
        3.2.2 多视点图像阵列重聚焦原理
    3.3 集成成像光场视图的获取
        3.3.1 相机阵列光场采集系统架构
        3.3.2 光场视图获取
    3.4 基于超分辨率协同重建的选择性光场视图重聚焦算法
    3.5 本章小结
第4章 结合多视点图像阵列选择性光场重聚焦的显着性检测算法
    4.1 显着性检测技术概述
    4.2 自底向上的显着性检测模型
        4.2.1 基于对比度的显着性检测方法
        4.2.2 基于频域的显着性检测方法
        4.2.3 基于信息论的显着性检测方法
        4.2.4 基于贝叶斯模型的显着性检测方法
        4.2.5 基于图的显着性检测方法
    4.3 结合全局和局部平滑度约束的传播模型
    4.4 结合多视点图像阵列选择性光场重聚焦的显着性检测算法
    4.5 本章小结
第5章 实验结果及分析
    5.1 实验设计
    5.2 实验结果
        5.2.1 重聚焦实验结果
        5.2.2 显着性检测实验结果
        5.2.3 对相机阵列采集到的真实场景的显着性检测实验结果
    5.3 结论
第6章 总结与展望
    6.1 总结
    6.2 展望
参考文献
作者简介及在学期间取得的科研成果
致谢

(4)基于双向深度图像渲染的实时高质量3D内容的生成(论文提纲范文)

摘要
ABSTRACT
术语表
第一章 绪论
    1.1 研究背景和意义
    1.2 3D内容生成研究现状
    1.3 论文工作和章节安排
第二章 基于DIBR的3D内容生成方法
    2.1 相机成像原理
    2.2 DIBR虚拟视点合成技术
        2.2.1 基于DIBR的虚拟视点合成算法
        2.2.2 深度图像预处理
        2.2.3 3D warping
    2.3 DIBR技术的缺陷
        2.3.1 空洞问题
        2.3.2 重叠问题
        2.3.3 伪影问题
        2.3.4 效率问题
    2.4 CPU与GPU比较
    2.5 本章小结
第三章 双向DIBR算法的改进及其实现
    3.1 双向DIBR技术
        3.1.1 双向DIBR算法
        3.1.2 图像融合技术
        3.1.3 双向DIBR技术缺陷
    3.2 改进的系统框图
    3.3 光栅化与3D warping
    3.4 反向映射方法
        3.4.1 深度图的空洞填补
        3.4.2 反向映射算法
    3.5 改进的双视点图像融合算法
    3.6 基于深度图的图像修复
    3.7 三维图像质量评价方法实验
        3.7.1 主观质量评价
        3.7.2 客观质量评价
    3.8 虚拟视点图像生成实验与对比分析
    3.9 本章小结
第四章 基于GPU实时显示技术的实现
    4.1 CUDA层次结构
    4.2 GPU渲染管线流程
        4.2.1 基于GPU的虚拟视点生成设计及优化策略
        4.2.2 并行GPU的加速比
    4.3 DIBR加速算法的实现
        4.3.1 实验平台配置
        4.3.2 加速渲染算法的实现
        4.3.3 Unity平台下实时渲染与交互分析实验
    4.4 本章小结
第五章 总结与展望
    5.1 本文工作总结
    5.2 不足与展望
参考文献
致谢
攻读学位期间取得的研究成果

(5)基于深度偏移映射的高效3D图像编码方法研究(论文提纲范文)

摘要
abstract
第一章 绪论
    1.1 引言
    1.2 三维立体显示技术发展现状
        1.2.1 三维显示技术
        1.2.2 图像编码技术
    1.3 立体显示中深度偏移映射编码方法的研究意义
    1.4 论文主要内容与结构安排
第二章 图像深度信息获取与立体显示技术原理
    2.1 3D信息获取方法
        2.1.1 立体图像采集方法
        2.1.2 深度信息计算原理
        2.1.3 归一化深度计算方法
    2.2 基于视点与光场的立体显示技术
        2.2.1 狭缝光栅裸眼3D显示技术
        2.2.2 柱透镜光栅裸眼3D显示技术
        2.2.3 集成成像显示技术
    2.3 本章小结
第三章 基于深度偏移映射的图像编码方法研究
    3.1 传统基于深度信息的3D图像渲染方法
        3.1.1 3D图像渲染原理
        3.1.2 GPU并行加速技术
    3.2 基于深度偏移映射的图像渲染算法
        3.2.1 传统基于深度信息的3D图像渲染方法的缺点
        3.2.2 深度偏移映射算法的实现方法
    3.3 本章小结
第四章 3D显示系统中深度偏移映射编码算法应用
    4.1 光栅立体显示中高效3D图像编码算法应用
        4.1.1 算法实现原理
        4.1.2 硬件的选择
        4.1.3 实验结果与对比分析
    4.2 集成成像立体显示中高效3D图像编码算法应用
        4.2.1 算法实现原理
        4.2.2 实验结果
    4.3 本章小结
第五章 高立体感、高分辨率3D显示系统中深度偏移映射编码方法应用
    5.1 高立体感3D显示系统中深度偏移映射编码算法
        5.1.1 系统成像原理
        5.1.2 算法实现原理
        5.1.3 实验结果
    5.2 拼接型高分辨率3D显示系统中深度偏移映射编码算法
        5.2.1 拼接型高分辨率裸眼3D显示方法
        5.2.2 算法实现原理
        5.2.3 实验结果
    5.3 本章小结
第六章 总结与展望
    6.1 研究工作与总结
    6.2 存在的不足与未来研究方向
参考文献
致谢
攻读硕士学位期间发表的学术论文

(6)基于稀疏采样的稠密光场重建方法研究(论文提纲范文)

摘要
abstract
1 绪论
    1.1 课题的研究背景及意义
    1.2 国内外稠密光场重建技术研究现状
    1.3 本文主要内容与组织结构
2 光场成像及稠密光场重建基本理论
    2.1 光场成像基本理论
        2.1.1 光场的表示
        2.1.2 光场的采集
    2.2 稀疏采集光场稠密重建原理
        2.2.1 稀疏光场成像模型
        2.2.2 双平面参数化光线重采样插值理论
    2.3 光场空间分辨率与角度分辨率的制约关系
3 基于字典学习的稀疏采样稠密光场重建方法
    3.1 基本原理
    3.2 基于字典学习的稀疏采样稠密光场重建算法
        3.2.1 光场特征样本集构造
        3.2.2 字典训练
        3.2.3 虚拟角度图像优化求解
    3.3 恢复图像质量评价方法
    3.4 稀疏光场稠密重建实验研究
    3.5 本章小结
4 字典及编码参数对稠密重建的影响
    4.1 编码稀疏度
    4.2 字典冗余度
    4.3 原子尺寸
    4.4参数优选对比实验
    4.5 本章小结
5 总结与展望
    5.1 总结
    5.2 存在问题及工作展望
参考文献
攻读硕士期间发表的论文及所取得的研究成果
致谢

(7)基于稀疏相机阵列的集成成像获取系统研究(论文提纲范文)

摘要
ABSTRACT
第1章 绪论
    1.1 选题背景及研究的目的和意义
    1.2 国内外研究现状
        1.2.1 国外研究现状及分析
        1.2.2 国内研究进展及分析
    1.3 论文的主要内容
第2章 集成立体成像技术基础理论
    2.0 集成立体成像的基础原理
    2.1 集成立体成像系统结构
        2.1.1 基于针孔阵列的集成立体成像系统
        2.1.2 基于透镜阵列的集成立体成像系统
        2.1.3 集成立体成像技术的相关性能参数
    2.2 集成立体成像的元素图像的获取
        2.2.1 光学采集获取
        2.2.2 计算机合成获取
    2.3 集成立体成像的三维重构
        2.3.1 光学重构
        2.3.2 计算机重构
    2.4 本章小结
第3章 基于稀疏相机阵列的元素图像优化
    3.1 基于稀疏相机阵列的元素图像获取
    3.2 集成成像相机阵列获取系统的误差分析
    3.3 稀疏相机阵列的标定
        3.3.1 张氏双目标定方法
        3.3.2 稀疏相机阵列的标定方法
    3.4 稀疏相机阵列的位置偏差
    3.5 基于参考点的元素图像校正
        3.5.1 同名像点与物点的坐标对应关系
        3.5.2 元素图像位置偏差的校正
    3.6 实验验证以及分析讨论
        3.6.1 元素图像的获取
        3.6.2 光学实验效果
        3.6.3 实验分析
    3.7 本章小结
第4章 基于优化视差图的集成成像虚拟视点的合成
    4.1 虚拟视点合成技术
        4.1.1 基于模型的虚拟视点绘制技术
        4.1.2 基于图像的虚拟视点合成技术
    4.2 基于动态规划算法的立体匹配
    4.3 改进的视差图优化算法
        4.3.1 基于HIS空间的图像分割
        4.3.2 图像的匹配代价函数
        4.3.3 图像的色彩相似度函数
    4.4 虚拟视点的合成
    4.5 评价标准
        4.5.1 误匹配率
        4.5.2 峰值信噪比
    4.6 实验结果与分析
        4.6.1 视差图的优化
        4.6.2 虚拟视点的合成
    4.7 本章小结
第5章 总结与展望
    5.1 全文总结及创新点概述
    5.2 未来展望
参考文献
攻读硕士学位期间取得的成果
致谢

(8)室内VR漫游系统若干关键技术研究与设计(论文提纲范文)

摘要
ABSTRACT
第一章 绪论
    1.1 研究背景
    1.2 国内外研究现状
        1.2.1 虚拟现实研究现状
        1.2.2 光场成像研究现状
    1.3 本文主要研究内容
    1.4 本文的组织结构
第二章 相关理论基础
    2.1 相机成像几何模型
        2.1.1 针孔成像模型
        2.1.2 成像过程与坐标转换
    2.2 光场渲染理论
        2.2.1 光场的概念
        2.2.2 光场的获取
        2.2.3 光场成像原理
    2.3 光流场与图像运动信息估计
        2.3.1 光流场的概念
        2.3.2 光流法的基本原理
        2.3.3 光流法的分类
    2.4 图形管线
        2.4.1 图形管线的概念
        2.4.2 可编程管线与着色器
    2.5 本章小结
第三章 低成本数据获取及光场实时渲染
    3.1 适用于室内场景的低成本光场采集方案
        3.1.1 单相机采集的可行性分析
        3.1.2 低成本方案采集流程
    3.2 采集数据的校正和扩充
        3.2.1 相机标定与数据校正
        3.2.2 基于光流法的数据扩充
        3.2.3 模拟质量评价及分析
    3.3 基于渲染贡献的实时光场重构
        3.3.1 经典光场重构算法分析
        3.3.2 基于渲染贡献度的实时性优化
        3.3.3 实验对比及分析
    3.4 本章小结
第四章 基于光场渲染的室内VR漫游系统设计
    4.1 场景数据预处理系统的开发
        4.1.1 开发环境介绍
        4.1.2 系统架构设计
        4.1.3 系统界面设计
        4.1.4 程序流程设计
        4.1.5 系统功能测试
    4.2 室内VR漫游系统开发
        4.2.1 开发环境介绍
        4.2.2 系统架构设计
        4.2.3 程序流程设计
        4.2.4 系统功能测试
    4.3 本章小结
第五章 总结与展望
    5.1 工作总结
    5.2 展望
参考文献
攻读硕士学位期间成果
致谢

(9)夏热冬冷地区气候响应式动态建筑表皮设计方法研究(论文提纲范文)

摘要
abstract
第1章 绪论
    1.1 以现有动态建筑表皮典型建筑引论
    1.2 研究背景
    1.3 国内外研究现状
        1.3.1 动态建筑表皮基础研究
        1.3.2 新型动态建筑表皮原型设计
        1.3.3 建筑性能优化与评估方法
    1.4 研究内容与意义
        1.4.1 研究内容
        1.4.2 研究意义
    1.5 研究方法及技术路线
        1.5.1 研究方法
        1.5.2 技术路线
第2章 动态建筑表皮设计响应气候挑战
    2.1 中国气候区划分与气候特征
    2.2 适应气候的传统建筑防热与保温策略
    2.3 夏热冬冷气候区气候环境驱动设计需求
    2.4 小结
第3章 动态建筑表皮选型
    3.1 夏热冬冷气候区动态建筑表皮选型
        3.1.1 依据动态形变方式进行分类
        3.1.2 依据气候适应性进行分类
        3.1.3 依据能源依赖性进行分类
        3.1.4 夏热冬冷气候区动态建筑表皮选型
    3.2 夏热冬冷气候区相变材料驱动的动态建筑表皮设计
        3.2.1 相变材料驱动的动态建筑表皮原型技术原理
        3.2.2 相变材料选择与遮阳球设计
        3.2.3 Kangaroo运动仿真模拟与模型简化
    3.3 小结
第4章 夏热冬冷地区动态建筑表皮单元尺寸优化
    4.1 遗传算法在建筑性能优化中的应用
    4.2 评价指标及技术路线
    4.3 软件选择与优化模型的建立
        4.3.1 软件选择
        4.3.2 办公模型建立
    4.4 动态表皮单元SHGC值计算方法
        4.4.1 计算原理
        4.4.2 程序搭建
    4.5 动态表皮单元冬夏季U值模拟方法
        4.5.1 模型建立与网格划分
        4.5.2 Fluent参数设置
        4.5.3 模拟结果
    4.6 优化程序及结果
    4.7 小结
第5章 动态建筑表皮对夏热冬冷气候区室内热环境影响的评价
    5.1 评价方法及技术路线
    5.2 计算机模拟对比实验
        5.2.1 模型建立
        5.2.2 结果与分析
    5.3 热箱对比实验
        5.3.1 热箱搭建
        5.3.2 实验设备及过程
        5.3.3 结果与分析
    5.4 小结
第6章 动态建筑表皮对室内光环境影响的评价
    6.1 评价方法及技术路线
    6.2 计算机模拟分析
        6.2.1 研究变量及模型建立
        6.2.2 结果与分析
    6.3 小结
第7章 基于Arduino的交互实验
    7.1 Arduino原理
    7.2 基于Arduino的虚拟表皮与物理环境交互实验
        7.2.1 实验目的及设备
        7.2.2 程序搭建
        7.2.3 动态表皮与物理环境的交互过程
    7.3 小结
第8章 总结与展望
    8.1 总结
    8.2 展望
参考文献
发表论文和参加科研情况
致谢

(10)用于光场显示的多视点内容处理方法(论文提纲范文)

摘要
ABSTRACT
第一章 绪论
    1.1 引言
    1.2 立体视觉简介
    1.3 光场显示技术发展现状
    1.4 多视点处理技术研究现状
        1.4.1 虚拟视点生成技术
        1.4.2 数字重聚焦技术
        1.4.3 光场深度估计理论
    1.5 基于光场的多视点信息处理的重要意义
    1.6 论文主要研究内容与结构安排
第二章 光场显示的理论基础
    2.1 光场理论
    2.2 光场信息采集技术
        2.2.1 多相机阵列采集技术
        2.2.2 光场相机采集技术
        2.2.3 基于针孔阵列的采集技术
    2.3 光场立体显示技术
        2.3.1 光场三维显示基本原理
        2.3.2 集成成像显示技术
    2.4 本章小结
第三章 基于光场的密集视点生成
    3.1 光场显示内容的采集与记录方法
        3.1.1 基于虚拟相机的光场采集方法
        3.1.2 光场图像的记录方式
    3.2 基于光场图像重聚焦的密集视点生成
        3.2.1 光场图像的重聚焦
        3.2.2 深度值估计及视点生成
        3.2.3 实验结果与分析
    3.3 基于插值算法的密集视点生成
        3.3.1 双线性内插值算法
        3.3.2 基于插值算法的密集视点生成
        3.3.3 实验结果与分析
    3.4 本章小结
第四章 用于光场显示的自由视点漫游技术
    4.1 线性空间表征
    4.2 基光场显示的自由视点漫游实现
        4.2.1 光场图像的线性参数表示
        4.2.2 虚拟视点图的生成
    4.3 显示系统与结果分析
        4.2.1 显示系统及参数设置
        4.2.2 实验结果与分析
    4.4 本章总结
第五章 总结与展望
    5.1 总结
    5.2 不足与展望
参考文献
致谢
攻读学位期间取得的研究成果

四、IBR虚拟现实系统中透镜模型的建立与实现(论文参考文献)

  • [1]基于稀疏相机阵列的集成成像系统设计与实现[D]. 胡晓龙. 西安理工大学, 2021(01)
  • [2]三维光场精准再现关键技术研究[D]. 倪丽霞. 浙江大学, 2021(01)
  • [3]面向集成成像光场视图的显着性检测技术研究[D]. 冯洁. 吉林大学, 2021(01)
  • [4]基于双向深度图像渲染的实时高质量3D内容的生成[D]. 韩露. 北京邮电大学, 2020(04)
  • [5]基于深度偏移映射的高效3D图像编码方法研究[D]. 刘畅. 北京邮电大学, 2020(04)
  • [6]基于稀疏采样的稠密光场重建方法研究[D]. 夏正德. 中北大学, 2020
  • [7]基于稀疏相机阵列的集成成像获取系统研究[D]. 赵梓薇. 长春理工大学, 2020(01)
  • [8]室内VR漫游系统若干关键技术研究与设计[D]. 韩洋. 浙江理工大学, 2020(02)
  • [9]夏热冬冷地区气候响应式动态建筑表皮设计方法研究[D]. 朱仁杰. 天津大学, 2019(01)
  • [10]用于光场显示的多视点内容处理方法[D]. 田西雨. 北京邮电大学, 2019(08)

标签:;  ;  ;  ;  ;  

IBR虚拟现实系统中镜头模型的建立与实现
下载Doc文档

猜你喜欢