一、基于MPEG-4的三维人脸动画实现方法(论文文献综述)
冯静怡[1](2020)在《基于web的三维虚拟形象生成与控制方法研究》文中认为随着虚拟现实和增强现实技术(Augmented Reality,AR)的发展,新型社交媒体不断出现并快速发展。在这些社交媒体应用之中,最重要的技术之一就是为用户生成与之相似的虚拟形象。本文的目的是为用户生成专属的虚拟形象,同时能让虚拟形象模仿用户的表情动作,使虚拟形象能够成为用户在网络世界的化身。现存的虚拟形象生成技术主要分为基于三维扫描设备的方法和基于模型库匹配的方法。其中,基于三维扫描设备的方法对设备要求高,不便于使用和推广;而基于模型库匹配的方法生成的结果个体差异小,容易造成审美疲劳。为了解决现有方法的缺点,本文提出了一种基于Delaunay三角剖分及图形仿射变换的面部纹理制作方法,结合Web端人脸重建生成的3D模型,可以在不依赖任何三维设备和既定面部元素库的情况下为用户生成具有个人特征的专属虚拟形象。现存的虚拟形象表情控制主要通过模型的骨骼-肌肉绑定实现,该方法需要提前设定模型,并由设计师进行模型绑定,造成了模型的固定性和大量人工消耗。为了解决上述问题,本文提出了一种基于面部区域划分的人脸表情动画方法,结合头部姿态估计技术和人脸姿态归一化方法,无需人工参与就可以对生成的虚拟形象模型进行表情控制,让虚拟形象能够实时模拟用户表情动作。实验结果表明,本文提出的方法能根据用户的二维面部信息生成个性化的专属三维虚拟形象,结合对虚拟形象的控制,能真实可靠地模拟用户面部动作。为基于Web的虚拟形象相关研究提供了一种可行性参考。
王源[2](2020)在《基于非刚性变形的人脸建模和动作模拟》文中研究指明随着虚拟现实技术不断成熟和快速发展,三维虚拟人的应用越来越广泛,涉及虚拟主播、虚拟购物、虚拟培训、3D游戏和3D电影,有着广阔的应用领域和潜在价值。三维虚拟人脸建模和面部动作表情模拟已经越来越受到研究者的重视,也陆续出现了许多先进技术和方法,但通常需要昂贵设备和复杂算法。本文在深入研究人脸建模和表情仿真等关键技术后,实现了基于单幅正面图像非刚性人脸重建,并能根据视频流中的人脸动作进行实时模拟。该系统操作简易,运行效率高,稳定性好,满足人机交互中真实感的需求。本文主要工作包括:1.研究并实现了基于反距离加权插值算法的三维人脸重建。首先,通过对单幅正面人脸图像的特征点检测和反距离加权算法实现了个性化的三维人脸重建。其次,根据人脸模型独有的孔洞特征与模型的几何拓扑关系,使用floyd算法求解模型表面最短路径,以此作为权值进行三维人脸重建计算。最后,根据人脸图像和三维模型计算出纹理坐标,对三维模型进行纹理映射,生成个性化人脸。2.研究并实现了拓扑无关人脸模型的表情迁移,解决了MPEG-4标准在对复杂模型进行设置FAP参数时产生的困难,并对人脸的几种基本表情进行仿真模拟。首先,通过MPEG-4标准进行人脸表情模拟生成。其次,对三维人脸模型进行切割,生成代理模型。最后,以拓扑相同的代理模型作为传递人脸表情参数的中介,实现了拓扑无关的人脸表情迁移算法,在精细的个性化人脸模型上实现了人脸表情模拟。3.设计并实现了三维人脸情感交互系统。通过对人脸跟踪和识别,实现了三维虚拟人脸部表情动作的实时模拟。首先,对视频中每一帧的人脸图像进行姿态识别,通过计算旋转平移矩阵把二维人脸姿态映射到三维空间中。其次,对图像中人脸表情提取全局和局部特征,通过多级支持向量机分类得到人脸表情,并在三维模型中予以实时显示,提高了人机交互的体验感。
王跃[3](2014)在《基于汉语协同发音模型的文本驱动三维口型动画合成研究》文中提出随着计算机动画技术的不断发展,人们对三维虚拟模型情感表达的真实感提出了更高的需求,三维口型动画就是其中的一个重要部分。论文根据汉语协同发音规律对口型合成的影响,提出了一种基于汉语协同发音模型的三维口型动画驱动方法,使得三维口型动画的合成更流畅、更平滑、更接近人们真实发音时的口型。本文的研究内容如下:(1)完成声母和韵母的聚类,构建汉语可视化协同发音模型,解决协同发音对汉语连续发音时口型的影响。(2)利用MPEG-4中“中性人脸”和“FDP”的定义规范化三维模型,并建立基本口型库。(3)利用连续文本驱动合成口型动画,实现口型间的平滑过渡。本文的创新点如下:(1)改进基于汉语的协同发音模型。首先,为每一类不同的声母和韵母增加不同的“影响等级”和“受影响等级”属性,并综合考虑口型发音姿态,改进声母和韵母聚类方法。其次,增加考虑音节间元音的相互影响,构建协同发音模型,提高模型的表达能力。(2)提出了一种基于连续文本驱动口型动画合成方法。利用改进的协同发音模型,实现输入的所有发音音素的优化,输出新的口型序列。通过改进对插值生成过渡帧的控制,生成更具真实感的口型动画。实验表明,论文提出的方法能充分模拟汉语协同发音对发音口型的影响,可以合成自然流畅的口型动画。基于文本驱动的真实感三维人脸动画在影视、游戏、社会生活、教育等多个领域都具有极其广阔的应用前景。
朱明会[4](2014)在《真实感三维人脸唇形动画系统的语音驱动》文中研究表明人脸动画是一种通过计算机合成人脸表情运动的人机交互方式,是虚拟现实领域相当活跃的研究方向,目前,在虚拟主持人、可视电话、辅助教学、医疗研究、游戏娱乐、电影和动漫制作等诸多领域均有广泛的应用。语音驱动的三维人脸唇形动画技术属于人机多模态交互领域,简单来说,就是利用音频文件来驱动人脸的唇部,生成与语音同步的口型动作。该技术丰富了人机接口的内容,提高了人机交互的效率,降低了音视频资源实时共享时对网络带宽的要求,因此,得到了国内外研究人员的广泛重视。本文在深入研究了唇形动画技术、语音驱动动画技术以及语音的分析与处理等关键技术以后,设计并实现了基于MPEG-4标准的以语音文件为驱动源的真实感三维人脸唇形动画系统。该系统操作简单,通用性强,运行效率高,满足实时语音驱动唇形动画的需求。本文的主要工作包括:一、建立通用的人脸网格模型。本文采用建模软件进行建模的方式,利用Direct3D纹理映射技术将人脸图片映射到网格模型上,得到逼真的人脸模型。由于通用的三维人脸网格模型的拓扑结构相同,因此,对于任意的主体对象都可以使用设计好的通用的人脸网格模型驱动方法。二、设置唇部特征点。首先,分析了英文发音时元音与辅音的相互影响程度,归纳出典型的唇部动作。为了更准确的控制和驱动唇部进行动作,并且与MPEG-4标准兼容,定义了10个外唇特征点和8个内唇特征点。然后构建了唇部动画定义表来存储每个唇部FAP控制的唇部特征点信息。要想控制唇部模型进行动作,需要在得到了唇部FAP的值后,在唇部动画定义表中查找FAP的影响区域,并利用MPEG-4中提供的算法,计算出由该FAP控制的所有网格点的新的三维坐标信息。计算一组FAP中每一个FAP影响的网格点位移并进行叠加,最终得到一个形象的唇形。三、提取语音特征参数。对输入的语音文件进行数字化、预加重、分帧加窗和端点检测的处理,其中,端点检测采用基于短时平均能量和短时平均过零率双门限的方法。然后,提取出语音特征参数MFCC,利用双层隐马尔科夫模型建立语音特征参数与唇部动画参数的映射模型。第一层映射模型中将当前语音帧以及它的前一帧和后一帧作为模型的观察值序列。对同一唇形类别中的语音观察值进行唇形类内再聚类,得到第二层映射模型,使得可视语音合成的真实感提高很多。因此,只要提取出实时语音的MFCC后就能利用映射模型得到唇部FAP的信息,从而驱动嘴唇运动。该方法可以有效地实现真人发声与唇形动画之间的同步,增强了动画的真实感。四、分析了语音驱动的真实感三维人脸唇形动画系统的功能需求和工作流程,采用微软的Direct3D SDK和VC++6.0开发工具,编程实现了能够接受实时的语音输入并在人脸模型上输出与之同步的真实感唇形动画的系统。
王娅[5](2013)在《三维虚拟人表情合成技术的研究》文中研究指明计算机虚拟现实技术发展迅速,是当下研究热点。人是虚拟场景中最重要的角色,虚拟人技术在影视制作、游戏制作、多媒体、电子商务、视频会议和可视电话等领域应用广泛,具有面部情感表达的虚拟人能提高虚拟场景的真实感和人机交互的沉浸感,因此合成具有真实感和易于控制的三维虚拟人脸表情具有非常大的研究价值。虚拟人表情合成的研究主要分为虚拟人脸模型的建立和表情合成两部分。目前的主流方法是用3D扫描仪来建立模型,人物表演来驱动表情合成。此方法获得的人脸模型和表情真实度高,但扫描和表演驱动都需要借助价格高昂的外部设备,且获得的人脸模型数据量过大,不易对表情进行控制,需要人力来完成。针对以上问题,本课题采用不借助任何仪器和设备的建模方法来建立三维人脸模型,并且采用简单、数据量小、易于控制的基于MPEG-4标准的表情合成方法来实现虚拟人的表情动画。根据MPEG-4标准的表情合成方案建立合适的三维人脸模型。本课题需要用到的三维人脸模型分为两类,分别是用于建立表情动画数据的人脸表情合成母模型和验证表情合成方案可行性和通用性的人脸表情合成子模型。本课题选取了结构简单、能够匹配MPEG-4标准中人脸表情参数的Candide-3模型作为母模型,用Loop细分Candide-3模型建立表情合成系统的子模型。本文对从人物造型软件Poser导出的精细三维虚拟人脸模型进行了边折叠简化,建立了另一个人脸表情合成子模型,针对虚拟人脸模型的几何特征,提出了基于顶点权重的网格简化算法。本文基于MPEG-4标准的表情动画原理建立了一个三维虚拟人脸表情合成系统,该系统首先建立MPEG-4中人脸表情参数与Candie-3模型的匹配关系,然后构建人脸动画定义表,接着计算表情合成后三维人脸网格点的坐标,对其基于人脸动画参数值的算法做了不受0边界影响的改进。最后合成了6种基本人脸表情和实现了由人脸动画参数驱动的表情合成,用两个人脸表情合成子模型验证了本课题表情合成方法的可行性和通用性。
崔明[6](2012)在《基于语音驱动的人脸口型动画系统》文中研究表明近年来,随着信息产业的重要性日益突出,计算机技术得到了突飞猛进的发展,带动了计算机软硬件的升级,计算机动画产业也随之逐渐兴起。在当今动漫产业发展的黄金时期,计算机图形学与数字媒体技术得到了广泛地应用和发展。本文意在实现利用语音对三维人脸模型进行驱动以产生动画效果,从此角度出发,逐步引出实现人脸动画的方法,人脸的建模方法,人脸关键点的选取与控制,语音特征参数的提取,MPEG-4标准下人脸动画系统的实现方法以及人脸表情的实现方法等技术。本文的最终目标是生成平滑流畅的基于MPEG-4标准的由语音进行驱动的人脸口型动画。基于此,首先,需要利用三维建模软件制作出人脸的三维模型,然后导出为.X模型文件,再利用OpenGL技术将模型导入三维环境的窗口中并显示出来,通过纹理映射技术将人脸纹理贴图映射到三维人脸网格模型上,可以得到较真实的三维人脸模型。然后,利用Baum-Welch算法训练样本以形成语音特征参数与人脸动画参数之间的映射关系,这是人脸动画系统实现过程中的关键一步,其将为下面将要展开的工作奠定基础。接下来,对输入语音文件进行处理,提取出其语音特征参数,并将其与此前建立起来的语音特征参数与人脸动画参数映射库进行比对,从库中提取出与语音特征参数呈映射关系的人脸动画参数信息以便利用它来对人脸网格模型进行驱动。最后,利用MPEG-4标准中提供的算法,通过查找人脸定义表FDT中的相关信息计算出人脸模型上各控制点的新位置坐标,从而可以使得人脸模型产生动作,进而得到语音与人脸口型相同步的动画效果。在此基础上,本文又进一步阐述了人脸表情的实现和应用。
王俊培[7](2011)在《真实感三维人脸表情动画生成》文中指出在人们的日常生活中,人脸表情是一种重要的交流方式,能够直观明了地表达主人公的喜怒哀乐等思想感情。近年来,随着计算机软硬件技术的迅速发展,将多媒体技术带入了一个全盛的发展时期,同时由于人们对人机交互界面的可视化要求越来越高,使得人脸建模与动画技术在人机交互中发挥着越来越重要的作用。三维人脸表情动画技术的应用领域非常广泛,如游戏娱乐、电影制作、人机交互、广告制作等等,具有重要的应用价值和理论意义。建立具有高度真实感、实时运行、尽可能自动化、自适应的人脸建模与表情动画系统是研究人脸建模与表情动画的最终目标。通过近年来研究人员的不懈努力,三维人脸表情动画技术已经取得了巨大的进步和发展。为了更好地生成具有真实感的三维人脸表情动画,本文研究了基于MPEG-4的三维人脸表情动画技术,主要研究内容如下:(1)基于信息统计的人脸动画参数确定方法本文在总结和研究三维人脸表情动画生成技术的基础上,通过对北京工业大学三维扫描人脸数据库中人脸数据的分析,提出了一种基于三维人脸数据信息统计获取人脸表情动画参数的方法,并通过实验统计数据库中带表情的三维人脸数据信息,得到了人脸分别在六种基本表情状态下的参数值。(2)人脸区域划分和基于特征点的网格变形方法通过对人脸运动情况的分析和讨论,提出了人脸区域划分方法,提高了人脸各个动作的独立性。深入分析了现有的动画变形方法,提出了一种基于特征点的自适应权值的插值方法,能够根据网格的尺度调整插值函数中的权值,避免了边界面片奇异拉伸,实现了网格的平滑变形。并通过实验对数据库中的人脸模型进行六种基本表情的生成,实现了真实感人脸表情的生成,并验证了本文提出的网格变形方法对模型的通用性。(3)表情变化过程中的动态特征模拟通过对人脸表情变化规律的分析,提出了一种基于特征点的人脸动态特征模拟方法,将人脸整体的动态特征分解为各个特征点的动态特征,降低了问题的复杂度。通过模拟真实人脸表情变化过程中的特征点运动规律,刻画了表情变化过程中的动态特征,生成了具有真实感的人脸表情动画序列。
尹宝才,王恺,王立春[8](2011)在《基于MPEG-4的融合多元素的三维人脸动画合成方法》文中提出为了实时合成真实感的可视语音,提出了一种融合口型、表情等多种运动元素的三维人脸动画合成方法.以MPEG-4人脸动画标准为基础,建立了汉语音节口型库和人脸基本表情库,通过在人脸动画参数上对共同影响面部运动的多种元素进行加权融合,合成出最终的动画序列.实验结果表明,该方法有效融合了面部运动的多种元素,同时具有真实感和实时性的优点.
王倩[9](2010)在《虚拟“双簧”:三维人脸的唇动合成和表情合成》文中提出三维人脸重建和人脸动画合成画是当前计算机图形学、计算机视觉和图像处理领域中一个热点研究课题,在视频会议、影视制作、通讯等方面有着广泛的应用,具有很大的应用价值和商业价值。本文提出了一个人脸唇动和表情动画合成系统,详细介绍了构造该系统涉及的人脸检测,人脸建模,特征选择,特征提取,表情动画等方面的技术。本文将在三维人脸重建的基础上,合成人脸动画,包括表情合成和嘴唇动画的合成。本文的动画合成是基于CANDIDE-3面部模型基础上的。为准确构建模型,提出基于Haar特征和AdaBoost算法进行人脸和眼睛区域监测方法,然后通过灰度投影提取眼睛特征,获取CANDIDE-3模型重建的参数。并通过侧面人脸图片获得模型深度数据,从而构建三维人脸模型。为完成三维人脸的唇动合成,需提取唇动特征点的运动数据,这项工作在语料库CAVDatabaseⅡ中完成。本文选取唇部的左右嘴角,上下嘴唇边界点特征点提取运动数据。在此项工作中,本文提出了基于水平集的轮廓提取方法提取运动特征数据,取得良好的效果。本文利用MPEG-4动画标准,在三维模型和唇动数据的基础上,分别对真实感三维人脸和二维卡通头像进行了唇动合成。并利用MPEG-4模型,建立了一个三层结构的动画模型框架,实现了定义的16种AUV和6种基本表情,并最终实现表情和唇动的叠加动画。最后,给出了系统整体流程框图、系统界面和对真实感三维人脸和二维卡通头像的最终动画合成效果。
李健,李鹏坤,师永刚[10](2010)在《基于自由形状变形的三维人脸表情控制》文中指出人脸表情控制是生物特征识别研究的重要内容,本文提出了一种基于MPEG-4中FAP、FAT标准进行三维人脸表情合成的方法。首先对人脸进行关键点定义和区域分割,然后使用面向表面的自由形状变形方法(SOFFD)生成人脸表情。在特定人脸表情生成过程中,使用了基表情的比例合成方法。实验表明,该方法可以有效地合成各种真实的人脸表情。
二、基于MPEG-4的三维人脸动画实现方法(论文开题报告)
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
三、基于MPEG-4的三维人脸动画实现方法(论文提纲范文)
(1)基于web的三维虚拟形象生成与控制方法研究(论文提纲范文)
摘要 |
abstract |
第一章 绪论 |
1.1 研究背景与意义 |
1.2 国内外研究现状 |
1.3 论文主要研究内容 |
1.4 论文组织结构 |
第二章 虚拟形象相关技术 |
2.1 人脸三维重建技术 |
2.2 面部特征点识别技术 |
2.3 头部姿态估计技术 |
2.4 面部区域划分 |
2.4.1 三角剖分概述 |
2.4.2 Delaunay三角剖分 |
2.4.3 Delaunay三角剖分生成算法 |
2.5 人脸表情动画技术 |
2.6 本章小结 |
第三章 虚拟形象生成方案 |
3.1 虚拟形象生成设计 |
3.2 基于浏览器的面部三维重建 |
3.2.1 面部三维重建方法 |
3.2.2 基于浏览器的面部三维重建方法 |
3.2.3 实验结果 |
3.3 基于浏览器的面部特征点识别 |
3.3.1 面部特征点识别方法 |
3.3.2 实验结果 |
3.4 面部纹理再造 |
3.4.1 算法思路 |
3.4.2 图像形变技术 |
3.4.3 面部纹理生成方案 |
3.4.4 实验结果 |
3.5 本章小结 |
第四章 虚拟形象控制方案 |
4.1 虚拟形象控制概述 |
4.1.1 虚拟形象在浏览器端的渲染 |
4.1.2 用户信息的实时采集 |
4.2 虚拟形象的位置控制 |
4.2.1 头部姿态估计方法 |
4.2.3 实验结果 |
4.3 虚拟形象的表情控制 |
4.3.1 脸部姿态归一化 |
4.3.2 基于面部区域划分的表情动画方法 |
4.3.3 实验结果 |
4.4 基于浏览器的相关优化 |
4.4.1 配合使用Web Worker |
4.4.2 帧间插值处理 |
4.4.3 实验结果 |
4.5 本章小结 |
第五章 虚拟形象的生成与追踪系统 |
5.1 系统的概要设计 |
5.1.1 系统设计目标 |
5.1.2 系统总体设计 |
5.1.3 数据表设计 |
5.1.4 系统开发环境 |
5.2 系统的详细设计与实现 |
5.2.1 人脸三维重建模块 |
5.2.2 面部特征点识别模块 |
5.2.3 虚拟形象生成模块 |
5.2.4 虚拟形象位置控制模块 |
5.2.5 虚拟形象表情控制模块 |
5.3 系统功能测试 |
5.3.1 虚拟形象的生成测试 |
5.3.2 虚拟形象的控制测试 |
5.4 系统性能测试 |
5.4.1 系统的准确性分析 |
5.4.2 系统的实时性分析 |
5.5 本章小结 |
第六章 总结与展望 |
6.1 本文工作总结 |
6.2 未来进一步工作展望 |
附录1 |
参考文献 |
致谢 |
攻读硕士学位期间发表学术论文情况 |
(2)基于非刚性变形的人脸建模和动作模拟(论文提纲范文)
致谢 |
摘要 |
Abstract |
1 绪论 |
1.1 研究背景及意义 |
1.2 国内外研究现状 |
1.3 研究内容以及章节介绍 |
1.4 本章小结 |
2 人脸建模相关技术 |
2.1 卡尔曼滤波算法 |
2.2 局部二值模式特征 |
2.2.1 局部二值模式基本概念 |
2.2.2 局部二值模式的性质 |
2.3 支持向量机分类器 |
2.4 人脸特征点检测 |
2.5 本章小结 |
3 基于非刚性变形的人脸重建 |
3.1 人脸个性化适配技术 |
3.1.1 人脸标准网格模型 |
3.1.2 反距离加权插值法 |
3.1.3 基于最短路径的改进 |
3.2 基于单幅正面图像的三维人脸建模 |
3.3 实验结果对比 |
3.4 本章小结 |
4 人脸表情的生成与迁移 |
4.1 基于MPEG-4的人脸表情动画 |
4.1.1 MPEG-4人脸表情生成技术 |
4.1.2 人脸表情合成 |
4.2 拓扑无关人脸表情迁移算法框架 |
4.3 生成人脸代理网格 |
4.3.1 人脸切面环的生成算法 |
4.3.2 人脸代理网格的建立 |
4.4 基于代理网格的人脸表情恢复 |
4.4.1 代理网格的表情形变计算 |
4.4.2 径向基函数插值 |
4.4.3 基于径向基插值函数的人脸表情恢复 |
4.5 实验结果展示 |
4.6 本章小结 |
5 人脸表情的识别呈现及运动模拟 |
5.1 视频序列图像预处理 |
5.1.1 人脸特征点的平滑处理 |
5.1.2 人脸图像的姿态尺度矫正 |
5.2 人脸表情分类 |
5.2.1 表情特征提取 |
5.2.2 基于多级分类器的表情分类 |
5.3 人脸运动模拟 |
5.3.1 头部运动模拟 |
5.3.2 脸部动作模拟 |
5.4 三维人脸情感交互系统框架 |
5.5 实验结果展示 |
5.6 本章小结 |
6 总结和展望 |
6.1 工作总结 |
6.2 工作展望 |
6.3 本章小结 |
参考文献 |
攻读硕士学位期间主要的研究成果 |
(3)基于汉语协同发音模型的文本驱动三维口型动画合成研究(论文提纲范文)
摘要 |
Abstract |
第1章 绪论 |
1.1 研究背景及意义 |
1.2 国内外研究现状 |
1.2.1 真实感三维人脸建模 |
1.2.2 协同发音的语音可视化建模 |
1.2.3 基于 MPEG-4 的三维人脸动画 |
1.2.4 该领域当前技术存在问题及不足 |
1.3 论文研究内容 |
1.4 本文的创新点 |
1.5 论文的框架结构及章节安排 |
第2章 相关理论基础 |
2.1 MPEG-4 人脸动画标准 |
2.1.1 FDP(人脸定义参数) |
2.1.2 FAP(人脸动画参数) |
2.1.3 FAPU(人脸动画参数单元) |
2.1.4 使用 MPEG-4 标准的优势 |
2.2 面向对象的图形渲染引擎 OGRE |
2.3 本章小结 |
第3章 汉语协同发音建模与三维唇部模型建立 |
3.1 可视化协同发音建模 |
3.1.1 协调发音与视位 |
3.1.2 汉语可视发音基元的选择 |
3.1.3 声母与韵母的重新聚类 |
3.1.4 建立可视协同发音模型 |
3.2 三维唇部模型建立 |
3.2.1 利用“中性人脸”规范化三维模型 |
3.2.2 利用“FDP 参数”规范化三维模型 |
3.2.3 基本口型库的建立 |
3.3 本章小结 |
第4章 基于汉语协同发音模型的口型合成 |
4.1 计算当前发音音素的影响因子 |
4.2 优化原始拼音序列 |
4.3 口型间的平滑过渡控制 |
4.4 本章小结 |
第5章 实验结果分析 |
5.1 协同发音模型实验分析 |
5.2 口型动画生成实验分析 |
5.3 本章小结 |
结论 |
参考文献 |
附录 A 汉语拼音对照码(部分) |
附录 B 汉字编码对照表(部分) |
附录 C 攻读硕士学位期间取得的学术成果 |
附录 D 攻读硕士学位期间参与的科研项目 |
致谢 |
(4)真实感三维人脸唇形动画系统的语音驱动(论文提纲范文)
摘要 |
Abstract |
第1章 绪论 |
1.1 研究背景与意义 |
1.2 国内外研究现状 |
1.3 本文工作与组织结构 |
1.3.1 本文工作 |
1.3.2 本文组织结构 |
第2章 真实感三维人脸唇形动画技术基础 |
2.1 三维人脸建模技术 |
2.2 唇形动画技术 |
2.2.1 关键帧插值法 |
2.2.2 参数化法 |
2.2.3 基于变形的方法 |
2.2.4 基于 FAP 流的方法 |
2.3 唇形动画驱动技术 |
2.3.1 基于文本驱动的唇形动画 |
2.3.2 基于视频驱动的唇形动画 |
2.3.3 基于语音驱动的唇形动画 |
2.4 MPEG-4 标准概述 |
2.4.1 MPEG-4 标准中的参数 |
2.4.2 MPEG-4 人脸动画基本原理 |
2.4.3 MPEG-4 标准的优势 |
2.5 本章小结 |
第3章 语音特征参数的提取 |
3.1 语音信号的数字化 |
3.2 语音信号的预处理 |
3.2.1 预加重 |
3.2.2 分帧加窗 |
3.2.3 时域分析 |
3.2.4 端点检测 |
3.2.5 频域分析 |
3.3 MFCC 参数的提取 |
3.4 基于隐马尔科夫模型的映射方法 |
3.4.1 隐马尔科夫模型的参数 |
3.4.2 隐马尔科夫模型的问题及解决方案 |
3.4.3 双层隐马尔科夫模型 |
3.5 本章小结 |
第4章 唇形动画系统的设计与实现 |
4.1 系统的设计原则 |
4.2 系统的开发环境 |
4.2.1 Direct3D 概述 |
4.2.2 Direct3D 纹理映射 |
4.3 系统的实现 |
4.3.1 系统的工作流程 |
4.3.2 系统的实现细节 |
4.4 系统的分析与评价 |
4.4.1 评价标准 |
4.4.2 实验结果 |
4.5 本章小结 |
第5章 总结与展望 |
5.1 工作总结 |
5.2 展望 |
参考文献 |
作者简介及在学期间所取得的科研成果 |
致谢 |
(5)三维虚拟人表情合成技术的研究(论文提纲范文)
摘要 |
Abstract |
第1章 绪论 |
1.1 研究背景及意义 |
1.2 国内外研究现状 |
1.3 研究目标及内容 |
1.3.1 研究目标 |
1.3.2 研究内容 |
1.4 本文结构安排 |
第2章 三维虚拟人脸模型的建立 |
2.1 Loop细分优化的Candide-3人脸模型的建立 |
2.1.1 Candide-3人脸模型的介绍 |
2.1.2 对Candide-3模型进行Loop细分优化的实现 |
2.1.3 Loop细分Candide-3模型实验结果展示及分析 |
2.2 基于顶点权重的虚拟人脸网格简化模型的建立 |
2.2.1 基于顶点权重的简化关键问题 |
2.2.2 基于顶点权重的边折叠简化算法步骤 |
2.2.3 建立双约束折叠序列 |
2.2.4 实验结果及分析 |
2.3 本章小结 |
第3章 基于MPEG-4标准的人脸表情合成 |
3.1 MPEG-4中人脸动画标准 |
3.2 MPEG-4标准定义的人脸表情参数 |
3.2.1 人脸定义参数FDP |
3.2.2 人脸动画参数单元FAPU |
3.2.3 人脸动画参数FAP |
3.3 基于MPEG-4标准的人脸动画工作原理 |
3.4 MPEG-4中人脸表情参数与Candide-3模型的匹配 |
3.4.1 Candide-3模型的人脸定义参数FDP的选择 |
3.4.2 Candide-3模型的人脸动画参数单元FAPU的计算 |
3.4.3 Candide-3模型的人脸动画参数FAP的建立 |
3.5 本章小结 |
第4章 基于MPEG-4标准的三维人脸表情动画实现 |
4.1 基于MPEG-4标准的人脸动画合成方案设计 |
4.2 动画定义表的构建 |
4.2.1 人脸动画定义表的一般结构 |
4.2.2 三维人脸网格顶点三维运动因子的计算 |
4.2.3 Candide-3模型的人脸动画定义表的构建 |
4.3 基于FAP值的三维人脸网格点坐标计算 |
4.4 基于MPEG-4标准的人脸表情动画实现 |
4.4.1 人脸动画参数FAP值的计算 |
4.4.2 基于MPEG-4标准的6种基本表情的合成 |
4.5 本章小结 |
第5章 系统设计及实验分析 |
5.1 系统总体设计 |
5.1.1 总体设计框图 |
5.1.2 功能模块图 |
5.2 系统界面及操作过程 |
5.2.1 界面介绍 |
5.2.2 系统操作步骤 |
5.3 实验结果与分析 |
5.4 本章小结 |
结论 |
致谢 |
参考文献 |
攻读硕士学位期间发表的论文及科研成果 |
(6)基于语音驱动的人脸口型动画系统(论文提纲范文)
摘要 |
Abstract |
第1章 绪论 |
1.1 课题研究背景及意义 |
1.2 国内外研究现状及发展趋势 |
1.3 本文工作及文章结构 |
1.3.1 工作内容 |
1.3.2 章节安排 |
第2章 人脸建模及人脸动画技术概述 |
2.1 人脸的三维建模 |
2.2 人脸动画的实现思想 |
2.2.1 关键帧思想的人脸动画 |
2.2.2 人脸模型参数化思想的人脸动画 |
2.3 人脸动画系统的驱动方式 |
2.3.1 语音驱动的人脸动画 |
2.3.2 文本驱动的人脸动画 |
2.3.3 视频驱动的人脸动画 |
2.4 模拟人脸运动的方法 |
2.5 本章小结 |
第3章 语音的分析和处理 |
3.1 语音识别方法概述 |
3.2 隐马尔可夫模型(HMM) |
3.2.1 马尔可夫链 |
3.2.2 HMM 描述 |
3.2.3 HMM 的三个问题 |
3.3 语音信号的分析和处理 |
3.3.1 语音信号的预处理 |
3.3.2 语音信号的时域分析 |
3.3.3 语音信号的频域分析 |
3.3.4 语音特征参数 MFCC 提取 |
3.4 HMM 样本识别 |
3.5 本章小结 |
第4章 基于 MPEG-4 标准的人脸动画系统的设计与实现 |
4.1 MPEG-4 概述 |
4.1.1 人脸定义参数 FDP |
4.1.2 人脸动画参数 FAP |
4.1.3 人脸动画定义表(FDT) |
4.1.4 三维人脸网格顶点坐标计算算法 |
4.2 基于 MPEG-4 标准的动画原理 |
4.3 OPENGL 开发工具 |
4.3.1 OpenGL 的特点 |
4.3.2 OpenGL 动画原理 |
4.3.3 基于 OpenGL 实现的纹理映射 |
4.4 三维人脸动画系统的实现 |
4.5 本章小结 |
第5章 人脸表情的实现 |
5.1 人脸动作编码系统 FACS |
5.2 基于 MPEG-4 标准的人脸表情模型 |
5.3 人脸表情的生成 |
5.4 人脸表情动画的应用展望 |
5.5 本章小结 |
第6章 总结与展望 |
6.1 本文工作总结 |
6.2 工作展望 |
参考文献 |
作者简介及在学期间所取得的科研成果 |
致谢 |
(7)真实感三维人脸表情动画生成(论文提纲范文)
摘要 |
Abstract |
第1章 绪论 |
1.1 引言 |
1.2 研究背景及意义 |
1.3 国内外研究现状 |
1.3.1 参数化模型 |
1.3.2 肌肉模型 |
1.3.3 近年来出现的新方法 |
1.4 本文的主要研究工作 |
1.5 论文组织结构 |
第2章 基于信息统计的人脸动画参数确定方法 |
2.1 引言 |
2.2 MPEG-4 人脸动画标准 |
2.3 北京工业大学三维人脸数据库及其数据处理 |
2.3.1 BJUT-3D数据库 |
2.3.2 基于均匀网格重采样和网格简化相结合的三维人脸对齐算法 |
2.4 基于信息统计的人脸表情动画参数确定方法 |
2.4.1 方法的提出 |
2.4.2 算法流程 |
2.4.3 可行性分析 |
2.5 实验结果 |
2.6 本章小结 |
第3章 人脸网格变形 |
3.1 引言 |
3.2 人脸动画定义表 |
3.3 三维变形方法 |
3.4 人脸网格变形 |
3.5 实验结果及分析 |
3.6 本章小结 |
第4章 人脸在时间轴上的动态特征模拟 |
4.1 引言 |
4.2 人脸表情变化特征 |
4.3 基于特征点的人脸动态特征模拟 |
4.4 实验结果及分析 |
4.5 本章小结 |
结论 |
参考文献 |
攻读硕士学位期间所发表的学术论文 |
致谢 |
(8)基于MPEG-4的融合多元素的三维人脸动画合成方法(论文提纲范文)
1 基于MPEG-4的人脸动画方法 |
1.1 MPEG-4人脸动画原理 |
1.2 人脸定义参数 (FDP) 的设定 |
1.3 人脸动画参数 (FAP) 的提取 |
2 融合多元素的可视语音合成 |
2.1 口型动画的合成 |
2.2 表情动画的合成 |
2.3 面部运动元素的融合 |
3 实验结果与分析 |
4 结束语 |
(9)虚拟“双簧”:三维人脸的唇动合成和表情合成(论文提纲范文)
摘要 |
Abstract |
第1章 绪论 |
1.1 课题来源及研究的目的和意义 |
1.1.1 课题来源及课题背景 |
1.1.2 研究的目的及意义 |
1.2 研究现状及分析 |
1.2.1 基于三维模型的人脸动画方法 |
1.2.2 人脸动画驱动技术 |
1.2.3 唇动合成方法分类 |
1.3 本文的主要研究内容 |
第2章 基于CANDIDE-3 面部模型的人脸重构 |
2.1 CANDIDE-3 模型简介 |
2.2 Haar 特征及其计算 |
2.2.1 Haar 特征 |
2.2.2 积分图 |
2.2.3 计算Haar 特征 |
2.3 AdaBoost 算法 |
2.3.1 AdaBoost 简介 |
2.3.2 训练误差 |
2.4 人脸及眼睛检测算法 |
2.4.1 Viola 经典检测框架 |
2.4.2 基于Haar 型特征的弱分类器 |
2.4.3 Cascade 结构 |
2.5 眼睛特征提取 |
2.5.1 眼睛区域的二值化处理 |
2.5.2 眼球区域的投影和搜索 |
2.6 模型参数获取及人脸重构 |
2.6.1 模型参数获取 |
2.6.2 CANDIDE-3 模型重构 |
2.7 本章小结 |
第3章 语料库基元运动特征提取 |
3.1 数据库介绍及数据预处理 |
3.1.1 数据库介绍 |
3.1.2 数据采集与语料分割 |
3.1.3 嘴唇特征点的选取 |
3.2 基于水平集的唇区轮廓提取方法 |
3.2.1 唇区检测和轮廓提取 |
3.2.2 基于颜色空间的变化处理 |
3.2.3 基于水平集的轮廓提取方法 |
3.3 手工标注方法 |
3.4 本章小结 |
第4章 基于MPEG-4 标准的动画合成 |
4.1 MPEG-4 人脸动画标准 |
4.1.1 人脸特征点参数FDP |
4.1.2 人脸运动参数FAP |
4.1.3 人脸动画参数单元(FAPU) |
4.1.4 MPEG-4 与 CANDIDE-3 |
4.1.5 FAP 驱动人脸动画基本原理 |
4.1.6 FAP 驱动三维人脸网格点的计算 |
4.2 人脸动画模型构建 |
4.2.1 动画模型框架 |
4.2.2 动画单元向量(AUV) |
4.3 人脸动画表情合成实验结果 |
4.3.1 真实感三维人脸重建合成效果 |
4.3.2 二维卡通人脸合成效果 |
4.4 本章小结 |
第5章 系统总体构架 |
5.1 系统整体框架和工作流 |
5.2 系统整合阶段需关注的问题 |
5.2.1 音视素的映射处理 |
5.2.3 动画参数的计算 |
5.3 唇动和表情合成 |
5.4 本章小结 |
结论 |
参考文献 |
附录 |
致谢 |
四、基于MPEG-4的三维人脸动画实现方法(论文参考文献)
- [1]基于web的三维虚拟形象生成与控制方法研究[D]. 冯静怡. 北京邮电大学, 2020(05)
- [2]基于非刚性变形的人脸建模和动作模拟[D]. 王源. 杭州师范大学, 2020(02)
- [3]基于汉语协同发音模型的文本驱动三维口型动画合成研究[D]. 王跃. 山东财经大学, 2014(08)
- [4]真实感三维人脸唇形动画系统的语音驱动[D]. 朱明会. 吉林大学, 2014(10)
- [5]三维虚拟人表情合成技术的研究[D]. 王娅. 西南交通大学, 2013(10)
- [6]基于语音驱动的人脸口型动画系统[D]. 崔明. 吉林大学, 2012(09)
- [7]真实感三维人脸表情动画生成[D]. 王俊培. 北京工业大学, 2011(10)
- [8]基于MPEG-4的融合多元素的三维人脸动画合成方法[J]. 尹宝才,王恺,王立春. 北京工业大学学报, 2011(02)
- [9]虚拟“双簧”:三维人脸的唇动合成和表情合成[D]. 王倩. 哈尔滨工业大学, 2010(05)
- [10]基于自由形状变形的三维人脸表情控制[J]. 李健,李鹏坤,师永刚. 计算机工程与科学, 2010(03)
标签:人脸识别算法论文; 人脸检测技术论文; 虚拟技术论文; adaboost人脸检测论文; 人工智能论文;