当前位置:高等教育资讯网  >  中国高校课件下载中心  >  大学文库  >  浏览文档

机器感知与模式识别:基于局部纹理ASM模型的人脸表情识别

资源类别:文库,文档格式:PDF,文档页数:8,文件大小:1.2MB,团购合买
点击下载完整版文档(PDF)

第6卷第3期 智能系统学报 Vol.6 No.3 2011年6月 CAAI Transactions on Intelligent Systems Jun.2011 doi:10.3969/j.issn.16734785.2011.03.007 基于局部纹理ASM模型的人脸表情识别 彭程,刘帅师1,万川,田彦涛2 (1.吉林大学通信工程学院,吉林长春130025:2.吉林大学工程仿生教育部重点实验室,吉林长春130025) 摘要:针对主动形状模型(ASM)迭代过程容易陷入局部最优解的不足,提出了一种基于局部纹理模型的改进ASM 算法,即EWASM.在局部纹理模型构建中,以每个特征点的中垂线方向搜索其邻域信息以确定最佳匹配位置,对衡 量匹配程度的马氏距离加以推广,进而得到改进的扩展加权局部纹理模型,它由中心局部纹理模型、前局部纹理模 型和后局部纹理模型共3个子模型加权组成,并对加权参数进行实验优化,使各个特征点之间的联系更加紧密,模 型的鲁棒性更好.通过表情识别实验对提出的EWASM算法和传统ASM算法进行对比,选用RBF神经网络分类器进 行表情分类,实验结果表明EWASM算法收敛速度更快,识别率也得以提高,并解决了局部最小问题,能更有效地表 征表情. 关键词:人脸表情识别:主动形状模型:局部纹理模型;RBF神经网络分类器 中图分类号:TP391文献标识码:A文章编号:16734785(2011)03023108 An active shape model for facial expression recognition based on a local texture model PENG Cheng',LIU Shuaishi',WAN Chuan',TIAN Yantao1.2 (1.School of Communication Engineering,Jilin University,Changchun 130025,China;2.Key Laboratory of Bionic Engineering (Ji- lin University),Ministry of Education,Changchun 130025,China) Abstract:An improved active shape model(ASM)called EWASM (expanded weighted ASM)based on a local tex- ture model was proposed because EWASM overcomes the disadvantage that the active shape model is easy to involve in local optimal solution in the iterative process.In the local texture model,searching adjacent information of each landmark along its perpendicular bisector made the match position best.It improved and promoted Mahalanobis dis- tance which measured the matching degree.Then the local texture model was extended to include the center local texture model,forward local texture model,and backward local texture model.After that,the weighted parameters were optimized experimentally.Thus each landmark is more closely related and the local texture model is more ro- bust.Finally facial expression recognition experiments were conducted comparing EWASM with classical ASM,and a RBF neural network was used as a classification in the expression recognition.Experiments show that the EWASM algorithm solved the local minimum problem and achieved a better convergence rate and recognition effect. Keywords:facial expression recognition;active shape model;local texture model;RBF neural network classifier 人脸表情不仅在人与人的交流中发挥着重要的中是一个关键环节.目前最受关注的特征提取方法是 作用,而且是实现人机交互,使计算机能够更准确地 Cootes等人于1995年提出的主动形状模型(active 理解人的表情和意图的一个重要研究内容.一个完整 shape model,ASM)方法12i,其模型允许一定程度上 的人脸表情识别系统由人脸检测、特征提取和表情分 形状的变化,可以更好地定位物体的内外轮廓,又不 类3个部分组成.其中特征提取在整个表情识别过程 会脱离目标对象的本质特征;但该模型对初始形状的 定位非常敏感,本质上是一个求局部最优的过程,有 收稿日期:2010-1126. 基金项目:吉林省科技发展计划重点资助项目(20071152):吉林大学 时不能发现全局最优解,存在着一定的局限性,因此 “985工程”工程仿生科技创新平台项目资助;吉林大学研 究生创新基金资助项目(20101027). 吸引了国内外广大学者对其进行研究, 通信作者:田彦涛.Email:tianyt@jlu.edu.cm. 1998年,Cootes等人进一步提出了主动表观模

·232 智能系统学报 第6卷 型(active appearance model,AAM)[23].AAM建立 考虑全局形状模型: 了关于人脸的形状与纹理的组合模型,因此定位更 X=X+Pb 精确,但运算速度与ASM相比较慢.M.Rogers和J. 式中:X是一个形状;X表示平均形状;P是主成分 Graham4用一种具有鲁棒性的最小二乘技术来最 特征向量构成的变换矩阵;b为权值向量,使用主成 小化全局统计模型和未知形状之间的差值,这一改 分分析法控制前t个特征值的系数,不同的b对应 进使得全局统计模型表示的形状不容易受特征点中 不同的形状,并且对b加以限定:-3A:<b:< 的噪声和野值的影响,但计算工作量较大.Van Gin- 3/入:,i=1,2,…,t,其中入k(入≥入k+1,入k≠0,k=1, nenken等人[s提出一种改进局部纹理模型方法,用 2,…,2n)是协方差矩阵的特征值. “局部无序图像”[6]计算得到的局部纹理特征代替 给定局部纹理模型为: 传统ASM的法线模型,用K近邻分类器对特征点进 行匹配,但在特征属性较多时K近邻分类器的分类 G,=六6 精度大大降低.Faruquie等人[门运用ASM方法检测 5=8a,-a,G,6, N 嘴唇的轮廓,使用5条曲线代表嘴唇的轮廓,进而降 低了参数个数,将彩色信息加人ASM,获得了较好 式中:G:是对第i幅训练图像的第j个标定点的灰 的匹配效果.G.Hamarneh等人[8]将ASM的特征扩 度信息归一化后的纹理向量,即 展到时间空间的形状,并且设计出一种新的算法,使 1 得时间空间形状模型能更好地与图像序列中的目标 G=2k dsi' 轮廓匹配.李皓等人[91提出了多模板ASM定位算 ∑1dg 法,先利用全局模板定位总体,再利用局部模板定位 dg=[g到2-gg1,69.21-6,24], 局部,从而改善ASM纹理平滑区域特征点定位不精 其中第i个特征点的灰度信息是以该特征点为中心沿 确的问题.Chen等人[o1把局部变量引入到ASM 法线方向上下各取k个点的灰度来表示,即8y=[g1 中,进行图像变形检测和形状修正,从而有效避免了 8,2…8,24+1];C是平均纹理;Sc是协方差矩阵 图像的变形,提高了匹配准确性, 在目标图像搜索确定标定点的最佳匹配位置 以上这些改进方法只保留传统ASM的基本思 时,希望准确定位每个特征点,因此需搜索特征点附 想,具体操作过程与传统ASM方法差别较大,在改 近的邻域信息,最直接的方法就是分析邻域的灰度 进ASM的同时也增加了复杂性.而本文针对ASM 信息,以确定最佳匹配位置.匹配程度用式(1)的马 易陷入局部最优的缺点,提出了局部纹理模型的改 氏距离[1s来描述 进算法(expanded weighted ASM,EWASM),以每个 d(G)=(G-G)(Sc)(Gg-Gg).(1) 特征点的中垂线方向搜索其邻域信息以确定最佳匹 式中:G是由目标搜索图像在j点附近采样得到的 配位置,根据每个特征点的邻域信息,对衡量匹配程 归一化纹理向量;d(G)最小值对应的点即是最佳 度的马氏距离准则函数加权扩展,由3个子模型共 候选点。 同描述局部纹理模型的特性,更准确定位目标图像, 1.2 EWASM算法 通过特征点间的制约解决局部最小问题,并且通过 虽然ASM方法的有效性己被广泛证实,但是传 实验比较和分析,验证了改进算法的有效性, 统的ASM仍存在诸多不足.1)ASM的鲁棒性不够 理想,迭代过程的收敛性非常依赖于初始形状的定 1 EWASM算法 位,初始位置的改变往往影响迭代次数,甚至导致无 1.1主动形状模型 法达到收敛;2)ASM本质上是一个求局部最优的过 主动形状模型是基于统计学习模型的特征点提 程,有时不能发现全局最优解,容易陷入局部最小 取方法2],其首先提取面部形状的特征点集合, 针对这些问题,本文提出了EWASM算法.如图 形成训练集,通过统计分析构造样本的全局形状模 1(a),EWASM算法中,以点P。为中心到其相邻特 型.然后利用局部纹理模型在目标图像中搜索特征 征点(P,P)连线的垂线F方向上下各取相同像 点的最佳匹配位置,同时根据匹配结果调整全局模 素,得到特征点P。的灰度信息,点P与点P,的灰 型的相关参数,从而使模型与目标图像的实际轮廓 度信息求取同点P。,对以上3个特征点分别建立局 逐步逼近,最终准确定位目标 部纹理模型9],并命名为中心局部纹理模型、前局

第3期 彭程,等:基于局部纹理ASM模型的人脸表情识别 ·233· 部纹理模型和后局部纹理模型,这3个子模型的构 其相邻的特征点可以把它拉回至最佳位置,这样也 建过程一致,差别只在于采样点的位置不同.根据初 解决了模型容易陷入局部最优的问题、 始定点的位置,前局部纹理模型的特征点在中心局 3)充分利用给定点邻域内其他特征点的信息 部纹理模型的特征点的前面,同理,后局部纹理模型 以及各特征点之间的联系,保证定点的准确性,鲁棒 的特征点在中心局部纹理模型的后面.采用相同的 性更好 方法对训练集中每幅图像的特征点进行上述处理, 2 最终可以得到针对某个特征点P。相对应的3个平 实验结果与分析 均向量和3个协方差矩阵,分别记为、、:和分 实验使用国际标准的专门用于表情识别研究的 功、 数据库JAFFE(Japanese female facial expression), EWASM与传统ASM特征点定位实验中,训练样本 140幅,测试样本70幅.由于在表情识别中,鼻子和 面部轮廓对表情的影响不大,因此实验中只标定眉 (a)EWASM算法 (b)传统ASM算法 毛、眼晴和嘴巴共40个特征点,相对其他ASM研究 算法,EWASM方法定点较少、减少了计算量、提高 图1 EWASM算法与传统ASM算法中灰度信息求取 了收敛速度, 对比 表情分类实验中选出“生气”、“厌恶”、“恐 Fig.1 Gray information comparison between EWASM and classical ASM 惧”、“高兴”、“中性”、“悲伤”、“惊讶”7种手动定 把3个子模型的局部纹理模型根据式(1)的匹 点的140幅表情图像样本作为训练样本,其中各种 配准则进行加权求和,进而匹配准则函数可扩展为 表情的样本数目均为20幅.测试样本为自动定点的 d(g,,g)=a(g-)()-(-)+ 65幅表情图像,各种表情的样本数目依次为:10幅、 6(中-)()4(功-)+ 10幅、8幅、9幅、10幅、8幅、10幅. c(g-1)()(g-T) (2) 由于脸部特征向量与脸部表情之间的关系是一 式中:、、是目标搜索图像对应特征点P。的归 种非线性映射关系,而利用线性分类器不能准确地 一化后的中心局部纹理向量、前局部纹理向量和后 分类表情;因此选取了在理论上可以逼近任何非线 局部纹理向量,同样求取d(,,)的最小值就是 性函数的神经网络分类器,其具有收敛速度快、所需 点P。的最佳匹配位置;a、b、c是对应的加权参数, 参数少、局部最佳逼近等优点.其中选取RBF神经 分别为3个局部纹理子模型的权重,需满足a+b+ 网络分类器进行表情分类,高斯函数作为基函数,输 c=1和a,b,c≥0.文献[13]构建的加权模型,其参 入层的节点数为80,与输入特征向量的维数相等, 数人为设定,没有依据.而本文可以通过实验优化调 输出层的节点数选定为7,即类别数 整,从而确定加权参数的满意值,因此更为精确。 2.1加权参数选择实验 比较式(1)和式(2)可知,EWASM算法的匹配 EWASM算法的加权参数a、b、c作为3个子模 准则是传统ASM算法的匹配准则的扩展,即式(1) 型的权值决定每个子模型,所占的比重,即每个特征 是式(2)的一个特例,并且式(2)包含了3个子模型 点的分量.由于中心局部纹理模型作为特征点的主 的纹理信息,特征信息更广 要模型,在3个子模型中所占比重应最大,而前局部 由此可见,EWASM算法的优点如下. 纹理模型和后局部纹理模型比重几乎相等;因此α、 1)充分利用了面部特征区域的纹理信息来构 b、c可选为0.4、0.3、0.3,0.5、0.25、0.25,0.6、 造纹理向量,提供了更可靠的依据来确定目标图像. 0.2、0.2,0.7、0.15、0.15,0.8、0.1、0.1和0.9、 而传统ASM方法如图1(b),特征点P。的灰度信息 0.050.05.但当a、b、c为0.4、0.3、0.3时,前局部 是以点P。的法线F方向上下各取相同像素获得, 纹理模型和后局部纹理模型所占比重过大,中心局 与相邻特征点P、P.的相关信息无关,因此传统方 部纹理模型的核心作用无法体现出来,因此舍去这 法没有充分利用纹理信息. 组权值,当a、b、c为0.7、0.15、0.15,0.8,0.1,0.1 2)匹配准则得到了扩展,局部纹理模型通过3 和0.9,0.05,0.05时,前局部纹理模型和后局部纹 个子模型的加权求和,使各个特征点的联系更为紧 理模型所占比重过小,在模型构建中作用微弱,因此 密,互相控制和制约,若一个特征点发生严重偏离, 也舍去这3组权值,实验初步设定a、b、c为0.5

234 智能系统学报 第6卷 0.25、0.25及0.6、0.2、0.2较为合理 特征点定位更准确,表情识别率最高;因此本文通过 图2为EWASM特征点定位实验的加权参数比 实验优化调整,从而确定加权参数a、b、c的满意值 较.其中(a)、(b)是同一幅图像并且初始状态相同, 为0.6、0.2、0.2 (c)、(d)是同一幅图像并且初始状态相同.图2 (a)、(c)是加权参数为0.5、0.25、0.25迭代7次的 结果,(b)、(d)是加权参数为0.6、0.2、0.2迭代7 次的结果.可见加权参数a、b、c设定为0.6、0.2、0.2 的搜索效果相对较好一些, 在EWASM算法表情识别实验中,径向基宽度 (a) (b》 系数r可调节高斯函数的响应范围,依次设为0.1~ 0.9.表1的加权参数a、b、c为0.6、0.2、0.2,当r= 0.3和0.4时,达到最高识别率为80.91%,此时设定 径向基宽度系数为0.3或0.4取得最佳值.表2的加 权参数a、bc为0.5、0.25、0.25,当r=0.5时,达到 最高识别率为7769%,故此时设定径向基宽度系 数为0.5. (c) (d) 通过EWASM特征点定位实验和表情分类实验 图2 EWASM实验中加权参数4、b、c的结果对比 可见,加权参数a、b、c的满意值选定为0.60.20.2时, Fig.2 Comparison of weighted parameters a,b,c in EWASM experiment 表1基于EWASM与RBF表情识别结果(a=0.6、b=0.2、c=0.2) Table 1 Expression recognition results based on the EWASM algorithm and RBF (a=0.6,b=0.2,c=0.2) 正确识别数目 正确识别率/% 表情样本 类别 数目r=0.1r=0.3 '=0.5r=0.6 r=0.1r=0.3 r=0.8r=0.9 r=0.8r=0.9 r=0.2r=0.4 r=0.7 r=0.2r=0.4 r=0.5r=0.6 r=0.7 生气 10 8 1 6 6 50.00 80.0070.00 70.00 60.00 60.00 厌恶 10 &P 8 6 9 80.0080.0080.0090.0090.00 90.00 恐惧8 6 J 4 4 J 4 75.0062.5050.0050.0062.5050.00 高兴 9 6 8 8 6 6 7 66.6788.89 88.8966.67 66.6777.78 中性 10 8 9 9 9 8 8 80.0090.0090.0090.00 80.0080.00 悲伤 6 6 6 6 6 5 75.0075.0075.0075.0075.0062.50 惊讶 10 9 9 9 P > 90.0090.0090.0080.0080.0070.00 平均识别率/% 73.8180.9177.6974.5273.4570.04 表2基于EWASM与RBF表情识别结果(a=0.5、b=0.25、c=0.25) Table 2 Expression recognition results based on EWASM algorithm and RBF(a =0.5,b=0.25,c =0.25) 正确识别数目 正确识别率/% 表情 样本 类别数目 r=0.1 r=0.3 r=0.4 r=0.7 r=0.5 r=0.6 r=0.2 -0.8r=0.9 r=0.1 r=0.2 r=0.3=0.4 -0.7=0.5r=0.6 r=0.8r=0.9 生气 10 6 6 > 50.0060.00 60.0070.0050.00 50.00 厌恶 10 8 9 8 8 9 80.00 90.00 80.0080.00 90.00 90.00 恐惧 8 6 5 5 75.0050.0062.5050.00 62.5050.00 高兴 9 6 7 6 > 55.5566.6777.78 88.8966.67 77.78 中性 10 9 9 9 & & 80.0090.0090.00 90.0080.00 80.00 悲伤 & 6 6 6 6 6 75.0075.0075.0075.0075.00 62.50 惊讶 10 9 & & 90.0080.0080.0090.0080.0080.00 平均识别率/% 72.2273.1075.0477.6972.0270.04

第3期 彭程,等:基于局部纹理ASM模型的人脸表情识别 ·235· 2.2 EWASM算法实验 图3和图4分别是初始化相同情况下传统ASM 与EWASM算法的搜索过程对比,传统ASM算法最 终迭代15次得到搜索结果,而本文提出的EWASM 算法只需要迭代7次,比传统ASM迭代次数少,并 且定位效果更精确,传统ASM算法在左眼眉尖与嘴 (a)初始化 (b)迭代3次 (c)迭代7次 巴处定位发生了错误,而EWASM算法通过特征点 之间互相作用,可以将偏差较大的点拉回至更准确 图4 EWASM算法的搜索过程 Fig.4 EWASM algorithm search performance 的位置.因此实验结果表明提出的EWASM算法提 高了搜索的精度,加快了收敛速度.同样图5中,在 初始条件相同的情况下,EWASM算法最终搜索效 果明显优于传统ASM的搜索效果,传统ASM算法 在嘴巴处定位发生了错误,并且EWASM需要的迭 代次数更少,由此也验证了EWASM算法的有效性 (a传统ASM迭代I5次 (b)EWASM.迭代5次 图5传统ASM与EWASM算法对比 Fig.5 Comparison of search performance between classical ASM and EWASM 2.3基于RBF神经网络分类器表情识别实验 2.3.1表情识别实验比较 将EWASM算法与传统ASM算法的表情识别 (a)初始化 b)迭代7次 ()迭代15次 结果进行比较,如表1与表3,其中训练样本和测试 图3传统ASM算法的搜索过程 样本同前文表情识别实验一致,表中径向基宽度系 Fig.3 Classical ASM algorithm search performance 数r依次为0.1~0.9 表3基于传统ASM与RBF表情识别结果(a=0.6、b=0.2、c=0.2) Table 3 Expression recognition results based on classical ASM and RBF(a=0.6,b=0.2,c=0.2) 正确识别数目 正确识别率/% 表情 样本 类别 数目r=0.1 =0.3r=0.4 r=0.7 r=0.1 r=0.6 r=0.8 r=0.4 r=0.8 r=0.2 r=0.5 r=0.9 r=0.2 r=0.3 r=0.5 rs0.6r=0.7 r=0.9 生气10 7 6 6 5 5 70.00 60.0060.0070.00 50.00 50.00 厌恶10 > 9 & e > 70.0090.0080.00 80.0070.0070.00 恐惧 8 4 50.0050.0050.5050.0050.00 50.00 高兴 9 5 6 7 5 5 5 55.56 66.6777.78 55.5655.56 55.56 中性 10 7 8 8 8 8 70.00 80.00 80.0080.00 80.00 70.00 悲伤 4 4 5 4 4 4 50.0050.00 62.5050.0050.00 50.00 惊讶 10 > 8 8 70.0080.0080.0070.0070.0080.00 平均识别率/% 62.2268.1070.0465.0860.7960.79 从表3中可以看出,当r=0.4和0.5时,传统 效性 ASM的表情识别率最高为70.04%.由前文所示的 2.3.2改变样本图像下表情识别实验比较 表1可见,改变不同的基函数宽度系数r得到 在2.3.1节的表情识别实验中,测试样本的10 EWASM平均表情识别率的最高值为80.91%,明显 个人与训练样本中的10个人是相同的,为了进一步 优于传统ASM算法,再次验证了EWASM算法的有 说明EWASM算法的可行性,本文改变训练样本和

236. 智能系统学报 第6卷 测试样本,再次采用RBF神经网络分类器进行表情 参数a、b、c为0.6、0.2、0.2.表4中当r=0.5和0.6 识别实验,其中训练样本选取JAFP数据库中6位 时,EWASM算法的表情识别率最高为75.71%,表5 女性的表情图像共126幅,测试样本在另外4位女 中当r=0.4和0.5时传统ASM的表情识别率最高 性的表情图像样本中选取,共70幅,其中各种表情 为65.71%,由此表明本文提出的EWASM算法具有 的样本数目均为10幅.EWASM算法与传统ASM算 可行性和有效性,但由于本次实验训练样本中的人 法的表情识别结果如表4与表5所示,径向基宽度 与测试样本中的人不同,故表情识别率没有2.3.1 系数r依次为0.1~0.9,其中EWASM算法中加权 中表情实验的识别率高。 表4不同样本下基于EWASM与RBF表情识别结果(a=0.6、b=0.2、c=0.2) Table 4 Expression recognition results based on EWASM and RBF with different samples(a=0.6,6=0.2,c=0.2) 正确识别数目 正确识别率/% 表情 样本 数目 r=0.1 r=0.5 r=0.8r=0.1 r=0.5 r=0.8 类别 r=0.3r=0.4 r=0.6 r=0.7 r=0.3r=0.4 r=0.7 r=0.2 r=0.9r=0.2 r=0.6 r=0.9 生气 10 6 6 7 7 6 6 60.00 60.00 70.00 70.00 60.00 60.00 厌恶 10 80.00 80.00 80.00 80.00 80.00 70.00 恐惧 10 > > > 6 6 70.00 70.00 70.00 70.00 60.00 60.00 高兴 10 6 > 7 > > 60.0070.00 70.00 70.00 70.00 70.00 中性 10 8 & 80.00 80.00 80.00 80.00 80.00 70.00 悲伤 10 5 6 6 6 6 50.00 60.00 60.00 70.00 60.00 60.00 惊讶 10 8 8 8 9 8 8 80.00 80.00 80.00 90.00 80.00 80.00 平均识别率/% 68.5771.4372.86 75.7170.00 67.14 表5不同样本下基于传统ASM与RBF表情识别结果(a=0.6、b=0.2、c=0.2) Table 5 Expression recognition results based on classical ASM and RBF with different samples(a =0.6,b=0.2,c=0.2) 正确识别数目 正确识别率/% 表情样本 类别数目r=0.1 r=0.2r=0.4 =0.6r=0.7 r=0.2r=0.4 r=0.1 r=0.3r=0.5 r=0.8r=0.9 rs0.6s0.7 r=0.9 r=0.3r=0.5 r=0.8 生气 10 5 5 6 6 6 5 50.00 50.0060.00 60.00 60.00 50.00 厌恶 10 7 7 7 7 6 6 70.00 70.00 70.00 70.00 60.00 60.00 恐惧 10 6 6 6 6 6 60.00 60.0060.00 60.00 60.00 60.00 高兴 10 6 6 6 6 6 60.00 60.0060.00 60.00 60.00 60.00 中性 10 > > 70.0080.00 80.0080.00 70.00 70.00 悲伤 10 5 5 6 5 6 5 50.00 50.00 60.00 50.00 60.00 50.00 惊讶 10 6 6 60.00 70.00 70.00 70.00 70.00 60.00 平均识别率/% 60.00 62.86 65.71 64.2962.86 58.57 2.4基于EWASM与RBF的表情识别结果分析 作为神经网络的输入,特征点为40个,相对其他 基于EWASM算法与RBF神经网络分类器的 ASM的方法,特征定点较少、计算量更小、搜索速度 表情识别实验结果表明,最高识别率能达到 更快,但特征点定位的准确性可能降低,因此RBF 80.91%,识别效果受到以下2个方面的影响. 识别率会受到影响, 1)本文表情识别实验是自动搜索表情特征点 2)表情图像中因一些表情变化比较轻微,还有

第3期 彭程,等:基于局部纹理ASM模型的人脸表情识别 ·237 一些图像表情是复合表情,因此难以识别准确.例如 ited[J].International Journal of Computer Vision,2004, 图6中,(a)和(b)分别是“生气”表情和“悲伤”表 60(2):135-164. 情,但由于表情变化过于轻微被误认为“中性”表 [4]ROGERS M,GRAHAM J.Robust active shape model 情;(©)是“厌恶”中夹杂“恐惧”,所以也被误判; search[J].Lecture Notes in Computer Science,2002, (d)是“恐惧”的表情中带着“惊讶”,故被误判, 2353:517-530. [5]Van GINNEKEN B,FRANGI A F,STAAL JJ,et al.Ac- tive shape model segmentation with optimal features[J]. IEEE Transactions on Medical Imaging,2002,21 (8): 924933. [6]KOENDERINK J J,Van DOORN A J.The structure of lo- cally orderless images[].Interational Journal of Comput- (aj (b) er Vision,1999,31(2/3):159-168. [7]FARUQUIE T A,MAJUMDAR A,RAJPUT N,et al. Large vocabulary audio-vision speech recognition using ac- tive shape models[C]//International Conference on Patter Recognition.Barcelona,Spain,2000:3-8. [8 HAMARNEH G,GUSTAVSSON T.Deformable spatial- temporal shape models:extending ASM to 2D time[C]// (c) (d) British Machine Vision Conference.Manchester,UK, 2001:1322. 图6识别失败的表情举例 [9]李皓,谢琛,唐朝京.改进的多模版ASM人脸面部特征定 Fig.6 Examples of unsuccessful expression recognition 位算法[J].计算机辅助设计与图形学学报,2010,22 3 结束语 (10):1762-1768 LI Hao,XIE Chen,TANG Chaojing.An improved algo- 本文在传统ASM算法基本思想的基础上,针对 rithm for facial feature location by multi-template ASM[J]. 其迭代过程容易陷入局部最优解的不足,提出了一 Joural of Computer-aided Design Computer Graphics, 种改进局部纹理模型的EWASM算法,EWASM算法 2010,22(10):1762-1768. 对衡量模型匹配程度的马氏距离进行了推广,从而 [10]CHEN S Y,ZHANG J,GUAN Q,et al.Detection and a- 得到了扩展加权局部纹理模型,并对其相应的加权 mendment of shape distortions based on moment invariants 参数进行实验优化,使各个特征点互相制约,有效地 for active shape models[J].IET Image Processing,2011, 解决了局部最小问题.实验表明提出的EWASM算 5(3):273-285 法具有可行性和有效性,算法的迭代次数减少,进而 [11]冀贞海,孙宁,邹采荣,等.基于加权主动形状建模的人 缩短了定位的时间,提高了表情识别率.由于传统的 脸特征定位方法[J].电子与信息学报,2007,29(4): 800-803 ASM只能描述一些线性的形状变化,而非线性的形 JI Zhenhai,SUN Ning,ZOU Cairong,et al.Face align- 状变化往往在实际问题中更加普遍,因此目标形状 ment based on weighted active shape models[J].Journal 的非线性是有待解决的问题,这是实现自动人脸表 of Electronics Information Technology,2007,29(4): 情识别从实验室平台转化到实际应用的关键, 800-803. 参考文献: [12]孙正兴,姚伟.从视频中恢复三维人脸实时方法[J].智 能系统学报,2009,4(5):427432. [1]COOTES T F,TAYLOR C J.Active shape models-their SUN Zhengxing,YAO Wei.A real-time method for recov- training and application[J].Computer Vision and Image ering 3D faces from monocular video[J].CAAI Transac- Understanding,1995,61(1):38-59. tions on Intelligent Systems,2009,4(5):427-432. [2]COOTES T F,TAYLOR C J,EDWARDS G J.Active ap- [13]COOTES T F,HILL A,TAYLOR C J,et al.The use of pearance models[C]//European Conference on Computer active shape models for locating structures in medical ima- Vision.Berlin,Germany,1998:484-498. ges[J].Image and Vision Computing,1994,12(6): [3]MATTHEWS I,BAKER S.Active appearance models revis- 355-366

238· 智能系统学报 第6卷 作者简介: 田彦涛,男,1958年生,教授、博士 彭程女,1987年生,硕士研究生,主 生导师、博士.吉林大学自动化研究所 要研究方向为模式识别、计算机视觉 所长,中国自动化学会理事,中国自动 化学会机器人专业委员会常务委员,吉 林省自动化学会理事长,吉林省通信学 会副理事长,吉林省电机工程学会常务理事,中科院沈阳自 动化研究所先进制造技术实验室学术委员会委员,中国自动 刘帅师,女,1981年生,博士研究 化学会《机器人》学报编委,《吉林大学学报(信息科学版)》 生,主要研究方向为模式识别、计算机 副主编.主要研究方向为复杂系统建模、优化与控制、机器视 视觉 觉与模式识别等.近5年,完成国家"863"计划项目1项、国 家自然科学基金项目1项、吉林省科技发展计划项目3项、 国家"863“智能机器人网点实验室基金项目1项:目前负责 承担国家“863”计划项目和国家自然科学基金项目等国家 万川,男,1985年生,博士研究生,主 级科研项目3项、吉林省科技发展计划重点项目3项.发表 要研究方向为模式识别、计算机视觉 学术论文70余篇 2011模糊工程与智能交通国际学术会议 2011 International Joint Conference on Fuzzy Engineering and Intelligent Transportation(FEIT 2011) 2011 Intemational Joint Conference on Fuzzy Engineering and Intelligent Transportation(FEIT 2011))will be held in Xi'an,China from 10-11,December,2011,which will provides a unified communication platform for researchers in a wide area of topics from pure and applied mathematics,computer science,engineering,transportation and other related fields.The theme of the plenary session is"fuzzy engineering and intelligent transportation"featuring invited speakers who will further explore this topic that is so significant in these fields.Concurrent sessions and a poster session will cover a wide range of topics and issues,including both contributed papers and special sessions developed on specific themes. Topics will range from the theories to the practice methods and technology,it also focuses on applications,while also pres- enting fundamental work.The contents include regular papers,short communications,and reviews.The objective of FEIT 2011 will bring together researchers working on fuzzy engineering and intelligent transportation,and bring together re- searchers and practitioners in order to foster the collboration on research and application and present and discuss open re- search problems and novel applications. Important Dates Paper submission::August 15,2011 Acceptance:September 15,2011. Camera-ready:September 30,2011 Early registration::October 20,2011 (onference::December 10-11,2011 B-mail:feitconf@126.com,feitconf@gmail.com Webstie:http://www.feit-conf.org/index.html

第6卷 Paper submission: August 15,2011 Acceptance: September 15,2011 Camera-ready: September 30,2011 Early registration: October 20,2011 onference: December 10-11,2011 E-mail: feitconf@ 126.com,feitconf@ gmail.com Webstie: http: //www.feit-conf.org/index.html mportant Dates 刘帅师,女,1981年生,博士研究 生,主要研究方向为模式识别、计算机 视觉. 2011 Intemational Joint Conference on Fuzzy Engineering and Intelligent Transportation(FEIT 2011) will be held in Xi'an,China from 10-11,December,2011,which will provides a unified communication platform for researchers in a wide area of topics from pure and applied mathematics,computer science,engineering,transportation and other related fields. The theme of the plenary session is"fuzzy engineering and intelligent transportation"featuring invited speakers who will further explore this topic that is so significant in these fields. Concurrent sessions and a poster session will cover a wide range of topics and issues,including both contributed papers and special sessions developed on specific themes. Topics will range from the theories to the practice methods and technology; it also focuses on applications,while also pres￾enting fundamental work. The contents include regular papers,short communications,and reviews. The objective of FEIT 201l will bring together researchers working on fuzzy engineering and intelligent transportation, and bring together re￾earchers and practitioners in order to foster the collboration on research and application and present and discuss open re￾earch problems and novel applications. 万川,男,1985年生,博士研究生,主 要研究方向为模式识别、计算机视觉. 彭程,女,1987年生,硕士研究生,主 要研究方向为模式识别、计算机视觉. 田彦涛,男,1958年生,教授、博士 2011模糊工程与智能交通国际学术会议 2011 International Joint Conference on Fuzzy Engineering 生导师、博士.吉林大学自动化研究所 所长,中国自动化学会理事,中国自动 化学会机器人专业委员会常务委员,吉 林省自动化学会理事长,吉林省通信学 会副理事长,吉林省电机工程学会常务理事,中科院沈阳自 动化研究所先进制造技术实验室学术委员会委员,中国自动 化学会《机器人》学报编委,《吉林大学学报(信息科学版) 》 副主编.主要研究方向为复杂系统建模、优化与控制、机器视 觉与模式识别等.近5年,完成国家"863"计划项目1项、国 家自然科学基金项目1项、吉林省科技发展计划项目3项、 国家"863"智能机器人网点实验室基金项目1项;目前负责 承担国家"863"计划项目和国家自然科学基金项目等国家 级科研项目3项、吉林省科技发展计划重点项目3项.发表 学术论文70余篇. and Intelligent Transportation( FEIT 2011) 智 能 系 统 学 报 作者简介: 238·

点击下载完整版文档(PDF)VIP每日下载上限内不扣除下载券和下载次数;
按次数下载不扣除下载券;
24小时内重复下载只扣除一次;
顺序:VIP每日次数-->可用次数-->下载券;
已到末页,全文结束
相关文档

关于我们|帮助中心|下载说明|相关软件|意见反馈|联系我们

Copyright © 2008-现在 cucdc.com 高等教育资讯网 版权所有