当前位置:高等教育资讯网  >  中国高校课件下载中心  >  大学文库  >  浏览文档

【自然语言处理与理解】智能文本搜索新技术

资源类别:文库,文档格式:PDF,文档页数:10,文件大小:1.03MB,团购合买
点击下载完整版文档(PDF)

第7卷第1期 智能系统学报 Vol.7 No.1 2012年2月 CAAI Transactions on Intelligent Systems Feh.2012 D0I:10.3969/i.issn.16734785.201101001 网络出版t地址:htp://www.cnki.net/kcma/detail/23.1538.TP.20120218.1616.001.html 智能文本搜索新技术 王占一12,徐蔚然12,郭军12 (1.北京邮电大学模式识别与智能系统实验室,北京100876;2.北京邮电大学信息与通信工程学院,北京100876) 摘要:面对当今互联网上海量的信息,以及搜索信息准确、高数、个性化等需求,提出了一套包括信息检索、信息抽 取和信息过滤在内的智能文本搜索新技术.首先举荐了与信息检素新技术相关的企业检索、实体检索、博客检索、相 关反馈子任务.然后介绍了与信息抽取技术相关的实体关联和实体填充子任务,以及与信息过滤技术相关的垃圾邮 件过滤子任务.这些关键技术融合在一起,在多个著名的国际评测中得到应用,如美国主办的文本检索会议评测和 文本分析会议评测,并且在互联网舆情、短信奥情和校园网对象搜素引擎等实际系统中得到了检验. 关键词:智能文本搜索:文本检索:文本分析 中图分类号:TP393文献标识码:A文章编号:16734785(2012)010040-10 New technologies of intelligent text search WANG Zhanyi2,XU Weiran'2,GUO Jun'2 (1.Patter Recognition and Intelligent System (PRIS)Laboratory,Beijing University of Posts and Telecommunications,Beijing 100876,China;2.School of Information and Communication Engineering,Beijing University of Posts and Telecommunications,Bei- jing100876,China) Abstract:To adapt to the massive amount of information on the internet and the need for accuracy,efficiency,and individualization,a set of technologies of intelligent text search including information retrieval,extraction,and fil- tering were proposed.First,new technologies of information retrieval were illustrated including the subtasks of en- terprise retrieval,entity retrieval,blog retrieval,and relevance feedback.Second,the subtask of entity linking and slot filling related to information extraction was introduced.Finally,the subtask of spam e-mail filtering related to information filtering was described.These technologies were converged for application in many well-known interna- tional evaluations.These include the text retrieval conference (TREC)and text analysis conference (TAC)spon- sored in the USA,and these technologies of intelligent text search were proven in practical applications such as public opinions on the Internet,short message opinions,and the campus object search engine (COSE). Keywords:intelligent text search;text retrieval;text analysis 随着互联网技术的飞速发展,网络上的信息呈 传统的文本搜索基于数据库查询、关键词搜索 爆炸式增长.用户需要在这些海量信息数据中找到 等技术,有很强的局限性.而智能文本搜索解决的是 自己需要的内容,不是简单定位到某一个网站或网 数据海量、数据稀疏、大量并发请求、数据特征演进、 页,而是越精准、全面越好.同时他们希望使用尽量 主客观交叉等困难问题,从技术角度来说,智能文本 少的描述就可以找到自己感兴趣的内容,不带有任 搜索融合了信息的检索、抽取、过滤等方面.检索是 何垃圾信息.如何满足用户对这些信息的高精度、高 由用户提出查询请求,系统根据这个需求对Web信 效率、个性化、完备性等需求,是当前信息检索和数 息进行查询并给出结果,抽取是把文本里包含的信 据挖掘面临的新问题, 息进行结构化处理,变成表格一样的组织形式.过滤 是系统根据预先设定的条件,对W©b中与该条件相 收稿日期:20110102.网络出版时间:2012-02-18. 符的信息进行获取、隔离或封堵山 基金项目:国家自然科学基金资助项目(60905017);高等学校学科创 新引智计划项目(B08004). 为了探索前沿技术,解决上述问题,各国学术 通信作者:王占一.E-mail:wangzhanyi@gmail.com. 界、产业界和政府部门都给予了高度关注,一系列评

第1期 王占一,等:智能文本搜索新技术 41 测活动应运而生.文本检索会议(text retrieval con- 段是普通的文档检索,找出一定数量的相关文档,计 ference,TREC)作为文本检索领域最权威的评测会 算出查询Q和文档D:的相关度S(D,Q);第2 议,关注着检索技术的最新发展,比较客观地反映了 阶段计算事先确定好的专家E,和这些文档的相关 十几年来的研究趋势.TREC是由美国国家技术标 度S(E,D:);最后综合文档和查询的相关度得到 准局(NIST)和美国国防部(DOD)联合主办,创立于 查询和专家的相关度Sm(E,Q),就可以对和查询 1992年,主要目的是通过提供评价大型文本检索方 相关的专家排序了. 法所必需的基础设施来支持对信息检索的研究2], Som (E;,Q)= 关注TEC,有利于加强各个科研机构和企业之间 N 的交流,有利于评价检索方法在实际问题中的效果, A(3(D.0》x5(ED,》. (1) 也有利于加快实验室的技术商品化的速度 式中:V,表示第1阶段得到的文档中,用于第2阶 TREC的参赛队伍从开始的22个发展到2010 段的文档数量 年的75个.北京邮电大学模式识别实验室多年来致 文档检索使用的算法包括语言模型、KL距离、 力于模式识别和网络搜索技术,从2005年开始参加 BM25等.计算专家E和这些文档的相关度 TREC的多项评测并取得了较好的成绩,如垃圾邮 Se(E,D:)可以使用式(2): 件过滤、企业检索、博客检索、实体检索、相关反馈 Sne(Ei,D:)= 等.同时,该团队还参加了国家“863”计划项目中文 N+1 本分类、SigHan分词、TAC和中文倾向性分析等评 nf)×loga分)+0.5 (2) 测.评测中涉及的任务除了用于新技术的研究,也是 式中:n(f)表示文档D:中某一专家的名字和邮箱 为了解决实际问题.基于评测中的智能文本搜索新 出现的次数,N是语料集中文档的数目,d(f)是出 技术,一些实际系统也相应地被开发出来,并在实际 现该专家名字和邮箱的文档数目。 应用中得到了检验, 二阶排序模型思路清晰,有理论依据且易于实 本文以权威评测为主线,详细介绍智能文本搜 现,但它以整篇文档为桥梁,单纯以专家名或邮箱代 索新技术.第1部分以企业检索、实体检索、博客检 表全部的专家信息,方法较为粗糙,没有在文档中做 索和相关反馈为例介绍信息检索新技术;第2部分 更细致的挖掘, 以文本分析会议评测为例介绍信息抽取新技术;第 1.1.2专家经验模型 3部分以垃圾邮件过滤为例介绍信息过滤新技术; 专家经验模型的主要思路是提取专家在文档中 第4部分介绍以上述技术为核心的实际应用系统, 的上下文组成该专家的“经验”,再计算专家经验的 如互联网舆情系统、短信舆情系统、校园对象搜索引 概率.提取上下文的过程相当于为该专家开了一个 擎系统等:最后是总结和展望部分 “窗口”,因此也叫作专家窗口模型.笔者认为专家 名或邮箱的上下文是与该专家密切联系的信息,那 1信息检索 么在确定一个专家的同时将其前后一定数量的词也 1.1企业检索 提取出来组成新的文档,这个文档就是包含该专家 文本检索会议从2005一2008年制订了企业检 相关信息的文档.因此只要检索到这个文档就认为 索(enterprise track)评测任务[3),企业检索的目的是 该专家和查询是相关的.这个过程表示为 研究在企业内部数据中的用户检索行为,主要包含 P(E/Q)=P(E./Q). 邮件检索(2005-2006年)[451、文档检索(2007 式中:E表示由专家经验组成的文档.另外,经过反 2008年)[6]和专家检索(2005一2008年)任务.其 复的实验发现,窗口的长度取专家前后各150个词 中,专家检索是重点和难点,它的目的是寻找企业中 效果最好.表1给出了二阶排序和专家经验2种模 关于某一主题的专家.具体地,专家检索需要分成两 型的性能比较。 部分来解决:一是确定所给语料集中的专家,二是计 表12种专家检索模型的对比 算查询与专家的相关度.专家的标识主要是姓名和 Table 1 Comparison of two kinds of expert track model 邮箱,定位专家的方法主要有命名实体识别、查询人 模型 MAP Bpref P@10 名列表、匹配邮箱、称谓、职务等.在实际中,这些方 二阶排序 0.1833 0.4182 0.3080 法经常综合运用, 1.1.1二阶排序模型 专家经验 0.2160 0.5180 0.3400 二阶排序模型的主要思路是通过文档为桥梁, 1.2实体检索 计算查询和专家的相关度.如式(1),检索的第1阶 实体检索,或称实体追踪(entity track)是2009

42 智能系统学报 第7卷 年TREC评测新增加的一项任务].它可以看作是 中的二阶思路,不同之处在于专家换成了实体.第1 从2005一2008年的专家检索任务发展而来.与专家 阶段计算查询和文档的相关度使用的是语言模型和 检索相比,它具有更新更丰富的内容.许多使用搜索 推理网络.第2阶段计算实体和文档的相关度也是 引擎的用户本意并不是找出各种各样的文档,而是 一个检索的过程,可以采用概率模型等,将实体转换 想知道答案是哪些具体的实体,因此,文本搜索的核 成查询后就和第1阶段相同了. 心任务是相关实体查找(related entity finding,. 实体中心模型是实体处在结构的中层,文档或 REF).REF需要解决的问题是:给出一个输人实体, 文档的片断在底层支撑实体,实体与顶层的查询直 连同它的名字、主页、目标实体的类型,还有描述它 接相连.与文档中心模型不同,实体中心模型只需要 们之间关系的文本,找出与目标类型相符的实体,这 1次检索过程, 些实体能够表示前面要求的与输入实体的关系.对 单纯用文档支持实体过于粗糙,参考专家经验 于每个查询,要求输出实体的排序,且每个实体必须 模型,取实体的上下文作为与实体相关的信息.这里 有惟一的主页.笔者的工作主要关注3个方面:针对 的上下文称为片断,同样也取实体前后的150个词, 每个查询,找出相关的实体;依据检索模型,对实体 将某个实体的各个片断汇集在一起,形成一个新的 进行排序;为每个实体赋予一个主页, 文档.实体与实体文档一一对应,利用查询与这些文 1.2.1实体抽取 档的相关度就可以直接对实体进行排序.排序的具 与专家检索首先要定位专家相似,实体检索的 体算法有前面提到的语言模型、BM25等. 前提是必须找出与查询相关的实体,而且尽量提高 1.2.3确定主页 查准率和查全率,这就要用到实体抽取的技术.通 与专家不同,实体需要一个主页与之对应,也是 常,实体抽取主要分为基于统计和基于规则2种.基 在网络上的惟一标识.为实体分配主页的方法主要 于统计的方法例如最大熵(maximum entropy)[8]或 有3种:1)计算实体和各相关文档的相关度,取相 条件随机场(conditional random field)[9]将人名、地 关度最高的作为主页,这种方法依赖于文档的内容; 名等命名实体标识出来.基于规则的方法例如构建 2)制定规则,将实体与文档的URL作比较,找出相 命名实体词典,用词典过滤出符合要求的实体, 似度最高的作为主页;3)利用已有的外部资源,如 为了更准确、更全面地抽取实体,可以将几种方 搜索引擎排序靠前的网页、维基百科的参考链接等, 法混合使用,即规则统计-规则.首先通过观察语料 实际应用中混合使用这3种方法,相互补充,达到尽 集、构造查询在搜索引擎或维基百科中查找特殊网 量准确分配主页的目的 页,这种网页多数以表格的方式呈现,或者有其他明 1.3博客检索 显的特征.然后通过适当的规则将这些可信度较高 文本检索会议TREC从2006年起制定了博客 的实体抽取出来.这种方法可以保证准确率,但是实 检索任务(Blog track),最初只对博客的观点度及其 体的数量不够.接下来使用文档检索得到相关度最 与查询的相似性进行研究.博客检索从2008年起开 高的前N(N=5)篇文档,使用基于统计的命名实体 始关注对博客倾向性的分析,并于2009年提出博客 识别工具抽取出与目标实体类型相同的实体,调整 精选任务,该任务将博客的倾向性分为3类:“个人 N可以保证实体的数量,但是准确率不高,这就又要 的(personal)”或“官方的(of出cial)”;“深人分析的 用到基于规则的方法.利用维基百科中每个词条的 (in-depth)”或“浅层描述的(shallow)”;“表达观点 语义标签建立各种实体类型的映射规则,如对于组 的(opinionated)”或“描述事实的(factual)”,其目的 织名(organization),以“组织”、“公司”等开头的标 是在博客关于查询的相似性检索的基础上进一步对 签,采集这些标签对应的实体,建立实体词典,前面 博客的倾向性进行检索和排序.笔者参加了2007一 用工具抽取出的“实体”再经过词典过滤,添加到实 2010年的博客检索任务,并于2009年在多项评测 体列表中 指标中都取得了第1名的优异成绩, 1.2.2检索模型 l.3.1博客精选(Blog distillation) 有了实体列表就可以依据检索模型对实体排序 随着各大博客网站的推出和兴起,网络上涌现 了.在实体检索任务中,根据查询、文档、实体三者的 出海量的博客用户,这些博客内容丰富多彩,种类多 关系,形象地构建了2种模型:文档中心模型和实体 样,同时也充斥着各种感情色彩,可谓鱼龙混杂.在 中心模型. 信息如此泛滥的情况下来判断相对比较具体的一些 文档中心模型将文档d看作查询q和实体e的 话题的倾向性是有困难的,因此有必要事先挑选出 桥梁,查询和实体的相关度由合并q、d的相关度和 一些与话题相关性大的博客,再判断其倾向性.这也 e、q的相关度得到.文档中心模型借鉴了专家检索 是把话题检索作为倾向性检索基础的原因

第1期 王占一,等:智能文本搜索新技术 43 在2009和2010年的话题检索任务中,笔者使 表达一种观点或陈述一个事实的强烈程度,来对这 用的方法基本相同,都是将其看作Learning to Rank 些博客进行排序, 问题,即通过学习博文的排序,利用一定的算法来获 笔者在2008和2009年都使用了同一种情感分 得博客的排序.针对这一问题,采用Voting模型1o, 析模型2],对于博客的观点度打分如式(4): 即一个博客里的博文被看作是这个博客的支持者, I Nos -Neg I (4) 该博客里的博文对于话题的相关性就越大,同时相 S。=N。-+Ns 关的博文数量越多,该博客的相关性就越大,排序越 式中:N和N分别代表主观和客观的博文数, 靠前 与前2年不同,2010年的博客检索中使用了基 具体的方法如下:将所有的数据以博文为单位 于词典的方法,主要分为3个步骤: 输入Indi建立索引,用话题Q在Indri里进行查询, 1)利用信息增益与互信息自动生成“主观词词 得到博文的相关性分数和排序.通过此排序来获得 典”和“客观词词典”.通过信息增益在训练集中挑 博客排序,如式(3): 选对观点型博客和客观型博客区分度高的词,作为 Scone (B,Q)=>Sooe (p,Q)/1 BI. (3) 词典的候选词.由信息增益生成的候选词并没有被 分类为“观点型”或“客观型”,为了生成最终的2种 式中:B表示一个博客,博客B中的一篇博文用p表 词典,利用互信息进一步将这些候选词分为“观点 示,Se(B,Q)表示一个博客的相关性得分, 型”和“客观型”[3]」 Se(p,Q)表示从Indi中获得的博文的相关性分 2)计算观点度得分和客观度得分.对于每个查 数,BI表示一个博客下博文的数量.将获得的相关 询q和词典中的词t,在相关文档集中计算TF-DF 博客的分数排序,排在前100的被认为是与话题最 权重0(t),同时用一种词权重模型4]计算查询 相关的博客。 权重wa(q),然后将2个权重相加得到博客的观 1.3.2个人与官方(personal vs..official) 点度得分Sm和客观度得分Sa 博客的兴起使个人和组织的言论表达变得更加 3)排序.首先在相关文档集中找到每篇博客的 便利,然而因特网用户可能不大喜欢宣传性、商业性 相关性得分Se(B,Q),然后将S(B,Q)×Sm和 的博客,更加喜欢以个人的名义发表的文章,这样就 Se(B,Q)×Sa分别作为观,点度排序和客观度排序 使得个人、组织搜索的研究变得具有现实意义 的最终得分. 博客的个人、组织检索,是TREC评测2009年 1.3.4深入分祈与浅层描述(in-depth vs.shallow) 新增加的一项子任务,被安排在话题检索之后.在话 2009年首次提出博客的深浅度分析任务.笔者 题检索中,得到与话题相关的博客,再对其进行个 提出了L-Qu系数进行博文的深浅度分析51.然后 人、组织检索.最近2年分别采用了2种不同的方法 根据每一个博客下深度博文与浅度博文的数量,得 来进行个人、组织检索。 到每一个博客的深度分析程度或浅度分析程度的排 2009年主要采用了组织机构名的区分方法,因 序.最后将每一个博客深浅度的排序值与相应的博 为官方/组织的博客的书写惯例,一般会将组织名称 客精选的相关性值合并得到最终结果 放在文章的开头位置,有种“开门见山”的感觉;所 1)根据LQ系数进行每一篇博文的深浅度分析: 以根据相同的组织机构名称在文章中出现的频率和 k(L-Qtf)= 位置来给相关的博客进行打分,最后根据分数的高 1+ln(1+ln(f)) 低来进行排序和检索,即可分别得到个人和组织的 teOnD 博客。 (1-s)+si 2010年主要采用了基于机器学习的分类方法, 式中:∫:和f分别为查询中的单词在博文中的词频 将个人和组织的检索看作是一种分类的问题,在训 和在查询中的词频,在计算f和f之前,进行词干 练模型中,利用机器学习的方法来分别构建含有个 化处理(stemming),其作用是将词的各个词形变化 人和组织信息的词典.在构建词典前会做一个文本 还原为同一词干,例如“selling”和“sels”是“sell”的 特征降维的处理,然后利用VSM模型用这2个词典 不同词形,这样的处理可以提高查询词在博文中的 对相关博客进行打分和排序[山,最后分别得到个人 覆盖率;4为博文的长度;1为同一查询下全部相 和组织的博客。 关博文的平均长度;在实验中参数s设置为0.2 1.3.3表达观,点与描述事实(opinionated vs.factual) 2)根据博文的L-Q:系数进行博客的深浅度分 博客的观点度与客观度排序评测旨在开发一种 析.在同一查询下,根据LQ壮系数的值对博文进行 有效的检索系统,使其能根据博客中关于某话题所 排序,取该排序的前45%判定为深度表述的博文

44 智能系统学报 第7卷 后45%判定为浅度表述的博文.计算每一个博客下 1.4.2扩展词抽取 深度表述博文与浅度表述博文数量的差值,并对该 扩展词主要有2种:通过语言模型计算的权重 博客下博文的数量进行归一化,得到该博客的深浅 排序得到的词]和通过相似性KL距离计算得到 度分析结果S: 的命名实体扩展词的来源是初始查询结果通过标 Si=Some (b0) 记文本分类得到的相关文档类. 月ma.0)-85a.0) 语言模型进行扩展词抽取主要思想是将相关文 档类看作一个模型1],通过估计模型生成词的概率 n 来对词进行排序.词在相关文档类模型中的概率分 式中:S(b.,Q)为深浅度分析结果,为了区分下面 布如式(5): 的合并方法,用S表示. P(tI Ma)= 3)与博客的相关性结果合并得到最终排序.一 个博客深浅度分析的最终结果不能仅依赖于深浅度 ,Pn(t,d)1-》×Pe(t),f(t,d)>0; 分析,还要考虑该博客对于查询词的相关性,所以提 ,f,d)≤0, 出了以下的合并模型: S;= (5) 「Se(b.,Q)×Smm(B,Q),Scre(b.,Q)≥0; 式中:Pm(t,d)是词t在文档d中的归一化频率, 1-S(b,Q)x Som(B,Q),Scoe (b.,Q)<0. Pm(t)是词t的平均词频,R(t,d)是一个风险函数fa 式中:Sm(B,Q)为每个博客的相关性, 是t在文档类中的总词频,c,是相关文档集长度. 1.4相关反馈 一些查询往往与特定的领域或主题相关,这些 相关反馈是TREC在2008年发布的一项新任 领域内部的人物、机构、地点等通常能有助于区分相 务,基本的任务是:对于一个给定的查询,对文档集 关文档和不相关文档91.因此,可以将这些命名实 索引中抽取相关文档,得到初始查询结果;然后再给 体(包括人名、地名、组织机构)作为扩展查询的一 定一些标注过的与查询相关或无关的文档,通过标 部分.抽取的主要方法步骤是:1)对相关文档集进 记文档选择扩展词,对查询进行重构;最后重新查询 行命名实体标注,标注出人、组织和地名3类命名实 得到反馈结果.2008年采用了传统的Rocchio算法, 体;2)基于命名实体的词频对实体进行排序,得到 即正负反馈的方法.2009年相关反馈主要采用了文 词频较高的前20个命名实体;3)去掉这20个命名 本分类、语言模型提取扩展词的方法【6,其效果较 实体中的噪声实体,噪声实体是指在相关文档集和 好.2010年的相关反馈在2009年方法的基础之上 不相关文档集中都经常出现的实体;4)计算去噪后 加入了实体扩展、扩展词分类两部分 每个实体和相关文档的KL距离[0],找到与相关文 1.4.1结构流程 档距离最近的5个实体加入到扩展词集合中, 2010年相关反馈方法的流程如图1所示. 1.4.3扩展词分类 通过语言模型提取出的扩展词,并不是都能改 输入标注的 善原始查询的结果;因此采用对扩展词进行分类的 相关文档 方法,选择对原始查询改善效果比较好的扩展词,使 得查询能够得到更好的优化.在扩展词分类实验中, 查询初始结果 初始结果 分类器采用LIBSVM,特征选取方面,主要考虑的是 KNN分类 扩展词的分布特点、扩展词与查询词之间的共现频 度和距离等特征,训练样本来源于2009年TERC相 扩展词抽取 关反馈评测的数据。 根据扩展词对原始查询的不同影响,将扩展词 分为好扩展和坏扩展2种,并进行扩展词标注.好扩 扩展词分类 展是指当在扩展查询中该扩展词的权重为心时,返 回的结果比原始查询好,即正反馈;当权重为-0 查询扩展 反馈结果 时,返回结果比原始查询差,即负反馈.坏扩展与之 相反.实验中取0=0.01. 图1相关反馈的流程 使用LIBSVM2进行SVM的训练和预测.按照 Fig.1 The flow chart of relevance feedback 前面提到的标注方法,对2009年相关反馈提取的扩

第1期 王占一,等:智能文本搜索新技术 45 展词进行了标注,为避免正负样本比例不协调的问 评测中,选用ndi作为建立索引的工具 题而影响分类效果,最后选定191个样本作为训练 样本,其中131个负样本,60个正样本.在训练过程 查询 中,采取了交叉验证的方法,将数据平均分成5组, ndri 并保证每一组数据有12个正样本,最后达到的平均 准确率为69.26834%. 测 相关 初 1.4.4查询扩展 文档集 根据给定的原始查询和从相关文档集合中抽取 试 识 的扩展词进行查询扩展.扩展过程中查询的格式如 集 测试集 相关文档 库 下22 摘罗 共指 集摘要 消解 combine query).title)#weight 1.0 #combine 实体类型 实体类型 (query)1.0#uw(query)0.2tems0.2#combine (named entity)). 命 其中:“query”为原始查询,“tems”为语言模型抽 实体 识 取、SVM分类过的扩展词,“named entity”为通过KL 距离抽取的命名实体.原始查询的权重设为1.0,扩 展词权重设为0.2. 图2实体关联的流程 Fig.2 The flow chart of entity linking 2信息抽取 3)命名实体识别.TAC评测中的query都是一 一般情况下,被用户认为有用的信息隐藏在大量 个实体,并且该实体可能是以下3种类别之一:人 文字中,或散乱分布在各种各样的网页中.如何将这 名、地名、组织机构名.首先需要判断该quey是哪 些符合特定需求的信息抽取出来,是当前文本搜索领 一种类别的实体,从而方便后续的处理,在TAC评 域的热点问题.著名的文本分析会议(text analysis 测中,使用了斯坦福大学提供的命名实体识别开源 conference,TAC)就将焦点放在信息的抽取和关联分 工具包 析上.TAC是由IAD(information access division)组织 4)判定方法.在评测中,需要对1个query和1 的一个评测,该评测自2008年举办以来,已经进行了 个文档进行相似度的计算,采用了以下2种方法: 3届,最初是从TREC评测的Question Answering a)基于VSM模型的相似度判断: Iack发展起来的a].笔者自2009年已经连续2年 参加了该评测的实体关联和实体填充12项任务, V(S)V(S2) 并在评测中取得了较为优异的成绩, S(SS:)=v(S v(S)T= 2.1实体关联任务及关键技术 01yX02: 实体关联(entity linking)的任务是根据每一个 b)基于KL距离的相似度判断: query的标题和支持文档找到KB中的惟一节点和 它对应,或者返回空(表示该节点不和任何KB中的 Da(P1Q)=∑(P0-0e6 节点对应).其中:KB(knowledge base)这个数据集 5)实体关联的改进.在2010年的TAC评测中, 中存放所有的KB节点;query是评测开始时官方提 笔者加人了许多规则,这些规则的引人主要来自于 供的数据,一个query包含1个tile(标题)和1篇支 对原始数据的观察,通过加入相关的这些规则,效果 持文档. 有了提高. 1)系统总体框架.系统主要包括以下几个模 2.2实体填充任务及关键技术 块:实体检索、命名实体识别、相似性判断、自动摘 实体填充(slot filling)任务即在测试集中寻找 要,如图2.基本思想是,首先对每一个实体quey进 与目标实体(查询)相关的信息,填充目标实体预先 行实体检索,得到一批实体候选列表,然后针对每一 规定的一系列属性值.目标实体分为2类:人名和组 个候选实体进行排序和相似度的打分,从而得到最 织机构,人名共有26种属性需要填充,组织机构共 终的结果。 有l6种属性需要填充.属性有single和ist的不同, 2)实体检索.在评测中,往往面对的是海量文本, 其中single为只能有一个答案的属性,如人的生日; 如果对于每一个查询都去遍历KB,那么其响应速度是 lst为可以有多个答案的属性,如人的子女. 不能接受的;因此,通常需要对KB建立索引,在TAC 1)系统总体框架.实体填充系统的总体框架由

46 智能系统学报 第7卷 4个部分组成:实体检索模块、命名实体识别模块、 u×S(Q,de)+(1-u)×Ss(Q,St).(6) 关系抽取模块、结果决策模块,如图3.实体检索模 式中:Ve(Q,st,de)即为综合考虑文档对于quey 块通过Indri检索平台,获取和查询实体最相关的前 的相关性值和填充结果的可信度值的权值.对于基于 25篇相关文档及其相关度权值.命名实体识别模块 机器学习的方法,CRF+工具包5]可以为识别结果 使用斯坦福NER工具包识别人名、地名、组织机构 提供可信度值,记为crfvalue,即该判别结果正确的概 名,使用时间规则模板匹配识别时间.关系抽取模块 率,Ssp=crfvalue;对于基于规则的方法,优先选取基 是实体填充系统的核心模块,把实体填充当作一个 于规则方法的结果,设置填充结果可信度值为1, 关系抽取任务,在这一模块中同时采用基于规则模 Ss=1.实体关联提供相关文档的同时提供该文档的 板的方法与基于统计的方法.结果决策模块对关系 相关度值,记为Su·其中参数u设置为0.5. 抽取模块的结果进行优选得出最终结果 3 信息过滤 关系抽取 近年来,随着互联网技术的迅速发展,垃圾信息 实体 命名实 基于统计的方法 结果 的数量在网络上呈现上升趋势,信息过滤成为一个 检索 体识别 基于规则 决策 业内的难题和挑战.以垃圾邮件为例,TREC从 模板的方法 2005一2007年组织了垃圾邮件过滤评测(spam 图3实体填充的流程 track)【2],目的是尽可能找到一种好的垃圾邮件 Fig.3 The flow chart of slot filling 过滤模型,保证过滤的有效性和可重复性满足需求, 2010年实体填充的整体实现框架与2009年大 主要任务包括即时反馈、延时反馈、主动学习和部分 体相同,但细节上有所改进,例如增加了URL的识 反馈等28].笔者参加了其中的3届评测,2005年在 别.采用基于规则方法识别为主、基于统计CRF识 参赛的国内队伍中成绩是最好的。 别方法做补充的实现方案.即当2种方法同时出现 当前的垃圾邮件过滤技术可以大致划分为黑名单 “single'”的值,优选选择规则类方法;对于非“single” 技术、人力驱动的启发式过滤以及基于机器学习的过 的值,综合考虑文档对于query的相关性值Su和填 滤].这些技术中,朴素贝叶斯方法受到广泛关注 充结果的可信度值Ss,选择最优的若干个结果进行 3.1朴素贝叶斯分类器 优选得出最终结果 朴素贝叶斯分类器简单有效,经常用于文本分 2)基于规则模板的方法.a)识别URL(网址)和 类的应用和实验中.垃圾邮件过滤属于文本分类问 LIST(title职称、charge罪名、cause of death死因、re 题,因此该分类器被广泛使用于垃圾邮件过滤.朴素 ligion宗教等).其中URL识别采用正则表达式方 贝叶斯分类器是一种基于概率的方法,基本思想是 法,LIST主要从训练语料中统计而来.b)根据规则 通过观察一些词是否在邮件中出现来判断是垃圾还 模板输出实体填充结果. 是非垃圾,如式(7): 3)基于统计的方法.基于统计的方法是一种半 监督的机器学习方法,它将实体关系抽取看作一种 Cxw arg mP(C)IIP(t,I C).(7) 多分类问题,从文本中抽取训练所需要的特征,然后 式中:w是组成邮件的词,L是类别的集合.常用的 利用条件随机场形成分类器. 朴素贝叶斯模型有muli-variate Bernoulli模型、Pois 利用9种特征来训练CRFs:词对、词特征、词性 son Naive Bayes模型以及multinomial模型.它们的 特征、顺序特征、动词位置特征、实体位置特征、二值 不同之处主要在于如何计算P(w.IC:).对于垃圾邮 特征、动词特征和类型特征.由于实体关系识别是一 件过滤问题,只有2个类别:垃圾邮件C,和非垃圾 种多分类问题,而类别数越多,模型的准确率也会下 邮件C.,那么一封邮件M的对数得分可写为 降.为了尽可能降低类别数,根据目标实体的类型 S...(M)logP(C.)+>logP(I C.)- (人名或组织名)将初始的训练语料初步分为2份, 然后再根据词对中的第2个词是否为命名实体,进 (logP(C_)+>logp(IC_)). 步将训练语料二次划分,最后用CRFs形成了4 如果S(M)>0,待分类邮件被标注为C,类 种分类器,这样做也提高了系统的整体效率. (垃圾邮件),反之被标注为C_类(非垃圾邮件).过 4)结果合并.综合考虑文档对于quey的相关 滤模型如图4所示.在有监督情况下,用户判断垃圾 性值SL和填充结果的可信度值Ss,选择最优的1 邮件过滤器的结果并反馈给过滤器,而过滤器依据 个或若干个.选择策略如式(6)所示。 反馈进行自动学习.系统开始运行时并不预设标准, Ve(Q,st,de)= 即是一个无初始记忆的分类器,而后不断更新达到

第1期 王占一,等:智能文本搜索新技术 ·47 最佳效果.系统关于垃圾邮件的知识均是从理想用 联网舆情监控分析系统依托自主研发的文本搜索和 户的反馈中得到的. 文本挖掘技术,通过新闻、论坛、博客、微博、视频网 邮件 站等内容源的自动采集与跟踪,进行敏感话题过滤 训练过滤器 分析、智能话题聚类分类、主题监测、专题聚焦和各 垃圾邮件过滤器 类数据的统计分析,实现应用单位对相关网络舆情 监督管理的需要,为决策层全面掌握舆情动态,做出 正确舆论引导提供分析依据。 4.2短信舆情系统 非垃圾 垃圾 短信是人们日常生活中进行通信的重要手段, 通过对短信文本的分析,可以掌握大众平时的舆论 导向,并且可以帮助政府职能部门尽早地发现一些 理想用户反馈 不良的、危及安全的不法短信.但是短信有其自身的 特点:短小、口语化等,这也给分析带来了很大的难 度.因此,基于短信进行舆情分析既有一定的学术价 图4垃圾邮件过滤的流程 值,也有一定的现实意义, Fig.4 The flow chart of spam filtering 短信奥情系统主要有以下一些模块:短信分类 3.2 加权朴素贝叶斯分类器 模块根据短信的内容将短信分到不同的类别,并且 假设邮件的不同部分对过滤的贡献是不同的, 可以通过训练自动调整各类别下关键词的权重;敏 某些部分对过滤的帮助更大.若邮件分为S个部分, 感过滤模块可以过滤出涉及国家和人民生命财产安 每个部分由Na个词组成,d=1,2,…,S.那么朴素 全的非法短信;发送方式分析模块可以判断出一条 贝叶斯分类器的一个简单推广就是为邮件的不同部 短信的发送方式,例如群发、转发、直发等,从而可以 分赋予不同的权值.式(7)可以更新成为 获知什么样的短信被大规模群发,并进行有针对性 HxB arg max log P(C:)+ 的跟踪;短信溯源和用户交际圈模块可以根据某一 (loglog P)). 用户或某一短信进行全方位地分析,从而掌握某用 (8) 户的动态 式中:aa为权值,d=1,2,…,S.式(8)用N和邮件 通过短信舆情系统,可以更好地加强对短信数 长度正规化后可以写成 据的监控,掌握普通用户的舆情情况,为政府职能部 门制定相关决策,追踪某些特殊的现象提供手段. g=ag歌fogP(C)+(No+ 4.3校园对象搜索引擎系统 校园对象搜索引擎(campus object search en- ∑logP(otlC:)} ine,COSE),是一款在校园网内工作,致力于帮助 那么给定训练集后,参数集α就可以用最大似然准 用户寻找人物、组织机构以及课程信息的垂直搜索 则求解了.在实际中,划分的方法有很多.可以按结 引擎.从COSE的名字就可以看出该系统所针对的 构划分各部分,如标题、邮件头、正文、附件等,也可 服务对象是校园中的学生群体.COSE的主要特点 以按词的不同概率将邮件划分成不同的部分 在于它融人了信息抽取中的命名实体识别和实体关 3.3分类器集成 系抽取这2项技术,可以自动识别网页中的人名、课 Bagging是一种将一些弱分类器集成的技术.弱 程名以及机构组织名,建立实体(也称对象)数据 分类器指的是准确率比50%高一点的分类器.在分 库,并且根据对象名在网页中抽取其关系(也称相 类过滤任务中,将弱分类器集成在一起,经过演进和 关属性),建立相关属性数据库,供用户查询检索时 变换达到最佳效果.基于Bagging技术的朴素贝叶 使用 斯垃圾邮件过滤器,通过选择好的集成方法有助于 COSE系统包含的模块有:网络爬虫与索引、中 提升过滤系统的性能.常用的方法主要有嵌入决策 文分词、命名实体识别、实体关系抽取和查询重构 树和分类错误加权等 COSE采用广度优先搜索策略,只抓取各个大学网 4实际系统 站域名下的网页信息,建立网页文档库及索引.这可 以在很大一定程度上屏蔽掉大量无用的广告网页和 4.1互联网舆情系统 新闻网页.对网页文档建索引能加快查找和排序的 北京邮电大学模式识别与智能系统实验室的互 速度,C0SE系统综合使用全文索引技术和动态文

48 智能系统学报 第7卷 档索引技术.中文分词是命名实体识别和实体关系 前要抽取有价值的信息,过滤掉垃圾信息;抽取和过 抽取的前提和基础,C0SE中的中文分词技术综合 滤中也可以使用检索的方法进行初步处理;抽取和 应用基于字符串匹配和基于统计的中文分词技术. 过滤都有基于规则和基于统计的方法等.这些都很 命名实体识别是COSE系统的关键技术之一,采用 好地在互联网舆情、短信舆情和校园对象搜索引擎 基于统计与基于规则相结合的识别方法.实体关系 等系统中得到了体现.新的智能文本搜索技术将是 抽取是COSE系统中的另一项关键技术,鉴于正则 未来热门的研究方向,并且具有巨大的发展前景. 表达式的灵活性和强大的字符串匹配能力,COSE 系统借助成熟的Python字符处理规则,提出一种正 参考文献: 则表达式方案抽取对象属性信息.COSE中查询重 [1]郭军.Web搜索[M].北京:高等教育出版社,2009:1-3 构模块旨在解决以下2种形式的查询:1)复杂查 [2]方慧.TREC发展历程及现状分析[J].新世纪图书馆, 询:查询的不是单纯实体;2)问题式查询:比如某某 2010(1):57. 老师属于哪个学院.在用户使用COSE进行检索时, FANG Hui.On developing course and status analysis of 系统会返回2类信息:一类是与通用搜索引擎相似 TREC[J].New Century Library,2010(1):57. [3]BALOG K,SOBOROFF I,THOMAS P,et al.Overview of 的和查询相关的网页信息,另一类则是相关网页中 the TREC 2008 enterprise track[EB/OL].[2010-12-15]. 包含的命名实体及其相关属性, http://trec.nist.gov/pubs/trec17/papers/ENTERPRISE. 总结与展望 OVERVIEW.pdf. [4]RU Zhao,CHEN Yuehua,XU Weiran,et al.TREC2005 传统的文本搜索技术已经难以满足用户的需 enterprise track experiments at BUPT[EB/OL].[2010-12- 求,融合了信息检索、信息抽取和信息过滤等技术的 15].http://trec.nist.gov/pubs/trec14/papers/beijingu- 智能文本搜索新技术是当前的研究热点 of-pt.ent.pdf. 信息检索技术不再是单纯的按相关度呈现各个 [5]RU Zhao,LI Qian,XU Weiran,et al.BUPT at TREC 网页,更多的是对网页内容的深度挖掘、组织并反 2006:enterprise track[EB/OL].[2010-12-15].http:// 馈,提高检索的准确性、完备性、个性化程度.企业检 trec.nist.gov/pubs/trec15/papers/beijing-upt.ent.final pdf. 索主要研究在企业内部数据中的用户检索行为,主 [6]BAILEY P,CRASWELL N.Overview of the TREC 2007 要包含邮件检索、文档检索和专家检索任务,使用了 enterprise track EB/OL ][2010-12-15 ]http://trec. 二阶排序模型和专家经验模型.实体检索主要关注 nist.gov/pubs/trec16/papers/ENT.OVERVIEW16.pdf. 查找相关实体,除了使用文档中心模型和实体中心 [7]WANG Zhanyi,LIU Dongxin,XU Weiran,et al.BUPT at 模型外,还加入了实体抽取的关键技术和用来惟一 TREC 2009:entity track EB/OL].[2010-12-15 ]ht- 标识实体的主页.博客检索对博客中出现的观点及 tp://trec.nist.gov/pubs/trec18/papers/bupt.ENT.pdf. 其与查询的相似性进行研究,在此基础上对倾向性 [8]ZHANG Suxiang,WEN Juan,WANG Xiaojie,et al.Auto- 作分析,主要分为3类:个人与官方、表达观点与描 matic entity relation extraction based on maximum entropy 述事实、深入分析与浅层描述.相关反馈利用给定的 [C]//Proceedings of the Sixth International Conference on Intelligent Systems Design and Applications.Ji'nan,Chi- 与查询相关或无关的标注文档,选择扩展词,对查询 na,2006:540-544. 进行重构,通过重排序改善原有检索系统的性能, [9]LAFFERTY J D,MCCALLUM A,PEREIRA F C N.Con- 信息抽取技术在文本分析会议评测中得到很好 ditional random fields:probabilistic models for segmenting 的体现.该评测分为实体关联和实体填充2个任务, and labeling sequence data[C]//Proceedings of the Intera- 深度剖析文本信息,致力于识别、分析、整合文本中 tional Conference on Machine Leaming.San Francisco, 出现的实体,信息抽取技术非常重要,为其他工作的 USA:Morgan Kaufmann Publishers Inc,2001:282-289. 顺利进行起到了基础性作用. [10]MACDONALD C,OUNIS I.Voting for candidates:adap- 信息过滤的关键技术被应用在垃圾邮件过滤评 ting data fusion techniques for an expert search task[C] 测中.该评测的目的是尽可能找到一种好的垃圾邮 Proceedings of the 15th ACM Interational Conference on 件过滤模型,保证过滤的有效性和可重复性,主要任 Information and Knowledge Management.New York, USA:ACM,2006:387-396. 务包括即时反馈、延时反馈、主动学习和部分反馈 [11]MANNING C D,RAGHAVAN P,SCHUTZE H,An intro- 等.其中加权朴素贝叶斯和分类器集成的方法表现 duction to information retrieval M].Cambridge,UK: 出了良好的效果 Cambridge University Press,2008:120-126. 信息检索、抽取和过滤三大技术是相互联系的, [12]WILSON T,WIEBE J,HOFFMANN P,Recognizing con- 经常融合在一起,发挥最大的作用.例如:在检索之 textual polarity in phrase-level sentiment analysis[C]/

第1期 王占一,等:智能文本搜索新技术 ·49… Proceedings of the Conference on Human Language Tech- [24]TAC 2010.Knowledge base population KBP2010)track nology and Empirical Methods in Natural Language Pro- [EB/0L].(2010-09-12)[2010-12-16].htp:/nlp.cs. cessing.Stroudsburg,USA:Association for Computational qc.cuny.edu/kbp/2010/. Linguistics,2005:347-354. [25]CRF++:yet another CRF toolkit[EB/OL].[2010-12- [13]MANNING C D,SCHTZE H.Foundations of statistical 16].http://crfpp.sourceforge.net/. natural language processing[M].Cambridge,USA:The [26]YANG Zhen,XU Weiran,CHEN Bo,et al.PRIS Kidult MIT Press,1999. anti-SPAM solution at the TREC 2005 spam track:impro- [14]AMATI G.Probabilistic models for information retrieval ving the performance of naive Bayes for spam detection based on divergence from randomness[D].Glasgow,UK: [EB/OL].[2010-12-15 ]http://tree.nist.gov/pubs/ University of Glasgow,2003. trec14/papers/beijingu-of-pt.spam.pdf. [15]SINGHAL A,BUCKLEY C,MITRA M.Pivoted document [27]YANG Zhen,XU Wei,CHEN Bo,et al.BUPT at TREC length normalization[C]//Proceedings of the 19th Annual 2006:spam track[EB/OL].[2010-12-15].http://trec International ACM SIGIR Conference on Research and De- nist.gov/pubs/trec15/papers/beijing-upt.spam.final.pdf. velopment in Information Retrieval.New York,USA: [28 ]CORMACK G V.TREC 2007 spam track overview [EB/ ACM,1996:21-29. OL].[2010-12-15].http://trec.nist.gov/pubs/trec16/ [16]LI Si,LI Xinsheng.PRIS at 2009 relevance feedback papers/SPAM.OVERVIEW16.pdf. track:experiments in language model for relevance feed- [29]杨震.文本分类和聚类中若干问题的研究[D].北京:北 back EB/OL].[2010-12-15 ]http://trec.nist.gov/ 京邮电大学,2007:1086. pubs/trec18/papers/pris.RF.pdf. YANG Zhen.Research on key problems in text classifica- [17]LALMAS M,MACFARLANE A,RUGER S.Advances in tion and clustering[D].Beijing:Beijing University of information retrieval[M].New York,USA:Springer-Ver- Posts and Telecommunications,2007:10-86. 1ag,2002:74-172. 作者简介: [18]PONTE J M,CROFT W B.A language modeling approach 王占一,男,1984年生,博士研究 to information retrieval[C]//Proceedings of the 21th An- 生,主要研究方向为信息过滤和信息检 nual International ACM SIGIR Conference on Research and 索等.在国内外重要期刊和会议上发表 Development in Information Retrieval.New York,USA: 学术论文10篇,获发明专利2项。 ACM,1998:275-281. [19]WANG Bingqing,HUANG Xuanjing.Relevance feedback based on constrained clustering:FDU at TREC'09[EB/ OL].[2010-12-15].http://trec.nist.gov/pubs/trec18/ 徐然,男,1975年生,副教授,主 papers/fudanu.RF.pdf. 要研究方向为信息检索、模式识别和机 [20]LAVRENKO V,CROFT W B.Relevance-based language 器学习.主持参加了TREC、TAC、ACE models[C]//Proceedings of the 24th Annual International 等国际著名检索评测,并且获得优异成 ACM SIGIR Conference on Research and Development in 绩,参与多项国家级科研项目,发表学 Information Retrieval.New York,USA:ACM,2001: 术论文20余篇. 120-127. [21]CHANG Chihchung,LIN Chihjen.LIBSVM:a library for 郭军,男,1959年生,教授,博士生导 support vector machines EB/OL].[2011-04-09].ht- 师,主要研究方向为模式识别、网络管 tp://www.csie.ntu.edu.tw/~cjlin/libsvm/index.html. 理、信息检索、基于内容的信息安全等。 [22]The Lemur Project.INDRI:language modeling meets in- 主持多项“863”计划项目和国家自然科 ference networks[EB/OL].[2011-03-23].http://www. 学基金项目,获省部级奖励多项,发表学 lemurproject.org/indri/. 术论文上百篇,获授权专利5项. [23]TAC 2009.Knowledge base population track[EB/OL]. (200909-29)[2010-12-16].htp://apl.jhu.ed/- paulmac/kbp.html

点击下载完整版文档(PDF)VIP每日下载上限内不扣除下载券和下载次数;
按次数下载不扣除下载券;
24小时内重复下载只扣除一次;
顺序:VIP每日次数-->可用次数-->下载券;
已到末页,全文结束
相关文档

关于我们|帮助中心|下载说明|相关软件|意见反馈|联系我们

Copyright © 2008-现在 cucdc.com 高等教育资讯网 版权所有