正在加载图片...
。946 北京科技大学学报 第31卷 理论为基础的一种新型机器学习算法,它具有严格 维输入向量,是第i个标量输出,M是训练样本 的数学理论基础、直观的几何解释和良好的泛化能 数,求取输入和输出之间的关系161切 力,在处理小样本学习问题上具有独到的优越 在支持向量回归中,首先要将输入向量映射到 性.并且,随着统计学习理论的发展,支持向量 1维特征空间,然后在特征空间中构造优化超平面: 机作为一种新的机器学习技术,受到了国内外不同 f(x)=W'g(x)+b, 研究领域学者的广泛关注11. 式中,W为l维权重向量,g(x)为将x映射到特征 地下开采是露天矿边坡变形的主要影响因素, 空间的特征函数b为偏置项. 但研究如何通过现场的监测数据挖掘出在露天转为 观测值y与函数预测值f(x)之间的误差用e 地下开采时地下开采对露天矿边坡变形影响的非线 不敏感损失函数(e insensitive loss function)来等价 性规律的文献却很少.鉴于此,本文提出了基于支 其定义为: 持向量机的露天转地下边坡变形模型,并在露天转 L(x,y,f)=ly-f(x川e=max(0,ly-f升x川-e). 地下开采的杏山铁矿进行了应用,取得了较好的效果. 在原输入空间,如果所有的训练数据都在以ε 1支持向量机基本原理 为半径的管径内,则理想回归是可以实现的,此管径 即为不敏感区域.在图1(a)中,当样本点位于两条 1.1基本原理 虚线之间的带子里时,认为在该点没有损失,称两条 支持向量机在回归算法的研究方面表现了极好 虚线构成的带子为e带.图1(a)中的(x,y)点上 的性能.回归问题可以理解为:根据输入一输出数 的损失对应于图1(b)中所示的值,即: 据集(xi,y)(i=L,2,,M),其中,x是第i个m =y'-f(x)-e y◆(a) (b) +E 损失值 -E (.y) -f() 图1e带(和(x,y')点的损失(b) Fig.I e-band (a)and loss at the point (x.y)(b) 假设所有的训练数据都满足一≤D(x,y)= y一f(x)≤e,则满足D(x,y以=士e的数据距离超 平面最远,此距离即为间隔.最大化此间隔即意味 着未知数据落入管径区域内的可能性越大,或者说 5 泛化能力越大 数据点(x,y')距超平面D(x,y)=0的距离 等于引D(x,y川/川W*‖w*=(L,-w)T.要最 大化间隔,需要最小化w*L而‖W*P=wP+ 1.因此回归问题转化为以下优化问题: min2lwP-‖pP+l, 图2松弛变量示意图 yi-W'g(xi)-b,i=1,2,..M Fig.2 Relaxation variable diagram s.t. Wg(xi)+b-yise,i=1,2,,M 考虑到管径区域外数据的存在,如图2所示,引 mim0(w,6,5)=之wf+C空(g+9 入以下非负松弛变量,.此时,回归问题转化 (1) 为:理论为基础的一种新型机器学习算法, 它具有严格 的数学理论基础 、直观的几何解释和良好的泛化能 力, 在处理小样本学习问题上具有独到的优越 性[ 8-9] .并且, 随着统计学习理论的发展, 支持向量 机作为一种新的机器学习技术, 受到了国内外不同 研究领域学者的广泛关注[ 10-15] . 地下开采是露天矿边坡变形的主要影响因素, 但研究如何通过现场的监测数据挖掘出在露天转为 地下开采时地下开采对露天矿边坡变形影响的非线 性规律的文献却很少.鉴于此, 本文提出了基于支 持向量机的露天转地下边坡变形模型, 并在露天转 地下开采的杏山铁矿进行了应用, 取得了较好的效果. 1 支持向量机基本原理 1.1 基本原理 支持向量机在回归算法的研究方面表现了极好 的性能 .回归问题可以理解为 :根据输入—输出数 据集( xi , yi) ( i =1, 2, …, M), 其中, xi 是第 i 个 m 维输入向量, yi 是第 i 个标量输出, M 是训练样本 数, 求取输入和输出之间的关系 [ 16-17] . 在支持向量回归中, 首先要将输入向量映射到 l 维特征空间, 然后在特征空间中构造优化超平面 : f ( x) =W T g ( x) +b, 式中, W 为l 维权重向量, g ( x )为将 x 映射到特征 空间的特征函数, b 为偏置项 . 观测值 y 与函数预测值 f ( x )之间的误差用 ε 不敏感损失函数( εinsensitive loss function) 来等价 其定义为: L ε( x, y, f) = y -f ( x ) ε=max( 0, y -f( x) -ε) . 在原输入空间, 如果所有的训练数据都在以 ε 为半径的管径内, 则理想回归是可以实现的, 此管径 即为不敏感区域.在图 1( a) 中, 当样本点位于两条 虚线之间的带子里时, 认为在该点没有损失, 称两条 虚线构成的带子为 ε带 .图 1( a)中的( x′, y′)点上 的损失对应于图 1( b)中所示的 ξ值, 即: ξ=y′-f ( x′) -ε 图 1 ε带( a) 和( x′, y′) 点的损失( b) Fig.1 ε-band ( a) and loss at the point ( x′, y′) ( b) 假设所有的训练数据都满足 -ε≤D( x , y ) = y -f ( x ) ≤ε, 则满足 D( x , y) =±ε的数据距离超 平面最远, 此距离即为间隔 .最大化此间隔即意味 着未知数据落入管径区域内的可能性越大, 或者说 泛化能力越大. 数据点( x′, y′) 距超平面 D( x , y ) =0 的距离 等于 D( x, y ) /‖W *‖, W * =( 1, -W T ) T .要最 大化间隔, 需要最小化‖W *‖, 而‖W *‖ 2 =‖W‖ 2 + 1 .因此回归问题转化为以下优化问题 : min 1 2 ‖W‖ 2 =‖W‖ 2+1, s .t . y i -W T g( xi) -b ≤ε, i =1, 2, …, M W T g( xi) +b -yi ≤ε, i =1, 2, …, M 考虑到管径区域外数据的存在, 如图 2 所示, 引 入以下非负松弛变量 ξi , ξ* i .此时, 回归问题转化 为: 图 2 松弛变量示意图 Fig.2 Relaxation variable diagram min Q( W, b, ξ, ξ * ) = 1 2 ‖W‖ 2 +C ∑ M i =1 ( ξ p i +ξ *p i ) ( 1) · 946 · 北 京 科 技 大 学 学 报 第 31 卷
<<向上翻页向下翻页>>
©2008-现在 cucdc.com 高等教育资讯网 版权所有