正在加载图片...
·1404. 工程科学学报,第40卷,第11期 化准则获取实际风险[16],相比机器学习的另一种方 M={y,y2),…,yo} (2) 法一神经网络,SVM避免了神经网络学习方法中 [L,inputps]=mapminmax(L) (3) 网络结构难以确定、容易陷入局部极小值、收敛速度 [M,outputps]mapminmax(M) (4) 比较慢、以及训练时需要大量数据样本等缺陷,有效 运用归一化后的X0),y0(j∈1,2,…,n- 地提高了机器学习中算法的泛化能力. k})分别作为SVM训练的输入向量与输出值.将训 在运用SVM进行非线性约束单目标系统预测 练集映射到一个高维(1维)特征空间,构造以下函 时,模型参数的选取直接影响SVM预测系统的效果 数进行线性回归: 和后续寻优结果的准确性.由于涉及到的参数不止 f(X)=u(X)+b (5) 一个,所以无法通过多次实验的方法确定,本文采用 其中,u为l维权重向量,(X)是将X映射到高维 遗传算法对SVM模型参数实现最优化选择). 空间的映射函数,b为偏置项. 1.2PS0算法 采用ε不敏感损失函数,将回归问题转化为求 PS0算法属于人工智能技术中群智能算法的一 以下最优值问题: 种,是由Eberhart和Kennedy提出的I8).PSO算法 是模拟鸟群觅食的过程,在运用PS0算法时,优化 问题中的每个解被视为每只鸟在空间位置的坐标, (6) 即“粒子”的空间位置坐标.每个粒子通过两个“极 约束条件: 值”来实现自身的空间位置和各方向速度的不断更 up(X0)+b-y≤e+专je[1,n-](7) 新,其中一个“极值”是粒子本身在迭代过程中产生 y-u'p(Xm))-b≤e+专j∈[1,n-k](8) 的最优解,即个体极值.另一个“极值”是群体中所 5,5≥0je[1,n-k] (9) 有粒子在迭代变化过程中所得到的最优解,即群体 其中,F(u,b,专,专·)为回归间题采用e不敏感损失 极值.PS0算法的优化能力主要取决于各粒子之间 函数后的待优化目标函数,C为惩罚因子,ε为损失 的相互作用,而各粒子自身缺乏变异机制,从而在实 函数参数,专和为松弛因子. 际运用时,比较容易陷入局部极值.PS0算法的迭 引入非负拉格朗日乘子a,ag,n,n,将以上 代轨迹呈正弦波摆动9,起始收敛速度快,随迭代 优化问题转化为下式: 次数的增加,速度减缓,有的可能还会停滞,出现 R(u,b,5,°,a,a°,n,7°)= “早熟”,从而使获取的解不是全局最优解.为了避 免陷入局部解,提高算法的全局搜索能力,本文将生 合u+c宫(份+) 物免疫系统的自我调节机制引入到PS0算法中,对 其进行改进 [e+专+n-Ieo)-1- j=1 2优化模型构建 ,g[e+5-y0+u'(xm)+b]- 2.1基于非线性约束单目标系统样本点的SVM- (10) IPSO模型构建 芝(可矿+防) (1)SVM预测系统 其中,R(u,b,,5°,a,a”,n,n°)为函数F(u,b,, 设非线性约束单目标系统含有m个变量,x,表 ·)引入非负拉格朗日乘子后的待优化目标函数. 示系统中第i个变量.第j组所有变量值的集合表 式(10)对u,b,5,·求偏导为零得: 示为X0=(x,x,…,x),对应的目标函数 R(u,b,左,E°,a,a°,n,m)= du 值为y).通过实验或其他方式获取n组系统变量 值集合X(G∈{1,2,…,n})以及对应的目标函 u- (a°-a)p(X0)=0 (11) 数值y)(Ge{1,2,…,n}).运用其中n-k组系 统变量值集合以及对应的目标函数值训练SVM模 aR(u,b,5,,a,a“,,)= ab 型,其余k组用于验证预测系统的效果.运用MAT- LAB中mapminmax()函数工具箱,将系统变量值以 芝(g-)=0 (12) 及对应的目标函数值进行归一化,如下: aR(u,b,5,5,a,an,m)= L={X),X2),…,X} (1) aξ工程科学学报,第 40 卷,第 11 期 化准则获取实际风险[16] ,相比机器学习的另一种方 法———神经网络,SVM 避免了神经网络学习方法中 网络结构难以确定、容易陷入局部极小值、收敛速度 比较慢、以及训练时需要大量数据样本等缺陷,有效 地提高了机器学习中算法的泛化能力. 在运用 SVM 进行非线性约束单目标系统预测 时,模型参数的选取直接影响 SVM 预测系统的效果 和后续寻优结果的准确性. 由于涉及到的参数不止 一个,所以无法通过多次实验的方法确定,本文采用 遗传算法对 SVM 模型参数实现最优化选择[17] . 1郾 2 PSO 算法 PSO 算法属于人工智能技术中群智能算法的一 种,是由 Eberhart 和 Kennedy 提出的[18] . PSO 算法 是模拟鸟群觅食的过程,在运用 PSO 算法时,优化 问题中的每个解被视为每只鸟在空间位置的坐标, 即“粒子冶的空间位置坐标. 每个粒子通过两个“极 值冶来实现自身的空间位置和各方向速度的不断更 新,其中一个“极值冶是粒子本身在迭代过程中产生 的最优解,即个体极值. 另一个“极值冶是群体中所 有粒子在迭代变化过程中所得到的最优解,即群体 极值. PSO 算法的优化能力主要取决于各粒子之间 的相互作用,而各粒子自身缺乏变异机制,从而在实 际运用时,比较容易陷入局部极值. PSO 算法的迭 代轨迹呈正弦波摆动[19] ,起始收敛速度快,随迭代 次数的增加,速度减缓,有的可能还会停滞,出现 “早熟冶,从而使获取的解不是全局最优解. 为了避 免陷入局部解,提高算法的全局搜索能力,本文将生 物免疫系统的自我调节机制引入到 PSO 算法中,对 其进行改进. 2 优化模型构建 2郾 1 基于非线性约束单目标系统样本点的 SVM鄄鄄 IPSO 模型构建 (1) SVM 预测系统. 设非线性约束单目标系统含有 m 个变量,xi表 示系统中第 i 个变量. 第 j 组所有变量值的集合表 示为 X (j) = (x (j) 1 , x (j) , …, x (j) m ) T ,对应的目标函数 值为 y (j) . 通过实验或其他方式获取 n 组系统变量 值集合 X (j) (j沂{1, 2, …, n})以及对应的目标函 数值 y (j) (j沂{1, 2, …, n}). 运用其中 n - k 组系 统变量值集合以及对应的目标函数值训练 SVM 模 型,其余 k 组用于验证预测系统的效果. 运用 MAT鄄 LAB 中 mapminmax( )函数工具箱,将系统变量值以 及对应的目标函数值进行归一化,如下: L = {X (1) , X (2) , …, X (n) } (1) M = {y (1) ,y (2) , …, y (n) } (2) [L1 , inputps] = mapminmax(L) (3) [M1 , outputps] = mapminmax(M) (4) 运用归一化后的 X (j) , y (j) (j沂{1, 2, …, n - k})分别作为 SVM 训练的输入向量与输出值. 将训 练集映射到一个高维( l 维) 特征空间,构造以下函 数进行线性回归: f(X) = u T渍(X) + b (5) 其中,u 为 l 维权重向量,渍(X)是将 X 映射到高维 空间的映射函数,b 为偏置项. 采用 着 不敏感损失函数,将回归问题转化为求 以下最优值问题: minF(u,b,孜,孜 * ) = { 1 2 椰u椰2 + C 移 n-k j = 1 (孜 * j + 孜j) } (6) 约束条件: u T渍(X (j) ) + b - y (j)臆着 + 孜j,j沂[1,n - k] (7) y (j) - u T渍(X (j) )) - b臆着 + 孜 * j ,j沂[1,n - k] (8) 孜j,孜 * j 逸0,j沂[1,n - k] (9) 其中,F(u,b,孜,孜 * )为回归问题采用 着 不敏感损失 函数后的待优化目标函数,C 为惩罚因子,着 为损失 函数参数,孜j和 孜 * j 为松弛因子. 引入非负拉格朗日乘子 琢j,琢 * j ,浊j,浊 * j ,将以上 优化问题转化为下式: R(u,b,孜,孜 * ,琢,琢 * ,浊,浊 * ) = 1 2 椰u椰2 + C 移 n-k j = 1 (孜 * j + 孜j) - 移 n-k j = 1 琢j[着 + 孜j + y (j) - u T渍(X (j) ) - b] - 移 n-k j = 1 琢 * j [着 + 孜 * j - y (j) + u T渍(X (j) ) + b] - 移 n-k j = 1 (浊 * j 孜 * j + 浊j 孜j) (10) 其中,R(u,b,孜,孜 * ,琢,琢 * ,浊,浊 * )为函数 F(u,b,孜, 孜 * )引入非负拉格朗日乘子后的待优化目标函数. 式(10)对 u,b,孜,孜 *求偏导为零得: 鄣R(u,b,孜,孜 * ,琢,琢 * ,浊,浊 * ) 鄣u = u - 移 n-k j = 1 (琢 * j - 琢j)渍(X (j) ) = 0 (11) 鄣R(u,b,孜,孜 * ,琢,琢 * ,浊,浊 * ) 鄣b = 移 n-k j = 1 (琢 * j - 琢j) = 0 (12) 鄣R(u,b,孜,孜 * ,琢,琢 * ,浊,浊 * ) 鄣孜j = ·1404·
<<向上翻页向下翻页>>
©2008-现在 cucdc.com 高等教育资讯网 版权所有