正在加载图片...
X={(x,f),i=1,2,,N 2.L2-SCNs模型参数初始化 设定L2-SCNs最大节点数Lm,当前残差e,期望残差,学习率r,最大分配次数Tm,动 态参数y={nm:△1:入} 3.分配L2-SCNs隐含层节点参数 在Tm内从可调区间中随机生成隐层参数(”b),进而得到候选的随机函数血=82("忆x+b,), 最后选择满足式(⑦监督机制的节点 4.计算L2-SCNs输出权值 使用式(I0)计算L2-SCNs输出权值 5.验证L-SCNs网络残差 计算当前网络残差并更新6=e,更新L=L+1直到满足L≤Lx或S,久£条件, 模型构建 完 1.4算法建模过程分析 为了进一步体现本文所提算法在轻量型方面的优势,本文分别从建模计算复染度和所需节点数 (隐含层的参数量)两个方面进行分析 1.4.1建模计算复杂度 本文针对三种随机算法的计算复杂度进行了深入地分析,具体结果如表1所示.通过观察该表 可以看出,引入NCA和L2正则化有助于提高模型的轻量性 表1不同算法的计算复杂度对比 Table 1 Comparison of computational complexity of different algorithms 算法 ☑并算复杂度 fm3+2×561×m SCN 023(L)+2×561×m L2-SCNs 02/3(2)+2×111×m A-L--SCNS 其中,561表示原始数据集的特征数111表示经过NCA处理后数据集的特征数.同时,L=m 1.4.2建模所需节点数 为了能够进步清楚地展示出所提算法在轻量性方面的优势,本文从建模过程所需节点数方面 进行说明.这里分别比较了SCNs和L2-SCNs在保证相同停止RMSE时两种模型的节点数,具体结 果如图3所示/这结果表明,2正则化的引入使得模型的建模节点数从原来的25减少到20,故有助 于提高模型在参数量上的轻量性X x f i N     i i , , 1,2,...,   . 2. L2-SCNs 模型参数初始化 设定 L2-SCNs 最大节点数 Lmax ,当前残差 0 e ,期望残差 ,学习率 r ,最大分配次数Tmax ,动 态参数    = : :  min max   . 3. 分配 L2-SCNs 隐含层节点参数 在Tmax 内从可调区间中随机生成隐层参数( wL , L b ),进而得到候选的随机函数   T L L L L h g w x b   , 最后选择满足式(7)监督机制的节点. 4. 计算 L2-SCNs 输出权值 使用式(10)计算 L2-SCNs 输出权值. 5. 验证 L2-SCNs 网络残差 计算当前网络残差 L e 并更新 0 L e e  ,更新 L L  1直到满足 L L  max 或 0 e   条件,模型构建 完成. 1.4 算法建模过程分析 为了进一步体现本文所提算法在轻量型方面的优势,本文分别从建模计算复杂度和所需节点数 (隐含层的参数量)两个方面进行分析. 1.4.1 建模计算复杂度 本文针对三种随机算法的计算复杂度进行了深入地分析,具体结果如表 1 所示. 通过观察该表 可以看出,引入 NCA 和 L2正则化有助于提高模型的轻量性. 表 1 不同算法的计算复杂度对比 Table 1 Comparison of computational complexity of different algorithms 算法 计算复杂度 SCNs   3 O m m    2 561 L2-SCNs   3 O L m 2 3( ) 2 561    NCA-L2-SCNs   3 O L m 2 3( ) 2 111    其中,561 表示原始数据集的特征数,111 表示经过 NCA 处理后数据集的特征数. 同时, L m = . 1.4.2 建模所需节点数 为了能够进一步清楚地展示出所提算法在轻量性方面的优势,本文从建模过程所需节点数方面 进行说明. 这里分别比较了 SCNs 和 L2-SCNs 在保证相同停止 RMSE 时两种模型的节点数,具体结 果如图 3 所示. 该结果表明,L2正则化的引入使得模型的建模节点数从原来的 25 减少到 20,故有助 于提高模型在参数量上的轻量性 录用稿件,非最终出版稿
<<向上翻页向下翻页>>
©2008-现在 cucdc.com 高等教育资讯网 版权所有