正在加载图片...
表示成 x"+ 4) 其中入>0称为步长,若它的选取满足 f(x)=f(x+ds")=min f(x+s)<f() (5) 则称搜索是精确的一维搜索,入为最优步长;否则称为不精确的。一维搜索是最优化方法的基础, 它有一个重要的性质 定理1、设f(x)具有连续偏导数,而x是从x出发沿着s方向做精确的一维搜索得到的, 则 Vf(s=0 (6) 证:设(1)=f(x2+As),则o(y=Vf(x+As)s2,因入为最优步长,即q(入)=mino(), 故必有以(43y=0,又因x=x2+入s4,故(6)成立。 一维搜索就是求一元函数()的极小值,但用求稳定点(4)=Vf(x+As4)s=0的方法 往往很困难,下面介绍一些常用方法。 1°、使用导数的方法。如 Newton法、抛物线法、三次样条插值法、对分法等 欲求(x)=0,x∈R的根。 ①考虑用(x)在某初始点x°的二阶 Taylor展开式近似代替(x): q(x)≈g(x)=(x)+g(x.)(x-x)+g(x0)(x-x°)2 由q'(x)≈g'(x)=0,得 X q"(x°) 由此可得迭代公式: x4-y( k=0,1, 这种求一元函数最小值的方法叫 Newton法。一般的,欲求(x)=0,则有x1=x-(x),号 f(x) 称切线法。它是二阶收敛的,缺点是对初值x要求较高,其附近二阶导数须不变号。 关于算法的收敛性有如下结果:174 表示成: k k k 1 k x x s  + = + (4) 其中 k  0 称为步长,若它的选取满足 1 ( ) ( ) min ( ) ( ) k k k k k k k f x f x s f x s f x    + = + = +  (5) 则称搜索是精确的一维搜索, k 为最优步长;否则称为不精确的。一维搜索是最优化方法的基础, 它有一个重要的性质: 定理 1、设 f x( ) 具有连续偏导数,而 k 1 x + 是从 k x 出发沿着 k s 方向做精确的一维搜索得到的, 则: 1 ( ) 0 k T k f x s +  = (6) 证:设 ( ) ( ) k k    = + f x s ,则 ( ) ( ) k k T k     =  + f x s s ,因 k 为最优步长,即 ( ) min ( ) k      = , 故必有  ( ) 0 k  = ,又因 k k k 1 k x x s  + = + ,故(6)成立。 一维搜索就是求一元函数  ( ) 的极小值,但用求稳定点 ( ) ( ) 0 k k T k     =  + = f x s s 的方法 往往很困难,下面介绍一些常用方法。 1°、使用导数的方法。如 Newton 法、抛物线法、三次样条插值法、对分法等。 欲求 ( ) 0 x = , 1 x R  的根。 ①考虑用 ( ) x 在某初始点 0 x 的二阶 Taylor 展开式近似代替 ( ) x : 0 0 0 0 0 2 1 ( ) ( ) ( ) ( )( ) ( )( ) 2     x g x x x x x x x x  = + − + −   由 (x)  g (x) = 0, 得 0 0 0 ( ) ( ) x x x x    = −  由此可得迭代公式: 1 ( ) ( ) k k k k x x x x   +  = −  , k = 0,1, (7) 这种求一元函数最小值的方法叫 Newton 法。一般的,欲求 f x( ) 0 = ,则有 1 ( ) ( ) k k k k f x x x f x + = −  ,号 称切线法。它是二阶收敛的,缺点是对初值 0 x 要求较高,其附近二阶导数须不变号。 关于算法的收敛性有如下结果:
<<向上翻页向下翻页>>
©2008-现在 cucdc.com 高等教育资讯网 版权所有