说明:双击或选中下面任意单词,将显示该词的音标、读音、翻译等;选中中文或多个词,将显示翻译。
您的位置:首页 -> 词典 -> 约束凸优化问题
1)  constrained convex optimal problem
约束凸优化问题
2)  unconstrained optimization problem
无约束优化问题
1.
One Method for Unconstrained Optimization Problems;
一种无约束优化问题的算法
2.
A new conjugate gradient method is proposed for solving unconstrained optimization problems to update and prove the method with Wolfe line search convergece globally.
提出了求解无约束优化问题的一种新的共轭梯度法,修正了βk,并在Wolfe线搜索下证明了它的全局收敛性。
3.
Then the simplex algorithm is applied for the solution of unconstrained optimization problem.
针对球约束凸二次规划问题,利用Lagrange对偶将其转化为无约束优化问题,然后运用单纯形法对其求解,获得原问题的最优解。
3)  constrained optimization problems
约束优化问题
1.
Study on the productive method on the initial population by using genetic algorithms to solve the constrained optimization problems;
用遗传算法求解约束优化问题时初始种群产生方法的探讨
2.
Artificial Fish-Swarm Algorithm for solving constrained optimization problems;
求解约束优化问题的人工鱼群算法
3.
Real-coded immune-tabu hybrid algorithm to solve constrained optimization problems
约束优化问题的实数制免疫-禁忌混合算法
4)  constrained optimization problem
约束优化问题
1.
Immune chaotic algorithm for constrained optimization problems;
约束优化问题的免疫混沌算法
2.
Particle swarm optimization algorithm of equation constrained optimization problem;
有等式约束优化问题的粒子群优化算法
3.
Hybrid algorithm based on particle swarm optimization for solving constrained optimization problems;
一种基于粒子群算法求解约束优化问题的混合算法
5)  unconstrained optimization problems
无约束优化问题
1.
This paper,based on BFGS method,presents an artificial neural network model for unconstrained optimization problems,and some stability properties of the neural network are discussed.
提出了一种基于BFGS算法的求解无约束优化问题的人工神经网络模型,并对该模型的稳定性作了理论分析。
2.
In this thesis,the equivalence between a class of variational inequalities problems,which are in condition of some generalized convexity,and a class of unconstrained optimization problems is mainly studied.
本文主要研究了一类变分不等式问题在满足一定的广义凸性的前提下,与一类无约束优化问题的等价性关系。
3.
It can be applied to construct limited memory quasi-Newton method for unconstrained optimization problems when a vector is specially chosen.
提出一族紧凑格式的拟牛顿矩阵修正公式,适当选择其中某个向量情况下,该族可以很方便的用于构造求解大型无约束优化问题的有限存储拟牛顿算法。
6)  LC~1 constrained optimization problem
LC1约束优化问题
1.
A construct algorithm was proposed,which can confirm globally and superlinear convergence of the inexact generalized Newtion s method for nonlinear LC~1 constrained optimization problem,and the problem was solved through solving semismooth equations reformulated from KKT conditions.
通过将非线性LC1约束优化问题的KKT条件转化成半光滑方程组,提出了求解LC1约束优化问题的非精确广义牛顿算法。
补充资料:无约束优化方法
      研究寻求多元函数??(尣)=??(x1,x2,...,xn)在整个实n维空间Rn中局部极小值点的数值方法。它在非线性规划的研究中占有很重要的位置,除了本身的意义与应用外,它也是许多带约束优化方法的基础。
  
  大多数无约束优化方法都是迭代法,每一次迭代都从某一点尣移到另一个适合条件
  ??(尣)<??(尣) (1)的点尣。为了得到尣,首先要确定移动的方向 s,其次要确定沿方向 s移动的步长λk,于是尣=尣+λks。对应于s与λk的不同选取,就得到不同的算法。
  
  直接法  往往以直观或以计算实践为基础而产生,这类算法的特点是只要求计算函数值本身,因而易于使用,但是与另一些要求计算偏导数值的方法相比,又收敛得慢。所以直接法常常用于变量极少而函数比较复杂且不易计算偏导数的情形。较为常用的直接法有鲍威尔法、单纯形调优法和模式搜索法。
  
  最陡下降法和牛顿-拉弗森方法 在要求计算偏导函数值的算法类中,一般取移动方向s满足 , (2)这里的T表示矩阵(或向量)的转置运算,墷??(尣)表示??(尣)在点尣上的梯度,即
  。式(2)保证了在以尣为始点,s为方向的半直线
   (3)上一定有点尣适合??(尣)(尣)。为了使式(2)成立,往往取, (4)式中Hk是一n阶的对称正定矩阵。
  
  通常,步长λk的选取原则是取λk使尣为??(x)在半直线(3)上的最小值点。这样选取步长 λk的过程称为精确线性搜索或简称线性搜索。这时有
  , (5)亦即点尣上的梯度方向与移动方向成正交。
  
  只要墷??(尣)≠0,总可以按上述方法进行迭代。在一定的假设下,能够证明墷??(尣)→0,于是对于凸函数??(尣),点列{尣}的任何极限点都是??(尣)的最小值点;而对于一般的非凸函数,即使不能保证{尣}的极限点是局部最小值点,但因目标函数值逐次减少,往往也能得到满意的结果。
  
  可以证明,在由尣出发的所有同样长度的方向中,负梯度方向是使函数值下降最快的方向。于是取移动方向s为负梯度方向-墷??(尣),或者等价地取(4)中的Hk为单位矩阵I,并由线性搜索确定步长λk与下一点 尣。这就是通常所谓的最陡下降法。
  
  牛顿-拉弗森法则以 ??(尣)的二次近似为基础,在二阶偏导数矩阵墷2??(x)为正定时,以此二次近似的最小值点为下一点,即取,但这样得到的 尣 未必适合式(1),因此又改成以为移动方向,或者等价地在(4)中取Hk为(墷2??(尣))-1,再通过线性搜索来确定 λk与尣。
  
  在一些有关??(尣)的假设下,对于这两个古老的方法,都可证明墷??(尣)→0。这两个方法各有其优缺点。最陡下降法比较简单,并且除了函数值本身外,只需要计算一阶偏导数的值;但是理论分析和计算实践都表明这个方法的收敛速度很慢。事实上,由 及式(5)可知,{尣}中的点沿着相互正交的方向交替前进,因此,即使对于二次严格凸函数,
   (6)式中A对称正定,只要A不是数量矩阵αI,那么尣就曲折前进,且进展很慢。当n=2时如图所示。
  
  与此相反,牛顿-拉弗森方法收敛得快。特别对于形如(6)的二次严格凸函数,只要一次迭代,就能达到最优解尣*,即使对于一般的函数??(尣),在某些假设下,也可证明{尣}为二阶收敛。这个方法不仅要计算 n个一阶偏导数,而且还要计算个二阶偏导数,因此只在n比较小或函数比较简单的情形才使用。
  
  共轭梯度法与变尺度法是既有较快的收敛速度又无需计算二阶偏导函数的算法。
  
  共轭梯度法  由于在局部最小值点的邻近,函数的性状与二次凸函数 (6)十分相似,所以对于一个好的寻优方法,人们要求它在应用于二次凸函数时有较快的收敛速度,即使最小值点不能象牛顿-拉弗森方法那样一步达到,也应在有限步内达到。事实上,沿着y空间中n个两两正交的方向依次作线性搜索,一定可以达到函数1/2 (y-y*)T(y-y*) 的最小值点y*。于是通过变换y=A1/2尣,沿着尣空间中n个满足
  
    (7)的方向s(1),s(2),...,s(n)依次作线性搜索,就一定能达到函数(6)的最小值点尣*。满足式(7)的n个非零方向 s(1),s(2),...,s(n)称为关于矩阵A的共轭方向系。20世纪60年代R.弗莱彻和C.M.里夫斯用梯度向量构造出共轭方向系,提出了共轭梯度法。它从任意的初始点尣(1)开始,在第k次迭代时取移动方向然后沿着半直线(3)作线性搜索得到尣。在将它应用于二次凸函数(6)时,它就是一个共轭方向法,最多n次迭代就能达到最小值点尣*。共轭梯度法也适用于非二次的目标函数。在将共轭梯度法应用于非二次的目标函数时,常常采用周期性重开始的策略,也就是说,对于n除余1的自然数k,移动方向s都取为负梯度方向-墷??(尣),而对其他的k,s则由(8)中第二个公式定义,采用这种策略,数值效果将有显著改进,理论上也可证明可以达到n步二阶收敛,也即存在正常数α使对充分大的k,都有而若不采取周期性重开始的策略,其收敛阶仅为线性。共轭梯度法由于只需要存贮几个向量,特别适宜于解大型问题。当然,还需要采用条件予优的方法以加速收敛。
  
  变尺度方法 也有人称为拟牛顿方法。这是近二十多年来发展起来的一类很有成效的寻优方法。理论分析和计算实践都表明这类方法的收敛速度较快,同时又无需计算二阶偏导数矩阵。这类方法的共同特点是:移动方向s由(4)定义,其中Hk为n阶对称正定方阵;H1可以任意选取,但通常取H1=I;当k>1时,Hk由Hk-1和以及确定,并满足如下的拟牛顿方程
   (9)步长λk和下一点尣由线性搜索确定。
  
  第一个变尺度法是W.D.戴维登于1959年首先提出的,而由 R.弗莱彻和 M.J.D.鲍威尔在理论上作了研究并于1963年公开发表,所以通常称为DFP方法,在这个方法中,Hk(k>1)的定义如下:
  。
  
  由于DFP方法的成功,在其后十多年间,又提出了许多变尺度方法,这些方法只在Hk(k>1)的定义方法上有所不同。在理论上,只要尣、H1取得相同,那么在一定条件下,由不同的变尺度方法产生的点列{尣}都只依赖于某一参数;但在实际计算中,由于舍入误差的关系,由不同的变尺度方法产生的点列未尽相同。最成功的变尺度法是BFGS法,它的Hk(k>1)定义为 与DFP方法相比,BFGS方法具有较好的数值稳定性。
  
  无论是DFP方法或者 BFGS方法,都有以下一些性质:①只要初始的矩阵H1正定,那么以后的各个矩阵Hk(k≥1)也都正定;②将它们应用于二次严格凸函数(6)时,由算法所确定的移动方向序列s(1),s(2),...,s(n)是一组关于矩阵A的共轭方向系,所以最多经过n次迭代,一定能够达到二次严格凸目标函数的最小点尣*;③理论上可以证明这两个算法在一定的条件下都是超线性收敛并且都是n步二阶收敛的。
  
  不精确线性搜索或可接受点准则  前述各法都是建立在线性搜索的基础之上的,即取尣恰为??(尣)在半直线(3)上的最小值点,但在实际计算中,无法做到;虽然可以用黄金分割、二次插值等方法做到充分的近似,却极为费时。近年来,人们注意建立在不精确线性搜索的基础之上的方法。鲍威尔于1976年证明了:用适当的不精确线性搜索代替线性搜索后,BFGS算法仍是超线性收敛的。80年代,又出现了信赖域方法和基于锥模型的优化算法,已取得了良好的效果,受到了广泛的重视。
  
  最小平方和问题  一类具有特殊形式的无约束优化问题。在这类问题中,目标函数??(尣)是一些函数的平方和,即。这类问题在数据拟合中经常出现,方程组的求解也可转化为最小平方和的问题。由于目标函数具有特殊的形式,所以人们设计了专门的方法,如高斯-牛顿方法、莱文贝格-马夸特方法等。
  
  

参考书目
   R.Fletcher,Prαcticαl Methods of Optimizαtion,Unconstrαined Optimizαtion, Vol.1, John Wiley &Sons, New York, 1979.
  

说明:补充资料仅用于学习参考,请勿用于其它任何用途。
参考词条