说明:双击或选中下面任意单词,将显示该词的音标、读音、翻译等;选中中文或多个词,将显示翻译。
您的位置:首页 -> 词典 -> 局部极小
1)  local minimum
局部极小
1.
Homotopy method for getting a local minimum of unconstrained non-convex programming
同伦方法求解无约束非凸优化问题的局部极小
2.
It is emphazised that the local minimum problem caused by null resultant force or U shape obstacle is studied.
针对自治式水下潜器(AUV)局部路径规划问题,基于虚拟势场理论研究,提出了虚拟力概念,并设计了一种改进型虚拟势场局部规划算法,解决了经典虚拟势场能算法中存在的零合力与U型障碍的局部极小问题:当AUV陷入局部极小时通过调用相应的逃避算法来摆脱局部极点。
3.
In this paper, we study several models of Hopfield neural network to overcome the difficulties of the invalid solution and local minimum in solving the Travelling Saleman Problem(TSP).
针对Hopfield神经网络在求解巡回推销员问题(TSP)时出现的无效解和局部极小值问题,本文结合网络动态分析,利用权矩阵特征值在网络内部动力特性与外在解表现形式之间的关联作用,通过各特征值间关系协调,对基于原模型的权值修正方案作进一步理论分析与改进,探讨网络收敛于全局有效解的途径,并在全国31省、市、自治区TSP模拟中收到较好效果。
2)  local minima
局部极小
1.
Aimed at particle swarm optimization(PSO) algorithm being easily trapped into local minima value in multimodal function,a rotating surface transformation(RST) method was proposed.
针对粒子群优化算法(PSO)应用于多极值点函数易陷入局部极小值,提出旋转曲面变换(RST)方法。
2.
Particle Swarm Optimization(PSO) algorithm is a population-based global optimization algorithm,but it is easy to be trapped into local minima in optimizing multimodal function.
粒子群优化算法应用于多极值点函数优化时,存在陷入局部极小点和搜寻效率低的问题。
3.
Aim To study the standard BP algorithm s local minima and learning speed problems and propose the scheme for improvement.
目的 对 BP学习算法中存在的大量局部极小点以及收敛速度慢问题进行研究并提出相应的改进方案 。
3)  local minimization
局部极小
1.
To avoid the disadvantage of artificial potential field, a method was put forward to separate the region which will result in local minimization by some special points.
针对人工势场法中局部极小问题产生的根源,提出将现场中容易导致局部极小问题的区域通过一些人为设置的特征点隔离出来。
2.
When the mobile robot enters into the region of local minimization,"follow-wall " begins to work.
利用人工势场法进行移动机器人路径规划是十分有效的,在使用人工势场法进行避障的时候,由于移动机器人对周围环境信息的感知具有局限性,容易导致局部极小问题的出现。
3.
This paper sums up some parameter improve methods from a large number of references which were relative to these problems(①to meliorate the convergence rate mainly by improving the learning rate method;②to overcome the problem of local minimization from three aspects:to choos.
然而它的两个突出问题——收敛速度慢、易陷入局部极小点,制约了它的应用。
4)  local minimum
局部极小点
1.
The training process of Back Propagation Neural Network (BPNN) is easily converged at a local minimum, which slows the training process sharply.
但在BP网络的训练过程中 ,如何跳出局部极小点是一个难点 ,对此前人已有一些研究成果 ,其中包括改进的梯度下降搜索法 (gradientdescendresearch ,GDR) [5] 、模拟退火法 (simulatedannealing ,SA) [6]和EGA算法 (extendedgeneticalgorithm)等[7,8] 。
2.
The advantages of applying simulated annealing algorithm to short-term load forecast include less model complexity,high forecasting accuracy and global optimal property,which alleviate the tendency of traditional BP algorithm to be trapped in local minimum.
将模拟退火算法应用于短期负荷预测领域,其特点是模型简单、运算效率高,并具有较好的全局最优性能,从而很好地克服了传统BP算法容易陷入局部极小点的缺陷。
3.
Then some defects such as slow convergence rate and getting into local minimum in BP algorithm are pointed out,and the root of the defects is presented.
分析了BP算法的基本原理,指出了BP算法具有收敛速度慢、易陷入局部极小点等缺陷以及这些缺陷产生的根源。
5)  local minimum point
局部极小点
1.
A novel global optimization training algorithm was constructed for the feed-forward neural networks to which the BP algorithm is easy to fall into the local minimum point for improper choice of initial weights.
针对前向神经网络BP算法由于初始权值选择不当而陷入局部极小点这一缺陷,提出新的全局优化训练算法。
6)  local minimum
局部极小解
补充资料:Boole函数的极小化


Boole函数的极小化
f Boolean functions , minimization

玫心e函数的极小化〔致双ean如口比哪,而苗mi.垃皿成;脚月e.“盆中y.“”浦M..llM.3a皿.] 及川e函数的范式(Boolean fun以ions,normalforms of)表示,它们关于某种复杂性度量是最简单的.苹李的早杂堆(印mplexity ofa。ormal form)的通常的意义是指其中所含字母的个数.这种意义下的最简单的范式称为极小范式(minimal form).复杂性的度量有时是指在析取范式中出现的初等合取的个数,或是合取范式中因式的个数.在这种情形下,最简单的范式称作最短范式(s hortest form).鉴于析取范式与合取范式的对偶性,仅考虑析取范式就足够了. 最短析取范式与极小析取范式的构造各具特点.同一函数的极小析取范式的集合与最短析取范式的集合之间可能有如下的集合论关系:一个包含在另一个之内,交集是空集,或有非空的对称差.设mf是函数f的极小析取范式的复杂性,匆是它的最短析取范式的极小复杂性;又设l伍)是当f取遍所有。元函数时,比值气/。,中之最大者.于是有以下的渐近式成立: n ‘、”)~万· Boole函数的极小化问题,通常理解为构造它们的极小析取范式,构造任何Boole函数f(x1,…,x。)的一切极小析取范式,有一个平凡的算法如下:观察所有含变元x:,…,x。的析取范式,从中选取那些实现f,并且有极小复杂性的范式.实际上,这个算法即使对于小的n,也是不切实用的,因为它所需要的演算次数急剧上升.因此,许多别的算法被提出,但并不能有效地应用于所有的函数. 在极小化问题中,一个函数的初始指定通常是一个表,或一个完满析取范式(见B.诵e函数的范式(B 001-ean funCtions,normal formof)),或任何一个析取范式第一步在于转化成所谓的简约析取范式,这对每个函数都是唯一确定的.实现这个转化有许多方法可采用.最普遍的方法是在析取范式中作形式如下 的变换: AvA.B.A(吸收).带有关于邻域S、(吸,贝)的特殊记忆的最佳局部算法.上面所介绍的种种算法,都是丁粤可草捧(罗neral ringalgorithm)的特例.若 S*一,(贬,呢)={吸,贬,,…,班,}, Sk(班,卿二{级,贬.,,二,甄,贬,十,,…,吸,}以及、。一、一N·u自N一N一N·U自N、, Q(Sk)=Ns‘\N凡一,,则对于每个子集N三Q(S‘),都可以确定一个并非到处有定义的Boole函数f,使得f取值l的集合M子为Ns八N,取值。
说明:补充资料仅用于学习参考,请勿用于其它任何用途。
参考词条