‘壹’ 你好,我想知道像差分进化算法、蚁群算法、蜂群算法、量子进化算法属于进化算法吗
蚁群算法和蜂群算法属于进化算法没有问题,都是源于对生物种群的进化机制的模拟
差分进化算法也是基于种群进化的智能算法,这个不清楚属于进化算法是否合适
量子进化算法没接触过,不过如果是模拟量子运动,更类似模拟退火算法,不应该属于进化算法
水平有限,望请指正
‘贰’ article swarm optimization是什么算法
粒子群优化算法。
粒子群算法,也称粒子群优化算法或鸟群觅食算法。缩写为PSO。PSO算法属于进化算法的一种,和模拟退火算法相似,它也是从随机解出发,通过迭代寻找最优解,它也是通过适应度来评价解的品质,但它比遗传算法规则更为简单。
‘叁’ 非数值算法的模拟退火算法
模拟退火算法来源于固体退火原理,将固体加温至充分高,再让其徐徐冷却,加温时,固体
内部粒子随温升变为无序状,内能增大,而徐徐冷却时粒子渐趋有序,在每个温度都达到平
衡态,最后在常温时达到基态,内能减为最小。根据Metropolis 准则,粒子在温度T 时趋于
平衡的概率为e-ΔE/(kT),其中E 为温度T 时的内能,ΔE 为其改变量,k 为Boltzmann 常
数。用固体退火模拟组合优化问题,将内能E 模拟为目标函数值f,温度T 演化成控制参数
t,即得到解组合优化问题的模拟退火算法:由初始解i 和控制参数初值t 开始,对当前解重
复“产生新解→计算目标函数差→接受或舍弃”的迭代,并逐步衰减t 值,算法终止时的当
前解即为所得近似最优解,这是基于蒙特卡罗迭代求解法的一种启发式随机搜索过程。退火
过程由冷却进度表(Cooling Schele)控制,包括控制参数的初值t 及其衰减因子Δt、每个t
值时的迭代次数L 和停止条件S。
1、模拟退火算法可以分解为解空间、目标函数和初始解三部分 。 它为问题的所有可能(可行的或包括不可行的)解的集合,它限定了初始解选取和新解产
生时的范围。对无约束的优化问题,任一可能解(possible solution)即为一可行解(feasible
solution),因此解空间就是所有可行解的集合;而在许多组合优化问题中,一个解除满足目
标函数最优的要求外,还必须满足一组约束(constraint),因此在解集中可能包含一些不可行
解(infeasible so1ution)。为此,可以限定解空间仅为所有可行解的集合,即在构造解时就考
虑到对解的约束;也可允许解空间包含不可行解,而在目标函数中加上所谓罚函数(penalty
function)以“惩罚”不可行解的出现。 它是对问题的优化目标的数学描述,通常表述为若干优化目标的一个和式。目标函数的
选取必须正确体现对问题的整体优化要求。例如,如上所述,当解空间包含不可行解时,目
标函数中应包含对不可行解的罚函数项,借此将一个有约束的优化问题转化为无约束的优化
问题。一般地,目标函数值不一定就是问题的优化目标值,但其对应关系应是显明的。此外,
目标函数式应当是易于计算的,这将有利于在优化过程中简化目标函数差的计算以提高算法
的效率。 是算法迭代的起点,试验表明,模拟退火算法是鲁棒的(Robust),即最终解的求得几乎
不依赖于初始解的选取。
2、基本思想:
(1) 初始化:初始温度T(充分大),初始解状态S(是算法迭代的起点), 每个T 值的迭
代次数L
(2) 对k=1,,L 做第(3)至第6 步:
(3) 产生新解S′
(4) 计算增量Δt′=C(S′)-C(S),其中C(S)为评价函数
(5) 若Δt′<0 则接受S′作为新的当前解,否则以概率exp(-Δt′/T)接受S′作为新的
当前解.
(6) 如果满足终止条件则输出当前解作为最优解,结束程序。
终止条件通常取为连续若干个新解都没有被接受时终止算法。
(7) T 逐渐减少,且T->0,然后转第2 步。
二、遗传算法
遗传算法的基本思想是基于Darwin 进化论和Mendel 的遗传学说的。
Darwin 进化论最重要的是适者生存原理。它认为每一物种在发展中越来越适应环境。物种
每个个体的基本特征由后代所继承,但后代又会产生一些异于父代的新变化。在环境变化时,
只有那些能适应环境的个体特征方能保留下来。
Mendel 遗传学说最重要的是基因遗传原理。它认为遗传以密码方式存在细胞中,并以基因
形式包含在染色体内。每个基因有特殊的位置并控制某种特殊性质;所以,每个基因产生的
个体对环境具有某种适应性。基因突变和基因杂交可产生更适应于环境的后代。经过存优去
劣的自然淘汰,适应性高的基因结构得以保存下来。
遗传算法简称GA(Genetic Algorithm),在本质上是一种不依赖具体问题的直接搜索方法。
1、遗传算法的原理
遗传算法GA 把问题的解表示成“染色体”,在算法中也即是以二进制编码的串。并且,在
执行遗传算法之前,给出一群“染色体”,也即是假设解。然后,把这些假设解置于问题的
“环境”中,并按适者生存的原则,从中选择出较适应环境的“染色体”进行复制,再通过
交叉,变异过程产生更适应环境的新一代“染色体”群。这样,一代一代地进化,最后就会
收敛到最适应环境的一个“染色体”上,它就是问题的最优解。
长度为L 的n 个二进制串bi(i=1,2,,n)组成了遗传算法的初解群,也称为初始群体。
在每个串中,每个二进制位就是个体染色体的基因。根据进化术语,对群体执行的操作有三
种:
(1).选择(Selection)
这是从群体中选择出较适应环境的个体。这些选中的个体用于繁殖下一代。故有时也称这一
操作为再生(Reproction)。由于在选择用于繁殖下一代的个体时,是根据个体对环境的适
应度而决定其繁殖量的,故而有时也称为非均匀再生(differential reproction)。
(2).交叉(Crossover)
这是在选中用于繁殖下一代的个体中,对两个不同的个体的相同位置的基因进行交换,从而
产生新的个体。
(3).变异(Mutation)
这是在选中的个体中,对个体中的某些基因执行异向转化。在串bi 中,如果某位基因为1,
产生变异时就是把它变成0;反亦反之。
2、遗传算法的特点
(1).遗传算法从问题解的中集开始嫂索,而不是从单个解开始。
这是遗传算法与传统优化算法的极大区别。传统优化算法是从单个初始值迭代求最优解的;
容易误入局部最优解。遗传算法从串集开始搜索,覆盖面大,利于全局择优。
(2).遗传算法求解时使用特定问题的信息极少,容易形成通用算法程序。
由于遗传算法使用适应值这一信息进行搜索,并不需要问题导数等与问题直接相关的信息。
遗传算法只需适应值和串编码等通用信息,故几乎可处理任何问题。
(3).遗传算法有极强的容错能力
遗传算法的初始串集本身就带有大量与最优解甚远的信息;通过选择、交叉、变异操作能迅
速排除与最优解相差极大的串;这是一个强烈的滤波过程;并且是一个并行滤波机制。故而,
遗传算法有很高的容错能力。
(4).遗传算法中的选择、交叉和变异都是随机操作,而不是确定的精确规则。
这说明遗传算法是采用随机方法进行最优解搜索,选择体现了向最优解迫近,交叉体现了最
优解的产生,变异体现了全局最优解的覆盖。
三、神经网络算法
“人工神经网络”(ARTIFICIAL NEURAL NETWORK,简称A.N.N.)是在对人脑组织结构和
运行机智的认识理解基础之上模拟其结构和智能行为的一种工程系统。早在本世纪40 年代
初期,心理学家McCulloch、数学家Pitts 就提出了人工神经网络的第一个数学模型,从此开
创了神经科学理论的研究时代。其后,F.Rosenblatt、Widrow 和Hopf、J.J.Hopfield 等学者又
先后提出了感知模型,使得人工神经网络技术得以蓬勃发展。
神经系统的基本构造是神经元(神经细胞),它是处理人体内各部分之间相互信息传递的基本
单元。据神经生物学家研究的结果表明,人的一个大脑一般有10 10 ~10 11
个神经元。每个神经元都由一个细胞体,一个连接其他神经元的轴突和一些向外伸出的其它
较短分支——树突组成。轴突的功能是将本神经元的输出信号(兴奋)传递给别的神经元。其
末端的许多神经末梢使得兴奋可以同时传送给多个神经元。树突的功能是接受来自其它神经
元的兴奋。神经元细胞体将接受到的所有信号进行简单地处理(如:加权求和,即对所有的
输入信号都加以考虑且对每个信号的重视程度——体现在权值上——有所不同)后由轴突输
出。神经元的树突与另外的神经元的神经末梢相连的部分称为突触。
1、神经网络的工作原理
人工神经网络首先要以一定的学习准则进行学习,然后才能工作。现以人工神经网络对手写
“A”、“B”两个字母的识别为例进行说明,规定当“A”输入网络时,应该输出“1”,而
当输入为“B”时,输出为“0”。所以网络学习的准则应该是:如果网络作出错误的的判决,
则通过网络的学习,应使得网络减少下次犯同样错误的可能性。首先,给网络的各连接权值
赋予(0,1)区间内的随机值,将“A”所对应的图象模式输入给网络,网络将输入模式加权
求和、与门限比较、再进行非线性运算,得到网络的输出。在此情况下,网络输出为“1”
和“0”的概率各为50%,也就是说是完全随机的。这时如果输出为“1”(结果正确),则使
连接权值增大,以便使网络再次遇到“A”模式输入时,仍然能作出正确的判断。如果输出
为“0”(即结果错误),则把网络连接权值朝着减小综合输入加权值的方向调整,其目的在
于使网络下次再遇到“A”模式输入时,减小犯同样错误的可能性。如此操作调整,当给网
络轮番输入若干个手写字母“A”、“B”后,经过网络按以上学习方法进行若干次学习后,
网络判断的正确率将大大提高。这说明网络对这两个模式的学习已经获得了成功,它已将这
两个模式分布地记忆在网络的各个连接权值上。当网络再次遇到其中任何一个模式时,能够
作出迅速、准确的判断和识别。一般说来,网络中所含的神经元个数越多,则它能记忆、识
别的模式也就越多。
2、人工神经网络的特点
人工神经网络是由大量的神经元广泛互连而成的系统,它的这一结构特点决定着人工神经网
络具有高速信息处理的能力。人脑的每个神经元大约有10 3~10 4 个树突及相应的突
触,一个人的大脑总计约形成10 14 ~10 15 个突触。用神经网络的术语来说,
即是人脑具有10 14 ~10 15 个互相连接的存储潜力。虽然每个神经元的运算
功能十分简单,且信号传输速率也较低(大约100 次/秒),但由于各神经元之间的极度并行互
连功能,最终使得一个普通人的大脑在约1 秒内就能完成现行计算机至少需要数10 亿次处
理步骤才能完成的任务。
人工神经网络的知识存储容量很大。在神经网络中,知识与信息的存储表现为神经元之间分
布式的物理联系。它分散地表示和存储于整个网络内的各神经元及其连线上。每个神经元及
其连线只表示一部分信息,而不是一个完整具体概念。只有通过各神经元的分布式综合效果
才能表达出特定的概念和知识。
由于人工神经网络中神经元个数众多以及整个网络存储信息容量的巨大,使得它具有很强的
不确定性信息处理能力。即使输入信息不完全、不准确或模糊不清,神经网络仍然能够联想
思维存在于记忆中的事物的完整图象。只要输入的模式接近于训练样本,系统就能给出正确
的推理结论。
正是因为人工神经网络的结构特点和其信息存储的分布式特点,使得它相对于其它的判断识
别系统,如:专家系统等,具有另一个显着的优点:健壮性。生物神经网络不会因为个别神
经元的损失而失去对原有模式的记忆。最有力的证明是,当一个人的大脑因意外事故受轻微
损伤之后,并不会失去原有事物的全部记忆。人工神经网络也有类似的情况。因某些原因,
无论是网络的硬件实现还是软件实现中的某个或某些神经元失效,整个网络仍然能继续工
作。
人工神经网络是一种非线性的处理单元。只有当神经元对所有的输入信号的综合处理结果超
过某一门限值后才输出一个信号。因此神经网络是一种具有高度非线性的超大规模连续时间
动力学系统。它突破了传统的以线性处理为基础的数字电子计算机的局限,标志着人们智能
信息处理能力和模拟人脑智能行为能力的一大飞跃。
‘肆’ 你好。看到你的提问,我也遇到同样的问题。我做的是条件极值方法及其应用,能把你的给我参考下吗
近年来,对NP难的组合优化问题寻求高效的解决方法已成为优化领域的一个极具挑战性的研究课题。除了传统的运筹学方法,现代启发式方法正在得到越来越多的研究人员的关注和重视,已经广泛地应用于基础研究和实际工程领域。现有的大多数启发式方法,如进化算法、人工生命、模拟退火算法和禁忌算法等,都是从生物进化、统计物理和人工智能等领域发展而来。 极值动力学优化算法(Extremal Optimization,EO)是近年来出现的一种新颖的、通用的、基于局部搜索的启发式方法,该方法是从统计物理学发展而来。众所周知,模拟退火算法(Simulated An-nealing,SA)是模拟系统处于平衡态的一种优化方法,与SA不同的是,EO算法的理论基础建筑在Bak-Sneppen生物进化模型之上,该模型模拟处于远离平衡态的系统,具备自组织临界性(Self-Organized Criti-cality,SOC)。SOC是指不管系统处于何种初始状态,不需要调整任何参数,整个系统就可以演化到一个自组织临界状态,在该状态下,系统呈现出幂律分布(Power-law)。遗传算法通过对交配池中的所有可能解实施选择、杂交和变异等遗传操作来达到寻优的目的,而EO算法总是不断地变异近似解的最差组成部分(即所谓的极值动力学机制)来达到寻优的目的。正是这种内在的极值动力学机制,使得EO具备很强的爬山能力,尤其在求解带有相变点(Phase transitions)的组合优化问题时EO更是展现出强大的优势。EO算法的特点是收敛速度快,局部搜索能力强,只有变异算子,无可调参数(对于基本EO算法)或只有一个可调参数τ(对于τ-EO算法)。目前EO算法已经被成功地应用于求解一些NP难的组合优化问题,如二分图,旅行商问题,图着色,旋转玻璃和动态组合优化问题。但是,国外对于EO算法在数值优化和多目标优化问题方面的研究并不多,国内学者对EO算法的研究更少之甚少。 本文主要研究求解无约束或带约束数值优化问题的EO算法,并将求解单目标优化问题的EO算法扩展到多目标优化领域。本文的主要工作包括: (1)本文从分析EO算法的机理入手,提出了一种求解约束连续优化问题的新算法――带自适应Le′vy变异的基于种群的EO算法(PEO),通过求解6个经典的约束连续优化问题,实验结果证实了PEO能与3种流行的优化算法相匹敌,不失为一种求解数值约束优化问题的有效方法。 (2)为了弥补标准粒子群算法容易陷入局部极值点的不足,本文提出了一种新颖的混合粒子群-极值动力学优化算法(PSO-EO),该算法有效地结合了PSO的全局搜索能力和EO的局部搜索能力,使得标准PSO算法可以跳出局部极值点,从而弥补了标准PSO算法的不足。迄今为止,还没有文献提出将EO和PSO结合起来的优化算法。通过求解6个经典的复杂单峰/多峰函数,PSO-EO算法被证实了具有避免早熟收敛的特点,是一种求解复杂数值优化问题的有效算法。 (3)由于EO算法只有变异操作,因此,变异算子对EO算法的性能好坏起到了重要作用。本文将高斯变异和柯西变异有效地结合起来,提出了一种新颖的适合于求解数值优化问题的变异算子――混合高斯-柯西变异,该算子将“粗调”和“微调”很好地结合起来,并且省去了决定何时在不同变异之间进行切换的麻烦。 (4)本文将基于Pareto支配概念的适应度评价方法引入到EO,提出了一种新颖的多目标极值动力学优化方法(Multiobjective Extremal Op-timization,MOEO),使EO算法成功地扩展到多目标优化领域。接着,用MOEO算法解决了多目标连续优化问题(包括无约束问题和带约束问题),实验结果表明MOEO非常适合于求解多目标连续优化问题,能够与3种经典的多目标进化算法(即NSGA-II,SPEA2和PAES)相匹敌。最后,提出了一种适合于求解多目标0/1背包问题的MOEO算法。实验结果表明MOEO算法具有快速的收敛能力和良好的多样化性能,具有与3种经典的多目标进化算法(即NSGA,SPEA和NPGA)相竞争的优势。 (5)本文利用MOEO算法解决了4个经典的机械组件设计问题。实验结果表明:MOEO算法找到的非劣解集在收敛性和多样性方面有着良好的性能,能够与3种经典的多目标进化算法(NSGA-II,SPEA2和PAES)相匹敌。因此,MOEO算法是一个能解决实际工程优化问题的行之有效的方法。 (6)本文将MOEO算法应用于求解5个经典的股票投资组合优化问题。实验结果表明:MOEO找到的近似Pareto前沿具有良好的收敛性能和多样化性能,能够与算法NSGA-II和SPEA2相匹敌,比PAES更优。因此,MOEO算法是一个能解决实际管理决策优化问题的有效方法。
‘伍’ 遗传算法、数值算法、爬山算法、模拟退火 各自的优缺点
遗传算法:其优点是能很好地处理约束,跳出局部最优,最终得到全局最优解。缺点是收敛速度慢,局部搜索能力弱,运行时间长,容易受到参数的影响。
模拟退火:具有局部搜索能力强、运行时间短的优点。缺点是全局搜索能力差,容易受到参数的影响。
爬山算法:显然爬山算法简单、效率高,但在处理多约束大规模问题时,往往不能得到较好的解决方案。
数值算法:这个数值算法的含义太宽泛了,指的是哪种数值算法,阵列算法与爬山算法一样,各有优缺点。
(5)进化算法模拟退火扩展阅读:
注意事项:
遗传算法的机制比较复杂,在Matlab中已经用工具箱中的命令进行了打包,通过调用可以非常方便的使用遗传算法。
函数GA:[x,Fval,reason]=GA(@fitnessfun,Nvars,options)x为最优解,Fval为最优值,@Fitnessness为目标函数,Nvars为自变量个数,options为其他属性设置。系统的默认值是最小值,所以函数文档中应该加上一个减号。
要设置选项,您需要以下函数:options=GaOptimset('PropertyName1','PropertyValue1','PropertyName2','PropertyName3','PropertyValue3'…)通过该函数,可以确定一些遗传算法的参数。
‘陆’ 计算机编程常用算法有哪些
贪心算法,蚁群算法,遗传算法,进化算法,基于文化的遗传算法,禁忌算法,蒙特卡洛算法,混沌随机算法,序贯数论算法,粒子群算法,模拟退火算法。
模拟退火+遗传算法混合编程例子:
http://..com/question/43266691.html
自适应序贯数论算法例子:
http://..com/question/60173220.html
‘柒’ 模拟退火算法的意义
退火算法具有计算过程简单、通用、鲁棒性强、适合并行处理等优点,可用于求解复杂的非线性优化问题。缺点: 收敛速度慢,执行时间长,算法性能与初值有关,参数敏感。Pso: 进化支持计算的优点在于它能处理一些传统方法无法处理的例子,如不可微节点传递函数或其固有的梯度信息缺失。缺点是: 它在某些问题上表现不是特别好。图2。网络权重容量的编码和遗传算子的选择有时比较麻烦
‘捌’ 模拟退火法(SA)和遗传算法(GA)的专业解释
n局部搜索,模拟退火,遗传算法,禁忌搜索的形象比喻:
为了找出地球上最高的山,一群有志气的兔子们开始想办法。
1.兔子朝着比现在高的地方跳去。他们找到了不远处的最高山峰。但是这座山不一定是珠穆朗玛峰。这就是局部搜索,它不能保证局部最优值就是全局最优值。
2.兔子喝醉了。他随机地跳了很长时间。这期间,它可能走向高处,也可能踏入平地。但是,他渐渐清醒了并朝最高方向跳去。这就是模拟退火。
3.兔子们吃了失忆药片,并被发射到太空,然后随机落到了地球上的某些地方。他们不知道自己的使命是什么。但是,如果你过几年就杀死一部分海拔低的兔子,多产的兔子们自己就会找到珠穆朗玛峰。这就是遗传算法。
4.兔子们知道一个兔的力量是渺小的。他们互相转告着,哪里的山已经找过,并且找过的每一座山他们都留下一只兔子做记号。他们制定了下一步去哪里寻找的策略。这就是禁忌搜索。
‘玖’ 智能计算/计算智能、仿生算法、启发式算法的区别与关系
我一个个讲好了,
1)启发式算法:一个基于直观或经验构造的算法,在可接受的花费(指计算时间和空间)下给出待解决组合优化问题每一个实例的一个可行解,该可行解与最优解的偏离程度不一定事先可以预计。意思就是说,启发式算法是根据经验或者某些规则来解决问题,它求得的问题的解不一定是最优解,很有可能是近似解。这个解与最优解近似到什么程度,不能确定。相对于启发式算法,最优化算法或者精确算法(比如说分支定界法、动态规划法等则能求得最优解)。元启发式算法是启发式算法中比较通用的一种高级一点的算法,主要有遗传算法、禁忌搜索算法、模拟退火算法、蚁群算法、粒子群算法、变邻域搜索算法、人工神经网络、人工免疫算法、差分进化算法等。这些算法可以在合理的计算资源条件下给出较高质量的解。
2)仿生算法:是一类模拟自然生物进化或者群体社会行为的随机搜索方法的统称。由于这些算法求解时不依赖于梯度信息,故其应用范围较广,特别适用于传统方法难以解决的大规模复杂优化问题。主要有:遗传算法、人工神经网络、蚁群算法、蛙跳算法、粒子群优化算法等。这些算法均是模仿生物进化、神经网络系统、蚂蚁寻路、鸟群觅食等生物行为。故叫仿生算法。
3)智能计算:也成为计算智能,包括遗传算法、模拟退火算法、禁忌搜索算法、进化算法、蚁群算法、人工鱼群算法,粒子群算法、混合智能算法、免疫算法、神经网络、机器学习、生物计算、DNA计算、量子计算、模糊逻辑、模式识别、知识发现、数据挖掘等。智能计算是以数据为基础,通过训练建立联系,然后进行问题求解。
所以说,你接触的很多算法,既是仿生算法,又是启发式算法,又是智能算法,这都对。分类方法不同而已。
这次楼主不要再老花了哈!
‘拾’ 模拟退火算法的简介
模拟退火算法(Simulated Annealing,SA)最早的思想是由N. Metropolis 等人于1953年提出。1983 年,S. Kirkpatrick 等成功地将退火思想引入到组合优化领域。它是基于Monte-Carlo迭代求解策略的一种随机寻优算法,其出发点是基于物理中固体物质的退火过程与一般组合优化问题之间的相似性。模拟退火算法从某一较高初温出发,伴随温度参数的不断下降,结合概率突跳特性在解空间中随机寻找目标函数的全局最优解,即在局部最优解能概率性地跳出并最终趋于全局最优。模拟退火算法是一种通用的优化算法,理论上算法具有概率的全局优化性能,目前已在工程中得到了广泛应用,诸如VLSI、生产调度、控制工程、机器学习、神经网络、信号处理等领域。
模拟退火算法是通过赋予搜索过程一种时变且最终趋于零的概率突跳性,从而可有效避免陷入局部极小并最终趋于全局最优的串行结构的优化算法。