导航:首页 > 源码编译 > 粒子群算法优化pid

粒子群算法优化pid

发布时间:2023-05-10 17:35:09

㈠ 【第14章】基于粒子群算法的PID控制优化设计~~新手求助

%% 清空环境clearclc%% 参数设置w = 0.6; % 惯性因子 c1 = 2; % 加速常数c2 = 2; % 加速常数Dim = 3; % 维数SwarmSize = 100; % 粒子群规模ObjFun = @PSO_PID; % 待优化函数句柄MaxIter = 100; % 最大迭代次数 MinFit = 0.1; % 最小适应值 Vmax = 1;Vmin = -1;Ub = [300 300 300];Lb = [0 0 0];%% 粒子群初始化 Range = ones(SwarmSize,1)*(Ub-Lb); Swarm = rand(SwarmSize,Dim).*Range + ones(SwarmSize,1)*Lb; % 初始化粒子群 VStep = rand(SwarmSize,Dim)*(Vmax-Vmin) + Vmin; % 初始化速度 fSwarm = zeros(SwarmSize,1);for i=1:SwarmSize fSwarm(i, = feval(ObjFun,Swarm(i,); % 粒子群的适应值end程序到这里就出现了,求解释!

㈡ 粒子群优化模糊PID控制的量化因子和比例因子出现问题请问能帮忙看看么

1、我在多个版本下进行过测试,情况不尽相同。其中在某个版本的确出现过一次这个问题,但后来一直未能复现那个现象,所以未能进一步分析。

2、大致看了一下程序的思想:这个程序通过粒子群方法对几个增益系数进行优化,目标函数通过对模型仿真足够长的时间求积分型性能指标ITAE,而模型本身则又通过模糊逻辑对PID控制系数进行调整。

程序的绝大多数运行时间都消耗在调用Simulink模型进行仿真上。从我电脑上的情况看,运行一次仿真有时需要十几分钟,有时甚至十几个小时都没结束(与待优化的几个增益系数取值有关)碧昌,而根据主程序pso的参数设置,每一代迭代就需要调用粒子群规模的悔裂扒次数30,最多可能迭代50代,也就是最多可能仿真1500次。这样很自然会造成【一直不停的运行】,而如果强制停止运行,很自然就是位于调用Simulink进行仿真的那行代码上。

3、对于题主现在的程序,我有几点疑问:
(1)当前的模型使用了FLS,然后用pso方法进行优化,是否有比较可信的文献支撑?仅就对这个系统进行控制来说,总感觉有点把简单问题复杂化了,应该有更简单的做法。希望题主能提供更多的一些背景资料(例如主要参考文献)。
(2)模型中存在一些比较可疑甚至错误的地方。例如,使用Derivative模块提供微分信号是不可靠的做法,而FLC模块前应该用Mux而不是Add(这个错误是致命的,可能求解时间过长的原因主要就是它,我没进一步研究)。
(3)PID系源搭数相当于都叠加了一个基准,这种做法的必要性及其来源?

㈢ 粒子群优化算法

姓名:杨晶晶  学号:21011210420  学院:通信工程学院

【嵌牛导读】

传统的多目标优化方法是将多目标问题通过加权求和转化为单目标问题来处理的,而粒子算法主要是解决一些多目标优化问题的(例如机械零件的多目标设计优化),其优点是容易实现,精度高,收敛速度快。

【嵌牛鼻子】粒子群算法的概念、公式、调参以及与遗传算法的比较。

【嵌牛提问】什么是粒子群算法?它的计算流程是什么?与遗传算法相比呢?

【嵌牛正文】

1. 概念

        粒子群优化算法(PSO:Particle swarm optimization) 是一种进化计算技术(evolutionary computation),源于对鸟群捕食的行为研究。

        粒子群优化算法的基本思想:是通过群体中个体之间的协作和信息共享来寻找最优解。

        PSO的优势:在于简单容易实现并且没有许多参数的调节。目前已被广泛应用于函数优化、神经网络训练、模糊系统控制以及其他遗传算法的应用领域。

2. 算法

2.1 问题抽象

        鸟被抽象为没有质量和体积的微粒(点),并延伸到N维空间,粒子i在N维空间的位置表示为矢量Xi=(x1,x2,…,xN),飞行速度表示为矢量Vi=(v1,v2,…,vN)。每个粒子都有一个由目标函数决定的适应值(fitness value),并且知道自己到目前为止发现的最好位置(pbest)和现在的位置Xi。这个可以看作是粒子自己的飞行经验。除此之外,每个粒子还知道到目前为止整个群体中所有粒子发现的最好位置(gbest)(gbest是pbest中的最好值),这个可以看作是粒子同伴的经验。粒子就是通过自己的经验和同伴中最好的经验来决定下一步的运动。

2.2 更新规则

      PSO初始化为一群随机粒子(随机解)。然后通过迭代找到最优解。在每一次的迭代中,粒子通过跟踪两个“极值”(pbest,gbest)来更新自己。在找到这两个最优值后,粒子通过下面的公式来更新自己的速度和位置。

      公式(1)的第一部分称为【记忆项】,表示上次速度大小和方向的影响;公式(1)的第二部分称为【自身认知项】,是从当前点指向粒子自身最好点的一个矢量,表示粒子的动作来源于自己经验的部分;公式(1)的第三部分称为【群体认知项】,是一个从当前点指向种群最好点的矢量,反映了粒子间的协同合作和知识共享。粒子就是通过自己的经验和同伴中最好的经验来决定下一步的运动。

      以上面两个公式为基础,形成了PSO的标准形式。

      公式(2)和 公式(3)被视为标准PSO算法。

2.3 标准PSO算法流程

    标准PSO算法的流程:

    1)初始化一群微粒(群体规模为N),包括随机位置和速度;

    2)评价每个微粒的适应度;

    3)对每个微粒,将其适应值与其经过的最好位置pbest作比较,如果较好,则将其作为当前的最好位置pbest;

    4)对每个微粒,将其适应值与其经过的最好位置gbest作比较,如果较好,则将其作为当前的最好位置gbest;

    5)根据公式(2)、(3)调整微粒速度和位置;

    6)未达到结束条件则转第2)步。

        迭代终止条件根据具体问题一般选为最大迭代次数Gk或(和)微粒群迄今为止搜索到的最优位置满足预定最小适应阈值。

      公式(2)和(3)中pbest和gbest分别表示微粒群的局部和全局最优位置。

    当C1=0时,则粒子没有了认知能力,变为只有社会的模型(social-only):

被称为全局PSO算法。粒子有扩展搜索空间的能力,具有较快的收敛速度,但由于缺少局部搜索,对于复杂问题

比标准PSO 更易陷入局部最优。

    当C2=0时,则粒子之间没有社会信息,模型变为只有认知(cognition-only)模型:

      被称为局部PSO算法。由于个体之间没有信息的交流,整个群体相当于多个粒子进行盲目的随机搜索,收敛速度慢,因而得到最优解的可能性小。

2.4 参数分析

        参数:群体规模N,惯性因子 ,学习因子c1和c2,最大速度Vmax,最大迭代次数Gk。

        群体规模N:一般取20~40,对较难或特定类别的问题可以取到100~200。

        最大速度Vmax:决定当前位置与最好位置之间的区域的分辨率(或精度)。如果太快,则粒子有可能越过极小点;如果太慢,则粒子不能在局部极小点之外进行足够的探索,会陷入到局部极值区域内。这种限制可以达到防止计算溢出、决定问题空间搜索的粒度的目的。

        权重因子:包括惯性因子和学习因子c1和c2。使粒子保持着运动惯性,使其具有扩展搜索空间的趋势,有能力探索新的区域。c1和c2代表将每个粒子推向pbest和gbest位置的统计加速项的权值。较低的值允许粒子在被拉回之前可以在目标区域外徘徊,较高的值导致粒子突然地冲向或越过目标区域。

        参数设置:

        1)如果令c1=c2=0,粒子将一直以当前速度的飞行,直到边界。很难找到最优解。

        2)如果=0,则速度只取决于当前位置和历史最好位置,速度本身没有记忆性。假设一个粒子处在全局最好位置,它将保持静止,其他粒子则飞向它的最好位置和全局最好位置的加权中心。粒子将收缩到当前全局最好位置。在加上第一部分后,粒子有扩展搜索空间的趋势,这也使得的作用表现为针对不同的搜索问题,调整算法的全局和局部搜索能力的平衡。较大时,具有较强的全局搜索能力;较小时,具有较强的局部搜索能力。

        3)通常设c1=c2=2。Suganthan的实验表明:c1和c2为常数时可以得到较好的解,但不一定必须等于2。Clerc引入收敛因子(constriction factor) K来保证收敛性。

      通常取为4.1,则K=0.729.实验表明,与使用惯性权重的PSO算法相比,使用收敛因子的PSO有更快的收敛速度。其实只要恰当的选取和c1、c2,两种算法是一样的。因此使用收敛因子的PSO可以看作使用惯性权重PSO的特例。

        恰当的选取算法的参数值可以改善算法的性能。

3. PSO与其它算法的比较

3.1 遗传算法和PSO的比较

  1)共性:

  (1)都属于仿生算法。

  (2)都属于全局优化方法。

  (3)都属于随机搜索算法。

  (4)都隐含并行性。

  (5)根据个体的适配信息进行搜索,因此不受函数约束条件的限制,如连续性、可导性等。

  (6)对高维复杂问题,往往会遇到早熟收敛和收敛 性能差的缺点,都无法保证收敛到最优点。

    2)差异:   

    (1)PSO有记忆,好的解的知识所有粒子都保 存,而GA(Genetic Algorithm),以前的知识随着种群的改变被改变。

    (2)PSO中的粒子仅仅通过当前搜索到最优点进行共享信息,所以很大程度上这是一种单共享项信息机制。而GA中,染色体之间相互共享信息,使得整个种群都向最优区域移动。

    (3)GA的编码技术和遗传操作比较简单,而PSO相对于GA,没有交叉和变异操作,粒子只是通过内部速度进行更新,因此原理更简单、参数更少、实现更容易。

    (4)应用于人工神经网络(ANN)

    GA可以用来研究NN的三个方面:网络连接权重、网络结构、学习算法。优势在于可处理传统方法不能处理的问题,例如不可导的节点传递函数或没有梯度信息。

    GA缺点:在某些问题上性能不是特别好;网络权重的编码和遗传算子的选择有时较麻烦。

    已有利用PSO来进行神经网络训练。研究表明PSO是一种很有潜力的神经网络算法。速度较快且有较好的结果。且没有遗传算法碰到的问题。

㈣ 我用粒子群算法优化PID控制器,但得到的参数是负值是怎么回事,得到的波形也不好

对在程序中加约束条件,比如惩罚

㈤ 粒子群优化算法的参数设置

从上面的例子我们可以看到应用PSO解决优化问题的过程中有两个重要的步骤: 问题解的编码和适应度函数PSO的一个优势就是采用实数编码, 不需要像遗传算法一样是二进制编码(或者采用针对实数的遗传操作.例如对于问题 f(x) = x1^2 + x2^2+x3^2 求解,粒子可以直接编码为 (x1, x2, x3), 而适应度函数就是f(x). 接着我们就可以利用前面的过程去寻优.这个寻优过程是一个叠代过程, 中止条件一般为设置为达到最大循环数或者最小错误
PSO中并没有许多需要调节的参数,下面列出了这些参数以及经验设置
粒子数: 一般取 20–40. 其实对于大部分的问题10个粒子已经足够可以取得好的结果, 不过对于比较难的问题或者特定类别的问题, 粒子数可以取到100 或 200
粒子的长度: 这是由优化问题决定, 就是问题解的长度
粒子的范围: 由优化问题决定,每一维可是设定不同的范围
Vmax: 最大速度,决定粒子在一个循环中最大的移动距离,通常设定为粒子的范围宽度,例如上面的例子里,粒子 (x1, x2, x3) x1 属于 [-10, 10], 那么 Vmax 的大小就是 20
学习因子: c1 和 c2 通常等于 2. 不过在文献中也有其他的取值. 但是一般 c1 等于 c2 并且范围在0和4之间
中止条件: 最大循环数以及最小错误要求. 例如, 在上面的神经网络训练例子中, 最小错误可以设定为1个错误分类, 最大循环设定为2000, 这个中止条件由具体的问题确定.
全局PSO和局部PSO: 我们介绍了两种版本的粒子群优化算法: 全局版和局部版. 前者速度快不过有时会陷入局部最优. 后者收敛速度慢一点不过很难陷入局部最优. 在实际应用中, 可以先用全局PSO找到大致的结果,再用局部PSO进行搜索.
另外的一个参数是惯性权重, 由Shi 和Eberhart提出, 有兴趣的可以参考他们1998年的论文(题目: A modified particle swarm optimizer)。

㈥ pso优化pid结果都是直线

说明没有进行迭代,优化不成功。可能是陷入局部最小值或者适应度函数没有设计好。
1.PSO是粒子群算法(——ParticleSwarmOptimization)的英文缩写,是一种基于种群的随机优化技术,由Eberhart和Kennedy于1995年提出该算法模仿昆虫、兽群、鸟群和鱼群等的群集行为,这些群体按照一种合作的方式寻找食物,群体中的每个成员通过学习它自身的经验和其他成员的经验来不断改变其搜索模式。
2.Kennedy和Eberhart提出粒子群算法的主要设计思想与两个方面的研究密切相关:一是进化算法,粒子群算法和进化算法一样采用种群的方式进行搜索,这使得它可以同时搜索待优化目标函数空间中的较多区域。二是人工生命,它采用的主要工具是计算机,主要方法是利用计算机编程模拟。

㈦ 用粒子群算法优化PID参数的具体过程是什么, 最好结合仿真说明一下

这个关键亮滚桥是建立评价指标,比如采用超调量、响应时间,或者ITAE等指标最大敬猛或者最小,这样就可以通备皮过粒子群算法来不断修正PID参数,从而优化参数了。
一般来讲这样的优化只能离线,不能在线

㈧ 粒子群优化算法

         粒子群算法 的思想源于对鸟/鱼群捕食行为的研究,模拟鸟集群飞行觅食的行为,鸟之间通过集体的协作使群体达到最优目的,是一种基于Swarm Intelligence的优化方法。它没有遗传算法的“交叉”(Crossover) 和“变异”(Mutation) 操作,它通过追随当前搜索到的最优值来寻找全局最优。粒子群算法与其他现代优化方法相比的一个明显特色就是所 需要调整的参数很少、简单易行 ,收敛速度快,已成为现代优化方法领域研究的热点。

         设想这样一个场景:一群鸟在随机搜索食物。已知在这块区域里只有一块食物;所有的鸟都不知道食物在哪里;但它们能感受到当前的位置离食物还有多远。那么找到食物的最优策略是什么呢?

        1. 搜寻目前离食物最近的鸟的周围区域

        2. 根据自己飞行的经验判断食物的所在。

        PSO正是从这种模型中得到了启发,PSO的基础是 信息的社会共享

        每个寻优的问题解都被想象成一只鸟,称为“粒子”。所有粒子都在一个D维空间进行搜索。

        所有的粒子都由一个fitness function 确定适应值以判断目前的位置好坏。

        每一个粒子必须赋予记忆功能,能记住所搜寻到的最佳位置。

        每一个粒子还有一个速度以决定飞行的距离和方向。这个速度根据它本身的飞行经验以及同伴的飞行经验进行动态调整。

        粒子速度更新公式包含三部分: 第一部分为“惯性部分”,即对粒子先前速度的记忆;第二部分为“自我认知”部分,可理解为粒子i当前位置与自己最好位置之间的距离;第三部分为“社会经验”部分,表示粒子间的信息共享与合作,可理解为粒子i当前位置与群体最好位置之间的距离。

        第1步   在初始化范围内,对粒子群进行随机初始化,包括随机位置和速度

        第2步   根据fitness function,计算每个粒子的适应值

        第3步   对每个粒子,将其当前适应值与其个体历史最佳位置(pbest)对应的适应值作比较,如果当前的适应值更高,则用当前位置更新粒子个体的历史最优位置pbest

        第4步   对每个粒子,将其当前适应值与全局最佳位置(gbest)对应的适应值作比较,如果当前的适应值更高,则用当前位置更新粒子群体的历史最优位置gbest

        第5步   更新粒子的速度和位置

        第6步   若未达到终止条件,则转第2步

        【通常算法达到最大迭代次数或者最佳适应度值得增量小于某个给定的阈值时算法停止】

粒子群算法流程图如下:

以Ras函数(Rastrigin's Function)为目标函数,求其在x1,x2∈[-5,5]上的最小值。这个函数对模拟退火、进化计算等算法具有很强的欺骗性,因为它有非常多的局部最小值点和局部最大值点,很容易使算法陷入局部最优,而不能得到全局最优解。如下图所示,该函数只在(0,0)处存在全局最小值0。

㈨ 关于遗传算法或粒子群算法优化PID参数的问题,求大侠相助,万分感激!

PID不懂,但是就第一问题说下,如果说每次的初始条件一样的话,可以把参数固定。如果初始条件不一样的话,要在每次使用前都进行优化。

关于目标函数哪个更好,倒不如问问你的同学和老师,这儿不是好地方。
目标函数是GA或者PSO优化的目标,通过目标对候选解进行优劣评价,然后算法会指引种群向目标函数取得优值的范围进行随机搜索。

我只能解释道这儿了~~

阅读全文

与粒子群算法优化pid相关的资料

热点内容
我的世界国际服为什么登不进服务器 浏览:992
微盟程序员老婆 浏览:928
intellij创建java 浏览:110
java连接odbc 浏览:38
启动修复无法修复电脑命令提示符 浏览:359
手机编程是什么 浏览:97
山东移动程序员 浏览:163
苏州java程序员培训学校 浏览:476
单片机液晶驱动 浏览:854
魔拆app里能拆到什么 浏览:130
新预算法的立法理念 浏览:144
wdcpphp的路径 浏览:134
单片机p0口电阻 浏览:926
浏览器中调短信文件夹 浏览:594
五菱宏光空调压缩机 浏览:68
为什么app占用几百兆 浏览:680
自动解压失败叫我联系客服 浏览:484
易语言新手源码 浏览:456
oa服务器必须有固定ip地址 浏览:45
传奇源码分析是什么 浏览:269