① 粒子群演算法解決兩個函數的多目標優化的matlab代碼。
http://www.doc88.com/p-60698612387.html
http://wenku..com/view/1c27aa8702d276a200292e1e.html
② 對於粒子群演算法中求極小值問題,適應度值是越小越好,還是越大越好
這個看你設置吧,如果你直接適應度函數設為目標函數,那麼適應度值當然越小越好。如果你把適應度設為目標函數的倒數,那麼適應度越大越好。這個都沒有關系,你在編程的時候注意看下各代適應度值比較時候的大於還是小於符號就可以了。
③ 我在研究粒子群演算法,請問什麼叫粒子的適應度值啊
粒子的適應度就是指目標函數的值。一般來說,目標函數的選擇由具體問題來決定,假如是求最大值問題,適應度就是函數的大小,適應度當然越大越好。如果是TSP問題,路徑的距離就是粒子的適應度。
④ 如何用粒子群優化(PSO)演算法實現多目標優化
粒子群演算法,也稱粒子群優化演算法(ParticleSwarmOptimization),縮寫為PSO,是近年來發展起來的一種新的進化演算法(EvolutionaryAlgorithm-EA)。PSO演算法屬於進化演算法的一種,和模擬退火演算法相似,它也是從隨機解出發,通過迭代尋找最優解,它也是通過適應度來評價解的品質,但它比遺傳演算法規則更為簡單,它沒有遺傳演算法的「交叉」(Crossover)和「變異」(Mutation)操作,它通過追隨當前搜索到的最優值來尋找全局最優。這種演算法以其實現容易、精度高、收斂快等優點引起了學術界的重視,並且在解決實際問題中展示了其優越性。粒子群演算法是一種並行演算法。
⑤ 請問粒子群演算法和多目標粒子群演算法有什麼區別嗎
一般就是在跟新粒子位置後,對粒子進行離散點處理。 比如: 你的粒子的離散點是0到9的整數。 那麼對每個粒子更新位置後,比如是在(0,1)范圍內的隨機數。那麼就(0,0.1)范圍令其值為0;(0.1,0.2)范圍令其值為1;............(0.9.1)范圍令其值為9。 當然初始位置值也需要這樣處理。
⑥ 求大神給出基於粒子群演算法的多目標搜索演算法的完整程序。。。從目標函數到最後。。
%% 該函數演示多目標perota優化問題
%清空環境
clc
clear
load data
%% 初始參數
objnum=size(P,1); %類中物品個數
weight=92; %總重量限制
%初始化程序
Dim=5; %粒子維數
xSize=50; %種群個數
MaxIt=200; %迭代次數
c1=0.8; %演算法參數
c2=0.8; %演算法參數
wmax=1.2; %慣性因子
wmin=0.1; %慣性因子
x=unidrnd(4,xSize,Dim); %粒子初始化
v=zeros(xSize,Dim); %速度初始化
xbest=x; %個體最佳值
gbest=x(1,:); %粒子群最佳位置
% 粒子適應度值
px=zeros(1,xSize); %粒子價值目標
rx=zeros(1,xSize); %粒子體積目標
cx=zeros(1,xSize); %重量約束
% 最優值初始化
pxbest=zeros(1,xSize); %粒子最優價值目標
rxbest=zeros(1,xSize); %粒子最優體積目標
cxbest=zeros(1,xSize); %記錄重量,以求約束
% 上一次的值
pxPrior=zeros(1,xSize);%粒子價值目標
rxPrior=zeros(1,xSize);%粒子體積目標
cxPrior=zeros(1,xSize);%記錄重量,以求約束
%計算初始目標向量
for i=1:xSize
for j=1:Dim %控制類別
px(i) = px(i)+P(x(i,j),j); %粒子價值
rx(i) = rx(i)+R(x(i,j),j); %粒子體積
cx(i) = cx(i)+C(x(i,j),j); %粒子重量
end
end
% 粒子最優位置
pxbest=px;rxbest=rx;cxbest=cx;
%% 初始篩選非劣解
flj=[];
fljx=[];
fljNum=0;
%兩個實數相等精度
tol=1e-7;
for i=1:xSize
flag=0; %支配標志
for j=1:xSize
if j~=i
if ((px(i)<px(j)) && (rx(i)>rx(j))) ||((abs(px(i)-px(j))<tol)...
&& (rx(i)>rx(j)))||((px(i)<px(j)) && (abs(rx(i)-rx(j))<tol)) || (cx(i)>weight)
flag=1;
break;
end
end
end
%判斷有無被支配
if flag==0
fljNum=fljNum+1;
% 記錄非劣解
flj(fljNum,1)=px(i);flj(fljNum,2)=rx(i);flj(fljNum,3)=cx(i);
% 非劣解位置
fljx(fljNum,:)=x(i,:);
end
end
%% 循環迭代
for iter=1:MaxIt
% 權值更新
w=wmax-(wmax-wmin)*iter/MaxIt;
%從非劣解中選擇粒子作為全局最優解
s=size(fljx,1);
index=randi(s,1,1);
gbest=fljx(index,:);
%% 群體更新
for i=1:xSize
%速度更新
v(i,:)=w*v(i,:)+c1*rand(1,1)*(xbest(i,:)-x(i,:))+c2*rand(1,1)*(gbest-x(i,:));
%位置更新
x(i,:)=x(i,:)+v(i,:);
x(i,:) = rem(x(i,:),objnum)/double(objnum);
index1=find(x(i,:)<=0);
if ~isempty(index1)
x(i,index1)=rand(size(index1));
end
x(i,:)=ceil(4*x(i,:));
end
%% 計算個體適應度
pxPrior(:)=0;
rxPrior(:)=0;
cxPrior(:)=0;
for i=1:xSize
for j=1:Dim %控制類別
pxPrior(i) = pxPrior(i)+P(x(i,j),j); %計算粒子i 價值
rxPrior(i) = rxPrior(i)+R(x(i,j),j); %計算粒子i 體積
cxPrior(i) = cxPrior(i)+C(x(i,j),j); %計算粒子i 重量
end
end
%% 更新粒子歷史最佳
for i=1:xSize
%現在的支配原有的,替代原有的
if ((px(i)<pxPrior(i)) && (rx(i)>rxPrior(i))) ||((abs(px(i)-pxPrior(i))<tol)...
&& (rx(i)>rxPrior(i)))||((px(i)<pxPrior(i)) && (abs(rx(i)-rxPrior(i))<tol)) || (cx(i)>weight)
xbest(i,:)=x(i,:);%沒有記錄目標值
pxbest(i)=pxPrior(i);rxbest(i)=rxPrior(i);cxbest(i)=cxPrior(i);
end
%彼此不受支配,隨機決定
if ~( ((px(i)<pxPrior(i)) && (rx(i)>rxPrior(i))) ||((abs(px(i)-pxPrior(i))<tol)...
&& (rx(i)>rxPrior(i)))||((px(i)<pxPrior(i)) && (abs(rx(i)-rxPrior(i))<tol)) || (cx(i)>weight) )...
&& ~( ((pxPrior(i)<px(i)) && (rxPrior(i)>rx(i))) ||((abs(pxPrior(i)-px(i))<tol) && (rxPrior(i)>rx(i)))...
||((pxPrior(i)<px(i)) && (abs(rxPrior(i)-rx(i))<tol)) || (cxPrior(i)>weight) )
if rand(1,1)<0.5
xbest(i,:)=x(i,:);
pxbest(i)=pxPrior(i);rxbest(i)=rxPrior(i);cxbest(i)=cxPrior(i);
end
end
end
%% 更新非劣解集合
px=pxPrior;
rx=rxPrior;
cx=cxPrior;
%更新升級非劣解集合
s=size(flj,1);%目前非劣解集合中元素個數
%先將非劣解集合和xbest合並
pppx=zeros(1,s+xSize);
rrrx=zeros(1,s+xSize);
cccx=zeros(1,s+xSize);
pppx(1:xSize)=pxbest;pppx(xSize+1:end)=flj(:,1)';
rrrx(1:xSize)=rxbest;rrrx(xSize+1:end)=flj(:,2)';
cccx(1:xSize)=cxbest;cccx(xSize+1:end)=flj(:,3)';
xxbest=zeros(s+xSize,Dim);
xxbest(1:xSize,:)=xbest;
xxbest(xSize+1:end,:)=fljx;
%篩選非劣解
flj=[];
fljx=[];
k=0;
tol=1e-7;
for i=1:xSize+s
flag=0;%沒有被支配
%判斷該點是否非劣
for j=1:xSize+s
if j~=i
if ((pppx(i)<pppx(j)) && (rrrx(i)>rrrx(j))) ||((abs(pppx(i)-pppx(j))<tol) ...
&& (rrrx(i)>rrrx(j)))||((pppx(i)<pppx(j)) && (abs(rrrx(i)-rrrx(j))<tol)) ...
|| (cccx(i)>weight) %有一次被支配
flag=1;
break;
end
end
end
%判斷有無被支配
if flag==0
k=k+1;
flj(k,1)=pppx(i);flj(k,2)=rrrx(i);flj(k,3)=cccx(i);%記錄非劣解
fljx(k,:)=xxbest(i,:);%非劣解位置
end
end
%去掉重復粒子
repflag=0; %重復標志
k=1; %不同非劣解粒子數
flj2=[]; %存儲不同非劣解
fljx2=[]; %存儲不同非劣解粒子位置
flj2(k,:)=flj(1,:);
fljx2(k,:)=fljx(1,:);
for j=2:size(flj,1)
repflag=0; %重復標志
for i=1:size(flj2,1)
result=(fljx(j,:)==fljx2(i,:));
if length(find(result==1))==Dim
repflag=1;%有重復
end
end
%粒子不同,存儲
if repflag==0
k=k+1;
flj2(k,:)=flj(j,:);
fljx2(k,:)=fljx(j,:);
end
end
%非劣解更新
flj=flj2;
fljx=fljx2;
end
%繪制非劣解分布
plot(flj(:,1),flj(:,2),'o')
xlabel('P')
ylabel('R')
title('最終非劣解在目標空間分布')
disp('非劣解flj中三列依次為P,R,C')
⑦ 分析標准粒子群演算法的不足及改進的方法
一個以上的目標,以優化
相對傳統的多目標優化方法在解決多目標問題,PSO具有很大的優勢。首先,PSO演算法和高效的搜索功能,有利於在這個意義上,多目標的最優解;其次,PSO代表了整個解決方案的人口集固有的並行性,同時搜索多個非劣解,所以容易搜索多個Pareto最佳的解決方案;此外,PSO通用的適合處理所有類型的目標函數和約束條件,PSO容易與傳統相結合的方法,和然後提出了有效的方法來解決一個具體的問題。 PSO本身,為了更好地解決多目標優化問題,必須解決的問題的全局最優粒子和個人選擇的最優粒子。為全局最優粒子的選擇,一方面,該演算法具有更好的收斂速度,另一方面帕累托邊界分散體的溶液中。如果在最佳的單個顆粒的選擇,需要較少的計算復雜性,並且是僅由較少數量的比較非
劣解更新。迄今為止,基於PSO的多目標優化,主要有以下
思路:
(1)向量法和加權方法。文獻[20]的固定權重法,自適應權重法和向量評估方法的第一次,PSO解決MO問題。然而,對於一個給定的優化問題,權重的方法通常是很難獲得一組合適的權重向量評價方法MO的問題是,往往無法得到滿意的解決方案。
(2)基於Pareto方法。 [21]帕累托排序機制和PSO相結合,處理的問題,多目標優化,Pareto排序方法來選擇一組的精英,和輪盤賭選擇全局最優粒子。雖然輪盤賭選擇機制,使所有的帕累托個人選擇的概率是一樣的,但實際上只有少數人的選擇的概率就越大,因此不利於保持種群多樣性;文獻[22]通過引入在PSO帕累托競爭機制,選擇全局最優粒子的顆粒知識基礎。候選個人隨機選自人口比較集進行比較,以確定非劣解,該演算法的成功取決於比較集的大小的參數設置。如果這個參數是太小了,選擇的過程,從人口的非劣效性個人可能是太小了,如果這個參數是太大,它可能會出現過早收斂。
(3)距離的方法。 [23],被分配的各個的當前的解決方案之間的距離的基礎上Pa2reto的解決方案,其適應值,以便選擇全局最優粒子。隨著距離的方法需要被初始化潛在的解決方案,如果初始電位值太大,不同的解決方案,以適應不同的值並不顯著。這將導致在選擇壓力太小或個別均勻分布,導致在PSO演算法收斂速度非常慢。
(4)附近的「。文獻[24]提出了動態鄰域的選擇策略,為優化目標的定義,目標,和其他所有的目標定義的目標附近,然後選擇全局最優粒子的動態鄰域的策略,但該方法更敏感的目標函數的優化目標選擇和附近的排序。
(5)多組法。文獻[25]的人口劃分成多個子群,以及每個子群PSO演算法,通過搜索Pareto最優解的各種子群之間的信息交流。然而,由於需要增加的粒子的數量增加的計算量。
(6)非排名的方法。 [26]使用非主導的排序選擇全局最優的粒子。整個人口,粒子的個人最好成績粒子和它的後代,有利於提供一個適當的選擇壓力,小生境技術,以增加種群多樣性。比較所有粒子的個人最好成績顆粒在整個人群遺傳給後代,但是,由於其本身的性質是不利於人口的多樣性,容易形成早熟。此外,文獻[27]最大最小策略,博弈論引入PSO解決多MO。最大最小策略,以確定粒子的適應值,可以判斷帕累托最優的解決方案,而不需要集群和小生境技術。
2約束優化
在最近幾年也取得了一些進展,PSO演算法在約束最優化。基於PSO-的約束優化工作分為兩種類型:①罰函數法;②設計特定的進化操作或約束修正系數。 [28]採用罰函數法,採用非固定多段映射罰函數將約束的優化問題,然後利用PSO解決問題的轉換後,模擬結果表明,該演算法相對進化策略和遺傳演算法的優勢,但罰函數的設計過於復雜,不利於解決;文獻[29],一個可行的解決方案,保留策略處理約束,即,一方面要更新所有的顆粒的存儲區域中到只保留可行的解決方案,在另一方面在初始化階段的所有的顆粒從一個可行的解決方案的空間值?初始的可行的解決方案空間,然而,是難以確定的很多問題,文獻[30 ]提出的多層信息共享策略粒子群與約束原則來處理,根據約束矩陣多層Pareto排序機制的微粒,從而一些微粒,以確定個人的搜索方向的其餘。
3離散優化為離散優化解決方案空間是離散點的集合,而不是連續PSO解決離散優化問題,必須予以糾??正的速度和位置更新公式,或變形。基於PSO的離散優化可分為以下三類:
速度(1)的位置變化的概率。 [31]首先提出了離散二進制PSO。二進制粒子的位置編碼器,Sigmoid函數,速度約束在[0,1],代表粒子的概率立場;法[32] [31]在文獻
提高的地址更換安排。安排更換顆粒,速度是指根據兩個粒子的相似性,以確定粒子的位置變化也引入突變操作,以防止陷入局部極小的最優粒子的概率。
(2)重新定義的PSO的操作。 [33]通過重新定義粒子的位置,速度,和他們的加法和減法乘法運算,提出了一種新的離散粒子群,並為解決旅行商問題。雖然該演算法是有效的,但它提供了一種新的思維方式求解組合優化問題。
(3)連續PSO離散的情況下。 [34]採用連續PSO,解決分布式計算機任務的分配問題。於實數被轉換為一個正整數,和符號的實數部分和小數部分的
分除去。結果表明,在溶液中的質量和速度的方法的演算法是優於遺傳演算法。
4動態優化
在許多實際工程問題,優化環境是不確定的,或動態。因此,優化演算法必須有能力與環境的動態變化做出相應的調整,以最佳的解決方案,該演算法具有一定的魯棒性。 [35]首次提出了PSO跟蹤動態系統[36]提出了自適應PSO自動跟蹤動態系統的變化,種群粒子檢測方法和粒子重新初始化PSO系統變化的跟蹤能力增強;文獻[37]迅速變化的動態環境中,在粒子速度更新公式的變化條目的增加,消除了需要在環境中的變化來檢測,可以跟蹤環境處理。雖然該研究少得多,但不容質疑的,是一個重要的研究內容。
粒子群演算法的MATLAB程序
初始化粒子群;
對於每個粒子
計算他們的身體健康;
如果(健身優於粒子的歷史最好值)
歷史最好的個人裨錫更新;
如果選擇當前粒子群粒子;(當前的最優粒子比歷史最好粒子組)
與目前最好的粒子更新PG組;對於每個粒子
更新粒子類型①速度;
更新的位置粒子類型②;
完
雖然還沒有達到最大迭代次數,或不符合的最小誤差。
⑧ 怎麼用matlab中的粒子群演算法求解多目標優化問題
不知道你所說的多目標是指什麼,據我的理解,既然有個目標函數,那麼多目標可以在目標函數那裡表示,我最近也在做這個粒子群演算法, 下面是我的vc++6.0代碼,改造了一下基本粒子群,求路徑的.. #include #include #include using namespace std; d
⑨ 多目標優化演算法有哪些
主要內容包括:多目標進化演算法、多目標粒子群演算法、其他多目標智能優化演算法、人工神經網路優化、交通與物流系統優化、多目標生產調度和電力系統優化及其他。