① 粒子群演算法
粒子群演算法(Particle Swarm Optimization),又稱鳥群覓食演算法,是由數學家J. Kennedy和R. C. Eberhart等開發出的一種新的進化演算法。它是從隨機解開始觸發,通過迭代尋找出其中的最優解。本演算法主要是通過適應度來評價解的分數,比傳統的遺傳演算法更加的簡單,它沒有傳統遺傳演算法中的「交叉」和「變異」等操作,它主要是追隨當前搜索到的最優值來尋找到全局最優值。這種演算法實現容易,精度高,收斂快等特點被廣泛運用在各個問題中。
粒子群演算法是模擬鳥群覓食的所建立起來的一種智能演算法,一開始所有的鳥都不知道食物在哪裡,它們通過找到離食物最近的鳥的周圍,再去尋找食物,這樣不斷的追蹤,大量的鳥都堆積在食物附近這樣找到食物的幾率就大大增加了。粒子群就是這樣一種模擬鳥群覓食的過程,粒子群把鳥看成一個個粒子,它們擁有兩個屬性——位置和速度,然後根據自己的這兩個屬性共享到整個集群中,其他粒子改變飛行方向去找到最近的區域,然後整個集群都聚集在最優解附近,最後最終找到最優解。
演算法中我們需要的數據結構,我們需要一個值來存儲每個粒子搜索到的最優解,用一個值來存儲整個群體在一次迭代中搜索到的最優解,這樣我們的粒子速度和位置的更新公式如下:
其中pbest是每個粒子搜索到的最優解,gbest是整個群體在一次迭代中搜索到的最優解,v[i]是代表第i個粒子的速度,w代表慣性系數是一個超參數,rang()表示的是在0到1的隨機數。Present[i]代表第i個粒子當前的位置。我們通過上面的公式不停的迭代粒子群的狀態,最終得到全局最優解
② 粒子群演算法
粒子群演算法(particle swarm optimization,PSO)是計算智能領域中的一種生物啟發式方法,屬於群體智能優化演算法的一種,常見的群體智能優化演算法主要有如下幾類:
除了上述幾種常見的群體智能演算法以外,還有一些並不是廣泛應用的群體智能演算法,比如螢火蟲演算法、布穀鳥演算法、蝙蝠演算法以及磷蝦群演算法等等。
而其中的粒子群優化演算法(PSO)源於對鳥類捕食行為的研究,鳥類捕食時,找到食物最簡單有限的策略就是搜尋當前距離食物最近的鳥的周圍。
設想這樣一個場景:一群鳥在隨機的搜索食物。在這個區域里只有一塊食物,所有的鳥都不知道食物在哪。但是它們知道自己當前的位置距離食物還有多遠。那麼找到食物的最優策略是什麼?最簡單有效的就是搜尋目前離食物最近的鳥的周圍區域。
Step1:確定一個粒子的運動狀態是利用位置和速度兩個參數描述的,因此初始化的也是這兩個參數;
Step2:每次搜尋的結果(函數值)即為粒子適應度,然後記錄每個粒子的個體歷史最優位置和群體的歷史最優位置;
Step3:個體歷史最優位置和群體的歷史最優位置相當於產生了兩個力,結合粒子本身的慣性共同影響粒子的運動狀態,由此來更新粒子的位置和速度。
位置和速度的初始化即在位置和速度限制內隨機生成一個N x d 的矩陣,而對於速度則不用考慮約束,一般直接在0~1內隨機生成一個50x1的數據矩陣。
此處的位置約束也可以理解為位置限制,而速度限制是保證粒子步長不超限制的,一般設置速度限制為[-1,1]。
粒子群的另一個特點就是記錄每個個體的歷史最優和種群的歷史最優,因此而二者對應的最優位置和最優值也需要初始化。其中每個個體的歷史最優位置可以先初始化為當前位置,而種群的歷史最優位置則可初始化為原點。對於最優值,如果求最大值則初始化為負無窮,相反地初始化為正無窮。
每次搜尋都需要將當前的適應度和最優解同歷史的記錄值進行對比,如果超過歷史最優值,則更新個體和種群的歷史最優位置和最優解。
速度和位置更新是粒子群演算法的核心,其原理表達式和更新方式:
每次更新完速度和位置都需要考慮速度和位置的限制,需要將其限制在規定范圍內,此處僅舉出一個常規方法,即將超約束的數據約束到邊界(當位置或者速度超出初始化限制時,將其拉回靠近的邊界處)。當然,你不用擔心他會停住不動,因為每個粒子還有慣性和其他兩個參數的影響。
粒子群演算法求平方和函數最小值,由於沒有特意指定函數自變數量綱,不進行數據歸一化。
③ pso的來源背景
為了說明粒子群優化演算法的發展和形成背景,首先介紹一下早期的簡單模型,即Boid(Bird-oid)模型。這個模型是為了模擬鳥群的行為而設計的,它也是粒子群優化演算法的直接來源。
一個最簡單的模型是這樣的:每一個鳥的個體用直角坐標繫上的點表示,隨機地給它們賦一個初速度和初位置,程序運行的每一步都按照「最近鄰速度匹配」規則,很快就會使得所有點的速度變得一樣。因為這個模擬太簡單而且遠離真實情況,於是在速度項中增加了一個隨機變數,即在迭代的每一步,除了滿足「最近鄰速度匹配」之外,每一步速度還要添加一個隨機變化的量,這樣使得整個模擬看起來更為真實。
Heppner設計了一個「谷地模型」來模擬鳥群的覓食行為。假設在平面上存在一個「谷地」,即食物所在地,鳥群開始時隨機地分散在平面上,為了尋覓食物所在地,它們按照如下規則運動:
首先假設谷地的位置坐標為(x0,y0),單個鳥的位置和速度坐標分別為和(x,y),用當前位置到谷地的距離s:來衡量當前位置和速度的「好壞程度」,離谷地的距離越近,則越「好」,反之越「壞」。假設每一個鳥具有記憶能力,能夠記住曾經達到的最好位置,記作pBest,並記a為系統規定的速度調節常數,rand為一個[0,1]間的隨機數,設定速度項按照下述規則變化:
然後假設群體之間可以以某種方式通訊,每個個體能夠知道並記住到當前為止整個群體的最好位置,記為gBest,記b為系統規定的速度調節常數,Rand為一個[0,1]間的隨機數,則速度項在經過以上調整後,還必須按照下述規則變化:
在計算機上模擬的結果顯示:當a/b較大時,所有的個體很快地聚集到「谷地」上;反之,粒子緩慢地搖擺著聚集到「谷地」的四周。通過這個簡單的模擬,發現群體能很快地找到一個簡單函數(2-1)的最優點。受該模型啟發,Kennedy和Eberhart設計出了一種演化優化演算法,並通過不斷的試驗和試錯,最後將此演算法的基本型固定為:
其中符號的意義同上。研究者認為每個個體被抽象為沒有質量和體積,而僅僅具有速度和位置的微粒,故將此方法稱為「粒子群」優化演算法。
據此,可對粒子群演算法小結如下:粒子群演算法是一種基於種群的搜索過程,其中每個個體稱作微粒,定義為在D維搜索空間中待優化問題的潛在解,保存有其歷史最優位置和所有粒子的最優位置的記憶,以及速度。在每一演化代,微粒的信息被組合起來調整速度關於每一維上的分量,繼而被用來計算新的微粒位置。微粒在多維搜索空間中不斷改變它們的狀態,直到到達平衡或最優狀態,或者超過了計算限制為止。問題空間的不同維度之間唯一的聯系是通過目標函數引入的。很多經驗證據已經顯示該演算法是一個非常有效的優化工具。微粒群優化演算法的流程圖見圖2-1。
以下給出微粒群演算法的比較完整的形式化表述。在連續空間坐標系中,微粒群演算法的數學描述如下:設微粒群體規模為N,其中每個微粒在D維空間中的坐標位置向量表示為,速度向量表示為,微粒個體最優位置(即該微粒經歷過的最優位置)記為,群體最優位置(即該微粒群中任意個體經歷過的最優位置)記為。不失一般性,以最小化問題為例,在最初版本的微粒群演算法中,個體最優位置的迭代公式為:
群體最優位置為個體最優位置中最好的位置。速度和位置迭代公式分別為:
由於初始版本在優化問題中應用時效果並不太好,所以初始演算法提出不久之後就出現了一種改進演算法,在速度迭代公式中引入了慣性權重ω,速度迭代公式變為:
雖然該改進演算法與初始版本相比復雜程度並沒有太大的增加,但是性能卻有了很大的提升,因而被廣泛使用。一般的,將該改進演算法稱為標准微粒群演算法,而將初始版本的演算法稱為原始微粒群演算法。
通過分析PSO演算法的收斂行為,Clerc介紹了一種帶收縮因子的PSO演算法變種,收縮因子保證了收斂性並提高了收斂速度。此時的速度迭代公式為:
顯然,迭代公式(2-7)和(2-8)並無本質區別,只要適當選取參數,二者完全相同。
微粒群演算法有兩種版本,分別稱為全局版本和局部版本。在全局版本中,微粒跟蹤的兩個極值為自身最優位置pBest和種群最優位置gBest。對應的,在局部版本中,微粒除了追隨自身最優位置pBest之外,不跟蹤種群最優位置gBest,而是跟蹤拓撲鄰域中的所有微粒的最優位置nBest。對於局部版本,速度更新公式(2-7)變為:
其中為局部鄰域中的最優位置。
每一代中任意微粒迭代的過程見圖2-2所示。從社會學的角度來看速度迭代公式,其中第一部分為微粒先前速度的影響,表示微粒對當前自身運動狀態的信任,依據自身的速度進行慣性運動,因此參數ω稱為慣性權重(Inertia Weight);第二部分取決於微粒當前位置與自身最優位置之間的距離,為「認知(Cognition)」部分,表示微粒本身的思考,即微粒的運動來源於自己經驗的部分,因此參數c1稱為認知學習因子(也可稱為認知加速因子);第三部分取決於微粒當前位置與群體中全局(或局部)最優位置之間的距離,為「社會(Social)」部分,表示微粒間的信息共享與相互合作,即微粒的運動來源於群體中其他微粒經驗的部分,它通過認知模擬了較好同伴的運動,因此參數c2稱為社會學習因子(也可稱為社會加速因子)。
自從PSO演算法被提出以來,由於它直觀的背景,簡單而容易實現的特點,以及對於不同類型函數廣泛的適應性,逐漸得到研究者的注意。十餘年來,PSO演算法的理論與應用研究都取得了很大的進展,對於演算法的原理已經有了初步的了解,演算法的應用也已經在不同學科中得以實現。
PSO演算法是一種隨機的、並行的優化演算法。它的優點是:不要求被優化函數具有可微、可導、連續等性質,收斂速度較快,演算法簡單,容易編程實現。然而,PSO演算法的缺點在於:(1)對於有多個局部極值點的函數,容易陷入到局部極值點中,得不到正確的結果。造成這種現象的原因有兩種,其一是由於待優化函數的性質;其二是由於微粒群演算法中微粒的多樣性迅速消失,造成早熟收斂。這兩個因素通常密不可分地糾纏在一起。(2)由於缺乏精密搜索方法的配合,PSO演算法往往不能得到精確的結果。造成這種問題的原因是PSO演算法並沒有很充分地利用計算過程中獲得的信息,在每一步迭代中,僅僅利用了群體最優和個體最優的信息。(3)PSO演算法雖然提供了全局搜索的可能,但是並不能保證收斂到全局最優點上。(4)PSO演算法是一種啟發式的仿生優化演算法,當前還沒有嚴格的理論基礎,僅僅是通過對某種群體搜索現象的簡化模擬而設計的,但並沒有從原理上說明這種演算法為什麼有效,以及它適用的范圍。因此,PSO演算法一般適用於一類高維的、存在多個局部極值點而並不需要得到很高精度解的優化問題。
當前針對PSO演算法開展的研究工作種類繁多,經歸納整理分為如下八個大類:(1)對PSO演算法進行理論分析,試圖理解其工作機理;(2)改變PSO演算法的結構,試圖獲得性能更好的演算法;(3)研究各種參數配置對PSO演算法的影響;(4)研究各種拓撲結構對PSO演算法的影響;(5)研究離散版本的PSO演算法;(6)研究PSO演算法的並行演算法;(7)利用PSO演算法對多種情況下的優化問題進行求解;(8)將PSO演算法應用到各個不同的工程領域。以下從這八大類別著手,對PSO演算法的研究現狀作一梳理。由於文獻太多,無法面面俱到,僅撿有代表性的加以綜述。
④ 粒子群演算法的引言
優化問題是工業設計中經常遇到的問題,許多問題最後都可以歸結為優化問題. 為了解決各種各樣的優化問題,人們提出了許多優化演算法,比較著名的有爬山法、遺傳演算法、神經網路演算法等. 一是要求尋找全局最優點,
二是要求有較高的收斂速度. 近年來,一些學者將PSO演算法推廣到約束優化問題,其關鍵在於如何處理好約束,即解的可行性。如果約束處理的不好,其優化的結果往往會出現不能夠收斂和結果是空集的狀況。基於PSO演算法的約束優化工作主要分為兩類:
(1)罰函數法。罰函數的目的是將約束優化問題轉化成無約束優化問題。
(2)將粒子群的搜索范圍都限制在條件約束簇內,即在可行解范圍內尋優。
根據文獻介紹,Parsopoulos等採用罰函數法,利用非固定多段映射函數對約束優化問題進行轉化,再利用PSO演算法求解轉化後問題,模擬結果顯示PSO演算法相對遺傳演算法更具有優越性,但其罰函數的設計過於復雜,不利於求解;Hu等採用可行解保留政策處理約束,即一方面更新存儲中所有粒子時僅保留可行解,另一方面在初始化階段所有粒子均從可行解空間取值,然而初始可行解空間對於許多問題是很難確定的;Ray等提出了具有多層信息共享策略的粒子群原理來處理約束,根據約束矩陣採用多層Pareto排序機制來產生優良粒子,進而用一些優良的粒子來決定其餘個體的搜索方向。
但是,目前有關運用PSO演算法方便實用地處理多約束目標優化問題的理論成果還不多。處理多約束優化問題的方法有很多,但用PSO演算法處理此類問題目前技術並不成熟,這里就不介紹了。 粒子群優化演算法(PSO)是一種進化計算技術(evolutionary computation),1995 年由Eberhart 博士和kennedy 博士提出,源於對鳥群捕食的行為研究 。該演算法最初是受到飛鳥集群活動的規律性啟發,進而利用群體智能建立的一個簡化模型。粒子群演算法在對動物集群活動行為觀察基礎上,利用群體中的個體對信息的共享使整個群體的運動在問題求解空間中產生從無序到有序的演化過程,從而獲得最優解。
PSO同遺傳演算法類似,是一種基於迭代的優化演算法。系統初始化為一組隨機解,通過迭代搜尋最優值。但是它沒有遺傳演算法用的交叉(crossover)以及變異(mutation),而是粒子在解空間追隨最優的粒子進行搜索。同遺傳演算法比較,PSO的優勢在於簡單容易實現並且沒有許多參數需要調整。目前已廣泛應用於函數優化,神經網路訓練,模糊系統控制以及其他遺傳演算法的應用領域。
⑤ 粒子群演算法的介紹
粒子群演算法,也稱粒子群優化演算法(Particle Swarm Optimization),縮寫為 PSO, 是近年來由J. Kennedy和R. C. Eberhart等1開發的一種新的進化演算法(Evolutionary Algorithm - EA)。PSO 演算法屬於進化演算法的一種,和模擬退火演算法相似,它也是從隨機解出發,通過迭代尋找最優解,它也是通過適應度來評價解的品質,但它比遺傳演算法規則更為簡單,它沒有遺傳演算法的「交叉」(Crossover) 和「變異」(Mutation) 操作,它通過追隨當前搜索到的最優值來尋找全局最優。這種演算法以其實現容易、精度高、收斂快等優點引起了學術界的重視,並且在解決實際問題中展示了其優越性。粒子群演算法是一種並行演算法。
⑥ 粒子群演算法屬於什麼學科
粒子群演算法屬於計算智能的范疇,如果按照學科分的話當然是計算機學科。
另外粒子群演算法是一種進化計算技術(evolutionary computation),1995 年由Eberhart 博士和kennedy 博士提出,源於對鳥群捕食的行為研究 。
——————————————————————————
另外關於計算智能的相關介紹便可以了解
計算智能的主要方法有人工神經網路、遺傳演算法、遺傳程序、演化程序、局部搜索、模擬退火等等。這些方法具有以下共同的要素:自適應的結構、隨機產生的或指定的初始狀態、適應度的評測函數、修改結構的操作、系統狀態存儲器、終止計算的條件、指示結果的方法、控制過程的參數。計算智能的這些方法具有自學習、自組織、自適應的特徵和簡單、通用、魯棒性強、適於並行處理的優點。在並行搜索、聯想記憶、模式識別、知識自動獲取等方面得到了廣泛的應用。
典型的代表如遺傳演算法、免疫演算法、模擬退火演算法、蟻群演算法、微粒群演算法(也就是粒子群演算法,翻譯不同罷了),都是一種仿生演算法,基於「從大自然中獲取智慧」的理念,通過人們對自然界獨特規律的認知,提取出適合獲取知識的一套計算工具。總的來說,通過自適應學習的特性,這些演算法達到了全局優化的目的。
⑦ 量子粒子群優化演算法到底是李士勇還是孫俊提出的
量子基金是全球著名的大規模對沖基金,美國金融家喬治·索羅斯旗下經營的五個對沖基金之一。量子基金是高風險基金,主要借款在世界范圍內投資於股票、債券、外匯和商品。量子美元基金在美國證券交易委員會登記注冊,它主要採取私募方式籌集資金。據說,索羅斯為之取名"量子",是源於索羅斯所贊賞的一位德國物理學家、量子力學的創始人海森堡提出"測不準定理"。索羅斯認為,就像微粒子的物理量子不可能具有確定數值一樣,證券市場也經常處在一種不確定狀態,很難去精確度量和估計。量子基金(QuantumFund)和配額基金(QuotaFund):都屬於對沖基金(HedgeFund)。其中前者的杠桿操作倍數為八倍、後者可達20倍,意味著後者的報酬率會比前者高、但投資風險也比前者來得大,根據Micropal的資料,量子基金的風險波動值為6.54,而配額基金則高達14.08。量子基金由雙鷹基金演變而來。雙鷹基金由索羅斯和吉姆·羅傑斯於1969年創立,資本額為400萬美元,基金設立在紐約,但其出資人皆為非美國國籍的境外投資者,從而避開美國證券交易委員會的監管。1973年,雙鷹基金改名為索羅斯基金,資本額約1200萬美元;1979年,索羅斯將公司更名為量子公司。至1997年末,量子基金已成為資產總值近60億美元的巨型基金。1969年注入量子基金的1萬美元在1996年底已增值至3億美元,增長了3萬倍。量子基金成為國際金融界的焦點,是由於索羅斯憑借該基金在20世紀90年代所發動的幾次大規模貨幣狙擊戰。這一時期,量子基金以其強大的財力和兇狠的作風,在國際貨幣市場上興風作浪,對基礎薄弱的貨幣發起攻擊並屢屢得手。
⑧ 粒子群優化參數尋優
研究PSO參數尋優中,採用粒子群演算法對SVM的參數(懲罰參數C,核函數參數σ)進行最優選擇。PSO是一種進化計算技術,由Eberhart和Kennedy於1995年提出,其思想源於鳥類捕食行為,演算法的數學描述如下(何同弟等,2011):
設在一個D維搜索空間中,由有m個粒子組成的一個群體,其中第i個粒子的位置表示為向量zi=(zi1,zi2,…,ziD),i=1,2,…,m。第i個粒子的飛行速度表示為向量vi=(vi1,vi2,…,viD),其搜索的最佳位置pi=(pi1,pi2,…,piD),整個粒子群搜索到的最優位置pg=(pg1,pg2,…,pgD)。找到這兩個最優位置時,各粒子根據如下公式更新自己的速度和位置:
高光譜遙感影像信息提取技術
式中:i=1,2,…,m;ψ是慣性權重函數,用來控制前面速度對當前速度的影響;c1和c2稱為加速因子,為非負常數;r1和r2是[0,1]的隨機數。
⑨ 什麼是粒子群演算法
Eberhart和Kennedy於1995年提出了粒子群優化演算法(PSO)[66]。PSO與GA有很多共同之處
⑩ 離散粒子群優化演算法的背景和意義是什麼
定義粒子群優化演算法(Particle Swarm optimization,PSO)又翻譯為粒子群演算法、微粒群演算法、或微粒群優化演算法。是通過模擬鳥群覓食行為而發展起來的一種基於群體協作的隨機搜索演算法。通常認為它是群集智能 (Swarm intelligence, SI) 的一種。它可以被納入多主體優化系統 (Multiagent Optimization System, MAOS). 粒子群優化演算法是由Eberhart博士和kennedy博士發明。PSO模擬鳥群的捕食行為PSO模擬鳥群的捕食行為。一群鳥在隨機搜索食物,在這個區域里只有一塊食物。所有的鳥都不知道食物在那裡。但是他們知道當前的位置離食物還有多遠。那麼找到食物的最優策略是什麼呢。最簡單有效的就是搜尋目前離食物最近的鳥的周圍區域。從模型中得到的啟示PSO從這種模型中得到啟示並用於解決優化問題。PSO中,每個優化問題的解都是搜索空間中的一隻鳥。我們稱之為「粒子」。所有的粒子都有一個由被優化的函數決定的適應值(fitnessvalue),每個粒子還有一個速度決定他們飛翔的方向和距離。然後粒子們就追隨當前的最優粒子在解空間中搜索。PSO初始化PSO初始化為一群隨機粒子(隨機解),然後通過疊代找到最優解,在每一次疊代中,粒子通過跟蹤兩個「極值」來更新自己。第一個就是粒子本身所找到的最優解,這個解叫做個體極值pBest,另一個極值是整個種群目前找到的最優解,這個極值是全局極值gBest。另外也可以不用整個種群而只是用其中一部分最優粒子的鄰居,那麼在所有鄰居中的極值就是局部極值。編輯本段演算法介紹在找到這兩個最優值時, 粒子根據如下的公式來更新自己的速度和新的位置v[] = v[] + c1 * rand() * (pbest[] - present[]) + c2 * rand() * (gbest[] - present[]) (a)present[] = persent[] + v[] (b)v[] 是粒子的速度, persent[] 是當前粒子的位置. pbest[] and gbest[] 如前定義 rand () 是介於(0, 1)之間的隨機數. c1, c2 是學習因子. 通常 c1 = c2 = 2.程序的偽代碼如下For each particle____Initialize particleENDDo____For each particle________Calculate fitness value________If the fitness value is better than the best fitness value (pBest) in history____________set current value as the new pBest____End____Choose the particle with the best fitness value of all the particles as the gBest____For each particle________Calculate particle velocity according equation (a)________Update particle position according equation (b)____EndWhile maximum iterations or minimum error criteria is not attained在每一維粒子的速度都會被限制在一個最大速度Vmax,如果某一維更新後的速度超過用戶設定的Vmax,那麼這一維的速度就被限定為Vmax。編輯本段遺傳演算法和PSO的比較共同點①種群隨機初始化。②對種群內的每一個個體計算適應值(fitness value)。適應值與最優解的距離直接有關。③種群根據適應值進行復制 。④如果終止條件滿足的話,就停止,否則轉步驟② 。從以上步驟,我們可以看到PSO和遺傳演算法有很多共同之處。兩者都隨機初始化種群,而且都使用適應值來評價系統,而且都根據適應值來進行一定的隨機搜索。兩個系統都不是保證一定找到最優解。但是,PSO沒有遺傳操作如交叉(crossover)和變異(mutation),而是根據自己的速度來決定搜索。粒子還有一個重要的特點,就是有記憶。不同點與遺傳演算法比較,PSO的信息共享機制是很不同的。在遺傳演算法中,染色體(chromosomes)互相共享信息,所以整個種群的移動是比較均勻的向最優區域移動。在PSO中, 只有gBest (orlBest) 給出信息給其他的粒子, 這是單向的信息流動。整個搜索更新過程是跟隨當前最優解的過程。與遺傳演算法比較, 在大多數的情況下,所有的粒子可能更快的收斂於最優解。編輯本段人工神經網路和PSO定義人工神經網路(ANN)是模擬大腦分析過程的簡單數學模型,反向轉播演算法是最流行的神經網路訓練演算法。進來也有很多研究開始利用演化計算(evolutionary computation)技術來研究人工神經網路的各個方面。研究方面演化計算可以用來研究神經網路的三個方面:網路連接權重,網路結構(網路拓撲結構,傳遞函數),網路學習演算法。不過大多數這方面的工作都集中在網路連接權重,和網路拓撲結構上。在GA中,網路權重和/或拓撲結構一般編碼為染色體(Chromosome),適應函數(fitness function)的選擇一般根據研究目的確定。例如在分類問題中,錯誤分類的比率可以用來作為適應值優缺點演化計算的優勢在於可以處理一些傳統方法不能處理的例子例如不可導的節點傳遞函數或者沒有梯度信息存在。但是缺點在於:1、在某些問題上性能並不是特別好。2. 網路權重的編碼而且遺傳運算元的選擇有時比較麻煩。最近已經有一些利用PSO來代替反向傳播演算法來訓練神經網路的論文。研究表明PSO 是一種很有潛力的神經網路演算法。PSO速度比較快而且可以得到比較好的結果。而且還沒有遺傳演算法碰到的問題。舉例這里用一個簡單的例子說明PSO訓練神經網路的過程。這個例子使用分類問題的基準函數 (Benchmark function)IRIS數據集。(Iris 是一種鳶尾屬植物) 在數據記錄中,每組數據包含Iris花的四種屬性:萼片長度,萼片寬度,花瓣長度,和花瓣寬度,三種不同的花各有50組數據. 這樣總共有150組數據或模式。我們用3層的神經網路來做分類。現在有四個輸入和三個輸出。所以神經網路的輸入層有4個節點,輸出層有3個節點我們也可以動態調節隱含層節點的數目,不過這里我們假定隱含層有6個節點。我們也可以訓練神經網路中其他的參數。不過這里我們只是來確定網路權重。粒子就表示神經網路的一組權重,應該是4*6+6*3=42個參數。權重的范圍設定為[-100,100] (這只是一個例子,在實際情況中可能需要試驗調整).在完成編碼以後,我們需要確定適應函數。對於分類問題,我們把所有的數據送入神經網路,網路的權重有粒子的參數決定。然後記錄所有的錯誤分類的數目作為那個粒子的適應值。現在我們就利用PSO來訓練神經網路來獲得盡可能低的錯誤分類數目。PSO本身並沒有很多的參數需要調整。所以在實驗中只需要調整隱含層的節點數目和權重的范圍以取得較好的分類效果。