㈠ 急:電力系統PQ分解潮流演算法與牛頓拉夫遜潮流演算法的區別有哪幾點
區別有以下幾點
1pq分解法用兩個對角矩陣代替了以前的大矩陣,儲存量小了
2 矩陣是不變系數的,代替了牛拉法變系數矩陣,計算量小了
3 pq分解法矩陣是對稱矩陣,牛拉法是不對稱矩陣
4 pq分解法單次運算速度很快,但是計算是線性收斂,迭代次數增加;牛拉法單次運算很慢,但是平方收斂。總體來看,pq分解法的速度要快於牛拉法
純手打,望採納
㈡ 電力系統計算機潮流計算問題,謝!
一:牛頓潮流演算法的特點
1)其優點是收斂速度快,若初值較好,演算法將具有平方收斂特性,一般迭代4~5 次便可以
收斂到非常精確的解,而且其迭代次數與所計算網路的規模基本無關。
2)牛頓法也具有良好的收斂可靠性,對於對高斯-塞德爾法呈病態的系統,牛頓法均能可靠
地斂。
3)初值對牛頓法的收斂性影響很大。解決的辦法可以先用高斯-塞德爾法迭代1~2 次,以
此迭代結果作為牛頓法的初值。也可以先用直流法潮流求解一次求得一個較好的角度初值,
然後轉入牛頓法迭代。
PQ法特點:
(1)用解兩個階數幾乎減半的方程組(n-1 階和n-m-1 階)代替牛頓法的解一個(2n-m-2)階方程
組,顯著地減少了內存需求量及計算量。
(2)牛頓法每次迭代都要重新形成雅可比矩陣並進行三角分解,而P-Q 分解法的系數矩陣 B』
和B』』是常數陣,因此只需形成一次並進行三角分解組成因子表,在迭代過程可以反復應用,
顯著縮短了每次迭代所需的時間。
(3)雅可比矩陣J 不對稱,而B』和B』』都是對稱陣,為此只要形成並貯存因子表的上三角或下
三角部分,減少了三角分解的計算量並節約了內存。由於上述原因,P-Q 分解法所需的內存
量約為牛頓法的60%,而每次迭代所需時間約為牛頓法的1/5。
二:因為牛頓法每次迭代都要重新生成雅克比矩陣,而PQ法的迭代矩陣是常數陣(第一次形成的)。參數一變,用PQ法已做的工作相當於白做了,相當於重新算,次數必然增多。
㈢ 牛頓法和PQ法的原理是什麼
這是牛頓法原理
把非線性函數f(x)在x = 0處展開成泰勒級數
牛頓法
取其線性部分,作為非線性方程f(x)=0的近似方程,則有
f(0 )+(x-0 ) f′(0 )=0
設f′(0 )≠0?,則其解為x = - xf(1)
再把f(x)在x 處展開為泰勒級數,取其線性部分為f(x)=0的近似方程,若f′(x ) ≠0,則得x = - 如此繼續下去,得到牛頓法的迭代公式:x = - ...(n=0,1,2,…) (2)
例1 用牛頓法求方程f(x)=x +4x -10=0在[1,2]內一個實根,取初始近似值x =1.5。 解 ?f′(x)=3x +8x??所以迭代公式為:
x = -... n=0,1, 2,...
列表計算如下:
n
0
1
2
3
1.5
1.3733333
1.36526201
1.36523001
㈣ 大數據自上而下提升統計和演算法的效率
大數據自上而下提升統計和演算法的效率
我們在去開發這些計算體系時,不管是軟體、計算,其實都是在談大數據分析的概念性,什麼時候出現問題,我們如何達到高准確度,這只是這個問題的開始。其實作為一個計算科學家,我們經常會遇到很多的問題,有些是統計學方面的問題,但是我們沒有聯合統計學家一起考慮和解決這些問題。
比如說這個結果的一致性,那麼還有引導程序的理論,那麼就像常規的引導程序一樣,都會達到一些限值,從上至下的計算,統計學的利弊權衡,什麼意思呢?我們對數據計算的理解,也就是說更多的數據需要更多的計算,更多的計算能力。我們如何來做?到底是並行處理?還是子樣抽取等等。你給我更多的數據,我會更高興,因為我能夠獲得更高的准確度,我的錯誤會更小,我會以更低的成本獲得更正確的答案。對於統計學家來說這是好的,但是對於做計算的來說這個不大好,因為我們將這樣思考這個問題。也就是說給我一些數據,那麼我們有一個新的觀念,叫做控制的演算法弱化,比如說我的數據量不夠,我可以快速的處理它。數據太多,我的處理速度會慢下來。從計算角度來說,控制的演算法能夠讓我更快速的處理數據,也就是演算法的弱化。統計學的角度來說,能夠處理更多的數據,獲得更好的統計學上的答案性能提高。盡管計算的預算成本不變,但是我們能夠處理更多的數據,以更快的速度,我們付出的代價就是演算法的弱化。
那麼,這個坐標你們不經常看,橫軸指我們取樣的數量,縱軸代表的是運行時間。我們看一下到底有多少的錯誤。我們現在就要思考固定風險。比如說在我們錯誤率是0.01,這個座標的區域,對於統計學家來說,如果要固定風險的話,那麼必須有一定數量的樣品,才能夠獲得這樣的結果。所以,這是一個叫做典型的預計理論,大家都非常了解。同樣對於在計算機科學方面,我們有所謂的負載均衡的概念,不管你有多少個樣本,但是你一定要有足夠的運營時間,否則的話,你是無法解決這個問題的,這是非常明確的一點。
所以,我們看一下實際的演算法。有一定的運行時間,有固定的風險,在右邊使用的所有演算法,把演算法弱化,我們就可以處理更多的數據。下面我來談一下,這就是我們所說的問題降噪,所謂降噪就是在數據方面有一些屬於製造噪音的數據。我們如何做降噪?首先,我們假設可能的答案是X這樣的一個分樣,然後用高准確度覆蓋它,所以這是一個推理預估的過程。比如說我要找到X的值,它和Y是非常相似的,這是一個自然的預估。現在X是一個非常復雜的值,我無法做,所以我要做一個凸形的值域,我要做定性,同時可以獲得最優點,我需要把它放在一個可行的規模大小之內,那麼也就是任何一個固定風險都是基於X的。左邊是風險,我需要它的一半,這里存在復雜性,如果想知道更多的復雜性,你們可以看一些所謂理論處理方面的文獻,你們可以讀一下,來做這樣均衡的曲線。
我們看一下相關的內容,如果你要達到一定的風險,你必須要有一定的取樣點。這是一個C,也許這個C也是計算方面很難算出來的,所以我們需要做C子集的,把這個子集進行弱化,這樣我們就可以更好的計算了。我們可以做分層的層級,我們稱為池域,並且根據計算的復雜度進行排序的。同時,還有統計學的復雜性,然後進行一個權衡。你們可以從數學計算出這個曲線。在這里舉個例子,比如說X,剛才已經有人介紹過子集是什麼意思,然後你們可以定運行時間,還有取樣的復雜性,然後可以算出答案。你們看一下簡單的C,復雜的C,然後你們看一下運行的時間是在下降,復雜性是一個恆值,這樣你的演算法更簡單,可以用於大數據,既不會不會增加風險,也可以在舉證方面更加簡化。如果是一個信號的圖值,你的運行時間由PQ值決定,你們還有一個域值的話,我們會有一個恆定的取樣,大家可以同時按照「列」計算,獲得我們預期的准確度,而運行時間不變,大家可以自己看這些公式。
那麼,這種分析我希望大家能夠記住的是和這種理論計算科學,重點就是能夠把准確度放到一個水平。因為我們要去關心有關質量方面、統計學方面的風險,計算科學方面的演算法能夠幫助我們解決比較大的問題,就是大數據帶來的大問題。同時,我們還有很多的數據理論可以適用,我們不要從統計學簡單的角度來考慮,而是從計算的角度考慮。
也許你們還要去學一些統計學方面的基本理論,當然如果你們是學統計學的話,你們也要參加計算機科學的課程。對於兩門都學的人,你們應該把這兩個學科放到一起思考,不是統計學家只考慮統計學,計算機科學家只考慮計算機方面,我們需要解決統計學方面的風險。因此,我們可以更好的處理十萬個采樣點,都不會遇到問題。