導航:首頁 > 文檔加密 > 馬爾科夫pdf

馬爾科夫pdf

發布時間:2024-08-03 17:57:18

Ⅰ Metropolis法和Metropolis-Hastings法有什麼區別嗎各自的優點是什麼呢感謝大神

原文鏈接:http://tecdat.cn/?p=19664

MCMC是從復雜概率模型中采樣的通用技術。

Ⅱ 概率論中的PDF(probability density function)和PMF(probability mass function)有什麼區別

1、用法

PDF:對連續性隨機變數的定義。與PMF不同的是PDF在特定點上的值並不是該點的概率, 連續隨機概率事件只能求一段區域內發生事件的概率, 通過對這段區間進行積分來求。

PMF:對離散隨機變數的定義。是離散隨機變數在各個特定取值的概率。

2、寫法

PDF:一般寫法是一個函數。

例如:

f(x)=e^(-x),

積分得到∫f(x)dx=1.

PMF:一般寫法是寫成對應每一個特定取值的概率。

例如:

P{x=xi}=1/15.

(2)馬爾科夫pdf擴展閱讀:

發展過程

起源

概率論是研究隨機現象數量規律的數學分支,是一門研究事情發生的可能性的學問。但是最初概率論的起源與賭博問題有關。16世紀,義大利的學者吉羅拉莫·卡爾達諾(Girolamo Cardano)開始研究擲骰子等賭博中的一些簡單問題。

概率與統計的一些概念和簡單的方法,早期主要用於賭博和人口統計模型。隨著人類的社會實踐,人們需要了解各種不確定現象中隱含的必然規律性,並用數學方法研究各種結果出現的可能性大小,從而產生了概率論,並使之逐步發展成一門嚴謹的學科。概率與統計的方法日益滲透到各個領域,並廣泛應用於自然科學、經濟學、醫學、金融保險甚至人文科學中。

發展

隨著18、19世紀科學的發展,人們注意到在某些生物、物理和社會現象與機會游戲之間有某種相似性,從而由機會游戲起源的概率論被應用到這些領域中;同時這也大大推動了概率論本身的發展。使概率論成為數學的一個分支的奠基人是瑞士數學家伯努利,他建立了概率論中第一個極限定理,即伯努利大數定律,闡明了事件的頻率穩定於它的概率。

隨後棣莫弗和拉普拉斯又導出了第 二個基本極限定理(中心極限定理)的原始形式。

拉普拉斯在系統總結前人工作的基礎上寫出了《分析的概率理論》,明確給出了概率的古典定義,並在概率論中引入了更有力的分析工具,將概率論推向一個新的發展階段。

19世紀末,俄國數學家切比雪夫、馬爾可夫、李亞普諾夫等人用分析方法建立了大數定律及中心極限定理的一般形式,科學地解釋了為什麼實際中遇到的許多隨機變數近似服從正態分布。20世紀初受物理學的刺激,人們開始研究隨機過程。這方面柯爾莫哥洛夫、維納、馬爾可夫、辛欽、萊維及費勒等人作了傑出的貢獻。

參考資料來源:網路-概率論



Ⅲ pattern recognition and machine learning這本書怎麼看

作者:Richardmore
這本書可以說是機器學習的經典學習之作。以前在上機器學習這么課的時候,很多細節還沒聯繫到,結果在讀論文中就顯得捉襟見肘。本文打算理清楚這本書的脈絡,也順便為學習機器學習的人打下一個學習路線圖。

1. 排除兩塊內容

現排除第五章的內容神經網路,之所以把神經網路先單列出來,原因一是一個比較獨立的研究脈絡,二是因為這部分因為深度學習的原因太熱了,所以我認為在學習機器學習中把神經網路單列出來學習,在交大的研究生課程安排中,神經網路是機器學習的後續課程。
對於第6,7章,也不在下面的學習路線中,因為這部分是關於核技巧方面的,主要是就是高斯過程回歸,高斯過程分類以及SVM等內容。
2. 一個概率圖框架為中心視角

排除了上面幾章的內容,PRML書中可以用下面的學習路線圖覆蓋,通過這個圖可以理清楚了各個內容的不同角色。
<img src="https://pic3.mg.com/_b.png" data-rawwidth="1888" data-rawheight="412" class="origin_image zh-lightbox-thumb" width="1888" data-original="https://pic3.mg.com/_r.png">

說明:
(1)一般模型中都會有隱變數因此,,因此對於P(X)的採用MLE學習的另一個技巧,便是第九章 EM演算法。條件是在M步時,Q要可以被analytically computed。
(2)至於為什麼近似,Exact Inference is hard we resort to approximation
3. 隱變數技巧

下面我們看看另外一個視角:隱變數技巧。隱變數不僅可以使得模型的表達能力豐富起來,而且通常對於隱變數往往富有一定的實際意義。

<img src="https://pic1.mg.com/_b.png" data-rawwidth="1764" data-rawheight="422" class="origin_image zh-lightbox-thumb" width="1764" data-original="https://pic1.mg.com/_r.png">

說明:
(1)這里所謂的結合模型中,在PRML中最後一章僅僅提到了以加法的方式進行模型集合,也就是mixture of experts,在論文Hinton G E. Training procts of experts by minimizing contrastive divergence[J]. Neural computation, 2002, 14(8): 1771-1800. 提出了proct of experts 模型,也就是以乘法的方式進行結合,RBM就是一種特殊的proct of experts 模型,而高斯混合模型便是加法模型的代表。
(2)隱變數的技巧是機器學習中一種重要的技巧,隱變數的加入不僅僅增加了模型的表達能力,而且,隱變數還可以被賦予某種特殊的意義,比如RBM模型中隱變數h被當成顯變數v的特徵抽象。這當然歸根結底是因為隱變數模型確實是現實世界真實存在的情況,unobserved but important variables do exist! 當然隱變數的引入也為模型的推斷帶來了新的挑戰,有很多比較好的隱變數模型往往找不到很高效的方法,而被限制著。
4. 例子說明

下面分別從上面兩個視角來分析RBM模型,貝葉斯線性回歸和序列模型。
4.1 RBM模型
RBM模型是一個無向2層對稱的圖模型,從隱變數的視角來看,它是一個以乘法方式結合的distributed models。當然隱變數的引入增加了模型的復雜性和表達能力,但是也為學習,推斷帶來了問題。對於RBM的參數學習,因為是無向圖,所以採用MLE最大化P(X),但是由於此時P(X,Z)難以評估,所以
<img src="https://pic2.mg.com/v2-_b.png" data-rawwidth="834" data-rawheight="94" class="origin_image zh-lightbox-thumb" width="834" data-original="https://pic2.mg.com/v2-_r.png">
很難計算,沒有在RBM的學習中不能像高斯混合模型那樣可以採取EM演算法。因此只能採取最為標準的做法,求取P(X)的梯度,結果梯度公式如下:
<img src="https://pic2.mg.com/v2-_b.png" data-rawwidth="800" data-rawheight="90" class="origin_image zh-lightbox-thumb" width="800" data-original="https://pic2.mg.com/v2-_r.png">

然而對於計算後面的model部分的積分需要知道模型的概率分布,評估模型的概率分布需要計算一個標准化的分母,難以計算。因此就需要依賴近似,由於p(v|h),p(h|v)都是可以分析公式表達,因此採用Gibbs sampler來數值逼近積分。當然後來Hinton G E. Training procts of experts by minimizing contrastive divergence[J].發現對於這一部分,Gibbs sampler 不需要多部的迭代,一次迭代就可以了,從而使的訓練RBM的時間代價大大降低了,後來(A fast learning algorithm for deep belief nets,2006)提出了貪婪式的訓練多層DBN(stacked RBM),每層都是訓練RBM,從而使的深度學習煥發新的活力(Recing the dimensionality of data with neural networks,2006)。

4.2 貝葉斯線性回歸Bayesian Linear Regression BLR

這個模型是最為基礎的,這個模型在PRML中,利用直接推斷,變分法推斷,MCMC采樣都是可以做的;因此便於比較不同演算法得到的結果。之前,本來打算在這里以LDA主題模型來舉例,雖然LDA的EM演算法, 變分法,以及Gibbs sampling 都是可以做的,但是模型太復雜,所以果斷放棄了,以BLR模型作為例子說明。
BLR是一個有向圖模型,是一個典型的貝葉斯網路(雖然簡單一點)。如果以一個貝葉斯的視角來看,其中的隱變數便是線性參數w,以及各種超參數α,β.....,在貝葉斯的處理視角之下,這些都會賦予一個先驗分布。當然,有些模型書中也提到,有不同層次上的貝葉斯網路。有的是僅僅對參數w賦予一個先驗分布,而對於其他的參數(hyperparameter)僅僅是作為模型參數,就是假設是一個渡固定的數值,然後再通過learn evidence function,其實說白了就是MLE,來尋找最佳的超參數α,β....。相比於把線性參數w,以及各種超參數α,β.....全部作為放入到貝葉斯網路中,這樣的做法顯然簡化了模型,降低了貝葉斯網路的復雜性。這個技巧也在多處的論文中出現。
從隱變數的角度來看,由於BLR模型相對簡單,其中並沒有隨機隱變數,僅僅是一些參數w,以及各種超參數α,β..的環境隱變數。
4.3 序列模型:隱馬爾可夫鏈HMM與條件隨機CRF

隱馬爾可夫鏈HMM這個模型是一個有向圖模型,典型的貝葉斯網路,只不過這個網路是一個線性鏈(linear chains),因此可以進行分析上推斷,要知道對於一般網路,並不存在通用的實用的inference演算法。因為HMM是一個有向圖模型。但是(1)在PRML書中,以及李航《統計學習》中並沒有把其當作一個貝葉斯網路來進行處理,對所有的參數比如發射概率,轉移矩陣概率都是模型的參數,而不是通過賦予一個先驗分布,從而納入到貝葉斯網路框架之中。因此對於模型而言,關鍵的便是通過MLE最大化P(X)來學習模型的參數,因為這里的有隱變數,因此在PRML,以及《統計學習》中都是通過EM演算法做的。(2)其實,HMM是一個典型的線性鏈式的貝葉斯網路,因此對於通過對其參數賦予先驗分布,進而從貝葉斯的角度,來對模型進行推斷是一個非常自然的想法。我在論文Sharon Goldwater, Thomas L Griffiths 論文 A Fully Bayesian Approach to Unsupervised Part-of-Speech Tagging,中作者採用了Bayesian HMM 重新做了POS任務。作者在文中還詳細羅列了Bayesian HMM 相比普通的HMM的優點:(a)可以使用先驗知識,例如在POS中語言的認知可以加入到先驗分布之中,而且(b)貝葉斯的推斷,是通過一個後驗分布推斷參數,相比MLE點估計,會更加准確。對於貝葉斯的推斷,作者在文中使用了Gibbs sample抽樣實現了數值采樣推斷模型。最後作者比較了Gibbs sample+Bayesian HMM和普通的HMM +EM,在POS任務效果更加好。另外,對於本論文的作者Thomas L Griffiths,第一次接觸這個學者,是在讀Gibbs sample in LDA這篇文章,作者推導了LDA的各種的條件分布,然後基於Gibbs sample 進行采樣,記得Github上有Java版的實現代碼,其推導十分嚴謹,並且有代碼輔助,是學習LDA的一個捷徑。在近似推斷方面可以看出Thomas L Griffiths是一個堅定的數值采樣學派,而LDA的開山之作《Latent Dirichlet Allocation 》的作者David M. Blei,看了作者部分文章以後,發現這個人是在近似推斷方面是一個變分法的堅定學派,在《Latent Dirichlet Allocation 》之中,便是通過變分法進行推斷了,David M. Blei還寫了一個關於變分法的入門講義pdf,網上可以搜到。所以回看我們概率圖視角,做機器學習推斷是不可避免的,有的是變分法近似,有的是數值采樣近似,也有的是EM演算法試一試。至於選擇哪一種,就看你的問題哪一個比較簡單了。但是好像有的人對這些方面各有偏愛。
再說一下條件隨機場CRF,相比與HMM,這也是一個序列模型,在很多的NLP任務中,CRF都是state of art 的演算法,畢竟人家可以方便的特徵工程嘛。但是這種日子被深度學習取代了,在NLP方面,RNN(遞歸神經網路)要比CRF表現更好,見我之前博文基於RNN做語義理解和詞向量。先不說這么遠,CRF的模型架構上是一個典型的無向的鏈式概率圖模型,因此,(回看我們概率圖的視角),CRF的關鍵問題便是如何進行學習了P(X),好在求其該模型直接求其梯度並沒有太大的困難,具體可以參見李航的《統計學習》。
5 結束語

這篇文章,從概率圖,隱變數兩個視角對PRML中各個章節進行了串聯,並以RBM,BLR,序列模型(HMM&CRF)具體說明這種串聯。

閱讀全文

與馬爾科夫pdf相關的資料

熱點內容
360壓縮咋加密 瀏覽:352
hadoopmapreduce編程 瀏覽:300
linuxraid軟體 瀏覽:587
北美gre範文pdf 瀏覽:262
硬碟錄像機接什麼伺服器設備 瀏覽:500
智慧醫療方面最優演算法 瀏覽:920
伺服器ban掉了是什麼意思 瀏覽:394
vvo手機拍的視頻在哪個文件夾 瀏覽:838
華為防火牆cli命令手冊 瀏覽:895
於正新劇玉樓春在什麼App播放 瀏覽:127
學習社會經驗下載什麼app 瀏覽:475
php發布站程序 瀏覽:204
源碼編譯ntfs內核模塊 瀏覽:120
r11s手機管家沒有加密 瀏覽:781
怎麼看電腦連接哪個伺服器 瀏覽:191
二手伺服器設備欺詐如何解決 瀏覽:877
單片機伺服器安裝win10 瀏覽:658
胸椎壓縮性骨折傷殘 瀏覽:954
mt怎麼解壓文件 瀏覽:41
達芬奇項目伺服器有什麼用 瀏覽:854