㈠ 無監督和有監督演算法的區別
1、有監督學習 :通過已有的訓練樣本去訓練得到一個最優模型,再利用這個模型將所有的輸入映射為相應的輸出,對輸出進行簡單的判斷從而實現預測和分類的目的,也就具有了對未知數據進行預測和分類的能力。就如有標准答案的練習題,然後再去考試,相比沒有答案的練習題然後去考試准確率更高。又如我們小的時候不知道牛和鳥是否屬於一類,但當我們隨著長大各種知識不斷輸入,我們腦中的模型越來越准確,判斷動物也越來越准確。
有監督學習可分為 回歸和分類 。
回歸: 即給出一堆自變數X和因變數Y,擬合出一個函數,這些自變數X就是特徵向量,因變數Y就是標簽。 而且標簽的值 連續 的,例LR。
分類 :其數據集,由特徵向量X和它們的標簽Y組成,當你利用數據訓練出模型後,給你一個只知道特徵向量不知道標簽的數據,讓你求它的標簽是哪一個?其輸出結果是 離散 的。例如logistics、SVM、KNN等。
2、無監督學習: 我們事先沒有任何訓練樣本,而需要直接對數據進行建模。比如我們去參觀一個畫展,我們完全對藝術一無所知,但是欣賞完多幅作品之後,我們也能把它們分成不同的派別。無監督學習主要演算法是聚類,聚類目的在於把相似的東西聚在一起,主要通過計算樣本間和群體間距離得到,主要演算法包括Kmeans、層次聚類、EM演算法。
㈡ 有監督和無監督
1).監督式演算法:
具有一個標準的本體,演算法通過學習對數據進行預測,從而與本體進行比較。(我知道我想要得到什麼)對數據,一部分數據用於訓練模型,另一部分用於比較模型的正確率,有多少的匹配度就是多少的正確率。
2).無監督式演算法:
不具有標準的本體,對於數據量龐大的數據集,我們想要找到其中隱藏的一些關系,則採用無監督式演算法。需要將數據轉化為一種有意義可比較的格式,最終得到的會是具有一定關系的集合。但是是否是我們想要的集合取決於我們自己。可以進行強制的刪減某些數據以達到我們預期的特定分割。
3).強化式演算法:
研究試圖對強化學習模型進行逆向反饋以改進問題和技術的一種演算法。是一種延時的機制。是一個連續做決策的過程,在一個過程中輸入的數據的返回值會影響到下一個輸入數據的返回值。演算法定義了reward,由於自己能夠察覺到signal並進行自己定義的action,演算法需要將結果與reward進行比較,最終反饋以改進模型。RL沒有被嚴格地監督,因為它不嚴格地依賴於受監督(或標記)數據集(訓練集)。它實際上依賴於能夠監控所採取行動的反應,並根據對獎勵的定義來衡量。但這也不是沒有監督的學習,因為我們知道,當我們對學習者進行建模時,這就是預期的回報。
㈢ 有監督和無監督學習都各有哪些有名的演算法和深度學習
深度學習
編輯
深度學習的概念源於人工神經網路的研究。含多隱層的多層感知器就是一種深度學習結構。深度學習通過組合低層特徵形成更加抽象的高層表示屬性類別或特徵,以發現數據的分布式特徵表示。[1]
深度學習的概念由Hinton等人於2006年提出。基於深度置信網路(DBN)提出非監督貪心逐層訓練演算法,為解決深層結構相關的優化難題帶來希望,隨後提出多層自動編碼器深層結構。此外Lecun等人提出的卷積神經網路是第一個真正多層結構學習演算法,它利用空間相對關系減少參數數目以提高訓練性能。[1]
深度學習是機器學習研究中的一個新的領域,其動機在於建立、模擬人腦進行分析學習的神經網路,它模仿人腦的機制來解釋數據,例如圖像,聲音和文本。[2]
㈣ 常見的監督學習演算法
K-近鄰演算法,決策樹,樸素貝葉斯,邏輯回歸這些都是比較常見的。所有的回歸演算法和分類演算法都屬於監督學習。
在機器學習中,無監督學習就是聚類,事先不知道樣本的類別,通過某種辦法,把相似的樣本放在一起歸位一類;而監督型學習就是有訓練樣本,帶有屬性標簽,也可以理解成樣本有輸入有輸出。
回歸和分類的演算法區別在於輸出變數的類型,定量輸出稱為回歸,或者說是連續變數預測;定性輸出稱為分類,或者說是離散變數預測。
㈤ 有監督學習和無監督學習演算法怎麼理解
在判斷是有監督學習還是在無監督學習上,我們可以具體是否有監督(supervised),就看輸入數據是否有標簽(label)。輸入數據有標簽,則為有監督學習,沒標簽則為無監督學習。
什麼是學習(learning)?
一個成語就可概括:舉一反三。機器學習的思路有點類似高考一套套做模擬試題,從而熟悉各種題型,能夠面對陌生的問題時算出答案。
簡而言之,機器學習就是看能不能利用一些訓練數據(已經做過的題),使機器能夠利用它們(解題方法)分析未知數據(高考題目),而這種根據類別未知(沒有被標記)的訓練樣本解決模式識別中的各種問題,稱之為無監督學習。
常用的無監督學習演算法主要有三種:聚類、離散點檢測和降維,包括主成分分析方法PCA等,等距映射方法、局部線性嵌入方法、拉普拉斯特徵映射方法、黑塞局部線性嵌入方法和局部切空間排列方法等。
從原理上來說,PCA等數據降維演算法同樣適用於深度學習,但是這些數據降維方法復雜度較高,所以現在深度學習中採用的無監督學習方法通常採用較為簡單的演算法和直觀的評價標准。比如無監督學習中最常用且典型方法聚類。
在無監督學習中,我們需要將一系列無標簽的訓練數據,輸入到一個演算法中,然後我們告訴這個演算法,快去為我們找找這個數據的內在結構給定數據。這時就需要某種演算法幫助我們尋找一種結構。
監督學習(supervised learning),是從給定的有標注的訓練數據集中學習出一個函數(模型參數),當新的數據到來時可以根據這個函數預測結果。 常見任務包括分類與回歸。
無監督學習方法在尋找數據集中的規律性,這種規律性並不一定要達到劃分數據集的目的,也就是說不一定要「分類」。比如,一組顏色各異的積木,它可以按形狀為維度來分類,也可以按顏色為維度來分類。(這一點比監督學習方法的用途要廣。如分析一堆數據的主分量,或分析數據集有什麼特點都可以歸於無監督學習方法的范疇) ,而有監督學習則是通過已經有的有標簽的數據集去訓練得到一個最優模型。