⑴ 機器學習新手必看十大演算法
機器學習新手必看十大演算法
本文介紹了機器學習新手需要了解的 10 大演算法,包括線性回歸、Logistic 回歸、樸素貝葉斯、K 近鄰演算法等。
在機器學習中,有一種叫做「沒有免費的午餐」的定理。簡而言之,它指出沒有任何一種演算法對所有問題都有效,在監督學習(即預測建模)中尤其如此。
例如,你不能說神經網路總是比決策樹好,反之亦然。有很多因素在起作用,例如數據集的大小和結構。
因此,你應該針對具體問題嘗試多種不同演算法,並留出一個數據「測試集」來評估性能、選出優勝者。
當然,你嘗試的演算法必須適合你的問題,也就是選擇正確的機器學習任務。打個比方,如果你需要打掃房子,你可能會用吸塵器、掃帚或拖把,但是你不會拿出鏟子開始挖土。
大原則
不過也有一個普遍原則,即所有監督機器學習演算法預測建模的基礎。
機器學習演算法被描述為學習一個目標函數 f,該函數將輸入變數 X 最好地映射到輸出變數 Y:Y = f(X)
這是一個普遍的學習任務,我們可以根據輸入變數 X 的新樣本對 Y 進行預測。我們不知道函數 f 的樣子或形式。如果我們知道的話,我們將會直接使用它,不需要用機器學習演算法從數據中學習。
最常見的機器學習演算法是學習映射 Y = f(X) 來預測新 X 的 Y。這叫做預測建模或預測分析,我們的目標是盡可能作出最准確的預測。
對於想了解機器學習基礎知識的新手,本文將概述數據科學家使用的 top 10 機器學習演算法。
1. 線性回歸
線性回歸可能是統計學和機器學習中最知名和最易理解的演算法之一。
預測建模主要關注最小化模型誤差或者盡可能作出最准確的預測,以可解釋性為代價。我們將借用、重用包括統計學在內的很多不同領域的演算法,並將其用於這些目的。
線性回歸的表示是一個方程,它通過找到輸入變數的特定權重(稱為系數 B),來描述一條最適合表示輸入變數 x 與輸出變數 y 關系的直線。
線性回歸
例如:y = B0 + B1 * x
我們將根據輸入 x 預測 y,線性回歸學習演算法的目標是找到系數 B0 和 B1 的值。
可以使用不同的技術從數據中學習線性回歸模型,例如用於普通最小二乘法和梯度下降優化的線性代數解。
線性回歸已經存在了 200 多年,並得到了廣泛研究。使用這種技術的一些經驗是盡可能去除非常相似(相關)的變數,並去除噪音。這是一種快速、簡單的技術,可以首先嘗試一下。
2. Logistic 回歸
Logistic 回歸是機器學習從統計學中借鑒的另一種技術。它是解決二分類問題的首選方法。
Logistic 回歸與線性回歸相似,目標都是找到每個輸入變數的權重,即系數值。與線性回歸不同的是,Logistic 回歸對輸出的預測使用被稱為 logistic 函數的非線性函數進行變換。
logistic 函數看起來像一個大的 S,並且可以將任何值轉換到 0 到 1 的區間內。這非常實用,因為我們可以規定 logistic 函數的輸出值是 0 和 1(例如,輸入小於 0.5 則輸出為 1)並預測類別值。
Logistic 回歸
由於模型的學習方式,Logistic 回歸的預測也可以作為給定數據實例(屬於類別 0 或 1)的概率。這對於需要為預測提供更多依據的問題很有用。
像線性回歸一樣,Logistic 回歸在刪除與輸出變數無關的屬性以及非常相似(相關)的屬性時效果更好。它是一個快速的學習模型,並且對於二分類問題非常有效。
3. 線性判別分析(LDA)
Logistic 回歸是一種分類演算法,傳統上,它僅限於只有兩類的分類問題。如果你有兩個以上的類別,那麼線性判別分析是首選的線性分類技術。
LDA 的表示非常簡單直接。它由數據的統計屬性構成,對每個類別進行計算。單個輸入變數的 LDA 包括:
每個類別的平均值;
所有類別的方差。
線性判別分析
進行預測的方法是計算每個類別的判別值並對具備最大值的類別進行預測。該技術假設數據呈高斯分布(鍾形曲線),因此最好預先從數據中刪除異常值。這是處理分類預測建模問題的一種簡單而強大的方法。
4. 分類與回歸樹
決策樹是預測建模機器學習的一種重要演算法。
決策樹模型的表示是一個二叉樹。這是演算法和數據結構中的二叉樹,沒什麼特別的。每個節點代表一個單獨的輸入變數 x 和該變數上的一個分割點(假設變數是數字)。
決策樹
決策樹的葉節點包含一個用於預測的輸出變數 y。通過遍歷該樹的分割點,直到到達一個葉節點並輸出該節點的類別值就可以作出預測。
決策樹學習速度和預測速度都很快。它們還可以解決大量問題,並且不需要對數據做特別准備。
5. 樸素貝葉斯
樸素貝葉斯是一個簡單但是很強大的預測建模演算法。
該模型由兩種概率組成,這兩種概率都可以直接從訓練數據中計算出來:1)每個類別的概率;2)給定每個 x 的值,每個類別的條件概率。一旦計算出來,概率模型可用於使用貝葉斯定理對新數據進行預測。當你的數據是實值時,通常假設一個高斯分布(鍾形曲線),這樣你可以簡單的估計這些概率。
貝葉斯定理
樸素貝葉斯之所以是樸素的,是因為它假設每個輸入變數是獨立的。這是一個強大的假設,真實的數據並非如此,但是,該技術在大量復雜問題上非常有用。
6. K 近鄰演算法
KNN 演算法非常簡單且有效。KNN 的模型表示是整個訓練數據集。是不是很簡單?
KNN 演算法在整個訓練集中搜索 K 個最相似實例(近鄰)並匯總這 K 個實例的輸出變數,以預測新數據點。對於回歸問題,這可能是平均輸出變數,對於分類問題,這可能是眾數(或最常見的)類別值。
訣竅在於如何確定數據實例間的相似性。如果屬性的度量單位相同(例如都是用英寸表示),那麼最簡單的技術是使用歐幾里得距離,你可以根據每個輸入變數之間的差值直接計算出來其數值。
K 近鄰演算法
KNN 需要大量內存或空間來存儲所有數據,但是只有在需要預測時才執行計算(或學習)。你還可以隨時更新和管理訓練實例,以保持預測的准確性。
距離或緊密性的概念可能在非常高的維度(很多輸入變數)中會瓦解,這對演算法在你的問題上的性能產生負面影響。這被稱為維數災難。因此你最好只使用那些與預測輸出變數最相關的輸入變數。
7. 學習向量量化
K 近鄰演算法的一個缺點是你需要遍歷整個訓練數據集。學習向量量化演算法(簡稱 LVQ)是一種人工神經網路演算法,它允許你選擇訓練實例的數量,並精確地學習這些實例應該是什麼樣的。
學習向量量化
LVQ 的表示是碼本向量的集合。這些是在開始時隨機選擇的,並逐漸調整以在學習演算法的多次迭代中最好地總結訓練數據集。在學習之後,碼本向量可用於預測(類似 K 近鄰演算法)。最相似的近鄰(最佳匹配的碼本向量)通過計算每個碼本向量和新數據實例之間的距離找到。然後返回最佳匹配單元的類別值或(回歸中的實際值)作為預測。如果你重新調整數據,使其具有相同的范圍(比如 0 到 1 之間),就可以獲得最佳結果。
如果你發現 KNN 在你的數據集上達到很好的結果,請嘗試用 LVQ 減少存儲整個訓練數據集的內存要求。
8. 支持向量機(SVM)
支持向量機可能是最受歡迎和最廣泛討論的機器學習演算法之一。
超平面是分割輸入變數空間的一條線。在 SVM 中,選擇一條可以最好地根據輸入變數類別(類別 0 或類別 1)對輸入變數空間進行分割的超平面。在二維中,你可以將其視為一條線,我們假設所有的輸入點都可以被這條線完全的分開。SVM 學習演算法找到了可以讓超平面對類別進行最佳分割的系數。
支持向量機
超平面和最近的數據點之間的距離被稱為間隔。分開兩個類別的最好的或最理想的超平面具備最大間隔。只有這些點與定義超平面和構建分類器有關。這些點被稱為支持向量,它們支持或定義了超平面。實際上,優化演算法用於尋找最大化間隔的系數的值。
SVM 可能是最強大的立即可用的分類器之一,值得一試。
9. Bagging 和隨機森林
隨機森林是最流行和最強大的機器學習演算法之一。它是 Bootstrap Aggregation(又稱 bagging)集成機器學習演算法的一種。
bootstrap 是從數據樣本中估算數量的一種強大的統計方法。例如平均數。你從數據中抽取大量樣本,計算平均值,然後平均所有的平均值以便更好的估計真實的平均值。
bagging 使用相同的方法,但是它估計整個統計模型,最常見的是決策樹。在訓練數據中抽取多個樣本,然後對每個數據樣本建模。當你需要對新數據進行預測時,每個模型都進行預測,並將所有的預測值平均以便更好的估計真實的輸出值。
隨機森林
隨機森林是對這種方法的一種調整,在隨機森林的方法中決策樹被創建以便於通過引入隨機性來進行次優分割,而不是選擇最佳分割點。
因此,針對每個數據樣本創建的模型將會與其他方式得到的有所不同,不過雖然方法獨特且不同,它們仍然是准確的。結合它們的預測可以更好的估計真實的輸出值。
如果你用方差較高的演算法(如決策樹)得到了很好的結果,那麼通常可以通過 bagging 該演算法來獲得更好的結果。
10. Boosting 和 AdaBoost
Boosting 是一種集成技術,它試圖集成一些弱分類器來創建一個強分類器。這通過從訓練數據中構建一個模型,然後創建第二個模型來嘗試糾正第一個模型的錯誤來完成。一直添加模型直到能夠完美預測訓練集,或添加的模型數量已經達到最大數量。
AdaBoost 是第一個為二分類開發的真正成功的 boosting 演算法。這是理解 boosting 的最佳起點。現代 boosting 方法建立在 AdaBoost 之上,最顯著的是隨機梯度提升。
AdaBoost
AdaBoost與短決策樹一起使用。在第一個決策樹創建之後,利用每個訓練實例上樹的性能來衡量下一個決策樹應該對每個訓練實例付出多少注意力。難以預測的訓練數據被分配更多權重,而容易預測的數據分配的權重較少。依次創建模型,每個模型在訓練實例上更新權重,影響序列中下一個決策樹的學習。在所有決策樹建立之後,對新數據進行預測,並且通過每個決策樹在訓練數據上的精確度評估其性能。
因為在糾正演算法錯誤上投入了太多注意力,所以具備已刪除異常值的干凈數據非常重要。
總結
初學者在面對各種機器學習演算法時經常問:「我應該用哪個演算法?」這個問題的答案取決於很多因素,包括:(1)數據的大小、質量和特性;(2)可用的計算時間;(3)任務的緊迫性;(4)你想用這些數據做什麼。
即使是經驗豐富的數據科學家在嘗試不同的演算法之前,也無法分辨哪種演算法會表現最好。雖然還有很多其他的機器學習演算法,但本篇文章中討論的是最受歡迎的演算法。如果你是機器學習的新手,這將是一個很好的學習起點。
⑵ 談談你對演算法的理解
演算法可以幫助我們解決生活中很多很多的小問題,可以說演算法在我們平時生活中都存在。
⑶ 程序員都應該精通的六種演算法,你會了嗎
對於一名優秀的程序員來說,面對一個項目的需求的時候,一定會在腦海里浮現出最適合解決這個問題的方法是什麼,選對了演算法,就會起到事半功倍的效果,反之,則可能會使程序運行效率低下,還容易出bug。因此,熟悉掌握常用的演算法,是對於一個優秀程序員最基本的要求。
那麼,常用的演算法都有哪些呢?一般來講,在我們日常工作中涉及到的演算法,通常分為以下幾個類型:分治、貪心、迭代、枚舉、回溯、動態規劃。下面我們來一一介紹這幾種演算法。
一、分治演算法
分治演算法,顧名思義,是將一個難以直接解決的大問題,分割成一些規模較小的相同問題,以便各個擊破,分而治之。
分治演算法一般分為三個部分:分解問題、解決問題、合並解。
分治演算法適用於那些問題的規模縮小到一定程度就可以解決、並且各子問題之間相互獨立,求出來的解可以合並為該問題的解的情況。
典型例子比如求解一個無序數組中的最大值,即可以採用分治演算法,示例如下:
def pidAndConquer(arr,leftIndex,rightIndex):
if(rightIndex==leftIndex+1 || rightIndex==leftIndex){
return Math.max(arr[leftIndex],arr[rightIndex]);
}
int mid=(leftIndex+rightIndex)/2;
int leftMax=pidAndConquer(arr,leftIndex,mid);
int rightMax=pidAndConquer(arr,mid,rightIndex);
return Math.max(leftMax,rightMax);
二、貪心演算法
貪心演算法是指在對問題求解時,總是做出在當前看來是最好的選擇。也就是說,不從整體最優上加以考慮,他所做出的僅是在某種意義上的局部最優解。
貪心演算法的基本思路是把問題分成若干個子問題,然後對每個子問題求解,得到子問題的局部最優解,最後再把子問題的最優解合並成原問題的一個解。這里要注意一點就是貪心演算法得到的不一定是全局最優解。這一缺陷導致了貪心演算法的適用范圍較少,更大的用途在於平衡演算法效率和最終結果應用,類似於:反正就走這么多步,肯定給你一個值,至於是不是最優的,那我就管不了了。就好像去菜市場買幾樣菜,可以經過反復比價之後再買,或者是看到有賣的不管三七二十一先買了,總之最終結果是菜能買回來,但搞不好多花了幾塊錢。
典型例子比如部分背包問題:有n個物體,第i個物體的重量為Wi,價值為Vi,在總重量不超過C的情況下讓總價值盡量高。每一個物體可以只取走一部分,價值和重量按比例計算。
貪心策略就是,每次都先拿性價比高的,判斷不超過C。
三、迭代演算法
迭代法也稱輾轉法,是一種不斷用變數的舊值遞推新值的過程。迭代演算法是用計算機解決問題的一種基本方法,它利用計算機運算速度快、適合做重復性操作的特點,讓計算機對一組指令(或一定步驟)進行重復執行,在每次執行這組指令(或這些步驟)時,都從變數的原值推出它的一個新值。最終得到問題的結果。
迭代演算法適用於那些每步輸入參數變數一定,前值可以作為下一步輸入參數的問題。
典型例子比如說,用迭代演算法計算斐波那契數列。
四、枚舉演算法
枚舉演算法是我們在日常中使用到的最多的一個演算法,它的核心思想就是:枚舉所有的可能。枚舉法的本質就是從所有候選答案中去搜索正確地解。
枚舉演算法適用於候選答案數量一定的情況。
典型例子包括雞錢問題,有公雞5,母雞3,三小雞1,求m錢n雞的所有可能解。可以採用一個三重循環將所有情況枚舉出來。代碼如下:
五、回溯演算法
回溯演算法是一個類似枚舉的搜索嘗試過程,主要是在搜索嘗試過程中尋找問題的解,當發現已不滿足求解條件時,就「回溯」返回,嘗試別的路徑。
許多復雜的,規模較大的問題都可以使用回溯法,有「通用解題方法」的美稱。
典型例子是8皇後演算法。在8 8格的國際象棋上擺放八個皇後,使其不能互相攻擊,即任意兩個皇後都不能處於同一行、同一列或同一斜線上,問一共有多少種擺法。
回溯法是求解皇後問題最經典的方法。演算法的思想在於如果一個皇後選定了位置,那麼下一個皇後的位置便被限制住了,下一個皇後需要一直找直到找到安全位置,如果沒有找到,那麼便要回溯到上一個皇後,那麼上一個皇後的位置就要改變,這樣一直遞歸直到所有的情況都被舉出。
六、動態規劃演算法
動態規劃過程是:每次決策依賴於當前狀態,又隨即引起狀態的轉移。一個決策序列就是在變化的狀態中產生出來的,所以,這種多階段最優化決策解決問題的過程就稱為動態規劃。
動態規劃演算法適用於當某階段狀態給定以後,在這階段以後的過程的發展不受這段以前各段狀態的影響,即無後效性的問題。
典型例子比如說背包問題,給定背包容量及物品重量和價值,要求背包裝的物品價值最大。
⑷ 為什麼有人說弄懂了《演算法導論》的90%,就超越了90%的程序員
其實計算機程序底層核心就是各種數學演算法,剩下就是怎麼用代碼去實現數學,世界上有名的計算機程序大牛幾乎都跟數學權威方面的專家有關。
從另一個角度回答,因為就算看懂百分百,也很難超越另外的百分之十
很多程序員沒讀過演算法導論
其實不管是對於在校生來說還是已經工作的程序員,一般很少都會接觸演算法。
學生的話也只有計算機相關專業的開設了數據結構和演算法相關課程的才需要用到,但如果只是對付期末考試的話也沒啥難度。
但是如果在大學期間接觸到演算法競賽就不一樣了,需要花費比較多的精力。
的確在工資上任何公司都是10%的演算法大佬拿的工資比其他90%的業務開發程序員或者其他的程序員都要高,不過就憑只懂《演算法導論》這本書的話還是不太行的,演算法離不開業務的。就算超越也是超越那10%的演算法工程師里的90%,如果能達到這個境界別說BAT了,微軟谷歌都是可以考慮的。
說這個話在我看來他可能是想賣課,賣完再慢慢告訴你,「學到90%也沒有那麼容易」,或者「在刷我這套題這件事上超越90%的程序員 並不等於收入上超越90%的程序員」。
你多去拼多多參加幾個活動,在文字 游戲 和預期管理上你應該就懂了;要是還不懂,大概你也不是那麼適合做這一行以及演算法導論。
公式:弄懂+一本名著+百分比+超越+百分比+你的群體。
例句:
弄懂sicp的67.9%,你就超越了95%的程序員。
弄懂本草綱目的72%,你就超越了93.7%的中醫。
弄懂冰箱說明書的83%,你就超越了99.9%的冰箱使用者(這也許是最真實的,雖然冰箱說明書不是名著……)
至於為什麼這么說……個人覺得就是對xx東西的一種崇拜,很大程度上是人雲亦雲。
演算法導論是本不會動的書,不同人讀效果不一樣的。不要神化某一本書,參差多態乃幸福本源。不看演算法導論你也可以會演算法,你也可以會數據結構,你也可以進大廠。沒有演算法導論的時候也依然有研究演算法的科學家。你能通過他學會知識很好,但你覺得它晦澀,搞不懂,沒有c的代碼讓你學的不舒服,那就不看他。
人生中見書,書中見人生。讀書有時候不一定是為了學東西,可能更多的是一種享受。就像你沒學看過csapp之前,通過各種課程,學了零零碎碎的知識。忽然有一天你看了csapp,你覺得好過癮啊,好爽啊。你覺得你學習的第一天就看csapp能有這種效果嗎?
好書不會變少只會變多,更何況幫到你的也未必需要是好書。也許一本書只是很普通的書,不嚴謹,還都是大白話,但未必就幫不到你。
學東西莫要搞崇拜。很多程序員學習的時候都不是通過演算法導論這本書學的,可他們依然很傑出。
程序員來回答一下:
1.《演算法導論》這本書理論來說90%程序員也沒弄懂,所以你弄懂了就超過了90%。
2.其實程序員是一個大的行業,IT也是一個大的行業,門外人看著都是一群寫程序的,修電腦的,更有人認為是裝電腦系統的,你被別人交過去裝過系統嗎?
3.程序員架構上來說,嵌入式 協議棧 應用 網路 伺服器 工具 系統 等等等!
4.有一些行業是不需要看演算法導論的,更有一些轉行過來的,應該更不太了解演算法導論。
這本書在美國的大學被稱為clrs, 是標準的本科高年級和研究生入門的演算法課課本。優點是比較全面的講解了常用和基本的演算法,習題質量不錯。問題是動態規劃講的不好,篇幅原因一些近代的演算法沒有概括。總的來說是本不錯的演算法入門教科書。
演算法是計算機科學的核心。計算理論偏數學,編譯原理和操作系統偏硬體,真正計算機科學的核心就是演算法。無論做研究還是搞工程,都是必不可少的。
程序是給人看的,不是給機器。寫給機器的程序誰都可以寫出來,但不是每個程序員都能寫出別人看懂的東西
程序是什麼,程序就是數據結構和演算法,弄懂了超90%的程序員不是很正常嘛
看懂2%就超過了80%,沒必要看那麼多
因為這本書翻譯的很枯燥、也很理解,這種情況下你還理解了90%,說明你有耐心,有恆心,耐得住寂寞。我相信不只是做程序員,做其它行業也會很優秀。
⑸ 請問看完看懂《演算法導論》這本書的話月薪可以達到三千五嗎
如果你能用任何語言實現一遍,應該基本的編程能力就有咯。如果在大一點的城市,肯定能達到咯。不過如果只是業務開發,最好找點項目來開發開發。如果要做演算法,這個應該還不夠。
⑹ 如何才算精通演算法和數據結構
精通是你自己認為自己比大部分人都強了,你要知道別人在做什麼,你都會了,你還有自己的經驗和獨到之處,就算是精通了
看看微軟的面試題吧,問個簡單問題,如何檢測一個鏈表有環?
給你一個演算法,你能否看出它是否足夠優化,是否知道它的時間空間復雜度,給你一個實際問題,比如存儲的價格和計算的價格,你能否給出最省錢的方案?
常用的演算法,你是否能直接就寫出來,比如讓你排序你能不能直接就寫出4-5種方案,說出每種的復雜度?
⑺ 懂演算法的人應該知道怎麼做人生選擇
每年一到要找工作的時候,我就能收到很多人給我發來的郵件,總是問我怎麼選擇他們的offer,去騰訊還是去豆瓣,去外企還是去國內的企業,去創業還是去考研,來北京還是回老家,該不該去創新工場?該不該去thoughtworks?……等等,等等。今年從7月份到現在,我收到並回復了60多封這樣的郵件。我更多幫他們整理思路,幫他們明白自己最想要的是什麼。
我深深地發現,對於我國這樣從小被父母和老師安排各種事情長大的人,當有一天,父母和老師都跟不上的時候,我們幾乎完全不知道怎麼去做選擇。
幾個例子
當我們在面對各種對選擇的影響因子的時候,如:城市,公司規模,公司性質,薪水,項目,戶口,技術,方向,眼界…… 你總會發現,你會在幾個公司中糾結一些東西,舉幾個例子:
某網友和我說,他們去上海騰訊,因為騰訊的規模很大,但卻發現薪水待遇沒有豆瓣高(低的還不是一點),如果以後要換工作的話,起薪點直接關繫到了以後的高工資。我說那就去豆瓣吧,他說豆瓣在北京,污染那麼嚴重,又沒有戶口,生存環境不好。我說去騰訊吧,他說騰訊最近組織調整,不穩定。我說那就去豆瓣吧,慢公司,發展很穩當。他說,豆瓣的盈利不清楚,而且用Python,自己不喜歡。我說,那就去騰訊吧,……
還有一網友和我說,他想回老家,因為老家的人脈關系比較好,能混得好。但又想留在大城市,因為大城市可以開眼界。
另一網友和我說,他想進外企,練練英語,開開眼界,但是又怕在外企里當個螺絲釘,想法得不到實施。朋友拉他去創業,覺得創業挺好的,鍛煉大,但是朋友做的那個不知道能不能做好。
還有一網友在創新工場的某團隊和考研之間抉擇,不知道去創新工場行不行,覺得那個項目一般,但是感覺那個團隊挺有激情的,另一方面覺得自己的學歷還不夠,讀個研應該能找到更好的工作。
還有一些朋友問題我應該學什麼技術?不應該學什麼技術?或是怎麼學會學得最快,技術的路徑應該是什麼?有的說只做後端不做前端,有的說,只做演算法研究,不做工程,等等,等等。因為他們覺得人生有限,術業有專攻。
等等,等等……
我個人覺得,如果是非計算機科班出生的人不會做選擇,不知道怎麼走也罷了,但是我們計算機科班出生的人是學過演算法的,懂演算法的人應該是知道怎麼做選擇的。
你不可能要所有的東西,所以你只能要你最重要的東西,你要知道什麼東西最重要,你就需要對你心內的那些慾望和抱負有清楚的認識,不然,你就會在糾結中度過。
所以,在選擇中糾結的人有必要參考一下排序演算法。
首先,你最需要參考的就是「冒泡排序」——這種演算法的思路就是每次冒泡出一個最大的數。所以,你有必要問問你自己,面對那些影響你選擇的因子,如果你只能要一個的話,你會要哪個?而剩下的都可以放棄。於是,當你把最大的數,一個一個冒泡出來的時候,並用這個決策因子來過濾選項的時候,你就能比較容易地知道知道你應該選什麼了。這個演算法告訴我們,人的雜念越少,就越容易做出選擇。
好吧,可能你已茫然到了怎麼比較兩個決策因子的大小,比如:你分不清楚,工資>業務前景嗎?業務前景>能力提升嗎?所以你完全沒有辦法進行冒泡法。那你,你不妨參考一個「快速排序」的思路——這個演算法告訴我們,我們一開始並不需要找到最大的數,我們只需要把你價值觀中的某個標准拿出來,然後,把可以滿足這個價值的放到右邊,不能的放到左邊去。比如,你的標準是:工資大於5000元&&業務前景長於3年的公司,你可以用這個標准來過濾你的選項。然後,你可以再調整這個標准再繼續遞歸下去。這個演算法告訴我們,我們的選擇標准越清晰,我們就越容易做出選擇。
這是排序演算法中最經典的兩個演算法了,面試必考。相信你已爛熟於心中了。所以,我覺得你把這個演算法應用於你的人生選擇也應該不是什麼問題。關於在於,你是否知道自己想要的是什麼?
排序演算法的核心思想就是,讓你幫助你認清自己最需要的是什麼,認清自己最想要的是什麼,然後根據這個去做選擇。
所謂貪婪演算法,是一種在每一步選擇中都採取在當前狀態下最好或最優(即最有利)的選擇(注意:是當前狀態下),從而希望導致結果是最好或最優的演算法。貪婪演算法最經典的一個例子就是哈夫曼編碼。
對於人類來說,一般人在行為處事的時候都會使用到貪婪演算法,
比如在找零錢的時候,如果要找補36元,我們一般會按這樣的順序找錢:20元,10元,5元,1元。
或者我們在過十字路口的時候,要從到對角線的那個街區時,我們也會使用貪婪演算法——哪邊的綠燈先亮了我們就先過到那邊去,然後再轉身90度等紅燈再過街。
這樣的例子有很多。對於選擇中,大多數人都會選用貪婪演算法,因為這是一個比較簡單的演算法,未來太復雜了,只能走一步看一步,在當前的狀況下做出最利於自己的判斷和選擇即可。
有的人會貪婪薪水,有的人會貪婪做的項目,有的人會貪婪業務,有的人會貪婪職位,有的人會貪婪自己的興趣……這些都沒什麼問題。貪婪演算法並沒有錯,雖然不是全局最優解,但其可以讓你找到局部最優解或是次優解。其實,有次優解也不錯了。貪婪演算法基本上是一種急功近利的演算法,但是並不代表這種演算法不好,如果貪婪的是一種長遠和持續,又未嘗不可呢?。
但是我們知道,對於大部分的問題,貪婪法通常都不能找出最優解,因為他們一般沒有測試所有可能的解。因為貪婪演算法是一種短視的行為,只會跟據當前的形式做判斷,也就是過早做決定,因而沒法達到最佳解。
動態規劃和貪婪演算法的最大不同是,貪婪演算法做出選擇,不能在過程優化。動態規劃則會保存以前的運算結果,並根據以前的結果對當前進行選擇,會動態優化功能。
動態規劃演算法至少告訴我們兩個事:
1)承前啟後非常重要,當你准備去做遍歷的時候,你的上次的經歷不但能開啟你以後的經歷,而且還能為後面的經歷所用。你的每一步都沒有浪費。
2)是否可以回退也很重要。這意思是——如果你面前有兩個選擇,一個是A公司一個是B公司,如果今天你選了A公司,並不是你完全放棄了B公司。而是,你知道從A公司退出來去B公司,會比從B公司退出來去A公司要容易一些。
比如說:你有兩個offer,一個是Yahoo,一個是Bai,上述的第一點會讓我們思考,我以前的特長和能力更符合Yahoo還是Bai?而Yahoo和Bai誰能給我開啟更大的平台?上述的第二點告訴我們,是進入Yahoo後如果沒有選好,是否還能再選擇Bai公司?還是進入Bai公司後能容易回退到Yahoo公司?
最短路徑是一個Greedy + DP的演算法。相當經典。這個演算法的大意如下:
1)在初始化的時候,所有的結點都和我是無窮大,默認是達不到的。
2)從離自己最近的結點開始貪婪。
3)走過去,看看又能到達什麼樣的結點,計算並更新到所有目標點的距離。
4)再貪婪與原點最短的結點,如此反復。
這個演算法給我們帶來了一些這樣的啟示:
有朋友和我說過他想成為一個架構師,或是某技術領域的專家,並會踏踏實實的向這個目標前進,永不放棄。我還是鼓勵了他,但我也告訴他了這個著名的演算法,我說,這個演算法告訴你,架構師或某領域的專家對你來說目前的距離是無窮大,他們放在心中,先看看你能夠得著的東西。所謂踏實,並不是踏踏實實追求你的目標,而是踏踏實實把你夠得著看得見的就在身邊的東西干好。我還記得我剛參加工作,從老家出來的時候,從來沒有想過要成為一個技術牛人,也從來沒有想過我的博客會那麼的有影響力,在做自己力所能及,看得見摸得著的事情,我就看見什麼技術就學什麼,學著學著就知道怎麼學更輕松,怎麼學更扎實,這也許就是我的最短路徑。
有很多朋友問我要不要學C++,或是問我學Python還是學Ruby,是不是不用學前端,等等。這些朋友告訴我,他們不可能學習多個語言,學了不用也就忘了,而且術業有專攻。這並沒有什麼不對的,只是我個人覺得,學習一個東西沒有必要只有兩種狀態,一種是不學,另一種是精通。了解一個技術其實花不了多少時間,我學C++的目的其實是為了更懂Java,學TCP/IP協議其實是為了更懂Socket編程,很多東西都是連通和相輔相成的,學好了C/C++/Unix/TCP等這些基礎技術後,你會發現到達別的技術路徑一下縮短了。
這就好像這個演算法一樣,演算法效率不高,也許達到你的目標,你在一開始花了很長時間,遍歷了很多地方,但是,這也許這就是你的最短路徑(比起你達不到要好得多)。
你根本沒有辦法能得到所有你想得到的東西,任何的選擇都意味著放棄——當你要去獲得一個東西的時候,你總是需要放棄一些東西。人生本來就是一個蹺蹺板,一頭上,另一頭必然下。這和我們做軟體設計或演算法設計一樣,用時間換空間,用空間換時間,還有CAP理論,總是有很多的Trade-Off,正如這個短語的原意一樣——你總是要用某種東西去交易某種東西。
我們都在用某種東西在交易我們的未來,有的人用自己的努力,有的人用自己的思考,有的人用自己的年輕,有的人用自己的自由,有的人用自己的價值觀,有的人用自己的道德…… …… 有的人在交換金錢,有的人在交換眼界,有的人在交換經歷,有的人在交換地位,有的人在交換能力,有的人在交換自由,有的人在交換興趣,有的人在交換虛榮心,在交換安逸享樂…… ……
每個人有每個人的演算法,每個演算法都有每個演算法的purpose,就算大家在用同樣的演算法,但是每個人演算法中的那些變數、開關和條件都不一樣,得到的結果也不一樣。我們就是生活在Matrix里的一段程序,我們每個人的演算法決定著我們每個人的選擇,我們的選擇決定了我們的人生