1. 時間序列分析——DTW演算法詳解
DTW(dynamic time warping)是時間序列分析中一個很早(1994年,論文的年紀比我都大)也很經典的演算法了。它其實借用的是經典演算法的「動態規劃」的思想。一般來說,時間序列數據如果要做分類,那麼大體可以將實驗步驟分為:數據預處理(去噪或數據增強),數據表徵,選取分類器(機器學習演算法還需要選取合適的距離計算方法)。雖然DTW演算法也給出了路徑,但我實在想不出如何利用path,因此我更傾向於將DTW演算法歸為距離計算方法。
第一部分Introction不再介紹。直接介紹第二部分:Dynamic Time Warping
作者首先提到,dtw演算法成功應用在了語音識別領域——研究者將現實中一個單詞的發音(其實就是一條時間序列)與模板庫中單詞的發音去一個個匹配。怎麼衡量匹配程度的大小呢?
2. IT運維平台演算法背後的兩大「神助攻」
智能運維(AIops)是目前 IT 運維領域最火熱的詞彙,全稱是 Algorithmic IT operations platforms,正規翻譯是『基於演算法的 IT 運維平台』,直觀可見演算法是智能運維的核心要素之一。
本文主要談演算法對運維的作用,涉及異常檢測和歸因分析兩方面,圍繞運維系統Kale 中 skyline、Oculus 模塊、Opprentice 系統、Granger causality(格蘭傑因果關系)、FastDTW 演算法等細節展開。
一、異常檢測
異常檢測,是運維工程師們最先可能接觸的地方了。畢竟監控告警是所有運維工作的基礎。設定告警閾值是一項耗時耗力的工作,需要運維人員在充分了解業務的前提下才能進行,還得考慮業務是不是平穩發展狀態,否則一兩周改動一次,運維工程師絕對是要發瘋的。
如果能將這部分工作交給演算法來解決,無疑是推翻一座大山。這件事情,機器學習當然可以做到。但是不用機器學習,基於數學統計的演算法,同樣可以,而且效果也不差。
異常檢測之Skyline異常檢測模塊
2013年,Etsy 開源了一個內部的運維系統,叫 Kale。其中的 skyline 部分,就是做異常檢測的模塊, 它提供了 9 種異常檢測演算法 :
first_hour_average、
simple_stddev_from_moving_average、
stddev_from_moving_average、
mean_subtraction_cumulation、
least_squares
histogram_bins、
grubbs、
median_absolute_deviation、
Kolmogorov-Smirnov_test
簡要的概括來說,這9種演算法分為兩類:
從正態分布入手:假設數據服從高斯分布,可以通過標准差來確定絕大多數數據點的區間;或者根據分布的直方圖,落在過少直方里的數據就是異常;或者根據箱體圖分析來避免造成長尾影響。
從樣本校驗入手:採用 Kolmogorov-Smirnov、Shapiro-Wilk、Lilliefor 等非參數校驗方法。
這些都是統計學上的演算法,而不是機器學習的事情。當然,Etsy 這個 Skyline 項目並不是異常檢測的全部。
首先,這里只考慮了一個指標自己的狀態,從縱向的時序角度做異常檢測。而沒有考慮業務的復雜性導致的橫向異常。其次,提供了這么多種演算法,到底一個指標在哪種演算法下判斷的更准?這又是一個很難判斷的事情。
問題一: 實現上的抉擇。同樣的樣本校驗演算法,可以用來對比一個指標的當前和歷史情況,也可以用來對比多個指標里哪個跟別的指標不一樣。
問題二: Skyline 其實自己採用了一種特別朴實和簡單的辦法來做補充——9 個演算法每人一票,投票達到閾值就算數。至於這個閾值,一般算 6 或者 7 這樣,即佔到大多數即可。
異常檢測之Opprentice系統
作為對比,面對相同的問題,網路 SRE 的智能運維是怎麼處理的。在去年的 APMcon 上,網路工程師描述 Opprentice 系統的主要思想時,用了這么一張圖:
Opprentice 系統的主體流程為:
KPI 數據經過各式 detector 計算得到每個點的諸多 feature;
通過專門的交互工具,由運維人員標記 KPI 數據的異常時間段;
採用隨機森林演算法做異常分類。
其中 detector 有14種異常檢測演算法,如下圖:
我們可以看到其中很多演算法在 Etsy 的 Skyline 里同樣存在。不過,為避免給這么多演算法調配參數,直接採用的辦法是:每個參數的取值范圍均等分一下——反正隨機森林不要求什麼特徵工程。如,用 holt-winters 做為一類 detector。holt-winters 有α,β,γ 三個參數,取值范圍都是 [0, 1]。那麼它就采樣為 (0.2, 0.4, 0.6, 0.8),也就是 4 ** 3 = 64 個可能。那麼每個點就此得到 64 個特徵值。
異常檢測之
Opprentice 系統與 Skyline 很相似
Opprentice 系統整個流程跟 skyline 的思想相似之處在於先通過不同的統計學上的演算法來嘗試發現異常,然後通過一個多數同意的方式/演算法來確定最終的判定結果。
只不過這里網路採用了一個隨機森林的演算法,來更靠譜一點的投票。而 Etsy 呢?在 skyline 開源幾個月後,他們內部又實現了新版本,叫 Thyme。利用了小波分解、傅里葉變換、Mann-whitney 檢測等等技術。
另外,社區在 Skyline 上同樣做了後續更新,Earthgecko 利用 Tsfresh 模塊來提取時序數據的特徵值,以此做多時序之間的異常檢測。我們可以看到,後續發展的兩種 Skyline,依然都沒有使用機器學習,而是進一步深度挖掘和調整時序相關的統計學演算法。
開源社區除了 Etsy,還有諸多巨頭也開源過各式其他的時序異常檢測演算法庫,大多是在 2015 年開始的。列舉如下:
Yahoo! 在去年開源的 egads 庫。(Java)
Twitter 在去年開源的 anomalydetection 庫。(R)
Netflix 在 2015 年開源的 Surus 庫。(Pig,基於PCA)
其中 Twitter 這個庫還被 port 到 Python 社區,有興趣的讀者也可以試試。
二、歸因分析
歸因分析是運維工作的下一大塊內容,就是收到報警以後的排障。對於簡單故障,應對方案一般也很簡單,採用 service restart engineering~ 但是在大規模 IT 環境下,通常一個故障會觸發或導致大面積的告警發生。如果能從大面積的告警中,找到最緊迫最要緊的那個,肯定能大大的縮短故障恢復時間(MTTR)。
這個故障定位的需求,通常被歸類為根因分析(RCA,Root Cause Analysis)。當然,RCA 可不止故障定位一個用途,性能優化的過程通常也是 RCA 的一種。
歸因分析之 Oculus 模塊
和異常檢測一樣,做 RCA 同樣是可以統計學和機器學習方法並行的~我們還是從統計學的角度開始。依然是 Etsy 的 kale 系統,其中除了做異常檢測的 skyline 以外,還有另外一部分,叫 Oculus。而且在 Etsy 重構 kale 2.0 的時候,Oculus 被認為是1.0 最成功的部分,完整保留下來了。
Oculus 的思路,用一句話描述,就是:如果一個監控指標的時間趨勢圖走勢,跟另一個監控指標的趨勢圖長得比較像,那它們很可能是被同一個根因影響的。那麼,如果整體 IT 環境內的時間同步是可靠的,且監控指標的顆粒度比較細的情況下,我們就可能近似的推斷:跟一個告警比較像的最早的那個監控指標,應該就是需要重點關注的根因了。
Oculus 截圖如下:
這部分使用的 計算方式有兩種:
歐式距離,就是不同時序數據,在相同時刻做對比。假如0分0秒,a和b相差1000,0分5秒,也相差1000,依次類推。
FastDTW,則加了一層偏移量,0分0秒的a和0分5秒的b相差1000,0分5秒的a和0分10秒的b也相差1000,依次類推。當然,演算法在這個簡單假設背後,是有很多降低計算復雜度的具體實現的,這里就不談了。
唯一可惜的是 Etsy 當初實現 Oculus 是基於 ES 的 0.20 版本,後來該版本一直沒有更新。現在停留在這么老版本的 ES 用戶應該很少了。除了 Oculus,還有很多其他產品,採用不同的統計學原理,達到類似的效果。
歸因分析之 Granger causality
Granger causality(格蘭傑因果關系)是一種演算法,簡單來說它通過比較「已知上一時刻所有信息,這一時刻 X 的概率分布情況」和「已知上一時刻除 Y 以外的所有信息,這一時刻 X 的概率分布情況」,來判斷 Y 對 X 是否存在因果關系。
可能有了解過一點機器學習信息的讀者會很詫異了:不是說機器只能反應相關性,不能反應因果性的么?需要說明一下,這里的因果,是統計學意義上的因果,不是我們通常哲學意義上的因果。
統計學上的因果定義是:『在宇宙中所有其他事件的發生情況固定不變的條件下,如果一個事件 A 的發生與不發生對於另一個事件 B 的發生的概率有影響,並且這兩個事件在時間上有先後順序(A 前 B 後),那麼我們便可以說 A 是 B 的原因。』
歸因分析之皮爾遜系數
另一個常用的演算法是皮爾遜系數。下圖是某 ITOM 軟體的實現:
我們可以看到,其主要元素和採用 FastDTW 演算法的 Oculus 類似:correlation 表示相關性的評分、lead/lag 表示不同時序數據在時間軸上的偏移量。
皮爾遜系數在 R 語言里可以特別簡單的做到。比如我們拿到同時間段的訪問量和伺服器 CPU 使用率:
然後運行如下命令:
acc_count<-scale(acc$acc_count,center=T,scale=T)
cpu<-scale(acc$cpuload5,center=T,scale=T)
cor.test(acc_count,cpu)
可以看到如下結果輸出:
對應的可視化圖形如下:
這就說明網站數據訪問量和 CPU 存在弱相關,同時從散點圖上看兩者為非線性關系。因此訪問量上升不一定會真正影響 CPU 消耗。
其實 R 語言不太適合嵌入到現有的運維系統中。那這時候使用 Elasticsearch 的工程師就有福了。ES 在大家常用的 metric aggregation、bucket aggregation、pipeline aggregation 之外,還提供了一種 matrix aggregation,目前唯一支持的 matrix_stats 就是採用了皮爾遜系數的計算,介面文檔見:
https://www.elastic.co/guide/en/elasticsearch/reference/current/search-aggregations-matrix-stats-aggregation.html
唯一需要注意的就是,要求計算相關性的兩個欄位必須同時存在於一個 event 里。所以沒法直接從現成的 ES 數據中請求不同的 date_histogram,然後計算,需要自己手動整理一遍,轉儲回 ES 再計算。
饒琛琳,目前就職日誌易,有十年運維工作經驗。在微博擔任系統架構師期間,負責帶領11人的SRE團隊。著有《網站運維技術與實踐》、《ELKstack權威指南》,合譯有《Puppet 3 Cookbook》、《Learning Puppet 4》。在眾多技術大會上分享過自動化運維與數據分析相關主題。
3. matlab匹配問題 dtw演算法
我看了一下你的鏈接和程序.
這是你沒定義dtwOptSet,當然dtw和dtwOptSet都是作者自定義的函數,不在matlab的標准庫里,這個圖也是明顯用了3個subplot畫的
如果你想運行這個,請去作者推薦的
http://mirlab.org/jang/books/dcpr/introMatlabProgram.asp?title=1-2%20Example%20Programs%20(%A6p%A6%F3%A8%FA%B1o%B5{%A6%A1%BDX)
下載example就可以了.
4. 基於單片機的特定語音識別的DTW演算法 怎樣用C語言實現 跪求!
建議,非特定人語音識別晶元 LD3320,
或者索性 思索語音識別模塊V280,已經開發完畢,直接可以用了。
5. matlab中的特定人語音識別演算法DTW演算法的應用常式
語音識別原理
語音識別系統的本質就是一種模式識別系統,它也包括特徵提取、模式匹配、參考模式庫等基本單元。由於語音信號是一種典型的非平穩信號,加之呼吸氣流、外部噪音、電流干擾等使得語音信號不能直接用於提取特徵,而要進行前期的預處理。預處理過程包括預濾波、采樣和量化、分幀、加窗、預加重、端點檢測等。經過預處理的語音數據就可以進行特徵參數提取。在訓練階段,將特徵參數進行一定的處理之後,為每個詞條得到一個模型,保存為模板庫。在識別階段,語音信號經過相同的通道得到語音參數,生成測試模板,與參考模板進行匹配,將匹配分數最高的參考模板作為識別結果。後續的處理過程還可能包括更高層次的詞法、句法和文法處理等,從而最終將輸入的語音信號轉變成文本或命令。
DTW演算法原理
DTW是把時間規整和距離測度計算結合起來的一種非線性規整技術,它尋找一個規整函數im=Ф(in),將測試矢量的時間軸n非線性地映射到參考模板的時間軸m上,並使該函數滿足:
D就是處於最優時間規整情況下兩矢量的距離。由於DTW不斷地計算兩矢量的距離以尋找最優的匹配路徑,所以得到的是兩矢量匹配時累積距離最小所對應的規整函數,這就保證了它們之間存在的最大聲學相似性。
DTW演算法的實質就是運用動態規劃的思想,利用局部最佳化的處理來自動尋找一條路徑,沿著這條路徑,兩個特徵矢量之間的累積失真量最小,從而避免由於時長不同而可能引入的誤差。
6. DTW演算法程序最終輸出的D(n,m)是一個距離還是一個矩陣
是一個方陣
7. matlab中實現DTW演算法,語句中的t,r代表什麼
t和r是當你引用這個dist函數的時候,傳的參數