『壹』 請問做手勢識別用什麼做比較好opencv可以嗎或者其他什麼
手勢識別,就是
圖像輸入
圖像處理,獲得手勢輪廓或者圖像
根據輪廓或圖像判斷手勢類型
OPENCV可以很好的處理圖像的輸入,以及處理,各種濾波 輪廓提取 顏色域轉換等函數能減少很多工作。
至於最關鍵的手勢識別就要你自己根據處理的圖像來寫演算法判斷了。當然別人可能也有現成的代碼你可以找找看
『貳』 手勢識別用什麼圖像特徵提取演算法
《基於計算機視覺的手勢識別研究》中提到了多尺度模型,它就是採用此模型提取手勢的指尖的數量和位置,將指尖和掌心連線,採用距離公式計算各指尖到掌心的距離,再採用反餘弦公式計算各指尖與掌心連線間的夾角,將距離和夾角作為選擇的特徵。對於靜態手勢識別而言,邊緣信息是比較常用的特徵。中採用的HDC提取關鍵點的識別演算法,基於用八方向鄰域搜索法提取出手勢圖像的邊緣,把圖像的邊緣看成一條曲線,然後對曲線進行處理。
『叄』 什麼是手勢識別
在計算機科學中,手勢識別 是通過數學演算法來識別人類手勢的一個議題。手勢識別可以來自人的身體各部位的運動,但一般是指臉部和手的運動。
『肆』 如何寫一個簡單的手寫識別演算法
移動設備多用手勢進行輸入,用戶通過手指在屏幕上畫出一個特定符號,計算機識別出來後給予響應的反應,要比讓用戶點擊繁瑣的按鈕為直接和有趣,而如果為每種手勢編寫一段識別代碼的話是件得不償失的事情。如何設計一種通用的手勢識別演算法來完成上面的事情呢?
我們可以模仿筆記識別方法,實現一個簡單的筆畫識別模塊,流程如下:
第一步:手勢歸一化
手指按下時開始記錄軌跡點,每劃過一個新的點就記錄到手勢描述數組guesture中,直到手指離開屏幕。
2. 將gesture數組里每個點的x,y坐標最大值與最小值求出中上下左右的邊緣,求出該手勢路徑點的覆蓋面積。
3. 手勢坐標歸一化:以手勢中心點為原點,將gesture里頂點歸一化到-1<=x<=1, -1<=y<=1空間中。
4. 數組長度歸一化:將手勢路徑按照長度均勻劃分成32段,用共32個新頂點替換guestue里的老頂點。
第二步:手勢相似度
1. 手勢點乘:g1 * g2 = g1.x1*g2.x1 + g1.y1*g2.y1 + … + g1.x32*g2.x32 + g1.y32*g2.y32
2. 手勢相似:相似度(g1, g2)=g1*g2/sqrt(g1*g1 + g2*g2)
由此我們可以根據兩個手勢的相似度算成一個分數score。用戶輸入了一個手勢g,我們回合手勢樣本中的所有樣本g1-gn打一次相似度分數,然後求出相似度最大的那個樣本gm並且該分數大於某個特定閥值(比如0.8),即可以判斷用戶輸入g相似於手勢樣本 gm !
『伍』 最近做圖像識別,想通過MATLAB做手勢識別的演算法,不知道需要學些什麼,做完會是什麼樣子,求大牛指導
模式識別、機器學習。
一般的做法是:
首先要有一定數量的手勢圖片;
其次將訓練用的手勢圖片進行人工分類,即「打上標簽」
再次將手勢圖片轉換成輪廓圖(可以用DFT、DCT、小波變換等計算出邊緣,然後對邊緣進行「擴張」即可);
第四是將輪廓圖規格化、矢量化,生成向量;
最後以上述向量集來訓練學習機(例如:神經網路),直到回歸;
獲得的結果是能進行手勢識別的學習機。
『陸』 手勢識別的課題誰做過我不會用HMM演算法
我做過。那是隱馬爾科夫,在語音識別中常用,可以從中國知網下論文看
『柒』 手勢輸入方式的手勢識別的原理
手勢是指在人的意識支配下,人手作出的各類動作,如手指彎曲、伸展和手在空間的運動等,可以是
收稿日期: 2000 - 05 - 15
基金項目: 行業基金項目(院編96311)
作者簡介: 曾芬芳(1940 - ) ,女,湖南益陽人,華東船舶工業學院教授。
執行某項任務,也可以是與人的交流,以表達某種含義或意圖。基於手勢識別的三維交互輸入技術,常
用的有基於數據手套的和基於視覺(如攝象機) 的手勢識別。
人手有20 多個關節,其手勢十分復雜,在VR(Virtual Reality) 中的交互過程,需分析手勢的形成並
識別其含義。如用戶以自然方式抓取環境中的物體,同時還可以對用戶產生相關的感知反饋,如對具有
力反饋的手套,就能使人感知到抓取的物體的重量,對有觸覺反饋的手套,能感知到用戶所碰到的物體
的質感,如毛毯有多粗糙等。所以計算機要能對人手運動的靈活、復雜的手勢進行識別是一項艱難而又
十分有意義的任務。
手勢的分類早在40 年代,心理學家Quek[7 ] . ,Pavlovic[8 ]等人從人機介面的角度對手勢進行研究,
按其功能分為:
手的運動
無意識的手運動
有意識的手運動(手勢
交流手勢
表動作
表符號(手語)
引用手語(如表示數字)
情態手勢
執行任務(如抓握錘) 手勢不但由骨胳肌肉驅動,而且還受人的信念、意識的驅使,它涉及到人的思維活動的高級行為。
人機交互的研究目的之一是使機器對人類用戶更方便,從用戶產生手勢到系統「感知」手勢的過程[9 ]如
圖1 所示。
圖1 系統「感知」手勢的過程
Fig. 1 Process of sensing gesture by the system
手的運動,是手勢的表現形式。用戶的操作
意圖是用戶要完成任務的內容, 即用戶心理活
動(概念手勢) G ,經過運動控制(變換) ,用手勢
運動H 表達。由經感受設備(變換Thi) 將手的
運動H 變換為系統的輸入信息I ,所以從G到I
的映射過程為:
Tgh : G → H , 即H > Tgh ( G)
Thi : H → I , 即I > Thi ( H)
Tgi : G → I , 即I > Thi ( Tgh ( G) ) > Tgi ( G)
其中, Tgh 為人體運動控制傳送函數; Thi為輸入設備傳送函數。
手勢識別的任務就是從系統輸入I 推斷、確定用戶意圖G ,顯然是以上映射的逆過程。即
G = T- 1
gi ( I) ( 1 )
H = T- 1
hi ( I) ( 2 )
G = T- 1
gh ( H) ( 3 )
其中, T- 1
gi , T- 1
hi , T- 1
gh 是Tgi , Thi , Tgh 的逆變換。
所以手勢識別可以採用H = T- 1
hi ( I) 時輸入信息I ,得到手的運動H ,再由G = T- 1
gh ( H) 手勢的表
示推斷用戶手勢的概念意圖,也可直接從G = T- 1
gi ( I) 求得概念手勢G。
手勢識別分為靜態手勢和動態手勢的識別,目前的研究大都是在線靜態手勢識別,如Lee 研究的就
是靜態孤立手勢[10 ] 。動態手勢識別難度大,一般採用關鍵幀方法,記錄每個手勢的始和終狀態及手勢的
運動軌跡,然後用內插演算法重建幀,但仍需給予限制,如Davis研究的動態手勢識別就規定開始時手必須
朝上等。 手勢的語法信息是通過手的構形、手的運動變化來傳遞。為了
給用戶提供必要的視覺反饋信息, 使其在交互過程中看到自己的手
(圖2 是用3DSMAX 繪制) ,同時也為了分析交互過程中手和虛擬對
象之間的相互作用關系,必須建立手幾何模型和運動學模型。 人手是一個多肢節系統, 由27 塊骨骼組成, 可看成由4 個相鄰
手指、一個大拇指和手掌組成, 每個手指由指段和關節組成。因此手
是一種由關節相連的結構, 隨著關節運動, 手的形狀在不斷變化。這
種變化可以通過指段和關節的狀態空間位置的變化來描述[11 ] 。
每一個手指( Ⅱ - Ⅴ) 具有四個自由度,其中手指的
基部(MP) 有兩個自由度,彎曲和旋轉,手指的中間關節處(PIP)
和末端關節處(DIP) 分別各有一個自由度,主要是彎曲運動。大拇
指除了與其他四個手指一樣具有四個自由度外, 還有一個外展運
動,所以大拇指具有五個自由度(拇指和手掌之間的一節也可不考
慮) 。外加手掌的前後左右運動二個自由度。所以手運動總共具有
23 個自由度,即狀態空間為23 維。
從上述的分析可知,除大拇指外每個手指都具有四個自由度,
從而可以建立一條鏈,以協調手指的機構及運動。整個手可以以手掌為基礎鏈接五個手指( Ⅰ - Ⅴ) ,在
指段MP 上鏈接指段PIP ,再鏈接指段DIP ,每條鏈可以獲取四個參數。從而五個手指以手掌為根節點構
成一個樹型結構,樹中的每一個節點代表一個關節,關節通過指段具有相互關聯的運動特性。
212 手勢的輸入
手勢的輸入是實現手勢交互的前提。它要求能夠有效地跟蹤手的運動, 又要方便用戶手的運動, 既
要求准確確定手的位置、方位、手指彎曲角度,又要求對手的運動限制很少。就目前而言, 手勢的輸入有
基於數據手套的和基於視覺(攝象機) 等兩種方式。
21211 基於數據手套的手勢輸入
基於數據手套的手勢輸入[12 ] ,是根據戴在手上的具有位置跟蹤器的數據手套利用光纖直接測量手
指彎曲和手的位置來實現手勢輸入的。本文使用5DT 公司生產的不帶位置跟蹤器的5th Glove 右手數據
手套,每個手指中間關節有一個感測器用於測量手指的平均屈伸度,在手腕部位還有一個2 軸傾斜感測
器測量手的轉動(繞Z 軸旋轉) 和傾斜(繞X 軸旋轉) 兩個角度,以探測手的上下擺動和旋轉。該手套共
帶有七個感測器,因此同一時刻只能讀出七個角度值。5th Glove 還提供命令、報告數據、連續數據、模擬
滑鼠等工作方式,可定義一指、二指和三指( Z 軸) 等手勢來控制虛擬手的飛行、視點、運動速度等。
5th Glove 數據手套通過串列介面與微機連接在一起,以傳送手運動信號,從而控制手動作。它能將
用戶手的姿勢(手勢) 轉化為計算機可讀的數據, 因而使手去抓取或推動虛擬物體。人手在運動過程中
會碰撞物體,所以在系統中,虛擬手的交互操作除了實現抓取和釋放物體等功能外, 還需實現了碰撞的
檢測。
21212 基於視覺的手勢輸入
基於視覺的手勢輸入是採用攝象機捕獲手勢圖象,再利用計算機視覺技術對捕獲的圖象進行分析,
提取手勢圖象特徵,從而實現手勢的輸入。這種方法使用戶手的運動受限制較少,同時用戶還可以直接
看到手的圖象。基於視覺的輸入所輸入的原始數據是手的圖象,採用重建三維模型來構建手勢圖象,調
節模型參數如手指彎曲角度的夾角等,以合成手的三維圖形。根據手生成的圖形和已獲得的手圖象匹
配,所得到的模型參數就構成了手勢。1995 年,Lee J intae 和Kunii Tosiyasv l. 研究用立體圖像數據自動
分析三維手勢[4 ] 。它用攝像機拍攝手的運動圖像,使用輪廓提取邊界特徵進行識別的方法,成功地提
取27 個交互作用手參數,實現了三維手勢的重構。其實早在1981 年, Kroeger 採用兩個攝象機實現了
一個獲取手勢的系統,它通過用戶的手在與滑鼠墊一般大小的「鏡象盒」的3D 空間中來完成交互。兩
個鏡子被放在大約與前平面成45 度角的位置上,兩個鏡子代替單個鏡子產生了一個虛擬視點,加上兩
垂直平面上的兩個攝象機共三個視點相交成直角,以提供給用戶一個確定的工作空間,在這個空間內允
許用戶與計算機交互。
『捌』 基於語法動態手勢識別有哪些方法
手勢識別分為二維和三維手勢識別。
二維手勢識別基本只不會涉及深度信息,會為用戶解決最簡單基礎的手勢操作。
這種技術不僅可以識別手型,還可以識別一些簡單的二維手勢動作,比如對著攝像頭揮揮手、確定、點選及拖拽等基礎交互手勢。此類手勢識別技術雖然在硬體要求上和二維手型識別並無區別,但是得益於更加先進的計算機視覺演算法,可以獲得更加豐富的人機交互內容。在使用體驗上也提高了一個檔次,從純粹的狀態控制,變成了比較豐富的平面控制。
這種技術已經被集成到了電視里,像樂視TV等;也被做成了基於普通攝像頭的手勢識別技術,如國內英梅吉的HandCV手勢交互系統,可以安裝在手機/PC等設備中就可以實現手勢交互,同時也深度適配VR/AR環境;還有來自以色列的EyeSight,被中國一家企業投資2000萬美金,他們的手勢識別技術同樣也是做普通攝像頭,不同於國內的這家手勢識別,以色列這家多應用於生活場景,為懶人提供福利,不用觸摸手機直接隔空操作。
總的來說,二維的手勢識別相對來說更加入門級,可以為手勢識別提供從零到一的普及。
三維的手勢識別技術相對於二維的來說更精準、更深度,可以操作除了生活場景之外的一些游戲場景,面向一些發燒級玩家。提供的解決方案有結構光,微軟的KINECT;光飛時間TOF,根據光子飛行時間進而可以推算出光子飛行的距離,得到物體的深度信息;以及目前和暴風正在合作的leap
motion的多角成像技術,使用兩個或者兩個以上的攝像頭同時攝取圖像。
『玖』 手勢識別演算法有哪些
你好,我正在研究識別演算法,已經在自然雜志發表了論文,你需要的話我可以發你郵箱,希望採納。