㈠ 華為手機拍照識物功能在哪裡
以華為P40手機為例:
1.進入相機 > 拍照,點擊智慧視覺圖標,然後點擊識物圖標。
2.將鏡頭對准要識別的目標,靜待識別結果,或點擊識物圖標拍照識別。
點擊圖庫,可選擇圖庫中的圖片進行識別。
3.如果識別到多個目標,可點擊目標上的圓圈,快速切換和查看識別結果。
4.點擊識別結果中的服務卡片,可獲取更多信息。
點擊三個點可分享和保存識別結果。
㈡ android Google源生生物識別(Biometric依賴庫)
Android Google源生生物識別(FingerprintManager)
Android Google源生生物識別(Biometric依賴庫)
Android 6 中引入了 FingerprintManager 用於集成指紋識別,在後續的更新版本中棄用了 FingerprintManager ,需要更新到使用 Biometric 支持庫去集成,本文是基於 Biometric 依賴庫進行指紋識別的集成完成指紋登錄的流程,設計架構參考 Android Google源生生物識別(FingerprintManager)
Android框架和安全團隊發布的生物識別庫,這是一個支持庫,它取代了所有之前的API迭代。整個庫使得所有在Android 10 中公布的特性都可以都可以一直使用到 Android 6
在應用或模塊的build.gradle中
調用 BiometricManager 的 canAuthenticate 函數檢查當前是否滿足使用生物識別的條件,會檢查你的設備是否擁有指紋識別硬體,是否已經至少錄入一個指紋,是否已經開啟指紋驗證
Authenticators 定義了身份驗證器的類型
BIOMETRIC_STRONG : 滿足第三類要求的生物識別感測器
BIOMETRIC_WEAK:滿足第二類要求的生物識別感測器
DEVICE_CREDENTIAL:安全設備的要求 (PIN, pattern, or password)
注意 :Android 10(API 級別 29)及更低版本不支持以下身份驗證器類型組合: DEVICE_CREDENTIAL 和 BIOMETRIC_STRONG | DEVICE_CREDENTIAL 。如需檢查 Android 10 及更低版本中是否存在 PIN 碼、解鎖圖案或密碼,請使用 KeyguardManager.isDeviceSecure() 方法。
參考 Android Google源生生物識別(FingerprintManager) ,已經有完整的密鑰創建流程
我們使用了 Biometric 依賴庫,他可以調用系統提供的對話框在使用它的各個應用之間均保持一致,從而打造更值得信賴的用戶體驗,使用 BiometricPrompt API,
首選先需要基於 BiometricPrompt 創建生物驗證的callback
發起調用指紋感測器
在指紋識別成功之後我們可以獲取到經過授權的密鑰,然後使用此密鑰加密用戶信息並且進行存儲
當你之前已經識別過指紋並且將用戶信息加密存儲之後,後續的登錄操作就可以使用直接使用指紋自動去解密信息並且登錄
Android 知識整理
㈢ 目標檢測演算法(R-CNN,fast R-CNN,faster R-CNN,yolo,SSD,yoloV2,yoloV3)
深度學習目前已經應用到了各個領域,應用場景大體分為三類:物體識別,目標檢測,自然語言處理。 目標檢測可以理解為是物體識別和物體定位的綜合 ,不僅僅要識別出物體屬於哪個分類,更重要的是得到物體在圖片中的具體位置。
2014年R-CNN演算法被提出,基本奠定了two-stage方式在目標檢測領域的應用。它的演算法結構如下圖
演算法步驟如下:
R-CNN較傳統的目標檢測演算法獲得了50%的性能提升,在使用VGG-16模型作為物體識別模型情況下,在voc2007數據集上可以取得66%的准確率,已經算還不錯的一個成績了。其最大的問題是速度很慢,內存佔用量很大,主要原因有兩個
針對R-CNN的部分問題,2015年微軟提出了Fast R-CNN演算法,它主要優化了兩個問題。
R-CNN和fast R-CNN均存在一個問題,那就是 由選擇性搜索來生成候選框,這個演算法很慢 。而且R-CNN中生成的2000個左右的候選框全部需要經過一次卷積神經網路,也就是需要經過2000次左右的CNN網路,這個是十分耗時的(fast R-CNN已經做了改進,只需要對整圖經過一次CNN網路)。這也是導致這兩個演算法檢測速度較慢的最主要原因。
faster R-CNN 針對這個問題, 提出了RPN網路來進行候選框的獲取,從而擺脫了選擇性搜索演算法,也只需要一次卷積層操作,從而大大提高了識別速度 。這個演算法十分復雜,我們會詳細分析。它的基本結構如下圖
主要分為四個步驟:
使用VGG-16卷積模型的網路結構:
卷積層採用的VGG-16模型,先將PxQ的原始圖片,縮放裁剪為MxN的圖片,然後經過13個conv-relu層,其中會穿插4個max-pooling層。所有的卷積的kernel都是3x3的,padding為1,stride為1。pooling層kernel為2x2, padding為0,stride為2。
MxN的圖片,經過卷積層後,變為了(M/16) x (N/16)的feature map了。
faster R-CNN拋棄了R-CNN中的選擇性搜索(selective search)方法,使用RPN層來生成候選框,能極大的提升候選框的生成速度。RPN層先經過3x3的卷積運算,然後分為兩路。一路用來判斷候選框是前景還是背景,它先reshape成一維向量,然後softmax來判斷是前景還是背景,然後reshape恢復為二維feature map。另一路用來確定候選框的位置,通過bounding box regression實現,後面再詳細講。兩路計算結束後,挑選出前景候選框(因為物體在前景中),並利用計算得到的候選框位置,得到我們感興趣的特徵子圖proposal。
卷積層提取原始圖像信息,得到了256個feature map,經過RPN層的3x3卷積後,仍然為256個feature map。但是每個點融合了周圍3x3的空間信息。對每個feature map上的一個點,生成k個anchor(k默認為9)。anchor分為前景和背景兩類(我們先不去管它具體是飛機還是汽車,只用區分它是前景還是背景即可)。anchor有[x,y,w,h]四個坐標偏移量,x,y表示中心點坐標,w和h表示寬度和高度。這樣,對於feature map上的每個點,就得到了k個大小形狀各不相同的選區region。
對於生成的anchors,我們首先要判斷它是前景還是背景。由於感興趣的物體位於前景中,故經過這一步之後,我們就可以舍棄背景anchors了。大部分的anchors都是屬於背景,故這一步可以篩選掉很多無用的anchor,從而減少全連接層的計算量。
對於經過了3x3的卷積後得到的256個feature map,先經過1x1的卷積,變換為18個feature map。然後reshape為一維向量,經過softmax判斷是前景還是背景。此處reshape的唯一作用就是讓數據可以進行softmax計算。然後輸出識別得到的前景anchors。
另一路用來確定候選框的位置,也就是anchors的[x,y,w,h]坐標值。如下圖所示,紅色代表我們當前的選區,綠色代表真實的選區。雖然我們當前的選取能夠大概框選出飛機,但離綠色的真實位置和形狀還是有很大差別,故需要對生成的anchors進行調整。這個過程我們稱為bounding box regression。
假設紅色框的坐標為[x,y,w,h], 綠色框,也就是目標框的坐標為[Gx, Gy,Gw,Gh], 我們要建立一個變換,使得[x,y,w,h]能夠變為[Gx, Gy,Gw,Gh]。最簡單的思路是,先做平移,使得中心點接近,然後進行縮放,使得w和h接近。如下:
我們要學習的就是dx dy dw dh這四個變換。由於是線性變換,我們可以用線性回歸來建模。設定loss和優化方法後,就可以利用深度學習進行訓練,並得到模型了。對於空間位置loss,我們一般採用均方差演算法,而不是交叉熵(交叉熵使用在分類預測中)。優化方法可以採用自適應梯度下降演算法Adam。
得到了前景anchors,並確定了他們的位置和形狀後,我們就可以輸出前景的特徵子圖proposal了。步驟如下:
1,得到前景anchors和他們的[x y w h]坐標。
2,按照anchors為前景的不同概率,從大到小排序,選取前pre_nms_topN個anchors,比如前6000個
3,剔除非常小的anchors。
4,通過NMS非極大值抑制,從anchors中找出置信度較高的。這個主要是為了解決選取交疊問題。首先計算每一個選區面積,然後根據他們在softmax中的score(也就是是否為前景的概率)進行排序,將score最大的選區放入隊列中。接下來,計算其餘選區與當前最大score選區的IOU(IOU為兩box交集面積除以兩box並集面積,它衡量了兩個box之間重疊程度)。去除IOU大於設定閾值的選區。這樣就解決了選區重疊問題。
5,選取前post_nms_topN個結果作為最終選區proposal進行輸出,比如300個。
經過這一步之後,物體定位應該就基本結束了,剩下的就是物體識別了。
和fast R-CNN中類似,這一層主要解決之前得到的proposal大小形狀各不相同,導致沒法做全連接。全連接計算只能對確定的shape進行運算,故必須使proposal大小形狀變為相同。通過裁剪和縮放的手段,可以解決這個問題,但會帶來信息丟失和圖片形變問題。我們使用ROI pooling可以有效的解決這個問題。
ROI pooling中,如果目標輸出為MxN,則在水平和豎直方向上,將輸入proposal劃分為MxN份,每一份取最大值,從而得到MxN的輸出特徵圖。
ROI Pooling層後的特徵圖,通過全連接層與softmax,就可以計算屬於哪個具體類別,比如人,狗,飛機,並可以得到cls_prob概率向量。同時再次利用bounding box regression精細調整proposal位置,得到bbox_pred,用於回歸更加精確的目標檢測框。
這樣就完成了faster R-CNN的整個過程了。演算法還是相當復雜的,對於每個細節需要反復理解。faster R-CNN使用resNet101模型作為卷積層,在voc2012數據集上可以達到83.8%的准確率,超過yolo ssd和yoloV2。其最大的問題是速度偏慢,每秒只能處理5幀,達不到實時性要求。
針對於two-stage目標檢測演算法普遍存在的運算速度慢的缺點, yolo創造性的提出了one-stage。也就是將物體分類和物體定位在一個步驟中完成。 yolo直接在輸出層回歸bounding box的位置和bounding box所屬類別,從而實現one-stage。通過這種方式, yolo可實現45幀每秒的運算速度,完全能滿足實時性要求 (達到24幀每秒,人眼就認為是連續的)。它的網路結構如下圖:
主要分為三個部分:卷積層,目標檢測層,NMS篩選層。
採用Google inceptionV1網路,對應到上圖中的第一個階段,共20層。這一層主要是進行特徵提取,從而提高模型泛化能力。但作者對inceptionV1進行了改造,他沒有使用inception mole結構,而是用一個1x1的卷積,並聯一個3x3的卷積來替代。(可以認為只使用了inception mole中的一個分支,應該是為了簡化網路結構)
先經過4個卷積層和2個全連接層,最後生成7x7x30的輸出。先經過4個卷積層的目的是為了提高模型泛化能力。yolo將一副448x448的原圖分割成了7x7個網格,每個網格要預測兩個bounding box的坐標(x,y,w,h)和box內包含物體的置信度confidence,以及物體屬於20類別中每一類的概率(yolo的訓練數據為voc2012,它是一個20分類的數據集)。所以一個網格對應的參數為(4x2+2+20) = 30。如下圖
其中前一項表示有無人工標記的物體落入了網格內,如果有則為1,否則為0。第二項代表bounding box和真實標記的box之間的重合度。它等於兩個box面積交集,除以面積並集。值越大則box越接近真實位置。
分類信息: yolo的目標訓練集為voc2012,它是一個20分類的目標檢測數據集 。常用目標檢測數據集如下表:
| Name | # Images (trainval) | # Classes | Last updated |
| --------------- | ------------------- | --------- | ------------ |
| ImageNet | 450k | 200 | 2015 |
| COCO | 120K | 90 | 2014 |
| Pascal VOC | 12k | 20 | 2012 |
| Oxford-IIIT Pet | 7K | 37 | 2012 |
| KITTI Vision | 7K | 3 | |
每個網格還需要預測它屬於20分類中每一個類別的概率。分類信息是針對每個網格的,而不是bounding box。故只需要20個,而不是40個。而confidence則是針對bounding box的,它只表示box內是否有物體,而不需要預測物體是20分類中的哪一個,故只需要2個參數。雖然分類信息和confidence都是概率,但表達含義完全不同。
篩選層是為了在多個結果中(多個bounding box)篩選出最合適的幾個,這個方法和faster R-CNN 中基本相同。都是先過濾掉score低於閾值的box,對剩下的box進行NMS非極大值抑制,去除掉重疊度比較高的box(NMS具體演算法可以回顧上面faster R-CNN小節)。這樣就得到了最終的最合適的幾個box和他們的類別。
yolo的損失函數包含三部分,位置誤差,confidence誤差,分類誤差。具體公式如下:
誤差均採用了均方差演算法,其實我認為,位置誤差應該採用均方差演算法,而分類誤差應該採用交叉熵。由於物體位置只有4個參數,而類別有20個參數,他們的累加和不同。如果賦予相同的權重,顯然不合理。故yolo中位置誤差權重為5,類別誤差權重為1。由於我們不是特別關心不包含物體的bounding box,故賦予不包含物體的box的置信度confidence誤差的權重為0.5,包含物體的權重則為1。
Faster R-CNN准確率mAP較高,漏檢率recall較低,但速度較慢。而yolo則相反,速度快,但准確率和漏檢率不盡人意。SSD綜合了他們的優缺點,對輸入300x300的圖像,在voc2007數據集上test,能夠達到58 幀每秒( Titan X 的 GPU ),72.1%的mAP。
SSD網路結構如下圖:
和yolo一樣,也分為三部分:卷積層,目標檢測層和NMS篩選層
SSD論文採用了VGG16的基礎網路,其實這也是幾乎所有目標檢測神經網路的慣用方法。先用一個CNN網路來提取特徵,然後再進行後續的目標定位和目標分類識別。
這一層由5個卷積層和一個平均池化層組成。去掉了最後的全連接層。SSD認為目標檢測中的物體,只與周圍信息相關,它的感受野不是全局的,故沒必要也不應該做全連接。SSD的特點如下。
每一個卷積層,都會輸出不同大小感受野的feature map。在這些不同尺度的feature map上,進行目標位置和類別的訓練和預測,從而達到 多尺度檢測 的目的,可以克服yolo對於寬高比不常見的物體,識別准確率較低的問題。而yolo中,只在最後一個卷積層上做目標位置和類別的訓練和預測。這是SSD相對於yolo能提高准確率的一個關鍵所在。
如上所示,在每個卷積層上都會進行目標檢測和分類,最後由NMS進行篩選,輸出最終的結果。多尺度feature map上做目標檢測,就相當於多了很多寬高比例的bounding box,可以大大提高泛化能力。
和faster R-CNN相似,SSD也提出了anchor的概念。卷積輸出的feature map,每個點對應為原圖的一個區域的中心點。以這個點為中心,構造出6個寬高比例不同,大小不同的anchor(SSD中稱為default box)。每個anchor對應4個位置參數(x,y,w,h)和21個類別概率(voc訓練集為20分類問題,在加上anchor是否為背景,共21分類)。如下圖所示:
另外,在訓練階段,SSD將正負樣本比例定位1:3。訓練集給定了輸入圖像以及每個物體的真實區域(ground true box),將default box和真實box最接近的選為正樣本。然後在剩下的default box中選擇任意一個與真實box IOU大於0.5的,作為正樣本。而其他的則作為負樣本。由於絕大部分的box為負樣本,會導致正負失衡,故根據每個box類別概率排序,使正負比例保持在1:3。SSD認為這個策略提高了4%的准確率
另外,SSD採用了數據增強。生成與目標物體真實box間IOU為0.1 0.3 0.5 0.7 0.9的patch,隨機選取這些patch參與訓練,並對他們進行隨機水平翻轉等操作。SSD認為這個策略提高了8.8%的准確率。
和yolo的篩選層基本一致,同樣先過濾掉類別概率低於閾值的default box,再採用NMS非極大值抑制,篩掉重疊度較高的。只不過SSD綜合了各個不同feature map上的目標檢測輸出的default box。
SSD基本已經可以滿足我們手機端上實時物體檢測需求了,TensorFlow在Android上的目標檢測官方模型ssd_mobilenet_v1_android_export.pb,就是通過SSD演算法實現的。它的基礎卷積網路採用的是mobileNet,適合在終端上部署和運行。
針對yolo准確率不高,容易漏檢,對長寬比不常見物體效果差等問題,結合SSD的特點,提出了yoloV2。它主要還是採用了yolo的網路結構,在其基礎上做了一些優化和改進,如下
網路採用DarkNet-19:19層,裡麵包含了大量3x3卷積,同時借鑒inceptionV1,加入1x1卷積核全局平均池化層。結構如下
yolo和yoloV2隻能識別20類物體,為了優化這個問題,提出了yolo9000,可以識別9000類物體。它在yoloV2基礎上,進行了imageNet和coco的聯合訓練。這種方式充分利用imageNet可以識別1000類物體和coco可以進行目標位置檢測的優點。當使用imageNet訓練時,只更新物體分類相關的參數。而使用coco時,則更新全部所有參數。
YOLOv3可以說出來直接吊打一切圖像檢測演算法。比同期的DSSD(反卷積SSD), FPN(feature pyramid networks)准確率更高或相仿,速度是其1/3.。
YOLOv3的改動主要有如下幾點:
不過如果要求更精準的預測邊框,採用COCO AP做評估標準的話,YOLO3在精確率上的表現就弱了一些。如下圖所示。
當前目標檢測模型演算法也是層出不窮。在two-stage領域, 2017年Facebook提出了mask R-CNN 。CMU也提出了A-Fast-RCNN 演算法,將對抗學習引入到目標檢測領域。Face++也提出了Light-Head R-CNN,主要探討了 R-CNN 如何在物體檢測中平衡精確度和速度。
one-stage領域也是百花齊放,2017年首爾大學提出 R-SSD 演算法,主要解決小尺寸物體檢測效果差的問題。清華大學提出了 RON 演算法,結合 two stage 名的方法和 one stage 方法的優勢,更加關注多尺度對象定位和負空間樣本挖掘問題。
目標檢測領域的深度學習演算法,需要進行目標定位和物體識別,演算法相對來說還是很復雜的。當前各種新演算法也是層不出窮,但模型之間有很強的延續性,大部分模型演算法都是借鑒了前人的思想,站在巨人的肩膀上。我們需要知道經典模型的特點,這些tricks是為了解決什麼問題,以及為什麼解決了這些問題。這樣才能舉一反三,萬變不離其宗。綜合下來,目標檢測領域主要的難點如下:
一文讀懂目標檢測AI演算法:R-CNN,faster R-CNN,yolo,SSD,yoloV2
從YOLOv1到v3的進化之路
SSD-Tensorflow超詳細解析【一】:載入模型對圖片進行測試 https://blog.csdn.net/k87974/article/details/80606407
YOLO https://pjreddie.com/darknet/yolo/ https://github.com/pjreddie/darknet
C#項目參考:https://github.com/AlturosDestinations/Alturos.Yolo
項目實踐貼個圖。
㈣ 華為拍圖識物在哪裡
華為手機里都有智能識物功能,通過它可以快速識別不認識的字、物品以及人物,那麼這個功能在哪裡呢?具體如何使用呢?下面小編教給大家使用方法...
工具/原料
華為手機
方法/步驟
1/5分步閱讀
我們首先在華為手機的桌面上找到「相機」圖標,然後點擊打開相機拍攝界面,如下圖...
2/5
進入到拍攝界面以後,華為手機都是可以左右滑動的,我們往左滑動進入到「模式」;
買手機,上「天貓手機館」大牌低價搶!
廣告
3/5
一般來說模式頁面里即可看到「智能識物」功能選項了,如果沒有的話點擊其中的「下載」;
11.11拼多多狂歡鉅惠華為手機的型號無套路,直接底價!
廣告
4/5
在下載頁面中會有這個下載項,安裝以後再次進入手機模式就能看到如圖二所示的智能識物了;
查看剩餘1張圖
5/5
接著我們找到自己身邊或者網路上不認識的人或物,小編以下面的圖片為例,對著圖片拍攝然後點擊頁面下面的放大鏡圖標,這樣會跳轉到網頁,並且會告訴我們相似的人物名字,如圖所示...
查看剩餘2張圖
注意事項
以上小編以華為榮耀手機為例,其他的華為手機也類似;
手機 智能識物 華為智能識物
編輯於2018-10-16,內容僅供參考並受版權保護
贊踩分享閱讀全文
華為手機如何拍照識別物品?一來看看具體的操作方法。
工具/原料
more
手機型號:榮耀v20 系統版本:magic 2.1.0
方法/步驟
1/6分步閱讀
打開手機,仔細觀察界面,點擊相機圖標。
2/6
界面切換,點擊左上角圓圈圖標。
3/6
左右拖拽至識物。
4/6
鏡頭對准物品進行拍攝。
5/6
相機會自動識別出物體,點擊下方的網路。
6/6
左右拖拽,找到對應的物體。
方法總結:
1/1
1、仔細觀察界面,點擊相機圖標。
2、點擊左上角圓圈圖標。
3、左右拖拽,至識物。
4、鏡頭對准物品進行拍攝。
5、相機會自動識別出物體,點擊下方的網路。
6、左右拖拽,找到對應的物體。
注意事項
如果遇到問題,可以在下面提出疑問。
華為 手機
編輯於2019-11-30,內容僅供參考並受版權保護
贊踩分享閱讀全文
㈤ Opencv 圖像識別Android實戰(識別撲克牌 4.圖像識別掃盲)
我想來看這篇文章的人大多對機器學習都有一定的了解,我覺得沒有必要非常學術話的解讀這個意義。人的學習目的不就是為了認識更多的事物么,機器學習也是一樣,就是讓計算機通過學習類比來認識更多的事物。
在這里我們是讓計算機認識圖像,要讓計算機認識事物,首先得教他,他學會了自然就認識了,所以我們准備了很多樣本來告訴計算機什麼是方塊,什麼是梅花等等,當樣本足夠多的時候,計算機通過類比自然就能區別它所看到的事物了。
機器學習演算法有很多種,比如KNN,K-means,決策樹,SVM,貝葉斯等,我們通過提取樣本和目標的特徵數據,再應用這些分類演算法達到事物分類的目的,這樣就簡單的完成了一個機器學習的過程。當然機器學習不光用來分類,還有用來完成更多,更復雜的事情,目前圖像識別領域的機器學習,千變萬化的應用其實還是用來分類。所以圖像分類還是圖像識別的最基本,最重要的工作之一。
在任何情況對任何事物分類都需要有分類目標,比如一株植物是什麼科,那麼分類目標是這個植物,樣本自然就是我們已經定義好的各種植物以及植物類別。一個人是誰,我們可以用ta的面部特徵來分類,人臉就是一個需要分類的目標。同樣圖像分類我么首先要找到分類的目標,比如我們需要知道某張圖裡面是否有蘋果,通常情況下我們需要把可能存在蘋果的地方扣下來和蘋果圖片作為對比,通過對比當匹配度達到一定程度時我們就認為被扣下來圖片區域就是蘋果,這樣的處理過程通常來講叫做圖像分割,是圖像識別中不可或缺的過程,圖像分割的效果直接影響圖像識別的最終效果。為了解決這個過程,人們提出了很多演算法來解決這個問題,在我看來圖像分割任然是一個需要不斷改進技術。碰巧在這個開源項目中用到的圖像分割很簡單,不需要知道太多其中的原理,也可以很好的完成這個任務。
當前圖像識別領域有兩類主要的圖像識別手段;單步法和基於候選區識別。單步法比如yolo演算法,他直接把未知圖片傳入到神經網路,不用查找候選區就可以識別目標物體。基於候選區方法則多一個過程,第一首先找到可能存在某個物體的候選區,第二步把這些候選區和已知的樣本比對,如果匹配達到一定的程度就認為識別到某個物體。
基於候選區的演算法優缺點如下:
更少的樣本,更高效的運行速度,更容易理解的演算法,更廉價的設備,但是有些情況無法用單步法解決或者效果非常差,本開源項目就是用的基於候選區方式來解決問題。
單步法優缺點:
更多的樣本,單步法更多的使用神經網路,對設備性能要求高,能解決更加復雜的問題。
㈥ 恩施職業技術學院的專業介紹
<1>計算機與信息工程系(高職)
一、計算機應用技術
1、培養目標:
面向IT行業,培養具有與本專業相適應的文化水平和良好職業道德,掌握計算機應用技術及相關專業方向的基本知識、基本技能,能夠從事計算機軟硬體的安裝與配置、基本圖形圖像設計與製作、計算機硬體銷售、常用計算機應用軟體的應用與維修及技術服務等工作的技術應用性人才。
2、主要課程:
a.軟體技術方向
【培養目標】
通過學習SQLServer資料庫、JAVA面向對象的編程、JAVA WEB 三層架構技術、JAVA WEB 應用開發技術、JAVA開發框架和大型項目分析等專業課程及技能。培養能進行現代軟體開發和企業信息化建設的、具有職業生涯發展基礎與前途的高技能人才。
【就業方向】
程序員、資料庫管理員、高級辦公文員、企業信息化建設與管理員、計算機軟硬體系統維護員、多媒體製作員。
【職業資格證書】
軟體開發程序員、網頁開發程序員、軟體硬體維護員、營銷員等。
b.金融電信管理軟體開發方向
【培養目標】
通過學習JAVAOOP、JSP、SQLSERVER、Oracle、MYSQL、PHP、Struts2.0、Spring2、Hibernate等核心技術,以及掌握ERPCRMOA等企業級項目開發技巧。培養具備熟練的金融、電信、銀行等行業軟體開發技能和工程管理能力,同時具備相關企業信息化管理知識的高素質技能型軟體研發人才。
【就業方向與就業崗位】
可以勝任大型金融、電信、銀行等公司的軟體開發工程師、實施工程師、企業ERP、CRM、BRP等項目開發與管理工作。
【職業資格證】
國家NCIE高級軟體工程師認證、SCCE國際軟體工程師認證。
【專業特色與優勢】
引進國際領先的美斯坦福SCCE課程,實行校企共同培養模式,採用「厚基礎、寬平台、多方面」培養體系和「院系高級教授、企業項目經理」雙師資授課架構,基於工作過程的工學結合模塊式項目課程體系,項目化綜合實訓,以職業崗位為目標,以職業能力為本位,突出理實一體工學教學環節,培養企業所需的「高技能、好職素、豐富項目經驗」的高端計算機應用或軟體開發人才,雙重職業認證,三重就業保障,全國五大一線城市知名企業高薪就業。
c.高級軟體工程師方向
【培養目標】
通過學習JAVA、JSP、Oracle、PSFlash、HTML、XHTML、JAVASCRIPT、AJAX、Struts2.0、EJB3、Spring2、Flex、JBPM、Hibernate等軟體開發的高端技能。培養成為軟體研發企業、軟體外包企業、大型信息化企業急需的掌精通軟體研發技術及軟體項目管理的高級人才。
【就業方向與就業崗位】
可以勝任大型IT公司的高級軟體開發工程師、高級網站開發工程師、高級JAVA開發工程師、高級實施工程師、高級系統培訓工程師、外包工程師、企業高級項目管理等工作。
【職業資格證】
國家NCIE高級軟體工程師認證、SCCE國際軟體工程師認證。
【專業特色與優勢】
引進國際領先的美斯坦福SCCE課程,實行校企共同培養模式,採用「厚基礎、寬平台、多方面」培養體系和「院系高級教授、企業項目經理」雙師資授課架構,基於工作過程的工學結合模塊式項目課程體系,項目化綜合實訓,以職業崗位為目標,以職業能力為本位,突出理實一體工學教學環節,培養企業所需的「高技能、好職素、豐富項目經驗」的高端計算機應用或軟體開發人才,雙重職業認證,三重就業保障,全國五大一線城市知名企業高薪就業。
d.企業電子商務系統研發方向
【培養目標】
通過C、SQL Server、PSFlash、HTML、XHTML、JAVASCRIPT、AJAX、 C#3.0、Linq、Asp.NET MVC、WCF、Enterprise Library、 Silverlight、PMP項目管理、.NET平台下的電子商務系統開發等技術。培養掌握現代企業電子商務運營管理、市場策劃,特別是掌握電子商務網站、商務交易支付平台開發核心技術與維護的高素質技能型企業信息化管理人才。
【就業方向與就業崗位】
可以勝任企業電子商務系統的設計、推廣、開發、實施、維護工作。從事大型B2BB2C電子商務開發工程師、網上支付平台開發工程師、ASP.NET開發工程師等職位。
【職業資格證】
國家NCIE高級軟體工程師認證、SCCE國際軟體工程師認證。
【專業特色與優勢】
引進國際領先的美斯坦福SCCE課程,實行校企共同培養模式,採用「厚基礎、寬平台、多方面」培養體系和「院系高級教授、企業項目經理」雙師資授課架構,基於工作過程的工學結合模塊式項目課程體系,項目化綜合實訓,以職業崗位為目標,以職業能力為本位,突出理實一體工學教學環節,培養企業所需的「高技能、好職素、豐富項目經驗」的高端計算機應用或軟體開發人才,雙重職業認證,三重就業保障,全國五大一線城市知名企業高薪就業。
3、就業方向:
本專業畢業生可在地方政府、企事業單位、計算機軟硬體公司等行業從事與其專業方向相應的系統管理、初級軟體編碼、多媒體製作、網頁製作、網站建設與維護、計算機系統應用維護與技術支持,以及計算機軟硬體銷售工作,還可從事辦公自動化、業務軟體的使用與維護等工作。
二、計算機網路技術
1、培養目標:
面向計算機網路管理和應用崗位,培養具有與本專業相適應的文化水平和良好的職業素質,掌握本專業的基本知識、基本技能、基本工具以及較強的實際工作能力,熟悉常用網路體系結構,具備常用網路系統的操作和維護技能,了解中小企業網路管理需求,能夠從事中小型網路建設、管理和維護工作的專業人員。
2、主要課程:
a.網路工程方向
【培養目標】
通過學習區域網組建、網路伺服器的搭建、JAVA程序設計、 網頁設計與製作、 Web應用開發、網站建設等專業課程及技能,培養從事網路設備安裝、調試、運行、維護以及網路建設、管理、維護等工作的高素質高技能人才。
【就業方向】
網路規劃設計、電信和聯通等大型網路公司的網路工程施工與維護、政府和企業網路管理、企業網站建設與維護、網路編程程序員、計算機網路產品的銷售及相關崗位,與企業合作辦學,負責推薦就業,可與學生簽定就業合同,學生本專業就業率高,畢業後一般可拿三千以上的月工資。
【職業資格證書】
網路工程師、網路規劃設計師、網路監理師、程序員、網路管理員。
【專業特色與優勢】
本專業實驗實訓設施完善,有總投資約440萬元的國家計算機應用與軟體技術實訓基地,還有十個校外實訓基地;師資力量雄厚,有副教授四人,講師5人,專任教師「雙師」素質教師的比例達90%以上。
b.3G/4G移動商務開發方向
【培養目標】
通過學習3G/4G前端軟體開發、WAP 移動站點開發、3G/4G移動商務軟體開發、iPhone3G移動平台開發:MAC XCode、Objective C、iPhone SDK。培養熟練掌握3G/4G移動通信技術、物聯網、微軟WinCE手機操作系統平台、3G/4G信息技術、3G/4G運營能力和管理能力的高級通信實用型和管理型人才。
【就業方向與就業崗位】
可以勝任3G前端軟體開發工程師、WAP軟體工程師、Sun J2ME 3G平台開發工程師、Apple iPhone 3G平台開發工程師、移動商務管理工程師、移動商務師、3G/4G網路運營管理、移動通訊客戶端管理等相關工作。
【職業資格證】
國家NCIE高級信息化工程師認證、SCME移動通訊工程師認證。
【專業特色與優勢】
引進國際領先的美斯坦福SCME課程,實行校企共同培養模式,採用「厚基礎、寬平台、多方面」培養體系和「院系高級教授、企業項目經理」雙師資授課架構,基於工作過程的工學結合模塊式項目課程體系,項目化綜合實訓,是領先行業前沿技術的重點專業、理實一體、工學交替的重點專業,每年建設更新投入過百萬的重點專業。以高端技術為核心,以企業需求為導向,以職業能力為本位,以職業素養為突破,以項目經驗為保障,突出理實一體工學教學環節,培養掌握前沿的基於網路高端開發和3G/4G移動通訊(iPhone Android)開發人才,雙重職業認證,三重就業保障,全國五大一線城市知名企業高薪就業。
c.3G/4G物聯網設計方向
【培養目標】
通過學習3G/4G前端軟體開發、WAP 移動站點開發、3G/4G增值業務開發、J2ME移動平台開發、Android 3G/4G移動平台開發:Android SDK、Android API、Android 體系、Android 組件等技術。培養掌握物聯網物體識別系統開發、全球定位系統、紅外感應器、激光掃描器、氣體感應器、採用Android系統平台以及中國移動OPhone平台程序相關研發等技術型、設計型人才。
【就業方向與就業崗位】
可以勝任智能樓宇、智能交通、智能水利、智能物流、智能城管等系統設計和開發工作,從事物聯網物體識別技術、紅外感應,特別是採用Android系統平台以及中國移動OPhone平台程序相關3G研發等工作。
【職業資格證】
國家NCIE高級信息化工程師認證、SCME移動通訊工程師認證。
【專業特色與優勢】
引進國際領先的美斯坦福SCME課程,實行校企共同培養模式,採用「厚基礎、寬平台、多方面」培養體系和「院系高級教授、企業項目經理」雙師資授課架構,基於工作過程的工學結合模塊式項目課程體系,項目化綜合實訓,是領先行業前沿技術的重點專業、理實一體、工學交替的重點專業,每年建設更新投入過百萬的重點專業。以高端技術為核心,以企業需求為導向,以職業能力為本位,以職業素養為突破,以項目經驗為保障,突出理實一體工學教學環節,培養掌握前沿的基於網路高端開發和3G/4G移動通訊(iPhone Android)開發人才,雙重職業認證,三重就業保障,全國五大一線城市知名企業高薪就業。
d.3G/4G智能游戲設計方向
【培養目標】
通過學習WAP 移動站點開發、3G/4G增值業務開發、Android游戲及應用,iPhone游戲及應用,J2ME游戲及應用(主要包括包括:坦克大戰/雷電游戲/俄羅斯方塊/對對碰/聯網鬥地主/遠程視頻監控 /商務警務通/無線點餐系統等)。培養能夠從事游戲軟體開發和運營管理,能夠勝任游戲軟體開發技術的研製和開發的應用型專業人才。
【就業方向與就業崗位】
主要是從事3G/4G游戲開發工作,如單機版手機游戲開發工程師、網路版手機游戲開發工程師、游戲策劃架構師、游戲動畫設計師等工作。
【職業資格證】
國家NCIE高級信息化工程師認證、SCME移動通訊工程師認證。
【專業特色與優勢】
引進國際領先的美斯坦福SCME課程,實行校企共同培養模式,採用「厚基礎、寬平台、多方面」培養體系和「院系高級教授、企業項目經理」雙師資授課架構,基於工作過程的工學結合模塊式項目課程體系,項目化綜合實訓,是領先行業前沿技術的重點專業、理實一體、工學交替的重點專業,每年建設更新投入過百萬的重點專業。以高端技術為核心,以企業需求為導向,以職業能力為本位,以職業素養為突破,以項目經驗為保障,突出理實一體工學教學環節,培養掌握前沿的基於網路高端開發和3G/4G移動通訊(iPhone Android)開發人才,雙重職業認證,三重就業保障,全國五大一線城市知名企業高薪就業。
三、計算機應用技術(多媒體方向)
1、培養目標
面向平面、動畫、視音頻的製作和編輯崗位,熟悉相關平面、動畫、視音頻的常用工具,了解製作過程,掌握製作方法,能夠從事平面設計、多媒體製作、動畫和游戲製作工作的專業人員。
2、主要課程:
信息採集與處理、美術設計、多媒體技術應用、圖像處理、網頁設計與網站建設、3Dmax教程、Auto CAD教程、計算機平面設計、視音頻編輯處理、二維動畫設計與製作、三維動畫設計與製作等。
3、就業方向:
本專業畢業生可在廣告公司、彩印中心、出版社、雜志社、報社、網站、學校電教中心、多媒體課件製作公司、電視台、動畫製作公司、游戲製作公司等的平面設計、出版、多媒體製作、網頁設計、動畫製作、視音頻處理崗位從事相應工作
四、廣告設計與製作
1、培養目標
採用全新校企合作實訓模式,定向培養影視動畫 、地產建築展示、3D廣告特效等領域高端實用型人才,全程商業項目實訓教學,1:1配置高端圖形工作站實訓機房,第二學年即可應征參加動漫遊戲專業專屬的企業級創意工作室,以真實商業項目製作驅動技能提升;
2、主要課程:
Photoshop軟體操作、Maya高級模型、Maya材質與貼圖、Maya高級影視動畫、Maya高級特效、AfterEffects影視後期合成、Premiere視頻編輯、ZBrush高級雕刻,BodyPaint三維紋理繪制,群體建築渲染表現技術。
3、就業方向:
專業的影視特效製作公司、影視廣告 製作公司、影視動畫片製作公司、影視後期合成公司、電視欄目製作公司的3D角色模型師(3DCharacterArtist);3D場景藝術師(3DEnvironmentArtist);3D道具藝術師(3DPropsArtist)等。電影特效動畫師(為特效電影提供寫實動畫);角色動畫師(電影/電視/動畫片/廣告);室內表現師;建築模型師;建築渲染師;建築動畫師等。
五、建築工程系
1、培養目標:
建築工程施工一線技術與管理等工作的高等技術應用型人才。
2、就業方向:
工程項目組織、現場施工管理、質量驗收、施工安全、材料檢測、技術資料及工程造價等方面的技術工作與管理工作。
3、職業資格證書:施工員、質檢員、安全員、材料員、造價員、資料員、工程監理員、施工測量員。
4、專業特色與優勢:國家級建築技術實訓基地,專業教師90%是建造工程師、監理工程師、造價工程師,長期從事工程項目技術管理工作,有深厚理論知識和豐富的實踐能力;學生實現「頂崗實習就業一體化」,本專業初次就業率在96%以上,專業對口率98%。
<2>旅遊系
<3>電氣與機械工程系>
<4>經濟管理系
<5>生物工程系
<6>外語系
<7>人文科學系
<8>體育系
<9>政法教研室
<10>中等職業專科部
㈦ unity+vuforia打包Android,AR掃描界面是黑白的,而在某些角度又會變成彩色,或是閃爍不定,是什麼原因
我也碰到了一樣的問題,unity2018.4.9f1
內置的vuforia 目標平台android9.0
整個畫面是黑白,某些角度能看到兩個帶顏色的重影,一個偏綠一個偏水紅。若使用unity2017.4.11f1是直接黑屏,而且不顯示vuforia水印。但是卻可以識別物體,也就是說攝像頭在使用。發布蘋果卻沒有問題。十分詭異。找不到解決方法