導航:首頁 > 編程語言 > pythongooglenet

pythongooglenet

發布時間:2024-10-17 09:27:04

Ⅰ 人工智慧入門書籍

人工智慧是計算機科學的一個分支,並不是一個單一學科,圖像識別、自然語言處理、機器人、語言識別、專家系統等等,每一個研究都富有挑戰。對人工智慧感興趣,但無法確定具體方向,如何了解人工智慧現狀和研究領域?

筆者推薦4本科普書,對於大多數人來說,閱讀難度不高,公式和理論少,內容有趣,能讀得下去;信息較新鮮且全,要有一定閱讀價值,能夠有深入的思考當然更好。書單不長,只用做科普入門。

1、《超級智能》

2、《我們最後的發明:人工智慧與人類時代的終結》

3、《智能時代》

4、《人工智慧:國家人工智慧戰略行動抓手》

Ⅱ it培訓課程有哪些 IT培訓具體都是培訓哪些

IT培訓課程要根據你選擇的專業方向來定,具體課程的話更是如此,就拿現在熱門的人工智慧課程來說,具體課程要學人工智慧技術的上機實操,包括Caffe基本使用及實戰,TensorFlow基本使用與實戰、經典卷積神經網路(AlexNet、GoogleNet、ResNet)、目標檢測(Faster R-CNN、YOLO2)、圖像分割(FCN模型、U-Net模型)、循環神經網路、強化學習、GAN系列模型講解及實戰等,使學員在建立清晰的人工智慧知識圖譜的同時,通過上機實戰和代碼落地的方式,真正學以致用,掌握課程精華。

Ⅲ 殘差網路

殘差網路(Resial Network簡稱ResNet)是在2015年繼Alexnet Googlenet VGG三個經典的CNN網路之後提出的,並在ImageNet比賽classification任務上拔得頭籌,ResNet因其簡單又實用的優點,現已在檢測,分割,識別等領域被廣泛的應用。
ResNet可以說是過去幾年中計算機視覺和深度學習領域最具開創性的工作,有效的解決了隨著網路的加深,出現了訓練集准確率下降的問題,如下圖所示:

做過深度學習的同學應該都知道,隨著網路層數的增加而導致訓練效果變差的一個原因是梯度彌散和梯度爆炸問題(vanishing/exploding gradients),這個問題抑制了淺層網路參數的收斂。但是這個問題已經通過一些參數初始化的技術較好的解決了,有興趣的同學可以看參考文獻中的以下幾篇文章:[2][3][4][5][6]。
但是即便如此,在網路深度較高的時候(例如圖中的56層網路)任然會出現效果變差的問題,我們在先前的Alexnet Googlenet VGG三個模型中可以看出,網路的深度在圖片的識別中有著至關重要的作用,深度越深能自動學習到的不同層次的特徵可能就越多,那到底是什麼原因導致了效果變差呢?

Fig. 3
左側19層的VGG模型的計算量是 19.6 billion FLOPs 中間是34層的普通卷積網路計算量是3.6 billion FLOPs。
右邊是34層的ResNet計算量是3.6billion FLOPs,圖中實線的箭頭是沒有維度變化的直接映射,虛線是有維度變化的映射。通過對比可以看出VGG雖然層數不多但是計算量還是很大的,後面我們可以通過實驗數據看到34層的ResNet的表現會比19層的更好。

從圖中可以看出在效果上,34層的殘差網路比VGG和GoogleNet都要好,A,B,C三種方案中C方案效果最好,但是B,C方案在計算量上比A方案要大很多,而效果提升的又很少,所以論文作者建議還是使用A方案較為實用。
下面我們介紹層數在50及以上的殘差網路的結構: Deeper Bottleneck Architectures。這種結構是作者為了降低訓練時間所設計的,結構對比如下圖所示:

ResNet通過殘差學習解決了深度網路的退化問題,讓我們可以訓練出更深的網路,這稱得上是深度網路的一個歷史大突破吧。也許不久會有更好的方式來訓練更深的網路,讓我們一起期待吧!
目前,您可以在 人工智慧建模平台 Mo 找到基於tensorflow 的34層的殘差網路(ResNet)實現樣例,數據集是CIFAR-10 (CIFAR的十分類數據集),這個樣例在測試集上的精度為90%,驗證集上的精度為98%。主程序在ResNet_Operator.py中,網路的Block結構在ResNet_Block.py中,訓練完的模型保存在results文件夾中。
項目源碼地址: http://momodel.cn/explore/5d1b0a031afd944132a0797d?type=app
參考文獻:
[1] _K. He, X. Zhang, S. Ren, and J. Sun. Deep resial learning for image recognition. arXiv preprint arXiv:1512.03385,2015.
[2] Y. LeCun, L. Bottou, G. B. Orr, and K.-R.M¨uller. Efficient backprop.In Neural Networks: Tricks of the Trade, pages 9–50. Springer, 1998.
[3] X. Glorot and Y. Bengio. Understanding the difficulty of training deep feedforward neural networks. In AISTATS, 2010.
[4] A. M. Saxe, J. L. McClelland, and S. Ganguli. Exact solutions to the nonlinear dynamics of learning in deep linear neural networks.arXiv:1312.6120, 2013.
[5] K. He, X. Zhang, S. Ren, and J. Sun. Delving deep into rectifiers:Surpassing human-level performance on imagenet classification. In ICCV, 2015.
[6] S. Ioffe and C. Szegedy. Batch normalization: Accelerating deep network training by recing internal covariate shift. In ICML, 2015.

Mo (網址: momodel.cn )是一個支持 Python 的 人工智慧在線建模平台 ,能幫助你快速開發、訓練並部署模型。

Mo 人工智慧俱樂部 是由網站的研發與產品設計團隊發起、致力於降低人工智慧開發與使用門檻的俱樂部。團隊具備大數據處理分析、可視化與數據建模經驗,已承擔多領域智能項目,具備從底層到前端的全線設計開發能力。主要研究方向為大數據管理分析與人工智慧技術,並以此來促進數據驅動的科學研究。

Ⅳ 13個最常用的Python深度學習庫介紹

13個最常用的Python深度學習庫介紹
如果你對深度學習和卷積神經網路感興趣,但是並不知道從哪裡開始,也不知道使用哪種庫,那麼這里就為你提供了許多幫助。
在這篇文章里,我詳細解讀了9個我最喜歡的Python深度學習庫。
這個名單並不詳盡,它只是我在計算機視覺的職業生涯中使用並在某個時間段發現特別有用的一個庫的列表。
這其中的一些庫我比別人用的多很多,尤其是Keras、mxnet和sklearn-theano。
其他的一些我是間接的使用,比如Theano和TensorFlow(庫包括Keras、deepy和Blocks等)。
另外的我只是在一些特別的任務中用過(比如nolearn和他們的Deep Belief Network implementation)。
這篇文章的目的是向你介紹這些庫。我建議你認真了解這里的每一個庫,然後在某個具體工作情境中你就可以確定一個最適用的庫。
我想再次重申,這份名單並不詳盡。此外,由於我是計算機視覺研究人員並長期活躍在這個領域,對卷積神經網路(細胞神經網路)方面的庫會關注更多。
我把這個深度學習庫的列表分為三個部分。
第一部分是比較流行的庫,你可能已經很熟悉了。對於這些庫,我提供了一個通俗的、高層次的概述。然後,針對每個庫我詳細解說了我的喜歡之處和不喜歡之處,並列舉了一些適當的應用案例。
第二部分進入到我個人最喜歡的深度學習庫,也是我日常工作中使用最多的,包括:Keras、mxnet和sklearn-theano等。
最後,我對第一部分中不經常使用的庫做了一個「福利」板塊,你或許還會從中發現有用的或者是在第二板塊中我還沒有嘗試過但看起來很有趣的庫。
接下來就讓我們繼續探索。
針對初學者:
Caffe
提到「深度學習庫」就不可能不說到Caffe。事實上,自從你打開這個頁面學習深度學習庫,我就敢打保票你肯定聽說Caffe。
那麼,究竟Caffe是什麼呢?
Caffe是由Berkeley Vision and Learning Center(BVLC)建立的深度學習框架。它是模塊化的,速度極快。而且被應用於學術界和產業界的start-of-the-art應用程序中。
事實上,如果你去翻閱最新的深度學習出版物(也提供源代碼),你就很可能會在它們相關的GitHub庫中找到Caffe模型。
雖然Caffe本身並不是一個Python庫,但它提供綁定到Python上的編程語言。我們通常在新領域開拓網路的時候使用這些綁定。
我把Caffe放在這個列表的原因是它幾乎被應用在各個方面。你可以在一個空白文檔里定義你的模型架構和解決方案,建立一個JSON文件類型的.prototxt配置文件。Caffe二進制文件提取這些.prototxt文件並培訓你的網路。Caffe完成培訓之後,你可以把你的網路和經過分類的新圖像通過Caffe二進制文件,更好的就直接通過Python或MATLAB的API。
雖然我很喜歡Caffe的性能(它每天可以在K40 GPU上處理60萬張圖片),但相比之下我更喜歡Keras和mxnet。
主要的原因是,在.prototxt文件內部構建架構可能會變得相當乏味和無聊。更重要的是, Caffe不能用編程方式調整超參數!由於這兩個原因,在基於Python的API中我傾向於對允許我實現終端到終端聯播網的庫傾斜(包括交叉驗證和調整超參數)。
Theano
在最開始我想說Theano是美麗的。如果沒有Theano,我們根本不會達到現有的深度學習庫的數量(特別是在Python)。同樣的,如果沒有numpy,我們就不會有SciPy、scikit-learn和 scikit-image,,同樣可以說是關於Theano和深度學習更高級別的抽象。
非常核心的是,Theano是一個Python庫,用來定義、優化和評估涉及多維數組的數學表達式。 Theano通過與numpy的緊密集成,透明地使用GPU來完成這些工作。
雖然可以利用Theano建立深度學習網路,但我傾向於認為Theano是神經網路的基石,同樣的numpy是作為科學計算的基石。事實上,大多數我在文章中提到的庫都是圍繞著Theano,使自己變得更加便利。
不要誤會我的意思,我愛Theano,我只是不喜歡用Theano編寫代碼。
在Theano建設卷積神經網路就像只用本機Python中的numpy寫一個定製的支持向量機(SVM),當然這個對比並不是很完美。
你可以做到嗎?
當然可以。
它值得花費您的時間和精力嗎?
嗯,也許吧。這取決於你是否想擺脫低級別或你的應用是否需要。
就個人而言,我寧願使用像Keras這樣的庫,它把Theano包裝成更有人性化的API,同樣的方式,scikit-learn使機器學習演算法工作變得更加容易。
TensorFlow
與Theano類似,TensorFlow是使用數據流圖進行數值計算的開源庫(這是所有神經網路固有的特徵)。最初由谷歌的機器智能研究機構內的Google Brain Team研究人員開發,此後庫一直開源,並提供給公眾。
相比於Theano ,TensorFlow的主要優點是分布式計算,特別是在多GPU的環境中(雖然這是Theano正在攻克的項目)。
除了用TensorFlow而不是Theano替換Keras後端,對於TensorFlow庫我並沒有太多的經驗。然而在接下來的幾個月里,我希望這有所改變。
Lasagne
Lasagne是Theano中用於構建和訓練網路的輕量級庫。這里的關鍵詞是輕量級的,也就意味著它不是一個像Keras一樣圍繞著Theano的重包裝的庫。雖然這會導致你的代碼更加繁瑣,但它會把你從各種限制中解脫出來,同時還可以讓您根據Theano進行模塊化的構建。
簡而言之:Lasagne的功能是Theano的低級編程和Keras的高級抽象之間的一個折中。
我最喜歡的:
Keras
如果我必須選出一個最喜歡的深度學習Python庫,我將很難在Keras和mxnet中做出抉擇——但最後,我想我會選Keras。
說真的,Keras的好處我說都說不完。
Keras是一個最低限度的、模塊化的神經網路庫,可以使用Theano或TensorFlow作為後端。Keras最主要的用戶體驗是,從構思到產生結果將會是一個非常迅速的過程。
在Keras中架構網路設計是十分輕松自然的。它包括一些state-of-the-art中針對優化(Adam,RMSProp)、標准化(BatchNorm)和激活層(PReLU,ELU,LeakyReLU)最新的演算法。
Keras也非常注重卷積神經網路,這也是我十分需要的。無論它是有意還是無意的,我覺得從計算機視覺的角度來看這是非常有價值的。
更重要的是,你既可以輕松地構建基於序列的網路(其中輸入線性流經網路)又可以創建基於圖形的網路(輸入可以「跳過」某些層直接和後面對接)。這使得創建像GoogLeNet和SqueezeNet這樣復雜的網路結構變得容易得多。
我認為Keras唯一的問題是它不支持多GPU環境中並行地訓練網路。這可能會也可能不會成為你的大忌。
如果我想盡快地訓練網路,那麼我可能會使用mxnet。但是如果我需要調整超參數,我就會用Keras設置四個獨立的實驗(分別在我的Titan X GPUs上運行)並評估結果。
mxnet
我第二喜歡的深度學習Python庫無疑就是mxnet(重點也是訓練圖像分類網路)。雖然在mxnet中站立一個網路可能需要較多的代碼,但它會提供給你驚人數量的語言綁定(C ++、Python、R、JavaScript等)。
Mxnet庫真正出色的是分布式計算,它支持在多個CPU / GPU機訓練你的網路,甚至可以在AWS、Azure以及YARN集群。
它確實需要更多的代碼來設立一個實驗並在mxnet上運行(與Keras相比),但如果你需要跨多個GPU或系統分配訓練,我推薦mxnet。
sklearn-theano
有時候你並不需要終端到終端的培養一個卷積神經網路。相反,你需要把CNN看作一個特徵提取器。當你沒有足夠的數據來從頭培養一個完整的CNN時它就會變得特別有用。僅僅需要把你的輸入圖像放入流行的預先訓練架構,如OverFeat、AlexNet、VGGNet或GoogLeNet,然後從FC層提取特徵(或任何您要使用的層)。
總之,這就是sklearn-theano的功能所在。你不能用它從頭到尾的訓練一個模型,但它的神奇之處就是可以把網路作為特徵提取器。當需要評估一個特定的問題是否適合使用深度學習來解決時,我傾向於使用這個庫作為我的第一手判斷。
nolearn
我在PyImageSearch博客上用過幾次nolearn,主要是在我的MacBook Pro上進行一些初步的GPU實驗和在Amazon EC2 GPU實例中進行深度學習。
Keras把 Theano和TensorFlow包裝成了更具人性化的API,而nolearn也為Lasagne做了相同的事。此外,nolearn中所有的代碼都是與scikit-learn兼容的,這對我來說絕對是個超級的福利。
我個人不使用nolearn做卷積神經網路(CNNs),但你當然也可以用(我更喜歡用Keras和mxnet來做CNNs)。我主要用nolearn來製作Deep Belief Networks (DBNs)。
DIGITS
DIGITS並不是一個真正的深度學習庫(雖然它是用Python寫的)。DIGITS(深度學習GPU培訓系統)實際上是用於培訓Caffe深度學習模式的web應用程序(雖然我認為你可以破解源代碼然後使用Caffe以外其他的後端進行工作,但這聽起來就像一場噩夢)。
如果你曾經用過Caffe,那麼你就會知道通過它的終端來定義.prototxt文件、生成圖像數據、運行網路並監管你的網路訓練是相當繁瑣的。 DIGITS旨在通過讓你在瀏覽器中執行這些任務來解決這個問題。
此外,DIGITS的用戶界面非常出色,它可以為你提供有價值的統計數據和圖表作為你的模型訓練。另外,你可以通過各種輸入輕松地可視化網路中的激活層。最後,如果您想測試一個特定的圖像,您可以把圖片上傳到你的DIGITS伺服器或進入圖片的URL,然後你的Caffe模型將會自動分類圖像並把結果顯示在瀏覽器中。干凈利落!
Blocks
說實話,雖然我一直想嘗試,但截至目前我的確從來沒用過Blocks(這也是我把它包括在這個列表裡的原因)。就像許多個在這個列表中的其他庫一樣,Blocks建立在Theano之上,呈現出一個用戶友好型的API。
deepy
如果讓你猜deepy是圍繞哪個庫建立的,你會猜什麼?
沒錯,就是Theano。
我記得在前一段時間用過deepy(做了初始提交),但在接下里的大概6-8個月我都沒有碰它了。我打算在接下來的博客文章里再嘗試一下。
pylearn2
雖然我從沒有主動地使用pylearn2,但由於歷史原因,我覺得很有必要把它包括在這個列表裡。 Pylearn2不僅僅是一般的機器學習庫(地位類似於scikit-learn),也包含了深度學習演算法的實現。
對於pylearn2我最大的擔憂就是(在撰寫本文時),它沒有一個活躍的開發者。正因為如此,相比於像Keras和mxnet這樣的有積極維護的庫,推薦pylearn2我還有些猶豫。
Deeplearning4j
這本應是一個基於Python的列表,但我想我會把Deeplearning4j包括在這里,主要是出於對他們所做事跡的無比崇敬——Deeplearning4j為JVM建立了一個開源的、分布式的深度學習庫。
如果您在企業工作,你可能會有一個塞滿了用過的Hadoop和MapRece伺服器的儲存器。也許這些你還在用,也許早就不用了。
你怎樣才能把這些相同的伺服器應用到深度學習里?
事實證明是可以的——你只需要Deeplearning4j。
總計
以上就是本文關於13個最常用的Python深度學習庫介紹的全部內容

Ⅳ TensorFlow的優勢和缺點有哪些

很多神經網路框架已開源多年,支持機器學習和人工智慧的專有解決方案也有很多。多年以來,開發人員在Github上發布了一系列的可以支持圖像、手寫字、視頻、語音識別、自然語言處理、物體檢測的機器學習框架,但並沒有一種框架可以完美地解決你所有的需求。那麼該如何選擇最適合你的開源框架呢?希望下面帶有描述的圖表以及分析可以帶給你以啟發,以此來選擇最適合你的業務需求的框架。
下圖總結了絕大多數Github上的開源深度學習框架項目,根據項目在Github的Star數量來評級,數據採集於2017年5月初。
圖片描述
TensorFlow
TensorFlow框架的前身是Google的DistBelief V2,是谷歌大腦項目的深度網路工具庫,一些人認為TensorFlow是借鑒Theano重構的。
Tensorflow一經開源,馬上引起了大量開發者的跟進。Tensorflow廣泛支持包括圖像、手寫字、語音識別、預測和自然語言處理等大量功能。TensorFlow遵循Apache 2.0開源協議。
TensorFlow在2017年2月15號發布了其1.0版本,這個版本是對先前八個不完善版本的整合。以下是TensorFlow取得成功的一些列原因:
TensorFLow提供這些工具:
TensorBroad是一個設計優良的可視化網路構建和展示工具;
TensorFlow Serving通過保持相同的伺服器架構和API,可以方便地配置新演算法和環境。TensorFlow Serving 還提供開箱即用的模型,並且可以輕松擴展以支持其他的模型和數據。
TensorFlow編程介麵包括Python和C++,Java,Go,R和Haskell語言的介面也在alpha版中支持。另外,TensorFlow還支持谷歌和亞馬遜的雲環境。
TensorFlow的0.12版本支持Windows 7, 8, Server 2016系統。由於採用C++ Eigen庫,TensorFlow類庫可以在ARM架構平台上編譯和優化。這意味著你可以不需要額外實現模型解碼器或者Python解釋器就可以在多種伺服器和移動設備上部署訓練好的模型。
TensorFlow提供細致的網路層使用戶可以構建新的復雜的層結構而不需要自己從底層實現它們。子圖允許用戶查看和恢復圖的任意邊的數據。這對復雜計算的Debug非常有用。
分布式TensorFlow在0.8版本推出,提供了並行計算支持,可以讓模型的不同 部分在不同設備上並行訓練。
TensorFlow在斯坦福大學,伯克利學院,多倫多大學和Udacity(2016年3月成立的在線學校)均有教學。
TensorFlow的缺點有:
每個計算流必須構建成圖,沒有符號循環,這樣使得一些計算變得困難;
沒有三維卷積,因此無法做視頻識別;
即便已經比原有版本(0.5)快了58倍,但執行性能仍然不及它的競爭者。
Caffe
Caffe是賈揚清的作品,目前,賈揚清是Facebook AI平台的Lead。始於2013年末,Caffe可能是第一個主流的工業級的深度學習工具包。Caffe具有卓越的卷積模型,是計算機視覺領域最受歡迎的工具之一,且2014年ImageNet 大賽的獲獎作品使用的就是Caffe框架。Caffe遵循BSD 2-Clasuse 協議。
Caffe的高速使得它非常適合於科研和商業領域。利用一個NVIDIA K40 GPU,Caffe可以每天處理60M張圖片,即推斷1毫秒一張,訓練4毫秒一張。使用最新的版本,甚至可以更快。
Caffe底層是用C++實現的,可以在各種設備上編譯。Caffe是跨平台的並且提供Windows介面,它提供C++,Python和Matlab語言介面。Caffe擁有著龐大的用戶社區,並且有大量深度網路模型在社區上貢獻,被稱為「Model Zoo」。其中,AlexNet和GoogleNet是最著名的兩個。
Caffe是視覺識別的流行框架,然而Caffe不提供像TensorFlow,CNTK或Theano一樣細粒度的層結構。你必須編寫底層代碼來構建復雜的層結構。由於它的固有架構,Caffe對循環網路和語言模型的支持不力。
Caffe2
賈揚清和他的團隊目前在Facebook致力於Caffe2的研發。2017年4月18號,Facebook基於BSD協議開源了Caffe2。Caffe2聚焦於模塊化,在移動設備和大規模部署均表現出色。和TensorFlow一樣,Caffe2頁使用C++ Eigen以支持ARM架構。
Caffe的模型可以通過腳本輕松轉化成Caffe2模型。Caffe在設計上的傾向使得它特別適合視覺相關的問題,Caffe2沿襲了它對視覺問題的強大支持,同時還加入了RNN和LSTM以更好地支持自然語言處理,手寫字識別和時間序列預測。
可以預見在不遠的將來Caffe2將會替代Caffe在深度學習社區的地位。
Microsoft Cognitive Toolkit
Microsoft Cognitive Toolkit(CNTK)設計的初衷是用於語音識別領域。CNTK支持RNN(循環神經網路)和CNN(卷積神經網路),因此他有能力勝任圖像、手寫字和語音識別問題。CNTK支持64位Linux和Windows系統,提供Python和C++語言介面,遵循MIT協議。
CNTK與TensorFlow和Theano有著類似的設計理念——把網路定義成向量操作的語義圖,向量操作例如矩陣加法、矩陣乘法以及卷積。同時,CNTK也提供細粒度的網路層設計,允許用戶使用它們設計新的復雜網路。
和Caffe一樣,CNTK底層也是C++實現並具有跨平台CPU/GPU支持。搭載在Azure GPU Lab上,CNTK能發揮出最高的分布式計算性能。目前,CNTK由於不支持ARM架構,限制了其在移動端的應用。
MXNet
MXNet源自於卡內基梅隆大學和華盛頓大學。MXNet是一個極具特色,可編程,可擴展的深度學習框架。MXNet可以混合多種語言的模型和代碼,包括Python, C++, R, Scala, Julia, Matlab, JavaScript。2017年1月30號,MXNet被納為Apache基金會孵化項目。
MXNet支持CNN、RNN、LSTM, 提供對圖像,手寫字,語音識別,預測和自然語言問題的強大支持。有人認為,MXNet是世界上最好的圖像分類器。
MXNet具有出色的可擴展性,例如GPU並行計算,存儲映像,高速開發和可移植性。另外,MXNet可以和Apache Hadoop YARN結合,YARN是一個通用分布式應用管理框架,這一特性使得MXNet成為TensorFlow的競爭者。
MXNet的一個獨特之處是它是少有的幾個支持對抗生成網路(GAN)的框架之一。這個模型被用於實驗經濟學方法中的「納什均衡」。
另一個特殊之處是,亞馬遜的CTO Werner Vogels宣布了對MXNet的支持:「今天,我們宣布MXNet將成為亞馬遜的深度學習框架選擇。我們將在現有和未來將出現的服務中使用MXNet。」蘋果公司的部分傳聞也表示該公司將會使用MXNet作為其深度學習框架。
Torch
Torch由Facebook的Royan Collobert、Soumith Chintala、曾任於Twitter現任於Nvidia的Clement Farabet和Google Deep Mind 的Koray Kavukcuoglu共同開發。其主要貢獻者是Facebook、Twitter和Nvidia。 Torch遵守BSD 3 clause 開源協議。然而,Facebook近期宣布將轉向Caffe2作為其首選深度學習框架因為它支持移動設備開發。
Torch由Lua語言實現,Lua是一種小眾語言,因此若你不熟悉這門語言,會影響到整個工作的效率。
Torch缺少像TensorFlow、MXNet on YARN和Deeplearning4J那樣的的分布式支持,缺少多種語言介面同樣限制了它的受眾。
DeepLearning4J
DeepLearning4J(DL4J)是基於Apache 2.0協議的分布式開源神經網路類庫,它由Java和Scala實現。DL4J是SkyMind的Adam Gibson開發的,它是唯一的商品級深度學習網路,可以和Hadoop、Spark結合構建多用戶多線程服務。DL4J是唯一使用Map-Rece訓練網路而使用其他類庫進行大規模矩陣操作的框架。
DL4J擁有內建的GPU支持,這一重要特性能夠支持YARN上的訓練過程。DL4J擁有豐富的深度神經網路架構支持,包括RBM,DBN,CNN,RNN,RNTN和LSTM。DL4J還支持一個向量計算庫——Canova。
由於是由Java實現,DL4J先天比Python塊,它使用多GPU執行圖像識別任務和Caffe一樣快。該框架可以出色完成圖像識別,欺詐檢測和自然語言處理任務。
Theano
Theano主要由蒙特利爾大學學習演算法研究所(MILA)創立。Yoshua Bengio是Theano的開創者,同時領導這個實驗室,該實驗室在深度學習研究領域做出巨大的貢獻,培養出約100名相關學生和從業者。Theano支持高效機器學習演算法的快速開發,遵守BSD開源協議。
Theano不像TensorFlow那樣優雅,但它提供了支持循環控制(被稱為scan)的API,可以輕松實現RNN。
Theano提供多種支持手寫字識別、圖像分類(包括醫學圖像)的卷積模型。Theano還提供三維卷積和池化用於視頻分類。在語言方面,Theano能勝任例如理解、翻譯和生成等自然語言處理任務。Theano還支持生成對抗網路(GAN),GAN即是由MILA的一位學生提出的。
Theano支持多GPU並行計算並且自帶分布式框架。Theano只支持一種開發語言,比TensorFlow速度快很多,是一種學術研究的有力工具。然而,其不支持移動平台以及沒有多種語言介面的缺陷限制了它在企業的廣泛應用。
開源與專利軟體之爭
隨著深度學習逐漸成熟,可以預知到我們將見證TensorFlow,Caffe2和MXNet的競賽。同時,軟體供應商也在提供先進的AI產品使你從數據中獲取更多價值。問題是:你會購買帶有專利的AI產品還是使用開源框架。如果使用開源框架,你將會面臨哪種框架最適合你的問題的選擇困難。而選擇專利軟體,你又將怎樣制定退出策略?任何一種選擇都需要長遠考慮。

Ⅵ 大數據培訓到底是培訓什麼

一、基礎部分:JAVA語言 和 LINUX系統

二、數據開發:

1、數據分析與挖掘

一般工作包括數據清洗,執行分析和數據可視化。學習Python、資料庫、網路爬蟲、數據分析與處理等。

大數據培訓一般是指大數據開發培訓。

大數據技術龐大復雜,基礎的技術包含數據的採集、數據預處理、分布式存儲、資料庫、數據倉庫、機器學習、並行計算、可視化等各種技術范疇和不同的技術層面。

2、大數據開發

數據工程師建設和優化系統。學習hadoop、spark、storm、超大集群調優、機器學習、Docker容器引擎、ElasticSearch、並發編程等;

課程學習一共分為六個階段:

7

閱讀全文

與pythongooglenet相關的資料

熱點內容
編譯內核必要驅動 瀏覽:742
androidstudio仿qq 瀏覽:215
mc解壓畫質 瀏覽:216
哪個app能看到自己短發的樣子 瀏覽:811
phputf8正則 瀏覽:51
php開發工具下載 瀏覽:192
java轉編碼格式 瀏覽:379
壓縮機氣缸滑片槽 瀏覽:532
java邏輯思維 瀏覽:648
在哪裡看app的內存 瀏覽:897
視頻加密什麼意思 瀏覽:863
清除網路連接命令 瀏覽:39
解壓足療店 瀏覽:286
崽崽app在哪個電視劇里出現過 瀏覽:806
pythongooglenet 瀏覽:729
編譯後生成apk 瀏覽:722
python傳值是什麼意思 瀏覽:674
江蘇在哪個app查重名 瀏覽:569
php數據鎖 瀏覽:261
京東安維app在哪裡下載 瀏覽:635