『壹』 java寫網路爬蟲,如何爬取在同一個網頁中,但是已經被隱藏的div(需要點擊顯示更多)
這種是用js實現的。所以後面的內容實際上是動態生成的,網路爬蟲抓取的是靜態頁面。
至於解決辦法,網上有幾種:
一種是使用自動化測試工具去做,比如selenium,可以模擬點擊等操作,但是這個其實和爬蟲還是有很大區別的。
二是利用特定的類庫在後端調用js,python的倒是有,但是java的我就不清楚了。
三是自己找到相關的頁面的js代碼,分析出來相關的請求url,直接調新的url就行了,但是一般的js都是加密壓縮的,但是你可以試試。
『貳』 python網路爬蟲和java爬蟲有什麼區別
爬蟲目前主要開發語言為java、Python、c++
對於一般的信息採集需要,各種語言差別不大。
c、c++
搜索引擎無一例外使用C\C++ 開發爬蟲,猜想搜索引擎爬蟲採集的網站數量巨大,對頁面的解析要求不高,部分支持javascript
python
網路功能強大,模擬登陸、解析javascript,短處是網頁解析
python寫起程序來真的很便捷,著名的python爬蟲有scrapy等
java
java有很多解析器,對網頁的解析支持很好,缺點是網路部分
java開源爬蟲非常多,著名的如 nutch 國內有webmagic
java優秀的解析器有htmlparser、jsoup
對於一般性的需求無論java還是python都可以勝任。
如需要模擬登陸、對抗防採集選擇python更方便些,如果需要處理復雜的網頁,解析網頁內容生成結構化數據或者對網頁內容精細的解析則可以選擇java。
『叄』 Python與爬蟲有什麼關系
爬蟲一般是指網路資源的抓取,因為python的腳本特性,python易於配置,對字元的處理也非常靈活,加上python有豐富的網路抓取模塊,所以兩者經常聯系在一起。 簡單的用python自己的urllib庫也可以;用python寫一個搜索引擎,而搜索引擎就是一個復雜的爬蟲。從這里你就了解了什麼是Python爬蟲,是基於Python編程而創造出來的一種網路資源的抓取方式,Python並不是爬蟲。
Python為什麼適合些爬蟲?
1)抓取網頁本身的介面
相比與其他靜態編程語言,如java,c#,C++,python抓取網頁文檔的介面更簡潔;相比其他動態腳本語言,如perl,shell,python的urllib2包提供了較為完整的訪問網頁文檔的API。(當然ruby也是很好的選擇)
此外,抓取網頁有時候需要模擬瀏覽器的行為,很多網站對於生硬的爬蟲抓取都是封殺的。這是我們需要模擬user agent的行為構造合適的請求,譬如模擬用戶登陸、模擬session/cookie的存儲和設置。在python里都有非常優秀的第三方包幫你搞定,如Requests,mechanize
2)網頁抓取後的處理
抓取的網頁通常需要處理,比如過濾html標簽,提取文本等。python的beautifulsoap提供了簡潔的文檔處理功能,能用極短的代碼完成大部分文檔的處理。
其實以上功能很多語言和工具都能做,但是用python能夠幹得最快,最干凈。Life is short, u need python.
『肆』 java web 可以使用python爬蟲嗎
可以,不過怎麼使用你可以去CSDN論壇問問
『伍』 比較分析基於java和python的爬蟲框架,要詳細的~
我只知道python的爬蟲框架,scrapy 下載一個scrapy模塊,結合lxml可以很快實現抓取,非常方便。可以多線程,自由的設定處理方式,抓取間隔,頭信息等。。
『陸』 java和Python哪個適合寫爬蟲
當然是Python,一般我們都口語化說Python爬蟲,爬蟲工程師都是用python語言。
Python獨特的優勢是寫爬蟲的關鍵。1)跨平台,對Linux和windows都有不錯的支持;2)科學計算、數值擬合:Numpy、Scipy;3)可視化:2d:Matplotlib, 3d: Mayavi2;4)復雜網路:Networkx、scrapy爬蟲;5)互動式終端、網站的快速開發。
用Python爬取信息的方法有三種:
1、正則表達式。實現步驟分為五步:1)在tomcat伺服器端部署一個html網頁;2)使用URL與網頁建立聯系;3)獲取輸入流,用於讀取網頁中的內容;4)建立正則規則;5)將提取到的數據放到集合中。
2、BeautifulSoup。
Beautiful Soup支持各種html解析器,包括python自帶的標准庫,還有其他的許多第三方庫模塊。其中一個是lxml parser。藉助網頁的結構和屬性等特性來解析網頁的工具,有了它我們不用再去寫一些復雜的正則,只需要簡單的幾條語句就可以完成網頁中某個元素的提取。
3、Lxml。Lxml是Python的一個解析庫,支持HTML和XML的解析,支持xpath解析方式,而且解析效率非常高。Lxml主要解決三個問題:1)有一個XML文件,如何解析;2)解析後,如果查找、定位某個標簽;3)定位後如何操作標簽,比如訪問屬性、文本內容等。
當網頁結構簡單並且想要避免額外依賴(不需要安裝庫),使用正則表達式更為合適。當需要爬取數據量較少時,使用較慢的BeautifulSoup也可以的。當數據量大時,需要追求效益時,Lxml時最好選擇。
爬蟲是一個比較容易上手的技術,也許你看一篇文檔就能爬取單個網頁上的數據。但對於大規模爬蟲,並不是1*n這么簡單,因此很多企業都在高薪招聘Python精英人才。
『柒』 java和python哪個適合寫爬蟲
python相對比較適合寫爬蟲,因為它很多都是寫好的函數,直接調用即可。
『捌』 怎麼樣使用Python的Scrapy爬蟲框架
有些人問,開發網路爬蟲應該選擇Nutch、Crawler4j、WebMagic、scrapy、WebCollector還是其他的?這里按照我的經驗隨便扯淡一下:
上面說的爬蟲,基本可以分3類:
1.分布式爬蟲:Nutch
2.JAVA單機爬蟲:Crawler4j、WebMagic、WebCollector
3. 非JAVA單機爬蟲:scrapy
第一類:分布式爬蟲
爬蟲使用分布式,主要是解決兩個問題:
1)海量URL管理
2)網速
現在比較流行的分布式爬蟲,是Apache的Nutch。但是對於大多數用戶來說,Nutch是這幾類爬蟲里,最不好的選擇,理由如下:
1)Nutch是為搜索引擎設計的爬蟲,大多數用戶是需要一個做精準數據爬取(精抽取)的爬蟲。Nutch運行的一套流程里,有三分之二是為了搜索引擎而設計的。對精抽取沒有太大的意義。也就是說,用Nutch做數據抽取,會浪費很多的時間在不必要的計算上。而且如果你試圖通過對Nutch進行二次開發,來使得它適用於精抽取的業務,基本上就要破壞Nutch的框架,把Nutch改的面目全非,有修改Nutch的能力,真的不如自己重新寫一個分布式爬蟲框架了。
2)Nutch依賴hadoop運行,hadoop本身會消耗很多的時間。如果集群機器數量較少,爬取速度反而不如單機爬蟲快。
3)Nutch雖然有一套插件機制,而且作為亮點宣傳。可以看到一些開源的Nutch插件,提供精抽取的功能。但是開發過Nutch插件的人都知道,Nutch的插件系統有多蹩腳。利用反射的機制來載入和調用插件,使得程序的編寫和調試都變得異常困難,更別說在上面開發一套復雜的精抽取系統了。而且Nutch並沒有為精抽取提供相應的插件掛載點。Nutch的插件有隻有五六個掛載點,而這五六個掛載點都是為了搜索引擎服務的,並沒有為精抽取提供掛載點。大多數Nutch的精抽取插件,都是掛載在「頁面解析」(parser)這個掛載點的,這個掛載點其實是為了解析鏈接(為後續爬取提供URL),以及為搜索引擎提供一些易抽取的網頁信息(網頁的meta信息、text文本)。
4)用Nutch進行爬蟲的二次開發,爬蟲的編寫和調試所需的時間,往往是單機爬蟲所需的十倍時間不止。了解Nutch源碼的學習成本很高,何況是要讓一個團隊的人都讀懂Nutch源碼。調試過程中會出現除程序本身之外的各種問題(hadoop的問題、hbase的問題)。
5)很多人說Nutch2有gora,可以持久化數據到avro文件、hbase、mysql等。很多人其實理解錯了,這里說的持久化數據,是指將URL信息(URL管理所需要的數據)存放到avro、hbase、mysql。並不是你要抽取的結構化數據。其實對大多數人來說,URL信息存在哪裡無所謂。
6)Nutch2的版本目前並不適合開發。官方現在穩定的Nutch版本是nutch2.2.1,但是這個版本綁定了gora-0.3。如果想用hbase配合nutch(大多數人用nutch2就是為了用hbase),只能使用0.90版本左右的hbase,相應的就要將hadoop版本降到hadoop 0.2左右。而且nutch2的官方教程比較有誤導作用,Nutch2的教程有兩個,分別是Nutch1.x和Nutch2.x,這個Nutch2.x官網上寫的是可以支持到hbase 0.94。但是實際上,這個Nutch2.x的意思是Nutch2.3之前、Nutch2.2.1之後的一個版本,這個版本在官方的SVN中不斷更新。而且非常不穩定(一直在修改)。
所以,如果你不是要做搜索引擎,盡量不要選擇Nutch作為爬蟲。有些團隊就喜歡跟風,非要選擇Nutch來開發精抽取的爬蟲,其實是沖著Nutch的名氣(Nutch作者是Doug Cutting),當然最後的結果往往是項目延期完成。
如果你是要做搜索引擎,Nutch1.x是一個非常好的選擇。Nutch1.x和solr或者es配合,就可以構成一套非常強大的搜索引擎了。如果非要用Nutch2的話,建議等到Nutch2.3發布再看。目前的Nutch2是一個非常不穩定的版本。
『玖』 網站爬蟲有哪些,python語言和java語言
常見語言都可以實現爬蟲JavaPythonRuby等等。
一般用python挺多的,都是使用Scrapy。python的爬蟲框架,scrapy下載一個scrapy模塊,結合lxml可以很快實現抓取,非常方便。可以多線程,自由的設定處理方式,抓取間隔,頭信息等。
『拾』 是java爬蟲還是python
當然是python爬蟲嘍!