導航:首頁 > 編程語言 > python搜房網

python搜房網

發布時間:2023-08-12 11:39:32

1. 如何用python爬取網站數據

這里簡單介紹一下吧,以抓取網站靜態、動態2種數據為慧返拍例,實驗環境win10+python3.6+pycharm5.0,主要內容如下:

抓取網站靜態數據(數據在網頁源碼中):以糗事網路網站數據為例

1.這里假設我們抓取的數據如下,主要包括用戶昵稱、內容、好笑數和評論數這4個欄位,如下:

對應的網頁源碼如下,包含我們所需要的數據:

2.對應網頁結構,主要代碼如下,很簡單,主要用到requests+BeautifulSoup,其中requests用於請求頁面,BeautifulSoup用於解析頁面:

程序運行截圖如下,已經成功爬取到數據:

抓取網站動態數據(數據不在網頁源碼中,json等文件中):以人人貸網站數據為例

1.這里假設我們爬取的是債券數據,主要包括年利率世型、借款標題、期限、金額和進度這5個欄位信息,截圖如下:

打開網頁源碼中,可以發現數據不在網頁源碼中,按F12抓包分析時,才發現在一個json文件中,如下:

2.獲取到json文件的url後,我們就可以爬取對應數據了,這里使用的包與上面類似,因為是json文件,所以還用了json這個包(解析json),主要內容如下:

程序運行截圖如下,前羨已經成功抓取到數據:

至此,這里就介紹完了這2種數據的抓取,包括靜態數據和動態數據。總的來說,這2個示例不難,都是入門級別的爬蟲,網頁結構也比較簡單,最重要的還是要會進行抓包分析,對頁面進行分析提取,後期熟悉後,可以藉助scrapy這個框架進行數據的爬取,可以更方便一些,效率更高,當然,如果爬取的頁面比較復雜,像驗證碼、加密等,這時候就需要認真分析了,網上也有一些教程可供參考,感興趣的可以搜一下,希望以上分享的內容能對你有所幫助吧。

2. python3 怎麼爬取新聞網站

需求:

從門戶網站爬取新聞,將新聞標題,作者,時間,內容保存到本地txt中。

用到的python模塊:

importre#正則表達式
importbs4#BeautifulSoup4解析模塊
importurllib2#網路訪問模塊
importNews#自己定義的新聞結構
importcodecs#解決編碼問題的關鍵,使用codecs.open打開文件
importsys#1解決不同頁面編碼問題

其中bs4需要自己裝一下,安裝方法可以參考:Windows命令行下pip安裝python whl包

程序:

#coding=utf-8
importre#正則表達式
importbs4#BeautifulSoup4解析模塊
importurllib2#網路訪問模塊
importNews#自己定義的新聞結構
importcodecs#解決編碼問題的關鍵,使用codecs.open打開文件
importsys#1解決不同頁面編碼問題

reload(sys)#2
sys.setdefaultencoding('utf-8')#3

#從首頁獲取所有鏈接
defGetAllUrl(home):
html=urllib2.urlopen(home).read().decode('utf8')
soup=bs4.BeautifulSoup(html,'html.parser')
pattern='http://w+.jia..com/article/w+'
links=soup.find_all('a',href=re.compile(pattern))
forlinkinlinks:
url_set.add(link['href'])

defGetNews(url):
globalNewsCount,MaxNewsCount#全局記錄新聞數量
whilelen(url_set)!=0:
try:
#獲取鏈接
url=url_set.pop()
url_old.add(url)

#獲取代碼
html=urllib2.urlopen(url).read().decode('utf8')

#解析
soup=bs4.BeautifulSoup(html,'html.parser')
pattern='http://w+.jia..com/article/w+'#鏈接匹配規則
links=soup.find_all('a',href=re.compile(pattern))

#獲取URL
forlinkinlinks:
iflink['href']notinurl_old:
url_set.add(link['href'])

#獲取信息
article=News.News()
article.url=url#URL信息
page=soup.find('div',{'id':'page'})
article.title=page.find('h1').get_text()#標題信息
info=page.find('div',{'class':'article-info'})
article.author=info.find('a',{'class':'name'}).get_text()#作者信息
article.date=info.find('span',{'class':'time'}).get_text()#日期信息
article.about=page.find('blockquote').get_text()
pnode=page.find('div',{'class':'article-detail'}).find_all('p')
article.content=''
fornodeinpnode:#獲取文章段落
article.content+=node.get_text()+' '#追加段落信息

SaveNews(article)

printNewsCount
break
exceptExceptionase:
print(e)
continue
else:
print(article.title)
NewsCount+=1
finally:
#判斷數據是否收集完成
ifNewsCount==MaxNewsCount:
break

defSaveNews(Object):
file.write("【"+Object.title+"】"+" ")
file.write(Object.author+" "+Object.date+" ")
file.write(Object.content+" "+" ")

url_set=set()#url集合
url_old=set()#爬過的url集合

NewsCount=0
MaxNewsCount=3

home='http://jia..com/'#起始位置

GetAllUrl(home)

file=codecs.open("D:\test.txt","a+")#文件操作

forurlinurl_set:
GetNews(url)
#判斷數據是否收集完成
ifNewsCount==MaxNewsCount:
break

file.close()

新聞文章結構

#coding:utf-8
#文章類定義
classNews(object):
def__init__(self):
self.url=None
self.title=None
self.author=None
self.date=None
self.about=None
self.content=None

對爬取的文章數量就行統計。

3. 如何找到Python的官方網站

網路搜索python,有官方標志的就是。

如何找到Python的官方網站?可以閱讀相關書籍,不過,這類型的問題更直接的是直接搜索。中英文搜索都可以,網路搜索可以使用關鍵詞Python官方網站,如下圖所示,第二條記錄就是了,要注意的是,官方網站是帶「官方」字樣的,這是網路的信譽認證,詳細情況可通過網路官方了解。

相關拓展

Python由荷蘭數學和計算機科學研究學會的Guido van Rossum於1990年代初設計,作為一門叫作ABC語言的替代品。Python提供了高效的高級數據結構,還能簡單有效地面向對象編程

Python解釋器易於擴展,可以使用C或C++(或者其他可以通過C調用的語言)擴展新的功能和數據類型。Python也可用於可定製化軟體中的擴展程序語言。Python豐富的標准庫,提供了適用於各個主要系統平台的源碼或機器碼。

2021年10月,語言流行指數的編譯器Tiobe將Python加冕為最受歡迎的編程語言,20年來首次將其置於Java、C和JavaScript之上。

以上內容參考 網路-Python

4. Python的應用前景。

目前python被用的還是蠻多的,一些大公司如Google(實現web爬蟲和搜索引擎中的很多組件),Yahoo(管理討論組),NASA,YouTube(視頻分享服務大部分由Python編寫)等等對Python都很青睞。而國內的豆瓣可以說是給Python予千萬寵愛了,它的前台後台清一色的都是Python的身影。另外,我們計算機視覺這塊用的很頻繁的OpenCV也提供了Python的介面,網上還提供了不少Python的機器學習的庫(例如milk,scikit-learn,Pylearn2等),Deep learning的一個知名的Python的庫theano,自然語言處理的庫NLTK。此外,Python為數學、科學、工程和繪圖等提供了有趣的標准庫(例如,NumPy ,SciPy和matplotlib等),Python佔有的用戶群越來越廣。
通過網路大概了解了下python的應用領域,如:系統運維、科學計算、人工智慧、網路編程(如搜索引擎、爬蟲、伺服器編程)、web開發、雲計算系統、圖形化、教育等等等…………好吧,一堆看不懂的,只注意到了「爬蟲」、「科學計算」和「圖形化」三個關鍵詞,簡單理解就是爬數據、分析挖掘和圖形展示。
Python的應用
在數據爬蟲方面,利用rullib、requests、BeautifulSoup、re、Scrapy等模塊進行爬取想要的網站資料,如搜房、淘寶、京東、微信、今日頭條、中國知網、新浪、貼吧、金融界、電影論壇等等,真正的實現所見即所得。
在數據處理方面,利用Pandas、Numpy、Scipy、PyMVPA等模塊可以幫助你在計算巨型數組、矢量分析、神經網路等方面高效率完成工作。尤其是在教育科研方面,可以發揮出獨特的優勢。
在數據展示方面,利用ReportLab 、matplotlib、basemap 等模塊可以生成相應的統計圖表或地圖等。另外,利用PyOpenGl模塊,可以非常迅速的編寫出三維場景。
總之是集數據採集、分析、挖掘及展示等功能於一體,典型的萬金油。另外,如果是專業學習python,真是工資高得讓人羨慕,具體多少就不說了,感興趣的可以去查查。

5. 零基礎學python(1)——爬取房天下網站信息

一、認識網頁

       網頁分為三個部分:HTML(結構)、CSS(樣式)、JavaScript(功能)。

二、爬取網站信息入門

1、Soup = BeautifulSoup (html, 'lxml'),使用beautifulsoup來解析網頁。

2、使用 CSS selector來復制網頁元素的位置。

三、爬取房天下網站信息 

1、導入requests和beautifulsoup

2、定義函數spider_ftx,把所需要爬取的信息都定義出來

3、調用函數spider_ftx

4、翻頁爬取二手房信息

     由於每頁最多隻能顯示40條信息,觀察每一頁網址的變化規律,寫一個循環調用的語句,把全部100頁的信息全都爬取下來。

四、小結:

     目前只能爬取到網站的100頁信息,網站為了反爬,設置了可瀏覽的頁面量100。要想爬取網站的所有信息,可以通過分類去獲取,但是如何用python實現呢,請看下集。

6. python可以做到自動抓取互聯網上的新聞更新到網站嗎

理論上完全可以實現,相應的技術方案也是比較成熟的。不知道需要爬取的網站內容復雜不復雜的。目前我想到的方案是藉助爬蟲框架,數據存儲可利用mysql,mongodb之類的。打個比方,這是我用scrapy爬取詩詞網站的數據,臘純然後存儲到Mongodb中,就是缺少一部更新。

我們可以設定一個任務,任務可以是每1分鍾更新一下爬取數據,這樣就可以做到對應網站數據的更新,至於自身網站數據的更新,因為是客戶端發起的,所以,只要做到伺服器商數汪帶據更新了,客戶端就可以看到最新的數據,當然,需要注意相應的緩存技術的影響。

總的來說,爬取網站的數據然後更新到網站,是完全可以實現的。主要是看出於什麼的目的,以及爬輪陵咐取的網站的復雜性問題。

閱讀全文

與python搜房網相關的資料

熱點內容
辭海分冊pdf 瀏覽:931
安卓系統頁面怎麼調 瀏覽:771
壓縮文件的用法 瀏覽:32
如何用瀏覽器訪問伺服器地址 瀏覽:205
soft編譯器 瀏覽:113
三軸車床的編程指令 瀏覽:71
天生敏感pdf 瀏覽:565
西瓜星球伺服器怎麼刷鑽石 瀏覽:838
php生成chm 瀏覽:658
解釋程序和編譯程序產生目標嗎 瀏覽:609
dos命令rem 瀏覽:371
plc程序員水平高低 瀏覽:854
linux伺服器linux雲 瀏覽:373
大腳重置命令 瀏覽:130
app怎麼引導頁面 瀏覽:946
pdf轉換成w0rd 瀏覽:569
壓縮空氣屬於什麼能量類型 瀏覽:881
上海交警app怎麼付費 瀏覽:601
暗黑2怎麼切換伺服器 瀏覽:20
安卓如何玩港服游戲 瀏覽:350