① 怎麼用python從多個網址中爬取內容
在使用Python進行網頁內容爬取時,我們可以採用requests包和BeautifulSoup4包來完成基本的網頁數據抓取任務。requests包用於發送HTTP請求,而BeautifulSoup4則幫助我們解析HTML和XML文檔。這兩個工具結合使用,可以輕松地從網路上獲取和處理網頁信息。
然而,如果只是簡單地把抓取到的內容寫入Excel,那麼格式可能不太美觀。考慮到這一點,建議將抓取的數據寫入txt文件或xml文件。這兩種格式更易於讀取和編輯,且不會因為Excel的格式限制而影響數據展示。
如果確實需要將數據寫入Excel文件,可以考慮使用pandas包或openpyxl包。這兩個庫提供了更豐富的功能,能夠幫助我們更好地管理和展示數據。例如,pandas可以輕松地將數據轉換為DataFrame對象,方便進行數據分析和處理;而openpyxl則能提供更精細的Excel文件操作功能,如設置單元格樣式、合並單元格等。
使用這些工具時,首先需要安裝相應的庫。以pip為例,可以使用命令如pip install requests、pip install beautifulsoup4、pip install pandas或pip install openpyxl來安裝這些庫。
示例代碼如下:
python
import requests
from bs4 import BeautifulSoup
from pandas import DataFrame
url = 'http://example.com'
response = requests.get(url)
soup = BeautifulSoup(response.text, 'html.parser')
data = []
for item in soup.find_all('div', class_='item-class'):
title = item.find('h1').text
content = item.find('p').text
data.append([title, content])
df = DataFrame(data, columns=['Title', 'Content'])
df.to_excel('output.xlsx', index=False)
這段代碼展示了如何從指定URL獲取數據,並將其寫入Excel文件。當然,這只是一個基礎示例,實際應用中可能需要根據具體需求進行調整。