導航:首頁 > 編程語言 > python填寫網頁表單

python填寫網頁表單

發布時間:2023-11-07 08:22:21

『壹』 python http requests 怎麼實現模擬登錄,提交表單

以下實例是一個完整的代碼,實現了從博客獲取內容發布至網路,分別實踐抓取博客內容、模擬登錄、表單提交這幾步;
#注意,以下程序是一個完全程序,如果只需要實現模擬登錄,提交表單,刪除抓取部分即可,相關的代碼已經清楚標注,可以根據自己實際情況修改。
代碼如下:
# -*- coding: utf-8 -*-
import re
import urllib
import urllib2
import cookielib
#第一步,獲取博客標題和正文 ,「IP」可以改為實際地址;
url = "IP"
sock = urllib.urlopen(url)
html = sock.read()
sock.close()
content = re.findall('(?<=blogstory">).*(?=<p class="right artical)', html, re.S)
content = re.findall('<script.*>.*</script>(.*)', content[0], re.S)
title = re.findall('(?<=<title>)(.*)-.* - CSDN.*(?=</title>)', html, re.S)
#根據文章獲取內容新建表單值
blog = {'spBlogTitle': title[0].decode('utf-8').encode('gbk'), #文章標題
'spBlogText': content[0].decode('utf-8').encode('gbk'),#文章內容
'ct': "1",
'cm': "1"}
del content
del title

#第二步,模擬登錄網路;
cj = cookielib.CookieJar()
#登陸網路的用戶名和密碼
post_data = urllib.urlencode({'username': '[username]', 'password': '[password]', 'pwd': '1'})
#登錄地址路徑
path = 'https://passport..com/?login'
opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(cj))
opener.addheaders = [('User-agent', 'Opera/9.23')]
urllib2.install_opener(opener)
req = urllib2.Request(path, post_data)
conn = urllib2.urlopen(req)

#獲取網路登陸認證令牌
bd = urllib2.urlopen(urllib2.Request('http://hi..com/[username]/creat/blog')).read()
bd = re.findall('(?<=bdstoken\" value=\").*(?=ct)', bd, re.S)
blog['bdstoken'] = bd[0][:32]
#設置分類名
blog['spBlogCatName'] = 'php'
#第四步,比較表單,提交表單;req2 = urllib2.Request('http://hi..com/[username]/commit', urllib.urlencode(blog))
#最後,查看錶單提交後返回內容,檢驗;
print urllib2.urlopen(req2).read()
#注意:將[username]/[password]替換為自己真實用戶名和密碼

『貳』 python怎麼進行網頁信息輸入

values是你想發送給發送給給網站的數據.
這個腳本其實在模擬一個提交表單的過程(使用POST方法, 無法在跳轉後的頁面的url中看出你提交了什麼)...這個表單的數據全都提交給了url, 而values是想提交的數據, 他是一個字典, 他的鍵通常對應的是想要提交的表單中的input標簽的name值, 而鍵對應得值就是你想給這個input標簽填充的數據.

而網路搜索則不同, 他的表單以GET方式提交, 這也就意味著你不需要上述腳本中的方式, 只需要打開 http://www..com/s?wd=你想要搜索的值 這個url就可以看到搜索結果
因此大概腳本應該是這樣:

import urllib
import urllib2
url = 'http://www..com/s?wd={0}'.format('希望搜索的東西')
req = urllib2.Request(url)

res = urllib2.urlopen(req)
res.read()

『叄』 如何用最簡單的Python爬蟲採集整個網站

採集網站數據並不難,但是需要爬蟲有足夠的深度。我們創建一個爬蟲,遞歸地遍歷每個網站,只收集那些網站頁面上的數據。一般的比較費時間的網站採集方法從頂級頁面開始(一般是網站主頁),然後搜索頁面上的所有鏈接,形成列表,再去採集到的這些鏈接頁面,繼續採集每個頁面的鏈接形成新的列表,重復執行。

『肆』 如何用python訪問網頁並在表單處輸入內容

我用過selenium模擬瀏覽器
使用selenium的chrome或firefox的webdriver打開瀏覽器
driver.get(url) #訪問你的網頁from=driver.find_elements_by_xpath("xxx")通過xpath或id等方法鎖定到網頁上表單的那個元素後,用
from.send_keys("xxx")來輸入內容

『伍』 想用python編寫一個腳本,登錄網頁,在網頁里做一系列操作,應該怎樣實現

python編寫一個腳本臘廳的具體操作:

1、首先,打開python並創建一個新的PY文件。

『陸』 怎麼用python抓取網頁並實現一些提交操作

首先我們找到登錄的元素,在輸入賬號處選中–>右鍵–>檢查

然後直接查詢網頁源代碼去找到上面的部分,根據標簽來觀察提交的表單參數,這里強調一下:

form標簽和form標簽下的input標簽非常重要,form標簽中的action屬性代表請求的URL,input標簽下的name屬性代表提交參數的KEY。
代碼參考如下:
import requests
url="網址" #action屬性
params={
"source":"index_nav", #input標簽下的name
"form_email":"xxxxxx", #input標簽下的name
"form_password":"xxxxxx" #input標簽下的name

}
html=requests.post(url,data=params)
print(html.text)

運行後發現已登錄賬號,相當於一個提交登陸的操作

閱讀全文

與python填寫網頁表單相關的資料

熱點內容
如何復制usb加密狗 瀏覽:797
哪個app看你微笑時很美 瀏覽:906
mac啟動命令 瀏覽:600
ngc伺服器是什麼的簡稱 瀏覽:71
深度系統如何創建文件夾 瀏覽:846
臨汾單片機步進電機驅動電路 瀏覽:76
全新勝達天窗能編程嗎 瀏覽:320
ug常用命令 瀏覽:349
為什麼碳數增加密度減小 瀏覽:420
少兒計算機編程培訓無聊嗎 瀏覽:589
安卓界面更新時點擊卡頓如何解決 瀏覽:773
日本十大漫畫app哪個好用 瀏覽:878
做系統選擇哪個文件夾 瀏覽:285
如何登陸mc伺服器 瀏覽:801
華為無法定位伺服器地址 瀏覽:963
編譯原理第三版陳火旺課本圖片 瀏覽:566
cad用什麼解壓縮軟體 瀏覽:717
編譯的函數模版 瀏覽:361
加密貨幣利率改變 瀏覽:228
復雜網路案例python 瀏覽:298