导航:首页 > 编程语言 > python填写网页表单

python填写网页表单

发布时间:2023-11-07 08:22:21

‘壹’ python http requests 怎么实现模拟登录,提交表单

以下实例是一个完整的代码,实现了从博客获取内容发布至网络,分别实践抓取博客内容、模拟登录、表单提交这几步;
#注意,以下程序是一个完全程序,如果只需要实现模拟登录,提交表单,删除抓取部分即可,相关的代码已经清楚标注,可以根据自己实际情况修改。
代码如下:
# -*- coding: utf-8 -*-
import re
import urllib
import urllib2
import cookielib
#第一步,获取博客标题和正文 ,“IP”可以改为实际地址;
url = "IP"
sock = urllib.urlopen(url)
html = sock.read()
sock.close()
content = re.findall('(?<=blogstory">).*(?=<p class="right artical)', html, re.S)
content = re.findall('<script.*>.*</script>(.*)', content[0], re.S)
title = re.findall('(?<=<title>)(.*)-.* - CSDN.*(?=</title>)', html, re.S)
#根据文章获取内容新建表单值
blog = {'spBlogTitle': title[0].decode('utf-8').encode('gbk'), #文章标题
'spBlogText': content[0].decode('utf-8').encode('gbk'),#文章内容
'ct': "1",
'cm': "1"}
del content
del title

#第二步,模拟登录网络;
cj = cookielib.CookieJar()
#登陆网络的用户名和密码
post_data = urllib.urlencode({'username': '[username]', 'password': '[password]', 'pwd': '1'})
#登录地址路径
path = 'https://passport..com/?login'
opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(cj))
opener.addheaders = [('User-agent', 'Opera/9.23')]
urllib2.install_opener(opener)
req = urllib2.Request(path, post_data)
conn = urllib2.urlopen(req)

#获取网络登陆认证令牌
bd = urllib2.urlopen(urllib2.Request('http://hi..com/[username]/creat/blog')).read()
bd = re.findall('(?<=bdstoken\" value=\").*(?=ct)', bd, re.S)
blog['bdstoken'] = bd[0][:32]
#设置分类名
blog['spBlogCatName'] = 'php'
#第四步,比较表单,提交表单;req2 = urllib2.Request('http://hi..com/[username]/commit', urllib.urlencode(blog))
#最后,查看表单提交后返回内容,检验;
print urllib2.urlopen(req2).read()
#注意:将[username]/[password]替换为自己真实用户名和密码

‘贰’ python怎么进行网页信息输入

values是你想发送给发送给给网站的数据.
这个脚本其实在模拟一个提交表单的过程(使用POST方法, 无法在跳转后的页面的url中看出你提交了什么)...这个表单的数据全都提交给了url, 而values是想提交的数据, 他是一个字典, 他的键通常对应的是想要提交的表单中的input标签的name值, 而键对应得值就是你想给这个input标签填充的数据.

而网络搜索则不同, 他的表单以GET方式提交, 这也就意味着你不需要上述脚本中的方式, 只需要打开 http://www..com/s?wd=你想要搜索的值 这个url就可以看到搜索结果
因此大概脚本应该是这样:

import urllib
import urllib2
url = 'http://www..com/s?wd={0}'.format('希望搜索的东西')
req = urllib2.Request(url)

res = urllib2.urlopen(req)
res.read()

‘叁’ 如何用最简单的Python爬虫采集整个网站

采集网站数据并不难,但是需要爬虫有足够的深度。我们创建一个爬虫,递归地遍历每个网站,只收集那些网站页面上的数据。一般的比较费时间的网站采集方法从顶级页面开始(一般是网站主页),然后搜索页面上的所有链接,形成列表,再去采集到的这些链接页面,继续采集每个页面的链接形成新的列表,重复执行。

‘肆’ 如何用python访问网页并在表单处输入内容

我用过selenium模拟浏览器
使用selenium的chrome或firefox的webdriver打开浏览器
driver.get(url) #访问你的网页from=driver.find_elements_by_xpath("xxx")通过xpath或id等方法锁定到网页上表单的那个元素后,用
from.send_keys("xxx")来输入内容

‘伍’ 想用python编写一个脚本,登录网页,在网页里做一系列操作,应该怎样实现

python编写一个脚本腊厅的具体操作:

1、首先,打开python并创建一个新的PY文件。

‘陆’ 怎么用python抓取网页并实现一些提交操作

首先我们找到登录的元素,在输入账号处选中–>右键–>检查

然后直接查询网页源代码去找到上面的部分,根据标签来观察提交的表单参数,这里强调一下:

form标签和form标签下的input标签非常重要,form标签中的action属性代表请求的URL,input标签下的name属性代表提交参数的KEY。
代码参考如下:
import requests
url="网址" #action属性
params={
"source":"index_nav", #input标签下的name
"form_email":"xxxxxx", #input标签下的name
"form_password":"xxxxxx" #input标签下的name

}
html=requests.post(url,data=params)
print(html.text)

运行后发现已登录账号,相当于一个提交登陆的操作

阅读全文

与python填写网页表单相关的资料

热点内容
全新胜达天窗能编程吗 浏览:320
ug常用命令 浏览:349
为什么碳数增加密度减小 浏览:420
少儿计算机编程培训无聊吗 浏览:589
安卓界面更新时点击卡顿如何解决 浏览:773
日本十大漫画app哪个好用 浏览:878
做系统选择哪个文件夹 浏览:285
如何登陆mc服务器 浏览:801
华为无法定位服务器地址 浏览:963
编译原理第三版陈火旺课本图片 浏览:566
cad用什么解压缩软件 浏览:717
编译的函数模版 浏览:361
加密货币利率改变 浏览:228
复杂网络案例python 浏览:298
死命令的意思 浏览:691
哪个app可以听日语电台 浏览:105
谷轮压缩机15hp 浏览:291
python任意整数冒泡降序 浏览:32
医保卡的钱哪个app能看到 浏览:578
主服务器崩溃如何进行域迁移 浏览:319