⑴ 用python如何直接获取jsp生成的验证码图片
你只需要正常请求图片就行了,分析一下image的src,把它拼接成一个完整的URL去请求就好了,得到的有可能是BASE64编码串,或者是文件,把它保存下来就可以了。
⑵ python爬取验证码图片,遇到验证码src属性为完整的网址应该怎么做
爬虫中手动输入验证码方法无法获取图片src地址
验证码在html中图片标签内容:
<class=“verCodeImg” src="/kaptcha.jpg?v=0.234724039578059" οnclick=“verCode(this)”>
< class=“verCodeImg” src="/kaptcha.jpg?v=0.234724239578059" οnclick=“verCode(this)”>
可知获取到验证码的src地址就能动态的获得验证码
因为验证码是动态的!动态的!动态的!
用动态爬取网页的方法:
要用到selenium库
其实获得了验证码的src地址,我还是没能成功登陆
因为即使是相同的链接点进去,每一次刷新都会有不同的验证码
通过动态网页打开是一张
解析src地址出来是另一张
⑶ python如何识别验证码
我们首先识别最简单的一种验证码,即图形验证码。这种验证码最早出现,现在也很常见,一般由4位字母或者数字组成。例如,中国知网的注册页面有类似的验证码,页面如下所示:
表单中最后一项就是图形验证码,我们必须完全正确输入图中的字符才可以完成注册。
更多有关验证码的知识,可以参考这些文章:
Python3爬虫进阶:识别图形验证码
Python3爬虫进阶:识别极验滑动验证码
Python3爬虫进阶:识别点触点选验证码
Python3爬虫进阶:识别微博宫格验证码
·本节目标以知网的验证码为例,讲解利用OCR技术识别图形验证码的方法。
·准备工作识别图形验证码需要库tesserocr,以mac安装为例:在mac下,我们首先使用Homebrew安装ImageMagick和tesseract库: brew install imagemagickbrew install tesseract 接下来再安装tesserocr即可:pip3 install tesserocr pillow这样我们就完成了 tesserocr的安装。
·获取验证码为了便于实验,我们先将验证码的图片保存到本地。打开开发者工具,找到验证码元素。验证码元素是一张图片,它的ser属 性是CheckCode.aspk。所以我们直接打开如下链接就可以看到一个验证码,右键保存即可,将其命名为code.jpg:
这样我们就得到一张验证码图片,以供测试识别使用。
相关推荐:《Python教程》
识别测试
接下来新建一个项目,将验证码图片放到项目根目录下,用tesserocr库识别该验证码,代码如下所示:
这里我们新建了一个Image对戏那个,调用了tesserocr的image_to_text( )方法。传入该Image对象即可完成识别,实现过程非常简单,结果如下:
我们可以看到,识别的结果和实际结果有偏差,这是因为验证码内的多余线条干扰了图片的识别。
另外,tesserocr还有一个更加简单的方法,这个方法可以直接将图片文件转为字符串,代码如下:
不过这种方法的识别效果不如上一种的好。
验证码处理
对于上面的图片,我们可以看到其实并没有完全识别正确,所以我们需要对图像作进一步的处理,如灰度转换、二值化等操作。
我们可以利用Image对象的convert( )方法参数传入L,即可将图片转化为灰度图像,代码如下:
传入1即可将图片进行二值化处理,如下所示:
我们还可以指定二值化的阈值。上面的方法采用的是默认阈值127。不过我们不能直接转化原图,要将原图先转化为灰度图像,然后再指定二值化阈值,代码如下:
在这里,变量threshold代表二值化阈值,阈值设置为160,之后我们来看看我们的结果:
我们可以看到现在的二维码就比较方便我们进行识别了;那么对于一些有干扰的图片,我们做一些灰度和二值化处理,这会提高图片识别的正确率。
⑷ 如何利用Python做简单的验证码识别
先是获取验证码样本。。。我存了大概500个。
用dia测了测每个字之间的间距,直接用PIL开始切。
from PIL import Image
for j in range(0,500):
f=Image.open("../test{}.jpg".format(j))
for i in range(0,4):
f.crop((20+20*i,0,40+20*i,40)).save("test{0}-{1}.jpg".format(j,i+1))
上面一段脚本的意思是把jpg切成四个小块然后保存
之后就是二值化啦。
def TotallyShit(im):
x,y=im.size
mmltilist=list()
for i in range(x):
for j in range(y):
if im.getpixel((i,j))<200:
mmltilist.append(1)
else:
mmltilist.append(0)
return mmltilist
咳咳,不要在意函数的名字。上面的一段代码的意思是遍历图片的每个像素点,颜色数值小于200的用1表示,其他的用0表示。
其中的im代表的是Image.open()类型。
切好的图片长这样的。
只能说这样切的图片还是很粗糙,很僵硬。
下面就是分类啦。
把0-9,“+”,”-“的图片挑好并放在不同的文件夹里面,这里就是纯体力活了。
再之后就是模型建立了。
这里我试了自己写的还有sklearn svm和sklearn neural_network。发现最后一个的识别正确率高的多。不知道是不是我样本问题QAQ。
下面是模型建立的代码
from sklearn.neural_network import MLPClassifier
import numpy as np
def clf():
clf=MLPClassifier()
mmltilist=list()
X=list()
for i in range(0,12):
for j in os.listdir("douplings/douplings-{}".format(i)):
mmltilist.append(TotallyShit(Image.open("douplings/douplings-{0}/{1}".format(i,j)).convert("L")))
X.append(i)
clf.fit(mmltilist,X)
return clf
大概的意思是从图片源中读取图片和label然后放到模型中去跑吧。
之后便是图像匹配啦。
def get_captcha(self):
with open("test.jpg","wb") as f:
f.write(self.session.get(self.live_captcha_url).content)
gim=Image.open("test.jpg").convert("L")
recognize_list=list()
for i in range(0,4):
part=TotallyShit(gim.crop((20+20*i,0,40+20*i,40)))
np_part_array=np.array(part).reshape(1,-1)
predict_num=int(self.clf.predict(np_part_array)[0])
if predict_num==11:
recognize_list.append("+")
elif predict_num==10:
recognize_list.append("-")
else:
recognize_list.append(str(predict_num))
return ''.join(recognize_list)
最后eval一下识别出来的字符串就得出结果了。。
顺便提一句现在的bilibili登陆改成rsa加密了,麻蛋,以前的脚本全部作废,心好痛。
登陆的代码。
import time
import requests
import rsa
r=requests.session()
data=r.get("act=getkey&_="+str(int(time.time()*1000))).json()
pub_key=rsa.PublicKey.load_pkcs1_openssl_pem(data['key'])
payload = {
'keep': 1,
'captcha': '',
'userid': "youruserid",
'pwd': b64encode(rsa.encrypt((data['hash'] +"yourpassword").encode(), pub_key)).decode(),
}
r.post("",data=payload)
⑸ Python面试数据分析,爬虫和深度学习一般都问什么问题,笔试题目考哪些
一面: 技术面试
面试官是一个比较老练的技术总监,貌似80后:
你先简单做个自我介绍吧。
答:恩,好的,面试官你好,很高兴能来到贵公司面试爬虫工程师一职。我叫XXX,来自于***,毕业于****大学,**学历。(如果专业不是计算机专业,就不要介绍自己的专业,如果是大专以下学历,也不要说自己学历,扬长避短这个道理大家应该都懂得)有2年多爬虫工作经验(如果真实是1年多,就说2年,如果真实是2年多就说3年),工作过2家公司(公司尽量不要说太多,如果2-3年经验说2家就好,以免说的过多让人觉得这人太容易干一段不干,说的太少,可能在一个公司技术积累比较单一),第一家是从实习开始工作的。我就主要介绍下我上家公司的情况吧。我上家公司是****,是一家外包公司(如果是培训班毕业的尽可能说外包,因为在外包公司,任何项目都可能做,方便后面很多问题的解释),我在这家公司做了一年多,这家公司在****。我们这家公司是共有50多人。我在里面负责公司的数据采集爬取,数据处理,绘图分析等(爬虫爬下来的数据很多都会进行一些清洗,可以把自己数据处理,绘图的经验说出来,增加优势,如果没有的话,就业余花时间去学习这方面,常规的方法都不难)。期间主要负责了集团对一些招聘网站、电商网站、金融网站、汽车网站(如果是单一业务的公司,你可能就说不了这么多种类了,一般采集的数据都会比较单一,这就体现了说外包的好处)。我之所以在上家公司离职是因为上家的公司项目基本都已经做完上线了,后面又接的项目感觉挑战性不大,希望寻找一个平台做更多的项目(这个离职原因因人而异,如果换城市的话也可以简单粗暴说我家人、朋友在这边,如果还是同一个城市的话也可以按照我的那样说,也可以其他方式,但是建议不要说公司经营不好之类的,不喜欢这家公司等等,经营不好可能跟公司员工也有关系,如果回答不喜欢上家公司,面试官会接着问,为什么不喜欢,如果我们公司也是这种情况,你会不喜欢吗,面试offer几率就会大大减少)。因为来之前了解过贵公司,现在主要做金融数据采集的任务,后面也会进行一些大数据分析的工作,觉得项目规划很有远见就过来了。(面试前先查下公司底细,知己知彼)因为我在之前公司做过爬虫、分析方面的工作,贵公司的这个项目也刚好是处于初期阶段,我非常喜欢贵公司的这些项目。并且我认为我有能力将贵公司的项目做好,能胜任贵公司爬虫工程师一职,我的情况大概就是这样,您看您们这边还需了解其他什么吗?
2.你主要采集的产业领域有哪些?接触过金融行业吗?
答:我之前主要接触过汽车行业,招聘行业,电商行业,金融行业,金融行业也接触过,但是说实话项目并不是很多,但是技术是相通的,可能刚开始不是很熟悉,只要适应一俩个星期都不是问题。
3.介绍爬虫用到的技术
答:requests、scrapy:爬虫框架和分布式爬虫
xpath:网页数据提取
re:正则匹配
numpy、pandas:处理数据
matplotlib:绘图
mysql:数据存储
redis:爬虫数据去重和url去重
云打:处理常规验证码
复杂验证码:用selenium模拟登陆、处理滑块验证码等(滑块验证码有方法,之前破解过滑块验证码,有空我会出个基本使用教程,进行滑块验证码破解,但不一定通用,因为每个网站反爬措施设置都不一样)
4.处理过的最难的验证码?
答:12306点击图片验证码。原理:图片发送给打码平台,平台返回图片位置数值,通过计算返回数字和图片坐标的关系,进行模拟登陆
5.当开发遇到甩锅问题怎么解决?
答:如果是小问题自己感觉影响不大,背锅就背了,毕竟如果是刚入公司很多不懂,可能会犯一些错误,如果是大问题,就找责任人(虚心点,不卑不亢)
1.你为什么要从上家公司离职?
答:上家公司离职是因为上家的公司项目基本都已经做完上线了,后面又接的项目感觉挑战性不大,希望寻找一个平台做更多的项目
2.来之前了解过我们公司吗?
答:来之前了解过贵公司,现在主要做金融数据采集的任务,后面也会进行一些大数据分析的工作
3.简单介绍一下你最大的缺点跟优点?
答:我的优点是对工作认真负责,团队协作能力好,缺点是言辞表达需要提高,还有对一些细节的把握(我最大的缺点就是对细节过分追求,有多少人想这样说的,能把自己的缺点说成这么好听的优点,也是666了,这样说面试成绩减10分缺点就老老实实说一点模棱两可的缺点就好了,不要过于滑头,也不要太实在)
4.你怎么理解你应聘的职位,针对你应聘的职位你最擅长的是什么?
答:这份职位不仅仅是爬虫方面的技术岗位,更是学习新知识,探索新领域的一条路,希望能有机会给公司贡献一份力量。最擅长数据采集、处理分析
5.你对加班有什么看法?除了工资,你希望在公司得到什么?
答:1,适当的加班可以接受,过度的加班不能,因为要考虑个人,家庭等因素,同时我也会尽量在规定的时间内完成分配给我的任务,当然加班也希望获得相应的加班费。2,希望这份工作能让我发挥我的技能专长,这会给我带来一种满足感,我还希望我所做的工作能够对我目前的技能水平形成一个挑战,从而能促使我提升着急。
6.你的期望薪资是多少?
答:我的期望薪资是13K,因为上家公司已经是10k,而且自己也会的东西比较多,前端、后端、爬虫都会,跳槽希望有一定的增长。
7.你什么时候能到岗上班?
答:因为我已经从上家公司离职,可以随时到岗。(想早上班就别托,先答应越早越好)
8.你还有什么要问我的吗?
答:问了公司的福利待遇,上班时间,培养计划。(上班时间是5天制,没有培养计划,项目初创时期)最后结束面试,说这2天会电话通知,因为后面还好几个竞争对手面试。
结论:面试是个概率事件,同时也跟运气有关,在我的话术之上多进行面试总结,多面一些公司,相信大家都能找到理想工作
⑹ python简单验证码识别的实现过程
demo :
import pytesseract
from PIL import Image
image = Image.open("captcha.png")
print(pytesseract.image_to_string(image))
=================================================
=================================================中文识别
import pytesseract
from PIL import Image
image = Image.open("00.jpg")
print(pytesseract.image_to_string(image,lang='chi_sim'))
有时候文本识别率并不高,建议图像识别前,先对图像进行灰度化和 二值化
效果如下(有时候第一次可能识别失败,可以写个循环逻辑让它多识别几次,一般程序运行1-3次基本会识别成功):
⑺ 如何利用Python 做验证码识别
用python加“验证码”为关键词在里搜一下,可以找到很多关于验证码识别的文章。我大体看了一下,主要方法有几类:一类是通过对图片进行处理,然后利用字库特征匹配的方法,一类是图片处理后建立字符对应字典,还有一类是直接利用ocr模块进行识别。不管是用什么方法,都需要首先对图片进行处理,于是试着对下面的验证码进行分析。
一、图片处理
这个验证码中主要的影响因素是中间的曲线,首先考虑去掉图片中的曲线。考虑了两种算法:
第一种是首先取到曲线头的位置,即x=0时,黑点的位置。然后向后移动x的取值,观察每个x下黑点的位置,判断前后两个相邻黑点之间的距离,如果距离在一定范围内,可以基本判断该点是曲线上的点,最后将曲线上的点全部绘成白色。试了一下这种方法,结果得到的图片效果很一般,曲线不能完全去除,而且容量将字符的线条去除。
第二种考虑用单位面积内点的密度来进行计算。于是首先计算单位面积内点的个数,将单位面积内点个数少于某一指定数的面积去除,剩余的部分基本上就是验证码字符的部分。本例中,为了便于操作,取了5*5做为单位范围,并调整单位面积内点的标准密度为11。处理后的效果:
二、字符验证
这里我使用的方法是利用pytesser进行ocr识别,但由于这类验证码字符的不规则性,使得验证结果的准确性并不是很高。具体哪位大牛,有什么好的办法,希望能给指点一下。
三、准备工作与代码实例
1、PIL、pytesser、tesseract
(1)安装PIL:下载地址:http:// www. pythonware. com/procts/pil/(2)pytesser:下载地址:http :/ /code. google. com/p/pytesser/,下载解压后直接放在代码相同的文件夹下,即可使用。
(3)Tesseract OCR engine下载:http: / / code.google. com/p/tesseract-ocr/,下载后解压,找到tessdata文件夹,用其替换掉pytesser解压后的tessdata文件夹即可。
2、具体代码
复制代码
#encoding=utf-8
###利用点的密度计算
import Image,ImageEnhance,ImageFilter,ImageDrawimport sys
from pytesser import *
#计算范围内点的个数
def numpoint(im):
w,h = im.size
data = list( im.getdata() )
mumpoint=0
for x in range(w):
for y in range(h):
if data[ y*w + x ] !=255:#255是白色
mumpoint+=1
return mumpoint
#计算5*5范围内点的密度
def pointmi(im):
w,h = im.size
p=[]
for y in range(0,h,5):
for x in range(0,w,5):
box = (x,y, x+5,y+5)
im1=im.crop(box)
a=numpoint(im1)
if a<11:##如果5*5范围内小于11个点,那么将该部分全部换为白色。
for i in range(x,x+5):
for j in range(y,y+5):
im.putpixel((i,j), 255)
im.save(r'img.jpg')
def ocrend():##识别
image_name = "img.jpg"
im = Image.open(image_name)
im = im.filter(ImageFilter.MedianFilter())enhancer = ImageEnhance.Contrast(im)
im = enhancer.enhance(2)
im = im.convert('1')
im.save("1.tif")
print image_file_to_string('1.tif')
if __name__=='__main__':
image_name = "1.png"
im = Image.open(image_name)
im = im.filter(ImageFilter.DETAIL)
im = im.filter(ImageFilter.MedianFilter())enhancer = ImageEnhance.Contrast(im)
im = enhancer.enhance(2)
im = im.convert('1')
##a=remove_point(im)
pointmi(im)
ocrend()
⑻ 如何利用Python做简单的验证码识别
1摘要
验证码是目前互联网上非常常见也是非常重要的一个事物,充当着很多系统的防火墙功能,但是随时OCR技术的发展,验证码暴露出来的安全问题也越来越严峻。本文介绍了一套字符验证码识别的完整流程,对于验证码安全和OCR识别技术都有一定的借鉴意义。
然后经过了一年的时间,笔者又研究和get到了一种更强大的基于CNN卷积神经网络的直接端到端的验证识别技术(文章不是我的,然后我把源码整理了下,介绍和源码在这里面):
基于python语言的tensorflow的‘端到端’的字符型验证码识别源码整理(github源码分享)
2关键词
关键词:安全,字符图片,验证码识别,OCR,Python,SVM,PIL
3免责声明
本文研究所用素材来自于某旧Web框架的网站完全对外公开的公共图片资源。
本文只做了该网站对外公开的公共图片资源进行了爬取,并未越权做任何多余操作。
本文在书写相关报告的时候已经隐去漏洞网站的身份信息。
本文作者已经通知网站相关人员此系统漏洞,并积极向新系统转移。
本报告的主要目的也仅是用于OCR交流学习和引起大家对验证安全的警觉。
4引言
关于验证码的非技术部分的介绍,可以参考以前写的一篇科普类的文章:
互联网安全防火墙(1)--网络验证码的科普
里面对验证码的种类,使用场景,作用,主要的识别技术等等进行了讲解,然而并没有涉及到任何技术内容。本章内容则作为它的技术补充来给出相应的识别的解决方案,让读者对验证码的功能及安全性问题有更深刻的认识。
5基本工具
要达到本文的目的,只需要简单的编程知识即可,因为现在的机器学习领域的蓬勃发展,已经有很多封装好的开源解决方案来进行机器学习。普通程序员已经不需要了解复杂的数学原理,即可以实现对这些工具的应用了。
主要开发环境:
python3.5
python SDK版本
PIL
图片处理库
libsvm
开源的svm机器学习库
关于环境的安装,不是本文的重点,故略去。
6基本流程
一般情况下,对于字符型验证码的识别流程如下:
准备原始图片素材
图片预处理
图片字符切割
图片尺寸归一化
图片字符标记
字符图片特征提取
生成特征和标记对应的训练数据集
训练特征标记数据生成识别模型
使用识别模型预测新的未知图片集
达到根据“图片”就能返回识别正确的字符集的目标
7素材准备
7.1素材选择
由于本文是以初级的学习研究目的为主,要求“有代表性,但又不会太难”,所以就直接在网上找个比较有代表性的简单的字符型验证码(感觉像在找漏洞一样)。
最后在一个比较旧的网站(估计是几十年前的网站框架)找到了这个验证码图片。
原始图:
然后就将图片素材特征化,按照libSVM指定的格式生成一组带特征值和标记值的向量文
⑼ python 实现12306模拟浏览器登录 手动输入验证码 怎么输入
代码中验证码提供有两种方式,第一种通过webbrowser的open直接在浏览器中打开含有验证码的图片,第二种就是将其以jepg格式存在C:\\Users\\Administrator\\Desktop\\checkcode.jepg。你可以根据自己主机的用户名更改路径。同时这个代码必须先指定用户名和账号也可以实时输入账号的密码,小小修改一下代码就可以。
⑽ python 爬虫,关于验证码的问题。输入验证码才能搜索。
#给你个例子参考验证码请求一次就变了
#!/usr/bin/python
#coding=utf-8
importrequests
importurllib
importurllib2,hashlib,md5
importcookielib
def_md5(password):
md5=hashlib.md5()
md5.update(str.encode(password))
psw=md5.hexdigest()
returnpsw
url='https://passport.liepin.com/captcha/randomcode?2hy270c2ji1'
req=urllib2.Request(url)
res_data=urllib2.urlopen(req)
res=res_data.read()
output_file=open('1.jpg','wb')
output_file.writelines(res)
output_file.close()
verifycode=res_data.headers['Set-Cookie'].split(';')[0]
verifycode=verifycode.replace('verifycode=','')
filename=res_data.headers['Content-disposition'].split(';')[1].strip()
exec(filename)
cookiejar=cookielib.CookieJar()
opener=urllib2.build_opener(urllib2.HTTPCookieProcessor(cookiejar))
vidcode=raw_input(u"请输入验证码(在本路径1.jpg):")
data={'user_login':"[email protected]",
'isMd5':"1",
'user_pwd':_md5('love123456'),
'verifycode':vidcode,
'url':""}
url='https://passport.liepin.com/h/login.json'
data=urllib.urlencode(data)
headers={'Content-Type':'application/x-www-form-urlencoded','X-Requested-With':'XMLHttpRequest','Cookie':'verifycode={0};'.format(verifycode)}
request=urllib2.Request(url,data,headers)
response=opener.open(request)
print'-------result-------------'
printresponse.read()
print'-------headers-------------'
printresponse.headers
print'-------cookies-------------'
forcookieincookiejar:
printcookie