❶ 如何用python爬取出HTML指定标签内的文本
你好!
可以通过lxml来获取指定标签的内容。
#安装lxml
pipinstalllxml
importrequests
fromlxmlimporthtml
defgetHTMLText(url):
....
etree=html.etree
root=etree.HTML(getHTMLText(url))
#这里得到一个表格内tr的集合
trArr=root.xpath("//div[@class='news-text']/table/tbody/tr");
#循环显示tr里面的内容
fortrintrArr:
rank=tr.xpath("./td[1]/text()")[0]
name=tr.xpath("./td[2]/div/text()")[0]
prov=tr.xpath("./td[3]/text()")[0]
strLen=22-len(name.encode('GBK'))+len(name)
print('排名:{:<3},学校名称:{:<{}} ,省份:{}'.format(rank,name,strLen,prov))
希望对你有帮助!
❷ 如何将python运行结果保存成txt
在最下面加上
with open("三.txt", "w") as f_w:
f_w.write(repr(C))
❸ 求一个python3爬虫代码,可以从小说网站上直接把小说的文字抄下来,并整合到一个新的文本里
frombs4importBeautifulSoup
fromrequests.
importre
importrequests
importos
defget_html_text(url):
try:
r=requests.get(url)
r.raise_for_status()
returnr.text
exceptRequestException:
returnNone
defget_chapter_names(html):
soup=BeautifulSoup(html,'lxml')
charpter=soup.select('.bg')
charpter_names=[]
forentryincharpter[1:]:
charpter_name=re.findall('<h2>(.*?)</h2>',str(entry))
file_name=re.findall('<ahref.*?>(.*?)</a>',str(entry))
ifcharpter_nameandfile_name:
fornameinfile_name:
name=name.split('')[0]
charpter_names.append(charpter_name[0]+'_'+name)
else:
pass
returnset(charpter_names)
defget_each_url(html):
soup=BeautifulSoup(html,'lxml')
urls=soup.select('ullia')
forurlinurls:
link=url.get('href')
text=url.text.split('')[0]
full_name=url.text.replace('?','')
yield{'url':link,'text':text,'full_name':full_name}
print(text)
defget_text(url):
r=requests.get(url)
r.encoding=r.apparent_encoding
soup=BeautifulSoup(r.text,'lxml')
items=soup.select('div.content-body')
item=re.findall(';(.*?);',items[0].text,re.S)
returnitem[0].encode()
defsave_to_file(url,text,full_name):
base_dir='mu'
path='{}\{}\{}'.format(os.getcwd(),base_dir,text)
ifnotos.path.exists(path):
try:
os.makedirs(path)
except:
pass
try:
withopen(path+'\'+full_name+'.txt','wb')asf:
f.write(get_text(url))
except:
pass
defmain():
url='http://seputu.com/'
html=get_html_text(url)
chapters=get_chapter_names(html)
forchapterinchapters:
foreachinget_each_url(html):
ifeach['text']==chapter.split('_')[-1]:
save_to_file(each['url'],chapter,each['full_name'])
if__name__=='__main__':
main()
❹ (源码分享)利用Python识别提取图像文字(中文英文都可以)
你想了解怎么利用程序自动识别网站验证码吗?识别提取图像文字(中文英文都可以)
分享一点简单有用的小项目:python
源码分享如下:
看视频教程链接:(点击识别图像文字视频教程链接)
一、首先需要安装 Tesseract模块及 语言包
Tesseract OCR光学字符识别
Windows系统:
安装网站 (放在不需要权限的纯英文路径下):
: https://digi.bib.uni-mannheim.de/tesseract/
可以下载一些语言包:
https://github.com/tesseract-ocr/
安装完成后,如果想要在命令行中使用Tesseract,那么应该设置环境变量。
还有一个环境变量需要设置的是,要把训练的数据文件路径也放到环境变量中。
在环境变量中,添加一个TESSDATA_PREFIX=C:path_to_tesseractdata eseractdata。
在Python代码中操作tesseract。需要安装一个库,叫做pytesseract。通过pip的方式即可安装:
pip install pytesseract
并且,需要读取图片,需要借助一个第三方库叫做PIL。通过pip list看下是否安装。如果没有安装,通过pip的方式安装:
pip install PIL
使用pytesseract将图片上的文字转换为文本文字的示例代码如下:
❺ Python批量读取加密Word文档转存txt文本实现
# -*- coding:utf-8 -*-
from win32com import client as wc
import os
key = '文档密码'
def Translate(input, output):
# 转换
wordapp = wc.Dispatch('Word.Application')
try:
doc = wordapp.Documents.Open(input, False, False, False,key)
doc.SaveAs(FileName=output, FileFormat=4, Encoding="gb2312")
doc.Close()
print(input, "完成")
os.remove(input)
# 为了让python可以在后续操作中r方式读取txt和不产生乱码,参数为4
except:
print(input,"密码错误")
if __name__ == '__main__':
#docx文档物理路径
path = r"C:Usersdocx"
key = '文档密码'
j=0
for file in os.listdir(path):
if '.doc' in file:
name = file.split(".docx")[0]
#输入文档物理路径
input_file = r"C:Usersdocx"+""+file
#输出文档物理路径
output_file=r"C:Users xt"+""+name+".txt"
Translate(input_file, output_file)
j=j+1
print(j)
else:continue
❻ Python代码保存到word
python代码只是纯文本,语法高亮是ide的功能。所以如果你是想导出与ide一样的样式,至少你得说你在用什么ide。