1. 自制表白代码
追女孩最重要的是什么?
相貌平平,追女生,重要的是什么?是坚持,记得以前有这样一件事,男生喜欢一个女孩,坚持追了29天,到第30天的时候,男孩没有再像往常那样出现,也正是这天,女孩心里想,如果今天还来了,我就答疑他,就这样,错过将是错过;当然在恋爱中也会有很多因素,如果没有让女生倒追的资本,
在这个人人都在秀情商的时候,做为程序员我们也要操作起来!散发我们的荷尔蒙!今天就大家奉献上最强表白程序!此程序结合数据抓取 + 微信自动发消息 + 定时任务,实现一个能每天自动定时给你心爱的 ta 发送:你们相识相恋天数 + 情话 + 我爱你的图片。具体的消息如下。
每天要发送给她的信息如下:
这里需要填写的第一个字段是 ta 的称呼,inLoveDays 为你们相识相恋的天数。
love_word 是每天为 ta 精心准备情话内容,当然如果你的文笔好也可以自己写
最后也是最重要的!每天不尽相同“我爱你”的图片!
实现思路
本次程序运行的环境是 windows10 + python 3.6,此次主要用到的库有 selenium、itchat、request。程序主要分为两部分第一数据的抓取,一些情话信息和图片信息。另一部就是利用 itchat 自动发送消息给你的好友。
情话信息
如果对你的文笔有信心,可以自己写每天的情话。当然大部分人的文笔跟我一样的,那我们就利用网络上的情话啦!
表白图片资源
为了配合此次表白程序,我专门去找了些带有“我爱你”的图片资源。通过一些贴吧的贴子,我们就可以获取到大量的这样资源。
程序源码
此次表白程序主要有 5 个函数
crawl_Love_words()
此函数通过 selenium + xpath 来抓取情话网站的资源,并存入到当前目录下的“love_word.txt”文件。
crawl_love_image()
此函数用来爬取贴吧带有“我爱你”的图片资源,通过 request + re 来实现。代码并不复杂,在正则表达式那也简单的写了一个,用来匹配当前也所有的图片资源。
mkdir(path)
此函数用来在当前目录下创建一个新的文件夹,以便存储相应的数据。
send_new()
此函数通过利用 itchat 库,实现给你的微信好友自动发送消息。在这个函数中我利用 datetime 来计算你们之间相识相恋的时间。并且在登录的时候添加了一个“hotReload=True”,这样你就可以不用每次运行程序的时候都要登录。关于 itchat 更多的操作,大家可以去网上查找相应的资料。
main()
main() 函数就是我们主逻辑函数,程序运行的逻辑顺序就是在这个函数里规定的。在 main() 里我首先判断下当前路径下是否有“love_word.txt”文件,如果有则提示相应的信息,没有的话才去执 crawl_Love_words() 函数,去网上抓取一些情话数据。
其次再判断下当前目录下是否有“img”文件夹,用来判断我们是否有图片资源,没有则执行 crawl_love_image() 来抓取贴吧上的图片资源。
最后我们所需的数据都已准备完善,则调用 send_news() 函数,整理下要发送的数据格式,然后自动给你的 ta 发送消息。
定时任务
每天定时发送我主要是用 while True 简单的实现,通过判断当前的时间是否是你所需要发送的时间,来达到每天定时发送。
表白程序使用教程
首先你把相应的源码下载下来,后台回复“表白”即可获取。其次把相应的库先事先安装好,随后运行程序则会显示一个微信网页登录的二维码,扫描登录即可。
2. python新手代码是什么
python新手代码是:
1、shuizitiqu.py——————数字提取。
2、socker_ping.py——————长ping 检测网络状态。
3、spider_tieba.py——————爬取网络贴吧图片。
4、tianqi.py——————微信自动回复天气。
5、ticket_searchTrain.py——————12306火车票查询。
6、ticket_stations.py——————12306火车站点。
7、txt.py——————txt文件抽取。
8、weixinhuifu.py——————微信自动回复天气。
9、xlsfile.py——————xls文件提取。
3. 求编程大佬 Python 爬虫
一:Beautiful Soup 爬虫
requests库的安装与使用
安装beautiful soup 爬虫环境
beautiful soup 的解析器
re库 正则表达式的使用
bs4 爬虫实践: 获取网络贴吧的内容
bs4 爬虫实践: 获取双色球中奖信息
bs4 爬虫实践: 获取起点小说信息
bs4 爬虫实践: 获取电影信息
bs4 爬虫实践: 获取悦音台榜单
二: Scrapy 爬虫框架
安装Scrapy
Scrapy中的选择器 Xpath和CSS
Scrapy 爬虫实践:今日影视
Scrapy 爬虫实践:天气预报
Scrapy 爬虫实践:获取代理
Scrapy 爬虫实践:糗事网络
Scrapy 爬虫实践: 爬虫相关攻防(代理池相关)
三: 浏览器模拟爬虫
Mechanize模块的安装与使用
利用Mechanize获取乐音台公告
Selenium模块的安装与使用
浏览器的选择 PhantomJS
Selenium & PhantomJS 实践: 获取代理
Selenium & PhantomJS 实践: 漫画爬虫
4. 如何用Python做爬虫
在我们日常上网浏览网页的时候,经常会看到一些好看的图片,我们就希望把这些图片保存下载,或者用户用来做桌面壁纸,或者用来做设计的素材。
我们最常规的做法就是通过鼠标右键,选择另存为。但有些图片鼠标右键的时候并没有另存为选项,还有办法就通过就是通过截图工具截取下来,但这样就降低图片的清晰度。好吧其实你很厉害的,右键查看页面源代码。
我们可以通过python来实现这样一个简单的爬虫功能,把我们想要的代码爬取到本地。下面就看看如何使用python来实现这样一个功能。