1. 如何用python抓取js生成的数据
如果对抓取的性能没有什么要求的话, 尝试一下selenium或者watir吧.
web自动化测试脚本用好了可以做很多事情.
利用你的浏览器执行好js, 然后再从dom里面取数据.
另外一个情况, 如果你知道js是通过ajax或者api取数据的, 直接去抓数据源, 得到的不是json就是xml, 然后处理数据吧
2. python如何获得js执行之后的源代码,或者是谷歌浏览器“审查元素”得到的源代码
你的意思是需要python获取js后还要运行js,输出运行结果?据我所知,自带的库没有这个功能,其实你可以换个思路,用python模拟js运行的结果,然后向网站提交数据,一般我就是这么干的。
3. python 调用了js之后怎么重新获取网页内容
1、你需要一个配置好的PHP环境(配置方法在网上搜) 2、将下载后的ECSHOP压缩包中的upload文件解压到网站根目录下 3、在浏览器中输入localhost/upload,按步骤配置即可 在本机配置好之后,通过FTP上传到你的空间
4. Python怎么获取网页中js生成的数据
js代码是需要js引擎运行的,Python只能通过HTTP请求获取到HTML、CSS、JS原始代码而已。
不知道有没有用Python编写的JS引擎,估计需求不大。
我一般用PhantomJS、CasperJS这些引擎来做浏览器抓取。
直接在其中写JS代码来做DOM操控、分析,以文件方式输出结果。
让Python去调用该程序,通过读文件方式获得内容。
5. python 用什么模块处理网页的javascript
lxml 配合 html5lib
可以很好的解析 html DOM
但对于js的解析 据我所知现在没有什么很成熟的模块能做这个
解析js肯定不是正则能办得到的, 比较现实的方案是
从webkit下手, 但光这一个库就有10+M
(利用webkit自己解析js等解析完之后读取html dom, 什么时候解析完,什么内容需要解析,什么内容不应该解析是使用的难点)
如果你碰到的js代码比较简单
可以自己看看js代码然后使用python模拟js代码得到网址
其中使用webkit是最难的(不是简单显示界面,需要自己hook)
模拟js其次
lxml是最普遍的了
(这个解析一般的html必须配合其他html解析库,自带的那个html解析不是很健壮碰到稍微差点的页面就不能正确解析)
另外html DOM 里面 beautifulsoup 是一个比较老道的使用正则实现解析HTML DOM的库.
6. python获取页面js
这个,你可以使用pyqt, 通过WEBKIT下载。网上有一个别人做好,似乎叫sphenix。 自己做也不麻烦。 这样JS和COOKIE都可以支持。
7. 如何用python爬虫直接获取被js修饰过的网页Elements
对于这种动态加载的网站,建议使用第三方库selenium爬取。
它可以完全模拟浏览器,等待网站全部加载完成后再进行数据的自动获取。
对于主流的ChromeDriver、InternetExplorerDriver、FirefoxDriver、OperaDriver都支持,网站上的元素也支持多种选择器,如class、id、xpath等。
但是用习惯以后,对于这种非纯静态页面,离开selenium感觉就完全不会爬虫了。
8. python 有几种方法可以获取js动态源码。 用哪种方法好
最好的方法就是使用selenium这种库哦。简单介绍一下selenium,这本身是一种网站自动测试的库,所以可以模拟用户的所有交互行为,包括输入、点击、拖拉、滚动等等和用户完全相同的操作,所以也和真正打开网页一样,可以响应Javascript的行为,可以加载JS异步加载的网页。selenium最好配合PhantomJS使用,这样就没有界面,完全自动处理哦。