导航:首页 > 编程语言 > java异步http

java异步http

发布时间:2022-11-06 06:08:17

java如何在后台访问一个网页

document.getElementById("test").innerHTML="securityCode.jsp?111";111这里随机个数字即可

PS:拖死全家

㈡ 关于用Java在Tomcat上部署http服务的问题。

你用SOCKET编程需要编写两个端,一个是客户端,一个是服务端。
既然部署上TOMCAT,那么服务端的编程就变成TOMCAT上服务端的SERVLET的编程。写一个SERVLET接收请求、返回响应。你想打印什么都可以。
这个时候客户端就简单成一个表单页面(如登录页面那样),可以使用html,jsp编写。也可以直接使用URL在浏览器中进行请求。也可以仍然SOCKET发送、接收请求。
你需要简单的学习下SERVLET/JSP的WEB编程。前台的页面、后台的SERVLET是对socket编程的封装。

㈢ 在java中是否可以通过javax.servlet.http.HttpServletRequest对象判断请求是否是异步请求啊

推荐你在异步提交时,多提交一个参数isAJAX=true;
然后,在过滤器中判断这个参数来决定过不过滤。

㈣ Java实现一个HTTP基于xml的post请求 如何在struts2 action获取

//用户名校验方法
//这个方法是用XMLHTTPRequest对象进行异步数据交互

var xmlhttp;
function verify(){

//alert(xmlhttp.readyState);
//×××××××××readyState变更0.1.2.3.4

//1.使用dom的方式获取文本框中的值
//是dom中获取元素节点的一种方法一个元素节点对应hrml中的一个标签,如果<input>.value可以获得一个元素节点的value属性值
//注意取值.value;否则前台取不到本想取到的值
var userName = document.getElementById("userName").value;

//2.创建xmlhttpRequest对象
//需要针对不同浏览器建立不同的代码
//Window.XMLHttpRequest尽量放置在window.ActiveXObject之前
if(window.XMLHttpRequest){
//针对firefox,mozillar,opera,safari,ie7,ie8
xmlhttp = new XMLHttpRequest();
//修正mozillar浏览器的bug语句
if (xmlhttp.overrideMimeType){
xmlhttp.overrideMimeType("text/xml");
}
}else if(window.ActiveXObject){
//针对的是ie6,ie5.5,ie5
//两个可以用于创建XMLHTTPRequset对象的控件名称,保存在一个js的数组中
//排在前面的版本较新
var activexName = ["MSXML2.XMLHTTP","Microsoft.XMLHTTP"];
for (var i = 0;i<activexName.length;i++){
try{
//取出一个控件的名进行创建,如果创建成功就停止循环
//如果创建失败,会抛出异常,然后可以继续循环,继续尝试创建
xmlhttp = new ActiveXObject(activexName[i]);
break;
}catch(e){
}
}
//确认XMLHTTPRequest对象创建成功
}
if (!xmlhttp){
alert("XMLHttpRequest对象创建失败!!");
return;
}else{
alert("xmlhttp");
}

//2.注册回调函数
//注册回调函数时候,只需要函数名,不要加括号
xmlhttp.onreadystatechange = callback;

////3.设置链接信息
////第一个参数表示http的请求方式,支持所有的http请求方式,主要使用个体和post方法
////第二个参数表示请求的url地址,get方式请求的参数也在url中
////第三个参数表示采用异步还是同步交互方式,true表示异步
//xmlhttp.open("GET","AJAXXMLServer?name=" + userName,true);

//post请求方式的代码
xmlhttp.open("POST","AJAXXMLServer",true);
//post方式需要自己设置http请求头
xmlhttp.setRequestHeader("Content-Tpye","application/x-www-form-urlencoded");
//post方式发送数据
xmlhttp.send("name= " + userName);

////4.发送数据,开始和服务器端进行交互
////同步方式下,send这句话在服务器端数据回来后才执行
////异步方式下,send这句话会立即完成执行
////get方式下的要发送数据都已经在url中了。因此不需要在词单独send内容了
//xmlhttp.send(null);

}

//回调函数
function callback(){
//5.接收响应数据
//判断对象的状态是交互完成的即为4
if (xmlhttp.readyState == 4){
//判断http的交互是否成功
if (xmlhttp.status == 200){

//使用responseXML的方式来接受xml数据的dom对象
var domObj = xmlhttp.responseXML;
//<message>是文本信息</message>
//dom利用getElementsByTagName可以根据标签来获取元素节点。返回的是一个数组
var messageNodes = domObj.getElementsByTagName("message");
if (messageNodes.length > 0){
//获取message节点中的文本内容
//注:无效取值用法:::var responseMessage = messageNodes[0].innerHTML;
//首先messaNodes[0]获取的的是message标签所获取的文本信息,即元素节点。
//message标签中的文本在dom中是message标签所对应的元素节点的子节点,firstChild可以获取当前节点的第一个子节点
//通过以下方式就可以获取到文本内容多对应的节点
var textNode = messageNodes[0].firstChild;
//对于文本节点来说,可以通过nodeValue的方式返回文本节点的文本内容
var responseMessage = textNode.nodeValue;

alert("-----------------");
//将数据显示在页面上
//通过dom的方式找到div标签所对应的元素节点
var divNode = document.getElementById("result");
//alert(divNode);
//设置元素节点中的html内容
divNode.innerHTML = responseMessage;
}else{
alert("XML数据格式错误,原始文本内容为"+ xmlhttp.responseText);
}
}else{
alert("出错了!");
}
}

}

这样返回的是一个数据,你看看对你修改成返回文件有没有用

㈤ 用在异步任务中用HttpUrlConnection获取json的时候 运行到.connect();就崩溃 求解决

android5.0以后主线程不允许获取网络数据,防止卡顿

㈥ 如何使用java多线程处理http请求,求思路

1、先说长连接吧,如果TCP协议的话长连接可以通过心跳包来实现。 2、推送的话,这个可以弄一个定时器,来控制线程,推送发送完毕,线程stop()。

㈦ java多线程,调用http接口报错,java.net.ConnectException: Connection refused: connect

能成功首先排除防火墙或端口开发问题;
其次确定你连接的端口是否有最大连接数限制(类似mysql有最大连接线程数);
还有就是对应服务的拒绝策略是啥,默认丢弃

㈧ 你的这个“JAVA多线程处理http请求”怎么处理的我现在也遇到了,能可点思路或dome吗

你的意思是得到很多txt文件后,多线程解析吗?
可以实现,将txt文件编号。
多线程解析后得到想要的(部分数据)。
将(部分数据)根据编号进行组合得到最终数据。
(小难点:如果确认所有的线程都已经执行完毕,再进行数据的组合)

高级点的,在组合时发现某个编号的数据不存在,可以重新解析,如果解析不成功,可以返回错误数据,指明是哪个txt文件的哪儿有问题。

㈨ java springMVC中前端一个发出http请求,请求中有A、B两个操作,B操作比较耗时。

如果A操作和B操作之间没有必然的关系的话,可以对B操作另起一个线程去执行,但是如果两个操作之间存在因果关系的话只能等待

㈩ java中有没有第三方包有HttpWebRequest类的

Java开源Web爬虫

Heritrix

Heritrix是一个开源,可扩展的web爬虫项目。Heritrix设计成严格按照robots.txt文件的排除指示和META robots标签。
更多Heritrix信息

WebSPHINX

WebSPHINX是一个Java类包和Web爬虫的交互式开发环境。Web爬虫(也叫作机器人或蜘蛛)是可以自动浏览与处理Web页面的程序。WebSPHINX由两部分组成:爬虫工作平台和WebSPHINX类包。
更多WebSPHINX信息

WebLech

WebLech是一个功能强大的Web站点下载与镜像工具。它支持按功能需求来下载web站点并能够尽可能模仿标准Web浏览器的行为。WebLech有一个功能控制台并采用多线程操作。
更多WebLech信息

Arale

Arale主要为个人使用而设计,而没有像其它爬虫一样是关注于页面索引。Arale能够下载整个web站点或来自web站点的某些资源。Arale还能够把动态页面映射成静态页面。
更多Arale信息

JSpider

JSpider:是一个完全可配置和定制的Web Spider引擎.你可以利用它来检查网站的错误(内在的服务器错误等),网站内外部链接检查,分析网站的结构(可创建一个网站地图),下载整个Web站点,你还可以写一个JSpider插件来扩展你所需要的功能。
更多JSpider信息

spindle

spindle
是一个构建在Lucene工具包之上的Web索引/搜索工具.它包括一个用于创建索引的HTTP
spider和一个用于搜索这些索引的搜索类。spindle项目提供了一组JSP标签库使得那些基于JSP的站点不需要开发任何Java类就能够增加搜
索功能。
更多spindle信息

Arachnid

Arachnid:
是一个基于Java的web
spider框架.它包含一个简单的HTML剖析器能够分析包含HTML内容的输入流.通过实现Arachnid的子类就能够开发一个简单的Web
spiders并能够在Web站上的每个页面被解析之后增加几行代码调用。
Arachnid的下载包中包含两个spider应用程序例子用于演示如何使用该框架。
更多Arachnid信息

LARM

LARM能够为Jakarta Lucene搜索引擎框架的用户提供一个纯Java的搜索解决方案。它包含能够为文件,数据库表格建立索引的方法和为Web站点建索引的爬虫。
更多LARM信息

JoBo

JoBo
是一个用于下载整个Web站点的简单工具。它本质是一个Web
Spider。与其它下载工具相比较它的主要优势是能够自动填充form(如:自动登录)和使用cookies来处理session。JoBo还有灵活的
下载规则(如:通过网页的URL,大小,MIME类型等)来限制下载。
更多JoBo信息

snoics-reptile

snoics-
reptile是用纯Java开发的,用来进行网站镜像抓取的工具,可以使用配制文件中提供的URL入口,把这个网站所有的能用浏览器通过GET的方式获
取到的资源全部抓取到本地,包括网页和各种类型的文件,如:图片、flash、mp3、zip、rar、exe等文件。可以将整个网站完整地下传至硬盘
内,并能保持原有的网站结构精确不变。只需要把抓取下来的网站放到web服务器(如:Apache)中,就可以实现完整的网站镜像。
下载地址:
snoics-reptile2.0.part1.rar
snoics-reptile2.0.part2.rar
snoics-reptile2.0-doc.rar
更多snoics-reptile信息

Web-Harvest

Web-Harvest是一个Java开源Web数据抽取工具。它能够收集指定的Web页面并从这些页面中提取有用的数据。Web-Harvest主要是运用了像XSLT,XQuery,正则表达式等这些技术来实现对text/xml的操作。
更多Web-Harvest信息

ItSucks

ItSucks是一个java web spider(web机器人,爬虫)开源项目。支持通过下载模板和正则表达式来定义下载规则。提供一个swing GUI操作界面。

更多ItSucks信息

Smart and Simple Web Crawler

Smart
and Simple Web
Crawler是一个Web爬虫框架。集成Lucene支持。该爬虫可以从单个链接或一个链接数组开始,提供两种遍历模式:最大迭代和最大深度。可以设置
过滤器限制爬回来的链接,默认提供三个过滤器ServerFilter、BeginningPathFilter和
RegularExpressionFilter,这三个过滤器可用AND、OR和NOT联合。在解析过程或页面加载前后都可以加监听器。
更多Smart and Simple Web Crawler信息

Crawler4j

Crawler4j是一个开源的Java类库提供一个用于抓取Web页面的简单接口。可以利用它来构建一个多线程的Web爬虫。
更多Crawler4j信息

Ex-Crawler

Ex-Crawler分成三部分(Crawler Daemon,Gui Client和Web搜索引擎),这三部分组合起来将成为一个灵活和强大的爬虫和搜索引擎。其中Web搜索引擎部分采用PHP开发,并包含一个内容管理系统CMS用于维护搜索引擎。
更多Ex-Crawler信息

Crawler

Crawler是一个简单的Web爬虫。它让你不用编写枯燥,容易出错的代码,而只专注于所需要抓取网站的结构。此外它还非常易于使用。
CrawlerConfiguration cfg = new CrawlerConfiguration("http://www.open-open.com");
PageCrawler crawler = new PageCrawler(cfg);
crawler.crawl(new YourPageVisitor());

收录时间:2011-03-05 09:41:09
更多Crawler信息

Encog

Encog是一个高级神经网络和机器人/爬虫开发类库。Encog提供的这两种功能可以单独分开使用来创建神经网络或HTTP机器人程序,同时Encog还支持将这两种高级功能联合起来使用。Encog支持创建前馈神经网络、Hopfield神经网络、自组织图。
Encog提供高级HTTP机器人/爬虫编程功能。支持将多线程爬虫产生的内容存在内存或数据库中。支持HTM解析和高级表单与Cookie处理。

收录时间:2011-05-13 16:36:41
更多Encog信息

Crawljax

Crawljax是一个开源Java工具用于Ajax Web应用程序的自动化抓取和测试。Crawljax能够抓取/爬行任何基于Ajax的Web应用程序通过触发事件和在表单中填充数据。
收录时间:2011-05-18 09:50:32
更多Crawljax信息

阅读全文

与java异步http相关的资料

热点内容
解放压缩机支架 浏览:255
程序员秃顶搞笑相遇 浏览:6
IBM手机app商店叫什么名字 浏览:834
jpeg压缩质量 浏览:774
云服务器评测对比 浏览:145
java日期转string 浏览:221
openfire源码编译 浏览:897
在线小工具箱引流网站源码 浏览:337
非科班程序员自学 浏览:799
压缩泡沫鞋底底材 浏览:219
程序员职场第一课2正确的沟通 浏览:679
遇到不合法app应该怎么办 浏览:90
汇编程序编译后的文件 浏览:79
大智慧均线源码 浏览:373
单片机排阻的作用 浏览:215
滴滴金融app被下架如何还款 浏览:212
jpg转换成pdf免费软件 浏览:743
范里安pdf 浏览:447
伪造pdf 浏览:79
能删除android文件夹吗 浏览:447