A. java实现获取本地图片然后转码的问题
因为你这属于自动化操作。想要有这种功能,一般都会考虑触发机制。
对于你这种情况,方案有多种,但觉的比较不错的是自己写个小工具。虽然麻烦点,但对实际工没绝作非常有用。
你可以写个工具,对你那个固定的本地存桥察斗放文件夹进敏磨行不间断扫描,一但发现有图片,就使用读取图片,再使用浏览器模拟类模拟个表单提交到action。操作成功后删除图片或移到别的路径下
B. Java程序中怎么将一个Native格式的文件转换成UTF-8
用字符流获取全部的input.readLine();
对字符流获取到租辩的String转码 : String newString = new String(string.getBytes(),"utf-8")
再虚或将字符写到文件里面弊誉缺去
C. java 怎么gbk转码utf-8
方法一:
思路:先转为Unicode,然后转为GBK
Stringutf8=newString(t.getBytes("UTF-8"));
System.out.println(utf8);
Stringunicode=newString(utf8.getBytes(),"UTF-8");
System.out.println(unicode);
Stringgbk=newString(unicode.getBytes("GBK"));
System.out.println(gbk);
方法二:
publicstaticvoidmain(String[]args){
Stringstr="字符串编码转换";
try{
byte[]temp=str.getBytes("utf-8");//这里写原编码方式
byte[]newtemp=newString(temp,"utf-8").getBytes("gbk");//这里写转换后的编码方式
StringnewStr=newString(newtemp,"gbk");//这里写转换后的编码方式
System.out.println(newStr);
}catch(UnsupportedEncodingExceptione){
//TODOAuto-generatedcatchblock
e.printStackTrace();
}
}
D. java中编码与解码分别指什么
java中编码:URLEncoder.encode(strUri,"utf-8");
java中解码码:URLDecoder.decode(strUri,"utf-8");
E. java文件读取内容转码
读取的文件流如果是read(读取字节流的时候,中文就会是乱码)方法,所以现在全都是听过readline方式进行的读取。举例:
可以通过BufferedReader 流的形式进行流缓存,之后通过readLine方法获取到缓存的内容。
BufferedReader bre = null;
try {
String file = "D:/test/test.txt";
bre = new BufferedReader(new FileReader(file));//此时获取到的bre就是整个文件的缓存流
while ((str = bre.readLine())!= null) // 判断最后一行不存在,为空结束循环
{
System.out.println(str);//原样输出读到的内容
};
bre.close(),//关闭流,否则bre流会一直存在,直到程序运行结束。
除此之外,java文件读取的时候有中文就很出现乱码,通常获取到的文件中通常都是“iso8859-1”格式,需要转换为“UTF-8”格式。
如:String str = new String(str.getByte("iso8859-1"),"UTF-8");进行下强制转换后在进行读取即可。
备注:通常格式有GBK、UTf-8、iso8859-1、GB2312,如果上面的强制转换不成功,依次进行这些格式的尝试,肯定是可以解决问题的。
F. java转码后局部乱码问题
问题给你解决了,看代码
public class Test {
public static void main(String[] args) {
try {
String s = new String("中文测试局部乱码问题2011中文测试上传文件名乱码问题.txt".getBytes(),
"UTF-8");
System.out.println(s);
s = java.net.URLDecoder.decode(s, "utf-8"); //utf8转gbk
System.out.println(s);
Test convert = new Test();
byte[] fullByte = convert.gbk2utf8(s); //gbk转utf8
String fullStr = new String(fullByte, "UTF-8");
System.out.println("string from GBK to UTF-8 byte: " + fullStr);
} catch (Exception e) {
e.printStackTrace();
}
}
public byte[] gbk2utf8(String chenese) {
char c[] = chenese.toCharArray();
byte[] fullByte = new byte[3 * c.length];
for (int i = 0; i < c.length; i++) {
int m = (int) c[i];
String word = Integer.toBinaryString(m);
StringBuffer sb = new StringBuffer();
int len = 16 - word.length();
for (int j = 0; j < len; j++) {
sb.append("0");
}
sb.append(word);
sb.insert(0, "1110");
sb.insert(8, "10");
sb.insert(16, "10");
String s1 = sb.substring(0, 8);
String s2 = sb.substring(8, 16);
String s3 = sb.substring(16);
byte b0 = Integer.valueOf(s1, 2).byteValue();
byte b1 = Integer.valueOf(s2, 2).byteValue();
byte b2 = Integer.valueOf(s3, 2).byteValue();
byte[] bf = new byte[3];
bf[0] = b0;
fullByte[i * 3] = bf[0];
bf[1] = b1;
fullByte[i * 3 + 1] = bf[1];
bf[2] = b2;
fullByte[i * 3 + 2] = bf[2];
}
return fullByte;
}
}
结果:
中文测试局部乱码问题2011中文测试上传文件名乱码问题.txt
中文测试局部乱码问题2011中文测试上传文件名乱码问题.txt
string from GBK to UTF-8 byte: 中文测试局部乱码问题2011中文测试上传文件名乱码问题.txt
G. java文件转码后,每行后面多了很多零字符
Java文件转码后出现多余的零字符,可能是文件的编码格式不支持,建议使用utf-8编码枝缺竖格式,猛大或在编辑器中尝试更改文扮宴件编码格式。
H. java 怎么获得文件编码格式
java课程设计例子
Java如何获取文件编码格式
1:简单判断是UTF-8或不是UTF-8,因为一般除了UTF-8之外就是GBK,所以就设置默认为GBK。
按照给定的字符集存储文件时,在文件的最开头的三个字节中就有可能存储着编码信息,所以,基本的原理就是只要读出文件前三个字节,判定这些字节的值,就可以得知其编码的格式。其实,如果项目运行的平台就是中文操作系统,如果这些文本文件在项目内产生,即开发人员可以控制文本的编码格式,只要判定两种常见的编码就可以了:GBK和UTF-8。由于中文Windows默认的编码是GBK,所以一般只要判定UTF-8编码格式。
对于UTF-8编码格式的文本文件,其前3个字节的值就是-17、-69、-65,所以,判定是否是UTF-8编码格式的代码片段如下:
Filefile=newFile(path);
InputStreamin=newjava.io.FileInputStream(file);
byte[]b=newbyte[3];
in.read(b);
in.close();
if(b[0]==-17&&b[1]==-69&&b[2]==-65)
System.out.println(file.getName()+":编码为UTF-8");
else
System.out.println(file.getName()+":可能是GBK,也可能是其他编码");
2:若想实现更复杂的文件编码检测,可以使用一个开源项目cpdetector,它所在的网址是:http://cpdetector.sourceforge.net/。它的类库很小,只有500K左右,cpDetector是基于统计学原理的,不保证完全正确,利用该类库判定文本文件的代码如下:
读外部文件(先利用cpdetector检测文件的编码格式,然后用检测到的编码方式去读文件):
/**
*利用第三方开源包cpdetector获取文件编码格式
*
*@parampath
*要判断文件编码格式的源文件的路径
*@authorhuanglei
*@version2012-7-1214:05
*/
(Stringpath){
/*
*detector是探测器,它把探测任务交给具体的探测实现类的实例完成。
*cpDetector内置了一些常用的探测实现类,这些探测实现类的实例可以通过add方法加进来,如ParsingDetector、
*JChardetFacade、ASCIIDetector、UnicodeDetector。
*detector按照“谁最先返回非空的探测结果,就以该结果为准”的原则返回探测到的
*字符集编码。使用需要用到三个第三方JAR包:antlr.jar、chardet.jar和cpdetector.jar
*cpDetector是基于统计学原理的,不保证完全正确。
*/
CodepageDetectorProxydetector=CodepageDetectorProxy.getInstance();
/*
*ParsingDetector可用于检查HTML、XML等文件或字符流的编码,构造方法中的参数用于
*指示是否显示探测过程的详细信息,为false不显示。
*/
detector.add(newParsingDetector(false));
/*
*JChardetFacade封装了由Mozilla组织提供的JChardet,它可以完成大多数文件的编码
*测定。所以,一般有了这个探测器就可满足大多数项目的要求,如果你还不放心,可以
*再多加几个探测器,比如下面的ASCIIDetector、UnicodeDetector等。
*/
detector.add(JChardetFacade.getInstance());//用到antlr.jar、chardet.jar
//ASCIIDetector用于ASCII编码测定
detector.add(ASCIIDetector.getInstance());
//UnicodeDetector用于Unicode家族编码的测定
detector.add(UnicodeDetector.getInstance());
java.nio.charset.Charsetcharset=null;
Filef=newFile(path);
try{
charset=detector.detectCodepage(f.toURI().toURL());
}catch(Exceptionex){
ex.printStackTrace();
}
if(charset!=null)
returncharset.name();
else
returnnull;
}
StringcharsetName=getFileEncode(configFilePath);
System.out.println(charsetName);
inputStream=newFileInputStream(configFile);
BufferedReaderin=newBufferedReader(newInputStreamReader(inputStream,charsetName));读jar包内部资源文件(先利用cpdetector检测jar内部的资源文件的编码格式,然后以检测到的编码方式去读文件):
/**
*利用第三方开源包cpdetector获取URL对应的文件编码
*
*@parampath
*要判断文件编码格式的源文件的URL
*@authorhuanglei
*@version2012-7-1214:05
*/
(URLurl){
/*
*detector是探测器,它把探测任务交给具体的探测实现类的实例完成。
*cpDetector内置了一些常用的探测实现类,这些探测实现类的实例可以通过add方法加进来,如ParsingDetector、
*JChardetFacade、ASCIIDetector、UnicodeDetector。
*detector按照“谁最先返回非空的探测结果,就以该结果为准”的原则返回探测到的
*字符集编码。使用需要用到三个第三方JAR包:antlr.jar、chardet.jar和cpdetector.jar
*cpDetector是基于统计学原理的,不保证完全正确。
*/
CodepageDetectorProxydetector=CodepageDetectorProxy.getInstance();
/*
*ParsingDetector可用于检查HTML、XML等文件或字符流的编码,构造方法中的参数用于
*指示是否显示探测过程的详细信息,为false不显示。
*/
detector.add(newParsingDetector(false));
/*
*JChardetFacade封装了由Mozilla组织提供的JChardet,它可以完成大多数文件的编码
*测定。所以,一般有了这个探测器就可满足大多数项目的要求,如果你还不放心,可以
*再多加几个探测器,比如下面的ASCIIDetector、UnicodeDetector等。
*/
detector.add(JChardetFacade.getInstance());//用到antlr.jar、chardet.jar
//ASCIIDetector用于ASCII编码测定
detector.add(ASCIIDetector.getInstance());
//UnicodeDetector用于Unicode家族编码的测定
detector.add(UnicodeDetector.getInstance());
java.nio.charset.Charsetcharset=null;
try{
charset=detector.detectCodepage(url);
}catch(Exceptionex){
ex.printStackTrace();
}
if(charset!=null)
returncharset.name();
else
returnnull;
}
URLurl=CreateStationTreeModel.class.getResource("/resource/"+"配置文件");
URLConnectionurlConnection=url.openConnection();
inputStream=urlConnection.getInputStream();
StringcharsetName=getFileEncode(url);
System.out.println(charsetName);
BufferedReaderin=newBufferedReader(newInputStreamReader(inputStream,charsetName));
3:探测任意输入的文本流的编码,方法是调用其重载形式:
charset=detector.detectCodepage(待测的文本输入流,测量该流所需的读入字节数);
上面的字节数由程序员指定,字节数越多,判定越准确,当然时间也花得越长。要注意,字节数的指定不能超过文本流的最大长度。
4:判定文件编码的具体应用举例:
属性文件(.properties)是Java程序中的常用文本存储方式,象STRUTS框架就是利用属性文件存储程序中的字符串资源。它的内容如下所示:
#注释语句
属性名=属性值
读入属性文件的一般方法是:
FileInputStreamios=newFileInputStream(“属性文件名”);
Propertiesprop=newProperties();
prop.load(ios);
Stringvalue=prop.getProperty(“属性名”);
ios.close();
利用java.io.Properties的load方法读入属性文件虽然方便,但如果属性文件中有中文,在读入之后就会发现出现乱码现象。发生这个原因是load方法使用字节流读入文本,在读入后需要将字节流编码成为字符串,而它使用的编码是“iso-8859-1”,这个字符集是ASCII码字符集,不支持中文编码,
方法一:使用显式的转码:
Stringvalue=prop.getProperty(“属性名”);
StringencValue=newString(value.getBytes(“iso-8859-1″),”属性文件的实际编码”);
方法二:象这种属性文件是项目内部的,我们可以控制属性文件的编码格式,比如约定采用Windows内定的GBK,就直接利用”gbk”来转码,如果约定采用UTF-8,就使用”UTF-8″直接转码。
方法三:如果想灵活一些,做到自动探测编码,就可利用上面介绍的方法测定属性文件的编码,从而方便开发人员的工作
补充:可以用下面代码获得Java支持编码集合:
Charset.availableCharsets().keySet();
可以用下面的代码获得系统默认编码:
Charset.defaultCharset();
I. java如何把string转为utf-8
java不同编码之间进行转换,都需要使用unicode作为中转。
String str = "任意字符串";
str = new String(str.getBytes("gbk"),"utf-8");
备注说明:
str.getBytes("UTF-8"); 意思是以UTF-8的编码取得字节
new String(XXX,"UTF-8"); 意思是以UTF-8的编码生成字符串饥冲
举例:
public static String getUTF8XMLString(String xml) {
// A StringBuffer Object
StringBuffer sb = new StringBuffer();
sb.append(xml);
String xmString = "";
String xmlUTF8="";
try {
xmString = new String(sb.toString().getBytes("UTF-8"));
xmlUTF8 = URLEncoder.encode(xmString, "UTF-8");
System.out.println("utf-8 编码:" + xmlUTF8) ;
} catch (UnsupportedEncodingException e) {
// TODO Auto-generated catch block
e.printStackTrace();
}
// return to String Formed
return xmlUTF8;
(9)文件转码java扩展阅读:
UTF-8编码规则:
如果只有一个字节则其最高二进制位为0;如果是多字节,其第一个字节从最高位开始,连续的二进制位值为1的个数决定了其编码茄肢颂的字节数,其余各字节均以10开头。
实际表示ASCII字符的UNICODE字符,将会编码成1个字节,并且UTF-8表示与ASCII字符表示是一样的。所有其他的UNICODE字符转化成UTF-8将需要至少2个字节。每个字节由一个换码序列开始。第一个字节由唯一的换码序列,由n位连续的1加一位0组成,首字节连续的1的个数表示字符编码所需的字节数。
Unicode转换为UTF-8时,可以将Unicode二进制从低位往高位取出二进制数字,每次取6位,如上颤郑述的二进制就可以分别取出为如下示例所示的格式,前面按格式填补,不足8位用0填补。
J. java 将编码格式为utf-8的文件内容以 GBK编码存到txt文档
默认Java转换GBK格式的可以通过提供的转换类来实现,示例如下:
如果直接把Java源代码复制到Eclipse中所有的中文信息都出现乱码。将文本文件的编码格式从GBK转UTF-8的方式有很多,
比较早以前我处理方式都是自己写程序,从文本文件中用GBK编码读取数据,转为String类型,然后通过UTF-8编码重新写入文本文件实现转码,现在经常使用ApacheCommon组件,用commons-io.jar实现文件的
读取和写入,代码如下:
//GBK编码格式源码路径
StringsrcDirPath="D:\dev\workspace\masdev\mas\src";
//转为UTF-8编码格式源码路径
Stringutf8DirPath="D:\UTF8\src";
缓陆蔽
//获取所有java文件
CollectionjavaGbkFileCol=FileUtils.listFiles(new悉没File(srcDirPath),newString[]{"java"},true);
扰州
for(FilejavaGbkFile:javaGbkFileCol){
//UTF8格式文件路径
Stringutf8FilePath=utf8DirPath+javaGbkFile.getAbsolutePath().substring(srcDirPath.length());
//使用GBK读取数据,然后用UTF-8写入数据
FileUtils.writeLines(newFile(utf8FilePath),"UTF-8",FileUtils.readLines(javaGbkFile,"GBK"));
}