A. java實現獲取本地圖片然後轉碼的問題
因為你這屬於自動化操作。想要有這種功能,一般都會考慮觸發機制。
對於你這種情況,方案有多種,但覺的比較不錯的是自己寫個小工具。雖然麻煩點,但對實際工沒絕作非常有用。
你可以寫個工具,對你那個固定的本地存橋察斗放文件夾進敏磨行不間斷掃描,一但發現有圖片,就使用讀取圖片,再使用瀏覽器模擬類模擬個表單提交到action。操作成功後刪除圖片或移到別的路徑下
B. Java程序中怎麼將一個Native格式的文件轉換成UTF-8
用字元流獲取全部的input.readLine();
對字元流獲取到租辯的String轉碼 : String newString = new String(string.getBytes(),"utf-8")
再虛或將字元寫到文件裡面弊譽缺去
C. java 怎麼gbk轉碼utf-8
方法一:
思路:先轉為Unicode,然後轉為GBK
Stringutf8=newString(t.getBytes("UTF-8"));
System.out.println(utf8);
Stringunicode=newString(utf8.getBytes(),"UTF-8");
System.out.println(unicode);
Stringgbk=newString(unicode.getBytes("GBK"));
System.out.println(gbk);
方法二:
publicstaticvoidmain(String[]args){
Stringstr="字元串編碼轉換";
try{
byte[]temp=str.getBytes("utf-8");//這里寫原編碼方式
byte[]newtemp=newString(temp,"utf-8").getBytes("gbk");//這里寫轉換後的編碼方式
StringnewStr=newString(newtemp,"gbk");//這里寫轉換後的編碼方式
System.out.println(newStr);
}catch(UnsupportedEncodingExceptione){
//TODOAuto-generatedcatchblock
e.printStackTrace();
}
}
D. java中編碼與解碼分別指什麼
java中編碼:URLEncoder.encode(strUri,"utf-8");
java中解碼碼:URLDecoder.decode(strUri,"utf-8");
E. java文件讀取內容轉碼
讀取的文件流如果是read(讀取位元組流的時候,中文就會是亂碼)方法,所以現在全都是聽過readline方式進行的讀取。舉例:
可以通過BufferedReader 流的形式進行流緩存,之後通過readLine方法獲取到緩存的內容。
BufferedReader bre = null;
try {
String file = "D:/test/test.txt";
bre = new BufferedReader(new FileReader(file));//此時獲取到的bre就是整個文件的緩存流
while ((str = bre.readLine())!= null) // 判斷最後一行不存在,為空結束循環
{
System.out.println(str);//原樣輸出讀到的內容
};
bre.close(),//關閉流,否則bre流會一直存在,直到程序運行結束。
除此之外,java文件讀取的時候有中文就很出現亂碼,通常獲取到的文件中通常都是「iso8859-1」格式,需要轉換為「UTF-8」格式。
如:String str = new String(str.getByte("iso8859-1"),"UTF-8");進行下強制轉換後在進行讀取即可。
備註:通常格式有GBK、UTf-8、iso8859-1、GB2312,如果上面的強制轉換不成功,依次進行這些格式的嘗試,肯定是可以解決問題的。
F. java轉碼後局部亂碼問題
問題給你解決了,看代碼
public class Test {
public static void main(String[] args) {
try {
String s = new String("中文測試局部亂碼問題2011中文測試上傳文件名亂碼問題.txt".getBytes(),
"UTF-8");
System.out.println(s);
s = java.net.URLDecoder.decode(s, "utf-8"); //utf8轉gbk
System.out.println(s);
Test convert = new Test();
byte[] fullByte = convert.gbk2utf8(s); //gbk轉utf8
String fullStr = new String(fullByte, "UTF-8");
System.out.println("string from GBK to UTF-8 byte: " + fullStr);
} catch (Exception e) {
e.printStackTrace();
}
}
public byte[] gbk2utf8(String chenese) {
char c[] = chenese.toCharArray();
byte[] fullByte = new byte[3 * c.length];
for (int i = 0; i < c.length; i++) {
int m = (int) c[i];
String word = Integer.toBinaryString(m);
StringBuffer sb = new StringBuffer();
int len = 16 - word.length();
for (int j = 0; j < len; j++) {
sb.append("0");
}
sb.append(word);
sb.insert(0, "1110");
sb.insert(8, "10");
sb.insert(16, "10");
String s1 = sb.substring(0, 8);
String s2 = sb.substring(8, 16);
String s3 = sb.substring(16);
byte b0 = Integer.valueOf(s1, 2).byteValue();
byte b1 = Integer.valueOf(s2, 2).byteValue();
byte b2 = Integer.valueOf(s3, 2).byteValue();
byte[] bf = new byte[3];
bf[0] = b0;
fullByte[i * 3] = bf[0];
bf[1] = b1;
fullByte[i * 3 + 1] = bf[1];
bf[2] = b2;
fullByte[i * 3 + 2] = bf[2];
}
return fullByte;
}
}
結果:
中文測試局部亂碼問題2011中文測試上傳文件名亂碼問題.txt
中文測試局部亂碼問題2011中文測試上傳文件名亂碼問題.txt
string from GBK to UTF-8 byte: 中文測試局部亂碼問題2011中文測試上傳文件名亂碼問題.txt
G. java文件轉碼後,每行後面多了很多零字元
Java文件轉碼後出現多餘的零字元,可能是文件的編碼格式不支持,建議使用utf-8編碼枝缺豎格式,猛大或在編輯器中嘗試更改文扮宴件編碼格式。
H. java 怎麼獲得文件編碼格式
java課程設計例子
Java如何獲取文件編碼格式
1:簡單判斷是UTF-8或不是UTF-8,因為一般除了UTF-8之外就是GBK,所以就設置默認為GBK。
按照給定的字元集存儲文件時,在文件的最開頭的三個位元組中就有可能存儲著編碼信息,所以,基本的原理就是只要讀出文件前三個位元組,判定這些位元組的值,就可以得知其編碼的格式。其實,如果項目運行的平台就是中文操作系統,如果這些文本文件在項目內產生,即開發人員可以控制文本的編碼格式,只要判定兩種常見的編碼就可以了:GBK和UTF-8。由於中文Windows默認的編碼是GBK,所以一般只要判定UTF-8編碼格式。
對於UTF-8編碼格式的文本文件,其前3個位元組的值就是-17、-69、-65,所以,判定是否是UTF-8編碼格式的代碼片段如下:
Filefile=newFile(path);
InputStreamin=newjava.io.FileInputStream(file);
byte[]b=newbyte[3];
in.read(b);
in.close();
if(b[0]==-17&&b[1]==-69&&b[2]==-65)
System.out.println(file.getName()+":編碼為UTF-8");
else
System.out.println(file.getName()+":可能是GBK,也可能是其他編碼");
2:若想實現更復雜的文件編碼檢測,可以使用一個開源項目cpdetector,它所在的網址是:http://cpdetector.sourceforge.net/。它的類庫很小,只有500K左右,cpDetector是基於統計學原理的,不保證完全正確,利用該類庫判定文本文件的代碼如下:
讀外部文件(先利用cpdetector檢測文件的編碼格式,然後用檢測到的編碼方式去讀文件):
/**
*利用第三方開源包cpdetector獲取文件編碼格式
*
*@parampath
*要判斷文件編碼格式的源文件的路徑
*@authorhuanglei
*@version2012-7-1214:05
*/
(Stringpath){
/*
*detector是探測器,它把探測任務交給具體的探測實現類的實例完成。
*cpDetector內置了一些常用的探測實現類,這些探測實現類的實例可以通過add方法加進來,如ParsingDetector、
*JChardetFacade、ASCIIDetector、UnicodeDetector。
*detector按照「誰最先返回非空的探測結果,就以該結果為准」的原則返回探測到的
*字元集編碼。使用需要用到三個第三方JAR包:antlr.jar、chardet.jar和cpdetector.jar
*cpDetector是基於統計學原理的,不保證完全正確。
*/
CodepageDetectorProxydetector=CodepageDetectorProxy.getInstance();
/*
*ParsingDetector可用於檢查HTML、XML等文件或字元流的編碼,構造方法中的參數用於
*指示是否顯示探測過程的詳細信息,為false不顯示。
*/
detector.add(newParsingDetector(false));
/*
*JChardetFacade封裝了由Mozilla組織提供的JChardet,它可以完成大多數文件的編碼
*測定。所以,一般有了這個探測器就可滿足大多數項目的要求,如果你還不放心,可以
*再多加幾個探測器,比如下面的ASCIIDetector、UnicodeDetector等。
*/
detector.add(JChardetFacade.getInstance());//用到antlr.jar、chardet.jar
//ASCIIDetector用於ASCII編碼測定
detector.add(ASCIIDetector.getInstance());
//UnicodeDetector用於Unicode家族編碼的測定
detector.add(UnicodeDetector.getInstance());
java.nio.charset.Charsetcharset=null;
Filef=newFile(path);
try{
charset=detector.detectCodepage(f.toURI().toURL());
}catch(Exceptionex){
ex.printStackTrace();
}
if(charset!=null)
returncharset.name();
else
returnnull;
}
StringcharsetName=getFileEncode(configFilePath);
System.out.println(charsetName);
inputStream=newFileInputStream(configFile);
BufferedReaderin=newBufferedReader(newInputStreamReader(inputStream,charsetName));讀jar包內部資源文件(先利用cpdetector檢測jar內部的資源文件的編碼格式,然後以檢測到的編碼方式去讀文件):
/**
*利用第三方開源包cpdetector獲取URL對應的文件編碼
*
*@parampath
*要判斷文件編碼格式的源文件的URL
*@authorhuanglei
*@version2012-7-1214:05
*/
(URLurl){
/*
*detector是探測器,它把探測任務交給具體的探測實現類的實例完成。
*cpDetector內置了一些常用的探測實現類,這些探測實現類的實例可以通過add方法加進來,如ParsingDetector、
*JChardetFacade、ASCIIDetector、UnicodeDetector。
*detector按照「誰最先返回非空的探測結果,就以該結果為准」的原則返回探測到的
*字元集編碼。使用需要用到三個第三方JAR包:antlr.jar、chardet.jar和cpdetector.jar
*cpDetector是基於統計學原理的,不保證完全正確。
*/
CodepageDetectorProxydetector=CodepageDetectorProxy.getInstance();
/*
*ParsingDetector可用於檢查HTML、XML等文件或字元流的編碼,構造方法中的參數用於
*指示是否顯示探測過程的詳細信息,為false不顯示。
*/
detector.add(newParsingDetector(false));
/*
*JChardetFacade封裝了由Mozilla組織提供的JChardet,它可以完成大多數文件的編碼
*測定。所以,一般有了這個探測器就可滿足大多數項目的要求,如果你還不放心,可以
*再多加幾個探測器,比如下面的ASCIIDetector、UnicodeDetector等。
*/
detector.add(JChardetFacade.getInstance());//用到antlr.jar、chardet.jar
//ASCIIDetector用於ASCII編碼測定
detector.add(ASCIIDetector.getInstance());
//UnicodeDetector用於Unicode家族編碼的測定
detector.add(UnicodeDetector.getInstance());
java.nio.charset.Charsetcharset=null;
try{
charset=detector.detectCodepage(url);
}catch(Exceptionex){
ex.printStackTrace();
}
if(charset!=null)
returncharset.name();
else
returnnull;
}
URLurl=CreateStationTreeModel.class.getResource("/resource/"+"配置文件");
URLConnectionurlConnection=url.openConnection();
inputStream=urlConnection.getInputStream();
StringcharsetName=getFileEncode(url);
System.out.println(charsetName);
BufferedReaderin=newBufferedReader(newInputStreamReader(inputStream,charsetName));
3:探測任意輸入的文本流的編碼,方法是調用其重載形式:
charset=detector.detectCodepage(待測的文本輸入流,測量該流所需的讀入位元組數);
上面的位元組數由程序員指定,位元組數越多,判定越准確,當然時間也花得越長。要注意,位元組數的指定不能超過文本流的最大長度。
4:判定文件編碼的具體應用舉例:
屬性文件(.properties)是Java程序中的常用文本存儲方式,象STRUTS框架就是利用屬性文件存儲程序中的字元串資源。它的內容如下所示:
#注釋語句
屬性名=屬性值
讀入屬性文件的一般方法是:
FileInputStreamios=newFileInputStream(「屬性文件名」);
Propertiesprop=newProperties();
prop.load(ios);
Stringvalue=prop.getProperty(「屬性名」);
ios.close();
利用java.io.Properties的load方法讀入屬性文件雖然方便,但如果屬性文件中有中文,在讀入之後就會發現出現亂碼現象。發生這個原因是load方法使用位元組流讀入文本,在讀入後需要將位元組流編碼成為字元串,而它使用的編碼是「iso-8859-1」,這個字元集是ASCII碼字元集,不支持中文編碼,
方法一:使用顯式的轉碼:
Stringvalue=prop.getProperty(「屬性名」);
StringencValue=newString(value.getBytes(「iso-8859-1″),」屬性文件的實際編碼」);
方法二:象這種屬性文件是項目內部的,我們可以控制屬性文件的編碼格式,比如約定採用Windows內定的GBK,就直接利用」gbk」來轉碼,如果約定採用UTF-8,就使用」UTF-8″直接轉碼。
方法三:如果想靈活一些,做到自動探測編碼,就可利用上面介紹的方法測定屬性文件的編碼,從而方便開發人員的工作
補充:可以用下面代碼獲得Java支持編碼集合:
Charset.availableCharsets().keySet();
可以用下面的代碼獲得系統默認編碼:
Charset.defaultCharset();
I. java如何把string轉為utf-8
java不同編碼之間進行轉換,都需要使用unicode作為中轉。
String str = "任意字元串";
str = new String(str.getBytes("gbk"),"utf-8");
備注說明:
str.getBytes("UTF-8"); 意思是以UTF-8的編碼取得位元組
new String(XXX,"UTF-8"); 意思是以UTF-8的編碼生成字元串飢沖
舉例:
public static String getUTF8XMLString(String xml) {
// A StringBuffer Object
StringBuffer sb = new StringBuffer();
sb.append(xml);
String xmString = "";
String xmlUTF8="";
try {
xmString = new String(sb.toString().getBytes("UTF-8"));
xmlUTF8 = URLEncoder.encode(xmString, "UTF-8");
System.out.println("utf-8 編碼:" + xmlUTF8) ;
} catch (UnsupportedEncodingException e) {
// TODO Auto-generated catch block
e.printStackTrace();
}
// return to String Formed
return xmlUTF8;
(9)文件轉碼java擴展閱讀:
UTF-8編碼規則:
如果只有一個位元組則其最高二進制位為0;如果是多位元組,其第一個位元組從最高位開始,連續的二進制位值為1的個數決定了其編碼茄肢頌的位元組數,其餘各位元組均以10開頭。
實際表示ASCII字元的UNICODE字元,將會編碼成1個位元組,並且UTF-8表示與ASCII字元表示是一樣的。所有其他的UNICODE字元轉化成UTF-8將需要至少2個位元組。每個位元組由一個換碼序列開始。第一個位元組由唯一的換碼序列,由n位連續的1加一位0組成,首位元組連續的1的個數表示字元編碼所需的位元組數。
Unicode轉換為UTF-8時,可以將Unicode二進制從低位往高位取出二進制數字,每次取6位,如上顫鄭述的二進制就可以分別取出為如下示例所示的格式,前面按格式填補,不足8位用0填補。
J. java 將編碼格式為utf-8的文件內容以 GBK編碼存到txt文檔
默認Java轉換GBK格式的可以通過提供的轉換類來實現,示例如下:
如果直接把Java源代碼復制到Eclipse中所有的中文信息都出現亂碼。將文本文件的編碼格式從GBK轉UTF-8的方式有很多,
比較早以前我處理方式都是自己寫程序,從文本文件中用GBK編碼讀取數據,轉為String類型,然後通過UTF-8編碼重新寫入文本文件實現轉碼,現在經常使用ApacheCommon組件,用commons-io.jar實現文件的
讀取和寫入,代碼如下:
//GBK編碼格式源碼路徑
StringsrcDirPath="D:\dev\workspace\masdev\mas\src";
//轉為UTF-8編碼格式源碼路徑
Stringutf8DirPath="D:\UTF8\src";
緩陸蔽
//獲取所有java文件
CollectionjavaGbkFileCol=FileUtils.listFiles(new悉沒File(srcDirPath),newString[]{"java"},true);
擾州
for(FilejavaGbkFile:javaGbkFileCol){
//UTF8格式文件路徑
Stringutf8FilePath=utf8DirPath+javaGbkFile.getAbsolutePath().substring(srcDirPath.length());
//使用GBK讀取數據,然後用UTF-8寫入數據
FileUtils.writeLines(newFile(utf8FilePath),"UTF-8",FileUtils.readLines(javaGbkFile,"GBK"));
}