導航:首頁 > 編程語言 > python讀中文文件

python讀中文文件

發布時間:2022-10-02 14:53:28

『壹』 python能讀取中文嗎

# coding=UTF-8
s = "中文"
print s

可以讀取中文呀

『貳』 python 中怎麼讀取txt文件中的中文文字

代碼:

# -*- coding: utf-8 -*-

f = open('luciatest1.txt', encoding='gb18030')
filecontent = f.read()
print(filecontent)


運行效果:

『叄』 python 讀取的中文怎麼使用

在本文中,以'哈'來解釋作示例解釋所有的問題,「哈」的各種編碼如下:
1. UNICODE (UTF8-16),C854;
2. UTF-8,E59388;
3. GBK,B9FE。

一、python中的str和unicode

一直以來,python中的中文編碼就是一個極為頭大的問題,經常拋出編碼轉換的異常,python中的str和unicode到底是一個什麼東西呢?
在python中提到unicode,一般指的是unicode對象。
例如'哈哈'的unicode對象為

u'/u54c8/u54c8'
而str,是一個位元組數組,這個位元組數組表示的是對unicode對象編碼(可以是utf-8、gbk、cp936、GB2312)後的存儲的格式。
這里它僅僅是一個位元組流,沒有其它的含義,如果你想使這個位元組流顯示的內容有意義,就必須用正確的編碼格式,解碼顯示。

例如:

在這里 su 是unicode對象,
s_utf8是位元組數組,存儲的是unicode 經過utf8編碼後的位元組,'/xe5/x93/x88/xe5/x93/x88'
同樣,s_gbk存儲的是unicode經過gbk編碼後的位元組。

在上面print中,為什麼print s_utf8為亂碼,而print s_gbk就可以顯示的是中文?

因為print語句它的實現是將要輸出的內容傳送了操作系統,操作系統會根據系統的編碼對輸入的位元組流進行編碼,這就解釋了為什麼utf-8格式的字元串「哈哈」,輸出的是「鍝堝搱」,因為'/xe5/x93/x88/xe5/x93/x88'用GB2312去解釋,其顯示的出來就是「鍝堝搱」。

這里再強調一下,str記錄的是位元組數組,只是某種編碼的存儲格式,至於輸出到文件或是列印出來是什麼格式,完全取決於其解碼的編碼將它解碼成什麼樣子。

這里再對print進行一點補充說明:當將一個unicode對象傳給print時,在內部會將該unicode對象進行一次轉換,轉換成本地的默認編碼(這僅是個人猜測)

二、str和unicode對象的轉換
str和unicode對象的轉換,通過encode和decode實現,具體使用如下:

將GBK'哈哈'轉換成unicode,然後再轉換成UTF8

三、設定默認編碼 Setdefaultencoding

如上圖的演示代碼所示:

當把s(gbk字元串)直接編碼成utf-8的時候,將拋出異常,但是通過調用如下代碼:

import sys

reload(sys)

sys.setdefaultencoding('gbk')

後就可以轉換成功,為什麼呢?
在python中str和unicode在編碼和解碼過程中,如果將一個str直接編碼成另一種編碼,會先把str解碼成unicode,採用的編碼為默認編碼,一般默認編碼是anscii,所以在上面示例代碼中第一次轉換的時候會出錯,當設定當前默認編碼為'gbk'後,就不會出錯了。

至於reload(sys)是因為Python2.5 初始化後會刪除 sys.setdefaultencoding 這個方法,我們需要重新載入。

四、操作不同文件的編碼格式的文件
建立一個文件test.txt,文件格式用ANSI,內容為:
abc中文

用python來讀取
# coding=gbk

print open("Test.txt").read()

結果:
abc中文

把文件格式改成UTF-8:

結果:
abc涓菡孧

顯然,這里需要解碼:
# coding=gbk

import codecs

print open("Test.txt").read().decode("utf-8")

結果:
abc中文

上面的test.txt我是用Editplus來編輯的,但當我用Windows自帶的記事本編輯並存成UTF-8格式時,

運行時報錯:
Traceback (most recent call last):

File "ChineseTest.py", line 3, in

print open("Test.txt").read().decode("utf-8")

UnicodeEncodeError: 'gbk' codec can't encode character u'/ufeff' in position 0: illegal multibyte sequence

原來,某些軟體,如notepad,在保存一個以UTF-8編碼的文件時,會在文件開始的地方插入三個不可見的字元(0xEF 0xBB 0xBF,即BOM)。

因此我們在讀取時需要自己去掉這些字元,python中的codecs mole定義了這個常量:
# coding=gbk

import codecs

data = open("Test.txt").read()

if data[:3] == codecs.BOM_UTF8:

data = data[3:]

print data.decode("utf-8")

結果:
abc中文

五、文件的編碼格式和編碼聲明的作用

源文件的編碼格式對字元串的聲明有什麼作用呢?
這個問題困擾一直困擾了我好久,現在終於有點眉目了,文件的編碼格式決定了在該源文件中聲明的字元串的編碼格式,例如:
str = '哈哈'

print repr(str)

a.如果文件格式為utf-8,則str的值為:'/xe5/x93/x88/xe5/x93/x88'(哈哈的utf-8編碼)
b.如果文件格式為gbk,則str的值為:'/xb9/xfe/xb9/xfe'(哈哈的gbk編碼)

在第一節已經說過,python中的字元串,只是一個位元組數組,所以當把a情況的str輸出到gbk編碼的控制台時,就將顯示為亂碼:鍝堝搱;而當把b情況下的str輸出utf-8編碼的控制台時,也將顯示亂碼的問題,是什麼也沒有,也許'/xb9/xfe/xb9/xfe'用utf-8解碼顯示,就是空白吧。>_<

說完文件格式,現在來談談編碼聲明的作用吧,每個文件在最上面的地方,都會用# coding=gbk 類似的語句聲明一下編碼,但是這個聲明到底有什麼用呢?到止前為止,我覺得它的作用也就是三個:

a、聲明源文件中將出現非ascii編碼,通常也就是中文;
b、在高級的IDE中,IDE會將你的文件格式保存成你指定編碼格式。
c、決定源碼中類似於u'哈'這類聲明的將『哈』解碼成unicode所用的編碼格式,也是一個比較容易讓人迷惑的地方,
看示例:
#coding:gbk

ss = u'哈哈'
print repr(ss)
print 'ss:%s' % ss

將這個些代碼保存成一個utf-8文本,運行,你認為會輸出什麼呢?大家第一感覺肯定輸出的肯定是:
u'/u54c8/u54c8'
ss:哈哈

但是實際上輸出是:
u'/u935d/u581d/u6431'

ss:鍝堝搱

為什麼會這樣,這時候,就是編碼聲明在作怪了,在運行ss = u'哈哈'的時候,整個過程可以分為以下幾步:

1) 獲取'哈哈'的編碼:由文件編碼格式確定,為'/xe5/x93/x88/xe5/x93/x88'(哈哈的utf-8編碼形式)

2) 轉成unicode編碼的時候,在這個轉換的過程中,對於'/xe5/x93/x88/xe5/x93/x88'的解碼,不是用utf-8解碼,而是用聲明編碼處指定的編碼GBK,將'/xe5/x93/x88/xe5/x93/x88'按GBK解碼,得到就是''鍝堝搱'',
這三個字的unicode編碼就是u'/u935d/u581d/u6431',至止可以解釋為什麼print repr(ss)輸出的是u'/u935d/u581d/u6431'了。

好了,這里有點繞,我們來分析下一個示例:
#-*- coding:utf-8 -*-

ss = u'哈哈'

print repr(ss)

print 'ss:%s' % ss

將這個示例這次保存成GBK編碼形式,運行結果,竟然是:
UnicodeDecodeError: 'utf8' codec can't decode byte 0xb9 in position 0: unexpected code byte

這里為什麼會有utf8解碼錯誤呢?想想上個示例也明白了,
轉換第一步,因為文件編碼是GBK,得到的是'哈哈'編碼是GBK的編碼'/xb9/xfe/xb9/xfe',
當進行第二步,轉換成unicode的時候,會用UTF8對'/xb9/xfe/xb9/xfe'進行解碼,而大家查utf-8的編碼表會發現,utf8編碼表(關於UTF-8解釋可參見字元編碼筆記:ASCII、UTF-8、UNICODE)中根本不存在,所以會報上述錯誤。

『肆』 python讀寫有中文的文件時,是否需要設置編碼格式

需要:
with open("路徑","模式",encoding="utf8") as f:

如果不確定編碼格式,後面讀取可能會出問題

『伍』 python在win下怎麼讀取中文文件

file = open('filename.txt','r') text = file.read() #讀取所有文字 text = file.readline() #讀取一行文字 text = file.readlinse() #把每一行變成list的一個元素 如果需要裡面中文的話,用正則匹配

『陸』 python怎樣讀取文本文件里的中文

#在Windows 環境下
import sys
reload(sys)
sys.setdefaultencoding("utf-8")
import re
fin = open('in.txt', 'r') #以讀的方式打開輸入文件
for eachLine in fin: #按行讀入文件內容
line = eachLine.strip().decode('gbk', 'utf-8') #處理前進行相關的處理,包括轉換成Unicode等
print line #列印原始字元
p2 = re.compile(ur'[^\u4e00-\u9fa5]') #中文的編碼范圍是:\u4e00到\u9fa5
zh = "".join(p2.split(line)).strip()
#zh = ",".join(zh.split())
print zh ##列印中文字元

『柒』 python如何讀取中文文件內容

open(錦囊一,'r',encoding="utf-8")

『捌』 python讀取csv文件時,數據內容含有中文,讀取出錯,怎麼辦

估計是亂碼造成,需要在讀取的py文件中指定編碼格式:

在文件開頭,設置成gbk格式import os,sys,re,csv
reload(sys)
sys.setdefaultencoding('gbk')

『玖』 python讀取csv文件時,數據內容含有中文,讀取出錯,怎麼辦

估計是亂碼造成,需要在讀取的py文件中指定編碼格式:
在文件開頭,設置成gbk格式import
os,sys,re,csv
reload(sys)
sys.setdefaultencoding('gbk')

『拾』 python中用pandas.read_csv讀取含有中文的文件

python2下:

1234

# -*- coding: utf-8 -*- import pandas as pdmydata = pd.read_csv(u"例子.csv") #前面加u,第一行的編碼必須utf-8

原本以為這一點python3和python2是一樣的,其實不一樣!
python3下:

1234567
# -*- coding: utf-8 -*- import pandas as pd#以下三種等價(也有可能不等),如果你一種不行換另一種吧mydata = pd.read_csv(u"例子.csv",encoding = "gbk")mydata = pd.read_csv(u"例子.csv",encoding = "gb2312") mydata = pd.read_csv(u"例子.csv",encoding = "gb18030")

閱讀全文

與python讀中文文件相關的資料

熱點內容
linux中jps 瀏覽:952
單片機實驗感想 瀏覽:560
程序員級別數學演算法邏輯 瀏覽:899
2k21公園怎麼換伺服器 瀏覽:724
php釋放資料庫連接 瀏覽:722
php網頁抓取工具 瀏覽:726
android設置對齊方式 瀏覽:23
linux創建網頁 瀏覽:280
凈化車間門演算法 瀏覽:934
安卓怎麼搞jpg 瀏覽:546
如來佛祖命令雷神去下界 瀏覽:856
新電腦管家下載好怎麼解壓 瀏覽:530
php獲取介面數據 瀏覽:767
最後的命令 瀏覽:921
如何添加手機app桌面快捷圖標 瀏覽:427
ui設計師與程序員 瀏覽:418
壽司pdf 瀏覽:828
pythonbg是什麼 瀏覽:248
c數值演算法程序大全 瀏覽:787
android整點報時 瀏覽:221