導航:首頁 > 編程語言 > pythonufeff是什麼

pythonufeff是什麼

發布時間:2023-11-12 11:53:14

python怎麼用正則表達式提取中文

1、字元串line='ufeffD0002044x01大數據x01數據分析x01技術x01工具x01應用 '
想提取出其中的「大數據」,「數據分析」,「技術」,「工具」,「應用」這些中文,用了正則表達式:
>>>pat2='x01(.*?)'
>>>rs=re.compile(pat2).findall(line)
>>>print(rs)
['','','','','']
顯示的結果是空,請問如何才能正確的提出中文部分。

2、原文: 法規名稱:'《中華人民共和國合同法》',Items:[{法條名稱:'第五十二條'
匹配成: 《中華人民共和國合同法》第五十二條
(?<=法規名稱:').*?(',Items:[{法條名稱:').*?(?=') 請問這樣匹配哪裡錯了?Python報sre_constants.error: unterminated character set at position 22

3、Python re正則匹配中文,其實非常簡單,把中文的unicode字元串轉換成utf-8格式就可以了,然後可以在re中隨意調用
unicode中中文的編碼為/u4e00-/u9fa5,因此正則表達式u」[u4e00-u9fa5]+」可以表示一個或者多個中文字元
>>> import re
>>> s='中文:123456aa哈哈哈bbcc'.decode('utf8')
>>> s
u''
>>> print s
中文:123456aa哈哈哈bbcc 。

⑵ python怎麼用正則表達式提取中文

Python re正則匹配中文,其實非常簡單,把中文的unicode字元串轉換成utf-8格式就可以了,然後可以在re中隨意調用
unicode中中文的編碼為/u4e00-/u9fa5,因此正則表達式u」[\u4e00-\u9fa5]+」可以表示一個或者多個中文字元
>>> import re

>>> s='中文:123456aa哈哈哈bbcc'.decode('utf8')
>>> s
u'\u4e2d\u6587\uff1a123456aa\u54c8\u54c8\u54c8bbcc'
>>> print s
中文:123456aa哈哈哈bbcc

>>> re.match(u"[\u4e00-\u9fa5]+",s)
<_sre.SRE_Match object at 0xb77742c0>

>>> pat='中文'.decode("utf8")
>>> re.search(pat,s)
<_sre.SRE_Match object at 0x16a16df0>

>>> newpat='這里是中文內容'.decode("utf8")

>>> news=re.sub(pat,newpat,s)
>>> print news
這里是中文內容:123456aa哈哈哈bbcc

from:http://blog.aizhet.com/web/12078.html

⑶ python 讀取的中文怎麼使用

在本文中,以'哈'來解釋作示例解釋所有的問題,「哈」的各種編碼如下:
1. UNICODE (UTF8-16),C854;
2. UTF-8,E59388;
3. GBK,B9FE。

一、python中的str和unicode

一直以來,python中的中文編碼就是一個極為頭大的問題,經常拋出編碼轉換的異常,python中的str和unicode到底是一個什麼東西呢?
在python中提到unicode,一般指的是unicode對象。
例如'哈哈'的unicode對象為

u'/u54c8/u54c8'
而str,是一個位元組數組,這個位元組數組表示的是對unicode對象編碼(可以是utf-8、gbk、cp936、GB2312)後的存儲的格式。
這里它僅僅是一個位元組流,沒有其它的含義,如果你想使這個位元組流顯示的內容有意義,就必須用正確的編碼格式,解碼顯示。

例如:

在這里 su 是unicode對象,
s_utf8是位元組數組,存儲的是unicode 經過utf8編碼後的位元組,'/xe5/x93/x88/xe5/x93/x88'
同樣,s_gbk存儲的是unicode經過gbk編碼後的位元組。

在上面print中,為什麼print s_utf8為亂碼,而print s_gbk就可以顯示的是中文?

因為print語句它的實現是將要輸出的內容傳送了操作系統,操作系統會根據系統的編碼對輸入的位元組流進行編碼,這就解釋了為什麼utf-8格式的字元串「哈哈」,輸出的是「鍝堝搱」,因為'/xe5/x93/x88/xe5/x93/x88'用GB2312去解釋,其顯示的出來就是「鍝堝搱」。

這里再強調一下,str記錄的是位元組數組,只是某種編碼的存儲格式,至於輸出到文件或是列印出來是什麼格式,完全取決於其解碼的編碼將它解碼成什麼樣子。

這里再對print進行一點補充說明:當將一個unicode對象傳給print時,在內部會將該unicode對象進行一次轉換,轉換成本地的默認編碼(這僅是個人猜測)

二、str和unicode對象的轉換
str和unicode對象的轉換,通過encode和decode實現,具體使用如下:

將GBK'哈哈'轉換成unicode,然後再轉換成UTF8

三、設定默認編碼 Setdefaultencoding

如上圖的演示代碼所示:

當把s(gbk字元串)直接編碼成utf-8的時候,將拋出異常,但是通過調用如下代碼:

import sys

reload(sys)

sys.setdefaultencoding('gbk')

後就可以轉換成功,為什麼呢?
在python中str和unicode在編碼和解碼過程中,如果將一個str直接編碼成另一種編碼,會先把str解碼成unicode,採用的編碼為默認編碼,一般默認編碼是anscii,所以在上面示例代碼中第一次轉換的時候會出錯,當設定當前默認編碼為'gbk'後,就不會出錯了。

至於reload(sys)是因為Python2.5 初始化後會刪除 sys.setdefaultencoding 這個方法,我們需要重新載入。

四、操作不同文件的編碼格式的文件
建立一個文件test.txt,文件格式用ANSI,內容為:
abc中文

用python來讀取
# coding=gbk

print open("Test.txt").read()

結果:
abc中文

把文件格式改成UTF-8:

結果:
abc涓菡孧

顯然,這里需要解碼:
# coding=gbk

import codecs

print open("Test.txt").read().decode("utf-8")

結果:
abc中文

上面的test.txt我是用Editplus來編輯的,但當我用Windows自帶的記事本編輯並存成UTF-8格式時,

運行時報錯:
Traceback (most recent call last):

File "ChineseTest.py", line 3, in

print open("Test.txt").read().decode("utf-8")

UnicodeEncodeError: 'gbk' codec can't encode character u'/ufeff' in position 0: illegal multibyte sequence

原來,某些軟體,如notepad,在保存一個以UTF-8編碼的文件時,會在文件開始的地方插入三個不可見的字元(0xEF 0xBB 0xBF,即BOM)。

因此我們在讀取時需要自己去掉這些字元,python中的codecs mole定義了這個常量:
# coding=gbk

import codecs

data = open("Test.txt").read()

if data[:3] == codecs.BOM_UTF8:

data = data[3:]

print data.decode("utf-8")

結果:
abc中文

五、文件的編碼格式和編碼聲明的作用

源文件的編碼格式對字元串的聲明有什麼作用呢?
這個問題困擾一直困擾了我好久,現在終於有點眉目了,文件的編碼格式決定了在該源文件中聲明的字元串的編碼格式,例如:
str = '哈哈'

print repr(str)

a.如果文件格式為utf-8,則str的值為:'/xe5/x93/x88/xe5/x93/x88'(哈哈的utf-8編碼)
b.如果文件格式為gbk,則str的值為:'/xb9/xfe/xb9/xfe'(哈哈的gbk編碼)

在第一節已經說過,python中的字元串,只是一個位元組數組,所以當把a情況的str輸出到gbk編碼的控制台時,就將顯示為亂碼:鍝堝搱;而當把b情況下的str輸出utf-8編碼的控制台時,也將顯示亂碼的問題,是什麼也沒有,也許'/xb9/xfe/xb9/xfe'用utf-8解碼顯示,就是空白吧。>_<

說完文件格式,現在來談談編碼聲明的作用吧,每個文件在最上面的地方,都會用# coding=gbk 類似的語句聲明一下編碼,但是這個聲明到底有什麼用呢?到止前為止,我覺得它的作用也就是三個:

a、聲明源文件中將出現非ascii編碼,通常也就是中文;
b、在高級的IDE中,IDE會將你的文件格式保存成你指定編碼格式。
c、決定源碼中類似於u'哈'這類聲明的將『哈』解碼成unicode所用的編碼格式,也是一個比較容易讓人迷惑的地方,
看示例:
#coding:gbk

ss = u'哈哈'
print repr(ss)
print 'ss:%s' % ss

將這個些代碼保存成一個utf-8文本,運行,你認為會輸出什麼呢?大家第一感覺肯定輸出的肯定是:
u'/u54c8/u54c8'
ss:哈哈

但是實際上輸出是:
u'/u935d/u581d/u6431'

ss:鍝堝搱

為什麼會這樣,這時候,就是編碼聲明在作怪了,在運行ss = u'哈哈'的時候,整個過程可以分為以下幾步:

1) 獲取'哈哈'的編碼:由文件編碼格式確定,為'/xe5/x93/x88/xe5/x93/x88'(哈哈的utf-8編碼形式)

2) 轉成unicode編碼的時候,在這個轉換的過程中,對於'/xe5/x93/x88/xe5/x93/x88'的解碼,不是用utf-8解碼,而是用聲明編碼處指定的編碼GBK,將'/xe5/x93/x88/xe5/x93/x88'按GBK解碼,得到就是''鍝堝搱'',
這三個字的unicode編碼就是u'/u935d/u581d/u6431',至止可以解釋為什麼print repr(ss)輸出的是u'/u935d/u581d/u6431'了。

好了,這里有點繞,我們來分析下一個示例:
#-*- coding:utf-8 -*-

ss = u'哈哈'

print repr(ss)

print 'ss:%s' % ss

將這個示例這次保存成GBK編碼形式,運行結果,竟然是:
UnicodeDecodeError: 'utf8' codec can't decode byte 0xb9 in position 0: unexpected code byte

這里為什麼會有utf8解碼錯誤呢?想想上個示例也明白了,
轉換第一步,因為文件編碼是GBK,得到的是'哈哈'編碼是GBK的編碼'/xb9/xfe/xb9/xfe',
當進行第二步,轉換成unicode的時候,會用UTF8對'/xb9/xfe/xb9/xfe'進行解碼,而大家查utf-8的編碼表會發現,utf8編碼表(關於UTF-8解釋可參見字元編碼筆記:ASCII、UTF-8、UNICODE)中根本不存在,所以會報上述錯誤。

⑷ python3通過pycharm編譯器調用requests介面返回JSON格式Unexpected UTF-8 BOM (decode using utf-8-sig)

因為你的req內容包含BOM字元,去掉req中BOM頭的方法如下

ifreq.startswith(u'ufeff'):
req=req.encode('utf8')[3:].decode('utf8')

⑸ python抓取網頁內容時出錯,UnicodeEncodeError: 'gbk' codec can't encode character '\ue4bf.....

問題是這樣的,網頁的數據應該是'utf-8'編碼,這個可以在網頁的head上面看得到,然後你爬網頁的時候會把它轉化成Unicode,出問題的是在print()這兒,對於print()這個函數,他需要把內容轉化為'gbk'編碼才能顯示出來. 然後解決辦法是這樣,你在轉化後的Unicode編碼的string後面,加上 .encode('GBK','ignore').decode('GBk') 也就是先用gbk編碼,忽略掉非法字元,然後再解碼,是不是很有道理 應該是這樣的,因為我和你遇到同樣的問題,現在解決了

⑹ 易語言好用還是python語言好用

當然是python好用了,不論是易還是python都不可以編寫手機軟體python對中文支持不好,這個不好辦,不過網上很多相關解決方法的。=====================================================本文原創,如需轉載,請註明出處。在本文中,以'哈'來解釋作示例解釋所有的問題,「哈」的各種編碼如下: 1. UNICODE (UTF8-16),C854; 2. UTF-8,E59388; 3. GBK,B9FE。一、python中的str和unicode
一直以來,python中的中文編碼就是一個極為頭大的問題,經常拋出編碼轉換的異常,python中的str和unicode到底是一個什麼東西呢?在python中提到unicode,一般指的是unicode對象,例如'哈哈'的unicode對象為u'\u54c8\u54c8'而str,是一個位元組數組,這個位元組數組表示的是對unicode對象編碼(可以是utf-8、gbk、cp936、GB2312)後的存儲的格式。這里它僅僅是一個位元組流,沒有其它的含義,如果你想使這個位元組流顯示的內容有意義,就必須用正確的編碼格式,解碼顯示。例如: 對於unicode對象哈哈進行編碼,編碼成一個utf-8編碼的str-s_utf8,s_utf8就是是一個位元組數組,存放的就是'\xe5\x93\x88\xe5\x93\x88',但是這僅僅是一個位元組數組,如果你想將它通過print語句輸出成哈哈,那你就失望了,為什麼呢?因為print語句它的實現是將要輸出的內容傳送了操作系統,操作系統會根據系統的編碼對輸入的位元組流進行編碼,這就解釋了為什麼utf-8格式的字元串「哈哈」,輸出的是「鍝堝搱」,因為'\xe5\x93\x88\xe5\x93\x88'用GB2312去解釋,其顯示的出來就是「鍝堝搱」。這里再強調一下,str記錄的是位元組數組,只是某種編碼的存儲格式,至於輸出到文件或是列印出來是什麼格式,完全取決於其解碼的編碼將它解碼成什麼樣子。這里再對print進行一點補充說明:當將一個unicode對象傳給print時,在內部會將該unicode對象進行一次轉換,轉換成本地的默認編碼(這僅是個人猜測)二、str和unicode對象的轉換
str和unicode對象的轉換,通過encode和decode實現,具體使用如下: 將GBK'哈哈'轉換成unicode,然後再轉換成UTF8三、Setdefaultencoding
如上圖的演示代碼所示:當把s(gbk字元串)直接編碼成utf-8的時候,將拋出異常,但是通過調用如下代碼:import sysreload(sys)sys.setdefaultencoding('gbk')後就可以轉換成功,為什麼呢?在python中str和unicode在編碼和解碼過程中,如果將一個str直接編碼成另一種編碼,會先把str解碼成unicode,採用的編碼為默認編碼,一般默認編碼是anscii,所以在上面示例代碼中第一次轉換的時候會出錯,當設定當前默認編碼為'gbk'後,就不會出錯了。至於reload(sys)是因為Python2.5 初始化後會刪除 sys.setdefaultencoding 這個方法,我們需要重新載入。四、操作不同文件的編碼格式的文件
建立一個文件test.txt,文件格式用ANSI,內容為:abc中文用python來讀取# coding=gbkprint open("Test.txt").read()結果:abc中文把文件格式改成UTF-8:結果:abc涓�枃顯然,這里需要解碼:# coding=gbkimport codecsprint open("Test.txt").read().decode("utf-8")結果:abc中文上面的test.txt我是用Editplus來編輯的,但當我用Windows自帶的記事本編輯並存成UTF-8格式時,運行時報錯:Traceback (most recent call last):File "ChineseTest.py", line 3, in print open("Test.txt").read().decode("utf-8")UnicodeEncodeError: 'gbk' codec can't encode character u'\ufeff' in position 0: illegal multibyte sequence原來,某些軟體,如notepad,在保存一個以UTF-8編碼的文件時,會在文件開始的地方插入三個不可見的字元(0xEF 0xBB 0xBF,即BOM)。因此我們在讀取時需要自己去掉這些字元,python中的codecs mole定義了這個常量:# coding=gbkimport codecsdata = open("Test.txt").read()if data[:3] == codecs.BOM_UTF8:data = data[3:]print data.decode("utf-8")結果:abc中文五、文件的編碼格式和編碼聲明的作用源文件的編碼格式對字元串的聲明有什麼作用呢?這個問題困擾一直困擾了我好久,現在終於有點眉目了,文件的編碼格式決定了在該源文件中聲明的字元串的編碼格式,例如:str = '哈哈'print repr(str)a.如果文件格式為utf-8,則str的值為:'\xe5\x93\x88\xe5\x93\x88'(哈哈的utf-8編碼)b.如果文件格式為gbk,則str的值為:'\xb9\xfe\xb9\xfe'(哈哈的gbk編碼)在第一節已經說過,python中的字元串,只是一個位元組數組,所以當把a情況的str輸出到gbk編碼的控制台時,就將顯示為亂碼:鍝堝搱;而當把b情況下的str輸出utf-8編碼的控制台時,也將顯示亂碼的問題,是什麼也沒有,也許'\xb9\xfe\xb9\xfe'用utf-8解碼顯示,就是空白吧。>_<說完文件格式,現在來談談編碼聲明的作用吧,每個文件在最上面的地方,都會用# coding=gbk 類似的語句聲明一下編碼,但是這個聲明到底有什麼用呢?到止前為止,我覺得它的作用也就是三個:
1.聲明源文件中將出現非ascii編碼,通常也就是中文;
2.在高級的IDE中,IDE會將你的文件格式保存成你指定編碼格式。
3.決定源碼中類似於u'哈'這類聲明的將『哈』解碼成unicode所用的編碼格式,也是一個比較容易讓人迷惑的地方,看示例:
#coding:gbk
ss = u'哈哈'print repr(ss)print 'ss:%s' % ss將這個些代碼保存成一個utf-8文本,運行,你認為會輸出什麼呢?大家第一感覺肯定輸出的肯定是:u'\u54c8\u54c8'ss:哈哈但是實際上輸出是:u'\u935d\u581d\u6431'ss:鍝堝搱為什麼會這樣,這時候,就是編碼聲明在作怪了,在運行ss = u'哈哈'的時候,整個過程可以分為以下幾步:1) 獲取'哈哈'的編碼:由文件編碼格式確定,為'\xe5\x93\x88\xe5\x93\x88'(哈哈的utf-8編碼形式)2) 轉成unicode編碼的時候,在這個轉換的過程中,對於'\xe5\x93\x88\xe5\x93\x88'的解碼,不是用utf-8解碼,而是用聲明編碼處指定的編碼GBK,將'\xe5\x93\x88\xe5\x93\x88'按GBK解碼,得到就是''鍝堝搱'',這三個字的unicode編碼就是u'\u935d\u581d\u6431',至止可以解釋為什麼print repr(ss)輸出的是u'\u935d\u581d\u6431'了。好了,這里有點繞,我們來分析下一個示例:#-*- coding:utf-8 -*-ss = u'哈哈'print repr(ss)print 'ss:%s' % ss將這個示例這次保存成GBK編碼形式,運行結果,竟然是:UnicodeDecodeError: 'utf8' codec can't decode byte 0xb9 in position 0: unexpected code byte這里為什麼會有utf8解碼錯誤呢?想想上個示例也明白了,轉換第一步,因為文件編碼是GBK,得到的是'哈哈'編碼是GBK的編碼'\xb9\xfe\xb9\xfe',當進行第二步,轉換成unicode的時候,會用UTF8對'\xb9\xfe\xb9\xfe'進行解碼,而大家查utf-8的編碼表會發現,utf8編碼表(關於UTF-8解釋可參見字元編碼筆記:ASCII、UTF-8、UNICODE)中根本不存在,所以會報上述錯誤。 本文來自CSDN博客,轉載請標明出處: http://blog.csdn.net/kiki113/archive/2009/04/10/4062063.aspx

⑺ Python 編碼轉換與中文處理

python 中的 unicode 是讓人很困惑、比較難以理解的問題. 這篇文章 寫的比較好, utf-8是 unicode的一種實現方式,unicode、gbk、gb2312是編碼字元集.

Python 默認腳本文件都是 ANSCII 編碼的,當文件 中有非 ANSCII 編碼范圍內的字元的時候就要使用" 編碼指示 "來修正一個 mole 的定義中,如果.py文件中包含中文字元(嚴格的說是含有非anscii字元),則需要在第一行或第二行指定編碼聲明: # -*- coding=utf-8 -*- 或者 #coding=utf-8
其他的編碼如:gbk、gb2312也可以;否則會出現:

先說一下python中的字元串類型,在python中有兩種字元串類型,分別是 str 和 unicode ,他們都是basestring的派生類;

在str的文檔中有這樣的一句話:

也就是說在讀取一個文件的內容,或者從網路上讀取到內容時,保持的對象為str類型;如果想把一個str轉換成特定編碼類型,需要把str轉為Unicode,然後從unicode轉為特定的編碼類型如:utf-8、gb2312等。

unicode 轉為 gb2312,utf-8等,使用 encode(encoding)

utf-8,GBK轉換為 unicode 使用 unicode(s,encoding) 或者 s.decode(encoding)

普通的 str 轉為 unicode,

如果直接執行s.encode('gb2312')會發生什麼?

這里會發生一個異常:Python 會自動的先將 s 解碼為 unicode ,然後再編碼成 gb2312。因為解碼是python自動進行的,我們沒有指明解碼方式,python 就會使用 sys.defaultencoding 指明的方式來解碼。很多情況下 sys.defaultencoding 是 ANSCII,如果 s 不是這個類型就會出錯。
拿上面的情況來說,我的 sys.defaultencoding 是 anscii,而 s 的編碼方式和文件的編碼方式一致,是 utf8 的,所以出錯了:

對於這種情況,我們有兩種方法來改正錯誤:

s = '中文'
s.decode('utf-8').encode('gb2312') ```

import sys
reload(sys) # Python2.5 初始化後會刪除 sys.setdefaultencoding 這個方法,我們需要重新載入
sys.setdefaultencoding('utf-8')
str = '中文'
str.encode('gb2312')

print open("Test.txt").read()

import codecs
print open("Test.txt").read().decode("utf-8")

Traceback (most recent call last):
File "ChineseTest.py", line 3, in <mole>
print open("Test.txt").read().decode("utf-8")
UnicodeEncodeError: 'gbk' codec can't encode character u'ufeff' in position 0: illegal multibyte sequence

import codecs
data = open("Test.txt").read()
if data[:3] == codecs.BOM_UTF8:
data = data[3:]
print data.decode("utf-8")

s = "中文"
print unicode(s, "utf-8")

Traceback (most recent call last):
File "ChineseTest.py", line 3, in <mole>
s = unicode(s, "utf-8")
UnicodeDecodeError: 'utf8' codec can't decode bytes in position 0-1: invalid data

s = "中文"
print unicode(s, "gbk")

s = "中文"
print unicode(s, "cp936")

閱讀全文

與pythonufeff是什麼相關的資料

熱點內容
cad用什麼解壓縮軟體 瀏覽:713
編譯的函數模版 瀏覽:357
加密貨幣利率改變 瀏覽:225
復雜網路案例python 瀏覽:294
死命令的意思 瀏覽:687
哪個app可以聽日語電台 瀏覽:101
谷輪壓縮機15hp 瀏覽:287
python任意整數冒泡降序 瀏覽:28
醫保卡的錢哪個app能看到 瀏覽:576
主伺服器崩潰如何進行域遷移 瀏覽:317
學安卓用什麼語言好 瀏覽:78
qt命令行 瀏覽:800
慕課app班級在哪裡 瀏覽:140
badusb編譯工具下載 瀏覽:191
pdf角膜 瀏覽:548
雲伺服器ie瀏覽器為什麼不能用 瀏覽:992
網路支付加密的股票 瀏覽:787
怎麼禁止知乎跳轉app 瀏覽:196
cnc手工宏程序編程實例 瀏覽:963
單片機手機4G 瀏覽:487