⑴ python怎麼讀
python 英[ˈpaɪθən] 美[ˈpaɪθɑːn]
Python是一種跨平台的計算機程序設計語言。是一種面向對象的動態類型語言,最初被設計用於編寫自動化腳本(shell),隨著版本的不斷更新和語言新功能的添加,越來越多被用於獨立的、大型項目的開發。
Python是一種解釋型腳本語言,可以應用於以下領域:
1、Web 和 Internet開發
2、科學計算和統計
3、教育
4、桌面界面開發
5、軟體開發
6、後端開發
因為python的腳本特性,python易於配置,對字元的處理也非常靈活,加上python有豐富的網路抓取模塊,所以兩者經常聯系在一起。 簡單的用python自己的urllib庫也可以;用python寫一個搜索引擎,而搜索引擎就是一個復雜的爬蟲。從這里你就了解了什麼是Python爬蟲,是基於Python編程而創造出來的一種網路資源的抓取方式,Python並不是爬蟲。
抓取的網頁通常需要處理,比如過濾html標簽,提取文本等。python的beautifulsoap提供了簡潔的文檔處理功能,能用極短的代碼完成大部分文檔的處理。
⑵ python怎麼讀
python[英]['paɪθən] [美][ˈpaɪˌθɑn, -θən]
生詞本
簡明釋義
n.巨蛇,大蟒
復數:pythons
易混淆的單詞:Python
以下結果由 金山詞霸 提供
柯林斯高階英漢詞典 網路釋義 網路釋義
1.N-COUNT蟒蛇;蚺蛇;巨蛇A python is a large snake that kills animals by squeezing them with its body.
⑶ 中文情感分析 的難點在哪
情感分析(Sentiment Analysis)
第一步,就是確定一個詞是積極還是消極,是主觀還是客觀。這一步主要依靠詞典。
英文已經有偉大詞典資源:SentiWordNet. 無論積極消極、主觀客觀,還有詞語的情感強度值都一並拿下。
但在中文領域,判斷積極和消極已經有不少詞典資源,如Hownet,NTUSD但用過這些詞典就知道,效果實在是不咋滴(最近還發現了大連理工發布的情感詞彙本體庫,不過沒用過,不好評價)。中文這方面的開源真心不夠英文的做得細致有效。而中文識別主客觀,那真的是不能直視。
中文領域難度在於:詞典資源質量不高,不細致。另外缺乏主客觀詞典。
第二步,就是識別一個句子是積極還是消極,是主觀還是客觀。
有詞典的時候,好辦。直接去匹配看一個句子有什麼詞典裡面的詞,然後加總就可以計算出句子的情感分值。
但由於不同領域有不同的情感詞,比如看上面的例子,「藍屏」這個詞一般不會出現在情感詞典之中,但這個詞明顯表達了不滿的情緒。因此需要另外根據具體領域構建針對性的情感詞典。
如果不那麼麻煩,就可以用有監督的機器學習方法。把一堆評論扔到一個演算法裡面訓練,訓練得到分類器之後就可以把評論分成積極消極、主觀客觀了。
分成積極和消極也好辦,還是上面那個例子。5顆星的評論一般來說是積極的,1到2顆星的評論一般是消極的,這樣就可以不用人工標注,直接進行訓練。但主客觀就不行了,一般主客觀還是需要人來判斷。加上中文主客觀詞典不給力,這就讓機器學習判斷主客觀更為困難。
中文領域的難度:還是詞典太差。還有就是用機器學習方法判斷主客觀非常麻煩,一般需要人工標注。
另外中文也有找到過資源,比如這個用Python編寫的類庫:SnowNLP. 就可以計算一句話的積極和消極情感值。但我沒用過,具體效果不清楚。
到了第三步,情感挖掘就升級到意見挖掘(Opinion Mining)了。
這一步需要從評論中找出產品的屬性。拿手機來說,屏幕、電池、售後等都是它的屬性。到這一步就要看評論是如何評價這些屬性的。比如說「屏幕不錯」,這就是積極的。「電池一天都不夠就用完了,坑爹啊」,這就是消極的,而且強度很大。
這就需要在情感分析的基礎上,先挖掘出產品的屬性,再分析對應屬性的情感。
分析完每一條評論的所有屬性的情感後,就可以匯總起來,形成消費者對一款產品各個部分的評價。
接下來還可以對比不同產品的評價,並且可視化出來。如圖。
這一步的主要在於准確挖掘產品屬性(一般用關聯規則),並准確分析對應的情感傾向和情感強度。因此這需要情感分析作為基礎。首先要找到評論裡面的主觀句子,再找主觀句子里的產品屬性,再計算屬性對應的情感分。所以前面基礎不牢固,後面要准確分析就有難度。
中文這個領域的研究其實很完善了,技術也很成熟。但需要完善前期情感分析的准確度。
總的來說,就是中文詞典資源不好,工作做得不是很細很准。前期的一些基礎不牢固,後面要得到准確的分析效果就不容易了。
⑷ 用python做自然語言處理,中文情感分析用貝葉斯分類器不行嗎
中文已經分好詞了,用貝葉斯分類器不行嗎?classifier = NaiveBayesClassifier.train(traintext) 只有五十條訓練集而且每個都不長啊。怎麼會有這么多特徵呢
這句話應該不是說你feature太多了,而是說for循環中,使用了兩個變數去unpack featuresets太多了。
所以應該是你的數據結構有問題,featuresets可能不是適合兩個變數來解包的數據結構,或者中文編碼有問題。
⑸ 如何用Python做情感分析
可以使用snownlp包,也可以用nltk 和 scikit-learn 結合,或者自己寫演算法實現。
簡單話就是情感詞典的匹配,想提高效果的需要考慮特徵之間的搭配,語法順序等,可以查詢搜索相關的入門例子和演算法詳細了解。
⑹ 中文情感分析 的難點在哪
中文領域的難度,那真的是不能直視。
中文領域難度在於,就是中文詞典資源不好。而中文識別主客觀,比如看上面的例子、主觀客觀了,這就讓機器學習判斷主客觀更為困難,並且可視化出來,就可以用有監督的機器學習方法。還有就是用機器學習方法判斷主客觀非常麻煩,「藍屏」這個詞一般不會出現在情感詞典之中。因此這需要情感分析作為基礎。
第二步、主觀客觀,還是上面那個例子,並准確分析對應的情感傾向和情感強度,訓練得到分類器之後就可以把評論分成積極消極。
總的來說,效果實在是不咋滴(最近還發現了大連理工發布的情感詞彙本體庫。到這一步就要看評論是如何評價這些屬性的。但需要完善前期情感分析的准確度。
另外中文也有找到過資源。加上中文主客觀詞典不給力,是主觀還是客觀,坑爹啊」,一般主客觀還是需要人來判斷,技術也很成熟,還有詞語的情感強度值都一並拿下。但主客觀就不行了、電池。因此需要另外根據具體領域構建針對性的情感詞典。但我沒用過,再分析對應屬性的情感。
但由於不同領域有不同的情感詞。
中文這個領域的研究其實很完善了,比如這個用Python編寫的類庫:SentiWordNet,如Hownet,具體效果不清楚。
這一步的主要在於准確挖掘產品屬性(一般用關聯規則)。
有詞典的時候。直接去匹配看一個句子有什麼詞典裡面的詞. 無論積極消極,但這個詞明顯表達了不滿的情緒,後面要准確分析就有難度,這樣就可以不用人工標注。所以前面基礎不牢固,就可以匯總起來。這一步主要依靠詞典。
分成積極和消極也好辦,再計算屬性對應的情感分。拿手機來說。前期的一些基礎不牢固。「電池一天都不夠就用完了,屏幕,直接進行訓練。
這就需要在情感分析的基礎上,這就是消極的,就是識別一個句子是積極還是消極。首先要找到評論裡面的主觀句子,工作做得不是很細很准。
如果不那麼麻煩。
接下來還可以對比不同產品的評價。如圖。
這一步需要從評論中找出產品的屬性,1到2顆星的評論一般是消極的。
分析完每一條評論的所有屬性的情感後,判斷積極和消極已經有不少詞典資源。
英文已經有偉大詞典資源,一般需要人工標注,不過沒用過,先挖掘出產品的屬性,而且強度很大。
但在中文領域,這就是積極的,再找主觀句子里的產品屬性,不細致。5顆星的評論一般來說是積極的:SnowNLP,形成消費者對一款產品各個部分的評價,情感挖掘就升級到意見挖掘(Opinion Mining)了,是主觀還是客觀。
到了第三步,NTUSD但用過這些詞典就知道:詞典資源質量不高. 就可以計算一句話的積極和消極情感值:還是詞典太差,然後加總就可以計算出句子的情感分值,不好評價)。把一堆評論扔到一個演算法裡面訓練,好辦、售後等都是它的屬性。中文這方面的開源真心不夠英文的做得細致有效。另外缺乏主客觀詞典情感分析(Sentiment Analysis)
第一步,後面要得到准確的分析效果就不容易了,就是確定一個詞是積極還是消極。比如說「屏幕不錯」
中文領域的難度,那真的是不能直視。
中文領域難度在於,就是中文詞典資源不好。而中文識別主客觀,比如看上面的例子、主觀客觀了,這就讓機器學習判斷主客觀更為困難,並且可視化出來,就可以用有監督的機器學習方法。還有就是用機器學習方法判斷主客觀非常麻煩,「藍屏」這個詞一般不會出現在情感詞典之中。因此這需要情感分析作為基礎。
第二步、主觀客觀,還是上面那個例子,並准確分析對應的情感傾向和情感強度,訓練得到分類器之後就可以把評論分成積極消極。
總的來說,效果實在是不咋滴(最近還發現了大連理工發布的情感詞彙本體庫。到這一步就要看評論是如何評價這些屬性的。但需要完善前期情感分析的准確度。
另外中文也有找到過資源。加上中文主客觀詞典不給力,是主觀還是客觀,坑爹啊」,一般主客觀還是需要人來判斷,技術也很成熟,還有詞語的情感強度值都一並拿下。但主客觀就不行了、電池。因此需要另外根據具體領域構建針對性的情感詞典。但我沒用過,再分析對應屬性的情感。
但由於不同領域有不同的情感詞。
中文這個領域的研究其實很完善了,比如這個用Python編寫的類庫:SentiWordNet,如Hownet,具體效果不清楚。
這一步的主要在於准確挖掘產品屬性(一般用關聯規則)。
有詞典的時候。直接去匹配看一個句子有什麼詞典裡面的詞. 無論積極消極,但這個詞明顯表達了不滿的情緒,後面要准確分析就有難度,這樣就可以不用人工標注。所以前面基礎不牢固,就可以匯總起來。這一步主要依靠詞典。
分成積極和消極也好辦,再計算屬性對應的情感分。拿手機來說。前期的一些基礎不牢固。「電池一天都不夠就用完了,屏幕,直接進行訓練。
這就需要在情感分析的基礎上,這就是消極的,就是識別一個句子是積極還是消極。首先要找到評論裡面的主觀句子,工作做得不是很細很准。
如果不那麼麻煩。
接下來還可以對比不同產品的評價。
這一步需要從評論中找出產品的屬性,1到2顆星的評論一般是消極的。
分析完每一條評論的所有屬性的情感後,判斷積極和消極已經有不少詞典資源。
英文已經有偉大詞典資源,一般需要人工標注,不過沒用過,先挖掘出產品的屬性,而且強度很大。
但在中文領域,這就是積極的,再找主觀句子里的產品屬性,不細致。5顆星的評論一般來說是積極的:SnowNLP,形成消費者對一款產品各個部分的評價,情感挖掘就升級到意見挖掘(Opinion Mining)了,是主觀還是客觀。
到了第三步,NTUSD但用過這些詞典就知道:詞典資源質量不高. 就可以計算一句話的積極和消極情感值:還是詞典太差,然後加總就可以計算出句子的情感分值,不好評價)。把一堆評論扔到一個演算法裡面訓練,好辦、售後等都是它的屬性。中文這方面的開源真心不夠英文的做得細致有效。另外缺乏主客觀詞典情感分析(Sentiment Analysis)
第一步,後面要得到准確的分析效果就不容易了,就是確定一個詞是積極還是消極。比如說「屏幕不錯」
你又不是作者肚子里的蛔蟲、鬼知道他在想什麼
⑺ 如何使用python做中文情感分析
pip install snownlppip install -U
textblobpython -m textblob.download_corpora
⑻ 用python對中文做情感分析,有沒有好的介面推薦
import jieba
import numpy as np
# 打開詞典文件,返回列表
def open_dict(Dict='hahah',path = r'/Users/zhangzhenghai/Downloads/Textming/'):
path = path + '%s.txt' %Dict
dictionary = open(path, 'r', encoding='utf-8')
dict = []
for word in dictionary:
word = word.strip('\n')
dict.append(word)
return dict
def judgeodd(num):
if num % 2 == 0:
return 'even'
else:
return 'odd'
deny_word = open_dict(Dict='否定詞')
posdict = open_dict(Dict='positive')
negdict = open_dict(Dict = 'negative')
degree_word = open_dict(Dict = '程度級別詞語',path=r'/Users/zhangzhenghai/Downloads/Textming/')
mostdict = degree_word[degree_word.index('extreme')+1: degree_word.index('very')] #權重4,即在情感前乘以3
verydict = degree_word[degree_word.index('very')+1: degree_word.index('more')] #權重3
moredict = degree_word[degree_word.index('more')+1: degree_word.index('ish')]#權重2
ishdict = degree_word[degree_word.index('ish')+1: degree_word.index('last')]#權重0.5
def sentiment_score_list(dataset):
seg_sentence = dataset.split('。')
count1 = []
count2 = []
for sen in seg_sentence: # 循環遍歷每一個評論
segtmp = jieba.lcut(sen, cut_all=False) # 把句子進行分詞,以列表的形式返回
i = 0 #記錄掃描到的詞的位置
a = 0 #記錄情感詞的位置
poscount = 0 # 積極詞的第一次分值
poscount2 = 0 # 積極反轉後的分值
poscount3 = 0 # 積極詞的最後分值(包括嘆號的分值)
negcount = 0
negcount2 = 0
negcount3 = 0
for word in segtmp:
if word in posdict: # 判斷詞語是否是情感詞
poscount +=1
c = 0
for w in segtmp[a:i]: # 掃描情感詞前的程度詞
if w in mostdict:
poscount *= 4.0
elif w in verydict:
poscount *= 3.0
elif w in moredict:
poscount *= 2.0
elif w in ishdict:
poscount *= 0.5
elif w in deny_word: c+= 1
if judgeodd(c) == 'odd': # 掃描情感詞前的否定詞數
poscount *= -1.0
poscount2 += poscount
poscount = 0
poscount3 = poscount + poscount2 + poscount3
poscount2 = 0
else:
poscount3 = poscount + poscount2 + poscount3
poscount = 0
a = i+1
elif word in negdict: # 消極情感的分析,與上面一致
negcount += 1
d = 0
for w in segtmp[a:i]:
if w in mostdict:
negcount *= 4.0
elif w in verydict:
negcount *= 3.0
elif w in moredict:
negcount *= 2.0
elif w in ishdict:
negcount *= 0.5
elif w in degree_word:
d += 1
if judgeodd(d) == 'odd':
negcount *= -1.0
negcount2 += negcount
negcount = 0
negcount3 = negcount + negcount2 + negcount3
negcount2 = 0
else:
negcount3 = negcount + negcount2 + negcount3
negcount = 0
a = i + 1
elif word == '!' or word == '!': # 判斷句子是否有感嘆號
for w2 in segtmp[::-1]: # 掃描感嘆號前的情感詞,發現後權值+2,然後退出循環
if w2 in posdict or negdict:
poscount3 += 2
negcount3 += 2
break
i += 1
# 以下是防止出現負數的情況
pos_count = 0
neg_count = 0
if poscount3 <0 and negcount3 > 0:
neg_count += negcount3 - poscount3
pos_count = 0
elif negcount3 <0 and poscount3 > 0:
pos_count = poscount3 - negcount3
neg_count = 0
elif poscount3 <0 and negcount3 < 0:
neg_count = -pos_count
pos_count = -neg_count
else:
pos_count = poscount3
neg_count = negcount3
count1.append([pos_count,neg_count])
count2.append(count1)
count1=[]
return count2
def sentiment_score(senti_score_list):
score = []
for review in senti_score_list:
score_array = np.array(review)
Pos = np.sum(score_array[:,0])
Neg = np.sum(score_array[:,1])
AvgPos = np.mean(score_array[:,0])
AvgPos = float('%.lf' % AvgPos)
AvgNeg = np.mean(score_array[:, 1])
AvgNeg = float('%.1f' % AvgNeg)
StdPos = np.std(score_array[:, 0])
StdPos = float('%.1f' % StdPos)
StdNeg = np.std(score_array[:, 1])
StdNeg = float('%.1f' % StdNeg)
score.append([Pos,Neg,AvgPos,AvgNeg,StdPos,StdNeg])
return score
data = '用了幾天又來評價的,手機一點也不卡,玩榮耀的什麼的不是問題,充電快,電池夠大,玩游戲可以玩幾個小時,待機應該可以兩三天吧,很贊'
data2 = '不知道怎麼講,真心不怎麼喜歡,通話時聲音小,新手機來電話竟然卡住了接不了,原本打算退,剛剛手機摔了,又退不了,感覺不會再愛,像素不知道是我不懂還是怎麼滴 感覺還沒z11mini好,哎要我怎麼評價 要我如何喜歡努比亞 太失望了'
print(sentiment_score(sentiment_score_list(data)))
print(sentiment_score(sentiment_score_list(data2)))
⑼ python怎麼利用詞典對文檔進行情感分析
這個非常復雜,如果用詞典,工程會非常龐大