『壹』 python給產品批量設置產品標簽怎麼做
批量做的話,可以用資料庫導入的方法添加標簽內容,只需要做好第一個,然後只直接點擊列印預覽就能出來所有的批量標簽了
『貳』 Python beautifulsoup 獲取標簽中的值 怎麼獲取
使用beautifulsoup的方法如下:
importurllib
url=連接
content=urllib.urlopen(url).read()
soup=BeautifulSoup(content)
tags1=soup.findAll('tr',{class:evenright})
tags2=soup.findAll('tr',{class:oddright})
上面的就是利用beautifulsoup寫的代碼;
要取出網頁中class 為even right 的所有tr和所有class為odd right的tr;
所有tr取出之後就可以列印出它的內容,就可以獲取值了。
『叄』 python查找是否存在某個標簽
book.p.one.get("age",None),如果存在age的值get會返回其值,如果不存在,則返回None。然後加一個判斷,就可以知道有沒有age了。
還可以直接用has_key函數來確定是否存在某個鍵值。
『肆』 python獲取指定標簽中的內容
你好:
請看下面代碼:
#-*-coding:utf-8-*-
frombs4importBeautifulSoup
html='''<dict>
<key>LogType</key>
<string>Default</string>
<key>Message</key>
<string>測試場景:訂餐提交頁面</string>
<string>Loopin:2rTime:0.266s</string>
<key>Timestamp</key>
<date>2014-06-06T12:16:24Z</date>
<key>Type</key>
<integer>1</integer>
</dict>'''
soup=BeautifulSoup(html)
trs=soup.findAll("string")
length=len(trs)
arr=[]
foriinrange(length):
printtrs[i].contents
需要安裝BeautifulSoup,代碼很容易懂的!
『伍』 python 讀取dicom tag 結果為空值
可能出現了中文亂碼的問題。
DICOM全稱為Digital Imaging and Communications in Medicine,即醫學數字成像和通信標准。本文中讀取的CT圖像就是使用DICOM標准存儲的。其實不只CT圖像,大部分臨床影像都被存儲為DICOM格式,如MR與PET圖像。DICOM文件中除了包含有影像數據外,還囊括了大量機器,患者信息。這些信息被存儲在一個個tags or attributes之下。Pydicom包為我們提供了非常簡單易用的方法來讀取這些文件。
Python 由 Guido van Rossum 於 1989 年年底出於某種娛樂目的而開發, Python 語言是基於 ABC 教學語言的,而 ABC 這種語言非常強大,是專門為非專業程序員設計的。但 ABC 語言並沒有獲得廣泛的應用, Guido 認為是非開放造成的。
Python 的「出身」部分影響了它的流行,Python 上手非常簡單,它的語法非常像自然語言,對非軟體專業人士而言,選擇 Python 的成本最低,因此某些醫學甚至藝術專業背景的人,往往會選擇 Python 作為編程語言。
『陸』 Python中extract_tags()怎麼對多行文本提取特徵詞而不是一行一行計算
[python] view plain
#coding:utf-8
import sys
reload(sys)
sys.setdefaultencoding("utf-8")
from multiprocessing import Pool,Queue,Process
import multiprocessing as mp
import time,random
import os
import codecs
import jieba.analyse
jieba.analyse.set_stop_words("yy_stop_words.txt")
def extract_keyword(input_string):
#print("Do task by process {proc}".format(proc=os.getpid()))
tags = jieba.analyse.extract_tags(input_string, topK=100)
#print("key words:{kw}".format(kw=" ".join(tags)))
return tags
#def parallel_extract_keyword(input_string,out_file):
def parallel_extract_keyword(input_string):
#print("Do task by process {proc}".format(proc=os.getpid()))
tags = jieba.analyse.extract_tags(input_string, topK=100)
#time.sleep(random.random())
#print("key words:{kw}".format(kw=" ".join(tags)))
#o_f = open(out_file,'w')
#o_f.write(" ".join(tags)+"\n")
return tags
if __name__ == "__main__":
data_file = sys.argv[1]
with codecs.open(data_file) as f:
lines = f.readlines()
f.close()
out_put = data_file.split('.')[0] +"_tags.txt"
t0 = time.time()
for line in lines:
parallel_extract_keyword(line)
#parallel_extract_keyword(line,out_put)
#extract_keyword(line)
print("串列處理花費時間{t}".format(t=time.time()-t0))
pool = Pool(processes=int(mp.cpu_count()*0.7))
t1 = time.time()
#for line in lines:
#pool.apply_async(parallel_extract_keyword,(line,out_put))
#保存處理的結果,可以方便輸出到文件
res = pool.map(parallel_extract_keyword,lines)
#print("Print keywords:")
#for tag in res:
#print(" ".join(tag))
pool.close()
pool.join()
print("並行處理花費時間{t}s".format(t=time.time()-t1))
運行:
python data_process_by_multiprocess.py message.txt
message.txt是每行是一個文檔,共581行,7M的數據
運行時間:
不使用sleep來掛起進程,也就是把time.sleep(random.random())注釋掉,運行可以大大節省時間。
『柒』 Python beautifulsoup 獲取標簽中的值 怎麼獲取
age = soup.find(attrs={"class":"age"}) #你這里find只要一個attrs參數不會報錯。
if age == None: #簡單點可以用 if not age:
print u'沒有找到'
else:
soup.find(attrs={"class":"name"})
#否則用findAll找出所有具有這個class的tr
tr = html.find("tr", attrs={"class":"show_name"})
tds = tr.findAll("td")
for td in tds:
print td.string # 或許不是string屬性,你可以用dir(td)看看有哪些可用的。
(7)pythontags擴展閱讀:
1、如果是函數定義中參數前的*表示的是將調用時的多個參數放入元組中,**則表示將調用函數時的關鍵字參數放入一個字典中。
1)如定義以下函數:
def func(*args):print(args)
當用func(1,2,3)調用函數時,參數args就是元組(1,2,3)
2)如定義以下函數:
def func(**args):print(args)
當用func(a=1,b=2)調用函數時,參數args將會是字典{'a':1,'b':2}
學python的同時一定會接觸到其他技術,畢竟光會python這門語言是不夠的,要看用它來做什麼。比如說用 python做爬蟲,就必須接觸到html, http等知識。
python是現在最火的數據分析工具語言python的進階的路線是數據清洗,爬蟲,數據容器,之後是卷積,線性分析,和機器學習,區塊連,金融方面的量化等高端進階。
『捌』 如何用Python提取網頁標簽中的文本信息
提供兩種思路 僅供參考:
一、使用內置的正則表達式
from bs4 import BeautifulSoup
html = ("<div class="question">
"
"<span><a class="normal" name="question-2c26d7bd-90c1-415a-b881-2c560414340b">1、</a></span> 以下哪條不是VRRP雙主可能的原因
"
"</div>")
soup = BeautifulSoup(html,"html.parser")
text = soup.get_text()
print(text)
『玖』 Python中變數名是標簽,指向一塊內存,函數名是不是也是這個道理
是的。Python里應該大多數都是標簽,指向一塊內存的。比如說我定義一個a函數,單獨輸入函數名後也可以發現它是一個標簽,指向了一塊內存<function a at 0x041CC6A8>。
>>> def a():
pass
>>> a
<function a at 0x041CC6A8>
『拾』 如何用python為一個文章打標簽
所以說你真的就把pandas 當讀取數據的工具了嗎..
增加了一列is_tobacco 作為你說的標記
filter_query 返回含有這些詞的列表 效率有一定提升
其次你可以分割後用 multiprocessing 執行 這個加速起來不止一點半點
import pandas as pd
word = pd.read_table('test.txt', encoding = 'utf-8', names = ['query'])
def signquery(word):
tobacco = [u'煙', u'白沙', u'黃金葉', u'利群', u'南京九五', u'黃鶴樓軟', u'黃鶴樓硬', u'嬌子', u'鑽石荷花', u'玉溪', u'七匹狼尚品', u'七匹狼軟灰']
word['is_tobacco'] = word['query'].apply(lambda name:name in tobacco)
return word
def filter_query(word):
tobacco = [u'煙', u'白沙', u'黃金葉', u'利群', u'南京九五', u'黃鶴樓軟', u'黃鶴樓硬', u'嬌子', u'鑽石荷花', u'玉溪', u'七匹狼尚品', u'七匹狼軟灰']
return word[word['query'].apply(lambda name:name in tobacco)]['query'].to_dict().values()
result = filter_query(word)
print result