① python太好用了!AI初學者快速體驗人臉檢測
我們使頌宴用python進行AI識別測試,具體方式是是開啟本地電腦的攝像頭進行實時的識別,或者直接傳入一張圖片進行行人檢測,在分析代碼把數據源傳入到識別,看到的是source=』0』,但是這個參數是打開本地電腦的攝像頭流,再進行行人檢測。
但我們需要對此處進行修改,使用rtsp流,進行AI行人識別,下面需要進行分析代碼,找到可以修改的地方,或者摸個參數,來進行RTSP流的修改。
已經找到了視頻流在哪裡傳進去的了,下面就是進行分析裡面的代碼進行改成rtsp流,把rtsp流寫進去,汪知來做到實時分析,實現行人檢測的效果。
在進行分析的時候,發現source這個參數只有LoadStreams用到過,而且是直接傳進去的。
進入source參數裡面查看,發現裡面有一個默認的值,就是讀文件,如果不是文件,就把source=[source],再進行source值遍歷。在遍歷中還使用到了opencv打開本地電腦的攝像機流,再開一個線程進行實時行人識別。
代碼中使用了opencv中cv2.VideoCapture的函數,從網上查找這個函數的用法得知,此函數是可以直接傳入rtsp流地址的,所以問題解決就簡單多了。cv2.VideoCapture這個函數是可以傳入rtsp地址的,所以傳入rtsp地址進行嘗試,發現傳入rtsp地址是沒有問題的。困櫻消
只要修改source這個參數即可,最終實現了檢測:
② 如何提取Python數據
首先是准備工作,導入需要使用的庫,讀取並創建數據表取名為loandata。
?
1
2
3
import numpy as np
import pandas as pd
loandata=pd.DataFrame(pd.read_excel('loan_data.xlsx'))
設置索引欄位
在開始提取數據前,先將member_id列設置為索引欄位。然後開始提取數據。
?
1
Loandata = loandata.set_index('member_id')
按行提取信息
第一步是按行提取數據,例如提取某個用戶的信息。下面使用ix函數對member_id為1303503的用戶信息進行了提取。
?
1
loandata.ix[1303503]
按列提取信息
第二步是按列提取數據,例如提取用戶工作年限列的所有信息,下面是具體的代碼和提取結果,顯示了所有用戶的工作年齡信息。
?
1
loandata.ix[:,'emp_length']
按行與列提取信息
第三步是按行和列提取信息,把前面兩部的查詢條件放在一起,查詢特定用戶的特定信息,下面是查詢member_id為1303503的用戶的emp_length信息。
?
1
loandata.ix[1303503,'emp_length']
在前面的基礎上繼續增加條件,增加一行同時查詢兩個特定用戶的貸款金額信息。具體代碼和查詢結果如下。結果中分別列出了兩個用戶的代碼金額。
?
1
loandata.ix[[1303503,1298717],'loan_amnt']
在前面的代碼後增加sum函數,對結果進行求和,同樣是查詢兩個特定用戶的貸款進行,下面的結果中直接給出了貸款金額的匯總值。
?
1
loandata.ix[[1303503,1298717],'loan_amnt'].sum()
除了增加行的查詢條件以外,還可以增加列的查詢條件,下面的代碼中查詢了一個特定用戶的貸款金額和年收入情況,結果中分別顯示了這兩個欄位的結果。
?
1
loandata.ix[1303503,['loan_amnt','annual_inc']]
多個列的查詢也可以進行求和計算,在前面的代碼後增加sum函數,對這個用戶的貸款金額和年收入兩個欄位求和,並顯示出結果。
?
1
loandata.ix[1303503,['loan_amnt','annual_inc']].sum()
③ 用Python創建一個學生字典並可以查詢其中信息
你可以試試這個----------------------------------------------------------
# -*- coding:UTF-8 -*-
students=[]
def meun():
print("="*30)
print("*"*10+"學生信息管理"+"*"*10)
print("1.添加學生信息")
print("2.刪除學生信息")
print("3.指定學號查詢學生信息")
print("4.查詢全部學生信息")
print("5.保存信息")
print("0.退出系統")
print("="*30)
def add_new_info():
global students
print("您選擇了添加學生信息功能")
name = input("請輸入學生姓名:")
stuId = input("請輸入學生學號(學號不可重復):")
age = input("請輸入學生年齡:")
#驗證學號是否唯一
i = 0
leap = 0
for temp in students:
if temp['id'] == stuId:
leap = 1
break
else:
i = i + 1
if leap == 1:
print("輸入學生學號重復,添加失敗!")
break
else:
# 定義一個字典,存放單個學生信息
stuInfo = {}
stuInfo['name'] = name
stuInfo['id'] = stuId
stuInfo['age'] = age
# 單個學生信息放入列表
students.append(stuInfo)
print("添加成功!")
def del_info():
global students
print("您選擇了刪除學生功能")
delId=input("請輸入要刪除的學生學號:")
#i記錄要刪除的下標,leap為標志位,如果找到leap=1,否則為0
i = 0
leap = 0
for temp in students:
if temp['id'] == delId:
leap = 1
break
else:
i=i+1
if leap == 0:
print("沒有此學生學號,刪除失敗!")
else:
del students[i]
print("刪除成功!")
def search_info():
global students
searchID=input("請輸入你要查詢學生的學號:")
#驗證是否有此學號
i = 0
leap = 0
for temp in students:
if temp['id'] == searchID:
leap = 1
break
else:
i = i + 1
if leap == 0:
print("沒有此學生學號,查詢失敗!")
else:
print("找到此學生,信息如下:")
print("學號:%s 姓名:%s 年齡:%s "%(temp['id'],temp['name'],temp['age']))
def print_all_info():
print("序號 學號 姓名 年齡")
for temp in students:
print("sno:%s,stuName:%s,stuAge:%s" %(temp['id'],temp['name'],temp['age']))
print("*"*20)
def loda_data():
#加在之前存儲的數據
global students
f = open("info_data.data")
content = f.read()
info_list = eval(content)
f.close()
def main():
#加在數據(先存好數據,在打開這個數據直接讀取數據)
#load_data()
while True:
#1.列印工程
meun()
#2.獲取用戶的選擇
key = input("請輸入要進行的操作):")
#3.根據用戶的選擇,作出相應的事件
if key == "1":
add_new_info()
elif key == "2":
del_info()
elif key == "3":
search_info()
elif key == "4":
print_all_info()
elif key == "5":
save_data()
elif key == "0":
exit_flag = input("你確定要退出嗎?(yes or no)")
if exit_flag == "yes":
break
else:
print("輸入有誤,請重新輸入。。。")
input(" 按回車鍵可以繼續。。。")
continue
#程序開始
main()
摘自網頁鏈接-------------------------------------------------------------------
請採納,謝謝
④ 如何使用python爬取知乎數據並做簡單分析
一、使用的技術棧:
爬蟲:python27 +requests+json+bs4+time
分析工具: ELK套件
開發工具:pycharm
數據成果簡單的可視化分析
1.性別分布
0 綠色代表的是男性 ^ . ^
1 代表的是女性
-1 性別不確定
可見知乎的用戶男性頗多。
二、粉絲最多的top30
粉絲最多的前三十名:依次是張佳瑋、李開復、黃繼新等等,去知乎上查這些人,也差不多這個排名,說明爬取的數據具有一定的說服力。
三、寫文章最多的top30
四、爬蟲架構
爬蟲架構圖如下:
說明:
選擇一個活躍的用戶(比如李開復)的url作為入口url.並將已爬取的url存在set中。
抓取內容,並解析該用戶的關注的用戶的列表url,添加這些url到另一個set中,並用已爬取的url作為過濾。
解析該用戶的個人信息,並存取到本地磁碟。
logstash取實時的獲取本地磁碟的用戶數據,並給elsticsearchkibana和elasticsearch配合,將數據轉換成用戶友好的可視化圖形。
五、編碼
爬取一個url:
解析內容:
存本地文件:
代碼說明:
* 需要修改獲取requests請求頭的authorization。
* 需要修改你的文件存儲路徑。
源碼下載:點擊這里,記得star哦!https : // github . com/forezp/ZhihuSpiderMan六、如何獲取authorization
打開chorme,打開https : // www. hu .com/,
登陸,首頁隨便找個用戶,進入他的個人主頁,F12(或滑鼠右鍵,點檢查)七、可改進的地方
可增加線程池,提高爬蟲效率
存儲url的時候我才用的set(),並且採用緩存策略,最多隻存2000個url,防止內存不夠,其實可以存在redis中。
存儲爬取後的用戶我說採取的是本地文件的方式,更好的方式應該是存在mongodb中。
對爬取的用戶應該有一個信息的過濾,比如用戶的粉絲數需要大與100或者參與話題數大於10等才存儲。防止抓取了過多的僵屍用戶。
八、關於ELK套件
關於elk的套件安裝就不討論了,具體見官網就行了。網站:https : // www . elastic . co/另外logstash的配置文件如下:
從爬取的用戶數據可分析的地方很多,比如地域、學歷、年齡等等,我就不一一列舉了。另外,我覺得爬蟲是一件非常有意思的事情,在這個內容消費升級的年代,如何在廣闊的互聯網的數據海洋中挖掘有價值的數據,是一件值得思考和需不斷踐行的事情。
⑤ 如何用python製作個人簡歷
程序員的簡歷,一般通過Markdown或LaTex生成PDF,比較特別的是前端程序員會用JavaScript實現更加炫酷的網頁版本簡歷。
作為一個Python程序員,可以通過下面的代碼,在命令行生成一份獨一無二的Pythonic的簡歷。
望採納謝謝
希望能幫助你
⑥ python查詢AD域信息的方法總結
很多公司都在使用AD域來管理用戶及組織架構,我們可以使用Python來進行自動化運維。網上很多資料不全而且都很古老,特地根據最近的代碼編寫經歷,編寫了如下通過python查詢AD域信息方法總結:
環境:
原理匯總 :
通過LDAP協議來連接及訪問AD域服務,可以把AD域理解成某種類型資料庫,我們通過AD賬號和密碼來訪問其中存儲資料庫欄位信息。為了更好地了解其中欄位及含義,建議下載一個ADExplorer.exe綠色工具軟體,直接去微軟官網下載免費的綠色軟體,以下是下載鏈接(查看左邊的菜單Networking Utilities中包含的Active Directory Explorer):
https://docs.microsoft.com/en-us/sysinternals/
通過這個軟體,我們可以很方便地查看各種欄位信息,為後面的連接獲取足夠的前提信息 。
#建立和關閉域連接
以上代碼把連接和關閉連接分開,是為了避免在一個程序中需要頻繁調用連接時,避免經常關閉,可以節省大量的資源和時間,可以在程序開頭建立連接,在程序退出時才關閉即可
#模糊查詢組信息
#模糊查詢域中的workstation信息
查詢到所需信息以後,還可以直接調用pandas,保存為excel文件
⑦ 【Python問題】使用Python的字典,通過字典存儲學生的基本成績信息
知識點比較基礎,但寫起來繁瑣,超出寫完可以學到東西范圍,付費可以幫寫