導航:首頁 > 源碼編譯 > 隨機森林演算法python

隨機森林演算法python

發布時間:2023-05-22 16:01:52

① 機器學習有哪些演算法

1. 線性回歸
在統計學和機器學習領域,線性回歸可能是最廣為人知也最易理解的演算法之一。
2. Logistic 回歸
Logistic 回歸是機器學習從統計學領域借鑒過來的另一種技術。它是二分類問題的首選方法。
3. 線性判別分析
Logistic 回歸是一種傳統的分類演算法,它的使用場景僅限於二分類問題。如果你有兩個以上的類,那麼線性判別分析演算法(LDA)是首選的線性分類技術。
4.分類和回歸樹
決策樹是一類重要的機器學習預測建模演算法。
5. 樸素貝葉斯
樸素貝葉斯是一種簡單而強大的預測建模演算法。
6. K 最近鄰演算法
K 最近鄰(KNN)演算法是非常簡單而有效的。KNN 的模型表示就是整個訓練數據集。
7. 學習向量量化
KNN 演算法的一個缺點是,你需要處理整個訓練數據集。
8. 支持向量機
支持向量機(SVM)可能是目前最流行、被討論地最多的機器學習演算法之一。
9. 袋裝法和隨機森林
隨機森林是最流行也最強大的機器學習演算法之一,它是一種集成機器學習演算法。

想要學習了解更多機器學習的知識,推薦CDA數據分析師課程。CDA(Certified Data Analyst),即「CDA 數據分析師」,是在數字經濟大背景和人工智慧時代趨勢下,面向全行業的專業權威國際資格認證,旨在提升全民數字技能,助力企業數字化轉型,推動行業數字化發展。點擊預約免費試聽課。

② 如何自學編程python

首先先了解Python語言的四大發展方向。目前Python的主要方向有web後端開發、大數據分析網路爬蟲和人工智慧,當然如果再細分的話還有自動化測試、運維等方向。

在學習Python的基礎語法時,並不需要太多的基礎,基本只要熟練使用電腦日常功能並對Python感興趣就可以了,但如果想要在人工智慧領域方向發展的話,線性代數、概率、統計等高等數學知識基本是必需的,原因在於這些知識能夠讓你的邏輯更加清晰,在編程過程中有更強的思路。

分享一個千鋒Python的學習大綱給你

第一階段 - Python 數據科學

Python 基礎語法

入門及環境安裝 、基本語法與數據類型、控制語句、錯誤及異常、錯誤處理方法、異常處理方法 、常用內置函數 、函數創建與使用、Python 高級特性、高級函數、Python 模塊、PythonIO 操作 、日期與時間 、類與面向對象 、Python 連接資料庫

Python 數據清洗

數字化 Python 模塊Numpy、數據分析利器Pandas、Pandas 基本操作、Pandas 高級操作

Python 數據可視化

數據可視化基礎、MLlib(RDD-Base API)機器學習、MatPlotlib 繪圖進階、高級繪圖工具

第二階段 - 商業數據可視化

Excel 業務分析

Excel 基礎技能、Excel 公式函數、圖表可視化、人力 & 財務分析案例、商業數據分析方法、商業數據分析報告

Mysql 資料庫

Mysql 基礎操作(一)、Mysql 基礎操作(二)、Mysql 中級操作、Mysql 高級操作、電商數據處理案例

PowerBI

初級商業智能應用 (PowerQuery)、初級商業智能應用 (PowerPivot)、初級商業智能應用案例、存儲過程、PowerBI Desktop 案例、PowerBI Query 案例

統計學基礎

微積分、線性代數基礎、統計基礎

Tableau

Tableau 基本操作、Tableau 繪圖、Tableau 數據分析、Tableau 流量分析

SPSS

客戶畫像、客戶價值模型、神經網路、決策樹、時間序列

第三階段 - Python 機器學習

Python 統計分析

數據准備、一元線性回歸、多元線性回歸、一般 logistic 回歸、ogistic 回歸與修正

Python 機器學習基礎

機器學習入門、KNN 講義、模型評估方法、模型優化方法、Kmeans、DBSCAN、決策樹演算法實戰

Python 機器學習中級

線性回歸、模型優化方法、邏輯回歸、樸素貝葉斯、關聯規則、協同過濾、推薦系統案例

Python 機器學習高級

集成演算法 - 隨機森林、集成演算法 -AdaBoost、數據處理和特徵工程、SVM、神經網路、XGBoost

第四階段 - 項目實戰

電商市場數據挖掘項目實戰

項目背景 & 業務邏輯 、指定分析策略 、方法實現與結果 、營銷活動設計及結果評價 、撰寫數據分析報告

金融風險信用評估項目實戰

項目背景 & 業務邏輯 、建模准備 、數據清洗 、模型訓練 、模型評估 、模型部署與更新

第五階段 - 數據採集

爬蟲類庫解析 、數據解析 、動態網頁提取 、驗證碼、IP 池 、多線程爬蟲 、反爬應對措施 、scrapy 框架

第六階段 - 企業課

團隊戶外拓展訓練 、企業合作項目課程 、管理課程 、溝通表達訓練 、職業素養課程

以上就是零基礎Python學習路線的所有內容,希望對大家的學習有所幫助。

③ 如何用Python進行大數據挖掘和分析

如何用Python進行大數據挖掘和分析?快速入門路徑圖
大數據無處不在。在時下這個年代,不管你喜歡與否,在運營一個成功的商業的過程中都有可能會遇到它。
什麼是 大數據 ?
大數據就像它看起來那樣——有大量的數據。單獨而言,你能從單一的數據獲取的洞見窮其有限。但是結合復雜數學模型以及強大計算能力的TB級數據,卻能創造出人類無法製造的洞見。大數據分析提供給商業的價值是無形的,並且每天都在超越人類的能力。
大數據分析的第一步就是要收集數據本身,也就是眾所周知的「數據挖掘」。大部分的企業處理著GB級的數據,這些數據有用戶數據、產品數據和地理位置數據。今天,我將會帶著大家一起探索如何用 Python 進行大數據挖掘和分析?
為什麼選擇Python?
Python最大的優點就是簡單易用。這個語言有著直觀的語法並且還是個強大的多用途語言。這一點在大數據分析環境中很重要,並且許多企業內部已經在使用Python了,比如Google,YouTube,迪士尼等。還有,Python是開源的,並且有很多用於數據科學的類庫。
現在,如果你真的要用Python進行大數據分析的話,毫無疑問你需要了解Python的語法,理解正則表達式,知道什麼是元組、字元串、字典、字典推導式、列表和列表推導式——這只是開始。
數據分析流程
一般可以按「數據獲取-數據存儲與提取-數據預處理-數據建模與分析-數據可視化」這樣的步驟來實施一個數據分析項目。按照這個流程,每個部分需要掌握的細分知識點如下:
數據獲取:公開數據、Python爬蟲
外部數據的獲取方式主要有以下兩種。
第一種是獲取外部的公開數據集,一些科研機構、企業、政府會開放一些數據,你需要到特定的網站去下載這些數據。這些數據集通常比較完善、質量相對較高。
另一種獲取外部數據的方式就是爬蟲。
比如你可以通過爬蟲獲取招聘網站某一職位的招聘信息,爬取租房網站上某城市的租房信息,爬取豆瓣評分評分最高的電影列表,獲取知乎點贊排行、網易雲音樂評論排行列表。基於互聯網爬取的數據,你可以對某個行業、某種人群進行分析。
在爬蟲之前你需要先了解一些 Python 的基礎知識:元素(列表、字典、元組等)、變數、循環、函數………
以及,如何用 Python 庫(urllib、BeautifulSoup、requests、scrapy)實現網頁爬蟲。
掌握基礎的爬蟲之後,你還需要一些高級技巧,比如正則表達式、使用cookie信息、模擬用戶登錄、抓包分析、搭建代理池等等,來應對不同網站的反爬蟲限制。
數據存取:SQL語言
在應對萬以內的數據的時候,Excel對於一般的分析沒有問題,一旦數據量大,就會力不從心,資料庫就能夠很好地解決這個問題。而且大多數的企業,都會以SQL的形式來存儲數據。
SQL作為最經典的資料庫工具,為海量數據的存儲與管理提供可能,並且使數據的提取的效率大大提升。你需要掌握以下技能:
提取特定情況下的數據
資料庫的增、刪、查、改
數據的分組聚合、如何建立多個表之間的聯系
數據預處理:Python(pandas)
很多時候我們拿到的數據是不幹凈的,數據的重復、缺失、異常值等等,這時候就需要進行數據的清洗,把這些影響分析的數據處理好,才能獲得更加精確地分析結果。
對於數據預處理,學會 pandas (Python包)的用法,應對一般的數據清洗就完全沒問題了。需要掌握的知識點如下:
選擇:數據訪問
缺失值處理:對缺失數據行進行刪除或填充
重復值處理:重復值的判斷與刪除
異常值處理:清除不必要的空格和極端、異常數據
相關操作:描述性統計、Apply、直方圖等
合並:符合各種邏輯關系的合並操作
分組:數據劃分、分別執行函數、數據重組
Reshaping:快速生成數據透視表
概率論及統計學知識
需要掌握的知識點如下:
基本統計量:均值、中位數、眾數、百分位數、極值等
其他描述性統計量:偏度、方差、標准差、顯著性等
其他統計知識:總體和樣本、參數和統計量、ErrorBar
概率分布與假設檢驗:各種分布、假設檢驗流程
其他概率論知識:條件概率、貝葉斯等
有了統計學的基本知識,你就可以用這些統計量做基本的分析了。你可以使用 Seaborn、matplotlib 等(python包)做一些可視化的分析,通過各種可視化統計圖,並得出具有指導意義的結果。
Python 數據分析
掌握回歸分析的方法,通過線性回歸和邏輯回歸,其實你就可以對大多數的數據進行回歸分析,並得出相對精確地結論。這部分需要掌握的知識點如下:
回歸分析:線性回歸、邏輯回歸
基本的分類演算法:決策樹、隨機森林……
基本的聚類演算法:k-means……
特徵工程基礎:如何用特徵選擇優化模型
調參方法:如何調節參數優化模型
Python 數據分析包:scipy、numpy、scikit-learn等
在數據分析的這個階段,重點了解回歸分析的方法,大多數的問題可以得以解決,利用描述性的統計分析和回歸分析,你完全可以得到一個不錯的分析結論。
當然,隨著你實踐量的增多,可能會遇到一些復雜的問題,你就可能需要去了解一些更高級的演算法:分類、聚類。
然後你會知道面對不同類型的問題的時候更適合用哪種演算法模型,對於模型的優化,你需要去了解如何通過特徵提取、參數調節來提升預測的精度。
你可以通過 Python 中的 scikit-learn 庫來實現數據分析、數據挖掘建模和分析的全過程。
總結
其實做數據挖掘不是夢,5步就能讓你成為一個Python爬蟲高手!

④ 我用Python進行隨機森林回歸,訓練好模型後用來預測,預測值卻為一個定值,請問這是什麼原因導致的

隨機森林是以決策樹為基礎的一種更高級的演算法。隨機森林可用於回歸也可以用於分類。它的工作原理是生成叢態多個分類器/模型,各自獨立地學習和作出預測。最後對這些預測進行集成,因此優於任何一個單分類的做出預測,是一種優秀的機器學習模型。

之所以你沒能學習到核槐有效的模型,可能是你的數據中的因子與預測指標的關聯強度不夠,因此學習到的是常數模型,也有可能是數據的處理流程或者模型的使用方法不對。網頁鏈接這個網址上的課程完整講解了隨機森林演算法的使用,希望對你有改鄭友幫助

⑤ 求問隨機森林演算法的簡單實現過程

隨機森林(Random forest)指的是利用多棵樹對樣本進行訓練並預測的一種分類器。 並且其輸出的類別是由個別樹輸出的類別的眾數而定。在機器學習中有一個地位很重要的包scikit-learn可實現隨機森林演算法。


原理:(隨機森林的分類預測和回歸預測sklearn.ensemble.RandomForestRegressor方法)
(1)給定訓練集S,測試集T,特徵維數F。確定參數:使用到的CART的數量t,每棵樹的深度d,每個節點使用到的特徵數量f,終止條件:節點上最少樣本數s,節點上最少的信息增益m,對於第1-t棵樹,i=1-t:
(2)從S中有放回的抽取大小和S一樣的訓練集S(i),作為根節點的樣本,從根節點開始訓練
(3)如果當前節點上達到終止條件,則設置當前節點為葉子節點,如果是分類問題,該葉子節點的預測輸出為當前節點樣本集合中數量最多的那一類c(j),概率p為c(j)占當前樣本集的比例;如果是回歸問題,預測輸出為當前節點樣本集各個樣本值的平均值。然後繼續訓練其他節點。如果當前節點沒有達到終止條件,則從F維特徵中無放回的隨機選取f維特徵。利用這f維特徵,尋找分類效果最好的一維特徵k及其閾值th,當前節點上樣本第k維特徵小於th的樣本被劃分到左節點,其餘的被劃分到右節點。繼續訓練其他節點。
(4)重復(2)(3)直到所有節點都訓練過了或者被標記為葉子節點。
(5)重復(2),(3),(4)直到所有CART都被訓練過。
隨機森林的簡單實現過程如下:
一、 開發環境、編譯環境:
PyCharm Community Edition 2016.2.3
Python2.7.10
二、 所用庫及安裝方法:
pandas[python自帶]
sklearn:命令行pip install sklearn;如果沒有安裝pip,先使用easy_install pip安裝pip;如果在MAC上沒有許可權,使用sudo pip install sklearn;
三、 代碼介紹
1. 使用pandas讀取本地excel的訓練集和測試集,將屬性集賦給X_train和Y_train;將要預測的集合賦給X_test和Y_test;
2. 使用DictVectorizer對數據進行規范化、標准化
3. 生成RandomForestRegressor對象,並將訓練集傳入fit方法中進行訓練
4. 調用predict函數進行預測,並將結果存入y_predict變數中;
5. 使用mean_squared_error、score方法輸出MSE、NMSE值對擬合度、穩定度進行分析;輸出feature_importance,對影響最終結果的屬性進行分析;
6. 詳細代碼見附錄
四、 附錄
# coding:utf-8
import pandas as pd
data_train = pd.read_excel('/Users/xiaoliu/Desktop/data_train.xlsx')
X_train = data_train[['CPI', 'GDP', 'PPI', 'AJR', 'BJFJ', 'FBDR', 'PCFD', 'PCFDED', 'BDR']]
y_train = data_train['FJ']

data_test = pd.read_excel('/Users/xiaoliu/Desktop/data_test.xlsx')
X_test = data_test[['CPI', 'GDP', 'PPI', 'AJR', 'BJFJ', 'FBDR', 'PCFD', 'PCFDED', 'BDR']]
y_test = data_test['FJ']

from sklearn.feature_extraction import DictVectorizer

vec = DictVectorizer(sparse=False)
X_train = vec.fit_transform(X_train.to_dict(orient='records'))
X_test = vec.transform(X_test.to_dict(orient='records'))

from sklearn.ensemble import RandomForestRegressor
rf = RandomForestRegressor()
rf.fit(X_train,y_train)
y_predict = rf.predict(X_test)
print 'predict value:',y_predict

from sklearn.metrics import mean_squared_error
print 'MSE:', mean_squared_error(y_test, y_predict)
print 'NMES:',rf.score(X_test, y_test)
print rf.feature_importances_

⑥ Python調用RandomForestClassifier時出現__init__() got an unexpected keyword argument 'min_samples'

RFclf :分類器;X:訓練樣本:
RFclf.predict_proba(X):返回樣本分類的概率 #sum(RFclf.predict_proba(X)) = 1
RFclf.transform(X,threshold):返回篩選後的樣本;threshold是閾值,可以省略。
RFclf.feature_importance_:返回各個特徵的重要性。 #sum(RFclf.feature_importance_) = 1
RFclf.classes_:得到分類順序!

⑦ 數據挖掘實戰之隨機森林演算法使用

閱讀路線:

近來有同學問道,有沒有數據挖掘的案例可以來練習下,主要是來通過案例來知道演算法是如何使用的。

下面就以 港股打新 這個金融項目為例,來做個預測,先來說下什麼是打新;打新,就是用資金參與新股申購,如果中簽的話,就買到了即將上市的股票。

此次分析的目的是為了深入打新數據,找到最優演算法,挖掘出影響打新的關鍵因素,找到可能要破發的新股,從而減少新股破發的風險,提高盈利。

打新的本質,也即是在股票上市後賣出,賺取其中的差價。一般在買到的第一天就會賣掉,當然第一天上升的股票有漲有跌,為了能夠減少風險,會根據歷史數據來做個預判,這里把漲幅10%以下記為0,漲幅10%以上記為1,很明顯這也是二分類的預測問題

對於本項目而言,最終的評價標準是要求在精確度達到97%的情況下,最大化召回率。這里是要求盡可能提高召回率,自己本身對風險比較厭惡,寧可錯殺,也不會願意申購上市就要的破發的新股

對於評價標准,一般用的是PR曲線和ROC曲線。ROC曲線有一個突出優勢,就是不受樣本不均衡的影響 ROC曲線不受樣本不均衡問題的影響

1.數據總體情況

港股數據主要來自兩個方面, 利弗莫爾證券數據 和 阿思達克保薦人近兩年數據 ,處理之後是這樣的:

數據一共有17個特徵,除了目標變數is_profit,還有16個特徵。

以上的數據指標可以梳理為兩類,一類是股票相,如 關,一類是保薦人指標,

2.數據處理方面不用管
一般特徵工程主要從以下方面來進行:衍生特徵、異常值處理、缺失值處理、連續特徵離散化、分類變數one-hot-encode、標准化等,本篇文章主要講解隨機森林演算法使用,暫不對特徵工程做過多的展示了

使用隨機森林默認的參數 帶來的模型結果來看,auc指標是0.76,效果還可以。

為了更好的理解上述,這里有幾個知識點需要來解釋下:

返回的是一個n行k列的數組,第i行第j列上的數值是模型預測第i個預測樣本的標簽為j的概率。所以每一行的和應該等於1;本文中predict_proba(x_test)[:,1]返回的是標簽為0的概率。

(a).混淆矩陣

混淆矩陣如下圖分別用」0「和」1「代表負樣本和正樣本。FP代表實際類標簽為」0「,但預測類標簽為」1「的樣本數量。其餘,類似推理。

(b).假正率和真正率

假正率(False Positive Rate,FPR)是實際標簽為」0「的樣本中,被預測錯誤的比例。真正率(True Positive Rate,TPR)是實際標簽為」1「的樣本中,被預測正確的比例。其公式如下:

(3).ROC曲線

下圖的黑色線即為ROC曲線,ROC曲線是一系列threshold下的(FPR,TPR)數值點的連線。此時的threshold的取值分別為測試數據集中各樣本的預測概率。但,取各個概率的順序是從大到小的。然後也就是有了不同的RPR、TPR,且測試樣本中的數據點越多,曲線越平滑:

AUC(Area Under roc Cure),顧名思義,其就是ROC曲線下的面積,在此例子中AUC=0.62。AUC越大,說明分類效果越好。

下面我們來看看RF重要的Bagging框架的參數,主要有以下幾個:

(1) n_estimators:

也就是最大的弱學習器的個數。一般來說n_estimators太小,容易欠擬合,n_estimators太大,計算量會太大,並且n_estimators到一定的數量後,再增大n_estimators獲得的模型提升會很小,所以一般選擇一個適中的數值。默認是100。

(2) oob_score:

即是否採用袋外樣本來評估模型的好壞。默認識False。個人推薦設置為True,因為袋外分數反應了一個模型擬合後的泛化能力。

(3) criterion:

即CART樹做劃分時對特徵的評價標准。分類模型和回歸模型的損失函數是不一樣的。分類RF對應的CART分類樹默認是基尼系數gini,另一個可選擇的標準是信息增益。回歸RF對應的CART回歸樹默認是均方差mse,另一個可以選擇的標準是絕對值差mae。一般來說選擇默認的標准就已經很好的。

從上面可以看出,RF重要的框架參數比較少,主要需要關注的是 n_estimators ,即RF最大的決策樹個數。

下面我們再來看RF的決策樹參數,它要調參的參數如下:

(1) RF劃分時考慮的最大特徵數max_features:

(2) 決策樹最大深度max_depth:

默認可以不輸入,如果不輸入的話,決策樹在建立子樹的時候不會限制子樹的深度。一般來說,數據少或者特徵少的時候可以不管這個值。如果模型樣本量多,特徵也多的情況下,推薦限制這個最大深度,具體的取值取決於數據的分布。常用的可以取值10-100之間。

(3) 內部節點再劃分所需最小樣本數min_samples_split:

這個值限制了子樹繼續劃分的條件,如果某節點的樣本數少於min_samples_split,則不會繼續再嘗試選擇最優特徵來進行劃分。默認是2.如果樣本量不大,不需要管這個值。如果樣本量數量級非常大,則推薦增大這個值。

(4) 葉子節點最少樣本數min_samples_leaf:

這個值限制了葉子節點最少的樣本數,如果某葉子節點數目小於樣本數,則會和兄弟節點一起被剪枝。 默認是1,可以輸入最少的樣本數的整數,或者最少樣本數占樣本總數的百分比。如果樣本量不大,不需要管這個值。如果樣本量數量級非常大,則推薦增大這個值。

(5)葉子節點最小的樣本權重和min_weight_fraction_leaf:

這個值限制了葉子節點所有樣本權重和的最小值,如果小於這個值,則會和兄弟節點一起被剪枝。 默認是0,就是不考慮權重問題。一般來說,如果我們有較多樣本有缺失值,或者分類樹樣本的分布類別偏差很大,就會引入樣本權重,這時我們就要注意這個值了。

(6) 最大葉子節點數max_leaf_nodes:

通過限制最大葉子節點數,可以防止過擬合,默認是"None」,即不限制最大的葉子節點數。如果加了限制,演算法會建立在最大葉子節點數內最優的決策樹。如果特徵不多,可以不考慮這個值,但是如果特徵分成多的話,可以加以限制,具體的值可以通過交叉驗證得到。

(7) 節點劃分最小不純度min_impurity_split:
這個值限制了決策樹的增長,如果某節點的不純度(基於基尼系數,均方差)小於這個閾值,則該節點不再生成子節點。即為葉子節點 。一般不推薦改動默認值1e-7。

上面決策樹參數中最重要的包括最大特徵數 max_features , 最大深度 max_depth , 內部節點再劃分所需最小樣本數 min_samples_split 和葉子節點最少樣本數 min_samples_leaf

GridSearchCV的名字其實可以拆分為兩部分,GridSearch和CV,即網格搜索和交叉驗證。這兩個名字都非常好理解。網格搜索,搜索的是參數,即在指定的參數范圍內,按步長依次調整參數,利用調整的參數訓練學習器,從所有的參數中找到在驗證集上精度最高的參數,這其實是一個訓練和比較的過程。

GridSearchCV可以保證在指定的參數范圍內找到精度最高的參數,但是這也是網格搜索的缺陷所在,他要求遍歷所有可能參數的組合,在面對大數據集和多參數的情況下,非常耗時。

通過RF框架以及RF決策樹參數能夠了解到重點需要調節以下的參數

主要需要關注的是 n_estimators ,即RF最大的決策樹個數。

決策樹參數中最重要的包括最大特徵數 max_features , 最大深度 max_depth , 內部節點再劃分所需最小樣本數 min_samples_split 和葉子節點最少樣本數 min_samples_leaf

輸出結果為:

6.3最佳的弱學習器迭代次數,接著我們對決策樹最大深度max_depth和內部節點再劃分所需最小樣本數min_samples_split進行網格搜索

輸出結果

6.4最大特徵數max_features做調參

輸出結果:

6.5根據模型最佳參數進行測試

輸出結果:0.7805947388486466,相比沒有調參前,模型有不少的提高的,方便觀察,用圖形來看下ROC曲線圖

6.6觀察模型的重要特徵

6.7最大召回率

最後得出我們想要的結果,精準率在 0.97 下,召回率 0.046

參考文章:

1.sklearn中predict_proba的用法例子

2.Python機器學習筆記 Grid SearchCV(網格搜索)

3.scikit-learn隨機森林調參小結

4.ROC曲線和AUC值的計算

閱讀全文

與隨機森林演算法python相關的資料

熱點內容
網盤忘記解壓碼怎麼辦 瀏覽:852
文件加密看不到裡面的內容 瀏覽:651
程序員腦子里都想什麼 瀏覽:430
oppp手機信任app在哪裡設置 瀏覽:185
java地址重定向 瀏覽:268
一年級下冊摘蘋果的演算法是怎樣的 瀏覽:448
程序員出軌電視劇 瀏覽:88
伺服器系統地址怎麼查 瀏覽:54
解壓游戲發行官 瀏覽:601
國外小伙解壓實驗 瀏覽:336
頂級大學開設加密貨幣 瀏覽:437
java重載與多態 瀏覽:528
騰訊應屆程序員 瀏覽:942
一鍵編譯程序 瀏覽:129
語音加密包哪個好 瀏覽:340
有什麼學習高中語文的app 瀏覽:282
安卓手機的表格里怎麼打勾 瀏覽:411
阿里雲伺服器有網路安全服務嗎 瀏覽:970
超解壓兔子視頻 瀏覽:24
單片機怎麼測負脈沖 瀏覽:174