㈠ 人工智慧有哪些是我們可以利用的領域
隨著科學技術和經濟社會的迅速發展,人工智慧的應用越來越普遍,它發展對我們的工作和生活方式都產生了深遠影響。在電子商務領域,人工智慧技術同樣也得到了很好的應用,並取得了明顯的效果。可以說,人工智慧與電子商務之間存在著密切的聯系,兩者相互影響並共同進步。
6、趨勢預測
一般來說,圖片中會隱藏著大量的用戶信息。所以,根據用戶瀏覽的圖片,利用深度學習演算法可以從中分析出最近某品類的流行趨勢,如顏色、規格、材質、風格等,這也是電商平台與供貨商進行談判的重要依據。
7、商品定價
傳統模式下,企業需要依靠數據和自身的經驗制定商品的價格。然而,在日趨激烈的市場競爭環境中,商品價格也要隨著市場的變動做出及時調整。這種長期持續的價格調整,即便是對於一個只有小規模庫存的線上零售商來說,也是一項很大的挑戰。而這種定價問題正是人工智慧所擅長的,通過先進的深度學習演算法,人工智慧技術可以持續評估市場動態以解決商品定價問題。
㈡ 人工智慧十大演算法
人工智慧十大演算法如下
線性回歸(Linear Regression)可能是最流行的機器學習演算法。線性回歸就是要找一條直線,並且讓這條直線盡可能地擬合散點圖中的數據點。它試圖通過將直線方程與該數據擬合來表示自變數(x值)和數值結果(y值)。然後就可以用這條線來預測未來的值!
邏輯回歸(Logistic regression)與線性回歸類似,但它是用於輸出為二進制的情況(即,當結果只能有兩個可能的值)。對最終輸出的預測是一個非線性的S型函數,稱為logistic function, g()。
決策樹(Decision Trees)可用於回歸和分類任務。
樸素貝葉斯(Naive Bayes)是基於貝葉斯定理。它測量每個類的概率,每個類的條件概率給出x的值。這個演算法用於分類問題,得到一個二進制「是/非」的結果。看看下面的方程式。
支持向量機(Support Vector Machine,SVM)是一種用於分類問題的監督演算法。支持向量機試圖在數據點之間繪制兩條線,它們之間的邊距最大。為此,我們將數據項繪制為n維空間中的點,其中,n是輸入特徵的數量。在此基礎上,支持向量機找到一個最優邊界,稱為超平面(Hyperplane),它通過類標簽將可能的輸出進行最佳分離。
K-最近鄰演算法(K-Nearest Neighbors,KNN)非常簡單。KNN通過在整個訓練集中搜索K個最相似的實例,即K個鄰居,並為所有這些K個實例分配一個公共輸出變數,來對對象進行分類。
K-均值(K-means)是通過對數據集進行分類來聚類的。例如,這個演算法可用於根據購買歷史將用戶分組。它在數據集中找到K個聚類。K-均值用於無監督學習,因此,我們只需使用訓練數據X,以及我們想要識別的聚類數量K。
隨機森林(Random Forest)是一種非常流行的集成機器學習演算法。這個演算法的基本思想是,許多人的意見要比個人的意見更准確。在隨機森林中,我們使用決策樹集成(參見決策樹)。
由於我們今天能夠捕獲的數據量之大,機器學習問題變得更加復雜。這就意味著訓練極其緩慢,而且很難找到一個好的解決方案。這一問題,通常被稱為「維數災難」(Curse of dimensionality)。
人工神經網路(Artificial Neural Networks,ANN)可以處理大型復雜的機器學習任務。神經網路本質上是一組帶有權值的邊和節點組成的相互連接的層,稱為神經元。在輸入層和輸出層之間,我們可以插入多個隱藏層。人工神經網路使用了兩個隱藏層。除此之外,還需要處理深度學習。
㈢ 人工智慧演算法有哪些
人工智慧演算法有:決策樹、隨機森林演算法、邏輯回歸、SVM、樸素貝葉斯、K最近鄰演算法、K均值演算法、Adaboost演算法、神經網路、馬爾可夫。
㈣ 人工智慧演算法
演算法就分很多類,這里拿「合一」來作為介紹,為了應用推理規則(比如取式假言推理),推理系統必須能夠判斷兩個表達式何時相同,也就是這兩個表達式何時匹配。在命題演算中,這是顯而易見的:兩個表達式是匹配的當且僅當它們在語句構成上相同。在謂詞演算中,表達式中變數的存在使匹配兩個語句的過程變得復雜。全稱例化允許用定義域中的項來替換全稱量化變數。這需要一個決策處理來判斷是否可以使變數替換產生的兩個或更多個表達式相同〈通常是為了應用推理規則)。合一是一種判斷什麼樣的替換可以使產生的兩個謂詞演算表達式匹配的演算法。我們在上-一節中已經看到了這個過程,VX( man(X)=mortal(X))中的×替換成了man( socrates)中的 soc-rates。合一和像假言推理這樣的推理規則允許我們對一系列邏輯斷言做出推理。為了做到這一點,必須把邏輯資料庫表示為合適的形式。這種形式的一個根本特徵是要求所有的變數都是全稱量化的。這樣便允許在計算替代時有完全的自由度。存在量化變數可以從資料庫語句中消除,方法是用使這個語句為真的常量來替代它們。如,可以把3× parent( X, tom)替代為表達式parent( bob, tom)或parent( mary , tom) ,假定在當前解釋下bob和 mary是tom的雙親。消除存在量化變數的處理會因這些替換的值可能依賴於表達式中的其他變數而變得復雜。
㈤ 人工智慧演算法簡介
人工智慧的三大基石—演算法、數據和計算能力,演算法作為其中之一,是非常重要的,那麼人工智慧都會涉及哪些演算法呢?不同演算法適用於哪些場景呢?
一、按照模型訓練方式不同可以分為監督學習(Supervised Learning),無監督學習(Unsupervised Learning)、半監督學習(Semi-supervised Learning)和強化學習(Reinforcement Learning)四大類。
常見的監督學習演算法包含以下幾類:
(1)人工神經網路(Artificial Neural Network)類:反向傳播(Backpropagation)、波爾茲曼機(Boltzmann Machine)、卷積神經網路(Convolutional Neural Network)、Hopfield網路(hopfield Network)、多層感知器(Multilyer Perceptron)、徑向基函數網路(Radial Basis Function Network,RBFN)、受限波爾茲曼機(Restricted Boltzmann Machine)、回歸神經網路(Recurrent Neural Network,RNN)、自組織映射(Self-organizing Map,SOM)、尖峰神經網路(Spiking Neural Network)等。
(2)貝葉斯類(Bayesin):樸素貝葉斯(Naive Bayes)、高斯貝葉斯(Gaussian Naive Bayes)、多項樸素貝葉斯(Multinomial Naive Bayes)、平均-依賴性評估(Averaged One-Dependence Estimators,AODE)
貝葉斯信念網路(Bayesian Belief Network,BBN)、貝葉斯網路(Bayesian Network,BN)等。
(3)決策樹(Decision Tree)類:分類和回歸樹(Classification and Regression Tree,CART)、迭代Dichotomiser3(Iterative Dichotomiser 3, ID3),C4.5演算法(C4.5 Algorithm)、C5.0演算法(C5.0 Algorithm)、卡方自動交互檢測(Chi-squared Automatic Interaction Detection,CHAID)、決策殘端(Decision Stump)、ID3演算法(ID3 Algorithm)、隨機森林(Random Forest)、SLIQ(Supervised Learning in Quest)等。
(4)線性分類器(Linear Classifier)類:Fisher的線性判別(Fisher』s Linear Discriminant)
線性回歸(Linear Regression)、邏輯回歸(Logistic Regression)、多項邏輯回歸(Multionmial Logistic Regression)、樸素貝葉斯分類器(Naive Bayes Classifier)、感知(Perception)、支持向量機(Support Vector Machine)等。
常見的無監督學習類演算法包括:
(1) 人工神經網路(Artificial Neural Network)類:生成對抗網路(Generative Adversarial Networks,GAN),前饋神經網路(Feedforward Neural Network)、邏輯學習機(Logic Learning Machine)、自組織映射(Self-organizing Map)等。
(2) 關聯規則學習(Association Rule Learning)類:先驗演算法(Apriori Algorithm)、Eclat演算法(Eclat Algorithm)、FP-Growth演算法等。
(3)分層聚類演算法(Hierarchical Clustering):單連鎖聚類(Single-linkage Clustering),概念聚類(Conceptual Clustering)等。
(4)聚類分析(Cluster analysis):BIRCH演算法、DBSCAN演算法,期望最大化(Expectation-maximization,EM)、模糊聚類(Fuzzy Clustering)、K-means演算法、K均值聚類(K-means Clustering)、K-medians聚類、均值漂移演算法(Mean-shift)、OPTICS演算法等。
(5)異常檢測(Anomaly detection)類:K最鄰近(K-nearest Neighbor,KNN)演算法,局部異常因子演算法(Local Outlier Factor,LOF)等。
常見的半監督學習類演算法包含:生成模型(Generative Models)、低密度分離(Low-density Separation)、基於圖形的方法(Graph-based Methods)、聯合訓練(Co-training)等。
常見的強化學習類演算法包含:Q學習(Q-learning)、狀態-行動-獎勵-狀態-行動(State-Action-Reward-State-Action,SARSA)、DQN(Deep Q Network)、策略梯度演算法(Policy Gradients)、基於模型強化學習(Model Based RL)、時序差分學習(Temporal Different Learning)等。
常見的深度學習類演算法包含:深度信念網路(Deep Belief Machines)、深度卷積神經網路(Deep Convolutional Neural Networks)、深度遞歸神經網路(Deep Recurrent Neural Network)、分層時間記憶(Hierarchical Temporal Memory,HTM)、深度波爾茲曼機(Deep Boltzmann Machine,DBM)、棧式自動編碼器(Stacked Autoencoder)、生成對抗網路(Generative Adversarial Networks)等。
二、按照解決任務的不同來分類,粗略可以分為二分類演算法(Two-class Classification)、多分類演算法(Multi-class Classification)、回歸演算法(Regression)、聚類演算法(Clustering)和異常檢測(Anomaly Detection)五種。
1.二分類(Two-class Classification)
(1)二分類支持向量機(Two-class SVM):適用於數據特徵較多、線性模型的場景。
(2)二分類平均感知器(Two-class Average Perceptron):適用於訓練時間短、線性模型的場景。
(3)二分類邏輯回歸(Two-class Logistic Regression):適用於訓練時間短、線性模型的場景。
(4)二分類貝葉斯點機(Two-class Bayes Point Machine):適用於訓練時間短、線性模型的場景。(5)二分類決策森林(Two-class Decision Forest):適用於訓練時間短、精準的場景。
(6)二分類提升決策樹(Two-class Boosted Decision Tree):適用於訓練時間短、精準度高、內存佔用量大的場景
(7)二分類決策叢林(Two-class Decision Jungle):適用於訓練時間短、精確度高、內存佔用量小的場景。
(8)二分類局部深度支持向量機(Two-class Locally Deep SVM):適用於數據特徵較多的場景。
(9)二分類神經網路(Two-class Neural Network):適用於精準度高、訓練時間較長的場景。
解決多分類問題通常適用三種解決方案:第一種,從數據集和適用方法入手,利用二分類器解決多分類問題;第二種,直接使用具備多分類能力的多分類器;第三種,將二分類器改進成為多分類器今兒解決多分類問題。
常用的演算法:
(1)多分類邏輯回歸(Multiclass Logistic Regression):適用訓練時間短、線性模型的場景。
(2)多分類神經網路(Multiclass Neural Network):適用於精準度高、訓練時間較長的場景。
(3)多分類決策森林(Multiclass Decision Forest):適用於精準度高,訓練時間短的場景。
(4)多分類決策叢林(Multiclass Decision Jungle):適用於精準度高,內存佔用較小的場景。
(5)「一對多」多分類(One-vs-all Multiclass):取決於二分類器效果。
回歸
回歸問題通常被用來預測具體的數值而非分類。除了返回的結果不同,其他方法與分類問題類似。我們將定量輸出,或者連續變數預測稱為回歸;將定性輸出,或者離散變數預測稱為分類。長巾的演算法有:
(1)排序回歸(Ordinal Regression):適用於對數據進行分類排序的場景。
(2)泊松回歸(Poission Regression):適用於預測事件次數的場景。
(3)快速森林分位數回歸(Fast Forest Quantile Regression):適用於預測分布的場景。
(4)線性回歸(Linear Regression):適用於訓練時間短、線性模型的場景。
(5)貝葉斯線性回歸(Bayesian Linear Regression):適用於線性模型,訓練數據量較少的場景。
(6)神經網路回歸(Neural Network Regression):適用於精準度高、訓練時間較長的場景。
(7)決策森林回歸(Decision Forest Regression):適用於精準度高、訓練時間短的場景。
(8)提升決策樹回歸(Boosted Decision Tree Regression):適用於精確度高、訓練時間短、內存佔用較大的場景。
聚類
聚類的目標是發現數據的潛在規律和結構。聚類通常被用做描述和衡量不同數據源間的相似性,並把數據源分類到不同的簇中。
(1)層次聚類(Hierarchical Clustering):適用於訓練時間短、大數據量的場景。
(2)K-means演算法:適用於精準度高、訓練時間短的場景。
(3)模糊聚類FCM演算法(Fuzzy C-means,FCM):適用於精確度高、訓練時間短的場景。
(4)SOM神經網路(Self-organizing Feature Map,SOM):適用於運行時間較長的場景。
異常檢測
異常檢測是指對數據中存在的不正常或非典型的分體進行檢測和標志,有時也稱為偏差檢測。
異常檢測看起來和監督學習問題非常相似,都是分類問題。都是對樣本的標簽進行預測和判斷,但是實際上兩者的區別非常大,因為異常檢測中的正樣本(異常點)非常小。常用的演算法有:
(1)一分類支持向量機(One-class SVM):適用於數據特徵較多的場景。
(2)基於PCA的異常檢測(PCA-based Anomaly Detection):適用於訓練時間短的場景。
常見的遷移學習類演算法包含:歸納式遷移學習(Inctive Transfer Learning) 、直推式遷移學習(Transctive Transfer Learning)、無監督式遷移學習(Unsupervised Transfer Learning)、傳遞式遷移學習(Transitive Transfer Learning)等。
演算法的適用場景:
需要考慮的因素有:
(1)數據量的大小、數據質量和數據本身的特點
(2)機器學習要解決的具體業務場景中問題的本質是什麼?
(3)可以接受的計算時間是什麼?
(4)演算法精度要求有多高?
————————————————
原文鏈接: https://blog.csdn.net/nfzhlk/article/details/82725769
㈥ 人工智慧中的演算法有什麼
模糊數學、神經網路、小波變換、遺傳演算法、人工免疫系統、參數優化、粒子群演算法,等等,簡單應用,有高等數學知識即可。