『壹』 《SPSS統計分析從入門到精通》pdf下載在線閱讀全文,求百度網盤雲資源
《SPSS統計分析從入門到精通》(杜強)電子書網盤下載免費在線閱讀
鏈接:
書名:SPSS統計分析從入門到精通
作者:杜強
豆瓣評分:7.3
出版社:人民郵電出版社
出版年份:2009-3
頁數:580
內容簡介:
《SPSS統計分析從入門到精通》基於SPSS個人版本SPSS 15.0 for Windows編寫,致力於使讀者全面了解SPSS,了解和學習如何使用SPSS進行數據融合、數據分析、結果展示等工作,《SPSS統計分析從入門到精通》介紹的是SPSS的窗口和對話框操作方式,著重於SPSS分析軟體的實際應用。全書25章,分4個部分。第1-3章重點講解了數據和文件的管理操作,以及SPSS系統環境的設置。第4-18章主要介紹各種統計分析方法及其對應SPSS過程的操作方式,包括描述性統計、均值比較、一般線性模型、相關分析、回歸分析、對數線性模型、聚類分析、生存分析、時間序列分析、多重響應分析等幾大類。第19章介紹各種統計圖形的生成和編輯。第20-25章列舉了用SPSS處理多種行業數據的案例,包括:上市公司財務數據分析、影響匯率的因素分析、多因素試驗設計等多方面的應用。
『貳』 深層網路結構嵌入
由於平台限制,公式無法顯示,更好閱讀體驗,請訪問( http://tianle.me/2017/06/30/SDNE/ )
論文閱讀 Structural Deep Network Embedding
本文的PDF版 深層網路結構嵌入
這學期選了非線性電路與系統,最近又在做網路表示的相關研究,特將平時看過比較好的論文寫一寫,和大家分享一下。
信息網路在現實世界中普遍存在,例如航空公司網路,出版物網路,通信網路和萬維網。這些信息網路的規模從幾百個節點到數百萬和閉兄數十億個節點不等。大規模信息網路的分析在學術界和工業界引起越來越多的關注。本文研究的是將信息網路嵌入到低維空間的問題,其中每個頂點都表示為一個低維向量。這種低維嵌入在各種應用中非常有用,如可視化,節點分類,鏈路預測和選擇推薦。
網路嵌入目前依舊面臨許多挑戰。(1) 高維且非線性 ,深層的網路結構特徵通常是非線性且高維的。因此,如何去描述學習這種高維非線性的特徵是非常具有挑戰性的。(2) 結構保持 ,為了能夠將結果應用到一些具體的網路分析任務中,網路嵌入方法需要能夠將網路結構較好的保存下來,但是隱藏的網路結構是非常復雜並且難以發現的。節點的特性往往依賴於其局部和全局的網路結構。(3) 稀疏性 ,真實世界中的大部分網路都是稀疏的,只能夠利用極少數已發現的關系連接,因此還遠遠不能依此得到滿意的效果。
近些年來,許多網路嵌入的方法相繼被提出,它們採用了一些淺顯的模型,比如說:IsoMAP,Laplacian Eigenmap(LE),Line。由於這些模型的局限性,它們很難獲得網路高維的非線性特徵。為了解決這個難題,本文提出了深層模型來學習網路中的節點表示。我們受深度學習的啟發,因為其展現出了強大的表示學習能力,能夠從復雜的網路中學習特徵。它已經在圖像、文本、語音等方面取得了卓越的成績。特別的,我們提出的模型設計了多層的網路結構,這些結構是由許多非線性函數構成,能夠將網路數據映射到隱藏的汪態鉛非線性空間中,從而挖掘出網路的非線性結構。
為了處理網路結構保存以及稀疏性問題,我們把一階相似度和二階相似度相結合,並融於學習過程中。一階相似度是兩個頂點之間的局部點對的鄰近度,但由於網路的稀疏性,許多真實存在的邊可能缺失,因此,一階相似度不足以表示網路結構。因此我們更進一步地提出了二階相似度,一對頂點之間的接近程度表示在網路中其鄰域網路結構之間的相似性。通過一階相似度和二階相似度,我們可以很好的捕獲網路的局部特性與全局特性。為了保證網路的局部和全局特性在我們的模型中有較好的表示,我們提出了困好一種半監督的結構,其中,無監督部分重構了二階相似度,以保持全局網路結構。而有監督的部分利用一階相似度作為監督信息來保存網路的全局結構。因此,所學的表示能夠很好的保存網路的局部和全局結構。此外,從圖1可以看出,在許多網路中二階相似度鄰近點對的數目比一階相似度多很多。由此可以得到,二階相似度的引入能夠在描述網路結構方面提供更多的信息。因此,我們的方法對稀疏網路是魯棒的。
[圖片上傳失敗...(image-a552b0-1510922608055)]
圖1
演算法主要步驟:
演算法主要步驟:
在圖上隨機遊走產生長度為$2w + 1$的路徑,對每個點隨機$gamma $個隨機遊走序列。每一條隨機遊走路徑便是相當於一個序列(相當於一句話),這樣序列中的點就有上下文,定義一個時間窗口$w$,並進行馬爾可夫假設,最後使用word2vec中的Skip-Gram訓練每一個節點的向量。
Gram訓練每一個節點的向量。
假設一個路徑序列為{% raw %}$S = left{ {{v_1},...,{v_{|S|}}}
ight} ${% endraw %},對於${v_i} in S$,其上下文為{% raw %}$C = left{ {{v_{i - w}},{v_{i - w + 1}},...,{v_{i + w - 1}},{v_{i + w}}}
ight}${% endraw %}, 那麼DeepWalk的優化目標為:
{% raw %}$$f = frac{1}{{left| S
ight|}}sumlimits_{i = 1}^{left| S
ight|} {sumlimits_{ - w le j le w,j
e 0} {log p({v_{i + j}}|{v_i})} } $${% endraw %}
其中:
{% raw %}$$pleft( {{v_j}|{v_i}}
ight) = frac{{expleft( {c_{{v_j}}^T{r_{{v_i}}}}
ight)}}{{sum
olimits_{v in C} {expleft( {c_{{v_j}}^T{r_{{v_i}}}}
ight)} }}$${% endraw %}
{% raw %}${r_{{v_i}}}${% endraw %}是點${v_i}$的向量表徵, {% raw %}${c_{{v_i}}}${% endraw %}是點{% raw %}${v_i}${% endraw %}上下文中點${v_j}$的向量表徵。
DeepWalk使目標$f$最大化,使用Skip-Gram與Hierarchical Softmax進行訓練得到每個點的vector,DeepWalk等價於MF(matrix factorization,矩陣分解)。
定義1(網路) :給定一個網路{% raw %}$G = left( {V,E}
ight)${% endraw %},其中{% raw %}$V = { {v_1}, cdots ,{v_n}} ${% endraw %}表示為n個節點,{% raw %}$E = { {e_{i,j}}} {i,j = 1}^n${% endraw %}表示網路中所有邊的集合。每一條邊{% raw %}${e {i,j}}${% endraw %}與其網路中邊的權重{% raw %}${s_{i,j}} ge 0${% endraw %}相關聯。如果{% raw %}${v_i}${% endraw %}和{% raw %}${v_j}${% endraw %}之間沒有連接,那麼{% raw %}${s_{i,j}} = 0${% endraw %},否則,對於無權圖{% raw %}${s_{i,j}} = 1${% endraw %},有權圖{% raw %}${s_{i,j}} > 0${% endraw %}
網路嵌入的目的是將原始的高維網路數據映射到低維的表示空間中,網路中的每一個節點即可表示為一個低維向量,同時網路計算將會變得非常方便。正如我們之前提到的,網路的局部結構和全局結構都非常有必要在降維後保存下來,下面將詳細定義一階相似度和二階相似度。
定義2(一階相似度) :網路中的一階相似度是兩個頂點之間的局部點對的鄰近度。對於由邊(u,v)鏈接的每對頂點,該邊的權重${s_{u,v}}$表示u和v之間的一階相似性,如果在u和v之間沒有邊,它們的一階相似度為0。
一階相似度通常意味著現實世界網路中兩個節點的相似性。例如,在社交網路中成為朋友的人往往具有類似的興趣;在萬維網上互相鏈接的頁面往往談論類似的主題。由於一階相似度的重要性,許多現有的圖嵌入演算法,如IsoMap,LLE,Laplacian Eigenmaps目的都是保持一階相似度。
然而,在現實世界的信息網路中,能夠觀察到的鏈接只是小部分,許多隱藏的其他關系都沒有被觀察到。缺失鏈路上的一對節點,即使它們在本質上非常相似,然而他們的一階相似度為0。 因此,只有一階相似度對維持網路結構來說不是很有效。我們自然而然的想到,具有類似鄰居的頂點往往是相似的。 例如,在社交網路中,分享相同內容的人往往具有相似的興趣,從而成為朋友,在文本網路中,總是與同一組詞彙共同出現的詞往往具有相似的含義。 因此,我們定義二階相似度,其補充了一階相似性並能夠保留網路結構。
定義3(二階相似度) :二階相似度對應於網路中的點對(u,v)是其鄰域網路結構之間的相似性。數學上,讓{% raw %}${{
m{mathcal{N}}} u} = { {s {u,1}}, cdots ,{s_{u,left| V
ight|}}} ${% endraw %}表示一階附近 u 與所有其他的頂點,那麼 u 和v之間的二階相似性由{% raw %}${{
m{mathcal{N}}}_u}$和${{
m{mathcal{N}}}_v}${% endraw %}之間的相似性來決定。如果沒有一個頂點同時和 u 與 v 鏈接,那麼 u 和 v的二階相似性是0。
定義4(網路嵌入) :給定網路{% raw %}$G = left( {V,E}
ight)${% endraw %},網路嵌入的問題是將每個頂點$v in V$表示為低維空間{% raw %}${mathbb{R}^d}${% endraw %}中的向量,學習函數$f:left| V
ight| mapsto {mathbb{R}^d}$,其中$d ll left| V
ight|$。在空間{% raw %}${mathbb{R}^d}${% endraw %}中,頂點之間的一階相似度和二階相似度都被保留。
在本篇文章中,我們提出了一個半監督的網路嵌入深度框架,整體框架如圖2所示。具體來說,為了捕捉高維非線性的網路結構,我們提出了一個深層的體系結構,它由多個非線性映射函數組成,將輸入數據映射到一個高維非線性的隱藏空間,以捕獲網路結構。為了解決網路結構保持和稀疏性問題,我們提出了一個半監督模型來利用一階和二階相似度。對於每個頂點,我們都可以得到它的鄰域。因此,我們設計了無監督的組件來保持二階相似度,並重建每個頂點的鄰域結構。同時,對節點的一部分,我們可以獲得他們的一階相似度。因此,我們設計了有監督的組件,利用一階相似度作為監督信息來改進隱藏空間中的表示。通過聯合優化所提出的半監督深度模型,SDNE可以保持高維的非線性網路結構,保證稀疏網路的健壯性。在接下來的部分中,我們將詳細介紹如何實現半監督的深度模型。
[圖片上傳失敗...(image-4ccde2-1510922608055)]
圖2.網路整體結構
我們首先描述無監督組件如何利用二階近似保持全局網路結構。
二階相似性值指的是節點的鄰居相似,因此模型的二階相似性,需要每個節點鄰居的性質。給定一個網路{% raw %}$G = left( {V,E}
ight)${% endraw %},我們可以獲得到它的鄰接矩陣S,它包含了n個元素${s_1}, cdots {s_n}$,對於每一個元素{% raw %}${s_i} = { {s_{i,j}}} {j = 1}^n${% endraw %},如果${v_i}$與${v_j}$間有相連的邊,那麼{% raw %}${s {i,j}} > 0${% endraw %}。因此,${s_i}$描述了節點${v_i}$的鄰居結構,$S$提供了每一個節點的鄰居結構信息。對於$S$來說,我們將傳統的深度自編碼器的進行延伸,用來保存網路的二階相似性。
下面簡單回顧一下深度自編碼器的主要思想。它屬於一種非監督模型,包含編碼器與解碼器。編碼器由許多非線性函數構成,將輸入數據映射到表示空間。對應的,解碼器也由許多非線性函數構成,它將表示空間映射到輸入數據的重構空間。給定輸入數據${x_i}$,其中對於各個層的隱藏表示如下公式進行計算:
{% raw %}$$y_i^{(1)} = sigma ({W^{(1)}}{x_i} + {b^{(1)}})$${% endraw %}
{% raw %}$$y_i^{(k)} = sigma ({W {(k)}}y_i {(k - 1)} + {b^{(k)}}),k = 2, cdots ,K$${% endraw %}
通過一系列編碼器的計算,我們可以獲得輸出${hat x_i}$。自動編碼器的目標是盡量減少輸入和輸出的重構誤差。損失函數可以表示為:
{% raw %}$${
m{mathcal{L}}} = sumlimits_{i = 1}^n {left| {{{hat x} i} - {x_i}}
ight| 2^2} $${% endraw %}
通過最小化損失函數能夠較好的還原輸入數據的原始表達,其表示空間能夠提取出原始輸入數據的特徵。基於上述特性,我們將網路的鄰接矩陣S作為自動編碼器的輸入,如: ${x_i} = {s_i}$,那麼每一個元素${s_i}$表示節點${v_i}$鄰居節點的特徵。因此,通過重構可以讓具有相似鄰居結構的節點在隱藏的表示空間也具有相似的表達。
但是,僅僅通過這種方式還不能直接解決問題。因為在網路中,我們可以觀察到一些連接,但是也有一些合法的連接是缺失的。此外,由於網路的稀疏性,在鄰接矩陣$S$中,零元素遠遠大於非零元素。如果我們直接將S輸入到傳統的自編碼器中,可能會導致大量的零元素出現在重構空間,這並不是我們想要的結果。為了解決這個問題,我們讓其對非零元素的重構誤差比零元素的懲罰更大。改進的目標函數如下所示:
{% raw %}$$egin{array}{l}{{
m{mathcal{L}}} {2nd}} = sumlimits{i = 1}^n {left| {({{hat x} i} - {x_i}) odot {b_i}}
ight| 2^2} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} = left| {(hat X - X) odot B}
ight| F^2end{array}$${% endraw %}
其中$ odot $表示Hadamard積,{% raw %}${b_i} = { {b {i,j}}} {j = 1}^n${% endraw %},如果{% raw %}${s {i,j}} = 0${% endraw %},那麼{% raw %}${b{i,j}} = 1${% endraw %},否則${b{i,j}} = eta > 1$。通過這種改進的損失函數,可以更好的讓具有相似鄰居的點在獲得的表示空間也相似。換句話說,這個非監督部分能夠很好的保存網路的二階相似度。
不僅要維持全局網路結構,而且要捕獲局部結構。我們使用一階相似度表示網路局部結構。一階相似度可以作為監督信息來約束一對頂點在隱藏表示空間的相似性。因此,我們設計了監督部分來利用一階相似度。損失函數如下所示:
{% raw %}$$egin{array}{l}{{
m{mathcal{L}}} {1nd}} = sumlimits {i = 1}^n {{s_{i,j}}left| {y_i^{(K)} - y_j^{(K)}}
ight| 2^2} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} = sumlimits {i = 1}^n {{s_{i,j}}left| {{y_i} - {y_j}}
ight| 2^2} end{array}$${% endraw %}
其中{% raw %}${Y^{(k)}} = { y_i^{(k)}} {i = 1}^n${% endraw %}為編碼器獲得的隱藏表示空間。
該公式的靈感來源於拉普拉斯特徵映射(Laplacian Eigenmaps),在表示空間中,如果相似的節點相距較遠,那麼會受到一個較大的懲罰。通過這一操作,我們的模型能夠很好的保持網路的一階相似度。
我們同時考慮網路的一階相似度和二階相似度,另外在加上L2正則項,共同構成了自動編碼器的損失函數:
{% raw %}$$egin{array}{l}{{
m{mathcal{L}}} {mix}} = {{
m{mathcal{L}}}{2nd}} + alpha {{
m{mathcal{L}}} {1nd}} + upsilon {{
m{mathcal{L}}} {reg}}{kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} = left| {(hat X - X) odot B}
ight| F^2 + alpha sumlimits {i = 1}^n {{s_{i,j}}left| {{y_i} - {y_j}}
ight| 2^2} + upsilon {{
m{mathcal{L}}} {reg}}end{array}$${% endraw %}
其中:
{% raw %}$$egin{array}{l}{{
m{mathcal{L}}} {mix}} = {{
m{mathcal{L}}} {2nd}} + alpha {{
m{mathcal{L}}} {1nd}} + upsilon {{
m{mathcal{L}}} {reg}}{kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} = left| {(hat X - X) odot B}
ight| F^2 + alpha sumlimits {i = 1}^n {{s_{i,j}}left| {{y_i} - {y_j}}
ight| 2^2} + upsilon {{
m{mathcal{L}}} {reg}}end{array}$${% endraw %}
為了能夠全面地評價演算法得到的低維表示,我們使用了5個真實的網路數據,包括3個社交網路,1個引文網路,1個語言網路;實驗了2類網路應用任務,包括多標簽分類和可視化。考慮到各個網路數據的本身屬性,對於每一類應用,我們使用了至少一個數據集進行試驗。數據集的參數如下表所示:
表1. 網路數據集參數
我們實驗與以下幾個基準演算法進行比較:DeepWalk、LINE、GraRep、Laplacian Eigenmaps、Common Neighbor。
對於多標簽分類問題,我們採用micro-F1和macro-F1指標進行評價。對於標簽A,我們將TP(A),FP(A)和FN(A)分別表示為屬於A的樣本被正確分類到A的數目,不屬於A的樣本被錯誤分類到A的數目和不屬於A的樣本被正確分類到了類別A的其他類的數目。假設 是整個標簽集。Micro-F1和Macro-F1定義如下:
Macro-F1是一個每個類的權重的度量。 定義如下:
{% raw %}$$Macro - F1 = frac{{sum
olimits_{A in {
m{mathcal{C}}}} {F1(A)} }}{{left| {
m{mathcal{C}}}
ight|}}$${% endraw %}
其中F1(A)是標簽A的F1度量。
Micro-F1是對每個實例權重的度量。定義如下:
{% raw %}$$Pr = frac{{sum
olimits_{A in {
m{mathcal{C}}}} {TP(A)} }}{{sum
olimits_{A in {
m{mathcal{C}}}} {(TP(A) + FP(A))} }}$${% endraw %}
{% raw %}$$R = frac{{sum
olimits_{A in {
m{mathcal{C}}}} {TP(A)} }}{{sum
olimits_{A in {
m{mathcal{C}}}} {(TP(A) + FN(A))} }}$${% endraw %}
{% raw %}$$Micro - F1 = frac{{2*Pr *R}}{{Pr + R}}$${% endraw %}
我們在本文中提出了一種多層的神經網路結構,層數隨不同的數據集而做相應調整。每層的神經元數目如表2所示。其中BLOGCATALOG,ARXIV GR-QC和20-EWSGROUP使用了三層神經網路,FLICKR和YOUTUBE使用了四層。如果我們使用更深的模型,性能幾乎保持不變,甚至變得更糟。
表2. 神經網路結構
對於我們的方法,通過在驗證集上使用網格搜索(grid search)來調整 , 和 三個超參數。對於LINE,隨機梯度下降的mini-batch大小設置為1。學習速率的初始值為0.025。負采樣數(number of negative samples)為5,總采樣數(the total number of samples)設為100億。對於DeepWalk,我們將窗口大小設置為10,步長為40,每次采樣40個頂點。對於GraRep,我們將最大轉移矩陣步長(maximum matrix transition step)設置為5。
我們通過本實驗中的多標簽分類任務來評估不同網路表示的有效性。頂點的表示是從網路嵌入方法生成的,並被用作將每個頂點分成一組標簽的特徵。具體來說,我們採用LIBLINEAR軟體包來訓練分類器。訓練分類器時,我們隨機抽取標簽節點的一部分作為訓練數據,其餘作為測試。對於BLOGCATALOG,我們隨機抽取10%至90%的頂點作為訓練樣本,並使用剩餘頂點來測試性能。對於FLICKR和YOUTUBE,我們隨機抽取1%至10%的頂點作為訓練樣本,並使用剩餘頂點來測試性能。另外,我們刪除沒有在YOUTUBE中被任何類別標記的頂點。我們重復進行5次實驗,取Micro-F1和Macro-F1指標的平均值進行度量。結果分別如圖3到圖5所示。
[圖片上傳失敗...(image-8c4a6-1510922608055)]
圖3 .Micro-F1和Macro-F1在BLOGCATALOG上的表現
[圖片上傳失敗...(image-953fed-1510922608055)]
圖4 .Micro-F1和Macro-F1在FLICKR上的表現
[圖片上傳失敗...(image-bce93a-1510922608055)]
圖5 .Micro-F1和Macro-F1在YOUTUBE上的表現
在圖3到圖5中,我們演算法的曲線一直高於其他基準演算法的曲線。它表明,在多標簽分類任務中我們演算法學習得到的網路表示比其他演算法得到的效果更好。
在圖3(BLOGCATALOG)中,當訓練百分比從60%下降到10%時,我們的方法在基準線上的改善幅度更為明顯。它表明當標簽數據有限時,我們的方法可以比基準演算法有更顯著的改進。這樣的優勢對於現實世界的應用尤其重要,因為標記的數據通常很少。
在大多數情況下,DeepWalk的性能是網路嵌入方法中最差的。原因有兩個方面。首先,DeepWalk沒有明確的目標函數來捕獲網路結構。其次,DeepWalk使用隨機遊走來獲得頂點的鄰居,由於隨機性而引起了很多噪音,特別是對於度數高的頂點。
網路嵌入的另一個重要應用是在二維空間上生成網路的可視化。對此我們在20-NEWSGROUP網路進行可視化的實驗。我們使用不同網路嵌入方法學習的低維網路表示作為可視化工具t-SNE的輸入。因此,每個新聞組文檔被映射為二維向量。然後我們可以將每個向量可視化為二維空間上的一個點。對於被標記為不同類別的文檔,我們在對應的點上使用不同的顏色。因此,良好的可視化結果能讓相同顏色的點彼此靠近。可視化結果如圖6所示。
[圖片上傳失敗...(image-b52fc7-1510922608055)]
圖6. 20-NEWSGROUP的可視化
每個點表示一個文檔。點的顏色表示文檔的類別。藍色表示rec.sport.baseball的主題,紅色表示comp.graphics的主題,綠色表示talk.politics.guns的主題。
從圖7可以看出,LE和DeepWalk的結果並不理想,屬於不同類別的點相互混合。對於LINE,形成不同類別的群集。然而,在中心部分,不同類別的文件仍然相互混合。對於GraRep,結果看起來更好,因為相同顏色的點分割成分組,但是,每個群體的邊界不是很清楚。顯然,SDNE的可視化效果在群體分離和邊界方面都表現最好。
在本文中,我們提出了一種深層網路結構嵌入,即SDNE來執行網路嵌入。具體來說,為了捕獲高維非線性的網路結構,我們設計了一個具有多層非線性函數的半監督深度模型。為了進一步解決網路結構保持和稀疏問題,我們同時使用了一階鄰近度和二階鄰近度來表示網路的局部和全局特徵。通過在半監督的深度模型中優化它們,所學習的表示能夠體現出網路的局部和全局特徵,並且對稀疏網路是魯棒的。我們在真實的網路數據集上試驗了多標簽分類和可視化任務。結果表明,我們的演算法與當前最好的演算法(state-of-the-art)相比有本質性的提高。
『叄』 數值分析pdf_《數值分析》課程教學改革探析
結合高等學校 21世紀人才的培養目標,根據本校的特點及多年的教學經驗,對《數值分析》課程的教學改革進行了探討,分別從教學思想和教學模式、教學內容、教學方法與手段、實踐教學與考核方法等方面進行了論述。建立了「問題驅動式」的教學思想,實施了以「案例為主線,實驗為指導,融知識傳授與能力培養於一體」的教學模式,並針對《數值分析》涉及面廣的特點,設計了分層次、分專業、分模塊的立體結構式教學。
計算機教學 數值分析課程 教學改革
一、引言
「數值分析」作為計算數學的一個主要分支,是研究如何利用計算工具(如計算器、計算機等)求出數學問題的數值解(如數據、表格、圖形等)的學問,是科學與工程計算的基礎。「數值分析」既有純數學高度抽象性與嚴密科學性的特點,又有應用的廣泛性與實際實驗的高度技術性的特點,是一門與計算機使用密切結合的、實用性和實踐性很強的數學課程。通過本課程的學習,能使學生熟練掌握各種常用的數值演算法的構造原理和過程分析,提高演算法設計和理論分析能力,並且能夠根據實際問題建立數學模型,然後提出相應的數值計算方法,並能編寫程序在計算機上算出結果。這既能為學生在理論學習方面以及在計算機上解決實際問題等方面打下良好的基礎,同時又能培養學生的邏輯思維能力和提高解決實際問題的能力。
在我校,《數值分析》課程是信息與計算科學專業的專業基礎課,是數學與應用數學、計算機科學技術等本科專業的專業必修課,是工程力學、交通運輸工程、通信工程等本科專業的專業必修課或選修課,也是控制科學與工程、機械工程、信息與通信工程、礦業工程、土木工程等學科的碩士研究生的公共基礎課。課程涉及面廣,實用性強,為此,研究本課程的教學改革具有重要的意義。
著名數學家李大潛院士倡導「問題驅動的應用數學」,我們以此作為指導思想,進行了數值分析課程的教學改革。利用實際問題引出所要討論的計算方法,並且對計算方法進行理論和實踐兩方面的研究,最後解決實際問題。
二、教學思想與教學模式的改革
我們從實際出發,以「問題驅動式」作為教學思想,實施了以「案例為主線,實驗為指導,融知識傳授與能力培養於一體」的教學模式。
1.積極開展以「案例為主線,實驗為指導」的教學模式。將案例引入課堂教學,通過有針對性的設計實驗項目及內容,使學生在學習基礎理論的同飢虛時掌握先進的應用技術,並充分認識到學習數值分析這門課的實用性,有效地避免了純粹數學理論推導的枯燥性,提高了學生學習本課程的主動性。
螞肢仿2.積極開展「以學生為中心,以教師為輔助」的討論式教學,拓展學生思路。在課堂教學中注重啟發式與討論式,有計劃地就某些問題開展專題討論,將「課堂討論式教學法」不斷深化,充分調動學生的學習主動性。
3.開展與數值分析課程有關的學術講座。通過開展教授講座、博士論壇、青年學術沙龍等活動,定悶纖期邀請校內外專家學者進行與數值分析有關的學術講座,使學生能夠更深入了解該課程的學習內容及與實踐結合的情況,開闊學生眼界,提高學生的學習興趣。
三、教學內容的改革
設計了分層次、分專業、分模塊的立體結構式教學。
1.根據不同層次、不同專業的培養目標,分別設計不同的教學目標和要求。根據各專業的不同要求以及培養不同層次學生的需要,把數值分析課程分為 4個類別,對理科類專業側重理論知識及演算法能力的培養;對工科偏理類的專業側重演算法實驗,簡化理論推導;對於一般工科專業的本科生及研究生,根據不同專業的特點,強調應用案例進入課堂;對尖子學生,結合科技創新活動,尋找實際問題,提取模型,指導其進行專業論文的撰寫。
2.結合最新的科學發展動態,適度引入現代數值計算方法
結合教師的科研成果,將目前比較流行的數值計算方法,如支持向量機演算法,神經網路演算法,蟻群演算法,遺傳演算法等引入課堂教學,介紹新方法的實際應用背景,並結合大學生數學建模競賽,引入一些結構化的實例,使學生能夠了解最新的科學發展動態,開闊視野,並學會應用相關的知識去求解實際問題,加深對所學知識的理解。
四、教學方法與教學手段的改革
1.問題驅動式教學。從教學過程中的基本矛盾出發,分析理論教學過程中存在的問題,每個章節都用普遍性較強、易懂的問題作為引例,讓學生理解經典數值計算方法的應用。
2.案例式教學。結合我校「以工為主,礦業見長,工學、理學等多學科相互滲透,協調發展」的特點,根據不同專業的需求,如采礦方面、測繪方面、機械方面等等,精心設計案例,讓學生充分理解數值分析的思想方法。
3.多途徑、立體化教學。將傳統教學手段和多媒體教學手段進行有機結合,在教學中特別注意合理解決「多媒體教學過程中學生反應速度與學生思路連續性之間的矛盾」。藉助先進的教學手段,採用諸如啟發式教學、互動式教學、研討式教學等方式。
4.利用教學網站,擴展課堂教學。採用網上 QQ群討論、答疑、實驗指導等措施,建立課程立體資源。不斷充實完善課程內容,將課堂教學與實際應用相結合,與科技創新活動、競賽活動、企業需求相結合。實驗教學和實踐環節與教師的科研相結合,並以科研與學科建設為驅動,不斷改進和設計創新性實驗。
五、實驗改革及考核手段改革
根據數值分析的特點,要實現數值分析課程教學目標,在教學中必須配有相應的實驗手段。通過實驗促進學生對理論、方法和概念的理解,培養學生運用實驗手段進行演算法設計、分析、研究的能力,提高學生靈活應用演算法解決實際問題的能力,實現理論和實踐的有機結合。實驗教學是實現課程教學目標的重要環節。
1.實驗改革
結合我校的實驗平台,引進工科實驗室的特殊軟體,進行數值分析實驗的設計。
我校具有山東省高等學校計算機實驗教學示範中心,設有科學計算實驗室、金融統計實驗室、多媒體技術實驗室和大學生創新實驗室等創新平台。測繪專業有先進的遙感測繪軟體、采礦專業有專業的力學計算的有限元並行軟體,材料專業有基於機群的高分子模擬的專業軟體,我們將這些平台有效的利用起來,針對不同的專業,布置不同的專業實驗,做到有的放矢。實驗類型從早期的經典演算法實驗到現在包含驗證性、案例性、設計創新性等類型的實驗,並且因材施教,提供了 MATLAB版本的實驗和指導材料。自行設計的實驗既鍛煉了學生掌握現有軟體工具的能力,又提高了學生熟練使用高級編程語言的水平,同時也鍛煉了學生的動手實踐能力。
2.考核手段改革
結合數值分析教學內容及教學模式的改革,克服傳統教學中期末考試一卷定成績的考核模式,採取試卷考試與實驗考試相結合的考核方式,並在此基礎上,適當採用課程設計加分、科研創新加分等手段,評定總成績。
六、科研促教學,鼓勵學生科技創新
1.將科研成果融入到教學中,拓寬學生的知識面,激發學生學習的積極性通過及時把參加國內外學術會議的情況介紹給學生,使學生能夠了解本學科的最新發展動態,開闊視野。同時,把課堂延伸到研究所,使學生通過近距離接觸先進的軟體工具、設備、系統,加深對知識的理解,激發他們的好奇心和熱情,促進他們學習和研究的興趣。另一方面,通過讓學生參與實驗室建設,可以提高他們分析問題和解決問題的能力,並引領他們向深度發展。
在我校,科研和學科建設中的前沿課題,不僅僅是科研人員關注的焦點,也頻頻出現在本科生的課程設計和畢業設計之中,這是以科研促教學取得的顯著成效之一。以科研促教學不僅提升了教師的教學水平,豐富了教學內容,還為學生實踐能力和創新精神的培養提供了良好的平台。
2.教師積極組織、鼓勵學生的科研創新活動
在教師的積極組織與鼓勵下,每年都有上百人參加大學生科研與科技創新活動;在學校的大力支持下,為學生提供免費的科研與科技創新活動的場所,開放實驗室,並提供強有力的指導力量,培育學生的科研能力和創新精神。有了這些方面的培養,相關老師組織的學生在國家、省級的各種競賽中取得優異成績,獲得各種國家級、省級獎項若干。
七、結束語
近年來,我們按照「厚基礎、強能力、重實踐、求創新」的要求,結合高等學校 21世紀人才的培養目標,根據學校不同專業的需求,對數值分析課程進行了一系列的改革,取得了良好的效果。我們以加強素質教育和能力培養為前提,堅持以「夯實基礎、拓寬專業面、注重新技術,加強人文素質課程」為原則進行課程設置,通過對數值分析課程教學的改革及不斷的累積,制定了切實可行的人才培養方案。通過對課程體系和教學內容以及教學環節和教學方法進行改革,提出了科研育人新理念。通過鼓勵學生進行科技立項、參與教師的科研活動,進行自主的科技創新,提高了學生的科研水平與創新能力。所有這些措施的實施對學生的考研、就業及綜合素質的提高都起到了良好的促進作用,學生的實際動手能力及分析解決問題的能力明顯提高。
參考文獻:
[1]李慶揚,王能超,易大義.數值分析(第四版)[M].北京:清華大學出版社,2001.
[2]曾金平.數值計算方法[M].長沙:湖南大學出版社,2004.
[3]黃兵.《數值分析》課程教學改革的幾點思考[J].重慶教育學院學報,2005,(6):13-15.
[4]李大潛.關於大力提倡和推動以問題驅動的應用數學研究的建議[J].中國科學基金,2006,(4):223-226.
[5]謝治州.「數值分析」實驗教學的實踐與探索[J].實驗室研究與探索, 2010,(5):133-136.
本論文受到山東省高等學校省級精品課程及山東科技大學群星計劃項目資助。
『肆』 《自動控制原理》pdf下載在線閱讀,求百度網盤雲資源
《自動控制原理.pdf》網路網盤免費下載:
鏈接: https://pan..com/s/1tv9OpEvwsgh877rb9DISrw