导航:首页 > 文档加密 > 试验设计与分析pdf

试验设计与分析pdf

发布时间:2023-09-07 10:06:46

‘壹’ 《SPSS统计分析从入门到精通》pdf下载在线阅读全文,求百度网盘云资源

《SPSS统计分析从入门到精通》(杜强)电子书网盘下载免费在线阅读

链接:

提取码: vixc

书名:SPSS统计分析从入门到精通

作者:杜强

豆瓣评分:7.3

出版社:人民邮电出版社

出版年份:2009-3

页数:580

内容简介:

《SPSS统计分析从入门到精通》基于SPSS个人版本SPSS 15.0 for Windows编写,致力于使读者全面了解SPSS,了解和学习如何使用SPSS进行数据融合、数据分析、结果展示等工作,《SPSS统计分析从入门到精通》介绍的是SPSS的窗口和对话框操作方式,着重于SPSS分析软件的实际应用。全书25章,分4个部分。第1-3章重点讲解了数据和文件的管理操作,以及SPSS系统环境的设置。第4-18章主要介绍各种统计分析方法及其对应SPSS过程的操作方式,包括描述性统计、均值比较、一般线性模型、相关分析、回归分析、对数线性模型、聚类分析、生存分析、时间序列分析、多重响应分析等几大类。第19章介绍各种统计图形的生成和编辑。第20-25章列举了用SPSS处理多种行业数据的案例,包括:上市公司财务数据分析、影响汇率的因素分析、多因素试验设计等多方面的应用。

‘贰’ 深层网络结构嵌入

由于平台限制,公式无法显示,更好阅读体验,请访问( http://tianle.me/2017/06/30/SDNE/ )

论文阅读 Structural Deep Network Embedding
本文的PDF版 深层网络结构嵌入
这学期选了非线性电路与系统,最近又在做网络表示的相关研究,特将平时看过比较好的论文写一写,和大家分享一下。

信息网络在现实世界中普遍存在,例如航空公司网络,出版物网络,通信网络和万维网。这些信息网络的规模从几百个节点到数百万和闭兄数十亿个节点不等。大规模信息网络的分析在学术界和工业界引起越来越多的关注。本文研究的是将信息网络嵌入到低维空间的问题,其中每个顶点都表示为一个低维向量。这种低维嵌入在各种应用中非常有用,如可视化,节点分类,链路预测和选择推荐。

网络嵌入目前依旧面临许多挑战。(1) 高维且非线性 ,深层的网络结构特征通常是非线性且高维的。因此,如何去描述学习这种高维非线性的特征是非常具有挑战性的。(2) 结构保持 ,为了能够将结果应用到一些具体的网络分析任务中,网络嵌入方法需要能够将网络结构较好的保存下来,但是隐藏的网络结构是非常复杂并且难以发现的。节点的特性往往依赖于其局部和全局的网络结构。(3) 稀疏性 ,真实世界中的大部分网络都是稀疏的,只能够利用极少数已发现的关系连接,因此还远远不能依此得到满意的效果。
近些年来,许多网络嵌入的方法相继被提出,它们采用了一些浅显的模型,比如说:IsoMAP,Laplacian Eigenmap(LE),Line。由于这些模型的局限性,它们很难获得网络高维的非线性特征。为了解决这个难题,本文提出了深层模型来学习网络中的节点表示。我们受深度学习的启发,因为其展现出了强大的表示学习能力,能够从复杂的网络中学习特征。它已经在图像、文本、语音等方面取得了卓越的成绩。特别的,我们提出的模型设计了多层的网络结构,这些结构是由许多非线性函数构成,能够将网络数据映射到隐藏的汪态铅非线性空间中,从而挖掘出网络的非线性结构。
为了处理网络结构保存以及稀疏性问题,我们把一阶相似度和二阶相似度相结合,并融于学习过程中。一阶相似度是两个顶点之间的局部点对的邻近度,但由于网络的稀疏性,许多真实存在的边可能缺失,因此,一阶相似度不足以表示网络结构。因此我们更进一步地提出了二阶相似度,一对顶点之间的接近程度表示在网络中其邻域网络结构之间的相似性。通过一阶相似度和二阶相似度,我们可以很好的捕获网络的局部特性与全局特性。为了保证网络的局部和全局特性在我们的模型中有较好的表示,我们提出了困好一种半监督的结构,其中,无监督部分重构了二阶相似度,以保持全局网络结构。而有监督的部分利用一阶相似度作为监督信息来保存网络的全局结构。因此,所学的表示能够很好的保存网络的局部和全局结构。此外,从图1可以看出,在许多网络中二阶相似度邻近点对的数目比一阶相似度多很多。由此可以得到,二阶相似度的引入能够在描述网络结构方面提供更多的信息。因此,我们的方法对稀疏网络是鲁棒的。
[图片上传失败...(image-a552b0-1510922608055)]
图1

算法主要步骤:

算法主要步骤:
在图上随机游走产生长度为$2w + 1$的路径,对每个点随机$gamma $个随机游走序列。每一条随机游走路径便是相当于一个序列(相当于一句话),这样序列中的点就有上下文,定义一个时间窗口$w$,并进行马尔可夫假设,最后使用word2vec中的Skip-Gram训练每一个节点的向量。
Gram训练每一个节点的向量。
假设一个路径序列为{% raw %}$S = left{ {{v_1},...,{v_{|S|}}} ight} ${% endraw %},对于${v_i} in S$,其上下文为{% raw %}$C = left{ {{v_{i - w}},{v_{i - w + 1}},...,{v_{i + w - 1}},{v_{i + w}}} ight}${% endraw %}, 那么DeepWalk的优化目标为:
{% raw %}$$f = frac{1}{{left| S ight|}}sumlimits_{i = 1}^{left| S ight|} {sumlimits_{ - w le j le w,j e 0} {log p({v_{i + j}}|{v_i})} } $${% endraw %}
其中:
{% raw %}$$pleft( {{v_j}|{v_i}} ight) = frac{{expleft( {c_{{v_j}}^T{r_{{v_i}}}} ight)}}{{sum olimits_{v in C} {expleft( {c_{{v_j}}^T{r_{{v_i}}}} ight)} }}$${% endraw %}
{% raw %}${r_{{v_i}}}${% endraw %}是点${v_i}$的向量表征, {% raw %}${c_{{v_i}}}${% endraw %}是点{% raw %}${v_i}${% endraw %}上下文中点${v_j}$的向量表征。
DeepWalk使目标$f$最大化,使用Skip-Gram与Hierarchical Softmax进行训练得到每个点的vector,DeepWalk等价于MF(matrix factorization,矩阵分解)。

定义1(网络) :给定一个网络{% raw %}$G = left( {V,E} ight)${% endraw %},其中{% raw %}$V = { {v_1}, cdots ,{v_n}} ${% endraw %}表示为n个节点,{% raw %}$E = { {e_{i,j}}} {i,j = 1}^n${% endraw %}表示网络中所有边的集合。每一条边{% raw %}${e {i,j}}${% endraw %}与其网络中边的权重{% raw %}${s_{i,j}} ge 0${% endraw %}相关联。如果{% raw %}${v_i}${% endraw %}和{% raw %}${v_j}${% endraw %}之间没有连接,那么{% raw %}${s_{i,j}} = 0${% endraw %},否则,对于无权图{% raw %}${s_{i,j}} = 1${% endraw %},有权图{% raw %}${s_{i,j}} > 0${% endraw %}
网络嵌入的目的是将原始的高维网络数据映射到低维的表示空间中,网络中的每一个节点即可表示为一个低维向量,同时网络计算将会变得非常方便。正如我们之前提到的,网络的局部结构和全局结构都非常有必要在降维后保存下来,下面将详细定义一阶相似度和二阶相似度。
定义2(一阶相似度) :网络中的一阶相似度是两个顶点之间的局部点对的邻近度。对于由边(u,v)链接的每对顶点,该边的权重${s_{u,v}}$表示u和v之间的一阶相似性,如果在u和v之间没有边,它们的一阶相似度为0。
一阶相似度通常意味着现实世界网络中两个节点的相似性。例如,在社交网络中成为朋友的人往往具有类似的兴趣;在万维网上互相链接的页面往往谈论类似的主题。由于一阶相似度的重要性,许多现有的图嵌入算法,如IsoMap,LLE,Laplacian Eigenmaps目的都是保持一阶相似度。
然而,在现实世界的信息网络中,能够观察到的链接只是小部分,许多隐藏的其他关系都没有被观察到。缺失链路上的一对节点,即使它们在本质上非常相似,然而他们的一阶相似度为0。 因此,只有一阶相似度对维持网络结构来说不是很有效。我们自然而然的想到,具有类似邻居的顶点往往是相似的。 例如,在社交网络中,分享相同内容的人往往具有相似的兴趣,从而成为朋友,在文本网络中,总是与同一组词汇共同出现的词往往具有相似的含义。 因此,我们定义二阶相似度,其补充了一阶相似性并能够保留网络结构。
定义3(二阶相似度) :二阶相似度对应于网络中的点对(u,v)是其邻域网络结构之间的相似性。数学上,让{% raw %}${{ m{mathcal{N}}} u} = { {s {u,1}}, cdots ,{s_{u,left| V ight|}}} ${% endraw %}表示一阶附近 u 与所有其他的顶点,那么 u 和v之间的二阶相似性由{% raw %}${{ m{mathcal{N}}}_u}$和${{ m{mathcal{N}}}_v}${% endraw %}之间的相似性来决定。如果没有一个顶点同时和 u 与 v 链接,那么 u 和 v的二阶相似性是0。
定义4(网络嵌入) :给定网络{% raw %}$G = left( {V,E} ight)${% endraw %},网络嵌入的问题是将每个顶点$v in V$表示为低维空间{% raw %}${mathbb{R}^d}${% endraw %}中的向量,学习函数$f:left| V ight| mapsto {mathbb{R}^d}$,其中$d ll left| V ight|$。在空间{% raw %}${mathbb{R}^d}${% endraw %}中,顶点之间的一阶相似度和二阶相似度都被保留。

在本篇文章中,我们提出了一个半监督的网络嵌入深度框架,整体框架如图2所示。具体来说,为了捕捉高维非线性的网络结构,我们提出了一个深层的体系结构,它由多个非线性映射函数组成,将输入数据映射到一个高维非线性的隐藏空间,以捕获网络结构。为了解决网络结构保持和稀疏性问题,我们提出了一个半监督模型来利用一阶和二阶相似度。对于每个顶点,我们都可以得到它的邻域。因此,我们设计了无监督的组件来保持二阶相似度,并重建每个顶点的邻域结构。同时,对节点的一部分,我们可以获得他们的一阶相似度。因此,我们设计了有监督的组件,利用一阶相似度作为监督信息来改进隐藏空间中的表示。通过联合优化所提出的半监督深度模型,SDNE可以保持高维的非线性网络结构,保证稀疏网络的健壮性。在接下来的部分中,我们将详细介绍如何实现半监督的深度模型。
[图片上传失败...(image-4ccde2-1510922608055)]
图2.网络整体结构

我们首先描述无监督组件如何利用二阶近似保持全局网络结构。
二阶相似性值指的是节点的邻居相似,因此模型的二阶相似性,需要每个节点邻居的性质。给定一个网络{% raw %}$G = left( {V,E} ight)${% endraw %},我们可以获得到它的邻接矩阵S,它包含了n个元素${s_1}, cdots {s_n}$,对于每一个元素{% raw %}${s_i} = { {s_{i,j}}} {j = 1}^n${% endraw %},如果${v_i}$与${v_j}$间有相连的边,那么{% raw %}${s {i,j}} > 0${% endraw %}。因此,${s_i}$描述了节点${v_i}$的邻居结构,$S$提供了每一个节点的邻居结构信息。对于$S$来说,我们将传统的深度自编码器的进行延伸,用来保存网络的二阶相似性。
下面简单回顾一下深度自编码器的主要思想。它属于一种非监督模型,包含编码器与解码器。编码器由许多非线性函数构成,将输入数据映射到表示空间。对应的,解码器也由许多非线性函数构成,它将表示空间映射到输入数据的重构空间。给定输入数据${x_i}$,其中对于各个层的隐藏表示如下公式进行计算:
{% raw %}$$y_i^{(1)} = sigma ({W^{(1)}}{x_i} + {b^{(1)}})$${% endraw %}
{% raw %}$$y_i^{(k)} = sigma ({W {(k)}}y_i {(k - 1)} + {b^{(k)}}),k = 2, cdots ,K$${% endraw %}
通过一系列编码器的计算,我们可以获得输出${hat x_i}$。自动编码器的目标是尽量减少输入和输出的重构误差。损失函数可以表示为:
{% raw %}$${ m{mathcal{L}}} = sumlimits_{i = 1}^n {left| {{{hat x} i} - {x_i}} ight| 2^2} $${% endraw %}
通过最小化损失函数能够较好的还原输入数据的原始表达,其表示空间能够提取出原始输入数据的特征。基于上述特性,我们将网络的邻接矩阵S作为自动编码器的输入,如: ${x_i} = {s_i}$,那么每一个元素${s_i}$表示节点${v_i}$邻居节点的特征。因此,通过重构可以让具有相似邻居结构的节点在隐藏的表示空间也具有相似的表达。
但是,仅仅通过这种方式还不能直接解决问题。因为在网络中,我们可以观察到一些连接,但是也有一些合法的连接是缺失的。此外,由于网络的稀疏性,在邻接矩阵$S$中,零元素远远大于非零元素。如果我们直接将S输入到传统的自编码器中,可能会导致大量的零元素出现在重构空间,这并不是我们想要的结果。为了解决这个问题,我们让其对非零元素的重构误差比零元素的惩罚更大。改进的目标函数如下所示:
{% raw %}$$egin{array}{l}{{ m{mathcal{L}}} {2nd}} = sumlimits{i = 1}^n {left| {({{hat x} i} - {x_i}) odot {b_i}} ight| 2^2} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} = left| {(hat X - X) odot B} ight| F^2end{array}$${% endraw %}
其中$ odot $表示Hadamard积,{% raw %}${b_i} = { {b {i,j}}} {j = 1}^n${% endraw %},如果{% raw %}${s {i,j}} = 0${% endraw %},那么{% raw %}${b{i,j}} = 1${% endraw %},否则${b{i,j}} = eta > 1$。通过这种改进的损失函数,可以更好的让具有相似邻居的点在获得的表示空间也相似。换句话说,这个非监督部分能够很好的保存网络的二阶相似度。
不仅要维持全局网络结构,而且要捕获局部结构。我们使用一阶相似度表示网络局部结构。一阶相似度可以作为监督信息来约束一对顶点在隐藏表示空间的相似性。因此,我们设计了监督部分来利用一阶相似度。损失函数如下所示:
{% raw %}$$egin{array}{l}{{ m{mathcal{L}}} {1nd}} = sumlimits {i = 1}^n {{s_{i,j}}left| {y_i^{(K)} - y_j^{(K)}} ight| 2^2} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} = sumlimits {i = 1}^n {{s_{i,j}}left| {{y_i} - {y_j}} ight| 2^2} end{array}$${% endraw %}
其中{% raw %}${Y^{(k)}} = { y_i^{(k)}} {i = 1}^n${% endraw %}为编码器获得的隐藏表示空间。
该公式的灵感来源于拉普拉斯特征映射(Laplacian Eigenmaps),在表示空间中,如果相似的节点相距较远,那么会受到一个较大的惩罚。通过这一操作,我们的模型能够很好的保持网络的一阶相似度。
我们同时考虑网络的一阶相似度和二阶相似度,另外在加上L2正则项,共同构成了自动编码器的损失函数:
{% raw %}$$egin{array}{l}{{ m{mathcal{L}}} {mix}} = {{ m{mathcal{L}}}{2nd}} + alpha {{ m{mathcal{L}}} {1nd}} + upsilon {{ m{mathcal{L}}} {reg}}{kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} = left| {(hat X - X) odot B} ight| F^2 + alpha sumlimits {i = 1}^n {{s_{i,j}}left| {{y_i} - {y_j}} ight| 2^2} + upsilon {{ m{mathcal{L}}} {reg}}end{array}$${% endraw %}
其中:
{% raw %}$$egin{array}{l}{{ m{mathcal{L}}} {mix}} = {{ m{mathcal{L}}} {2nd}} + alpha {{ m{mathcal{L}}} {1nd}} + upsilon {{ m{mathcal{L}}} {reg}}{kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} {kern 1pt} = left| {(hat X - X) odot B} ight| F^2 + alpha sumlimits {i = 1}^n {{s_{i,j}}left| {{y_i} - {y_j}} ight| 2^2} + upsilon {{ m{mathcal{L}}} {reg}}end{array}$${% endraw %}

为了能够全面地评价算法得到的低维表示,我们使用了5个真实的网络数据,包括3个社交网络,1个引文网络,1个语言网络;实验了2类网络应用任务,包括多标签分类和可视化。考虑到各个网络数据的本身属性,对于每一类应用,我们使用了至少一个数据集进行试验。数据集的参数如下表所示:

表1. 网络数据集参数

我们实验与以下几个基准算法进行比较:DeepWalk、LINE、GraRep、Laplacian Eigenmaps、Common Neighbor。

对于多标签分类问题,我们采用micro-F1和macro-F1指标进行评价。对于标签A,我们将TP(A),FP(A)和FN(A)分别表示为属于A的样本被正确分类到A的数目,不属于A的样本被错误分类到A的数目和不属于A的样本被正确分类到了类别A的其他类的数目。假设 是整个标签集。Micro-F1和Macro-F1定义如下:
Macro-F1是一个每个类的权重的度量。 定义如下:
{% raw %}$$Macro - F1 = frac{{sum olimits_{A in { m{mathcal{C}}}} {F1(A)} }}{{left| { m{mathcal{C}}} ight|}}$${% endraw %}
其中F1(A)是标签A的F1度量。
Micro-F1是对每个实例权重的度量。定义如下:
{% raw %}$$Pr = frac{{sum olimits_{A in { m{mathcal{C}}}} {TP(A)} }}{{sum olimits_{A in { m{mathcal{C}}}} {(TP(A) + FP(A))} }}$${% endraw %}
{% raw %}$$R = frac{{sum olimits_{A in { m{mathcal{C}}}} {TP(A)} }}{{sum olimits_{A in { m{mathcal{C}}}} {(TP(A) + FN(A))} }}$${% endraw %}
{% raw %}$$Micro - F1 = frac{{2*Pr *R}}{{Pr + R}}$${% endraw %}

我们在本文中提出了一种多层的神经网络结构,层数随不同的数据集而做相应调整。每层的神经元数目如表2所示。其中BLOGCATALOG,ARXIV GR-QC和20-EWSGROUP使用了三层神经网络,FLICKR和YOUTUBE使用了四层。如果我们使用更深的模型,性能几乎保持不变,甚至变得更糟。

表2. 神经网络结构
对于我们的方法,通过在验证集上使用网格搜索(grid search)来调整 , 和 三个超参数。对于LINE,随机梯度下降的mini-batch大小设置为1。学习速率的初始值为0.025。负采样数(number of negative samples)为5,总采样数(the total number of samples)设为100亿。对于DeepWalk,我们将窗口大小设置为10,步长为40,每次采样40个顶点。对于GraRep,我们将最大转移矩阵步长(maximum matrix transition step)设置为5。

我们通过本实验中的多标签分类任务来评估不同网络表示的有效性。顶点的表示是从网络嵌入方法生成的,并被用作将每个顶点分成一组标签的特征。具体来说,我们采用LIBLINEAR软件包来训练分类器。训练分类器时,我们随机抽取标签节点的一部分作为训练数据,其余作为测试。对于BLOGCATALOG,我们随机抽取10%至90%的顶点作为训练样本,并使用剩余顶点来测试性能。对于FLICKR和YOUTUBE,我们随机抽取1%至10%的顶点作为训练样本,并使用剩余顶点来测试性能。另外,我们删除没有在YOUTUBE中被任何类别标记的顶点。我们重复进行5次实验,取Micro-F1和Macro-F1指标的平均值进行度量。结果分别如图3到图5所示。
[图片上传失败...(image-8c4a6-1510922608055)]
图3 .Micro-F1和Macro-F1在BLOGCATALOG上的表现
[图片上传失败...(image-953fed-1510922608055)]
图4 .Micro-F1和Macro-F1在FLICKR上的表现
[图片上传失败...(image-bce93a-1510922608055)]
图5 .Micro-F1和Macro-F1在YOUTUBE上的表现
在图3到图5中,我们算法的曲线一直高于其他基准算法的曲线。它表明,在多标签分类任务中我们算法学习得到的网络表示比其他算法得到的效果更好。
在图3(BLOGCATALOG)中,当训练百分比从60%下降到10%时,我们的方法在基准线上的改善幅度更为明显。它表明当标签数据有限时,我们的方法可以比基准算法有更显着的改进。这样的优势对于现实世界的应用尤其重要,因为标记的数据通常很少。
在大多数情况下,DeepWalk的性能是网络嵌入方法中最差的。原因有两个方面。首先,DeepWalk没有明确的目标函数来捕获网络结构。其次,DeepWalk使用随机游走来获得顶点的邻居,由于随机性而引起了很多噪音,特别是对于度数高的顶点。

网络嵌入的另一个重要应用是在二维空间上生成网络的可视化。对此我们在20-NEWSGROUP网络进行可视化的实验。我们使用不同网络嵌入方法学习的低维网络表示作为可视化工具t-SNE的输入。因此,每个新闻组文档被映射为二维向量。然后我们可以将每个向量可视化为二维空间上的一个点。对于被标记为不同类别的文档,我们在对应的点上使用不同的颜色。因此,良好的可视化结果能让相同颜色的点彼此靠近。可视化结果如图6所示。
[图片上传失败...(image-b52fc7-1510922608055)]
图6. 20-NEWSGROUP的可视化
每个点表示一个文档。点的颜色表示文档的类别。蓝色表示rec.sport.baseball的主题,红色表示comp.graphics的主题,绿色表示talk.politics.guns的主题。
从图7可以看出,LE和DeepWalk的结果并不理想,属于不同类别的点相互混合。对于LINE,形成不同类别的群集。然而,在中心部分,不同类别的文件仍然相互混合。对于GraRep,结果看起来更好,因为相同颜色的点分割成分组,但是,每个群体的边界不是很清楚。显然,SDNE的可视化效果在群体分离和边界方面都表现最好。

在本文中,我们提出了一种深层网络结构嵌入,即SDNE来执行网络嵌入。具体来说,为了捕获高维非线性的网络结构,我们设计了一个具有多层非线性函数的半监督深度模型。为了进一步解决网络结构保持和稀疏问题,我们同时使用了一阶邻近度和二阶邻近度来表示网络的局部和全局特征。通过在半监督的深度模型中优化它们,所学习的表示能够体现出网络的局部和全局特征,并且对稀疏网络是鲁棒的。我们在真实的网络数据集上试验了多标签分类和可视化任务。结果表明,我们的算法与当前最好的算法(state-of-the-art)相比有本质性的提高。

‘叁’ 数值分析pdf_《数值分析》课程教学改革探析

结合高等学校 21世纪人才的培养目标,根据本校的特点及多年的教学经验,对《数值分析》课程的教学改革进行了探讨,分别从教学思想和教学模式、教学内容、教学方法与手段、实践教学与考核方法等方面进行了论述。建立了“问题驱动式”的教学思想,实施了以“案例为主线,实验为指导,融知识传授与能力培养于一体”的教学模式,并针对《数值分析》涉及面广的特点,设计了分层次、分专业、分模块的立体结构式教学。
计算机教学 数值分析课程 教学改革
一、引言
“数值分析”作为计算数学的一个主要分支,是研究如何利用计算工具(如计算器、计算机等)求出数学问题的数值解(如数据、表格、图形等)的学问,是科学与工程计算的基础。“数值分析”既有纯数学高度抽象性与严密科学性的特点,又有应用的广泛性与实际实验的高度技术性的特点,是一门与计算机使用密切结合的、实用性和实践性很强的数学课程。通过本课程的学习,能使学生熟练掌握各种常用的数值算法的构造原理和过程分析,提高算法设计和理论分析能力,并且能够根据实际问题建立数学模型,然后提出相应的数值计算方法,并能编写程序在计算机上算出结果。这既能为学生在理论学习方面以及在计算机上解决实际问题等方面打下良好的基础,同时又能培养学生的逻辑思维能力和提高解决实际问题的能力。
在我校,《数值分析》课程是信息与计算科学专业的专业基础课,是数学与应用数学、计算机科学技术等本科专业的专业必修课,是工程力学、交通运输工程、通信工程等本科专业的专业必修课或选修课,也是控制科学与工程、机械工程、信息与通信工程、矿业工程、土木工程等学科的硕士研究生的公共基础课。课程涉及面广,实用性强,为此,研究本课程的教学改革具有重要的意义。
着名数学家李大潜院士倡导“问题驱动的应用数学”,我们以此作为指导思想,进行了数值分析课程的教学改革。利用实际问题引出所要讨论的计算方法,并且对计算方法进行理论和实践两方面的研究,最后解决实际问题。
二、教学思想与教学模式的改革
我们从实际出发,以“问题驱动式”作为教学思想,实施了以“案例为主线,实验为指导,融知识传授与能力培养于一体”的教学模式。
1.积极开展以“案例为主线,实验为指导”的教学模式。将案例引入课堂教学,通过有针对性的设计实验项目及内容,使学生在学习基础理论的同饥虚时掌握先进的应用技术,并充分认识到学习数值分析这门课的实用性,有效地避免了纯粹数学理论推导的枯燥性,提高了学生学习本课程的主动性。
蚂肢仿2.积极开展“以学生为中心,以教师为辅助”的讨论式教学,拓展学生思路。在课堂教学中注重启发式与讨论式,有计划地就某些问题开展专题讨论,将“课堂讨论式教学法”不断深化,充分调动学生的学习主动性。
3.开展与数值分析课程有关的学术讲座。通过开展教授讲座、博士论坛、青年学术沙龙等活动,定闷纤期邀请校内外专家学者进行与数值分析有关的学术讲座,使学生能够更深入了解该课程的学习内容及与实践结合的情况,开阔学生眼界,提高学生的学习兴趣。
三、教学内容的改革
设计了分层次、分专业、分模块的立体结构式教学。
1.根据不同层次、不同专业的培养目标,分别设计不同的教学目标和要求。根据各专业的不同要求以及培养不同层次学生的需要,把数值分析课程分为 4个类别,对理科类专业侧重理论知识及算法能力的培养;对工科偏理类的专业侧重算法实验,简化理论推导;对于一般工科专业的本科生及研究生,根据不同专业的特点,强调应用案例进入课堂;对尖子学生,结合科技创新活动,寻找实际问题,提取模型,指导其进行专业论文的撰写。
2.结合最新的科学发展动态,适度引入现代数值计算方法
结合教师的科研成果,将目前比较流行的数值计算方法,如支持向量机算法,神经网络算法,蚁群算法,遗传算法等引入课堂教学,介绍新方法的实际应用背景,并结合大学生数学建模竞赛,引入一些结构化的实例,使学生能够了解最新的科学发展动态,开阔视野,并学会应用相关的知识去求解实际问题,加深对所学知识的理解。
四、教学方法与教学手段的改革
1.问题驱动式教学。从教学过程中的基本矛盾出发,分析理论教学过程中存在的问题,每个章节都用普遍性较强、易懂的问题作为引例,让学生理解经典数值计算方法的应用。
2.案例式教学。结合我校“以工为主,矿业见长,工学、理学等多学科相互渗透,协调发展”的特点,根据不同专业的需求,如采矿方面、测绘方面、机械方面等等,精心设计案例,让学生充分理解数值分析的思想方法。
3.多途径、立体化教学。将传统教学手段和多媒体教学手段进行有机结合,在教学中特别注意合理解决“多媒体教学过程中学生反应速度与学生思路连续性之间的矛盾”。借助先进的教学手段,采用诸如启发式教学、互动式教学、研讨式教学等方式。
4.利用教学网站,扩展课堂教学。采用网上 QQ群讨论、答疑、实验指导等措施,建立课程立体资源。不断充实完善课程内容,将课堂教学与实际应用相结合,与科技创新活动、竞赛活动、企业需求相结合。实验教学和实践环节与教师的科研相结合,并以科研与学科建设为驱动,不断改进和设计创新性实验。
五、实验改革及考核手段改革
根据数值分析的特点,要实现数值分析课程教学目标,在教学中必须配有相应的实验手段。通过实验促进学生对理论、方法和概念的理解,培养学生运用实验手段进行算法设计、分析、研究的能力,提高学生灵活应用算法解决实际问题的能力,实现理论和实践的有机结合。实验教学是实现课程教学目标的重要环节。
1.实验改革
结合我校的实验平台,引进工科实验室的特殊软件,进行数值分析实验的设计。
我校具有山东省高等学校计算机实验教学示范中心,设有科学计算实验室、金融统计实验室、多媒体技术实验室和大学生创新实验室等创新平台。测绘专业有先进的遥感测绘软件、采矿专业有专业的力学计算的有限元并行软件,材料专业有基于机群的高分子模拟的专业软件,我们将这些平台有效的利用起来,针对不同的专业,布置不同的专业实验,做到有的放矢。实验类型从早期的经典算法实验到现在包含验证性、案例性、设计创新性等类型的实验,并且因材施教,提供了 MATLAB版本的实验和指导材料。自行设计的实验既锻炼了学生掌握现有软件工具的能力,又提高了学生熟练使用高级编程语言的水平,同时也锻炼了学生的动手实践能力。
2.考核手段改革
结合数值分析教学内容及教学模式的改革,克服传统教学中期末考试一卷定成绩的考核模式,采取试卷考试与实验考试相结合的考核方式,并在此基础上,适当采用课程设计加分、科研创新加分等手段,评定总成绩。
六、科研促教学,鼓励学生科技创新
1.将科研成果融入到教学中,拓宽学生的知识面,激发学生学习的积极性通过及时把参加国内外学术会议的情况介绍给学生,使学生能够了解本学科的最新发展动态,开阔视野。同时,把课堂延伸到研究所,使学生通过近距离接触先进的软件工具、设备、系统,加深对知识的理解,激发他们的好奇心和热情,促进他们学习和研究的兴趣。另一方面,通过让学生参与实验室建设,可以提高他们分析问题和解决问题的能力,并引领他们向深度发展。
在我校,科研和学科建设中的前沿课题,不仅仅是科研人员关注的焦点,也频频出现在本科生的课程设计和毕业设计之中,这是以科研促教学取得的显着成效之一。以科研促教学不仅提升了教师的教学水平,丰富了教学内容,还为学生实践能力和创新精神的培养提供了良好的平台。
2.教师积极组织、鼓励学生的科研创新活动
在教师的积极组织与鼓励下,每年都有上百人参加大学生科研与科技创新活动;在学校的大力支持下,为学生提供免费的科研与科技创新活动的场所,开放实验室,并提供强有力的指导力量,培育学生的科研能力和创新精神。有了这些方面的培养,相关老师组织的学生在国家、省级的各种竞赛中取得优异成绩,获得各种国家级、省级奖项若干。
七、结束语
近年来,我们按照“厚基础、强能力、重实践、求创新”的要求,结合高等学校 21世纪人才的培养目标,根据学校不同专业的需求,对数值分析课程进行了一系列的改革,取得了良好的效果。我们以加强素质教育和能力培养为前提,坚持以“夯实基础、拓宽专业面、注重新技术,加强人文素质课程”为原则进行课程设置,通过对数值分析课程教学的改革及不断的累积,制定了切实可行的人才培养方案。通过对课程体系和教学内容以及教学环节和教学方法进行改革,提出了科研育人新理念。通过鼓励学生进行科技立项、参与教师的科研活动,进行自主的科技创新,提高了学生的科研水平与创新能力。所有这些措施的实施对学生的考研、就业及综合素质的提高都起到了良好的促进作用,学生的实际动手能力及分析解决问题的能力明显提高。
参考文献:
[1]李庆扬,王能超,易大义.数值分析(第四版)[M].北京:清华大学出版社,2001.
[2]曾金平.数值计算方法[M].长沙:湖南大学出版社,2004.
[3]黄兵.《数值分析》课程教学改革的几点思考[J].重庆教育学院学报,2005,(6):13-15.
[4]李大潜.关于大力提倡和推动以问题驱动的应用数学研究的建议[J].中国科学基金,2006,(4):223-226.
[5]谢治州.“数值分析”实验教学的实践与探索[J].实验室研究与探索, 2010,(5):133-136.
本论文受到山东省高等学校省级精品课程及山东科技大学群星计划项目资助。

‘肆’ 《自动控制原理》pdf下载在线阅读,求百度网盘云资源

《自动控制原理.pdf》网络网盘免费下载:
链接: https://pan..com/s/1tv9OpEvwsgh877rb9DISrw

?pwd=g9hb 提取码: g9hb

阅读全文

与试验设计与分析pdf相关的资料

热点内容
华为云服务器登录密码和账号 浏览:154
中世纪java程序员 浏览:786
什么开发引擎使用python 浏览:176
sh脚本运行命令 浏览:316
广联达加密锁怎么看到期 浏览:172
cad轨迹命令 浏览:979
同事刷到女程序员自媒体视频 浏览:571
校验算法的缺点是什么 浏览:717
PHP商品分类功能实现 浏览:330
php取字符串中间 浏览:432
程序员经常用工具 浏览:837
降服主力指标源码主图 浏览:502
python实用库 浏览:693
电脑默认7个文件夹 浏览:13
新唐单片机安装c51后编译错误 浏览:532
红包源码引流神器 浏览:235
学生初中毕业撕书解压 浏览:748
命令方块刷铜点教学 浏览:691
php邮件订阅系统 浏览:999
柱梁底加密箍间距 浏览:31