导航:首页 > 编程语言 > python评论树讲解

python评论树讲解

发布时间:2025-02-08 10:17:10

A. Python中的树你知道吗

树与二叉树

在了解二叉树之前,我们要先了解树的一些概念,方便我们对二叉树的理解。

什么是树?

树(英语:tree)是一种抽象数据类型(ADT)或是实作这种抽象数据类型的数据结构,用来模拟具有树状结构性质的数据集合。

它是由n(n>=1)个有限节点组成一个具有层次关系的集合。把它叫做“树”是因为它看起来像一棵倒挂的树,也就是说它是根朝上,而叶朝下的。它具有以下的特点:

每个节点有零个或多个子节点;

没有父节点的节点称为根节点;

每一个非根节点有且只有一个父节点;

除了根节点外,每个子节点可以分为多个不相交的子树;

树的术语:

节点的度: 一个节点含有的子树的个数称为该节点的度;

树的度: 一棵树中,最大的节点的度称为树的度;

根结点: 树的最顶端的节点,继续往下分为子节点

父节点: 子节点的上一层为父节点

兄弟节点: 具有同一个父节点的节点称为兄弟节点

叶子节点/终端节点: 不再有子节点的节点为叶子节点

二叉树:

二叉树是树的特殊一种,具有如下特点:

每个节点最多有两个子树,节点的度最大为2

左子树和右子树是有顺序的,次序不能颠倒

即是某节点只有一个子树,也要区分左右子树

二叉树的性质:

在非空二叉树的第i层,最多有2i-1个节点(i>=1)

在深度为K的二叉树上最多有2k-1个节点(k>.1)

对于任意一个非空的二叉树,如果叶子节点个数为n0,度数为2的节点数为n2,则有n0=n2+1

推倒过程:在一棵二叉树中,除了叶子节点(度为0)外,就剩下度为2(n2)和度为1(n1)的节点了。则树的节点总数为T = n0 + n1 + n2;在二叉树中节点总数为T,而连线总数为T-1 = 2*n2 + n1,所以就有:n0 + n1 + n2 - 1 = 2 *n2 + n1,得到n0=n2+1。

特殊的二叉树

满二叉树

在二叉树中除了叶子节点,其他所有节点的度为2,且所有的叶子节点都在同一层上,这样的二叉树成为满二叉树。

满二叉树的特点:

叶子节点只能出现在最下一层

非叶子节点度数一定为2

在同样深度的二叉树中,满二叉树的节点个数最多,叶子节点数最多

完全二叉树

如果二叉树中除去最后一层叶子节点后为满二叉树,且最后一层的叶子节点依次从左到右分布,则这样的二叉树称为完全二叉树

完全二叉树的特点:

叶子节点一般出现在最下一层,如果倒数第二层出现叶子节点,一定出现在右部连续位置

最下层叶子节点一定集中在左部连续位置

同样节点的二叉树,完全二叉树的深度最小(满二叉树也对)

小例题:

某完全二叉树共有200个节点,该二叉树中共有()个叶子节点?

解:n0 + n1 + n2 = 200, 其中n0 = n2 + 1,n1 = 0或者1 (n1=1,出现在最下一层节点数为奇数,最下一层节点数为偶数,则n1=0), 因为n0为整数,所以最后算得n0 = 100。

完全二叉树的性质:

具有n个节点的完全二叉树的深度为log2n+1。log2n结果取整数部分。

如果有一棵有n个节点的完全二叉树的节点按层次序编号,对任一层的节点i(1 <= i <= n)

1. 如果i=1,则节点是二叉树的根,无父节点,如果i>1,则其父节点为i/2,向下取整

2. 如果2*1>n,那么节点i没有左孩子,否则其左孩子为2i

3. 如果2i+1>n那么节点没有右孩子,否则右孩子为2i+1

验证:

第一条:

当i=1时,为根节点。当i>1时,比如结点为7,他的双亲就是7/2= 3;结点9双亲为4.

第二条:

结点6,62 = 12>10,所以结点6无左孩子,是叶子结点。结点5,52 = 10,左孩子是10,结点4,为8.

第三条:

结点5,2*5+1>10,没有右孩子,结点4,则有右孩子。

更多Python相关知识,请移步Python视频教程继续学习!!

B. ML - 决策树(decision tree)

机器学习中分类和预测算法的评估:

判定树是一个类似于流程图的树结构:其中,每个内部结点表示在一个 属性上的测试 ,每个分支代表一个 属性输出 ,而每个树叶结点代表 类或类分布 。树的最顶层是根结点。
机器学习中分类方法中的一个重要算法

信息和抽象,如何度量?

1948年,香农提出了 ”信息熵(entropy)“的概念

一条信息的信息量大小和它的不确定性有直接的关系,要搞清楚一件非常非常不确定的事情,或者

是我们一无所知的事情,需要了解大量信息==> 信息量的度量就等于不确定性的多少

例子:猜世界杯冠军,假如一无所知,猜多少次?

每个队夺冠的几率不是相等的

比特(bit)来衡量信息的多少

变量的不确定性越大,熵也就越大

3.1 决策树归纳算法 ( ID3

1970-1980, J.Ross. Quinlan, ID3算法

选择属性(A为age时)判断结点

信息获取量(Information Gain)
Gain(A) = Info(D) - Infor_A(D)
Gain(A) =按yes/no分的熵 - 按A属性分类的熵

通过A来作为节点分类获取了多少信息

类似
Gain(income) = 0.029
Gain(student) = 0.151
Gain(credit_rating)=0.048
所以,选择age作为第一个根节点

重复。。。

算法:

*其他算法:

C4.5 : Quinlan

Classification and Regression Trees (CART): (L. Breiman, J. Friedman, R. Olshen, C. Stone)

共同点:都是贪心算法,自上而下(Top-down approach)

区别:属性选择度量方法不同: C4.5 (gain ratio), CART(gini index), ID3 (Information Gain)

先剪枝

后剪枝

直观,便于理解,小规模数据集有效

处理连续变量不好(离散化,阈值选择对结果影响大)

类别较多时,错误增加的比较快

可规模性一般

1. Python

2. Python机器学习的库: scikit-learn

2.1: 特性:

简单高效的数据挖掘和机器学习分析

对所有用户开放,根据不同需求高度可重用性

基于Numpy, SciPy和matplotlib

开源,商用级别:获得 BSD许可

2.2 覆盖问题领域:

分类(classification), 回归(regression), 聚类(clustering), 降维(dimensionality rection)

模型选择(model selection), 预处理(preprocessing)

3. 使用用scikit-learn

安装scikit-learn: pip, easy_install, windows installer

安装必要package:numpy, SciPy和matplotlib, 可使用 Anaconda (包含numpy, scipy等科学计算常用package)

4. 例子:

文档: http://scikit-learn.org/stable/moles/tree.html

安装 Graphviz: http://www.graphviz.org/
配置环境变量
转化dot文件至pdf可视化决策树:dot -Tpdf iris.dot -o outpu.pdf

阅读全文

与python评论树讲解相关的资料

热点内容
电学基础pdf 浏览:726
cad插件怎么编译 浏览:617
网校源码软件 浏览:667
思科常用配置命令 浏览:377
水容易被压缩吗 浏览:753
java项目试题 浏览:315
为什么安卓拍照没有苹果成相快 浏览:516
安卓版的苹果手机叫什么 浏览:373
手机怎么解压文件夹压缩包 浏览:459
起源任务咋解压 浏览:976
加密式的监督检查 浏览:549
光遇怎么分辨安卓国服和渠道服 浏览:242
ico解压教程 浏览:632
程序员偏右 浏览:17
超算上可以进行vasp编译嘛 浏览:174
北京通app怎么注册登录 浏览:820
iphone上的数据怎么转移到安卓 浏览:743
python求每个时段平均值 浏览:244
安卓手机右上出现Hg什么意思 浏览:69
程序员神经 浏览:753