1. 估算算法时间复杂度的方法
就是根据程序运行的最基本的操作的次数,记为T(n)
例:算法:
for(i=1;i<=n;++i)
{
for(j=1;j<=n;++j)
{
c[ i ][ j ]=0; //该步骤属于基本操作 执行次数:n的平方 次
for(k=1;k<=n;++k)
c[ i ][ j ]+=a[ i ][ k ]*b[ k ][ j ]; //该步骤属于基本操作 执行次数:n的三次方 次
}
}
则有 T(n)= n的平方+n的三次方,根据上面括号里的同数量级,我们可以确定 n的三次方 为T(n)的同数量级
则有f(n)= n的三次方,然后根据T(n)/f(n)求极限可得到常数c
则该算法的 时间复杂度:T(n)=O(n^3) 注:n^3即是n的3次方。
2. 算法的时间复杂度计算问题
第一题:
int
i=1,k=100这条语句算法步数是2步,执行频率是1;
循环中,
k=k+1;这条语句每次算法步数是1;执行频率是n/2-1;
i+=2这条语句每次算法步数是1;执行频率是n/2-1;
所以算法复杂度为1*(n/2-1)+1*(n/2-1)+2=n=o(n);
3. 算法的时间复杂度
时间复杂度的表示: O(执行次数)
一个有序的元素列表查找某个元素可以用二分查找,每次取中间元素进行比较大小,直到相等。因为每次不符合时总会排除一半的元素 ,所以查找的次数为log2n,那么时间复杂度为O(log2n)。如果是一个无序的元素列表,查找从位置0开始,那么简单查找的次数为n,那么时间复杂度为O(n)。
除此之外快速排序为O(n*log2n),选择排序为O(n*n)。
旅行算法就是n个旅行地点,你可从某个地方出发到余下某下一个地点,走完所有地点。从最开始时走有n个地点可以选择,接下来再走就有n-1个地点可以选择,这样直到只有一个地点可以选择。那么所有你可走的路径就是一个阶乘,选择复杂度为O( n!)。
关于数组和链表的操作。先说数组,因为你有了元素的索引,可以随机访问,你就能快速找到这个元素,而且所有元素的读取都是一样的步骤,所以读取时间复杂度为O(1),数组的插入和删除的时间复杂度为O(n),因为要移动元素。链表的特性是每个都存储了下一个元素的地址,只能顺序访问。那么读取插入删除的时间复杂度分别是O(n)、O(1)、O(1)。
4. 算法的时间复杂度如何计算
求解算法的时间复杂度的具体步骤是:
⑴ 找出算法中的基本语句;
算法中执行次数最多的那条语句就是基本语句,通常是最内层循环的循环体。
⑵ 计算基本语句的执行次数的数量级;
只需计算基本语句执行次数的数量级,这就意味着只要保证基本语句执行次数的函数中的最高次幂正确即可,可以忽略所有低次幂和最高次幂的系数。这样能够简化算法分析,并且使注意力集中在最重要的一点上:增长率。
⑶ 用大Ο记号表示算法的时间性能。
将基本语句执行次数的数量级放入大Ο记号中。
如果算法中包含嵌套的循环,则基本语句通常是最内层的循环体,如果算法中包含并列的循环,则将并列循环的时间复杂度相加。例如:
for (i=1; i<=n; i++)
x++;
for (i=1; i<=n; i++)
for (j=1; j<=n; j++)
x++;
第一个for循环的时间复杂度为Ο(n),第二个for循环的时间复杂度为Ο(n2),则整个算法的时间复杂度为Ο(n+n2)=Ο(n2)。
常见的算法时间复杂度由小到大依次为:
Ο(1)<Ο(log2n)<Ο(n)<Ο(nlog2n)<Ο(n2)<Ο(n3)<…<Ο(2n)<Ο(n!)
Ο(1)表示基本语句的执行次数是一个常数,一般来说,只要算法中不存在循环语句,其时间复杂度就是Ο(1)。Ο(log2n)、Ο(n)、Ο(nlog2n)、Ο(n2)和Ο(n3)称为多项式时间,而Ο(2n)和Ο(n!)称为指数时间。计算机科学家普遍认为前者是有效算法,把这类问题称为P类问题,而把后者称为NP问题。
这只能基本的计算时间复杂度,具体的运行还会与硬件有关。
参考博客地址:http://blog.csdn.net/xingqisan/article/details/3206303
5. 算法的时间代价
随便解释一下 ,解释的不好见谅
一个算法是解决某个问题的,比如n条数据排序问题,那么对于这个问题“n”就是它的问题规模
那么解决这个问题的算法的代价一定是n的函数,记为T(n)
为了比较不同算法之间的优劣,必须有一种方法将计算代价的函数进行变换,所以提出一种
概念叫做“复杂度”(好像是这么个意思,教材上的那个阴文单词背不出了)
记作T(n)=O(f(n)),表示代价T(n)和f(n)一样
比方说一个算法用时T(n)=n天 ,另一个算法用f(n)=100n天,可以证明
n=O(100n),那么就认为两个算法复杂度相同(1天和100天复杂度还相同,....)
搂住的后半句就是具体定义,“存在正常数C和N,当问题规模n>N时,有T(n)<=Cf(n)”意思就是说如果有一个正的常数C,和一个正的常数N,当n>N 不等式T(n)<=Cf(n)恒成立,就“称某算法的时间(或空间)代价T(n)=O(f(n))”
比如一个算法的代价是T(n)=100n ,那么当n>=1时,100n <= 101 n
那么就可以记作
T(n)=100n = O(n) 这里f(n)是f(n)=n,C=101,N=1
6. 什么是算法的时间复杂度
时间复杂度表面的意思就是代码花费的时间,但是一般使用这个概念的时候,更注重的是随着数据量增长,代码执行时间的增长情况。一般认为一个基本的运算为一次运行算,例如加减乘除判断等等
例1和例2时间复杂度都可以简单认为是o(N),一般用时间复杂度的时候要取一个下限即可,不用那么精确,可能你认为例1是o(2N)而例2是o(n),但实际上这两者对于时间复杂度的作用来说没区别,前面已经说了,时间复杂度关注的是数据量的增长导致的时间增长情况,o(2N)和o(n)在数据量增加一倍的时候,时间开销都是增加一倍(线性增长)。
又例如两重循环的时间复杂度是o(N的平方),N扩大一倍,时间复杂度就扩大4倍。所以时间复杂度主要是研究增长的问题,一般效率较好的算法要控制在o(N)或者o(log2N)
7. 算法的时间复杂度问题
这个算法的时间复杂度是O(a.length^2)
当i = 0;子循环执行a.length-1
当i = 1;子循环执行a.length-1-1
当i = j;子循环执行a.length-1-j次
依次类推把它们加起来:知这个算法的时间复杂度是O(a.length^2)
8. 算法的时间复杂度
空间复杂度是指算法在计算机内执行时所需存储空间的度量。
我们一般所讨论的是除正常占用内存开销外的辅助存储单元规模.
本人: 空间复杂度跟指令条数没有必然联系,同一种算法你可以写得很长 也可以写得很短 但是他们的复杂度是一样的