算法之时间复杂度

 

前言: 学习这东西,很枯燥也很烦,参考许多博文,选了许多。结合一些东西,记录一下, 也是为了以后回顾学习。

算法效率: 

说到算法效率 , 不得不提两个指标,那就是

 时间复杂度 

空间复杂度

好的算法应该具备时间效率高和存储量低的特点。

计算机能快速完成大量复杂的数据处理,但是要完成这个工作,计算机也是需要一定的资源的。得根据数据大小和算法来消使用处理器资源。要想程序能够高效的运行,就要考虑到算法的效率问题了。算法效率的评估, 怎么评估呢,那就是这两个指标了。

时间复杂度:评估执行程序所需的时间。可以估算出程序对处理器的使用程度。

空间复杂度:评估执行程序所需的存储空间。可以估算出程序对计算机内存的使用程度。

我们在设计算法的时候。一般是先考虑系统环境,在考虑时间复杂度和空间复杂度, 中间取一个合适的点,通常时间复杂度要比空间复杂度更容易产生问题,所以我们大多主要研究时间复杂度。

 

时间频度

一个算法执行所消耗的时间,理论上是不能推论出来的,必须经过机器测试才知道。但是我们也不可能也没有必要对每个算法逐个进行上机测试,只需要知道算法花费的时间就可以了。算法花费的时间与算法中语句的执行次数成正比例,哪个算法中语句执行次数多,它花费时间就多。一个算法中的语句执行次数称为语句频度或时间频度。记为T(n)。

 

时间复杂度

时间频度T(n) 。  n 为问题的规模,当n不断的变化时,时间频度T(n) 也会随之不断的变化。有时候我们想知道它的变化呈现出什么规律,所以 有了时间复杂度的概念。

算法中  基本操作重复执行的次数,是问题规模 n 的某个函数 用 T(n) 表示。 如果有某个辅助函数 f (n),  当n趋近于无穷大的时候,T(n) / f(n) 的极限值为不等于0 的常数。则 f (n) 为T(n) 的同数量级函数,表示为 T(n)=O(f(n))  它称为算法的渐进时间复杂度,简称时间复杂度。

 

大O表示法

上面用O( ) 来表示算法时间复杂度的记法,称之为大O 表示法。

评估一个算法我们可以从三个角度来评估: 分别为最理想情况,最坏情况,和平均情况。 从测试结果来看, 平均情况大多和最坏结果持平,而且评估最坏情况也可以避免后面出现的糟糕情况。所以一般情况下,我们设计算法时都要直接估算最坏情况的复杂度。

大O表示法O(f(n)中的f(n)的值可以为1、n、logn、n²等,因此我们可以将O(1)、O(n)、O(logn)、O(n²)分别可以称为常数阶、线性阶、对数阶和平方阶,那么如何推导出f(n)的值呢?我们接着来看推导大O阶的方法。 

推导大O阶 
推导大O阶,我们可以按照如下的规则来进行推导,得到的结果就是大O表示法: 
1.用常数1来取代运行时间中所有加法常数。 
2.修改后的运行次数函数中,只保留最高阶项 
3.如果最高阶项存在且不是1,则去除与这个项相乘的常数。

常数阶: 

int  m= 0 ;n = 100 //执行一次
m = (1+n)*n/2 ; //执行一次
system.out.prntln(m)// 执行一次

上面算法的运行次数的函数为 f(n) = 3,根据推导大O阶的规则1,我们常数3改为1,则这个算法的时间复杂度为O(1)。如果 m = (1+n)*n/2这条语句再执行10遍,因为这与问题大小n的值并没有关系,所以这个算法的时间复杂度仍旧是O(1),我们可以称之为常数阶。

线性阶:

线性阶主要分析循环结构的运行情况。

for(int i=0;i<n;i++){
//时间复杂度为O(1)的算法
...
}

循环体中的代码执行了n次,因此时间复杂度为O(n)。

对数阶 :

int number=1;
while(number<n){
number=number*2;
//时间复杂度为O(1)的算法
...
}

  number每次乘以2后,都会越来越接近n,当number不小于n时就会退出循环。假设循环的次数为X,则由2^x=n得出x=log₂n,因此得出这个算法的时间复杂度为O(logn)。

 

平方阶:

下面是循环嵌套

 for(int i=0;i<n;i++){   
      for(int j=0;j<n;i++){
         //复杂度为O(1)的算法
         ... 
      }

内层循环的时间复杂度在讲到线性阶时就已经得知是O(n),现在经过外层循环n次,那么这段算法的时间复杂度则为O(n²)。 

 

其他常见复杂度

 

除了常数阶、线性阶、平方阶、对数阶,还有如下时间复杂度: 
f(n)=nlogn时,时间复杂度为O(nlogn),可以称为nlogn阶。 
f(n)=n³时,时间复杂度为O(n³),可以称为立方阶。 
f(n)=2ⁿ时,时间复杂度为O(2ⁿ),可以称为指数阶。 
f(n)=n!时,时间复杂度为O(n!),可以称为阶乘阶。 
f(n)=(√n时,时间复杂度为O(√n),可以称为平方根阶。

 

算法中常见的f(n)值根据几种典型的数量级复杂度比较

《算法之时间复杂度》

 

 O(n)、O(logn)、O(√n )、O(nlogn )随着n的增加,复杂度提升不大,因此这些复杂度属于效率高的算法,反观O(2ⁿ)和O(n!)当n增加到50时,复杂度就突破十位数了,这种效率极差的复杂度最好不要出现在程序中,因此在动手编程时要评估所写算法的最坏情况的复杂度。

更直观的图:

    T(n)

  《算法之时间复杂度》

        0               5               10             15              20             25            n

 

T(n)值随着n的值的变化而变化,其中可以看出O(n!)和O(2ⁿ)随着n值的增大,它们的T(n)值上升幅度非常大,而O(logn)、O(n)、O(nlogn)随着n值的增大,T(n)值上升幅度则很小。 
常用的时间复杂度按照耗费的时间从小到大依次是:

O(1)<O(logn)<O(n)<O(nlogn)<O(n²)<O(n³)<O(2ⁿ)<O(n!)

    原文作者:thelovelybugfly
    原文地址: https://www.cnblogs.com/thelovelybugfly/p/9601557.html
    本文转自网络文章,转载此文章仅为分享知识,如有侵权,请联系博主进行删除。
点赞