专栏名称: 程序员技术
最有影响力的程序员自媒体,关注程序员相关话题:程序人生、IT技术、IT职场、学习资源等。
目录
相关文章推荐
程序员的那些事  ·  微软紧急下架!900 万次下载的知名 ... ·  2 天前  
程序员小灰  ·  DeepSeek俱乐部,7000人了! ·  2 天前  
程序人生  ·  嘿,朋友!我们好久不见你在哪里 ·  6 天前  
OSC开源社区  ·  大模型生成代码的安全与质量 ·  4 天前  
OSC开源社区  ·  2025最值得学习的10个Vue3开源代码库 ·  6 天前  
51好读  ›  专栏  ›  程序员技术

算法分析的正确姿势

程序员技术  · 公众号  · 程序员  · 2017-11-17 19:01

正文

点击上方“

程序员共读

”,选择“置顶公众号”

关键时刻,第一时间送达!


一、前言


在进一步学习数据结构与算法前,我们应该先掌握算法分析的一般方法。算法分析主要包括对算法的时空复杂度进行分析,但有些时候我们更关心算法的实际运行性能如何,此外,算法可视化是一项帮助我们理解算法实际执行过程的实用技能,在分析一些比较抽象的算法时,这项技能尤为实用。


在本篇博文中,我们首先会介绍如何通过设计实验来量化算法的实际运行性能,然后会介绍算法的时间复杂度的分析方法,我们还会介绍能够非常便捷的预测算法性能的倍率实验。当然,在文章的末尾,我们会一起来做几道一线互联网的相关面试/笔试题来巩固所学,达到学以致用。


二、算法分析的一般方法


1、量化算法的实际运行性能


在介绍算法的时空复杂度分析方法前,我们先来介绍以下如何来量化算法的实际运行性能,这里我们选取的衡量算法性能的量化指标是它的实际运行时间。通常这个运行时间与算法要解决的问题规模相关,比如排序100万个数的时间通常要比排序10万个数的时间要长。所以我们在观察算法的运行时间时,还要同时考虑它所解决问题的规模,观察随着问题规模的增长,算法的实际运行时间时怎样增长的。这里我们采用 算法(第4版) (豆瓣) 一书中的例子,代码如下:

public class ThreeSum {       public static int count(int[] a) {           int N = a.length;           int cnt = 0;           for (int i = 0; i < N; i++) {               for (int j = i + 1; j < N; j++) {                   for (int k = j + 1; k < N; k++) {                       if (a[i] + a[j] + a[k] == 0) {                           cnt++;                       }                   }               }           }           return cnt;       }       public static void main(String[] args) {           int[] a = StdIn.readAllInts();           StdOut.println(count(a));       }   }

以上代码用到的StdIn和StdOut这两个类都在这里:


https://github.com/absfree/Algo。我们可以看到,以上代码的功能是统计标准一个int[]数组中的所有和为0的三整数元组的数量。采用的算法十分直接,就是从头开始遍历数组,每次取三个数,若和为0,则计数加一,最后返回的计数值即为和为0的三元组的数量。这里我们采取含有整数数量分别为1000、2000、4000的3个文件(这些文件可以在上面的项目地址中找到),来对以上算法进行测试,观察它的运行时间随着问题规模的增长是怎样变化的。


测量一个过程的运行时间的一个直接的方法就是,在这个过程运行前后各获取一次当前时间,两者的差值即为这个过程的运行时间。当我们的过程本身需要的执行时间很短时间,这个测量方法可能会存在一些误差,但是我们可以通过执行多次这个过程再取平均数来减小以至可以忽略这个误差。下面我们来实际测量一下以上算法的运行时间,相关代码如下:

public static void main(String[] args) {           int[] a = In.readInts(args[0]);           long startTime = System.currentTimeMillis();           int count = count(a);           long endTime = System.currentTimeMillis();           double time = (endTime - startTime) / 1000.0;           StdOut.println("The result is: " + count + ", and takes " + time + " seconds.");       }

我们分别以1000、2000、4000个整数作为输入,得到的运行结果如下

The result is: 70




    
, and takes 1.017 seconds. //1000个整数   
The result is: 528, and takes 7.894 seconds. //2000个整数  
The result is: 4039, and takes 64.348 seconds. //4000个整数

我们从以上结果大概可你看到,当问题的规模变为原来的2倍时,实际运行时间大约变为原来的8倍。根据这个现象我们可以做出一个猜想:程序的运行时间关于问题规模N的函数关系式为T(N) = k*(n^3).


在这个关系式中,当n变为原来的2倍时,T(N)会变为原来的8倍。那么ThreeSum算法的运行时间与问题规模是否满足以上的函数关系呢?在介绍算法时间复杂度的相关内容后,我们会回过头来再看这个问题。


2、算法的时间复杂度分析


(1)基本概念


关于算法的时间复杂度,这里我们先简单介绍下相关的三种符号记法:


  • 第一种叫Big O notation,它给出了运行时间的”渐进上界“,也就是算法在最坏情况下运行时间的上限。它的定义如下:对于f(n)和g(n),若存在常数c和N0,使得对于所有n > N0,都有 |f(n)| < c * g(n),则称f(n)为O(g(n)。

  • 第三种叫做Big Ω notation,它给出了运行时间的“渐进下界”,也就是算法在最坏情况下运行时间的下限。它的定义如下:对于f(n)和g(n),若存在常数c和N0,使得对于所有n > N0,都有|f(n)| > c * g(n),则称f(n)为Ω(g(n))。

  • 第三种叫Big Θ notation,它确定了运行时间的”渐进确界“。定义如下:对于f(n)和g(n),若存在常数c和N0,对于所有n> N0,都有|f(n)| = c * g(n),则称f(n)为Θ为Θ(g(n))。


我们在平常的算法分析中最常用到的是Big O notation。下面我们将介绍分析算法的时间复杂度的具体方法,若对Big O notation的概念还不是很了解,推荐大家看这篇文章:http://blog.jobbole.com/55184/。


(2)时间复杂度的分析方法


这部分我们将以上面的ThreeSum程序为例,来介绍一下算法时间复杂度的分析方法。为了方便阅读,这里再贴一下上面的程序:

public static int count(int[] a) {           int N = a.length;           int cnt = 0;           for (int i = 0; i < N; i++) {               for (int j = i + 1; j < N; j++) {                   for (int k = j + 1; k < N; k++) {                       if (a[i] + a[j] + a[k] == 0) {                           cnt++;                       }                   }               }           }           return cnt;       }

在介绍时间复杂度分析方法前,我们首先来明确下算法的运行时间究竟取决于什么。直观地想,一个算法的运行时间也就是执行所有程序语句的耗时总和。然而在实际的分析中,我们并不需要考虑所有程序语句的运行时间,我们应该做的是集中注意力于最耗时的部分,也就是执行频率最高而且最耗时的操作。也就是说,在对一个程序的时间复杂度进行分析前,我们要先确定这个程序中哪些语句的执行占用的它的大部分执行时间,而那些尽管耗时大但只执行常数次(和问题规模无关)的操作我们可以忽略。我们选出一个最耗时的操作,通过计算这些操作的执行次数来估计算法的时间复杂度,下面我们来具体介绍这一过程。


首先我们看到以上代码的第1行和第2行的语句只会执行一次,因此我们可以忽略它们。然后我们看到第4行到第12行是一个三层循环,最内存的循环体包含了一个if语句。也就是说,这个if语句是以上代码中耗时最多的语句,我们接下来只需要计算if语句的执行次数即可估计出这个算法的时间复杂度。以上算法中,我们的问题规模为N(输入数组包含的元素数目),我们也可以看到,if语句的执行次数与N是相关的。我们不难得出,if语句会执行N * (N - 1) * (N - 2) / 6次,因此这个算法的时间复杂度为O(n^3)。这也印证了我们之前猜想的运行时间与问题规模的函数关系(T(n) = k * n ^ 3)。由此我们也可以知道,算法的时间复杂度刻画的是随着问题规模的增长,算法的运行时间的增长速度是怎样的。在平常的使用中,Big O notation通常都不是严格表示最坏情况下算法的运行时间上限,而是用来表示通常情况下算法的渐进性能的上限,在使用Big O notation描述算法最坏情况下运行时间的上限时,我们通常加上限定词“最坏情况“。


通过以上分析,我们知道分析算法的时间复杂度只需要两步(比把大象放进冰箱还少一步:) ):


  • 寻找执行次数多的语句作为决定运行时间的[关键操作];

  • 分析关键操作的执行次数。


在以上的例子中我们可以看到,不论我们输入的整型数组是怎样的,if语句的执行次数是不变的,也就是说上面算法的运行时间与输入无关。而有些算法的实际运行时间高度依赖于我们给定的输入,关于这一问题下面我们进行介绍。


3、算法的期望运行时间


算法的期望运行时间我们可以理解为,在通常情况下,算法的运行时间是多少。在很多时候,我们更关心算法的期望运行时间而不是算法在最坏情况下运行时间的上限,因为最坏情况和最好情况发生的概率是比较低的,我们更常遇到的是一般情况。比如说尽管快速排序算法与归并排序算法的时间复杂度都为O(nlogn),但是在相同的问题规模下,快速排序往往要比归并排序快,因此快速排序算法的期望运行时间要比归并排序的期望时间小。然而在最坏情况下,快速排序的时间复杂度会变为O(n^2),快速排序算法就是一个运行时间依赖于输入的算法,对于这个问题,我们可以通过打乱输入的待排序数组的顺序来避免发生最坏情况。


4、倍率实验


下面我们来介绍一下 算法(第4版) (豆瓣) 一书中的“倍率实验”。这个方法能够简单有效地预测程序的性能并判断他们的运行时间大致的增长数量级。在正式介绍倍率实验前,我们先来简单介绍下“增长数量级“这一概念(同样引用自《算法》一书):


我们用~f(N)表示所有随着N的增大除以f(N)的结果趋于1的函数。用g(N)~f(N)表示g(N) / f(N)随着N的增大趋近于1。通常我们用到的近似方式都是g(N) ~ a * f(N)。我们将f(N)称为g(N)的增长数量级。


我们还是拿ThreeSum程序来举例,假设g(N)表示在输入数组尺寸为N时执行if语句的次数。根据以上的定义,我们就可以得到g(N) ~ N ^ 3(当N趋向于正无穷时,g(N) / N^3 趋近于1)。所以g(N)的增长数量级为N^3,即ThreeSum算法的运行时间的增长数量级为N^3。


现在,我们来正式介绍倍率实验(以下内容主要引用自上面提到的《算法》一书,同时结合了一些个人理解)。首先我们来一个热身的小程序:

public class DoublingTest {       public static double timeTrial(int N) {           int MAX = 1000000;           int[] a = new int[N];           for (int i = 0; i < N; i++) {               a[i] = StdRandom.uniform(-MAX, MAX);           }           long startTime = System.currentTimeMillis();           int count = ThreeSum.count(a);           long endTime = System.currentTimeMillis();           double time =  (endTime - startTime) / 1000.0;           return time;       }       public static void main(String[] args) {           for (int N = 250; true; N += N) {               double time = timeTrial(N);               StdOut.printf("%7d %5.1f
", N, time);           }       }   }

以上代码会以250为起点,每次讲ThreeSum的问题规模翻一倍,并在每次运行ThreeSum后输出本次问题规模和对应的运行时间。运行以上程序得到的输出如下所示:

250 0.0      
500 0.1      
1000 0.6      
2000 4.3      
4000 30.6

上面的输出之所以和理论值有所出入是因为实际运行环境是复杂多变的,因而会产生许多偏差,尽可能减小这种偏差的方式就是多次运行以上程序并取平均值。有了上面这个热身的小程序做铺垫,接下来我们就可以正式介绍这个“可以简单有效地预测任意程序执行性能并判断其运行时间的大致增长数量级”的方法了,实际上它的工作基于以上的DoublingTest程序,大致过程如下:


  • 开发一个[输入生成器]来产生实际情况下的各种可能的输入。

  • 反复运行下面的DoublingRatio程序,直至time/prev的值趋近于极限2^b,则该算法的增长数量级约为N^b(b为常数)。


DoublingRatio程序如下:


运行倍率程序,我们可以得到如下输出:

0.0 2.0   
0.1 5.5  
0.5 5.4  
3.7 7.0  
27.4 7.4  
218.0 8.0

我们可以看到,time/prev确实收敛到了8(2^3)。那么,为什么通过使输入不断翻倍而反复运行程序,运行时间的比例会趋于一个常数呢?答案是下面的[倍率定理]:


若T(N) ~ a * N^b * lgN,那么T(2N) / T(N) ~2^b。


以上定理的证明很简单,只需要计算T(2N) / T(N)在N趋向于正无穷时的极限即可。其中,“a * N^b * lgN”基本上涵盖了常见算法的增长量级(a、b为常数)。值得我们注意的是,当一个算法的增长量级为NlogN时,对它进行倍率测试,我们会得到它的运行时间的增长数量级约为N。实际上,这并不矛盾,因为我们并不能根据倍率实验的结果推测出算法符合某个特定的数学模型,我们只能够大致预测相应算法的性能(当N在16000到32000之间时,14N与NlgN十分接近)。


5、均摊分析







请到「今天看啥」查看全文