算法复杂度分析

110 阅读30分钟

算法复杂度分析

算法效率评估

在算法设计中我们以找到问题解法和寻求最优解法为目标,在解决问题的前提下,算法效率就是衡量算法优劣的主要评价指标,它包括一下两个维度

•时间效率:算法运行时间的长短

•空间效率:算法占用内存空间的大小

我们想要设计既快又省的数据结构与算法,有效的评估算法的效率至关重要,效率评估方法主要分为一下两种:

•实际估算

•理论估算

实际测试

假设我们有两个解决同一问题的算法。最直接的方式是找一台电脑运行这两个算法,然后记录运行时间和内存占用情况。但是由于编写程序、测试环境等一些干扰因素的影响,可能会出现结果不一致的情况,所以都不被推荐。

理论估算

由于实际测试的局限性,我们通过一些计算来评估算法的效率。这种方法就是渐进复杂分析,简称复杂度分析。

•“时间和空间资源”分别对应时间复杂度和空间复杂度

•“随着输入数据大小的增加”意味着复杂度反应了算法运行效率与输入数据体量之间的关系。

•“时间和空间的增长趋势”表示复杂度分析关注的不是运行时间或占用空间的具体值,而是时间或空间增长的“快慢”。

复杂度分析克服了实际测试的弊端。

•无需实际运行代码

•独立于测试环境,结果可以使用所有运行平台

•可以体现不同数据量下的算法,尤其是大数据量下的算法性能

迭代与递归

在算法中,重复执行某个任务是很常见的,它和复杂度分析息息相关。为此我们先了解如何在程序中实现重复执行任务,即迭代、递归。

迭代

迭代是一种重复执行某个任务的控制结构。满足一定条件就会执行某段代码,知道条件不再满足。

for循环

for循环是在开发中最常见的迭代形式之一

以下函数基于 for 循环实现了求和 1+2+⋯+n ,求和结果使用变量 res 记录。需要注意的是,Python 中 range(a, b) 对应的区间是“左闭右开”的,对应的遍历范围为 a,a+1,…,b−1 :

/* for 循环 */
func forLoop(n int) int {
    res := 0
    // 循环求和 1, 2, ..., n-1, n
    for i := 1; i <= n; i++ {
        res += i
    }
    return res
}

此求和函数的操作数量与输入数据大小 n 成正比,或者说成“线性关系”。实际上,时间复杂度描述的就是这个“线性关系”。

while循环

和for循环类似,while循环也是一种实现迭代的方法。while 循环中,程序每轮都会先检查条件,如果条件为真,继续执行,否则结束循环。

我们用 while 循环来实现求和 1+2+⋯+n :

/* while 循环 */
func whileLoop(n int) int {
    res := 0
    // 初始化条件变量
    i := 1
    // 循环求和 1, 2, ..., n-1, n
    for i <= n {
        res += i
        // 更新条件变量
        i++
    }
    return res
}

while循环比 for循环的自由度更高。while循环中,我们可以自由地设计条件变量的初始化和更新步骤。

在以下代码中,条件变量i每轮进行两次更新,这种情况就不太方便用 for 循环实现:

/* while 循环(两次更新) */
func whileLoopII(n int) int {
    res := 0
    // 初始化条件变量
    i := 1
    // 循环求和 1, 4, 10, ...
    for i <= n {
        res += i
        // 更新条件变量
        i++
        i *= 2
    }
    return res
}

所以,for循环代码紧凑,while循环更加灵活,我们可以根据需求来选择。

嵌套循环

我们可以在循环结构里嵌套另一个循环结构

/* 双层 for 循环 */
func nestedForLoop(n int) string {
    res := ""
    // 循环 i = 1, 2, ..., n-1, n
    for i := 1; i <= n; i++ {
        for j := 1; j <= n; j++ {
            // 循环 j = 1, 2, ..., n-1, n
            res += fmt.Sprintf("(%d, %d), ", i, j)
        }
    }
    return res
}

在这种情况下,函数的操作数量与n²成正比,或者说算法运行时间和输入数据大小n成“平方关系”。

我们可以继续添加嵌套循环,每一次嵌套都是一次“升维”,将会使时间复杂度提高至“立方关系”“四次方关系”,以此类推。

递归

递归是一种算法策略,通过函数调用自身来解决问题。包括递和归两个阶段。

1.递:程序不断调用自身,一般传入更小或更简化的参数,直到满足终止条件

2.归:触发终止条件后,程序从最深层的递归函数逐层返回,汇聚每一层的结果

递归代码主要包含三个要素

终止条件:用于决定什么时候由“递”转“归”。

递归调用:对应“递”,函数调用自身,通常输入更小或更简化的参数。

返回结果:对应“归”,将当前递归层级的结果返回至上一层。

/*我们只需调用函数 recur(n) ,就可以完成1+2+.....+n的计算*/
/* 递归 */
func recur(n int) int {
    // 终止条件
    if n == 1 {
        return 1
    }
    // 递:递归调用
    res := recur(n - 1)
    // 归:返回结果
    return n + res
}

从计算角度看,迭代与递归可以得到相同的结果,但它们代表了两种完全不同的思考和解决问题的范式

迭代:“自下而上”地解决问题。从最基础的步骤开始,然后不断重复或累加这些步骤,直到任务完成。

递归:“自上而下”地解决问题。将原问题分解为更小的子问题,这些子问题和原问题具有相同的形式。接下来将子问题继续分解为更小的子问题,直到基本情况时停止(基本情况的解是已知的)。

以上述求和函数为例,设问题 f(n)=1+2+⋯+n 。

迭代:在循环中模拟求和过程,从 1 遍历到 n ,每轮执行求和操作,即可求得 f(n) 。

递归:将问题分解为子问题 f(n)=n+f(n−1) ,不断(递归地)分解下去,直至基本情况 f(1)=1 时终止。

1. 调用栈

递归函数每次调用自身时,系统都会为新开启的函数分配内存,以存储局部变量、调用地址和其他信息等。这将导致两方面的结果。

函数的上下文数据都存储在称为“栈帧空间”的内存区域中,直至函数返回后才会被释放。因此,递归通常比迭代更加耗费内存空间。

递归调用函数会产生额外的开销。因此递归通常比循环的时间效率更低。

在实际中,编程语言允许的递归深度通常是有限的,过深的递归可能导致栈溢出错误。

2. 尾递归

如果函数在返回前的最后一步才进行递归调用,则该函数可以被编译器或解释器优化,使其在空间效率上与迭代相当。这种情况被称为尾递归

普通递归:当函数返回到上一层级的函数后,需要继续执行代码,因此系统需要保存上一层调用的上下文。

尾递归:递归调用是函数返回前的最后一个操作,这意味着函数返回到上一层级后,无须继续执行其他操作,因此系统无须保存上一层函数的上下文。

以计算 1+2+⋯+n 为例,我们可以将结果变量 res 设为函数参数,从而实现尾递归:

/* 尾递归 */
func tailRecur(n int, res int) int {
    // 终止条件
    if n == 0 {
        return res
    }
    // 尾递归调用
    return tailRecur(n-1, res+n)
}   

对比普通递归和尾递归,两者的求和操作的执行点是不同的。

普通递归:求和操作是在“归”的过程中执行的,每层返回后都要再执行一次求和操作。

尾递归:求和操作是在“递”的过程中执行的,“归”的过程只需层层返回。

请注意,许多编译器或解释器并不支持尾递归优化。例如,Python 默认不支持尾递归优化,因此即使函数是尾递归形式,仍然可能会遇到栈溢出问题。

3. 递归树

当处理与“分治”相关的算法问题时,递归往往比迭代的思路更加直观、代码更加易读。

以“斐波那契数列”为例。

给定一个斐波那契数列 0,1,1,2,3,5,8,13,… ,求该数列的第 n 个数字。

设斐波那契数列的第 n 个数字为 f(n) ,易得两个结论。

数列的前两个数字为 f(1)=0 和 f(2)=1 。

数列中的每个数字是前两个数字的和,即 f(n)=f(n−1)+f(n−2) 。

按照递推关系进行递归调用,将前两个数字作为终止条件,便可写出递归代码。调用 fib(n) 即可得到斐波那契数列的第 n 个数字:

/* 斐波那契数列:递归 */
func fib(n int) int {
    // 终止条件 f(1) = 0, f(2) = 1
    if n == 1 || n == 2 {
        return n - 1
    }
    // 递归调用 f(n) = f(n-1) + f(n-2)
    res := fib(n-1) + fib(n-2)
    // 返回结果 f(n)
    return res
}

我们在函数内递归调用了两个函数,这意味着从一个调用产生了两个调用分支。这样不断递归调用下去,最终将产生一棵层数为 n 的递归树(recursion tree)

从本质上看,递归体现了“将问题分解为更小子问题”的思维范式,这种分治策略至关重要。

从算法角度看,搜索、排序、回溯、分治、动态规划等许多重要算法策略直接或间接地应用了这种思维方式。

从数据结构角度看,递归天然适合处理链表、树和图的相关问题,因为它们非常适合用分治思想进行分析。

两者对比

总结以上内容,如表所示,迭代和递归在实现、性能和适用性上有所不同。

迭代递归
实现方式循环结构函数调用自身
时间效率效率通常较高,无函数调用开销每次函数调用都会产生开销
内存使用通常使用固定大小的内存空间累积函数调用可能使用大量的栈帧空间
适用问题适用于简单循环任务,代码直观、可读性好适用于子问题分解,如树、图、分治、回溯等,代码结构简洁、清晰

迭代和递归具有什么内在联系呢?以上述递归函数为例,求和操作在递归的“归”阶段进行。这意味着最初被调用的函数实际上是最后完成其求和操作的,这种工作机制与栈的“先进后出”原则异曲同工。

事实上,“调用栈”和“栈帧空间”这类递归术语已经暗示了递归与栈之间的密切关系。

递:当函数被调用时,系统会在“调用栈”上为该函数分配新的栈帧,用于存储函数的局部变量、参数、返回地址等数据。

归:当函数完成执行并返回时,对应的栈帧会被从“调用栈”上移除,恢复之前函数的执行环境。

我们可以使用一个显式的栈来模拟调用栈的行为,从而将递归转化为迭代形式:

/* 使用迭代模拟递归 */
func forLoopRecur(n int) int {
    // 使用一个显式的栈来模拟系统调用栈
    stack := list.New()
    res := 0
    // 递:递归调用
    for i := n; i > 0; i-- {
        // 通过“入栈操作”模拟“递”
        stack.PushBack(i)
    }
    // 归:返回结果
    for stack.Len() != 0 {
        // 通过“出栈操作”模拟“归”
        res += stack.Back().Value.(int)
        stack.Remove(stack.Back())
    }
    // res = 1+2+3+...+n
    return res
}

当递归转化为迭代后,代码变得更加复杂了。尽管迭代和递归在很多情况下可以互相转化,但不一定值得这样做,有两点原因。

转化后的代码可能更加难以理解,可读性更差。

对于某些复杂问题,模拟系统调用栈的行为可能非常困难。

选择迭代还是递归取决于特定问题的性质。在编程实践中,权衡两者的优劣并根据情境选择合适的方法至关重要。

时间复杂度

运行时间可以直观且准确地反映算法的效率。如果我们想准确预估一段代码的运行时间,应该如何操作呢?

确定运行平台,包括硬件配置、编程语言、系统环境等,这些因素都会影响代码的运行效率。

评估各种计算操作所需的运行时间,例如加法操作 + 需要 1 ns ,乘法操作 * 需要 10 ns ,打印操作 print() 需要 5 ns 等。

统计代码中所有的计算操作,并将所有操作的执行时间求和,从而得到运行时间。

例如在以下代码中,输入数据大小为 n :

// 在某运行平台下
func algorithm(n int) {
    a := 2     // 1 ns
    a = a + 1  // 1 ns
    a = a * 2  // 10 ns
    // 循环 n 次
    for i := 0; i < n; i++ {  // 1 ns
        fmt.Println(a)        // 5 ns
    }
}

根据以上方法,可以得到算法的运行时间为 (6n+12) ns

但实际上,统计算法的运行时间既不合理也不现实。首先,我们不希望将预估时间和运行平台绑定,因为算法需要在各种不同的平台上运行。其次,我们很难获知每种操作的运行时间,这给预估过程带来了极大的难度。

统计时间增长趋势

时间复杂度分析统计的不是算法运行时间,而是算法运行时间随着数据量变大时的增长趋势。

时间增长趋势”这个概念比较抽象,我们通过一个例子来加以理解。假设输入数据大小为 n ,给定三个算法 ABC

// 算法 A 的时间复杂度:常数阶
func algorithm_A(n int) {
    fmt.Println(0)
}
// 算法 B 的时间复杂度:线性阶
func algorithm_B(n int) {
    for i := 0; i < n; i++ {
        fmt.Println(0)
    }
}
// 算法 C 的时间复杂度:常数阶
func algorithm_C(n int) {
    for i := 0; i < 1000000; i++ {
        fmt.Println(0)
    }
}

算法 A 只有 1 个打印操作,算法运行时间不随着 n 增大而增长。我们称此算法的时间复杂度为“常数阶”。

算法 B 中的打印操作需要循环 n 次,算法运行时间随着 n 增大呈线性增长。此算法的时间复杂度被称为“线性阶”。

算法 C 中的打印操作需要循环 1000000 次,虽然运行时间很长,但它与输入数据大小 n 无关。因此 C 的时间复杂度和 A 相同,仍为“常数阶”。

相较于直接统计算法的运行时间,时间复杂度分析有哪些特点呢?

时间复杂度能够有效评估算法效率。例如,算法 B 的运行时间呈线性增长,在 n>1 时比算法 A 更慢,在 n>1000000 时比算法 C 更慢。事实上,只要输入数据大小 n 足够大,复杂度为“常数阶”的算法一定优于“线性阶”的算法,这正是时间增长趋势的含义。

时间复杂度的推算方法更简便。显然,运行平台和计算操作类型都与算法运行时间的增长趋势无关。因此在时间复杂度分析中,我们可以简单地将所有计算操作的执行时间视为相同的“单位时间”,从而将“计算操作运行时间统计”简化为“计算操作数量统计”,这样一来估算难度就大大降低了。

时间复杂度也存在一定的局限性。例如,尽管算法 AC 的时间复杂度相同,但实际运行时间差别很大。同样,尽管算法 B 的时间复杂度比 C 高,但在输入数据大小 n 较小时,算法 B 明显优于算法 C 。对于此类情况,我们时常难以仅凭时间复杂度判断算法效率的高低。当然,尽管存在上述问题,复杂度分析仍然是评判算法效率最有效且常用的方法。

函数渐近上界

给定一个输入大小为 n 的函数:

func algorithm(n int) {
    a := 1      // +1
    a = a + 1   // +1
    a = a * 2   // +1
    // 循环 n 次
    for i := 0; i < n; i++ {   // +1
        fmt.Println(a)         // +1
    }
}

设算法的操作数量是一个关于输入数据大小 n 的函数,记为 T(n) ,则以上函数的操作数量为:T(n)=3+2n

T(n) 是一次函数,说明其运行时间的增长趋势是线性的,因此它的时间复杂度是线性阶。

我们将线性阶的时间复杂度记为 O(n) ,这个数学符号称为大 O 记号(big-O notation),表示函数 T(n) 的渐近上界

时间复杂度分析本质上是计算“操作数量 T(n)”的渐近上界,它具有明确的数学定义。

若存在正实数 c 和实数 n0 ,使得对于所有的 n>n0 ,均有 T(n)≤c⋅f(n) ,则可认为 f(n) 给出了 T(n) 的一个渐近上界,记为 T(n)=O(f(n)) 。

计算渐近上界就是寻找一个函数 f(n) ,使得当 n 趋向于无穷大时,T(n) 和 f(n) 处于相同的增长级别,仅相差一个常数项 c 的倍数。

推算方法

渐近上界的数学味儿有点重,如果没有完全理解,也无须担心。我们可以先掌握推算方法,在不断的实践中,就可以逐渐领悟其数学意义。

根据定义,确定 f(n) 之后,我们便可得到时间复杂度 O(f(n)) 。那么如何确定渐近上界 f(n) 呢?总体分为两步:首先统计操作数量,然后判断渐近上界。

1. 第一步:统计操作数量

针对代码,逐行从上到下计算即可。然而,由于上述 c⋅f(n) 中的常数项 c 可以取任意大小,因此操作数量 T(n) 中的各种系数、常数项都可以忽略。根据此原则,可以总结出以下计数简化技巧。

1.忽略 T(n) 中的常数项。因为它们都与 n 无关,所以对时间复杂度不产生影响。

2.省略所有系数。例如,循环 2n 次、5n+1 次等,都可以简化记为 n 次,因为 n 前面的系数对时间复杂度没有影响。

3.循环嵌套时使用乘法。总操作数量等于外层循环和内层循环操作数量之积,每一层循环依然可以分别套用第 1. 点和第 2. 点的技巧。

给定一个函数,我们可以用上述技巧来统计操作数量:

func algorithm(n int) {
    a := 1     // +0(技巧 1)
    a = a + n  // +0(技巧 1)
    // +n(技巧 2)
    for i := 0; i < 5 * n + 1; i++ {
        fmt.Println(0)
    }
    // +n*n(技巧 3)
    for i := 0; i < 2 * n; i++ {
        for j := 0; j < n + 1; j++ {
            fmt.Println(0)
        }
    }
}

使用上述技巧前后的统计结果,两者推算出的时间复杂度都为 O(n²) 。

2. 第二步:判断渐近上界

时间复杂度由 T(n) 中最高阶的项来决定。这是因为在 n 趋于无穷大时,最高阶的项将发挥主导作用,其他项的影响都可以忽略。

操作数量 T(n)时间复杂度 O(f(n))
100000O(1)
3n+2O(n)
2n²+3n+2O(n²)
n³+10000n²O(n³)
2ⁿ+10000n¹⁰⁰⁰⁰O(2ⁿ)

常见类型

常数阶 O(1)

常数阶的操作数量与输入数据大小 n 无关,即不随着 n 的变化而变化。

在以下函数中,尽管操作数量 size 可能很大,但由于其与输入数据大小 n 无关,因此时间复杂度仍为 O(1) :

/* 常数阶 */
func constant(n int) int {
    count := 0
    size := 100000
    for i := 0; i < size; i++ {
        count++
    }
    return count
}
线性阶 O(n)

线性阶的操作数量相对于输入数据大小 n 以线性级别增长。线性阶通常出现在单层循环中:

/* 线性阶 */
func linear(n int) int {
    count := 0
    for i := 0; i < n; i++ {
        count++
    }
    return count
}

遍历数组和遍历链表等操作的时间复杂度均为 O(n) ,其中 n 为数组或链表的长度:

/* 线性阶(遍历数组) */
func arrayTraversal(nums []int) int {
    count := 0
    // 循环次数与数组长度成正比
    for range nums {
        count++
    }
    return count
}

需要注意的是,输入数据大小 n 需根据输入数据的类型来具体确定。比如在第一个示例中,变量 n 为输入数据大小;在第二个示例中,数组长度 n 为数据大小。

平方阶O(n²)

平方阶的操作数量相对于输入数据大小 n 以平方级别增长。平方阶通常出现在嵌套循环中,外层循环和内层循环的时间复杂度都为 O(n) ,因此总体的时间复杂度为 O(n²):

/* 平方阶 */
func quadratic(n int) int {
    count := 0
    // 循环次数与数据大小 n 成平方关系
    for i := 0; i < n; i++ {
        for j := 0; j < n; j++ {
            count++
        }
    }
    return count
}

以冒泡排序为例,外层循环执行 n−1 次,内层循环执行 n−1、n−2、…、2、1 次,平均为 n/2 次,因此时间复杂度为 O((n−1)n/2)=O(n²) :

/* 平方阶(冒泡排序) */
func bubbleSort(nums []int) int {
    count := 0 // 计数器
    // 外循环:未排序区间为 [0, i]
    for i := len(nums) - 1; i > 0; i-- {
        // 内循环:将未排序区间 [0, i] 中的最大元素交换至该区间的最右端
        for j := 0; j < i; j++ {
            if nums[j] > nums[j+1] {
                // 交换 nums[j] 与 nums[j + 1]
                tmp := nums[j]
                nums[j] = nums[j+1]
                nums[j+1] = tmp
                count += 3 // 元素交换包含 3 个单元操作
            }
        }
    }
    return count
}
指数阶 O(2ⁿ)

生物学的“细胞分裂”是指数阶增长的典型例子:初始状态为 1 个细胞,分裂一轮后变为 2 个,分裂两轮后变为 4 个,以此类推,分裂 n 轮后有 2ⁿ 个细胞。

以下代码模拟了细胞分裂的过程,时间复杂度为 O( 2ⁿ) 。请注意,输入 n 表示分裂轮数,返回值 count 表示总分裂次数。

/* 指数阶(循环实现)*/
func exponential(n int) int {
    count, base := 0, 1
    // 细胞每轮一分为二,形成数列 1, 2, 4, 8, ..., 2^(n-1)
    for i := 0; i < n; i++ {
        for j := 0; j < base; j++ {
            count++
        }
        base *= 2
    }
    // count = 1 + 2 + 4 + 8 + .. + 2^(n-1) = 2^n - 1
    return count
}

在实际算法中,指数阶常出现于递归函数中。例如在以下代码中,其递归地一分为二,经过 n 次分裂后停止:

/* 指数阶(递归实现)*/
func expRecur(n int) int {
    if n == 1 {
        return 1
    }
    return expRecur(n-1) + expRecur(n-1) + 1
}

指数阶增长非常迅速,在穷举法(暴力搜索、回溯等)中比较常见。对于数据规模较大的问题,指数阶是不可接受的,通常需要使用动态规划或贪心算法等来解决。

对数阶O(log⁡n)

与指数阶相反,对数阶反映了“每轮缩减到一半”的情况。设输入数据大小为 n ,由于每轮缩减到一半,因此循环次数是log₂⁡n ,即 2ⁿ 的反函数。

以下代码模拟了“每轮缩减到一半”的过程,时间复杂度为 O(log₂⁡n) ,简记为 O(log⁡n) :

/* 对数阶(循环实现)*/
func logarithmic(n int) int {
    count := 0
    for n > 1 {
        n = n / 2
        count++
    }
    return count
}

与指数阶类似,对数阶也常出现于递归函数中。以下代码形成了一棵高度为log₂⁡n 的递归树:

/* 对数阶(递归实现)*/
func logRecur(n int) int {
    if n <= 1 {
        return 0
    }
    return logRecur(n/2) + 1
}

对数阶常出现于基于分治策略的算法中,体现了“一分为多”和“化繁为简”的算法思想。它增长缓慢,是仅次于常数阶的理想的时间复杂度。

线性对数阶 O(nlog⁡n)

线性对数阶常出现于嵌套循环中,两层循环的时间复杂度分别为 O(log⁡n) 和 O(n) 。相关代码如下:

/* 线性对数阶 */
func linearLogRecur(n int) int {
    if n <= 1 {
        return 1
    }
    count := linearLogRecur(n/2) + linearLogRecur(n/2)
    for i := 0; i < n; i++ {
        count++
    }
    return count
}

主流排序算法的时间复杂度通常为 O(nlog⁡n) ,例如快速排序、归并排序、堆排序等。

阶乘阶 O(n!)

阶乘阶对应数学上的“全排列”问题。给定 n 个互不重复的元素,求其所有可能的排列方案,方案数量为:

n!=n×(n−1)×(n−2)×⋯×2×1

阶乘通常使用递归实现。以下代码所示,第一层分裂出 n 个,第二层分裂出 n−1 个,以此类推,直至第 n 层时停止分裂:

/* 阶乘阶(递归实现) */
func factorialRecur(n int) int {
    if n == 0 {
        return 1
    }
    count := 0
    // 从 1 个分裂出 n 个
    for i := 0; i < n; i++ {
        count += factorialRecur(n - 1)
    }
    return count
}

请注意,因为当 n≥4 时恒有 n!>2ⁿ ,所以阶乘阶比指数阶增长得更快,在 n 较大时也是不可接受的。

最差、最佳、平均时间复杂度

算法的时间效率往往不是固定的,而是与输入数据的分布有关。假设输入一个长度为 n 的数组 nums ,其中 nums 由从 1 至 n 的数字组成,每个数字只出现一次;但元素顺序是随机打乱的,任务目标是返回元素 1 的索引。我们可以得出以下结论。

nums = [?, ?, ..., 1] ,即当末尾元素是 1 时,需要完整遍历数组,达到最差时间复杂度 O(n)。

nums = [1, ?, ?, ...] ,即当首个元素为 1 时,无论数组多长都不需要继续遍历,达到最佳时间复杂度 Ω(1) 。

“最差时间复杂度”对应函数渐近上界,使用大 O 记号表示。相应地,“最佳时间复杂度”对应函数渐近下界,用 Ω 记号表示:

/* 生成一个数组,元素为 { 1, 2, ..., n },顺序被打乱 */
func randomNumbers(n int) []int {
    nums := make([]int, n)
    // 生成数组 nums = { 1, 2, 3, ..., n }
    for i := 0; i < n; i++ {
        nums[i] = i + 1
    }
    // 随机打乱数组元素
    rand.Shuffle(len(nums), func(i, j int) {
        nums[i], nums[j] = nums[j], nums[i]
    })
    return nums
}
​
/* 查找数组 nums 中数字 1 所在索引 */
func findOne(nums []int) int {
    for i := 0; i < len(nums); i++ {
        // 当元素 1 在数组头部时,达到最佳时间复杂度 O(1)
        // 当元素 1 在数组尾部时,达到最差时间复杂度 O(n)
        if nums[i] == 1 {
            return i
        }
    }
    return -1
}   

我们在实际中很少使用最佳时间复杂度,因为通常只有在很小概率下才能达到,可能会带来一定的误导性,而最差时间复杂度更为实用,因为它给出了一个效率安全值,让我们可以放心地使用算法。

从上述示例可以看出,最差时间复杂度和最佳时间复杂度只出现于“特殊的数据分布”,这些情况的出现概率可能很小,并不能真实地反映算法运行效率。相比之下,平均时间复杂度可以体现算法在随机输入数据下的运行效率,用 Θ 记号来表示。

对于部分算法,我们可以简单地推算出随机数据分布下的平均情况。比如上述示例,由于输入数组是被打乱的,因此元素 1 出现在任意索引的概率都是相等的,那么算法的平均循环次数就是数组长度的一半 n/2 ,平均时间复杂度为 Θ(n/2)=Θ(n) 。

但对于较为复杂的算法,计算平均时间复杂度往往比较困难,因为很难分析出在数据分布下的整体数学期望。在这种情况下,我们通常使用最差时间复杂度作为算法效率的评判标准。

为什么很少看到Θ符号?

可能由于 O 符号过于朗朗上口,因此我们常常使用它来表示平均时间复杂度。但从严格意义上讲,这种做法并不规范。在本书和其他资料中,若遇到类似“平均时间复杂度 O(n)”的表述,请将其直接理解为 Θ(n) 。

空间复杂度

空间复杂度(space complexity)用于衡量算法占用内存空间随着数据量变大时的增长趋势。这个概念与时间复杂度非常类似,只需将“运行时间”替换为“占用内存空间”。

算法相关空间

算法在运行过程中使用的内存空间主要包括以下几种。

输入空间:用于存储算法的输入数据。

暂存空间:用于存储算法在运行过程中的变量、对象、函数上下文等数据。

输出空间:用于存储算法的输出数据。

一般情况下,空间复杂度的统计范围是“暂存空间”加上“输出空间”。

暂存空间可以进一步划分为三个部分。

暂存数据:用于保存算法运行过程中的各种常量、变量、对象等。

栈帧空间:用于保存调用函数的上下文数据。系统在每次调用函数时都会在栈顶部创建一个栈帧,函数返回后,栈帧空间会被释放。

指令空间:用于保存编译后的程序指令,在实际统计中通常忽略不计。

在分析一段程序的空间复杂度时,通常统计暂存数据、栈帧空间和输出数据三部分

/* 结构体 */
type node struct {
    val  int
    next *node
}
​
/* 创建 node 结构体  */
func newNode(val int) *node {
    return &node{val: val}
}
​
/* 函数 */
func function() int {
    // 执行某些操作...
    return 0
}
​
func algorithm(n int) int { // 输入数据
    const a = 0             // 暂存数据(常量)
    b := 0                  // 暂存数据(变量)
    newNode(0)              // 暂存数据(对象)
    c := function()         // 栈帧空间(调用函数)
    return a + b + c        // 输出数据
}

推算方法

空间复杂度的推算方法与时间复杂度大致相同,只需将统计对象从“操作数量”转为“使用空间大小”。

而与时间复杂度不同的是,通常只关注最差空间复杂度。这是因为内存空间是一项硬性要求,我们必须确保在所有输入数据下都有足够的内存空间预留。

观察以下代码,最差空间复杂度中的“最差”有两层含义。

以最差输入数据为准:当 n<10 时,空间复杂度为 O(1) ;但当 n>10 时,初始化的数组 nums 占用 O(n) 空间,因此最差空间复杂度为 O(n) 。

以算法运行中的峰值内存为准:例如,程序在执行最后一行之前,占用 O(1) 空间;当初始化数组 nums 时,程序占用 O(n) 空间,因此最差空间复杂度为 O(n) 。

func algorithm(n int) {
    a := 0                      // O(1)
    b := make([]int, 10000)     // O(1)
    var nums []int
    if n > 10 {
        nums := make([]int, n)  // O(n)
    }
    fmt.Println(a, b, nums)
}

在递归函数中,需要注意统计栈帧空间。观察以下代码:

func function() int {
    // 执行某些操作
    return 0
}
​
/* 循环的空间复杂度为 O(1) */
func loop(n int) {
    for i := 0; i < n; i++ {
        function()
    }
}
​
/* 递归的空间复杂度为 O(n) */
func recur(n int) {
    if n == 1 {
        return
    }
    recur(n - 1)
}

函数 loop()recur() 的时间复杂度都为 O(n) ,但空间复杂度不同。

函数 loop() 在循环中调用了 n 次 function() ,每轮中的 function() 都返回并释放了栈帧空间,因此空间复杂度仍为 O(1) 。

递归函数 recur() 在运行过程中会同时存在 n 个未返回的 recur() ,从而占用 O(n) 的栈帧空间。

常见类型

常数阶 O(1)

常数阶常见于数量与输入数据大小 n 无关的常量、变量、对象。

需要注意的是,在循环中初始化变量或调用函数而占用的内存,在进入下一循环后就会被释放,因此不会累积占用空间,空间复杂度仍为 O(1) :

/* 函数 */
func function() int {
    // 执行某些操作...
    return 0
}
​
/* 常数阶 */
func spaceConstant(n int) {
    // 常量、变量、对象占用 O(1) 空间
    const a = 0
    b := 0
    nums := make([]int, 10000)
    node := newNode(0)
    // 循环中的变量占用 O(1) 空间
    var c int
    for i := 0; i < n; i++ {
        c = 0
    }
    // 循环中的函数占用 O(1) 空间
    for i := 0; i < n; i++ {
        function()
    }
    b += 0
    c += 0
    nums[0] = 0
    node.val = 0
}
线性阶 O(n)

线性阶常见于元素数量与 n 成正比的数组、链表、栈、队列等:

/* 线性阶 */
func spaceLinear(n int) {
    // 长度为 n 的数组占用 O(n) 空间
    _ = make([]int, n)
    // 长度为 n 的列表占用 O(n) 空间
    var nodes []*node
    for i := 0; i < n; i++ {
        nodes = append(nodes, newNode(i))
    }
    // 长度为 n 的哈希表占用 O(n) 空间
    m := make(map[int]string, n)
    for i := 0; i < n; i++ {
        m[i] = strconv.Itoa(i)
    }
}
平方阶 O(n²)

平方阶常见于矩阵和图,元素数量与 n 成平方关系:

/* 平方阶 */
func spaceQuadratic(n int) {
    // 矩阵占用 O(n^2) 空间
    numMatrix := make([][]int, n)
    for i := 0; i < n; i++ {
        numMatrix[i] = make([]int, n)
    }
}

该函数的递归深度为 n ,在每个递归函数中都初始化了一个数组,长度分别为 n、n−1、…、2、1 ,平均长度为 n/2 ,因此总体占用 O(n²) 空间:

/* 平方阶(递归实现) */
func spaceQuadraticRecur(n int) int {
    if n <= 0 {
        return 0
    }
    nums := make([]int, n)
    fmt.Printf("递归 n = %d 中的 nums 长度 = %d \n", n, len(nums))
    return spaceQuadraticRecur(n - 1)
}
指数阶 O(2ⁿ)

指数阶常见于二叉树。,层数为 n 的“满二叉树”的节点数量为 2ⁿ−1 ,占用 O(2ⁿ) 空间:

/* 指数阶(建立满二叉树) */
func buildTree(n int) *TreeNode {
    if n == 0 {
        return nil
    }
    root := NewTreeNode(0)
    root.Left = buildTree(n - 1)
    root.Right = buildTree(n - 1)
    return root
}
对数阶 O(log⁡n)

对数阶常见于分治算法。例如归并排序,输入长度为 n 的数组,每轮递归将数组从中点处划分为两半,形成高度为 log⁡n 的递归树,使用 O(log⁡n) 栈帧空间。

再例如将数字转化为字符串,输入一个正整数 n ,它的位数为 ⌊log10ⁿ⌋+1 ,即对应字符串长度为 ⌊log10⁡ⁿ⌋+1 ,因此空间复杂度为 O(log10⁡ⁿ+1)=O(log⁡n) 。

权衡时间与空间

理想情况下,我们希望算法的时间复杂度和空间复杂度都能达到最优。然而在实际情况中,同时优化时间复杂度和空间复杂度通常非常困难。

降低时间复杂度通常需要以提升空间复杂度为代价,反之亦然。我们将牺牲内存空间来提升算法运行速度的思路称为“以空间换时间”;反之,则称为“以时间换空间”。

选择哪种思路取决于我们更看重哪个方面。在大多数情况下,时间比空间更宝贵,因此“以空间换时间”通常是更常用的策略。当然,在数据量很大的情况下,控制空间复杂度也非常重要。