算法效率的度量方法
- 算法采用的策略,方案
- 编译产生的代码质量
- 问题的输入规模
- 机器执行指令的速度
int i, sum = 0, n = 100; //执行1次
for(I=1; i <= n; i++) {//执行n + 1次
sum = sum +I;//执行n次
}
总共执行了 1 + n + n + 1 = 2n + 2
int i, sum = 0, n = 100;//执行1次
sum = (1 + n) * n / 2; //执行1次
总共执行了 1 + 1 = 2
int i, j, x=0, sum=0, n=100;
for( i=1; i <= n; i++ )
{
for( j=1; j <= n; j++ )
{
x++;
sum = sum + x;
}
}
这个例子中,循环条件i从1到100,每次都要让j循环100次,如果非常较真的研究总共精确执行次数,那是非常累的。 另一方面,我们研究算法的复杂度,侧重的是研究算法随着输入规模扩大增长量的一个抽象,而不是精确地定位需要执行多少次,因为如果这样的话,我们就又得考虑回编译器优化等问题,然后,然后就永远也没有然后了! 所以,对于刚才例子的算法,我们可以果断判定需要执行100^2次。
函数的渐近增长
算法时间复杂度
算法时间复杂度的定义:在进行算法分析时,语句总的执行次数T(n)是关于问题规模n的函数,进而分析T(n)随n的变化情况并确定T(n)的数量级。算法的时间复杂度,也就是算法的时间量度,记作:T(n)= O(f(n))。它表示随问题规模n的增大,算法执行时间的增长率和f(n)的增长率相同,称作算法的渐近时间复杂度,简称为时间复杂度。其中f(n)是问题规模n的某个函数。(关键需要知道执行次数==时间)
T(n) = O(f(n)) O(1)、O(n)、O(n^2)、log(2)n
推导大O阶方法
- 用常数1取代运算时间中的所有加法常数
- 在修改的运行次数函数中,保留最高阶项
- 如果最高阶项存在切不是1,则去除与这个阶相乘的常数 对数阶
int $i=1, n = 100
while( i < n) {
i = i * 2;
}
2^x = n
x = log(2)n
函数调用的时间复杂度
O(1) < O(logn) < O(n) < O(logn) < O(n^2) < O(n^3) < O(2^n) < O(n!) < O(n^n)
最坏情况和平均情况
用空间来换时间
判断是否闰年
- 程序判断
- 准备好可能出现的结果枚举
空间复杂度 通过计算算法所需要的存储空间实现。
S(n) = O(f(n))