深入浅出理解:算法的时间复杂度和空间复杂度

简介: 深入浅出理解:算法的时间复杂度和空间复杂度

算法的时间复杂度和空间复杂度(一)

——算法复杂度之时间复杂度


一、 前言 算法效率

如何衡量一个算法的好坏? 让我们来看一下斐波那契数列:

long long Fib(int N) 
{
  if (N < 3)
    return 1;
  return Fib(N - 1) + Fib(N - 2);
}

斐波那契数列的递归实现方式看上去非常简洁吧 ,但简洁就代表效率高了吗?

下面就让我们来探讨一下到底怎样才是效率高



二、算法的复杂度

算法的复杂度一般取决于两个维度:时间维度空间维度

  • 时间复杂度:衡量算法的运行快慢 运行所需时间
  • 空间复杂度:衡量算法运行所需开辟的额外空间

在计算机发展的早期 ,计算机的存储容量很小。所以对空间复杂度很是在乎。但是经过计算机行业的迅速发展,计算机的存储容量已经达到了很高的程度。所以我们如今已经不需要再特别关注一个算法的空间复杂度



2.1 时间复杂度


时间复杂度的定义:在计算机科学中,算法的时间复杂度是一个函数,它定量描述了该算法的运行时间。

一个算法执行所耗费的时间,从理论上说,是不能算出来的,只有你把你的程序放在机器上跑起来,才能知道。但是我们需要每个算法都上机测试吗?是可以都上机测试,但是这很麻烦,所以才有了时间复杂度这个分析方式。一个算法所花费的时间与其中语句的执行次数成正比例,算法中的基本操作的执行次数,为算法的时间复杂度

[即:找到某条基本语句与向题规模之间的数学表达式、就是算出了该算法的时间复杂度]

脱离实际的运行环境和硬件环境的情况下,比较其性能,才能真正评出算法效率优劣。

\\计算一下下列函数中++count语句总共执行了多少次
void Func1(int N) {
  int count = 0;
  for (int i = 0; i < N; ++i) {
    for (int j = 0; j < N; ++j) {
      ++count;
    }
  }
  for (int k = 0; k < 2 * N; ++k) {
    ++count;
  }
  int M = 10;
  while (M--) {
    ++count;
  }
  printf("%d", count);
}

Func1执行的基本操作次数:

F ( N ) = N 2 + 2 ∗ N + 10 F(N)=N^2+2*N+10F(N)=N2+2N+10

  • N=10 F(N)=130
  • N=100 F(N)=10210
  • N=1000 F(N)=1002010



实际我们我们计算时间复杂度时,并不一定要计算精确的执行次数

不知大家是否还记得上初中的一道非常经典的数学题

( n − 1 ) / n (n-1) / n(n1/n

n — > ∞ n—>∞n>

结果会是多少呢

当n接近于无穷大时,1与之相比相差悬殊,可以忽略不计了

≈ n / n = 1 ≈n /n =1n/n=1


还有高中时期的一道经典数学题

关于小数点

0.31415926....... 0.31415926.......0.31415926.......

真正起决定作用的只有前几位,而后面那几位0.00000…太小了,完全可以忽略不记了


所以只需要计算出真正对大小起决定性作用的部分大概执行次数,因此就有了 " 大O的渐进表示法 "



三、大O的渐进表示法 : 抓大头(取起决定性作用的部分)

大O符号(Big O notation):是用于描述函数渐近行为的数学符号

推导大O阶方法
理解:

  1. 常数1取代运行时间中的所有加法常数

O(1)不是代表只执行了1次,而是代表常数次

(cpu处理1万亿的数值,和处理数值1 的时间一样快)

  1. 用修改后的运行次数函数中,只保留最高阶项
  2. 如果最高阶项存在且不是1,则去除与这个项目相乘的常数

相乘的常数与次方相比 可省略

得到的结果就是大O阶。

★☆★推导大O阶方法与经验总结:

  • 常数都当成1,只保留最高阶项,最高阶的系数去掉
  • 有循环算循环,没有循环当常数即可



通过大O渐进表示法,我们前面的例题Func1的时间复杂度为:

O ( N 2 ) O(N^2)O(N2)

  • N=10 F(N)=100
  • N=100 F(N)=10000
  • N=1000 F(N)=1000000

使用大O的渐进表示法,去掉那些对结果影响不大的项,结果也与原来的也大差不差,简洁明了的表示出了执行次数。**!本质计算的是属于哪个量级 **

!注意:在实际中一般情况关注的是算法的最坏运行情况



后续还会继续更新下半部分《算法复杂度(二)之空间复杂度》,若更新出会把博客文章的链接放在这里,

也会更新对于时间复杂度例题的讲解,引入更深入的思考与体会,敬请关注。

目录
相关文章
|
23天前
|
机器学习/深度学习 算法 程序员
读《趣学算法》:重开算法之门,时间复杂度与空间复杂度
本文是作者阅读《趣学算法》后的笔记,介绍了算法复杂度的基本概念,包括时间复杂度和空间复杂度的不同阶表示,并通过具体例子展示了如何计算和理解算法的效率。
55 2
读《趣学算法》:重开算法之门,时间复杂度与空间复杂度
|
1月前
|
机器学习/深度学习 存储 算法
算法时间复杂度分析
这篇文章讲解了如何分析算法的时间复杂度,包括关注循环执行次数最多的代码段、总复杂度的确定、嵌套代码复杂度的计算方法,并提供了大O阶的推导步骤和常见时间复杂度的列表,同时还介绍了空间复杂度的概念及其重要性。
|
1月前
|
搜索推荐
九大排序算法时间复杂度、空间复杂度、稳定性
九大排序算法的时间复杂度、空间复杂度和稳定性,提供了对各种排序方法效率和特性的比较分析。
54 1
|
2月前
|
存储 缓存 算法
时间&空间复杂度,Python 算法的双重考验!如何优雅地平衡两者,打造极致性能?
【7月更文挑战第23天】在Python算法设计中,时间与空间复杂度是关键考量,需精妙平衡以优化程序性能。时间复杂度反映算法随输入规模增长的执行时间趋势,空间复杂度关注额外存储需求。线性搜索O(n)时间,O(1)空间;二分搜索O(log n)时间,O(1)空间,提升效率;动态规划如斐波那契数列O(n)时间与空间,利用存储减小计算。实际应用需按场景需求调整,如实时数据偏重时间,资源受限环境优先考虑空间。平衡两者,理解算法本质,结合实践,创造高性能程序。
36 7
|
2月前
|
算法 Python
震惊!Python 算法设计背后,时间复杂度与空间复杂度的惊天秘密大起底!
【7月更文挑战第23天】在Python算法设计中,时间与空间复杂度是幕后操控程序效率的双雄。时间复杂度反映算法执行时间随输入规模增长的速度,空间复杂度则计量算法运行时额外内存的使用。如顺序查找的时间复杂度O(n)与固定空间O(1),对比冒泡排序的O(n^2)时间和快速排序的O(n log n)时间优势,后者虽递归消耗空间,但在多数情况下提供更佳性能。根据需求,可权衡选择,如利用哈希表在充足内存下实现O(1)查找,或在空间受限时,偏好空间效率更高的算法,实现Python代码的高性能与优雅。
40 6
|
2月前
|
存储 算法 搜索推荐
揭秘!Python算法设计的隐形杀手:忽视时间复杂度与空间复杂度的后果有多严重?
【7月更文挑战第24天】在 Python 编程中, 算法设计是性能与效率的基石。忽视时间复杂度 (如使用 O(2^n) 的斐波那契数列递归算法而非 O(n) 的动态规划版本) 和空间复杂度 (如在插入排序中每次迭代都复制整个已排序数组, 导致 O(n^2) 的空间复杂度) 可能严重拖累程序。性能优化至关重要, 合理的算法设计保证程序高效稳定, 是攀登技术高峰的坚实阶梯。
37 3
|
2月前
|
算法 搜索推荐 数据处理
震惊!Python算法设计背后,时间复杂度与空间复杂度的惊天秘密大起底!
【7月更文挑战第24天】在编程世界里, Python以简洁强大备受欢迎, 但算法设计与复杂度分析对程序性能至关重要。算法是程序的灵魂, 其效率直接影响数据处理能力。时间复杂度衡量算法执行速度, 如冒泡排序O(n²)与快速排序O(n log n)的显著差异; 空间复杂度关注内存占用, 递归算法需警惕栈溢出风险。优秀算法需平衡时间和空间效率, 深入理解问题本质, 迭代优化实现高效可靠。
32 2
|
2月前
|
算法 Python
算法小白秒变高手?一文读懂Python时间复杂度与空间复杂度,效率翻倍不是梦!
【7月更文挑战第24天】在编程中,算法效率由时间复杂度(执行速度)与空间复杂度(内存消耗)决定。时间复杂度如O(n), O(n^2), O(log n),反映算法随输入增长的耗时变化;空间复杂度则衡量算法所需额外内存。案例对比线性搜索(O(n))与二分搜索(O(log n)),后者利用有序列表显著提高效率。斐波那契数列计算示例中,递归(O(n))虽简洁,但迭代(O(1))更节省空间。掌握这些,让代码性能飞跃,从小白到高手不再是梦想。
43 1
|
15天前
|
算法 BI Serverless
基于鱼群算法的散热片形状优化matlab仿真
本研究利用浴盆曲线模拟空隙外形,并通过鱼群算法(FSA)优化浴盆曲线参数,以获得最佳孔隙度值及对应的R值。FSA通过模拟鱼群的聚群、避障和觅食行为,实现高效全局搜索。具体步骤包括初始化鱼群、计算适应度值、更新位置及判断终止条件。最终确定散热片的最佳形状参数。仿真结果显示该方法能显著提高优化效率。相关代码使用MATLAB 2022a实现。
|
15天前
|
算法 数据可视化
基于SSA奇异谱分析算法的时间序列趋势线提取matlab仿真
奇异谱分析(SSA)是一种基于奇异值分解(SVD)和轨迹矩阵的非线性、非参数时间序列分析方法,适用于提取趋势、周期性和噪声成分。本项目使用MATLAB 2022a版本实现从强干扰序列中提取趋势线,并通过可视化展示了原时间序列与提取的趋势分量。代码实现了滑动窗口下的奇异值分解和分组重构,适用于非线性和非平稳时间序列分析。此方法在气候变化、金融市场和生物医学信号处理等领域有广泛应用。