算法学习--数学知识

简介: 算法学习--数学知识


一 试除法判断质数 O(√n)


质数有一个非常重要的性质, 那就是当 d|n 时, n/d|n 也成立, 其中 d|n表示 d 能被 n 整除, 比如 3 能被 12 整除, 4 也能被 12 整除

所以我们在用试除法判断质数的时候, 就没有必要循环 d : 2~n, 只要 d : 2~n/d即可


模板题 866. 试除法判定质数 - AcWing 题库

#include<iostream>
#include<cstdio>
using namespace std;
const int N=100+10;
int n;
int a[N];
bool is_prime(int x){
    if(x<2){
        return false;
    }
    //写成i<=x/i可以防止爆int
    for(int i=2;i<=x/i;i++){
        if(x%i==0){
            return false;
        }
    }
    return true;
}
int main(){
    cin>>n;
    for(int i=0;i<n;i++){
        scanf("%d", &a[i]);
    }
    for(int i=0;i<n;i++){
        if(is_prime(a[i])){
            puts("Yes");
        }
        else{
            puts("No");
        }
    }
    return 0;
}


二 筛质数 O(n)

筛法的基本思想是有一组数 2,3,4,5,6,7,8,9,10,11,12,... 顺着这组数从前往后遍历, 把遍历到的数的倍数删掉


void get_primes(){
  for(int i=2;i<=n;i++){
    if(!st[i]){
      primes[cnt++]=i;
    }
    for(int j=i+i; j<=n; j+=i) st[j]=true;
  }
}


这种朴素算法的时间复杂度为 n×(1/1+1/2+...+1/n)≈n⋅ln⁡n≈O(n⋅log⁡n)

观察这种朴素筛法我们可以发现, 遍历的过程当中,没有必要去删掉每个数的倍数, 上面的例子当中 12 就在遍历到 2, 3, 4, 6 的时候筛掉, 但是 4, 6 本身已经被筛掉了, 所以我们在遍历的过程中, 没有必要删掉每个数的倍数, 只要删掉质数的倍数既可以了

void get_primes(){
  for(int i=2;i<=n;i++){
    if(!st[i]){
      primes[cnt++]=i;
      for(int j=i+i; j<=n; j+=i) st[j]=true; // 放入 if 语句当中, 只删掉质数的倍数
    }
  }
}


这种算法的时间复杂度为 n×(1/1+1/2+...+1/p)≈O(n⋅log⁡log⁡n), 1/1+1/2+...+1/p大概有 n/ln⁡n项, 这种筛法被称为埃氏筛法

如果用埃氏筛法, 上面的例子当中 12 就会在遍历到 2, 3 的时候筛掉, 这当中还是有一些重复操作, 于是就有了线性筛法


void get_primes(){
    for(int i=2;i<=n;i++){
        if(!st[i]){
            primes[cnt++]=i;
        }
        // 把所有的 primes[j]*i 使用其最小质因子删掉
        for(int j=0;primes[j]<=n/i;j++){
            st[primes[j]*i]=true;
            if(i%primes[j]==0) break;
        }
    }
}


与埃氏筛法不同的是, 线性筛法是把所有的 primes[j]*i 筛掉, 这里 i 是一个质数, primes[j] 是在之前迭代种得到的所有比 i 小的质数

  1. i%primes[j]==0 时, 说明 primes[j]i 的最小质因子 (primes[j]是递增的), 因此 primes[j] 一定是 primes[j]*i 的最小质因子
  2. i%primes[j]!=0 时, 说明 primes[j] 一定小于 i 的所有质因子, 所以 primes[j] 也一定是 prime[j]*i 的最小质因子

综上两条, primes[j]*i 是被它的最小质因子 primes[j] 筛掉的, 但是当 i%primes[j]==0, 必须 break, 因为 primes[j]i 的最小质因子, 所以 primes[j+1]*i 的最小质因子是 primes[j], 而不是 primes[j+1], primes[j+1]*i 不是被它的最小质因子筛掉的

对于一个合数 x, 假设 primes[j]x 的最小质因子, 当 i 枚举到 x/primes[j] 时, i 枚举到 x 之前一定会先到达 x/primes[j] 所以这个 x 就被筛掉了, 而且仅仅只是被最小质因子筛掉了一次

所有合数都只会被它的最小质因子筛掉一次, 算法复杂度为 O(n)


模板题 868. 筛质数 - AcWing 题库

#include<iostream>
#include<cstdio>
using namespace std;
const int N=1e6+10;
int n;
int primes[N], cnt;
bool st[N];
void get_prime(){
    for(int i=2;i<=n;i++){
        // 这个数没有被筛掉,说明它是一个质数,就把它存起来
        if(!st[i]){
            primes[cnt++]=i;
        }
        // 把所有的 i*primes[j] 使用其最小质因子删掉
        for(int j=0;primes[j]<=n/i;j++){
            st[i*primes[j]]=true;
            if(i%primes[j]==0){
                break;
            }
        }
    }
}
int main(){
    cin>>n;
    get_prime();
    cout<<cnt<<endl;
    return 0;
}


相关文章
|
3月前
|
存储 算法 Go
算法学习:数组 vs 链表
算法学习:数组 vs 链表
41 0
|
1月前
|
机器学习/深度学习 人工智能 资源调度
【博士每天一篇文献-算法】连续学习算法之HAT: Overcoming catastrophic forgetting with hard attention to the task
本文介绍了一种名为Hard Attention to the Task (HAT)的连续学习算法,通过学习几乎二值的注意力向量来克服灾难性遗忘问题,同时不影响当前任务的学习,并通过实验验证了其在减少遗忘方面的有效性。
43 12
|
1月前
|
算法 Java
掌握算法学习之字符串经典用法
文章总结了字符串在算法领域的经典用法,特别是通过双指针法来实现字符串的反转操作,并提供了LeetCode上相关题目的Java代码实现,强调了掌握这些技巧对于提升算法思维的重要性。
|
1月前
|
算法 NoSQL 中间件
go语言后端开发学习(六) ——基于雪花算法生成用户ID
本文介绍了分布式ID生成中的Snowflake(雪花)算法。为解决用户ID安全性与唯一性问题,Snowflake算法生成的ID具备全局唯一性、递增性、高可用性和高性能性等特点。64位ID由符号位(固定为0)、41位时间戳、10位标识位(含数据中心与机器ID)及12位序列号组成。面对ID重复风险,可通过预分配、动态或统一分配标识位解决。Go语言实现示例展示了如何使用第三方包`sonyflake`生成ID,确保不同节点产生的ID始终唯一。
go语言后端开发学习(六) ——基于雪花算法生成用户ID
|
1月前
|
存储 机器学习/深度学习 算法
【博士每天一篇文献-算法】连续学习算法之HNet:Continual learning with hypernetworks
本文提出了一种基于任务条件超网络(Hypernetworks)的持续学习模型,通过超网络生成目标网络权重并结合正则化技术减少灾难性遗忘,实现有效的任务顺序学习与长期记忆保持。
30 4
|
1月前
|
存储 机器学习/深度学习 算法
【博士每天一篇文献-算法】连续学习算法之RWalk:Riemannian Walk for Incremental Learning Understanding
RWalk算法是一种增量学习框架,通过结合EWC++和修改版的Path Integral算法,并采用不同的采样策略存储先前任务的代表性子集,以量化和平衡遗忘和固执,实现在学习新任务的同时保留旧任务的知识。
68 3
|
1月前
|
存储 机器学习/深度学习 算法
【博士每天一篇文献-综述】基于脑启发的连续学习算法有哪些?附思维导图
这篇博客文章总结了连续学习的分类,包括经典方法(重放、正则化和稀疏化方法)和脑启发方法(突触启发、双系统启发、睡眠启发和模块化启发方法),并讨论了它们在解决灾难性遗忘问题上的优势和局限性。
24 2
|
2月前
|
机器学习/深度学习 数据采集 算法
Python实现ISSA融合反向学习与Levy飞行策略的改进麻雀优化算法优化支持向量机回归模型(SVR算法)项目实战
Python实现ISSA融合反向学习与Levy飞行策略的改进麻雀优化算法优化支持向量机回归模型(SVR算法)项目实战
102 9
|
2月前
|
机器学习/深度学习 数据采集 算法
Python实现ISSA融合反向学习与Levy飞行策略的改进麻雀优化算法优化支持向量机分类模型(SVC算法)项目实战
Python实现ISSA融合反向学习与Levy飞行策略的改进麻雀优化算法优化支持向量机分类模型(SVC算法)项目实战
|
2月前
|
机器学习/深度学习 数据采集 监控
算法金 | DL 骚操作扫盲,神经网络设计与选择、参数初始化与优化、学习率调整与正则化、Loss Function、Bad Gradient
**神经网络与AI学习概览** - 探讨神经网络设计,包括MLP、RNN、CNN,激活函数如ReLU,以及隐藏层设计,强调网络结构与任务匹配。 - 参数初始化与优化涉及Xavier/He初始化,权重和偏置初始化,优化算法如SGD、Adam,针对不同场景选择。 - 学习率调整与正则化,如动态学习率、L1/L2正则化、早停法和Dropout,以改善训练和泛化。
26 0
算法金 | DL 骚操作扫盲,神经网络设计与选择、参数初始化与优化、学习率调整与正则化、Loss Function、Bad Gradient