如何保护自己知识产权,建立代码护城河——建立自己的静态库,x86和arm平台的实例讲解

简介: 如何保护自己知识产权,建立代码护城河——建立自己的静态库,x86和arm平台的实例讲解

前言

(1)想象一下,假如我们幸幸苦苦写了一个封装库代码,为了建立护城河,我们企业不愿意把真实的代码提供给用户。怕客户拿了代码,这个合同结束,稍微改一点点,就盗用我们的技术,然后说全自主创新。那真是有苦说不出啊。

(2)但是呢?你不把自己的代码给客户,客户用不了,还有是要你来用,最终整个项目你们包了。那这个所谓的客户躺着赚钱,你们又太亏了,而且根本不现实。

(3)所以,为了保护自己的知识产权,又能够把客户服务的服服帖帖的。我们可以自己建立一个静态库。

x86平台下建立静态库

准备测试程序

静态库程序

这里是我准备的静态库程序,只有一句打印。

#include <stdio.h>
void mylib(void)
{
        printf("This is mylib!\r\n");
}


测试程序

(1)这里是测试程序,有一个函数声明void mylib(void)。

(2)这个函数声明也可也放在一个头文件里面,然后这个c文件包含那个头文件。

(3)不明白的同学说明对于**#include**这个头文件包含理解不够,可以看看深入理解C程序的#include和头文件,让c工程只有.h文件(狗头)

void mylib(void);
int main(void)
{
        mylib();
        return 0;
}


(1)将C文件变成o文件

(1)我们先让c文件变成01语言,到最后一步链接停止。

gcc -c libtest.c

(2)将o文件变成静态库

(1)这里我们使用ar指令,将.o文件变成静态库

(2) 注意:规定静态库必须以lib开头,.a结尾。这是规定!

ar cr libmylib.a libmylib.o

(3)将测试程序与静态库链接

(1)这里我们使用ar指令,将.o文件变成静态库

(2)这里需要注意,-o表示输出的最终可执行文件名字。可不写,那么最终生成的可执行文件和c文件名字一致。

(3)-lmylib表示静态库的名字。libmylib.a是库文件名,去掉lib开头,.a结尾的mylib才是真正的库名。因此 -l+库名。

(4)-L用于指定静态库路径,最后的 '.'表示静态库在当前路径下。


gcc -o test test.c -lmylib -L .

arm平台下建立静态库

确定交叉编译器


(1)首先你需要知道你使用的是什么交叉编译器工具。有一些人可能是按照教程来的,已经在.bashrc文件中设置了交叉编译工具链。

(2)所以需要执行如下命令

vim ~/.bashrc


(3)在此文件中,输入如下指令,即可找到自己的交叉编译工具链是什么。

/CROSS_COMPILE

建立静态库

(1)测试程序和上面一致,执行流程也一样。只不过执行gcc和ar指令之前,需要加上交叉编译工具链。

arm-buildroot-linux-gnueabihf-gcc -c libtest.c  //将C文件变成o文件
arm-buildroot-linux-gnueabihf-ar cr libmylib.a libmylib.o  //将o文件变成静态库
arm-buildroot-linux-gnueabihf-gcc -o test test.c -lmylib -L . //将测试程序与静态库链接


建立静态库有什么好处

(1)建立静态库可以很好的保护自己的代码隐私性,又能够让别人使用。但是为什么C库函数需要建立成静态库?

(2)我们有没有发现一个问题,假如我们想要看一个C库函数底层实现,很多时候是直接跳转到了一个头文件中,底层实现是看不到的。

(3)这是因为C库已经被编译成为了静态库,我们上面说静态库可以保护自己代码的隐私性,但是C库不是开源的吗?

(4)这个就要涉及静态库的第二个好处,提供编译效率。

(5)静态库的代码已经经历了预处理,编译,汇编的过程,只差最后的链接了。如果别人要使用C库,就可以直接进行最后一步进行链接操作,有效的提高编译效率。


目录
相关文章
|
2月前
|
机器学习/深度学习 边缘计算 PyTorch
PyTorch团队为TorchAO引入1-8比特量化,提升ARM平台性能
PyTorch团队推出创新技术,在其低精度计算库TorchAO中引入低位运算符支持,实现1至8位精度的嵌入层权重量化及8位动态量化激活的线性运算符。该技术通过模块化设计和高效硬件利用,优化了资源受限环境下的深度学习计算,提升了计算效率并降低了资源消耗。新内核与PyTorch生态系统无缝集成,支持即时执行、编译优化及边缘计算,为开发者提供全方位性能优势。测试结果显示,多层次量化策略显著提升了计算效率,保持了模型精度。这一突破为深度学习框架优化开辟了多个研究方向,推动了人工智能在边缘计算等领域的广泛应用。
102 11
PyTorch团队为TorchAO引入1-8比特量化,提升ARM平台性能
|
2月前
|
前端开发 Java 编译器
阿里巴巴生态应用在Arm平台性能优化实践
本次方案的主题是阿里巴巴生态应用在 Arm 平台性能优化实践,分别从背景介绍、编译优化实践、总结和展望三个方面介绍了本主题。 1. 背景介绍 2. 编译优化实践 3. 总结和展望
|
2月前
|
机器学习/深度学习 弹性计算 人工智能
阿里云服务器ECS架构区别及选择参考:X86计算、ARM计算等架构介绍
在我们选购阿里云服务器的时候,云服务器架构有X86计算、ARM计算、GPU/FPGA/ASIC、弹性裸金属服务器、高性能计算可选,有的用户并不清楚他们之间有何区别,本文主要简单介绍下这些架构各自的主要性能及适用场景,以便大家了解不同类型的架构有何不同,主要特点及适用场景有哪些。
190 10
|
4月前
|
机器学习/深度学习 弹性计算 人工智能
阿里云服务器架构有啥区别?X86计算、Arm、GPU异构、裸金属和高性能计算对比
阿里云ECS涵盖x86、ARM、GPU/FPGA/ASIC、弹性裸金属及高性能计算等多种架构。x86架构采用Intel/AMD处理器,适用于广泛企业级应用;ARM架构低功耗,适合容器与微服务;GPU/FPGA/ASIC专为AI、图形处理设计;弹性裸金属提供物理机性能;高性能计算则针对大规模并行计算优化。
169 7
|
5月前
|
Docker 容器
docker:记录如何在x86架构上构造和使用arm架构的镜像
为了实现国产化适配,需将原x86平台上的Docker镜像转换为适用于ARM平台的镜像。本文介绍了如何配置Docker buildx环境,包括检查Docker版本、安装buildx插件、启用实验性功能及构建多平台镜像的具体步骤。通过这些操作,可以在x86平台上成功构建并运行ARM64镜像,实现跨平台的应用部署。
2952 2
|
3天前
|
弹性计算 编解码 运维
飞天技术沙龙回顾:业务创新新选择,倚天 Arm 架构深入探讨
飞天技术沙龙回顾:业务创新新选择,倚天 Arm 架构深入探讨
|
3月前
|
人工智能 芯片 Windows
ARM架构PC退货率与CEO策略透视
ARM架构PC退货率与CEO策略透视
|
5月前
|
编解码 弹性计算 应用服务中间件
阿里云服务器Arm计算架构解析:Arm计算架构云服务器租用收费标准价格参考
阿里云服务器架构分为X86计算、Arm计算、高性能计算等多种架构,其中Arm计算架构以其低功耗、高效率的特点受到广泛关注。本文将深入解析阿里云Arm计算架构云服务器的技术特点、适用场景以及包年包月与按量付费的收费标准与最新活动价格情况,以供选择参考。
|
5月前
|
机器学习/深度学习 弹性计算 编解码
阿里云服务器计算架构X86/ARM/GPU/FPGA/ASIC/裸金属/超级计算集群有啥区别?
阿里云服务器ECS提供了多种计算架构,包括X86、ARM、GPU/FPGA/ASIC、弹性裸金属服务器及超级计算集群。X86架构常见且通用,适合大多数应用场景;ARM架构具备低功耗优势,适用于长期运行环境;GPU/FPGA/ASIC则针对深度学习、科学计算、视频处理等高性能需求;弹性裸金属服务器与超级计算集群则分别提供物理机级别的性能和高速RDMA互联,满足高性能计算和大规模训练需求。
181 6