Jenkins环境搭建

简介: 本文介绍Jenkins环境搭建步骤,基于Docker部署jenkins/jenkins:2.464镜像。配置容器卷/var/jenkins_home持久化数据,映射端口9988(Web)和50000(Agent)。通过docker run命令启动容器并设置重启策略,初始化管理员账号admin/admin。完成后访问http://192.168.xxx.xxx:9988,安装SVN中的插件包,按依赖顺序升级替换,完成Jenkins配置。

Jenkins环境搭建
Docker镜像
使用jenkins 2.464镜像:
docker pull jenkins/jenkins:2.464

准备映射的容器卷
Jenkins需要映射出来的容器卷有:
● /var/jenkins_home:存储信息

准备对应文件夹:
mkdir -p /root/jenkins_workspace/jenkins_home

端口
Jenkins需要映射出来的端口有:
● 8080:浏览器页面端口,可以映射为别的端口,例如(-p 9988:8080)
● 50000:代理节点访问端口。如果要映射为别的端口,需要配置环境变量,例如( -p 50001:50001 --env JENKINS_SLAVE_AGENT_PORT=50001)

启动容器
启动容器jenkins:
docker run -d \
-p 9988:8080 \
-p 50000:50000 \
--name jenkins \
--restart always \
-v /root/jenkins_workspace/jenkins_home:/var/jenkins_home \
jenkins/jenkins:2.464

启动之后,设置管理员用户 admin/admin。

安装插件
容器启动完成后,将SVN上的Jenkins插件装到Jenkins中,先安装旧插件,然后安装新插件进行升级替换。如果安装时缺少依赖报错,则根据报错提示先安装对应的依赖插件(依赖插件也都在插件文件夹中)。

浏览器访问
访问地址:http://192.168.xxx.xxx:9988/

相关文章
|
15小时前
|
资源调度 C++
⚖️ 归一化技术
归一化技术对大模型训练至关重要,LayerNorm通过对特征维度归一化提升稳定性,是Transformer标配;RMSNorm简化计算,效率更高,应用于LLaMA等模型;Pre-norm结构因更好稳定性成为现代架构主流。
|
15小时前
|
自然语言处理 C++
🎲 解码策略
解码策略决定文本生成方式,平衡创造性与准确性。贪婪解码确定性强但重复性高;Beam Search提升质量但成本较高;随机采样(如Top-k、Top-p)增强多样性,适合创意任务。不同方法适用于翻译、摘要、创作等场景。
|
15小时前
|
自然语言处理
主流大模型结构
本文详解主流大模型架构:Encoder-Decoder(如T5)、Decoder-Only(如GPT)、Encoder-Only(如BERT)和Prefix-Decoder(如GLM),涵盖代表模型、特点与应用场景;梳理GPT系列演进、LLaMA发展及中文大模型现状,并提供模型对比与面试重点解析。
|
15小时前
|
存储 NoSQL 数据库
📚 RAG技术
RAG架构结合检索与生成,通过DPR、ColBERT等检索器从向量数据库中召回相关内容,再由大模型生成答案。支持密集、混合检索与多路召回,提升准确率。常用FAISS、Pinecone等向量库,广泛应用于减少幻觉、增强问答可靠性。
|
15小时前
|
存储 人工智能 JSON
🤖 Agent系统
大模型Agent是具备自主规划、推理决策、工具调用与记忆能力的智能体,核心由大脑(LLM)、感知、行动与记忆组件构成,支持任务分解、反思优化与多轮交互。常见框架如LangChain、AutoGPT、CrewAI等,广泛应用于复杂任务处理与企业级AI系统。(238字)
|
15小时前
|
机器学习/深度学习 存储 数据采集
🔥 高频面试题汇总
Transformer核心基于自注意力机制,通过QKV计算捕捉长距离依赖,结合多头机制增强表达能力。使用位置编码补充序列顺序信息,配合RoPE、绝对/相对编码等技术。采用RMSNorm、SwiGLU等优化架构,结合LoRA、ZeRO实现高效训练与推理。显存估算需综合参数、KV缓存、激活值等,广泛应用于生成、理解与安全对齐任务。
|
15小时前
|
存储 机器学习/深度学习 编解码
🚀 预训练技巧
预训练是大模型基石,涵盖混合精度、分布式训练等核心技术。混合精度提升效率与显存利用率;数据/模型/流水线并行支持超大模型训练;DeepSpeed的ZeRO优化显存,FlashAttention加速注意力计算,助力高效大规模训练。(239字)
|
15小时前
|
存储 物联网 决策智能
🔧 微调技术
微调是将预训练模型适配特定任务的核心技术,涵盖指令微调、对齐微调与高效参数微调。LoRA通过低秩分解减少参数量,提升训练效率;Prefix Tuning与Prompt Tuning则通过轻量改造输入实现高效微调。不同方法在参数量、速度与效果间权衡,满足多样需求。(237字)
|
15小时前
|
机器学习/深度学习 算法 关系型数据库
🎮 强化学习
强化学习(RL)是一种通过智能体与环境交互,基于试错和延迟奖励学习最优策略的机器学习方法。核心要素包括状态、动作、奖励、策略与价值函数。常用算法有Q-learning、策略梯度、PPO、DPO等,广泛应用于游戏、机器人及大模型对齐人类偏好(如RLHF)。其关键挑战在于平衡探索与利用、偏差与方差,并提升样本效率与训练稳定性。
|
14小时前
|
机器学习/深度学习 存储 知识图谱
🫗 知识蒸馏
知识蒸馏是一种模型压缩技术,通过让小模型(学生)模仿大模型(教师)的输出或中间特征,实现性能逼近甚至超越。核心方法包括软标签蒸馏、带温度的Softmax提升信息保留,以及特征层对齐。按信息访问程度分为黑盒与白盒蒸馏,广泛用于加速推理、降低资源消耗,同时提升泛化能力。