基础设施SIG月度动态:社区官网 SIG 增加轻量级 PR 支持,CVECenter 上线漏洞认领功能

简介: 基础设施SIG月度动态送达。

基础设施 SIG(OpenAnolis Infra SIG)目标:负责 OpenAnolis 社区基础设施工程平台的建设,包括官网、Bugzilla、Maillist、ABS、ANAS、CI 门禁以及社区 DevOps 相关的研发工程系统。

01 SIG 整体进展

1、社区官网 SIG 增加轻量级 PR 支持。

2、社区 CI 及 ABS 构建平台增加 loongarch64 架构支持。

3、CVECenter 增加漏洞认领功能。

4、T-One job 详情页、时序/对比分析增加分享功能。

02 SIG 详细进展

1、官网

轻量级 PR 支持:SIG 文档增加轻量级 PR 支持,用户在 SIG 文档不仅可以支持在线文档捉虫,也支持一键轻量级 PR。

首页导航:导航栏增加三级导航。

2、龙蜥 PyPI 仓

whl 包上传:whl 包上传支持大文件分块上传、离线补传。

3、T-One

Job 分享:T-One job 详情页、时序分析、对比分析增加分享功能。分享后的 job 链接无需登陆即可查看。

离线补传:T-One job 结果增加离线补传功能,当 job 测试结果异常时可使用结果离线补传功能复写 job 状态。

全局变量:T-One job 支持在 Conf 级别新增、修改全局变量。以往 job 的全局变量只能来自创建 job 指定的全局变量或是从根 suite 同步过来的全局变量,这个全局变量在使用上不是足够灵活,增加 Conf 级别的全量变量配置能更大程度上发挥全局变量的作用。

4、ABS

软件包构建:构建架构增加 loongarch64 架构显示,历史构建增加当前构建选中显示。

项目页:生态项目卡片展示适配 mac13 寸分辨率。

5、CI

软件包 CI:优化了软件包 CI 中测试构建显示的架构类别,目前可以根据实际构建情况显示对应的构建架构。

采用了一种新的方式支持软件包 CI 的测试构建,目前可以通过 CI 配置仓库(https://gitee.com/anolis/ci-meta)使用全局配置 products.yaml 来进行配置,支持测试构建根据分支进行匹配,支持模糊匹配不同的构建 tag。

6、CVECenter

漏洞协作:支持发送漏洞协作信息到钉钉群,并支持主动认领该漏洞。

历史认领记录会显示在数据大盘-漏洞协作大盘页面。

相关链接:

ABS 构建平台:https://abs.openanolis.cn/home

龙蜥安全公告:https://anas.openanolis.cn/errata

CBC 内核检测工具:https://cbc.openanolis.cn

龙蜥镜像平台:https://cr.openanolis.cn

Tone 测试平台:https://tone.openanolis.cn

龙蜥 PyPI 仓:https://pypi.openanolis.cn

—— 完 ——

相关文章
|
11月前
|
数据建模 网络安全
阿里云SSL证书不同类型DV、OV和EV如何收费?单域名和通配符SSL价格整理
阿里云SSL证书提供免费和收费选项。收费证书包括:DV单域名WoSign 238元/年,DigiCert通配符DV 1500元/年,GlobalSign OV企业型1864元/年等。免费SSL证书由Digicert提供,有效期3个月,每年可领取20个单域名证书。更多详情及价格表请参考阿里云官方页面。
|
编解码 数据可视化 数据挖掘
【办公自动化】用Python将PDF文件转存为图片
【办公自动化】用Python将PDF文件转存为图片
458 1
如何在 Vue3 中创建一个计算属性?
如何在 Vue3 中创建一个计算属性?
229 1
构建直接序列扩频系统模型(Matlab代码实现)
构建直接序列扩频系统模型(Matlab代码实现)
790 0
|
自然语言处理 机器人 数据挖掘
如何用 ChatGPT "DALL-E3"绘画(10个案例)
如何用 ChatGPT" DALL-E3"绘画(10个案例)
532 0
|
SQL Java API
数据架构问题之如何在同一个应用中使用两种模式
数据架构问题之如何在同一个应用中使用两种模式
|
前端开发
手写节流
手写节流
175 1
|
存储
gitlab--运行流水线、设置 tags、设置 pipeline 状态、添加徽章
gitlab--运行流水线、设置 tags、设置 pipeline 状态、添加徽章
|
SQL 消息中间件 JSON
Flink SQL JSON Format 源码解析
用 Flink SQL 解析 JSON 格式的数据是非常简单的,只需要在 DDL 语句中设置 Format 为 json 即可,像下面这样: CREATE TABLE kafka_source ( funcName STRING, data ROW<snapshots ARRAY<ROW<content_type STRING,url STRING>>,audio ARRAY<ROW<content_type STRING,url STRING>>>, resultMap ROW<`result` MAP<STRING,STRING>,isSuccess BOOLEAN

热门文章

最新文章