一、背景
异常检测是智能运维系统中的很重要的一环,在云上针对各个服务时序指标的巡检成为监控服务质量的重要手段。在云平台上,系统和服务的指标项太多、时序形态丰富、异常类型难以枚举,单单的依靠人工规则来做异常发现很达到预期效果;同时,现有的巡检方法多采用SQL发起机器学习函数的方式,拉取部分数据做模型训练,输出结果,在海量的指标数据下反应延迟,成本昂贵,很难充分学习数据的特征而达到很好的效果。
SLS团队,对现有的机器学习方法改进提升,采用流式学习的方式,将机器学习函数变为智能化的机器学习服务,让模型在历史数据流上不断记忆,充分学习样本特征,实时反馈,更进一步降低用户的使用门槛。大家只需发起服务,配置一定的告警阈值,即可实现对指标数据的实时智能巡检。
二、实际业务痛点
- 指标太多
- 监控对象太多
- 阈值参数太多
- ...
在时序监控场景中,用户往往先确定监控对象,并通过其历史数据,结合业务经验,得到不同组的阈值参数,通过各种手段(同比、环比、连续触发几次等)进行监控,往往一个监控对象要设计4~5条监控规则,并配置不同的参数。还有更大的问题,各个参数阈值无法快速的复用到不同的类似观测对象中,当观测对象的规模达到数千,甚至上万后,传统的配置效率底下,无法满足在大规则时序指标数据下的监控需求。流式算法具有天然的优势可以解决上面的问题,用户只需要发起一个机器学习服务,模型自动拉取数据,实时训练,实时反馈(通俗地说:“来一个点,学习一个点,检测一个点”),在极大的降低成本的同时,实现对每一条线的单独建模,单独分析,单独模型参数保存,实现时序异常检测的“千线千面”。
SQL请求式智能巡检
服务化流式智能巡检
我们利用Logtail去采集K8S宿主机的秒级指标数据,将数据写入到SLS中去,利用人工经验对这份数据的聚合和采样后,提取出如下8个黄金指标,配置分钟粒度的流式告警。
观测指标 | 指标名称 |
---|---|
系统态CPU使用百分比 | cpu_sys |
CPU空闲时IO请求时间 | cpu_iowait |
用户态CPU使用百分比 | cpu_user |
内存使用情况 | mem_usage |
存储空间使用情况 | disk_usage |
使用的文件描述符的个数 | fd |
网络包重传数量 | retrans |
系统负载 | load |
三、功能介绍
SLS团队结合目前国际主流的流式异常检测算法,包括RRCF、HTM、Skyline等流式算法,Time2Graph等最新时序建模方法,自研三大流式巡检功能,提供给大家使用。下面给大家做详细介绍,具体可以参考SLS官方文档
流式统计算法异常检测
流式树算法异常检测
流式图算法异常检测
三种功能分别采用不同类型的算法,对指标时序进行异常检测:
- 流式统计算法异常检测主要采用核密度估计等统计学习算法
- 流式树算法异常检测主要采用RRCF等树(森林)学习算法
- 流式图算法异常检测主要采用Time2Graph等图学习算法
以上三种方法可以针对不同类型的时序异常进行检测,包括:
时序变点异常
时序折点异
时序周期异常
不同的算法功能对不同的异常类型各有擅长,具体如下表所示:
变点异常 | 折点异常 | 周期异常 | |
---|---|---|---|
流式统计算法异常检测 | 强 | 中 | 弱 |
流式树算法异常检测 | 中 | 强 | 中 |
流式图算法异常检测 | 强 | 中 | 强 |
大家可以根据自己数据的形态,选择相应的功能进行时序智能巡检。有关算法的具体原理可以参考之前的文章,大家也可以去网上查阅相关资料自行阅读。接下来主要给大家介绍下在SLS中该怎么使用这些功能。
接下来主要给大家介绍下在SLS中该怎么使用这些功能。
四、案例实战
我们以一个K8S集群的机器指标数据的案例作为例子,描述如何使用SLS机器学习服务进行指标数据的智能巡检。
4.1 数据导入
我们拉取监控中的机器指标数据,具体的操作步骤可参考:《在SLS中时序指标数据的巡检》
接入数据后,我们可以得到一个按照固定的频率写入SLS中的LogStore的数据,我们可以订阅这个LogStore的数据,并告知算法该数据的Schema,选择需要的检测算法,就可以完成针对数据中的实例(比如:访问日志中的域名、机器指标数据中的机器)进行巡检。
- 以K8S监控数据为例,一个数据写入的Agent(比如:Python SDK)按照一个固定的频率(60秒)将200多台机器的多维度指标分别写入到LogStore中去,如下图中所展示的:每隔60秒,将每台机器的各种指标,按照[Region, Machine, Index_name, Value]的方式写入到LogStore中;
- 这里每条日志的格式为:
这里, region
表示一个集群,machine
表示一台机器,index_name
表示一个指标,这里我们对8种常用的指标进行监控和分析,包括CPU、内存、负载、网络流量等。 value
表示具体的指标数值。
- 我们把要进行分析的字段加上索引,开启统计:
4.2 参数配置,发起服务
当指标数据接入成功之后,我们可以开启机器学习服务对时序数据进行智能巡检
4.2.1 打开数据加工
- 我们开启 “数据加工”模式,经过如下截图中的操作步骤
- 来到创建数据加工规则的界面,我们要保证填写的AK信息具有对当前LogStore具有可读且能创建消费组的权限,具体操作,请参考《RAM自定义授权场景》;同时在存储目标中,目前仅支持写入到本Project下面,已将创建好的LogStore中,且存储目标中的AK要具有写入权限
下一步,选择“加工范围”,这里的加工范围所对应的时间是数据达到服务器端的时间,接着就到了模型参数配置部分,针对各个参数的含义我们做一个介绍:
- 时间列:表示某条日志的时间戳,单位为秒;一般选择
__time__
这个字段 - 时间粒度:表示数据写入的频率,这里要求数据对象写入LogStore的频率一致。在这个案例里是60秒
- 实例列:表示能唯一标记巡检对象的字段,要求是text文本列,可多选。这个案例里是
region
machine
index_name
,对应了某地区某机器下的某指标。 - 特征列:表示某巡检对象所对应的特征,要求为数值列,可多选。这个案例里是
value
,即具体的指标数值。
- 时间列:表示某条日志的时间戳,单位为秒;一般选择
之后就可以选择相应的算法功能进行异常检测。
4.2.2 配置模型
模型参数配置如上图所示,所有的操作为可视化操作。大家输入好对应的选项,选择具体要使用的模型,便可以开启机器学习服务。
我们以流式图算法异常检测作为例子来发起机器学习服务。具体的数据形式
时间列是 __time__
,数据是每隔60s采集一个点,从 region - machine - index_name
唯一确定了一条指标时序(地区-机器-指标),其值是 value
。这里,如果大家知道所要巡检数据的上下界,可以直接填入,当数据超出边界时,会直接判断为异常;若大家不明确,这里可以不填。
我们选择 流式图算法异常检测
这个模型,这里有三个参数需要我们填写:时间粒度是60秒,算法检测间隔与时间粒度一致,即来一个点检测一个点。流式图算法异常检测采用Time2Graph算法,数值默认划分为5段。这里,分成多少段大家可以根据自己的巡检需求来进行设定,一般,分段越少,模型对异常越不敏感,报出的异常点就越少;分段越多反之。周期长度默认长度2880个点,即在60秒采集一个点的情况下,周期长度为48小时;大家如果知道数据明确的周期长度,可以更改。
其他模型的参数配置基本类似,以上,参数配置好后,我们便可以发起机器学习服务,对指标数据进行巡检。那么,我们如何看到巡检的结果呢,接下来我们将以SLS的Dashbord功能为例,帮助大家直观的看到模型巡检的结果。
4.3 Join结果,DashBoard可视化
当服务发起后,没过一个检测间隔,算法便会将结果写入到大家制定的存储目标下,如下面的例子:
结果的 __time__
与来源指标数据的 __time__
保持一致。写出结果中,包含了能指示一条时序的 entity
信息,数据来源的 meta
信息,以及模型判断的result
信息。 result
中包含了模型判断的是否异常的flag is_anomaly
,是以 score
大于一定阈值筛选出的异常点。
之后,通过 Join 指标数据的LogStore与结果输出的 LogStore,我们可以将异常结果打标到时序曲线中。首先我们开启结果输出的LogStore的索引:
SQL join 的案例如下:
- 过滤出某地区某机器的某指标异常检测结果(这里目标写入的LogStore为
ml-detector-res
)
* | select time, score, index_name, machine, region from
(select time, cast(score as double) as score, index_name, machine, region from(
(select __time__ as time,
json_extract_scalar(result, '$.score') as score,
json_extract_scalar(entity, '$.index_name') as index_name,
json_extract_scalar(entity, '$.machine') as machine,
json_extract_scalar(entity, '$.region') as region,
job_name from ml-detector-res)
HAVING score > 0.75) where region = 'aysls-pub-cn-beijing-k8s' and
machine = '192.168.***.***:***' and
index_name = 'mem_usage'
这里,0.75是一个异常分数阈值,代表着模型判断出的异常程度,大家可以自行设定
- 在原指标数据LogStore中过滤出对应的时序数据
SELECT __time__ - __time__ % 60 AS time, AVG(value) AS value
FROM log
GROUP BY time
注意,这里避免有重复数据,我们对时序数据按时间做一次聚合。这里数据的时间间隔是60s一个点,大家可以根据自己的数据格式自己定义。
- 有了异常结果打标与时序数据,我们可以通过join 将异常结果整合到时序中,从而帮助大家看到模型的判断。具体的案例如下:
region: "aysls-pub-cn-beijing-k8s" and
machine: "192.168.***.***:***" and index_name: "mem_usage" |
select time, value,
case when score is null then 0 else score end as score,
case when score is null then 0 else 1 end as label from
(select A.time, A.value, B.score, 1 as label from
((select __time__ - __time__ % 60 as time, avg(value) as value from log
group by time ) as A left join
(select time, cast(score as double) as score,
index_name, machine, region from
(select __time__ as time,
json_extract_scalar(result, '$.score') as score,
json_extract_scalar(entity, '$.index_name') as index_name,
json_extract_scalar(entity, '$.machine') as machine,
json_extract_scalar(entity, '$.region') as region,
job_name from ml-detector-res)
HAVING score > 0.75) where region = 'aysls-pub-cn-beijing-k8s' and
machine = '192.168.***.***:***' and
index_name = 'mem_usage') as B
on A.time = B.time)
) order by time limit 100000
执行以上SQL,可以得到如下表格:
点击线图,进行配置,就可以得到有异常标注的时序曲线:
选择X轴和Y轴,以Label作为信息配置散点列及散点大小:
之后我们就可以得到有模型异常标注的时序曲线了。
对于海量的机器,及其指标,我们可以在DashBoard中配置一些过滤器(Filter)以及交互行为,从而更方便的查看模型智能巡检的结果:
a. 选择SQL中要替换的内容,生成对应的变量
b. 通过 SQL 找出可选的实例,比如可选的集群、机器、指标等信息,配置交互行为
c. 配置过滤器,用户自动调节异常分数,实现用户自己所需要的不同敏感程度的异常检测
通过上述配置,我们最终可以得到针对k8s集群的智能巡检分析报表
4.4 配置告警,实时巡检
用户在得到巡检报告报表之后,可以查看模型输出的异常检测结果。用户可以根据自己的告警需求,设置告警阈值,进而得到智能化的告警通知。具体的告警配置请见:https://help.aliyun.com/document_detail/98379.html?spm=5176.2020520112.0.0.e5e034c0Hizt6q
联系我们
纠错或者帮助文档以及最佳实践贡献,请联系:笃林
问题咨询请加钉钉群: