kibana日志成图

本文涉及的产品
检索分析服务 Elasticsearch 版,2核4GB开发者规格 1个月
日志服务 SLS,月写入数据量 50GB 1个月
简介: kibana日志成图

前言


既然已经搭了es和kibana, 那肯定要做一下kibana的图表, 看日志超级方便的, 首先写个脚本生成一点测试数据


生成测试数据


"""
@author xiaofei
@date   2019-05-20
@desc   百度云es添加数据
"""
from elasticsearch import Elasticsearch
from elasticsearch import helpers
import random
import json
host = 'IP:9200'
es_conn = Elasticsearch(hosts=host, maxsize=25)
# 操作索引  请不要在意我的命名...
index_name = "pics_a"
type_name = "pic"
online_alias = "pics"
# mapping
doc_mapping = {
    "properties": {
        "code": {"type": "long"},
        "timeout": {"type": "long"},
        "timeline": {"type": "float"},
        "url": {"type": "keyword"},
        "ctime": {"type": "date"}
    }
}
# # 删除索引
# res = es_conn.indices.delete(index=index_name)
# print(res)
# # 创建库
# es_conn.indices.create(index=index_name, ignore=400)
# es_conn.indices.put_mapping(index=index_name, doc_type=type_name, body=doc_mapping)
# es_conn.indices.put_alias(index_name, online_alias)
code = [200, 404, 302, 500]
timeline = [1.1, 0.4, 0.1, 0.02, 0.29, 3, 0.5, 1.2]
url = ["Add", "list", "update", "del"]
date = ["2018-01-01", "2018-01-02", "2018-01-03", "2018-01-04"]
data = []
for x in range(1000):
    dat = {
        "code": random.choice(code),
        "timeline": random.choice(timeline),
        "url": random.choice(url),
        "ctime": random.choice(date)
    }
    dat["timeout"] = 1 if dat['timeline'] > 1 else 0
    action = {"_index": index_name, "_type": type_name, "_source": dat}
    data.append(action)
helpers.bulk(es_conn, data)
print("插入成功")

开始图表


应该都能看出来我的测试数据是什么, 就是api请求统计, 首先来画一个每天请求状态码分布图


首先添加一个图表

20190520161538278.png


选择折线图

20190520161625265.png


选择需要画图的索引

2019052016164834.png

x轴用ctime添加日期维度, 点击红圈生成图像

20190520161751926.png


再次添加x轴聚合统计x轴

20190520161941249.png

ok, 这就是成品了


20190520162207742.png

点击保存写上标题就成功了


20190520162349607.png


要是感觉不够细致, 还可以在加一层, 每个路由的状态码统计

20190520163431307.png

成品图

20190520163455545.png


颜色什么的自己都可以随便改变, 这是随机的测试数据, 正常的肯定不能是这种花里胡哨的曲线


ok, 基础玩法就这样了, 更多玩法自己挖掘

相关实践学习
日志服务之使用Nginx模式采集日志
本文介绍如何通过日志服务控制台创建Nginx模式的Logtail配置快速采集Nginx日志并进行多维度分析。
目录
相关文章
|
存储 NoSQL Redis
容器部署日志分析平台ELK7.10.1(Elasisearch+Filebeat+Redis+Logstash+Kibana)
容器部署日志分析平台ELK7.10.1(Elasisearch+Filebeat+Redis+Logstash+Kibana)
528 0
|
6天前
|
存储 监控 安全
|
5天前
|
机器学习/深度学习 运维 监控
开源日志分析Kibana
【10月更文挑战第22天】
13 3
|
6月前
|
存储 监控 数据可视化
无需重新学习,使用 Kibana 查询/可视化 SLS 数据
本文演示了使用 Kibana 连接 SLS ES 兼容接口进行查询和分析的方法。
66891 19
|
3月前
|
消息中间件 监控 Kafka
Filebeat+Kafka+Logstash+Elasticsearch+Kibana 构建日志分析系统
【8月更文挑战第13天】Filebeat+Kafka+Logstash+Elasticsearch+Kibana 构建日志分析系统
188 3
|
6月前
|
监控 应用服务中间件 nginx
使用 Docker Compose V2 快速搭建日志分析平台 ELK (Elasticsearch、Logstash 和 Kibana)
ELK的架构有多种,本篇分享使用的架构如图所示: Beats(Filebeat) -> -> Elasticsearch -> Kibana,目前生产环境一天几千万的日志,内存占用大概 10G
358 4
|
6月前
|
存储 弹性计算 Linux
Kibana+云上ES访问SLS的操作文档
本文介绍了如何用Kibana+云上ES访问SLS的方案
420 2
Kibana+云上ES访问SLS的操作文档
|
6月前
|
存储 监控 数据可视化
【SLS开源兼容系列】使用Kibana访问SLS
现在通过SLS的ES兼容能力,可以很方便地实现用Kibana来查询和可视化SLS的数据。对于从ES迁移到SLS的用户可以继续保留原来的Kibana使用习惯。下面来演示如何通过Kibana来访问SLS
186 0
|
消息中间件 Java Kafka
filebeat+kafka+logstash+elasticsearch+kibana实现日志收集解决方案
filebeat+kafka+logstash+elasticsearch+kibana实现日志收集解决方案
188 0
|
Java 应用服务中间件 nginx
1分钟系列-在 Kibana 安装和使用 Nginx 的日志仪表盘
1分钟系列-在 Kibana 安装和使用 Nginx 的日志仪表盘