开发者社区 > 大数据与机器学习 > 实时计算 Flink > 正文

运维领域的实时数据接入和计算是怎样进行的?

运维领域的实时数据接入和计算是怎样进行的?

展开
收起
Medusa 2021-10-27 12:38:41 574 0
1 条回答
写回答
取消 提交回答
  • 实时数据接入和计算层的运行过程如下:对于 DataHub/Kafka 中的实时指标 Topic 中的服务数据,由 Flink 的服务指标计算任务消费后经过计算存储到 HBase/OTS 的指标表中;同时对于 DataHub/Kafka 中的实时指标 Topic中的数据按照分钟级、小时级、天级依次进行汇聚后返回到 DataHub/Kafka 中对应的分钟级 Topic、小时级Topic、天级 Topic 中,最后将各个 Topic 存储到 ES 对应的 Index 中,供上层数据展示检索查询使用;同时部分数据还根据业务需要归档到 EMR 离线计算集群或者 MaxCompute 之中,进行离线深度分析、数据备份提供数据来源。

    资料来源:电子书《阿里云实时计算 Flink 版解决方案白皮书-2021版》,下载链接:https://developer.aliyun.com/topic/download?id=7968

    2021-10-27 14:32:41
    赞同 展开评论 打赏

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

相关电子书

更多
企业运维之云原生和Kubernetes 实战 立即下载
可视化架构运维实践 立即下载
2021云上架构与运维峰会演讲合集 立即下载