NBI大数据可视化_社区达人页

个人头像照片
NBI大数据可视化
已加入开发者社区1611

勋章 更多

个人头像照片
专家博主
专家博主
个人头像照片
星级博主
星级博主
个人头像照片
技术博主
技术博主
个人头像照片
初入江湖
初入江湖

成就

已发布80篇文章
1条评论
已回答0个问题
0条评论
已发布0个视频
github地址

我关注的人 更多

技术能力

兴趣领域
擅长领域
技术认证

暂时未有相关云产品技术能力~

NBI一站式自服务大数据可视化分析平台是一款自助式可视化分析大屏展示平台,可以通过平台零代码或低代码方式构建各类数据展示分析; NBI拥有几十种传统图形和新型大数据图形组件(如桑 基图, treemap、层级聚类图、旭日图、热力矩 阵、日历矩阵、gis等等)能让您轻松构建各类炫 酷的数据大屏。

暂无精选文章
暂无更多信息

2022年09月

  • 09.26 10:35:45
    发表了文章 2022-09-26 10:35:45

    (4)SparkSQL中如何定义UDF和使用UDF

    Spark SQL中用户自定义函数,用法和Spark SQL中的内置函数类似;是saprk SQL中内置函数无法满足要求,用户根据业务需求自定义的函数。 首先定义一个UDF函数:
  • 09.10 15:21:45
    发表了文章 2022-09-10 15:21:45

    (3)sparkstreaming从kafka接入实时数据流最终实现数据可视化展示

    1)我们通过kafka与各个业务系统的数据对接,将各系统中的数据实时接到kafka; 2)通过sparkstreaming接入kafka数据流,定义时间窗口和计算窗口大小,业务计算逻辑处理; 3)将结果数据写入到mysql; 4)通过可视化平台接入mysql数据库,这里使用的是NBI大数据可视化构建平台; 5)在平台上通过拖拽式构建各种数据应用,数据展示;
  • 09.05 15:30:54
    发表了文章 2022-09-05 15:30:54

    (2)sparkstreaming滚动窗口和滑动窗口演示

    一、滚动窗口(Tumbling Windows) 滚动窗口有固定的大小,是一种对数据进行均匀切片的划分方式。窗口之间没有重叠,也不会有间隔,是“首尾相接”的状态。滚动窗口可以基于时间定义,也可以基于数据个数定义;需要的参数只有一个,就是窗口的大小(window size)。

2022年08月

  • 08.31 12:07:57
    发表了文章 2022-08-31 12:07:57

    (1)sparkstreaming结合sparksql读取socket实时数据流

    Spark Streaming是构建在Spark Core的RDD基础之上的,与此同时Spark Streaming引入了一个新的概念:DStream(Discretized Stream,离散化数据流),表示连续不断的数据流。DStream抽象是Spark Streaming的流处理模型,在内部实现上,Spark Streaming会对输入数据按照时间间隔(如1秒)分段,每一段数据转换为Spark中的RDD,这些分段就是Dstream,并且对DStream的操作都最终转变为对相应的RDD的操作。 Spark SQL 是 Spark 用于结构化数据(structured data)处理的 Sp
  • 08.30 10:25:14
    发表了文章 2022-08-30 10:25:14

    (6)Flink CEP SQL模拟账号短时间内异地登录风控预警

    本篇文章我们来模拟一个真实的风险识别场景,模拟XX平台上可能出现盗号行为。 技术实现方案: (1)通过将xxx平台用户登录时的登录日志发送到kafka(本文代码演示用的socket); (2)Flink CEP SQL规则引擎中定义好风控识别规则,接入kafka数据源,比如一个账号在5分钟内,在多个不同地区有登录行为,那我们认为该账号被盗; (3)Flink CEP将识别到的风险数据可以进行下发,为数据应用层提供数据服务,如:风控系统,数据大屏,态势感知.....
  • 08.24 16:00:13
    发表了文章 2022-08-24 16:00:13

    (5)Flink CEP SQL四种匹配模式效果演示

    Flink CEP SQL中提供了四种匹配策略: (1)skip to next row 从匹配成功的事件序列中的第一个事件的下一个事件开始进行下一次匹配 (2)skip past last row 从匹配成功的事件序列中的最后一个事件的下一个事件开始进行下一次匹配 (3)skip to first pattern Item 从匹配成功的事件序列中第一个对应于patternItem的事件开始进行下一次匹配 (4)skip to last pattern Item 从匹配成功的事件序列中最后一个对应于patternItem的事件开始进行下一次匹配
  • 08.20 09:40:56
    发表了文章 2022-08-20 09:40:56

    (4)Flink CEP SQL贪婪词量演示

    基于上一篇(3)Flink CEP SQL宽松近邻代码演示的延展,在上一篇中我们使用贪婪词量 +(至少匹配1行或多行),本篇将演示多种贪婪词量的效果: (1)使用贪婪词量 *(匹配0行或多行)
  • 08.15 10:46:07
    发表了文章 2022-08-15 10:46:07

    (3)Flink CEP SQL宽松近邻代码演示

    Flink CEP SQL宽松近邻代码演示,大数据风控系统规则引擎
  • 08.13 12:28:07
    发表了文章 2022-08-13 12:28:07

    (2)Flink CEP SQL严格近邻代码演示-风控系统构建利器

    Flink CEP SQL严格近邻代码演示-风控系统构建利器
  • 08.12 11:38:47
    发表了文章 2022-08-12 11:38:47

    (1)Flink CEP复杂事件处理引擎介绍

    复杂事件处理(CEP)既是把不同的数据看做不同的事件,并且通过分析事件之间的关系建立起一套事件关系序列库。利用过滤,聚合,关联性,依赖,层次等技术,最终实现由简单关系产生高级事件关系。 复杂事件主要应用场景:主要用于信用卡欺诈检测、用户风险检测、设备故障检测、攻击行为分析等领域。 Flink CEP能够利用的场景较多,在实际业务场景中也有了广泛的使用案例与经验积累。比如
  • 08.08 11:42:05
    发表了文章 2022-08-08 11:42:05

    (8)FlinkSQL自定义UDF

    Flink提供了自定义函数的基础能力,在需要满足特殊业务场景需求时,根据自身需要按需定制自己的UDF 下面将简单演示一个UDF的定义和UDF的使用过程:
  • 08.08 11:40:34
    发表了文章 2022-08-08 11:40:34

    (7)FlinkSQL将kafka数据写入到mysql方式二

    FlinkSQL将kafka数据写入到mysql方式二
  • 08.08 11:39:29
    发表了文章 2022-08-08 11:39:29

    (6)FlinkSQL将kafka数据写入到mysql方式一

    (6)FlinkSQL将kafka数据写入到mysql方式一
  • 08.08 11:37:01
    发表了文章 2022-08-08 11:37:01

    (5)FlinkSQL将socket数据写入到mysql方式二

    (5)FlinkSQL将socket数据写入到mysql方式二
  • 08.08 11:35:59
    发表了文章 2022-08-08 11:35:59

    (4)FlinkSQL将socket数据写入到mysql方式一

    (4)FlinkSQL将socket数据写入到mysql方式一。本章节主要演示从socket接收数据,通过滚动窗口每30秒运算一次窗口数据,然后将结果写入Mysql数据库
  • 08.08 11:33:08
    发表了文章 2022-08-08 11:33:08

    (3)FlinkSQL滑动窗口demo演示

    滑动窗口(Sliding Windows)与滚动窗口类似,滑动窗口的大小也是固定的。区别在于,窗口之间并不是首尾相接的,而是可以“错开”一定的位置。如果看作一个窗口的运动,那么就像是向前小步“滑动”一样。定义滑动窗口的参数有两个:除去窗口大小(window size)之外,还有一个滑动步长(window slide),代表窗口计算的频率。
  • 08.08 11:30:27
    发表了文章 2022-08-08 11:30:27

    (2)FlinkSQL滚动窗口demo演示

    滚动窗口(Tumbling Windows) 滚动窗口有固定的大小,是一种对数据进行均匀切片的划分方式。窗口之间没有重叠,也不会有间隔,是“首尾相接”的状态。滚动窗口可以基于时间定义,也可以基于数据个数定义;需要的参数只有一个,就是窗口的大小(window size)。
  • 08.08 11:27:48
    发表了文章 2022-08-08 11:27:48

    (1)通过FlinkSQL将数据写入mysql demo

    (1)通过FlinkSQL将数据写入mysql demo。FlinkSQL的出现,极大程度上降低了Flink的编程门槛,更加容易理解和掌握使用。今天将自己的笔记分享出来,希望能帮助在这方面有需要的朋友。 (1)首先引入POM依赖:

2022年06月

  • 06.30 18:04:54
    发表了文章 2022-06-30 18:04:54

    NBI可视化平台快速入门教程(五)编辑器功能操作介绍

    NBI可视化平台快速入门教程(五)编辑器功能操作介绍 (1)在NBI可视化平台中设置页面大小、背景颜色等 (2)目前系统内置三套皮肤可供选择使用 (3)页面背景支持纯色背景、渐变背景、图片背景
  • 06.17 13:59:39
    发表了文章 2022-06-17 13:59:39

    NBI可视化平台快速入门教程(四)数据可视化编辑器介绍

    NBI可视化平台快速入门教程(四)数据可视化编辑器介绍 NBI大数据可视化分析平台作为新一代自助式、探索式分析工具,在产品设计理念上始终从用户的角度出发,一直围绕简单、易用,强调交互分析为目的的新型产品。我们将数据分析的各环节(数据准备、自服务数据建模、探索式分析、权限管控)融入到系统当中,让企业有序的、安全的管理数据和分析数据。

2022年05月

  • 05.25 17:01:10
    发表了文章 2022-05-25 17:01:10

    NBI可视化平台快速入门教程(三)带参工作表创建

    NBI可视化平台快速入门教程(三)带参工作表创建 1.如何创建带参工作表 参数格式 $参数名称$,比如 2.测试验证带参工作表是否正确 3.输入测试参数 4.多参数演示,多参数查询无非就是按照参数格式标准多接入几个查询条件,如 5.测试验证 6.测试无误后,保存即可。 工作表的作用在于给NBI可视化构建模块提供数据支撑,为图形组件提供数据。
  • 05.25 16:57:48
    发表了文章 2022-05-25 16:57:48

    NBI可视化平台快速入门教程(二)工作表创建

    NBI可视化平台快速入门教程(二)工作表创建 1.接着上篇文章,在创建的数据源节点名称上右键,选择“基于(基于 SQL 语句创建工作表)”:
  • 05.25 16:55:23
    发表了文章 2022-05-25 16:55:23

    NBI可视化平台快速入门教程(一)数据准备

    NBI可视化平台快速入门教程(一)数据准备
  • 05.25 16:50:12
    发表了文章 2022-05-25 16:50:12

    springcloud Ribbon使用笔记

    ribbon 什么? Spring Cloud Ribbon是基于Netix Ribbon实现的一套客户端负载均衡的工具. 简单的说, Ribbon是Netilx发布的开源项目,主要功能是提供客户端的软件负载均衡算法,将NetFlx的中间层服务连接在一起. Ribbon的客户端组件提供一系列完整的配置项如:连接超时、重试等等,简单的说,就是在配置文件中列出LoadBalancer (简称LB:负载均衡)后面所有的机器, Ribbon会自动的帮助你基于某种规则(如简单轮询,随机连接等等)去连接这些机器,我们也很容易使用Ribbon实现自定义的负载均衡算法!
  • 05.25 16:46:53
    发表了文章 2022-05-25 16:46:53

    (3)微服务之间项目调用

    (3)微服务之间项目调用
  • 05.25 16:45:26
    发表了文章 2022-05-25 16:45:26

    集成Eureka client端笔记

    集成Eureka client端笔记
  • 05.25 16:43:06
    发表了文章 2022-05-25 16:43:06

    集成Eureka Server端笔记

    集成Eureka Server端笔记
  • 05.25 16:38:31
    发表了文章 2022-05-25 16:38:31

    对数据可视化工具应当具备的核心能力和价值的几点思考

    可能大家都听说过这样一句话"字不如表、表不如图",其实背后所表达出来的意思是对于复杂难懂且体量庞大的数据而言,图表的信息量要大得多,这也是数据可视化的核心价值所在。
  • 05.25 16:34:06
    发表了文章 2022-05-25 16:34:06

    一款具备零代码和低代码能力的大数据可视化分析平台

    什么是低代码平台: “低代码开发”旨在开发人员可以通过编写少量代码就可以快速生成应用程序的一种方法。 使用低代码开发平台类似于使用IDE,因为它包含了一套可以供开发人员直接使用的功能,和一套供开发人员使用的工具。然而,它实际上能提供的远远超过一个传统的IDE。简单来说,低代码开发就是将已有代码的可视化模块拖放到工作流中以创建应用程序的过程。由于它可以完全取代传统的手工编码应用程序的开发方法,技术娴熟的开发人员可以更智能、更高效地工作,而不会被重复的编码束缚住。相反,他们可以将精力集中于创建应用程序的10%部分,并使其具有与众不同的功能。与“低代码”开发相对的另一种方式是编写数千行复杂的代码和语
  • 05.25 16:30:23
    发表了文章 2022-05-25 16:30:23

    通过Flink+NBI可视化构建实时分析系统

    Flink: Apache Flink是一个计算框架和分布式处理引擎,用于对无界和有界数据流进行有状态计算。其针对数据流的分布式计算提供了数据分布、数据通信以及容错机制等功能。 Flink主要特点: 1、高吞吐、低延迟、纯流式架构; 2、支持对乱序事件的处理; 3、有状态、提供exactly-once计算; 4、高度灵活的窗口机制; 5、失败恢复、故障转移、水平扩展; 6、批处理、流处理统一的API
  • 05.25 16:13:25
    发表了文章 2022-05-25 16:13:25

    国内首款基于.NET Core平台的大数据可视化分析工具平台

    NBI一站式自服务大数据可视化分析平台是一款基于.NET Core开发的自助式可视化分析大屏展示平台,可以通过平台零代码或低代码方式构建各类数据展示分析; NBI一站式自服务大数据可视化分析平台提供了多种灵活的部署方式,支持安装包模式安装、手动安装、docker镜像安装 NBI一站式自服务大数据可视化分析平台跨平台性:支持部署在Windows、Linux、MacOS等操作系统上运行
  • 05.25 16:09:54
    发表了文章 2022-05-25 16:09:54

    连接、数据、智能实现企业数字化转型的三大核心能力

    企业数字化的主要特征包括三个方面: 第一是连接,连接员工、连接客户、连接机器设备; 第二是数据,也就是连接之后实时产生的数据; 第三是智能,是数据驱动的智能应用。以阿里巴巴为例,首先,阿里巴巴通过天猫、高德地图、饿了么等业务前端,连接了众多消费者;然后,通过连接产生的实时数据,沉淀了大量的智能服务,例如千人千面的个性化推荐、商家的生意参谋等,以此来帮助企业做品牌推广、商品推荐、精准营销、运营分析等
  • 05.25 16:06:47
    发表了文章 2022-05-25 16:06:47

    (3)从dockerhub拉取NBI可视化产品镜像

    前两篇文章介绍了将docker镜像打包,镜像发布,那么今天为大家介绍完一个闭环操作,如何从dockerhua拉取镜像,运行镜像,下面将演示从ubuntu和centos系统上拉取和运行镜像操作: 操作流程: (1)拉取镜像 (2)运行镜像 (3)应用访问 ubuntu系统拉取镜像演示:
  • 05.25 16:03:03
    发表了文章 2022-05-25 16:03:03

    (2)将本地构建好的docker镜像发布到dockerhub

    各位读者你们好,上一篇文章介绍了如何将.NET Core项目构建成一个docker镜像,那么今天接下来我们介绍如何将本地docker项目镜像发布到dockerhub上,好了废话不多说,直接进入正题: (1)去注册dockerhub账号; (2)账号注册好之后,我们创建一个仓库,用于存放镜像
  • 05.25 15:58:31
    发表了文章 2022-05-25 15:58:31

    (1)将.NET Core编写的数据可视化项目打包成Docker镜像,实现容器化部署

    (1)将.NET Core编写的数据可视化项目打包成Docker镜像,实现容器化部署 第一步 环境准备,安装docker环境:
  • 05.25 15:53:44
    发表了文章 2022-05-25 15:53:44

    数据治理中的数据血缘关系是什么?用来解决什么问题

    前言: 数据血缘属于数据治理中的一个概念,是在数据溯源的过程中找到相关数据之间的联系,它是一个逻辑概念。 数据治理里经常提到的一个词就是血缘分析,血缘分析是保证数据融合的一个手段,通过血缘分析实现数据融合处理的可追溯。大数据数据血缘是指数据产生的链路,直白点说,就是我们这个数据是怎么来的,经过了哪些过程和阶段。
  • 05.25 15:51:18
    发表了文章 2022-05-25 15:51:18

    数据中台是什么,它能解决什么问题

    前言: 近几年来数据中台概念大火,市面上掀起了一波建业务中台、数据中台热潮,那么数据中台到底是什么?它的出现能解决什么问题呢?首先数据中台的概念最早由阿里提出,自从阿里提出了“大中台,小前台”概念之后,数据中台这个概念火了起来,不少企业,无论是互联网企业还是传统企业纷纷搭建起了自家的数据中台,究竟数据中台有什么魅力,能让企业如此重视?本文主要从数据中台是什么、怎么做数据中台和为什么要做数据中台三个方面对这个问题进行了分析。
  • 05.25 15:48:58
    发表了文章 2022-05-25 15:48:58

    没有好的数据可视化分析工具,如何做好数据洞察,如何助力企业数据化转型

    随着企业信息化建设程度不断加强,随之而来的企业经营数据呈爆发式增长,传统粗放 式的管理手段难以支撑现代化企业发展需要,越来越多的企业开始意识到数据的重要性,希 望通过大数据分析来驱动来实现企业智慧化运营,提升企业业务增长。 然而各行各业的企业在实践数据化运营的道路上面临着巨大的挑战,通过与大量企业进 行沟通,交流我们将企业面临的问题归纳整理为如下几点信息:
  • 05.25 15:45:47
    发表了文章 2022-05-25 15:45:47

    8个可靠的开源数据可视化工具-你的选择是?

    数据可视化在数据科学领域中发挥着重要的作用。在不清楚数据的情况下,要监视和调整数据以使其按照应有的方式执行并不容易。这就是数据可视化发挥作用的地方,它把收集到的数据放到一个可视的上下文中,使数据更容易找出模式、跟踪趋势等。 但是,这些都只在有可靠的数据可视化工具的前提下才能完成。在数据可视化工具方面,开源不容小觑。但是,人们往往混淆免费和开源。开源是关于获得源代码,它与免费工具没什么关系。 本文列举了一些您可以考虑使用的开源数据可视化工具。
  • 05.25 15:43:05
    发表了文章 2022-05-25 15:43:05

    数据可视化赋能大数据价值释放,助力大数据价值应用落地 echarts,d3.js

    今天,大数据已无所不在,并且正越来越广泛的被应用到金融、互联网、科学、电商、工业甚至渗透到我们生活的方方面面中,获取的渠道也越来越便利。 然而,很多公司企业只知道大数据的重要性,疯狂的存储搜集行业相关的大数据,生怕没有抓住大数据的风口导致自己的落后,但却不知道怎样利用这些数据指导自己的业务和项目方向。让大数据静静地躺在公司的数据库里,白白的浪费了大数据真正的价值,也失去了大数据的意义。 还有就是随着大数据时代的来临,信息每天都在以爆炸式的速度增长,其复杂性也越来越高;其次,随着越来越多数据可视化的需求产生,地图、3D物理结构等技术将会被更加广泛的使用。所以,当人类的认知能力越发受到传统可视
  • 05.25 15:41:16
    发表了文章 2022-05-25 15:41:16

    (五).NET Core中过滤器Filter的使用介绍

    知识点回顾: 前面几篇文章分别给大家介绍了 (1)Swagger的集成和用法; (2)JWT身份验证的集成和用法; (3)OOM框架AnutoMapper对象映射的用法; 今天给大家介绍过滤器Filter的基本使用: 过滤器有什么作用,在什么场景下适合用到它? 假设一个项目进展到快结束的时候,项目leader为了保证程序的稳定性和可监控和维护性要求将所有的方法加上日志,如果项目比较庞大,方法非常多,那岂不是得费很大得劲来完成这样一件事情。不过不用担心,咋们遇到的问题,伟大的语言设计者早已帮我们想好了解决办法过滤器,过滤器是一种AOP(面向切面编程)技术的体现,AOP具有松耦合,易
  • 05.25 15:40:05
    发表了文章 2022-05-25 15:40:05

    (四).NET Core中使用OOM框架,AutoMapper的使用介绍

    (一)什么是OOM: OOM顾名思义,Object-Object-Mapping实体间相互转换,AutoMapper其意义在于帮助你无需手动的转换简单而又麻烦的实体间关系。 (二)AutoMapper是什么: AutoMapper是基于对象到对象约定的映射工具,常用于(但并不仅限制于)把复杂的对象模型转为DTO,一般用于ViewModel模式和跨 服务范畴。 (三)在.NET Core项目中如何使用它: 1.通过Nuget安装AutoMapper到项目:Install-Package AutoMapper(一)什么是OOM: OOM顾名思义,Object-Object-Mappin
  • 05.25 15:38:58
    发表了文章 2022-05-25 15:38:58

    (三).NET Core WebAPI集成JWT,实现身份验证

    前两篇文章给大家介绍了在.NET Core中如何使用Swagger的文章,那今天给大家分享一下JWT 在做接口开发的同学可能都有感受,我的接口如何保护的问题,如果没有身份验证,那不是接口完全暴露在外面,任意使人调用,这显然不是我们想要的一种结果。当然做身份验证的方式有多种,今天给大家讲一种比较流行了,标准的身份验证JWT 什么是JWT?
  • 05.25 15:37:16
    发表了文章 2022-05-25 15:37:16

    (二)集成Swagger接口文档分组配置.net core

    (一)回顾: 上一篇为大家介绍了在.NET Core中如何集成Swagger的介绍,想想集成操作其实非常简单便捷,实质就三个步骤: (1)在项目中执行nuget命令,拉取Swagger包到项目:Install-package Swashbuckle.AspNetCore (2)在ConfigureServices方法中新增如下代码
  • 05.25 15:35:08
    发表了文章 2022-05-25 15:35:08

    (一).NET Core WebAPI集成Swagger做接口管理

    什么是Swagger? Swagger 是一个规范且完整的框架,用于生成、描述、调用和可视化 RESTful 风格的 Web 服务。 Swagger 的目标是对 REST API 定义一个标准且和语言无关的接口,可以让人和计算机拥有无须访问源码、文档或网络流量监测就可以发现和理解服务的能力。当通过 Swagger 进行正确定义,用户可以理解远程服务并使用最少实现逻辑与远程服务进行交互。与为底层编程所实现的接口类似,Swagger 消除了调用服务时可能会有的猜测。 Swagger 有什么优势? 支持 API 自动生成同步的在线文档:使用 Swagger 后可以直接通过代码生成文档,不再需
  • 05.25 15:25:19
    发表了文章 2022-05-25 15:25:19

    要使数据分析真正有价值和有洞察力,就需要高质量的可视化工具

    要使数据分析真正有价值和有洞察力,就需要高质量的可视化工具。市场上有很多产品,特点和价格各不相同,本文列出了一些广泛认可的工具。其实企业如何选择一个合适的可视化工具,并不是一件容易的事情,需要仔细的考虑。 Salesforce公司的一项调查显示:53%的员工要经常查看分析数据,却只是依靠手工操作。在大量的电子表格、图表和数据中滚动鼠标,就好比是大海捞针。数据可视化工具面向用户直观显示结果,帮助用户快速理解和分析数据。 高质量的可视化工具对于数据分析至关重要。数据可视化工具是一种应用软件,帮助用户以可视化、图形化的格式显示数据,呈现数据的完整轮廓。像饼状图、曲线图、热图、直方图、雷达/蜘蛛图只是
  • 05.25 15:22:35
    发表了文章 2022-05-25 15:22:35

    基于echarts组件制作数据可视化大屏

    什么是数据可视化: 数据可视化主要旨在借助于图形化手段,清晰有效地传达与沟通信息。在实际工作中,数据分析能够帮助管理者进行判断和决策,以便采取适当策略与行动。 数据可视化分析有什么作用: 1.现状分析 告诉你过去发生了什么,告诉你企业现阶段的整体运营情况,通过各个经营指标的完成情况来衡量企业的运营状态,以说明企业整体运营是更好了还是坏了,好的程度是如何,坏的程度又到哪里。 2.原因分析 告诉你某一现状为什么发生,经过第一阶段的现状分析,我们对企业的运营情况有了一个基本的了解,但是不知道运营情况具体好在哪里,差在哪里,是什么原因引起的。这时候我们就需要开展原因分析,以进一步确定业务变动的
  • 05.25 15:19:31
    发表了文章 2022-05-25 15:19:31

    基于分布式关系型数据库,实现轻松应对百亿级数据分析场景解决方案

    MyCat是什么? 从定义和分类来看,它是一个开源的分布式数据库系统,是一个实现了MySQL协议的服务器,前端用户可以把它看作是一个数据库代理,用MySQL客户端工具和命令行访问,而其后端可以用MySQL原生协议与多个MySQL服务器通信,也可以用JDBC协议与大多数主流数据库服务器通信,其核心功能是分表分库读写分离,即将一个大表水平分割为N个小表,存储在后端MySQL服务器里或者其他数据库里。也可以指定多个写库多个读库。 MyCat发展到目前的版本,已经不是一个单纯的MySQL代理了,它的后端可以支持MySQL、SQL Server、Oracle、DB2、PostgreSQL等主流数据库
  • 05.25 15:18:12
    发表了文章 2022-05-25 15:18:12

    能将可视化做到简单、易懂、高效、兼具美感就是好的数据可视化

    数据可视化都有一个共同的目的,那就是准确而高效、精简而全面地传递信息和知识。可视化能将不可见的数据现象转化为可见的图形符号,能将错综复杂、看起来没法解释和关联的数据,建立起联系和关联,发现规律和特征,获得更有商业价值的洞见和价值。 并且利用合适的图表直截了当且清晰而直观地表达出来,实现数据自我解释、让数据说话的目的。而人类右脑记忆图像的速度比左脑记忆抽象的文字快100万倍。因此,数据可视化能够加深和强化受众对于数据的理解和记忆。 另外图形表现数据,实际上比传统的统计分析法更加精确和有启发性。我们可以借助可视化的图表寻找数据规律、分析推理、预测未来趋势。
  • 05.25 15:14:01
    发表了文章 2022-05-25 15:14:01

    ElasticSearch群集搭建介绍,实现高可用

    ElasticSearch简介: ElasticSearch 是一个分布式、高扩展、高实时的搜索与数据分析引擎。它能很方便的使大量数据具有搜索、分析和探索的能力。充分利用ElasticSearch的水平伸缩性,能使数据在生产环境变得更有价值。ElasticSearch 的实现原理主要分为以下几个步骤,首先用户将数据提交到Elastic Search 数据库中,再通过分词控制器去将对应的语句分词,将其权重和分词结果一并存入数据,当用户搜索数据时候,再根据权重将结果排名,打分,再将返回结果呈现给用户。 ElasticSearch可以做什么: Elasticsearch可以用于搜索各种文档。它提
  • 发表了文章 2022-09-26

    (4)SparkSQL中如何定义UDF和使用UDF

  • 发表了文章 2022-09-10

    (3)sparkstreaming从kafka接入实时数据流最终实现数据可视化展示

  • 发表了文章 2022-09-05

    (2)sparkstreaming滚动窗口和滑动窗口演示

  • 发表了文章 2022-08-31

    (1)sparkstreaming结合sparksql读取socket实时数据流

  • 发表了文章 2022-08-30

    (6)Flink CEP SQL模拟账号短时间内异地登录风控预警

  • 发表了文章 2022-08-24

    (5)Flink CEP SQL四种匹配模式效果演示

  • 发表了文章 2022-08-20

    (4)Flink CEP SQL贪婪词量演示

  • 发表了文章 2022-08-15

    (3)Flink CEP SQL宽松近邻代码演示

  • 发表了文章 2022-08-13

    (2)Flink CEP SQL严格近邻代码演示-风控系统构建利器

  • 发表了文章 2022-08-12

    (1)Flink CEP复杂事件处理引擎介绍

  • 发表了文章 2022-08-08

    (8)FlinkSQL自定义UDF

  • 发表了文章 2022-08-08

    (7)FlinkSQL将kafka数据写入到mysql方式二

  • 发表了文章 2022-08-08

    (6)FlinkSQL将kafka数据写入到mysql方式一

  • 发表了文章 2022-08-08

    (5)FlinkSQL将socket数据写入到mysql方式二

  • 发表了文章 2022-08-08

    (4)FlinkSQL将socket数据写入到mysql方式一

  • 发表了文章 2022-08-08

    (3)FlinkSQL滑动窗口demo演示

  • 发表了文章 2022-08-08

    (2)FlinkSQL滚动窗口demo演示

  • 发表了文章 2022-08-08

    (1)通过FlinkSQL将数据写入mysql demo

  • 发表了文章 2022-06-30

    NBI可视化平台快速入门教程(五)编辑器功能操作介绍

  • 发表了文章 2022-06-17

    NBI可视化平台快速入门教程(四)数据可视化编辑器介绍

正在加载, 请稍后...
滑动查看更多
正在加载, 请稍后...
暂无更多信息
正在加载, 请稍后...
暂无更多信息