网站流量日志分析--数据可视化--动态加载数据 -- mybatis 逆向工程 | 学习笔记

简介: 快速学习网站流量日志分析--数据可视化--动态加载数据 -- mybatis 逆向工程

开发者学堂课程【大数据分析之企业级网站流量运营分析系统开发实战(第五阶段):网站流量日志分析--数据可视化--动态加载数据 -- mybatis 逆向工程】学习笔记,与课程紧密联系,让用户快速学习知识。

课程地址:https://developer.aliyun.com/learning/course/697/detail/12259


网站流量日志分析--数据可视化--动态加载数据 -- mybatis 逆向工程

内容介绍

一、动态加载数据代码的具体实现

二、mybatis 逆向工程

三、如何生成 javabean ,mapper ,sql

四、总步骤

 

一、动态加载数据代码的具体实现

动态加载数据代码的具体实现,按照开发习惯是从 dao 层往上进行开发。

1、进行持久层即跟数据库交互层的开发。

因为使用的是 mybatis ,需要写 javabean , mapper , sql 文件。

2、分析业务

其中没有过多复杂的操作,全是单表单步的查询,这种需求可以使用逆向工程这个工具来简便地完成。可以根据数据库中的表字段类型等,自动生成对应的 javabean, mapper , sql 文件。

其中提供了一个叫做 example 的类用于查询汇总。其中复杂的 cercol 需要自己运行。

 

二、mybatis 逆向工程

1、 mybatis 逆向工程介绍

它可以根据对应的数据库表逆向生成与之对应的 javabean ,mapper , sql。

最重要的是提供了一个所谓的 example 的类,该类用于条件的封装,满足于 sql 的增删改查操作。      

2、使用情况

当业务简单,不涉及多表操作时,可以直接使用逆向工程,使得 dao 层代码量降为零。

 

三、如何生成 javabean ,mapper ,sql

如何用逆向工程生成 javabean, mapper, sql。

1、打开参考资料,打开 generatorSqlmapCustom 文件夹。

2、打开 idea,重新创建一个新的工程,点击 file--new--project,直接选择 Maven 即可。

3、点击 next, groupid 填写 cn.itcast.cloud, artifactID 填写 example-mybatis, version根据业务需求填写。

4、点击 next, project name 与 artifactID 保持一致。

5、打开一个新的窗口来进行逆向工程的开发。

(1)打开 pom.xml 文件,查看版本号是否与当前版本保持一致,从 <properties> 处开始复制。

最重要的是其中提供了一个逆向工程的插件

mybatis-generator-maven-plugin ,直接双击即可逆向生成。

(2)将其复制到 example-mybatis 中完成切换,点击小弹窗中的 import changes ,联网之后就会自动加载相应的价包,可以点击 ecternal libraries 进行验证。

6、有了价包之后还需要一些类的配置,点击 src, main,java ,打开 generatorSqlmap.java,可以建立相关的包,复制并放在 java 路径下。还有一个配置文件 resources,复制其中的两个文件放在 resources 路径下。

 

四、总步骤

1、第一个配置文件 config,里面是通用的配置,例如连接 node-1,数据库就是 sqooddb,保持一致。这里有生成文件的保存位置,不同的生成文件保存到不同的位置,显得有规律。

2、第二个是逆向生成的类,代码都是官网提供的,作用是加载配置文件,然后进行相关的操作。

3、第三个配置文件是 generatorconfia.xml ,这里面指定了逆向生成哪些东西,都有哪些选项,里面的注释非常明确。

其中需要注意一点,官网代码默认会生成 example 类,但这里不会默认生成,这时需要把 false 全部改为 true,或是将这些代码全部删除。

4、最后运行逆向工程,双击 maven project,下面有一个 plugins,打开其中的mybatis-generator ,

再双击 mybatis-generator:generate,会自动联网进行生成。完成以上步骤之后,java路径下会多一些东西。

5、数据库的表叫做 t_avgpv_num,当中有三个字段。

(1)其中生成了一个叫做 tavgpvnum 的对象,里面有 id,日期, avgpvnum,而且有生成的 get 方法,非常方便。

(2) mapper 文件,里面有相关的查找、统计等等。

(3)文件已经生成完毕,可以用 Example 来进行增删查找。

这就是官网提供的方便工具,叫做 mybatis 的逆向工程,当想要进行数据报表之类的简单操作的时候,不需要去后台写 dao 层,直接用逆向工程便可以完成。

相关实践学习
【涂鸦即艺术】基于云应用开发平台CAP部署AI实时生图绘板
【涂鸦即艺术】基于云应用开发平台CAP部署AI实时生图绘板
相关文章
|
3月前
|
SQL 人工智能 监控
SLS Copilot 实践:基于 SLS 灵活构建 LLM 应用的数据基础设施
本文将分享我们在构建 SLS SQL Copilot 过程中的工程实践,展示如何基于阿里云 SLS 打造一套完整的 LLM 应用数据基础设施。
774 60
|
3月前
|
数据采集 运维 监控
不重启、不重写、不停机:SLS 软删除如何实现真正的“无感数据急救”?
SLS 全新推出的「软删除」功能,以接近索引查询的性能,解决了数据应急删除与脏数据治理的痛点。2 分钟掌握这一数据管理神器。
253 30
|
4月前
|
存储 缓存 Apache
StarRocks+Paimon 落地阿里日志采集:万亿级实时数据秒级查询
A+流量分析平台是阿里集团统一的全域流量数据分析平台,致力于通过埋点、采集、计算构建流量数据闭环,助力业务提升流量转化。面对万亿级日志数据带来的写入与查询挑战,平台采用Flink+Paimon+StarRocks技术方案,实现高吞吐写入与秒级查询,优化存储成本与扩展性,提升日志分析效率。
553 1
日志服务数据加工最佳实践: 加工多层数组对象嵌套的复杂JSON
许多程序的数据结构是一个复杂的包括多层数组嵌套的对象, 本篇介绍使用日志服务数据加工处理多层数组对象嵌套的复杂JSON.
1546 0
|
XML 安全 Java
【日志框架整合】Slf4j、Log4j、Log4j2、Logback配置模板
本文介绍了Java日志框架的基本概念和使用方法,重点讨论了SLF4J、Log4j、Logback和Log4j2之间的关系及其性能对比。SLF4J作为一个日志抽象层,允许开发者使用统一的日志接口,而Log4j、Logback和Log4j2则是具体的日志实现框架。Log4j2在性能上优于Logback,推荐在新项目中使用。文章还详细说明了如何在Spring Boot项目中配置Log4j2和Logback,以及如何使用Lombok简化日志记录。最后,提供了一些日志配置的最佳实践,包括滚动日志、统一日志格式和提高日志性能的方法。
3809 31
【日志框架整合】Slf4j、Log4j、Log4j2、Logback配置模板
|
7月前
|
监控 容灾 算法
阿里云 SLS 多云日志接入最佳实践:链路、成本与高可用性优化
本文探讨了如何高效、经济且可靠地将海外应用与基础设施日志统一采集至阿里云日志服务(SLS),解决全球化业务扩展中的关键挑战。重点介绍了高性能日志采集Agent(iLogtail/LoongCollector)在海外场景的应用,推荐使用LoongCollector以获得更优的稳定性和网络容错能力。同时分析了多种网络接入方案,包括公网直连、全球加速优化、阿里云内网及专线/CEN/VPN接入等,并提供了成本优化策略和多目标发送配置指导,帮助企业构建稳定、低成本、高可用的全球日志系统。
834 54
|
监控 安全 Apache
什么是Apache日志?为什么Apache日志分析很重要?
Apache是全球广泛使用的Web服务器软件,支持超过30%的活跃网站。它通过接收和处理HTTP请求,与后端服务器通信,返回响应并记录日志,确保网页请求的快速准确处理。Apache日志分为访问日志和错误日志,对提升用户体验、保障安全及优化性能至关重要。EventLog Analyzer等工具可有效管理和分析这些日志,增强Web服务的安全性和可靠性。
376 9
|
10月前
|
存储 SQL 关系型数据库
MySQL日志详解——日志分类、二进制日志bin log、回滚日志undo log、重做日志redo log
MySQL日志详解——日志分类、二进制日志bin log、回滚日志undo log、重做日志redo log、原理、写入过程;binlog与redolog区别、update语句的执行流程、两阶段提交、主从复制、三种日志的使用场景;查询日志、慢查询日志、错误日志等其他几类日志
835 35
MySQL日志详解——日志分类、二进制日志bin log、回滚日志undo log、重做日志redo log
|
10月前
|
存储 缓存 关系型数据库
图解MySQL【日志】——Redo Log
Redo Log(重做日志)是数据库中用于记录数据页修改的物理日志,确保事务的持久性和一致性。其主要作用包括崩溃恢复、提高性能和保证事务一致性。Redo Log 通过先写日志的方式,在内存中缓存修改操作,并在适当时候刷入磁盘,减少随机写入带来的性能损耗。WAL(Write-Ahead Logging)技术的核心思想是先将修改操作记录到日志文件中,再择机写入磁盘,从而实现高效且安全的数据持久化。Redo Log 的持久化过程涉及 Redo Log Buffer 和不同刷盘时机的控制参数(如 `innodb_flush_log_at_trx_commit`),以平衡性能与数据安全性。
489 5
图解MySQL【日志】——Redo Log