数据预处理-链路统计-数据写入 redis|学习笔记

简介: 快速学习数据预处理-链路统计-数据写入 redis

开发者学堂课程【大数据实战项目:反爬虫系统(Lua+Spark+Redis+Hadoop框架搭建):数据预处理-链路统计-数据写入redis】学习笔记与课程紧密联系,让用户快速学习知识

课程地址https://developer.aliyun.com/learning/course/670/detail/11634


数据预处理-链路统计-数据写入 redis

 

内容介绍:

一、数据写入 redis 的思路

二、数据写入 redis 的流程

 

每个服务器本批次数据访问了多少次serve_p n,与当前活跃连接数的计算actveUserNumber已经讲解完毕了,时间戳在数据写入的过程写入即可。接下来就是将计算出来的两个结果写readies

 

一、数据写入 redis 的思路

image.png

在两个数据不为空的前提下,将两个数据转换成两个小的map

封装最终要写入 redis 的数据(将两个小的 MAP 封装成个大的 MAP)

在配置文件中读取出数据 key 的前缀,+时间戳(redis 中对数据的 key)

在配置文件中读取出数据的有效存储时间(数据在 redis 里面存储多长时间)

将数据写入 redis

 

二、数据写入 redis 的流程

//1.在两个数据不为空的前提下,将两个数据转换成两个小的map

if (!serverCount. isEmpty() & !activeUserCount . isEmpty()){

//将两个数据转换成两个小的map

val serverCountMap=serverCount .collec tAsMap()

val activeuserCountMap=activeUserCount. collectAsMap( )

//2.封装最终要写入 redis 的数据(将两个小的MAP封装成一个大的 MAP)

//serversCountMap;与前端 工程师约定好

//activeNumMap; 与前端 工程师约定好

val Maps=Map(

"serversCountMap" - >serverCountMap,

"activeNumMap" - >activeuserCountMap

将 redis 的数据同步到 mysql 里面,web 是微博前端工程师去进行的,activeUserNumber 也是在 redis 里面读出来的,也是需要前端工程师实现的,按照什么样的格式写进去,前端工程师就按照什么样的格式读出来,所以需要和前端的工程师进行一个约定,

步骤:

webProject->java->quartz->BackupDataQuartz

/**

*每隔两个小时定时获取 redis 上:的链路数据,存到 mysql 对应的表中(datacollect),

*然后删掉 redis 上:已经备份到 mysql 的数据。

*

*/

//3.在配置文件中读取出数据key的前缀,+时间戳(redis 中对数据的key)

根据#监控数据-健标识(分别是数据处理监控,查询监控,预订监控)

Cjuster.key . monitor . dataProcess = CSANTI_ MONITOR_ DP

Cluster.key. Monitor.linkrocess = CSANTI_MONITOR_LP

Cluster.key.monitor . query = CSANTI_MONITOR_QUERY

Cluster.key .monitor .book = CSANTI_ MONITOR_ BOOK

#监控数据有效期-单位秒

Cluster.exptime .monitor = 86400

使用 PropertiesUtil 的 getStringByKey 进行配置文件的读写

val key=Propertiesutil . getStringByKey( key = " cluster . key. monitor .linkProcess" , propName = "jedisConfig . properties" )+System.currentTimeMillis().to Spring

把时间戳加在 Key 上面

//4.在配置文件中读取出数据的有效存储时间

val t ime-PropertiesUtil . getStringByKey( key =“cluster . exptime . monitor" , propName = "jedisConfig. properties").toInt

//5.将数据写入 redis

val redis=JedisConnectionUtil . getJedisCluster

redis. setex(key,time,Json(DefaultFormats) .write(Maps))

相关文章
|
7月前
|
缓存 NoSQL 关系型数据库
美团面试:MySQL有1000w数据,redis只存20w的数据,如何做 缓存 设计?
美团面试:MySQL有1000w数据,redis只存20w的数据,如何做 缓存 设计?
美团面试:MySQL有1000w数据,redis只存20w的数据,如何做 缓存 设计?
|
2月前
|
NoSQL 算法 Redis
【Docker】(3)学习Docker中 镜像与容器数据卷、映射关系!手把手带你安装 MySql主从同步 和 Redis三主三从集群!并且进行主从切换与扩容操作,还有分析 哈希分区 等知识点!
Union文件系统(UnionFS)是一种**分层、轻量级并且高性能的文件系统**,它支持对文件系统的修改作为一次提交来一层层的叠加,同时可以将不同目录挂载到同一个虚拟文件系统下(unite several directories into a single virtual filesystem) Union 文件系统是 Docker 镜像的基础。 镜像可以通过分层来进行继承,基于基础镜像(没有父镜像),可以制作各种具体的应用镜像。
504 5
|
7月前
|
数据采集 存储 NoSQL
基于Scrapy-Redis的分布式景点数据爬取与热力图生成
基于Scrapy-Redis的分布式景点数据爬取与热力图生成
398 67
|
6月前
|
NoSQL Linux Redis
每天百万访问也不怕,Redis帮你搞定UV统计
本文介绍了使用Redis实现高性能UV统计系统的方法。Redis凭借其内存数据库特性,支持毫秒级响应和自动去重,非常适合高并发场景下的访客统计。核心思路是利用Redis的Set数据结构作为"每日签到墙",通过记录用户访问ID实现自动去重,并设置24小时过期时间。文章提供了Python代码示例,展示如何记录用户访问和获取当日UV统计数据,还可扩展实现多页面UV统计。相比传统数据库方案,Redis方案更加轻量高效,是中小型网站实现流量统计的理想选择。
530 0
|
6月前
|
存储 缓存 NoSQL
告别数据僵尸!Redis实现自动清理过期键值对
在数据激增的时代,Redis如同内存管理的智能管家,支持键值对的自动过期功能,实现“数据保鲜”。通过`EXPIRE`设定生命倒计时、`TTL`查询剩余时间,结合惰性删除与定期清理策略,Redis高效维护内存秩序。本文以Python实战演示其过期机制,并提供最佳实践指南,助你掌握数据生命周期管理的艺术,让数据优雅退场。
423 0
|
9月前
|
存储 NoSQL 算法
Redis分片集群中数据是怎么存储和读取的 ?
Redis集群采用的算法是哈希槽分区算法。Redis集群中有16384个哈希槽(槽的范围是 0 -16383,哈希槽),将不同的哈希槽分布在不同的Redis节点上面进行管理,也就是说每个Redis节点只负责一部分的哈希槽。在对数据进行操作的时候,集群会对使用CRC16算法对key进行计算并对16384取模(slot = CRC16(key)%16383),得到的结果就是 Key-Value 所放入的槽,通过这个值,去找到对应的槽所对应的Redis节点,然后直接到这个对应的节点上进行存取操作
|
9月前
|
缓存 NoSQL 关系型数据库
Redis和Mysql如何保证数据⼀致?
1. 先更新Mysql,再更新Redis,如果更新Redis失败,可能仍然不⼀致 2. 先删除Redis缓存数据,再更新Mysql,再次查询的时候在将数据添加到缓存中 这种⽅案能解决1 ⽅案的问题,但是在⾼并发下性能较低,⽽且仍然会出现数据不⼀致的问题,⽐如线程1删除了 Redis缓存数据,正在更新Mysql,此时另外⼀个查询再查询,那么就会把Mysql中⽼数据⼜查到 Redis中 1. 使用MQ异步同步, 保证数据的最终一致性 我们项目中会根据业务情况 , 使用不同的方案来解决Redis和Mysql的一致性问题 : 1. 对于一些一致性要求不高的场景 , 不做处理例如 : 用户行为数据 ,
|
9月前
|
NoSQL Redis
Redis的数据淘汰策略有哪些 ?
Redis 提供 8 种数据淘汰策略: 淘汰易失数据(具有过期时间的数据) 1. volatile-lru(least recently used):从已设置过期时间的数据集(server.db[i].expires)中挑选最近最少使用的数据淘汰 2. volatile-lfu(least frequently used):从已设置过期时间的数据集(server.db[i].expires)中挑选最不经常使用的数据淘汰 3. volatile-ttl:从已设置过期时间的数据集(server.db[i].expires)中挑选将要过期的数据淘汰 4. volatile-random:从已设置过期
|
9月前
|
NoSQL Redis
Redis的数据持久化策略有哪些 ?
Redis 提供了两种方式,实现数据的持久化到硬盘。 1. RDB 持久化(全量),是指在指定的时间间隔内将内存中的数据集快照写入磁盘。 2. AOF持久化(增量),以日志的形式记录服务器所处理的每一个写、删除操作 RDB和AOF一起使用, 在Redis4.0版本支持混合持久化方式 ( 设置 aof-use-rdb-preamble yes )
|
9月前
|
存储 NoSQL Redis
Redis的数据过期策略有哪些 ?
1. 惰性删除 :只会在取出 key 的时候才对数据进行过期检查。这样对 CPU 最友好,但是可能会造成太多过期 key 没有被删除。数据到达过期时间,不做处理。等下次访问该数据时,我们需要判断 a. 如果未过期,返回数据 b. 发现已过期,删除,返回nil 2. 定期删除 : 每隔一段时间抽取一批 key 执行删除过期 key 操作。并且,Redis 底层会通过限制删除操作执行的时长和频率来减少删除操作对 CPU 时间的影响。默认情况下 Redis 定期检查的频率是每秒扫描 10 次,用于定期清除过期键。当然此值还可以通过配置文件进行设置,在 redis.conf 中修改配置“hz”