开发者社区 > 云原生 > 正文

日志数据删除时间问题

| mapedFileSizeCommitLog | 1024 * 1024 * 1024(1G) | commit log 的映射文件大小 |​ | deleteWhen | 04 | 在每天的什么时间删除已经超过文件保留时间的 commit log |​ | fileReserverdTime | 72 | 以小时计算的文件保留时间 |​

如上几个参数我都没有配置,按我理解应该使用的是默认配置,我通过RocketMQ控制台进行查询时甚至能查询到十几二十几天以后的message消息, 之前我尝试重启过rocketmq集群会造成重新消费所有消息的问题, 我通过手工排重进行处理了,现在就有个疑问了,如果每次重启都造成大量消息都重新消费而且历史消息一直没有清理过,重启会造成系统压力过大.

所有想问一下, 消息是在系统中保留多长时间?或者重启mq怎么才能避免重复消费?

原提问者GitHub用户jinyanhui2008

展开
收起
芬奇福贵 2023-05-26 15:52:37 82 0
1 条回答
写回答
取消 提交回答
  • mapedFileSizeCommitLog跟保留时间没有直接关系,但是在你的情况中可能是连一个commitlog都没有写满,其余的两个参数建议配置还是一下,参考中文文档,是否重复消费跟消费端的配置也有关系,比如是否是新的consumer group,包括消费起始位置等,RocketMQ即使在新的consumer group的情况下,如果消息量不大尚在内存中,也会从头消费,用以避免消息丢失。

    原回答者GitHub用户duhenglucky

    2023-05-26 17:52:35
    赞同 展开评论 打赏

阿里云拥有国内全面的云原生产品技术以及大规模的云原生应用实践,通过全面容器化、核心技术互联网化、应用 Serverless 化三大范式,助力制造业企业高效上云,实现系统稳定、应用敏捷智能。拥抱云原生,让创新无处不在。

相关电子书

更多
PostgresChina2018_赖思超_PostgreSQL10_hash索引的WAL日志修改版final 立即下载
Kubernetes下日志实时采集、存储与计算实践 立即下载
日志数据采集与分析对接 立即下载