开发者社区> 问答> 正文

mongodb千万级写入怎么优化:报错

从mysql数据库通过java程序导入单表1300w到mongodb,花了大概50分钟,前1000w条数据中每100w条大概要3分钟,之后的300多w条就差不多每100w条要5到6分钟,之后再从其他的mysql表里面导入数据就会越来越慢,请问可以从那些方面可以优化mongodb的写入操作?
这是我记录的花费时间

可以确定的是如果只在mysql里面遍历读取这1300w条数据,花费时间是10分钟左右。

展开
收起
kun坤 2020-06-07 16:45:25 572 0
1 条回答
写回答
取消 提交回答
  • 可以生成好文档数据,然后用mongoimport  导入, 速度超快!
    ######回复 @wf2311 : mongodb无列的概念, 你可以使用java生成好完整的k-v数据文档, 再批量执行导入。######谢谢回答,我之前试过将mysql导成csv格式的文件,再通过mongoimport导入mongodb,这样的确很快,但是导入过后的数据的列名都变了,请问有什么办法自定义保存的列名######

    加大内存,mongodb 的热数据是保存在内存的,内存用完了,开始读写硬盘的数据跟MYSQL就差不多了

    2020-06-07 16:45:30
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
开源数据库 MongoDB 专场 MongoDB疑难杂症分析及优化 立即下载
MongoDB多数据中心的方案选型之路 立即下载
饿了么高级架构师陈东明:MongoDB是如何逐步提高可靠性的 立即下载