MongoDB详解(二)——MongoDB架构与原理

简介: MongoDB详解(二)——MongoDB架构与原理

今天继续给大家介绍Linux运维相关知识,本文主要内容是MongoDB架构与原理。

一、MongoDB架构简介
MongoDB采取主从架构,官方建议3个节点组成副本集,MongoDB的架构图如下所示:

注意,在上图中,Primary主库会讲其数据信息同步到Secondary从库上,但是与MySQL主从同步架构不同的是,在MongoDB的架构中,对数据库的读和写都会发送给到Primary主库上去。

二、MongoDB副本集
MongoDB的副本集是一组配置成可自动同步数据和进行故障切换的节点。早期版本的MongoDB复制只提供数据同步,但是不支持故障切换,因此现在已经被副本集所替代。MongoDB的journaling日志功能也提供了数据保护能力,与副本集相比,journaling可以大幅度提升故障和数据恢复的速度,常与副本集一起使用。
一个MongoDB的副本集至少有三个节点组成,其中提供读写功能的Primary节点有且仅有一个,提供数据备份的副节点(Secondary)可以有一个或者多个。副节点采用长轮询(Long Polling)机制,可以准实时的从主节点local集合中获取包含数据变化的oplog,并应用于副节点库。
总的来看,MongoDB的副本集优点有以下三点:
1、提供数据保护、负载均衡和容灾能力。
2、可以进行节点心跳的检查,以检测和维护副本集。
3、通过选举机制完成故障切换。

三、MondoDB存储引擎
MongoDB中有一个核心组件——存储引擎,其负责管理和组织数据采取什么样的格式存储在硬盘和内存上。MongoDB支持的存储引擎有wiredTiger、MMAPv1、In-memory,在MongoDB3.2版本以前,默认的存储引擎是wiredTiger,在3.2版本之后和4.0版本之前,默认的存储引擎是MMAPv1,在4.0版本之后,默认的存储引擎是In-memory。
MMAPv1引擎是一种多数据引擎,即在一个MongoDB复制集中,可以有多种存储并存,这可以满足应用更为复杂的需求。In-memeor引擎即可以将数据只存储的内存中,还可以将数据持久化到硬盘中。当只将数据存储到内存中时,只会讲少量的元数据和诊断文件存储到硬盘中,这样减少了磁盘I/O的消耗,大大降低了数据查询的延时。
原创不易,转载请说明出处:https://blog.csdn.net/weixin_40228200
————————————————

                        版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。

原文链接:https://blog.csdn.net/weixin_40228200/article/details/124812623

目录
相关文章
|
2月前
|
存储 NoSQL 前端开发
【赵渝强老师】MongoDB的分布式存储架构
MongoDB分片通过将数据分布到多台服务器,实现海量数据的高效存储与读写。其架构包含路由、配置服务器和分片服务器,支持水平扩展,结合复制集保障高可用性,适用于大规模生产环境。
304 1
|
4月前
|
机器学习/深度学习 算法 文件存储
神经架构搜索NAS详解:三种核心算法原理与Python实战代码
神经架构搜索(NAS)正被广泛应用于大模型及语言/视觉模型设计,如LangVision-LoRA-NAS、Jet-Nemotron等。本文回顾NAS核心技术,解析其自动化设计原理,探讨强化学习、进化算法与梯度方法的应用与差异,揭示NAS在大模型时代的潜力与挑战。
1065 6
神经架构搜索NAS详解:三种核心算法原理与Python实战代码
|
2月前
|
机器学习/深度学习 自然语言处理 监控
23_Transformer架构详解:从原理到PyTorch实现
Transformer架构自2017年Google发表的论文《Attention Is All You Need》中提出以来,彻底改变了深度学习特别是自然语言处理领域的格局。在短短几年内,Transformer已成为几乎所有现代大型语言模型(LLM)的基础架构,包括BERT、GPT系列、T5等革命性模型。与传统的RNN和LSTM相比,Transformer通过自注意力机制实现了并行化训练,极大提高了模型的训练效率和性能。
|
5月前
|
存储 监控 算法
园区导航系统技术架构实现与原理解构
本文聚焦园区导航场景中室内外定位精度不足、车辆调度路径规划低效、数据孤岛难以支撑决策等技术痛点,从架构设计到技术原理,对该系统从定位到数据中台进行技术拆解。
240 0
园区导航系统技术架构实现与原理解构
|
7月前
|
存储 人工智能 自然语言处理
为什么混合专家模型(MoE)如此高效:从架构原理到技术实现全解析
本文深入探讨了混合专家(MoE)架构在大型语言模型中的应用与技术原理。MoE通过稀疏激活机制,在保持模型高效性的同时实现参数规模的大幅扩展,已成为LLM发展的关键趋势。文章分析了MoE的核心组件,包括专家网络与路由机制,并对比了密集与稀疏MoE的特点。同时,详细介绍了Mixtral、Grok、DBRX和DeepSeek等代表性模型的技术特点及创新。MoE不仅解决了传统模型扩展成本高昂的问题,还展现出专业化与适应性强的优势,未来有望推动AI工具更广泛的应用。
4181 4
为什么混合专家模型(MoE)如此高效:从架构原理到技术实现全解析
|
6月前
|
存储 消息中间件 canal
zk基础—2.架构原理和使用场景
ZooKeeper(ZK)是一个分布式协调服务,广泛应用于分布式系统中。它提供了分布式锁、元数据管理、Master选举及分布式协调等功能,适用于如Kafka、HDFS、Canal等开源分布式系统。ZK集群采用主从架构,具有顺序一致性、高性能、高可用和高并发等特点。其核心机制包括ZAB协议(保证数据一致性)、Watcher监听回调机制(实现通知功能)、以及基于临时顺序节点的分布式锁实现。ZK适合小规模集群部署,主要用于读多写少的场景。
|
8月前
|
消息中间件 存储 设计模式
RocketMQ原理—5.高可用+高并发+高性能架构
本文主要从高可用架构、高并发架构、高性能架构三个方面来介绍RocketMQ的原理。
2834 21
RocketMQ原理—5.高可用+高并发+高性能架构
|
7月前
|
机器学习/深度学习 算法 测试技术
图神经网络在信息检索重排序中的应用:原理、架构与Python代码解析
本文探讨了基于图的重排序方法在信息检索领域的应用与前景。传统两阶段检索架构中,初始检索速度快但结果可能含噪声,重排序阶段通过强大语言模型提升精度,但仍面临复杂需求挑战
257 0
图神经网络在信息检索重排序中的应用:原理、架构与Python代码解析
|
7月前
|
Java 开发者 Spring
Spring框架 - 深度揭秘Spring框架的基础架构与工作原理
所以,当你进入这个Spring的世界,看似一片混乱,但细看之下,你会发现这里有个牢固的结构支撑,一切皆有可能。不论你要建设的是一座宏大的城堡,还是个小巧的花园,只要你的工具箱里有Spring,你就能轻松搞定。
308 9

推荐镜像

更多