1台服务器,做master
8台服务器,每台运行4个segment
服务器硬件一样:
cpu:xeon e5-2620
内存:64G
硬盘:4Tx8 RAID 6
OS:CentOS 7.2
GreenPlum: github master
MPP detected 32 segment failures, system is reconnected (cdbfts.c:228)
The distributed transaction 'Prepare' broadcast failed to one or more segments for gid = 1464921510 - 0000034486. (cdbtm.c:690)
写入10亿条数据(仅3个字段),试过各自方法:
查询速度和单机postgresql比,差了几十倍;
我想知道,有改善的方法吗?
Greenplum是数据仓库,不是OLTP。
推荐的数据入库方法是gpload,可以把你的硬件能力吃满,关键是并行的,每台主机每秒导入1GB的话,10台就是10GB哦。
查询的话,由于GP是分布式执行计划,这块比较重,通常生成执行计划要10毫秒上下,所以即使是很简单的查询,如果是第一次查询(没有缓冲执行计划时)可能也要几十毫秒。
对于大的统计分析查询,性能是很好的。
你可以用TPC-H测试一下。
关于稳定性,可能需要关注一下您的硬件环境,软件环境。是不是哪里部署出问题了呢?
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。