云原生数据仓库AnalyticDB PostgreSQL版插入1000条128维的向量数据花了3分钟,这个问题我该如何排查?单并发,一个insert语句1000条向量,执行时间3分多钟
由于图索引只能一条数据一条数据插入,插入图索引涉及到搜索最近邻等操作,单条插入RT20ms左右看起来是正常的。这里可以改成多并发插入增加插入吞吐 ,此回答整理自钉群“云原生数据仓库AnalyticDB PostgreSQL版交流群”
可以按照以下步骤排查AnalyticDB PostgreSQL执行插入向量数据慢的问题:
检查网络:确保网络连接稳定,无高延迟或丢包现象。
执行计划分析:尝试使用EXPLAIN ANALYZE在插入语句前,查看执行计划,了解数据库处理插入的详细步骤和耗时。
数据量和维度:128维的向量数据可能较大,检查表的索引、分区策略是否适合高维数据,是否需要优化。
单并发插入:尝试分批插入,降低单次插入的数据量,观察是否有所改善。
表结构和配置:检查表的物理存储和数据库配置,如缓冲区大小、并行度等,可能需要调整以适应大向量数据。查询性能优化,查看执行计划
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。
阿里云自主研发的云原生数据仓库,具有高并发读写、低峰谷读写、弹性扩展、安全可靠等特性,可支持PB级别数据存储,可广泛应用于BI、机器学习、实时分析、数据挖掘等场景。包含AnalyticDB MySQL版、AnalyticDB PostgreSQL 版。