问题一:PolarDB的地址如何创建呢?
PolarDB的地址如何创建呢?
参考回答:
主 PolarDB 是单节点,没有集群地址,目前还不支持没有集群地址的实例创建从集群。
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/612631
问题二:PolarDB创建失败的实例怎么释放掉?
PolarDB创建失败的实例怎么释放掉?
参考回答:
稍等一会就可以释放了
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/612629
问题三:生产项目使用了 PolarDB MySQL 的serverless之后 针对的DAS的监控咋做呢?
生产项目使用了 PolarDB MySQL 的serverless之后 针对的DAS的监控咋做呢?老是弹出cpu到顶扩容的提示呢
参考回答:
serverless集群因为是会自动弹性的, 当前DAS只是检测当前的cpu使用率, 没有考虑可能弹性的范围. 后续需要和他们协调优化一下. 当前可以考虑把cpu利用率, 和持续时间调大一点. 持续时间比较久的话, serverless基本已经弹性到最大规格了, 这个时候的自动限流应该是有意义的
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/612628
问题四:PolarDB分区表中,多少条记录适合创建一个分区?
PolarDB分区表中,多少条记录适合创建一个分区?
参考回答:
您好,使用分区表数据量没有下限,空表也可建分区表,但数据量太少没必要分区,一般普通表大于500 MB可以选择使用分区表。当单分区数据量超过64 TB(与单个普通表一致),最大分区数超过8192时不适合使用分区表。建议单表数据量超过1 TB或者1亿行尽量使用分区表。
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/612627
问题五:PolarDB这类update sql应该怎样优化?
PolarDB这类update sql应该怎样优化?UPDATE product SET owner_user_id=19021368 WHERE (product_id IN (23379430,23379431,23379432,23379433,23379434,23379435,23379436,23379437,23379438,23379439,23379440,23379441,23379442,23379443,23379444,23379445,23379446,23379447,23379448,23379449,23379450,23379451,23379452,23379453,23379454,23379455,23379456,23379457,23379458,23379459,23379460,23379461,23379462,23379463,23379464,23379465,23379466,23379467,23379468,23379469,23379470,23379471,23379472,23379473,23379474,23379475,23379476,23379477,23379478,23379479,23379480,23379481,23379482,23379483,23379484,23379485,23379486,23379487,23379488,23379489,23379490,23379491,23379492,23379493,23379494,23379495,23379496,23379497,23379498,23379499,23379500,23379501,23379502,23379503,23379504,23379505,23379506,23379507,23379508,23379509,23379510,23379511,23379512,23379513,23379514,23379515,23379516,23379517,23379518,23379519,23379520,23379521,23379522,23379523,23379524,23379525,23379526,23379527,23379528,23379529,23379530,23379531,23379532,23379533,23379534,23379535,23379536,23379537,23379538,23379539,23379540,23379541,23379542,23379543,23379544,23379545,23379546,23379547,23379548,23379549,23379550,23379551,23379552,23379553,23379554,23379555,23379556,23379557,23379558,23379559,23379560,23379561,23379562,23379563,23379564,23379565,23379566,23379567,23379568,23379569,23379570,23379571,23379572,23379573,23379574,23379575,23379576,23379577,23379578,23379579,23379580,23379581,23379582,23379583,23379584,23379585,23379586,23379587,23379588,23379589,23379590,23379591,23379592,23379593,23379594,23379595,23379596,23379597,23379598,23379599,23379600,23379601,23379602,23379603,23379604,23379605,23379606,23379607,23379608,23379609,23379610,23379611,23379612,23379613,23379614,23379615,23379616,23379617,23379618,23379619,23379620,23379621,23379622,23379623,23379624,23379625,23379626,23379627,23379628,23379629,23379630,23379631,23379632,23379633,23379634,23379635,23379636,23379637,23379638,23379639,23379640,23379641,23379642,23379643,23379644,23379645,23379646,23379647,23379648,23379649,2337
参考回答:
简单的思路就是 临时表 join去更新 因为update是单线程串行的,主要瓶颈一般在io和锁。想提高效率的话建议拆开这些条件涉及到的列然后并行的来update
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/612626