PostgreSQL अधिक महंगा जॉइन ऑर्डर क्यों चुन रहा है?


13

PostgreSQL चूक का उपयोग, प्लस

default_statistics_target=1000
random_page_cost=1.5

संस्करण

PostgreSQL 10.4 on x86_64-pc-linux-musl, compiled by gcc (Alpine 6.4.0) 6.4.0, 64-bit

मैंने वैक्यूम किया है और विश्लेषण किया है। प्रश्न बहुत सीधा है:

SELECT r.price
FROM account_payer ap
  JOIN account_contract ac ON ap.id = ac.account_payer_id
  JOIN account_schedule "as" ON ac.id = "as".account_contract_id
  JOIN schedule s ON "as".id = s.account_schedule_id
  JOIN rate r ON s.id = r.schedule_id
WHERE ap.account_id = 8

प्रत्येक idस्तंभ प्राथमिक कुंजी है, और जो कुछ भी शामिल हो रहा है वह एक विदेशी कुंजी संबंध है, और प्रत्येक विदेशी कुंजी का एक सूचकांक है। प्लस के लिए एक सूचकांक account_payer.account_id

76k पंक्तियों को वापस करने में 3.93 का समय लगता है।

Merge Join  (cost=8.06..83114.08 rows=3458267 width=6) (actual time=0.228..3920.472 rows=75548 loops=1)
  Merge Cond: (s.account_schedule_id = "as".id)
  ->  Nested Loop  (cost=0.57..280520.54 rows=6602146 width=14) (actual time=0.163..3756.082 rows=448173 loops=1)
        ->  Index Scan using schedule_account_schedule_id_idx on schedule s  (cost=0.14..10.67 rows=441 width=16) (actual time=0.035..0.211 rows=89 loops=1)
        ->  Index Scan using rate_schedule_id_code_modifier_facility_idx on rate r  (cost=0.43..486.03 rows=15005 width=10) (actual time=0.025..39.903 rows=5036 loops=89)
              Index Cond: (schedule_id = s.id)
  ->  Materialize  (cost=0.43..49.46 rows=55 width=8) (actual time=0.060..12.984 rows=74697 loops=1)
        ->  Nested Loop  (cost=0.43..49.32 rows=55 width=8) (actual time=0.048..1.110 rows=66 loops=1)
              ->  Nested Loop  (cost=0.29..27.46 rows=105 width=16) (actual time=0.030..0.616 rows=105 loops=1)
                    ->  Index Scan using account_schedule_pkey on account_schedule "as"  (cost=0.14..6.22 rows=105 width=16) (actual time=0.014..0.098 rows=105 loops=1)
                    ->  Index Scan using account_contract_pkey on account_contract ac  (cost=0.14..0.20 rows=1 width=16) (actual time=0.003..0.003 rows=1 loops=105)
                          Index Cond: (id = "as".account_contract_id)
              ->  Index Scan using account_payer_pkey on account_payer ap  (cost=0.14..0.21 rows=1 width=8) (actual time=0.003..0.003 rows=1 loops=105)
                    Index Cond: (id = ac.account_payer_id)
                    Filter: (account_id = 8)
                    Rows Removed by Filter: 0
Planning time: 5.843 ms
Execution time: 3929.317 ms

अगर मैं सेट करता हूं join_collapse_limit=1, तो यह 0.16s, 25x स्पीडअप लेता है।

Nested Loop  (cost=6.32..147323.97 rows=3458267 width=6) (actual time=8.908..151.860 rows=75548 loops=1)
  ->  Nested Loop  (cost=5.89..390.23 rows=231 width=8) (actual time=8.730..11.655 rows=66 loops=1)
        Join Filter: ("as".id = s.account_schedule_id)
        Rows Removed by Join Filter: 29040
        ->  Index Scan using schedule_pkey on schedule s  (cost=0.27..17.65 rows=441 width=16) (actual time=0.014..0.314 rows=441 loops=1)
        ->  Materialize  (cost=5.62..8.88 rows=55 width=8) (actual time=0.001..0.011 rows=66 loops=441)
              ->  Hash Join  (cost=5.62..8.61 rows=55 width=8) (actual time=0.240..0.309 rows=66 loops=1)
                    Hash Cond: ("as".account_contract_id = ac.id)
                    ->  Seq Scan on account_schedule "as"  (cost=0.00..2.05 rows=105 width=16) (actual time=0.010..0.028 rows=105 loops=1)
                    ->  Hash  (cost=5.02..5.02 rows=48 width=8) (actual time=0.178..0.178 rows=61 loops=1)
                          Buckets: 1024  Batches: 1  Memory Usage: 11kB
                          ->  Hash Join  (cost=1.98..5.02 rows=48 width=8) (actual time=0.082..0.143 rows=61 loops=1)
                                Hash Cond: (ac.account_payer_id = ap.id)
                                ->  Seq Scan on account_contract ac  (cost=0.00..1.91 rows=91 width=16) (actual time=0.007..0.023 rows=91 loops=1)
                                ->  Hash  (cost=1.64..1.64 rows=27 width=8) (actual time=0.048..0.048 rows=27 loops=1)
                                      Buckets: 1024  Batches: 1  Memory Usage: 10kB
                                      ->  Seq Scan on account_payer ap  (cost=0.00..1.64 rows=27 width=8) (actual time=0.009..0.023 rows=27 loops=1)
                                            Filter: (account_id = 8)
                                            Rows Removed by Filter: 24
  ->  Index Scan using rate_schedule_id_code_modifier_facility_idx on rate r  (cost=0.43..486.03 rows=15005 width=10) (actual time=0.018..1.685 rows=1145 loops=66)
        Index Cond: (schedule_id = s.id)
Planning time: 4.692 ms
Execution time: 160.585 ms

ये आउटपुट मेरे लिए बहुत कम मायने रखते हैं। शेड्यूल और रेट सूचकांकों के लिए नेस्टेड लूप में 280,500 की पहली (बहुत अधिक) लागत है। PostgreSQL जानबूझकर इतना महंगा क्यों चुन रहा है पहले शामिल हों?

टिप्पणियों के माध्यम से मांगी गई अतिरिक्त जानकारी

है rate_schedule_id_code_modifier_facility_idxएक यौगिक सूचकांक?

यह schedule_idपहला कॉलम होने के साथ है । मैंने इसे एक समर्पित सूचकांक बनाया है, और इसे क्वेरी प्लानर द्वारा चुना गया है, लेकिन यह प्रदर्शन को प्रभावित नहीं करता है या अन्यथा योजना को प्रभावित नहीं करता है।


क्या आप सेटिंग्स को बदल सकते हैं default_statistics_targetऔर random_page_costउनकी चूक पर वापस जा सकते हैं? क्या होता है जब आप default_statistics_targetअभी भी आगे बढ़ाते हैं? क्या आप DB Fiddle (dbfiddle.uk पर) बना सकते हैं और वहां समस्या को पुन: उत्पन्न करने का प्रयास कर सकते हैं?
कॉलिन 'टी हार्ट

3
क्या आप यह देखने के लिए वास्तविक आँकड़ों का निरीक्षण कर सकते हैं कि आपके डेटा के बारे में कुछ तिरछा / अजीब है? postgresql.org/docs/10/static/planner-stats.html
कॉलिन 'टी हार्ट

पैरामीटर के लिए वर्तमान मूल्य क्या है work_mem? इसे बदलने से अलग टाइमिंग मिलती है?
14

जवाबों:


1

ऐसा लगता है कि या तो आपके आँकड़े सटीक नहीं हैं (उन्हें ताज़ा करने के लिए वैक्यूम विश्लेषण चलाएं) या तो आपने अपने मॉडल में सहसंबंधित कॉलम (और इसलिए आपको create statisticsउस तथ्य के योजनाकार को सूचित करने के लिए प्रदर्शन करने की आवश्यकता होगी )।

join_collapseपैरामीटर को पुनर्व्यवस्थित करने के योजनाकार मिलती है तो यह पहले एक जो कम डेटा को हासिल करेगा प्रदर्शन की अनुमति देता है। लेकिन, प्रदर्शन के लिए, हम प्लानर को ऐसा नहीं कर सकते, जिसमें बहुत सारे जोड़ होते हैं। डिफ़ॉल्ट रूप से, यह अधिकतम 8 जुड़ने के लिए सेट है। इसे 1 पर सेट करके, आप बस उस क्षमता को अक्षम कर देते हैं।

तो यह कैसे पता चलता है कि इस प्रश्न को कितनी पंक्तियों में लाना चाहिए? यह आंकड़ों का उपयोग पंक्तियों की संख्या का अनुमान लगाने के लिए करता है।

आपकी व्याख्या योजनाओं में हम जो देख सकते हैं वह यह है कि कई गलत पंक्तियों की संख्या का अनुमान है (पहला मूल्य अनुमान है, दूसरा वास्तविक है)।

उदाहरण के लिए, यहां:

Materialize  (cost=0.43..49.46 rows=55 width=8) (actual time=0.060..12.984 rows=74697 loops=1)

जब उन्हें वास्तव में 74697 मिले तो योजनाकार को 55 पंक्तियों का अनुमान था।

मैं क्या करूँगा (यदि मैं आपके जूते में था) है:

  • analyze पांच तालिकाओं में ताज़ा आँकड़े शामिल हैं
  • फिर से खेलना explain analyze
  • अनुमान पंक्ति संख्या और वास्तविक पंक्ति संख्या के बीच अंतर को देखें
  • यदि अनुमान पंक्ति संख्या सही है, तो शायद योजना बदल गई है और अधिक कुशल है। यदि सबकुछ ठीक है, तो आप अपनी ऑटोवैक्यूम सेटिंग्स को बदलने पर विचार कर सकते हैं, इसलिए विश्लेषण (और वैक्यूम) अधिक बार करता है
  • यदि अनुमान पंक्ति संख्या अभी भी गलत है, तो ऐसा लगता है कि आपने अपनी तालिका में डेटा का सहसंबद्ध (तीसरा सामान्य रूप उल्लंघन) किया है। आप इसे CREATE STATISTICS( यहां दस्तावेज के साथ ) घोषित करने पर विचार कर सकते हैं

यदि आपको पंक्ति अनुमानों और उसकी गणनाओं के बारे में अधिक जानकारी की आवश्यकता है, तो आपको टॉमस वोंड्रा के कॉन्फिडेंट टॉक "आँकड़े बनाएँ - यह किसलिए है?" ( यहां स्लाइड करें )

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.