स्थानिक सूचकांक "सीमा - क्रम" क्वेरी के अनुसार मदद कर सकता है


29

यह प्रश्न पूछना, विशेष रूप से पोस्टग्रेज के लिए, क्योंकि इसमें आर-ट्री / स्थानिक इंडेक्स के लिए अच्छा सुपरओर्ट है।

हमारे पास शब्दों और उनकी आवृत्तियों की ट्री संरचना (नेस्टेड सेट मॉडल) के साथ निम्नलिखित तालिका है:

lexikon
-------
_id   integer  PRIMARY KEY
word  text
frequency integer
lset  integer  UNIQUE KEY
rset  integer  UNIQUE KEY

और क्वेरी:

SELECT word
FROM lexikon
WHERE lset BETWEEN @Low AND @High
ORDER BY frequency DESC
LIMIT @N

मुझे लगता है कि एक कवरिंग इंडेक्स (lset, frequency, word)उपयोगी होगा, लेकिन मुझे लगता है कि अगर रेंज lsetमें बहुत अधिक मूल्य हैं तो यह अच्छा प्रदर्शन नहीं कर सकता है (@High, @Low)

एक साधारण इंडेक्स (frequency DESC)भी कभी-कभी पर्याप्त हो सकता है, जब उस इंडेक्स का उपयोग करके एक खोज @Nरेंज की स्थिति से मेल खाती पंक्तियों को जल्दी प्राप्त करती है ।

लेकिन ऐसा लगता है कि प्रदर्शन पैरामीटर मानों पर बहुत कुछ निर्भर करता है।

क्या यह तेजी से प्रदर्शन करने का एक तरीका है, भले ही सीमा (@Low, @High)व्यापक या संकीर्ण हो और चाहे शीर्ष आवृत्ति शब्द सौभाग्य से (संकीर्ण) चयनित सीमा में हों?

क्या R- ट्री / स्थानिक सूचकांक मदद करेगा?

अनुक्रमित जोड़ना, क्वेरी को फिर से लिखना, तालिका को फिर से डिजाइन करना, कोई सीमा नहीं है।


3
कवरिंग इंडेक्स 9.2 (अब बीटा), btw के साथ पेश किए गए हैं। PostgreSQL लोग इंडेक्स-ओनली स्कैन की बात करते हैं । इस संबंधित उत्तर देखें: dba.stackexchange.com/a/7541/3684 और PostgreSQL Wiki पृष्ठ
Erwin Brandstetter

दो प्रश्न: (1) आप तालिका के लिए किस तरह के उपयोग पैटर्न की उम्मीद करते हैं? क्या ज्यादातर पढ़े जाते हैं या लगातार अपडेट होते हैं (विशेषकर नेस्टेड सेट चर के)? (२) क्या नेस्टेड सेट पूर्णांक वैरिएबल के बीच कोई संबंध है जो शुरुआत और टेक्स्ट वेरिएबल से शुरू होता है?
jp

@ जुग: ज्यादातर पढ़ता है। lset,rsetऔर के बीच कोई संबंध नहीं है word
ypercube y

3
यदि आपके पास कई अपडेट थे, तो नेस्टेड सेट मॉडल प्रदर्शन के संबंध में एक बुरा विकल्प होगा (यदि आपके पास "एसक्यूएल की कला" पुस्तक तक पहुंच है, तो हाइरैच मॉडल के अध्याय पर एक नज़र डालें)। लेकिन वैसे भी, आपकी मुख्य समस्या एक अंतराल पर अधिकतम / उच्चतम मूल्यों (एक स्वतंत्र चर) को खोजने के समान है, जिसके लिए एक अनुक्रमण विधि को डिजाइन करना कठिन है। मेरी जानकारी के लिए, आपके द्वारा आवश्यक इंडेक्स का सबसे करीबी मिलान knngist मॉड्यूल है, लेकिन आपको अपनी आवश्यकताओं को पूरा करने के लिए इसे संशोधित करना होगा। एक स्थानिक सूचकांक मददगार होने की संभावना नहीं है।
जेपी

जवाबों:


30

आप उच्च आवृत्तियों वाली पंक्तियों में पहले खोज कर बेहतर प्रदर्शन प्राप्त करने में सक्षम हो सकते हैं। यह आवृत्तियों को 'दानेदार' करके और फिर उनके माध्यम से प्रक्रियात्मक रूप से आगे बढ़ते हुए, उदाहरण के लिए प्राप्त किया जा सकता है:

-टैस्टबेड और lexikonडमी डेटा:

begin;
set role dba;
create role stack;
grant stack to dba;
create schema authorization stack;
set role stack;
--
create table lexikon( _id serial, 
                      word text, 
                      frequency integer, 
                      lset integer, 
                      width_granule integer);
--
insert into lexikon(word, frequency, lset) 
select word, (1000000/row_number() over(order by random()))::integer as frequency, lset
from (select 'word'||generate_series(1,1000000) word, generate_series(1,1000000) lset) z;
--
update lexikon set width_granule=ln(frequency)::integer;
--
create index on lexikon(width_granule, lset);
create index on lexikon(lset);
-- the second index is not used with the function but is added to make the timings 'fair'

granule विश्लेषण (ज्यादातर जानकारी और ट्यूनिंग के लिए):

create table granule as 
select width_granule, count(*) as freq, 
       min(frequency) as granule_start, max(frequency) as granule_end 
from lexikon group by width_granule;
--
select * from granule order by 1;
/*
 width_granule |  freq  | granule_start | granule_end
---------------+--------+---------------+-------------
             0 | 500000 |             1 |           1
             1 | 300000 |             2 |           4
             2 | 123077 |             5 |          12
             3 |  47512 |            13 |          33
             4 |  18422 |            34 |          90
             5 |   6908 |            91 |         244
             6 |   2580 |           245 |         665
             7 |    949 |           666 |        1808
             8 |    349 |          1811 |        4901
             9 |    129 |          4926 |       13333
            10 |     47 |         13513 |       35714
            11 |     17 |         37037 |       90909
            12 |      7 |        100000 |      250000
            13 |      2 |        333333 |      500000
            14 |      1 |       1000000 |     1000000
*/
alter table granule drop column freq;
--

पहले उच्च आवृत्तियों को स्कैन करने के लिए कार्य:

create function f(p_lset_low in integer, p_lset_high in integer, p_limit in integer)
       returns setof lexikon language plpgsql set search_path to 'stack' as $$
declare
  m integer;
  n integer := 0;
  r record;
begin 
  for r in (select width_granule from granule order by width_granule desc) loop
    return query( select * 
                  from lexikon 
                  where width_granule=r.width_granule 
                        and lset>=p_lset_low and lset<=p_lset_high );
    get diagnostics m = row_count;
    n = n+m;
    exit when n>=p_limit;
  end loop;
end;$$;

परिणाम (समय शायद एक चुटकी नमक के साथ लिया जाना चाहिए लेकिन प्रत्येक कैशिंग किसी भी कैशिंग का मुकाबला करने के लिए दो बार चलाया जाता है)

पहले हमने जो फ़ंक्शन लिखा है उसका उपयोग करके:

\timing on
--
select * from f(20000, 30000, 5) order by frequency desc limit 5;
/*
 _id |   word    | frequency | lset  | width_granule
-----+-----------+-----------+-------+---------------
 141 | word23237 |      7092 | 23237 |             9
 246 | word25112 |      4065 | 25112 |             8
 275 | word23825 |      3636 | 23825 |             8
 409 | word28660 |      2444 | 28660 |             8
 418 | word29923 |      2392 | 29923 |             8
Time: 80.452 ms
*/
select * from f(20000, 30000, 5) order by frequency desc limit 5;
/*
 _id |   word    | frequency | lset  | width_granule
-----+-----------+-----------+-------+---------------
 141 | word23237 |      7092 | 23237 |             9
 246 | word25112 |      4065 | 25112 |             8
 275 | word23825 |      3636 | 23825 |             8
 409 | word28660 |      2444 | 28660 |             8
 418 | word29923 |      2392 | 29923 |             8
Time: 0.510 ms
*/

और फिर एक साधारण सूचकांक स्कैन के साथ:

select * from lexikon where lset between 20000 and 30000 order by frequency desc limit 5;
/*
 _id |   word    | frequency | lset  | width_granule
-----+-----------+-----------+-------+---------------
 141 | word23237 |      7092 | 23237 |             9
 246 | word25112 |      4065 | 25112 |             8
 275 | word23825 |      3636 | 23825 |             8
 409 | word28660 |      2444 | 28660 |             8
 418 | word29923 |      2392 | 29923 |             8
Time: 218.897 ms
*/
select * from lexikon where lset between 20000 and 30000 order by frequency desc limit 5;
/*
 _id |   word    | frequency | lset  | width_granule
-----+-----------+-----------+-------+---------------
 141 | word23237 |      7092 | 23237 |             9
 246 | word25112 |      4065 | 25112 |             8
 275 | word23825 |      3636 | 23825 |             8
 409 | word28660 |      2444 | 28660 |             8
 418 | word29923 |      2392 | 29923 |             8
Time: 51.250 ms
*/
\timing off
--
rollback;

आपके वास्तविक दुनिया के आंकड़ों के आधार पर, आप संभवतः दानों की संख्या और उनमें पंक्तियों को डालने के लिए उपयोग किए जाने वाले फ़ंक्शन को अलग-अलग करना चाहेंगे। आवृत्तियों का वास्तविक वितरण यहां महत्वपूर्ण है, जैसा कि मांगी गई श्रेणियों के limitखंड और आकार के लिए अपेक्षित मान है lset


क्यों एक अंतर से शुरू है width_granule=8के बीच granulae_startऔर granulae_endपिछले स्तर की?
vyegorov

@vyegorov क्योंकि कोई मान 1809 और 1810 नहीं हैं? यह बेतरतीब ढंग से उत्पन्न डेटा है इसलिए YMMV :)
जैक डगलस

हम्म, ऐसा लगता है कि इसका यादृच्छिकता से कोई लेना-देना नहीं है, बल्कि इससे frequencyउत्पन्न होता है: 1e6 / 2 और 1e6 / 3 के बीच एक बड़ा अंतर, उच्च पंक्ति संख्या बन जाता है, छोटा अंतराल होता है। वैसे भी, इस भयानक दृष्टिकोण के लिए धन्यवाद !!
वायगोरोव

@vyegorov क्षमा करें, हाँ, आप सही हैं। यदि आप पहले से ही नहीं है तो Erwins सुधार पर एक नज़र रखना सुनिश्चित करें !
जैक डगलस

23

सेट अप

मैं @ जैक के सेटअप का निर्माण कर रहा हूं ताकि लोगों के लिए अनुसरण करना और तुलना करना आसान हो सके। PostgreSQL 9.1.4 के साथ परीक्षण किया गया ।

CREATE TABLE lexikon (
   lex_id    serial PRIMARY KEY
 , word      text
 , frequency int NOT NULL  -- we'd need to do more if NULL was allowed
 , lset      int
);

INSERT INTO lexikon(word, frequency, lset) 
SELECT 'w' || g  -- shorter with just 'w'
     , (1000000 / row_number() OVER (ORDER BY random()))::int
     , g
FROM   generate_series(1,1000000) g

यहाँ से मैं एक अलग रास्ता लेता हूँ:

ANALYZE lexikon;

सहायक तालिका

यह समाधान मूल तालिका में कॉलम नहीं जोड़ता है, इसे बस एक छोटे सहायक तालिका की आवश्यकता है। मैंने इसे स्कीमा में रखा है public, अपनी पसंद के किसी भी स्कीमा का उपयोग करें।

CREATE TABLE public.lex_freq AS
WITH x AS (
   SELECT DISTINCT ON (f.row_min)
          f.row_min, c.row_ct, c.frequency
   FROM  (
      SELECT frequency, sum(count(*)) OVER (ORDER BY frequency DESC) AS row_ct
      FROM   lexikon
      GROUP  BY 1
      ) c
   JOIN  (                                   -- list of steps in recursive search
      VALUES (400),(1600),(6400),(25000),(100000),(200000),(400000),(600000),(800000)
      ) f(row_min) ON c.row_ct >= f.row_min  -- match next greater number
   ORDER  BY f.row_min, c.row_ct, c.frequency DESC
   )
, y AS (   
   SELECT DISTINCT ON (frequency)
          row_min, row_ct, frequency AS freq_min
        , lag(frequency) OVER (ORDER BY row_min) AS freq_max
   FROM   x
   ORDER  BY frequency, row_min
   -- if one frequency spans multiple ranges, pick the lowest row_min
   )
SELECT row_min, row_ct, freq_min
     , CASE freq_min <= freq_max
         WHEN TRUE  THEN 'frequency >= ' || freq_min || ' AND frequency < ' || freq_max
         WHEN FALSE THEN 'frequency  = ' || freq_min
         ELSE            'frequency >= ' || freq_min
       END AS cond
FROM   y
ORDER  BY row_min;

तालिका इस प्रकार है:

row_min | row_ct  | freq_min | cond
--------+---------+----------+-------------
400     | 400     | 2500     | frequency >= 2500
1600    | 1600    | 625      | frequency >= 625 AND frequency < 2500
6400    | 6410    | 156      | frequency >= 156 AND frequency < 625
25000   | 25000   | 40       | frequency >= 40 AND frequency < 156
100000  | 100000  | 10       | frequency >= 10 AND frequency < 40
200000  | 200000  | 5        | frequency >= 5 AND frequency < 10
400000  | 500000  | 2        | frequency >= 2 AND frequency < 5
600000  | 1000000 | 1        | frequency  = 1

जैसा कि कॉलम condगतिशील एसक्यूएल में आगे उपयोग किया जा रहा है, आपको इस तालिका को सुरक्षित बनाना होगा । यदि आप एक उपयुक्त वर्तमान के search_pathबारे में सुनिश्चित नहीं हो सकते हैं, तो हमेशा स्कीमा को योग्य publicबनाएं और (और किसी भी अविश्वसनीय भूमिका) से विशेषाधिकारों को रद्द करें :

REVOKE ALL ON public.lex_freq FROM public;
GRANT SELECT ON public.lex_freq TO public;

तालिका lex_freqमें तीन उद्देश्य हैं:

  • स्वचालित रूप से आवश्यक आंशिक अनुक्रम बनाएँ ।
  • पुनरावृत्त समारोह के लिए कदम प्रदान करें।
  • ट्यूनिंग के लिए मेटा जानकारी।

इंडेक्स

यह DOकथन सभी आवश्यक अनुक्रमित बनाता है :

DO
$$
DECLARE
   _cond text;
BEGIN
   FOR _cond IN
      SELECT cond FROM public.lex_freq
   LOOP
      IF _cond LIKE 'frequency =%' THEN
         EXECUTE 'CREATE INDEX ON lexikon(lset) WHERE ' || _cond;
      ELSE
         EXECUTE 'CREATE INDEX ON lexikon(lset, frequency DESC) WHERE ' || _cond;
      END IF;
   END LOOP;
END
$$

ये सभी आंशिक अनुक्रमणिकाएँ एक साथ तालिका में एक बार आती हैं। वे पूरी मेज पर एक मूल सूचकांक के समान आकार के बारे में हैं:

SELECT pg_size_pretty(pg_relation_size('lexikon'));       -- 50 MB
SELECT pg_size_pretty(pg_total_relation_size('lexikon')); -- 71 MB

50 एमबी टेबल के लिए अब तक केवल 21 एमबी इंडेक्स।

मैं अधिकांश आंशिक अनुक्रम बनाता हूं (lset, frequency DESC)। दूसरा कॉलम केवल विशेष मामलों में मदद करता है। लेकिन चूंकि दोनों शामिल कॉलम टाइप के हैं integer, इसलिए PostgreSQL में MAXALIGN के साथ संयोजन में डेटा संरेखण की बारीकियों के कारण , दूसरा कॉलम इंडेक्स को कोई बड़ा नहीं बनाता है। यह शायद ही किसी भी कीमत के लिए एक छोटी जीत है।

ऐसा करने का कोई मतलब नहीं है कि आंशिक अनुक्रमित के लिए जो केवल एक आवृत्ति को फैलाते हैं। वे बस पर हैं (lset)। निर्मित अनुक्रमित इस तरह दिखते हैं:

CREATE INDEX ON lexikon(lset, frequency DESC) WHERE frequency >= 2500;
CREATE INDEX ON lexikon(lset, frequency DESC) WHERE frequency >= 625 AND frequency < 2500;
-- ...
CREATE INDEX ON lexikon(lset, frequency DESC) WHERE frequency >= 2 AND frequency < 5;
CREATE INDEX ON lexikon(lset) WHERE freqency = 1;

समारोह

समारोह कुछ हद तक @ जैक के समाधान की शैली के समान है:

CREATE OR REPLACE FUNCTION f_search(_lset_min int, _lset_max int, _limit int)
  RETURNS SETOF lexikon
$func$
DECLARE
   _n      int;
   _rest   int := _limit;   -- init with _limit param
   _cond   text;
BEGIN 
   FOR _cond IN
      SELECT l.cond FROM public.lex_freq l ORDER BY l.row_min
   LOOP    
      --  RAISE NOTICE '_cond: %, _limit: %', _cond, _rest; -- for debugging
      RETURN QUERY EXECUTE '
         SELECT * 
         FROM   public.lexikon 
         WHERE  ' || _cond || '
         AND    lset >= $1
         AND    lset <= $2
         ORDER  BY frequency DESC
         LIMIT  $3'
      USING  _lset_min, _lset_max, _rest;

      GET DIAGNOSTICS _n = ROW_COUNT;
      _rest := _rest - _n;
      EXIT WHEN _rest < 1;
   END LOOP;
END
$func$ LANGUAGE plpgsql STABLE;

मुख्य अंतर:

  • के साथ गतिशील एसक्यूएलRETURN QUERY EXECUTE
    जैसा कि हम चरणों के माध्यम से लूप करते हैं, एक अलग क्वेरी प्लान लाभार्थी हो सकता है। स्टेटिक एसक्यूएल के लिए क्वेरी प्लान एक बार जनरेट किया जाता है और फिर से उपयोग किया जाता है - जो कुछ ओवरहेड को बचा सकता है। लेकिन इस मामले में क्वेरी सरल है और मान बहुत अलग हैं। डायनेमिक SQL एक बड़ी जीत होगी।

  • LIMITहर क्वेरी चरण के लिए गतिशील
    यह कई तरीकों से मदद करता है: सबसे पहले, पंक्तियों को केवल आवश्यकतानुसार लाया जाता है। डायनेमिक एसक्यूएल के साथ संयोजन में यह भी शुरू करने के लिए विभिन्न क्वेरी प्लान उत्पन्न कर सकता है। दूसरा: LIMITअधिशेष को ट्रिम करने के लिए फ़ंक्शन कॉल में अतिरिक्त की आवश्यकता नहीं है ।

बेंचमार्क

सेट अप

मैंने चार उदाहरण उठाए और प्रत्येक के साथ तीन अलग-अलग परीक्षण किए। मैंने गर्म कैश से तुलना करने के लिए सबसे अच्छा पांच लिया:

  1. प्रपत्र की कच्ची SQL क्वेरी:

    SELECT * 
    FROM   lexikon 
    WHERE  lset >= 20000
    AND    lset <= 30000
    ORDER  BY frequency DESC
    LIMIT  5;
    
  2. इस सूचकांक को बनाने के बाद भी

    CREATE INDEX ON lexikon(lset);

    एक ही स्थान के बारे में मेरे सभी आंशिक अनुक्रमों की आवश्यकता है:

    SELECT pg_size_pretty(pg_total_relation_size('lexikon')) -- 93 MB
  3. कार्यक्रम

    SELECT * FROM f_search(20000, 30000, 5);

परिणाम

SELECT * FROM f_search(20000, 30000, 5);

1: कुल रनटाइम: 315.458 एमएस
2: कुल रनटाइम: 36.458 एमएस
3: कुल रनटाइम: 0.330 एमएस

SELECT * FROM f_search(60000, 65000, 100);

1: कुल रनटाइम: 294.819 एमएस
2: कुल रनटाइम: 18.915 एमएस
3: कुल रनटाइम: 1.414 एमएस

SELECT * FROM f_search(10000, 70000, 100);

1: कुल रनटाइम: 426.831 एमएस
2: कुल रनटाइम: 217.874 एमएस
3: कुल रनटाइम: 1.611 एमएस

SELECT * FROM f_search(1, 1000000, 5);

1: कुल रनटाइम: 2458.205 एमएस
2: कुल रनटाइम: 2458.205 एमएस - बड़ी रेंज के लिसेट के लिए, सीक स्कैन इंडेक्स की तुलना में तेज है।
3: कुल रनटाइम: 0.266 एमएस

निष्कर्ष

जैसा कि अपेक्षित था, फ़ंक्शन का लाभ बड़े lsetऔर छोटे रेंज के साथ बढ़ता है LIMIT

साथ की बहुत छोटी पर्वतमालाlset , सूचकांक के साथ संयोजन में कच्चे क्वेरी वास्तव में है तेजी से । आप परीक्षण करना चाहते हैं और शायद शाखा: छोटी श्रृंखला के लिए कच्ची क्वेरी lset, अन्यथा फ़ंक्शन कॉल कर सकते हैं। तुम भी एक "दोनों दुनिया के सर्वश्रेष्ठ" के लिए समारोह में निर्माण कर सकते हैं - कि मैं क्या करूँगा।

आपके डेटा वितरण और विशिष्ट प्रश्नों के आधार पर, lex_freqप्रदर्शन में अधिक कदम मदद कर सकते हैं। मीठी जगह खोजने के लिए परीक्षण करें। यहां प्रस्तुत टूल के साथ, परीक्षण करना आसान होना चाहिए।


1

मुझे इंडेक्स में शब्द कॉलम को शामिल करने का कोई कारण नहीं दिखता है। तो यह सूचकांक

CREATE INDEX lexikon_lset_frequency ON lexicon (lset, frequency DESC)

तेजी से प्रदर्शन करने के लिए आपकी क्वेरी बना देगा।

युपीडी

वर्तमान में PostgreSQL में एक कवरिंग इंडेक्स बनाने के कोई तरीके नहीं हैं। PostgreSQL मेलिंग सूची http://archives.postgresql.org/pgsql-performance/2012-06/msg00114.php में इस विशेषता के बारे में चर्चा हुई।


1
इसे इंडेक्स "कवरिंग" बनाने के लिए शामिल किया गया था।
ypercube y

लेकिन क्वेरी निर्णय ट्री में उस शब्द की खोज नहीं करने से, क्या आप सुनिश्चित हैं कि कवरिंग इंडेक्स यहां मदद कर रहा है?
jcolebrand

ठीक है, मैं अभी देखता हूं। वर्तमान में PostgreSQL में एक कवरिंग इंडेक्स बनाने के कोई तरीके नहीं हैं। मेलिंग सूची के अभिलेखागार में इस विशेषता के बारे में चर्चा की गई थी । postgresql.org/pgsql-performance/2012-06/msg00114.php
ग्रेहमप

PostgreSQL में "कवरिंग इंडेक्स" के बारे में प्रश्न के लिए इरविन ब्रांडस्टेटर्स की टिप्पणी भी देखें।
जेपी

1

जीआईएसटी सूचकांक का उपयोग करना

क्या इसे तेज करने का एक तरीका है, भले ही सीमा (@Low, @High) विस्तृत या संकीर्ण हो और इस बात की परवाह किए बिना कि शीर्ष आवृत्ति शब्द सौभाग्य से (संकीर्ण) चयनित श्रेणी में हैं या नहीं?

यह इस बात पर निर्भर करता है कि जब आप उपवास करते हैं तो आपका क्या मतलब होता है: आपको स्पष्ट रूप से हर पंक्ति में यात्रा करनी होगी क्योंकि आपकी क्वेरी है ORDER freq DESC। अगर मुझे यह सवाल समझ में आता है, तो क्वेरी प्लानर को पहले से ही यह कवर है

यहां हम 10k पंक्तियों के साथ एक तालिका बनाते हैं (5::int,random()::double precision)

CREATE EXTENSION IF NOT EXISTS btree_gin;
CREATE TABLE t AS
  SELECT 5::int AS foo, random() AS bar
  FROM generate_series(1,1e4) AS gs(x);

हम इसे अनुक्रमित करते हैं,

CREATE INDEX ON t USING gist (foo, bar);
ANALYZE t;

हम इसे क्वेरी करते हैं,

EXPLAIN ANALYZE
SELECT *
FROM t
WHERE foo BETWEEN 1 AND 6
ORDER BY bar DESC
FETCH FIRST ROW ONLY;

हमें ए Seq Scan on t। यह केवल इसलिए है क्योंकि हमारे चयनात्मकता अनुमानों को एक सूचकांक स्कैन और रीचेकिंग की तुलना में तेज है। तो हम इसे और अधिक रसदार बनाते हैं, (42::int,random()::double precision)जो 1,000,000 से अधिक पंक्तियों को जोड़कर हमारी "रेंज" में फिट नहीं होते हैं।

INSERT INTO t(foo,bar)
SELECT 42::int, x
FROM generate_series(1,1e6) AS gs(x);

VACUUM ANALYZE t;

और फिर हम आवश्यकता है,

EXPLAIN ANALYZE
SELECT *
FROM t
WHERE foo BETWEEN 1 AND 6
ORDER BY bar DESC
FETCH FIRST ROW ONLY;

आप यहां देख सकते हैं कि हम 4.6 एमएस में इंडेक्स ओनली स्कैन के साथ पूरा करते हैं ,

                                                                 QUERY PLAN                                                                  
---------------------------------------------------------------------------------------------------------------------------------------------
 Limit  (cost=617.64..617.64 rows=1 width=12) (actual time=4.652..4.652 rows=1 loops=1)
   ->  Sort  (cost=617.64..642.97 rows=10134 width=12) (actual time=4.651..4.651 rows=1 loops=1)
         Sort Key: bar DESC
         Sort Method: top-N heapsort  Memory: 25kB
         ->  Index Only Scan using t_foo_bar_idx on t  (cost=0.29..566.97 rows=10134 width=12) (actual time=0.123..3.623 rows=10000 loops=1)
               Index Cond: ((foo >= 1) AND (foo <= 6))
               Heap Fetches: 0
 Planning time: 0.144 ms
 Execution time: 4.678 ms
(9 rows)

पूरी तालिका को शामिल करने के लिए सीमा का विस्तार करते हुए, एक और seq स्कैन का उत्पादन करता है - तार्किक रूप से, और इसे एक और अरब पंक्तियों के साथ बढ़ने से एक अन्य सूचकांक स्कैन का उत्पादन होगा।

तो संक्षेप में,

  • यह डेटा की मात्रा के लिए, तेज़ी से प्रदर्शन करेगा।
  • फास्ट विकल्प के सापेक्ष है, यदि सीमा चयनात्मक नहीं है तो एक अनुक्रमिक स्कैन उतना तेज़ हो सकता है जितना आप प्राप्त कर सकते हैं।
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.