एक विशाल तालिका के आदेशित कॉलम में अंतिम नहीं-शून्य मान कैसे प्राप्त करें?


13

मेरे पास निम्नलिखित इनपुट हैं:

 id | value 
----+-------
  1 |   136
  2 |  NULL
  3 |   650
  4 |  NULL
  5 |  NULL
  6 |  NULL
  7 |   954
  8 |  NULL
  9 |   104
 10 |  NULL

मुझे निम्नलिखित परिणाम की उम्मीद है:

 id | value 
----+-------
  1 |   136
  2 |   136
  3 |   650
  4 |   650
  5 |   650
  6 |   650
  7 |   954
  8 |   954
  9 |   104
 10 |   104

तुच्छ समाधान एक <संबंध के साथ तालिकाओं में शामिल हो जाएगा , और फिर MAXएक में मूल्य का चयन GROUP BY:

WITH tmp AS (
  SELECT t2.id, MAX(t1.id) AS lastKnownId
  FROM t t1, t t2
  WHERE
    t1.value IS NOT NULL
    AND
    t2.id >= t1.id
  GROUP BY t2.id
)
SELECT
  tmp.id, t.value
FROM t, tmp
WHERE t.id = tmp.lastKnownId;

हालांकि, इस कोड का तुच्छ निष्पादन आंतरिक रूप से इनपुट तालिका ( O (n ^ 2) ) की पंक्तियों की गणना का वर्ग पैदा करेगा । मुझे उम्मीद थी कि टी-सीक्लल इसे ऑप्टिमाइज़ करने के लिए - एक ब्लॉक / रिकॉर्ड स्तर पर, करने का कार्य बहुत आसान और रैखिक है, अनिवार्य रूप से लूप ( ओ (एन) ) के लिए।

हालाँकि, मेरे प्रयोगों पर, नवीनतम MS SQL 2016 इस क्वेरी को सही ढंग से अनुकूलित नहीं कर सकता है, जिससे इस क्वेरी को एक बड़ी इनपुट तालिका के लिए निष्पादित करना असंभव है।

इसके अलावा, क्वेरी को जल्दी से चलाना है, जिससे एक समान आसान (लेकिन बहुत अलग) कर्सर-आधारित समाधान संभव है।

कुछ मेमोरी-समर्थित अस्थायी तालिका का उपयोग करना एक अच्छा समझौता हो सकता है, लेकिन मुझे यकीन नहीं है कि अगर यह काफी तेज चलाया जा सकता है, तो यह माना जाता है कि उप-वर्ग का उपयोग करने वाला मेरा उदाहरण क्वेरी काम नहीं करता है।

मैं t-sql डॉक्स से कुछ विंडोिंग फंक्शन को खोदने के बारे में भी सोच रहा हूं, जो मैं चाहता हूं उसे करने के लिए छल किया जा सकता है। उदाहरण के लिए, संचयी योग कुछ बहुत समान है, लेकिन मैं इसे नवीनतम गैर-अशक्त तत्व देने के लिए ट्रिक नहीं कर सकता, और पहले तत्वों का योग नहीं।

आदर्श समाधान प्रक्रियात्मक कोड या अस्थायी तालिकाओं के बिना एक त्वरित क्वेरी होगा। वैकल्पिक रूप से, अस्थायी तालिकाओं के साथ एक समाधान भी ठीक है, लेकिन तालिका को प्रक्रियात्मक रूप से पुनरावृत्त करना नहीं है।

जवाबों:


12

इस प्रकार की समस्या का एक सामान्य समाधान इट्ज़िक बेन-गण ने अपने लेख द लास्ट नॉन नाल पहेली : में दिया है।

DROP TABLE IF EXISTS dbo.Example;

CREATE TABLE dbo.Example
(
    id integer PRIMARY KEY,
    val integer NULL
);

INSERT dbo.Example
    (id, val)
VALUES
    (1, 136),
    (2, NULL),
    (3, 650),
    (4, NULL),
    (5, NULL),
    (6, NULL),
    (7, 954),
    (8, NULL),
    (9, 104),
    (10, NULL);

SELECT
    E.id,
    E.val,
    lastval =
        CAST(
            SUBSTRING(
                MAX(CAST(E.id AS binary(4)) + CAST(E.val AS binary(4))) OVER (
                    ORDER BY E.id
                    ROWS UNBOUNDED PRECEDING),
            5, 4)
        AS integer)
FROM dbo.Example AS E
ORDER BY
    E.id;

डेमो: db <> फिडल


11

मुझे उम्मीद है कि टी-सीक्लल इसे बाहर करने के लिए - एक ब्लॉक / रिकॉर्ड स्तर पर, कार्य करने के लिए बहुत आसान और रैखिक है, अनिवार्य रूप से लूप (ओ (एन)) के लिए।

यह आपके द्वारा लिखी गई क्वेरी नहीं है। यह उस तालिका के बराबर नहीं हो सकता है जिसे आपने तालिका स्कीमा के कुछ अन्यथा मामूली विवरण के आधार पर लिखा था। आप क्वेरी ऑप्टिमाइज़र से बहुत अधिक अपेक्षा कर रहे हैं।

सही अनुक्रमण के साथ आप निम्नलिखित टी-एसक्यूएल के माध्यम से प्राप्त एल्गोरिथ्म प्राप्त कर सकते हैं:

SELECT t1.id, ca.[VALUE] 
FROM dbo.[BIG_TABLE(FOR_U)] t1
CROSS APPLY (
    SELECT TOP (1) [VALUE]
    FROM dbo.[BIG_TABLE(FOR_U)] t2
    WHERE t2.ID <= t1.ID AND t2.[VALUE] IS NOT NULL
    ORDER BY t2.ID DESC
) ca; --ORDER BY t1.ID ASC

प्रत्येक पंक्ति के लिए, क्वेरी प्रोसेसर इंडेक्स को पीछे की ओर ले जाता है और जब यह एक गैर शून्य मान वाली पंक्ति पाता है तो रुक जाता है [VALUE]। मेरी मशीन पर यह स्रोत तालिका में 100 मिलियन पंक्तियों के लिए लगभग 90 सेकंड में खत्म होता है । क्‍वेरी आवश्‍यकता से अधिक समय तक चलती है क्‍योंकि उन सभी पंक्तियों को छोड़ने वाले क्‍लाइंट पर कुछ समय बर्बाद होता है।

यदि आपको आदेश दिए गए परिणामों की आवश्यकता है या इतने बड़े परिणाम सेट के साथ क्या करने की योजना है, यह मेरे लिए स्पष्ट नहीं है। वास्तविक परिदृश्य को पूरा करने के लिए क्वेरी को समायोजित किया जा सकता है। इस दृष्टिकोण का सबसे बड़ा लाभ यह है कि इसे क्वेरी योजना में किसी प्रकार की आवश्यकता नहीं होती है। जो बड़े परिणाम सेट के लिए मदद कर सकता है। एक नुकसान यह है कि यदि तालिका में बहुत सारे NULL हैं तो प्रदर्शन इष्टतम नहीं होगा क्योंकि कई पंक्तियों को सूचकांक से पढ़ा जाएगा और खारिज कर दिया जाएगा। आपको एक फ़िल्टर किए गए इंडेक्स के साथ प्रदर्शन में सुधार करने में सक्षम होना चाहिए जो उस मामले के लिए NULLs को बाहर करता है।

परीक्षण के लिए नमूना डेटा:

DROP TABLE IF EXISTS #t;

CREATE TABLE #t (
ID BIGINT NOT NULL
);

INSERT INTO #t WITH (TABLOCK)
SELECT TOP (10000) ROW_NUMBER() OVER (ORDER BY (SELECT NULL)) - 1
FROM master..spt_values t1
CROSS JOIN master..spt_values t2
OPTION (MAXDOP 1);

DROP TABLE IF EXISTS dbo.[BIG_TABLE(FOR_U)];

CREATE TABLE dbo.[BIG_TABLE(FOR_U)] (
ID BIGINT NOT NULL,
[VALUE] BIGINT NULL
);

INSERT INTO dbo.[BIG_TABLE(FOR_U)] WITH (TABLOCK)
SELECT 10000 * t1.ID + t2.ID, CASE WHEN (t1.ID + t2.ID) % 3 = 1 THEN t2.ID ELSE NULL END
FROM #t t1
CROSS JOIN #t t2;

CREATE UNIQUE CLUSTERED INDEX ADD_ORDERING ON dbo.[BIG_TABLE(FOR_U)] (ID);

7

एक विधि का उपयोग करके OVER()और MAX()और COUNT()के आधार पर इस स्रोत हो सकता है:

SELECT ID, MAX(value) OVER (PARTITION BY Value2) as value
FROM
(
    SELECT ID, value
        ,COUNT(value) OVER (ORDER BY ID) AS Value2
    FROM dbo.HugeTable
) a
ORDER BY ID;

परिणाम

Id  UpdatedValue
1   136
2   136
3   650
4   650
5   650
6   650
7   954
8   954
9   104
10  104

इस स्रोत पर आधारित एक अन्य विधि , पहले उदाहरण के साथ निकटता से संबंधित है

;WITH CTE As 
( 
SELECT  value,
        Id, 
        COUNT(value) 
        OVER(ORDER BY Id) As  Value2 
FROM dbo.HugeTable
),

CTE2 AS ( 
SELECT Id,
       value,
       First_Value(value)  
       OVER( PARTITION BY Value2
             ORDER BY Id) As UpdatedValue 
FROM CTE 
            ) 
SELECT Id,UpdatedValue 
FROM CTE2;

3
इन दृष्टिकोणों को जोड़ने के बारे में विचार करें कि ये दृष्टिकोण "विशाल तालिका" के साथ कैसा प्रदर्शन करते हैं।
जो ओबिश
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.