यह समस्या आइटमों के बीच के लिंक के बारे में है। यह इसे रेखांकन और ग्राफ प्रसंस्करण के दायरे में रखता है । विशेष रूप से, संपूर्ण डेटासेट एक ग्राफ बनाता है और हम उस ग्राफ के घटकों की तलाश करते हैं । यह प्रश्न से नमूना डेटा के एक भूखंड द्वारा चित्रित किया जा सकता है।
प्रश्न कहता है कि हम उस मूल्य को साझा करने वाली अन्य पंक्तियों को खोजने के लिए GroupKey या RecordKey का अनुसरण कर सकते हैं। तो हम दोनों को एक ग्राफ में वर्टेक्स के रूप में मान सकते हैं। सवाल यह बताने के लिए जाता है कि GroupKeys 1-3 के पास समान SupergroupKey कैसे है। इसे पतली रेखाओं से जुड़े बाईं ओर के क्लस्टर के रूप में देखा जा सकता है। चित्र मूल डेटा द्वारा गठित दो अन्य घटकों (SupergroupKey) को भी दर्शाता है।
SQL सर्वर में T-SQL में निर्मित कुछ ग्राफ प्रोसेसिंग क्षमता है। इस समय, यह काफी कम है, और इस समस्या से मददगार नहीं है। एसक्यूएल सर्वर में आर और पायथन को कॉल करने की क्षमता भी है, और उनके लिए उपलब्ध पैकेजों के समृद्ध और मजबूत सूट। ऐसा ही एक है इग्राफ । यह "बड़े रेखांकन के तेजी से निपटने, लाखों कोने और किनारों ( लिंक ) के साथ" के लिए लिखा गया है ।
R और igraph का उपयोग करके मैं स्थानीय परीक्षण 1 में 2 मिनट 22 सेकंड में एक मिलियन पंक्तियों को संसाधित करने में सक्षम था । यह इस तरह से वर्तमान सबसे अच्छा समाधान के खिलाफ तुलना करता है:
Record Keys Paul White R
------------ ---------- --------
Per question 15ms ~220ms
100 80ms ~270ms
1,000 250ms 430ms
10,000 1.4s 1.7s
100,000 14s 14s
1M 2m29 2m22s
1M n/a 1m40 process only, no display
The first column is the number of distinct RecordKey values. The number of rows
in the table will be 8 x this number.
1M पंक्तियों को संसाधित करते समय, ग्राफ़ को लोड करने और संसाधित करने और तालिका को अपडेट करने के लिए 1m40s का उपयोग किया गया था। आउटपुट के साथ SSMS परिणाम तालिका को पॉप्युलेट करने के लिए 42s आवश्यक थे।
टास्क मैनेजर का अवलोकन जबकि 1M पंक्तियों को संसाधित करने के बारे में सुझाव दिया गया था कि लगभग 3 जीबी की कार्यशील मेमोरी की आवश्यकता थी। यह इस सिस्टम पर पेजिंग के बिना उपलब्ध था।
मैं पुनरावर्ती CTE दृष्टिकोण के Ypercube के मूल्यांकन की पुष्टि कर सकता हूं। कुछ सौ रिकॉर्ड कीज़ के साथ इसने 100% सीपीयू और सभी उपलब्ध रैम का उपभोग किया। आखिरकार tempdb 80GB से अधिक हो गया और SPID क्रैश हो गया।
मैंने SupergroupKey कॉलम के साथ पॉल की तालिका का उपयोग किया ताकि समाधानों के बीच उचित तुलना हो।
किसी कारण से R ने Poincaré पर उच्चारण पर आपत्ति जताई। इसे एक सादे "ई" में बदलने से इसे चलाने की अनुमति मिली। मैंने जांच नहीं की क्योंकि यह हाथ में समस्या के लिए जर्मन नहीं है। मुझे यकीन है कि एक समाधान है।
यहाँ कोड है
-- This captures the output from R so the base table can be updated.
drop table if exists #Results;
create table #Results
(
Component int not NULL,
Vertex varchar(12) not NULL primary key
);
truncate table #Results; -- facilitates re-execution
declare @Start time = sysdatetimeoffset(); -- for a 'total elapsed' calculation.
insert #Results(Component, Vertex)
exec sp_execute_external_script
@language = N'R',
@input_data_1 = N'select GroupKey, RecordKey from dbo.Example',
@script = N'
library(igraph)
df.g <- graph.data.frame(d = InputDataSet, directed = FALSE)
cpts <- components(df.g, mode = c("weak"))
OutputDataSet <- data.frame(cpts$membership)
OutputDataSet$VertexName <- V(df.g)$name
';
-- Write SuperGroupKey to the base table, as other solutions do
update e
set
SupergroupKey = r.Component
from dbo.Example as e
inner join #Results as r
on r.Vertex = e.RecordKey;
-- Return all rows, as other solutions do
select
e.SupergroupKey,
e.GroupKey,
e.RecordKey
from dbo.Example as e;
-- Calculate the elapsed
declare @End time = sysdatetimeoffset();
select Elapse_ms = DATEDIFF(MILLISECOND, @Start, @End);
यही आर कोड करता है
@input_data_1
SQL सर्वर किसी तालिका से R कोड में डेटा कैसे स्थानांतरित करता है और इसे InputDataSet नामक R डेटाफ़्रेम में अनुवाद करता है।
library(igraph)
आर निष्पादन वातावरण में पुस्तकालय आयात करता है।
df.g <- graph.data.frame(d = InputDataSet, directed = FALSE)
डेटा को एक igraph ऑब्जेक्ट में लोड करें। यह एक अप्रत्यक्ष ग्राफ़ है क्योंकि हम समूह से लिंक को रिकॉर्ड करने या समूह में रिकॉर्ड करने के लिए अनुसरण कर सकते हैं। InputDataSet R को भेजे गए डेटासेट के लिए SQL सर्वर का डिफ़ॉल्ट नाम है।
cpts <- components(df.g, mode = c("weak"))
असतत उप-ग्राफ़ (घटकों) और अन्य उपायों को खोजने के लिए ग्राफ़ को संसाधित करें।
OutputDataSet <- data.frame(cpts$membership)
SQL सर्वर को R से एक डेटा फ़्रेम वापस मिलने की उम्मीद है। इसका डिफ़ॉल्ट नाम OutputDataSet है। घटकों को "सदस्यता" नामक एक वेक्टर में संग्रहीत किया जाता है। यह कथन वेक्टर को डेटा फ्रेम में अनुवाद करता है।
OutputDataSet$VertexName <- V(df.g)$name
V () ग्राफ में वर्टीकल का एक वेक्टर है - GroupKeys और RecordKeys की एक सूची। यह उन्हें ouput डेटा फ़्रेम में कॉपी करता है, जो वर्टेक्नाम नाम का एक नया कॉलम बनाता है। यह SupergroupKey को अपडेट करने के लिए स्रोत तालिका से मिलान करने के लिए उपयोग की जाने वाली कुंजी है।
मैं कोई आर एक्सपर्ट नहीं हूं। संभवतः यह अनुकूलित किया जा सकता है।
परीक्षण डेटा
ओपी का डेटा सत्यापन के लिए उपयोग किया गया था। स्केल टेस्ट के लिए मैंने निम्नलिखित स्क्रिप्ट का उपयोग किया।
drop table if exists Records;
drop table if exists Groups;
create table Groups(GroupKey int NOT NULL primary key);
create table Records(RecordKey varchar(12) NOT NULL primary key);
go
set nocount on;
-- Set @RecordCount to the number of distinct RecordKey values desired.
-- The number of rows in dbo.Example will be 8 * @RecordCount.
declare @RecordCount int = 1000000;
-- @Multiplier was determined by experiment.
-- It gives the OP's "8 RecordKeys per GroupKey and 4 GroupKeys per RecordKey"
-- and allows for clashes of the chosen random values.
declare @Multiplier numeric(4, 2) = 2.7;
-- The number of groups required to reproduce the OP's distribution.
declare @GroupCount int = FLOOR(@RecordCount * @Multiplier);
-- This is a poor man's numbers table.
insert Groups(GroupKey)
select top(@GroupCount)
ROW_NUMBER() over (order by (select NULL))
from sys.objects as a
cross join sys.objects as b
--cross join sys.objects as c -- include if needed
declare @c int = 0
while @c < @RecordCount
begin
-- Can't use a set-based method since RAND() gives the same value for all rows.
-- There are better ways to do this, but it works well enough.
-- RecordKeys will be 10 letters, a-z.
insert Records(RecordKey)
select
CHAR(97 + (26*RAND())) +
CHAR(97 + (26*RAND())) +
CHAR(97 + (26*RAND())) +
CHAR(97 + (26*RAND())) +
CHAR(97 + (26*RAND())) +
CHAR(97 + (26*RAND())) +
CHAR(97 + (26*RAND())) +
CHAR(97 + (26*RAND())) +
CHAR(97 + (26*RAND())) +
CHAR(97 + (26*RAND()));
set @c += 1;
end
-- Process each RecordKey in alphabetical order.
-- For each choose 8 GroupKeys to pair with it.
declare @RecordKey varchar(12) = '';
declare @Groups table (GroupKey int not null);
truncate table dbo.Example;
select top(1) @RecordKey = RecordKey
from Records
where RecordKey > @RecordKey
order by RecordKey;
while @@ROWCOUNT > 0
begin
print @Recordkey;
delete @Groups;
insert @Groups(GroupKey)
select distinct C
from
(
-- Hard-code * from OP's statistics
select FLOOR(RAND() * @GroupCount)
union all
select FLOOR(RAND() * @GroupCount)
union all
select FLOOR(RAND() * @GroupCount)
union all
select FLOOR(RAND() * @GroupCount)
union all
select FLOOR(RAND() * @GroupCount)
union all
select FLOOR(RAND() * @GroupCount)
union all
select FLOOR(RAND() * @GroupCount)
union all
select FLOOR(RAND() * @GroupCount)
) as T(C);
insert dbo.Example(GroupKey, RecordKey)
select
GroupKey, @RecordKey
from @Groups;
select top(1) @RecordKey = RecordKey
from Records
where RecordKey > @RecordKey
order by RecordKey;
end
-- Rebuild the indexes to have a consistent environment
alter index iExample on dbo.Example rebuild partition = all
WITH (PAD_INDEX = OFF, STATISTICS_NORECOMPUTE = OFF, SORT_IN_TEMPDB = OFF,
ONLINE = OFF, ALLOW_ROW_LOCKS = ON, ALLOW_PAGE_LOCKS = ON);
-- Check what we ended up with:
select COUNT(*) from dbo.Example; -- Should be @RecordCount * 8
-- Often a little less due to random clashes
select
ByGroup = AVG(C)
from
(
select CONVERT(float, COUNT(1) over(partition by GroupKey))
from dbo.Example
) as T(C);
select
ByRecord = AVG(C)
from
(
select CONVERT(float, COUNT(1) over(partition by RecordKey))
from dbo.Example
) as T(C);
मैंने अभी महसूस किया है कि मैंने ओपी की परिभाषा से अनुपात को गलत तरीके से प्राप्त किया है। मुझे विश्वास नहीं है कि यह समय को प्रभावित करेगा। रिकॉर्ड और समूह इस प्रक्रिया के लिए सममित हैं। एल्गोरिथ्म के लिए वे सभी एक ग्राफ में सिर्फ नोड्स हैं।
डेटा के परीक्षण में हमेशा एक ही घटक का गठन किया। मेरा मानना है कि यह डेटा के समान वितरण के कारण है। अगर स्टैटिक 1: 8 अनुपात के बजाय हार्ड-कोडेड पीढ़ी की दिनचर्या में मैंने अनुपात को अलग-अलग करने की अनुमति दी थी तो अधिक संभावना है कि आगे घटक होंगे।
1 मशीन युक्ति: Microsoft SQL सर्वर 2017 (RTM-CU12), डेवलपर संस्करण (64-बिट), विंडोज 10 होम। 16GB रैम, SSD, 4 कोर हाइपरथ्रेडेड i7, 2.8GHz नाममात्र। परीक्षण केवल उस समय चल रहे आइटम थे, जो सामान्य सिस्टम गतिविधि (लगभग 4% सीपीयू) के अलावा अन्य थे।