मैं PostgresSQL 9.2 चला रहा हूं और लगभग 6,700,000 पंक्तियों के साथ 12 कॉलम का संबंध है। इसमें 3 डी स्पेस में नोड होते हैं, प्रत्येक एक उपयोगकर्ता को संदर्भित करता है (जिसने इसे बनाया है)। क्वेरी करने के लिए कि उपयोगकर्ता ने कितने नोड्स बनाए हैं जो मैं निम्नलिखित करता हूं ( explain analyze
अधिक जानकारी के लिए जोड़ा गया ):
EXPLAIN ANALYZE SELECT user_id, count(user_id) FROM treenode WHERE project_id=1 GROUP BY user_id;
QUERY PLAN
---------------------------------------------------------------------------------------------------------------------------
HashAggregate (cost=253668.70..253669.07 rows=37 width=8) (actual time=1747.620..1747.623 rows=38 loops=1)
-> Seq Scan on treenode (cost=0.00..220278.79 rows=6677983 width=8) (actual time=0.019..886.803 rows=6677983 loops=1)
Filter: (project_id = 1)
Total runtime: 1747.653 ms
जैसा कि आप देख सकते हैं, यह लगभग 1.7 सेकंड लेता है। यह डेटा की मात्रा को देखते हुए बहुत बुरा नहीं है, लेकिन मुझे आश्चर्य है कि अगर इसमें सुधार किया जा सकता है। मैंने उपयोगकर्ता कॉलम पर BTree इंडेक्स जोड़ने की कोशिश की, लेकिन इससे किसी भी तरह से मदद नहीं मिली।
क्या आपके पास वैकल्पिक सुझाव हैं?
पूर्णता की खातिर, यह सभी सूचकांकों के साथ पूर्ण तालिका परिभाषा है (विदेशी कुंजी बाधाओं के बिना, संदर्भ और ट्रिगर):
Column | Type | Modifiers
---------------+--------------------------+------------------------------------------------------
id | bigint | not null default nextval('concept_id_seq'::regclass)
user_id | bigint | not null
creation_time | timestamp with time zone | not null default now()
edition_time | timestamp with time zone | not null default now()
project_id | bigint | not null
location | double3d | not null
reviewer_id | integer | not null default (-1)
review_time | timestamp with time zone |
editor_id | integer |
parent_id | bigint |
radius | double precision | not null default 0
confidence | integer | not null default 5
skeleton_id | bigint |
Indexes:
"treenode_pkey" PRIMARY KEY, btree (id)
"treenode_id_key" UNIQUE CONSTRAINT, btree (id)
"skeleton_id_treenode_index" btree (skeleton_id)
"treenode_editor_index" btree (editor_id)
"treenode_location_x_index" btree (((location).x))
"treenode_location_y_index" btree (((location).y))
"treenode_location_z_index" btree (((location).z))
"treenode_parent_id" btree (parent_id)
"treenode_user_index" btree (user_id)
संपादित करें: यह परिणाम है, जब मैं @ypercube द्वारा प्रस्तावित क्वेरी (और इंडेक्स) का उपयोग करता हूं (क्वेरी लगभग 5.3 सेकंड के बिना EXPLAIN ANALYZE
):
EXPLAIN ANALYZE SELECT u.id, ( SELECT COUNT(*) FROM treenode AS t WHERE t.project_id=1 AND t.user_id = u.id ) AS number_of_nodes FROM auth_user As u;
QUERY PLAN
----------------------------------------------------------------------------------------------------------------------------------------------------------
Seq Scan on auth_user u (cost=0.00..6987937.85 rows=46 width=4) (actual time=29.934..5556.147 rows=46 loops=1)
SubPlan 1
-> Aggregate (cost=151911.65..151911.66 rows=1 width=0) (actual time=120.780..120.780 rows=1 loops=46)
-> Bitmap Heap Scan on treenode t (cost=4634.41..151460.44 rows=180486 width=0) (actual time=13.785..114.021 rows=145174 loops=46)
Recheck Cond: ((project_id = 1) AND (user_id = u.id))
Rows Removed by Index Recheck: 461076
-> Bitmap Index Scan on treenode_user_index (cost=0.00..4589.29 rows=180486 width=0) (actual time=13.082..13.082 rows=145174 loops=46)
Index Cond: ((project_id = 1) AND (user_id = u.id))
Total runtime: 5556.190 ms
(9 rows)
Time: 5556.804 ms
संपादित करें 2: यह, परिणाम है जब मैं एक का उपयोग index
पर project_id, user_id
(लेकिन कोई स्कीमा अनुकूलन, अभी तक) @ इरविन-brandstetter के रूप में (अपने मूल प्रश्न के रूप में एक ही गति से 1.5 सेकंड के साथ क्वेरी रन) का सुझाव दिया:
EXPLAIN ANALYZE SELECT user_id, count(user_id) as ct FROM treenode WHERE project_id=1 GROUP BY user_id;
QUERY PLAN
---------------------------------------------------------------------------------------------------------------------------
HashAggregate (cost=253670.88..253671.24 rows=37 width=8) (actual time=1807.334..1807.339 rows=38 loops=1)
-> Seq Scan on treenode (cost=0.00..220280.62 rows=6678050 width=8) (actual time=0.183..893.491 rows=6678050 loops=1)
Filter: (project_id = 1)
Total runtime: 1807.368 ms
(4 rows)
project_id
और user_id
? क्या तालिका निरंतर रूप से अपडेट की जाती है या आप भौतिक दृष्टि से (कुछ समय के लिए) काम कर सकते हैं?
Users
साथuser_id
प्राथमिक कुंजी के रूप?