चावल के दाने गिनना


81

सफेद चावल के बिना पके अनाज की विभिन्न मात्रा की इन 10 छवियों पर विचार करें।
ये केवल थम्बनेल हैं। इसे पूर्ण आकार में देखने के लिए किसी चित्र पर क्लिक करें।

A: B: C: D: E:ए बी सी डी इ

एफ: जी: एच: आई: जे:एफ जी एच मैं जे

अनाज की गणना: A: 3, B: 5, C: 12, D: 25, E: 50, F: 83, G: 120, H:150, I: 151, J: 200

नोटिस जो...

  • अनाज एक दूसरे को छू सकते हैं लेकिन वे कभी भी ओवरलैप नहीं होते हैं। अनाज का लेआउट कभी भी एक से अधिक अनाज का नहीं होता है।
  • छवियों के अलग-अलग आयाम हैं लेकिन उन सभी में चावल का पैमाना सुसंगत है क्योंकि कैमरा और पृष्ठभूमि स्थिर थे।
  • अनाज कभी भी सीमा से बाहर नहीं जाता है या छवि की सीमाओं को नहीं छूता है।
  • पृष्ठभूमि हमेशा पीले-सफेद की एक ही सुसंगत छाया होती है।
  • छोटे और बड़े अनाज को एक-एक दाने के रूप में गिना जाता है।

ये 5 अंक इस प्रकार की सभी छवियों के लिए गारंटी हैं।

चुनौती

एक कार्यक्रम लिखें जो इस तरह की छवियों में लेता है और, जितना संभव हो उतना सटीक रूप से चावल के अनाज की संख्या को गिना जाता है।

आपके कार्यक्रम को छवि का फ़ाइल नाम लेना चाहिए और इसकी गणना करने वाले अनाज की संख्या को प्रिंट करना चाहिए। आपका प्रोग्राम कम से कम एक छवि फ़ाइल स्वरूपों के लिए काम करना चाहिए: JPEG, Bitmap, PNG, GIF, TIFF (अभी छवियां सभी JPEG हैं)।

आप छवि प्रसंस्करण और कंप्यूटर दृष्टि पुस्तकालयों का उपयोग कर सकते हैं।

आप 10 उदाहरण छवियों के आउटपुट को हार्डकोड नहीं कर सकते हैं। आपका एल्गोरिदम सभी समान चावल-अनाज छवियों पर लागू होना चाहिए। यह एक सभ्य आधुनिक कंप्यूटर पर 5 मिनट से कम समय में चलने में सक्षम होना चाहिए यदि छवि क्षेत्र 2000 * 2000 पिक्सल से कम है और चावल के 300 से कम अनाज हैं।

स्कोरिंग

10 छवियों में से प्रत्येक के लिए अनाज की वास्तविक संख्या का पूर्ण मान लें जो आपके कार्यक्रम की भविष्यवाणी करता है अनाज की संख्या। अपना स्कोर पाने के लिए इन पूर्ण मूल्यों का योग करें। सबसे कम स्कोर जीतता है। 0 का स्कोर एकदम सही है।

संबंधों के मामले में सबसे अधिक मतदान उत्तर जीतता है। मैं इसकी वैधता और सटीकता को सत्यापित करने के लिए अतिरिक्त छवियों पर आपके कार्यक्रम का परीक्षण कर सकता हूं।


1
निश्चित रूप से किसी को scikit- सीखने की कोशिश करनी है!

महान प्रतियोगिता! :) Btw - हमें इस चुनौती की अंतिम तिथि के बारे में कुछ बता सकता है?
3

1
@ लिम्बिक डाउन 7 से 7 :)
डॉ। बिसरिसेर

5
एक दिन, एक चावल वैज्ञानिक के साथ आने वाला है और हील्स के सिर पर खुशी है कि यह सवाल मौजूद है।
लीख

जवाबों:


22

गणितज्ञ, स्कोर: score

i = {"http://i.stack.imgur.com/8T6W2.jpg",  "http://i.stack.imgur.com/pgWt1.jpg", 
     "http://i.stack.imgur.com/M0K5w.jpg",  "http://i.stack.imgur.com/eUFNo.jpg", 
     "http://i.stack.imgur.com/2TFdi.jpg",  "http://i.stack.imgur.com/wX48v.jpg", 
     "http://i.stack.imgur.com/eXCGt.jpg",  "http://i.stack.imgur.com/9na4J.jpg",
     "http://i.stack.imgur.com/UMP9V.jpg",  "http://i.stack.imgur.com/nP3Hr.jpg"};

im = Import /@ i;

मुझे लगता है कि फ़ंक्शन के नाम पर्याप्त रूप से वर्णनात्मक हैं:

getSatHSVChannelAndBinarize[i_Image]             := Binarize@ColorSeparate[i, "HSB"][[2]]
removeSmallNoise[i_Image]                        := DeleteSmallComponents[i, 100]
fillSmallHoles[i_Image]                          := Closing[i, 1]
getMorphologicalComponentsAreas[i_Image]         := ComponentMeasurements[i, "Area"][[All, 2]]
roundAreaSizeToGrainCount[areaSize_, grainSize_] := Round[areaSize/grainSize]

एक बार में सभी चित्रों को संसाधित करना:

counts = Plus @@@
  (roundAreaSizeToGrainCount[#, 2900] & /@
      (getMorphologicalComponentsAreas@
        fillSmallHoles@
         removeSmallNoise@
          getSatHSVChannelAndBinarize@#) & /@ im)

(* Output {3, 5, 12, 25, 49, 83, 118, 149, 152, 202} *)

स्कोर है:

counts - {3, 5, 12, 25, 50, 83, 120, 150, 151, 200} // Abs // Total
(* 7 *)

यहाँ आप स्कोर संवेदनशीलता को उपयोग किए गए अनाज के आकार को देख सकते हैं:

गणितज्ञ ग्राफिक्स


2
बहुत स्पष्ट है, धन्यवाद!
केल्विन के शौक 0

क्या इस सटीक प्रक्रिया को अजगर में कॉपी किया जा सकता है या क्या कुछ विशेष गणितज्ञ यहां कर रहा है जो अजगर पुस्तकालय नहीं कर सकते?

@ लेम्बिक कोई विचार नहीं है। यहां कोई अजगर नहीं। माफ़ करना। (हालांकि, मुझे इसके लिए सटीक समान एल्गोरिदम पर संदेह है EdgeDetect[], DeleteSmallComponents[]और Dilation[]कहीं और लागू किया जाता है)
डॉ। बिसरिसेर

55

पायथन, स्कोर: 24 16

यह समाधान, जैसे फाल्को एक, "अग्रभूमि" क्षेत्र को मापने और औसत अनाज क्षेत्र द्वारा इसे विभाजित करने पर आधारित है।

वास्तव में, यह कार्यक्रम जो पता लगाने की कोशिश करता है वह पृष्ठभूमि है, न कि अग्रभूमि के रूप में। इस तथ्य का उपयोग करते हुए कि चावल के दाने छवि की सीमा को कभी नहीं छूते हैं, कार्यक्रम शीर्ष-बाएं कोने पर बाढ़-भरने वाले सफेद रंग से शुरू होता है। यदि उनके और वर्तमान पिक्सेल की चमक के बीच का अंतर एक निश्चित सीमा के भीतर है, तो बाढ़ के रंग का एल्गोरिथ्म आसन्न पिक्सेल को पेंट करता है, इस प्रकार पृष्ठभूमि के रंग में क्रमिक परिवर्तन को समायोजित करता है। इस चरण के अंत में, छवि कुछ इस तरह दिख सकती है:

आकृति 1

जैसा कि आप देख सकते हैं, यह पृष्ठभूमि का पता लगाने में बहुत अच्छा काम करता है, लेकिन यह अनाज के बीच "फंस" वाले किसी भी क्षेत्र को छोड़ देता है। हम प्रत्येक पिक्सेल पर पृष्ठभूमि की चमक का आकलन करके और सभी समान या उज्जवल पिक्सल को पैनिट करके इन क्षेत्रों को संभालते हैं। यह अनुमान इस तरह काम करता है: बाढ़-भराव चरण के दौरान, हम प्रत्येक पंक्ति और प्रत्येक स्तंभ के लिए औसत पृष्ठभूमि चमक की गणना करते हैं। प्रत्येक पिक्सेल पर अनुमानित पृष्ठभूमि चमक उस पिक्सेल पर पंक्ति और स्तंभ चमक का औसत है। यह कुछ इस तरह का उत्पादन करता है:

चित्र 2

संपादित करें: अंत में, प्रत्येक निरंतर अग्रभूमि (यानी गैर-श्वेत) क्षेत्र का क्षेत्र औसत से विभाजित होता है, अनाज, अनाज क्षेत्र, हमें उक्त क्षेत्र में अनाज की गिनती का अनुमान देता है। इन राशियों का योग परिणाम है। प्रारंभ में, हमने पूरे अग्रभूमि क्षेत्र के लिए एक पूरे के रूप में एक ही काम किया, लेकिन यह दृष्टिकोण, शाब्दिक रूप से अधिक बारीक है।


from sys import argv; from PIL import Image

# Init
I = Image.open(argv[1]); W, H = I.size; A = W * H
D = [sum(c) for c in I.getdata()]
Bh = [0] * H; Ch = [0] * H
Bv = [0] * W; Cv = [0] * W

# Flood-fill
Background = 3 * 255 + 1; S = [0]
while S:
    i = S.pop(); c = D[i]
    if c != Background:
        D[i] = Background
        Bh[i / W] += c; Ch[i / W] += 1
        Bv[i % W] += c; Cv[i % W] += 1
        S += [(i + o) % A for o in [1, -1, W, -W] if abs(D[(i + o) % A] - c) < 10]

# Eliminate "trapped" areas
for i in xrange(H): Bh[i] /= float(max(Ch[i], 1))
for i in xrange(W): Bv[i] /= float(max(Cv[i], 1))
for i in xrange(A):
    a = (Bh[i / W] + Bv[i % W]) / 2
    if D[i] >= a: D[i] = Background

# Estimate grain count
Foreground = -1; avg_grain_area = 3038.38; grain_count = 0
for i in xrange(A):
    if Foreground < D[i] < Background:
        S = [i]; area = 0
        while S:
            j = S.pop() % A
            if Foreground < D[j] < Background:
                D[j] = Foreground; area += 1
                S += [j - 1, j + 1, j - W, j + W]
        grain_count += int(round(area / avg_grain_area))

# Output
print grain_count

कॉमन लाइन के माध्यम से इनपुट फ़ाइल नाम लेता है।

परिणाम

      Actual  Estimate  Abs. Error
A         3         3           0
B         5         5           0
C        12        12           0
D        25        25           0
E        50        48           2
F        83        83           0
G       120       116           4
H       150       145           5
I       151       156           5
J       200       200           0
                        ----------
                Total:         16

ए बी सी डी इ

एफ जी एच मैं जे


2
यह वास्तव में चतुर समाधान है, अच्छा काम है!
क्रिस सिरफिस

1
कहा avg_grain_area = 3038.38;से आता है
njzk2

2
कि गिनती के रूप में नहीं है hardcoding the result?
njzk2

5
@ njzk2 No. नियम को देखते हुए The images have different dimensions but the scale of the rice in all of them is consistent because the camera and background were stationary.यह केवल एक मूल्य है जो उस नियम का प्रतिनिधित्व करता है। हालाँकि, परिणाम इनपुट के अनुसार बदलता रहता है। यदि आप नियम बदलते हैं, तो यह मान बदल जाएगा, लेकिन परिणाम एक ही होगा - इनपुट के आधार पर।
एडम डेविस 19

6
मैं औसत क्षेत्र की बात से ठीक हूं। अनाज क्षेत्र छवियों के पार (लगभग) स्थिर है।
केल्विन के शौक

28

पायथन + ओपनसीवी: स्कोर 27

क्षैतिज रेखा स्कैनिंग

आइडिया: इमेज स्कैन करें, एक बार में एक पंक्ति। प्रत्येक पंक्ति के लिए, अंकित चावल के दानों को गिनें (यह जांच कर कि क्या पिक्सेल काले से सफेद या विपरीत होता है)। यदि लाइन में वृद्धि के लिए अनाज की संख्या (पिछली पंक्ति की तुलना में) है, तो इसका मतलब है कि हमें एक नए अनाज का सामना करना पड़ा। यदि यह संख्या घटती है, तो इसका मतलब है कि हम एक अनाज के ऊपर से गुजरे हैं। इस स्थिति में, कुल परिणाम में +1 जोड़ें।

यहाँ छवि विवरण दर्ज करें

Number in red = rice grains encountered for that line
Number in gray = total amount of grains encountered (what we are looking for)

एल्गोरिथम काम करने के तरीके के कारण, एक साफ, बी / डब्ल्यू छवि होना महत्वपूर्ण है। बहुत शोर खराब परिणाम देता है। पहले मुख्य पृष्ठभूमि को फ्लडफ़िल (एल उत्तर के समान समाधान) का उपयोग करके साफ किया जाता है फिर काले और सफेद परिणाम उत्पन्न करने के लिए थ्रेशोल्ड लागू किया जाता है।

यहाँ छवि विवरण दर्ज करें

यह एकदम सही है, लेकिन यह सादगी के बारे में अच्छे परिणाम देता है। शायद इसे बेहतर बनाने के कई तरीके हैं (बेहतर बी / डब्ल्यू छवि प्रदान करके, अन्य दिशाओं में स्कैन करना (जैसे: ऊर्ध्वाधर, विकर्ण) औसत ले रहा है आदि ...)

import cv2
import numpy
import sys

filename = sys.argv[1]
I = cv2.imread(filename, 0)
h,w = I.shape[:2]
diff = (3,3,3)
mask = numpy.zeros((h+2,w+2),numpy.uint8)
cv2.floodFill(I,mask,(0,0), (255,255,255),diff,diff)
T,I = cv2.threshold(I,180,255,cv2.THRESH_BINARY)
I = cv2.medianBlur(I, 7)

totalrice = 0
oldlinecount = 0
for y in range(0, h):
    oldc = 0
    linecount = 0
    start = 0   
    for x in range(0, w):
        c = I[y,x] < 128;
        if c == 1 and oldc == 0:
            start = x
        if c == 0 and oldc == 1 and (x - start) > 10:
            linecount += 1
        oldc = c
    if oldlinecount != linecount:
        if linecount < oldlinecount:
            totalrice += oldlinecount - linecount
        oldlinecount = linecount
print totalrice

प्रति छवि त्रुटियां: 0, 0, 0, 3, 0, 12, 4, 0, 7, 1


24

पायथन + ओपनसीवी: स्कोर 84

यहाँ पहली भोली कोशिश है। यह मैन्युअल रूप से ट्यून किए गए मापदंडों के साथ एक अनुकूली सीमा लागू करता है, बाद के क्षरण और कमजोर पड़ने के साथ कुछ छेदों को बंद कर देता है और अग्रभूमि क्षेत्र से अनाज की संख्या प्राप्त करता है।

import cv2
import numpy as np

filename = raw_input()

I = cv2.imread(filename, 0)
I = cv2.medianBlur(I, 3)
bw = cv2.adaptiveThreshold(I, 255, cv2.ADAPTIVE_THRESH_GAUSSIAN_C, cv2.THRESH_BINARY, 101, 1)

kernel = cv2.getStructuringElement(cv2.MORPH_ELLIPSE, (17, 17))
bw = cv2.dilate(cv2.erode(bw, kernel), kernel)

print np.round_(np.sum(bw == 0) / 3015.0)

यहाँ आप देख सकते हैं मध्यवर्ती द्विआधारी छवियाँ (काला अग्रभूमि है):

यहाँ छवि विवरण दर्ज करें

प्रति छवि त्रुटियां 0, 0, 2, 2, 4, 0, 27, 42, 0 और 7 अनाज हैं।


20

C # + OpenCvSharp, स्कोर: 2

यह मेरा दूसरा प्रयास है। यह मेरे पहले प्रयास से काफी अलग है , जो बहुत सरल है, इसलिए मैं इसे एक अलग समाधान के रूप में पोस्ट कर रहा हूं।

मूल विचार यह है कि प्रत्येक व्यक्ति के दाने को एक सुव्यवस्थित दीर्घवृत्ताभ फिट द्वारा पहचाना और लेबल किया जाए। फिर स्रोत से इस अनाज के लिए पिक्सेल निकालें, और अगले अनाज को खोजने की कोशिश करें, जब तक कि प्रत्येक पिक्सेल लेबल न हो जाए।

यह सबसे सुंदर समाधान नहीं है। यह कोड की 600 लाइनों के साथ एक विशाल हॉग है। सबसे बड़ी छवि के लिए इसे 1.5 मिनट चाहिए। और मैं वास्तव में गन्दा कोड के लिए माफी माँगता हूँ।

इस चीज़ में सोचने के लिए बहुत सारे पैरामीटर और तरीके हैं कि मैं 10 नमूना छवियों के लिए अपने कार्यक्रम को ओवरफिट करने से काफी डरता हूं। 2 का अंतिम स्कोर लगभग निश्चित रूप से ओवरफिटिंग का मामला है: मेरे पास दो पैरामीटर हैं average grain size in pixel, और minimum ratio of pixel / elipse_area, और अंत में मैंने इन दो मापदंडों के सभी संयोजनों को समाप्त कर दिया, जब तक कि मुझे सबसे कम स्कोर नहीं मिला। मुझे यकीन नहीं है कि क्या यह सब इस चुनौती के नियमों के साथ कोषेर है।

average_grain_size_in_pixel = 2530
pixel / elipse_area >= 0.73

लेकिन यहां तक ​​कि इन overfitting चंगुल के बिना, परिणाम काफी अच्छे हैं। एक निश्चित अनाज आकार या पिक्सेल-अनुपात के बिना, प्रशिक्षण छवियों से औसत अनाज आकार का अनुमान लगाने से, स्कोर अभी भी 27 है।

और मुझे आउटपुट के रूप में न केवल संख्या, बल्कि प्रत्येक अनाज की वास्तविक स्थिति, अभिविन्यास और आकार मिलता है। गुमराह अनाज की एक छोटी संख्या है, लेकिन कुल मिलाकर अधिकांश लेबल वास्तविक अनाज से सटीक रूप से मेल खाते हैं:

ए बी बी सी सी डी डीइ

एफ एफ जी जी एच एच आई मैं जेजे

(पूर्ण आकार के संस्करण के लिए प्रत्येक छवि पर क्लिक करें)

इस लेबलिंग चरण के बाद, मेरा कार्यक्रम प्रत्येक व्यक्तिगत अनाज को देखता है, और पिक्सेल की संख्या और पिक्सेल / दीर्घवृत्त-क्षेत्र अनुपात के आधार पर अनुमान लगाता है कि क्या यह है

  • एक दाना (+1)
  • कई अनाज एक के रूप में गुमराह (+ एक्स)
  • एक अनाज होने के लिए बहुत छोटा एक बूँद (+0)

प्रत्येक छवि के लिए त्रुटि स्कोर हैं A:0; B:0; C:0; D:0; E:2; F:0; G:0 ; H:0; I:0, J:0

हालाँकि वास्तविक त्रुटि शायद थोड़ी अधिक है। एक ही छवि के भीतर कुछ त्रुटियां एक दूसरे को रद्द करती हैं। छवि एच में विशेष रूप से कुछ बुरी तरह से गुमराह अनाज हैं, जबकि छवि ई में लेबल ज्यादातर सही हैं

इस अवधारणा को थोड़ा विरोधाभास है:

  • पहले अग्रभूमि को संतृप्ति चैनल पर ओत्सु-थ्रॉल्डिंग के माध्यम से अलग किया जाता है (विवरण के लिए मेरा पिछला उत्तर देखें)

  • तब तक दोहराएं जब तक कि अधिक पिक्सेल शेष न हों:

    • सबसे बड़ी बूँद का चयन करें
    • एक अनाज के लिए पदों की शुरुआत के रूप में इस बूँद पर 10 यादृच्छिक बढ़त पिक्सल चुनें

    • प्रत्येक शुरुआती बिंदु के लिए

      • इस स्थिति में ऊंचाई और चौड़ाई 10 पिक्सेल के साथ एक अनाज मान लें।

      • अभिसरण तक दोहराएं

        • अलग-अलग कोणों पर इस बिंदु से रेडियल रूप से बाहर जाएं, जब तक कि आप एक किनारे पिक्सेल (सफेद-से-काला) से मुठभेड़ न करें

        • पाया पिक्सल उम्मीद है कि एक अनाज के किनारे पिक्सल होना चाहिए। किसी भी अन्य की तुलना में ग्रहण किए गए दीर्घवृत्त से अधिक दूर के पिक्सल को त्यागकर, आउटलेर्स से अलग-अलग इनसेटर करने का प्रयास करें।

        • बार-बार कोशिश करें कि कैदियों के सबसेट के माध्यम से एक दीर्घवृत्त को फिट किया जाए, सबसे अच्छा दीर्घवृत्त (RANSACK) रखें

        • पाए गए एलीप के साथ अनाज की स्थिति, अभिविन्यास, चौड़ाई और ऊंचाई को अपडेट करें

        • यदि अनाज की स्थिति में काफी बदलाव नहीं होता है, तो रोकें

    • 10 फिट अनाज के बीच, आकार के अनुसार सबसे अच्छा अनाज चुनें, किनारे पिक्सेल की संख्या। दूसरों को त्यागें

    • स्रोत छवि से इस अनाज के लिए सभी पिक्सेल निकालें, फिर दोहराएं

    • अंत में, पाया अनाज की सूची के माध्यम से जाना, और प्रत्येक अनाज को 1 अनाज, 0 अनाज (बहुत छोटा) या 2 अनाज (बहुत बड़ा) के रूप में गिनें

मेरी मुख्य समस्याओं में से एक यह था कि मैं पूर्ण दीर्घवृत्त-बिंदु दूरी मीट्रिक को लागू नहीं करना चाहता था, क्योंकि यह गणना करना कि अपने आप में एक जटिल पुनरावृत्ति प्रक्रिया है। इसलिए मैंने OpenCV फ़ंक्शंस Ellipse2Poly और FitEllipse का उपयोग करते हुए विभिन्न वर्कआर्ड्स का उपयोग किया, और परिणाम बहुत सुंदर नहीं हैं।

जाहिरा तौर पर मैंने कोडगोल्फ के लिए आकार की सीमा को भी तोड़ दिया।

एक उत्तर 30000 वर्णों तक सीमित है, वर्तमान में मैं 34000 पर हूं। इसलिए मुझे कुछ नीचे दिए गए कोड को छोटा करना होगा।

पूरा कोड http://pastebin.com/RgM7hMxq पर देखा जा सकता है

इसके लिए क्षमा करें, मुझे पता नहीं था कि आकार की सीमा थी।

class Program
{
    static void Main(string[] args)
    {

                // Due to size constraints, I removed the inital part of my program that does background separation. For the full source, check the link, or see my previous program.


                // list of recognized grains
                List<Grain> grains = new List<Grain>();

                Random rand = new Random(4); // determined by fair dice throw, guaranteed to be random

                // repeat until we have found all grains (to a maximum of 10000)
                for (int numIterations = 0; numIterations < 10000; numIterations++ )
                {
                    // erode the image of the remaining foreground pixels, only big blobs can be grains
                    foreground.Erode(erodedForeground,null,7);

                    // pick a number of starting points to fit grains
                    List<CvPoint> startPoints = new List<CvPoint>();
                    using (CvMemStorage storage = new CvMemStorage())
                    using (CvContourScanner scanner = new CvContourScanner(erodedForeground, storage, CvContour.SizeOf, ContourRetrieval.List, ContourChain.ApproxNone))
                    {
                        if (!scanner.Any()) break; // no grains left, finished!

                        // search for grains within the biggest blob first (this is arbitrary)
                        var biggestBlob = scanner.OrderByDescending(c => c.Count()).First();

                        // pick 10 random edge pixels
                        for (int i = 0; i < 10; i++)
                        {
                            startPoints.Add(biggestBlob.ElementAt(rand.Next(biggestBlob.Count())).Value);
                        }
                    }

                    // for each starting point, try to fit a grain there
                    ConcurrentBag<Grain> candidates = new ConcurrentBag<Grain>();
                    Parallel.ForEach(startPoints, point =>
                    {
                        Grain candidate = new Grain(point);
                        candidate.Fit(foreground);
                        candidates.Add(candidate);
                    });

                    Grain grain = candidates
                        .OrderByDescending(g=>g.Converged) // we don't want grains where the iterative fit did not finish
                        .ThenBy(g=>g.IsTooSmall) // we don't want tiny grains
                        .ThenByDescending(g => g.CircumferenceRatio) // we want grains that have many edge pixels close to the fitted elipse
                        .ThenBy(g => g.MeanSquaredError)
                        .First(); // we only want the best fit among the 10 candidates

                    // count the number of foreground pixels this grain has
                    grain.CountPixel(foreground);

                    // remove the grain from the foreground
                    grain.Draw(foreground,CvColor.Black);

                    // add the grain to the colection fo found grains
                    grains.Add(grain);
                    grain.Index = grains.Count;

                    // draw the grain for visualisation
                    grain.Draw(display, CvColor.Random());
                    grain.DrawContour(display, CvColor.Random());
                    grain.DrawEllipse(display, CvColor.Random());

                    //display.SaveImage("10-foundGrains.png");
                }

                // throw away really bad grains
                grains = grains.Where(g => g.PixelRatio >= 0.73).ToList();

                // estimate the average grain size, ignoring outliers
                double avgGrainSize =
                    grains.OrderBy(g => g.NumPixel).Skip(grains.Count/10).Take(grains.Count*9/10).Average(g => g.NumPixel);

                //ignore the estimated grain size, use a fixed size
                avgGrainSize = 2530;

                // count the number of grains, using the average grain size
                double numGrains = grains.Sum(g => Math.Round(g.NumPixel * 1.0 / avgGrainSize));

                // get some statistics
                double avgWidth = grains.Where(g => Math.Round(g.NumPixel * 1.0 / avgGrainSize) == 1).Average(g => g.Width);
                double avgHeight = grains.Where(g => Math.Round(g.NumPixel * 1.0 / avgGrainSize) == 1).Average(g => g.Height);
                double avgPixelRatio = grains.Where(g => Math.Round(g.NumPixel * 1.0 / avgGrainSize) == 1).Average(g => g.PixelRatio);

                int numUndersized = grains.Count(g => Math.Round(g.NumPixel * 1.0 / avgGrainSize) < 1);
                int numOversized = grains.Count(g => Math.Round(g.NumPixel * 1.0 / avgGrainSize) > 1);

                double avgWidthUndersized = grains.Where(g => Math.Round(g.NumPixel * 1.0 / avgGrainSize) < 1).Select(g=>g.Width).DefaultIfEmpty(0).Average();
                double avgHeightUndersized = grains.Where(g => Math.Round(g.NumPixel * 1.0 / avgGrainSize) < 1).Select(g => g.Height).DefaultIfEmpty(0).Average();
                double avgGrainSizeUndersized = grains.Where(g => Math.Round(g.NumPixel * 1.0 / avgGrainSize) < 1).Select(g => g.NumPixel).DefaultIfEmpty(0).Average();
                double avgPixelRatioUndersized = grains.Where(g => Math.Round(g.NumPixel * 1.0 / avgGrainSize) < 1).Select(g => g.PixelRatio).DefaultIfEmpty(0).Average();

                double avgWidthOversized = grains.Where(g => Math.Round(g.NumPixel * 1.0 / avgGrainSize) > 1).Select(g => g.Width).DefaultIfEmpty(0).Average();
                double avgHeightOversized = grains.Where(g => Math.Round(g.NumPixel * 1.0 / avgGrainSize) > 1).Select(g => g.Height).DefaultIfEmpty(0).Average();
                double avgGrainSizeOversized = grains.Where(g => Math.Round(g.NumPixel * 1.0 / avgGrainSize) > 1).Select(g => g.NumPixel).DefaultIfEmpty(0).Average();
                double avgPixelRatioOversized = grains.Where(g => Math.Round(g.NumPixel * 1.0 / avgGrainSize) > 1).Select(g => g.PixelRatio).DefaultIfEmpty(0).Average();


                Console.WriteLine("===============================");
                Console.WriteLine("Grains: {0}|{1:0.} of {2} (e{3}), size {4:0.}px, {5:0.}x{6:0.}  {7:0.000}  undersized:{8}  oversized:{9}   {10:0.0} minutes  {11:0.0} s per grain",grains.Count,numGrains,expectedGrains[fileNo],expectedGrains[fileNo]-numGrains,avgGrainSize,avgWidth,avgHeight, avgPixelRatio,numUndersized,numOversized,watch.Elapsed.TotalMinutes, watch.Elapsed.TotalSeconds/grains.Count);



                // draw the description for each grain
                foreach (Grain grain in grains)
                {
                    grain.DrawText(avgGrainSize, display, CvColor.Black);
                }

                display.SaveImage("10-foundGrains.png");
                display.SaveImage("X-" + file + "-foundgrains.png");
            }
        }
    }
}



public class Grain
{
    private const int MIN_WIDTH = 70;
    private const int MAX_WIDTH = 130;
    private const int MIN_HEIGHT = 20;
    private const int MAX_HEIGHT = 35;

    private static CvFont font01 = new CvFont(FontFace.HersheyPlain, 0.5, 1);
    private Random random = new Random(4); // determined by fair dice throw; guaranteed to be random


    /// <summary> center of grain </summary>
    public CvPoint2D32f Position { get; private set; }
    /// <summary> Width of grain (always bigger than height)</summary>
    public float Width { get; private set; }
    /// <summary> Height of grain (always smaller than width)</summary>
    public float Height { get; private set; }

    public float MinorRadius { get { return this.Height / 2; } }
    public float MajorRadius { get { return this.Width / 2; } }
    public double Angle { get; private set; }
    public double AngleRad { get { return this.Angle * Math.PI / 180; } }

    public int Index { get; set; }
    public bool Converged { get; private set; }
    public int NumIterations { get; private set; }
    public double CircumferenceRatio { get; private set; }
    public int NumPixel { get; private set; }
    public List<EllipsePoint> EdgePoints { get; private set; }
    public double MeanSquaredError { get; private set; }
    public double PixelRatio { get { return this.NumPixel / (Math.PI * this.MajorRadius * this.MinorRadius); } }
    public bool IsTooSmall { get { return this.Width < MIN_WIDTH || this.Height < MIN_HEIGHT; } }

    public Grain(CvPoint2D32f position)
    {
        this.Position = position;
        this.Angle = 0;
        this.Width = 10;
        this.Height = 10;
        this.MeanSquaredError = double.MaxValue;
    }

    /// <summary>  fit a single rice grain of elipsoid shape </summary>
    public void Fit(CvMat img)
    {
        // distance between the sampled points on the elipse circumference in degree
        int angularResolution = 1;

        // how many times did the fitted ellipse not change significantly?
        int numConverged = 0;

        // number of iterations for this fit
        int numIterations;

        // repeat until the fitted ellipse does not change anymore, or the maximum number of iterations is reached
        for (numIterations = 0; numIterations < 100 && !this.Converged; numIterations++)
        {
            // points on an ideal ellipse
            CvPoint[] points;
            Cv.Ellipse2Poly(this.Position, new CvSize2D32f(MajorRadius, MinorRadius), Convert.ToInt32(this.Angle), 0, 359, out points,
                            angularResolution);

            // points on the edge of foregroudn to background, that are close to the elipse
            CvPoint?[] edgePoints = new CvPoint?[points.Length];

            // remeber if the previous pixel in a given direction was foreground or background
            bool[] prevPixelWasForeground = new bool[points.Length];

            // when the first edge pixel is found, this value is updated
            double firstEdgePixelOffset = 200;

            // from the center of the elipse towards the outside:
            for (float offset = -this.MajorRadius + 1; offset < firstEdgePixelOffset + 20; offset++)
            {
                // draw an ellipse with the given offset
                Cv.Ellipse2Poly(this.Position, new CvSize2D32f(MajorRadius + offset, MinorRadius + (offset > 0 ? offset : MinorRadius / MajorRadius * offset)), Convert.ToInt32(this.Angle), 0,
                                359, out points, angularResolution);

                // for each angle
                Parallel.For(0, points.Length, i =>
                {
                    if (edgePoints[i].HasValue) return; // edge for this angle already found

                    // check if the current pixel is foreground
                    bool foreground = points[i].X < 0 || points[i].Y < 0 || points[i].X >= img.Cols || points[i].Y >= img.Rows
                                          ? false // pixel outside of image borders is always background
                                          : img.Get2D(points[i].Y, points[i].X).Val0 > 0;


                    if (prevPixelWasForeground[i] && !foreground)
                    {
                        // found edge pixel!
                        edgePoints[i] = points[i];

                        // if this is the first edge pixel we found, remember its offset. the other pixels cannot be too far away, so we can stop searching soon
                        if (offset < firstEdgePixelOffset && offset > 0) firstEdgePixelOffset = offset;
                    }

                    prevPixelWasForeground[i] = foreground;
                });
            }

            // estimate the distance of each found edge pixel from the ideal elipse
            // this is a hack, since the actual equations for estimating point-ellipse distnaces are complicated
            Cv.Ellipse2Poly(this.Position, new CvSize2D32f(MajorRadius, MinorRadius), Convert.ToInt32(this.Angle), 0, 360,
                            out points, angularResolution);
            var pointswithDistance =
                edgePoints.Select((p, i) => p.HasValue ? new EllipsePoint(p.Value, points[i], this.Position) : null)
                          .Where(p => p != null).ToList();

            if (pointswithDistance.Count == 0)
            {
                Console.WriteLine("no points found! should never happen! ");
                break;
            }

            // throw away all outliers that are too far outside the current ellipse
            double medianSignedDistance = pointswithDistance.OrderBy(p => p.SignedDistance).ElementAt(pointswithDistance.Count / 2).SignedDistance;
            var goodPoints = pointswithDistance.Where(p => p.SignedDistance < medianSignedDistance + 15).ToList();

            // do a sort of ransack fit with the inlier points to find a new better ellipse
            CvBox2D bestfit = ellipseRansack(goodPoints);

            // check if the fit has converged
            if (Math.Abs(this.Angle - bestfit.Angle) < 3 && // angle has not changed much (<3°)
                Math.Abs(this.Position.X - bestfit.Center.X) < 3 && // position has not changed much (<3 pixel)
                Math.Abs(this.Position.Y - bestfit.Center.Y) < 3)
            {
                numConverged++;
            }
            else
            {
                numConverged = 0;
            }

            if (numConverged > 2)
            {
                this.Converged = true;
            }

            //Console.WriteLine("Iteration {0}, delta {1:0.000} {2:0.000} {3:0.000}    {4:0.000}-{5:0.000} {6:0.000}-{7:0.000} {8:0.000}-{9:0.000}",
            //  numIterations, Math.Abs(this.Angle - bestfit.Angle), Math.Abs(this.Position.X - bestfit.Center.X), Math.Abs(this.Position.Y - bestfit.Center.Y), this.Angle, bestfit.Angle, this.Position.X, bestfit.Center.X, this.Position.Y, bestfit.Center.Y);

            double msr = goodPoints.Sum(p => p.Distance * p.Distance) / goodPoints.Count;

            // for drawing the polygon, filter the edge points more strongly
            if (goodPoints.Count(p => p.SignedDistance < 5) > goodPoints.Count / 2)
                goodPoints = goodPoints.Where(p => p.SignedDistance < 5).ToList();
            double cutoff = goodPoints.Select(p => p.Distance).OrderBy(d => d).ElementAt(goodPoints.Count * 9 / 10);
            goodPoints = goodPoints.Where(p => p.SignedDistance <= cutoff + 1).ToList();

            int numCertainEdgePoints = goodPoints.Count(p => p.SignedDistance > -2);
            this.CircumferenceRatio = numCertainEdgePoints * 1.0 / points.Count();

            this.Angle = bestfit.Angle;
            this.Position = bestfit.Center;
            this.Width = bestfit.Size.Width;
            this.Height = bestfit.Size.Height;
            this.EdgePoints = goodPoints;
            this.MeanSquaredError = msr;

        }
        this.NumIterations = numIterations;
        //Console.WriteLine("Grain found after {0,3} iterations, size={1,3:0.}x{2,3:0.}   pixel={3,5}    edgePoints={4,3}   msr={5,2:0.00000}", numIterations, this.Width,
        //                        this.Height, this.NumPixel, this.EdgePoints.Count, this.MeanSquaredError);
    }

    /// <summary> a sort of ransakc fit to find the best ellipse for the given points </summary>
    private CvBox2D ellipseRansack(List<EllipsePoint> points)
    {
        using (CvMemStorage storage = new CvMemStorage(0))
        {
            // calculate minimum bounding rectangle
            CvSeq<CvPoint> fullPointSeq = CvSeq<CvPoint>.FromArray(points.Select(p => p.Point), SeqType.EltypePoint, storage);
            var boundingRect = fullPointSeq.MinAreaRect2();

            // the initial candidate is the previously found ellipse
            CvBox2D bestEllipse = new CvBox2D(this.Position, new CvSize2D32f(this.Width, this.Height), (float)this.Angle);
            double bestError = calculateEllipseError(points, bestEllipse);

            Queue<EllipsePoint> permutation = new Queue<EllipsePoint>();
            if (points.Count >= 5) for (int i = -2; i < 20; i++)
                {
                    CvBox2D ellipse;
                    if (i == -2)
                    {
                        // first, try the ellipse described by the boundingg rect
                        ellipse = boundingRect;
                    }
                    else if (i == -1)
                    {
                        // then, try the best-fit ellipsethrough all points
                        ellipse = fullPointSeq.FitEllipse2();
                    }
                    else
                    {
                        // then, repeatedly fit an ellipse through a random sample of points

                        // pick some random points
                        if (permutation.Count < 5) permutation = new Queue<EllipsePoint>(permutation.Concat(points.OrderBy(p => random.Next())));
                        CvSeq<CvPoint> pointSeq = CvSeq<CvPoint>.FromArray(permutation.Take(10).Select(p => p.Point), SeqType.EltypePoint, storage);
                        for (int j = 0; j < pointSeq.Count(); j++) permutation.Dequeue();

                        // fit an ellipse through these points
                        ellipse = pointSeq.FitEllipse2();
                    }

                    // assure that the width is greater than the height
                    ellipse = NormalizeEllipse(ellipse);

                    // if the ellipse is too big for agrain, shrink it
                    ellipse = rightSize(ellipse, points.Where(p => isOnEllipse(p.Point, ellipse, 10, 10)).ToList());

                    // sometimes the ellipse given by FitEllipse2 is totally off
                    if (boundingRect.Center.DistanceTo(ellipse.Center) > Math.Max(boundingRect.Size.Width, boundingRect.Size.Height) * 2)
                    {
                        // ignore this bad fit
                        continue;
                    }

                    // estimate the error
                    double error = calculateEllipseError(points, ellipse);

                    if (error < bestError)
                    {
                        // found a better ellipse!
                        bestError = error;
                        bestEllipse = ellipse;
                    }
                }

            return bestEllipse;
        }
    }

    /// <summary> The proper thing to do would be to use the actual distance of each point to the elipse.
    /// However that formula is complicated, so ...  </summary>
    private double calculateEllipseError(List<EllipsePoint> points, CvBox2D ellipse)
    {
        const double toleranceInner = 5;
        const double toleranceOuter = 10;
        int numWrongPoints = points.Count(p => !isOnEllipse(p.Point, ellipse, toleranceInner, toleranceOuter));
        double ratioWrongPoints = numWrongPoints * 1.0 / points.Count;

        int numTotallyWrongPoints = points.Count(p => !isOnEllipse(p.Point, ellipse, 10, 20));
        double ratioTotallyWrongPoints = numTotallyWrongPoints * 1.0 / points.Count;

        // this pseudo-distance is biased towards deviations on the major axis
        double pseudoDistance = Math.Sqrt(points.Sum(p => Math.Abs(1 - ellipseMetric(p.Point, ellipse))) / points.Count);

        // primarily take the number of points far from the elipse border as an error metric.
        // use pseudo-distance to break ties between elipses with the same number of wrong points
        return ratioWrongPoints * 1000  + ratioTotallyWrongPoints+ pseudoDistance / 1000;
    }


    /// <summary> shrink an ellipse if it is larger than the maximum grain dimensions </summary>
    private static CvBox2D rightSize(CvBox2D ellipse, List<EllipsePoint> points)
    {
        if (ellipse.Size.Width < MAX_WIDTH && ellipse.Size.Height < MAX_HEIGHT) return ellipse;

        // elipse is bigger than the maximum grain size
        // resize it so it fits, while keeping one edge of the bounding rectangle constant

        double desiredWidth = Math.Max(10, Math.Min(MAX_WIDTH, ellipse.Size.Width));
        double desiredHeight = Math.Max(10, Math.Min(MAX_HEIGHT, ellipse.Size.Height));

        CvPoint2D32f average = points.Average();

        // get the corners of the surrounding bounding box
        var corners = ellipse.BoxPoints().ToList();

        // find the corner that is closest to the center of mass of the points
        int i0 = ellipse.BoxPoints().Select((point, index) => new { point, index }).OrderBy(p => p.point.DistanceTo(average)).First().index;
        CvPoint p0 = corners[i0];

        // find the two corners that are neighbouring this one
        CvPoint p1 = corners[(i0 + 1) % 4];
        CvPoint p2 = corners[(i0 + 3) % 4];

        // p1 is the next corner along the major axis (widht), p2 is the next corner along the minor axis (height)
        if (p0.DistanceTo(p1) < p0.DistanceTo(p2))
        {
            CvPoint swap = p1;
            p1 = p2;
            p2 = swap;
        }

        // calculate the three other corners with the desired widht and height

        CvPoint2D32f edge1 = (p1 - p0);
        CvPoint2D32f edge2 = p2 - p0;
        double edge1Length = Math.Max(0.0001, p0.DistanceTo(p1));
        double edge2Length = Math.Max(0.0001, p0.DistanceTo(p2));

        CvPoint2D32f newCenter = (CvPoint2D32f)p0 + edge1 * (desiredWidth / edge1Length) + edge2 * (desiredHeight / edge2Length);

        CvBox2D smallEllipse = new CvBox2D(newCenter, new CvSize2D32f((float)desiredWidth, (float)desiredHeight), ellipse.Angle);

        return smallEllipse;
    }

    /// <summary> assure that the width of the elipse is the major axis, and the height is the minor axis.
    /// Swap widht/height and rotate by 90° otherwise  </summary>
    private static CvBox2D NormalizeEllipse(CvBox2D ellipse)
    {
        if (ellipse.Size.Width < ellipse.Size.Height)
        {
            ellipse = new CvBox2D(ellipse.Center, new CvSize2D32f(ellipse.Size.Height, ellipse.Size.Width), (ellipse.Angle + 90 + 360) % 360);
        }
        return ellipse;
    }

    /// <summary> greater than 1 for points outside ellipse, smaller than 1 for points inside ellipse </summary>
    private static double ellipseMetric(CvPoint p, CvBox2D ellipse)
    {
        double theta = ellipse.Angle * Math.PI / 180;
        double u = Math.Cos(theta) * (p.X - ellipse.Center.X) + Math.Sin(theta) * (p.Y - ellipse.Center.Y);
        double v = -Math.Sin(theta) * (p.X - ellipse.Center.X) + Math.Cos(theta) * (p.Y - ellipse.Center.Y);

        return u * u / (ellipse.Size.Width * ellipse.Size.Width / 4) + v * v / (ellipse.Size.Height * ellipse.Size.Height / 4);
    }

    /// <summary> Is the point on the ellipseBorder, within a certain tolerance </summary>
    private static bool isOnEllipse(CvPoint p, CvBox2D ellipse, double toleranceInner, double toleranceOuter)
    {
        double theta = ellipse.Angle * Math.PI / 180;
        double u = Math.Cos(theta) * (p.X - ellipse.Center.X) + Math.Sin(theta) * (p.Y - ellipse.Center.Y);
        double v = -Math.Sin(theta) * (p.X - ellipse.Center.X) + Math.Cos(theta) * (p.Y - ellipse.Center.Y);

        double innerEllipseMajor = (ellipse.Size.Width - toleranceInner) / 2;
        double innerEllipseMinor = (ellipse.Size.Height - toleranceInner) / 2;
        double outerEllipseMajor = (ellipse.Size.Width + toleranceOuter) / 2;
        double outerEllipseMinor = (ellipse.Size.Height + toleranceOuter) / 2;

        double inside = u * u / (innerEllipseMajor * innerEllipseMajor) + v * v / (innerEllipseMinor * innerEllipseMinor);
        double outside = u * u / (outerEllipseMajor * outerEllipseMajor) + v * v / (outerEllipseMinor * outerEllipseMinor);
        return inside >= 1 && outside <= 1;
    }


    /// <summary> count the number of foreground pixels for this grain </summary>
    public int CountPixel(CvMat img)
    {
        // todo: this is an incredibly inefficient way to count, allocating a new image with the size of the input each time
        using (CvMat mask = new CvMat(img.Rows, img.Cols, MatrixType.U8C1))
        {
            mask.SetZero();
            mask.FillPoly(new CvPoint[][] { this.EdgePoints.Select(p => p.Point).ToArray() }, CvColor.White);
            mask.And(img, mask);
            this.NumPixel = mask.CountNonZero();
        }
        return this.NumPixel;
    }

    /// <summary> draw the recognized shape of the grain </summary>
    public void Draw(CvMat img, CvColor color)
    {
        img.FillPoly(new CvPoint[][] { this.EdgePoints.Select(p => p.Point).ToArray() }, color);
    }

    /// <summary> draw the contours of the grain </summary>
    public void DrawContour(CvMat img, CvColor color)
    {
        img.DrawPolyLine(new CvPoint[][] { this.EdgePoints.Select(p => p.Point).ToArray() }, true, color);
    }

    /// <summary> draw the best-fit ellipse of the grain </summary>
    public void DrawEllipse(CvMat img, CvColor color)
    {
        img.DrawEllipse(this.Position, new CvSize2D32f(this.MajorRadius, this.MinorRadius), this.Angle, 0, 360, color, 1);
    }

    /// <summary> print the grain index and the number of pixels divided by the average grain size</summary>
    public void DrawText(double averageGrainSize, CvMat img, CvColor color)
    {
        img.PutText(String.Format("{0}|{1:0.0}", this.Index, this.NumPixel / averageGrainSize), this.Position + new CvPoint2D32f(-5, 10), font01, color);
    }

}

मैं इस समाधान से थोड़ा शर्मिंदा हूं क्योंकि a) मुझे यकीन नहीं है कि क्या यह इस चुनौती की भावना के भीतर है, और b) यह एक कोडगॉल्फ जवाब के लिए बहुत बड़ा है और अन्य समाधानों की लालित्य का अभाव है।

दूसरी ओर, मैं अनाज को लेबल करने में हासिल की गई प्रगति से काफी खुश हूं , केवल उन्हें गिनकर नहीं, इसलिए ऐसा है।


आप जानते हैं कि आप छोटे नामों का उपयोग करके और कुछ अन्य गोल्फ तकनीकों को लागू करके परिमाण द्वारा उस कोड की लंबाई को कम कर सकते हैं;)
ऑप्टिमाइज़र

शायद, लेकिन मैं इस समाधान को आगे नहीं बढ़ाना चाहता था। यह मेरे स्वाद के लिए बहुत ही अधिक अप्रिय है क्योंकि यह है :)
ह्यूगो रुएन

प्रयास के लिए +1 और क्योंकि आप केवल वही हैं जो व्यक्तिगत रूप से प्रत्येक अनाज को प्रदर्शित करने का एक तरीका खोजते हैं। दुर्भाग्य से कोड थोड़ा फूला हुआ है और हार्डकोडेड स्थिरांक पर बहुत भरोसा करता है। मुझे यह देखने के लिए उत्सुक होना चाहिए कि स्कैनलाइन एल्गोरिथ्म मैंने इस पर कैसे लिखा था (अदृश्य रंग के अनाज पर)।
टिग्रो

मुझे वास्तव में लगता है कि इस प्रकार की समस्या के लिए यह सही दृष्टिकोण है (आप के लिए +1), लेकिन एक बात मुझे आश्चर्य है कि आप "10 रैंडम एज पिक्सल" क्यों चुनते हैं, मुझे लगता है कि अगर आपने उठाया तो आपको बेहतर प्रदर्शन मिलेगा किनारे के सबसे पास के किनारे के अंक (यानी ऐसे भाग जो चिपक जाते हैं) के साथ, मुझे लगता है (सैद्धांतिक रूप से) यह "सबसे आसान" अनाज को पहले खत्म कर देगा, क्या आपने इस पर विचार किया है?
डेविड रोजर्स

मैंने इसके बारे में सोचा है, लेकिन अभी तक कोशिश नहीं की है। '10 यादृच्छिक शुरुआती स्थिति 'एक देर से जोड़ थी, जो जोड़ना आसान था और समानांतर करना आसान था। इससे पहले, top वन रैंडम स्टार्टिंग पोजिशन ’, top ऑलवेज़ द टॉप लेफ्ट कार्नर’ से बहुत बेहतर थी। हर बार एक ही रणनीति के साथ शुरुआती पदों को चुनने का खतरा यह है कि जब मैं सबसे अच्छा फिट निकालता हूं, तो अन्य 9 शायद अगली बार फिर से चुने जाएंगे, और समय के साथ उन शुरुआती पदों में से सबसे पीछे रहेंगे और फिर से चुने जाएंगे। फिर। एक हिस्सा जो चिपक जाता है, वह पिछले निकाले गए अधूरे हटाए गए अवशेषों का अवशेष हो सकता है।
ह्यूगो रून

17

C ++, OpenCV, स्कोर: 9

मेरी विधि का मूल विचार काफी सरल है - छवि से एकल अनाज (और "डबल अनाज" - 2 (लेकिन अधिक नहीं! एक दूसरे के करीब) अनाज को मिटाने की कोशिश करें, और फिर क्षेत्र के आधार पर विधि का उपयोग करके आराम की गिनती करें (जैसे फाल्को! इल और बेलीज़ेरियस)। इस दृष्टिकोण का उपयोग करना मानक "क्षेत्र विधि" की तुलना में थोड़ा बेहतर है, क्योंकि अच्छे औसत पिक्सल्सपेरबजेक्ट मान को खोजना आसान है।

(पहला चरण) सबसे पहले हमें एचएसवी में एस चैनल की छवि पर ओट्सु बिनाराइजेशन का उपयोग करने की आवश्यकता है। अगला कदम निकाले गए अग्रभूमि की गुणवत्ता में सुधार करने के लिए पतला ऑपरेटर का उपयोग कर रहा है। हमें कंट्रास्ट खोजने की जरूरत है। बेशक कुछ कॉन्ट्रो चावल के दाने नहीं होते हैं - हमें बहुत छोटे कॉन्ट्रो को हटाने की जरूरत होती है (क्षेत्र के साथ छोटे तब औसत पेपर्सपर्बबजेक्ट / 4। मेरी स्थिति में औसत प्रिक्सपेलरऑबजेक्ट 2855 है)। अब अंत में हम अनाज गिनना शुरू कर सकते हैं :) (दूसरा चरण) सिंगल और डबल अनाज ढूँढना काफी सरल है - बस विशिष्ट रेंज के भीतर क्षेत्र के साथ आकृति के लिए सूची सूची में देखें - यदि समोच्च क्षेत्र सीमा में है, तो इसे सूची से हटा दें और 1 जोड़ें (या 2 अगर यह अनाज काउंटर के लिए "डबल" अनाज था)। (तीसरा चरण) अंतिम चरण निश्चित रूप से औसत आकृति द्वारा शेष आकृति के क्षेत्र को विभाजित करना है। मूल्य मान और परिणाम काउंटर में जोड़ें।

छवियां (छवि F.jpg के लिए) को इस विचार को शब्दों से बेहतर दिखाना चाहिए:
पहला चरण (बिना छोटे आकृति (शोर) के): पहला चरण (छोटी आकृति (शोर) के बिना)
दूसरा चरण - केवल सरल आकृति: दूसरा चरण - केवल सरल आकृति
तीसरा चरण - शेष आकृति: तीसरा चरण - शेष आकृति

यहाँ कोड है, यह बदसूरत है, लेकिन बिना किसी समस्या के काम करना चाहिए। बेशक OpenCV की आवश्यकता है।

#include "stdafx.h"

#include <cv.hpp>
#include <cxcore.h>
#include <highgui.h>
#include <vector>

using namespace cv;
using namespace std;

//A: 3, B: 5, C: 12, D: 25, E: 50, F: 83, G: 120, H:150, I: 151, J: 200
const int goodResults[] = {3, 5, 12, 25, 50, 83, 120, 150, 151, 200};
const float averagePixelsPerObject = 2855.0;

const int singleObjectPixelsCountMin = 2320;
const int singleObjectPixelsCountMax = 4060;

const int doubleObjectPixelsCountMin = 5000;
const int doubleObjectPixelsCountMax = 8000;

float round(float x)
{
    return x >= 0.0f ? floorf(x + 0.5f) : ceilf(x - 0.5f);
}

Mat processImage(Mat m, int imageIndex, int &error)
{
    int objectsCount = 0;
    Mat output, thresholded;
    cvtColor(m, output, CV_BGR2HSV);
    vector<Mat> channels;
    split(output, channels);
    threshold(channels[1], thresholded, 0, 255, CV_THRESH_OTSU | CV_THRESH_BINARY);
    dilate(thresholded, output, Mat()); //dilate to imporove quality of binary image
    imshow("thresholded", thresholded);
    int nonZero = countNonZero(output); //not realy important - just for tests
    if (imageIndex != -1)
        cout << "non zero: " << nonZero << ", average pixels per object: " << nonZero/goodResults[imageIndex] << endl;
    else
        cout << "non zero: " << nonZero << endl;

    vector<vector<Point>> contours, contoursOnlyBig, contoursWithoutSimpleObjects, contoursSimple;
    findContours(output, contours, CV_RETR_EXTERNAL, CV_CHAIN_APPROX_NONE); //find only external contours
    for (int i=0; i<contours.size(); i++)
        if (contourArea(contours[i]) > averagePixelsPerObject/4.0)
            contoursOnlyBig.push_back(contours[i]); //add only contours with area > averagePixelsPerObject/4 ---> skip small contours (noise)

    Mat bigContoursOnly = Mat::zeros(output.size(), output.type());
    Mat allContours = bigContoursOnly.clone();
    drawContours(allContours, contours, -1, CV_RGB(255, 255, 255), -1);
    drawContours(bigContoursOnly, contoursOnlyBig, -1, CV_RGB(255, 255, 255), -1);
    //imshow("all contours", allContours);
    output = bigContoursOnly;

    nonZero = countNonZero(output); //not realy important - just for tests
    if (imageIndex != -1)
        cout << "non zero: " << nonZero << ", average pixels per object: " << nonZero/goodResults[imageIndex] << " objects: "  << goodResults[imageIndex] << endl;
    else
        cout << "non zero: " << nonZero << endl;

    for (int i=0; i<contoursOnlyBig.size(); i++)
    {
        double area = contourArea(contoursOnlyBig[i]);
        if (area >= singleObjectPixelsCountMin && area <= singleObjectPixelsCountMax) //is this contours a single grain ?
        {
            contoursSimple.push_back(contoursOnlyBig[i]);
            objectsCount++;
        }
        else
        {
            if (area >= doubleObjectPixelsCountMin && area <= doubleObjectPixelsCountMax) //is this contours a double grain ?
            {
                contoursSimple.push_back(contoursOnlyBig[i]);
                objectsCount+=2;
            }
            else
                contoursWithoutSimpleObjects.push_back(contoursOnlyBig[i]); //group of grainss
        }
    }

    cout << "founded single objects: " << objectsCount << endl;
    Mat thresholdedImageMask = Mat::zeros(output.size(), output.type()), simpleContoursMat = Mat::zeros(output.size(), output.type());
    drawContours(simpleContoursMat, contoursSimple, -1, CV_RGB(255, 255, 255), -1);
    if (contoursWithoutSimpleObjects.size())
        drawContours(thresholdedImageMask, contoursWithoutSimpleObjects, -1, CV_RGB(255, 255, 255), -1); //draw only contours of groups of grains
    imshow("simpleContoursMat", simpleContoursMat);
    imshow("thresholded image mask", thresholdedImageMask);
    Mat finalResult;
    thresholded.copyTo(finalResult, thresholdedImageMask); //copy using mask - only pixels whc=ich belongs to groups of grains will be copied
    //imshow("finalResult", finalResult);
    nonZero = countNonZero(finalResult); // count number of pixels in all gropus of grains (of course without single or double grains)
    int goodObjectsLeft = goodResults[imageIndex]-objectsCount;
    if (imageIndex != -1)
        cout << "non zero: " << nonZero << ", average pixels per object: " << (goodObjectsLeft ? (nonZero/goodObjectsLeft) : 0) << " objects left: " << goodObjectsLeft <<  endl;
    else
        cout << "non zero: " << nonZero << endl;
    objectsCount += round((float)nonZero/(float)averagePixelsPerObject);

    if (imageIndex != -1)
    {
        error = objectsCount-goodResults[imageIndex];
        cout << "final objects count: " << objectsCount << ", should be: " << goodResults[imageIndex] << ", error is: " << error <<  endl;
    }
    else
        cout << "final objects count: " << objectsCount << endl; 
    return output;
}

int main(int argc, char* argv[])
{
    string fileName = "A";
    int totalError = 0, error;
    bool fastProcessing = true;
    vector<int> errors;

    if (argc > 1)
    {
        Mat m = imread(argv[1]);
        imshow("image", m);
        processImage(m, -1, error);
        waitKey(-1);
        return 0;
    }

    while(true)
    {
        Mat m = imread("images\\" + fileName + ".jpg");
        cout << "Processing image: " << fileName << endl;
        imshow("image", m);
        processImage(m, fileName[0] - 'A', error);
        totalError += abs(error);
        errors.push_back(error);
        if (!fastProcessing && waitKey(-1) == 'q')
            break;
        fileName[0] += 1;
        if (fileName[0] > 'J')
        {
            if (fastProcessing)
                break;
            else
                fileName[0] = 'A';
        }
    }
    cout << "Total error: " << totalError << endl;
    cout << "Errors: " << (Mat)errors << endl;
    cout << "averagePixelsPerObject:" << averagePixelsPerObject << endl;

    return 0;
}

यदि आप सभी चरणों के परिणाम देखना चाहते हैं, तो सभी imshow (.., ..) को अनफॉलो करें और फॉलोप्रोसेसिंग वेरिएबल को फाल्स में सेट करें। छवियाँ (A.jpg, B.jpg, ...) निर्देशिका छवियों में होनी चाहिए। वैकल्पिक रूप से आप कमांड लाइन से पैरामीटर के रूप में एक छवि का नाम दे सकते हैं।

बेशक अगर कुछ स्पष्ट नहीं है तो मैं उसे समझा सकता हूं और / या कुछ चित्र / सूचना प्रदान कर सकता हूं।


12

सी # + OpenCvSharp, स्कोर: 71

यह सबसे अधिक अप्रिय है, मैंने एक समाधान प्राप्त करने की कोशिश की जो वास्तव में वाटरशेड का उपयोग करके प्रत्येक अनाज की पहचान करता है , लेकिन मैं बस। नहीं कर सकता। प्राप्त। यह। सेवा। काम।

मैं एक समाधान के लिए बस गया जो कम से कम कुछ व्यक्तिगत अनाज को अलग करता है और फिर औसत अनाज के आकार का अनुमान लगाने के लिए उन अनाज का उपयोग करता है। हालाँकि अभी तक मैं हार्डकोड अनाज के आकार के समाधान को हरा नहीं सकता।

तो, इस समाधान का मुख्य आकर्षण: यह अनाज के लिए एक निश्चित पिक्सेल आकार नहीं रखता है, और कैमरा स्थानांतरित होने या चावल के प्रकार को बदलने पर भी काम करना चाहिए।

A.jpg; अनाज की संख्या: 3; उम्मीद 3; त्रुटि 0; अनाज प्रति पिक्सेल: 2525,0;
B.jpg; अनाज की संख्या: 7; उम्मीद 5; त्रुटि २; अनाज प्रति पिक्सेल: 1920,0;
C.jpg; अनाज की संख्या: 6; अपेक्षित 12; त्रुटि 6; अनाज प्रति पिक्सेल: 4242,5;
D.jpg; अनाज की संख्या: 23; 25 की उम्मीद; त्रुटि २; अनाज प्रति पिक्सेल: 2415,5;
E.jpg; अनाज की संख्या: 47; उम्मीद 50; त्रुटि 3; अनाज प्रति पिक्सेल: 2729,9;
F.jpg; अनाज की संख्या: 65; 83 की उम्मीद; त्रुटि 18; अनाज प्रति पिक्सेल: 2860,5;
G.jpg; अनाज की संख्या: 120; अपेक्षित 120; त्रुटि 0; अनाज प्रति पिक्सेल: 2552,3;
H.jpg; अनाज की संख्या: 159; अपेक्षित 150; त्रुटि 9; अनाज प्रति पिक्सेल: 2624,7;
I.jpg; अनाज की संख्या: 141; अपेक्षित 151; त्रुटि 10; अनाज प्रति पिक्सेल: 2697,4;
J.jpg; अनाज की संख्या: 179; 200 की उम्मीद; त्रुटि 21; अनाज प्रति पिक्सेल: 2847,1;
कुल त्रुटि: 71

मेरा समाधान इस तरह काम करता है:

एचएसवी में छवि को बदलकर और संतृप्ति चैनल पर ओट्सु थ्रॉल्डिंग लागू करके अग्रभूमि को अलग करें । यह बहुत सरल है, बहुत अच्छी तरह से काम करता है, और मैं इस चुनौती के लिए कोशिश करने वाले अन्य सभी लोगों के लिए इसकी सिफारिश करूंगा:

saturation channel                -->         Otsu thresholding

यहाँ छवि विवरण दर्ज करें -> यहाँ छवि विवरण दर्ज करें

यह पृष्ठभूमि को साफ-साफ हटा देगा।

फिर मैंने मूल्य-चैनल पर एक निश्चित सीमा लागू करके, अग्रभूमि से अनाज छाया को हटा दिया । (यकीन नहीं होता है कि वास्तव में बहुत मदद करता है, लेकिन यह जोड़ने के लिए काफी सरल था)

यहाँ छवि विवरण दर्ज करें

फिर मैं अग्रभूमि छवि पर एक दूरी परिवर्तन लागू करता हूं ।

यहाँ छवि विवरण दर्ज करें

और इस दूरी परिवर्तन में सभी स्थानीय मैक्सिमा खोजें।

यहीं से मेरा विचार टूटता है। एक ही अनाज के भीतर म्यूटेंट स्थानीय मैक्सीमा होने से बचने के लिए, मुझे बहुत कुछ छानना पड़ता है। वर्तमान में मैं केवल 45 पिक्सेल त्रिज्या के भीतर सबसे मजबूत अधिकतम रखता हूं, जिसका अर्थ है कि प्रत्येक अनाज में स्थानीय अधिकतम नहीं है। और मैं वास्तव में 45 पिक्सेल त्रिज्या के लिए एक औचित्य नहीं है, यह सिर्फ एक मूल्य था जो काम किया।

यहाँ छवि विवरण दर्ज करें

(जैसा कि आप देख सकते हैं, उन प्रत्येक अनाज के लिए लगभग पर्याप्त बीज नहीं हैं)

फिर मैं वाटरशेड एल्गोरिथ्म के लिए बीज के रूप में उन मैक्सिमा का उपयोग करता हूं:

यहाँ छवि विवरण दर्ज करें

परिणाम meh हैं । मैं ज्यादातर व्यक्तिगत अनाज के लिए उम्मीद कर रहा था, लेकिन क्लंप अभी भी बहुत बड़े हैं।

अब मैं सबसे छोटे ब्लब्स की पहचान करता हूं, उनके औसत पिक्सेल आकार की गणना करता हूं, और फिर उस से अनाज की संख्या का अनुमान लगाता हूं। यह वह नहीं है जो मैंने शुरुआत में करने की योजना बनाई थी, लेकिन यह इस उबारने का एकमात्र तरीका था।

सिस्टम का उपयोग कर ; सिस्टम 
का उपयोग कर संग्रह सामान्य ; सिस्टम 
का उपयोग कर लिनक ; सिस्टम 
का उपयोग कर पाठ ; OpenCvSharp 
का उपयोग करना ;

नामस्थान GrainTest2 { class Program { स्थिर शून्य मुख्य ( स्ट्रिंग [] args ) { string [] फाइलें = नया [] { "sourceA.jpg" , "sourceB.jpg" , "sourceC.jpg" , "sourceD.jpg" , " sourceE.jpg " , " sourceF.jpg " , " sourceG.jpg " , " sourceH.jpg " , " sourceI.jpg " , " sourceJ.jpg " , };int [] अपेक्षितग्रेन्स

     
    
          
        
             
                               
                                     
                                     
                                      
                               
            = नया [] { 3 , 5 , 12 , 25 , 50 , 83 , 120 , 150 , 151 , 200 ,};          

            int TotalError = 0 ; int TotalPixels = 0 ; 
             

            के लिए ( int fileNo = 0 ; fileNo मार्करों = नई सूची ) (; 
                    का उपयोग कर ( CvMemStorage भंडारण = नए CvMemStorage ()) 
                    का उपयोग करते हुए ( CvContourScanner स्कैनर = नए CvContourScanner ( localMaxima , भंडारण , CvContour sizeof , ContourRetrieval बाहरी , ContourChain ApproxNone ))         
                    { 1. प्रत्येक स्थानीय अधिकतम को बीज संख्या 25, 35, 45, ... के रूप में सेट करें (// वास्तविक संख्या कोई फर्क नहीं पड़ता, png में बेहतर दृश्यता के लिए चुना गया) int मार्करनो = 20 ; foreach ( स्कैनर में CvSeq c ) { 
                            मार्करनो + = 5 ; 
                            चिह्नक जोड़ें ( मार्करो ); 
                            waterShedMarkers DrawContours ( c , नया CvScalar ( मार्करनो ), नया
                        
                        
                         
                         
                             CvScalar ( मार्करनो ), 0 , - 1 ); } } 
                    वाटरशेडमैकर्स SaveImage ( "08-वाटरशेड-सीडस्पेस" );  
                        
                    


                    स्रोत वाटरशेड ( वॉटरशेडमैकर्स ); 
                    waterShedMarkers SaveImage ( "09-वाटरशेड-परिणाम.पिंग" );


                    सूची PixPerBlob = नई सूची ();  

                    // Terrible hack because I could not get Cv2.ConnectedComponents to work with this openCv wrapper
                    // So I made a workaround to count the number of pixels per blob
                    waterShedMarkers.ConvertScale(waterShedThreshold);
                    foreach (int markerNo in markers)
                    {
                        using (CvMat tmp = new CvMat(waterShedMarkers.Rows, waterShedThreshold.Cols, MatrixType.U8C1))
                        {
                            waterShedMarkers.CmpS(markerNo, tmp, ArrComparison.EQ);
                            pixelsPerBlob.Add(tmp.CountNonZero());

                        }
                    }

                    // estimate the size of a single grain
                    // step 1: assume that the 10% smallest blob is a whole grain;
                    double singleGrain = pixelsPerBlob.OrderBy(p => p).ElementAt(pixelsPerBlob.Count/15);

                    // step2: take all blobs that are not much bigger than the currently estimated singel grain size
                    //        average their size
                    //        repeat until convergence (too lazy to check for convergence)
                    for (int i = 0; i  p  Math.Round(p/singleGrain)).Sum());

                    Console.WriteLine("input: {0}; number of grains: {1,4:0.}; expected {2,4}; error {3,4}; pixels per grain: {4:0.0}; better: {5:0.}", file, numGrains, expectedGrains[fileNo], Math.Abs(numGrains - expectedGrains[fileNo]), singleGrain, pixelsPerBlob.Sum() / 1434.9);

                    totalError += Math.Abs(numGrains - expectedGrains[fileNo]);
                    totalPixels += pixelsPerBlob.Sum();

                    // this is a terrible hack to visualise the estimated number of grains per blob.
                    // i'm too tired to clean it up
                    #region please ignore
                    using (CvMemStorage storage = new CvMemStorage())
                    using (CvMat tmp = waterShedThreshold.Clone())
                    using (CvMat tmpvisu = new CvMat(source.Rows, source.Cols, MatrixType.S8C3))
                    {
                        foreach (int markerNo in markers)
                        {
                            tmp.SetZero();
                            waterShedMarkers.CmpS(markerNo, tmp, ArrComparison.EQ);
                            double curGrains = tmp.CountNonZero() * 1.0 / singleGrain;
                            using (
                                CvContourScanner scanner = new CvContourScanner(tmp, storage, CvContour.SizeOf, ContourRetrieval.External,
                                                                                ContourChain.ApproxNone))
                            {
                                tmpvisu.Set(CvColor.Random(), tmp);
                                foreach (CvSeq c in scanner)
                                {
                                    //tmpvisu.DrawContours(c, CvColor.Random(), CvColor.DarkGreen, 0, -1);
                                    tmpvisu.PutText("" + Math.Round(curGrains, 1), c.First().Value, new CvFont(FontFace.HersheyPlain, 2, 2),
                                                    CvColor.Red);
                                }

                            }


                        }
                        tmpvisu.SaveImage("10-visu.png");
                        tmpvisu.SaveImage("10-visu" + file + ".png");
                    }
                    #endregion

                }

            }
            Console.WriteLine("total error: {0}, ideal Pixel per Grain: {1:0.0}", totalError, totalPixels*1.0/expectedGrains.Sum());

        }
    }
}

2544.4 के हार्ड-कोडेड पिक्सेल-प्रति-अनाज आकार का उपयोग करके एक छोटे से परीक्षण ने 36 की कुल त्रुटि दिखाई, जो अभी भी अन्य समाधानों की तुलना में बड़ा है।

यहाँ छवि विवरण दर्ज करें यहाँ छवि विवरण दर्ज करें यहाँ छवि विवरण दर्ज करें यहाँ छवि विवरण दर्ज करें


मुझे लगता है कि आप दूरी परिवर्तन के परिणाम पर कुछ छोटे मूल्य के साथ थ्रेसहोल्ड (इरोड ऑपरेशन उपयोगी भी हो सकते हैं) का उपयोग कर सकते हैं - इससे अनाज के कुछ समूहों को छोटे समूहों में विभाजित किया जाना चाहिए (अधिमानतः - केवल 1 या 2 अनाज के साथ)। यह उन अकेले अनाज को गिनना आसान होना चाहिए। बड़े समूह जिन्हें आप यहां अधिकांश लोगों के रूप में गिन सकते हैं - एकल अनाज के औसत क्षेत्र द्वारा विभाजित क्षेत्र।
3

9

HTML + जावास्क्रिप्ट: स्कोर 39

सही मूल्य हैं:

Estimated | Actual
        3 |      3
        5 |      5
       12 |     12
       23 |     25
       51 |     50
       82 |     83
      125 |    120
      161 |    150
      167 |    151
      223 |    200

यह बड़े मूल्यों पर टूट जाता है (सटीक नहीं है)।

window.onload = function() {
  var $ = document.querySelector.bind(document);
  var canvas = $("canvas"),
    ctx = canvas.getContext("2d");

  function handleFileSelect(evt) {
    evt.preventDefault();
    var file = evt.target.files[0],
      reader = new FileReader();
    if (!file) return;
    reader.onload = function(e) {
      var img = new Image();
      img.onload = function() {
        canvas.width = this.width;
        canvas.height = this.height;
        ctx.drawImage(this, 0, 0);
        start();
      };
      img.src = e.target.result;
    };
    reader.readAsDataURL(file);
  }


  function start() {
    var imgdata = ctx.getImageData(0, 0, canvas.width, canvas.height);
    var data = imgdata.data;
    var background = 0;
    var totalPixels = data.length / 4;
    for (var i = 0; i < data.length; i += 4) {
      var red = data[i],
        green = data[i + 1],
        blue = data[i + 2];
      if (Math.abs(red - 197) < 40 && Math.abs(green - 176) < 40 && Math.abs(blue - 133) < 40) {
        ++background;
        data[i] = 1;
        data[i + 1] = 1;
        data[i + 2] = 1;
      }
    }
    ctx.putImageData(imgdata, 0, 0);
    console.log("Pixels of rice", (totalPixels - background));
    // console.log("Total pixels", totalPixels);
    $("output").innerHTML = "Approximately " + Math.round((totalPixels - background) / 2670) + " grains of rice.";
  }

  $("input").onchange = handleFileSelect;
}
<input type="file" id="f" />
<canvas></canvas>
<output></output>

स्पष्टीकरण: मूल रूप से, चावल पिक्सेल की संख्या गिना जाता है और इसे औसत अनाज प्रति अनाज से विभाजित करता है।


3-चावल की छवि का उपयोग करते हुए, यह मेरे लिए 0 का अनुमान लगाता है ...: /
क्रोल्टन

1
जब आप पूर्ण आकार की छवि का उपयोग करते हैं तो @Kroltan नहीं ।
केल्विन के शौक

1
@ विंडोज पर केल्विन के शौकीन FF36 को पूर्ण आकार की छवि के साथ, Ubuntu पर 3 मिलता है।
क्रोल्टन

4
@BBJJack चावल को कम या ज्यादा उसी पैमाने पर बनाए जाने की गारंटी दी जाती है जैसे कि छवियों में। मैं इसके साथ कोई समस्या नहीं देखता हूं।
केल्विन के शौक 16

1
@githubphagocyte - एक स्पष्टीकरण काफी स्पष्ट है - यदि आप छवि के द्वैतकरण के परिणाम पर सभी सफेद पिक्सेल की गणना करते हैं और इस संख्या को अनाज की संख्या से विभाजित करते हैं, तो आपको यह परिणाम मिलेगा। निश्चित रूप से सटीक परिणाम भिन्न हो सकते हैं, क्योंकि इस्तेमाल किए गए द्विप्रकरण विधि और अन्य सामान (जैसे कि बाइनरीकरण के बाद किए गए संचालन), लेकिन जैसा कि आप अन्य उत्तरों में देख सकते हैं, यह 2500-3500 की सीमा में होगा।
साइब्रियल

4

Php के साथ एक प्रयास, सबसे कम स्कोरिंग उत्तर नहीं है, लेकिन इसका काफी सरल कोड है

स्कोर: 31

<?php
for($c = 1; $c <= 10; $c++) {
  $a = imagecreatefromjpeg("/tmp/$c.jpg");
  list($width, $height) = getimagesize("/tmp/$c.jpg");
  $rice = 0;
  for($i = 0; $i < $width; $i++) {
    for($j = 0; $j < $height; $j++) {
      $colour = imagecolorat($a, $i, $j);
      if (($colour & 0xFF) < 95) $rice++;
    }
  }
  echo ceil($rice/2966);
}

स्व स्कोरिंग

95 एक नीला मूल्य है जो GIMP 2966 के साथ परीक्षण करने पर काम करने के लिए औसत अनाज के आकार का लगता है

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.