एक बजट पर अपाचे लोड करना?


13

मैं अपने सिर को लोड संतुलन की अवधारणा के आसपास प्राप्त करने की कोशिश कर रहा हूं ताकि उपयोगकर्ताओं को खुश रखने के लिए उपलब्धता और अतिरेक को सुनिश्चित किया जा सके जब चीजें गलत हो जाती हैं, बल्कि लाखों उपयोगकर्ताओं को ब्लिस्टरिंग गति प्रदान करने के लिए लोड संतुलन के बजाय।

हम एक बजट पर हैं और उस सामान से चिपके रहने की कोशिश कर रहे हैं जहाँ बहुत सारा ज्ञान उपलब्ध है, इसलिए उबंटू वीपीएस पर अपाचे चलाना रणनीति की तरह लगता है जब तक कि कुछ प्रसिद्ध सर्च इंजन हमें अधिग्रहित नहीं करते ( शनिवार की विडंबना इसमें शामिल है, कृपया ध्यान दें )।

कम से कम मेरे लिए, यह उपलब्ध विभिन्न समाधानों का एक पूरा जंगल है। Apaches के खुद के mod_proxy और HAproxy दो हैं जो हमें एक त्वरित Google खोज के द्वारा मिले हैं, लेकिन लोड संतुलन के शून्य अनुभव होने के कारण, मुझे इस बात का कोई अंदाजा नहीं है कि हमारी स्थिति के लिए क्या उपयुक्त होगा, या हमारे समाधान के लिए कोई समाधान चुनते समय हम क्या देखेंगे उपलब्धता की चिंता।

हमारे लिए सबसे अच्छा विकल्प क्या है? हमें अपने बजट के अंदर उच्च उपलब्धता प्राप्त करने के लिए क्या करना चाहिए?


2
Btw, कृपया एक ही सर्वर पर चलने वाली दो आभासी मशीनों का उपयोग करके "अतिरेक" को लागू न करें। वह सिर्फ बेवकूफ है। (मैं यह नहीं कह रहा था कि आपकी योजना थी)
अर्लज़

शायद आपके लोड संतुलन में सर्वर को 3 या 4 समर्पित आईपी और सर्वर (वीपीएस) का उपयोग करना, यह गति के विचार का कारण होगा, लेकिन वास्तव में यह नहीं है। लोड बैलेंस चुनेंगे कि यदि कोई डाउन है (तो बहुत से यूजर्स एक्सेस कर रहा है) तो एक्सेस का लिंक क्या होगा।

@ एर्लज़ - योजना नहीं थी। मैं चाहता था कि वास्तव में वीएम के रूप में दूर (भौगोलिक रूप से) प्रत्येक अभिभावक से फैल जाए, इसलिए वे एक ही डेटा सेंटर में भी नहीं होंगे
औद्योगिक

@ फर्नांडो कोस्टा हाय! यकीन नहीं है कि आप वास्तव में क्या मतलब है, क्या आपको जवाब लिखने और अपनी अवधारणा को थोड़ा आगे बढ़ाने का मन है?
औद्योगिक

बाउंटी पर है! इसके बारे में अधिक विचार करने के लिए तत्पर
औद्योगिक

जवाबों:


6

जो समाधान मैं उपयोग करता हूं, और वीपीएस के साथ आसानी से लागू किया जा सकता है, वह निम्नलिखित है:

  • DNS 6-अलग वैध आईपी पतों के लिए राउंड-रॉबिनड (स्प?) है।
  • मेरे पास समान कॉन्फ़िगरेशन वाले 3 लोड बैलेंसर्स हैं और समान रूप से 6 आईपी एड्रेसेज़ को वितरित करने के लिए कोरोसिंक / पेसमेकर का उपयोग कर रहे हैं (इसलिए प्रत्येक मशीन में 2 एड्रेस मिलते हैं)।
  • लोड बैलेंसरों में से प्रत्येक में एक नग्नेक्स + वार्निश कॉन्फ़िगरेशन है। नग्नेक्स ने कनेक्शन प्राप्त करने और फिर से लिखने और कुछ स्थैतिक सेवारत करने के साथ सौदा किया, और इसे वापस वार्निश में भेज दिया जो लोड संतुलन और कैशिंग करता है।

मेरी पक्षपाती राय पर इस आर्क के निम्नलिखित फायदे हैं:

  1. corbync / पेसमेकर, LB में से एक के विफल होने की स्थिति में आईपी पते को फिर से वितरित करेगा।
  2. nginx का उपयोग SSL, कुछ प्रकार की फाइलों को सीधे फाइलसिस्टम या NFS से कैश (बड़े वीडियो, ऑडियो या बड़ी फ़ाइलों) का उपयोग किए बिना करने के लिए किया जा सकता है।
  3. वार्निश एक बहुत अच्छा लोड बैलेंसर है जो वजन का समर्थन करता है, स्वास्थ्य जांच का समर्थन करता है, और रिवर्स प्रॉक्सी के रूप में एक उत्कृष्ट काम करता है।
  4. यातायात को संभालने के लिए अधिक एलबी की आवश्यकता होने पर, बस क्लस्टर में अधिक मशीनें जोड़ें और सभी मशीनों के बीच आईपी पते को फिर से असंतुलित किया जाएगा। आप इसे स्वचालित रूप से भी कर सकते हैं (लोड बैलेंसरों को जोड़ना और निकालना)। इसलिए मैं 3 मशीनों के लिए 6 ips का उपयोग करता हूं, विकास के लिए कुछ जगह देने के लिए।

आपके मामले में, शारीरिक रूप से अलग किए गए VPS एक अच्छा विचार है, लेकिन आईपी साझाकरण को और अधिक कठिन बना देता है। उद्देश्य में एक दोष प्रतिरोधी, निरर्थक प्रणाली है, और लोड संतुलन / हा अंत के लिए कुछ कॉन्फ़िगरेशन इसे गड़बड़ कर रहा है जो विफलता का एकल बिंदु जोड़ रहा है (जैसे सभी ट्रैफ़िक प्राप्त करने के लिए एक एकल लोड बैलेंसर)।

मैं यह भी जानता हूं कि आपने अपाचे के बारे में पूछा था, लेकिन उन दिनों हमारे पास विशिष्ट उपकरण हैं जो नौकरी के लिए बेहतर हैं (जैसे कि नगीनेक्स और वार्निश)। बैकएंड पर एप्लिकेशन चलाने के लिए अपाचे को छोड़ दें और इसे अन्य टूल का उपयोग करके परोसें (यह नहीं कि अपाचे अच्छा लोड बैलेंसिंग या रिवर्स प्रॉक्सिंग नहीं कर सकता है, यह सिर्फ नौकरी के विभिन्न हिस्सों को अधिक सेवाओं के लिए लोड करने का सवाल है ताकि प्रत्येक भाग अच्छा कर सके। यह साझा है)।


हाय फिर से Coredump। वास्तविक दुनिया के परिदृश्य में इसे पूरा करने के लिए न्यूनतम कितनी मशीनों की आवश्यकता होगी?
औद्योगिक

इसे कम से कम करने के लिए आपको कम से कम 2 VPS की आवश्यकता होगी। दोनों VPS ज्यादा समस्या के बिना nginx + वार्निश चला सकते हैं। यदि संभव हो तो अलग-अलग बिजली की आपूर्ति के साथ और अलग-अलग स्विच से आने वाले नेटवर्क के साथ, दो VPS अलग-अलग होस्ट पर होना चाहिए, इसलिए यदि एक पक्ष विफल हो जाता है तो भी आपके पास अन्य टी है।
coredump

फिर से नमस्कार। उत्तर के लिए धन्यवाद। मैं Howtos के माध्यम से पढ़ने की कोशिश करूंगा और इसे कैसे सेटअप करूं और इसे अपने LAN में वर्चुअल वातावरण में देखने की कोशिश करता हूं और यह देखता हूं कि फेलओवर को कैसे हैंडल किया जाता है। फिलहाल, यह निश्चित रूप से प्रतीत होता है कि यह समाधान लंबे समय तक चलने के लिए सबसे अच्छा है, भले ही यह मुझे कुछ ग्रे बाल दे, इससे पहले कि यह काम कर रहा है ...
औद्योगिक

@ इंडस्ट्रियल यह सीखने का सबसे अच्छा तरीका है :) नग्नेक्स + वार्निश के साथ एक लोड बैलेंसर को इकट्ठा करके शुरू करें, फिर आप क्लस्टर भाग के साथ चिंता करते हैं।
coredump

6

HAproxy एक अच्छा उपाय है। विन्यास काफी सीधे आगे है।

आपको कम से कम 2 अन्य वीपीएस के सामने बैठने के लिए एक और वीपीएस उदाहरण की आवश्यकता होगी। तो लोड संतुलन / असफलता के लिए आपको कम से कम 3 VPS की आवश्यकता होती है

कुछ चीजों के बारे में भी सोचना है:

  1. एसएसएल समाप्ति। यदि आप HTTPS: // का उपयोग करते हैं, तो उस कनेक्शन को लोड बैलेंसर पर समाप्त होना चाहिए, लोड बैलेंसर के पीछे एक अनएन्क्रिप्टेड कनेक्शन पर सभी ट्रैफ़िक को पास करना चाहिए।

  2. फ़ाइल भंडारण। यदि कोई उपयोगकर्ता एक छवि अपलोड करता है तो वह कहां जाती है? क्या यह सिर्फ एक मशीन पर बैठता है? आपको मशीनों के बीच फ़ाइलों को तुरंत साझा करने के लिए किसी और की ज़रूरत है - आप अपनी सभी स्थिर फ़ाइलों को संग्रहीत करने के लिए अमेज़ॅन की एस 3 सेवा का उपयोग कर सकते हैं, या आपके पास एक और वीपीएस हो सकता है जो फ़ाइल सर्वर के रूप में कार्य करेगा, लेकिन मैं एस 3 की सिफारिश करूंगा क्योंकि इसकी बेमानी और पागलपन सस्ता है।

  3. सत्र की जानकारी। आपके लोड बैलेंसर कॉन्फिग में प्रत्येक मशीन को उपयोगकर्ता की सत्र जानकारी तक पहुंचने में सक्षम होने की आवश्यकता है, क्योंकि आप कभी नहीं जानते कि वे किस मशीन से टकराएंगे।

  4. db - क्या आपके पास एक अलग db सर्वर है? यदि आपके पास अभी केवल एक मशीन है, तो आप यह कैसे सुनिश्चित करेंगे कि आपकी नई मशीन के पास db सर्वर तक पहुँच होगी - और यदि इसका एक अलग VPS db सर्वर है, तो यह कितना बेमानी है। यह जरूरी नहीं है कि उच्च उपलब्धता वेब फ्रंट एंड्स और एक डीबी सर्वर के साथ विफलता का एक बिंदु हो, अब आपको डीबी प्रतिकृति और दास प्रमोशन पर भी विचार करने की आवश्यकता है।

तो मैं आपके जूते में रहा हूँ, एक वेबसाइट है कि एक वास्तविक ऑपरेशन के लिए एक दिन में कुछ सौ हिट करता है के साथ मुसीबत thats। यह जटिल त्वरित हो जाता है। आशा है कि आप सोचा के लिए कुछ खाना दिया :)


2
यदि आपने अभी-अभी एक एकल भारोत्तोलन VPS डाला है, तो आपके पास अभी भी एक ही विफलता है!
जेम्सरैन

@JamesRyan - हां मुझे लगता है कि इसके बारे में भी, एकल विफलता अंक बदबूदार की तरह हैं। क्या आपके पास इसके बजाय क्या करने की कोई सिफारिश है?
औद्योगिक

+1 HAProxy का उपयोग करना आसान है।
एंटोनी बेनकेमॉन

3

मेरा वोट लिनक्स वर्चुअल सर्वर के लिए लोड बैलेंसर के रूप में है। यह LVS निदेशक को असफलता के साथ-साथ अड़चन का एकल बिंदु बनाता है, लेकिन

  1. अड़चन नहीं है, मेरे अनुभव में, एक समस्या है; LVS पुनर्निर्देशन चरण परत -3 है, और बेहद (कम्प्यूटेशनल रूप से) सस्ता है।
  2. असफलता के एकल बिंदु को दूसरे निदेशक के साथ लिनक्स हा द्वारा नियंत्रित दो के साथ निपटा जाना चाहिए ।

पहले निदेशक को पहले LVS नोड के रूप में और दूसरी मशीन पर दूसरे LVS नोड के रूप में एक ही मशीन पर होने से लागत को कम रखा जा सकता है। तीसरा और बाद के नोड्स शुद्ध नोड्स हैं, जिसमें कोई LVS या HA निहितार्थ नहीं है।

यह आपको अपनी पसंद के किसी भी वेब सर्वर सॉफ्टवेयर को चलाने के लिए स्वतंत्र छोड़ देता है, जैसा कि एप्लिकेशन लेयर के नीचे रीडायरेक्शन हो रहा है।


हाय मदहेट। यह एक ऐसा समाधान है जो मैंने पहले कभी नहीं सुना है। इस पर पढ़ने की जरूरत है!
औद्योगिक

मेरे लिए अच्छी तरह से काम करता है, सवालों के साथ वापस आने के लिए स्वतंत्र महसूस करो!
17

मेरे कार्य के स्थान पर हम लोड बैलेंसिंग के लिए बड़े पैमाने पर lvs का उपयोग करते हैं और एक बार कॉन्फ़िगर करने के बाद मैंने कभी नहीं देखा है कि एक निर्देशक को कभी समस्या नहीं होती है। जैसा कि पागल हैटर कहता है कि भार संतुलन अपने आप में संसाधन गहन नहीं है। हम फेलओवर तंत्र और विन्यास को संपादित करने के लिए एक वेब इंटरफेस प्रदान करने के लिए पल्स और पिरान्हा के संयोजन में lvs का उपयोग करते हैं। यह निश्चित रूप से देखने लायक है।
विल

1

इस श्रृंखला के बारे में कैसे?

राउंड रॉबिन dns> haproxy दोनों मशीनों पर> nginx स्थैतिक फ़ाइलों को अलग करने के लिए> अपाचे

संभवतः यह भी सुनिश्चित करने के लिए ucarp या दिल की धड़कन का उपयोग करते हैं, यह हमेशा हाइपरक्सी जवाब देने के लिए सुनिश्चित करता है। अगर आपको एसएसएल की भी जरूरत है तो स्टुनेल हाइप्रोक्सी के सामने बैठेंगे


1

आप उचित क्लस्टरिंग सॉफ़्टवेयर का उपयोग करने पर विचार कर सकते हैं। RedHat's (या CentOS) क्लस्टर सूट , या Oracle का क्लस्टर । इनका उपयोग सक्रिय-निष्क्रिय समूहों को सेटअप करने के लिए किया जा सकता है, और सेवाओं को पुनः आरंभ करने के लिए इस्तेमाल किया जा सकता है, और गंभीर समस्या होने पर नोड्स के बीच विफल हो सकते हैं। यह अनिवार्य रूप से वही है जो आप खोज रहे हैं।

ये सभी क्लस्टर समाधान संबंधित OS लाइसेंस में शामिल किए गए हैं, इसलिए आप शायद लागत पर शांत हैं। उन्हें साझा भंडारण के कुछ तरीके की आवश्यकता होती है - या तो एनएफएस माउंट, या भौतिक डिस्क दोनों को क्लस्टर फ़ाइल सिस्टम के साथ एक्सेस किया जाता है। उत्तरार्द्ध का एक उदाहरण होगा सैन डिस्क जिसमें कई होस्ट एक्सेस की अनुमति है, जिसे OCFS2 या GFS के साथ स्वरूपित किया गया है । मेरा मानना ​​है कि आप इसके लिए VMWare साझा डिस्क का उपयोग कर सकते हैं ।

क्लस्टर सॉफ़्टवेयर का उपयोग 'सेवाओं' को परिभाषित करने के लिए किया जाता है जो हर समय नोड्स पर चलते हैं, या केवल जब नोड 'सक्रिय' होता है। नोड्स दिल की धड़कन के माध्यम से संवाद करते हैं, और उन सेवाओं की निगरानी भी करते हैं। यदि वे विफलताओं को नोटिस करते हैं और उन्हें ठीक नहीं किया जा सकता है तो वे उन्हें पुनः आरंभ कर सकते हैं।

आप मूल रूप से एक एकल 'साझा' आईपी पते को कॉन्फ़िगर करेंगे जिसे ट्रैफ़िक के लिए निर्देशित किया जाएगा। फिर अपाचे, और किसी भी अन्य आवश्यक सेवाओं को परिभाषित किया जा सकता है, और केवल सक्रिय सर्वर पर चलाया जा सकता है। साझा डिस्क का उपयोग आपकी सभी वेब सामग्री, किसी भी अपलोड की गई फ़ाइलों और आपके अपाचे कॉन्फ़िगरेशन निर्देशिकाओं के लिए किया जाएगा। (httpd.conf, आदि के साथ)

मेरे अनुभव में, यह अविश्वसनीय रूप से अच्छी तरह से काम करता है।

  • DNS राउंड रॉबिन, या किसी भी अन्य एकल-बिंदु-विफलता लोड बैलेंसर के लिए कोई ज़रूरत नहीं है - सब कुछ एक आईपी / एफक्यूडीएन हिट करता है।
  • उपयोगकर्ता द्वारा अपलोड की गई फ़ाइलें उस साझा संग्रहण में जाती हैं, और इस प्रकार यदि आपकी मशीन विफल हो जाती है, तो परवाह न करें।
  • डेवलपर्स शून्य अतिरिक्त प्रशिक्षण के साथ उस एकल आईपी / एफक्यूडीएन पर सामग्री अपलोड करते हैं, और यदि यह विफल रहता है तो यह हमेशा अद्यतित रहता है।
  • व्यवस्थापक ऑफ़लाइन मशीन ले सकता है, उसमें से हेक को पैच कर सकता है, रिबूट कर सकता है, आदि फिर सक्रिय नोड पर विफल हो सकते हैं। अपग्रेड करना न्यूनतम डाउनटाइम लेना है।
  • अब आउट-ऑफ-द-डेट नोड को कुछ समय के लिए अप्रकाशित रखा जा सकता है, जिससे असफल-वापस समान रूप से आसान प्रक्रिया हो सकती है। (VMWare स्नैपशॉट से तेज)
  • अपाचे के कॉन्फ़िगरेशन में परिवर्तन साझा किए जाते हैं, ताकि एक विफलता के दौरान कुछ भी अजीब न हो, क्योंकि एक व्यवस्थापक ऑफ़लाइन बॉक्स पर परिवर्तन करना भूल गया।


--क्रिस्टोफर कारेल


1

इष्टतम लोड संतुलन बहुत महंगा और जटिल हो सकता है। मूल लोड संतुलन को केवल यह सुनिश्चित करना चाहिए कि प्रत्येक सर्वर किसी भी समय हिट की समान संख्या में सर्विस कर रहा है।

DNS में एकाधिक A रिकॉर्ड प्रदान करने के लिए सबसे सरल लोड-बैलेंसिंग विधि है। डिफ़ॉल्ट रूप से आईपी पता एक राउंड रॉबिन विधि में कॉन्फ़िगर किया जाएगा। इसके परिणामस्वरूप उपयोगकर्ताओं को सर्वरों में समान रूप से वितरित किया जाएगा। यह स्टेटलेस साइटों के लिए अच्छी तरह से काम करता है। जब आपके पास कोई स्टेटफ़ुल साइट होती है तो थोड़ी अधिक जटिल विधि की आवश्यकता होती है।

राज्य की आवश्यकताओं को संभालने के लिए, आप रीडायरेक्ट का उपयोग कर सकते हैं। प्रत्येक वेब सर्वर को एक वैकल्पिक पता दें जैसे कि www1, www2, www3, आदि। होस्ट के वैकल्पिक पते के शुरुआती www कनेक्शन को पुनर्निर्देशित करें। आप इस तरह से बुकमार्क के मुद्दों को समाप्त कर सकते हैं, लेकिन उन्हें सर्वर पर समान रूप से फैलाया जाना चाहिए।

वैकल्पिक रूप से, यह बताने के लिए कि कौन सा सर्वर स्टेटफुल सेशन को हैंडल कर रहा है, एक अलग पथ का उपयोग करते हुए समीपवर्ती सत्रों की अनुमति देगा, जिन्होंने होस्ट को मूल सर्वर में बदल दिया है। यह तब समस्या हो सकती है जब विफल सर्वर के लिए सत्र विफल सर्वर से लिया गया सर्वर पर आता है। हालांकि, क्लस्टरिंग सॉफ्टवेयर को रोककर राज्य को वैसे भी गायब कर दिया जाएगा। ब्राउज़र कैशिंग के कारण, आप बहुत से सत्र बदलने वाले सर्वर का अनुभव नहीं कर सकते हैं।

विफल सर्वर का IP पता लेने के लिए सर्वर को कॉन्फ़िगर करके विफलता को नियंत्रित किया जा सकता है। यदि सर्वर विफल रहता है तो यह डाउनटाइम को कम कर देगा। सॉफ्टवेयर को क्लस्ट किए बिना, सर्वर फेल होने पर स्टेटफुल सेशन खो जाएगा।

बिना विफलता के उपयोगकर्ताओं को एक देरी का अनुभव होगा जब तक कि उनका ब्राउज़र अगले आईपी पते पर विफल नहीं होता है।

स्टेटफुल सत्रों के बजाय रेस्टफुल सेवाओं का उपयोग करते हुए फ्रंट-एंड पर क्लस्टरिंग मुद्दों को दूर करना चाहिए। भंडारण पक्ष पर क्लस्टरिंग मुद्दे अभी भी लागू होंगे।

यहां तक ​​कि सर्वर के सामने लोड बैलेंसरों के साथ, आपके पास उनके सामने गोल-रॉबिन डीएनएस होगा। यह आपके सभी लोड बैलेंसरों का उपयोग सुनिश्चित करेगा। वे अतिरिक्त जटिलता और विफलता के एक अन्य बिंदु के साथ, आपके द्वारा डिज़ाइन की गई एक और परत जोड़ देंगे। हालाँकि, वे कुछ सुरक्षा सुविधाएँ प्रदान कर सकते हैं।

सबसे अच्छा समाधान प्रासंगिक आवश्यकताओं पर निर्भर करेगा।

छवियों, सीएसएस फ़ाइलों और अन्य स्थिर सामग्री जैसी सामग्री की सेवा के लिए छवि सर्वर को लागू करने से एप्लिकेशन सर्वर पर लोड को कम किया जा सकता है।


1

मैं आमतौर पर समान OpenBSD मशीनों की एक जोड़ी का उपयोग करता हूं:

  • लोड संतुलन, वेबसर्वर निगरानी और एक असफल वेबसर्वर से निपटने के लिए रिले का उपयोग करें
  • भार के उच्च उपलब्धता के लिए CARP का उपयोग स्वयं करें।

OpenBSD प्रकाश, स्थिर और काफी सुरक्षित है - नेटवर्क सेवाओं के लिए बिल्कुल सही।

शुरू करने के लिए, मैं एक लेयर 3 सेटअप की सलाह देता हूं। यह जटिलताओं फ़ायरवॉल (PF) सेटअप से बचा जाता है। यहाँ एक उदाहरण /etc/relayd.conf फ़ाइल है, जो बैकएंड वेबसर्वर्स की निगरानी के साथ एक साधारण रिले लोड बैलेंसर की स्थापना दिखाता है:

# $OpenBSD: relayd.conf,v 1.13 2008/03/03 16:58:41 reyk Exp $
#
# Macros
#

# The production internal load balanced address
intralbaddr="1.1.1.100"

# The interface on this load balancer with the alias for the intralbaddr address
intralbint="carp0"

# The list of web/app servers serving weblbaddress
intra1="1.1.1.90"
intra2="1.1.1.91"

# Global Options
#
# interval 10
timeout 1000
# prefork 5

log updates

# The "relaylb" interface group is assigned to the intralbint carp interface
# The following forces a demotion in carp if relayd stops
demote relaylb

#
# Each table will be mapped to a pf table.
#
table <intrahosts> { $intra1 $intra2 }

# Assumes local webserver that can provide a sorry page
table <fallback> { 127.0.0.1 }

#
# Relay and protocol for HTTP layer 7 loadbalancing and SSL acceleration
#
http protocol httprelay {
        return error
        header append "$REMOTE_ADDR" to "X-Forwarded-For"
        header append "$SERVER_ADDR:$SERVER_PORT" to "X-Forwarded-By"
        # header change "Connection" to "close"

        # Various TCP performance options
        tcp { nodelay, sack, socket buffer 65536, backlog 128 }

#       ssl { no sslv2, sslv3, tlsv1, ciphers HIGH }
#       ssl session cache disable
}

relay intra-httprelay {
        listen on $intralbaddr port 80
        protocol httprelay

        # Forward to hosts in the intrahosts table using a src/dst hash
        # The example shows use of a page with dynamic content to provide
        # application aware site checking.  This page should return a 200 on success,
        # including database or appserver connection, and a 500 or other on failure
        forward to <intrahosts> port http mode loadbalance \
                check http "/nlbcheck.asp" code 200

}

हाय पॉल, अपने हाथों से उदाहरण के लिए धन्यवाद! क्या आप अपने समाधान की विश्वसनीयता से खुश हैं?
औद्योगिक

बहुत खुश। मैंने अब लगभग 12 वर्षों तक सभी प्रकार के नेटवर्क कर्तव्यों (फायरवॉल, डीएनएस सर्वर, वेब सर्वर, लोड बैलेंसर्स, आदि) के लिए ओपनबीएसडी का उपयोग किया है और हर रिलीज की लगातार गुणवत्ता अद्भुत रही है। एक बार सेट हो जाने के बाद, यह बस चलता है। अवधि।
पॉल डूम

0

क्या आपने ec2 क्लाउडफाउंड्री के साथ दिया है या शायद इलास्टिक बीनस्टॉक या एक सादे पुराने AWS को एक विचार के रूप में चित्रित किया है। मैं उस का उपयोग कर रहा हूं और यह बहुत अच्छी तरह से मापता है और लोचदार होने के कारण किसी भी मानव हस्तक्षेप के बिना स्केलअप / डाउन हो सकता है।

यह कहते हुए कि आपको लोड संतुलन के साथ शून्य अनुभव है, मैं इन विकल्पों का सुझाव दूंगा क्योंकि उन्हें उठने और दौड़ने के लिए न्यूनतम मस्तिष्क "फ्राइंग" की आवश्यकता होती है।

यह आपके समय का बेहतर उपयोग हो सकता है।


StackOverflow साइटों के परिवार का उपयोग poundहाल ही में जब तक, मुझे विश्वास है कि वे nginx लागू किया है। ध्यान दें कि अपाचे को बदलने के लिए नगनेक्स को लागू किया जा सकता है, या बस अपाचे के सामने वाले हिस्से के रूप में।
माइकल डिलन

हाय अंकुर। आपके जवाब के लिए धन्यवाद। अमेज़ॅन यकीन है कि एक विकल्प है जिसे हमने माना है, हालांकि EC2 पर उपलब्ध नकारात्मक प्रतिक्रिया के रूप में सकारात्मक की समान मात्रा प्रतीत होती है, जब यह उन पर व्यावसायिक महत्वपूर्ण एप्लिकेशन बनाने की बात आती है ...
औद्योगिक
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.