Node.js + Nginx - अब क्या है?


1003

मैंने अपने सर्वर पर Node.js और Nginx की स्थापना की है। अब मैं इसका उपयोग करना चाहता हूं, लेकिन, इससे पहले कि मैं शुरू करूं 2 प्रश्न हैं:

  1. उन्हें एक साथ कैसे काम करना चाहिए? मुझे अनुरोधों को कैसे संभालना चाहिए?
  2. Node.js सर्वर के लिए 2 अवधारणाएँ हैं, जिनमें से एक बेहतर है:

    ए। प्रत्येक वेबसाइट के लिए एक अलग एचटीटीपी सर्वर बनाएं जिसकी उसे जरूरत हो। फिर प्रोग्राम की शुरुआत में सभी जावास्क्रिप्ट कोड को लोड करें, इसलिए कोड की एक बार व्याख्या की जाती है।

    ख। एक एकल Node.js सर्वर बनाएँ जो सभी Node.js अनुरोधों को संभालता है। यह अनुरोधित फ़ाइलों को पढ़ता है और उनकी सामग्री को निकालता है। इसलिए फ़ाइलों को प्रत्येक अनुरोध पर व्याख्या की जाती है, लेकिन सर्वर तर्क बहुत सरल है।

यह मेरे लिए स्पष्ट नहीं है कि Node.js का सही उपयोग कैसे करें।

जवाबों:


1306

Nginx फ्रंट एंड सर्वर के रूप में काम करता है, जो इस स्थिति में नोड.जेएस सर्वर के लिए अनुरोधों को जोड़ता है। इसलिए आपको नोड के लिए एक nginx config फ़ाइल सेटअप करने की आवश्यकता है।

मैंने अपने उबंटू बॉक्स में यही किया है:

yourdomain.comपर फ़ाइल बनाएँ /etc/nginx/sites-available/:

vim /etc/nginx/sites-available/yourdomain.com

इसमें आपको कुछ इस तरह होना चाहिए:

# the IP(s) on which your node server is running. I chose port 3000.
upstream app_yourdomain {
    server 127.0.0.1:3000;
    keepalive 8;
}

# the nginx server instance
server {
    listen 80;
    listen [::]:80;
    server_name yourdomain.com www.yourdomain.com;
    access_log /var/log/nginx/yourdomain.com.log;

    # pass the request to the node.js server with the correct headers
    # and much more can be added, see nginx config options
    location / {
      proxy_set_header X-Real-IP $remote_addr;
      proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
      proxy_set_header Host $http_host;
      proxy_set_header X-NginX-Proxy true;

      proxy_pass http://app_yourdomain/;
      proxy_redirect off;
    }
 }

यदि आप वेबस्कैट अनुरोधों को संभालने के लिए nginx (> = 1.3.13) चाहते हैं, तो location /अनुभाग में निम्नलिखित पंक्तियाँ जोड़ें :

proxy_http_version 1.1;
proxy_set_header Upgrade $http_upgrade;
proxy_set_header Connection "upgrade";

एक बार आपके पास यह सेटअप होने के बाद आपको ऊपर दी गई फ़ाइल में परिभाषित साइट को सक्षम करना होगा:

cd /etc/nginx/sites-enabled/ 
ln -s /etc/nginx/sites-available/yourdomain.com yourdomain.com

अपना नोड सर्वर ऐप बनाएं /var/www/yourdomain/app.jsऔर इसे चलाएंlocalhost:3000

var http = require('http');

http.createServer(function (req, res) {
    res.writeHead(200, {'Content-Type': 'text/plain'});
    res.end('Hello World\n');
}).listen(3000, "127.0.0.1");
console.log('Server running at http://127.0.0.1:3000/');

वाक्यविन्यास गलतियों के लिए टेस्ट:

nginx -t

फिर से शुरू करें:

sudo /etc/init.d/nginx restart

अंत में नोड सर्वर शुरू करें:

cd /var/www/yourdomain/ && node app.js

अब आपको yourdomain.com पर "हैलो वर्ल्ड" देखना चाहिए

नोड सर्वर शुरू करने के संबंध में एक अंतिम नोट: आपको नोड डेमॉन के लिए किसी प्रकार की निगरानी प्रणाली का उपयोग करना चाहिए। Upstart और monit के साथ नोड पर एक भयानक ट्यूटोरियल है


11
पोस्ट के लिए धन्यवाद, ऊपर सर्वर के लिए nginx cache.js प्रतिक्रियाओं का जवाब देंगे, या उन्हें हर बार पुन: चलाएँ।
लाइम

79
क्या कोई कारण है कि आप बस क्यों नहीं कर सकते हैं location / { proxy_pass http://127.0.0.1:3000; }? आपको पूरे upstreamकॉन्फिग बिट की आवश्यकता क्यों है ?
रॉबिन विंसलो

20
+1, एक सामान्य प्रश्न का बहुत सीधा और सरल उत्तर; उन लोगों के लिए बहुत अच्छा है जो नोड और नगीनेक्स का उपयोग करके वर्चुअल होस्ट सेट करना चाहते हैं। केवल एक चीज जो मुझे याद आती है कि आप एक गुणात्मक उत्तर है कि nginx-in-front-the-node, कई vhosts (प्रश्नकर्ता के दूसरे प्रश्न) की सेवा के लिए सबसे अच्छा क्यों है।
५१ पर पॉल डी'अवेट

34
यदि आप लोड संतुलन के लिए सर्वर के लिए अधिक सर्वर जोड़ना चाहते हैं तो @Robin Winslow।
जोआओ सिल्वा

76
यह ध्यान दिया जाना चाहिए कि यह (बहुत उपयोगी) उत्तर nginx के एक स्वाद को संदर्भित करता है, जो डिफ़ॉल्ट रूप से, अंदर sites-enabledऔर sites-availableनिर्देशिकाओं के साथ आता है /etc/nginx। यदि आपका संस्करण इन दो निर्देशिकाओं के बिना आया है, तो conf.dइसके बजाय एक ही निर्देशिका होने की संभावना है । उस स्थिति में, इन निर्देशों का कोई प्रभाव नहीं होगा, UNLESS आप डिफ़ॉल्ट के बजाय इंगित करने के includeलिए फ़ाइल के अंदर विवरण को संशोधित करते हैं । आशा है कि समझ में आता है। एक बार जब आप उक्त कथन को अंदर देख लेते हैं तो यह स्वयं व्याख्यात्मक हो जाना चाहिए । nginx.confsites-enabledconf.dincludenginx.conf
मुलाक़ात

167

आप कई डोमेन को nginx के साथ सेटअप कर सकते हैं।

इन्हें प्राप्त करने के लिए उदाहरण के लिए:

  • domain1.com -> स्थानीय स्तर पर चलने वाली Node.js प्रक्रिया के लिए http://127.0.0.1:4000
  • domain2.com -> स्थानीय स्तर पर चलने वाली Node.js प्रक्रिया के लिए http://127.0.0.1 .000

इन पोर्ट (4000 और 5000) का उपयोग आपके ऐप कोड में ऐप के अनुरोध को सुनने के लिए किया जाना चाहिए।

/ Etc / nginx / साइटों सक्षम / डोमेन 1

server {
    listen 80;
    listen [::]:80;
    server_name domain1.com;
    access_log /var/log/nginx/domain1.access.log;
    location / {
        proxy_pass    http://127.0.0.1:4000/;
    }
}

In / etc / nginx / साइट्स-सक्षम / डोमेन 2

server {
    listen 80;
    listen [::]:80;
    server_name domain2.com;
    access_log /var/log/nginx/domain2.access.log;
    location / {
        proxy_pass    http://127.0.0.1:5000/;
    }
}

5
मैं प्रॉक्सी_पास की आपकी विधि का उपयोग कर रहा हूं, लेकिन किसी कारण http://example.comसे अपने आप हो जाता 302है http://www.example.com। ऐसा क्यों है?
क्रिस्टियन

क्या आपके पास Cloudflare या कुछ समान है? उपरोक्त कॉन्फ़िगरेशन बिल्कुल भी अनुप्रेषित नहीं होना चाहिए।
ozzieisaacs

1
@ क्रिश्चियन आपको proxy_set_header Host $hostHTTP 302 पुनर्निर्देशन से बचने के लिए जोड़ना होगा ।
इवान शटस्की 21

@ इवान्त्स्की - क्या आप कोई सहायता प्रदान कर सकते हैं कि एकाधिक उप डोमेन के साथ कई बंदरगाहों को कैसे कॉन्फ़िगर करें और दूसरे डोमेन में चलने वाले अन्य बंदरगाहों को रोकने के लिए?
Nginx

59

आप एक सर्वर कॉन्फ़िगरेशन में ऐप्स के लिए अलग-अलग यूआरएल भी रख सकते हैं:

  • yourdomain.com/app1/* -> Node.js प्रक्रिया के लिए स्थानीय रूप से http://127.0.0.1:3000 चल रहा है
  • yourdomain.com/app2/* -> Node.js प्रक्रिया में स्थानीय रूप से http://127.0.0.1:4000 चल रहा है

In / etc / nginx / साइट्स-सक्षम / आपका कंडोम :

server {
    listen 80;
    listen [::]:80;
    server_name yourdomain.com;

    location ^~ /app1/{
        proxy_set_header X-Real-IP $remote_addr;
        proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
        proxy_set_header Host $http_host;
        proxy_set_header X-NginX-Proxy true;
        proxy_pass    http://127.0.0.1:3000/;
    }

    location ^~ /app2/{
        proxy_set_header X-Real-IP $remote_addr;
        proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
        proxy_set_header Host $http_host;
        proxy_set_header X-NginX-Proxy true;
        proxy_pass    http://127.0.0.1:4000/;
    }
}

फिर से शुरू करें:

sudo service nginx restart

आवेदन शुरू करना।

नोड app1.js

var http = require('http');
http.createServer(function (req, res) {
    res.writeHead(200, {'Content-Type': 'text/plain'});
    res.end('Hello from app1!\n');
}).listen(3000, "127.0.0.1");
console.log('Server running at http://127.0.0.1:3000/');

नोड app2.js

var http = require('http');
http.createServer(function (req, res) {
    res.writeHead(200, {'Content-Type': 'text/plain'});
    res.end('Hello from app2!\n');
}).listen(4000, "127.0.0.1");
console.log('Server running at http://127.0.0.1:4000/');

3
ओपन सोर्स कम्युनिटी वर्जन फ्री है लेकिन उनके पास अन्य फीचर्स वाले वर्जन हैं जो फ्री नहीं हैं। nginx.com/products/feature-matrix
0x8BADF00D

मेरी अज्ञानता के लिए क्षमा करें। इस तरह से सेवा करने के क्या उद्देश्य, लाभ हैं? क्या आपके पास उपयोग का कोई उदाहरण या मामला है? अग्रिम में धन्यवाद।
माउरो एगुइलर

2
@MauroAguilar यदि आपको एक सर्वर पर 2 नोड.जेएस ऐप की आवश्यकता है, तो आप उन्हें सुझाए गए तरीके (विभिन्न बंदरगाहों का उपयोग करके) की सेवा कर सकते हैं। मेरे मामलों में यह दो अलग-अलग परीक्षण ऐप थे।
0x8BADF00D

ठीक है, लेकिन 2 ऐप चलाने और एक एकल के बीच क्या अंतर है? मेरा मतलब है, अगर वे एक ही उद्देश्य के लिए अभिप्रेत थे, तो क्या लाभ होगा?
माउरो एगुइलर

2
@ मौरूगिलर, आप उन्हें एक में चला सकते हैं और कोई लाभ नहीं है अगर यह एक परियोजना का हिस्सा हो सकता है और इसका उद्देश्य एक ही है। लेकिन अगर आपको अलग-अलग उद्देश्यों के साथ और एक सर्वर पर अलग-अलग कॉन्फ़िगरेशन के साथ 2 अलग-अलग प्रोजेक्ट चलाने की आवश्यकता है, तो आपको इस कॉन्फ़िगरेशन का उपयोग करने के लिए लाभ होगा।
0x8BADF00D

35

मैं Nginx के माध्यम से स्वतंत्र नोड एक्सप्रेस अनुप्रयोगों को प्रॉक्सी करता हूं।

इस प्रकार नए एप्लिकेशन आसानी से माउंट किए जा सकते हैं और मैं एक ही सर्वर पर विभिन्न स्थानों पर अन्य सामान भी चला सकता हूं।

यहाँ Nginx विन्यास उदाहरण के साथ मेरे सेटअप पर अधिक विवरण हैं:

Nginx के साथ सबफ़ोल्डर में एक वेब सर्वर पर कई नोड अनुप्रयोगों को तैनात करें

जब आप अपने एप्लिकेशन को लोकलहोस्ट से इंटरनेट पर स्थानांतरित करने की आवश्यकता होती है, तो नोड के साथ चीजें मुश्किल हो जाती हैं।

नोड परिनियोजन के लिए कोई सामान्य दृष्टिकोण नहीं है।

Google इस विषय पर बहुत सारे लेख पा सकता है, लेकिन मुझे सेटअप के लिए उचित समाधान खोजने में दिक्कत हो रही थी।

असल में, मेरे पास एक वेब सर्वर है और मैं चाहता हूं कि एप्लिकेशन कोड पर किसी भी कॉन्फ़िगरेशन निर्भरता की शुरुआत किए बिना नोड एप्लिकेशन सबफ़ोल्डर (यानी http: // myhost / डेमो / पेट-प्रोजेक्ट / ) पर लगाए जाएं

उसी समय मैं चाहता हूं कि ब्लॉग जैसे अन्य सामान उसी वेब सर्वर पर चलें।

सरल लगता है ना? जाहिरा तौर पर नहीं।

वेब नोड अनुप्रयोगों पर कई उदाहरणों में या तो पोर्ट 80 पर चलते हैं या न्ग्नेक्स द्वारा रूट में सम्‍मिलित हैं।

भले ही दोनों दृष्टिकोण कुछ उपयोग के मामलों के लिए मान्य हों, लेकिन वे मेरे सरल अभी तक थोड़े विदेशी मानदंडों को पूरा नहीं करते हैं।

यही कारण है कि मैंने अपना स्वयं का Nginx कॉन्फ़िगरेशन बनाया और यहां एक उद्धरण है:

upstream pet_project {
  server localhost:3000;
}

server {
  listen 80;
  listen [::]:80;
  server_name frontend;

  location /demo/pet-project {
    alias /opt/demo/pet-project/public/;
    try_files $uri $uri/ @pet-project;
  }

  location @pet-project {
    rewrite /demo/pet-project(.*) $1 break;

    proxy_set_header X-Real-IP $remote_addr;
    proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
    proxy_set_header Host $proxy_host;
    proxy_set_header X-NginX-Proxy true;

    proxy_pass http://pet_project;
    proxy_redirect http://pet_project/ /demo/pet-project/;
  }
}

इस उदाहरण से आप देख सकते हैं कि मैं अपने 3000 पेटीएम पोर्ट पर चल रहे पेट प्रोजेक्ट नोड एप्लिकेशन को http: // myhost / डेमो / पेट-प्रोजेक्ट पर माउंट करता हूं ।

पहले Nginx की जाँच करता है कि क्या अनुरोधित संसाधन / ऑप्ट / डेमो / पेट-प्रोजेक्ट / पब्लिक / पर उपलब्ध स्थिर फाइल है और यदि यह इसे कार्य करता है तो यह अत्यधिक कुशल है, इसलिए हमें कनेक्ट जैसी अनावश्यक परत की आवश्यकता नहीं है स्थैतिक मिडलवेयर।

तब अन्य सभी अनुरोधों को अधिलेखित कर दिया जाता है और पेट प्रोजेक्ट नोड एप्लिकेशन के लिए अनुमानित किया जाता है , इसलिए नोड एप्लिकेशन को यह जानने की आवश्यकता नहीं है कि यह वास्तव में कहां मुहिम की जाती है और इस तरह इसे कॉन्फ़िगरेशन द्वारा पूरी तरह से कहीं भी स्थानांतरित किया जा सकता है।

xy_redirect स्थान शीर्षक को ठीक से संभालना आवश्यक है। यदि आप अपने नोड एप्लिकेशन में res.redirect () का उपयोग करते हैं तो यह अत्यंत महत्वपूर्ण है ।

आप अलग-अलग बंदरगाहों पर चल रहे कई नोड अनुप्रयोगों के लिए इस सेटअप को आसानी से दोहरा सकते हैं और अन्य उद्देश्यों के लिए अधिक स्थान संचालकों को जोड़ सकते हैं।

प्रेषक: http://skovalyov.blogspot.dk/2012/07/deploy-multiple-node-applications-on.html


1
इसके बजाय आपको उप डोमेन में क्यों और कैसे करना चाहिए: skovalyov.blogspot.dk/2012/10/…
skovalyov

लिंक केवल उत्तर… क्या आप अपने ब्लॉग के चले जाने के मामले में अपने उत्तर में संबंधित भागों को संक्षेप में बता सकते हैं?
कैसर

11

Ngin.js को Nginx कॉन्फ़िगरेशन के साथ।

$ sudo nano /etc/nginx/sites-available/subdomain.your_domain.com

निम्‍न कॉन्फ़िगरेशन को जोड़ें, ताकि जब हम "subdomain.your_domain.com" से आते हैं, तो Nginx सर्वर से 3000 ट्रैफ़िक पोर्ट करने के लिए एक प्रॉक्सी रीडायरेक्ट करे।

upstream subdomain.your_domain.com {
  server 127.0.0.1:3000;
}
server {
  listen 80;
  listen [::]:80;
  server_name subdomain.your_domain.com;
  access_log /var/log/nginx/subdomain.your_domain.access.log;
  error_log /var/log/nginx/subdomain.your_domain.error.log debug;
  location / {
    proxy_set_header X-Real-IP $remote_addr;
    proxy_set_header X-Forwarder-For $proxy_add_x_forwarded_for;
    proxy_set_header Host $http_host;
    proxy_set_header X-NginX-Proxy true;
    proxy_pass http://subdomain.your_domain.com;
    proxy_redirect off;
  }
}

9

आपके प्रश्न का उत्तर 2:

मैं विकल्प का उपयोग bकेवल इसलिए करूंगा क्योंकि यह बहुत कम संसाधनों की खपत करता है। विकल्प 'ए' के ​​साथ, प्रत्येक क्लाइंट सर्वर को बहुत सारी मेमोरी का उपभोग करने का कारण बनेगा, आपकी ज़रूरत की सभी फ़ाइलों को लोड करना (भले ही मुझे php पसंद है, यह इसके साथ समस्याओं में से एक है)। विकल्प 'बी' के साथ आप अपने पुस्तकालयों (पुन: प्रयोज्य कोड) को लोड कर सकते हैं और उन्हें सभी ग्राहक अनुरोधों के बीच साझा कर सकते हैं।

लेकिन बर्तन है कि अगर आप कई कोर है आप उन सभी का उपयोग करने के लिए नोड। जेएस tweak चाहिए।


2
इस सलाह का पालन करें यदि संसाधन आपका सबसे महत्वपूर्ण मुद्दा है (संभावना नहीं)। (ए) और (बी) के बीच अलग-अलग समझौते होते हैं। विकल्प (ए) शायद बेहतर है यदि आप साइटों को और अधिक स्वतंत्र होना चाहते हैं जैसे साइट पुनरारंभ या रखरखाव, डीबी कनेक्शन, कोड आधार, लाइब्रेरी निर्भरता, सर्वर के बीच चलती साइट, आदि
रोबोकैट

8

मैंने गितुब में एक भंडार बनाया जिसे आप क्लोन कर सकते हैं, योनि-नोड-नेगनेक्स-बॉयलरप्लेट

मूल रूप से n.js ऐप /var/www/nodeappहै

var http = require('http');
http.createServer(function (req, res) {
  res.writeHead(200, {'Content-Type': 'text/plain'});
  res.end('Hello World\n');
}).listen(4570, '127.0.0.1');

console.log('Node Server running at 127.0.0.1:4570/');

और पर nginx विन्यास /etc/nginx/sites-available/है

server {
        listen 80 default_server;
        listen [::]:80 default_server;

        root /var/www/nodeapp;
        index index.html index.htm;

        server_name localhost;

        location / {
          proxy_pass http://127.0.0.1:4570;
          proxy_http_version 1.1;
          proxy_set_header Upgrade $http_upgrade;
          proxy_set_header Connection 'upgrade';
          proxy_set_header Host $host;
          proxy_cache_bypass $http_upgrade;
        }
}

5

आप nginx द्वारा दी गई निर्देशिका में स्थिर फ़ाइलों को उत्पन्न करने के लिए नोड.जेएस का भी उपयोग कर सकते हैं। बेशक, आपकी साइट के कुछ गतिशील भागों को नोड द्वारा सेवा दी जा सकती है, और कुछ नगीनेक्स (स्थिर) द्वारा।

उनमें से कुछ नग्नेक्स द्वारा परोसने से आपका प्रदर्शन बढ़ता है।


5

हम आसानी से एक रिवर्स प्रॉक्सी के रूप में अभिनय करते हुए नगनेक्स द्वारा एक नोडोड्स एप्लिकेशन को सेटअप कर सकते हैं।
निम्नलिखित कॉन्फ़िगरेशन मानता है कि NodeJS एप्लिकेशन 127.0.0.1:8080 पर चल रहा है,

  server{
     server_name domain.com sub.domain.com; # multiple domains

     location /{ 
      proxy_pass http://127.0.0.1:8080;  
      proxy_set_header Host $host;
      proxy_pass_request_headers on;  
     }

     location /static/{
       alias /absolute/path/to/static/files; # nginx will handle js/css
     }
   } 

उपरोक्त सेटअप में आपका Nodejs ऐप होगा,

  • HTTP_HOSTहेडर प्राप्त करें जहां आप प्रतिक्रिया की सेवा के लिए डोमेन विशिष्ट तर्क लागू कर सकते हैं। '
  • आपके आवेदन को एक प्रक्रिया प्रबंधक द्वारा प्रबंधित किया जाना चाहिए जैसे कि pm2 या पर्यवेक्षक स्थितियों को संभालने के लिए / सॉकेट या संसाधनों का पुनः उपयोग करने आदि के लिए।

  • संतरी या रोलबार जैसी उत्पादन त्रुटियों को प्राप्त करने के लिए एक त्रुटि रिपोर्टिंग सेवा सेट करें

नोट: आप डोमेन विशिष्ट अनुरोध मार्गों को सौंपने के लिए तर्क स्थापित कर सकते हैं, एक्सप्रेसज एप्लिकेशन के लिए एक मिडलवेयर बना सकते हैं


1
उपयोग PM2 के लिए एक और कारण यह है कि आप खोल से बाहर निकलने के बाद 'हमेशा के लिए' अपने अनुप्रयोग चला सकते हैं, और स्वचालित रूप से इसे शुरू करता है, तो आप कभी भी अपने सर्वर रिबूट की जरूरत है, देखना तो यह है: pm2.keymetrics.io/docs/usage/startup
SeanQuinn781

3

Nginx एक रिवर्स प्रॉक्सी सर्वर के रूप में कार्य कर सकता है जो प्रोजेक्ट मैनेजर की तरह काम करता है। जब इसे एक अनुरोध मिलता है तो यह इसका विश्लेषण करता है और आगे की ओर (परियोजना के सदस्यों) या स्वयं को संभालने का अनुरोध करता है। कैसे कॉन्फ़िगर किया गया है, इसके आधार पर एक अनुरोध से निपटने के दो तरीके हैं।

  • अनुरोध परोसें
  • किसी अन्य सर्वर के अनुरोध को अग्रेषित करें

    server{
     server_name mydomain.com sub.mydomain.com;
    
     location /{ 
      proxy_pass http://127.0.0.1:8000;  
      proxy_set_header Host $host;
      proxy_pass_request_headers on;  
     }
    
     location /static/{
       alias /my/static/files/path;
     }

    }

सर्वर अनुरोध

इस कॉन्फ़िगरेशन के साथ, जब अनुरोध url होता है तो mydomain.com/static/myjs.jsयह myjs.jsफ़ाइल को /my/static/files/pathफ़ोल्डर में वापस कर देता है । जब आप स्थैतिक फ़ाइलों की सेवा के लिए nginx को कॉन्फ़िगर करते हैं, तो यह अनुरोध को स्वयं संभालता है।

किसी अन्य सर्वर के अनुरोध को अग्रेषित करें

जब अनुरोध url mydomain.com/dothisnginx है, तो यह अनुरोध http://127.0.0.1:8000 तक होगा । जो सेवा लोकलहोस्ट 8000 पोर्ट पर चल रही है, वह रिक्वेस्ट प्राप्त करेगी और नेगनेक्स के लिए प्रतिक्रिया देता है और नेगनेक्स क्लाइंट को प्रतिक्रिया देता है।

जब आप नोड 8000 पोर्ट पोर्ट पर n.js सर्वर चलाते हैं, तो नोड को अनुरोध भेज देंगे। नोड लिखें। तर्क और अनुरोध को संभालें। यह है कि आप अपने नोडज सर्वर को नेग्नेक्स सर्वर के पीछे चला रहे हैं।

यदि आप नोडज के अलावा किसी भी अन्य सेवाओं को चलाने की इच्छा रखते हैं, तो सिर्फ एक अन्य सेवा जैसे कि Django, फ्लास्क, विभिन्न बंदरगाहों पर php और nginx में कॉन्फ़िगर करें।


1

यदि आप प्रत्येक microservice साधनों का प्रबंधन और इसे चलाना चाहते हैं, तो आप pm2 का उपयोग करके नोडज चला सकते हैं। नोड पोर्ट में चल रहा होगा ठीक उस पोर्ट को nginx (/etc/nginx/sites-enabled/domain.com) में कॉन्फ़िगर करें

server{
    listen 80;
    server_name domain.com www.domain.com;

  location / {
     return 403;
  }
    location /url {
        proxy_pass http://localhost:51967/info;
    }
}

पिंग का उपयोग करके जांचें कि लोकलहोस्ट चल रहा है या नहीं।

तथा

Create one single Node.js server which handles all Node.js requests. This reads the requested files and evals their contents. So the files are interpreted on each request, but the server logic is much simpler.

यह सबसे अच्छा है और जैसा कि आपने कहा कि आसान भी है


1

Nginx और Nodejs के साथ सबसे अच्छा और सरल सेटअप Ngin को HTTP_protocol सक्षम के साथ HTTP और TCP लोड बैलेंसर के रूप में उपयोग करना है। इस संदर्भ में, Nginx नोडज को आने वाले अनुरोधों को प्रॉक्सी करने में सक्षम होगा, और SSL कनेक्शन को बैकएंड Nginx सर्वर (एस) से भी समाप्त करेगा, और प्रॉक्सी सर्वर को ही नहीं। (एसएसएल-पासथ्रू)

मेरी राय में, गैर-एसएसएल उदाहरण देने का कोई मतलब नहीं है, क्योंकि सभी वेब एप्लिकेशन सुरक्षित वातावरण का उपयोग कर रहे हैं (या होना चाहिए)।

प्रॉक्सी सर्वर के लिए, /etc/nginx/nginx.conf में उदाहरण का विन्यास

user  nginx;
worker_processes  1;
error_log  /var/log/nginx/error.log warn;
pid        /var/run/nginx.pid;
events {
    worker_connections  1024;
}
http {
  upstream webserver-http {
    server 192.168.1.4; #use a host port instead if using docker
    server 192.168.1.5; #use a host port instead if using docker
  }
  upstream nodejs-http {
    server 192.168.1.4:8080; #nodejs listening port
    server 192.168.1.5:8080; #nodejs listening port
  }
  server {
    server_name example.com;
    location / {
      proxy_set_header X-Real-IP $remote_addr;
      proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
      proxy_set_header X-Forwarded-Proto $scheme;
      proxy_set_header Host $http_host;
      proxy_set_header X-Forwarded-Host $server_name;
      proxy_set_header Connection "";
      add_header       X-Upstream $upstream_addr;
      proxy_redirect     off;
      proxy_connect_timeout  300;
      proxy_http_version 1.1;
      proxy_buffers 16 16k;
      proxy_buffer_size 16k;
      proxy_cache_background_update on;
      proxy_pass http://webserver-http$request_uri;
    }
  }
  server {
    server_name node.example.com;
    location / {
      proxy_set_header X-Real-IP $remote_addr;
      proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
      proxy_set_header X-Forwarded-Proto $scheme;
      proxy_set_header Host $http_host;
      proxy_set_header X-Forwarded-Host $server_name;
      proxy_set_header Upgrade $http_upgrade;
      proxy_set_header Connection "Upgrade";
      add_header       X-Upstream $upstream_addr;
      proxy_redirect     off;
      proxy_connect_timeout  300;
      proxy_http_version 1.1;
      proxy_buffers 16 16k;
      proxy_buffer_size 16k;
      proxy_cache_background_update on;
      proxy_pass http://nodejs-http$request_uri;
    }
  }
}
stream {
  upstream webserver-https {
    server 192.168.1.4:443; #use a host port instead if using docker
    server 192.168.1.5:443; #use a host port instead if using docker
  }

  server {
    proxy_protocol on;
    tcp_nodelay on;
    listen 443;
    proxy_pass webserver-https;
  }
  log_format proxy 'Protocol: $protocol - $status $bytes_sent $bytes_received $session_time';
  access_log  /var/log/nginx/access.log proxy;
  error_log /var/log/nginx/error.log debug;
}

अब, बैकएंड वेबसर्वर को संभालते हैं। /etc/nginx/nginx.conf :

user  nginx;
worker_processes  1;
error_log  /var/log/nginx/error.log warn;
pid        /var/run/nginx.pid;
load_module /etc/nginx/modules/ngx_http_geoip2_module.so; # GeoIP2
events {
    worker_connections  1024;
}
http {
    variables_hash_bucket_size 64;
    variables_hash_max_size 2048;
    server_tokens off;
    sendfile    on;
    tcp_nopush  on;
    tcp_nodelay on;
    autoindex off;
    keepalive_timeout  30;
    types_hash_bucket_size 256;
    client_max_body_size 100m;
    server_names_hash_bucket_size 256;
    include         mime.types;
    default_type    application/octet-stream;
    index  index.php index.html index.htm;
    # GeoIP2
    log_format  main    'Proxy Protocol Address: [$proxy_protocol_addr] '
                        '"$request" $remote_addr - $remote_user [$time_local] "$request" '
                        '$status $body_bytes_sent "$http_referer" '
                        '"$http_user_agent" "$http_x_forwarded_for"';

    # GeoIP2
    log_format  main_geo    'Original Client Address: [$realip_remote_addr]- Proxy Protocol Address: [$proxy_protocol_addr] '
                            'Proxy Protocol Server Address:$proxy_protocol_server_addr - '
                            '"$request" $remote_addr - $remote_user [$time_local] "$request" '
                            '$status $body_bytes_sent "$http_referer" '
                            '$geoip2_data_country_iso $geoip2_data_country_name';

    access_log  /var/log/nginx/access.log  main_geo; # GeoIP2
#===================== GEOIP2 =====================#
    geoip2 /usr/share/geoip/GeoLite2-Country.mmdb {
        $geoip2_metadata_country_build  metadata build_epoch;
        $geoip2_data_country_geonameid  country geoname_id;
        $geoip2_data_country_iso        country iso_code;
        $geoip2_data_country_name       country names en;
        $geoip2_data_country_is_eu      country is_in_european_union;
    }
    #geoip2 /usr/share/geoip/GeoLite2-City.mmdb {
    #   $geoip2_data_city_name city names en;
    #   $geoip2_data_city_geonameid city geoname_id;
    #   $geoip2_data_continent_code continent code;
    #   $geoip2_data_continent_geonameid continent geoname_id;
    #   $geoip2_data_continent_name continent names en;
    #   $geoip2_data_location_accuracyradius location accuracy_radius;
    #   $geoip2_data_location_latitude location latitude;
    #   $geoip2_data_location_longitude location longitude;
    #   $geoip2_data_location_metrocode location metro_code;
    #   $geoip2_data_location_timezone location time_zone;
    #   $geoip2_data_postal_code postal code;
    #   $geoip2_data_rcountry_geonameid registered_country geoname_id;
    #   $geoip2_data_rcountry_iso registered_country iso_code;
    #   $geoip2_data_rcountry_name registered_country names en;
    #   $geoip2_data_rcountry_is_eu registered_country is_in_european_union;
    #   $geoip2_data_region_geonameid subdivisions 0 geoname_id;
    #   $geoip2_data_region_iso subdivisions 0 iso_code;
    #   $geoip2_data_region_name subdivisions 0 names en;
   #}

#=================Basic Compression=================#
    gzip on;
    gzip_disable "msie6";
    gzip_vary on;
    gzip_proxied any;
    gzip_comp_level 6;
    gzip_buffers 16 8k;
    gzip_http_version 1.1;
    gzip_types text/css text/xml text/plain application/javascript image/jpeg image/png image/gif image/x-icon image/svg+xml image/webp application/font-woff application/json application/vnd.ms-fontobject application/vnd.ms-powerpoint;
    gzip_static on;

    include /etc/nginx/sites-enabled/example.com-https.conf;
}

अब, चलो इस SSL के साथ आभासी मेजबान कॉन्फ़िगर कर सकते हैं और proxy_protocol पर विन्यास सक्षम /etc/nginx/sites-available/example.com-https.conf :

server {
    real_ip_header proxy_protocol;
    set_real_ip_from 192.168.1.1; #proxy server ip address
    #set_real_ip_from proxy; #proxy container hostname if you are using docker
    server_name 192.168.1.4; #Your current server ip address. It will redirect to the domain name.
    listen 80;
    listen 443 ssl http2;
    listen [::]:80;
    listen [::]:443 ssl http2;
    ssl_certificate     /etc/nginx/certs/example.com.crt;
    ssl_certificate_key /etc/nginx/certs/example.com.key;
    ssl_dhparam /etc/nginx/ssl/dhparam.pem;
    return 301 https://example.com$request_uri;
}
server {
    real_ip_header proxy_protocol;
    set_real_ip_from 192.168.1.1; #proxy server ip address
    #set_real_ip_from proxy; #proxy container hostname if you are using docker
    server_name  example.com;
    listen       *:80;
    return 301   https://example.com$request_uri;
}
server {
    real_ip_header proxy_protocol;
    set_real_ip_from 192.168.1.1; #proxy server ip address
    #set_real_ip_from proxy; #proxy container hostname if you are using docker
    server_name www.example.com;
    listen 80;
    listen 443 http2;
    listen [::]:80;
    listen [::]:443 ssl http2 ;
    ssl_certificate     /etc/nginx/certs/example.com.crt;
    ssl_certificate_key /etc/nginx/certs/example.com.key;
    ssl_dhparam /etc/nginx/ssl/dhparam.pem;
    return 301 https://example.com$request_uri;
}
server {
    real_ip_header proxy_protocol;
    set_real_ip_from 192.168.1.1; #proxy server ip address
    #set_real_ip_from proxy; #proxy container hostname if you are using docker
    server_name example.com;
    listen 443 proxy_protocol ssl http2;
    listen [::]:443 proxy_protocol ssl http2;
    root /var/www/html;
    charset UTF-8;
    add_header Strict-Transport-Security 'max-age=31536000; includeSubDomains; preload';
    add_header X-Frame-Options SAMEORIGIN;
    add_header X-Content-Type-Options nosniff;
    add_header X-XSS-Protection "1; mode=block";
    add_header Referrer-Policy no-referrer;
    ssl_prefer_server_ciphers on;
    ssl_ciphers "EECDH+AESGCM:EDH+AESGCM:AES256+EECDH:AES256+EDH";
    ssl_protocols TLSv1.2 TLSv1.1 TLSv1;
    ssl_session_cache   shared:SSL:10m;
    ssl_session_timeout 10m;
    keepalive_timeout   70;
    ssl_buffer_size 1400;
    ssl_dhparam /etc/nginx/ssl/dhparam.pem;
    ssl_stapling on;
    ssl_stapling_verify on;
    resolver 8.8.8.8 8.8.4.4 valid=86400;
    resolver_timeout 10;
    ssl_certificate     /etc/nginx/certs/example.com.crt;
    ssl_certificate_key /etc/nginx/certs/example.com.key;
    ssl_trusted_certificate /etc/nginx/certs/example.com.crt;
location ~* \.(jpg|jpe?g|gif|png|ico|cur|gz|svgz|mp4|ogg|ogv|webm|htc|css|js|otf|eot|svg|ttf|woff|woff2)(\?ver=[0-9.]+)?$ {
    expires modified 1M;
    add_header Access-Control-Allow-Origin '*';
    add_header Pragma public;
    add_header Cache-Control "public, must-revalidate, proxy-revalidate";
    access_log off;
    }
    location ~ /.well-known { #For issuing LetsEncrypt Certificates
        allow all;
    }
location / {
    index index.php;
    try_files $uri $uri/ /index.php?$args;
    }
error_page  404    /404.php;

location ~ \.php$ {
    try_files       $uri =404;
    fastcgi_index   index.php;
    fastcgi_pass    unix:/tmp/php7-fpm.sock;
    #fastcgi_pass    php-container-hostname:9000; (if using docker)
    fastcgi_pass_request_headers on;
    fastcgi_split_path_info ^(.+\.php)(/.+)$;
    fastcgi_param   SCRIPT_FILENAME  $document_root$fastcgi_script_name;
    fastcgi_intercept_errors on;
    fastcgi_ignore_client_abort off;
    fastcgi_connect_timeout 60;
    fastcgi_send_timeout 180;
    fastcgi_read_timeout 180;
    fastcgi_request_buffering on;
    fastcgi_buffer_size 128k;
    fastcgi_buffers 4 256k;
    fastcgi_busy_buffers_size 256k;
    fastcgi_temp_file_write_size 256k;
    include fastcgi_params;
}
location = /robots.txt {
    access_log off;
    log_not_found off;
    }
location ~ /\. {
    deny  all;
    access_log off;
    log_not_found off;
    }
}

और अंत में, 2 नोडज वीबसेर्वर्स का एक नमूना : पहला सर्वर:

var http = require('http');

http.createServer(function (req, res) {
    res.writeHead(200, {'Content-Type': 'text/plain'});
    res.end('Hello From Nodejs\n');
}).listen(8080, "192.168.1.4");
console.log('Server running at http://192.168.1.4:8080/');

दूसरा सर्वर:

var http = require('http');

http.createServer(function (req, res) {
    res.writeHead(200, {'Content-Type': 'text/plain'});
    res.end('Hello From Nodejs\n');
}).listen(8080, "192.168.1.5");
console.log('Server running at http://192.168.1.5:8080/');

अब सब कुछ पूरी तरह से काम और लोड-संतुलित होना चाहिए।

कुछ समय पहले मैंने लिखा था कि डॉकटर में टीसीपी लोड बैलेंसर के रूप में निगनेक्स को कैसे स्थापित किया जाए । यह जांचें कि क्या आप डॉकर का उपयोग कर रहे हैं।

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.