Hadoop कैसे स्थापित करें?


26

मैं Ubuntu 12.04 संस्करण में Hadoop स्थापित करने का प्रयास कर रहा हूं। Http://michael-noll.com/tutorials/running-hadoop-on-ubuntu-linux-single-node-cluster/ के निर्देशों का पालन करते हुए , मैंने java-6-openjdkUbuntu सॉफ्टवेयर-सेंटर से इंस्टॉल किया। में सेट हो java_homeगया हूं .bashrcjava_homeहाडोप में भी सेट है conf/env.sh। नमेनोड को प्रारूपित करते समय, मुझे निम्नलिखित त्रुटि मिल रही है:

usr/lib/jvm/java-6-openjdk/bin/java no such file or directory.

धन्यवाद। लेकिन यह 64 बिट का ओएस है।


1
जब उपयोगकर्ता ने समाधान ढूंढ लिया है तो एक इनाम क्यों है? किस तरह के जवाब की उम्मीद है?
हरा

1
@ ग्रीन 7 इरादा एक ऐसा उत्तर खोजना है जो वास्तव में स्वीकृत के रूप में चिह्नित हो, अत्यधिक विस्तृत हो, और पसंद हो। चूँकि वहाँ एक नहीं लगता है, मैं जोर्ज को बाउंटी जोड़कर समझ सकता हूँ।
थॉमस वार्ड

@ TheLordofTime विस्तृत उत्तर में 5 पंक्तियाँ होंगी क्योंकि प्रश्न बहुत अधिक स्थानीय है। और यदि कोई उत्तर Hadoop के इंस्टॉलेशन निर्देशों से संबंधित है, तो यह बेमानी होगा, क्योंकि प्रश्न में उल्लिखित लिंक इसे आश्चर्यजनक रूप से बताता है। इसके अलावा जवाब के बाद से, सबसे अधिक वोटों के साथ, पूछने वाले द्वारा उसे / खुद को पोस्ट किया गया था, यह बहुत संभावना नहीं है कि वह किसी अन्य उत्तर को स्वीकार करेगा।
हरा

@ ग्रीन 7 यदि प्रश्न बहुत स्थानीय है तो इसे इस तरह से बंद करने के लिए वोट करें?
थॉमस वार्ड

जवाबों:


39

जब मेरे पास 12.04 थे, तब मैंने जो गाइड किया था:

मैं वास्तव में MyLearning एक का विरोध कर रहा था क्योंकि सबसे पहले इसकी सिफारिश की गई थी OpenJDK 7 के बजाय Oracle जावा 7, लेकिन मेरे पास OpenJDK 7 के साथ कुछ मुद्दे थे जब इसे आज़माने के लिए मुझे Oracle के साथ जाना पड़ा।

गाइड ज्यादातर सीधे आगे है और यहाँ यह है:

  1. जावा स्थापित करें

    sudo add-apt-repository ppa:webupd8team/java  
    sudo apt-get update && sudo apt-get upgrade  
    sudo apt-get install oracle-java7-installer  
    
  2. Hadoop उपयोगकर्ता बनाएँ

    sudo addgroup hadoop  
    sudo adduser --ingroup hadoop hduser
    

    जहाँ hduser हैडो उपयोगकर्ता है जिसे आप चाहते हैं।

  3. SSH को कॉन्फ़िगर करना

    su - hduser   
    ssh-keygen -t rsa -P ""
    cat .ssh/id_rsa.pub >> .ssh/authorized_keys
    

    यह सुनिश्चित करने के लिए कि एसएसएच इंस्टॉलेशन अच्छी तरह से चला गया है, आप एक नया टर्मिनल खोल सकते हैं और hduserनिम्नलिखित कमांड का उपयोग करके ssh सत्र बनाने की कोशिश कर सकते हैं :

    ssh localhost
    

    लोकलहोस्ट कनेक्ट नहीं होने पर ssh को फिर से इंस्टॉल करें (आपको hduserनीचे दिए गए चरण के अनुसार sudo में जोड़ना पड़ सकता है )

    sudo apt-get install openssh-server
    
  4. संपादित करें Sudoers

    sudo visudo
    
  5. अंत में जोड़ें hduser को sudoers में जोड़ने के लिए

    hduser ALL=(ALL:ALL) ALL
    

    प्रेस CTRL+ को बचाने के लिए Xटाइप करें Yऔर दबाएँENTER

  6. IPv6 को अक्षम करें

    sudo gedit /etc/sysctl.conf
    

    या

    sudo nano /etc/sysctl.conf
    

    फ़ाइल के अंत में निम्नलिखित पंक्तियों को कॉपी करें:

    #disable ipv6  
    net.ipv6.conf.all.disable_ipv6 = 1  
    net.ipv6.conf.default.disable_ipv6 = 1   
    net.ipv6.conf.lo.disable_ipv6 = 1  
    

    यदि आपको यह बताने में कोई समस्या है, तो आपके पास अनुमतियाँ नहीं हैं, बस पिछली कमांड को रूट खाते के साथ चलाएं (यदि मामले में sudo पर्याप्त नहीं है। मेरे लिए यह था)

  7. अब रिबूट करें।

    आप भी कर सकते हैं sudo sysctl -pलेकिन मैं रिबूट करता हूं।

    रिबूट करने के बाद, यह सुनिश्चित करने के लिए जांचें कि IPv6 बंद है:

    cat /proc/sys/net/ipv6/conf/all/disable_ipv6
    

    इसे 1 कहना चाहिए । अगर यह 0 कहता है , तो आप कुछ याद किया।

  8. Hadoop स्थापित करना

    ऐसा करने के कई तरीके हैं, एक जो गाइड बताता है वह है अपाचे हडोप साइट से डाउनलोड करना और अपने hduserहोम फोल्डर में फाइल को डिकम्प्रेस करना । निकाले गए फ़ोल्डर का नाम बदलें hadoop

    दूसरा तरीका एक पीपीए का उपयोग करना है जिसे 12.04 के लिए परीक्षण किया गया था:

    sudo add-apt-repository ppa:hadoop-ubuntu/stable  
    sudo apt-get update && sudo apt-get upgrade  
    sudo apt-get install hadoop  
    

    नोट: PPA कुछ के लिए काम कर सकता है और दूसरों के लिए नहीं होगा। मैंने जो भी कोशिश की वह आधिकारिक साइट से डाउनलोड करना था क्योंकि मुझे पीपीए के बारे में पता नहीं था।

  9. अद्यतन करें $HOME/.bashrc

    आप उन्हें अपडेट करने की आवश्यकता होगी .bashrcके लिए hduser(और आप Hadoop प्रशासन के लिए की जरूरत है प्रत्येक उपयोगकर्ता के लिए)। .bashrcफ़ाइल खोलने के लिए, आपको इसे रूट के रूप में खोलना होगा:

    sudo gedit /home/hduser/.bashrc  
    

    या

    sudo nano /home/hduser/.bashrc  
    

    फिर आप .bashrcफ़ाइल के अंत में निम्नलिखित कॉन्फ़िगरेशन जोड़ देंगे

    # Set Hadoop-related environment variables   
    export HADOOP_HOME=/home/hduser/hadoop  
    
    # Set JAVA_HOME (we will also configure JAVA_HOME directly for Hadoop later on)`
    export JAVA_HOME=/usr/lib/jvm/java-7-oracle  
    

    अब, यदि आपके पास OpenJDK7 है, तो यह कुछ इस तरह दिखाई देगा:

    export JAVA_HOME=/usr/lib/java-7-openjdk-amd64  
    

    यहाँ देखने के लिए बात वह फ़ोल्डर है जहाँ जावा AMD64 संस्करण के साथ रहता है। यदि ऊपर काम नहीं करता है, तो आप उस विशेष फ़ोल्डर में देखने की कोशिश कर सकते हैं या जावा को सेट कर सकते हैं जिसका उपयोग किया जाएगा:

    sudo update-alternatives --config java  
    

    अब कुछ सहायक उपनाम के लिए:

    # Some convenient aliases and functions for running Hadoop-related commands  
    unalias fs &> /dev/null   
    alias fs="hadoop fs"    
    unalias hls &> /dev/null  
    alias hls="fs -ls"  
    
    # Add Hadoop bin/ directory to PATH  
    export PATH=$PATH:$HADOOP_HOME/bin  
    
  10. Hadoop को कॉन्फ़िगर करना

    निम्नलिखित कॉन्फ़िगरेशन फाइलें हैं जिनका उपयोग हम उचित कॉन्फ़िगरेशन करने के लिए कर सकते हैं। Hadoop के साथ आप जिन फ़ाइलों का उपयोग कर रहे हैं उनमें से कुछ हैं ( इस साइट की अधिक जानकारी ):

    start-dfs.sh- Hadoop DFS डेमोंस, नेमेनोड और डेटाैनोड्स को शुरू करता है। Start-mapred.sh से पहले इसका उपयोग करें

    stop-dfs.sh - Hadoop DFS डेमन को रोक देता है।

    start-mapred.sh - Hadoop Map / Reduce Daemons, जॉबट्रैकर और टास्कट्रॉकर्स को शुरू करता है।

    stop-mapred.sh - Hadoop Map / Daemons को कम करता है।

    start-all.sh- सभी Hadoop डेमोंस, नामेनोड, डेटाैनोड्स, जॉबट्रैकर और टास्कट्रॉकर्स को शुरू करता है। पदावनत; start-dfs.sh का उपयोग करें फिर start-mapred.sh

    stop-all.sh- सभी Hadoop डेमन को रोकता है। पदावनत; stop-mapred.sh का उपयोग करें फिर stop-dfs.sh

    लेकिन इससे पहले कि हम उनका उपयोग करना शुरू करें, हमें /confफ़ोल्डर में कई फ़ाइलों को संशोधित करना होगा ।

    hadoop-env.sh

    फ़ाइल के लिए देखें hadoop-env.sh, हमें इस फ़ाइल में केवल JAVA_HOME चर अपडेट करना होगा:

    sudo gedit /home/hduser/hadoop/conf/hadoop-env.sh
    

    या

    sudo nano /home/hduser/hadoop/conf/hadoop-env.sh
    

    या नवीनतम संस्करणों में यह अंदर होगा

    sudo nano /etc/hadoop/conf.empty/hadoop-env.sh
    

    या

    sudo nano /etc/hadoop/hadoop-env.sh
    

    फिर निम्नलिखित लाइन बदलें:

    # export JAVA_HOME=/usr/lib/j2sdk1.5-sun
    

    सेवा मेरे

    export JAVA_HOME=/usr/lib/jvm/java-7-oracle
    

    नोट: यदि आपको Error: JAVA_HOME is not setसेवाएं शुरू करते समय त्रुटि मिलती है , तो आप पिछली पंक्ति को अनसुना करना भूल गए (बस # हटा दें)।

    कोर-site.xml

    अब हमें Hadoop ढांचे के लिए एक अस्थायी निर्देशिका बनाने की आवश्यकता है। यदि आपको परीक्षण या एक त्वरित प्रोटोटाइप के लिए इस वातावरण की आवश्यकता है (जैसे कि आपके व्यक्तिगत परीक्षण के लिए सरल हडॉप प्रोग्राम विकसित करें ...), मैं इस फ़ोल्डर को /home/hduser/निर्देशिका के तहत बनाने का सुझाव देता हूं , अन्यथा, आपको इस फ़ोल्डर को साझा फ़ोल्डर के तहत एक साझा जगह में बनाना चाहिए ( जैसे / usr / स्थानीय ...) लेकिन आपको कुछ सुरक्षा समस्याओं का सामना करना पड़ सकता है। लेकिन सुरक्षा के कारण होने वाले अपवादों को दूर करने के लिए (जैसे java.io.IOException), मैंने hduser स्पेस के तहत tmp फ़ोल्डर बनाया है।

    इस फ़ोल्डर को बनाने के लिए, निम्न कमांड टाइप करें:

    sudo mkdir /home/hduser/tmp   
    

    कृपया ध्यान दें कि यदि आप एक और व्यवस्थापक उपयोगकर्ता बनाना चाहते हैं (जैसे कि हडूप समूह में hduser2), तो आपको उसे निम्नलिखित कमांड्स का उपयोग करके इस फ़ोल्डर में पढ़ने और लिखने की अनुमति देनी चाहिए:

    sudo chown hduser:hadoop /home/hduser/tmp  
    sudo chmod 755 /home/hduser/tmp  
    

    अब, हम hadoop/conf/core-site.xmlhadoop.tmp.dir प्रविष्टि को संपादित करने के लिए खोल सकते हैं । हम पाठ संपादक का उपयोग करके कोर-site.xml खोल सकते हैं:

    sudo gedit /home/hduser/etc/hadoop/core-site.xml  
    

    या

    nano /home/hduser/etc/hadoop/core-site.xml
    

    फिर xml तत्वों के बीच<configure> निम्नलिखित विन्यास जोड़ें :

    <property>
      <name>hadoop.tmp.dir</name>
      <value>/home/hduser/tmp</value>
      <description>A base for other temporary directories.</description>
    </property>
    
    <property>
      <name>fs.default.name</name>
      <value>hdfs://localhost:54310</value>
      <description>The name of the default file system.  A URI whose
      scheme and authority determine the FileSystem implementation.  The
      uri's scheme determines the config property (fs.SCHEME.impl) naming
      the FileSystem implementation class.  The uri's authority is used to
      determine the host, port, etc. for a filesystem.</description>
    </property>
    

    अब संपादित करें mapred-site.xml

    <property>
      <name>mapred.job.tracker</name>
      <value>localhost:54311</value>
      <description>The host and port that the MapReduce job tracker runs
      at.  If "local", then jobs are run in-process as a single map
      and reduce task.
      </description>
    </property>
    

    अब संपादित करें hdfs-site.xml

    <property>
      <name>dfs.replication</name>
      <value>1</value>
      <description>Default block replication.
      The actual number of replications can be specified when the file is created.
      The default is used if replication is not specified in create time.
      </description>
    </property> 
    
  11. NameNode स्वरूपण

    अब आप नोड पर काम करना शुरू कर सकते हैं। पहला प्रारूप:

    ~/hduser/hadoop/bin/hadoop namenode -format
    

    या

    ./home/hduser/hadoop/bin/hadoop namenode -format
    

    आपको अपने HDFS में NameNode को फॉर्मेट करना चाहिए। जब सिस्टम चल रहा हो तो आपको यह चरण नहीं करना चाहिए। यह आमतौर पर आपकी स्थापना के पहले समय में एक बार किया जाता है।

  12. Hadoop क्लस्टर शुरू

    आपको हडूप / बिन निर्देशिका में नेविगेट करना होगा और ./start-all.shस्क्रिप्ट को चलाना होगा ।

    cd ~/hduser/hadoop/bin/  
    start-all.sh  
    

    यदि आपके पास गाइड में दिखाए गए एक से एक अलग संस्करण है (जो कि पीपीए या नए संस्करण के साथ ऐसा करने पर आपको सबसे अधिक संभावना होगी) तो इसे इस तरह आज़माएं:

    cd ~/hduser/hadoop/bin/   
    start-dfs.sh  
    start-mapred.sh   
    

    यह आपकी मशीन पर एक नामेनोड, डाटैनोड, जॉबट्रैकर और एक टास्कट्रैकर शुरू करेगा।

  13. जाँच कर रहा है कि क्या हडोप चल रहा है

    एक अच्छा उपकरण कहा जाता है jps। आप यह सुनिश्चित करने के लिए इसका उपयोग कर सकते हैं कि सभी सेवाएँ ऊपर हैं। आपके हडॉप बिन फ़ोल्डर प्रकार में:

    jps
    

    यह आपको सभी Hadoop संबंधित प्रक्रियाओं को दिखाना चाहिए।

    नोट: चूंकि यह मेरे लिए लगभग 6 महीने पहले किया गया था, अगर कोई भाग काम नहीं कर रहा है तो मुझे बताएं।

Hadoop Juju का उपयोग करना (Hadoop के लिए एक Juju आकर्षण)

आकर्षक हैडो से लिया गया

मुझे लगता है कि निम्नलिखित पहले से ही स्थापित है:

  • आपके पास पहले से सेट किए गए जूजू के साथ एक सर्वर है
  • आपके पास सर्वर तक पहुंच है (स्थानीय या दूरस्थ रूप से)
  • आपके पास जुजू कॉन्फ़िगर है और आकर्षण जोड़ने के लिए तैयार है
  • आप १२.०४ का उपयोग कर रहे हैं (ऐसा इसलिए है क्योंकि मैंने १२.०४ के साथ इस सबका परीक्षण किया है)
  • आप पहले से ही ~/.juju/environments.yamlउस सर्वर के बारे में जानकारी के साथ कॉन्फ़िगर कर सकते हैं जिसे आप पीपीए मूल सहित उपयोग कर रहे हैं।

ठीक है अब इस कदम का पालन करें एक Hadoop सेवा चल रही है:

  1. Hadoop के लिए वातावरण बूटस्ट्रैप करें

    juju bootstrap
    

    समाप्त होने तक प्रतीक्षा करें, फिर देखें कि क्या वह सही तरीके से कनेक्ट हो रहा है:

    juju status
    
  2. Hadoop (मास्टर और दास) तैनात करें

    juju deploy --constraints="instance-type=m1.large" hadoop hadoop-master   
    
    juju deploy --constraints="instance-type=m1.medium" -n 5 hadoop hadoop-slave
    
  3. संबंध बनाएं

    juju add-relation hadoop-master:namenode hadoop-slave:datanode  
    
    juju add-relation hadoop-master:jobtracker hadoop-slave:tasktracker
    
  4. Hadoop को बेनकाब करें (चूंकि आप पहले से ही तैनात हैं और संबंध बनाए हैं जो सेवा चल रही है)

    juju expose hadoop-master
    

    और यह देखने के लिए कि क्या यह सही ढंग से काम कर रहा है, स्थिति देखें:

    juju status hadoop-master
    

अब तक आपके पास एक रनिंग हडोप है। कई और चीजें हैं जो आप कर सकते हैं जो कि प्रदान किए गए लिंक या Hadoop के लिए आधिकारिक जूजू चार्म में पाई जा सकती हैं

: (चरण गाइड द्वारा सेटअप, चरण और अधिक) तिथि JuJu आकर्षण करने के लिए आप यात्रा कर सकते हैं के लिए JuJu आकर्षण और अपने खुद के JuJu पर्यावरण बनाने और देखते हैं कि प्रत्येक फ़ाइल सेटअप और कैसे प्रत्येक सेवा को जोड़ता है।



hduser (ALL)=(ALL:ALL) ALL सिंटैक्स त्रुटि फेंकता है ...
टूटू

के साथ प्रयास करें hduser ALL=(ALL:ALL) ALL, ब्रैकेट की पहली जोड़ी को हटा दें
ssoto

1
@ टोटो ने सिर्फ जाँच की और हाँ। हो सकता है कि उन्होंने इसे नवीनतम संस्करणों में बदल दिया हो।
लुइस अल्वाराडो

1
.bachrc- जब तक जोहान सेबेस्टियन सुनता है, तब तक प्रतीक्षा करें । ओह रुको, वह नहीं कर सकता ... क्योंकि वह बहरा है। :-D
डेविड फ़ॉस्टर

6

मैंने सफलतापूर्वक Hadoop को उसी के रास्ते पर सेट करके स्थापित JAVA_HOMEकिया है usr/lib/jvm/java-6-openjdk-amd64


क्या आप थोड़ा और वर्णनात्मक हो सकते हैं?
पैंथर

3

@Luis अल्वाराडो के जवाब से व्युत्पन्न , यहाँ Ubuntu 14.04 और Hadoop 2.5.1 के लिए मेरा संस्करण है

संक्षेप में

  1. जावा स्थापित करें
  2. Hadoop के लिए एक कार्यकारी उपयोगकर्ता तैयार करेंhduser
  3. hduserअब से स्विच करें
  4. hduserपास-वाक्यांश-कम के साथ ssh के माध्यम से दूरस्थ करने की अनुमति दें
  5. IPv6 को अक्षम करें
  6. Hadoop पैकेज डाउनलोड और कॉन्फ़िगर करें
  7. सिस्टम पथ $ HADOOP_HOME और $ JAVA_HOME तैयार करें
  8. Hadoop की सेवाओं को कॉन्फ़िगर करें
  9. Hadoop की सेवाएँ प्रारंभ करें

किया हुआ। सौभाग्य!

विस्तार कदम

जावा स्थापित करें

डाउनलोड करो और इंस्टॉल करो

$ sudo add-apt-repository ppa:webupd8team/java    
$ sudo apt-get update && sudo apt-get upgrade    
$ sudo apt-get install oracle-java7-installer

सुनिश्चित करें कि आपके पास जावा 7 स्थापित है

$ which java
$ ls -l /usr/bin/java
$ ls -l /etc/alternatives/java

हमें javaइशारा करना चाहिए/usr/lib/jvm/java-7-oracle/jre/bin/java

Hadoop के लिए एक कार्यकारी उपयोगकर्ता तैयार करेंhduser

hduserसमूह में उपयोगकर्ता बनाएँhadoop

$ sudo addgroup hadoop  
$ sudo adduser --ingroup hadoop hduser

अनुदान sudo विशेषाधिकारhduser

सुडोल संपादित करें

$ sudo visudo

इस पंक्ति में अंत तक जोड़ें

hduser ALL=(ALL:ALL) ALL

hduserअब से स्विच करें

$ su - hduser

hduserपास-वाक्यांश-कम के साथ ssh के माध्यम से दूरस्थ करने की अनुमति दें

Openshsh स्थापित करें

$ sudo apt-get install openssh-server

SSH कनेक्शन के लिए RSA सार्वजनिक / निजी कुंजी उत्पन्न करें; पासफ़्रेज़ के रूप में खाली हैparameter -P ""

$ ssh-keygen -t rsa -P ""
$ cat .ssh/id_rsa.pub >> .ssh/authorized_keys

सुनिश्चित करें कि hduserपासवर्ड के बिना स्थानीय रूप से दूरस्थ ssh कर सकते हैं

$ ssh localhost

IPv6 को अक्षम करें

कॉन्फ़िगरेशन फ़ाइल संपादित करें

$ sudo nano /etc/sysctl.conf

अंत तक कॉपी करें

#disable ipv6
net.ipv6.conf.all.disable_ipv6 = 1
net.ipv6.conf.default.disable_ipv6 = 1   
net.ipv6.conf.lo.disable_ipv6 = 1

सुनिश्चित करें कि IPv6 एक रिबूट या कॉल द्वारा बंद है

$ sudo sysctl -p 

फिर कॉल करो

$ cat /proc/sys/net/ipv6/conf/all/disable_ipv6

इसे 1 कहना चाहिए जिसका अर्थ ठीक है ^ ^

Hadoop पैकेज डाउनलोड और कॉन्फ़िगर करें

Apache Hadoop साइट से Hadoop 2.5.1 पैकेज डाउनलोड करें

इस पैकेज का सीधा URL यह लिंक है

http://www.eu.apache.org/dist/hadoop/core/hadoop-2.5.1/hadoop-2.5.1.tar.gz

तो चलिए hduserघर के फोल्डर को डाउनलोड करते हैं , उसे निकालते हैं और उसका नाम बदल देते हैंhadoop

$ wget http://www.eu.apache.org/dist/hadoop/core/hadoop-2.5.1/hadoop-2.5.1.tar.gz
$ tar -xvzf hadoop-2.5.1.tar.gz
$ mv hadoop-2.5.1 hadoop

सुनिश्चित करें कि हमारे पास Hadoop hduserघर में संग्रहीत है

$ ls /home/hduser/hadoop

सिस्टम पथ $ HADOOP_HOME और $ JAVA_HOME तैयार करें

संपादन hduser.bashrc फ़ाइल

$ nano .bashrc

के लिए अंत मूल्यों के लिए रखो $HADOOP_HOMEऔर$JAVA_HOME

# Set Hadoop-related environment variables   
export HADOOP_HOME=/home/hduser/hadoop  

# Set JAVA_HOME (we will also configure JAVA_HOME directly for Hadoop later on)
export JAVA_HOME=/usr/lib/jvm/java-7-oracle 

Hadoop binaryफ़ोल्डरों को सिस्टम में जोड़ें$PATH

export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH

एक नया टर्मिनल खोलें, लॉग इन करें hduser, और सुनिश्चित करें कि आपके पास उपलब्ध आदेशों के साथ $ HADOOP_HOME है

$ echo $HADOOP_HOME
$ which start-all.sh
$ which start-dfs.sh
$ which start-yarn.sh

हमें उन नामों का पूरा मार्ग देखना चाहिए।

Hadoop की सेवाओं को कॉन्फ़िगर करें

Hadoop में प्रत्येक घटक XML फ़ाइल का उपयोग करके कॉन्फ़िगर किया गया है।

  • आम गुण कोर- site.xml में जाते हैं

  • HDFS गुण hdfs-site.xml में जाते हैं

  • MapReduce गुण mapred-site.xml में जाते हैं

यहाँ छवि विवरण दर्ज करें

ये फ़ाइलें सभी फ़ोल्डर $ HADOOP_HOME / etc / hadoop में स्थित हैं

परिभाषित करें, फिर से, hadoop-env.shलाइन संपादित करके JAVA_HOME

export JAVA_HOME=/usr/lib/jvm/java-7-oracle

Hadoop temp folderऔर Core-site.xml में file systemनाम परिभाषित करें

<configuration>
  ...
  <property>
    <name>hadoop.tmp.dir</name>
    <value>/home/hduser/tmp</value>
    <description>A base for other temporary directories.</description>
  </property>

  <property>
    <name>fs.default.name</name>
    <value>hdfs://localhost:54310</value>
    <description>The name of the default file system.  A URI whose
    scheme and authority determine the FileSystem implementation.  The
    uri's scheme determines the config property (fs.SCHEME.impl) naming
    the FileSystem implementation class.  The uri's authority is used to
    determine the host, port, etc. for a filesystem.</description>
  </property>
  ...
</configuration>

हमें इसे temp folderकॉन्फ़िगर किए गए अनुसार तैयार करना होगा/home/hduser/tmp

$ cd /home/hduser
$ mkdir tmp
$ chown hduser:hadoop tmp
$ chmod 755 tmp

परिभाषित करें file system's block replicationमें HDFS-site.xml

<configuration>
  ...
  <property>
    <name>dfs.replication</name>
    <value>1</value>
    <description>Default block replication.
    The actual number of replications can be specified when the file is created.
    The default is used if replication is not specified in create time.
    </description>
  </property>
  ...
</configuration>

Mapred-site.xmlmap-reduce job में परिभाषित करें

<configuration>
  ...
  <property>
    <name>mapred.job.tracker</name>
    <value>localhost:54311</value>
    <description>The host and port that the MapReduce job tracker runs
    at.  If "local", then jobs are run in-process as a single map
    and reduce task.
    </description>
  </property>
  ...
</configuration>

स्वरूप name node

$ hdfs namenode -format

Hadoop सेवा शुरू करें

कॉल

$ start-dfs.sh && start-yarn.sh

ये दोनों कमांड $ HADOOP_HOME / sbin पर स्थित हैं जिसे हमने पहले $ PATH सिस्टम में जोड़ा है।

सुनिश्चित करें कि Hadoop सेवाएं ठीक से शुरू की गई हैं

$ jps

हमें देखना चाहिए

यहाँ छवि विवरण दर्ज करें


1
पालन ​​करने के लिए बहुत अच्छा मार्गदर्शक। एक छोटी सी गलती है: mapred-site.xmlशुरुआत में मौजूद नहीं है। इसे बनाया जाना चाहिएcp mapred-site.xml.template mapred-site.xml
रैप्टर

1

आदेश के sun-javaसाथ स्थापित करने में सक्षम होने के लिए apt-get, आपको एक फ़ाइल नामक एक पंक्ति को जोड़ने की आवश्यकता है sources.list। इस फ़ाइल में पाया जा सकता है /etc/apt/sources.list

इस कमांड का उपयोग करके फाइल खोलें:

sudo nano /etc/apt/sources.list

फिर उस फ़ाइल के अंत में (नीचे), आप पंक्ति को कॉपी / पेस्ट करें:

deb http://us.archive.ubuntu.com/ubuntu/ hardy multiverse

अब बाहर निकलने और बचाने के लिए Ctrl+ दबाएँ ।Xy


अब कमांड टाइप करें:

sudo apt-get update 

और जब ऐसा किया जाता है, तो आप सफलतापूर्वक कमांड चला सकते हैं:

sudo apt-get install sun-java6-jdk

0

अद्यतित ट्यूटोरियल के लिए (मतभेदों पर निश्चित नहीं) एक अधिक अप करने के लिए, हडूप स्क्रैनास्ट वीडियो ट्यूटोरियल देखें। वे वीडियो और वास्तविक आदेशों को नीचे स्थापित करने के लिए प्रदान करते हैं। इसके अलावा अगर आप लेखक को ईमेल करते हैं तो वह जवाब देने में बहुत खुश होता है और अगर आप किसी भी चीज़ में फंस जाते हैं तो आपको उसकी मदद करने में खुशी होगी।

ये निर्देश काफी हद तक उन लोगों के समान हैं जिनके साथ @Luis ने उत्तर दिया।

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.