Berasal dari jawaban @Luis Alvarado , ini adalah versi saya untuk Ubuntu 14.04 dan Hadoop 2.5.1
Secara singkat
- Instal Java
- Persiapkan pengguna eksekutif untuk Hadoop
hduser
- Beralih ke
hdusermulai sekarang
- Izinkan
hduseruntuk remote melalui ssh dengan pass-phrase-less
- Nonaktifkan IPv6
- Unduh dan konfigurasi paket Hadoop
- Siapkan jalur sistem $ HADOOP_HOME dan $ JAVA_HOME
- Layanan Config Hadoop
- Mulai layanan Hadoop
Selesai Semoga berhasil!
Langkah-langkah detail
Instal Java
Unduh dan pasang
$ sudo add-apt-repository ppa:webupd8team/java
$ sudo apt-get update && sudo apt-get upgrade
$ sudo apt-get install oracle-java7-installer
Pastikan Anda telah menginstal Java7
$ which java
$ ls -l /usr/bin/java
$ ls -l /etc/alternatives/java
kita harus javamenunjuk/usr/lib/jvm/java-7-oracle/jre/bin/java
Persiapkan pengguna eksekutif untuk Hadoophduser
Buat pengguna hduserdalam gruphadoop
$ sudo addgroup hadoop
$ sudo adduser --ingroup hadoop hduser
Memberikan hduseryang sudo hak istimewa
Edit sudo
$ sudo visudo
Tambahkan ke akhir baris ini
hduser ALL=(ALL:ALL) ALL
Beralih ke hdusermulai sekarang
$ su - hduser
Izinkan hduseruntuk remote melalui ssh dengan pass-phrase-less
Instal openssh
$ sudo apt-get install openssh-server
Hasilkan kunci publik / pribadi RSA untuk koneksi SSH; frasa sandi kosong sebagaiparameter -P ""
$ ssh-keygen -t rsa -P ""
$ cat .ssh/id_rsa.pub >> .ssh/authorized_keys
Pastikan hduserssh dapat melakukan remote secara lokal tanpa kata sandi
$ ssh localhost
Nonaktifkan IPv6
Edit file konfigurasi
$ sudo nano /etc/sysctl.conf
Salin sampai akhir
#disable ipv6
net.ipv6.conf.all.disable_ipv6 = 1
net.ipv6.conf.default.disable_ipv6 = 1
net.ipv6.conf.lo.disable_ipv6 = 1
Pastikan IPv6 dimatikan oleh reboot atau panggilan
$ sudo sysctl -p
Lalu telepon
$ cat /proc/sys/net/ipv6/conf/all/disable_ipv6
Seharusnya mengatakan 1 yang berarti OK ^^
Unduh dan konfigurasi paket Hadoop
Unduh paket Hadoop 2.5.1 dari situs Apache Hadoop
URL langsung untuk paket ini adalah tautan ini
http://www.eu.apache.org/dist/hadoop/core/hadoop-2.5.1/hadoop-2.5.1.tar.gz
Jadi mari kita unduh ke hduserfolder rumah, ekstrak, dan ganti namanya menjadihadoop
$ wget http://www.eu.apache.org/dist/hadoop/core/hadoop-2.5.1/hadoop-2.5.1.tar.gz
$ tar -xvzf hadoop-2.5.1.tar.gz
$ mv hadoop-2.5.1 hadoop
Pastikan kami menyimpan Hadoop di hduserrumah
$ ls /home/hduser/hadoop
Siapkan jalur sistem $ HADOOP_HOME dan $ JAVA_HOME
Edit hduserfile .bashrc
$ nano .bashrc
Masukkan nilai akhir untuk $HADOOP_HOMEdan$JAVA_HOME
# Set Hadoop-related environment variables
export HADOOP_HOME=/home/hduser/hadoop
# Set JAVA_HOME (we will also configure JAVA_HOME directly for Hadoop later on)
export JAVA_HOME=/usr/lib/jvm/java-7-oracle
Tambahkan binaryfolder Hadoop ke sistem$PATH
export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH
Buka terminal baru, masuk sebagai hduser, dan pastikan Anda memiliki $ HADOOP_HOME dengan perintah yang tersedia
$ echo $HADOOP_HOME
$ which start-all.sh
$ which start-dfs.sh
$ which start-yarn.sh
Kita harus melihat jalur lengkap dari nama-nama itu.
Layanan Config Hadoop
Setiap komponen di Hadoop dikonfigurasi menggunakan file XML.
Properti umum masuk dalam core-site.xml
Properti HDFS masuk dalam hdfs-site.xml
Properti MapReduce masuk dalam mapred-site.xml

Semua file ini berada di folder $ HADOOP_HOME / etc / hadoop
Tetapkan, sekali lagi, JAVA_HOME hadoop-env.shdengan mengedit baris
export JAVA_HOME=/usr/lib/jvm/java-7-oracle
Tetapkan Hadoop temp folderdan file systemnama di core-site.xml at
<configuration>
...
<property>
<name>hadoop.tmp.dir</name>
<value>/home/hduser/tmp</value>
<description>A base for other temporary directories.</description>
</property>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:54310</value>
<description>The name of the default file system. A URI whose
scheme and authority determine the FileSystem implementation. The
uri's scheme determines the config property (fs.SCHEME.impl) naming
the FileSystem implementation class. The uri's authority is used to
determine the host, port, etc. for a filesystem.</description>
</property>
...
</configuration>
Kita perlu menyiapkan ini temp foldersebagaimana dikonfigurasi di/home/hduser/tmp
$ cd /home/hduser
$ mkdir tmp
$ chown hduser:hadoop tmp
$ chmod 755 tmp
Tentukan file system's block replicationdi HDFS-site.xml
<configuration>
...
<property>
<name>dfs.replication</name>
<value>1</value>
<description>Default block replication.
The actual number of replications can be specified when the file is created.
The default is used if replication is not specified in create time.
</description>
</property>
...
</configuration>
Tentukan map-reduce jobdi mapred-site.xml
<configuration>
...
<property>
<name>mapred.job.tracker</name>
<value>localhost:54311</value>
<description>The host and port that the MapReduce job tracker runs
at. If "local", then jobs are run in-process as a single map
and reduce task.
</description>
</property>
...
</configuration>
Format name node
$ hdfs namenode -format
Mulai layanan Hadoop
Panggilan
$ start-dfs.sh && start-yarn.sh
kedua perintah ini terletak di $ HADOOP_HOME / sbin yang telah kami tambahkan ke sistem $ PATH sebelumnya.
Pastikan layanan Hadoop dimulai dengan benar
$ jps
kita harus lihat
