Berasal dari jawaban @Luis Alvarado , ini adalah versi saya untuk Ubuntu 14.04 dan Hadoop 2.5.1
Secara singkat
- Instal Java
- Persiapkan pengguna eksekutif untuk Hadoop
hduser
- Beralih ke
hduser
mulai sekarang
- Izinkan
hduser
untuk remote melalui ssh dengan pass-phrase-less
- Nonaktifkan IPv6
- Unduh dan konfigurasi paket Hadoop
- Siapkan jalur sistem $ HADOOP_HOME dan $ JAVA_HOME
- Layanan Config Hadoop
- Mulai layanan Hadoop
Selesai Semoga berhasil!
Langkah-langkah detail
Instal Java
Unduh dan pasang
$ sudo add-apt-repository ppa:webupd8team/java
$ sudo apt-get update && sudo apt-get upgrade
$ sudo apt-get install oracle-java7-installer
Pastikan Anda telah menginstal Java7
$ which java
$ ls -l /usr/bin/java
$ ls -l /etc/alternatives/java
kita harus java
menunjuk/usr/lib/jvm/java-7-oracle/jre/bin/java
Persiapkan pengguna eksekutif untuk Hadoophduser
Buat pengguna hduser
dalam gruphadoop
$ sudo addgroup hadoop
$ sudo adduser --ingroup hadoop hduser
Memberikan hduser
yang sudo hak istimewa
Edit sudo
$ sudo visudo
Tambahkan ke akhir baris ini
hduser ALL=(ALL:ALL) ALL
Beralih ke hduser
mulai sekarang
$ su - hduser
Izinkan hduser
untuk remote melalui ssh dengan pass-phrase-less
Instal openssh
$ sudo apt-get install openssh-server
Hasilkan kunci publik / pribadi RSA untuk koneksi SSH; frasa sandi kosong sebagaiparameter -P ""
$ ssh-keygen -t rsa -P ""
$ cat .ssh/id_rsa.pub >> .ssh/authorized_keys
Pastikan hduser
ssh dapat melakukan remote secara lokal tanpa kata sandi
$ ssh localhost
Nonaktifkan IPv6
Edit file konfigurasi
$ sudo nano /etc/sysctl.conf
Salin sampai akhir
#disable ipv6
net.ipv6.conf.all.disable_ipv6 = 1
net.ipv6.conf.default.disable_ipv6 = 1
net.ipv6.conf.lo.disable_ipv6 = 1
Pastikan IPv6 dimatikan oleh reboot atau panggilan
$ sudo sysctl -p
Lalu telepon
$ cat /proc/sys/net/ipv6/conf/all/disable_ipv6
Seharusnya mengatakan 1 yang berarti OK ^^
Unduh dan konfigurasi paket Hadoop
Unduh paket Hadoop 2.5.1 dari situs Apache Hadoop
URL langsung untuk paket ini adalah tautan ini
http://www.eu.apache.org/dist/hadoop/core/hadoop-2.5.1/hadoop-2.5.1.tar.gz
Jadi mari kita unduh ke hduser
folder rumah, ekstrak, dan ganti namanya menjadihadoop
$ wget http://www.eu.apache.org/dist/hadoop/core/hadoop-2.5.1/hadoop-2.5.1.tar.gz
$ tar -xvzf hadoop-2.5.1.tar.gz
$ mv hadoop-2.5.1 hadoop
Pastikan kami menyimpan Hadoop di hduser
rumah
$ ls /home/hduser/hadoop
Siapkan jalur sistem $ HADOOP_HOME dan $ JAVA_HOME
Edit hduser
file .bashrc
$ nano .bashrc
Masukkan nilai akhir untuk $HADOOP_HOME
dan$JAVA_HOME
# Set Hadoop-related environment variables
export HADOOP_HOME=/home/hduser/hadoop
# Set JAVA_HOME (we will also configure JAVA_HOME directly for Hadoop later on)
export JAVA_HOME=/usr/lib/jvm/java-7-oracle
Tambahkan binary
folder Hadoop ke sistem$PATH
export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH
Buka terminal baru, masuk sebagai hduser
, dan pastikan Anda memiliki $ HADOOP_HOME dengan perintah yang tersedia
$ echo $HADOOP_HOME
$ which start-all.sh
$ which start-dfs.sh
$ which start-yarn.sh
Kita harus melihat jalur lengkap dari nama-nama itu.
Layanan Config Hadoop
Setiap komponen di Hadoop dikonfigurasi menggunakan file XML.
Properti umum masuk dalam core-site.xml
Properti HDFS masuk dalam hdfs-site.xml
Properti MapReduce masuk dalam mapred-site.xml
Semua file ini berada di folder $ HADOOP_HOME / etc / hadoop
Tetapkan, sekali lagi, JAVA_HOME hadoop-env.sh
dengan mengedit baris
export JAVA_HOME=/usr/lib/jvm/java-7-oracle
Tetapkan Hadoop temp folder
dan file system
nama di core-site.xml at
<configuration>
...
<property>
<name>hadoop.tmp.dir</name>
<value>/home/hduser/tmp</value>
<description>A base for other temporary directories.</description>
</property>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:54310</value>
<description>The name of the default file system. A URI whose
scheme and authority determine the FileSystem implementation. The
uri's scheme determines the config property (fs.SCHEME.impl) naming
the FileSystem implementation class. The uri's authority is used to
determine the host, port, etc. for a filesystem.</description>
</property>
...
</configuration>
Kita perlu menyiapkan ini temp folder
sebagaimana dikonfigurasi di/home/hduser/tmp
$ cd /home/hduser
$ mkdir tmp
$ chown hduser:hadoop tmp
$ chmod 755 tmp
Tentukan file system
's block replication
di HDFS-site.xml
<configuration>
...
<property>
<name>dfs.replication</name>
<value>1</value>
<description>Default block replication.
The actual number of replications can be specified when the file is created.
The default is used if replication is not specified in create time.
</description>
</property>
...
</configuration>
Tentukan map-reduce job
di mapred-site.xml
<configuration>
...
<property>
<name>mapred.job.tracker</name>
<value>localhost:54311</value>
<description>The host and port that the MapReduce job tracker runs
at. If "local", then jobs are run in-process as a single map
and reduce task.
</description>
</property>
...
</configuration>
Format name node
$ hdfs namenode -format
Mulai layanan Hadoop
Panggilan
$ start-dfs.sh && start-yarn.sh
kedua perintah ini terletak di $ HADOOP_HOME / sbin yang telah kami tambahkan ke sistem $ PATH sebelumnya.
Pastikan layanan Hadoop dimulai dengan benar
$ jps
kita harus lihat