Tutoriel installation Hadoop multi node

Hadoop

Tutoriel installation Hadoop multi node

Dans ce tutoriel, on va voir comment installer un Hadoop multi node en suivant les étapes suivantes :

 

Étape1: Assurez vous que Hadoop est installé single node sur tous les ordinateurs (masters+ slaves)

 

Si vous ne l’avez pas installer, vous pouvez  utilisez ce lien pour le faire

 

Étape 2: Configurez maintenant les ordinateurs pour qu’ils fonctionnent sur un cluster à multi node

 

À titre d’exemple, on va utiliser deux slaves et un master:

 

Ajoutez tous les noms d’hôtes au répertoire / etc / hosts de tous les ordinateurs (Master et Slave nodes)

 

 

#Ajoutez le hostname suivant et son adresse IP dans la table host

 

Supposons que votre adresse slave soit: 192.168.0.151 et 192.168.0.152. Et l’adresse master est: 192.168.0.150

 

 

Connectez-vous avec hduser, puis installez rsync et redémarrez le pc

 

 

Faisons maintenant la configuration commune à tous les nodes (slaves+master)

 

1-## Modifier core-site.xml:

 

 

## Coller ces lignes dans la balise<configuration> OU il suffit de la mettre à jour en remplaçant localhost par master

 

2-## Mise à jour hdfs-site.xml

 

Mettez à jour ce fichier en mettant à jour le facteur de réplication de 1 à 3.

 

 

Puis collez / mettez à jour ces lignes dans la balise <configuration>

 

3- Mise à jour yarn-site.xml

 

Mettez à jour ce fichier en mettant à jour les trois propriétés suivantes le namehost de localhost vers HadoopMaster

 

 

Puis collez / mettez à jour ces lignes dans la balise <configuration>

 

4- Mise à jour Mapred-site.xml

 

 

Puis collez / mettez à jour ces lignes dans la balise <configuration>

 

5-Mise à jour fichier Master

 

 

Ajoutez ensuite le nom du master node

 

6- Mise à jour slaves

 

 

Ajoutez ensuite le nom slave node

 

 

Application de la configuration Hadoop spécifique au node master: (uniquement pour les nodes master)

 

1-Supprimez le dossier Hadoop_data existant (créé lors de la configuration d’un Hadoop à un seul node)

 

 

2-Créez le même répertoire (/ usr / local / hadoop_tmp / hdfs) et créez le répertoire NameNode (/ usr / local / hadoop_tmp / hdfs / namenode)

 

 

3- Faites de l’utilisateur le propriétaire de ce répertoire

 

Passant à la configuration SSH:

 

Dans le master node, lancer la commande suivante pour partager la clé publique SSH ~ / .ssh / id_rsa.pub ( du node master de Hadoop) vers le fichier allowed_keys de hduser @ HadoopSlave1 et également sur hduser @ HadoopSlave1 (dans $ HOME / .ssh / allowed_keys)

 

 

Formons maintenant le namenode (Run on MasterNode):

# Exécuter cette commande depuis le Masternode

 

 

Démarrage des démons de cluster Hadoop: (Exécuter sur MasterNode)

 

Démarrez les démons HDFS:

 

 

Démarrez les démons de fil:

 

 

Suivez / surveillez / vérifiez le cluster Hadoop: (exécuté sur n’importe quel node)

 

Vérifiez les démons Hadoop dans le master

 

 

vous devriez voir seulement

 

 

Vérifiez les démons Hadoop sur tous les nodes slaves:

 

 

 

à voir sur le web:

 

Pour ResourceManager Http://HadoopMaster: 8088

 

Pour NameNode   Http://HadoopMaster: 50070

 

Exécutez un exemple de comptage de mots:

 

dans le masternode (toujours, les clients ne doivent parler qu’au masternode):

 

 

Avatar for Nizar Ellouze

Author: Nizar Ellouze

No Comments

Post a Comment

Comment
Name
Email
Website