Table des matières

Search

  1. Présentation de l'installation
  2. Avant l'installation Enterprise Data Catalog
  3. Installation d'Enterprise Data Catalog
  4. Après l'installation d'Enterprise Data Catalog
  5. Désinstallation
  6. Dépannage
  7. Démarrage et arrêt des services d'Enterprise Data Catalog
  8. Supprimer l'accès sudo après la création d'un cluster incorporé
  9. Configurer un répertoire journal personnalisé pour Ambari
  10. Configurer Enterprise Data Catalog pour un cluster avec WANdisco Fusion activé
  11. Configurer Informatica Custom Service Descriptor
  12. Créer des utilisateurs et des groupes d'utilisateurs personnalisés pour les services déployés dans un cluster incorporé
  13. Configurer des ports personnalisés pour les applications Hadoop

Guide d'installation et de configuration d'Enterprise Data Catalog

Guide d'installation et de configuration d'Enterprise Data Catalog

Présentation

Présentation

Vous pouvez spécifier des ports personnalisés pour les applications Hadoop lorsque vous créez ou modifiez le service de cluster Informatica.
En fonction de la taille de données que vous spécifiez dans la propriété Load Type lorsque vous créez le service de cluster Informatica, vous pouvez ajouter les propriétés de l'application Hadoop et les ports personnalisés dans le fichier LowLoad.properties, MediumLoad.properties ou HighLoad.properties présent dans le répertoire <INFA_HOME>/services/InfaHadoopService/Binaries. Vous pouvez ensuite activer ou recycler le service de cluster Informatica pour implémenter les modifications de port personnalisé.
Assurez-vous de ne supprimer aucune ligne existante du fichier <Type charge>.properties. <Type charge> correspond à LowLoad, MediumLoad ou HighLoad.
Les ports personnalisés que vous pouvez configurer pour les applications Hadoop sont les suivants :
Propriété de l'application Hadoop Valeur du port par défaut
zoo.cfg.clientPort 2181
yarn-site.yarn.resourcemanager.webapp.address 8046
yarn-site.yarn.resourcemanager.webapp.https.address 8088
yarn-site.yarn.resourcemanager.address 8032
yarn-site.yarn.resourcemanager.resource-tracker.address 8025
yarn-site.yarn.resourcemanager.scheduler.address 8030
yarn-site.yarn.resourcemanager.admin.address 8141
yarn-site.yarn.nodemanager.address 45454
yarn-site.yarn.nodemanager.webapp.address 8042
yarn-site.yarn.timeline-service.address 10200
yarn-site.yarn.timeline-service.webapp.address 8188
yarn-site.yarn.timeline-service.webapp.https.address 8190
hdfs-site.dfs.namenode.http-address 50070
hdfs-site.dfs.namenode.https-address 50470
hdfs-site.dfs.namenode.rpc-address 8020
hdfs-site.dfs.datanode.address 50010
hdfs-site.dfs.datanode.http.address 50075
hdfs-site.dfs.datanode.https.address 50475
hdfs-site.dfs.journalnode.rpc-address 8485
hdfs-site.dfs.journalnode.http-address 8480
hdfs-site.dfs.journalnode.https-address 8481
hdfs-site.dfs.datanode.ipc.address 8010
mapred-site.mapreduce.jobhistory.address 10020
mapred-site.mapreduce.jobhistory.webapp.address 19888
Pour un cluster incorporé où Kerberos n'est pas activé, configurez les ports dans l'intervalle de 1024 à 65535

Configurer les ports d'application pour un cluster incorporé avec Kerberos activé

Vous pouvez configurer des ports personnalisés pour les propriétés de l'application Hadoop suivantes si le cluster incorporé est activé pour Kerberos :
  • Assurez-vous que vous configurez les valeurs dans l'intervalle de 0 à 1023 si vous voulez fournir des valeurs personnalisées pour les propriétés de l'application Hadoop suivantes :
    • dfs.datanode.address
    • dfs.datanode.http.address
    Si le cluster incorporé n'est pas activé pour Kerberos, vous pouvez configurer les valeurs dans l'intervalle de 0 à 1023 pour les propriétés de l'application Hadoop suivantes :
  • hdfs-site.dfs.datanode.address 1019 par défaut.
  • hdfs-site.dfs.datanode.http.address 1022 par défaut.


Mis à jour May 17, 2019


Explore Informatica Network