Table des matières

Search

  1. Préface
  2. Introduction à la gestion des données de test
  3. Test Data Manager
  4. Projets
  5. Stratégies
  6. Data Discovery
  7. Création d'un sous-ensemble de données
  8. Exécution d'une opération de masquage des données
  9. Techniques et paramètres du masquage des données
  10. Génération des données
  11. Techniques et paramètres de génération des données
  12. Utilisation de Test Data Warehouse
  13. Analyse des données de test à l'aide de la couverture de données
  14. Plans et flux de travail
  15. Surveiller
  16. Rapports
  17. ilmcmd
  18. tdwcmd
  19. tdwquery
  20. Annexe A: Référence sur les types de données
  21. Annexe B: Référence sur les types de données pour Test Data Warehouse
  22. Annexe C: Référence sur les types de données pour Hadoop
  23. Annexe D: Glossaire

Guide de l'utilisateur

Guide de l'utilisateur

Paramètres du plan de Hadoop

Paramètres du plan de Hadoop

Entrez les connexions sources et cibles pour le plan Hadoop.
Le tableau suivant décrit les options de connexion :
Options de connexion
Description
Connexion source
Requis. Connexion à la base de données source. Sélectionnez une connexion source dans la liste. Lorsque vous créez un plan Hadoop, vous pouvez sélectionner des connexions Oracle, DB2, Sybase, Microsoft SQL Server, Hive, de fichier plat ou HDFS.
Connexion cible
Requis. Lorsque vous créez un plan Hadoop, vous pouvez sélectionner une connexion cible relationnelle ou HDFS dans la liste. Lorsque vous sélectionnez un type de connexion cible relationnel, vous pouvez sélectionner la connexion Hive.
Format de ressource
Requis si vous sélectionnez HDFS comme connexion cible. Format du fichier cible. Vous pouvez sélectionner les formats de fichiers suivants :
  • Aucun. La cible contient le format de fichier HDFS.
  • AVRO. Système de sérialisation de données. Objet de données de fichier complexe des sources de données Avro dans le système local. La cible contient le format de fichier Avro.
  • Parquet. Objet de données de fichier complexe des sources de données Parquet dans le système local. La cible contient le format de fichier Parquet.
Tronquer les tables
Tronque la table avant son chargement. Cette option est sélectionnée par défaut. Vous pouvez tronquer les tables pour des connexions Hive. Vous ne pouvez pas tronquer les tables si vous utilisez une connexion HDFS ou un moteur d'exécution Blaze.
Arrêt sur erreur
Indique combien d'erreurs non fatales le service d'intégration de données rencontre avant d'interrompre le mappage. Si vous entrez zéro, le mappage ne s'arrête pas en cas d'erreur non fatale. La valeur par défaut est zéro.
Stratégie de récupération
Stratégie de récupération d'un flux de travail lorsque des erreurs se produisent.
Choisissez l'une des stratégies de récupération suivantes :
  • Démarrer à partir du dernier échec. Le service d'intégration de données continue à exécuter le flux de travail à partir du précédent état d'échec.
  • Démarrer au début. Le service d'intégration de données exécute le flux de travail depuis le début lorsqu'il récupère le flux de travail.
Chaîne au format date/heure
Format date/heure défini dans les propriétés de session. Vous pouvez entrer des secondes, des millisecondes, des microsecondes ou des nanosecondes.
  • Secondes. MM/DD/YYYY HH24:MI:SS
  • Millisecondes. MM/DD/YYYY HH24:MI:SS.MS
  • Microsecondes. MM/DD/YYYY HH24:MI:SS.US
  • Nanosecondes. MM/DD/YYYY HH24:MI:SS.NS
Les microsecondes représentent la valeur par défaut.
Sessions parallèles maximales
Nombre maximal de mappages pouvant être exécutés en même temps.
Paramètres régionaux
Définit le paramètre régional pour les opérations de mouvements de données et de masquage des données.
Conserver le mappage
Facultatif. Stocke les mappages dans le référentiel modèle pour une utilisation ultérieure.
Moteur d'exécution
Environnement Hadoop qui exécute le mappage. Sélectionnez Blaze ou Spark.