Índice

Search

  1. Prólogo
  2. Introducción a Test Data Management
  3. Test Data Manager
  4. Proyectos
  5. Políticas
  6. Obtención de datos
  7. Crear de un subconjunto de datos
  8. Realizar una operación de enmascaramiento de datos
  9. Parámetros y técnicas de enmascaramiento de datos
  10. Generación de datos
  11. Parámetros y técnicas de generación de datos
  12. Trabajo con Test Data Warehouse
  13. Análisis de datos de prueba con cobertura de datos
  14. Planes y flujos de trabajo
  15. Supervisor
  16. Informes
  17. ilmcmd
  18. tdwcmd
  19. tdwquery
  20. Referencia de tipos de datos
  21. Referencia de tipos de datos para Test Data Warehouse
  22. Referencia de tipos de datos para Hadoop
  23. Glosario

Guía del usuario

Guía del usuario

Configuración del plan de Hadoop

Configuración del plan de Hadoop

Introduzca las conexiones de origen y destino del plan de Hadoop.
La tabla siguiente describe las opciones de conexión:
Opciones de conexión
Descripción
Conexión de origen
Obligatorio. Una conexión a la base de datos de origen. Seleccione una conexión de origen de la lista. Cuando se crea un plan de Hadoop, se pueden seleccionar conexiones Oracle, DB2, Sybase, Microsoft SQL Server, Hive, archivo sin formato o HDFS.
Conexión de destino
Obligatorio. Cuando se crea un plan de Hadoop, se puede seleccionar una conexión de destino relacional o HDFS de la lista. Al seleccionar un tipo de conexión de destino relacional, puede seleccionar la conexión Hive.
Formato de recurso
Necesario si se selecciona la conexión de destino como HDFS. El formato del archivo de destino. Puede seleccionar los formatos de archivo siguientes:
  • Ninguno. El destino contiene el formato de archivo HDFS.
  • AVRO. Un sistema de serialización de datos. Un objeto de datos de archivo complejo de orígenes de datos Avro en el sistema local. El destino contiene el formato de archivo Avro.
  • Parquet. Un objeto de datos de archivo complejo de orígenes de datos Parquet en el sistema local. El destino contiene el formato de archivo Parquet.
Truncar tablas
Trunca la tabla antes de cargarla. Esta opción está seleccionada de forma predeterminada. Puede truncar las tablas para conexiones Hive. No es posible truncar tablas si se utiliza una conexión HDFS o un motor de ejecución Blaze.
Detener en caso de error
Indica el número de errores no fatales que el servicio de integración de datos detecta antes detener la asignación. Si especifica cero, la asignación no se detiene por errores no fatales. El valor predeterminado es cero.
Estrategia de recuperación
Estrategia para recuperar un flujo de trabajo cuando se producen errores.
Elija una de las siguientes estrategias de recuperación:
  • Empezar por el último error. El servicio de integración de datos sigue ejecutando el flujo de trabajo desde el estado de error anterior.
  • Empezar por el principio. El servicio de integración de datos ejecuta el flujo de trabajo desde el principio cuando recupera el flujo de trabajo.
Cadena de formato de fecha y hora
Formato de fecha y hora definido en las propiedades de la sesión. Puede especificar segundos, milisegundos, microsegundos o nanosegundos.
  • Segundos. MM/DD/YYYY HH24:MI:SS
  • Milisegundos. MM/DD/YYYY HH24:MI:SS.MS
  • Microsegundos. MM/DD/YYYY HH24:MI:SS.US
  • Nanosegundos. MM/DD/YYYY HH24:MI:SS.NS
El valor predeterminado es microsegundos.
Número máximo de sesiones paralelas
El número máximo de asignaciones que se pueden ejecutar al mismo tiempo.
Configuración regional
Establece la configuración regional para las operaciones de movimiento y enmascaramiento de datos.
Conservación de asignación
Opcional. Almacena las asignaciones en el repositorio de modelos para usarlas en el futuro.
Motor de ejecución
El entorno de Hadoop que ejecuta la asignación. Seleccione Blaze o Spark.