Índice

Search

  1. Versión 10.4.0
  2. Versión 10.2.2
  3. Versión 10.2.1
  4. Versión 10.2
  5. Versión 10.1.1
  6. Versión 10.1

Guía de versiones

Guía de versiones

Vista previa de datos jerárquicos

Vista previa de datos jerárquicos

A partir de la versión 10.4.0, el servicio de integración de datos utiliza el servidor de trabajos de Spark para obtener una vista previa de los datos jerárquicos. El servidor de trabajos de Spark permite una visualización de los datos más rápida porque mantiene un contexto de Spark en ejecución en lugar de actualizar el contexto para cada trabajo. Las asignaciones configuradas para ejecutarse con Amazon EMR, Cloudera CDH y Hortonworks HDP utilizan el servidor de trabajos de Spark para obtener una vista previa de los datos jerárquicos.
Anteriormente, el servicio de integración de datos utilizaba scripts spark-submit para todos los trabajos de vista previa de datos jerárquicos. Las asignaciones configuradas para ejecutarse con Azure HDInsight y MapR utilizan scripts spark-submit para obtener una vista previa de los datos jerárquicos. La vista previa de datos en las asignaciones configuradas para ejecutarse con Azure HDInsight y MapR está disponible para la vista previa técnica.
Para obtener más información, consulte el capítulo "Procesamiento de datos jerárquicos" en la
Guía del usuario de Data Engineering Integration 10.4.0
.

Transformación de unión

A partir de la versión 10.4.0, puede seleccionar una transformación de unión como punto de vista previa al obtener una vista previa de los datos. Anteriormente, la transformación de unión no se admitía como punto de vista previa.

Comandos infacmd dp

Puede utilizar el complemento infacmd dp para realizar operaciones de vista previa de datos. Utilice los comandos infacmd dp para iniciar y detener manualmente el servidor de trabajos de Spark.
En la siguiente tabla se describen los comandos infacmd dp:
Comando
Descripción
startSparkJobServer
Inicia el servidor de trabajos de Spark en la máquina del servicio de integración.
De forma predeterminada, el servidor de trabajos de Spark se inicia cuando se obtiene una vista previa de los datos jerárquicos.
stopSparkJobServer
Detiene el servidor de trabajos de Spark que se ejecuta en el servicio de integración especificado.
De forma predeterminada, el servidor de trabajos de Spark se detiene si está inactivo durante 60 minutos o cuando el servicio de integración de datos se detiene o se recicla.
Para obtener más información, consulte el capítulo "Referencia de comandos infacmd dp" en la
Referencia de comandos de Informatica 10.4.0
.