Sumário

Search

  1. Prefácio
  2. Parte   1: Versão 10.4.1
  3. Parte   2: Versão 10.4.0
  4. Parte   3: Versão 10.2.2
  5. Parte   4: Versão 10.2.1
  6. Parte   5: Versão 10.2
  7. Parte   6: Versão 10.1.1
  8. Parte   7: Versão 10.1

Guia de Versão (10.4.1.1)

Guia de Versão (10.4.1.1)

Visualização de Dados

Visualização de Dados

A partir da versão 10.4.0, o Serviço de Integração de Dados usa o Spark Jobserver para visualizar dados no mecanismo Spark. O Spark Jobserver permite trabalhos de visualização de dados mais rápidos, pois mantém um contexto do Spark em execução, em vez de atualizar o contexto de cada trabalho. Os mapeamentos configurados para execução com o Amazon EMR, o Cloudera CDH e o Hortonworks HDP usam o Spark Jobserver para visualizar dados.
Anteriormente, o Serviço de Integração de Dados usava scripts de envio spark para todos os trabalhos de visualização de dados no mecanismo Spark. Os mapeamentos configurados para execução com o Azure HDInsight e o MapR usam scripts de envio spark para visualizar dados no mecanismo Spark. A visualização de dados em mapeamentos configurados para execução com o Azure HDInsight e o MapR está disponível para prévia técnica.
Para obter mais informações, consulte o capítulo "Visualização de dados" no
Guia do Usuário do Data Engineering Integration 10.4.0
.

Transformação de União

Em vigor na versão 10.4.0, você pode escolher uma transformação de União como ponto de visualização ao visualizar dados. Anteriormente, a transformação de União não tinha suporte como um ponto de visualização.

Comandos infacmd dp

Você pode usar o plug-in infacmd dp para executar operações de visualização de dados. Use os comandos infacmd dp para iniciar e parar manualmente o Spark Jobserver.
A seguinte tabela descreve os comandos infacmd dp:
Comando
Descrição
startSparkJobServer
Inicia o Spark Jobserver na máquina do Serviço de Integração.
Por padrão, o Spark Jobserver é iniciado quando você visualiza dados hierárquicos.
stopSparkJobServer
Para o Spark Jobserver em execução no Serviço de Integração especificado.
Por padrão, o Spark Jobserver para se está ocioso por 60 minutos ou quando o Serviço de Integração de Dados é interrompido ou reciclado.
Para obter mais informações, consulte o capítulo "Referência de comandos infacmd dp" na
Referência de comandos do Informatica 10.4.0
.