Sumário

Search

  1. Prefácio
  2. Parte   1: Versão 10.4.1
  3. Parte   2: Versão 10.4.0
  4. Parte   3: Versão 10.2.2
  5. Parte   4: Versão 10.2.1
  6. Parte   5: Versão 10.2
  7. Parte   6: Versão 10.1.1
  8. Parte   7: Versão 10.1

Guia de Versão (10.4.1.2)

Guia de Versão (10.4.1.2)

PowerExchange for HDFS

PowerExchange for HDFS

Em vigor na versão 10.2.2, o PowerExchange for HDFS inclui os seguintes novos recursos:
  • Ao criar um objeto de dados de arquivo complexo, você pode selecionar um perfil do sistema operacional para aumentar a segurança e isolar o ambiente do usuário de tempo de design ao importar e visualizar metadados de um cluster do Hadoop.
    Você poderá escolher um perfil do sistema operacional se o Serviço de Acesso a Metadados estiver configurado para usar os perfis do sistema operacional. O Serviço de Acesso a Metadados importa os metadados com o perfil padrão do sistema operacional atribuído ao usuário. Você pode alterar o perfil do sistema operacional a partir da lista de perfis do sistema operacional disponíveis.
  • Ao executar um mapeamento no ambiente nativo ou no mecanismo Spark para ler dados de um objeto de dados de arquivo complexo, você pode usar caracteres curinga para especificar o nome do diretório de origem ou o nome do arquivo de origem.
    Use os seguintes caracteres curinga:
    ? (Ponto de Interrogação)
    O caractere de ponto de interrogação (?) permite uma ocorrência de qualquer caractere.
    * (Asterisco)
    O caractere de marca de asterisco (*) permite zero ou mais de uma ocorrência de qualquer caractere.
  • Você pode usar objetos de arquivos complexos como origens e destinos dinâmicos em um mapeamento.
  • Você pode usar objetos de arquivos complexos para ler e gravar dados em um sistema de arquivos complexos.
  • Ao executar um mapeamento no ambiente nativo ou no mecanismo Spark para gravar dados em um objeto de dados de arquivo complexo, você pode sobrescrever os dados de destino, o Serviço de Integração de Dados exclui os dados de destino antes da gravação de novos dados.
  • Ao criar uma operação de leitura ou gravação do objeto de dados, você pode ler os dados presentes na porta FileName que contém o nome do endpoint e o caminho de origem do arquivo.
  • Agora você pode visualizar as operações do objeto de dados imediatamente depois de criar a operação de leitura ou gravação do objeto de dados.
  • Você pode adicionar novas colunas ou modificar as colunas ao criar uma operação de leitura ou gravação de objeto de dados.
  • Você pode copiar as colunas das transformações de origem, transformações de destino ou quaisquer outras transformações e colar as colunas na operação de leitura ou gravação do objeto de dados diretamente ao ler ou gravar em um arquivo Avro, JSON, ORC ou Parquet.
Para obter mais informações, consulte o
Guia do Usuário do Informatica PowerExchange for HDFS 10.2.2
.