Sumário

Search

  1. Prefácio
  2. Entendendo Domínios
  3. Gerenciando Sua Conta
  4. Usando o Informatica Administrator
  5. Usando a Exibição Domínio
  6. Gerenciamento de Domínio
  7. Nós
  8. Alta Disponibilidade
  9. Conexões
  10. Propriedades de Conexão
  11. Agendamentos
  12. Exportação e importação do objeto de domínio
  13. Gerenciamento de licenças
  14. Monitoramento
  15. Gerenciamento de Logs
  16. Relatórios de domínio
  17. Diagnóstico de nó
  18. Noções Básicas de Globalização
  19. Apêndice A: Páginas de Códigos
  20. Apêndice B: Funções personalizadas
  21. Apêndice C: Conectividade da Plataforma Informatica
  22. Apêndice D: Configurar o Navegador da Web

Guia do Administrador

Guia do Administrador

Propriedades de conexão do Databricks

Propriedades de conexão do Databricks

Use a conexão do Databricks para executar mapeamentos em um cluster do Databricks.
Uma conexão do Databricks é uma conexão de tipo de cluster. Você pode criar e gerenciar uma conexão do Databricks na ferramenta Administrator ou na Developer tool. Você pode usar infacmd para criar uma conexão do Databricks. Configure as propriedades na conexão do Databricks para permitir a comunicação entre o Serviço de Integração de Dados e o cluster do Databricks.
A tabela a seguir descreve as propriedades de conexão geral para a conexão do Databricks:
Propriedade
Descrição
Nome
O nome da conexão. O nome não faz distinção entre maiúsculas e minúsculas, e deve ser exclusivo no domínio. Você pode alterar essa propriedade após criar a conexão. O nome não pode exceder 128 caracteres, conter espaços nem conter os seguintes caracteres especiais:~ ` ! $ % ^ & * ( ) - + = { [ } ] | \ : ; " ' < , > . ? /
ID
Cadeia que o Serviço de Integração de Dados usa para identificar a conexão. O ID não diferencia maiúsculas de minúsculas. Ele deve ser de 255 caracteres ou menos e deve ser exclusivo no domínio. Você não poderá alterar essa propriedade depois de criar a conexão. O valor padrão é o nome da conexão.
Descrição
Opcional. A descrição da conexão. A descrição não pode ter mais de 4.000 caracteres.
Tipo de Conexão
Escolha Databricks.
Configuração do Cluster
O nome da configuração de cluster associada ao ambiente Databricks.
Obrigatório se você não definir a configuração de provisionamento da nuvem.
Configuração de Provisionamento de Nuvem
O nome da configuração de provisionamento de nuvem associada a uma plataforma de nuvem do Databricks.
Obrigatório se você não definir a configuração do cluster.
Diretório de Preparação
O diretório em que o mecanismo Spark do Databricks prepara arquivos de tempo de execução.
Se você especificar um diretório que não existe, o Serviço de Integração de Dados o criará no tempo de execução.
Se você não fornecer um caminho de diretório, os arquivos de preparação de tempo de execução serão gravados em
/<diretório de preparação de cluster>/DATABRICKS
.
Propriedades avançadas
Lista de propriedades avançadas exclusivas do ambiente Databricks.
Você pode configurar as propriedades de tempo de execução para o ambiente Databricks no Serviço de Integração de Dados e na conexão do Databricks. Você pode substituir uma propriedade configurada em um nível alto, definindo o valor em um nível inferior. Por exemplo, se você configurar uma propriedade nas propriedades personalizadas do Serviço de Integração de Dados, poderá substituí-la na conexão do Databricks. O Serviço de Integração de Dados processa substituições de propriedade com base nas seguintes prioridades:
  1. Propriedades avançadas de conexão do Databricks
  2. Propriedades personalizadas do Serviço de Integração de Dados
A Informatica não recomenda a alteração desses valores de propriedade antes de consultar a documentação de terceiros, a documentação da Informatica ou o Suporte ao Cliente Global da Informatica. Se você alterar um valor sem o conhecimento da propriedade, poderá haver degradação do desempenho ou outros resultados inesperados.

Propriedades avançadas

Configure as seguintes propriedades nas
Propriedades Avançadas
da seção de configuração do Databricks:
infaspark.json.parser.mode
Especifica ao analisador como lidar com registros JSON corrompidos. Você pode definir o valor para um dos seguintes modos:
  • DROPMALFORMED. O analisador ignora todos os registros corrompidos. Modo padrão.
  • PERMISSIVE. O analisador aceita campos não padrão como nulos em registros corrompidos.
  • FAILFAST. O analisador gera uma exceção quando encontra um registro corrompido, e o aplicativo Spark fica inoperante.
infaspark.json.parser.multiLine
Especifica se o analisador pode ler um registro de várias linhas em um arquivo JSON. Você pode definir o valor como true ou false. O padrão é false. Aplica-se apenas a distribuições não nativas que usam o Spark versão 2.2.x e superiores.
infaspark.flatfile.writer.nullValue
Quando o mecanismo Spark do Databricks grava em um destino, ele converte valores nulos em cadeias vazias (" "). Por exemplo, 12, AB,"",23p09udj.
O mecanismo Spark do Databricks pode gravar cadeias vazias em colunas de cadeias, mas, ao tentar gravar uma cadeia vazia em uma coluna de não cadeia, o mapeamento falha com uma incompatibilidade de tipos.
Para permitir que o mecanismo Spark do Databricks converta as strings vazias em valores nulos e grave no destino, configure a propriedade na conexão Spark do Databricks.
Defina como: TRUE
infaspark.pythontx.exec
Obrigatório para executar uma transformação Python no mecanismo Databricks Spark. Defina como a localização do binário executável do Python nos nós de trabalho do cluster do Databricks.
Ao provisionar o cluster no tempo de execução, defina esta propriedade na configuração de provisionamento da nuvem do Databricks. Caso contrário, configure na conexão Databricks.
Por exemplo, defina como:
infaspark.pythontx.exec=/databricks/python3/bin/python3
infaspark.pythontx.executorEnv.PYTHONHOME
Obrigatório para executar uma transformação Python no mecanismo Databricks Spark. Defina como a localização do diretório de instalação do Python nos nós de trabalho do cluster do Databricks.
Ao provisionar o cluster no tempo de execução, defina esta propriedade na configuração de provisionamento da nuvem do Databricks. Caso contrário, configure na conexão Databricks.
Por exemplo, defina como:
infaspark.pythontx.executorEnv.PYTHONHOME=/databricks/python3