Common Content for Data Integration
- Common Content for Data Integration 10.5
- Todos os produtos
Opção
| Descrição
|
---|---|
connectionType
| Obrigatório. O tipo de conexão é HIVE.
|
nome
| O nome da conexão. O nome não faz distinção entre maiúsculas e minúsculas, e deve ser exclusivo no domínio. Você pode alterar essa propriedade após criar a conexão. O nome não pode exceder 128 caracteres, conter espaços nem conter os seguintes caracteres especiais:
~ ` ! $ % ^ & * ( ) - + = { [ } ] | \ : ; " ' < , > . ? /
|
environmentSQL
| Comandos SQL para definir o ambiente Hadoop. No tipo de ambiente nativo, o Serviço de Integração de Dados executa o SQL de ambiente cada vez que ele cria uma conexão com o Hive metastore. Se a conexão do Hive for usada para executar mapeamentos no cluster Hadoop, o Serviço de Integração de Dados executará o SQL de ambiente no início de cada sessão do Hive.
Aplicam-se as seguintes regras e diretrizes para o uso do ambiente SQL nos modos de conexão:
Se a conexão Hive for usada para executar mapeamentos no cluster Hadoop, somente o ambiente SQL da conexão Hive será executado. Os diferentes ambientes de comandos SQL para as conexões de origem ou destino do Hive não são executados, mesmo se as origens e os destinos do Hive estiverem em diferentes clusters.
|
quoteChar
| O tipo de caractere usado para identificar caracteres especiais e palavras-chave SQL reservadas, como WHERE. O Serviço de Integração de Dados coloca o caractere selecionado em torno de caracteres especiais e palavras-chave SQL reservadas. O Serviço de Integração de Dados também usa esse caractere para a propriedade Suporte a identificadores de letras maiúsculas e minúsculas .
|
clusterConfigId
| O ID de configuração de cluster associado ao cluster Hadoop. Você deve inserir um ID de configuração para configurar uma conexão do Hadoop.
|
Propriedade
| Descrição
|
---|---|
hiveJdbcDriverClassName
| O nome da classe do driver JDBC.
|
metadataConnString
| O URI da conexão JDBC usada para acessar os metadados do servidor do Hadoop.
A string de conexão usa o seguinte formato:
jdbc:hive://<hostname>:<port>/<db>
Onde
Para se conectar ao HiveServer 2, use o formato de cadeia de conexão que o Apache Hive implementa na Distribuição específica do Hadoop. Para obter mais informações sobre os formatos de cadeia de conexão do Apache Hive, consulte a documentação do Apache Hive.
Se o cluster Hadoop usar a autenticação SSL ou TLS, você deverá adicionar ssl=true ao URI de conexão JDBC. Por exemplo: jdbc:hive2://<hostname>:<port>/<db>;ssl=true
Se você usar o certificado autoassinado para autenticação SSL ou TLS, verifique se o arquivo de certificado estará disponível na máquina cliente e na máquina do Serviço de Integração de Dados. Para obter mais informações, consulte o Guia de integração de cluster do Informatica Big Data Management .
|
bypassHiveJDBCServer
| O modo do driver JDBC. Ative essa opção para usar o driver JDBC incorporado (modo incorporado).
Para usar o modo incorporado JDBC, realize as seguintes tarefas:
Se você escolher o modo não incorporado, configure a Cadeia de Conexão do Acesso a Dados.
O modo incorporado JDBC é preferencial comparado ao modo não incorporado.
|
sqlAuthorized
| Quando você seleciona a opção para observar a autenticação SQL refinada em uma origem Hive, o mapeamento observa restrições em nível de linha e coluna no acesso aos dados. Se você não selecionar essa opção, o mecanismo de tempo de execução Blaze ignorará as restrições, e os resultados incluirão dados restritos.
Aplicável aos clusters Hadoop onde os modos de segurança Sentry ou Ranger estão habilitados.
|
connectString
| A string de conexão usada para acessar dados do armazenamento de dados do Hadoop. A string de conexão do modo não incorporado JDBC deve estar no seguinte formato:
jdbc:hive://<hostname>:<port>/<db>
Onde
Para se conectar ao HiveServer 2, use o formato de cadeia de conexão que o Apache Hive implementa na Distribuição específica do Hadoop. Para obter mais informações sobre os formatos de cadeia de conexão do Apache Hive, consulte a documentação do Apache Hive.
Se o cluster Hadoop usar a autenticação SSL ou TLS, você deverá adicionar ssl=true ao URI de conexão JDBC. Por exemplo: jdbc:hive2://<hostname>:<port>/<db>;ssl=true
Se você usar o certificado autoassinado para autenticação SSL ou TLS, verifique se o arquivo de certificado estará disponível na máquina cliente e na máquina do Serviço de Integração de Dados. Para obter mais informações, consulte o Guia de integração de cluster do Informatica Big Data Management .
|
Propriedade
| Descrição
|
---|---|
databaseName
| O espaço de nome das tabelas. Use o nome padrão para tabelas que não tenham um nome do banco de dados especificado.
|
customProperties
| Configura ou substitui as propriedades do cluster Hive ou Hadoop na configuração hive-site.xml definida na máquina na qual o Serviço de Integração de Dados é executado. É possível especificar várias propriedades.
Selecione Editar para especificar o nome e o valor para a propriedade. A propriedade é exibida no seguinte formato:
<property1>=<value>
Quando você especifica várias propriedades, &: aparece como o separador de propriedade.
O tamanho máximo para o formato é 1 MB.
Se você inserir uma propriedade necessária para uma conexão do Hive, ela substituirá a propriedade configurada em Propriedades Avançadas do Hive/Hadoop.
O Serviço de Integração de Dados adiciona ou define essas propriedades para cada trabalho de redução e mapa. Você pode verificar essas propriedades no JobConf de cada trabalho mapeador e redutor. Acesse o JobConf de cada trabalho na URL de JobTracker em cada trabalho de redução e mapa.
O Serviço de Integração de Dados grava mensagens para essas propriedades nos logs do Serviço de Integração de Dados. O Serviço de Integração de Dados deve ter o nível de rastreamento de log definido para registrar cada linha ou deve ter o nível de rastreamento de log definido como rastreamento de inicialização detalhado.
Por exemplo, especifique as seguintes propriedades para controlar e limitar o número de redutores para executar um trabalho de mapeamento:
mapred.reduce.tasks=2&:hive.exec.reducers.max=10
|
stgDataCompressionCodecClass
| O nome de classe do codec que permite a compactação de dados e melhora o desempenho em tabelas de preparação temporárias. O nome da classe de codec corresponde ao tipo de código.
|
stgDataCompressionCodecType
| Biblioteca de compactação do Hadoop para um nome de classe do codec de compactação.
Você pode escolher None, Zlib, Gzip, Snappy, Bz2, LZO ou Custom.
O padrão é Nenhuma.
|