Informatica Data Quality
- Informatica Data Quality 10.1
- 所有产品
プロパティ | 説明 |
---|---|
オペレーティングシステムプロファイルと偽装を使用
| オペレーティングシステムのプロファイルを使用してマッピング、ワークフロー、およびプロファイリングジョブを実行します。
Hadoop環境で、データ統合サービスはHadoop偽装ユーザーを使用して、マッピング、ワークフロー、およびプロファイリングの各ジョブを実行します。
データ統合サービスがUNIXまたはLinux上で実行される場合は、このオプションを選択できます。変更を適用するには、データ統合サービスをリスタートします。
|
ジョブオプションの開始
| データ統合サービスプロセス内、ローカルノード上の個別のDTMプロセス内、またはリモートノード上の個別のDTMプロセス内でジョブを実行します。 このプロパティは、データ統合サービスを単一ノードとグリッドのどちらで実行するのか、およびサービスが実行するジョブのタイプに基づいて設定します。
次のいずれかのオプションを選択します。
デフォルトは、個別のローカルプロセスの場合です。
データ統合サービスがオペレーティングシステムプロファイルを使用している場合は、ジョブを別々のローカルプロセスで実行するように設定します。
データ統合サービスをUNIXで実行しており、個別のローカルプロセスまたはリモートプロセスでジョブを実行するようにデータ統合サービスを設定している場合、計算ロールを持つ各ノードのホストファイルにlocalhostエントリが含まれていることを確認します。 そうでない場合、個別のプロセスで実行されるジョブは失敗します。
|
最大実行プールサイズ
| 各データ統合サービスプロセスが同時に実行できるジョブの最大数。ジョブには、データプレビュー、マッピング、プロファイリングジョブ、SQLクエリ、およびWebサービス要求などがあります。例えば、あるデータ統合サービスグリッドで、3つのサービスプロセスが実行されているとします。この値を10に設定すると、各データ統合サービスプロセスは最大10個のジョブを同時に実行できます。したがって、グリッドでは合計30個のジョブを同時に実行できます。デフォルトは10です。
データ統合サービスが同時に実行できる要求の最大数。デフォルトは10です。
|
最大メモリサイズ
| データ統合サービスプロセスでジョブを実行する場合、すべての要求を同時に実行するためにデータ統合サービスが割り当てることができる最大メモリサイズ(バイト)。データ統合サービスがジョブを個別のローカルまたはリモートプロセスで実行する場合、この値は無視されます。データ統合サービスで割り当てることができるメモリの量を制限しない場合は、このプロパティを0に設定します。
値が0を超えていた場合、データ統合サービスは、このプロパティを使用して、すべての要求を同時に実行できる最大メモリサイズを計算します。データ統合サービスでは、次の式に基づいて最大合計メモリが計算されます。
最大メモリサイズ + 最大ヒープサイズ + プログラムのコンポーネントのロードに必要なメモリ
デフォルトは0です。
プロファイルやデータ品質のマッピングを実行する場合は、このプロパティを0に設定します。
|
最大並行処理
| 単一のマッピングパイプラインステージを処理する並行スレッドの最大数。
1より大きい値を設定すると、データ統合サービスは、マッピング、カラムプロファイリング、およびデータドメイン検出のパーティション化を有効にします。 サービスは、マッピングパイプラインのパーティション数を実行時に動的に拡張します。 ジョブを実行するノードで使用可能なCPUの数に基づいて値を増やします。
開発者はDeveloper toolで、各マッピングの並列処理の最大値を変更できます。データ統合サービスとマッピングの両方に最大並列処理数を設定する場合、データ統合サービスはマッピングを実行するときにその最小値を使用します。
デフォルトは1です。最大値は64です。
開発者は、各プロファイルの最大並列処理の値を変更できません。 データ統合サービスがプロファイルジョブを1つ以上のマッピングに変更すると、各マッピングはマッピングの最大並列処理として常に自動を使用します。
|
Hadoop Kerberosサービスプリンシパル名
| Kerberos認証を使用するHadoopクラスタに接続するデータ統合サービスのサービスプリンシパル名(SPN)。
|
Hadoop Kerberosキータブ
| データ統合サービスを実行するマシンにあるKerberosキータブファイルのパス。
|
一時ディレクトリ
| ジョブが実行されるときに作成される一時ファイルのディレクトリ。デフォルトは <home directory>/disTemp です。
プロファイル操作時のパフォーマンスを最適化するには、セミコロンで区切ったディレクトリのリストを入力します。
プロファイルの操作時およびソータートランスフォーメーションのキャッシュのパーティション化時のパフォーマンスを最適化するには、ディレクトリのリストをセミコロンで区切って入力します。
ディレクトリパスには以下の文字は使用できません。
|
ホームディレクトリ
| ノードによるルートディレクトリへのアクセス性。これは他のサービスディレクトリのルートディレクトリです。 デフォルトは <Informatica installation directory>/tomcat/bin です。 デフォルト値を変更する場合は、ディレクトリが存在することを確認してください。
ディレクトリパスには以下の文字は使用できません。
|
キャッシュディレクトリ
| トランスフォーメーションのインデックスファイルおよびデータキャッシュファイルのディレクトリ。デフォルトは <home directory>/cache です。
アグリゲータ、ジョイナ、またはランクトランスフォーメーションのキャッシュのパーティション化時のパフォーマンスを向上するには、ディレクトリのリストをセミコロンで区切って入力します。
ディレクトリパスには以下の文字は使用できません。
|
ソースディレクトリ
| マッピングで使用されているソースフラットファイルのディレクトリ。デフォルトは <home directory>/source です。
グリッド上でデータ統合サービスを実行する場合、共有ディレクトリを使用して、ソースファイル用の1つのディレクトリを作成できます。 計算ロールを持つ各ノードに別々のディレクトリを設定する場合、すべてのソースディレクトリでソースファイルが同じであることを確認してください。
ディレクトリパスには以下の文字は使用できません。
|
ターゲットディレクトリ
| マッピングで使用されているターゲットフラットファイルのデフォルトディレクトリ。デフォルトは <home directory>/target です。
複数のパーティションがフラットファイルターゲットに書き込む場合、パフォーマンスを向上するには、ディレクトリのリストをセミコロンで区切って入力します。
ディレクトリパスには以下の文字は使用できません。
|
拒否されたファイルディレクトリ
| 拒否ファイル用のディレクトリ。拒否ファイルには、マッピングの実行中に拒否された行が含まれます。デフォルトは <home directory>/reject です。
ディレクトリパスには以下の文字は使用できません。
|
Hadoop上のInformatica Homeディレクトリ
| Hadoop RPMインストールによって作成された、各データノード上のPowerCenter Big Data Editionホームディレクトリ。「 /<PowerCenterBigDataEditionInstallationDirectory>/Informatica 」と入力します。
|
Hadoopディストリビューションディレクトリ
| RPMインストールの場所からのクラスタ上のHiveおよびHadoop JARSのコレクションが含まれているディレクトリ。ディレクトリには、Hadoop環境でInformaticaマッピングを処理するために必要な最小セットのJARSが含まれています。「 /<PowerCenterBigDataEditionInstallationDirectory>/Informatica/services/shared/hadoop/[Hadoop_distribution_name] 」と入力します。
|
データ統合サービスのHadoopディストリビューションディレクトリ
| データ統合サービスノード上のHadoopディストリビューションディレクトリ。データ統合サービスのHadoopディストリビューションディレクトリは、データノード上のHadoopディストリビューションディレクトリと同一である必要があります。「 <Informatica Installation directory/Informatica/services/shared/hadoop/[Hadoop_distribution_name] 」と入力します。
|