Informatica Data Quality
- Informatica Data Quality 10.5.2
- 所有产品
プロパティ
| 説明
|
---|---|
オペレーティングシステムプロファイルと偽装を使用
| オペレーティングシステムのプロファイルを使用してマッピング、ワークフロー、およびプロファイリングジョブを実行します。
Hadoop環境で、データ統合サービスはHadoop偽装ユーザーを使用して、マッピング、ワークフロー、およびプロファイリングの各ジョブを実行します。
データ統合サービスがUNIXまたはLinux上で実行される場合は、このオプションを選択できます。変更を適用するには、データ統合サービスをリスタートします。
|
ジョブオプションの開始
| データ統合サービスプロセス内、ローカルノード上の個別のDTMプロセス内、またはリモートノード上の個別のDTMプロセス内でジョブを実行します。このプロパティは、データ統合サービスを単一ノードとグリッドのどちらで実行するのか、およびサービスが実行するジョブのタイプに基づいて設定します。
次のいずれかのオプションを選択します。
デフォルトは、個別のローカルプロセスの場合です。
データ統合サービスがオペレーティングシステムプロファイルを使用している場合は、ジョブを別々のローカルプロセスで実行するように設定します。
データ統合サービスをUNIXで実行しており、個別のローカルプロセスまたはリモートプロセスでジョブを実行するようにデータ統合サービスを設定している場合、計算ロールを持つ各ノードのホストファイルにlocalhostエントリが含まれていることを確認します。そうでない場合、個別のプロセスで実行されるジョブは失敗します。
|
オンデマンド実行プールの最大サイズ
| 同時に実行できるオンデマンドジョブの最大数。ジョブには、データのプレビュー、プロファイリングジョブ、RESTおよびSQLクエリ、Webサービス要求、およびDeveloperツールから実行されるマッピングが含まれます。データ統合サービスが受信するすべてのジョブは、オンデマンドプールサイズに関係します。データ統合サービスは、十分なリソースが利用可能であれば、即時にオンデマンドジョブを実行します。それ以外の場合、データ統合サービスはジョブを拒否します。デフォルトは10です。
最大オンデマンドプールサイズは、Developer toolのクライアントがデータ統合サービスで実行できる同時ジョブの最大数によって異なります。Developer toolのクライアントが実行できる同時ジョブの最大数は10です。
|
ネイティブバッチ実行プールの最大サイズ
| ネイティブ環境で同時に実行できるデプロイ済みジョブの最大数。データ統合サービスは、十分なリソースが利用可能な場合に、ネイティブのマッピングジョブをキューからネイティブのジョブプールに移動します。デフォルトは10です。
|
Hadoopバッチ実行プールの最大サイズ
| Hadoop環境で同時に実行できるデプロイ済みジョブの最大数。データ統合サービスは、十分なリソースが利用可能な場合に、HadoopジョブをキューからHadoopジョブプールに移動します。デフォルトは100です。
|
最大メモリサイズ
| データ統合サービスプロセスでジョブを実行する場合、すべての要求を同時に実行するためにデータ統合サービスが割り当てることができる最大メモリサイズ(バイト)。データ統合サービスがジョブを個別のローカルまたはリモートプロセスで実行する場合、この値は無視されます。データ統合サービスで割り当てることができるメモリの量を制限しない場合は、このプロパティを0に設定します。
値が0を超えていた場合、データ統合サービスは、このプロパティを使用して、すべての要求を同時に実行できる最大メモリサイズを計算します。データ統合サービスでは、次の式に基づいて最大合計メモリが計算されます。
最大メモリサイズ + 最大ヒープサイズ + プログラムのコンポーネントのロードに必要なメモリ
デフォルトは0です。
プロファイルやデータ品質のマッピングを実行する場合は、このプロパティを0に設定します。
|
最大並行処理
| 単一のマッピングパイプラインステージを処理する並行スレッドの最大数。
1より大きい値を設定すると、データ統合サービスは、マッピング、カラムプロファイリング、およびデータドメイン検出のパーティション化を有効にします。サービスは、マッピングパイプラインのパーティション数を実行時に動的に拡張します。ジョブを実行するノードで使用可能なCPUの数に基づいて値を増やします。
開発者はDeveloper toolで、各マッピングの並列処理の最大値を変更できます。データ統合サービスとマッピングの両方に最大並列処理数を設定する場合、データ統合サービスはマッピングを実行するときにその最小値を使用します。
各プロファイルの最大並列処理の値は変更できません。データ統合サービスがプロファイルジョブを1つ以上のマッピングに変更すると、各マッピングはマッピングの最大並列処理として常に自動を使用します。
データ統合サービスがHadoop環境で複数のパーティションを使う場合は、最大並行処理を設定する必要はありません。
デフォルトは1です。最大値は64です。
|
Hadoop Kerberosサービスプリンシパル名
| Kerberos認証を使用するHadoopクラスタに接続するデータ統合サービスのサービスプリンシパル名(SPN)。
MapR Hadoopディストリビューションを実行する場合、必須ではありません。その他のHadoopディストリビューションの場合は必須です。
|
Hadoop Kerberosキータブ
| データ統合サービスを実行するマシンにあるKerberosキータブファイルのパス。
MapR Hadoopディストリビューションを実行する場合、必須ではありません。その他のHadoopディストリビューションの場合は必須です。
|
ホームディレクトリ
| ノードによるルートディレクトリへのアクセス性。これは他のサービスディレクトリのルートディレクトリです。デフォルトは <Informatica installation directory>/tomcat/bin です。デフォルト値を変更する場合は、ディレクトリが存在することを確認してください。
ディレクトリパスには以下の文字は使用できません。
このプロパティを変更しても、データ統合サービスを再起動する必要はありません。
|
一時ディレクトリ
| ジョブが実行されるときに作成される一時ファイルのディレクトリ。デフォルトは <home directory>/disTemp です。
プロファイルの操作時およびソータートランスフォーメーションのキャッシュのパーティション化時のパフォーマンスを最適化するには、ディレクトリのリストをセミコロンで区切って入力します。
ディレクトリパスには以下の文字は使用できません。
このプロパティを変更しても、データ統合サービスを再起動する必要はありません。
|
キャッシュディレクトリ
| トランスフォーメーションのインデックスファイルおよびデータキャッシュファイルのディレクトリ。デフォルトは <home directory>/cache です。
アグリゲータ、ジョイナ、またはランクトランスフォーメーションのキャッシュのパーティション化時のパフォーマンスを向上するには、ディレクトリのリストをセミコロンで区切って入力します。
ディレクトリパスには以下の文字は使用できません。
このプロパティを変更しても、データ統合サービスを再起動する必要はありません。
|
ソースディレクトリ
| マッピングで使用されているソースフラットファイルのディレクトリ。デフォルトは <home directory>/source です。
グリッド上でデータ統合サービスを実行する場合、共有ディレクトリを使用して、ソースファイル用の1つのディレクトリを作成できます。計算ロールを持つ各ノードに別々のディレクトリを設定する場合、すべてのソースディレクトリでソースファイルが同じであることを確認してください。
ディレクトリパスには以下の文字は使用できません。
このプロパティを変更しても、データ統合サービスを再起動する必要はありません。
|
ターゲットディレクトリ
| マッピングで使用されているターゲットフラットファイルのデフォルトディレクトリ。デフォルトは <home directory>/target です。
複数のパーティションがフラットファイルターゲットに書き込む場合、パフォーマンスを向上するには、ディレクトリのリストをセミコロンで区切って入力します。
ディレクトリパスには以下の文字は使用できません。
このプロパティを変更しても、データ統合サービスを再起動する必要はありません。
|
拒否されたファイルディレクトリ
| 拒否ファイル用のディレクトリ。拒否ファイルには、マッピングの実行中に拒否された行が含まれます。デフォルトは <home directory>/reject です。
ディレクトリパスには以下の文字は使用できません。
このプロパティを変更しても、データ統合サービスを再起動する必要はありません。
|
クラスタステージングディレクトリ
| データ統合サービスがバイナリをプッシュしてネイティブ環境と非ネイティブ環境を統合したり、処理中に一時ファイルを格納したりするための、クラスタ上のディレクトリです。デフォルトは/tmpです。
|
Hadoopステージングユーザー
| Hadoopステージングディレクトリで操作を実行するHDFSユーザー。ユーザーはHadoopステージングディレクトリに対する書き込み権限を必要とします。デフォルトは、データ統合サービスユーザーです。
|
カスタムHadoop OSパス
| Hadoopオペレーティングシステムと互換性のあるInformatica Hadoopバイナリへのローカルパス。Hadoopクラスタとデータ統合サービスが、サポートされている異なるオペレーティングシステム上に設定されている場合に必要です。データ統合サービスをホストするマシン上のHadoopクラスタのInformaticaバイナリをダウンロードして抽出します。データ統合サービスは、このディレクトリ内のバイナリを使用して、ドメインをHadoopクラスタに統合します。データ統合サービスでは、次のオペレーティングシステムを同期できます。
SUSE 12およびRedhat 6.7
変更は、データ統合サービスを再起動した後に反映されます。
Informatica EBFをインストールする場合は、データ統合サービスマシンのHadoopオペレーティングシステムのパスにもインストールする必要があります。
|
Data Engineering Recovery
| Sparkエンジンで実行するマッピングジョブが、データ統合サービスの処理ノードで障害が発生したときにリカバリされるかどうかを示します。デフォルトはFalseです。
詳細については、 Informatica Data Engineering管理者ガイド を参照してください。
|
状態ストア
| Sparkジョブの状態に関する情報を格納する、クラスタ上のHDFSの場所。デフォルトは、 <ホームディレクトリ>/State Store です
ストリーミングマッピングのランタイムプロパティを設定する場合は、このプロパティを設定します。
このプロパティを変更しても、データ統合サービスを再起動する必要はありません。
このプロパティの詳細については、『 Big Data Streamingユーザーガイド 』を参照してください。
|