目次

Search

  1. はじめに
  2. Informatica Data Engineering Integrationについて
  3. マッピング
  4. マッピングの最適化
  5. ソース
  6. ターゲット
  7. トランスフォーメーション
  8. Pythonトランスフォーメーション
  9. データプレビュー
  10. クラスタワークフロー
  11. プロファイル
  12. 監視
  13. 階層データ処理
  14. 階層データ処理設定
  15. スキーマが変更された階層データの処理
  16. インテリジェント構造モデル
  17. ブロックチェーン
  18. ステートフルコンピューティング
  19. 付録 A: 接続リファレンス
  20. 付録 B: データ型リファレンス
  21. 付録 C: 関数リファレンス

ユーザーガイド

ユーザーガイド

データウェアハウス最適化のマッピングの例

データウェアハウス最適化のマッピングの例

Hadoopシステムを使用するエンタープライズデータウェアハウスを最適化して、ウェアハウス内により多くのデータを低コストで含めることができます。
例えば、24時間の期間内に変更されたレコードを処理して、顧客のポートフォリオを分析する必要があるとします。Hadoop上のデータをオフロード処理し、過去24時間に挿入、削除、および更新された顧客レコードを見つけ、データウェアハウス内のそれらのレコードを更新できます。ソースファイル内でカラム数が変更されたり、キーが変更された場合でも、これらの変更をキャプチャできます。
変更をキャプチャするために、Developer toolで次のマッピングを作成できます。
Mapping_Day1
最初の24時間の期間について、ローカルファイルシステムのフラットファイルから顧客データを読み取り、HDFSターゲットに書き込むためのマッピングを作成します。
Mapping_Day2
次の24時間の期間について、ローカルファイルシステムのフラットファイルから顧客データを読み取り、HDFSターゲットに書き込むためのマッピングを作成します。
m_CDC_DWHOptimization
変更されたデータをキャプチャするためのマッピングを作成します。このマッピングは、HDFSからデータを読み取り、変更されたデータを識別します。パフォーマンスを向上させるために、マッピングをHadoop環境のHadoopクラスタノードで実行するように設定します。
次の図は、m_CDC_DWHOptimizationのマッピングを示します。
CustomerData_Day1とCustomerData_Day2のソースが、画像に表示されます。また、4つの式トランスフォーメーションが表示されます。Extract_Key_NonKey_File1はExpressionに接続します。Extract_Key_Nonkey_File2はExpression 1に接続します。これらのトランスフォーメーションは、ジョイナトランスフォーメーションに結合します。ジョイナトランスフォーメーションは、挿入、削除、および更新のフィルタトランスフォーメーションに接続します。Write_HDFS_Insert、Write_HDFS_delete、Write_HDFS_updateのターゲットオブジェクトが表示されます。
マッピングには次のオブジェクトが含まれます。
  • 読み取りトランスフォーメーション。Mapping_Day1とMapping_Day2のターゲットだったHDFSファイルからデータを読み取るトランスフォーメーションです。データ統合サービスは、すべてのデータを単一のカラムとして読み取ります。
  • 式トランスフォーメーション。データの非キー値からキーを抽出します。式では、INSTR関数とSUBSTR関数を使用して、キー値の抽出を実行します。
  • ジョイナトランスフォーメーション。式トランスフォーメーションで生成されたキーに基づいて、2つのソース上で完全な外部結合を実行します。
  • フィルタトランスフォーメーション。行を更新、削除、または挿入するべきかどうかに基づいて、ジョイナトランスフォーメーションの出力を使用して行をフィルタします。
  • 書き込みトランスフォーメーション。データが挿入、削除、または更新されたかどうかに基づいて、3つのHDFSファイルにデータを書き込むトランスフォーメーションです。
Consolidated_Mapping
HDFSファイルのデータを統合し、データをデータウェアハウスにロードするためのマッピングを作成します。
次の図は、Consolidated_Mappingのマッピングを示します。
Read_HDFS_delete、Read_HDFS_Insert、Read_HDFS_updateのソースが、画像に表示されます。また、del_exp、Insert_exp、update_exp1の式トランスフォーメーションと、共有体トランスフォーメーションおよびWrite_FF_ConsolidatedTargetが表示されます。
マッピングには次のオブジェクトが含まれます。
  • 読み取りトランスフォーメーション。以前のマッピングのターゲットだったHDFSファイルからデータを読み取るトランスフォーメーションが、このマッピングのソースになります。
  • 式トランスフォーメーション。データ行に、削除、更新、または挿入されたタグを追加します。
  • 共有体トランスフォーメーション。レコードを結合します。
  • 書き込みトランスフォーメーション。ローカルファイルシステムでステージング場所として機能するフラットファイルにデータを書き込むトランスフォーメーションです。
各マッピングを開いて、右クリックしてマッピングを実行できます。すべてのマッピングを順番に実行するには、ワークフローを使用します。
次の図は、データウェアハウスの最適化ワークフローの例を示します。
イベントの開始とイベントの終了の他に、4つのマッピングが画像に表示されます。ここで使用されているマッピングは、Mapping_Day1、Mapping_Day2、m_CDC_DWHOptimization、Consolidated_Mappingです。
ワークフローを実行するには、infacmd wfs startWorkflowコマンドを使用します。