目次

Search

  1. はじめに
  2. Informatica Data Engineering Integrationについて
  3. マッピング
  4. マッピングの最適化
  5. ソース
  6. ターゲット
  7. トランスフォーメーション
  8. Pythonトランスフォーメーション
  9. データプレビュー
  10. クラスタワークフロー
  11. プロファイル
  12. 監視
  13. 階層データ処理
  14. 階層データ処理設定
  15. スキーマが変更された階層データの処理
  16. インテリジェント構造モデル
  17. ブロックチェーン
  18. ステートフルコンピューティング
  19. 付録 A: 接続リファレンス
  20. 付録 B: データ型リファレンス
  21. 付録 C: 関数リファレンス

手順1。データの収集

手順1。データの収集

データの収集元とする必要があるデータソースを識別します。
Data Engineering Integrationには、データ型、データ量、およびデータ待ち時間に基づいてHadoop内外のデータにアクセスするためのいくつかの方法があります。
PowerExchangeアダプタを使用して、複数のデータエンジニアリングソースに接続できます。データのステージングを行う必要なく、データを複数のソースシステムからHDFSに移動するためのバッチロードをスケジュール設定できます。リレーショナルシステムまたはメインフレームシステムから、HDFSまたはHiveウェアハウスに変更されたデータを移動できます。リアルタイムのデータフィードを実現するために、データをメッセージキューからHDFSに移動できます。
以下の種類のデータを収集することができます。
  • トランザクショナル
  • 対話型
  • ログファイル
  • センサーデバイス
  • ドキュメントおよびファイル
  • 業界の形式