目次

Search

  1. はじめに
  2. Informatica Data Engineering Integrationについて
  3. マッピング
  4. マッピングの最適化
  5. ソース
  6. ターゲット
  7. トランスフォーメーション
  8. Pythonトランスフォーメーション
  9. データプレビュー
  10. クラスタワークフロー
  11. プロファイル
  12. 監視
  13. 階層データ処理
  14. 階層データ処理設定
  15. スキーマが変更された階層データの処理
  16. インテリジェント構造モデル
  17. ブロックチェーン
  18. ステートフルコンピューティング
  19. 付録 A: 接続リファレンス
  20. 付録 B: データ型リファレンス
  21. 付録 C: 関数リファレンス

Hadoopのファイルソース

Hadoopのファイルソース

Hadoop環境で実行されるマッピングでは、複合ファイルとフラットファイルを処理できます。
大量のデータを読み取るには、複合ファイルソースを接続し、同じ形式とプロパティのファイルのディレクトリからデータを読み取ることができます。圧縮されたバイナリファイルを読み取れます。
Hadoop環境では、次のストレージタイプから複合ファイルを読み取れます。
  • Amazon Simple Storage Service (Amazon S3)
  • Hadoop分散ファイルシステム(HDFS)
  • Hive
  • MapR File System (MapR-FS)
  • Microsoft Azure Blob Storage (Azure Blob Storage)
  • Microsoft Azure Data Lake Store (ADLS)