目次

Search

  1. はじめに
  2. Informatica Data Engineering Integrationについて
  3. マッピング
  4. マッピングの最適化
  5. ソース
  6. ターゲット
  7. トランスフォーメーション
  8. Pythonトランスフォーメーション
  9. データプレビュー
  10. クラスタワークフロー
  11. プロファイル
  12. 監視
  13. 階層データ処理
  14. 階層データ処理設定
  15. スキーマが変更された階層データの処理
  16. インテリジェント構造モデル
  17. ブロックチェーン
  18. ステートフルコンピューティング
  19. 付録 A: 接続リファレンス
  20. 付録 B: データ型リファレンス
  21. 付録 C: 関数リファレンス

Sparkエンジンでの階層データの処理に関するルールとガイドライン

Sparkエンジンでの階層データの処理に関するルールとガイドライン

Sparkエンジン上で実行されているマッピング内の複合データ型を扱う場合、処理方法はさまざまです。
Sparkエンジンで実行されているマッピング内の複合データ型を使用する場合は、次のルールとガイドラインを考慮します。
  • 動的マッピングでは、Hiveソースに対して階層データの読み取りまたは書き込みを実行できません。
  • Hiveソースから階層データを読み取る場合、Hiveクエリに対してHive LLAPを有効にすることはできません。
  • Hiveソースから階層データを読み取る場合、Sparkエンジンは浮動小数点データ型を倍精度浮動小数点データ型に変換します。精度エラーを避けるため、Hiveソースでの読み書きを行う場合は、倍精度浮動小数点データ型を使用します。
  • HDP 3.1を使用してHiveターゲットへの複合データ型に日時データを書き込む場合は、タイムゾーンをUTCに設定します。Hadoop接続のSpark詳細プロパティでは、次のプロパティの値の末尾に「-Duser.timezone=UTC」を付加してください。
    • spark.driver.extraJavaOptions
    • spark.executor.extraJavaOptions