目次

Search

  1. はじめに
  2. アナリストサービス
  3. カタログサービス
  4. コンテンツ管理サービス
  5. データ統合サービス
  6. データ統合サービスアーキテクチャ
  7. データ統合サービス管理
  8. データ統合サービスグリッド
  9. データ統合サービスREST API
  10. Data Integration Serviceアプリケーション
  11. Data Privacy Managementサービス
  12. Enterprise Data Preparationサービス
  13. Interactive Data Preparationサービス
  14. Informatica Cluster Service
  15. 一括取り込みサービス
  16. メタデータアクセスサービス
  17. Metadata Managerサービス
  18. モデルリポジトリサービス
  19. PowerCenter統合サービス
  20. PowerCenter統合サービスのアーキテクチャ
  21. PowerCenter統合サービスの高可用性
  22. PowerCenterリポジトリサービス
  23. PowerCenterリポジトリ管理
  24. PowerExchange Listenerサービス
  25. PowerExchangeロッガーサービス
  26. SAP BWサービス
  27. 検索サービス
  28. システムのサービス
  29. Test Data Managerサービス
  30. Test Data Warehouseサービス
  31. WebサービスHub
  32. アプリケーションサービスのアップグレード
  33. 付録 A: アプリケーションサービスのデータベース
  34. 付録 B: Windowsからのデータベースへの接続
  35. 付録 C: UNIXまたはLinuxからのデータベースへの接続
  36. 付録 D: DB2データベースのDynamicSectionsパラメータの更新

アプリケーションサービスガイド

アプリケーションサービスガイド

Data Engineering Recovery

Data Engineering Recovery

管理者は、Data Engineering Recoveryを有効にして、Sparkエンジンで実行するように設定されたジョブを、データ統合サービスノードが予期せず停止した場合にリカバリできます。
ジョブが完了する前にデータ統合サービスノードで障害が発生した場合、データ統合サービスはそのジョブを別のノードに送信し、ノード障害の発生時点からジョブタスクの処理を再開します。リカバリは、ノードの起動時に実行されます。
Data Engineering Recoveryを使用するには、Sparkエンジンで実行するようにジョブを設定し、infacmdクライアントからジョブを送信する必要があります。
管理者は、データ統合サービスのプロパティでData Engineering Recoveryを設定します。Data Engineering Recoveryの詳細については、
Data Engineering管理者ガイド
を参照してください。