目次

Search

  1. はじめに
  2. 一括取り込みデータベース

一括取り込みデータベース

一括取り込みデータベース

スケジュールとランタイムオプションの設定

スケジュールとランタイムオプションの設定

データベース統合
タスクウィザードの
[スケジュールおよびランタイムオプション]
ページでは、初期ロードジョブを定期的に実行するスケジュールを指定し、任意のロードタイプのジョブのランタイムオプションを設定できます。
  1. [詳細]
    の下で、必要に応じて
    [出力ファイルの行数]
    の値を編集して、
    データベース統合
    タスクが出力データファイルに書き込む最大行数を指定します。
    Apache Kafkaターゲットを持つジョブの場合、詳細オプションは表示されません。
    増分ロード操作と、初期ロード操作と増分ロード操作の組み合わせの場合、この行数に達したとき、またはフラッシュ待ち時間が経過して、トランザクションの処理の途中でジョブが実行され
    ない
    場合に、変更データがターゲットにフラッシュされます。フラッシュ待ち時間は、ジョブがデータをターゲットにフラッシュする前に、さらに変更データを待機する時間です。待ち時間は内部で10秒に設定されており、変更できません。
    有効な値は1から100000000です。Amazon S3、Microsoft Azure Data Lake Storage Gen2、およびOracle Cloud Infrastructure(OCI)Object Storageターゲットのデフォルト値は1000行です。その他のターゲットの場合は、デフォルト値は100000行です。
    Microsoft Azure Synapse Analyticsターゲットの場合、データは最初にMicrosoft Azure Data Lake Storageステージングファイルに送信されてから、ターゲットテーブルに書き込まれます。データがターゲットに書き込まれた後、ステージングファイルを含むテーブル固有のディレクトリのコンテンツ全体が消去されます。Snowflakeターゲットの場合、データは最初に内部ステージ領域に格納されてから、ターゲットテーブルに書き込まれます。
  2. 初期ロードジョブの場合のみ、フラットファイル、Amazon S3、Google Cloud Storage、Microsoft Azure Data Lake Storage、Microsoft Fabric OneLake、またはOracle Cloud Object Storageターゲットの出力データファイルに.dat拡張子を付ける場合は、必要に応じて
    [ファイルタイプに基づくファイル拡張子]
    チェックボックスをクリアします。このチェックボックスはデフォルトで選択されており、出力ファイルのファイルタイプに基づいてファイル名拡張子が付けられます。
    これらのターゲットタイプの増分ロードジョブの場合、このオプションは使用できません。一括取り込みデータベースは、常にファイルタイプに基づいて出力ファイル名拡張子を使用します。
  3. Amazon S3、Google Cloud Storage、Microsoft Azure Data Lake Storage Gen2、またはOracle Cloud Object Storageターゲットを持つデータベース取り込み増分ロードタスクの場合、次の適用サイクルオプションを設定します。
    オプション
    説明
    サイクル間隔の適用
    データベース取り込みジョブが適用サイクルを終了するまでに経過する必要のある時間を指定します。日、時間、分、秒を指定するか、これらの時間フィールドのサブセットに値を指定して、他のフィールドを空白のままにすることができます。
    デフォルト値は15分です。
    サイクル変更制限の適用
    ジョブが適用サイクルを終了する前に処理する必要がある、データベース取り込みジョブのすべてのテーブル内のレコードの合計数を指定します。このレコード制限に達すると、データベース取り込みジョブは適用サイクルを終了し、変更データをターゲットに書き込みます。
    デフォルト値は10000レコードです。
    起動中に、古いデータのバックログの処理に追いつく必要がある場合、ジョブは適用サイクル間隔よりも頻繁にこの制限に達する可能性があります。
    低アクティビティのフラッシュ間隔
    データベース取り込みジョブが適用サイクルを終了する前に、ソースで変更アクティビティがない期間中に経過する必要がある時間を時間、分、またはその両方で指定します。この時間制限に達すると、データベース取り込みジョブは適用サイクルを終了し、変更データをターゲットに書き込みます。
    このオプションの値を指定しない場合、データベース取り込みジョブは、
    [サイクル変更制限の適用]
    または
    [サイクル間隔の適用]
    のいずれかの制限に達した後にのみ適用サイクルを終了します。
    デフォルト値は指定されていません。
    • [サイクル間隔の適用]
      または
      [サイクル変更制限の適用]
      フィールドのいずれかが、ゼロ以外の値であるか、デフォルト値を使用する必要があります。
    • 適用サイクルは、ジョブが3つの制限のいずれかで、最初に満たされた制限に達すると終了します。
  4. [スキーマドリフトオプション]
    で、スキーマドリフトの検出がソースとターゲットの組み合わせでサポートされている場合は、サポートされている各タイプのDDL操作に使用するスキーマドリフトオプションを指定します。
    スキーマドリフトオプションは、次のソースとターゲットの組み合わせおよびロードタイプでサポートされています。
    ソース
    ロードタイプ
    ターゲット
    Db2 for i
    差分
    初期と増分の組み合わせ
    Amazon Redshift、Amazon S3、Databricks Delta、Google BigQuery、Google Cloud Storage、Kafka(増分ロードのみ)、Microsoft Azure Data Lake Storage、Microsoft Azure Synapse Analytics、Oracle、Oracle Cloud Object Storage、またはSnowflake
    DB2 for LUW
    差分
    初期ロードと増分ロードの組み合わせ
    Snowflake
    DB2 for z/OS(Db2 11を除く)
    差分
    初期と増分の組み合わせ
    Amazon Redshift、Amazon S3、Databricks Delta、Google BigQuery、Google Cloud Storage、Kafka(増分ロードのみ)、Microsoft Azure Data Lake Storage、Microsoft Azure Synapse Analytics、Oracle、Oracle Cloud Object Storage、またはSnowflake
    Microsoft SQL Server
    差分
    初期と増分の組み合わせ
    Amazon Redshift、Amazon S3、Databricks Delta、Google BigQuery、Google Cloud Storage、Kafka(増分ロードのみ)、Microsoft Azure Data Lake Storage、Microsoft Azure Synapse Analytics、Oracle、Oracle Cloud Object Storage、またはSnowflake
    Oracle
    差分
    初期と増分の組み合わせ
    Amazon Redshift、Amazon S3、Databricks Delta、Google BigQuery、Google Cloud Storage、Kafka(増分ロードのみ)、Microsoft Azure Data Lake Storage、Microsoft Azure Synapse Analytics、Oracle、Oracle Cloud Object Storage、またはSnowflake
    PostgreSQL
    差分
    初期と増分の組み合わせ
    増分ロード: Amazon Redshift、Amazon S3、Databricks Delta、Google BigQuery、Google Cloud Storage、Kafka(増分ロードのみ)、Microsoft Azure Data Lake Storage、Microsoft Azure Synapse Analytics、Oracle、Oracle Cloud Object Storage、またはSnowflake
    初期と増分の組み合わせ: OracleまたはSnowflake
    サポートされているDDL操作のタイプは次のとおりです。
    • カラムの追加
    • カラムの変更
    • カラムの削除
    • カラム名の変更
    [カラムの変更]および[カラムの名前変更]オプションはサポートされておらず、Google BigQueryターゲットを持つデータベース取り込みジョブでは表示されません。
    次の表に、DDL操作タイプに設定できるスキーマドリフトオプションを示します。
    オプション
    説明
    無視
    ソースデータベースで発生するDDLの変更をターゲットにレプリケートしません。Amazon Redshift、Kafka、Microsoft Azure Synapse Analytics、またはSnowflakeターゲットの場合、このオプションは、[カラムの削除]および[カラム名の変更]操作タイプのデフォルトオプションです。
    CSV出力形式を使用するAmazon S3、Google Cloud Storage、Microsoft Azure Data Lake Storage、およびOracle Cloud Object Storageターゲットの場合、
    [無視]
    オプションは無効です。AVRO出力形式の場合、このオプションは有効になっています。
    レプリケート
    DDL操作をターゲットにレプリケートします。Amazon S3、Google Cloud Storage、Microsoft Azure Data Lake Storage、およびOracle Cloud Object Storageターゲットの場合、このオプションはすべての操作タイプのデフォルトオプションです。他のターゲットの場合、このオプションは、[カラムの追加]および[カラムの変更]操作タイプのデフォルトオプションです。
    • ターゲットでサポートされていないタイプのスキーマ変更をレプリケートしようとすると、そのタスクに関連付けられたデータベース取り込みジョブはエラーが発生して終了します。例えば、Microsoft Azure Synapse Analyticsターゲットでのカラム名の変更操作に
      [レプリケート]
      を選択すると、ジョブが終了します。
    • プライマリキーカラムを追加するカラムの追加操作はサポートされておらず、予期しない結果を引き起こす可能性があります。
    • Databricks Deltaターゲットの場合、
      [レプリケート]
      オプションは
      [カラムの削除]
      では使用できません。
      [カラム名の変更]
      オプションに
      [レプリケート]
      を指定した場合、タスクがデプロイされた後、ジョブが実行される前に、次のDatabricks Deltaテーブルプロパティを指定する必要があります: 'delta.minReaderVersion' = '2', 'delta.minReaderVersion' = '2', 'delta.minWriterVersion' = '5', and 'delta.columnMapping.mode' = 'name'。
    • カラムのNULL制約またはNOT NULL制約を変更するカラム変更操作は、仕様により、ターゲットにレプリケートされません。これは、ターゲットカラムのNULL許容可否を変更すると、後続の変更が適用されるときに問題が発生する可能性があるためです。
    • DDL操作は、一部のデータ変更がキャプチャされた後にのみターゲットにレプリケートされます。
    ジョブの停止
    データベース取り込みジョブ全体を停止します。
    テーブルの停止
    DDL変更が発生したソーステーブルの処理を停止します。1つ以上のテーブルが
    [テーブルの停止]
    スキーマドリフトオプションによってレプリケーションから除外された場合、ジョブの状態が
    [実行中(警告あり)]
    に変わります。
    データベース取り込みジョブは、ジョブがソーステーブルの処理を停止した後にソーステーブルで発生したデータ変更を取得できません。その結果、ターゲットでデータ損失が発生する可能性があります。データの損失を回避するには、ジョブが処理を停止したソースオブジェクトとターゲットオブジェクトを再同期する必要があります。
    [オプションで再開]
    [再同期]
    オプションを使用します。詳細については、データベース取り込みジョブの再開時のスキーマドリフトオプションのオーバーライドを参照してください。
  5. Apache Kafkaターゲットを持つ増分ロードジョブの場合、次のチェックポイントオプションを設定します。
    オプション
    説明
    チェックポイントのすべての行
    データベース取り込みジョブが、Kafkaターゲットに送信されるすべてのメッセージに対してチェックポイント処理を実行するかどうかを示します。
    このチェックボックスが選択されている場合、
    [チェックポイントすべてのコミット]
    [チェックポイントの行数]
    、および
    [チェックポイントの頻度(秒)]
    オプションは無視されます。
    チェックポイントのすべてのコミット
    データベース取り込みジョブが、ソースで発生するすべてのコミットに対してチェックポイント処理を実行するかどうかを示します。
    チェックポイントの行数
    チェックポイントを追加する前に、データベース取り込みジョブがターゲットに送信するメッセージの最大数を指定します。このオプションを0に設定すると、データベース取り込みジョブはメッセージの数に基づいてチェックポイント処理を実行しません。このオプションを1に設定すると、データベース取り込みジョブは各メッセージにチェックポイントを追加します。
    チェックポイントの頻度(秒)
    データベース取り込みジョブがチェックポイントを追加するまでに経過する必要がある最大秒数を指定します。このオプションを0に設定すると、データベース取り込みジョブは経過時間に基づいてチェックポイント処理を実行しません。
  6. 監視インタフェースの1つからデプロイされた後にジョブを手動で開始するのではなく、既存のスケジュールに基づいて初期ロードタスクのジョブインスタンスを実行する場合は、
    [スケジュール]
    [このタスクは指定したスケジュールを使用する]
    を選択して、事前定義されたスケジュールを選択します。デフォルトのオプションは
    [このタスクはスケジュールを使用しない]
    です。
    このフィールドは、増分ロードおよび初期ロードタスクと増分ロードタスクの組み合わせには使用できません。
    Administratorでスケジュールオプションを表示および編集できます。スケジュールを編集すると、変更はスケジュールを使用するすべてのジョブに適用されます。タスクのデプロイ後にスケジュールを編集する場合、タスクを再デプロイする必要はありません。
    ジョブを実行するためのスケジュール条件が満たされていて、前のジョブ実行がまだアクティブである場合、
    一括取り込みデータベース
    は新しいジョブの実行をスキップします。
  7. [カスタムプロパティ]
    で、特別な要件を満たすためにInformaticaが提供するカスタムプロパティを指定できます。プロパティを追加するには、
    [プロパティの作成]
    フィールドに、プロパティの名前と値を入力します。次に、
    [プロパティの追加]
    をクリックします。
    これらのプロパティを指定する場合は、Informaticaグローバルカスタマサポートにお問い合わせください。通常、これらのプロパティは、固有の環境または特別な処理のニーズに対応します。必要に応じて、複数のプロパティを指定できます。プロパティ名には、英数字と次の特殊文字のみを含めることができます: ピリオド(.)、ハイフン(-)、およびアンダースコア(_)。
    プロパティを削除するには、リストのプロパティ行の右端にある[削除]アイコンボタンをクリックします。
  8. [保存]
    をクリックします。