目次

Search

  1. はじめに
  2. Informatica Data Engineering Integrationについて
  3. マッピング
  4. マッピングの最適化
  5. ソース
  6. ターゲット
  7. トランスフォーメーション
  8. Pythonトランスフォーメーション
  9. データプレビュー
  10. クラスタワークフロー
  11. プロファイル
  12. 監視
  13. 階層データ処理
  14. 階層データ処理設定
  15. スキーマが変更された階層データの処理
  16. インテリジェント構造モデル
  17. ブロックチェーン
  18. ステートフルコンピューティング
  19. 付録 A: 接続リファレンス
  20. 付録 B: データ型リファレンス
  21. 付録 C: 関数リファレンス

ユーザーガイド

ユーザーガイド

JSONファイルの作成

JSONファイルの作成

簡単に編集できるプロパティのセットを作成して使用する場合は、JSONファイルを使用してクラスタプロパティを設定します。
  1. Databricks管理者に、既存のクラスタ設定をJSONファイルとしてエクスポートするように依頼します。
  2. 必要な設定変更を反映するパラメータを使用してファイルを編集します。
  3. ファイルに必須パラメータが含まれていることを確認します。『JSONファイルを使用したクラスタの作成プロパティの設定』を参照してください。
  4. データ統合サービスをホストするすべてのマシンにファイルを保存します。例:
    <Informaticaホームディレクトリ>/data/Informatica/createClusterJson.json
次の例には、必須パラメータと、含めることができるその他のパラメータが含まれています。各例では、「custom_tags」パラメータを使用してカスタムパラメータを渡すことに注意してください。
AWSプラットフォーム上のDatabricksのJSONファイルの例:
{ "cluster_name": "SampleCluster", "spark_version": "7.3.x-scala2.12", "num_workers": 1, "node_type_id": "i3.xlarge", "driver_node_type_id": "i3.xlarge", "custom_tags": { "Infa_Generated_Tag": "Infa_Generated_Tag" }, "spark_env_vars": { "PYSPARK_PYTHON": "/databricks/python3/bin/python3" }, "enable_elastic_disk": false, "aws_attributes": { "ebs_volume_count": 3, "zone_id": "us-east-1e", "ebs_volume_size": 100, "spot_bid_price_percent": 100, "first_on_demand": 1 } }
Azureプラットフォーム上のDatabricksのJSONファイルの例:
{ "cluster_name": "SampleCluster", "spark_version": "7.3.x-scala2.12", "num_workers": 1, "node_type_id": "Standard_DS3_v2", "driver_node_type_id": "Standard_DS3_v2", "custom_tags": { "Infa_Generated_Tag": "Infa_Generated_Tag" }, "spark_env_vars": { "PYSPARK_PYTHON": "/databricks/python3/bin/python3" }, "enable_elastic_disk": false }