Inhaltsverzeichnis

Search

  1. Vorwort
  2. Teil 1: Version 10.5.1
  3. Teil 2: Versionen 10.5-10.5.0.1
  4. Teil 3: Versionen 10.4.1-10.4.1.3
  5. Teil 4: Versionen 10.4-10.4.0.2
  6. Teil 5: Versionen 10.2.2 - 10.2.2 HotFix 1
  7. Teil 6: Version 10.2.1
  8. Teil 7: Version 10.2 - 10.2 HotFix 2

Neue Funktionen und Änderungen (10.5.1)

Neue Funktionen und Änderungen (10.5.1)

PowerExchange-Adapter für Informatica

PowerExchange-Adapter für Informatica

In diesem Abschnitt werden neue Funktionen der Informatica-Adapter in 10.2 erläutert.

PowerExchange for Amazon Redshift

Ab Version 10.2 enthält PowerExchange for Amazon Redshift die folgenden neuen Funktionen:
  • Sie können Daten aus den Amazon S3-Buckets in den folgenden Regionen lesen oder Daten dorthin schreiben:
    • Asien-Pazifik (Mumbai)
    • Asien-Pazifik (Seoul)
    • Kanada (Zentral)
    • China (Peking)
    • EU (London)
    • Östliche USA (Ohio)
  • Sie können Amazon Redshift-Zuordnungen auf der Spark-Engine ausführen. Wenn Sie die Zuordnung ausführen, schiebt der Datenintegrationsdienst die Zuordnung auf einen Hadoop-Cluster und verarbeitet die Zuordnung auf der Spark-Engine, was die Leistung erheblich steigert.
  • Sie können die IAM-Authentifizierung (AWS Identity and Access Management) verwenden, um den Zugriff auf Amazon S3-Ressourcen sicher zu kontrollieren.
  • Sie können eine Verbindung zu Amazon Redshift-Clustern herstellen, die in Virtual Private Cloud (VPC) über VPC-Endpunkte verfügbar sind.
  • Sie können die AWS IAM-Authentifizierung (Identity and Access Management) verwenden, um eine Sitzung auf dem EMR-Cluster auszuführen.
Weitere Informationen finden Sie im
Informatica PowerExchange for Amazon Redshift 10.2-Benutzerhandbuch
.

PowerExchange for Amazon S3

Ab Version 10.2 enthält PowerExchange for Amazon S3 die folgenden neuen Funktionen:
  • Sie können Daten aus den Amazon S3-Buckets in den folgenden Regionen lesen oder Daten dorthin schreiben:
    • Asien-Pazifik (Mumbai)
    • Asien-Pazifik (Seoul)
    • Kanada (Zentral)
    • China (Peking)
    • EU (London)
    • Östliche USA (Ohio)
  • Sie können Daten in den folgenden Formaten komprimieren, wenn Sie Daten aus Amazon S3 in der nativen Umgebung und der Spark-Engine lesen und dorthin schreiben:
    Komprimierungsformat
    Lesen
    Schreiben
    Bzip2
    Ja
    Ja
    Deflate
    Nein
    Ja
    Gzip
    Ja
    Ja
    Lzo
    Ja
    Ja
    Keines
    Ja
    Ja
    Snappy
    Nein
    Ja
  • Sie können den Typ der Quelle auswählen, aus der Sie Daten in der Option
    Quelltyp
    unter den erweiterten Eigenschaften für einen Lesevorgang für ein Amazon S3-Datenobjekt lesen möchten. Sie können den Quelltyp
    Verzeichnis
    oder
    Datei
    auswählen.
  • Sie können den Typ der Datenquellen in der Option
    Ressourcenformat
    unter den Eigenschaften zu den Amazon S3-Datenobjekten auswählen. Sie können Daten aus den folgenden Quellformaten lesen:
    • Binär
    • Flach
    • Avro
    • Parquet
  • Sie können eine Verbindung zu Amazon S3-Buckets herstellen, die in Virtual Private Cloud (VPC) über VPC-Endpunkte verfügbar sind.
  • Sie können Amazon S3-Zuordnungen auf der Spark-Engine ausführen. Wenn Sie die Zuordnung ausführen, verschiebt der Datenintegrationsdienst die Zuordnung auf ein Hadoop-Cluster und verarbeitet die Zuordnung auf der Spark-Engine.
  • Sie können auswählen, ob die vorhandenen Dateien überschrieben werden sollen. Mit der Option
    Bei Vorhandensein Datei(en) überschreiben
    in den Eigenschaften zum Schreibvorgang für Amazon S3-Datenobjekten können Sie die vorhandenen Dateien überschreiben.
  • Sie können die IAM-Authentifizierung (AWS Identity and Access Management) verwenden, um den Zugriff auf Amazon S3-Ressourcen sicher zu kontrollieren.
  • Sie können die Metadaten filtern, um die Leistung der Suche in der
    Objekt-Explorer
    -Ansicht zu optimieren.
  • Sie können die AWS IAM-Authentifizierung (Identity and Access Management) verwenden, um eine Sitzung auf dem EMR-Cluster auszuführen.
Weitere Informationen finden Sie im
Informatica PowerExchange for Amazon S3 10.2.-Benutzerhandbuch
.

PowerExchange for HBase

Ab Version 10.2 enthält PowerExchange for HBase die folgenden neuen Funktionen:
  • Sie können PowerExchange for HBase verwenden, um aus Quellen zu lesen und auf Ziele zu schreiben, die im WASB-Dateisystem auf Azure HDInsight gespeichert sind.
  • Sie können einer HBase-Verbindung eine Clusterkonfiguration zuordnen. Eine Clusterkonfiguration ist ein Objekt in der Domäne, das Konfigurationsinformationen zum Hadoop-Cluster enthält. Die Clusterkonfiguration ermöglicht es dem Datenintegrationsdienst, Mapping-Logik an die Hadoop-Umgebung zu übertragen.
Weitere Informationen finden Sie im
Informatica PowerExchange for HBase 10.2-Benutzerhandbuch
.

PowerExchange for HDFS

Ab Version 10.2 können Sie eine Clusterkonfiguration mit einer HDFS-Verbindung verknüpfen. Eine Clusterkonfiguration ist ein Objekt in der Domäne, das Konfigurationsinformationen zum Hadoop-Cluster enthält. Die Clusterkonfiguration ermöglicht es dem Datenintegrationsdienst, Mapping-Logik an die Hadoop-Umgebung zu übertragen.
Weitere Informationen finden Sie im
Informatica PowerExchange for HDFS 10.2-Benutzerhandbuch
.

PowerExchange for Hive

Ab Version 10.2 können Sie eine Clusterkonfiguration mit einer Hive-Verbindung verknüpfen. Eine Clusterkonfiguration ist ein Objekt in der Domäne, das Konfigurationsinformationen zum Hadoop-Cluster enthält. Die Clusterkonfiguration ermöglicht es dem Datenintegrationsdienst, Mapping-Logik an die Hadoop-Umgebung zu übertragen.
Weitere Informationen finden Sie im
Informatica PowerExchange for Hive 10.2-Benutzerhandbuch
.

PowerExchange for MapR-DB

Ab Version 10.2 enthält PowerExchange for MapR-DB die folgenden neuen Funktionen:
  • Sie können MapR-DB-Zuordnungen auf der Spark-Engine ausführen. Wenn Sie die Zuordnung ausführen, schiebt der Datenintegrationsdienst die Zuordnung auf einen Hadoop-Cluster und verarbeitet die Zuordnung auf der Spark-Engine, was die Leistung erheblich steigert.
  • Sie können eine dynamische Partitionierung für MapR-DB-Zuordnungen konfigurieren, die Sie auf der Spark-Engine ausführen.
  • Sie können eine Clusterkonfiguration mit einer HBase- Verbindung für MapR-DB zuordnen. Eine Clusterkonfiguration ist ein Objekt in der Domäne, das Konfigurationsinformationen zum Hadoop-Cluster enthält. Die Clusterkonfiguration ermöglicht es dem Datenintegrationsdienst, Mapping-Logik an die Hadoop-Umgebung zu übertragen.
Weitere Informationen finden Sie im
Informatica PowerExchange for MapR-DB 10.2 -Benutzerhandbuch
.

PowerExchange for Microsoft Azure Blob Storage

Ab Version 10.2 können Sie Daten aus einem Unterverzeichnis in Microsoft Azure Bob Storage lesen oder diese darin schreiben. Sie können die Felder
BLOB-Container-Überschreibung
und
BLOB-Namen-Überschreibung
verwenden, um Daten aus einem Unterverzeichnis in Microsoft Azure BLOB-Speicher zu lesen oder diese darin zu schreiben.
Weitere Informationen finden Sie im
Informatica PowerExchange for Microsoft Azure Blob Storage 10.2-Benutzerhandbuch
.

PowerExchange for Microsoft Azure SQL Data Warehouse

Ab Version 10.2 können Sie Microsoft Azure SQL Data Warehouse-Zuordnungen in einer Hadoop-Umgebung auf Kerberos-fähigen Clustern ausführen.
Weitere Informationen finden Sie im
Informatica PowerExchange for Microsoft Azure SQL Data Warehouse 10.2-Benutzerhandbuch
.

PowerExchange for Salesforce

Ab Version 10.2 können Sie Version 39 der Salesforce-API verwenden, um eine Salesforce-Verbindung herzustellen und auf Salesforce-Objekte zuzugreifen.
Weitere Informationen finden Sie im
Informatica PowerExchange for Salesforce 10.2-Benutzerhandbuch
.