Ab Version 10.2.2 bietet PowerExchange for Microsoft Azure Data Lake Store die folgenden Möglichkeiten:
Sie können Mappings in der Azure Databricks-Umgebung ausführen.
Sie können komplexe Datentypen wie array, struct und map in Mappings verwenden, die in der Hadoop-Umgebung ausgeführt werden. Bei komplexen Datentypen liest, verarbeitet und schreibt die jeweilige Engine hierarchische Daten direkt in komplexe Avro-, JSON- und Parquet-Dateien. Bei einer intelligent strukturierten Quelle können Sie nur den Lesevorgang konfigurieren.
Sie können Mappings zum Lesen und Schreiben von Avro- und Parquet-Dateien erstellen, die nur primitive Datentypen in der nativen Umgebung enthalten.
Sie können ein Verzeichnis in einem Mapping als Quelle auswählen, um mehrere Dateien aus dem Verzeichnis zu lesen.
Sie können Microsoft Azure Data Lake Store-Objekte als dynamische Quellen und Ziele in einem Mapping verwenden.
Sie können mit der Option „Ziel erstellen“ ein Microsoft Azure Data Lake Store-Ziel erstellen.
Weitere Informationen finden Sie im
Informatica PowerExchange for Microsoft Azure Data Lake Store 10.2.2-Benutzerhandbuch