Inhaltsverzeichnis

Search

  1. Vorwort
  2. Teil 1: Version 10.5.1
  3. Teil 2: Versionen 10.5-10.5.0.1
  4. Teil 3: Versionen 10.4.1-10.4.1.3
  5. Teil 4: Versionen 10.4-10.4.0.2
  6. Teil 5: Versionen 10.2.2 - 10.2.2 HotFix 1
  7. Teil 6: Version 10.2.1
  8. Teil 7: Version 10.2 - 10.2 HotFix 2

Neue Funktionen und Änderungen (10.5.1)

Neue Funktionen und Änderungen (10.5.1)

Datenvorschau

Datenvorschau

Ab Version 10.4.0 nutzt der Datenintegrationsdienst den Spark-Jobserver, um eine Vorschau der Daten auf der Spark-Engine anzuzeigen. Der Spark-Jobserver beschleunigt die Datenvorschau-Jobs, weil ein laufender Spark-Kontext beibehalten wird, anstatt den Kontext für jeden Job zu aktualisieren. Zuordnungen, die für die Ausführung mit Amazon EMR, Cloudera CDH und Hortonworks HDP konfiguriert sind, verwenden den Spark-Jobserver für die Vorschau von Daten.
Früher verwendete der Datenintegrationsdienst spark-submit-Skripts für alle Vorschaujobs auf der Spark-Engine. Zuordnungen, die für die Ausführung mit Azure HDInsight und MapR konfiguriert sind, nutzen spark-submit-Skripts für die Vorschau von Daten. Die Vorschau von Daten für Zuordnungen, die für die Ausführung mit Azure HDInsight und MapR konfiguriert sind, ist für die technische Vorschau verfügbar.
Weitere Informationen finden Sie im Kapitel „Datenvorschau“ im
Data Engineering Integration 10.4.0-Benutzerhandbuch
.

Union-Umwandlung

Ab Version 10.4.0 können Sie eine Union-Umwandlung als Vorschaupunkt für die Vorschau von Daten wählen. Zuvor wurde die Union-Umwandlung nicht als Vorschaupunkt unterstützt.

infacmd dp-Befehle

Sie können das infacmd dp-Plugin verwenden, um Datenvorschauvorgänge durchzuführen. Nutzen Sie infacmd dp-Befehle, um den Spark-Jobserver manuell zu starten und anzuhalten.
In der folgenden Tabelle werden infacmd dp-Befehle beschrieben:
Befehl
Beschreibung
startSparkJobServer
Startet den Spark-Jobserver auf dem Computer des Integrationsdiensts.
Der Spark-Jobserver wird standardmäßig gestartet, wenn Sie hierarchische Daten in der Vorschau anzeigen.
stopSparkJobServer
Stoppt den auf dem angegebenen Integrationsdienst ausgeführten Spark-Jobserver.
Standardmäßig wird der Spark-Jobserver angehalten, wenn er 60 Minuten im Leerlauf ausgeführt wird oder wenn der Datenintegrationsdienst angehalten oder wiederhergestellt wird.
Weitere Informationen finden Sie im Kapitel „infacmd dp-Befehlsreferenz“ der
Informatica 10.4.0-Befehlsreferenz
.