Ab Version 10.1 können Sie die Zuordnungen zur Apache Spark-Engine in der Hadoop-Umgebung schieben.
Spark ist ein Apache-Projekt mit einer Laufzeit-Engine, die Zuordnungen im Hadoop-Cluster ausführen kann. Konfigurieren Sie die spezifischen Hadoop-Verbindungseigenschaften für die Spark-Engine. Nachdem Sie die Zuordnung erstellt haben, können Sie sie validieren und den Ausführungsplan in derselben Weise wie für Blaze- und Hive-Engines anzeigen.
Wenn Sie die Zuordnungslogik zur Spark-Engine schieben, generiert der Datenintegrationsdienst ein Scala-Programm und verpackt es in eine Anwendung. Er sendet die Anwendung an das Spark-Ausführungsprogramm, das es an den Ressourcenmanager im Hadoop-Cluster sendet. Der Ressourcenmanager identifiziert Ressourcen für die Ausführung der Anwendung. Sie können den Job im Administrator Tool überwachen.
Weitere Informationen zur Verwendung von Spark zum Ausführen von Zuordnungen finden Sie im
Informatica Big Data Management 10.1-Benutzerhandbuch