Inhaltsverzeichnis

Search

  1. Vorwort
  2. Teil 1: Version10.5.7
  3. Teil 2: Version 10.5.6 – Version 10.5.6.x
  4. Teil 3: Version10.5.5 – 10.5.5.x
  5. Teil 4: Version10.5.4 – 10.5.4.x
  6. Teil 5: Version10.5.3 – 10.5.3.x
  7. Teil 6: Version10.5.2 – 10.5.2.1.x
  8. Teil 7: Version 10.5.1 – 10.5.1.1
  9. Teil 8: Versionen 10.5-10.5.0.1
  10. Teil 9: Versionen 10.4.1-10.4.1.3
  11. Teil 10: Versionen 10.4-10.4.0.2
  12. Teil 11: Versionen 10.2.2 - 10.2.2 HotFix 1
  13. Teil 12: Version 10.2.1
  14. Teil 13: Version 10.2 - 10.2 HotFix 2

What's New and Changed (10.5.7)

What's New and Changed (10.5.7)

Sqoop

Sqoop

Ab Version 10.2.1 können Sie die folgenden neuen Sqoop-Funktionen nutzen:
Unterstützung für MapR Connector for Teradata
Sie können den MapR Connector for Teradata verwenden, um Daten von der Spark-Engine zu lesen oder in Teradata zu schreiben. MapR Connector for Teradata ist ein spezieller Sqoop-Teradata-Connector für Hadoop (TDCH). Wenn Sie Sqoop-Mappings auf der Spark-Engine ausführen, ruft der Datenintegrationsdienst standardmäßig den Connector auf.
Weitere Informationen finden Sie im
Informatica Big Data Management 10.2.1-Benutzerhandbuch
.
Optimieren von Sqoop-Pass-Through-Mappings für die Spark-Engine
Wenn Sie ein Sqoop-Pass-Through-Mapping auf der Spark-Engine durchführen, optimiert der Datenintegrationsdienst die Mapping-Leistung in den folgenden Szenarien:
  • Sie lesen Daten aus einer Sqoop-Quelle und schreiben Daten in ein Hive-Ziel, das das Textformat verwendet.
  • Sie lesen Daten aus einer Sqoop-Quelle und schreiben Daten in ein HDFS-Ziel, das das Flat-, Avro- oder Parquet-Format verwendet.
Weitere Informationen finden Sie im
Informatica Big Data Management 10.2.1-Benutzerhandbuch
.
Spark-Engine-Unterstützung für Hochverfügbarkeit und Sicherheitsmerkmale
Sqoop akzeptiert alle Hochverfügbarkeits- und Sicherheitsfunktionen wie Kerberos Keytab-Login und KMS-Verschlüsselung, die die Spark-Engine unterstützt.
Weitere Informationen finden Sie im Kapitel "Datenintegrationsdienst" im
Anwendungsdienst-Handbuch zu Informatica 10.2.1
und im Kapitel "infacmd dis-Befehlsreferenz" im
Informatica 10.2.1 Befehlsreferenzhandbuch
.
Unterstützung der Spark-Engine für Teradata-Datenobjekte
Wenn Sie ein Teradata-Datenobjekt verwenden und ein Mapping auf der Spark-Engine und auf einem Hortonworks- oder Cloudera-Cluster ausführen, führt der Datenintegrationsdienst das Mapping über Sqoop aus.
Wenn Sie einen Hortonworks-Cluster verwenden, ruft der Datenintegrationsdienst den Hortonworks Connector for Teradata zur Laufzeit auf. Wenn Sie einen Cloudera-Cluster verwenden, ruft der Datenintegrationsdienst zur Laufzeit den Cloudera Connector Powered by Teradata auf.
Weitere Informationen finden Sie im
Informatica PowerExchange for Teradata Parallel Transporter API 10.2.1-Benutzerhandbuch
.