Índice

Search

  1. Prólogo
  2. Servicio del analista
  3. Servicio de catálogo
  4. Servicio de administración de contenido
  5. Servicio de integración de datos
  6. Arquitectura del Servicio de integración de datos
  7. Administración del Servicio de integración de datos
  8. Malla del Servicio de integración de datos
  9. API de REST del servicio de integración de datos
  10. Aplicaciones del servicio de integración de datos
  11. Servicio de Data Privacy Management
  12. Servicio de Enterprise Data Preparation
  13. Servicio de preparación de datos interactivo
  14. Servicio de clúster de Informatica
  15. Servicio de ingesta masiva
  16. Servicio de acceso a metadatos
  17. Servicio de Metadata Manager
  18. Servicio de repositorio de modelos
  19. Servicio de integración de PowerCenter
  20. Arquitectura del servicio de integración de PowerCenter
  21. Alta disponibilidad del Servicio de integración de PowerCenter
  22. Servicio de repositorio de PowerCenter
  23. Administración de repositorios de PowerCenter
  24. Servicio de escucha de PowerExchange
  25. Servicio de registrador de PowerExchange
  26. Servicio SAP BW
  27. Servicio de Búsqueda
  28. Servicios del sistema
  29. Servicio de Test Data Manager
  30. Servicio de Test Data Warehouse
  31. Concentrador de servicios web
  32. Actualización de servicios de aplicaciones
  33. Apéndice A: Bases de datos de servicios de aplicación
  34. Apéndice B: Conexión con las bases de datos desde Windows
  35. Apéndice C: Conexión con bases de datos desde UNIX o Linux
  36. Apéndice D: Cómo actualizar el parámetro DynamicSections de una base de datos DB2

Guía del servicio de aplicación

Guía del servicio de aplicación

Resumen de arquitectura del Servicio de integración de PowerCenter

Resumen de arquitectura del Servicio de integración de PowerCenter

El Servicio de integración de PowerCenter mueve los datos desde los orígenes a los destinos basándose en el flujo de trabajo de PowerCenter y los metadatos de asignación almacenados en el repositorio de PowerCenter. Cuando se inicia un flujo de trabajo, el Servicio de integración de PowerCenter recupera los metadatos de asignación, flujo de trabajo y sesión desde el repositorio. Extrae datos desde los orígenes de asignación y almacena los datos en la memoria mientras aplica las reglas de transformación configuradas en la asignación. El Servicio de integración de PowerCenter carga los datos transformados en uno o más destinos.
Para mover los datos de orígenes a destinos, el Servicio de integración de PowerCenter emplea los siguientes componentes:
  • Proceso del Servicio de integración de PowerCenter. El Servicio de integración de PowerCenter inicia uno o más procesos de Servicio de integración de PowerCenter para ejecutar y supervisar flujos de trabajo. Al ejecutar un flujo de trabajo, el proceso del Servicio de integración de PowerCenter inicia y bloquea el flujo de trabajo, ejecuta las tareas de flujo de trabajo e inicia el proceso para ejecutar sesiones.
  • Equilibrador de carga. El Servicio de integración de PowerCenter emplea el equilibrador de carga para distribuir tareas. El equilibrador de carga distribuye las tareas para lograr el rendimiento máximo. Puede distribuir tareas en un único nodo o en varios nodos de una malla.
  • Proceso del Administrador de Data Transformation (DTM). El Servicio de integración de PowerCenter inicia un proceso DTM para ejecutar cada sesión y tarea de comando dentro de un flujo de trabajo. El proceso DTM realiza validaciones de sesión, crea subprocesos para inicializar la sesión, lee, escribe y transforma datos, y maneja operaciones previas y posteriores a la sesión.
El Servicio de integración de PowerCenter puede lograr un alto rendimiento empleando sistemas simétricos de procesamiento múltiple. Puede iniciar y ejecutar varias tareas de manera concurrente. También puede procesar particiones concurrentes dentro de una misma sesión. Cuando se crean particiones múltiples dentro de una sesión, el Servicio de integración de PowerCenter crea varias conexiones de base de datos con un único origen y extrae un intervalo de datos independiente por cada conexión. También transforma y carga los datos de forma paralela.