Ir al contenido principal

Autor: juandejuan

QlikView: Diseñador

I.                  Objetivos

Este curso está enfocado en la parte básica de análisis de la herramienta QlikView.

Proporciona la base para conocer la filosofía del modelo asociativo que propone QlikView y los objetos que permiten acceder a datos y visualizarlos con distintos formatos.

Al finalizar el curso, el alumno tendrá suficientes conocimientos para:

  • Acceder a distintos tipos de datos (tanto formato de archivado como estructura).
    • Crear tablas y gráficos de análisis de la información (barras, líneas, tarta, etc.).
    • Comprender el modelo asociativo de los elementos de QlikView.
    • Personalizar la visualización de los objetos de análisis.

II.               Requisitos

No se necesitan requisitos específicos más allá de haber usado otras herramientas de análisis sencillas (Microsoft Excel, por ejemplo).

Conocimientos de SQL y de uso de ficheros de texto plano pueden facilitar la comprensión de la materia.

III.            Duración

  • 15 horas.

IV.            Metodología

El curso se desarrolla mediante la exposición teórica acompañada de demostraciones prácticas y explicaciones de los resultados obtenidos.

El alumno lleva a cabo la modelización de distintas fuentes de datos, para probar las características del producto, además de diseñar hojas de análisis y paneles de control mediante la inserción de elementos de selección y gráficos.

Resolución de dudas de los conceptos expuestos.

V.               Contenido

  • Introducción a QlikView y análisis de datos.
    • Conceptos básicos de B.I.
    • Modelos de datos.
  • Características principales de QlikView.
    • Modelado de datos
      • Modelo asociativo.
      • Importación de datos desde ficheros planos.
      • Importación de datos desde hojas de cálculo.
      • Importación de datos desde bases de datos.
        • ODBC.
        • OLE DB.
      • Scripts de carga de datos. Comando LOAD.
        • Uso de tablas en línea.
        • Uso de modelos en estrella.
        • Uso de copos de nieve.
        • Uso de modelos normalizados.
      • Ventana del visor de tablas.
      • Ventana del editor de expresiones.
    • Creación de contenido.
      • Configuración del documento.
      • Propiedades de la hoja.
      • Características generales de un objeto.
      • Uso de expresiones cíclicas.
      • Configuración de objetos:
        • Títulos.
        • Cuadros de lista.
        • Cuadros de tabla.
        • Marcador.
        • Cuadro de selección múltiple.
        • Cuadro de selecciones actuales.
        • Inserción de imágenes.
      • Creación de objeto “Top 10”.
      • Creación de hojas de análisis y paneles de control.
        • Enlace y copia de objetos.
        • Gráficos de indicador.
        • Gráficos:
          • Líneas.
          • Tarta.
          • Barras.
          • Radar.
          • KPIs.
        • Uso de expresiones en gráficos.
        • Gráficos jerárquicos.
      • Uso de marcadores.
      • Botones y objetos avanzados.

Pentaho Data Integration – Kettle (CE)

I.                  Objetivos

Este curso está enfocado en el uso del componente de ETL de Pentaho: Pentaho Data Integration.

Al finalizar el curso, el alumno tendrá suficientes conocimientos para:

  • Instalar el producto y la versión de Java correspondiente.
    • Realizar transformación de datos (ETL) desde distintas fuentes de datos a diferentes destinos.

II.                Requisitos

  • Conocimientos de SQL.
    • Opcional:
      • Conocimiento de otras herramientas de ETL.

III.             Duración

  • 20 horas.

IV.            Metodología

El curso se desarrolla mediante la exposición teórica acompañada de demostraciones prácticas y explicaciones de los resultados obtenidos.

El alumno lleva a cabo prácticas con el producto para cada concepto explicado. Se utilziarán distintas fuentes de datos, tanto ficheros de texto, como hojas de cálculo y bases de datos, principalmente relacionales (MySQL).

Resolución de dudas de los conceptos expuestos.

V.               Contenido

  • Introducción a Pentaho Community Edition y sus componentes.
    • Componentes de PCE.
    • Requisitos de Java.
    • Instalación de Java y PDI.
  • PDI. Pentaho Data Integrator.
    • Bases de datos:
      • Conexiones a bases de datos.
      • Uso de conexiones compartidas.
    • Componentes básicos de transformaciones:
      • Creación de transformaciones.
      • Importación y exportación usando tablas.
      • Importación y exportación desde ficheros de texto plano, csv, Excel, xml, etc.
      • Uso de calculadora y fórmulas.
      • Selección de columnas y filtros de datos.
      • Uso de lookup, group by, split, pivot.
      • Merge join.
      • Mapping.
    • Trabajos, variables y propiedades:
      • Modificación de propiedades de Kettle.
      • Creación de trabajos.
      • Uso de variables.
      • Uso de parámetros.
      • Flujo de trabajos y gestión de errores.
    • Elementos adicionales:
      • Uso de PDI desde terminal.
      • Ejecutar código en base de datos.
      • Procesamiento dinámico de ficheros.
      • Mover archivos en el sistema operativo.
      • Escritura en el «log» de PDI.
      • Espera de ficheros (filewatcher).
      • Comprobación de existencia de archivos.
      • Comprobación de existencia de tabla (BBDD).
    • Prácticas con transformaciones y trabajos.

Oracle Analytics Server: Análisis y P.C.

I.                  Objetivos

Este curso está enfocado en la creación de informes (análisis) y paneles de control (dashboards) en Oracle Analytics Server

Al finalizar el curso, el alumno tendrá suficientes conocimientos para:

  • Crear informes con tablas y gráficos usando opciones para filtro de usuario y filtro dinámico, agrupaciones y selecciones avanzadas con miembros de jerarquías.
  • Crear distintos tipos de gráficos y configurar sus propiedades. Añadirlos a los informes y establecer vínculos de tipo maestro-detalle.
  • Uso de indicadores clave de proceso, KPIs, y el seguimiento de su tendencia con base en dimensiones.
  • Crear paneles de control, con filtros dinámicos mediante prompts y condicionamiento de la visualización de objetos.
  • Uso de las herramientas: Delivers, para entrega automática y planificada de informes; briefing books
  • Uso de las nuevas herramientas de Oracle Analytics Server para la visualización de datos.

II.                Requisitos

  • No hay requisitos específicos.
  • Opcional:
    • Conocimientos de SQL y análisis de datos.

III.             Duración

  • 30 horas.

IV.            Metodología

El curso se desarrolla mediante la exposición teórica acompañada de demostraciones prácticas y explicaciones de los resultados obtenidos.

El alumno lleva a cabo la creación de análisis utilizando distintas características del producto de diversa complejidad. Se desarrolla un panel de control con los análisis previos.

Resolución de dudas de los conceptos expuestos.

V.               Contenido

  • Introducción a Oracle Analytics Server y Oracle Analytics Cloud.
    • Arquitectura.
  • Modelado de datos.
    • Crear y publicar un modelo.
    • Creación de tablas de hechos y dimensiones.
    • Creación de jerarquías.
    • Técnicas adicionales de modelado de datos.
  • Interfaz de usuario.
    • Áreas temáticas y relaciones con el repositorio.
    • Página principal, favoritos y catálogo.
    • Introducción al editor de análisis.
  • Creación de vistas
    • Creación de análisis
    • Ordenación de datos
    • Vistas en los análisis
    • Edición de gráficos
    • Creación de elementos calculados
  • Formato
    • Formato de columnas
    • Formato condicional
  • Filtros y prompts.
    • Filtros de datos
    • Uso de promts y variables
  • Agrupación y pasos de selección.
    • Uso de pasos de selección.
    • Creación y uso de grupos.
    • Creación y uso de elementos calculados.
  • Uso avanzado del editor de análisis.
    • Editores de vistas.
    • Características del panel Compound Layout.
    • Uso de secciones (página, sección, medidas, filas, columnas, exclusión).
    • Editor de gráficos.
      • Definir propiedades generales de los gráficos.
      • Modificar el estilo de un gráfico.
      • Usar títulos y etiquetas.
      • Formateado condicional.
      • Añadir totales y subtotales.
      • Uso de bins (combinación de valores).
      • Uso de la función master-detail.
  • Objetos gráficos
    • Opciones avanzadas
    • Uso de KPIs
    • Objetos gráficos adicionales
  • Paneles de control (dashboards).
    • Analítica interactiva.
    • Creación de paneles de control.
    • Expresiones.
    • Añadir subpáginas.
    • Añadir acciones al panel de control.
    • Uso de promts.
    • Personalización.
    • Añadir contenido.
  • Libros de resumen (briefing books).
    • Creación de libros de resumen.
    • Uso de libros de resumen.
  • Delivers.
    • Creación de contenido automático con delivers.
    • Creación de agente.
  • Gestión de la caché.
  • Oracle Data Visualization.
    • Proyectos y datos.
    • Creación de visualizaciones e historias.

Oracle Data Integrator 12c

I.                  Objetivos

Este curso está enfocado en la instalación y uso de las funcionalidades principales de Oracle Data Integrator 12c.

Al finalizar el curso, el alumno tendrá suficientes conocimientos para:

  • Instalar el entorno de desarrollo en un equipo y configurar un agente externo.
  • Crear correspondencias con distintos métodos de integración de datos, incluyendo funciones de usuario.
  • Usar los módulos de conocimiento más habituales en procesos ETL.
  • Crear procedimientos, paquetes y planes de carga para llevar a cabo una integración completa de datos.

II.                Requisitos

  • Conocimientos de SQL.
  • Opcional:
    • Conocimiento de otras herramientas de ETL.

III.             Duración

  • 25 horas.

IV.            Metodología

El curso se desarrolla mediante la exposición teórica acompañada de demostraciones prácticas y explicaciones de los resultados obtenidos.

El alumno lleva a cabo la creación de objetos (procedimientos, correspondencias, modelos, topografía, etc.) con distintas fuentes de datos, principalmente relacionales (Oracle y MySQL).

Resolución de dudas de los conceptos expuestos.

V.               Contenido

  • Introducción a Oracle Data Integrator 12c, integración y administración.
    • Enfoque EL-T.
    • Diseño declarativo.
    • Módulos de conocimiento.
  • Instalación del producto.
    • Preparar entorno de Java.
    • Instalación de Middleware y ODI en Linux.
  • Crear repositorio Maestro y de Trabajo.
    • Mediante la herramienta RCU.
    • Mediante la interfaz de usuario de ODI y conexión con la base de datos.
  • Conceptos de topología.
    • Descripción y creación de arquitecturas física y lógica.
    • Creación de contextos.
    • Servidores de datos y esquemas físicos. Acceso a datos fuente y esquemas de destino.
    • Parámetros de conexión a servidores.
    • Creación de esquemas lógicos.
    • Asociación de objetos lógicos y físicos mediante contextos.
    • Descripción y creación de agentes físicos y lógicos.
      • Instalación de agente Standalone Collocated Agent.
      • Configuración en topología.
  • Proyectos.
    • Creación de proyecto.
    • Descripción de objetos: Carpetas, paquetes, correspondencias, procedimientos, variables, secuencias, funciones de usuario, módulos de conocimiento, marcadores.
    • Organización y ámbito de proyectos.
    • Exportación e importación de objetos.
    • Introducción a los módulos de conocimiento.
  • Creación de modelos.
    • Carpetas de modelos.
    • Concepto de datastore.
    • Ingeniería inversa desde modelos relacionales.
    • Trabajar con fuentes XML.
    • Conceptos de restricciones e índices.
      • Claves primarias y externas (referencias).
      • Columnas NOT NULL o mandatory.
      • Condiciones (restricciones tipo check).
    • Establecer distribución automática.
    • Establecer punto de comprobación de restricción (flow, static).
    • Verificar cumplimiento de restricciones.
  • Correspondencias (mapping).
    • Correspondencias básicas.
    • Uso de distintas tecnologías (MySQL > Oracle).
    • Uso de Flow Control.
    • Uso de Control Append.
  • Uso de Incremental Update.
    • Uso de componentes de correspondencias: Join, Aggregate, Filter, Lookup…
    • Especificación de la ubicación del área de ajustes (staging area).
  • Uso de Operator Navigator.
    • Consultar el registro de ejecución.
    • Ver las sesiones, pasos y tareas llevadas a cabo.
    • Revisar el código generado por ODI.
  • Secuencias.
    • Tipos de secuencias.
    • Uso de secuencias nativas.
  • Funciones de usuario.
    • Ámbito de uso.
    • Implementación. Múltiples tecnologías.
    • Creación de función de usuario.
  • Procedimientos.
    • Descripción de procedimiento.
    • Creción de procedimiento.
    • Tareas y propiedades. Comandos opcionales.
    • Modificación de comportamiento mediante opciones.
  • Paquetes.
    • Descripción.
    • Creación de un paquete.
    • Panel de diagrama de paquete y herramientas.
    • Uso de variables en paquetes.
      • Actualización del valor.
      • Verificación y toma de decisiones.
    • Control de la ejecución.
  • Gestión de versiones.
    • Creación de versiones en objetos.
    • Comparación de cambios.
  • Escenarios.
    • Descripción.
    • Creación de escenario.
    • Gestión de versiones en escenarios.
  • Planes de carga.
    • Descripción.
    • Creación de planes de carga con escenarios.
  • Gestión de cambios. Change Data Capture.
    • Descripción del sistema CDC.
    • Implementación y revisión de objetos creados en base de datos.
    • Habilitar sistema.
    • Creación de correspondencia con función CDC.

Oracle BI 12c: Creación de repositorios

I.                  Objetivos

Este curso está enfocado en la creación del repositorio de OBI 12c (modelado de datos de origen para que la herramienta pueda generar informes).

Al finalizar el curso, el alumno tendrá suficientes conocimientos para:

  • Explicar las diferencias entre los distintos modelos relacionales.
  • Desarrollar un repositorio a partir de fuentes relacionales (modelos en estrella, copos de nieve y normalizados), incluyendo particionamiento, tablas de resumen, jerarquías (de nivel y valores, padre-hijo), medidas derivadas, medidas de series temporales y variables para informes dinámicos.
  • Definir correctamente las claves de uniones de tablas y niveles de jerarquías.
  • Publicar modelos y verificar su correcto funcionamiento.
  • Establecer la seguridad básica a usuarios y roles, activar la caché para mejora del rendimiento y desarrollo multidesarrollador con MUDE o fusión de modelos.

II.                Requisitos

  • Conocimientos de SQL.
  • Opcional:
    • Conocimientos de Data Warehouse y modelo en estrella.
    • Uso avanzado de bases de datos.

III.             Duración

  • De 20 a 28 horas (1 ó 2 módulos).

IV.            Metodología

El curso se desarrolla mediante la exposición teórica acompañada de demostraciones prácticas y explicaciones de los resultados obtenidos.

El alumno lleva a cabo la modelización de una fuente de datos dimensional (modelo en estrella) con tablas normalizadas (copo de nieve) y distintas complejidades para probar las características del producto.

Resolución de dudas de los conceptos expuestos.

V.               Contenido

1.                 Módulo I

Duración: 20 horas

  • Introducción a Oracle BI EE.
    • Arquitectura.
    • Herramienta Administration Tool.
    • Modelos de datos.
      • Normalizado.
      • Estrella.
      • Copo de nieve.
  • Creación de proyecto.
  • Creación de capa física.
    • Objetos de capa física.
      • Base de datos. Funcionalidades.
      • Connection pool. Parámetros de acceso a fuente de datos.
    • Importar fuentes de datos. Carga de tablas y columnas.
    • Definición de claves y uniones de tablas. Modelo físico.
    • Fuentes de datos de tipo SELECT. Despliegue y repliegue.
    • Uso de alias de objetos.
    • Uso de carpetas de visualización y accesos directos.
  • Creación de capa lógica (correspondencias y modelo de negocio).
    • Creación de tabla de dimensiones y hechos.
    • Renombrado de atributos de dimensión.
    • Uso de fuentes lógicas y correspondencias de tablas.
    • Uniones lógicas.
    • Determinar función de agregación para medidas.
    • Ordenación de datos basada en otra columna.
  • Creación de capa de presentación.
    • Preparar objetos para el usuario.
    • Renombrado de carpetas y columnas.
    • Uso de alias.
    • Carpetas anidadas.
  • Validación del modelo.
    • Requisitos para un modelo correcto.
  • Publicación del modelo.
    • Uso de datamodel.cmd.
    • Habilitar log de consultas. Revisar log en Fusion Middleware, Servicio de Presentación y fichero de servidor.
    • Modos de conexión al repositorio (offline y online).
  • Modelado avanzado:
    • Copo de nieve.
    • Evitar relaciones circulares.
    • Caminos cortos en copos de nieve.
  • Medidas calculadas:
    • Creación de medidas derivadas.
    • Funciones habituales (Rank, Rsum…).
  • Jerarquías:
    • Jerarquías de nivel:
      • Definición de jerarquías de nivel.
      • Definición y comportamiento de claves lógicas primarias de nivel, claves de visualización, claves de nivel.
      • Modelado de la jerarquía de tiempo.
      • Modelado de jerarquías de dimensiones.
      • Jerarquías con bifurcaciones. Caminos preferidos de profundización de análisis.
      • Definición y uso de valores numéricos de elementos de nivel.
    • Jerarquías padre-hijo:
      • Creación de tabla de ayuda.
      • Modelado de la jerarquía.
    • Medidas de nivel:
      • Creación de medidas de nivel.
      • Medidas compartidas.
    • Jerarquías de presentación.
      • Creación automática de jerarquías de presentación.
      • Creación manual. Distintos caminos de presentación de datos.
  • Series temporales:
    • Definición de claves cronólogicas.
    • Medidas de series temporales:
      • Ago, ToDate y PeriodRolling.
  • Tablas de resumen (agregadas).
    • Definición de tablas de resumen.
    • Modelado físico y lógico.
    • Creación de fuentes lógicas.
  • Particionamiento.
    • Tipos de particionamiento.
    • Modelado de particionamiento basado en valores.
  • Variables.
    • Tipos de variables (repositorio y sesión).
    • Uso de variables en informes para generar filtros dinámicos.
    • Uso de variables de sesión de tipo row-wise (carga masiva de variables).
  • Seguimiento de uso (usage tracking):
  • Descripción de tablas del sistema.
    • Habilitar el seguimiento de uso.
    • Crear modelo para análisis de uso.
    • Prueba del modelo.
  • Establecer columna de hechos implícita.
    • Determinar hecho implícito para modelos con varias tablas de hechos e informes que sólo usan dimensiones.

2.                 Módulo II

Duración: 8 horas

  • Seguridad:
    • Capas de seguridad estándar de OBI.
    • Creación de usuarios y grupos de Weblogic.
    • Enlace con roles de aplicación.
    • Establecer permisos en objetos.
    • Seguridad a nivel de fila.
  • Caché:
    • Activar el sistema de caché.
    • Configuración de purgado de tablas.
    • Purga manual de entradas de caché.
    • Comprobación de funcionamiento de caché.
    • Creación de agente para poblar caché.
    • Gestión de la caché.
  • Entorno multi desarrollador.
    • Descripción del entorno multi desarrollador MUDE.
    • Creación de repositorio maestro.
    • Sincronización de desarrollos.
  • Fusión de parche.
    • Fusión de parche mediante XML de cambios.
    • Fusión de parche mediante repositorio.
  • Copia de seguridad mediante WLST.

© Juan de Juan.