Diplomado en Ciencia de Datos (Modalidad Sincrónica) – Duoc UC

Diplomado en Ciencia de Datos (Modalidad Sincrónica)

Horas

150 horas


Modalidad

Sincrónica


Fecha y horario

Fecha inicio: 28-05-2025
Clases: Lunes y miércoles
19:00 a 22:00 hrs

Valor

$1.245.000


Descargar brochure Solicitar información Inscríbete ahora

Descripción

El actual escenario de la Cuarta Revolución Industrial ha acelerado el proceso de cambios en la Transformación Digital de Empresas y Organizaciones, lo cual impacta en las formas de operar y en un incremento del volumen de datos claves para la toma de decisiones y competitividad. Este contexto ha generado en los últimos años una alta demanda de profesionales capaces de transformar el mundo tradicional de los negocios, para crear procesos y soluciones innovadoras, a nivel global. Por lo tanto, la reinvención debe comenzar por los profesionales que le darán forma a esta nueva manera de vivir la digitalización, ya que son ellos quienes deben guiar a las organizaciones en tomar el reto, liderar procesos frente a cambios continuos y avances exponenciales en materia de tecnología e innovación.

El propósito principal de este Diplomado es fortalecer las competencias de los participantes para la implementación de procesos de análisis y gestión de datos utilizando herramientas especializadas en la identificación de patrones y técnicas predictivas, con el fin de aportar valor a la empresa a través de la generación de información clave para la toma de decisiones.


Objetivos

Desarrollar estrategias de gestión y análisis de datos a través de herramientas tecnológicas especializadas.


Orientado

A Jefes de proyectos, líderes de proyectos, analistas de datos, ingenieros de datos, científicos de datos, profesionales que trabajan realizando/presentando análisis de datos. Trabajadores del área de finanzas, logística, marketing, especialmente comercial u otras similares.


Requisitos de ingreso

  • Comprender código fuente de Python.
  • Nivel básico de: programación, Python y SQL.
  • Poseer conocimientos sobre estadística descriptiva e inferencial.
  • Conocimientos generales de Excel o alguna herramienta para visualización de datos (power Bi, Tableau, otros).

Contenido del Diplomado

Unidad 1: Fundamentos de datos y procesos empresariales

Introducción a la gobernanza de datos

  • Definición e importancia de la gobernanza de datos en las organizaciones.
  • Concepto y dimensiones de la calidad.
  • Métodos para evaluar y mejorar la calidad.

Seguridad de los datos

  • Fundamentos de seguridad de datos.
  • Amenazas y riesgos de seguridad.
  • Medidas de seguridad y buenas prácticas.

Ética y regulaciones de la gestión de datos

  • Cumplimiento y regulaciones.
  • Implicaciones legales y ética en la gestión de datos.

Tecnologías en la gobernanza de datos

  • Mejores prácticas en gestión de datos.
  • Consideraciones sobre la privacidad y confidencialidad.

Unidad 2: Inteligencia de negocios y minería de datos

Introducción a la Inteligencia de Negocios

  • Definiciones y conceptos claves de BI.
  • Toma de decisiones estratégicas en BI.

Arquitectura en Sistemas BI

  • Componentes esenciales de un sistema BI.
  • Integración de datos en sistemas de BI.

Análisis avanzado de Datos

  • Técnicas de análisis avanzado como OLAP.
  • Técnicas de análisis en descubrimiento de tendencias (Data Mining).
  • Identificación de mejoras y optimización de procesos.

Visualización de datos y reporting

  • Creación de informes y herramientas de visualización.

Unidad 1: Análisis Estadístico Descriptivo en Python

Introducción a Google Colab:

  • Ambiente de trabajo y características de Google Colab
  • Creación y manejo básico de notebooks

Limpieza y Preparación de Datos:

  •   Detección y manejo de datos faltantes
  •   Manejo de datos atípicos
  •   Transformación y normalización de datos

Estadísticas Básicas y Visualización de Datos:

  • Medidas de tendencia central, dispersión y forma
  • Representaciones gráficas básicas con Matplotlib y Seaborn

Análisis Multivariante Introductorio:

  • Concepto de correlación y covarianza. Introducción al análisis de componentes principales

Aplicación en Python con pandas y Numpy:

  •  Exploración de datasets
  • Cálculos estadísticos básicos y visualización

 

Unidad 2: Análisis Estadístico Inferencial en Python

Introducción al Análisis Inferencial:

  • Diferencias entre estadística descriptiva e inferencial
  • Concepto de población y muestra
  • Variable aleatoria
  • Distribuciones de muestreo y teorema del límite central

Intervalos de Confianza:

  • Concepto y cálculo de intervalos de confianza para medias

Pruebas de Hipótesis:

  •  Introducción a las pruebas de hipótesis
  •  Pruebas para una muestra (t-test)

Análisis de Regresión Simple:

  • Conceptos básicos de regresión lineal
  • Evaluación del ajuste del modelo y predicción

Aplicación en Python con Statsmodels:

  • Construcción y evaluación de modelos
  • Interpretación de resultados

 

Unidad 1: Técnicas para la exploración y preparación de datos

Análisis exploratorio de datos y uso de Jupyter Notebook mediante Google Colab

  • Librerías:
    • Numpy
    • Pandas
    • Scikit-Learn

Procesos de limpieza de datos: lectura de datos desde archivo y desde URL externa

Visualizaciones básicas de un DataFrame

Unidad 2: Técnicas de predicción de datos con Machine Learning

Algoritmos de aprendizaje supervisado:

    • Técnicas de clasificación:
      • Regresión logística
      • Métodos basados en árboles
      • Support Vector Machine
    • Técnicas de regresión:
      • Regresión lineal
      • Métodos basados en árboles
      • Support Vector Machine

Algoritmos de aprendizaje no supervisado:

  • Análisis de conglomerados para datos numéricos, categóricos y mixtos
  • Reducción de dimensionalidad para datos numéricos


Uso de e Python para realizar estos algoritmos

Unidad 1: Bases del Deep Learning: cimientos de la IA

  • El perceptrón como unidad básica de las redes neuronales
  • Regresores naturales y las básicas MultiLayer Perceptron (MLP)
  • Algoritmos como el descenso del gradiente y sus variantes
  • Retropropagación del error
  • Técnicas de generalización
  • Funciones de activación y regularización

Unidad 2: Aplicaciones del Deep Learning: pongamos a trabajar algunas arquitecturas de red neuronal

  • La convolución y el residuo, desde la arquitectura ResNet
  • Clasificación de imágenes y arquitecturas como LSTM y transformer para NLP
  • Clasificación de sentimientos en texto como escenario aplicado

Unidad 1: Técnicas para la visualización de datos

  • ¿A qué nos referimos cuando hablamos de Storytelling?
  • Elementos claves del Storytelling
  • Establecer estrategias de Storytelling según la audiencia
  • Selección de datos útiles
  • Eliminación de la sobrecarga
  • Visualización según tipos de datos
  • Dirigir la atención
  • Elementos visuales claves

 

Unidad 2: Técnicas para la presentación creativa de datos

Definición de Storytelling y sus elementos clave

La importancia del contexto: establecer estrategias de Storytelling según la audiencia

  • Preguntas para saber más del contexto
  • Técnicas de Storytelling

Selección de datos útiles:

  • Tipos de datos
  • Tipos de gráficos
  • Elementos visuales clave
  • Buenas prácticas en elementos visuales

Eliminación de la sobrecarga (caos/desorden):

  • Principios de diseño gráfico
  • Teoría de Gestalt
  • Ley de semejanza
    •  

Financiamiento

Descuentos

  • 30% Titulados Duoc UC*
  • 15% - 25% Ex-alumnos de Educación Continua*
  • Consulta por descuentos promocionales (*Descuentos no acumulables)

Métodos de pago

  • Botón Webpay: 3 cuotas sin interés todos los bancos / Botón Paga con tu Banco: 6 cuotas sin interés Banco Santander
  • Transferencia
  • Orden de compra Empresa