Diploma de Especialización en Big Data
Diploma de Especialización en Analítica de Big Data

Plan de estudios

El plan de estudios está basado en la organización de las asignaturas en tres grandes áreas que comprenden asignaturas centrales, avanzadas y un taller.

Área: Análisis de Datos

Comprende un conjunto de asignaturas cuyo objetivo es enseñar a los estudiantes los modelos y las técnicas de análisis inteligente de datos, con el fin de extraer información útil para la toma de decisiones.

Estos contenidos incluyen los conceptos teórico-prácticos de machine learning, deep learning, optimización y análisis predictivo.

Las asignaturas son las siguientes:

  • Técnicas de machine learning para análisis de datos (Central)

    El aprendizaje automático (machine learning) es un área de muy rápido crecimiento y gran actualidad que se ubica en la intersección de las ciencias de la computación y la estadística.

    Es la piedra fundamental de los motores de búsqueda, los filtros colaborativos usados para recomendación personalizada, la traducción automática, el reconocimiento de voz y de imágenes, etc.

    Esta materia presenta los elementos fundamentales que constituyen el cuerpo teórico-práctico esencial de las técnicas de aprendizaje automático.

    En particular, el curso cubre los diferentes enfoques y algoritmos básicos de aprendizaje supervisado y no supervisado, así como su utilización práctica para el análisis predictivo de grandes volúmenes de datos.

  • Deep learning con grandes volúmenes de datos (Central)

    Uno de los problemas fundamentales en aprendizaje automático es la representación del conocimiento. Las técnicas y modelos de aprendizaje profundo constituyen un paradigma cuyo factor central es la representación de modelos complejos mediante la composición de representaciones más simples.

    Esta materia presenta los modelos fundamentales de aprendizaje profundo, en particular, diferentes tipos de redes neuronales artificiales (multicapa, convolucionales, recurrentes, ...), así como una metodología de aplicación práctica, basada en herramientas como TensorFlow.

  • Taller de aprendizaje automático (Taller)

    El objetivo de este taller es experimentar con herramientas de machine/deep learning para resolver problemas de análisis de datos en diversas áreas de aplicación, tales como procesamiento de lenguaje natural, reconocimiento de patrones en imágenes, diagnóstico médico, detección de spam, etc. Se utilizarán herramientas basadas en los lenguajes R y/o Python.

    El taller consistirá en la realización de proyectos grupales bajo la supervisión de tutores expertos, orientados a resolver desafíos relacionados con la aplicación de técnicas de machine learning para analítica de problemas complejos.

  • Avanzada

    La lista de materias avanzadas cambiará con el año lectivo, acompañando la evolución en los conocimientos.

Área: Sistemas

Comprende un conjunto de asignaturas cuyo objetivo es enseñar a los estudiantes los conceptos teórico-prácticos de las bases de datos y de las arquitecturas de software utilizadas para el almacenamiento y procesamiento de grandes volúmenes de datos.

Las asignaturas son las siguientes:

  • Modelos Avanzados de Bases de Datos (Central)

    El objetivo de este curso es estudiar distintos paradigmas de bases de datos aplicados a big data. Los objetivos específicos son: presentar el dinamismo existente en el campo de las bases de datos e incentivar la investigación de tecnologías de bases de datos orientadas a big data.

    Durante el curso se verán paradigmas que van desde bases de datos embebidas en dispositivos móviles hasta los nuevos modelos no relacionales NoSQL y de grafos.

    Al final del curso el estudiante tendrá las herramientas necesarias para poder analizar y seleccionar la tecnología de base de datos que mejor se adapte a la problemática de big data.

  • Arquitectura de software para analítica en tiempo real (Central)

    La capacidad de utilizar todos los datos de la empresa y los recursos disponibles cuando se necesita es una herramienta esencial para mejorar la toma de decisiones.

    Los grandes volúmenes de datos a explorar, la complejidad de los modelos, sumados a los requerimientos específicos de ejecución en tiempo real hacen necesario recurrir a la paralelización y distribución masiva del procesamiento, esto es, el análisis coordinado de los datos por múltiples procesadores.

    Sin embargo, decidir qué algoritmos y qué plataformas son las más adecuadas en un contexto determinado no es para nada sencillo.

    El objetivo de este curso es presentar los conceptos teóricos y prácticos fundamentales para entender en detalle la relación costo-beneficio de cada opción disponible en cuanto a la ejecución paralela y distribuida de las técnicas de analítica inteligente de datos a gran escala.

  • Taller de analítica en tiempo real (Taller)

    El objetivo de este taller es experimentar con herramientas de bases de datos no relacionales y software para analítica de grandes volúmenes de datos en tiempo real con el fin de resolver problemas en diversas áreas, tales como análisis de sentimiento, recomendación personalizada, etc. y en diferentes contextos de aplicación (industria, salud, instituciones financieras, etc.). Para esto se buscará utilizar herramientas de software libre, por ejemplo la suite Apache (Cassandra, Spark, etc.).

  • Avanzada

    La lista de materias avanzadas cambiará con el año lectivo, acompañando la evolución en los conocimientos.

Área: Gestión de la Información

Comprende un conjunto de asignaturas cuyo objetivo es enseñar a los estudiantes los conceptos teórico-prácticos de la gestión y de la gobernanza de los grandes volúmenes de datos en una organización.

Las asignaturas son las siguientes:

  • Fundamentos de Big Data (Central)

    El objetivo de este curso es proporcionar una introducción general de los principales conceptos, desafíos y terminología que definen la esencia misma de la analítica de grandes volúmenes de datos. Se presentan las diversas características que distinguen a los grandes conjuntos de datos y el ciclo de vida de la analítica, desde la identificación hasta la utilización final para la toma de decisiones.

    Se discute cómo los grandes volúmenes de datos impactan en la inteligencia de negocios. Se estudian las diferentes fases de la analítica de big data, en cuanto a los requerimientos, infraestructura y mecanismos necesarios para el almacenamiento, procesamiento y análisis de grandes volúmenes de datos.

  • Gobernanza para Big Data (Central)

    El objetivo de esta asignatura es presentar al estudiante las oportunidades y desafíos que enfrentan las organizaciones cuando llevan adelante proyectos con grandes volúmenes de datos.

    La gobernanza de datos y, en particular, la de grandes volúmenes abarca las políticas y los programas que aseguran la privacidad, la optimización y la monetización de los proyectos alineando objetivos a través de las distintas funciones de una organización.

  • Taller de Big Data (Taller)

    El objetivo de este taller es poner en práctica los conocimientos, competencias y herramientas necesarias con el fin de poder sobrellevar los retos relacionados con la gobernanza y la toma de decisiones a partir de grandes volúmenes de datos en diferentes áreas de negocio, en particular, organizaciones relacionadas con la salud, empresas, organismos públicos, etc.

    Por ejemplo, un proyecto tipo consistirá en la elaboración de una serie de dashboards cuyo objetivo es responder a las preguntas que se formulan los responsables de las diferentes áreas de una organización, tales como ¿es posible personalizar los mensajes de marketing en tiempo real? ¿se puede lograr aumentar las compras online de los clientes en un 15%?

     

La duración mínima para completar el programa es de 1 año.

Los cursos del Diploma forman parte del Master en Big Data y dan créditos para el Master en Ingeniería (por Investigación).

Requisitos para la obtención del título

Para obtener el título se requiere haber aprobado:

  • un mínimo de 6 asignaturas

 

 

Solicitá más información