Master en Big Data
Master en Big Data

Plan de Estudios

El plan de estudios brinda a los estudiantes la posibilidad de realizar recorridos temáticos acordes a su formación previa, a sus intereses y objetivos profesionales.

Requisitos para la obtención del título:

Para obtener el título de Master en Big Data se requiere:

  • Aprobar un mínimo de 9 asignaturas del plan de estudios, con las siguientes condiciones:
    • Al menos 6 de las asignaturas deben ser materias.
    • Al menos 2 de las asignaturas deben ser talleres.
  • Aprobar el Trabajo final.

Asignaturas:

  • Fundamentos de métodos analíticos para big data

    El objetivo de este curso es proporcionar una introducción general de los principales conceptos, desafíos y terminología que definen la esencia misma de la analítica de grandes volúmenes de datos. Se presentan las diversas características que distinguen a los grandes conjuntos de datos y el ciclo de vida de la analítica, desde la identificación hasta la utilización final para la toma de decisiones.

    Se discute cómo los grandes volúmenes de datos impactan en la inteligencia de negocios. Se estudian las diferentes fases de la analítica de big data, en cuanto a los requerimientos, infraestructura y mecanismos necesarios para el almacenamiento, procesamiento y análisis de grandes volúmenes de datos.

  • Gobernanza para big data

    El objetivo de esta asignatura es presentar al estudiante las oportunidades y desafíos que enfrentan las organizaciones cuando llevan adelante proyectos con grandes volúmenes de datos.

    La gobernanza de datos y, en particular, la de grandes volúmenes abarca las políticas y los programas que aseguran la privacidad, la optimización y la monetización de los proyectos alineando objetivos a través de las distintas funciones de una organización.

  • Taller de big data

    El objetivo de este taller es poner en práctica los conocimientos, competencias y herramientas necesarias con el fin de poder sobrellevar los retos relacionados con la gobernanza y la toma de decisiones a partir de grandes volúmenes de datos en diferentes áreas de negocio, en particular, organizaciones relacionadas con la salud, empresas, organismos públicos, etc.

    Por ejemplo, un proyecto tipo consistirá en la elaboración de una serie de dashboards cuyo objetivo es responder a las preguntas que se formulan los responsables de las diferentes áreas de una organización, tales como ¿es posible personalizar los mensajes de marketing en tiempo real? ¿se puede lograr aumentar las compras online de los clientes en un 15%?

  • Modelos avanzados de bases de datos

    El objetivo de este curso es estudiar distintos paradigmas de bases de datos aplicados a big data. Los objetivos específicos son: presentar el dinamismo existente en el campo de las bases de datos e incentivar la investigación de tecnologías de bases de datos orientadas a big data.

    Durante el curso se verán paradigmas que van desde bases de datos embebidas en dispositivos móviles hasta los nuevos modelos no relacionales NoSQL y de grafos.

    Al final del curso el estudiante tendrá las herramientas necesarias para poder analizar y seleccionar la tecnologi´a de base de datos que mejor se adapte a la problemática de big data.

  • Arquitectura de software para analítica en tiempo real

    La capacidad de utilizar todos los datos de la empresa y los recursos disponibles cuando se necesita es una herramienta esencial para mejorar la toma de decisiones.

    Los grandes volúmenes de datos a explorar, la complejidad de los modelos, sumados a los requerimientos específicos de ejecución en tiempo real hacen necesario recurrir a la paralelización y distribución masiva del procesamiento, esto es, el análisis coordinado de los datos por múltiples procesadores.

    Sin embargo, decidir qué algoritmos y qué plataformas son las más adecuadas en un contexto determinado no es para nada sencillo.

    El objetivo de este curso es presentar los conceptos teóricos y prácticos fundamentales para entender en detalle la relación costo-beneficio de cada opción disponible en cuanto a la ejecución paralela y distribuida de las técnicas de analítica inteligente de datos a gran escala.

  • Taller de analítica en tiempo real

    El objetivo de este taller es experimentar con herramientas de bases de datos no relacionales y software para analítica de grandes volúmenes de datos en tiempo real con el fin de resolver problemas en diversas áreas, tales como análisis de sentimiento, recomendación personalizada, etc. y en diferentes contextos de aplicación (industria, salud, instituciones financieras, etc.). Para esto se buscará utilizar herramientas de software libre, por ejemplo la suite Apache (Cassandra, Spark, etc.).

  •  Técnicas de machine learning para análisis de datos

    El aprendizaje automático (machine learning) es un área de muy rápido crecimiento y gran actualidad que se ubica en la intersección de las ciencias de la computación y la estadítica.

    Es la piedra fundamental de los motores de búsqueda, los filtros colaborativos usados para recomendación personalizada, la traducción automática, el reconocimiento de voz y de imágenes, etc.

    Esta materia presenta los elementos fundamentales que constituyen el cuerpo teórico-práctico esencial de las técnicas de aprendizaje automático.

    En particular, el curso cubre los diferentes enfoques y algoritmos básicos de aprendizaje supervisado y no supervisado, así como su utilización práctica para el análisis predictivo de grandes volúmenes de datos.

  • Deep learning con grandes volúmenes de datos

    Uno de los problemas fundamentales en aprendizaje automático es la representación del conocimiento. Las técnicas y modelos de aprendizaje profundo constituyen un paradigma cuyo factor central es la representación de modelos complejos mediante la composición de representaciones más simples.

    Esta materia presenta los modelos fundamentales de aprendizaje profundo, en particular, diferentes tipos de redes neuronales artificiales (multicapa, convolucionales, recurrentes, etc.), así como una metodología de aplicación práctica, basada en herramientas como TensorFlow.

  • Taller de aprendizaje automático

    El objetivo de este taller es experimentar con herramientas de machine/deep learning para resolver problemas de análisis de datos en diversas áreas de aplicación, tales como procesamiento de lenguaje natural, reconocimiento de patrones en imágenes, diagnóstico médico, detección de spam, etc. Se utilizarán herramientas basadas en los lenguajes R y/o Python.

    El taller consistirá en la realización de proyectos grupales bajo la supervisión de tutores expertos, orientados a resolver desafíos relacionados con la aplicación de técnicas de machine learning para analítica de problemas complejos.

  • Agentes inteligentes

    Esta materia presenta una introducción al problema de desarrollar agentes inteligentes que interactúan a lo largo del tiempo con un entorno, percibido de manera aproximada.

    Estos deben aprender a tomar acciones que modifican el ambiente guiados por una función de utilidad a maximizar.

    Se estudian los fundamentos del aprendizaje por refuerzos como enfoque computacional para resolver el problema planteado.

    Se utiliza el marco formal de los procesos de decisión de Markov para definir la interacción entre un agente y su entorno en términos de estados, acciones y recompensas.

    Este marco permite modelar relaciones de causa y efecto, la incertidumbre y el no determinismo, y utilidades numéricas explícitas.

  • Sistemas multiagente

    Esta materia aborda la problemática del aprendizaje por refuerzos para sistemas con múltiples agentes.

  • Taller de inteligencia artificial

    El objetivo de este taller aplicar los conocimientos adquiridos en casos de estudio prácticos. Se utilizarán herramientas basadas en Python, en particular OpenAI.

  • Taller de deep learning

    El objetivo de este taller es experimentar con herramientas de deep learning para resolver problemas de procesamiento de lenguaje natural, reconocimiento de patrones en imágenes, diagnóstico médico, detección de spam, etc. Se utilizarán herramientas basadas en Python.

  • Desarrollo de aplicaciones escalables en la nube

    Este curso tiene como objetivos introducir y aplicar los conceptos de computación en la nube como pilares para la construcción de la nueva generación de sistemas, que soportará la actividad de las organizaciones que basan su operación y su desempeño en el uso inteligente y óptimo de la tecnología.

  • Optimización aplicada al aprendizaje automático

    Las formulaciones y métodos de optimización están demostrando ser de vital importancia en el diseño de algoritmos de aprendizaje automático para extraer conocimiento en grandes volúmenes de datos.

    El aprendizaje automático, sin embargo, no es simplemente un consumidor de tecnología de optimización, sino un campo en rápida evolución que es en sí mismo generador de nuevas ideas y técnicas de optimización.

    Este curso desarrolla los métodos de optimización esenciales en aprendizaje automático para el análisis de datos

  • Análisis predictivo de series temporales

    Los datos en forma de series de tiempo surgen en diversas áreas, como la economía, las ciencias sociales, etc. El creciente interés en el análisis de series de tiempo en los últimos años es consecuencia de su amplia aplicabilidad como herramienta para el modelado de sistemas dinámicos y la predicción y el control del comportamiento de dichos sistemas.

    Este curso está destinado a presentar los modelos básicos, métodos y conceptos de análisis de series temporales. La presentación será equilibrada entre teoría y práctica. Se pondrá énfasis en el desarrollo y evaluación de modelos y pronósticos en aplicaciones prácticas a través de casos de estudio y en el uso de herramientas informáticas existentes.

Los estudiantes podrán obtener los títulos de Diploma de Especialización en Inteligencia Artificial y/o Diploma de Especialización en Analítica de Big Data en caso de cumplir, durante la realización del Master, con los requisitos de graduación exigidos por cada uno de los postgrados.

Las asignaturas deben considerarse todas como electivas. Por ende, el plan de estudios podrá variar con el tiempo mediante el agregado de otras asignaturas electivas, acompañando la evolución del campo del conocimiento.

Duración:

  • La duración mínima para completar el Master en Big Data es de 2 años.

Formulario de contacto

Te invitamos a completar el siguiente formulario para solicitar una reunión con un asesor académico, quien te ayudará a disipar tus dudas y te informará sobre todos los detalles de la carrera de tu interés.