El Trabajo de Fin de Grado (TFG) o Máster (TFM) no deja de ser una asignatura necesaria para la finalización de los estudios universitarios de los alumnos. Suele consistir en la realización de un trabajo original que el alumno, guiado por su tutor, debe realizar. En él debe demostrar que han sido asimilados todas las capacidades y conocimientos del plan de estudios . Por ello, el trabajo debe ser lo más amplio posible, tratando de ser transversal a muchas de las asignaturas cursadas a través de la carrera académica.
Por todo lo anterior, la realización de una investigación científica durante el proceso de creación del trabajo de fin de grado no suele ser habitual. No obstante, la unión de la investigación con los TFG y TFM puede ser tremendamente enriquecedor, tanto para el alumno como para los tutores.
En esta entrada del blog presentamos uno de estos proyectos, realizador por el alumno Alejandro González Rogel y los tutores Álvar Arnaiz González y Carlos López Nozal. Desde el primer momento, las piezas del equipo encajaron y el engranaje pudo funcionar con resultados más que notables.
Durante el TFG se siguió la metodología ágil Scrum, una técnica especialmente útil en proyectos con tanta incertidumbre como puede ser el expuesto. El trabajo lleva por título: Paralelización de algoritmos de selección de instancias con la arquitectura Spark. El trabajo tenía un alto componente tecnológico, tanto por la plataforma de procesado paralelo (Apache Spark) como por el lenguaje escogido para su programación (Scala), y un profundo background teórico.
En el proyecto, aparte de la implementación de los algoritmos y de las interfaces necesarias para su puesta en marcha, se realizó una tarea de análisis y lanzamiento de pruebas en entornos paralelos que fueron: Google Cloud Dataproc y servidores propios de la universidad. Fue presentado en febrero ante el Tribunal.
En este punto es donde la mayoría de TFG y TFM suelen finalizar su ciclo de vida, quedando archivados en Biblioteca y pudiendo ser más o menos accesibles dependiendo de las diversas universidades. Es aquí donde la labor de los tutores toma especial relevancia, pudiendo dar mayor visibilidad al mismo y continuando con la labor formativa y divulgadora. Existen multitud de foros de difusión al alcance: congresos nacionales, internacionales, revistas, etc. En este caso concreto, se eligió el Simposio Teoría y Aplicaciones de Minería de Datos (TAMIDA 2016) celebrado en septiembre de 2016 en Salamanca. La elección de esta conferencia fue debido a su relación con el proyecto, en el artículo científico preparado, se explicó la implementación realizada y se llevó a cabo una prueba de rendimiento sobre un servidor Spark.
La ponencia fue realizada por el investigador Álvar Arnaiz González y se encajó en la 3ª sesión de la TAMIDA centrada en Big Data, teniendo una gran acogida entre los asistentes. Con ello se dio por finalizado una etapa del pequeño camino que empezó con un TFG y que dio como resultado una ponencia en un congreso científico nacional. De ahora en adelante se abre un amplio abanico de posibilidades basados en este TFG: nuevos trabajos, ampliar su funcionalidad, estudios experimentales, entre otros. Por ello, desde DIGIT animamos a dar un valor añadido a los TFG y TFM para que no sólo sean un trámite para el alumno, sino que aporte valor a su carrera profesional y sirva como instrumento para la investigación científica.
Información adicional:
- Repositorio público con el código fuente: https://bitbucket.org/agr00095/tfg-alg.-seleccion-instancias-spark
- Artículo ciéntifico presentado en TAMIDA 2016: accesible aquí.
- Artículo divulgativo en ERCIM enero 2017 : accesible aquí
- Grupo de investigación ADMIRABLE
No hay comentarios:
Publicar un comentario