Trabajos finales de carrera de postgrado
Permanent URI for this collection
Estos trabajos de fin de carrera son obras producidas por estudiantes, que se originan en los procesos formativos de la universidad.
Tienen propósitos culturales y educativos. No son productos comerciales y su difusión pública no está autorizada.
Browse
Browsing Trabajos finales de carrera de postgrado by Subject "BIG DATA"
Now showing 1 - 20 of 20
Results Per Page
Sort Options
Item Análisis e implementación de técnicas de “Batch Reinforcement Learning” pasivo para aplicación sobre casos reales(Universidad ORT Uruguay, 2021) Derderian Dostourian, Mariana; Milano Taibo, José Germán; Mottini d'Oliveira, Bruno Luis; Yovine, Sergio Fabián; Mayr Ojeda, Franz; Gravano, Agustin; Olloniego Rocca, Juan AndrésEl presente trabajo final tiene como objetivo investigar las posibilidades que brinda la Inteligencia Artificial. En particular, se focaliza en analizar las diferentes técnicas de “Batch Reinforcement Learning” pasivo. Su implementación buscará abordar un caso de uso real basado en sistemas de recomendación. Esto implicó la realización de una evaluación de los diferentes algoritmos capaces de resolver esta y otras problemáticas, así como también las diferentes opciones de métricas de desempeño que pueden ser implementadas. Así, se buscará generar un marco de referencia para la aplicación de “Batch Reinforcement Learning”. El mismo abordará los siguientes pilares fundacionales: tratamiento del conjunto de datos, los algoritmos y posibles métricas de desempeño. Estos puntos forman un grupo indispensable para la aplicación de la técnica antes mencionada. Estos tres pilares se abordarán desde distintas ópticas. Por una parte, en lo que refiere a conjunto de datos, se utilizarán algoritmos que permitirán generarlos para mantener un escenario de pruebas controlado, sobre el cual puedan desarrollarse distintos experimentos. Por otra parte, se explorarán algoritmos que se consideran las bases para la aplicación de “Batch Reinforcement Learning” pasivo (e.g. Neural Fitted Q-Iteration), todos ellos basados en redes neuronales artificiales. Por último, será necesario evaluar métricas de desempeño que permitan conocer si un agente logró aprender a resolver la tarea propuesta. Finalmente, se dejan sentadas las bases para poder aplicar dichas técnicas a un caso real sobre una temática relevante en la industria: sistemas de recomendación.Item Análisis y desarrollo de modelos predictivos con redes neuronales para Web Application Firewall(Universidad ORT Uruguay, 2020) Biardo Mirenda, Deborah; González Quintana, Guzmán; Lanzotti Filardi, Sabrina Leticia; Fabián Yovine, Sergio; Pisani Leal, Mikaela; Garbarino Alberti, HelenaLos datos manejados en las organizaciones son valiosos para la realización de múltiples investigaciones, sin embargo, poseen información personal que debe ser protegida. Por este motivo, anonimizar los datos es una tarea de vital importancia. Esto implica privatizarlos sin restarles poder informativo al momento de ser analizados. El siguiente trabajo final presenta una solución para proteger esta información personal desarrollando un modelo predictivo basado en el modelo bolsa de palabras (Bag of Words, BoW) y redes neuronales. El fin es realizar una tarea de “ciberseguridad” predictiva a partir de datos no privatizados que permita la clasificación de los identificadores de recursos uniformes (URI por sus siglas en inglés) como normales o anómalas. Se analizaron investigaciones previas referidas a esta temática utilizándose los conjuntos de datos empleados para la obtención de un conjunto de URI. A partir del conocimiento del dominio experto, se construyó una bolsa de palabras para cada “URI” que contiene la frecuencia de cada conjunto de caracteres (“keys” expertas) asociados a ataques informáticos y se añadieron caracteres adicionales al dominio experto. Se utilizó Perceptrón multicapa (MLP por sus siglas en inglés), entrenados para cada conjunto de datos por separado y luego para un único conjunto de datos. Para evaluar el modelo se emplearon técnicas como matriz de confusión, análisis y comparación de métricas “True Positive Rate” (TPR) y “True Negative Rate” (TNR) y curvas de aprendizaje. Se aplicaron técnicas como Frecuencia de término-Frecuencia inversa de documento (Tf-idf por sus siglas en inglés), utilizando los conjuntos de caracteres identificadas como “tokens”. Luego mediante la extracción de características se obtuvieron “tokens” en forma dinámica en modalidad de unigrama, bigrama y mixta. El mejor resultado obtenido fue con el modelo de TF-IDF: “Feature Extraction” Unigrama. Finalmente se aplicaron técnicas de métodos combinados como “stacking” y “majority voting”, pero no generaron mejores resultados que los del modelo TF-IDF: “Feature Extraction” Unigrama.Item Anticipando la fuga de clientes(Universidad ORT Uruguay, 2023) Abisab Prinzo, Nazim; Lembo Cóppola, Yanina; Oliari Ciaponi, Luis Emilio; Bianchi, Alejandro; Espinosa, Marcelo; Mora Riquelme, Hugo AndrésEn el siguiente trabajo final se desarrollan conceptos teóricos de aprendizaje automático, la generación de algoritmos de aprendizaje supervisado y no supervisado que permiten predecir el comportamiento. En este caso, un algoritmo capaz de predecir el comportamiento de los clientes de una empresa que presta servicios a otras empresas (B2B), así como también la agrupación de estos en base a características comunes. Se realizó un entendimiento general de la empresa cliente. Luego se investigaron técnicas de aprendizaje automático para abordar la problemática de fuga de clientes en una empresa de servicios, se desarrollaron y testearon algoritmos para predecir el “Churn rate”, que es la métrica que mide el número de clientes y suscriptores que han dejado de seguir a una compañía. Se compararon los resultados de los diferentes algoritmos con la métrica de Curva de ROC. Luego de haber llegado a un algoritmo aceptable, se continúa aplicando técnicas de aprendizaje no supervisado para el análisis de grupos de los clientes y en base a una combinación de estas métricas, desarrollar conclusiones. Se aplicó lenguaje de programación Python para los algoritmos de aprendizaje supervisado y no supervisado, Power Query para transformación inicial de variables del conjunto de datos y Power BI para la extracción de conclusiones de clientes. Los resultados obtenidos para la predicción fueron más que satisfactorios. Se crearon tres grupos de clientes, número óptimo según el análisis realizado. Como conclusión se realizaron recomendaciones a la empresa para mejorar el manejo y gobernanza de datos, la interpretación de resultados, las técnicas y algoritmos a aplicar.Item Aprendizaje reforzado para la priorización de casos de prueba en el testing de regresión de los servicios de la API de Bantotal(Universidad ORT Uruguay, 2021) Alvarez Cernicchiaro, Gabriel Luis; Begerez Oyhenard, Marcos Adrian; Bonifacino Belzarena, Lucía; Yovine, Sergio Fabián; Braberman, Victor Adrian; Bianchi, Alejandro; Gravano, AgustinEl objetivo de este trabajo final es implementar un Mínimo Producto Viable (MVP, Minimum Viable Product) de una herramienta que mediante el uso de Inteligencia Artificial asista en el testing de regresión de la API de la plataforma bancaria Bantotal. Con este fin, se analizaron un conjunto de trabajos en los cuales se utiliza la Inteligencia Artificial con el mismo objetivo. Entre ellos se escogió el trabajo “Reinforcement Learning for Test Case Prioritization” de Bagherzadeh et al.; el mismo se enfoca en la priorización de casos de prueba. Se comparan distintas técnicas de priorización utilizando aprendizaje reforzado y concluyendo en la elección de una de las alternativas como la mejor. Se complementó el enfoque anterior en base al trabajo “Learning-to-Rank vs Ranking-to-Learn: Strategies for Regression Testing in Continuous Integration” de Bertolino et al., que ofreció una visión de la implementación de estas estrategias en pruebas de regresión, en un contexto de un sistema en producción similar al que estamos enfocando. Este trabajo muestra la viabilidad de la solución planteada a través del desarrollo del MVP. Asimismo, permite validar las virtudes de diseño del modelo presentado en este trabajo que lo hacen adaptables a sistemas en producción de la industria como es el caso de Bantotal. La solución planteada mejora las capacidades de pruebas de regresión de la API de Bantotal y los resultados obtenidos en este trabajo son muy alentadores.Item Document Assistant(Universidad ORT Uruguay, 2022) Eiris Campomar, Nicolás Antonio; Otte Fernández, Sebastián Andrés; Fiori Iribarnegaray, Ignacio; Mayr Ojeda, Franz; Milano Taibo, José Germán; Rodriguez Pedreira, Juan AndrésEl presente trabajo final se centra en la optimización del proceso contable asociado a la digitalización de facturas en papel. Se detectó la necesidad insatisfecha en empresas de distintas industrias en lo que refiere a la digitalización y posterior extracción de información relevante de documentos físicos, lo cual motivó la realización de este proyecto. El alcance del proyecto a nivel de negocio busca obtener una primera versión de la solución con funcionalidades básicas, para luego poder continuar iterando con el fin de experimentar la reacción del mercado ante la aparición de este producto. En lo que refiere a la solución, se integran tecnologías de inteligencia artificial junto a herramientas de software clásicas para la implementación, logrando un producto capaz de ser utilizado en producción. Las funcionalidades claves de esta primera versión, son agrupar facturas por proveedor así como también la extracción de información relevante para su posterior proceso contable. Se construyó un producto “end-to-end” capaz de aportar valor a los procesos contables asociados a la digitalización de facturas en papel. Los próximos pasos refieren a refinar la arquitectura para poder instalar el sistema en producción y comenzar a procesar documentos en la operativa de empresas reales.Item Elaboración de modelo de clasificación para la detección de transacciones fraudulentas realizadas con tarjetas de crédito en ambiente de tarjeta no presente(Universidad ORT Uruguay, 2021) Peña Toledo, Maximiliano; Milano Taibo, José Germán; Villalba González, Juan Ignacio; Yovine, Sergio FabiánEl presente trabajo final tiene como objetivo lograr la creación de un modelo predictivo para la clasificación de las transacciones con tarjeta de crédito, realizadas en un ambiente de tarjeta no presente en transacciones fraudulentas y transacciones no fraudulentas. La búsqueda de un modelo que cumpla con las pretensiones exigidas por el mercado actual, se realizará utilizando lenguaje de programación Python, por medio de técnicas de aprendizaje automático supervisado con la prueba de tres algoritmos diferentes: Random Forest, Extreme Gradient Boosting y Artificial Neural Networks. Esta búsqueda del modelo inicia con el análisis y exploración del conjunto de datos, seguido por la implementación, entrenamiento y prueba de los modelos, culminado con la selección de uno de éstos en función de ciertas métricas de evaluación. Finalmente, se comentarán las posibilidades para la implementación del mejor modelo seleccionado por parte de cualquier institución emisora de tarjetas de crédito que le parezca conveniente su utilización.Item Evaluación de algoritmos de aprendizaje automático en la predicción de carnicerías y locales de venta al público infractores en el mercado uruguayo de carnes y derivados(Universidad ORT Uruguay, 2021) Bernheim Portela, Gastón Louis; Ferragut Varela, Ruben Andrés; Álvarez Castro, Ignacio; Yovine, Sergio FabiánEl Instituto Nacional de Carnes (INAC) tiene el cometido de garantizar la calidad e inocuidad en el mercado de carnes y sus derivados. En el mercado doméstico operan 2.500 carnicerías y 460 vehículos habilitados en todo el país. Dados los recursos inspectivos con los que cuenta el país cada establecimiento es visitado, en promedio, una vez por año. De esta forma, la identificación de potenciales establecimientos infractores es un aspecto crucial para minimizar los impactos negativos en el bienestar de la población y costos económicos asociados. En el presente trabajo final se desarrollan modelos de clasificación mediante técnicas de aprendizaje automático supervisado para predecir establecimientos infractores. Para ello, se utiliza un conjunto de datos generado que incluye características comerciales de la mayor parte de los puntos de venta del país. Los modelos estimados se basan en regresiones logísticas, redes neuronales artificiales y árboles de decisión. El análisis realizado permite comprender la relevancia de determinadas características comerciales y su impacto en la probabilidad de que un establecimiento habilitado para la venta de carne y derivados en Uruguay sea considerado infractor. Se destaca la incidencia de variables como la ubicación, el tipo y modalidad de carnicería, así como la venta de determinados productos específicos. No obstante, la capacidad predictiva alcanzada por los modelos es insuficiente para clasificar establecimientos infractores de manera certera. De esta forma, se realiza una propuesta de muestreo con el objetivo de maximizar la probabilidad de detectar establecimientos infractores.Item Identificación de la Región de interés en imágenes DICOM basado en Inteligencia Artificial(Universidad ORT Uruguay, 2021) Méndez Varela, Matías; Muñoz Bayona, Juan Pablo; Cecilia Delgado, Leonardo Raúl; Olloniego Rocca, Juan Andrés; Sorozabal Silva, Matías NicolásEl presente trabajo aborda la identificación de regiones de interés en imágenes médicas mediante el uso de técnicas de “deep learning”. Se comienza presentando el estado del arte del dominio del problema, analizando diferentes propuestas publicadas para luego realizar una selección de dos arquitecturas que finalmente se implementan. Dichas arquitecturas se prueban con dos “datasets” diferentes para establecer una comparación entre ellas; por un lado se usan imágenes de mamografías y por otro resonancias magnéticas de cerebros, siendo las regiones de interés posibles lesiones o tumores. Además, en el proceso se investiga y se usa el estándar de imágenes médicas DICOM.Item Implementación de las prácticas de MLOps para PATE(Universidad ORT Uruguay, 2022) Ramas Gaetán, Javier Oscar; Rodríguez Cabana, Antonia Betina; Zanotta Gallino, Sebastián; Pisani Leal, Mikaela; Visca Zanoni, Ramiro Eugenio; Espinosa, MarceloUno de los desafíos más importantes a la hora de compartir datos para entrenar modelos predictivos de inteligencia artificial es la protección de la información. El presente trabajo final surge como una investigación con el fin de validar la aplicación de MLOps (Operaciones de aprendizaje automático, en español) en el contexto de técnica PATE (“Private Aggregation of Teacher Ensembles”). Para ello se ha llevado a cabo un estudio del estado del arte, se han analizado herramientas de MLOps y posibles escenarios de implementación junto a su gobernanza y herramientas de intercambio de información de manera segura entre los actores del sistema (PySyft). Como resultado de este trabajo final se logró el análisis de cuatro herramientas de MLOps y la descripción detallada de una de ellas para el contexto definido. El trabajo permitió validar que todas las herramientas poseen pocas diferencias entre sí y podrían ser utilizadas. Se concluyó que PySyft en su versión 0.6. permite el intercambio de información de manera segura entre los actores del sistema. En base a la experiencia obtenida, podemos asegurar que se podría implementar la herramienta de PATE con PySyft y utilizar MLOps para optimizar tiempos y recursos al momento de hacer la comprobación de la función implementada. Se plantea cómo generar un entorno que contemple a todos los participantes incorporando PATE.Item Investigación de Amazon SageMaker como plataforma de aprendizaje automático en la nube para moderación de opiniones en PedidosYa(Universidad ORT Uruguay, 2021) Alonso Rodríguez, Jorge Fabricio; Esteves Petrarca, Martín Olavo; Pisani Leal, Mikaela; Yovine, Sergio Fabián; Mayr Ojeda, FranzEl presente trabajo final tiene como objetivo analizar el "framework" SageMaker provisto por Amazon para la automatización de proyectos de aprendizaje automático. Se describe un caso de negocio sobre la moderación de opiniones en PedidosYa, (plataforma de pedidos en línea líder en Latinoamérica), y modela la solución al caso como un problema de aprendizaje automático supervisado. La parte central del trabajo consiste en la investigación de Amazon SageMaker con un enfoque basado en la experimentación, donde se llevan adelante seis pruebas de concepto sobre las herramientas necesarias para la solución propuesta. Como resultado se logra una implementación que sirve de punto de partida para solucionar el problema planteado. Además, el trabajo de investigación permitió validar la utilidad de Amazon SageMaker para proyectos de ciencia de datos y aprendizaje automático en organizaciones. Se concluye que Amazon SageMaker es una plataforma adecuada no solamente para resolver el caso de negocio descrito sino que es altamente recomendada para organizaciones que lleven adelante proyectos de aprendizaje automático donde la escala y el rendimiento son factores clave. Por último, se plantean dos líneas para continuar el trabajo realizado, la primera con el objetivo de llevar a PedidosYa la implementación alcanzada y la segunda con el objetivo de continuar el desarrollo profesional del equipo.Item Investigación e implementación de sistemas de recomendación para e-commerce de ropa(Universidad ORT Uruguay, 2021) Rytt Duek, Alan Raphael; Rodríguez Velázquez, Gonzalo Hernán; Young Mendiola, Federico Manuel; Quintana Izzi, Alexis Franklin; López, Fernando; Laborde, Sebastián; Yovine, Sergio FabiánEl siguiente trabajo final presenta una investigación sobre los sistemas de recomendación en el comercio electrónico (e-commerce) del rubro vestimenta. Estos sistemas tienen como objetivo mejorar la experiencia de los usuarios al brindar un contenido personalizado en función de los intereses y análisis de patrones de comportamiento, permitiendo mediante ello un aumento de la tasa de conversión. Los avances en inteligencia artificial y aprendizaje automático han permitido la adaptabilidad de estos sistemas a cualquier ecosistema electrónico. En este trabajo se estudia el estado del arte desde varios enfoques: filtrado colaborativo, filtrado basado en contenido y sistemas híbridos. Se plantea como objetivo obtener la cantidad de recomendaciones más relevantes y personalizadas de prendas por usuario. Dentro de este marco se realizó la experimentación de varios algoritmos, se explica el funcionamiento de cada uno, sus ventajas y desventajas. Entre los algoritmos que se trabajaron se encuentran: “Market-basket”, contenido basado en NLP (natural language processing), contenido basado en atributos, KNN (k-nearest neighbors), matriz de similitud, basados en factorización matricial y diferentes variantes de sistemas híbridos. Para medir el rendimiento se utilizó F1 y Mar@k (Mean Average Recall at K). Esta última métrica tiene la particularidad de contemplar el orden de relevancia de los productos recomendados según la preferencia predicha para el usuario. El mejor resultado fue obtenido con el modelo “Switching hybrid” el cual mejoró un 15% sobre el valor inicial planteado. En líneas generales, los algoritmos basados en contenido mostraron una mejor performance que los colaborativos. Adicionalmente, se logró una leve mejora en los algoritmos de contenido con la implementación de los motores híbridos.Item Mapeo sistemático y evaluación de arquitecturas de software para contextos de big data(Universidad ORT Uruguay, 2018) Russo Ibañez, Juan Pablo; Solari Buela, Martín; Fornaro Rosado, Carlos Nicolás; Astudillo Rojas, Hernan EnriqueBig data es la información caracterizada por un volumen, velocidad y variedad alta de datos que requieren métodos analíticos y tecnologías específicas para poder ser gestionados y transformados en valor agregado para el usuario. El mercado de servicios de big data ha comenzado a crecer sostenidamente en los últimos años. Sin embargo, su rápido crecimiento trae varios desafíos a superar para la ingeniería de software. Las arquitecturas de software se vuelven relevantes en este contexto donde los estilos y patrones tradicionales no son suficientes para el diseño y desarrollo de software. Esta tesis tiene como objetivo explorar los desafíos y prácticas utilizadas durante el proceso de diseño arquitectónico en contextos de big data. En primer lugar, se realizó un mapeo sistemático de la literatura para identificar y categorizar propuestas de arquitecturas de software. Luego se profundiza la evaluación de dichas arquitecturas para identificar, describir y discutir el impacto de un conjunto de tácticas arquitectónicas sobre los atributos de calidad propios de big data. Se concluye que existen una variedad de propuestas de arquitectura de software industriales, teóricas y de referencia para big data. Estas propuestas muchas veces difieren en las capas y la separación de responsabilidades, por lo que dificulta al practicante diseñar una solución que se adapte a su contexto de uso. Por otra parte, los resultados del análisis de estas arquitecturas indican la existencia de requerimientos complejos, similares a los encontrados en sistemas distribuidos, pero a mayor escala, determinados por las características de gran volumen, variedad y velocidad de datos. Estos resultados muestran la oportunidad de buscar mejoras al proceso del diseño arquitectónico, adoptando prácticas como el uso de tácticas de arquitectura, para capturar las decisiones de diseño propias de big data.Item Modelado de carga de trabajo de una plataforma analítica para la predicción de la demanda de capacidad de cómputo(Universidad ORT Uruguay, 2022) Martínez Barja, Aníbal Mauricio; Silveira Antelo, Marcos Alberto; Ferragut Varela, Ruben Andrés; Yovine, Sergio Fabián; Noguez Piacentini, Juan IgnacioEste trabajo final busca analizar la carga de trabajo de cómputo de una plataforma analítica cloud de uso masivo. En base a los análisis realizados se pretende generar modelos predictivos utilizando diferentes técnicas para obtener predicciones de la demanda que se ejerce sobre la plataforma. Esto posibilita la optimización de los recursos lo que repercute en la disminución de costo por el uso del servicio cloud. Además del análisis se pretende desarrollar pruebas de concepto a partir de distintas técnicas de análisis de series temporales clásico, modelos de Markov escondidos y redes neuronales. El trabajo contiene el análisis detallado que se efectuó poniendo en práctica cada una de las técnicas mencionadas describiendo paso a paso las acciones y decisiones que se tomaron.Item Nexden(Universidad ORT Uruguay, 2021) Carbonell González, Ignacio; Espinosa Peralta, Carlos Marcelo; Trocki Beitler, Victor; Bianchi, Alejandro; Bonillo Ramos, Pedro Nolasco; Yovine, Sergio FabiánEl presente trabajo final tiene como objetivo generar una prueba de concepto para una solución de servicios tecnológicos basados en conocimiento y explotación de datos, para una empresa dedicada a la distribución de alimentos en zonas carenciadas. Se trata de resolver el problema de la asignación y despacho de rutas para la distribución, en un contexto donde los servicios de geolocalización que son utilizados por la empresa carecen de información confiable sobre las zonas periféricas o alejadas de los centros más poblados. Luego de un análisis de los datos que dispone la empresa se seleccionó un subconjunto de los mismos con aquellos que resultaron más relevantes. A partir de los mismos se elaboraron un conjunto de herramientas que permiten agregar a la información de los servicios existentes “una capa” de conocimiento capaz de capturar aquella información definida como relevante para el negocio con el objetivo de poder clasificarlas como mejores o peores rutas en consideración de lo que resulta relevante para la empresa (distancia, estado, composición, restricciones, etc.). Se realizó como parte del trabajo, un análisis detallado de las fuentes de datos proporcionados por la empresa de forma de tener una idea clara del grado de profundidad y calidad que se puede obtener de la implementación de una solución de estas características en el momento actual y futuro. También se realizaron recomendaciones pertinentes en el caso de que se quisiera profundizar en las soluciones presentadas en este trabajo.Item NOVADOC(Universidad ORT Uruguay, 2023) Conde Vitureira, Gabriela Elizabeth; Morás Muracciole, Carlos Rodrigo; Mora Riquelme, Hugo Andrés; Espinosa, Marcelo; Bianchi, AlejandroEl Banco Central del Uruguay (BCU) es responsable de regular y supervisar las entidades y actividades financieras, plasmando en resoluciones su voluntad respecto del mejor funcionamiento del sistema. Estas resoluciones se encuentran disponibles en la web institucional en formato PDF, lo que dificulta su búsqueda y extracción de información. El objetivo de este trabajo final es crear una herramienta llamada NOVADOC que extraiga y almacene la información relevante en un formato estructurado, permitiendo búsquedas según patrones de lenguaje y siendo fácil de usar para los usuarios. La herramienta utiliza técnicas de Big Data como RPA, OCR, MongoDB y NLP, y se desarrolló siguiendo la metodología SCRUM. NOVADOC ha sido exitosamente implementada en el BCU, con un gran número de usuarios que la utilizan y reportando tiempos de búsqueda más cortos que otras alternativas de software.Item Predicción usando Machine Learning del estado del biomarcador genético Metil guanina metil transferasa (MGMT) para el tratamiento de tumores cerebrales(Universidad ORT Uruguay, 2022) Cohen Oks, Tanya Karen; Yovine, Sergio Fabián; Galmarini, Carlos María; Sanguinetti Acosta, Carlos JulioEl siguiente trabajo final se sitúa en el contexto general de la aplicación de algoritmos de aprendizaje automático en el ámbito de la salud. Un tumor maligno en el cerebro es una afección potencialmente mortal. Conocido como glioblastoma, es la forma más común de cáncer cerebral en adultos y la que tiene el peor pronóstico, con una media de supervivencia de menos de un año. En este trabajo se aborda el problema de la predicción de información genética, estudiando el contexto del estado del arte en radiogenómica y su aplicación concreta en la predicción de la metilación del gen MGMT. El gen MGMT está localizado en el cromosoma 10q26 y codifica para una enzima reparadora del ADN que remueve grupos alquilo en la posición O de la guanina. Estos grupos O alquilos en la guanina, producen que las hebras de ADN se rompan y las bases no se acoplen, induciendo la apoptosis o muerte celular. El gen MGMT protege a las células normales de arcinógenos. Actualmente, el análisis genético del cáncer requiere cirugía para extraer una muestra de tejido. Luego puede tomar varias semanas determinar la caracterización genética del tumor. Dependiendo de los resultados y el tipo de terapia inicial elegida, puede ser necesaria una cirugía posterior. Si se pudiera desarrollar un método preciso para predecir la genética del cáncer a través de imágenes (es decir, mediante lo que se conoce como “radiogenómica“) se podría minimizar el número de cirugías y refinar el tipo de terapia requerida.Item Proyectos de big data en organizaciones actuales(Universidad ORT Uruguay, 2021) Saldías Mironenko, Juan Ignacio; Bianchi, Alejandro; Bonillo Ramos, Pedro Nolasco; Yovine, Sergio FabiánEl siguiente trabajo final aborda la problemática de la incorporación de las tecnologías de Big Data en instituciones financieras, enfocándose concretamente como caso de estudio, en la implementación de un sistema de información de gestión del negocio de las tarjetas de crédito en un banco internacional que opera en plaza. En el informe se manifiestan los desafíos de gobernanza de TI y datos que deben enfrentarse. Se describe la administración del negocio de las tarjetas de crédito, sugiriendo posibles caminos de solución, ilustrando su potencial explotación para el análisis de datos en el contexto de un CRM (Customer Relationship Management). A los efectos de enriquecer este análisis, se expone un ejemplo simplificado de cómo podría acoplarse la organización en los activos de información logrados con la implementación del CRM de tarjetas para seguir agregando valor al negocio. Para ello se mostrará el proceso de implementación de un algoritmo basado en la información del CRM de tarjetas.Item Prueba de concepto del "framework" de "OpenMined" para modelos de "Machine Learning"(Universidad ORT Uruguay, 2021) Ampuero Velando, Pablo; Sánchez Salvagno, Julio Faustino; Yovine, Sergio Fabián; Garbarino Alberti, Helena; Pisani Leal, MikaelaEl siguiente trabajo final tiene como objetivo analizar el “framework” provisto por “OpenMined” como solución a los problemas de privacidad y acceso a múltiples conjuntos de datos que manejan los modelos de Aprendizaje Automático (“Machine Learning”) e Inteligencia Artificial, los cuales mayoritariamente son generados en forma centralizada debido a las limitaciones mencionadas. Se propone el concepto de «Descentralización de la Información» en forma segura y con las garantías para el mantenimiento tanto de la privacidad de los datos como de la calidad de los modelos. Las soluciones se basan en el uso de técnicas de “Federated Learning” (FL), “Homomorphic Encryption” (HE) y “Decentralized Learning” (DL). Se propone utilizar el “framework” provisto por “OpenMined” para generar un modelo de clasificación de detección de ataques maliciosos creando modelos para el análisis de errores y comportamiento en “logs” de “Apache Web Servers”, ya que estos contienen información sensible. Se estudia la robustez y limitaciones de los algoritmos planteados por el “framework” en cuanto a cómo anonimizar los datos y marcos de gobernanza mediante una prueba de concepto. A partir de dicha prueba se concluye que el “framework” garantiza que no se pueden identificar registros específicos a partir de las técnicas usadas de “Homomorphic Encryption”. La funcionalidad de la creación de usuarios y de un sistema de permisos sobre los datos publicados no cuenta al momento de la entrega de este trabajo con un mecanismo firme para la gobernanza de datos. En la implementación realizada el “framework” no presenta mayor complejidad al momento de ser utilizado por el “Data Science” con respecto al modelo de referencia utilizado. Tampoco se observaron impactos negativos en la calidad de los resultados. Es un “framework” en construcción por lo que se espera continuar ampliando las funcionalidades disponibles, entre ellas el entrenamiento remoto, que está en desarrollo y la función de activación de la red, en la cual se tuvo que aplicar la unidad lineal rectificada (ReLU, por sus siglas en inglés).Item Sistema de tarifado dinámico en near-to-real-time para Smart Parkings(Universidad ORT Uruguay, 2022) Bonillo Valero, Pedro Jesus; Díaz Baraibar, José Eduardo; Mattos León, Juan Diego; Quintana Izzi, Alexis Franklin; Espinosa Peralta, Carlos Marcelo; Martínez Varsi, NicolasEl presente trabajo final nace con el objetivo de optimizar las búsquedas de lugares para estacionar y poder reducir todas estas problemáticas que este proceso conlleva. Como meta principal se pretende diseñar e implementar una arquitectura con elementos de IoT, Big Data y Machine Learning capaz de procesar un gran volumen de datos estructurados relacionados a estacionamientos inteligentes. También poder ofrecer una solución real que ahorre los tiempos del proceso de estacionar un vehículo, al mismo tiempo que sea una solución tentadora para la gerencia del estacionamiento que le permita incrementar sus ingresos mediante tarifas dinámicas. El procesamiento será en tiempo real y tendrá una interfaz de usuario capaz de desplegar distintas formas de visualizar información de interés, ya sea capacidad total y disponibilidad de los parkings, características de los distintos estacionamientos y tarifado dinámico. Los atributos de calidad manejados por la arquitectura implementada serán la escalabilidad, tolerancia a fallos, performance y disponibilidad.Item Uso de Neo4J como base de datos orientada a grafos para la gestión de información de paradas, recorridos y viajes del Sistema de Transporte Metropolitano (STM) de la Ciudad de Montevideo, Uruguay(Universidad ORT Uruguay, 2021) Peirano Facal, José Enrique; Rojas Cardona, Juan Camilo; Romero Calabria, Uruguay Augusto; Gabito Decuadra, Juan Emilio; Yovine, Sergio Fabián; Pisani Leal, Mikaela; Belletti Longarzo, CeciliaEl presente trabajo final plantea la utilización de Neo4j para explotar los datos de movilidad de pasajeros del Sistema de Transporte Metropolitano (STM) de Montevideo, Uruguay. Se analizaron otros estudios disponibles sobre movilidad y transporte con bases de datos orientadas a grafos, donde destaca particularmente el concepto de las “Time Varying Graphs” (TVG) como forma de modelar los datos para su posterior explotación y también la utilización de “Graph Neural Networks” (GNN) para utilizar como mecanismo de predicción de la demanda de transporte. El trabajo realiza una prueba de concepto sobre los datos obtenidos de las tarjetas STM de un día en particular, probando algunas de las variantes de explotación de datos y consultas en el “browser” de Neo4j, así como la aplicación de algoritmos de aprendizaje automático, trabajando con datos temporales, espaciales y espaciotemporales. Por último, se describe a nivel teórico la relación existente entre Neo4j y el ecosistema de Apache Spark, que permite que Neoj4 tenga acceso a las fuentes de datos que ya están conectadas a Spark. Se concluye que en el análisis de tránsito y movilidad es importante la utilización de bases de datos orientadas a grafos por la versatilidad de su modelado y la posibilidad de capturar grandes volúmenes de datos sobre los que se puedan realizar consultas refinadas, recorriendo los grafos con consultas en Cypher o aplicando algoritmos que provean de insumos relevantes para la toma de decisiones. Finalmente, a la luz de los resultados obtenidos y del alcance del trabajo realizado, se realizan una serie de recomendaciones, en cuanto a la integración con Spark y con capas de visualización, para que la Intendencia de Montevideo o el ente usuario de los datos pueda refinar los resultados e implementarlos.