Trabajos finales de carrera de postgrado

Permanent URI for this collection

Estos trabajos de fin de carrera son obras producidas por estudiantes, que se originan en los procesos formativos de la universidad.

Tienen propósitos culturales y educativos. No son productos comerciales y su difusión pública no está autorizada.

Browse

Recent Submissions

Now showing 1 - 20 of 49
  • Item
    Anticipando la fuga de clientes
    (Universidad ORT Uruguay, 2023) Abisab Prinzo, Nazim; Lembo Cóppola, Yanina; Oliari Ciaponi, Luis Emilio; Bianchi, Alejandro; Espinosa, Marcelo; Mora Riquelme, Hugo Andrés
    En el siguiente trabajo final se desarrollan conceptos teóricos de aprendizaje automático, la generación de algoritmos de aprendizaje supervisado y no supervisado que permiten predecir el comportamiento. En este caso, un algoritmo capaz de predecir el comportamiento de los clientes de una empresa que presta servicios a otras empresas (B2B), así como también la agrupación de estos en base a características comunes. Se realizó un entendimiento general de la empresa cliente. Luego se investigaron técnicas de aprendizaje automático para abordar la problemática de fuga de clientes en una empresa de servicios, se desarrollaron y testearon algoritmos para predecir el “Churn rate”, que es la métrica que mide el número de clientes y suscriptores que han dejado de seguir a una compañía. Se compararon los resultados de los diferentes algoritmos con la métrica de Curva de ROC. Luego de haber llegado a un algoritmo aceptable, se continúa aplicando técnicas de aprendizaje no supervisado para el análisis de grupos de los clientes y en base a una combinación de estas métricas, desarrollar conclusiones. Se aplicó lenguaje de programación Python para los algoritmos de aprendizaje supervisado y no supervisado, Power Query para transformación inicial de variables del conjunto de datos y Power BI para la extracción de conclusiones de clientes. Los resultados obtenidos para la predicción fueron más que satisfactorios. Se crearon tres grupos de clientes, número óptimo según el análisis realizado. Como conclusión se realizaron recomendaciones a la empresa para mejorar el manejo y gobernanza de datos, la interpretación de resultados, las técnicas y algoritmos a aplicar.
  • Item
    Inteligencia Artificial Explicable: tecnología y transparencia para la Industria 4.0
    (Universidad ORT Uruguay, 2023) Iusim Bahar, Lua; Marchesano Sarries, María Pía; Yovine, Sergio Fabián; Mayr Ojeda, Franz; Noguez Piacentini, Juan Ignacio
    En el contexto de la Industria 4.0 las empresas se enfrentan al desafío de aprovechar la tecnología para optimizar sus procesos y aumentar su rentabilidad sin perder competitividad. El mantenimiento predictivo que utiliza la tecnología de la Industria 4.0 brinda información relevante sobre las máquinas en el futuro. Las herramientas de inteligencia artificial exploradas permiten desarrollar estrategias de mantenimiento predictivo basadas en el monitoreo continuo de las máquinas, lo que permite realizar el mantenimiento cuando es necesario. En este trabajo final se aborda el problema común del desequilibrio de datos en el análisis de fallas, utilizando estrategias como la creación de una función de costos, la variación de un umbral de probabilidad y técnicas de desequilibrio. Se desarrollan modelos de aprendizaje automático con diversos resultados. El mejor modelo logra predecir con precisión casi la totalidad y otros un tanto menos dentro de la métrica recall, en cuanto a si una máquina fallará o no en función de sus condiciones operativas. Se aborda el tema de la “explicabilidad” tanto de la inteligencia artificial (XAI) para datos tabulares, así como también se aborda la “explicabilidad” de modelos en formato de series temporales. Los modelos se generan a partir de un estudio previo que resuelve un problema de cálculo de la vida útil restante (RUL) utilizando una red neuronal recurrente, en particular LSTM. Ambos modelos de explicabilidad se basan en los Shapley Values, un enfoque que permite comprender las variables más influyentes en las predicciones mediante la teoría de juegos de coalición.
  • Item
    NOVADOC
    (Universidad ORT Uruguay, 2023) Conde Vitureira, Gabriela Elizabeth; Morás Muracciole, Carlos Rodrigo; Mora Riquelme, Hugo Andrés; Espinosa, Marcelo; Bianchi, Alejandro
    El Banco Central del Uruguay (BCU) es responsable de regular y supervisar las entidades y actividades financieras, plasmando en resoluciones su voluntad respecto del mejor funcionamiento del sistema. Estas resoluciones se encuentran disponibles en la web institucional en formato PDF, lo que dificulta su búsqueda y extracción de información. El objetivo de este trabajo final es crear una herramienta llamada NOVADOC que extraiga y almacene la información relevante en un formato estructurado, permitiendo búsquedas según patrones de lenguaje y siendo fácil de usar para los usuarios. La herramienta utiliza técnicas de Big Data como RPA, OCR, MongoDB y NLP, y se desarrolló siguiendo la metodología SCRUM. NOVADOC ha sido exitosamente implementada en el BCU, con un gran número de usuarios que la utilizan y reportando tiempos de búsqueda más cortos que otras alternativas de software.
  • Item
    Uso de Neo4J como base de datos orientada a grafos para la gestión de información de paradas, recorridos y viajes del Sistema de Transporte Metropolitano (STM) de la Ciudad de Montevideo, Uruguay
    (Universidad ORT Uruguay, 2021) Peirano Facal, José Enrique; Rojas Cardona, Juan Camilo; Romero Calabria, Uruguay Augusto; Gabito Decuadra, Juan Emilio; Yovine, Sergio Fabián; Pisani Leal, Mikaela; Belletti Longarzo, Cecilia
    El presente trabajo final plantea la utilización de Neo4j para explotar los datos de movilidad de pasajeros del Sistema de Transporte Metropolitano (STM) de Montevideo, Uruguay. Se analizaron otros estudios disponibles sobre movilidad y transporte con bases de datos orientadas a grafos, donde destaca particularmente el concepto de las “Time Varying Graphs” (TVG) como forma de modelar los datos para su posterior explotación y también la utilización de “Graph Neural Networks” (GNN) para utilizar como mecanismo de predicción de la demanda de transporte. El trabajo realiza una prueba de concepto sobre los datos obtenidos de las tarjetas STM de un día en particular, probando algunas de las variantes de explotación de datos y consultas en el “browser” de Neo4j, así como la aplicación de algoritmos de aprendizaje automático, trabajando con datos temporales, espaciales y espaciotemporales. Por último, se describe a nivel teórico la relación existente entre Neo4j y el ecosistema de Apache Spark, que permite que Neoj4 tenga acceso a las fuentes de datos que ya están conectadas a Spark. Se concluye que en el análisis de tránsito y movilidad es importante la utilización de bases de datos orientadas a grafos por la versatilidad de su modelado y la posibilidad de capturar grandes volúmenes de datos sobre los que se puedan realizar consultas refinadas, recorriendo los grafos con consultas en Cypher o aplicando algoritmos que provean de insumos relevantes para la toma de decisiones. Finalmente, a la luz de los resultados obtenidos y del alcance del trabajo realizado, se realizan una serie de recomendaciones, en cuanto a la integración con Spark y con capas de visualización, para que la Intendencia de Montevideo o el ente usuario de los datos pueda refinar los resultados e implementarlos.
  • Item
    Evaluación de algoritmos de aprendizaje automático en la predicción de carnicerías y locales de venta al público infractores en el mercado uruguayo de carnes y derivados
    (Universidad ORT Uruguay, 2021) Bernheim Portela, Gastón Louis; Ferragut Varela, Ruben Andrés; Álvarez Castro, Ignacio; Yovine, Sergio Fabián
    El Instituto Nacional de Carnes (INAC) tiene el cometido de garantizar la calidad e inocuidad en el mercado de carnes y sus derivados. En el mercado doméstico operan 2.500 carnicerías y 460 vehículos habilitados en todo el país. Dados los recursos inspectivos con los que cuenta el país cada establecimiento es visitado, en promedio, una vez por año. De esta forma, la identificación de potenciales establecimientos infractores es un aspecto crucial para minimizar los impactos negativos en el bienestar de la población y costos económicos asociados. En el presente trabajo final se desarrollan modelos de clasificación mediante técnicas de aprendizaje automático supervisado para predecir establecimientos infractores. Para ello, se utiliza un conjunto de datos generado que incluye características comerciales de la mayor parte de los puntos de venta del país. Los modelos estimados se basan en regresiones logísticas, redes neuronales artificiales y árboles de decisión. El análisis realizado permite comprender la relevancia de determinadas características comerciales y su impacto en la probabilidad de que un establecimiento habilitado para la venta de carne y derivados en Uruguay sea considerado infractor. Se destaca la incidencia de variables como la ubicación, el tipo y modalidad de carnicería, así como la venta de determinados productos específicos. No obstante, la capacidad predictiva alcanzada por los modelos es insuficiente para clasificar establecimientos infractores de manera certera. De esta forma, se realiza una propuesta de muestreo con el objetivo de maximizar la probabilidad de detectar establecimientos infractores.
  • Item
    Implementación de las prácticas de MLOps para PATE
    (Universidad ORT Uruguay, 2022) Ramas Gaetán, Javier Oscar; Rodríguez Cabana, Antonia Betina; Zanotta Gallino, Sebastián; Pisani Leal, Mikaela; Visca Zanoni, Ramiro Eugenio; Espinosa, Marcelo
    Uno de los desafíos más importantes a la hora de compartir datos para entrenar modelos predictivos de inteligencia artificial es la protección de la información. El presente trabajo final surge como una investigación con el fin de validar la aplicación de MLOps (Operaciones de aprendizaje automático, en español) en el contexto de técnica PATE (“Private Aggregation of Teacher Ensembles”). Para ello se ha llevado a cabo un estudio del estado del arte, se han analizado herramientas de MLOps y posibles escenarios de implementación junto a su gobernanza y herramientas de intercambio de información de manera segura entre los actores del sistema (PySyft). Como resultado de este trabajo final se logró el análisis de cuatro herramientas de MLOps y la descripción detallada de una de ellas para el contexto definido. El trabajo permitió validar que todas las herramientas poseen pocas diferencias entre sí y podrían ser utilizadas. Se concluyó que PySyft en su versión 0.6. permite el intercambio de información de manera segura entre los actores del sistema. En base a la experiencia obtenida, podemos asegurar que se podría implementar la herramienta de PATE con PySyft y utilizar MLOps para optimizar tiempos y recursos al momento de hacer la comprobación de la función implementada. Se plantea cómo generar un entorno que contemple a todos los participantes incorporando PATE.
  • Item
    Document Assistant
    (Universidad ORT Uruguay, 2022) Eiris Campomar, Nicolás Antonio; Otte Fernández, Sebastián Andrés; Fiori Iribarnegaray, Ignacio; Mayr Ojeda, Franz; Milano Taibo, José Germán; Rodriguez Pedreira, Juan Andrés
    El presente trabajo final se centra en la optimización del proceso contable asociado a la digitalización de facturas en papel. Se detectó la necesidad insatisfecha en empresas de distintas industrias en lo que refiere a la digitalización y posterior extracción de información relevante de documentos físicos, lo cual motivó la realización de este proyecto. El alcance del proyecto a nivel de negocio busca obtener una primera versión de la solución con funcionalidades básicas, para luego poder continuar iterando con el fin de experimentar la reacción del mercado ante la aparición de este producto. En lo que refiere a la solución, se integran tecnologías de inteligencia artificial junto a herramientas de software clásicas para la implementación, logrando un producto capaz de ser utilizado en producción. Las funcionalidades claves de esta primera versión, son agrupar facturas por proveedor así como también la extracción de información relevante para su posterior proceso contable. Se construyó un producto “end-to-end” capaz de aportar valor a los procesos contables asociados a la digitalización de facturas en papel. Los próximos pasos refieren a refinar la arquitectura para poder instalar el sistema en producción y comenzar a procesar documentos en la operativa de empresas reales.
  • Item
    Análisis y desarrollo de modelos predictivos con redes neuronales para Web Application Firewall
    (Universidad ORT Uruguay, 2020) Biardo Mirenda, Deborah; González Quintana, Guzmán; Lanzotti Filardi, Sabrina Leticia; Fabián Yovine, Sergio; Pisani Leal, Mikaela; Garbarino Alberti, Helena
    Los datos manejados en las organizaciones son valiosos para la realización de múltiples investigaciones, sin embargo, poseen información personal que debe ser protegida. Por este motivo, anonimizar los datos es una tarea de vital importancia. Esto implica privatizarlos sin restarles poder informativo al momento de ser analizados. El siguiente trabajo final presenta una solución para proteger esta información personal desarrollando un modelo predictivo basado en el modelo bolsa de palabras (Bag of Words, BoW) y redes neuronales. El fin es realizar una tarea de “ciberseguridad” predictiva a partir de datos no privatizados que permita la clasificación de los identificadores de recursos uniformes (URI por sus siglas en inglés) como normales o anómalas. Se analizaron investigaciones previas referidas a esta temática utilizándose los conjuntos de datos empleados para la obtención de un conjunto de URI. A partir del conocimiento del dominio experto, se construyó una bolsa de palabras para cada “URI” que contiene la frecuencia de cada conjunto de caracteres (“keys” expertas) asociados a ataques informáticos y se añadieron caracteres adicionales al dominio experto. Se utilizó Perceptrón multicapa (MLP por sus siglas en inglés), entrenados para cada conjunto de datos por separado y luego para un único conjunto de datos. Para evaluar el modelo se emplearon técnicas como matriz de confusión, análisis y comparación de métricas “True Positive Rate” (TPR) y “True Negative Rate” (TNR) y curvas de aprendizaje. Se aplicaron técnicas como Frecuencia de término-Frecuencia inversa de documento (Tf-idf por sus siglas en inglés), utilizando los conjuntos de caracteres identificadas como “tokens”. Luego mediante la extracción de características se obtuvieron “tokens” en forma dinámica en modalidad de unigrama, bigrama y mixta. El mejor resultado obtenido fue con el modelo de TF-IDF: “Feature Extraction” Unigrama. Finalmente se aplicaron técnicas de métodos combinados como “stacking” y “majority voting”, pero no generaron mejores resultados que los del modelo TF-IDF: “Feature Extraction” Unigrama.
  • Item
    Nexden
    (Universidad ORT Uruguay, 2021) Carbonell González, Ignacio; Espinosa Peralta, Carlos Marcelo; Trocki Beitler, Victor; Bianchi, Alejandro; Bonillo Ramos, Pedro Nolasco; Yovine, Sergio Fabián
    El presente trabajo final tiene como objetivo generar una prueba de concepto para una solución de servicios tecnológicos basados en conocimiento y explotación de datos, para una empresa dedicada a la distribución de alimentos en zonas carenciadas. Se trata de resolver el problema de la asignación y despacho de rutas para la distribución, en un contexto donde los servicios de geolocalización que son utilizados por la empresa carecen de información confiable sobre las zonas periféricas o alejadas de los centros más poblados. Luego de un análisis de los datos que dispone la empresa se seleccionó un subconjunto de los mismos con aquellos que resultaron más relevantes. A partir de los mismos se elaboraron un conjunto de herramientas que permiten agregar a la información de los servicios existentes “una capa” de conocimiento capaz de capturar aquella información definida como relevante para el negocio con el objetivo de poder clasificarlas como mejores o peores rutas en consideración de lo que resulta relevante para la empresa (distancia, estado, composición, restricciones, etc.). Se realizó como parte del trabajo, un análisis detallado de las fuentes de datos proporcionados por la empresa de forma de tener una idea clara del grado de profundidad y calidad que se puede obtener de la implementación de una solución de estas características en el momento actual y futuro. También se realizaron recomendaciones pertinentes en el caso de que se quisiera profundizar en las soluciones presentadas en este trabajo.
  • Item
    Prueba de concepto del "framework" de "OpenMined" para modelos de "Machine Learning"
    (Universidad ORT Uruguay, 2021) Ampuero Velando, Pablo; Sánchez Salvagno, Julio Faustino; Yovine, Sergio Fabián; Garbarino Alberti, Helena; Pisani Leal, Mikaela
    El siguiente trabajo final tiene como objetivo analizar el “framework” provisto por “OpenMined” como solución a los problemas de privacidad y acceso a múltiples conjuntos de datos que manejan los modelos de Aprendizaje Automático (“Machine Learning”) e Inteligencia Artificial, los cuales mayoritariamente son generados en forma centralizada debido a las limitaciones mencionadas. Se propone el concepto de «Descentralización de la Información» en forma segura y con las garantías para el mantenimiento tanto de la privacidad de los datos como de la calidad de los modelos. Las soluciones se basan en el uso de técnicas de “Federated Learning” (FL), “Homomorphic Encryption” (HE) y “Decentralized Learning” (DL). Se propone utilizar el “framework” provisto por “OpenMined” para generar un modelo de clasificación de detección de ataques maliciosos creando modelos para el análisis de errores y comportamiento en “logs” de “Apache Web Servers”, ya que estos contienen información sensible. Se estudia la robustez y limitaciones de los algoritmos planteados por el “framework” en cuanto a cómo anonimizar los datos y marcos de gobernanza mediante una prueba de concepto. A partir de dicha prueba se concluye que el “framework” garantiza que no se pueden identificar registros específicos a partir de las técnicas usadas de “Homomorphic Encryption”. La funcionalidad de la creación de usuarios y de un sistema de permisos sobre los datos publicados no cuenta al momento de la entrega de este trabajo con un mecanismo firme para la gobernanza de datos. En la implementación realizada el “framework” no presenta mayor complejidad al momento de ser utilizado por el “Data Science” con respecto al modelo de referencia utilizado. Tampoco se observaron impactos negativos en la calidad de los resultados. Es un “framework” en construcción por lo que se espera continuar ampliando las funcionalidades disponibles, entre ellas el entrenamiento remoto, que está en desarrollo y la función de activación de la red, en la cual se tuvo que aplicar la unidad lineal rectificada (ReLU, por sus siglas en inglés).
  • Item
    Análisis e implementación de técnicas de “Batch Reinforcement Learning” pasivo para aplicación sobre casos reales
    (Universidad ORT Uruguay, 2021) Derderian Dostourian, Mariana; Milano Taibo, José Germán; Mottini d'Oliveira, Bruno Luis; Yovine, Sergio Fabián; Mayr Ojeda, Franz; Gravano, Agustin; Olloniego Rocca, Juan Andrés
    El presente trabajo final tiene como objetivo investigar las posibilidades que brinda la Inteligencia Artificial. En particular, se focaliza en analizar las diferentes técnicas de “Batch Reinforcement Learning” pasivo. Su implementación buscará abordar un caso de uso real basado en sistemas de recomendación. Esto implicó la realización de una evaluación de los diferentes algoritmos capaces de resolver esta y otras problemáticas, así como también las diferentes opciones de métricas de desempeño que pueden ser implementadas. Así, se buscará generar un marco de referencia para la aplicación de “Batch Reinforcement Learning”. El mismo abordará los siguientes pilares fundacionales: tratamiento del conjunto de datos, los algoritmos y posibles métricas de desempeño. Estos puntos forman un grupo indispensable para la aplicación de la técnica antes mencionada. Estos tres pilares se abordarán desde distintas ópticas. Por una parte, en lo que refiere a conjunto de datos, se utilizarán algoritmos que permitirán generarlos para mantener un escenario de pruebas controlado, sobre el cual puedan desarrollarse distintos experimentos. Por otra parte, se explorarán algoritmos que se consideran las bases para la aplicación de “Batch Reinforcement Learning” pasivo (e.g. Neural Fitted Q-Iteration), todos ellos basados en redes neuronales artificiales. Por último, será necesario evaluar métricas de desempeño que permitan conocer si un agente logró aprender a resolver la tarea propuesta. Finalmente, se dejan sentadas las bases para poder aplicar dichas técnicas a un caso real sobre una temática relevante en la industria: sistemas de recomendación.
  • Item
    Procesos de software orientados a la usabilidad
    (Universidad ORT Uruguay, 2019) Rocca Temesio, José Ignacio; Solari Buela, Martín; Olsina Santos, Luis Antonio; Vallespir, Diego
    El objetivo de la presente investigación es comprender cómo es posible orientar los procesos de desarrollo de software hacia la usabilidad. Para lograr esto, se identificó el estado del arte y se categorizó de forma sistemática cuáles son las propuestas de proceso de software orientadas a la usabilidad. Se detectaron y analizaron 31 propuestas de procesos de software orientados a la usabilidad definiendo así un conjunto de características comunes a todos los procesos. Para profundizar la comprensión sobre estos procesos, en segundo lugar, se realizó una intervención educativa sobre usabilidad. En el marco de los proyectos integradores de fin de carrera del Laboratorio ORT Software Factory se incorporaron elementos que permitieran fortalecer la enseñanza y la aplicación de procesos orientados a la usabilidad. Cómo resultado se obtuvo un mayor foco en la usabilidad de los proyectos ejecutados durante el año 2018 y mayores niveles de reflexión sobre los procesos de desarrollo orientados a la usabilidad por parte de los alumnos. A partir de esta experiencia en el ámbito académico, se discutió el impacto que tienen los procesos en la usabilidad del software y en la formación de profesionales reflexivos sobre este aspecto de calidad.
  • Item
    Regular Inference over Recurrent Neural Networks as a Method for Black Box Explainability
    (Universidad ORT Uruguay, 2019) Mayr Ojeda, Franz; Fabián Yovine, Sergio; Tasistro Souto, Álvaro Daniel; Habermehl, Peter
    El presente Desarrollo de Tesis explora el problema general de explicar el comportamiento de una red neuronal recurrente (RNN por sus siglas en inglés). El objetivo es construir una representación que mejore el entendimiento humano de las RNN como clasificadores de secuencias, con el propósito de proveer entendimiento sobre el proceso de decisión detrás de la clasificación de una secuencia como positiva o negativa, y a su vez, habilitar un mayor análisis sobre las mismas como por ejemplo la verificación formal basada en autómatas. Se propone en concreto, un algoritmo de aprendizaje automático activo para la construcción de un autómata finito determinístico que es aproximadamente correcto respecto a una red neuronal artificial.
  • Item
    Mapeo sistemático y evaluación de arquitecturas de software para contextos de big data
    (Universidad ORT Uruguay, 2018) Russo Ibañez, Juan Pablo; Solari Buela, Martín; Fornaro Rosado, Carlos Nicolás; Astudillo Rojas, Hernan Enrique
    Big data es la información caracterizada por un volumen, velocidad y variedad alta de datos que requieren métodos analíticos y tecnologías específicas para poder ser gestionados y transformados en valor agregado para el usuario. El mercado de servicios de big data ha comenzado a crecer sostenidamente en los últimos años. Sin embargo, su rápido crecimiento trae varios desafíos a superar para la ingeniería de software. Las arquitecturas de software se vuelven relevantes en este contexto donde los estilos y patrones tradicionales no son suficientes para el diseño y desarrollo de software. Esta tesis tiene como objetivo explorar los desafíos y prácticas utilizadas durante el proceso de diseño arquitectónico en contextos de big data. En primer lugar, se realizó un mapeo sistemático de la literatura para identificar y categorizar propuestas de arquitecturas de software. Luego se profundiza la evaluación de dichas arquitecturas para identificar, describir y discutir el impacto de un conjunto de tácticas arquitectónicas sobre los atributos de calidad propios de big data. Se concluye que existen una variedad de propuestas de arquitectura de software industriales, teóricas y de referencia para big data. Estas propuestas muchas veces difieren en las capas y la separación de responsabilidades, por lo que dificulta al practicante diseñar una solución que se adapte a su contexto de uso. Por otra parte, los resultados del análisis de estas arquitecturas indican la existencia de requerimientos complejos, similares a los encontrados en sistemas distribuidos, pero a mayor escala, determinados por las características de gran volumen, variedad y velocidad de datos. Estos resultados muestran la oportunidad de buscar mejoras al proceso del diseño arquitectónico, adoptando prácticas como el uso de tácticas de arquitectura, para capturar las decisiones de diseño propias de big data.
  • Item
    Age prediction of Spanish-speaking Twitter users
    (Universidad ORT Uruguay, 2018) Tortorella Pérez, Verónica Andrea; Yovine Seijas, Sergio Fabián; Garat Baridon, Diego; Giménez, Eduardo
    La predicción de la edad en la red social Twitter surge como necesidad para el mejoramiento de herramientas como pueden ser el marketing online, así como para colaborar en la detección de pedofilia en la red social, identificando a los usuarios que fingen ser menores de edad mediante el uso de perfiles falsos. En el presente trabajo se analizan diferentes soluciones a este problema, prediciendo el rango de edad de una persona a partir de una colección de textos cortos escrita por la misma. Se analizan tres tipos de atributos: metadatos del usuario, atributos de estilometría sobre el texto de los tuits y atributos resultantes de la aplicación de técnicas de Procesamiento de Lenguaje Natural sobre tuits, así como listas de suscripción las cuales contienen información acerca de los intereses del usuario. También se incluyen una serie de atributos que modelan la vinculación del perfil de Twitter con otras redes sociales. Dichos atributos recolectados son posteriormente utilizados para entrenar los modelos de Aprendizaje Automático, con el fin de predecir la edad de los usuarios y así proceder a clasificarlos en los rangos etarios definidos. Finalmente se realizó una serie de experimentos con distintos set de datos y algoritmos. Los resultados experimentales muestran que los atributos extraídos constituyen un elemento muy útil a la hora de detectar la edad de los usuarios.
  • Item
    Frequency regulation in electric power systems using deferrable loads
    (Universidad ORT Uruguay, 2016) Bliman Agorio, Federico; Paganini Herrera, Fernando Gabriel; Ferragut Varela, Ruben Andrés; Giusto Olivera, Álvaro Danielo; Monzon Rangeloff, Pablo Ariel
    Con el advenimiento del paradigma de la red inteligente (Smart Grid) y las energías renovables, se hace necesario estudiar el almacenamiento de energía generada que no se consume al momento. En esta tesis, se indaga en el papel de un “load agregator” que administra un conjunto de cargas eléctricas y aprovecha la flexibilidad de las mismas para regular la frecuencia de una red. Se estudia el problema desde un punto de vista macroscópico, sin entrar en detalles de cargas individuales. Se propone un set de modelos ODE para predecir la evolución de la potencia consumida por el cluster de cargas y se diseñan controladores para estos modelos, con el fin de poder seguir las referencias de potencia externa. Finalmente, se sugieren algunos algoritmos posibles para implementar el control a cargas individuales. Las simulaciones muestran que este sistema podría proporcionar valiosos servicios a las redes eléctricas, si existiese suficiente infraestructura de comunicaciones.
  • Item
    Foundations for Mathematical Methodology
    (Universidad ORT Uruguay, 2016) Michelini Jorge, Juan Pedro; Tasistro Souto, Álvaro Daniel; Cabezas, Juan José; Blanco, Javier
    El trabajo presenta un método original para establecer y demostrar conjeturas de la teoría ecuacional del cálculo lambda tipado. Incluye una serie de reglas que permiten al estudiante descubrir, por ejemplo, el tipo de las listas, que la función que invierte el orden de una lista es interesante y que dicha función es su propio inverso. Dichas reglas permiten, además, demostrar lo descubierto, de forma similar a como se resuelve una ecuación de segundo grado. El método quedó formalizado en un programa informático. El presente trabajo tiene valor como reflexión sobre la práctica matemática y una aplicación clara a la didáctica de la matemática de programas.
  • Item
    Identificación de Deuda Técnica en instancias de reflexión de proyectos ágiles
    (Universidad ORT Uruguay, 2016) Nacimento Ferrer, María Cecilia; Matalonga Motta, Santiago; Solari Buela, Martín; Rossa Hauck, Jean Carlo
    La tesis muestra la aplicación de métodos de investigación cualitativos adecuados para el estudio de los conceptos de procesos y calidad en ingeniería de software. El trabajo continúa una línea de investigación anterior sobre deuda técnica y agilidad, estableciendo un marco metodológico para continuar profundizando el estudio del fenómeno. De esta forma, se desarrolla un mecanismo de medición capaz de evaluar un proyecto, según una escala que representa el grado de agilidad. Luego, se aplica una metodología de investigación cualitativa sobre los registros de retrospectivas de un proyecto real de desarrollo de software, con el fin de identificar instancias de deuda técnica. Los resultados obtenidos muestran que es posible identificar constructos asociados con el fenómeno estudiado.
  • Item
    Análisis de un modelo discreto para computación cuántica
    (Universidad ORT Uruguay, 2016) Gatti Dorpich, Laura Nina; Fonseca De Oliveira, André Luiz; Buksman Hollander, Efrain; García López, Jesús; Szasz Cerutti, Nora Adriana
    El trabajo aborda teóricamente la Computación Cuántica Discreta y otras áreas relacionadas, como paralelismo y entrelazamiento cuántico, conjuntos universales exactos y aproximados de puertas cuánticas y conjuntos discretos de estados cuánticos. Se estudia un modelo en particular, construido por una base universal finita. Dicho modelo presenta varias características que fundamentan la realización del trabajo. De esta forma, se profundiza en fórmulas cerradas para la acción de las puertas cuánticas que definen el modelo discreto sobre los estados discretos, y se demuestra que la puerta de Hadamard es la única que modifica el nivel de los estados, pudiendo aumentar o disminuir en exactamente en 1 el nivel. Finalmente, se utiliza el modelo para implementar el algoritmo de Grover con la constatación de que, contrariamente a la creencia general, dicho algoritmo de búsqueda no es cíclico en el modelo discreto.
  • Item
    Gestión del riesgo basado en la gestión del conocimiento para empresas PyMES de Uruguay
    (Universidad ORT Uruguay, 2016) Ayala Pastorino, Sebastián; Garbarino Alberti, Helena; Salvetto De León, Pedro Fernando; Graeml, Alexandre
    El presente trabajo relaciona la gestión del conocimiento y la gestión del riesgo, aplicadas a empresas PyMEs debido al importante rol que éstas ocupan en nuestro país y el mundo. Como resultado del estudio, se crea un marco y se define un modelo de gestión del riesgo basado en la gestión del conocimiento, teniendo en cuenta su aplicabilidad a empresas PyMEs que presentan características especiales por su estructura y organización. Para la validación de su aplicabilidad, se realiza un trabajo experimental relevando dos empresas de Uruguay, logrando medir y determinar su nivel en base al modelo planteado, para el cual se definieron indicadores y sus medidas asociadas a cada nivel en el modelo. Las empresas relevadas podrán identificar sus puntos de mejora respecto a la gestión de conocimiento aplicado a la gestión del riesgo, pudiendo ser relevadas luego de un período y valoradas nuevamente en base al modelo, determinando así el impacto de los cambios realizados.