Trabajos finales de carrera de postgrado
Permanent URI for this collection
Estos trabajos de fin de carrera son obras producidas por estudiantes, que se originan en los procesos formativos de la universidad.
Tienen propósitos culturales y educativos. No son productos comerciales y su difusión pública no está autorizada.
Browse
Browsing Trabajos finales de carrera de postgrado by Subject "APRENDIZAJE AUTOMÁTICO"
Now showing 1 - 20 of 22
Results Per Page
Sort Options
Item Age prediction of Spanish-speaking Twitter users(Universidad ORT Uruguay, 2018) Tortorella Pérez, Verónica Andrea; Yovine Seijas, Sergio Fabián; Garat Baridon, Diego; Giménez, EduardoLa predicción de la edad en la red social Twitter surge como necesidad para el mejoramiento de herramientas como pueden ser el marketing online, así como para colaborar en la detección de pedofilia en la red social, identificando a los usuarios que fingen ser menores de edad mediante el uso de perfiles falsos. En el presente trabajo se analizan diferentes soluciones a este problema, prediciendo el rango de edad de una persona a partir de una colección de textos cortos escrita por la misma. Se analizan tres tipos de atributos: metadatos del usuario, atributos de estilometría sobre el texto de los tuits y atributos resultantes de la aplicación de técnicas de Procesamiento de Lenguaje Natural sobre tuits, así como listas de suscripción las cuales contienen información acerca de los intereses del usuario. También se incluyen una serie de atributos que modelan la vinculación del perfil de Twitter con otras redes sociales. Dichos atributos recolectados son posteriormente utilizados para entrenar los modelos de Aprendizaje Automático, con el fin de predecir la edad de los usuarios y así proceder a clasificarlos en los rangos etarios definidos. Finalmente se realizó una serie de experimentos con distintos set de datos y algoritmos. Los resultados experimentales muestran que los atributos extraídos constituyen un elemento muy útil a la hora de detectar la edad de los usuarios.Item An approach for improving the performance of learning probabilistic deterministic finite automata(Universidad ORT Uruguay, 2023) Pan Suarez, Federico; Yovine, Sergio Fabián; Tripakis, Stavros; Carrasco Piaggio, MatíasEl presente desarrollo de tesis busca progresar sobre las líneas de investigación existentes en referencia a la inferencia de Probabilistic Deterministic Finite Automata (PDFAs) desde modelos de lenguajes en un marco de caja negra y aprendizaje activo. El principal objetivo es subsanar los problemas encontrados en la literatura actual y avanzar hacia un algoritmo más eficiente.Item An approach to explainable deep learning for image-based medical diagnosis based on prototypes(Universidad ORT Uruguay, 2023) Cecilia Delgado, Leonardo Raúl; Yovine, Sergio Fabián; Galmarini, Carlos; Fernández Slezak, DiegoEl objetivo de esta tesis es desarrollar un modelo de aprendizaje profundo “explicable” que pueda analizar imágenes médicas y que al mismo tiempo se pueda crear herramientas de visualización fáciles de usar, pudiéndose aprovechar en entornos clínicos para mejorar la atención al paciente. Este modelo utiliza los últimos avances en técnicas de aprendizaje profundo y tiene como objetivo proporcionar resultados más precisos e interpretables, lo que permite a los médicos tomar decisiones mejor informadas.Item Análisis e implementación de técnicas de “Batch Reinforcement Learning” pasivo para aplicación sobre casos reales(Universidad ORT Uruguay, 2021) Derderian Dostourian, Mariana; Milano Taibo, José Germán; Mottini d'Oliveira, Bruno Luis; Yovine, Sergio Fabián; Mayr Ojeda, Franz; Gravano, Agustin; Olloniego Rocca, Juan AndrésEl presente trabajo final tiene como objetivo investigar las posibilidades que brinda la Inteligencia Artificial. En particular, se focaliza en analizar las diferentes técnicas de “Batch Reinforcement Learning” pasivo. Su implementación buscará abordar un caso de uso real basado en sistemas de recomendación. Esto implicó la realización de una evaluación de los diferentes algoritmos capaces de resolver esta y otras problemáticas, así como también las diferentes opciones de métricas de desempeño que pueden ser implementadas. Así, se buscará generar un marco de referencia para la aplicación de “Batch Reinforcement Learning”. El mismo abordará los siguientes pilares fundacionales: tratamiento del conjunto de datos, los algoritmos y posibles métricas de desempeño. Estos puntos forman un grupo indispensable para la aplicación de la técnica antes mencionada. Estos tres pilares se abordarán desde distintas ópticas. Por una parte, en lo que refiere a conjunto de datos, se utilizarán algoritmos que permitirán generarlos para mantener un escenario de pruebas controlado, sobre el cual puedan desarrollarse distintos experimentos. Por otra parte, se explorarán algoritmos que se consideran las bases para la aplicación de “Batch Reinforcement Learning” pasivo (e.g. Neural Fitted Q-Iteration), todos ellos basados en redes neuronales artificiales. Por último, será necesario evaluar métricas de desempeño que permitan conocer si un agente logró aprender a resolver la tarea propuesta. Finalmente, se dejan sentadas las bases para poder aplicar dichas técnicas a un caso real sobre una temática relevante en la industria: sistemas de recomendación.Item Análisis y desarrollo de modelos predictivos con redes neuronales para Web Application Firewall(Universidad ORT Uruguay, 2020) Biardo Mirenda, Deborah; González Quintana, Guzmán; Lanzotti Filardi, Sabrina Leticia; Fabián Yovine, Sergio; Pisani Leal, Mikaela; Garbarino Alberti, HelenaLos datos manejados en las organizaciones son valiosos para la realización de múltiples investigaciones, sin embargo, poseen información personal que debe ser protegida. Por este motivo, anonimizar los datos es una tarea de vital importancia. Esto implica privatizarlos sin restarles poder informativo al momento de ser analizados. El siguiente trabajo final presenta una solución para proteger esta información personal desarrollando un modelo predictivo basado en el modelo bolsa de palabras (Bag of Words, BoW) y redes neuronales. El fin es realizar una tarea de “ciberseguridad” predictiva a partir de datos no privatizados que permita la clasificación de los identificadores de recursos uniformes (URI por sus siglas en inglés) como normales o anómalas. Se analizaron investigaciones previas referidas a esta temática utilizándose los conjuntos de datos empleados para la obtención de un conjunto de URI. A partir del conocimiento del dominio experto, se construyó una bolsa de palabras para cada “URI” que contiene la frecuencia de cada conjunto de caracteres (“keys” expertas) asociados a ataques informáticos y se añadieron caracteres adicionales al dominio experto. Se utilizó Perceptrón multicapa (MLP por sus siglas en inglés), entrenados para cada conjunto de datos por separado y luego para un único conjunto de datos. Para evaluar el modelo se emplearon técnicas como matriz de confusión, análisis y comparación de métricas “True Positive Rate” (TPR) y “True Negative Rate” (TNR) y curvas de aprendizaje. Se aplicaron técnicas como Frecuencia de término-Frecuencia inversa de documento (Tf-idf por sus siglas en inglés), utilizando los conjuntos de caracteres identificadas como “tokens”. Luego mediante la extracción de características se obtuvieron “tokens” en forma dinámica en modalidad de unigrama, bigrama y mixta. El mejor resultado obtenido fue con el modelo de TF-IDF: “Feature Extraction” Unigrama. Finalmente se aplicaron técnicas de métodos combinados como “stacking” y “majority voting”, pero no generaron mejores resultados que los del modelo TF-IDF: “Feature Extraction” Unigrama.Item Anticipando la fuga de clientes(Universidad ORT Uruguay, 2023) Abisab Prinzo, Nazim; Lembo Cóppola, Yanina; Oliari Ciaponi, Luis Emilio; Bianchi, Alejandro; Espinosa, Marcelo; Mora Riquelme, Hugo AndrésEn el siguiente trabajo final se desarrollan conceptos teóricos de aprendizaje automático, la generación de algoritmos de aprendizaje supervisado y no supervisado que permiten predecir el comportamiento. En este caso, un algoritmo capaz de predecir el comportamiento de los clientes de una empresa que presta servicios a otras empresas (B2B), así como también la agrupación de estos en base a características comunes. Se realizó un entendimiento general de la empresa cliente. Luego se investigaron técnicas de aprendizaje automático para abordar la problemática de fuga de clientes en una empresa de servicios, se desarrollaron y testearon algoritmos para predecir el “Churn rate”, que es la métrica que mide el número de clientes y suscriptores que han dejado de seguir a una compañía. Se compararon los resultados de los diferentes algoritmos con la métrica de Curva de ROC. Luego de haber llegado a un algoritmo aceptable, se continúa aplicando técnicas de aprendizaje no supervisado para el análisis de grupos de los clientes y en base a una combinación de estas métricas, desarrollar conclusiones. Se aplicó lenguaje de programación Python para los algoritmos de aprendizaje supervisado y no supervisado, Power Query para transformación inicial de variables del conjunto de datos y Power BI para la extracción de conclusiones de clientes. Los resultados obtenidos para la predicción fueron más que satisfactorios. Se crearon tres grupos de clientes, número óptimo según el análisis realizado. Como conclusión se realizaron recomendaciones a la empresa para mejorar el manejo y gobernanza de datos, la interpretación de resultados, las técnicas y algoritmos a aplicar.Item Automatic sythesis of quantum circuits(Universidad ORT Uruguay, 2023) Allende Amen, Carolina; Fonseca De Oliveira, André; Buksman Hollander, Efrain; Landi, Gabriel; Tasistro Souto, Álvaro DanielEl desarrollo de tesis presentado se centra en el uso de un circuito variacional cuántico para lograr la descomposición unitaria de un algoritmo cuántico. El estudio utiliza técnicas de optimización clásicas y explota las propiedades cuánticas como el entrelazamiento y su relación con la correlación. Este circuito variacional tiene la capacidad de traducir diversos algoritmos cuánticos. Además, se incluye un caso de estudio en el que se aplica esta descomposición para crear un clasificador utilizando un conjunto de datos conocido. En este caso, los datos clásicos se codifican en estados cuánticos.Item Comparison of LSTM and Transformer Neural Network on multiple approaches for weblogs attack detection(Universidad ORT Uruguay, 2022) Martínez Varsi, Nicolás; Yovine, Sergio Fabián; Thao Dang; Mayr Ojeda, FranzEl siguiente desarrollo de tesis presenta la discusión y comparación de diferentes enfoques y redes neuronales para la clasificación de secuencias, en el contexto de detección de ataques en servicios web. El primer enfoque para la detección de ataques con clasificación de logs, es crear modelos de clasificación basados en caracteres. El segundo enfoque crea modelos de lenguaje que predicen la probabilidad del siguiente carácter en una secuencia, que en conjunto con una técnica de cálculo de umbrales para las probabilidades, clasifican los logs para detectar ataques. Ambos enfoques fueron trabajados con redes neuronales de tipo LSTM, así como también con redes neuronales Transformer. Las redes Transformer han tenido buenos resultados en sistemas de traducción de máquina y en problemas similares en cuanto a procesamiento de lenguaje natural, pero no ha sido explorado su uso en detección de ataques en base a logs. Para presentar las comparaciones de enfoques y redes neuronales, se realizó un análisis del estado del arte, de los enfoques a aplicar y se realizaron múltiples experimentos. Estos experimentos implicaron el desarrollo de códigos para el análisis, transformación y preparación de los “data sets”, así como el entrenamiento y evaluación de los modelos y clasificaciones. Finalmente se plantean conclusiones sobre el uso de cada enfoque y red neuronal, así como el planteo de futuros trabajos que puedan mejorar y responder cuestiones encontradas en el proyecto.Item Document Assistant(Universidad ORT Uruguay, 2022) Eiris Campomar, Nicolás Antonio; Otte Fernández, Sebastián Andrés; Fiori Iribarnegaray, Ignacio; Mayr Ojeda, Franz; Milano Taibo, José Germán; Rodriguez Pedreira, Juan AndrésEl presente trabajo final se centra en la optimización del proceso contable asociado a la digitalización de facturas en papel. Se detectó la necesidad insatisfecha en empresas de distintas industrias en lo que refiere a la digitalización y posterior extracción de información relevante de documentos físicos, lo cual motivó la realización de este proyecto. El alcance del proyecto a nivel de negocio busca obtener una primera versión de la solución con funcionalidades básicas, para luego poder continuar iterando con el fin de experimentar la reacción del mercado ante la aparición de este producto. En lo que refiere a la solución, se integran tecnologías de inteligencia artificial junto a herramientas de software clásicas para la implementación, logrando un producto capaz de ser utilizado en producción. Las funcionalidades claves de esta primera versión, son agrupar facturas por proveedor así como también la extracción de información relevante para su posterior proceso contable. Se construyó un producto “end-to-end” capaz de aportar valor a los procesos contables asociados a la digitalización de facturas en papel. Los próximos pasos refieren a refinar la arquitectura para poder instalar el sistema en producción y comenzar a procesar documentos en la operativa de empresas reales.Item Elaboración de modelo de clasificación para la detección de transacciones fraudulentas realizadas con tarjetas de crédito en ambiente de tarjeta no presente(Universidad ORT Uruguay, 2021) Peña Toledo, Maximiliano; Milano Taibo, José Germán; Villalba González, Juan Ignacio; Yovine, Sergio FabiánEl presente trabajo final tiene como objetivo lograr la creación de un modelo predictivo para la clasificación de las transacciones con tarjeta de crédito, realizadas en un ambiente de tarjeta no presente en transacciones fraudulentas y transacciones no fraudulentas. La búsqueda de un modelo que cumpla con las pretensiones exigidas por el mercado actual, se realizará utilizando lenguaje de programación Python, por medio de técnicas de aprendizaje automático supervisado con la prueba de tres algoritmos diferentes: Random Forest, Extreme Gradient Boosting y Artificial Neural Networks. Esta búsqueda del modelo inicia con el análisis y exploración del conjunto de datos, seguido por la implementación, entrenamiento y prueba de los modelos, culminado con la selección de uno de éstos en función de ciertas métricas de evaluación. Finalmente, se comentarán las posibilidades para la implementación del mejor modelo seleccionado por parte de cualquier institución emisora de tarjetas de crédito que le parezca conveniente su utilización.Item Estudio de modelos de privacidad de datos(Universidad ORT Uruguay, 2021) Visca Zanoni, Ramiro Eugenio; Yovine, Sergio Fabián; Garbervetsky, Diego David; Zanconi, MarceloEl presente trabajo surge como una investigación motivada por la necesidad de proteger la privacidad de los usuarios de sistemas en contextos de análisis estadístico, inteligencia artificial y publicación de datos. El trabajo se enfoca en las áreas de ciberseguridad y salud. La tesis presenta un estudio detallado del estado del arte y propone y evalúa experimentalmente diversas técnicas basadas en privacidad diferencial, analizando en cada caso el compromiso entre fuga de privacidad y pérdida de exactitud en las predicciones. Además se desarrolla un software que facilita el diseño y la realización de experimentos que combinan privacidad y aprendizaje automático.Item Evaluación de algoritmos de aprendizaje automático en la predicción de carnicerías y locales de venta al público infractores en el mercado uruguayo de carnes y derivados(Universidad ORT Uruguay, 2021) Bernheim Portela, Gastón Louis; Ferragut Varela, Ruben Andrés; Álvarez Castro, Ignacio; Yovine, Sergio FabiánEl Instituto Nacional de Carnes (INAC) tiene el cometido de garantizar la calidad e inocuidad en el mercado de carnes y sus derivados. En el mercado doméstico operan 2.500 carnicerías y 460 vehículos habilitados en todo el país. Dados los recursos inspectivos con los que cuenta el país cada establecimiento es visitado, en promedio, una vez por año. De esta forma, la identificación de potenciales establecimientos infractores es un aspecto crucial para minimizar los impactos negativos en el bienestar de la población y costos económicos asociados. En el presente trabajo final se desarrollan modelos de clasificación mediante técnicas de aprendizaje automático supervisado para predecir establecimientos infractores. Para ello, se utiliza un conjunto de datos generado que incluye características comerciales de la mayor parte de los puntos de venta del país. Los modelos estimados se basan en regresiones logísticas, redes neuronales artificiales y árboles de decisión. El análisis realizado permite comprender la relevancia de determinadas características comerciales y su impacto en la probabilidad de que un establecimiento habilitado para la venta de carne y derivados en Uruguay sea considerado infractor. Se destaca la incidencia de variables como la ubicación, el tipo y modalidad de carnicería, así como la venta de determinados productos específicos. No obstante, la capacidad predictiva alcanzada por los modelos es insuficiente para clasificar establecimientos infractores de manera certera. De esta forma, se realiza una propuesta de muestreo con el objetivo de maximizar la probabilidad de detectar establecimientos infractores.Item Identificación de la Región de interés en imágenes DICOM basado en Inteligencia Artificial(Universidad ORT Uruguay, 2021) Méndez Varela, Matías; Muñoz Bayona, Juan Pablo; Cecilia Delgado, Leonardo Raúl; Olloniego Rocca, Juan Andrés; Sorozabal Silva, Matías NicolásEl presente trabajo aborda la identificación de regiones de interés en imágenes médicas mediante el uso de técnicas de “deep learning”. Se comienza presentando el estado del arte del dominio del problema, analizando diferentes propuestas publicadas para luego realizar una selección de dos arquitecturas que finalmente se implementan. Dichas arquitecturas se prueban con dos “datasets” diferentes para establecer una comparación entre ellas; por un lado se usan imágenes de mamografías y por otro resonancias magnéticas de cerebros, siendo las regiones de interés posibles lesiones o tumores. Además, en el proceso se investiga y se usa el estándar de imágenes médicas DICOM.Item Implementación de las prácticas de MLOps para PATE(Universidad ORT Uruguay, 2022) Ramas Gaetán, Javier Oscar; Rodríguez Cabana, Antonia Betina; Zanotta Gallino, Sebastián; Pisani Leal, Mikaela; Visca Zanoni, Ramiro Eugenio; Espinosa, MarceloUno de los desafíos más importantes a la hora de compartir datos para entrenar modelos predictivos de inteligencia artificial es la protección de la información. El presente trabajo final surge como una investigación con el fin de validar la aplicación de MLOps (Operaciones de aprendizaje automático, en español) en el contexto de técnica PATE (“Private Aggregation of Teacher Ensembles”). Para ello se ha llevado a cabo un estudio del estado del arte, se han analizado herramientas de MLOps y posibles escenarios de implementación junto a su gobernanza y herramientas de intercambio de información de manera segura entre los actores del sistema (PySyft). Como resultado de este trabajo final se logró el análisis de cuatro herramientas de MLOps y la descripción detallada de una de ellas para el contexto definido. El trabajo permitió validar que todas las herramientas poseen pocas diferencias entre sí y podrían ser utilizadas. Se concluyó que PySyft en su versión 0.6. permite el intercambio de información de manera segura entre los actores del sistema. En base a la experiencia obtenida, podemos asegurar que se podría implementar la herramienta de PATE con PySyft y utilizar MLOps para optimizar tiempos y recursos al momento de hacer la comprobación de la función implementada. Se plantea cómo generar un entorno que contemple a todos los participantes incorporando PATE.Item Inteligencia Artificial Explicable: tecnología y transparencia para la Industria 4.0(Universidad ORT Uruguay, 2023) Iusim Bahar, Lua; Marchesano Sarries, María Pía; Yovine, Sergio Fabián; Mayr Ojeda, Franz; Noguez Piacentini, Juan IgnacioEn el contexto de la Industria 4.0 las empresas se enfrentan al desafío de aprovechar la tecnología para optimizar sus procesos y aumentar su rentabilidad sin perder competitividad. El mantenimiento predictivo que utiliza la tecnología de la Industria 4.0 brinda información relevante sobre las máquinas en el futuro. Las herramientas de inteligencia artificial exploradas permiten desarrollar estrategias de mantenimiento predictivo basadas en el monitoreo continuo de las máquinas, lo que permite realizar el mantenimiento cuando es necesario. En este trabajo final se aborda el problema común del desequilibrio de datos en el análisis de fallas, utilizando estrategias como la creación de una función de costos, la variación de un umbral de probabilidad y técnicas de desequilibrio. Se desarrollan modelos de aprendizaje automático con diversos resultados. El mejor modelo logra predecir con precisión casi la totalidad y otros un tanto menos dentro de la métrica recall, en cuanto a si una máquina fallará o no en función de sus condiciones operativas. Se aborda el tema de la “explicabilidad” tanto de la inteligencia artificial (XAI) para datos tabulares, así como también se aborda la “explicabilidad” de modelos en formato de series temporales. Los modelos se generan a partir de un estudio previo que resuelve un problema de cálculo de la vida útil restante (RUL) utilizando una red neuronal recurrente, en particular LSTM. Ambos modelos de explicabilidad se basan en los Shapley Values, un enfoque que permite comprender las variables más influyentes en las predicciones mediante la teoría de juegos de coalición.Item Investigación de Amazon SageMaker como plataforma de aprendizaje automático en la nube para moderación de opiniones en PedidosYa(Universidad ORT Uruguay, 2021) Alonso Rodríguez, Jorge Fabricio; Esteves Petrarca, Martín Olavo; Pisani Leal, Mikaela; Yovine, Sergio Fabián; Mayr Ojeda, FranzEl presente trabajo final tiene como objetivo analizar el "framework" SageMaker provisto por Amazon para la automatización de proyectos de aprendizaje automático. Se describe un caso de negocio sobre la moderación de opiniones en PedidosYa, (plataforma de pedidos en línea líder en Latinoamérica), y modela la solución al caso como un problema de aprendizaje automático supervisado. La parte central del trabajo consiste en la investigación de Amazon SageMaker con un enfoque basado en la experimentación, donde se llevan adelante seis pruebas de concepto sobre las herramientas necesarias para la solución propuesta. Como resultado se logra una implementación que sirve de punto de partida para solucionar el problema planteado. Además, el trabajo de investigación permitió validar la utilidad de Amazon SageMaker para proyectos de ciencia de datos y aprendizaje automático en organizaciones. Se concluye que Amazon SageMaker es una plataforma adecuada no solamente para resolver el caso de negocio descrito sino que es altamente recomendada para organizaciones que lleven adelante proyectos de aprendizaje automático donde la escala y el rendimiento son factores clave. Por último, se plantean dos líneas para continuar el trabajo realizado, la primera con el objetivo de llevar a PedidosYa la implementación alcanzada y la segunda con el objetivo de continuar el desarrollo profesional del equipo.Item Investigación de mercado y aplicación práctica de MLOps(Universidad ORT Uruguay, 2022) Rivero Lamanna, Diego José; Pisani Leal, Mikaela; Visca Zanoni, Ramiro Eugenio; Zaiter Trinidad, FedericoEl siguiente trabajo final presenta una investigación sobre las herramientas líderes del mercado en cuanto a metodología MLOps. Se enfoca en el desarrollo, validación y disponibilidad de un modelo para predecir precios de automóviles utilizando datos reales publicados en una plataforma de venta en línea. La herramienta elegida fue VertexAI de Google y el caso de negocio consistió en organizar el flujo de trabajo y automatizar la totalidad del ciclo de vida de un modelo de aprendizaje automático. Desde VertexAI se accede a los datos a través de la plataforma de venta en línea. Dichos datos se limpian y se transforman en variables de entrada para entrenar el modelo. Se utiliza el componente predefinido de AutoML de VertexAI, desplegándose el modelo si el mismo supera los umbrales mínimos en sus KPI. Como resultado se obtuvo un buen modelo que se puede mantener en el tiempo con poca intervención de un experto. Además se hizo un uso exhaustivo de la herramienta VertexAI, líder en el mercado para MLOps en la nube. Como conclusión, se validó el principio de “data-centric AI” para lograr el desarrollo de un buen modelo. También se validó la herramienta VertexAI para lograr un proyecto de MLOps y se alcanzó el objetivo de implementar un proyecto de aprendizaje automático “end to end”. Por último se plantean dos opciones para extraer valor real del modelo, construyendo herramientas de software que utilizarían al modelo como centro de sus funcionalidades.Item Investigación e implementación de sistemas de recomendación para e-commerce de ropa(Universidad ORT Uruguay, 2021) Rytt Duek, Alan Raphael; Rodríguez Velázquez, Gonzalo Hernán; Young Mendiola, Federico Manuel; Quintana Izzi, Alexis Franklin; López, Fernando; Laborde, Sebastián; Yovine, Sergio FabiánEl siguiente trabajo final presenta una investigación sobre los sistemas de recomendación en el comercio electrónico (e-commerce) del rubro vestimenta. Estos sistemas tienen como objetivo mejorar la experiencia de los usuarios al brindar un contenido personalizado en función de los intereses y análisis de patrones de comportamiento, permitiendo mediante ello un aumento de la tasa de conversión. Los avances en inteligencia artificial y aprendizaje automático han permitido la adaptabilidad de estos sistemas a cualquier ecosistema electrónico. En este trabajo se estudia el estado del arte desde varios enfoques: filtrado colaborativo, filtrado basado en contenido y sistemas híbridos. Se plantea como objetivo obtener la cantidad de recomendaciones más relevantes y personalizadas de prendas por usuario. Dentro de este marco se realizó la experimentación de varios algoritmos, se explica el funcionamiento de cada uno, sus ventajas y desventajas. Entre los algoritmos que se trabajaron se encuentran: “Market-basket”, contenido basado en NLP (natural language processing), contenido basado en atributos, KNN (k-nearest neighbors), matriz de similitud, basados en factorización matricial y diferentes variantes de sistemas híbridos. Para medir el rendimiento se utilizó F1 y Mar@k (Mean Average Recall at K). Esta última métrica tiene la particularidad de contemplar el orden de relevancia de los productos recomendados según la preferencia predicha para el usuario. El mejor resultado fue obtenido con el modelo “Switching hybrid” el cual mejoró un 15% sobre el valor inicial planteado. En líneas generales, los algoritmos basados en contenido mostraron una mejor performance que los colaborativos. Adicionalmente, se logró una leve mejora en los algoritmos de contenido con la implementación de los motores híbridos.Item Modelos Generativos para el tratamiento de clases desbalanceadas aplicado a un problema de predicción de caídas severas en el precio del Bitcoin(Universidad ORT Uruguay, 2023) Noguez Piacentini, Juan Ignacio; Yovine, Sergio Fabián; Ferragut Varela, Ruben Andrés; Olloniego Rocca, Juan AndrésEste desarrollo de tesis es tiene como objetivo demostrar que los Modelos Generativos son una buena alternativa para manejar el problema de clases desbalanceadas, además de tener mejores resultados que otras técnicas de remuestreo en términos de desempeño, particularmente en la predicción de caídas severas en el precio de activos financieros. Este trabajo es una aproximación al análisis de modelos con clases desbalanceadas con Modelos Generativos, como el Variational Autoencoders (VAE) y las Generative Adversarial Networks (GAN). Se estudiaron las ventajas de estos modelos en la generación de imágenes y en la generación de texto (NLP), sin embargo, en menor medida se ha estudiado sobre la aplicación en problemas con datos tradicionales o de negocios. En este trabajo se comparan distintas técnicas para el tratamiento de este problema comparando los Modelos Generativos frente a otras técnicas como, SMOTE, “random oversampling” (ROS) y “undersampling” (RUS), en un problema clásico de predicción de caídas severas del precio del Bitcoin. Los resultados encontrados indican que para los clasificadores estimados sobre muestras generadas por los Modelos Generativos, tienen mejor desempeño que otras muestras usadas como de pruebas de rendimientos (benchmark). Los clasificadores elegidos fueron la Regresión Logística, el Random Forest, el Gradient Boosting Classifier y una red neuronal Perceptrón Multicapa.Item Nexden(Universidad ORT Uruguay, 2021) Carbonell González, Ignacio; Espinosa Peralta, Carlos Marcelo; Trocki Beitler, Victor; Bianchi, Alejandro; Bonillo Ramos, Pedro Nolasco; Yovine, Sergio FabiánEl presente trabajo final tiene como objetivo generar una prueba de concepto para una solución de servicios tecnológicos basados en conocimiento y explotación de datos, para una empresa dedicada a la distribución de alimentos en zonas carenciadas. Se trata de resolver el problema de la asignación y despacho de rutas para la distribución, en un contexto donde los servicios de geolocalización que son utilizados por la empresa carecen de información confiable sobre las zonas periféricas o alejadas de los centros más poblados. Luego de un análisis de los datos que dispone la empresa se seleccionó un subconjunto de los mismos con aquellos que resultaron más relevantes. A partir de los mismos se elaboraron un conjunto de herramientas que permiten agregar a la información de los servicios existentes “una capa” de conocimiento capaz de capturar aquella información definida como relevante para el negocio con el objetivo de poder clasificarlas como mejores o peores rutas en consideración de lo que resulta relevante para la empresa (distancia, estado, composición, restricciones, etc.). Se realizó como parte del trabajo, un análisis detallado de las fuentes de datos proporcionados por la empresa de forma de tener una idea clara del grado de profundidad y calidad que se puede obtener de la implementación de una solución de estas características en el momento actual y futuro. También se realizaron recomendaciones pertinentes en el caso de que se quisiera profundizar en las soluciones presentadas en este trabajo.