Informática con mención en Ciencias de la Computación
URI permanente para esta colecciónhttp://54.81.141.168/handle/123456789/51445
Explorar
Ítem Texto completo enlazado 3D Reconstruction of Incomplete Archaeological Objects Using a Generative Adversarial Network(Pontificia Universidad Católica del Perú, 2018-07-09) Hermoza Aragonés, Renato; Sipiran Mendoza, Iván AnselmoWe introduce a data-driven approach to aid the repairing and conservation of archaeological objects: ORGAN, an object reconstruction generative adversarial network (GAN). By using an encoder-decoder 3D deep neural network on a GAN architecture, and combining two loss objectives: a completion loss and an Improved Wasserstein GAN loss, we can train a network to effectively predict the missing geometry of damaged objects. As archaeological objects can greatly differ between them, the network is conditioned on a variable, which can be a culture, a region or any metadata of the object. In our results, we show that our method can recover most of the information from damaged objects, even in cases where more than half of the voxels are missing, without producing many errors.Ítem Texto completo enlazado A crowd-powered conversational assistant for the improvement of a neural machine translation system in native peruvian language(Pontificia Universidad Católica del Perú, 2019-09-13) Gómez Montoya, Héctor Erasmo; Oncevay Marcos, Felix ArturoPara las comunidades más pequeñas y nativas en un país, es muy difícil encontrar información que se encuentre en su idioma original, esto debido a que su lengua no tiene el alcance ni la cantidad suficiente de hablantes, para poder seguir siendo transmitida. A este tipo de lengua se le denomina minoritaria o de pocos recursos. Una de las principales formas en las que el gobierno incentiva el proceso de multilingüismo es proporcionando educación en el idioma nativo a su población, tal es el caso de los hablantes de Shipibo-Konibo que se encuentran dispersos a lo largo de la amazonía del Perú. Ellos cuentan con colegios donde se les imparten clases en su lengua nativa para los niveles de primaria y secundaria. Sin embargo, una necesidad con la que cuentan los pobladores es que la cantidad de material educativo completamente traducido a Shipibo-Konibo es reducida. Esto debido a que el proceso de traducción es muy costoso y poco confiable. El Grupo de investigación en Inteligencia Artificial de la PUCP (IA-PUCP, ex GRPIAA) ha desarrollado una plataforma que utiliza corpus paralelos la creación de un modelo estadístico de traducción automática para las lenguas Shipibo-Konibo y español. Este modelo sufre de ciertas limitantes, entre las cuales tenemos: la cantidad de recursos bibliográficos y material completamente traducido, esto debido a que al ser una lengua minoritaria o de pocos recursos carecen de facilidades para la generación de nuevos corpus. Por otro lado, se desea mejorar el modelo actual en parámetros de eficiencia y obtener mejores resultados en las traducciones. En este contexto nace la pregunta que motiva el presente trabajo: ¿de qué manera podemos incrementar el corpus paralelo de forma eficiente y confiable para la mejora del modelo actual de traducción automática? Por consiguiente, en el presente trabajo se propone desarrollar un agente conversacional que permita la generación de nuevos corpus paralelos entre Shipibo-Konibo y español que permitan mejorar un modelo de traducción automática neuronal en las lenguas ya mencionadas.Ítem Texto completo enlazado A generative adversarial network approach for super resolution of sentinel-2 satellite images(Pontificia Universidad Católica del Perú, 2020-03-17) Pineda Ancco, Ferdinand Edgardo; Beltrán Castañón, César ArmandoRecently, satellites in operation offering very high-resolution (VHR) images has experienced an important increase, but they remain as a smaller proportion against existing lower resolution (HR) satellites. Our work proposes an alternative to improve the spatial resolution of HR images obtained by Sentinel-2 satellite by using the VHR images from PeruSat1, a Peruvian satellite, which serve as the reference for the superresolution approach implementation based on a Generative Adversarial Network (GAN) model, as an alternative for obtaining VHR images. The VHR PeruSat-1 image dataset is used for the training process of the network. The results obtained were analyzed considering the Peak Signal to Noise Ratios (PSNR), the Structural Similarity (SSIM) and the Erreur Relative Globale Adimensionnelle de Synth`ese (ERGAS). Finally, some visual outcomes, over a given testing dataset, are presented so the performance of the model could be analyzed as well.Ítem Texto completo enlazado Agrupamiento de textos basado en la generación de Embeddings(Pontificia Universidad Católica del Perú, 2022-08-19) Cachay Guivin, Anthony Wainer; Beltrán Castañón, César ArmandoActualmente, gracias a los avances tecnológicos, principalmente en el mundo de la informática se logra disponer de una gran cantidad de información, que en su mayoría son una composición de signos codificados a nivel computacional que forman una unidad de sentido, como son los textos. Debido a la variabilidad y alta volumetría de información navegable en internet hace que poder agrupar información veraz sea una tarea complicada. El avance computacional del lenguaje de procesamiento natural está creciendo cada día para solucionar estos problemas. El presente trabajo de investigación estudia la forma como se agrupan los textos con la generación de Embeddings. En particular, se centra en usar diferentes métodos para aplicar modelos supervisados y no supervisados para que se puedan obtener resultados eficientes al momento de toparse con tareas de agrupamiento automático. Se trabajó con cinco Datasets, y como resultado de la implementación de los modelos supervisados se pudo determinar que el mejor Embedding es FastText implementado con Gensim y aplicado en modelos basados en boosting. Para los modelos no supervisados el mejor Embedding es Glove aplicado en modelos de redes neuronales con AutoEncoder y capa K-means.Ítem Texto completo enlazado Algoritmos para la ordenación de juegos basados en blockchain según su potencial como inversión(Pontificia Universidad Católica del Perú, 2023-06-02) Beramendi Higueras, Arnau; Beltran Castañón, César ArmandoEn el presente trabajo se da un primer paso en la investigación en el área de juegos basados en blockchain. Estos juegos suponen un nuevo paradigma de inversión capaz de generar beneficios y pérdidas millonarias, por lo que se propone desarrollar diversas propuestas que ordenen las distintas opciones según su potencial como inversión, a fin de actuar como un asistente en la toma de decisiones. Para dicho fin, se estudian los principales algoritmos de análisis de enlace, pues sus similitudes y características los hacen especialmente idóneos para tal propósito. En primer lugar, se lleva a cabo una revisión del estado del arte, a fin de encontrar cualquier estudio previo que aborde la misma problemática o, si más no, parte de la misma. Seguidamente, se realiza un estudio de las principales propuestas existentes dentro del área de análisis de enlaces, con el objetivo final de poder adaptarlas y desarrollar algoritmos propios específicos para esta investigación. Finalmente, se recolectan los datos necesarios para poder experimentar en último lugar con las propuestas teóricas planteadas. Se analizan los resultados obtenidos junto a los datos extraídos para comprender el comportamiento de cada algoritmo.Ítem Texto completo enlazado Análisis de publicaciones en una red social de microblogging para la detección automática de sucesos violentos durante manifestaciones públicas(Pontificia Universidad Católica del Perú, 2017-05-04) Oncevay Marcos, Félix Arturo; Melgar Sasieta, Héctor AndrésEl activismo social en el Perú se encuentra en crecimiento, principalmente en las zonas urbanas y en los sectores de ingresos medios, donde las redes sociales han llegado a influir en las diversas acciones de la población, y en el modo de informar, influir y convocar a las personas. Es por ello que se han observado casos recientes como las marchas contra la Ley Laboral Juvenil o ‘Ley Pulpín’, donde se movilizó una gran cantidad de personas, y se podían observar dos manifestaciones en paralelo pero afines: en la calle y en las redes sociales, principalmente en Twitter. Sin embargo, a pesar de ser convocada como marcha pacífica, sucedieron actos de violencia y enfrentamientos, los cuales lamentablemente son frecuentes en la realidad peruana. En este contexto, se propone el desarrollo de un mecanismo para analizar los mensajes publicados en Twitter durante una manifestación real. El objetivo principal es identificar y caracterizar automáticamente los diferentes sucesos de violencia que pueden ocurrir durante la protesta. Para esto, luego de recolectar publicaciones de Twitter durante manifestaciones reales, se analizarán cuáles son las mejores técnicas a aplicar para el tratamiento y transformación de estos mensajes a información relevante para nuestro objetivo. El enfoque de esta investigación se plantea desde las áreas de la ingeniería del conocimiento (análisis del dominio del conocimiento sobre violencia), la minería de textos (detección, resumen y descripción de eventos a partir de textos) y el procesamiento de lenguaje natural. Finalmente, se calcularán métricas de evaluación sobre los sucesos violentos identificados, para validar la eficacia del procedimiento propuesto.Ítem Texto completo enlazado Análisis, diseño e implementación de un módulo de planificación de construcción de casos de uso(Pontificia Universidad Católica del Perú, 2014-04-24) Moquillaza Vizarreta, Arturo; Pow Sang Portillo, José AntonioLos procesos actuales de desarrollo de software implican la utilización de una serie de herramientas y de metodologías que permitan dirigir y soportar el proceso de desarrollo y la gestión adecuada del proyecto mismo. Con el paso del tiempo, estas metodologías se han hecho más útiles a medida que la complejidad del software que se desarrolla ha ido en aumento. RUP, por ejemplo, es una metodología que nos guía para lograr este propósito [1]. Uno de los grandes desafíos de la comunidad de investigadores en ingenie ría de software, es involucrar a los stakeholders en el proceso de captura de requerimientos. Un stakeholder se puede definir como aquella persona que está materialmente afectada por el resultado del proyecto. En ese sentido, todo proyecto involucra la satisfacción de necesidades de un grupo diverso de stakeholders. Típicamente, estos tienen diferentes perspectivas sobre el problema, y diferentes necesidades que deben ser convenientemente identificadas [4]. No obstante los avances logrados en los últimos años, hay algunas partes del proceso de desarrollo de software que aún no están adecuadamente soportadas por alguna metodología, y en ese sentido, requieren de la experiencia de quienes manejan el proyecto de software. El proceso de elección del orden de construcción de los casos de uso a partir de los requerimientos capturados, es un ejemplo de lo anterior. El presente proyecto muestra una propuesta de solución a este tema. Se ha implementado un módulo de software que permite capturar la opinión de los stakeholders y a partir de estas, generar una secuencia de construcción de casos de uso.Ítem Texto completo enlazado Aplicación de redes bayesianas para modelamiento y predicción de calidad del aire en áreas urbana(Pontificia Universidad Católica del Perú, 2020-10-27) Cusi Chirapo, Hernán; Villanueva Talavera, Edwin RafaelLa contaminación del aire es hoy en día uno de los mayores problemas en las grandes ciudades. Entender la dinámica de los contaminantes y determinar la calidad de aire en áreas no monitorizadas ha sido el objetivo de varias investigaciones recientes dada su relevancia en la creación de políticas de mitigación. Los enfoques propuestos se dividen principalmente en aquellos que intentan modelar la dinámica de emisión/difusión y en aquellos que intentan predecir la concentración de contaminantes en el espacio y/o tiempo. Comúnmente estos enfoques tienen fines diferentes, los primeros se enfocan en entender los mecanismos que expliquen la distribución histórica de contaminantes, mientras que los segundos se enfocan en crear modelos predictivos, sin importar si dichos modelos representan las causalidades de los procesos subyacentes. En la presente investigación se propone la aplicación de modelos de redes Bayesianas, las cuales pueden tanto capturar posibles causalidades del proceso de formación y difusión de contaminación, así como servir de modelos algorítmicos para inferir en el espacio y en el tiempo los parámetros de calidad del aire. Se aplicó la técnica de bootstraping junto con técnicas de aprendizaje estructural para aprender diversos modelos bayesianos e integrarlos en un modelo robusto en el cual se puede discriminar relaciones fuertes entre las variables de calidad del aire de posibles relaciones espurias. En un primer experimento se creó modelos para predecir un determinado tipo de contaminante en un punto en el espacio, dada las mediciones de una red de estaciones del mismo tipo de contaminante. En un segundo experimento se adicionó varios tipos de contaminantes para hacer dicha predicción. En un tercer experimento se aprendió modelos adicionando dos variables metereológicas comúnmente usadas para el modelado de calidad del aire: velocidad y dirección del viento. En un cuarto experimento se aprendió modelos suministrando conocimiento a priori aprendido en el primer experimento a fin de reducir costo computacional de aprendizaje e inferencia. En total, se aprendieron 504 modelos, identificándose 6 modelos en el ultimo experimento con capacidades predictivas significativas a costos computacionales razonables. Como ventaja del modelado se pudo identificar las distancias de influencia de la red de estaciones que incide directamente en la predicción espacial, ayudando así a entender la dinámica de difusión de los diferentes tipos de contaminantes.Ítem Texto completo enlazado Aplicación del análisis de simetrías parciales en la restauración de objetos arqueológicos(Pontificia Universidad Católica del Perú, 2024-01-25) Pérez Sinticala, Carlos Enrique; Beltran Castañon, Cesar ArmandoLa restauración de objetos es una tarea crucial en el ámbito de la reconstrucción tridimensional de objetos dentro del campo de la computación gráfica. En el caso de los objetos arqueológicos, esta labor adquiere una gran relevancia debido a la inmensa riqueza cultural que posee el Perú. Las muestras obtenidas suelen presentar imperfecciones por el deterioro inherente al paso del tiempo o por procesos de fragmentación y su restauración manual por usuarios expertos, que ha sido una práctica común, es costosa y poco eficiente, lo que hace necesario contar con métodos automáticos de restauración digital. En general, los procesos de restauración de objetos pueden ser divididos en dos categorías: los que completan objetos usando otros objetos como referencia y los que analizan el propio objeto, buscando detectar características repetitivas en el mismo. En esa segunda categoría, el análisis de simetrías es una de las principales técnicas de reconocimiento de patrones, los que serán expresados como transformaciones geométricas que al aplicarse permitirán completar los fragmentos perdidos. La presente tesis propone un algoritmo de detección de simetrías aproximadas parciales basado en propiedades diferenciales de la superficie del objeto tridimensional, representado por una malla de triángulos. Sobre la base de las simetrías detectadas, se propone un algoritmo de refinamiento, para luego proceder con el completado del objeto. La evaluación del algoritmo comprende el uso de objetos tridimensionales de los que se extrae los parámetros de las simetrías para medir su distancia con la simetría calculada por el algoritmo y la localización geométrica de sus vértices para, luego de simular una fractura retirando una porción del objeto, medir la congruencia del proceso de completado de la geometría faltante. Estos valores de congruencia del algoritmo propuesto son óptimos en la comparación con otros trabajos recientes del estado del arte.Ítem Texto completo enlazado Application on semantic segmentation with few labels in the detection of water bodies from PERUSAT-1 satellite's images(Pontificia Universidad Católica del Perú, 2020-07-02) Gonzalez Villarreal, Jessenia Margareth Marina; Beltrán Castañón, César ArmandoRemote sensing is widely used to monitor earth surfaces with the main objective of extracting information from it. Such is the case of water surface, which is one of the most affected extensions when flood events occur, and its monitoring helps in the analysis of detecting such affected areas, considering that adequately defining water surfaces is one of the biggest problems that Peruvian authorities are concerned with. In this regard, semi automatic mapping methods improve this monitoring, but this process remains a time-consuming task and into the subjectivity of the experts. In this work, we present a new approach for segmenting water surfaces from satellite images based on the application of convolutional neural networks. First, we explore the application of a U-Net model and then a transfer knowledge-based model. Our results show that both approaches are comparable when trained using an 680-labelled satellite image dataset; however, as the number of training samples is reduced, the performance of the transfer knowledge-based model, which combines high and very high image resolution characteristics, is improvedÍtem Texto completo enlazado Aprendizaje profundo para transcripción de textos históricos manuscritos en español(Pontificia Universidad Católica del Perú, 2024-07-16) Choque Dextre, Gustavo Jorge; Beltrán Castañón, Cesar ArmandoEl reconocimiento de textos historicos es considerado un problema desafiante debido a los muchos factores que ´ alteran el estado de los manuscritos y la complejidad de los diferentes estilos de escritura involucrados en este tipo de documentos; en los anos recientes se han creado muchos modelos de Reconocimiento de textos manuscritos ˜ enfocados en diversos idiomas como el ingles, chino, ´ arabe y japon ´ es entre otros, sin embargo no se han ´ encontrado muchas iniciativas de reconocimiento de texto orientadas al idioma espanol debido fundamentalmente ˜ a un escasez de datasets publicos disponibles para ayudar a solucionar la problem ´ atica en dicho idioma. ´ En esta publicacion se presenta la aplicaci ´ on de t ´ ecnicas de Deep Learning basadas en una arquitectura de ´ red neuronal encoder-decoder y convoluciones compuerta Gated-CNN las cuales en los ultimos ha demostrado ´ resultados sobresalientes para resolver dicha problematica, as ´ ´ı mismo se propone la aplicacion de mecanismos de ´ Transferencia de Aprendizaje para el reconocimiento de textos historicos en espa ´ nol. Los experimentos demuestran ˜ que la aplicacion de estos m ´ etodos puede brindar resultados sobresalientes, adem ´ as la aplicaci ´ on de otras t ´ ecnicas ´ tales como Aumentacion de Datos y Modelos de Lenguaje conllevan a mejoras significativas en los resultados finales. ´ Se propone ademas el uso de un nuevo dataset de textos hist ´ oricos en espa ´ nol conformado por 1000 elementos ˜ tomados de textos historicos peruanos referentes al siglo XVIII.Ítem Texto completo enlazado Automatic lymphocyte detection on gastric cancer IHC images using deep learning(Pontificia Universidad Católica del Perú, 2018-01-19) García Ríos, Emilio Rafael; Beltrán Castañón, César ArmandoTumor-infiltrating lymphocytes (TILs) have received considerable attention in recent years, as evidence suggests they are related to cancer prognosis. Distribution and localization of these and other types of immune cells are of special interest for pathologists, and frequently involve manual examination on Immunohistochemistry (IHC) Images. We present a model based on Deep Convolutional Neural Networks for Automatic lymphocyte detection on IHC images of gastric cancer. The dataset created as part of this work is publicly available for future research.Ítem Texto completo enlazado Caracterización de textura en imágenes digitales de hojas de plantas mediante dimensión fractal multiescala(Pontificia Universidad Católica del Perú, 2018-04-11) Khlebnikov Núñez, Sofía; Beltrán Castañón, César Armando; Martinez Bruno, OdemirActualmente aún existen áreas de la Amazonía donde se puede encontrar especies de plantas que necesitan ser identificadas y estudiadas para poder conocer sus propiedades médicas, nutricionales, industriales, etc. En muchos casos, los especialistas realizan un análisis manual, confiando en sus habilidades sensoriales y experiencia, pero eso demanda tiempo y dinero. Por eso, es importante tener una herramienta efectiva que permita hacer un rápido y eficiente reconocimiento de las plantas. Con este trabajo queremos dar un aporte al área de la investigación de reconocimiento y clasificación de plantas, presentando los resultados de la caracterización de plantas a través de la textura de la hoja. El objetivo es evaluar el método Bouligand-Minkowski basado en dimensión fractal multiescala, usando imágenes digitales para la caracterización de la textura de hojas de la Amazonía del Perú´, con el fin de ayudar a mejorar su identificación y catalogación. Para lograr el objetivo de la investigación se trabajó con dos bases de datos: ImageCLEF 2012, con 101 especies de plantas y PERALD de 27 especies. La primera es la base de datos de validación y la segunda es objeto de la investigación. El paso inicial de este trabajo fue la aplicación de un pre- procesamiento de las imágenes de las plantas. Luego, las imágenes fueron divididas en cuadrados de 128 x 128 pixeles, seleccionando los 5 mejores por cada imagen. Este paso era necesario para facilitar la caracterización de la textura. Después se aplicó el método Bouligand-Minkowski a cada muestra para obtener los descriptores de la textura de la planta. Estos descriptores fueron la entrada al clasificador Multilayer Perceptron generando así un modelo de clasificación de plantas de base de datos PERALD.Ítem Texto completo enlazado Caracterización espacio temporal de la ecofisiología de la "apodanthera biflora" utilizando minería de patrones secuenciales(Pontificia Universidad Católica del Perú, 2016-10-28) Barturén Larrea, José Luis; Alatrista Salas, HugoEn los últimos años, los investigadores del Laboratorio de Ecología Evolutiva de la Universidad Peruana Cayetano Heredia (UPCH) han venido estudiando especies nativas del Bosque Seco Ecuatorial del norte del Perú. Este es el caso de la Apodanthera Biflora, raíz comestible de potencial uso alimentario e industrial. Con la finalidad de desarrollar planes de sostenibilidad y preservación de la especie, los expertos requieren realizar estudios más extensos sobre los factores que afectan las características nutricionales e industriales de la especie. Para determinar estos factores se deben descubrir correlaciones temporales a partir de fuentes de datos heterogéneas. Debido a la dificultad de explotar este tipo de datos no estandarizados ni agrupados, los métodos estadísticos tradicionales no son suficientes, por lo que se requiere herramientas permitan al experto identificar qué correlaciones temporales representan patrones frecuentes relevantes. El presente trabajo evalúa el uso de las técnicas de minería de patrones secuenciales y visualización espacial, con el objetivo de determinar si su aplicación facilita la obtención de patrones frecuentes relevantes a partir de distintas fuentes de datos heterogéneos relacionados a la Apodanthera Biflora. Para lograr este objetivo, se utiliza una metodología basada en el Descubrimiento de Conocimiento a partir de Bases de Datos (KDD por sus siglas en inglés), el cuál define fases para la selección, pre procesamiento, transformación, minería y evaluación (visualización) de los datos. Los resultados obtenidos demostraron que la técnica de minería de patrones secuenciales PrefixSpan y la visualización espacial, utilizando librerías de Google Maps API y D3 Js, permitieron a los expertos la obtención de patrones frecuentes relevantes. Así mismo, la técnica de transformación GIS para datos geográficos, y la técnica de discretización por entropía y frecuencia, han permitido el pre procesamiento de datos heterogéneos. A partir de las correlaciones descubiertas, los expertos identificaron patrones frecuentes relevantes, en las localidades de Chulucanas, Cerrato, El Morante, P. Mora y El Porvenir; principalmente relacionados a las características del suelo, precipitaciones y composición química de la raíz.Ítem Texto completo enlazado Caracterización y reconocimiento de objetos mediante algoritmos de visión computacional para la interacción de un robot con su entorno(Pontificia Universidad Católica del Perú, 2016-10-27) Robles Pizarro, Luis David; Beltrán Castañón, César ArmandoEn el campo de la robótica, se han desarrollado distintos algoritmos y métodos con el objetivo de mejorar la interacción de los robots con las personas y con su entorno de trabajo en tiempo real; es así, como el sistema reacciona y evoluciona constantemente ante cambios que podrían ocurrir durante su funcionamiento. Para alcanzar los objetivos mencionados, una de las habilidades que se le confiere a la máquina es la capacidad de detectar, registrar y reconocer objetos. La presente tesis es un trabajo de investigación aplicada que tiene como objetivo desarrollar un procedimiento que permita a un sistema robótico reconocer y detectar objetos en tiempo real dentro de un entorno controlado; para ello, nos enfocamos en utilizar dos métodos conocidos de reconocimientos de objetos (métodos SIFT y SURF) con los cuales categorizaremos un objeto de un dominio predefinido y comparamos los resultados obtenidos. Se eligieron el método SIFT y el método SURF por la similitud en los pasos que siguen para obtener la información de un objeto; cabe resaltar que el método SURF es un método alterno al SIFT. Los resultados finales mostraron una mejor predicción en la categorización utilizando el método SIFT, pero ésta requería de mayor tiempo para extraer los puntos característicos de los objetos. Por otro lado, el método SURF generaba más puntos característicos de los objetos y en mejor tiempo. La extracción de puntos de interés se analizó en tiempo real; mientras, que la etapa de categorización no consideró este parámetro, sino la cantidad de puntos de interés necesarios para predecir con exactitud la categoría de un objeto.Ítem Texto completo enlazado Clasificación automática de eventos en videos de fútbol utilizando redes convolucionales profundas(Pontificia Universidad Católica del Perú, 2024-06-21) Laboriano Galindo, Alipio; Beltrán Castañón, César ArmandoLa forma en que las nuevas generaciones consumen y experimentan el deporte especialmente el fútbol, ha generado oportunidades significativas en la difusión de contenidos deportivos en plataformas no tradicionales y en formatos más reducidos. Sin embargo, recuperar información con contenido semántico de eventos deportivos presentados en formato de video no es tarea sencilla y plantea diversos retos. En videos de partidos de fútbol entre otros retos tenemos: las posiciones de las cámaras de grabación, la superposición de eventos o jugadas y la ingente cantidad de fotogramas disponibles. Para generar resúmenes de calidad y que sean interesantes para el aficionado, en esta investigación se desarrolló un sistema basado en Redes Convolucionales Profundas para clasificar automáticamente eventos o jugadas que ocurren durante un partido de fútbol. Para ello se construyó una base de datos a partir de videos de fútbol descargados de SoccerNet, la cual contiene 1,959 videoclips de 5 eventos: saques de meta, tiros de esquina, faltas cometidas, tiros libres indirectos y remates al arco. Para la experimentación se utilizó técnicas de preprocesamiento de video, una arquitectura convolucional propia y se aplicó transfer learning con modelos como ResNet50, EfficientNetb0, Visión Transformers y Video Visión Transformers. El mejor resultado se obtuvo con una EfficentNetb0 modificada en su primera capa convolucional, con la cual se obtuvo un 91% accuracy, y una precisión de 100% para los saques de meta, 92% para los tiros de esquina, 90% para las faltas cometidas, 88% para los tiros libres indirectos y 89% para los remates al arco.Ítem Texto completo enlazado Comparación de modelos de aprendizaje de máquina en la predicción del incumplimiento de pago en el sector de las microfinanzas(Pontificia Universidad Católica del Perú, 2021-06-24) López Malca, Jiam Carlos; Olivares Poggi, Cesar AugustoLas instituciones financieras dedicadas a las Microfinanzas brindan sus servicios a un público objetivo que en su mayoría presentan bajos recursos económicos y/o cuyo acceso a los sistemas bancarios tradicionales es limitado, estas instituciones al desarrollarse en un contexto poco favorable los riesgos de incumplimiento en los pagos son mayores en comparación a la banca tradicional. Por tanto, se exige hacer una evaluación económica financiera con mayor grado de detalle, requiriendo para tal fin la participación de un experto del negocio que basado en información obtenida y pericia propia determine si el potencial cliente será un buen pagador. Esta forma de evaluar a un cliente ha evolucionado en el sector financiero en los últimos años, esto debido en gran medida a la aplicación de tecnologías como la inteligencia artificial y el aprendizaje de máquina, ofreciendo una singularidad que es la capacidad de aprender de los datos, demandando menos esfuerzo y participación humana, y redituando mayores niveles de precisión. Se presentan en este artículo los resultados de la experimentación realizada con los siguientes modelos de aprendizaje de maquina: Regresión Logística, XGBoost, Random Forest, Gradient Boosting, Perceptron Multicapa (MLP) y algoritmos de aprendizaje profundo para la predicción del incumplimiento de pagos, aplicándose técnicas de balanceo de submuestreo y sobremuestreo, incluida la técnica de SMOTE. Así mismo, se aplicó la técnica de One Hot Encoding para el tratamiento de variables categóricas. Los diferentes modelos de aprendizaje de maquina se aplicaron a un conjunto de datos proporcionado por una institución peruana líder en el sector de las microfinanzas, reportando los mejores resultados el modelo XGBoost, con una exactitud de 97.53% y un F1-Score de 0.1278.Ítem Texto completo enlazado Construcción de recursos para la detección y clasificación automática de disfluencias producidas por tartamudez en español(Pontificia Universidad Católica del Perú, 2024-09-18) Cabrera Díaz, Daniel Alonso; Sobrevilla Cabezudo, Marco AntonioEsta tesis abordó el desarrollo de recursos computacionales para la detección y clasificación de disfluencias de tartamudez en español, cubriendo desde la recolección y anotación de audios hasta la implementación de un modelo de aprendizaje automático y estrategias de aumento de datos. Se recolectaron audios en español de cinco participantes con tartamudez, conformes a los estándares del dataset SEP-28K y con apoyo de dos especialistas en tartamudez. Aunque la naturaleza controlada de las grabaciones limitó la diversidad de disfluencias observadas, estos audios proporcionaron una base sólida para el desarrollo del modelo. El modelo presentado se basó en el modelo DisfluencyNet. Este modelo fue pre entrenado utilizando wav2vec 2.0 XLSR53 aprovechando su robusta base de datos multilingüe. El modelo demostró su capacidad para identificar y clasificar disfluencias en español, aunque su rendimiento fue inferior comparado con modelos equivalentes en inglés. Esta diferencia subraya la necesidad de más datos. Para mejorar la detección de disfluencias, se implementaron dos estrategias de aumento de datos. La primera incluyó variaciones de pitch, adición de reverberación y ruido blanco, duplicando efectivamente la cantidad de datos disponibles. Aunque esta estrategia mejoró el recall en ciertas disfluencias, los resultados en precisión y F1 fueron mixtos. La segunda estrategia, mediante clonación de voz con el modelo XTTS-v2, generó nuevos audios que emulaban disfluencias naturales, como prolongaciones y bloqueos. Aunque mejoró el recall, especialmente en rondas posteriores de aumento de datos, la precisión y F1 continuaron siendo desafiantes. Futuras investigaciones se enfocarán en expandir la anotación de disfluencias en contextos de habla espontánea y procesar los audios restantes del corpus inicial para explorar mejoras en la clasificación y detección de disfluencias. Además, se explorarán métodos avanzados de clonación de voz y otras técnicas de modificación de audios para enriquecer los datasets y mejorar los modelos de detección y clasificación de disfluencias.Ítem Texto completo enlazado Corrección ortográfica de lenguas amazónicas usando redes neuronales secuencia a secuencia(Pontificia Universidad Católica del Perú, 2020-05-26) Lara Avila, César Jesús; Oncevay Marcos, Félix ArturoDe acuerdo a la Base de Datos Oficial de Pueblos Indígenas u Originarios (BDPI), el Perú cuenta con 55 pueblos indígenas, identificados hasta la fecha; que hablan al menos 47 lenguas originarias y que según el Documento Nacional de Lenguas Originarias del Perú están divididos en 19 familias lingüísticas, siendo las familias Pano y Arawak las que presentan una mayor cantidad de lenguas, ambas con 10 lenguas. En este trabajo, se plantea un modelo de corrección ortográfica utilizando modelos de redes neuronales profundas, a nivel de caracteres, en lenguas de las dos familias antes mencionadas: Shipibo-Konibo de la familia Pano y Yanesha, Yine y Ashaninka para la familia Arawak. Para ello se han realizamos experimentos en conjuntos de datos obtenidos de páginas como PerúEduca, incorporando errores ortográficas cometidos a nivel de caracteres, en modelos secuencia a secuencia (seq2seq) que han demostrado recientemente ser un marco exitoso para varias tareas de procesamiento de lenguaje natural, incluyendo el proceso de corrección ortográfica.Ítem Texto completo enlazado Corrector ortográfico neuronal para errores ortográficos multilingües adversarios para lenguas amazónicas peruanas(Pontificia Universidad Católica del Perú, 2022-11-09) Cardoso Yllanes, Gerardo; Gómez Montoya, Héctor ErasmoPara combatir los ataques de ejemplos adversarios, se propuso implementar un modelo de reconocimiento de palabras y entrenarlo con oraciones creadas a través de diferentes técnicas de generación de data aumentada para cuatro lenguas amazónicas peruanas de pocos recursos: Shipibo-Konibo, Asháninka, Yanesha y Yine. Observamos que, para la gran mayoría de experimentos, el modelo propuesto logró corregir oraciones con palabras con errores ortográficos. Los modelos que fueron entrenados mediante oraciones creadas a través de los canales de errores de ambigüedad fonema-grafema y desnormalización; y, el modelo de ensamble, se desempeñaron mejor al momento de evaluarlos con los corpus creados por profesores de las lenguas. Finalmente, se implementó un prototipo del corrector ortográfico neuronal, en donde se encuentran todos los modelos entrenados en la presente investigación.