Informática con mención en Ciencias de la Computación
URI permanente para esta colecciónhttp://54.81.141.168/handle/123456789/51445
Explorar
Ítem Texto completo enlazado A generative adversarial network approach for super resolution of sentinel-2 satellite images(Pontificia Universidad Católica del Perú, 2020-03-17) Pineda Ancco, Ferdinand Edgardo; Beltrán Castañón, César ArmandoRecently, satellites in operation offering very high-resolution (VHR) images has experienced an important increase, but they remain as a smaller proportion against existing lower resolution (HR) satellites. Our work proposes an alternative to improve the spatial resolution of HR images obtained by Sentinel-2 satellite by using the VHR images from PeruSat1, a Peruvian satellite, which serve as the reference for the superresolution approach implementation based on a Generative Adversarial Network (GAN) model, as an alternative for obtaining VHR images. The VHR PeruSat-1 image dataset is used for the training process of the network. The results obtained were analyzed considering the Peak Signal to Noise Ratios (PSNR), the Structural Similarity (SSIM) and the Erreur Relative Globale Adimensionnelle de Synth`ese (ERGAS). Finally, some visual outcomes, over a given testing dataset, are presented so the performance of the model could be analyzed as well.Ítem Texto completo enlazado Agrupamiento de textos basado en la generación de Embeddings(Pontificia Universidad Católica del Perú, 2022-08-19) Cachay Guivin, Anthony Wainer; Beltrán Castañón, César ArmandoActualmente, gracias a los avances tecnológicos, principalmente en el mundo de la informática se logra disponer de una gran cantidad de información, que en su mayoría son una composición de signos codificados a nivel computacional que forman una unidad de sentido, como son los textos. Debido a la variabilidad y alta volumetría de información navegable en internet hace que poder agrupar información veraz sea una tarea complicada. El avance computacional del lenguaje de procesamiento natural está creciendo cada día para solucionar estos problemas. El presente trabajo de investigación estudia la forma como se agrupan los textos con la generación de Embeddings. En particular, se centra en usar diferentes métodos para aplicar modelos supervisados y no supervisados para que se puedan obtener resultados eficientes al momento de toparse con tareas de agrupamiento automático. Se trabajó con cinco Datasets, y como resultado de la implementación de los modelos supervisados se pudo determinar que el mejor Embedding es FastText implementado con Gensim y aplicado en modelos basados en boosting. Para los modelos no supervisados el mejor Embedding es Glove aplicado en modelos de redes neuronales con AutoEncoder y capa K-means.Ítem Texto completo enlazado Application on semantic segmentation with few labels in the detection of water bodies from PERUSAT-1 satellite's images(Pontificia Universidad Católica del Perú, 2020-07-02) Gonzalez Villarreal, Jessenia Margareth Marina; Beltrán Castañón, César ArmandoRemote sensing is widely used to monitor earth surfaces with the main objective of extracting information from it. Such is the case of water surface, which is one of the most affected extensions when flood events occur, and its monitoring helps in the analysis of detecting such affected areas, considering that adequately defining water surfaces is one of the biggest problems that Peruvian authorities are concerned with. In this regard, semi automatic mapping methods improve this monitoring, but this process remains a time-consuming task and into the subjectivity of the experts. In this work, we present a new approach for segmenting water surfaces from satellite images based on the application of convolutional neural networks. First, we explore the application of a U-Net model and then a transfer knowledge-based model. Our results show that both approaches are comparable when trained using an 680-labelled satellite image dataset; however, as the number of training samples is reduced, the performance of the transfer knowledge-based model, which combines high and very high image resolution characteristics, is improvedÍtem Texto completo enlazado Automatic lymphocyte detection on gastric cancer IHC images using deep learning(Pontificia Universidad Católica del Perú, 2018-01-19) García Ríos, Emilio Rafael; Beltrán Castañón, César ArmandoTumor-infiltrating lymphocytes (TILs) have received considerable attention in recent years, as evidence suggests they are related to cancer prognosis. Distribution and localization of these and other types of immune cells are of special interest for pathologists, and frequently involve manual examination on Immunohistochemistry (IHC) Images. We present a model based on Deep Convolutional Neural Networks for Automatic lymphocyte detection on IHC images of gastric cancer. The dataset created as part of this work is publicly available for future research.Ítem Texto completo enlazado Caracterización de textura en imágenes digitales de hojas de plantas mediante dimensión fractal multiescala(Pontificia Universidad Católica del Perú, 2018-04-11) Khlebnikov Núñez, Sofía; Beltrán Castañón, César Armando; Martinez Bruno, OdemirActualmente aún existen áreas de la Amazonía donde se puede encontrar especies de plantas que necesitan ser identificadas y estudiadas para poder conocer sus propiedades médicas, nutricionales, industriales, etc. En muchos casos, los especialistas realizan un análisis manual, confiando en sus habilidades sensoriales y experiencia, pero eso demanda tiempo y dinero. Por eso, es importante tener una herramienta efectiva que permita hacer un rápido y eficiente reconocimiento de las plantas. Con este trabajo queremos dar un aporte al área de la investigación de reconocimiento y clasificación de plantas, presentando los resultados de la caracterización de plantas a través de la textura de la hoja. El objetivo es evaluar el método Bouligand-Minkowski basado en dimensión fractal multiescala, usando imágenes digitales para la caracterización de la textura de hojas de la Amazonía del Perú´, con el fin de ayudar a mejorar su identificación y catalogación. Para lograr el objetivo de la investigación se trabajó con dos bases de datos: ImageCLEF 2012, con 101 especies de plantas y PERALD de 27 especies. La primera es la base de datos de validación y la segunda es objeto de la investigación. El paso inicial de este trabajo fue la aplicación de un pre- procesamiento de las imágenes de las plantas. Luego, las imágenes fueron divididas en cuadrados de 128 x 128 pixeles, seleccionando los 5 mejores por cada imagen. Este paso era necesario para facilitar la caracterización de la textura. Después se aplicó el método Bouligand-Minkowski a cada muestra para obtener los descriptores de la textura de la planta. Estos descriptores fueron la entrada al clasificador Multilayer Perceptron generando así un modelo de clasificación de plantas de base de datos PERALD.Ítem Texto completo enlazado Caracterización y reconocimiento de objetos mediante algoritmos de visión computacional para la interacción de un robot con su entorno(Pontificia Universidad Católica del Perú, 2016-10-27) Robles Pizarro, Luis David; Beltrán Castañón, César ArmandoEn el campo de la robótica, se han desarrollado distintos algoritmos y métodos con el objetivo de mejorar la interacción de los robots con las personas y con su entorno de trabajo en tiempo real; es así, como el sistema reacciona y evoluciona constantemente ante cambios que podrían ocurrir durante su funcionamiento. Para alcanzar los objetivos mencionados, una de las habilidades que se le confiere a la máquina es la capacidad de detectar, registrar y reconocer objetos. La presente tesis es un trabajo de investigación aplicada que tiene como objetivo desarrollar un procedimiento que permita a un sistema robótico reconocer y detectar objetos en tiempo real dentro de un entorno controlado; para ello, nos enfocamos en utilizar dos métodos conocidos de reconocimientos de objetos (métodos SIFT y SURF) con los cuales categorizaremos un objeto de un dominio predefinido y comparamos los resultados obtenidos. Se eligieron el método SIFT y el método SURF por la similitud en los pasos que siguen para obtener la información de un objeto; cabe resaltar que el método SURF es un método alterno al SIFT. Los resultados finales mostraron una mejor predicción en la categorización utilizando el método SIFT, pero ésta requería de mayor tiempo para extraer los puntos característicos de los objetos. Por otro lado, el método SURF generaba más puntos característicos de los objetos y en mejor tiempo. La extracción de puntos de interés se analizó en tiempo real; mientras, que la etapa de categorización no consideró este parámetro, sino la cantidad de puntos de interés necesarios para predecir con exactitud la categoría de un objeto.Ítem Texto completo enlazado Clasificación automática de eventos en videos de fútbol utilizando redes convolucionales profundas(Pontificia Universidad Católica del Perú, 2024-06-21) Laboriano Galindo, Alipio; Beltrán Castañón, César ArmandoLa forma en que las nuevas generaciones consumen y experimentan el deporte especialmente el fútbol, ha generado oportunidades significativas en la difusión de contenidos deportivos en plataformas no tradicionales y en formatos más reducidos. Sin embargo, recuperar información con contenido semántico de eventos deportivos presentados en formato de video no es tarea sencilla y plantea diversos retos. En videos de partidos de fútbol entre otros retos tenemos: las posiciones de las cámaras de grabación, la superposición de eventos o jugadas y la ingente cantidad de fotogramas disponibles. Para generar resúmenes de calidad y que sean interesantes para el aficionado, en esta investigación se desarrolló un sistema basado en Redes Convolucionales Profundas para clasificar automáticamente eventos o jugadas que ocurren durante un partido de fútbol. Para ello se construyó una base de datos a partir de videos de fútbol descargados de SoccerNet, la cual contiene 1,959 videoclips de 5 eventos: saques de meta, tiros de esquina, faltas cometidas, tiros libres indirectos y remates al arco. Para la experimentación se utilizó técnicas de preprocesamiento de video, una arquitectura convolucional propia y se aplicó transfer learning con modelos como ResNet50, EfficientNetb0, Visión Transformers y Video Visión Transformers. El mejor resultado se obtuvo con una EfficentNetb0 modificada en su primera capa convolucional, con la cual se obtuvo un 91% accuracy, y una precisión de 100% para los saques de meta, 92% para los tiros de esquina, 90% para las faltas cometidas, 88% para los tiros libres indirectos y 89% para los remates al arco.Ítem Texto completo enlazado Desarrollo de un algoritmo de Instance Placement en nubes privadas que soporte cargas de Alta Performance(Pontificia Universidad Católica del Perú, 2024-09-04) Córdova Alvarado, Rubén Francisco; Santiváñez Guarniz, César Augusto; Beltrán Castañón, César ArmandoEl aumento de la capacidad computacional ha permitido el uso cada vez mayor de métodos computacionales para resolver problemas complejos de diferentes áreas, logrando tal incremento en la eficiencia y productividad que se dice que hemos empezado una nueva revolución industrial (la era del conocimiento). En esta nueva era, el uso de aplicaciones de alta, High-Performance Computing en inglés (HPC), es cada vez más común. Una forma de utilizar de manera eficiente los recursos computacionales es desplegar estas aplicaciones sobre recursos compartidos (paradigma de computo en la nube, sea esta pública o privada) en lugar de asignarlos a servidores de manera exclusiva, lo que puede resultar en tiempos muertos en el uso de alguno o todos los recursos. El problema de decidir la mejor forma de compartir recursos asignados a servidores ya sea como máquinas virtuales (VMs), contenedores, o en modo dedicado (bare metal) es llamado el problema de Instance Placement, y es fundamental para la performance de una plataforma de computo en la nube. El subproblema que se presenta cuando ya se decidió una asignación via VMs es el de VM Placement. El problema de Instance Placement es actualmente un problema abierto debido a que la solución online requiere el conocimiento no sólo de las demandas actuales y sus parámetros, sino también de las demandas futuras. Como un primer acercamiento a una solución, esta tesis busca diseñar e implementar un algoritmo de Offline Instance Placement donde el conjunto de demandas, su inicio y duración, así como sus estadísticas de uso son conocidas. El algoritmo busca asignar –de la mejor manera posible– los recursos de cómputo a instancias en una nube privada, considerando el tipo de carga a la que estas pertenecen y su nivel de servicio. Debido a que OpenStack es una de las soluciones más empleadas para nubes privadas, se toma como referencia el scheduler de OpenStack para comparar la utilidad de el algoritmo propuesto. Luego de realizar las pruebas, se obtuvo que el scheduler propuesto presenta una mayor utilidad que el scheduler de OpenStack para distintos tipos de cargas.Ítem Texto completo enlazado Desarrollo de un aplicativo movil para la extracción automática de información del documento de indentificación mediante visión computacional(Pontificia Universidad Católica del Perú, 2020-07-02) Carrillo Fuertes, Tomas Ivan; Beltrán Castañón, César ArmandoLos seres humanos han tenido varias formas de identificar individuos y grupos, pero los orígenes del sistema de identificación nacional contemporáneo se remontan a 1938, cuando los legisladores en el Reino Unido aprobaron la Ley de Registro Nacional, que exigía que todos los residentes posean tarjetas de identidad. Posteriormente, Alemania, Francia, Polonia, Grecia, entre otros, también instituyeron sistemas de tarjeta de identidad (ID) después del final de la Segunda Guerra Mundial. En Perú, el Documento Nacional de Identidad (DNI) constituye la única cédula de identidad personal reconocida por el Estado para todos los actos civiles, comerciales, administrativos, judiciales y, en general, para todos aquellos casos en que, por mandato legal, deba ser presentado. Su emisión se encuentra a cargo del Registro Nacional de Identificación y Estado Civil - RENIEC. Así, la presentación del DNI implica sobre todo verificar la información que se encuentra en ella, para certificar que pertenece al portador. Para empresas como de seguros, bancos, clínicas, entre otros; es importante realizar esta tarea de verificación de forma rápida y precisa, pero por lo general esta tarea es realizada de forma manual mediante el uso de la aplicación que facilita la RENIEC, pero la cual requiere una autorización además que posee un costo por consulta1. También existen diversos aplicativos OCR para leer información de las personas a partir de tarjetas de presentación, pasaporte y documentos de identidad, sin embargo, estas herramientas son tecnologías cerradas y propietarias, cuyos costos se hacen elevados en el tiempo. Por ello, el presente trabajo busca desarrollar un modelo algorítmico que permita extraer la información de una persona a partir de la imagen de su DNI electrónico. Para conseguir este objetivo, el aplicativo utiliza algoritmos de procesamiento de imagen para identificar los datos de la persona en el DNI, luego separa cada dato de la persona en palabras y por último cada palabra en letras. Cada imagen que contiene una letra será clasificada por un modelo para identificar que letra es. En este trabajo para la clasificación de letras se probó los modelos de Adaboost, basado en árboles de decisiones y YOLO (v3 tiny), que es una arquitectura neuronal inspirada en GoogLeNet. Tomando una muestra de 17 DNI electrónicos se obtuvo como resultado el 87% de letras correctamente detectadas con Adaboost y 98% con YOLO. En base a este resultado se concluye que los modelos Adaboost y YOLO pueden mejorar la extracción de la información de una persona a partir de la imagen de su DNI electrónico.Ítem Texto completo enlazado Gestión de riesgos de seguridad de información, bajo el estándar ISO/IEC 27005:2022, aplicando ontologías de dominio(Pontificia Universidad Católica del Perú, 2024-10-07) Santos Llanos, Daniel Elías; Brossard Núñez, Ian Paul; Beltrán Castañón, César ArmandoEl proceso de gestión de riesgos, en el dominio específico de la seguridad de información, es una labor compleja pero necesaria para prevenir eventos adversos que perjudiquen a las organizaciones. Bien por obligaciones regulatorias o porque se requiere propiciar el logro de los objetivos estratégicos, la gestión de riesgos de seguridad de información (GRSI) se ha convertido en un proceso necesario y recurrente. El desarrollo de una GRSI se fundamenta en normas locales e internacionales que establecen protocolos, actividades y criterios, que establecen diversos conceptos que guardan relaciones complejas en sus términos y taxonomías. En consecuencia, se requieren especialistas experimentados para ejecutar este proceso de manera competente. Esto, a su vez, ocasiona que los resultados de este proceso estén intrínsecamente expuestos a la subjetividad e influencia de las personas que lo realizan. En esta tesis se propone e implementa un proceso de gestión de riesgos de seguridad de información, basado en una ontología de dominio, cuyo corpus está basado en los términos establecidos en los estándares ISO de seguridad de información, las normas técnicas peruanas afines y otras regulaciones internacionales relacionadas. Como resultado de la investigación aplicada se ha comprobado que es posible estructurar los conceptos y taxonomías sobre los dominios de gestión de riesgos y seguridad de la información, en una ontología integrada. Esta ha sido implementada, para guiar y automatizar, mediante una solución informática, la ejecución de una GRSI, de manera que se han mitigado la subjetividad y los errores de consistencia en los resultados de este proceso.Ítem Texto completo enlazado Histograma de orientación de gradientes aplicado al seguimiento múltiple de personas basado en video(Pontificia Universidad Católica del Perú, 2017-03-31) Tolentino Urbina, Álvaro Junior; Beltrán Castañón, César ArmandoEl seguimiento múltiple de personas en escenas reales es un tema muy importante en el campo de Visión Computacional dada sus múltiples aplicaciones en áreas como en los sistemas de vigilancia, robótica, seguridad peatonal, marketing, etc., además de los retos inherentes que representa la identificación de personas en escenas reales como son la complejidad de la escena misma, la concurrencia de personas y la presencia de oclusiones dentro del video debido a dicha concurrencia. Existen diversas técnicas que abordan el problema de la segmentación de imágenes y en particular la identificación de personas, desde diversas perspectivas; por su parte el presente trabajo tiene por finalidad desarrollar una propuesta basada en Histograma de Orientación de Gradientes (HOG) para el seguimiento múltiple de personas basado en video. El procedimiento propuesto se descompone en las siguientes etapas: Procesamiento de Video, este proceso consiste en la captura de los frames que componen la secuencia de video, para este propósito se usa la librería OpenCV de tal manera que se pueda capturar la secuencia desde cualquier fuente; la siguiente etapa es la Clasificación de Candidatos, esta etapa se agrupa el proceso de descripción de nuestro objeto, que para el caso de este trabajo son personas y la selección de los candidatos, para esto se hace uso de la implementación del algoritmo de HOG; por último la etapa final es el Seguimiento y Asociación, mediante el uso del algoritmo de Kalman Filter, permite determinar las asociaciones de las secuencias de objetos previamente detectados. La propuesta se aplicó sobre tres conjuntos de datos, tales son: TownCentre (960x540px), TownCentre (1920x1080px) y PETS 2009, obteniéndose los resultados para precisión: 94.47%, 90.63% y 97.30% respectivamente. Los resultados obtenidos durante las experimentaciones validan la propuesta del modelo haciendo de esta una herramienta que puede encontrar múltiples campos de aplicación, además de ser una propuesta innovadora a nivel nacional dentro del campo de Vision Computacional.Ítem Texto completo enlazado Identificación automática de acciones humanas en secuencias de video para soporte de videovigilancia(Pontificia Universidad Católica del Perú, 2018-11-28) Fernández Martínez, Luis Christian; Beltrán Castañón, César ArmandoLa identificación de acciones en secuencias de video es un tema de especial interés para aplicaciones como detección de peleas, identificación de vandalismo, detección de asaltos a transeúntes, detección de contenido no apto para menores, etc. Este interés se encuentra asociado al incremento de cámaras de videovigilancia alrededor del mundo y a la masiva producción de videos en línea cargados a las diferentes plataformas sociales de almacenamiento y distribución de contenido bajo demanda. Debido a ello, se decide utilizar un modelo de detección de acciones humanas y aplicarlo en secuencias de videovigilancia. Dicho modelo utiliza redes neuronales profundas, con la finalidad de poder realizar la tarea de clasificación. El modelo aplicado se basa en el extracción de características convolucionales y temporales utilizando una parte de la red Inception V3 para lo primero y una red LSTM para lo segundo. Finalmente, se aplica el modelo en el dataset UCF101 el cual contiene acciones humanas diversas y luego sobre el dataset VIRAT 2.0 Ground, el cual contiene secuencias de videovigilancia.Ítem Texto completo enlazado Identificación automática de las fases del gesto de recepción en el vóley mediante análisis de videos usando redes neuronales convolucionales(Pontificia Universidad Católica del Perú, 2020-07-21) Garcia Sulca, Jose Gustavo; Beltrán Castañón, César ArmandoEl presente trabajo presenta un modelo algorítmico que permite la identificación automática a partir de videos de las fases temporales que ocurren durante la ejecución de la técnica de recepción en el vóley. En la etapa inicial se muestra la definición de dichas fases temporales a analizar, así como algunos trabajos relacionados al ámbito de reconocimiento de actividades en el área de ciencias de la computación. De igual manera, se presenta el marco teórico que contiene los conceptos necesarios para el desarrollo de este trabajo. Luego se procedió a definir dos módulos en los que se divide el modelo algorítmico: módulo de detección de jugador y módulo de clasificación de fases. En cada uno de estos módulos se detalla las arquitecturas de los modelos a utilizar así como el pre-procesamiento de los datos y el respectivo método de entrenamiento. Finalmente, se muestra lo obtenido tras la implementación de los módulos detallados anteriormente. Para ello se realizó adicionalmente la recolección de una base de datos de videos con su respectivo etiquetado, la cual fue desarrollada para la presente tesis como parte del proyecto “Caracterización biomecánica del gesto técnico de recepción en el voleibol puesta al servicio del entrenamiento deportivo mediante el desarrollo de un aplicativo móvil integrado a un sistema de captura de movimiento low-cost”, el cual viene siendo desarrollado por el Grupo de Investigación en Robótica Aplicada y Biomecánica. Con ello, se muestran los resultados obtenidos al realizar el entrenamiento de los módulos con esta base de datos. Estos muestran que el modelo implementado consigue identificar correctamente la fase temporal a nivel de frames con una precisión de 92.19%. Además a ello, en los casos donde ocurre un error en la identificación, la fase identificada por el modelo es una contigua a la real, mostrando que el modelo pudo captar la esencia temporal de las fases.Ítem Texto completo enlazado Modelo computacional de minería de microblogs para el análisis del comportamiento del consumidor de telefonía celular(Pontificia Universidad Católica del Perú, 2016-11-26) Apaza Delgado, Santiago Hernán; Beltrán Castañón, César ArmandoLos mensajes de Twitter están siendo cada vez más usados para determinar el sentimiento de los consumidores de servicios o productos. Para ello se hacen uso de diversas técnicas computacionales, desde las tradicionales adaptadas de problemas de clasificación de textos y las recientes que usan modelos de aprendizaje de máquina. En ambos enfoques se debe desarrollar una serie de etapas que van desde el pre–procesamiento hasta la evaluación. El presente documento muestra el resultado del proceso de aplicación de diversas técnicas de Análisis de Sentimiento para poder asignar una polaridad positiva, negativa o neutral a los tweets de los consumidores de telefonía celular en el Perú, con la finalidad de poder identificar cual es el comportamiento que presentan los clientes de las empresas de telefonía celular representado en opiniones vertidas en la red social Twitter. Para ello se extrajeron 26,917,539 publicaciones de la red social Twiter durante 2 periodos, cada uno de 30 días. Estas publicaciones corresponden a los tweets de los seguidores de tres empresas de telefonía celular en el Perú, incluyendo una relativamente nueva en el mercado peruano. El procedimiento seguido comprendió las siguientes tareas: a) Recolección de tweets de los seguidores de las empresas de telefonía celular; b) Pre–procesamiento de la data obtenida para poder identificar elementos importantes de cada tweet; c) Filtrado de elementos poco relevantes, o ruido; y d) Clasificación de cada publicación basado en las características obtenidas en etapas previas. Los resultados obtenidos nos muestran que la introducción de un diccionario de lexicones incrementó el número de términos que pueden ser considerados para la clasificación. Así mismo, el uso de este diccionario al cual se le aumento nuevos términos permitió incrementar la tasa de clasificación en un 0,75%. Finalmente, gracias a estas técnicas de análisis de sentimiento, es posible explotar el contenido de redes sociales de manera que puedan servir a las corporaciones para la toma de decisiones, especialmente de servicio a sus usuarios.Ítem Texto completo enlazado Modelo convolucional para la detección de nódulos pulmonares a partir de tomografías 3D(Pontificia Universidad Católica del Perú, 2019-05-23) Maldonado Cadenillas, Rodrigo Ricardo; Beltrán Castañón, César ArmandoEl cáncer al pulmón se ha convertido en una de las enfermedades con mayor incidencia a nivel mundial. Sin embargo, el análisis preventivo y detección de nódulos cancerígenos generalmente se realiza de forma manual por los radiólogos, lo cual ralentiza el proceso y genera posibles errores humanos. De esta manera, se han realizado diversas investigaciones sobre este problema utilizando Deep Learning como alternativa de solución para el análisis automático de tomografías. En este trabajo, se propone una aplicación y configuración de un modelo U- net, con bloques residuales y con regiones más rápidas para la detección de nódulos en tomografías computarizadas 3D. Los resultados obtenidos arrojan un FROC del 78 %, lo cual muestra que nuestra propuesta esta´ en el camino correcto, considerando las limitaciones de hardware en la que se ejecutó.Ítem Texto completo enlazado Modelo de regresión para el pronóstico de la cantidad de denuncias por delitos que se registran en las Comisarías de la Policía Nacional de Perú en Lima Metropolitana(Pontificia Universidad Católica del Perú, 2023-08-31) Chipa Sierra, Roger; Beltrán Castañón, César ArmandoEn nuestro país, la cantidad promedio de denuncias por delitos de manera mensual en el año 2019 presenta 30,000 casos, lo cual se ha ido incrementando a lo largo de los años, por lo que es de crucial importancia generar estrategias de seguridad ciudadana que ayuden a mejorar el bienestar de la sociedad peruana, para ello es crucial tener información fiable y de calidad para la toma de decisiones; asimismo, tiene una Dirección de Tecnologías de la Información y Comunicación de la Policía (DIRTIC), la cual dentro de su estructura tiene a su cargo a la División de Estadística (DIVEST) y la División de Informática (DIVINFOR), las cuales tienen como función el control del Sistema de Denuncias Policiales en la cual el 80 % de las comisarías de la Policía Nacional del Perú se encuentran interconectadas y existe un 20 % que no se encuentran interconectadas, por lo cual el 20 % de comisarías no registra información en el Sistema de Denuncias Policiales, generando una incertidumbre para la toma de decisiones. Es por tal motivo que la División de Estadística (DIVEST) propone un modelo para el pronóstico de la cantidad de denuncias por delitos que se registran en las comisarías de la Policía Nacional de Perú en Lima Metropolitana, en base a la técnica de regresión RANDOM FOREST REGRESSOR Y ÁRBOL DE DECISIÓN DE REGRESIÓN, con la cual se podrá conocer cuál de las dos técnicas genera un mejor pronóstico en base a la información que proviene del SIDPOL y del INEI.Ítem Texto completo enlazado Modelos de detección de emociones en texto y rostros para agentes conversacionales multimodales(Pontificia Universidad Católica del Perú, 2022-04-06) Balbuena Galván, José Guillermo; Beltrán Castañón, César ArmandoEl presente trabajo de investigación aborda la implementación, análisis y selección de distintos modelos de redes neuronales recurrentes (RNN) y convolucionales (CNN) para la detección de emociones en texto y rostros; los cuales pueden ser utilizados como módulos adicionales en agentes conversacionales de tiempo real como son chatbots o robots sociales. Los módulos de detección permiten a los agentes conversacionales poder entender cómo se sienten las personas durante la interacción con ellas; conociendo estos estados los agentes conversacionales pueden responder empáticamente. En primer lugar, se revisará la literatura sobre como los agentes conversacionales buscan ser más empáticos, así como los métodos de detección de emociones mediante distintos canales como texto y rostros. Luego, se procede a recolectar y pre-procesar bases de datos públicas para el entrenamiento de los algoritmos seleccionados en base a la literatura. Finalmente, métricas tanto para la evaluación del rendimiento de predicción multiclase (Accuracy, Precision, Recall y F1), como la velocidad de procesamiento (ej. Framesper- second) son seleccionadas y analizadas para determinar cuáles son los mejores algoritmos para implementar una aplicación de tiempo real.Ítem Texto completo enlazado Ontologías de dominio para dar soporte al proceso de creación de diccionarios monolingües(Pontificia Universidad Católica del Perú, 2024-10-17) Rebaza Valdivia, Carlos Alberto; Beltrán Castañón, César Armando; Brossard Núñez, Ian PaulLos diccionarios han sido, durante siglos, fundamentales para el entendimiento y la preservación de las lenguas. Fueron también la última palabra para resolver muchas discusiones, actuando como autoridades definitivas en cuestiones de significado y uso correcto de las palabras. La importancia de los diccionarios radica en su capacidad para proporcionar a los lectores una referencia confiable y precisa que facilita la comunicación efectiva y el aprendizaje. Sin embargo, la creación de un diccionario es una tarea ardua y meticulosa que puede llevar décadas en completarse. Este proceso implica la recopilación exhaustiva de datos léxicos, el análisis detallado de palabras y sus múltiples significados, y la verificación de su uso en diferentes contextos. Cada nueva edición de un diccionario requiere un esfuerzo considerable para incorporar cambios en el lenguaje, incluyendo la adición de nuevas palabras, la modificación de definiciones existentes y la eliminación de términos obsoletos. Esta labor intensa asegura que los diccionarios continúen siendo recursos valiosos y relevantes en un mundo en constante evolución. La lexicografía, la disciplina dedicada a la elaboración y estudio de diccionarios, enfrenta numerosos desafíos en su práctica. Más allá del diseño de la estructura del diccionario, el lexicógrafo debe lidiar con la complejidad de la lengua, donde uno de los mayores retos es la polisemia. Las palabras con múltiples significados requieren un tratamiento cuidadoso para asegurar que las definiciones sean precisas y relevantes para el contexto en el que se utilizarán. Este proceso implica no solo identificar todos los posibles significados de una palabra, sino también determinar cuál de estos es más adecuado para el lector objetivo del diccionario. Además, el lexicógrafo debe asegurarse de que las definiciones sean claras y comprensibles, evitando ambigüedades y proporcionando ejemplos de uso que ilustren adecuadamente cada significado. Este desafío se amplifica en un entorno lingüístico dinámico donde el lenguaje evoluciona constantemente, haciendo imprescindible la utilización de herramientas avanzadas que apoyen en la toma de decisiones y en la estructuración eficiente de las entradas del diccionario. Actualmente, tecnologías como TLex y Microsoft Word brindan herramientas que se enfocan en la edición y presentación de las entradas del diccionario, orientadas a detallar las definiciones seleccionadas y mejorar la calidad de su presentación. Sin embargo, el lenguaje es dinámico y evoluciona constantemente, comportándose como un ente vivo en constante evolución que refleja cambios sociales, culturales y tecnológicos. Palabras nuevas emergen, otras caen en desuso y los significados pueden transformarse con el tiempo. Este comportamiento evolutivo del lenguaje presenta un desafío significativo para la lexicografía tradicional. La propuesta de esta tesis es tratar el corpus lexicográfico como un ente orgánico que evoluciona, integrando ontologías y folksonomías para gestionar y adaptar este dinamismo. Las ontologías proporcionan una estructura jerárquica y organizada del conocimiento, permitiendo representar de manera precisa las relaciones entre los términos. Por otro lado, las folksonomías, que son sistemas de clasificación colaborativa, permiten analizar el uso real del lenguaje de manera más flexible y adaptativa. Al apoyarse en grafos de conocimiento, es posible realizar análisis detallados y visualizaciones que ayudan a identificar tendencias, relaciones y cambios en el uso del lenguaje. Este enfoque no solo facilita la actualización y mejora continua de los diccionarios, sino que también permite ofrecer definiciones más precisas y relevantes. Herramientas como las nubes de palabras (wordclouds) pueden proporcionar al lexicógrafo valiosa información sobre las definiciones y su composición léxica. Estas herramientas visualizan la frecuencia de uso de las palabras, sugiriendo qué términos son más comunes y, por ende, más fácilmente comprendidos por los lectores. Esto permite al lexicógrafo identificar rápidamente cuáles definiciones están compuestas por palabras de uso más frecuente, facilitando la creación de entradas más accesibles y relevantes. De igual manera, si algunas palabras dentro de las definiciones pudieran estar sujetas a algún tipo de censura, esta información puede ser comunicada al lexicógrafo, permitiéndole tomar decisiones informadas sobre qué definiciones incluir en el diccionario, acorde al público objetivo. Al integrar estas herramientas en el proceso lexicográfico, se mejora la precisión y relevancia de las definiciones, asegurando que el diccionario cumpla con las expectativas y necesidades de sus lectores.Ítem Texto completo enlazado Predicción de la aceptación de pedidos por parte de los repartidores en la industria de entregas a domicilio utilizando machine learning(Pontificia Universidad Católica del Perú, 2024-08-14) Alarcon Flores, Jorge Brian; Beltrán Castañón, César ArmandoLa industria de entregas a domicilio ha experimentado un auge significativo debido a la creciente demanda de los consumidores que buscan la comodidad de recibir productos y alimentos directamente en sus hogares. El avance de tecnologías y aplicaciones móviles ha impulsado el crecimiento de este mercado, permitiéndole adaptarse a las preferencias cambiantes de los consumidores [10] [19]. Sin embargo, un componente crítico en este proceso son los repartidores, quienes, tras la realización de un pedido por parte del cliente en la plataforma de la empresa, reciben notificaciones que les ofrecen una serie de pedidos sugeridos. Si aceptan, asumen la responsabilidad de recoger y entregar el pedido a los consumidores, así como la ganancia asociada, pero en ocasiones, los repartidores pueden declinar la aceptación de un pedido, lo que potencialmente conlleva a retrasos en la entrega, generando experiencias insatisfactorias para los usuarios. Este aspecto se presenta como un desafío significativo en la optimización de las operaciones de entrega a domicilio, el cual puede abordarse con soluciones de aprendizaje de máquina. En este artículo se presentan los resultados de la experimentación realizada con diversos modelos de aprendizaje de máquina, aplicándose la técnica de balanceo Smartly OverSampling con SMOTE. Los modelos se aplicaron a un conjunto de datos proporcionado por una institución latinoamericana líder en el sector de entregas a domicilio, reportando el algoritmo LightGBM, los mejores resultados con un AUC de 0.88 y un Average Precision Recall de 0.47.Ítem Texto completo enlazado Segmentación automática de textos, mediante redes neuronales convolucionales en imágenes documentos históricos(Pontificia Universidad Católica del Perú, 2018-11-28) Ascarza Mendoza, Franco Javier; Beltrán Castañón, César ArmandoLos manuscritos históricos contienen valiosa información, en los últimos años se han realizado esfuerzos para digitalizar dicha información y ponerla al alcance de la comunidad científica y público en general a través de imágenes en bibliotecas virtuales y repositorios digitales. Sin embargo, existen documentos y manuscritos históricos escritos en un lenguaje extinto en la actualidad y una cantidad limitada de profesionales expertos en la interpretación y análisis de dichos documentos. Las imágenes de los documentos y manuscritos históricos poseen características particulares producto precisamente de su antigüedad como por ejemplo: La degradación del papel, el desvanecimiento de la tinta, la variabilidad en iluminación y textura, entre otros. Tareas como recuperación de información o traducción automática de imágenes de manuscritos históricos requieren una etapa de pre-procesamiento importante debido a las características mencionadas en el párrafo anterior. Entre las tareas de pre-procesamiento se puede mencionar la binarización y la segmentación de la imagen en regiones de interés. La presente tesis se enfoca en el procedimiento de segmentación en regiones de interés de las imágenes de manuscritos históricos. Existen métodos para segmentar imágenes de documentos históricos basados fundamentalmente en la extracción manual de características con previo conocimiento del dominio. La finalidad de la presente tesis es desarrollar un modelo general que automáticamente aprenda a extraer características de los pixeles de las imágenes de los documentos históricos y utilizar dichas características para clasificar los pixeles en las clases que previamente se definirán.