Informática con mención en Ciencias de la Computación
URI permanente para esta colecciónhttp://54.81.141.168/handle/123456789/51445
Explorar
21 resultados
Resultados de Búsqueda
Ítem Texto completo enlazado Ontologías de dominio para dar soporte al proceso de creación de diccionarios monolingües(Pontificia Universidad Católica del Perú, 2024-10-17) Rebaza Valdivia, Carlos Alberto; Beltrán Castañón, César Armando; Brossard Núñez, Ian PaulLos diccionarios han sido, durante siglos, fundamentales para el entendimiento y la preservación de las lenguas. Fueron también la última palabra para resolver muchas discusiones, actuando como autoridades definitivas en cuestiones de significado y uso correcto de las palabras. La importancia de los diccionarios radica en su capacidad para proporcionar a los lectores una referencia confiable y precisa que facilita la comunicación efectiva y el aprendizaje. Sin embargo, la creación de un diccionario es una tarea ardua y meticulosa que puede llevar décadas en completarse. Este proceso implica la recopilación exhaustiva de datos léxicos, el análisis detallado de palabras y sus múltiples significados, y la verificación de su uso en diferentes contextos. Cada nueva edición de un diccionario requiere un esfuerzo considerable para incorporar cambios en el lenguaje, incluyendo la adición de nuevas palabras, la modificación de definiciones existentes y la eliminación de términos obsoletos. Esta labor intensa asegura que los diccionarios continúen siendo recursos valiosos y relevantes en un mundo en constante evolución. La lexicografía, la disciplina dedicada a la elaboración y estudio de diccionarios, enfrenta numerosos desafíos en su práctica. Más allá del diseño de la estructura del diccionario, el lexicógrafo debe lidiar con la complejidad de la lengua, donde uno de los mayores retos es la polisemia. Las palabras con múltiples significados requieren un tratamiento cuidadoso para asegurar que las definiciones sean precisas y relevantes para el contexto en el que se utilizarán. Este proceso implica no solo identificar todos los posibles significados de una palabra, sino también determinar cuál de estos es más adecuado para el lector objetivo del diccionario. Además, el lexicógrafo debe asegurarse de que las definiciones sean claras y comprensibles, evitando ambigüedades y proporcionando ejemplos de uso que ilustren adecuadamente cada significado. Este desafío se amplifica en un entorno lingüístico dinámico donde el lenguaje evoluciona constantemente, haciendo imprescindible la utilización de herramientas avanzadas que apoyen en la toma de decisiones y en la estructuración eficiente de las entradas del diccionario. Actualmente, tecnologías como TLex y Microsoft Word brindan herramientas que se enfocan en la edición y presentación de las entradas del diccionario, orientadas a detallar las definiciones seleccionadas y mejorar la calidad de su presentación. Sin embargo, el lenguaje es dinámico y evoluciona constantemente, comportándose como un ente vivo en constante evolución que refleja cambios sociales, culturales y tecnológicos. Palabras nuevas emergen, otras caen en desuso y los significados pueden transformarse con el tiempo. Este comportamiento evolutivo del lenguaje presenta un desafío significativo para la lexicografía tradicional. La propuesta de esta tesis es tratar el corpus lexicográfico como un ente orgánico que evoluciona, integrando ontologías y folksonomías para gestionar y adaptar este dinamismo. Las ontologías proporcionan una estructura jerárquica y organizada del conocimiento, permitiendo representar de manera precisa las relaciones entre los términos. Por otro lado, las folksonomías, que son sistemas de clasificación colaborativa, permiten analizar el uso real del lenguaje de manera más flexible y adaptativa. Al apoyarse en grafos de conocimiento, es posible realizar análisis detallados y visualizaciones que ayudan a identificar tendencias, relaciones y cambios en el uso del lenguaje. Este enfoque no solo facilita la actualización y mejora continua de los diccionarios, sino que también permite ofrecer definiciones más precisas y relevantes. Herramientas como las nubes de palabras (wordclouds) pueden proporcionar al lexicógrafo valiosa información sobre las definiciones y su composición léxica. Estas herramientas visualizan la frecuencia de uso de las palabras, sugiriendo qué términos son más comunes y, por ende, más fácilmente comprendidos por los lectores. Esto permite al lexicógrafo identificar rápidamente cuáles definiciones están compuestas por palabras de uso más frecuente, facilitando la creación de entradas más accesibles y relevantes. De igual manera, si algunas palabras dentro de las definiciones pudieran estar sujetas a algún tipo de censura, esta información puede ser comunicada al lexicógrafo, permitiéndole tomar decisiones informadas sobre qué definiciones incluir en el diccionario, acorde al público objetivo. Al integrar estas herramientas en el proceso lexicográfico, se mejora la precisión y relevancia de las definiciones, asegurando que el diccionario cumpla con las expectativas y necesidades de sus lectores.Ítem Texto completo enlazado Gestión de riesgos de seguridad de información, bajo el estándar ISO/IEC 27005:2022, aplicando ontologías de dominio(Pontificia Universidad Católica del Perú, 2024-10-07) Santos Llanos, Daniel Elías; Brossard Núñez, Ian Paul; Beltrán Castañón, César ArmandoEl proceso de gestión de riesgos, en el dominio específico de la seguridad de información, es una labor compleja pero necesaria para prevenir eventos adversos que perjudiquen a las organizaciones. Bien por obligaciones regulatorias o porque se requiere propiciar el logro de los objetivos estratégicos, la gestión de riesgos de seguridad de información (GRSI) se ha convertido en un proceso necesario y recurrente. El desarrollo de una GRSI se fundamenta en normas locales e internacionales que establecen protocolos, actividades y criterios, que establecen diversos conceptos que guardan relaciones complejas en sus términos y taxonomías. En consecuencia, se requieren especialistas experimentados para ejecutar este proceso de manera competente. Esto, a su vez, ocasiona que los resultados de este proceso estén intrínsecamente expuestos a la subjetividad e influencia de las personas que lo realizan. En esta tesis se propone e implementa un proceso de gestión de riesgos de seguridad de información, basado en una ontología de dominio, cuyo corpus está basado en los términos establecidos en los estándares ISO de seguridad de información, las normas técnicas peruanas afines y otras regulaciones internacionales relacionadas. Como resultado de la investigación aplicada se ha comprobado que es posible estructurar los conceptos y taxonomías sobre los dominios de gestión de riesgos y seguridad de la información, en una ontología integrada. Esta ha sido implementada, para guiar y automatizar, mediante una solución informática, la ejecución de una GRSI, de manera que se han mitigado la subjetividad y los errores de consistencia en los resultados de este proceso.Ítem Texto completo enlazado Desarrollo de un algoritmo de Instance Placement en nubes privadas que soporte cargas de Alta Performance(Pontificia Universidad Católica del Perú, 2024-09-04) Córdova Alvarado, Rubén Francisco; Santiváñez Guarniz, César Augusto; Beltrán Castañón, César ArmandoEl aumento de la capacidad computacional ha permitido el uso cada vez mayor de métodos computacionales para resolver problemas complejos de diferentes áreas, logrando tal incremento en la eficiencia y productividad que se dice que hemos empezado una nueva revolución industrial (la era del conocimiento). En esta nueva era, el uso de aplicaciones de alta, High-Performance Computing en inglés (HPC), es cada vez más común. Una forma de utilizar de manera eficiente los recursos computacionales es desplegar estas aplicaciones sobre recursos compartidos (paradigma de computo en la nube, sea esta pública o privada) en lugar de asignarlos a servidores de manera exclusiva, lo que puede resultar en tiempos muertos en el uso de alguno o todos los recursos. El problema de decidir la mejor forma de compartir recursos asignados a servidores ya sea como máquinas virtuales (VMs), contenedores, o en modo dedicado (bare metal) es llamado el problema de Instance Placement, y es fundamental para la performance de una plataforma de computo en la nube. El subproblema que se presenta cuando ya se decidió una asignación via VMs es el de VM Placement. El problema de Instance Placement es actualmente un problema abierto debido a que la solución online requiere el conocimiento no sólo de las demandas actuales y sus parámetros, sino también de las demandas futuras. Como un primer acercamiento a una solución, esta tesis busca diseñar e implementar un algoritmo de Offline Instance Placement donde el conjunto de demandas, su inicio y duración, así como sus estadísticas de uso son conocidas. El algoritmo busca asignar –de la mejor manera posible– los recursos de cómputo a instancias en una nube privada, considerando el tipo de carga a la que estas pertenecen y su nivel de servicio. Debido a que OpenStack es una de las soluciones más empleadas para nubes privadas, se toma como referencia el scheduler de OpenStack para comparar la utilidad de el algoritmo propuesto. Luego de realizar las pruebas, se obtuvo que el scheduler propuesto presenta una mayor utilidad que el scheduler de OpenStack para distintos tipos de cargas.Ítem Texto completo enlazado Predicción de la aceptación de pedidos por parte de los repartidores en la industria de entregas a domicilio utilizando machine learning(Pontificia Universidad Católica del Perú, 2024-08-14) Alarcon Flores, Jorge Brian; Beltrán Castañón, César ArmandoLa industria de entregas a domicilio ha experimentado un auge significativo debido a la creciente demanda de los consumidores que buscan la comodidad de recibir productos y alimentos directamente en sus hogares. El avance de tecnologías y aplicaciones móviles ha impulsado el crecimiento de este mercado, permitiéndole adaptarse a las preferencias cambiantes de los consumidores [10] [19]. Sin embargo, un componente crítico en este proceso son los repartidores, quienes, tras la realización de un pedido por parte del cliente en la plataforma de la empresa, reciben notificaciones que les ofrecen una serie de pedidos sugeridos. Si aceptan, asumen la responsabilidad de recoger y entregar el pedido a los consumidores, así como la ganancia asociada, pero en ocasiones, los repartidores pueden declinar la aceptación de un pedido, lo que potencialmente conlleva a retrasos en la entrega, generando experiencias insatisfactorias para los usuarios. Este aspecto se presenta como un desafío significativo en la optimización de las operaciones de entrega a domicilio, el cual puede abordarse con soluciones de aprendizaje de máquina. En este artículo se presentan los resultados de la experimentación realizada con diversos modelos de aprendizaje de máquina, aplicándose la técnica de balanceo Smartly OverSampling con SMOTE. Los modelos se aplicaron a un conjunto de datos proporcionado por una institución latinoamericana líder en el sector de entregas a domicilio, reportando el algoritmo LightGBM, los mejores resultados con un AUC de 0.88 y un Average Precision Recall de 0.47.Ítem Texto completo enlazado Clasificación automática de eventos en videos de fútbol utilizando redes convolucionales profundas(Pontificia Universidad Católica del Perú, 2024-06-21) Laboriano Galindo, Alipio; Beltrán Castañón, César ArmandoLa forma en que las nuevas generaciones consumen y experimentan el deporte especialmente el fútbol, ha generado oportunidades significativas en la difusión de contenidos deportivos en plataformas no tradicionales y en formatos más reducidos. Sin embargo, recuperar información con contenido semántico de eventos deportivos presentados en formato de video no es tarea sencilla y plantea diversos retos. En videos de partidos de fútbol entre otros retos tenemos: las posiciones de las cámaras de grabación, la superposición de eventos o jugadas y la ingente cantidad de fotogramas disponibles. Para generar resúmenes de calidad y que sean interesantes para el aficionado, en esta investigación se desarrolló un sistema basado en Redes Convolucionales Profundas para clasificar automáticamente eventos o jugadas que ocurren durante un partido de fútbol. Para ello se construyó una base de datos a partir de videos de fútbol descargados de SoccerNet, la cual contiene 1,959 videoclips de 5 eventos: saques de meta, tiros de esquina, faltas cometidas, tiros libres indirectos y remates al arco. Para la experimentación se utilizó técnicas de preprocesamiento de video, una arquitectura convolucional propia y se aplicó transfer learning con modelos como ResNet50, EfficientNetb0, Visión Transformers y Video Visión Transformers. El mejor resultado se obtuvo con una EfficentNetb0 modificada en su primera capa convolucional, con la cual se obtuvo un 91% accuracy, y una precisión de 100% para los saques de meta, 92% para los tiros de esquina, 90% para las faltas cometidas, 88% para los tiros libres indirectos y 89% para los remates al arco.Ítem Texto completo enlazado Modelo de regresión para el pronóstico de la cantidad de denuncias por delitos que se registran en las Comisarías de la Policía Nacional de Perú en Lima Metropolitana(Pontificia Universidad Católica del Perú, 2023-08-31) Chipa Sierra, Roger; Beltrán Castañón, César ArmandoEn nuestro país, la cantidad promedio de denuncias por delitos de manera mensual en el año 2019 presenta 30,000 casos, lo cual se ha ido incrementando a lo largo de los años, por lo que es de crucial importancia generar estrategias de seguridad ciudadana que ayuden a mejorar el bienestar de la sociedad peruana, para ello es crucial tener información fiable y de calidad para la toma de decisiones; asimismo, tiene una Dirección de Tecnologías de la Información y Comunicación de la Policía (DIRTIC), la cual dentro de su estructura tiene a su cargo a la División de Estadística (DIVEST) y la División de Informática (DIVINFOR), las cuales tienen como función el control del Sistema de Denuncias Policiales en la cual el 80 % de las comisarías de la Policía Nacional del Perú se encuentran interconectadas y existe un 20 % que no se encuentran interconectadas, por lo cual el 20 % de comisarías no registra información en el Sistema de Denuncias Policiales, generando una incertidumbre para la toma de decisiones. Es por tal motivo que la División de Estadística (DIVEST) propone un modelo para el pronóstico de la cantidad de denuncias por delitos que se registran en las comisarías de la Policía Nacional de Perú en Lima Metropolitana, en base a la técnica de regresión RANDOM FOREST REGRESSOR Y ÁRBOL DE DECISIÓN DE REGRESIÓN, con la cual se podrá conocer cuál de las dos técnicas genera un mejor pronóstico en base a la información que proviene del SIDPOL y del INEI.Ítem Texto completo enlazado Agrupamiento de textos basado en la generación de Embeddings(Pontificia Universidad Católica del Perú, 2022-08-19) Cachay Guivin, Anthony Wainer; Beltrán Castañón, César ArmandoActualmente, gracias a los avances tecnológicos, principalmente en el mundo de la informática se logra disponer de una gran cantidad de información, que en su mayoría son una composición de signos codificados a nivel computacional que forman una unidad de sentido, como son los textos. Debido a la variabilidad y alta volumetría de información navegable en internet hace que poder agrupar información veraz sea una tarea complicada. El avance computacional del lenguaje de procesamiento natural está creciendo cada día para solucionar estos problemas. El presente trabajo de investigación estudia la forma como se agrupan los textos con la generación de Embeddings. En particular, se centra en usar diferentes métodos para aplicar modelos supervisados y no supervisados para que se puedan obtener resultados eficientes al momento de toparse con tareas de agrupamiento automático. Se trabajó con cinco Datasets, y como resultado de la implementación de los modelos supervisados se pudo determinar que el mejor Embedding es FastText implementado con Gensim y aplicado en modelos basados en boosting. Para los modelos no supervisados el mejor Embedding es Glove aplicado en modelos de redes neuronales con AutoEncoder y capa K-means.Ítem Texto completo enlazado Modelos de detección de emociones en texto y rostros para agentes conversacionales multimodales(Pontificia Universidad Católica del Perú, 2022-04-06) Balbuena Galván, José Guillermo; Beltrán Castañón, César ArmandoEl presente trabajo de investigación aborda la implementación, análisis y selección de distintos modelos de redes neuronales recurrentes (RNN) y convolucionales (CNN) para la detección de emociones en texto y rostros; los cuales pueden ser utilizados como módulos adicionales en agentes conversacionales de tiempo real como son chatbots o robots sociales. Los módulos de detección permiten a los agentes conversacionales poder entender cómo se sienten las personas durante la interacción con ellas; conociendo estos estados los agentes conversacionales pueden responder empáticamente. En primer lugar, se revisará la literatura sobre como los agentes conversacionales buscan ser más empáticos, así como los métodos de detección de emociones mediante distintos canales como texto y rostros. Luego, se procede a recolectar y pre-procesar bases de datos públicas para el entrenamiento de los algoritmos seleccionados en base a la literatura. Finalmente, métricas tanto para la evaluación del rendimiento de predicción multiclase (Accuracy, Precision, Recall y F1), como la velocidad de procesamiento (ej. Framesper- second) son seleccionadas y analizadas para determinar cuáles son los mejores algoritmos para implementar una aplicación de tiempo real.Ítem Texto completo enlazado Sperm cell segmentation in digital micrographs based on convolutional neural networks using u-net architecture(Pontificia Universidad Católica del Perú, 2021-08-11) Melendez Melendez, Roy Kelvin; Beltrán Castañón, César ArmandoHuman infertility is considered a serious disease of the the reproductive system that affects more than 10% of couples worldwide,and more than 30% of reported cases are related to men. The crucial step in evaluating male in fertility is a semen analysis, highly dependent on sperm morphology. However,this analysis is done at the laboratory manually and depends mainly on the doctor’s experience. Besides,it is laborious, and there is also a high degree of interlaboratory variability in the results. This article proposes applying a specialized convolutional neural network architecture (U-Net),which focuses on the segmentation of sperm cells in micrographs to overcome these problems.The results showed high scores for the model segmentation metrics such as precisión (93%), IoU score (86%),and DICE score of 93%. Moreover,we can conclude that U-net architecture turned out to be a good option to carry out the segmentation of sperm cells.Ítem Texto completo enlazado Identificación automática de las fases del gesto de recepción en el vóley mediante análisis de videos usando redes neuronales convolucionales(Pontificia Universidad Católica del Perú, 2020-07-21) Garcia Sulca, Jose Gustavo; Beltrán Castañón, César ArmandoEl presente trabajo presenta un modelo algorítmico que permite la identificación automática a partir de videos de las fases temporales que ocurren durante la ejecución de la técnica de recepción en el vóley. En la etapa inicial se muestra la definición de dichas fases temporales a analizar, así como algunos trabajos relacionados al ámbito de reconocimiento de actividades en el área de ciencias de la computación. De igual manera, se presenta el marco teórico que contiene los conceptos necesarios para el desarrollo de este trabajo. Luego se procedió a definir dos módulos en los que se divide el modelo algorítmico: módulo de detección de jugador y módulo de clasificación de fases. En cada uno de estos módulos se detalla las arquitecturas de los modelos a utilizar así como el pre-procesamiento de los datos y el respectivo método de entrenamiento. Finalmente, se muestra lo obtenido tras la implementación de los módulos detallados anteriormente. Para ello se realizó adicionalmente la recolección de una base de datos de videos con su respectivo etiquetado, la cual fue desarrollada para la presente tesis como parte del proyecto “Caracterización biomecánica del gesto técnico de recepción en el voleibol puesta al servicio del entrenamiento deportivo mediante el desarrollo de un aplicativo móvil integrado a un sistema de captura de movimiento low-cost”, el cual viene siendo desarrollado por el Grupo de Investigación en Robótica Aplicada y Biomecánica. Con ello, se muestran los resultados obtenidos al realizar el entrenamiento de los módulos con esta base de datos. Estos muestran que el modelo implementado consigue identificar correctamente la fase temporal a nivel de frames con una precisión de 92.19%. Además a ello, en los casos donde ocurre un error en la identificación, la fase identificada por el modelo es una contigua a la real, mostrando que el modelo pudo captar la esencia temporal de las fases.
- «
- 1 (current)
- 2
- 3
- »