Tesis y Trabajos de Investigación PUCP
URI permanente para esta comunidadhttp://54.81.141.168/handle/123456789/6
El Repositorio Digital de Tesis y Trabajos de Investigación PUCP aporta al Repositorio Institucional con todos sus registros, organizados por grado: Doctorado, Maestría, Licenciatura y Bachillerato. Se actualiza permanentemente con las nuevas tesis y trabajos de investigación sustentados y autorizados, así como también con los que que fueron sustentados años atrás.
Ingresa a su web: Repositorio Digital de Tesis y Trabajos de Investigación PUCP
Explorar
21 resultados
Resultados de búsqueda
Ítem Texto completo enlazado Optimización de diseños de minas subterráneas usando el algoritmo pseudoflow(Pontificia Universidad Católica del Perú, 2024-09-09) Sorrentino Carboni, Rui Carlos; Gala Soldevilla, Luis FernandoDesde hace décadas, se conocen métodos eficientes para modelar y optimizar diseños de minas, sin embargo, el desarrollo de estas técnicas ha sido enfocada a la minería a tajo abierto, debido a varios factores como su alta productividad, sumadas a la complejidad conceptual que presentan los diseños de minas subterráneas, no obstante, dicho desarrollo tecnológico, de alguna manera ha beneficiado la minería subterránea, dado a que, muchas de estas tecnologías conocidas pueden ser potencialmente adaptadas. La minería subterránea viene experimentando avances tecnológicos importantes en varios de sus procesos, como es el caso del área de planeamiento de minas, que ya cuenta con herramientas de optimización de formas minables aceptadas por la industria y ampliamente usadas en los estudios de ingeniería y estimación de recursos de minerales o reservas de mena. Recientemente, un nuevo algoritmo denominado pseudoflow, desarrollado para optimizar flujos de red, ha dado nueva vida al exitoso método de optimización de diseños de tajos abiertos Lerchs & Grossmann, reproduciendo los mismos resultados, en mucho menos tiempo. Sus características matemáticas permiten con que el método sea aplicado a cualquier problema de flujos máximos a cortes mínimos, sin importar su dimensión o forma. Este trabajo de investigación prueba la hipótesis, a través del caso de estudio desarrollado en tres estructuras mineralizadas específicas de la zona profunda de la mina Animon, que el algoritmo pseudoflow, sumado a otras herramientas usadas en los procesos de planeamiento de minas, ha sido capaz de optimizar los diseños mineros subterráneos, incrementando el valor del proyecto en un 25% y evitando que la empresa minera incurra en gastos innecesarios por operar en zonas que no son justificadas económicamente. Palabras clave: Minería subterránea, planeamiento de mina, optimización de diseños mineros, algoritmo pseudoflow, reservas de mena, ley de corte optima, código JORC.Ítem Texto completo enlazado Caracterización del canal móvil para aplicaciones V2V en el marco de 5G-NR(Pontificia Universidad Católica del Perú, 2024-03-05) Tuesta Castro, Anderson; Marcano Aviles, Diógenes ManuelLas comunicaciones entre vehículos se perfilan a ser ampliamente utilizadas en el futuro; es por ello que en el presente trabajo se estudió y caracterizó de forma teórica y mediante simulaciones el canal móvil para aplicaciones V2V. Para lograrlo, se empleó un modelo de canal multitrayecto variante en el tiempo en el cual las amplitudes de cada uno de los trayectos existentes fueron representadas con la distribución de probabilidad de Weibull y su respectivo efecto doppler asociado; asimismo, se modeló la no estacionariedad en el dominio del tiempo empleando un proceso de prendido y apagado de cada trayecto en un determinado instante de tiempo usando la distribución de probabilidad uniforme y se garantizó la correlación de cada uno de ellos empelando un algoritmo publicado en la literatura existente. Con todo esto, se implementó el modelo usando Matlab y se validó su correcto funcionamiento realizando simulaciones con datos reales obtenidos de mediciones. Finalmente, se realizó el análisis de la numerología para cada escenario simulado, teniendo en cuenta el marco de 5G-NR.Ítem Texto completo enlazado Aprendizaje estadístico supervisado con máquina de soporte vectorial(Pontificia Universidad Católica del Perú, 2024-02-26) Falcón Cisneros, Sergio Daniel; Véliz Capuñay, Carlos NilbertoActualmente las organizaciones recolectan datos en grandes volúmenes y de fuentes muy variadas. Para dar sentido y convertir los datos en información útil es necesario utilizar técnicas que permitan encontrar y entender las relaciones ocultas en los datos. Generalmente, la relación que nos interesa estudiar es cómo predecir un evento utilizando un conjunto de variables. Sin embargo, muchas veces la relación entre los datos es muy compleja y no puede ser analizada adecuadamente usando las técnicas más conocidas, dado que éstas suelen tener supuestos que no necesariamente se cumplen. Por ello, es importante conocer técnicas de análisis más complejas y flexibles. Esta tesis busca ser un instrumento de ayuda en el aprendizaje y uso de nuevas técnicas para estudiar los datos, lo cual es relevante sobre todo en el medio local en el que este tema es poco conocido. Con este objetivo, presenta una revisión introductoria de la teoría del aprendizaje estadístico, la cual provee del marco teórico para que distintos métodos utilicen los datos para aprender, y usando este conocimiento puedan hacer predicciones sobre datos nuevos o diferentes. Luego se centra en un estudio exhaustivo del método de aprendizaje de Máquinas de Soporte Vectorial (SVM por sus siglas en inglés), introduciendo y aplicando las funciones Kernel. Este método se puede entender como una representación de los datos como puntos en el espacio, asignados de tal forma que exista una brecha grande que separe a los elementos diferentes. Finalmente se pone en práctica la teoría estudiada aplicando el método SVM a datos de clientes de una entidad financiera. Esta entidad financiera usa predominantemente técnicas de aprendizaje estadístico simples y con varios supuestos; particularmente usa una de estas técnicas en un modelo que predice la propensión a la compra y persistencia del producto Seguro de Protección de Tarjetas. Por ello, la presente tesis se centra en aplicar el método SVM para construir una alternativa a este modelo.Ítem Texto completo enlazado Fast LiDAR data registration using GPUs(Pontificia Universidad Católica del Perú, 2023-10-18) Huapaya Ávalos, Carlos Enrique; Carranza De la Cruz, César AlbertoEn los últimos años, la llegada de las cámaras de profundidad de bajo costo y sensores LiDAR ha incentivado a las industrias a invertir en estas tecnologías, lo cual incluye también mayor interés en investigaciones sobre procesamiento digital de señales. En esta ocasión, la reconstrucción tridimensional de túneles mineros utilizando LiDARs y un robot de auto-navegación ha sido propuesta como proyecto de investigación, y el presente trabajo forma parte en cargándose del alineamiento de nubes de puntos tridimensionales en tiempo real, un proceso que es más conocido como Registro de Nubes de Puntos. Existen muchos algoritmos que pueden resolver este problema, pero para el proyecto, el algoritmo solo necesita calcular la alineación fina y rígida. Al comparar los algoritmos de registro más avanzados, se encontró que el popular algoritmo ICP es el más adecuado para este caso debido a su alta robustez y eficiencia. Dentro de este algoritmo, se encuentran 3 pasos simples: relación, minimización y transformación, junto con una colección de variaciones de estos pasos que han sido desarrolladas a lo largo de las últimas décadas. Basándose en esto, en este trabajo se diseñó e implementó un algoritmo ICP paralelo en CPU y GPU. Además, las optimizaciones en recursos de memoria, ocupación de núcleos y el uso de la técnica de desenrollado de bucles para la implementación en GPU permiten que la implementación propuesta deI ICP alcance un rendimiento 95 veces más rápido que implementaciones de CPU altamente optimizadas.Ítem Texto completo enlazado Overlapping point cloud merge and surface reconstruction with parallel processing for real time application(Pontificia Universidad Católica del Perú, 2023-05-26) Pérez Ramírez, Pierre Ramiro; Carranza De La Cruz, Cesar AlbertoCompañías mineras están en búsqueda constante de nuevas tecnologías para aumentar su productividad. Una de las tecnologías que les permite realizar la reconstrucción de la superficie sin poner en riesgo la vida de sus trabajadores es el uso de sensores LiDAR junto con plataformas móviles que les permiten rotar el sensor para realizar un escaneo completo de la estructura. Sin embargo, el procesamiento de los datos se realiza a través de ordenadores situados fuera de la mina, debido a su alto coste computacional, lo que se traduce en un alto coste de tiempo. En esta tesis presento como objetivo principal el diseño de un algoritmo paralelo para la fusión de nubes de puntos capturadas por un LiDAR y la reconstrucción de la superficie en tiempo real, con el fin de reducir el tiempo de procesado, teniendo en cuenta información a priori del patrón de barrido de los puntos. En la literatura se pueden encontrar algoritmos para la reducción de la densidad de puntos, sin embargo, en esta tesis, propongo la idea de suprimir estos puntos basándome en el principio de que la etapa de registro entre cada escaneo puede ser obtenida por un sistema de medición correctamente establecido, por lo tanto, no es necesario utilizar ningún algoritmo ICP. Además, a diferencia de los algoritmos genéricos de reconstrucción de superficies, propongo un nuevo algoritmo que utiliza la información a priori del sistema de escaneo que permite obtener la reconstrucción triangular en un tiempo menor al tiempo de escaneo del LiDAR. Este algoritmo se implementará en un ordenador desktop con el uso de GPUs proporcionadas por NVIDIA para evaluar su rendimiento y, también, se implementará en una Jetson Nano con datos de una mina socavón real. Finalmente, proporcionaré algunas recomendaciones y consideraciones a tener en cuenta en las etapas de evaluación del algoritmo secuencial, codificación del algoritmo paralelo e implementación en GPUs.Ítem Texto completo enlazado Análisis de algoritmos de predicción y optimización para la mejora de la cadena de suministro del efectivo(Pontificia Universidad Católica del Perú, 2022-06-02) Pinedo Pinedo, Alessandra Lily; Ramirez Guzmán, Johao Antony; Rojas Polo, Jonatan EdwardEl presente trabajo de investigación tiene como principal objetivo el análisis y evaluación de los algoritmos que permiten la solución de problemáticas presentes en la cadena de suministro del efectivo, con referencia al proceso de abastecimiento de caudales, donde existe la necesidad de pronosticar los requerimientos de efectivo de clientes, así como definir y diseñar rutas que permitan abastecer y equilibrar los caudales en las sucursales presentes en el nivel final de la cadena de suministro del efectivo (CSC). Por un lado, se realiza un determinado análisis de métodos de pronóstico y algoritmos predictivos que se encuentran presentes dentro del campo de Data Mining. De esta manera, se observa el nivel de diversificación de herramientas para el pronóstico de requerimientos de efectivo de la cadena de suministro y, finalmente, se determina las técnicas más adecuadas para tratar este tipo de información. Por otro lado, se realiza un análisis de los algoritmos, heurísticas y metaheurísticas presentes en la disciplina de Investigación de Operaciones, que son de gran utilidad para la solución de modelos matemáticos que expresan una problemática organizacional. En este caso, se hace hincapié en las técnicas de solución para problemas de tipo Traveling Salesman Problem (TSP) y Vehicle Routing Problem (VRP), que son vitales para formular un problema de enrutamiento de vehículos para suministro de efectivo en la cadena. Finalmente, se contrasta la teoría analizada gracias al estudio de casos, donde los autores solucionan ciertas problemáticas presentes en la cadena de suministro del efectivo haciendo uso de técnicas y algoritmos específicos, que permiten ajustar el análisis teórico hacia una visión real de cómo se debería abordar una propuesta de mejora en la administración del efectivo.Ítem Texto completo enlazado Aplicación del algoritmo de búsqueda tabú para la optimización del espacio utilizado en el llenado de contenedores(Pontificia Universidad Católica del Perú, 2021-11-07) León Málaga, Paul Andrés; Cueva Moscoso, RonyDebido a la progresiva globalización del uso de los contenedores en el transporte marítimo internacional y a la creación de una extensa variedad de estos, se tuvo la necesidad de controlar y estandarizar sus características como el tamaño, carga máxima y métodos de identificación, con este fin se crearon los estándares ISO 668 e ISO 6346. A pesar de los beneficios del uso de los contenedores, las empresas comercializadoras han tenido problemas en optimizar el espacio utilizado dentro de estos debido principalmente a que el orden y distribución de los paquetes que son ingresados en los contenedores es inadecuado. Por lo tanto, plantear un orden de colocación óptimo de los paquetes dentro del contenedor se vuelve el principal problema para este proyecto de fin de carrera. Su solución permitirá transportar más paquetes reduciendo el espacio perdido en cada contenedor, lo que finalmente conlleva a una reducción de los costos de transporte por contenedor incurridos por la empresa. Para este proyecto de fin de carrera se propone aplicar el algoritmo de Búsqueda Tabú para optimizar el espacio utilizado en contenedores considerando restricciones de peso y fragilidad y compararlo con el algoritmo Genético. Como objetivos específicos se tienen los siguientes puntos: • Definir la función objetivo para ambos algoritmos. • Adaptar un algoritmo Genético que proporcione una posible solución. • Diseñar un algoritmo de Búsqueda Tabú que brinde una alternativa de solución. • Implementar prototipos funcionales para ambos algoritmos. • Realizar la experimentación numérica que permita determinar cuál es la solución más óptima.Ítem Texto completo enlazado Aplicación de aprendizaje profundo para la detección y clasificación automática de insectos agrícolas en trampas pegantes(Pontificia Universidad Católica del Perú, 2021-09-30) Córdova Pérez, Claudia Sofía; Villanueva Talavera, Edwin RafaelLa horticultura es una actividad que da trabajo a muchos peruanos en distintas zonas del país, sin embargo, gran parte de la producción de hortalizas es dañada por la alta incidencia de plagas de insectos. En la actualidad, un método efectivo para realizar el control de estas plagas es el uso de trampas pegantes, las cuales atraen y atrapan distintos tipos de insectos. Convencionalmente, las trampas pegantes son colocadas de forma que queden distanciadas uniformemente en el campo donde se realiza el cultivo y luego de varios días se realizan observaciones visuales por parte del personal entrenado en reconocimiento de insectos. No obstante, la información recopilada manualmente por el humano puede no ser tan exacta, pues existen diversos factores que pueden influir en la precisión de esta, por ejemplo, la habilidad de cada persona para detectar distintos tipos de insectos y la posible fatiga que puede ser consecuencia de haber realizado un trabajo manual por mucho tiempo y para una muestra grande de insectos. Las soluciones que se encontraron en la revisión sistemática para tratar problemas de detección de insectos fueron algoritmos de segmentación con cambio de espacio de color, lo cual permite remover el fondo de una imagen y centrarse únicamente en el objeto de interés; también, se encontraron estudios que usaron modelos de detección, los cuales hacen uso de aprendizaje profundo con redes neuronales convolucionales para lograr la identificación de los insectos. Esta última técnica ha dado resultados óptimos en distintos problemas visión computacional, por lo que el presente proyecto de investigación propone usar los modelos de detección pre-entrenados Faster R-CNN y YOLOv4 y aplicarles aprendizaje por transferencia para ajustarlos al problema de detección de tres tipos de plagas de insectos: la mosca blanca, la mosca minadora y el pulgón verde del melocotonero en etapa de adulto alado. Para ello, se debe contar con un corpus de imágenes de trampas pegantes con insectos plaga y, debido a la limitada disponibilidad de estas, se planteó construir un generador de imágenes realistas de trampas pegantes con insectos, el cual tiene en consideración factores realistas como la iluminación y el nivel de ruido en las imágenes, además, se usaron técnicas de segmentación y aumento de imágenes de modo que el corpus obtenido sea el adecuado para la fase de entrenamiento. Finalmente, se midió la métrica mAP de ambos modelos para los tres tipos de insectos. El modelo Faster R-CNN obtuvo 94.06% y el modelo YOLOv4, 95.82%, donde se concluye que el desempeño de ambos detectores es aceptable.Ítem Texto completo enlazado Design of a DVB-S2 compliant LDPC decoder for FPGA(Pontificia Universidad Católica del Perú, 2021-09-22) Montaño Gamarra, Guillermo Daniel; Raffo Jara, Mario AndrésLow Density Parity Check codes presents itself as the dominant FEC code in terms of performance, having the nearest performance to the Shannon limit and proving its usefulness in the increasing range of applications and standards that already used it. Low power devices are not except of this rapid development, where it emerges the necessity of decoders of low power without totally sacrificing performance or resource usage. The present work details the devolopment of a LDPC decoder compliant with the DVB-S2 standard for digital television, motivated for its already established use in uplink and downlink satellite applications and its great performance at large code lengths. This research presents the study of the min-sum algorithm and the design of the elements that conform the core decoder, including both functional units (variable and check nodes), memory blocks and routing network. In the context of DVB-S2, it focused exclusively in the prototyping of the inner LDPC decoder and targets FPGA as platform. A variety of design strategies are applied in the design of the core, including the optimal selection of the architecture and the schedule policy, the design of the control unit as a Algorithmic State Machine (ASM) and the inclusion of specialized modules to reduce the number of clock cycles per decoding process, such as early stopping. The selected features for this work are code length of 64800 bits and code rate equal to 1/2. The selected architecture is partially parallel with flooding schedule and operates over binary symbols (Galois field GF(2)). For testing, it assumes a channel with AWGN and BPSK modulation, so the demodulator feeds soft decision information of each symbol based on both assumptions. The design has been validated using different verification methodologies according to complexity and predictability of each part or the whole system. Obtained results show the decoder, when configured for a maximum of 10 iterations, has a BER performance of 10-3 at a SNR of 2 dB, having an advantage of 1 dB respect to previous published Works [1]. It uses 60363 slice LUT and 23552 slice registers when synthesized in the Virtex 7 xc7vx550t FPGA from Xilinx, a reduction of 10% in resource usage from [1]. It achieves a maximum frequency operation of 194 Mhz and a throughput of 142.99 Mbps at worst case. The top energy per bit rate is 18.344 nJ/bit.Ítem Texto completo enlazado Diseño conceptual de un vehículo submarino de apoyo para el mantenimiento preventivo de los cordones de soldadura en la carena de los buques(Pontificia Universidad Católica del Perú, 2021-04-07) Bañón Espinoza, Martín Antonio; Sigüenza Astoquillca, MichelEn la actualidad, la inspección de los cordones soldados ubicados en la obra viva (carena) de los buques es un proceso raramente realizado debido al tiempo y costo que este implica. En respuesta a esto se han postulado distintas soluciones como el uso de buzos experimentados o desplazar el buque a un dique seco, pero estos siguen siendo poco eficientes. Por esta razón, en el presente trabajo de investigación se expone el diseño conceptual de un vehículo submarino capaz de sumergirse a aguas poco profundas; y de un algoritmo de visión con la capacidad de funcionar en un entorno tan variable como es el entorno marino. El vehículo constará de una serie de propulsores y sensores IMU, que le permitirán desplazarse en el agua, y mantenerse estable, o en una posición fija cuando se encuentre detenido. Además, contará con sensores de humedad, temperatura y profundidad, que permitirán monitorear al vehículo desde la interfaz, la cual será una laptop. Esta tendrá, un software que podrá procesar la imagen y clasificar los defectos de la imagen. Adicionalmente, el software permitirá comandar todas las acciones del vehículo. Para este trabajo de investigación, se realizó un análisis de los antecedentes, lo cual incluye definir los objetivos, la metodología y el alcance del trabajo de investigación. Además, de investigar acerca de las tecnologías existentes. Luego, se procedió a realizar el diseño conceptual del sistema. Y se finalizó, describiendo los diagramas que conforman el diseño preliminar del mismo.
- «
- 1 (current)
- 2
- 3
- »