Tesis y Trabajos de Investigación PUCP
URI permanente para esta comunidadhttp://54.81.141.168/handle/123456789/6
El Repositorio Digital de Tesis y Trabajos de Investigación PUCP aporta al Repositorio Institucional con todos sus registros, organizados por grado: Doctorado, Maestría, Licenciatura y Bachillerato. Se actualiza permanentemente con las nuevas tesis y trabajos de investigación sustentados y autorizados, así como también con los que que fueron sustentados años atrás.
Ingresa a su web: Repositorio Digital de Tesis y Trabajos de Investigación PUCP
Explorar
41 resultados
Resultados de búsqueda
Ítem Texto completo enlazado Diseño de un robot autónomo de limpieza utilizando aprendizaje de máquina(Pontificia Universidad Católica del Perú, 2024-10-02) Susanibar Sipan, Grover Hernando; Portella Delgado, Jhon ManuelEn la actualidad existen varias marcas de robots limpiadores en el mercado, sin embargo, estos robots no realizan su misión de forma eficiente, debido a que presentan errores sistemáticos al momento de desplazarse en un ambiente requerido, por lo que no logran limpiar adecuadamente la suciedad. Se realizó un estudio de los motivos por los cuales los robots actuales presentan problemas y se determinó que los algoritmos de control que usan para desplazarse sobre una habitación no son del todo eficientes, por lo que es necesario plantear otros algoritmos que complementen y así se puedan disminuir los errores. La presente tesis es desarrollada con el objetivo de diseñar un robot de limpieza que sea capaz de desplazarse de forma autónoma sobre todos los espacios de una habitación y limpie de forma eficiente todas las partículas de suciedad presentes en el interior de dicha habitación. Asimismo, se propone el uso de un algoritmo de Aprendizaje de Máquina a través del entrenamiento de una Red Neuronal Convolucional que le permite al robot aprender a reconocer objetos y partes de la habitación para que en su recorrido de limpieza se pueda guiar y le sirva como retroalimentación en su propósito de localizarse. En el documento se detalla el diseño mecatrónico del robot limpiador describiendo los componentes mecánicos y de desplazamiento del robot; los sensores, actuadores y circuitos de alimentación de energía; así como la arquitectura de control y diagramas de flujo de los algoritmos involucrados. Con el objetivo de validar el funcionamiento del diseño de robot planteado, se realizaron simulaciones computacionales del recorrido y limpieza de un robot dentro de una habitación requerida. Con los resultados obtenidos se concluye que es posible mejorar el desempeño de los robots actuales a través del uso de algoritmos de Inteligencia Artificial que le permiten al robot ir aprendiendo a reconocer objetos a lo largo de su desplazamiento. Finalmente, el robot propuesto tiene un costo estimado del sistema mecánico y electrónico de S/. 5’610 y un costo de diseño de S/. 5’625 para el proyecto, teniendo en cuenta que el costo de diseño va a disminuir conforme el robot sea fabricado en grandes volúmenes de producción.Ítem Texto completo enlazado Construcción de recursos para la detección y clasificación automática de disfluencias producidas por tartamudez en español(Pontificia Universidad Católica del Perú, 2024-09-18) Cabrera Díaz, Daniel Alonso; Sobrevilla Cabezudo, Marco AntonioEsta tesis abordó el desarrollo de recursos computacionales para la detección y clasificación de disfluencias de tartamudez en español, cubriendo desde la recolección y anotación de audios hasta la implementación de un modelo de aprendizaje automático y estrategias de aumento de datos. Se recolectaron audios en español de cinco participantes con tartamudez, conformes a los estándares del dataset SEP-28K y con apoyo de dos especialistas en tartamudez. Aunque la naturaleza controlada de las grabaciones limitó la diversidad de disfluencias observadas, estos audios proporcionaron una base sólida para el desarrollo del modelo. El modelo presentado se basó en el modelo DisfluencyNet. Este modelo fue pre entrenado utilizando wav2vec 2.0 XLSR53 aprovechando su robusta base de datos multilingüe. El modelo demostró su capacidad para identificar y clasificar disfluencias en español, aunque su rendimiento fue inferior comparado con modelos equivalentes en inglés. Esta diferencia subraya la necesidad de más datos. Para mejorar la detección de disfluencias, se implementaron dos estrategias de aumento de datos. La primera incluyó variaciones de pitch, adición de reverberación y ruido blanco, duplicando efectivamente la cantidad de datos disponibles. Aunque esta estrategia mejoró el recall en ciertas disfluencias, los resultados en precisión y F1 fueron mixtos. La segunda estrategia, mediante clonación de voz con el modelo XTTS-v2, generó nuevos audios que emulaban disfluencias naturales, como prolongaciones y bloqueos. Aunque mejoró el recall, especialmente en rondas posteriores de aumento de datos, la precisión y F1 continuaron siendo desafiantes. Futuras investigaciones se enfocarán en expandir la anotación de disfluencias en contextos de habla espontánea y procesar los audios restantes del corpus inicial para explorar mejoras en la clasificación y detección de disfluencias. Además, se explorarán métodos avanzados de clonación de voz y otras técnicas de modificación de audios para enriquecer los datasets y mejorar los modelos de detección y clasificación de disfluencias.Ítem Texto completo enlazado Segmentación semántica de escenas urbanas de la provincia de Huamanga(Pontificia Universidad Católica del Perú, 2024-09-10) Pasapera Huaman, Lui Gustavo; Flores Espinoza, Donato AndrésLa presente tesis se enfoca en la identificación y clasificación de objetos en escenas urbanas de la provincia de Huamanga, explorando un entorno diferente al de las ciudades desarrolladas y otras bases de datos existentes. Se estudiarán las escenas urbanas de Huamanga para segmentar imágenes en 7 clases de datos: personas, vehículos, motociclistas, edificios, veredas, pistas y otros, que incluyen detalles de cielo y cables de energía eléctrica. El enfoque principal de la tesis estará centrado en la visión por computadora, específicamente en la segmentación semántica para la clasificación de objetos. Para ello, se emplearán arquitecturas de aprendizaje profundo pre-entrenadas adaptadas a Deeplabv3+, y se utilizarán imágenes de la provincia de Huamanga como base de datos local. La investigación se inicia con un análisis del estado del arte, destacando la importancia de la clasificación de objetos en escenas urbanas y los beneficios del aprendizaje profundo en comparación con métodos tradicionales. Se enfatiza la necesidad de utilizar bases de datos locales sobre las existentes, así como la base teórica para la clasificación de imágenes locales utilizando Deeplabv3+ y redes de aprendizaje profundo mediante la transferencia de aprendizaje. Posteriormente, se describe el diseño, la recopilación y el enfoque de la base de datos locales en comparación con conjuntos de datos como Imagenet y CityScapes, utilizando la arquitectura Deeplabv3+ junto con redes de aprendizaje profundo en los datos locales. Finalmente, se presentan los resultados basados en el incremento del número de datos, analizando la precisión, el Índice de Jaccard (IoU) y el mBFScore tanto a nivel global como por clase, junto con un análisis comparativo con la base de datos Cityscapes. Se proporcionan tablas sumarias que verifican los resultados de cada red de aprendizaje profundo y se propone hardware para dispositivos capaces de ejecutar tareas de segmentación semántica.Ítem Texto completo enlazado Evaluación de método para la detección automática de puntos de referencia (landmark detection) en imágenes en dos dimensiones de huellas plantares para el diseño de una plantilla ortopédica(Pontificia Universidad Católica del Perú, 2024-08-28) Donayre Gamboa, Gustavo Miguel; Fonseca Arroyo, Pablo AlejandroEl presente trabajo de investigación evalúa la técnica de regresión de mapas de calor (heatmap regression - HR) para la detección automática de puntos de referencia (landmark detection) en imágenes médicas, específicamente en las imágenes de huellas plantares en dos dimensiones. El estudio se basa en la regresión de mapas de calor con aprendizaje profundo, una técnica que ha demostrado ser efectiva en la detección de puntos en rostros y en la estimación de la pose humana. Se propone un método automático para la detección de 8 puntos en las imágenes digitalizadas de huellas plantares que servirán de referencia para el diseño base de una plantilla ortopédica bidimensional, buscando así mejorar el proceso de fabricación de plantillas ortopédicas, que actualmente se realiza de forma manual y artesanal en la mayoría de los países de América Latina. La detección automática de estos puntos de referencia en las huellas plantares tiene el potencial de agilizar este proceso y mejorar la precisión de las plantillas. Los resultados del estudio mostraron un error absoluto promedio normalizado de 0.01017 en el conjunto de validación. Estas evaluaciones se llevaron a cabo utilizando una red convolucional U-Net, la cual consta de una ruta de codificación y compresión de imágenes para capturar el contexto, y una ruta de expansión simétrica que permite una localización precisa de puntos de interés en un tiempo razonable gracias al uso de los procesadores GPU actuales.Ítem Texto completo enlazado Predicción de la aceptación de pedidos por parte de los repartidores en la industria de entregas a domicilio utilizando machine learning(Pontificia Universidad Católica del Perú, 2024-08-14) Alarcon Flores, Jorge Brian; Beltrán Castañón, César ArmandoLa industria de entregas a domicilio ha experimentado un auge significativo debido a la creciente demanda de los consumidores que buscan la comodidad de recibir productos y alimentos directamente en sus hogares. El avance de tecnologías y aplicaciones móviles ha impulsado el crecimiento de este mercado, permitiéndole adaptarse a las preferencias cambiantes de los consumidores [10] [19]. Sin embargo, un componente crítico en este proceso son los repartidores, quienes, tras la realización de un pedido por parte del cliente en la plataforma de la empresa, reciben notificaciones que les ofrecen una serie de pedidos sugeridos. Si aceptan, asumen la responsabilidad de recoger y entregar el pedido a los consumidores, así como la ganancia asociada, pero en ocasiones, los repartidores pueden declinar la aceptación de un pedido, lo que potencialmente conlleva a retrasos en la entrega, generando experiencias insatisfactorias para los usuarios. Este aspecto se presenta como un desafío significativo en la optimización de las operaciones de entrega a domicilio, el cual puede abordarse con soluciones de aprendizaje de máquina. En este artículo se presentan los resultados de la experimentación realizada con diversos modelos de aprendizaje de máquina, aplicándose la técnica de balanceo Smartly OverSampling con SMOTE. Los modelos se aplicaron a un conjunto de datos proporcionado por una institución latinoamericana líder en el sector de entregas a domicilio, reportando el algoritmo LightGBM, los mejores resultados con un AUC de 0.88 y un Average Precision Recall de 0.47.Ítem Texto completo enlazado Aprendizaje profundo para transcripción de textos históricos manuscritos en español(Pontificia Universidad Católica del Perú, 2024-07-16) Choque Dextre, Gustavo Jorge; Beltrán Castañón, Cesar ArmandoEl reconocimiento de textos historicos es considerado un problema desafiante debido a los muchos factores que ´ alteran el estado de los manuscritos y la complejidad de los diferentes estilos de escritura involucrados en este tipo de documentos; en los anos recientes se han creado muchos modelos de Reconocimiento de textos manuscritos ˜ enfocados en diversos idiomas como el ingles, chino, ´ arabe y japon ´ es entre otros, sin embargo no se han ´ encontrado muchas iniciativas de reconocimiento de texto orientadas al idioma espanol debido fundamentalmente ˜ a un escasez de datasets publicos disponibles para ayudar a solucionar la problem ´ atica en dicho idioma. ´ En esta publicacion se presenta la aplicaci ´ on de t ´ ecnicas de Deep Learning basadas en una arquitectura de ´ red neuronal encoder-decoder y convoluciones compuerta Gated-CNN las cuales en los ultimos ha demostrado ´ resultados sobresalientes para resolver dicha problematica, as ´ ´ı mismo se propone la aplicacion de mecanismos de ´ Transferencia de Aprendizaje para el reconocimiento de textos historicos en espa ´ nol. Los experimentos demuestran ˜ que la aplicacion de estos m ´ etodos puede brindar resultados sobresalientes, adem ´ as la aplicaci ´ on de otras t ´ ecnicas ´ tales como Aumentacion de Datos y Modelos de Lenguaje conllevan a mejoras significativas en los resultados finales. ´ Se propone ademas el uso de un nuevo dataset de textos hist ´ oricos en espa ´ nol conformado por 1000 elementos ˜ tomados de textos historicos peruanos referentes al siglo XVIII.Ítem Texto completo enlazado Estimación del consumo de combustible y emisiones de co2 de un motor a gasolina de 130 hp mediante técnicas de Machine Learning(Pontificia Universidad Católica del Perú, 2024-07-16) Huancapaza Machuca, José; Cuisano Egúsquiza, Julio CésarEn el presente trabajo se estima el consumo de gasolina y las emisiones de CO2 en un motor vehicular de 130 HP, instalado en un banco de pruebas, usando técnicas de aprendizaje automático (Machine Learning). Para obtener datos de los parámetros de funcionamiento del motor, se realizaron pruebas en condiciones estacionarias de carga (torque) y régimen de giro del cigüeñal; se registraron las lecturas de sensores originalmente instalados en el motor, mediante un scanner conectado al puerto OBD2 del módulo de control electrónico del motor. Además, se instalaron equipos de laboratorio para registrar otras variables necesarias para el estudio. Con los datos disponibles, se utilizaron tres técnicas de Machine Learning: Regresión Múltiple, Máquina de Soporte Vectorial y Redes Neuronales. En la aplicación de los modelos se utilizaron datos en grupos, separados de la siguiente forma: 90% para el desarrollo de los modelos y 10 % para la prueba de los modelos. Adicionalmente, para los modelos de Máquina de Soporte Vectorial y de Redes Neuronales se realizó otra partición de los datos: 75% para entrenamiento, 15% para validación, y 15% para el test. Durante el proceso se evaluaron los datos sin estandarización y, posteriormente, estandarizados en el rango de 0 a 1; este último paso buscó asegurar la convergencia del modelo. Las variables estudiadas fueron las siguientes: i) 5 predictoras o variables independientes (presión absoluta en el colector de admisión, temperatura del aire en el colector de admisión, régimen de giro, flujo másico de aire de v admisión al motor y el torque efectivo); ii) 2 variables objetivo o dependientes (emisiones de CO2 y consumo de gasolina). Los resultados del presente trabajo de tesis muestran que el mejor método, y con menos intervención, es el de Redes Neuronales. Para la estimación del flujo másico instantáneo del CO2 se obtuvo un error máximo de 7.85%, siendo que el error obtenido para el 75% de los resultados corresponde a 0.10%. Para la estimación del consumo másico de gasolina, se obtuvo un error máximo de 9.72%, pero, en este caso, el 75% de los resultados tienen un error de 0.67%.Ítem Texto completo enlazado Modelo prolab: Checkifood, aplicación móvil que ayuda al régimen alimenticio con machine learning(Pontificia Universidad Católica del Perú, 2024-06-21) Romero De Chorié, Gladys Enriqueta; Tineo Ramón, Miriam Erlita; Benavides Santur, Juan Diego; Guerrero Reyes, Frank Adams; Rosas Arbildo, Giovani; Hoyos Vallejo, Carlos ArturoEste informe resume los hallazgos de varios estudios sobre la repercusión de costumbres alimenticias inadecuadas, particularmente las dietas estrictas, en los niveles de agua y músculo en el cuerpo, el problema social relevante es la incidencia elevada de obesidad y sobrepeso en la comunidad peruana, incluyendo a los individuos entre 18 y 45 años. Los estudios revelan que cuando las personas abandonan las restricciones dietéticas, sus hábitos alimenticios cambian y el cuerpo lo compensa utilizando grasas para sustentarse (Hernández & Vargas, 2022). La incidencia de obesidad y sobrepeso es una preocupación mundial que ha llevado a un crecimiento de la prevalencia de morbilidades como diabetes, afecciones cardiovasculares e insuficiencia renal, particularmente en Perú donde el 70% de la población se encuentra en esta categoría (Hernández & Vargas, 2022). Al examinar los puntos débiles de los usuarios, el informe identifica las horas de las comidas (desayuno, almuerzo y cena) como las fuentes más importantes de frustración debido a la falta de opciones nutritivas. A pesar de reconocer los riesgos para la salud asociados con la elección de alimentos poco saludables, los usuarios a menudo optan por la conveniencia sobre la nutrición. La propuesta consiste en el desarrollo de una aplicación móvil que utiliza machine learning para detectar y analizar automáticamente los platos de comida a partir de fotografías. Esta innovadora solución simplifica el proceso de seguimiento de la dieta y proporciona una experiencia de usuario más fluida en comparación con las aplicaciones de la competencia que requieren entrada manual de alimentos. El modelo de negocio está diseñado para cubrir los requerimientos del público objetivo que tienen predominantemente entre 18 y 45 años y buscan cambiar sus hábitos alimenticios diarios. La aplicación está destinada a servir como una herramienta útil para ayudar a los usuarios a alcanzar sus objetivos deseados, este aplicativo es innovador y disruptivo porque combina tecnologías de vanguardia, experiencias de usuario simplificadas, personalización y un enfoque proactivo en salud preventiva, ofreciendo un recurso valioso para ayudar a las personas a mejorar sus dietas y estilos de vida. El modelo de negocio de un aplicativo enfocado en mejorar la dieta y llevar un control riguroso del régimen alimenticio tendría un potencial de crecimiento exponencial en el Perú. Esto se debe a la combinación del aumento en el uso de aplicaciones móviles y la prevalencia creciente de obesidad y sobrepeso en el país. Como menciona Soto (2020), utilizar aplicativos móviles ha experimentado un alza notable en Perú, lo que indica una gran adopción de estas herramientas tecnológicas en múltiples rubros, incluido el sector salud. Por otro lado, la obesidad y el sobrepeso son considerados actualmente como problemas de salud pública en el Perú, como lo evidencia el crecimiento en la incidencia de estas condiciones en la comunidad (INEI, 2020). El informe señala que el proyecto tiene un valor económico significativo con un VAN de S/ 3.980.520,22 soles, teniendo en cuenta una tasa de descuento del 10% y una TIR de 281,65% a cinco años. El proyecto también tiene un valor social importante, ya que promueve estilos de vida saludables y una producción y consumo responsables, al mismo tiempo que impacta positivamente en el medio ambiente. El informe concluye con un VANS de S/4,258,764.47 Soles luego de analizar los beneficios y costos sociales del proyecto.Ítem Texto completo enlazado Propuesta metodológica para la optimización de modelos predictivos de generación de residuos sólidos municipales en zonas urbanas(Pontificia Universidad Católica del Perú, 2024-06-19) Izquierdo Horna, Luis Antonio; Kahhat Abedrabbo, Ramzy FrancisEl pronóstico de la generación de residuos sólidos municipales (RSM) desempeña un papel esencial en la toma de decisiones y proporciona información relevante para la gestión de residuos, así como una comprensión profunda de los factores que influyen en este proceso. En este trabajo, se desarrolló un modelo de predicción de RSM específico para Lima Metropolitana, basado en variables socioculturales, ambientales y económicas, teniendo al 2019 como año de referencia, debido a la influencia del COVID-19 en los datos sobre este tema en años posteriores a la pandemia. El modelo se construyó utilizando las cantidades per cápita de RSM generadas en cada distrito, junto con parámetros relacionados con el consumo de combustibles en el hogar (como gas natural, electricidad y gas licuado de petróleo) y características demográficas de la población (como edad, nivel de educación y gasto mensual). Dada la calidad y disponibilidad de datos, se optó por utilizar el algoritmo de random forest como técnica de predicción. Las variables analizadas se obtuvieron a partir de la Encuesta Residencial de Consumo y Uso de Energía (ERCUE) a nivel municipal. Los resultados indicaron que el algoritmo implementado explica el 51% de la variabilidad de los datos. Se espera que las recomendaciones presentadas en este estudio sirvan para investigaciones futuras relacionadas con la predicción de RSM, contribuyendo a obtener resultados más precisos y aplicables a contextos específicos.Ítem Texto completo enlazado Evaluación de modelos de segmentación semántica para el monitoreo de deslizamiento de tierra utilizando imágenes satelitales(Pontificia Universidad Católica del Perú, 2024-04-03) Yali Samaniego, Roy Marco; Fonseca Arroyo, Pablo AlejandroEn el ámbito del aprendizaje automático, un desafío persistente es la disponibilidad de datos suficientes, especialmente en tareas de visión por computadora. Este desafío se amplifica cuando se trabaja con sensores remotos, donde las bases de datos etiquetadas para abordar problemas son escasas. Este manuscrito examina críticamente el monitoreo de deslizamientos de tierra en el paisaje peruano y presenta tres contribuciones en esta dirección. La primera contribución expande un conjunto de datos de imágenes satelital es sobre deslizamientos de tierra (Landslide4Sense) proveniente de territorios asiáticos, con 3799 imágenes debidamente etiquetadas. Reconociendo la dinámica geoespacial de Perú, se incrementó este conjunto de datos con 838 escenarios locales. Estas adiciones mantienen congruencia con el conjunto de datos original en términos de atributos y configuración, asegurando replicabilidad y escalabilidad para futuras investigaciones. La segunda evalúa varios modelos de segmentación semántica basados en la arquitectura U-net, reforzada por la función de pérdida de Entropía Cruzada Ponderada + Dice Loss, óptima en tareas de segmentación con conjuntos de datos desequilibrados. Los resultados permiten alcanzar un F1-Score del 75.5% con la arquitectura U-net (vanilla) superando el benchmark de referencia del 71.65%. La última contribución muestra un desarrollado integral para la adquisición de datos, procesamiento y entrenamiento/evaluación de modelos. Dado que este marco tiene el potencial de impulsar una aplicabilidad general de sistemas de segmentación a sistemas de monitoreo de deslizamientos de tierra, y detener un alcance más amplio a la comunidad académica y partes interesadas gubernamentales en Latinoamérica y en todo el mundo.