Tesis y Trabajos de Investigación PUCP
URI permanente para esta comunidadhttp://54.81.141.168/handle/123456789/6
El Repositorio Digital de Tesis y Trabajos de Investigación PUCP aporta al Repositorio Institucional con todos sus registros, organizados por grado: Doctorado, Maestría, Licenciatura y Bachillerato. Se actualiza permanentemente con las nuevas tesis y trabajos de investigación sustentados y autorizados, así como también con los que que fueron sustentados años atrás.
Ingresa a su web: Repositorio Digital de Tesis y Trabajos de Investigación PUCP
Explorar
18 resultados
Resultados de búsqueda
Ítem Texto completo enlazado Propuesta de método de evaluación de tecnologías serverless tipo FaaS y CaaS para el despliegue de software de aplicaciones transaccionales(Pontificia Universidad Católica del Perú, 2024-04-16) Matos Cuba, Guillermo Dante; Cohn Muroy, Dennis StephenLos proveedores de servicios de computación en nube ofrecen una amplia variedad de servicios de despliegue de software que están en constante actualización, lo que implica diversos desafíos para arquitectos y desarrolladores cuando tiene que decidir cuál es la opción más adecuada para cumplir con los requerimientos de performance, generándose entonces la necesidad de validar con precisión los parámetros de configuración de los servicios de despliegue ofrecidos por estos proveedores. El estudio realizado propone un método de evaluación de los servicios de despliegue de software que presentan mayores avances en la actualidad, denominados serverless, considerando a FaaS y las nuevas versiones de CaaS como las tecnologías que representan sus beneficios. El método se ha elaborado en base a buenas prácticas de pruebas de performance e investigación experimental. Para validar la efectividad del método se han implementado experimentos en la plataforma de AWS usando una aplicación de benchmark desarrollado exclusivamente para este estudio, durante la experimentación se observaron oportunidades para optimizar costos en el diseño y selección de servicios de los componentes de una arquitectura CaaS. Estos experimentos han sido realizados usando el framework de desarrollo de software de AWS CDK que permite el despliegue y eliminación de arquitecturas en segundos, lo cual permite optimizar tiempos y costos durante el ciclo de evaluación de performance.Ítem Texto completo enlazado Generación de imágenes de acciones específicas de una persona utilizando aprendizaje profundo(Pontificia Universidad Católica del Perú, 2024-04-16) Morales Pariona, Jose Ulises; Beltran Castañon, Cesar ArmandoDesde que aparecieron las redes GAN, se han realizado varias investigaciones sobre cómo generar imágenes en diversos ámbitos, como la generación de imágenes, conversión de imágenes, síntesis de videos, síntesis de imágenes a partir de textos y predicción de cuadros de videos. Basándose mayormente en mejorar la generación de imágenes de alta resolución y la reconstrucción o predicción de datos. El propósito de este trabajo es implementar las redes GAN en otros ámbitos, como la generación de imágenes de entidades realizando una acción. En este caso se consideró 3 acciones de personas, que son los ejercicios de Glúteo, Abdomen y Cardio. En primer lugar, se descargaron y procesaron las imágenes de YouTube, el cual incluye una secuencia de imágenes de cada acción. Posteriormente, se separó dos grupos de imágenes, de una sola persona, y de personas diferentes realizando las acciones. En segundo lugar, se seleccionó el modelo InfoGAN para la generación de imágenes, teniendo como evaluador de rendimiento, la Puntuación Inicial (PI). Obteniendo como resultados para el primer grupo, una puntuación máxima de 1.28 y en el segundo grupo, una puntuación máxima de 1.3. En conclusión, aunque no se obtuvo el puntaje máximo de 3 para este evaluador de rendimiento, debido a la cantidad y calidad de las imágenes. Se aprecia, que el modelo si logra diferenciar los 3 tipos de ejercicios, aunque existen casos donde se muestran incorrectamente las piernas, los brazos y la cabeza.Ítem Texto completo enlazado Algoritmo metaheurístico para la optimización de consultas SQL en bases de datos distribuidas relacionales(Pontificia Universidad Católica del Perú, 2024-04-09) Sangama Ramirez, Jesus Angel Eduardo; Cueva Moscoso, RonyEn el contexto empresarial, los datos tienen una importancia significativa tanto para la operación del día a día en una organización como para la toma de decisiones dentro de esta. Por ello, resulta vital que consultar dichos datos sea un proceso lo más eficiente posible. Para las bases de datos relacionales, una forma de lograr esto es la optimización de consultas SQL, y entre los diferentes métodos de optimización se encuentran los algoritmos metaheurísticos. El presente trabajo realiza una investigación de la literatura académica centrada en estos algoritmos aplicados a la optimización de consultas en bases de datos distribuidas relacionales y decide realizar una comparación entre el algoritmo genético (el cual cuenta con gran popularidad en este ámbito) y el memético, con el fin de evaluar si la aplicación de este último resulta viable para este tipo de optimización. Para lograr lo planteado anteriormente, el trabajo busca definir variables, parámetros y restricciones del problema de optimización de consultas; las cuales posteriormente son utilizadas para implementar adaptaciones propias de los algoritmos genético y memético orientadas a dicho problema. Finalmente, se realiza una comparación de eficacia y eficiencia entre ambas implementaciones a través de experimentación numérica. Tras finalizar todas las tareas anteriores, se concluye que se logró implementar un algoritmo memético para optimizar consultas SQL en bases de datos distribuidas relacionales cuyo rendimiento puede superar al algoritmo genético para escenarios de complejidad creciente (es decir, bases de datos con numerosas tablas y sitios).Ítem Texto completo enlazado Aprendizaje estadístico supervisado con máquina de soporte vectorial(Pontificia Universidad Católica del Perú, 2024-02-26) Falcón Cisneros, Sergio Daniel; Véliz Capuñay, Carlos NilbertoActualmente las organizaciones recolectan datos en grandes volúmenes y de fuentes muy variadas. Para dar sentido y convertir los datos en información útil es necesario utilizar técnicas que permitan encontrar y entender las relaciones ocultas en los datos. Generalmente, la relación que nos interesa estudiar es cómo predecir un evento utilizando un conjunto de variables. Sin embargo, muchas veces la relación entre los datos es muy compleja y no puede ser analizada adecuadamente usando las técnicas más conocidas, dado que éstas suelen tener supuestos que no necesariamente se cumplen. Por ello, es importante conocer técnicas de análisis más complejas y flexibles. Esta tesis busca ser un instrumento de ayuda en el aprendizaje y uso de nuevas técnicas para estudiar los datos, lo cual es relevante sobre todo en el medio local en el que este tema es poco conocido. Con este objetivo, presenta una revisión introductoria de la teoría del aprendizaje estadístico, la cual provee del marco teórico para que distintos métodos utilicen los datos para aprender, y usando este conocimiento puedan hacer predicciones sobre datos nuevos o diferentes. Luego se centra en un estudio exhaustivo del método de aprendizaje de Máquinas de Soporte Vectorial (SVM por sus siglas en inglés), introduciendo y aplicando las funciones Kernel. Este método se puede entender como una representación de los datos como puntos en el espacio, asignados de tal forma que exista una brecha grande que separe a los elementos diferentes. Finalmente se pone en práctica la teoría estudiada aplicando el método SVM a datos de clientes de una entidad financiera. Esta entidad financiera usa predominantemente técnicas de aprendizaje estadístico simples y con varios supuestos; particularmente usa una de estas técnicas en un modelo que predice la propensión a la compra y persistencia del producto Seguro de Protección de Tarjetas. Por ello, la presente tesis se centra en aplicar el método SVM para construir una alternativa a este modelo.Ítem Texto completo enlazado Implementación de chatbots, migraciones y lago de datos en AWS(Pontificia Universidad Católica del Perú, 2024-02-13) Ávila Flores, Patricio José; Quispe Vílchez, Eder RamiroDesde el momento del egreso en julio del 2020, se ha ejercido labores en dos consultoras de servicios informáticos. Primero, en una consultora canadiense llamada Rules Cube que se enfoca en el desarrollo de aplicaciones en Pega. Segundo, en una consultora peruana llamada Tuxpas, que se especializa en proyectos de implementación de chatbots en la plataforma Workplace, y construcción de lagos de datos y migraciones en AWS. En Rules Cube con el rol de practicante profesional de TI se apoyó en el desarrollo de una aplicación móvil de reconocimiento de tickets y boletas de compra por un período de cuatro meses. El objetivo de esta aplicación era poder obtener con fotos rápidamente todos los gastos en los que se incurre día a día. Como parte de las herramientas se utilizó Pega, Sharepoint, y diversos aplicativos de la misma empresa. En Tuxpas es donde se ha ejercido la gran mayoría del tiempo desde el egreso. En el primer año en la compañía con el rol de desarrollador de software se formó parte de un equipo que implementó y desplegó chatbots en la red social para empresas Workplace para reconocer a colaboradores y conocer el estado del clima laboral, en un cliente de venta de productos de beleza, información que resultaba vital para la gerencia para conocer la retroalimentación de trabajadores de primera línea. En el segundo y tercer año, ahora con el rol de arquitecto de software y con la responsabilidad de liderar proyectos, es que se han llevado a cabo diseños y desarrollos de diversos lagos de datos y migraciones. Una de las migraciones más resaltantes fue realizada para un cliente del sector salud y que implicó el movimiento de toda su infraestructura y aplicaciones hacia la nube de AWS. Esto incrementó enormemente la disponibilidad de las aplicaciones y gracias a ello se redujo el tiempo de baja. Asimismo, se pudieron refactorizar las aplicaciones para que puedan ser alojadas en servicios auto-escalables. Más adelante, se llevó a cabo un lago de datos que centralizaba toda la información generada en las diversas fuentes del cliente, perteneciente al sector educativo. Esto permitió poder tener una misma estructura para todos los datos, que en el origen se encontraba con distintas nomenclaturas que hacían más difícil una visión completa de los datos generados. Además, permitió agilizar la creación y ejecución de procesos analíticos para toda el área de Inteligencia de Negocios.Ítem Texto completo enlazado Implementación de una plataforma digital para el registro, procesamiento y categorización de datos relacionados a los perfiles de los sujetos de prueba, para estudios de metagenómica intestinal humana(Pontificia Universidad Católica del Perú, 2023-03-10) Carbajal Serrano, César Adrián; Hirsh Martinez, LaylaLa metagenómica es la ciencia que emplea el análisis genético directo de una población de microorganismos contenidos en una muestra ambiental, mediante la extracción directa y clonación de ADN (Thomas, Gilbert & Meyer, 2012; Singh, et. al., 2009). Uno de los focos de la metagenómica es el microbioma intestinal humano, debido a que desempeña un papel clave en la salud (Davenport et. al., 2017; Sekirov, 2010). En los estudios de metagenómica intestinal, se realiza un muestreo de las heces de los sujetos de prueba (Aagaard et. al., 2013), se secuencian los microorganismos que se encuentran en esta, se procesa esta información mediante herramientas bioinformáticas y finalmente los investigadores analizan los resultados obtenidos (Lloyd-Price et. al., 2016). Previamente al proceso de muestreo, se requiere recopilar los metadatos de la muestra (Kunin et. al., 2008), los cuales son datos de los sujetos de prueba que influyen en su microbioma intestinal. Actualmente, estos metadatos se recopilan y procesan de una forma manual, a modo de formulario físico, se almacenan de forma incompleta y no estandarizada, y requieren mucho tiempo para ser procesados y categorizados. Es por ello que, en el presente trabajo de fin de carrera, se busca proponer una herramienta digital que permita la recopilación, procesamiento y categorización de los datos de los sujetos de prueba. Estos datos, los cuales son de distintos tipos, serán recopilados de una manera uniforme en una base de datos, de tal manera que se preserven en el tiempo y los investigadores puedan reutilizar esta información en futuros estudios, sin tener que recurrir a volver a realizar el costoso proceso de secuenciación. Con el fin de resolver este problema, se diseñó una base de datos que almacene los datos de los sujetos de prueba, de una manera estandarizada. Utilizando las entidades y las relaciones identificadas en la revisión de la literatura, se pudo plantear un diseño de base de datos que permita la recopilación de los datos de los participantes. En ese mismo sentido, usando la base de datos planteada, se implementó una plataforma digital que permite gestionar estudios de metagenómica y recopilar los datos de sus participantes. De esta manera, se pueden almacenar los metadatos de las muestras a secuenciar de una manera digital, permitiendo a los investigadores revisar estos datos en un futuro. Finalmente, se identificó las funcionalidades necesarias para el procesamiento de los datos de los sujetos de prueba. Estas funcionalidades fueron implementadas en la plataforma digital, para poder permitir a los investigadores analizar estos datos de una manera rápida y sencilla.Ítem Texto completo enlazado Método semi-supervisado para detectar, clasificar y anotar en un corpus de suicidio textos extraídos de entornos digitales(Pontificia Universidad Católica del Perú, 2023-01-31) Acuña Caicedo, Roberto Wellington; Melgar Sasieta, Héctor AndrésLa presente tesis doctoral, con un enfoque cualicuantitativo (mixto), se enmarca en la línea del análisis de sentimientos en redes sociales, forma parte del proyecto Life, que busca crear una plataforma integral para detectar y brindar apoyo especializado a usuarios de redes sociales que publican textos con contenido suicida. Por ello se desarrolló el Corpus Life para realizar experimentos con algoritmos de aprendizaje automático, mismo que originalmente constaba de 102 mensajes suicidas (71 textos en inglés y 31 textos en español), 70 de estas muestras Sin Riesgo y 32 con Riesgo. Pero debido al escaso número de muestras y al desbalance entre ellas, los resultados generados no eran confiables. Por ello esta investigación tuvo como objetivo general desarrollar un método semi-supervisado para detectar, clasificar y anotar en el Corpus Life, textos extraídos de entornos digitales, con el fin de incrementar su número de anotaciones, mediante un proceso de evaluación automática de su calidad, previo a su inclusión o exclusión. Anotaciones que fueron evaluadas manualmente, utilizando para ello la medida de concordancia Cohen´s Kappa, con la participación de anotadores especializados quienes evaluaron los textos, alcanzando un nivel de acuerdo entre anotadores de 0,86, cercano al 0,78-0,81 de significancia estadística alcanzado automáticamente por medio del índice macro f1, con el método semi-supervisado. Lo que conllevo a alcanzar experimentos de un mayor grado de confiabilidad, por medio de un método estructurado con actividades, roles y procesos bien definidos y enlazados.Ítem Texto completo enlazado Implementación de un sistema para la gestión del proceso de votación digital en instituciones privadas(Pontificia Universidad Católica del Perú, 2022-04-29) León Chumpitaz, Jorge Renato; Quispe Vilchez, Eder RamiroEn la actualidad los procesos electorales, en su gran mayoría, se llevan a cabo de forma presencial y se procesan los votos casi en su totalidad de forma manual. Esta forma de llevar a cabo el proceso trae consigo problemas tales como el extenso tiempo que toma realizarlo, la logística que conlleva, la acumulación de información física y la dificultad en la gestión de la misma, y los casos de fraude electoral que se han dado a lo largo de la historia. Es por ello que el presente trabajo de investigación, tendrá como resultado un sistema de votación digital para instituciones privadas y que seguirá lineamientos de seguridad de la información para asegurar en lo posible la confidencialidad de la información y evitar fraudes en el proceso. A lo largo de este proyecto de fin de carrera, se presentarán los objetivos que este tiene comenzando por la definición del proceso y lo que este abarca, y en base a ello, se realizará un análisis y diseño del alcance del sistema. Además, se definirán los lineamientos de seguridad que seguirá el desarrollo e implementación del mismo y finalmente, se implementará el sistema y se generarán los manuales y documentación para el uso del mismo. De esta forma se culminará explicando como la realización de este sistema combate los problemas antes mencionados brindando a las instituciones privadas una herramienta que los ayude en la gestión y realización de sus votaciones.Ítem Texto completo enlazado Data science como base en la toma de decisiones para una gestión eficiente de las perforadoras de producción en una mina superficial a gran escala(Pontificia Universidad Católica del Perú, 2022-04-25) Tarrillo Silva, Jheran Brenner; Bautista Marin, Edinson Samir; Guzmán Córdova, Maribel GiovanaEl mundo es hoy en día una revolución de datos; es por ello, que todas las industrias se ven enfrentadas a un gran desafío, el cual es la transformación digital a fin de obtener el mayor beneficio de estos grandes volúmenes de datos que esta pueda generar. La digitalización se refiere a la manera en que los datos se almacenan, gestionan y utilizan. Con la cantidad de datos generados cada minuto, las industrias deben capitalizar este nuevo paradigma para diseñar cada vez más innovadoras capacidades analíticas. Para las empresas la data se ha convertido en un activo fundamental, debido a que la calidad y cantidad de la misma influye en su valoración. La Ciencia de Datos o Data Science posibilita crear conocimiento de negocio, optimizando de esta manera la toma de decisiones y extrayendo información que se encuentra oculta entre los datos generados por una empresa. En minería, se puede observar un considerable rezago en la adopción de la digitalización comparado con otras industrias como la construcción, el retail o la industria financiera; sin embargo, a nivel global se evidencia una preocupación por reducir esta brecha. El beneficio para la industria minera se puede dar en términos de una mejor gestión de las operaciones, el mantenimiento de equipo pesado, la seguridad y la productividad. La productividad se puede ver incrementada gracias a una toma eficiente de decisiones operativas en el momento adecuado, de esta manera los inventarios de productos por vender de la empresa (stock piles) se pueden ver incrementados, así como los costos unitarios del proceso productivo se logran disminuir, por ende, la rentabilidad y valor de mercado de la minera se maximiza. Identificar qué etapas se deben seguir para abordar un proyecto de Data Science es esencial para estructurar y analizar los recursos necesarios y la fase en la cual tendrán una mayor implicancia; es por ello, que la presente tesis brindará una metodología adecuada para la implementación de este tipo de proyecto en una operación de Minería Superficial, con el objetivo de agregar valor a la empresa mediante el incremento de activos corrientes (stock piles) a través de la optimización del proceso de perforación, primer proceso en la cadena de valor de una empresa minera.Ítem Texto completo enlazado Desarrollo de un pipeline bioinformático que permite el ensamblaje y la anotación del genoma de la bacteria rickettsia asembonensis(Pontificia Universidad Católica del Perú, 2022-04-19) Arauco Alarcon, Ronie Paolo; Villanueva Talavera, Edwin RafaelEn las últimas décadas, el surgimiento y resurgimiento de las bacterias infecciosas se han convertido en amenazas de importancia para la salud pública. Este es el caso de la bacteria de la especie Rickettsia asembonensis -identificada en Asembo, Kenia- que, en los últimos años, ha sido detectada en pulgas (Ctenocephalides felis y Ctenocephalides canis), en regiones anteriormente no reportadas y en casos de síndromes febriles agudos inespecíficos. Este patógeno emergente -así como muchos otros- sigue siendo relativamente desconocido. Por lo que, se convierte en una necesidad sustancial no subestimarlo y expandir su estudio no solo epidemiológico, sino también relacionado a su biología molecular. En la actualidad, el esfuerzo científico a fin de incrementar la eficiencia de la obtención de la biología molecular de las especies a nivel global ha generado la aparición de tecnologías de secuenciación de última generación. En ese sentido, la gran cantidad de datos genómicos deben ser manipulados con técnicas bioinformáticas. Estas últimas, han permitido un mejor entendimiento y uso de los datos que generan las tecnologías de secuenciación. Siendo que, recientemente, la aplicación de protocolos y pipelines ha generado resultados favorables. En consecuencia, la aplicación de técnicas bioinformáticas con la finalidad de obtener la información genómica de la bacteria R. asembonensis representa una oportunidad para contribuir al conocimiento científico de este microorganismo. Por lo tanto, el presente trabajo tiene como objetivo principal el ensamblaje y la anotación del genoma de la bacteria R. asembonensis a través de un pipeline bioinformático, que hará uso de datos secuenciados de la pulga de la especie C. felis positivas para R. asembonensis, a partir de unas muestras recolectadas en un estudio llevado a cabo en la ciudad de Iquitos. El presente trabajo generará también un precedente y referente metodológico para otras especies de interés con la misma problemática.