Tesis y Trabajos de Investigación PUCP
URI permanente para esta comunidadhttp://54.81.141.168/handle/123456789/6
El Repositorio Digital de Tesis y Trabajos de Investigación PUCP aporta al Repositorio Institucional con todos sus registros, organizados por grado: Doctorado, Maestría, Licenciatura y Bachillerato. Se actualiza permanentemente con las nuevas tesis y trabajos de investigación sustentados y autorizados, así como también con los que que fueron sustentados años atrás.
Ingresa a su web: Repositorio Digital de Tesis y Trabajos de Investigación PUCP
Explorar
13 resultados
Resultados de búsqueda
Ítem Texto completo enlazado Revisión sistemática de la literatura sobre comparativa de los estilos arquitectónicos SOA y microservicios en entornos de desarrollo ágil(Pontificia Universidad Católica del Perú, 2024-09-18) Gereda Hernandez, Davis; Cohn Muroy, Dennis Stephen(ANTECEDENTES) La búsqueda de arquitecturas eficientes y adaptables ha sido constante en el desarrollo de software, destacando la Arquitectura Orientada a Servicios (SOA) por su capacidad para integrar aplicaciones mediante servicios independientes y reutilizables. Con el avance tecnológico y la necesidad de sistemas escalables y ágiles, han surgido los microservicios, que dividen aplicaciones en partes más pequeñas con contextos y funcionalidades propias, promoviendo modularidad y facilidad de desarrollo. Comparar SOA y microservicios es esencial para entender sus diferencias, ventajas y desventajas en entornos ágiles, y para elegir el enfoque adecuado según los objetivos del proyecto. (OBJETIVOS) El objetivo es analizar comparativamente SOA y microservicios en entornos de desarrollo ágil, identificando sus contribuciones, similitudes, diferencias, problemas y soluciones. (MÉTODOS) Se realizó una revisión sistemática de la literatura en bases de datos digitales relevantes. (RESULTADOS) Se recuperaron 135 estudios, y luego del proceso de selección, se obtuvieron 30 estudios primarios los cuales permitieron dar respuesta a las preguntas planteadas en la presente investigación. Las conferencias es el medio de publicación que presenta mayor número de publicaciones con 19 estudios (63%), seguido de artículos con 8 estudios (27%) y finalmente las revisiones con 3 estudios (10%). (CONCLUSIONES) Se puede concluir que las similitudes entre SOA y microservicios se dan principalmente en aspectos como interoperabilidad, orientación a servicios, acoplamiento, reutilización y computación distribuida. De igual manera sus diferencias se encuentran en la composición del servicio, autonomía, tamaño, granularidad, comunicación, escalabilidad y gestión de datos.Ítem Texto completo enlazado Diseño de una arquitectura rápida para la aplicación del teorema de las rebanadas en el cálculo de la DFT-2D utilizando la transformada de radón periódica discreta(Pontificia Universidad Católica del Perú, 2020-07-02) Mendoza Trelles, Rodrigo Raúl; Carranza de la Cruz, César AlbertoEn el ámbito del procesamiento digital de imágenes, la DFT-2D se utiliza para diversos propósitos como: detección de ruido, aplicación de filtros, tomografía computarizada, etc [1]. Algoritmos rápidos para su cálculo, como la FFT (“Fast Fourier Transform”) permiten reducir su complejidad computacional. Esto es posible gracias al uso de recursividad y separabilidad al procesar una cantidad NxN de datos que igualen una potencia de dos (es decir N = 2p, p entero). Sin embargo, es deseable que el aumento de velocidad se pueda dar también en tamaños que no son potencia de dos, con el propósito de tener mayores posibilidades en cuanto a tamaños de imagen. Por lo anterior mencionado, esta tesis se enfocó en imágenes de tamaño N × N donde N es un número primo. Por ejemplo, hay 168 números primos menores a 1000, mientras que solo hay 9 números enteros positivos potencia de 2 en ese rango. El método de cálculo de la DFT-2D que se utilizó fue el de la aplicación de la Transformada de Radón Periódica Discreta o DPRT (la cual trabaja con números primos) y seguidamente el Teorema de las Rebanadas de Fourier Discreto o DFST [2]. Se tomó como modelo de solución la FDPRT [3], arquitectura que utiliza hardware en paralelo como técnica de HPC (High Performance Computing). Esta es capaz de calcular la DPRT en tiempo lineal. En el trabajo realizado diseñó una arquitectura que permita calcular el DFST en tiempo lineal. Para esto, se priorizó la reducción del tiempo de ejecución mediante el uso de hardware paralelo, aunque esto significó que los recursos crezcan de forma cuadrática. De esta manera, se diseñó una arquitectura y un algoritmo que permiten calcular y mapear los puntos de la matriz de Fourier desde la matriz en el espacio de Radón en 2 + ⌈log2 N⌉ + N ciclos de reloj (asintóticamente O(N)). Asimismo, se cuantificó la cantidad de recursos utilizados en la arquitectura (conversores de punto fijo a punto flotante, sumadores, multiplicadores, etc.) en función del tamaño de la imagen, lo cual permitió corroborar que estos crecen cuadráticamente. Finalmente, se validó el funcionamiento del algoritmo usando el software Matlab R2013a y se realizó una comparación teórica con librerías actuales (FFTW y MKL) para cálculo rápido de la DFT-2D utilizando C en el entorno de desarrollo Visual Studio 2019.Ítem Texto completo enlazado Una investigación sobre arquitecturas que soportan la composición de servicios web semánticos: una revisión sistemática(Pontificia Universidad Católica del Perú, 2020-06-18) Quispe Yalle, Albert Gustavo; Melgar Sasieta, Héctor AndrésEn la actualidad muchas instituciones están migrando sus procesos de negocio de manera que se encuentren soportados por servicios web para facilitar la interoperabilidad con otras instrucciones y una mejor reutilización de sus componentes, sin embargo la manera sintáctica como se describen los servicios web en la actualidad presentan sus limitaciones cuando se desean hacer actividades automatizadas de descubrimiento, composición e invocación de los servicios web más convenientes. Estas limitaciones están siendo cubiertas con la combinación de conceptos de la web semántica y de los servicios web existentes dando lugar a los servicios web semánticos (SWS). Pero aún existen desafíos que deben resolverse tal como la composición de los servicios web semánticos, este problema se vuelven más críticos sobre todo en las instituciones financieras cuyos procesos de negocio están compuestos por más de un servicio. El objetivo de este trabajo es llenar ese vacío mediante una revisión sistemática de la literatura existente acerca de las arquitecturas planteadas en la composición de servicios web semánticos. Este documento tiene tres propósitos: en primer lugar, proponer una definición y discusión de las arquitecturas de servicios web compuestos, obtener una clasificación de las arquitecturas en base a sus componentes. En base a clasificación, se identifican y discuten necesidades de investigación futuras.Ítem Texto completo enlazado Analizar, diseñar e implementar un sistema de información que soporte el proceso de Gestión de Solicitudes de Servicio del Ministerio de Comunicaciones de una Iglesia Evangélica(Pontificia Universidad Católica del Perú, 2019-07-23) Román Nureña, Aldo Francisco; Cueva Moscoso, RonyLa Iglesia Evangélica caso de estudio es una entidad religiosa conformada por personas vinculadas por una misma fe en Cristo. La iglesia (en adelante, también denominada "la organización") tiene por misión evangelizar a las comunidades con las que tiene contacto, transmitiendo las enseñanzas según la Biblia. En ese sentido, la iglesia ha experimentado crecimiento durante los últimos años en número de miembros, cantidad de sedes, y actividades internas y externas. Actualmente cuenta con 13 localidades y un aproximado de 6 mil miembros. El principal proceso de la organización es la Evangelización, que consiste en la comunicación de los principios bíblicos a sus comunidades cercanas. Dicho proceso es soportado por distintas actividades, entre las que se encuentran reuniones de celebración, dictado de cursos, retiros, entre otros. Estas actividades son organizadas por alguna de las áreas de la organización, según la competencia de cada una. Para fines de este plan de proyecto, se denomina también Ministerio a cada una de dichas áreas. Durante la organización de estas actividades, se debe lograr la difusión y cobertura de las mismas, tarea a cargo del Ministerio de Comunicaciones. El ministerio tiene por tarea elaborar publicidad, realizar cobertura audiovisual, y/o crear piezas gráficas de mayor complejidad. Actualmente, existen procesos y estructuras organizacionales que soportan estas labores, aunque muchos de estos procesos son manuales o de alta intervención humana. El Ministerio de Comunicaciones recepciona las solicitudes de servicio a través de correo electrónico, las registra en hojas de cálculo, asigna un colaborador responsable, un equipo de trabajo y planifica la entrega en un cronograma. Debido a la cantidad de solicitudes recibidas, este trabajo es lento, y altamente expuesto a errores y pérdidas de información. Además, el almacenamiento en hojas de cálculo hace difícil la extracción de información y la generación de reportes, lo que conlleva a un uso poco eficiente de recursos. Se observa que también es requerido un proceso de planificación que permita priorizar las solicitudes recibidas dado que se cuenta con recursos de producción limitados. La planificación actualmente se realiza procesando las solicitudes en una cola (el primero en entrar, el primero en salir), y considerando una fecha de cierre semanal y un lapso de 15 días para la entrega. Sin embargo, este método de planificación no siempre prioriza las solicitudes correctamente ni otorga una estimación suficiente para la entrega. Por todo lo mencionado, el Ministerio de Comunicaciones reconoce la dificultad existente en su proceso de gestión de solicitudes de servicio, y desea reducir dicha dificultad, de manera que pueda brindar servicios internos a los demás ministerios de la iglesia con eficiencia y eficacia. Por estos motivos, una de las acciones que la organización desea ejecutar es elaborar un sistema de información que permita registrar las solicitudes de servicio, gestionar dichas solicitudes y generar reportes con información idónea para el área y la iglesia. Asimismo, se requiere de un método adecuado para la planificación de las entregas de cada solicitud, para lo cual se hará uso de un algoritmo heurístico. De esta manera, se busca que el sistema constituya una herramienta de soporte para la gestión de solicitudes de servicio.Ítem Texto completo enlazado Research on proposals and trends in the architectures of semantic search engines: a systematic literature review(Pontificia Universidad Católica del Perú, 2018-05-02) Morales Vidal, Jorge Arturo; Melgar Sasieta, Héctor AndrésLas tecnologías de web semántica han ganado atención en los últimos años, en su mayoría explicada por la proliferación de dispositivos móviles y el acceso a Internet de banda ancha. Tal como Tim Berners-Lee, creador de la World Wide Web, lo avisoró a principios de siglo, las tecnologías de la web semántica han fomentado el desarrollo de estándares que permiten, a su vez, la aparición de los motores de búsqueda semánticos que dan a los usuarios la información que están buscando. Este estudio de investigación presenta los resultados de una revisión sistemática de la literatura que se centra en la comprensión de las propuestas y tendencias en los motores de búsqueda semánticos desde el punto de vista de la arquitectura del software. A partir de los resultados, es posible decir que la mayoría de los estudios proponen una solución integral para sus usuarios, donde los requisitos, el contexto y los módulos que componen el buscador desempeñan un gran rol. Las ontologías y el conocimiento también juegan un papel importante en estas arquitecturas a medida que evolucionan, permitiendo una gran cantidad de soluciones que responden de una mejor manera a las expectativas de los usuarios. La presente tesis es una extensión del artículo "Research on proposals and trends in the architectures of semantic search engines: A systematic literature review", publicado en "Proceedings of the 2017 Federated Conference on Computer Science and Information Systems". Esta tesis expone mayores detalles con respecto al artículo publicado, teniendo ambos en común el desarrollo y los resultados de la revisión sistemática de la literatura.Ítem Texto completo enlazado Desarrollo de un framework web para el envío remoto de tareas, monitoreo y recuperación de resultados para Desktop Grids usando una arquitectura orientada a servicios: caso Boinc(Pontificia Universidad Católica del Perú, 2014-05-26) Fonseca Arroyo, Pablo Alejandro; Ríos Kruger, GenghisHoy en día los científicos necesitan de aplicaciones de cómputo para realizar cálculos, validar modelos matemáticos o hacer simulaciones; requiriendo para esto del procesamiento de un gran volumen de datos. En ocasiones, los requerimientos computacionales para realizar estas tareas exceden las prestaciones que les puede brindar una computadora personal. En vista de esto, es necesario contar con una infraestructura de mayor escala, la cual permita realizar cálculos intensivos.Ítem Texto completo enlazado Optimización de la probabilidad de error en un esquema de cooperación para un detector λ-MRC en canal rayleigh(Pontificia Universidad Católica del Perú, 2012-06-22) Calderón Inga, Mitchell OmarEn el presente trabajo de tesis, se ha realizado un análisis del esquema de cooperación de usuarios, con el objetivo de obtener la menor probabilidad de error de bit del sistema. Este análisis es efectuado sobre la implementación CDMA detallada en el articulo User Cooperation Diversity-Part II, escrito por Sendonaris et al. Sin embargo, la probabilidad de error obtenida en este articulo sólo es válido para canales fijos, y sabemos que en la realidad este canal esta expuesto a diferentes tipos de desvanecimiento, lo cual lo hace variable. En este caso, el desvanecimiento multitrayectoria es lo que causa los mayores daños en la recuperación de la información y obedece a una distribución de probabilidad Rayleigh. En tal sentido, una expresión exacta para la probabilidad de error de bit media fue obtenida para el detector λ-MRC (maximal-ratio combining), sobre un canal con desvanecimiento Rayleigh. Sin embargo, dada la complejidad de la expresión exacta, una aproximación muy cercana fue obtenida para calcular la probabilidad de error de bit media, en el caso de cualquier esquema de asignación de potencia. Con esta aproximación, podemos hacer un análisis más exhaustivo y más real del sistema, en el sentido de conocer cuándo la cooperación es beneficiosa y cuándo no la es. Una vez identificado cuando cooperar, la idea es hacerlo con los parámetros adecuados para que la probabilidad de error del sistema sea la mínima. Nuestro análisis, consiste precisamente, en encontrar estos parámetros para tener un sistema de cooperación de usuarios óptimo. Aún con nuestra aproximación, manejar tantas variables resulta complejo. Por tal motivo, simplificaremos el análisis usando una asignación de potencia uniforme, ya que nuestro objetivo es demostrar que podemos llegar a tener un mejor sistema con el manejo adecuado de todas las variables involucradas. Aquí también, debemos considerar que el esfuerzo computacional demandado no debe ser alto, ya que esto le quitará eficiencia a nuestro análisis. Los resultados presentados, muestran que nuestra expresión permite investigar las diferentes situaciones del canal y con esta información crear estrategias, haciendo que el esquema de cooperación de usuarios sea más eficiente.Ítem Texto completo enlazado Diseño e implementación del algoritmo de convolución bidimensional en la arquitectura CUDA(Pontificia Universidad Católica del Perú, 2011-10-25) Sánchez Checa Crosato, IvoEn el presente documento se explicarán las consideraciones realizadas para implementar la convolución bidimensional en la arquitectura CUDA. En general se discutirá la metodología seguida y se mostrarán y analizarán los resultados obtenidos. Inicialmente en el Capítulo 1, a manera de introducción, se discutirá la programación en paralelo y los diferentes aspectos a tener en cuenta al desarrollar programas para arquitecturas concurrentes. De esta forma se pretende explicar conceptos importantes que servirán para poner la presente investigación en contexto y comprender mejor los siguientes capítulos. En el Capítulo 2 se describirá a profundidad los aspectos más importantes de la arquitectura CUDA así como la operación de convolución bidimensional. De esta manera se espera dejar claros los conceptos pertinentes. Posteriormente en el Capítulo 3 se explicará la metodología para el desarrollo de los programas realizados, detallándose las diferentes consideraciones para optimizar el desempeño y reducir el tiempo de ejecución de los mismos. Finalmente en el capítulo 4 se mostrarán los tiempos de ejecución obtenidos con los diferentes programas desarrollados. Estos se obtendrán al tomar en cuenta cada una de las optimizaciones mencionadas en el tercer capítulo con lo que se apreciará la mejora de desempeño en cada caso. A continuación se tomará la mejor de las implementaciones realizadas y se comparará con otras existentes para poner los resultados obtenidos en contexto. Por último se presentarán las conclusiones y recomendaciones pertinentes.Ítem Texto completo enlazado Diseño e implementación del filtro mediano de dos dimensiones para arquitecturas SIMD(Pontificia Universidad Católica del Perú, 2011-10-04) Sánchez Loayza, Ricardo MiguelEl filtro mediano es una de las operaciones básicas en el procesamiento de imágenes digitales, su función es la de eliminar el ruido impulsivo sin alterar la información de la imagen. A pesar de estas características, su uso se ve restringido debido al alto costo computacional del filtro. Las propuestas tradicionales de solución, consisten en disminuir la complejidad del algoritmo del filtro mediano, y en vectorizar los algoritmos existentes. Esta vectorización se realiza al utilizar las unidades SIMD (Single Instruction Multiple Data - Instrucción Única Múltiples Datos) de los procesadores modernos. Ésta les permite realizar una misma operación a un conjunto, o vector, de datos de manera simultánea, con lo que se obtiene un mejor desempeño computacional. En el presente trabajo se implementa el filtro mediano con el algoritmo vectorial propuesto por Kolte [1], el cual aprovecha las ventajas de las unidades SIMD. La eficiencia computacional de la implementación realizada se compara con el algoritmo Filtro Mediano en Tiempo Constante, propuesto recientemente por Perreault [2], el cual presenta una complejidad de O(1). La implementación realizada es 75 y 18.5 veces mas rápida que la implementación de referencia, para áreas de análisis de 3 x 3 y 5 x 5 respectivamente. Se concluye además que la vectorización de un algoritmo no necesariamente obtiene los mismos resultados que un algoritmo diseñado específicamente para ser implementado en unidades vectoriales [3].Ítem Texto completo enlazado Diseño de una arquitectura para un sistema neurodifuso ANFIS sobre un FPGA aplicado a la generación de funciones(Pontificia Universidad Católica del Perú, 2011-06-09) Block Saldaña, Henry JoséEn la presente tesis, se realizó el diseño de una arquitectura para un sistema neurodifuso ANFIS. Se tomó en consideración un sistema de orden cero de dos entradas y una salida, que cuenta con funciones de pertenencia triangulares en los antecedentes de las reglas difusas. Además, se tuvo en cuenta que el entrenamiento del sistema es realizado fuera de línea (off-line), en MATLAB. La arquitectura diseñada se dividió en cuatro bloques: Fuzzificador, Permutador, Inferencia y Defuzzificador. Cada uno de estos bloques fue tratado como un subsistema y descrito por separado para facilitar su diseño. Posteriormente, se procedió a juntar los cuatro bloques, dando como resultado la arquitectura propuesta para el sistema neurodifuso ANFIS. Esta arquitectura fue descrita de manera modular y genérica mediante el lenguaje de descripción de hardware VHDL y fue implementada en los FPGA Spartan-3 XC3S200 de la empresa Xilinx y Cyclone II EP2C35 de la empresa Altera, utilizando las herramientas que se encuentran dentro de los entornos de desarrollo ISE 11 y Quartus II 9.1, respectivamente. El sistema diseñado fue aplicado a la generación de funciones. Primero, se eligió una función no lineal y se llevó a cabo el entrenamiento del sistema en MATLAB para obtener los parámetros de los antecedentes y consecuentes de las reglas difusas. Después, estos parámetros fueron convertidos a una representación binaria en punto-fijo complemento a dos y almacenados en las memorias ROM del código en VHDL. Finalmente, se realizaron simulaciones sobre los dos FPGA, mencionados anteriormente, para verificar la operación del sistema y poder evaluar su desempeño. Entre los resultados obtenidos, destaca que el tiempo requerido por el sistema para calcular un valor de la función es menor a 10 s (trabajando a una frecuencia de reloj de 50 MHz). Este valor es mucho menor al tiempo requerido por la aplicación en MATLAB, el cual fue de alrededor de 100 ms.