Tesis y Trabajos de Investigación PUCP
URI permanente para esta comunidadhttp://54.81.141.168/handle/123456789/6
El Repositorio Digital de Tesis y Trabajos de Investigación PUCP aporta al Repositorio Institucional con todos sus registros, organizados por grado: Doctorado, Maestría, Licenciatura y Bachillerato. Se actualiza permanentemente con las nuevas tesis y trabajos de investigación sustentados y autorizados, así como también con los que que fueron sustentados años atrás.
Ingresa a su web: Repositorio Digital de Tesis y Trabajos de Investigación PUCP
Explorar
2 resultados
Resultados de búsqueda
Ítem Texto completo enlazado Algoritmo metaheurístico para la optimización de consultas SQL en bases de datos distribuidas relacionales(Pontificia Universidad Católica del Perú, 2024-04-09) Sangama Ramirez, Jesus Angel Eduardo; Cueva Moscoso, RonyEn el contexto empresarial, los datos tienen una importancia significativa tanto para la operación del día a día en una organización como para la toma de decisiones dentro de esta. Por ello, resulta vital que consultar dichos datos sea un proceso lo más eficiente posible. Para las bases de datos relacionales, una forma de lograr esto es la optimización de consultas SQL, y entre los diferentes métodos de optimización se encuentran los algoritmos metaheurísticos. El presente trabajo realiza una investigación de la literatura académica centrada en estos algoritmos aplicados a la optimización de consultas en bases de datos distribuidas relacionales y decide realizar una comparación entre el algoritmo genético (el cual cuenta con gran popularidad en este ámbito) y el memético, con el fin de evaluar si la aplicación de este último resulta viable para este tipo de optimización. Para lograr lo planteado anteriormente, el trabajo busca definir variables, parámetros y restricciones del problema de optimización de consultas; las cuales posteriormente son utilizadas para implementar adaptaciones propias de los algoritmos genético y memético orientadas a dicho problema. Finalmente, se realiza una comparación de eficacia y eficiencia entre ambas implementaciones a través de experimentación numérica. Tras finalizar todas las tareas anteriores, se concluye que se logró implementar un algoritmo memético para optimizar consultas SQL en bases de datos distribuidas relacionales cuyo rendimiento puede superar al algoritmo genético para escenarios de complejidad creciente (es decir, bases de datos con numerosas tablas y sitios).Ítem Texto completo enlazado Dirección de la Estrategia de Data en el grupo CREDICORP(Pontificia Universidad Católica del Perú, 2021-05-18) Almeyda Alcántara, José Marcelo; Cueva Moscoso, RonyLuego de egresar de la carrera de Ingeniería Informática de la Pontificia Universidad Católica en 1998 ingrese a trabajar en el área de sistemas del Banco de Crédito del Perú en diferentes roles Programador, Analista y finalmente Arquitecto de Sistemas, luego de ello pase por otras de negocio del mencionado Banco para finalmente estar a cargo de la creación del Área de Data dentro del grupo Credicorp. En Enero del 2015 el Banco de Crédito del Perú empezó a delinear la creación del Área de Data y Analytics debido a la necesidad de contar con la información necesaria para poder cumplir con su principal objetivo “Transformar sueños en realidad”, antes de la creación de esta área, los datos no eran gobernados por una única entidad y estaba dispersa en las diferentes áreas de negocio y tecnología lo que llevaba a tener diversos problemas de disponibilidad, integridad y veracidad de la información, además del alto costo que conllevaba este modelo de trabajo. A mediados del 2015 se me encargó crear y liderar el Área de Data con el objetivo principal de poner en valor los activos de información del BCP, al poco tiempo se incrementó el alcance de la función a todo el grupo Credicorp (BCP, Prima, Pacifico, Credicorp Capital y Mi Banco). Para la realización de este encargo se dividió en 5 principales iniciativas, desarrolladas principalmente por el personal del BCP: Gestión del recurso humano, el cual incluye organización, funciones, perfiles, capacitación y desarrollo de carrera dentro de un entorno de agilidad, esto conlleva a incluir especializaciones en lugar de estructura jerarquica asi como verdaderas evaluaciones 360. Gobierno y Calidad de Datos, definición e implementación del gobierno de datos que permita tener una sola verdad en relación a que significa cada dato y donde es posible encontrarlo complementándolo con los estándares de calidad de acuerdo a la criticidad del mismo, el entregable fue el diccionario de datos (20mil) de la organización. Arquitectura de Datos basado en tecnología de Big Data, definición e implementación de los diversos componentes de almacenamiento (data lake), explotación y visualización , carga de datos, gobierno y calidad, seguridad y streaming, finalmente se opto por el uso de tecnología de Cloudera on-premise para el almacenamiento, Datameer y Qlik para explotacion y visualizacion, IBM Infosphere para la carga de datos de los aplicativos core y bases externas, Spark para la carga entre capas del datalake, kafka para el streaming de datos y Cloudera DataScience Workbench como herramienta de modelamiento estadísticos donde se podía programar en Python, R y Spark.. Cultura de Datos, definición e implementación de la metodología de cultura de datos como un segundo idioma que permita definir el nivel de madurez de cada área en termino de uso de datos en la toma de decisiones. Data Enrichment, si bien la información que posee el grupo es relevante, es necesario enriquecer la información no solo con nuevos elementos de datos sino también actualizando los existentes de tal manera de tener información fiable. Por otro lado se hizo necesario la creación de un laboratorio de datos donde no solo se probaba tecnología sino también permitía implementar soluciones que capturen mas datos para la tomar de decisiones. Laboratorio de Big Data, definición e implementación del laboratorio de Big Data de tal manera que se pueda poner en valor de forma inmediata el uso de los datos sin esperar a que se culmine todo el proceso de carga de información, para esta labor se utilizo el framework Scrum para el desarrollo de productos de data y la Arquitecture de Big Data con herramientas de Microsoft Azure. Dentro de las principales conclusiones que conllevaron al éxito en la implementación de la estrategia de data se encuentran : • El desarrollo de una estrategia de datos tiene diferentes aristas tecnológicas, culturales y de procesos que deben avanzar en paralelo para el mejor aprovechamiento del valor de la data. • Es necesario un alineamiento de la estrategia de datos a la estrategia corporativa, de esta manera se asegura el soporte de la gerencia central. • La estrategia de datos debe ser conocida por toda la organización y a todo nivel, debido a que es un proceso federado. • Se deben desarrollar las capacidades técnicas del personal ya que el universo de personas que conocen tecnología de big data en el país es muy reducido.