Ingeniería Informática
Permanent URI for this collectionhttp://54.81.141.168/handle/123456789/9139
Browse
7 results
Search Results
Item Metadata only Algoritmo metaheurístico para la optimización de consultas SQL en bases de datos distribuidas relacionales(Pontificia Universidad Católica del Perú, 2024-04-09) Sangama Ramirez, Jesus Angel Eduardo; Cueva Moscoso, RonyEn el contexto empresarial, los datos tienen una importancia significativa tanto para la operación del día a día en una organización como para la toma de decisiones dentro de esta. Por ello, resulta vital que consultar dichos datos sea un proceso lo más eficiente posible. Para las bases de datos relacionales, una forma de lograr esto es la optimización de consultas SQL, y entre los diferentes métodos de optimización se encuentran los algoritmos metaheurísticos. El presente trabajo realiza una investigación de la literatura académica centrada en estos algoritmos aplicados a la optimización de consultas en bases de datos distribuidas relacionales y decide realizar una comparación entre el algoritmo genético (el cual cuenta con gran popularidad en este ámbito) y el memético, con el fin de evaluar si la aplicación de este último resulta viable para este tipo de optimización. Para lograr lo planteado anteriormente, el trabajo busca definir variables, parámetros y restricciones del problema de optimización de consultas; las cuales posteriormente son utilizadas para implementar adaptaciones propias de los algoritmos genético y memético orientadas a dicho problema. Finalmente, se realiza una comparación de eficacia y eficiencia entre ambas implementaciones a través de experimentación numérica. Tras finalizar todas las tareas anteriores, se concluye que se logró implementar un algoritmo memético para optimizar consultas SQL en bases de datos distribuidas relacionales cuyo rendimiento puede superar al algoritmo genético para escenarios de complejidad creciente (es decir, bases de datos con numerosas tablas y sitios).Item Metadata only Implementación de chatbots, migraciones y lago de datos en AWS(Pontificia Universidad Católica del Perú, 2024-02-13) Ávila Flores, Patricio José; Quispe Vílchez, Eder RamiroDesde el momento del egreso en julio del 2020, se ha ejercido labores en dos consultoras de servicios informáticos. Primero, en una consultora canadiense llamada Rules Cube que se enfoca en el desarrollo de aplicaciones en Pega. Segundo, en una consultora peruana llamada Tuxpas, que se especializa en proyectos de implementación de chatbots en la plataforma Workplace, y construcción de lagos de datos y migraciones en AWS. En Rules Cube con el rol de practicante profesional de TI se apoyó en el desarrollo de una aplicación móvil de reconocimiento de tickets y boletas de compra por un período de cuatro meses. El objetivo de esta aplicación era poder obtener con fotos rápidamente todos los gastos en los que se incurre día a día. Como parte de las herramientas se utilizó Pega, Sharepoint, y diversos aplicativos de la misma empresa. En Tuxpas es donde se ha ejercido la gran mayoría del tiempo desde el egreso. En el primer año en la compañía con el rol de desarrollador de software se formó parte de un equipo que implementó y desplegó chatbots en la red social para empresas Workplace para reconocer a colaboradores y conocer el estado del clima laboral, en un cliente de venta de productos de beleza, información que resultaba vital para la gerencia para conocer la retroalimentación de trabajadores de primera línea. En el segundo y tercer año, ahora con el rol de arquitecto de software y con la responsabilidad de liderar proyectos, es que se han llevado a cabo diseños y desarrollos de diversos lagos de datos y migraciones. Una de las migraciones más resaltantes fue realizada para un cliente del sector salud y que implicó el movimiento de toda su infraestructura y aplicaciones hacia la nube de AWS. Esto incrementó enormemente la disponibilidad de las aplicaciones y gracias a ello se redujo el tiempo de baja. Asimismo, se pudieron refactorizar las aplicaciones para que puedan ser alojadas en servicios auto-escalables. Más adelante, se llevó a cabo un lago de datos que centralizaba toda la información generada en las diversas fuentes del cliente, perteneciente al sector educativo. Esto permitió poder tener una misma estructura para todos los datos, que en el origen se encontraba con distintas nomenclaturas que hacían más difícil una visión completa de los datos generados. Además, permitió agilizar la creación y ejecución de procesos analíticos para toda el área de Inteligencia de Negocios.Item Metadata only Implementación de una plataforma digital para el registro, procesamiento y categorización de datos relacionados a los perfiles de los sujetos de prueba, para estudios de metagenómica intestinal humana(Pontificia Universidad Católica del Perú, 2023-03-10) Carbajal Serrano, César Adrián; Hirsh Martinez, LaylaLa metagenómica es la ciencia que emplea el análisis genético directo de una población de microorganismos contenidos en una muestra ambiental, mediante la extracción directa y clonación de ADN (Thomas, Gilbert & Meyer, 2012; Singh, et. al., 2009). Uno de los focos de la metagenómica es el microbioma intestinal humano, debido a que desempeña un papel clave en la salud (Davenport et. al., 2017; Sekirov, 2010). En los estudios de metagenómica intestinal, se realiza un muestreo de las heces de los sujetos de prueba (Aagaard et. al., 2013), se secuencian los microorganismos que se encuentran en esta, se procesa esta información mediante herramientas bioinformáticas y finalmente los investigadores analizan los resultados obtenidos (Lloyd-Price et. al., 2016). Previamente al proceso de muestreo, se requiere recopilar los metadatos de la muestra (Kunin et. al., 2008), los cuales son datos de los sujetos de prueba que influyen en su microbioma intestinal. Actualmente, estos metadatos se recopilan y procesan de una forma manual, a modo de formulario físico, se almacenan de forma incompleta y no estandarizada, y requieren mucho tiempo para ser procesados y categorizados. Es por ello que, en el presente trabajo de fin de carrera, se busca proponer una herramienta digital que permita la recopilación, procesamiento y categorización de los datos de los sujetos de prueba. Estos datos, los cuales son de distintos tipos, serán recopilados de una manera uniforme en una base de datos, de tal manera que se preserven en el tiempo y los investigadores puedan reutilizar esta información en futuros estudios, sin tener que recurrir a volver a realizar el costoso proceso de secuenciación. Con el fin de resolver este problema, se diseñó una base de datos que almacene los datos de los sujetos de prueba, de una manera estandarizada. Utilizando las entidades y las relaciones identificadas en la revisión de la literatura, se pudo plantear un diseño de base de datos que permita la recopilación de los datos de los participantes. En ese mismo sentido, usando la base de datos planteada, se implementó una plataforma digital que permite gestionar estudios de metagenómica y recopilar los datos de sus participantes. De esta manera, se pueden almacenar los metadatos de las muestras a secuenciar de una manera digital, permitiendo a los investigadores revisar estos datos en un futuro. Finalmente, se identificó las funcionalidades necesarias para el procesamiento de los datos de los sujetos de prueba. Estas funcionalidades fueron implementadas en la plataforma digital, para poder permitir a los investigadores analizar estos datos de una manera rápida y sencilla.Item Metadata only Implementación de un sistema para la gestión del proceso de votación digital en instituciones privadas(Pontificia Universidad Católica del Perú, 2022-04-29) León Chumpitaz, Jorge Renato; Quispe Vilchez, Eder RamiroEn la actualidad los procesos electorales, en su gran mayoría, se llevan a cabo de forma presencial y se procesan los votos casi en su totalidad de forma manual. Esta forma de llevar a cabo el proceso trae consigo problemas tales como el extenso tiempo que toma realizarlo, la logística que conlleva, la acumulación de información física y la dificultad en la gestión de la misma, y los casos de fraude electoral que se han dado a lo largo de la historia. Es por ello que el presente trabajo de investigación, tendrá como resultado un sistema de votación digital para instituciones privadas y que seguirá lineamientos de seguridad de la información para asegurar en lo posible la confidencialidad de la información y evitar fraudes en el proceso. A lo largo de este proyecto de fin de carrera, se presentarán los objetivos que este tiene comenzando por la definición del proceso y lo que este abarca, y en base a ello, se realizará un análisis y diseño del alcance del sistema. Además, se definirán los lineamientos de seguridad que seguirá el desarrollo e implementación del mismo y finalmente, se implementará el sistema y se generarán los manuales y documentación para el uso del mismo. De esta forma se culminará explicando como la realización de este sistema combate los problemas antes mencionados brindando a las instituciones privadas una herramienta que los ayude en la gestión y realización de sus votaciones.Item Metadata only Desarrollo de un pipeline bioinformático que permite el ensamblaje y la anotación del genoma de la bacteria rickettsia asembonensis(Pontificia Universidad Católica del Perú, 2022-04-19) Arauco Alarcon, Ronie Paolo; Villanueva Talavera, Edwin RafaelEn las últimas décadas, el surgimiento y resurgimiento de las bacterias infecciosas se han convertido en amenazas de importancia para la salud pública. Este es el caso de la bacteria de la especie Rickettsia asembonensis -identificada en Asembo, Kenia- que, en los últimos años, ha sido detectada en pulgas (Ctenocephalides felis y Ctenocephalides canis), en regiones anteriormente no reportadas y en casos de síndromes febriles agudos inespecíficos. Este patógeno emergente -así como muchos otros- sigue siendo relativamente desconocido. Por lo que, se convierte en una necesidad sustancial no subestimarlo y expandir su estudio no solo epidemiológico, sino también relacionado a su biología molecular. En la actualidad, el esfuerzo científico a fin de incrementar la eficiencia de la obtención de la biología molecular de las especies a nivel global ha generado la aparición de tecnologías de secuenciación de última generación. En ese sentido, la gran cantidad de datos genómicos deben ser manipulados con técnicas bioinformáticas. Estas últimas, han permitido un mejor entendimiento y uso de los datos que generan las tecnologías de secuenciación. Siendo que, recientemente, la aplicación de protocolos y pipelines ha generado resultados favorables. En consecuencia, la aplicación de técnicas bioinformáticas con la finalidad de obtener la información genómica de la bacteria R. asembonensis representa una oportunidad para contribuir al conocimiento científico de este microorganismo. Por lo tanto, el presente trabajo tiene como objetivo principal el ensamblaje y la anotación del genoma de la bacteria R. asembonensis a través de un pipeline bioinformático, que hará uso de datos secuenciados de la pulga de la especie C. felis positivas para R. asembonensis, a partir de unas muestras recolectadas en un estudio llevado a cabo en la ciudad de Iquitos. El presente trabajo generará también un precedente y referente metodológico para otras especies de interés con la misma problemática.Item Metadata only Implementación de un sistema de información para la gestión y procesamiento de datos geotécnicos(Pontificia Universidad Católica del Perú, 2021-06-01) Quilca Vilcapoma, José Gustavo; Ríos Alejos, Luis EstebanLa gestión de datos es importante en diversas áreas de estudios y resalta en el área de la Ingeniería Geotécnica, donde al realizarse ensayos para el estudio de suelos, se llega a obtener una gran cantidad de datos. Los cuales cada vez son mayores, debido al desarrollo de nuevas técnicas usando instrumentación digital y al avanzado desarrollo de instrumentos electrónicos de medición. Este documento describe un proyecto que propone gestionar y procesar datos de ensayos para el estudio de suelos mediante la implementación de un sistema de información. La cual, para una organización prestadora de servicios de estudios de suelos, permite mejorar sus procesos en los siguientes aspectos: (a) brindado un almacenamiento de datos centralizado, lo que permitirá compartir fácilmente la información, (b) mantener un histórico de datos, para auditorías realizadas en un futuro al proyecto, (c) acceso ágil a la información , al tener la información almacenada con distinción de lugar y tiempo, con la posibilidad de acceso desde diversas ubicaciones, (d) uso de respaldo de datos automatizado, (e) integridad, para evitar la corrupción de información y correspondencia para la correcta referenciación a los proyectos reales, (f) generar nueva información a partir de otros datos, mediante ecuaciones definidas o correlaciones entre ensayos.Item Metadata only Dirección de la Estrategia de Data en el grupo CREDICORP(Pontificia Universidad Católica del Perú, 2021-05-18) Almeyda Alcántara, José Marcelo; Cueva Moscoso, RonyLuego de egresar de la carrera de Ingeniería Informática de la Pontificia Universidad Católica en 1998 ingrese a trabajar en el área de sistemas del Banco de Crédito del Perú en diferentes roles Programador, Analista y finalmente Arquitecto de Sistemas, luego de ello pase por otras de negocio del mencionado Banco para finalmente estar a cargo de la creación del Área de Data dentro del grupo Credicorp. En Enero del 2015 el Banco de Crédito del Perú empezó a delinear la creación del Área de Data y Analytics debido a la necesidad de contar con la información necesaria para poder cumplir con su principal objetivo “Transformar sueños en realidad”, antes de la creación de esta área, los datos no eran gobernados por una única entidad y estaba dispersa en las diferentes áreas de negocio y tecnología lo que llevaba a tener diversos problemas de disponibilidad, integridad y veracidad de la información, además del alto costo que conllevaba este modelo de trabajo. A mediados del 2015 se me encargó crear y liderar el Área de Data con el objetivo principal de poner en valor los activos de información del BCP, al poco tiempo se incrementó el alcance de la función a todo el grupo Credicorp (BCP, Prima, Pacifico, Credicorp Capital y Mi Banco). Para la realización de este encargo se dividió en 5 principales iniciativas, desarrolladas principalmente por el personal del BCP: Gestión del recurso humano, el cual incluye organización, funciones, perfiles, capacitación y desarrollo de carrera dentro de un entorno de agilidad, esto conlleva a incluir especializaciones en lugar de estructura jerarquica asi como verdaderas evaluaciones 360. Gobierno y Calidad de Datos, definición e implementación del gobierno de datos que permita tener una sola verdad en relación a que significa cada dato y donde es posible encontrarlo complementándolo con los estándares de calidad de acuerdo a la criticidad del mismo, el entregable fue el diccionario de datos (20mil) de la organización. Arquitectura de Datos basado en tecnología de Big Data, definición e implementación de los diversos componentes de almacenamiento (data lake), explotación y visualización , carga de datos, gobierno y calidad, seguridad y streaming, finalmente se opto por el uso de tecnología de Cloudera on-premise para el almacenamiento, Datameer y Qlik para explotacion y visualizacion, IBM Infosphere para la carga de datos de los aplicativos core y bases externas, Spark para la carga entre capas del datalake, kafka para el streaming de datos y Cloudera DataScience Workbench como herramienta de modelamiento estadísticos donde se podía programar en Python, R y Spark.. Cultura de Datos, definición e implementación de la metodología de cultura de datos como un segundo idioma que permita definir el nivel de madurez de cada área en termino de uso de datos en la toma de decisiones. Data Enrichment, si bien la información que posee el grupo es relevante, es necesario enriquecer la información no solo con nuevos elementos de datos sino también actualizando los existentes de tal manera de tener información fiable. Por otro lado se hizo necesario la creación de un laboratorio de datos donde no solo se probaba tecnología sino también permitía implementar soluciones que capturen mas datos para la tomar de decisiones. Laboratorio de Big Data, definición e implementación del laboratorio de Big Data de tal manera que se pueda poner en valor de forma inmediata el uso de los datos sin esperar a que se culmine todo el proceso de carga de información, para esta labor se utilizo el framework Scrum para el desarrollo de productos de data y la Arquitecture de Big Data con herramientas de Microsoft Azure. Dentro de las principales conclusiones que conllevaron al éxito en la implementación de la estrategia de data se encuentran : • El desarrollo de una estrategia de datos tiene diferentes aristas tecnológicas, culturales y de procesos que deben avanzar en paralelo para el mejor aprovechamiento del valor de la data. • Es necesario un alineamiento de la estrategia de datos a la estrategia corporativa, de esta manera se asegura el soporte de la gerencia central. • La estrategia de datos debe ser conocida por toda la organización y a todo nivel, debido a que es un proceso federado. • Se deben desarrollar las capacidades técnicas del personal ya que el universo de personas que conocen tecnología de big data en el país es muy reducido.