3. Licenciatura

URI permanente para esta comunidadhttp://54.81.141.168/handle/123456789/7312

Explorar

Resultados de búsqueda

Mostrando 1 - 10 de 11
  • Ítem
    Algoritmo metaheurístico para la optimización de consultas SQL en bases de datos distribuidas relacionales
    (Pontificia Universidad Católica del Perú, 2024-04-09) Sangama Ramirez, Jesus Angel Eduardo; Cueva Moscoso, Rony
    En el contexto empresarial, los datos tienen una importancia significativa tanto para la operación del día a día en una organización como para la toma de decisiones dentro de esta. Por ello, resulta vital que consultar dichos datos sea un proceso lo más eficiente posible. Para las bases de datos relacionales, una forma de lograr esto es la optimización de consultas SQL, y entre los diferentes métodos de optimización se encuentran los algoritmos metaheurísticos. El presente trabajo realiza una investigación de la literatura académica centrada en estos algoritmos aplicados a la optimización de consultas en bases de datos distribuidas relacionales y decide realizar una comparación entre el algoritmo genético (el cual cuenta con gran popularidad en este ámbito) y el memético, con el fin de evaluar si la aplicación de este último resulta viable para este tipo de optimización. Para lograr lo planteado anteriormente, el trabajo busca definir variables, parámetros y restricciones del problema de optimización de consultas; las cuales posteriormente son utilizadas para implementar adaptaciones propias de los algoritmos genético y memético orientadas a dicho problema. Finalmente, se realiza una comparación de eficacia y eficiencia entre ambas implementaciones a través de experimentación numérica. Tras finalizar todas las tareas anteriores, se concluye que se logró implementar un algoritmo memético para optimizar consultas SQL en bases de datos distribuidas relacionales cuyo rendimiento puede superar al algoritmo genético para escenarios de complejidad creciente (es decir, bases de datos con numerosas tablas y sitios).
  • Ítem
    Implementación de chatbots, migraciones y lago de datos en AWS
    (Pontificia Universidad Católica del Perú, 2024-02-13) Ávila Flores, Patricio José; Quispe Vílchez, Eder Ramiro
    Desde el momento del egreso en julio del 2020, se ha ejercido labores en dos consultoras de servicios informáticos. Primero, en una consultora canadiense llamada Rules Cube que se enfoca en el desarrollo de aplicaciones en Pega. Segundo, en una consultora peruana llamada Tuxpas, que se especializa en proyectos de implementación de chatbots en la plataforma Workplace, y construcción de lagos de datos y migraciones en AWS. En Rules Cube con el rol de practicante profesional de TI se apoyó en el desarrollo de una aplicación móvil de reconocimiento de tickets y boletas de compra por un período de cuatro meses. El objetivo de esta aplicación era poder obtener con fotos rápidamente todos los gastos en los que se incurre día a día. Como parte de las herramientas se utilizó Pega, Sharepoint, y diversos aplicativos de la misma empresa. En Tuxpas es donde se ha ejercido la gran mayoría del tiempo desde el egreso. En el primer año en la compañía con el rol de desarrollador de software se formó parte de un equipo que implementó y desplegó chatbots en la red social para empresas Workplace para reconocer a colaboradores y conocer el estado del clima laboral, en un cliente de venta de productos de beleza, información que resultaba vital para la gerencia para conocer la retroalimentación de trabajadores de primera línea. En el segundo y tercer año, ahora con el rol de arquitecto de software y con la responsabilidad de liderar proyectos, es que se han llevado a cabo diseños y desarrollos de diversos lagos de datos y migraciones. Una de las migraciones más resaltantes fue realizada para un cliente del sector salud y que implicó el movimiento de toda su infraestructura y aplicaciones hacia la nube de AWS. Esto incrementó enormemente la disponibilidad de las aplicaciones y gracias a ello se redujo el tiempo de baja. Asimismo, se pudieron refactorizar las aplicaciones para que puedan ser alojadas en servicios auto-escalables. Más adelante, se llevó a cabo un lago de datos que centralizaba toda la información generada en las diversas fuentes del cliente, perteneciente al sector educativo. Esto permitió poder tener una misma estructura para todos los datos, que en el origen se encontraba con distintas nomenclaturas que hacían más difícil una visión completa de los datos generados. Además, permitió agilizar la creación y ejecución de procesos analíticos para toda el área de Inteligencia de Negocios.
  • Ítem
    Implementación de una plataforma digital para el registro, procesamiento y categorización de datos relacionados a los perfiles de los sujetos de prueba, para estudios de metagenómica intestinal humana
    (Pontificia Universidad Católica del Perú, 2023-03-10) Carbajal Serrano, César Adrián; Hirsh Martinez, Layla
    La metagenómica es la ciencia que emplea el análisis genético directo de una población de microorganismos contenidos en una muestra ambiental, mediante la extracción directa y clonación de ADN (Thomas, Gilbert & Meyer, 2012; Singh, et. al., 2009). Uno de los focos de la metagenómica es el microbioma intestinal humano, debido a que desempeña un papel clave en la salud (Davenport et. al., 2017; Sekirov, 2010). En los estudios de metagenómica intestinal, se realiza un muestreo de las heces de los sujetos de prueba (Aagaard et. al., 2013), se secuencian los microorganismos que se encuentran en esta, se procesa esta información mediante herramientas bioinformáticas y finalmente los investigadores analizan los resultados obtenidos (Lloyd-Price et. al., 2016). Previamente al proceso de muestreo, se requiere recopilar los metadatos de la muestra (Kunin et. al., 2008), los cuales son datos de los sujetos de prueba que influyen en su microbioma intestinal. Actualmente, estos metadatos se recopilan y procesan de una forma manual, a modo de formulario físico, se almacenan de forma incompleta y no estandarizada, y requieren mucho tiempo para ser procesados y categorizados. Es por ello que, en el presente trabajo de fin de carrera, se busca proponer una herramienta digital que permita la recopilación, procesamiento y categorización de los datos de los sujetos de prueba. Estos datos, los cuales son de distintos tipos, serán recopilados de una manera uniforme en una base de datos, de tal manera que se preserven en el tiempo y los investigadores puedan reutilizar esta información en futuros estudios, sin tener que recurrir a volver a realizar el costoso proceso de secuenciación. Con el fin de resolver este problema, se diseñó una base de datos que almacene los datos de los sujetos de prueba, de una manera estandarizada. Utilizando las entidades y las relaciones identificadas en la revisión de la literatura, se pudo plantear un diseño de base de datos que permita la recopilación de los datos de los participantes. En ese mismo sentido, usando la base de datos planteada, se implementó una plataforma digital que permite gestionar estudios de metagenómica y recopilar los datos de sus participantes. De esta manera, se pueden almacenar los metadatos de las muestras a secuenciar de una manera digital, permitiendo a los investigadores revisar estos datos en un futuro. Finalmente, se identificó las funcionalidades necesarias para el procesamiento de los datos de los sujetos de prueba. Estas funcionalidades fueron implementadas en la plataforma digital, para poder permitir a los investigadores analizar estos datos de una manera rápida y sencilla.
  • Ítem
    Implementación de un sistema para la gestión del proceso de votación digital en instituciones privadas
    (Pontificia Universidad Católica del Perú, 2022-04-29) León Chumpitaz, Jorge Renato; Quispe Vilchez, Eder Ramiro
    En la actualidad los procesos electorales, en su gran mayoría, se llevan a cabo de forma presencial y se procesan los votos casi en su totalidad de forma manual. Esta forma de llevar a cabo el proceso trae consigo problemas tales como el extenso tiempo que toma realizarlo, la logística que conlleva, la acumulación de información física y la dificultad en la gestión de la misma, y los casos de fraude electoral que se han dado a lo largo de la historia. Es por ello que el presente trabajo de investigación, tendrá como resultado un sistema de votación digital para instituciones privadas y que seguirá lineamientos de seguridad de la información para asegurar en lo posible la confidencialidad de la información y evitar fraudes en el proceso. A lo largo de este proyecto de fin de carrera, se presentarán los objetivos que este tiene comenzando por la definición del proceso y lo que este abarca, y en base a ello, se realizará un análisis y diseño del alcance del sistema. Además, se definirán los lineamientos de seguridad que seguirá el desarrollo e implementación del mismo y finalmente, se implementará el sistema y se generarán los manuales y documentación para el uso del mismo. De esta forma se culminará explicando como la realización de este sistema combate los problemas antes mencionados brindando a las instituciones privadas una herramienta que los ayude en la gestión y realización de sus votaciones.
  • Ítem
    Data science como base en la toma de decisiones para una gestión eficiente de las perforadoras de producción en una mina superficial a gran escala
    (Pontificia Universidad Católica del Perú, 2022-04-25) Tarrillo Silva, Jheran Brenner; Bautista Marin, Edinson Samir; Guzmán Córdova, Maribel Giovana
    El mundo es hoy en día una revolución de datos; es por ello, que todas las industrias se ven enfrentadas a un gran desafío, el cual es la transformación digital a fin de obtener el mayor beneficio de estos grandes volúmenes de datos que esta pueda generar. La digitalización se refiere a la manera en que los datos se almacenan, gestionan y utilizan. Con la cantidad de datos generados cada minuto, las industrias deben capitalizar este nuevo paradigma para diseñar cada vez más innovadoras capacidades analíticas. Para las empresas la data se ha convertido en un activo fundamental, debido a que la calidad y cantidad de la misma influye en su valoración. La Ciencia de Datos o Data Science posibilita crear conocimiento de negocio, optimizando de esta manera la toma de decisiones y extrayendo información que se encuentra oculta entre los datos generados por una empresa. En minería, se puede observar un considerable rezago en la adopción de la digitalización comparado con otras industrias como la construcción, el retail o la industria financiera; sin embargo, a nivel global se evidencia una preocupación por reducir esta brecha. El beneficio para la industria minera se puede dar en términos de una mejor gestión de las operaciones, el mantenimiento de equipo pesado, la seguridad y la productividad. La productividad se puede ver incrementada gracias a una toma eficiente de decisiones operativas en el momento adecuado, de esta manera los inventarios de productos por vender de la empresa (stock piles) se pueden ver incrementados, así como los costos unitarios del proceso productivo se logran disminuir, por ende, la rentabilidad y valor de mercado de la minera se maximiza. Identificar qué etapas se deben seguir para abordar un proyecto de Data Science es esencial para estructurar y analizar los recursos necesarios y la fase en la cual tendrán una mayor implicancia; es por ello, que la presente tesis brindará una metodología adecuada para la implementación de este tipo de proyecto en una operación de Minería Superficial, con el objetivo de agregar valor a la empresa mediante el incremento de activos corrientes (stock piles) a través de la optimización del proceso de perforación, primer proceso en la cadena de valor de una empresa minera.
  • Ítem
    Desarrollo de un pipeline bioinformático que permite el ensamblaje y la anotación del genoma de la bacteria rickettsia asembonensis
    (Pontificia Universidad Católica del Perú, 2022-04-19) Arauco Alarcon, Ronie Paolo; Villanueva Talavera, Edwin Rafael
    En las últimas décadas, el surgimiento y resurgimiento de las bacterias infecciosas se han convertido en amenazas de importancia para la salud pública. Este es el caso de la bacteria de la especie Rickettsia asembonensis -identificada en Asembo, Kenia- que, en los últimos años, ha sido detectada en pulgas (Ctenocephalides felis y Ctenocephalides canis), en regiones anteriormente no reportadas y en casos de síndromes febriles agudos inespecíficos. Este patógeno emergente -así como muchos otros- sigue siendo relativamente desconocido. Por lo que, se convierte en una necesidad sustancial no subestimarlo y expandir su estudio no solo epidemiológico, sino también relacionado a su biología molecular. En la actualidad, el esfuerzo científico a fin de incrementar la eficiencia de la obtención de la biología molecular de las especies a nivel global ha generado la aparición de tecnologías de secuenciación de última generación. En ese sentido, la gran cantidad de datos genómicos deben ser manipulados con técnicas bioinformáticas. Estas últimas, han permitido un mejor entendimiento y uso de los datos que generan las tecnologías de secuenciación. Siendo que, recientemente, la aplicación de protocolos y pipelines ha generado resultados favorables. En consecuencia, la aplicación de técnicas bioinformáticas con la finalidad de obtener la información genómica de la bacteria R. asembonensis representa una oportunidad para contribuir al conocimiento científico de este microorganismo. Por lo tanto, el presente trabajo tiene como objetivo principal el ensamblaje y la anotación del genoma de la bacteria R. asembonensis a través de un pipeline bioinformático, que hará uso de datos secuenciados de la pulga de la especie C. felis positivas para R. asembonensis, a partir de unas muestras recolectadas en un estudio llevado a cabo en la ciudad de Iquitos. El presente trabajo generará también un precedente y referente metodológico para otras especies de interés con la misma problemática.
  • Ítem
    Análisis del algoritmo FISTA orientado a mejorar la velocidad de convergencia
    (Pontificia Universidad Católica del Perú, 2022-03-08) Rámirez Orihuela, Gabriel; Rodríguez Valderrama, Paul Antonio
    Los problemas lineales inversos existen en numerosas ramas de la ciencia e ingeniería, lo cual genera la necesidad de definir algoritmos de solución e cientes, que requieran poco costo computacional y converjan en el menor número de iteraciones. Se desea recuperar información original a la cual no se tiene acceso lo más similarmente posible y con dimensiones reducidas, produciendo así una disminución en el uso de recursos computacionales y por ende en el tiempo de ejecución. Esto es de particular importancia debido a que el tamaño de las señales se encuentra en constante aumento y su manipulación puede resultar muy costosa. Se estudia el algoritmo de optimización de primer orden FISTA (Fast Iterative Shrinkage-Thresholding Algorithm), el cual es utilizado en problemas inversos cuya solución se resume a la minimización de funciones convexas empleando información de la gradiente y de iteraciones previas. En este contexto, se analizan métodos que buscan la optimización del algoritmo por medio de tamaños de paso adaptativos para delimitar el paso de la gradiente y una mejor solución inicial mediante la reducción de dimensiones a través de las técnicas conocidas como Screening y Warm Start, produciendo así datos más sparse. Además, se comprueba la e cacia de los métodos desarrollados por medio de un algoritmo generalizado, en el cual son evaluados datos aleatorios generados sintéticamente e imágenes, con el n de obtener la mejor tasa de convergencia.
  • Ítem
    Implementación de servicios de google apps y migración de correo corporativo para una organización empresarial minera
    (Pontificia Universidad Católica del Perú, 2021-12-17) Okawa Chiu, Jorge Mitsujiro; Montes Bazalar, Luis Andrés
    El presente informe profesional describe, desde mi rol como analista de proyectos, la migración de información y aplicaciones a los servicios de la nube brindados por Google de manera transversal a toda la empresa de Hochschild Mining PLC, con la intención de ser eficientes en los servicios dados a los clientes internos. El motivo principal de elegir este proyecto fue el uso de tecnologías Cloud, así como los primeros pasos que se estaban dando en la automatización de procesos y configuraciones en servidores de migración de información y de dominios en internet. Se utilizó una metodología alternativa para el análisis e implementación de un proyecto diferente a la usada por la PMI (Project Management Institute), enfatizando la importancia de una metodología correcta para cada tipo de proyecto. Para esto, se presenta como introducción teórica la metodología que usa Google para la implementación de los servicios Google Apps y la configuración y para su puesta en marcha. De forma adicional, se agregó la automatización de pruebas de tráfico de información y de usuario, usando scripts simulando tráfico de correos para verificar que las configuraciones estén trabajando de forma correcta.
  • Ítem
    Implementación de un sistema de información para la gestión y procesamiento de datos geotécnicos
    (Pontificia Universidad Católica del Perú, 2021-06-01) Quilca Vilcapoma, José Gustavo; Ríos Alejos, Luis Esteban
    La gestión de datos es importante en diversas áreas de estudios y resalta en el área de la Ingeniería Geotécnica, donde al realizarse ensayos para el estudio de suelos, se llega a obtener una gran cantidad de datos. Los cuales cada vez son mayores, debido al desarrollo de nuevas técnicas usando instrumentación digital y al avanzado desarrollo de instrumentos electrónicos de medición. Este documento describe un proyecto que propone gestionar y procesar datos de ensayos para el estudio de suelos mediante la implementación de un sistema de información. La cual, para una organización prestadora de servicios de estudios de suelos, permite mejorar sus procesos en los siguientes aspectos: (a) brindado un almacenamiento de datos centralizado, lo que permitirá compartir fácilmente la información, (b) mantener un histórico de datos, para auditorías realizadas en un futuro al proyecto, (c) acceso ágil a la información , al tener la información almacenada con distinción de lugar y tiempo, con la posibilidad de acceso desde diversas ubicaciones, (d) uso de respaldo de datos automatizado, (e) integridad, para evitar la corrupción de información y correspondencia para la correcta referenciación a los proyectos reales, (f) generar nueva información a partir de otros datos, mediante ecuaciones definidas o correlaciones entre ensayos.
  • Ítem
    Dirección de la Estrategia de Data en el grupo CREDICORP
    (Pontificia Universidad Católica del Perú, 2021-05-18) Almeyda Alcántara, José Marcelo; Cueva Moscoso, Rony
    Luego de egresar de la carrera de Ingeniería Informática de la Pontificia Universidad Católica en 1998 ingrese a trabajar en el área de sistemas del Banco de Crédito del Perú en diferentes roles Programador, Analista y finalmente Arquitecto de Sistemas, luego de ello pase por otras de negocio del mencionado Banco para finalmente estar a cargo de la creación del Área de Data dentro del grupo Credicorp. En Enero del 2015 el Banco de Crédito del Perú empezó a delinear la creación del Área de Data y Analytics debido a la necesidad de contar con la información necesaria para poder cumplir con su principal objetivo “Transformar sueños en realidad”, antes de la creación de esta área, los datos no eran gobernados por una única entidad y estaba dispersa en las diferentes áreas de negocio y tecnología lo que llevaba a tener diversos problemas de disponibilidad, integridad y veracidad de la información, además del alto costo que conllevaba este modelo de trabajo. A mediados del 2015 se me encargó crear y liderar el Área de Data con el objetivo principal de poner en valor los activos de información del BCP, al poco tiempo se incrementó el alcance de la función a todo el grupo Credicorp (BCP, Prima, Pacifico, Credicorp Capital y Mi Banco). Para la realización de este encargo se dividió en 5 principales iniciativas, desarrolladas principalmente por el personal del BCP: Gestión del recurso humano, el cual incluye organización, funciones, perfiles, capacitación y desarrollo de carrera dentro de un entorno de agilidad, esto conlleva a incluir especializaciones en lugar de estructura jerarquica asi como verdaderas evaluaciones 360. Gobierno y Calidad de Datos, definición e implementación del gobierno de datos que permita tener una sola verdad en relación a que significa cada dato y donde es posible encontrarlo complementándolo con los estándares de calidad de acuerdo a la criticidad del mismo, el entregable fue el diccionario de datos (20mil) de la organización. Arquitectura de Datos basado en tecnología de Big Data, definición e implementación de los diversos componentes de almacenamiento (data lake), explotación y visualización , carga de datos, gobierno y calidad, seguridad y streaming, finalmente se opto por el uso de tecnología de Cloudera on-premise para el almacenamiento, Datameer y Qlik para explotacion y visualizacion, IBM Infosphere para la carga de datos de los aplicativos core y bases externas, Spark para la carga entre capas del datalake, kafka para el streaming de datos y Cloudera DataScience Workbench como herramienta de modelamiento estadísticos donde se podía programar en Python, R y Spark.. Cultura de Datos, definición e implementación de la metodología de cultura de datos como un segundo idioma que permita definir el nivel de madurez de cada área en termino de uso de datos en la toma de decisiones. Data Enrichment, si bien la información que posee el grupo es relevante, es necesario enriquecer la información no solo con nuevos elementos de datos sino también actualizando los existentes de tal manera de tener información fiable. Por otro lado se hizo necesario la creación de un laboratorio de datos donde no solo se probaba tecnología sino también permitía implementar soluciones que capturen mas datos para la tomar de decisiones. Laboratorio de Big Data, definición e implementación del laboratorio de Big Data de tal manera que se pueda poner en valor de forma inmediata el uso de los datos sin esperar a que se culmine todo el proceso de carga de información, para esta labor se utilizo el framework Scrum para el desarrollo de productos de data y la Arquitecture de Big Data con herramientas de Microsoft Azure. Dentro de las principales conclusiones que conllevaron al éxito en la implementación de la estrategia de data se encuentran : • El desarrollo de una estrategia de datos tiene diferentes aristas tecnológicas, culturales y de procesos que deben avanzar en paralelo para el mejor aprovechamiento del valor de la data. • Es necesario un alineamiento de la estrategia de datos a la estrategia corporativa, de esta manera se asegura el soporte de la gerencia central. • La estrategia de datos debe ser conocida por toda la organización y a todo nivel, debido a que es un proceso federado. • Se deben desarrollar las capacidades técnicas del personal ya que el universo de personas que conocen tecnología de big data en el país es muy reducido.