Ingeniería Informática
Permanent URI for this collectionhttp://54.81.141.168/handle/123456789/9139
Browse
Item Metadata only Adaptación al ámbito académico y mejoras a la usabilidad de un sistema de evaluación financiera para proyectos mineros(Pontificia Universidad Católica del Perú, 2016-07-07) Espinoza Sánchez, Luis Eduardo; Berrocal Pérez-Albela, Jorge Alberto; Yrigoyen Montestruque, José IsaacActualmente, se cuenta con un sistema de evaluación financiera de proyectos mineros realizado en otro proyecto de fin de carrera. Este permite realizar las operaciones necesarias para poder determinar si un proyecto minero es rentable. Sin embargo, tiene características que hacen que sea de difícil uso. Lo cual es un obstáculo que impide que pueda ser usado con todo el potencial con el que fue diseñado. Asimismo, se ha resaltado que sería bastante útil que funcione en un ambiente académico que permita ser usado como una herramienta de enseñanza y de aprendizaje de estos temas. Pero en su estado actual, no es posible que este sea utilizado en una institución académica. Por estas razones, se propone la realización de pruebas de usabilidad para identificar los problemas que afectan al sistema de evaluación financiera para su posterior mejora. Adicionalmente, también se propone agregar un módulo adicional que permita la administración del sistema en un ámbito académico.Item Metadata only Adaptación de los algoritmos SIFT y LSH para la diferenciación de archivos de imágenes(Pontificia Universidad Católica del Perú, 2016-06-27) Ramirez Franco, Tania Gabriela; Ibañez Quispe, Ila; Zapata del Río, Claudia María del PilarEl almacenamiento digital de información se ha vuelto un proceso cotidiano para todo aquel que disponga de algún dispositivo electrónico. Al tratarse de un proceso tan frecuente, es muy común que se almacenen grandes cantidades de datos/información, volví ´endose ardua su administración. Esto aplica a todos los tipos de datos digitales. El presente proyecto se enfoca en los problemas de almacenamiento de archivos de imágenes, como la gran repetición de archivos, elaborando una solución que permita aminorar el problema. El objetivo del proyecto es construir una herramienta que facilite la búsqueda de archivos de imagen que contengan contenidos similares. Para lograr el objetivo, se evaluaron herramientas que permitieran manipular la información de los archivos de imagen de manera que se puedan obtener los datos necesarios para realizar un proceso de comparación. Se decidió utilizar las herramientas SIFT y LSH y se procedió a adecuarlas para su funcionamiento de acuerdo a los criterios establecidos durante la investigación. Finalmente, se pudo elaborar una solución que permite realizar la comparación de un grupo de imágenes, mostrando porcentajes de similitud entre estas para así poder saber que imágenes son similares entre sí. En el primer capítulo del presente documento se desarrolla el problema a tratar y se explican los términos que se utilizan a lo largo de todo el documento. En el siguiente capítulo se encuentran los objetivos de la tesis, así como los resultados que se pretende obtener y las herramientas que se utilizaron para la elaboración de la solución. En los capítulos siguientes, se desarrollan uno por uno los objetivos alcanzados y en el ´ ultimo capítulo se encuentran las conclusiones y comentarios sobre el trabajo realizado.Item Metadata only Administrador de proyectos de grid computing que hacen uso de la capacidad de cómputo ociosa de laboratorios informáticos(Pontificia Universidad Católica del Perú, 2011-05-09) Iberico Hidalgo, Martín AlbertoEl proceso de aprendizaje, previo al análisis y construcción de la solución propuesta, de las tecnologías investigadas, y aún más, de la tecnología utilizada, fue fundamental en todo el resto del proceso de desarrollo del proyecto. Se muestra el caso de aplicación, basado en la validación de modelos estadísticos de inferencia bayesiana utilizando simulaciones intensivas. Estas simulaciones necesitan una gran capacidad de procesamiento, debido a que utiliza complejas estructuras matemáticas, así como procesos matemáticos muy largos, como generación de datos de entrada, y procesos de simulación iterativos. La cantidad de iteraciones tiende a ser muy grande, con lo que la precisión de toda la simulación es mucho mayor.Item Metadata only Adopción de herramienta para el soporte a la gestión del portafolio de proyectos de PROCAL - PROSER(Pontificia Universidad Católica del Perú, 2016-08-05) Ghersi Sayán, Sandra Cecilia; Dávila Ramón, Abraham Eliseo; Flores García, Luis AlbertoEn la actualidad, las empresas de desarrollo y uso de tecnologías informáticas buscan optimizar sus procesos para cumplir de mejor forma sus metas y objetivos. Si bien se tienen modelos de capacidad y madurez, estos se adecuan a medianas o grandes empresas y no ofrecen una adecuada solución para las pequeñas empresas. Ante esta necesidad se crea el proyecto ProCal-ProSer, una iniciativa que busca determinar el conjunto de factores que influyen en la mejora de procesos para elevar la competitividad (productividad y calidad) en pequeñas organizaciones que desarrollan productos software y ofrecen servicios software a través de varios proyectos de mejora de procesos en organizaciones que se plieguen a la investigación. El presente proyecto de tesis presenta la gestión y soporte del portafolio de proyectos correspondientes al primer ciclo de mejora de organizaciones dentro del marco del proyecto ProCal-ProSer, bajo el esquema de pruebas controladas, la cual se realiza con la finalidad de consolidar la información transversalmente de manera uniformizada y automatizada, y ofrecer una infraestructura que de soporte a la gestión de portafolio. El proyecto se inicia con el análisis de los requisitos para la selección de una herramienta Web y su modificación, luego se procede con el soporte a la gestión de los sub proyectos incluidos dentro del portafolio de ProCal-ProSer y se generan reportes que incorporen información de todos los sub proyectos gestionados, que permitan evaluar factores que influyen en el desarrollo de los sub proyectos y contribuyan en posteriores tomas de decisiones.Item Metadata only Algoritmo bioinspirado Lobo Gris (Grey Wolf) para la optimización de índices en bases de datos relacionales(Pontificia Universidad Católica del Perú, 2024-05-29) Verástegui Sánchez, Fernando Guillermo; Cueva Moscoso, RonyDentro del mundo empresarial actual, los datos cobran una importancia crucial para el desarrollo de una compañía, ya sea para análisis, seguimiento comercial, estrategias de negocios, entre otros. Por lo que, su almacenamiento y extracción son una parte importante para su uso. Las bases de datos sirven para almacenar esta información, para que luego puedan ser consultadas. Estas pueden ser tanto relacionales como no relacionales, siendo la primera en donde los datos que se almacenan están relacionados entre ellos. La información se organiza mediante tablas, que incluyen columnas y filas, pudiendo obtener acceso a estos datos de diferentes maneras (AWS, n.d.). Para los administradores de base de datos (DBA) e investigadores la mejora del rendimiento de las bases de datos ha sido un reto persistente a lo largo de los años. Este desafío está fuertemente relacionado con la forma de organización lógica de los registros y, especialmente, a la rapidez con la que se accede y procesa esos registros. En ese sentido, los índices ejercen como un modo de acceso más rápido a la información. Siendo un caso de ejemplo, cuando los datos son solicitados, el sistema de gestión de base de datos primero verifica si existe un índice y su estructura, la cual está ordenada y contiene la dirección física del dato, permitiendo así recuperar la información directamente en el disco duro, simplificando el trabajo de búsqueda (Pedrozo & Vaz, 2014). Si bien los índices sirven para acelerar la recuperación de los datos, uno mal diseñado deteriora el rendimiento general. Esto se debe a los diferentes factores que influyen en su creación, como lo son: El tipo de dato, la estructura de la tabla, el número de veces que se buscó un campo específico, la frecuencia de ciertas consultas, la frecuencia de valores distintos en una columna, la carga de trabajo, el número de operaciones de lectura y escritura, entre otros (Naik, 2018). En consecuencia, el propósito de este proyecto consiste en mejorar la eficiencia del tiempo de respuesta en las consultas mediante el uso de índices, brindando la mejor opción para la creación de estos, sobre las tablas dentro un sistema de gestión de bases de datos relacionales (RDBMS). Para este proyecto se plantea utilizar un algoritmo metaheurístico aplicado al problema de selección de índices (ISP), el cual consiste en, dado una base de datos y un conjunto de consultas, seleccionar automáticamente un conjunto apropiado de índices (Chaudhuri, Datar, and Narasayya 2004). Este problema es considerado un “NP-Hard Problem”, la elección de utilizar un algoritmo metaheurístico, en combinación con la amplia gama de variables que pueden influir, se revela como una opción óptima en comparación con otros tipos de algoritmos.Item Metadata only Algoritmo colonia de hormigas (ant colony) para el abastecimiento de medicinas entre hospitales regionales en el contexto de pandemia de covid-19(Pontificia Universidad Católica del Perú, 2024-04-11) Ramirez Osorio, Luis Denilson; Tupia Anticona, Manuel; Cueva Moscoso, RonyEn el último año, los casos de personas contagiadas por COVID-19 se incrementó de manera alarmante dado a las distintas variantes que han ido surgiendo. Es por este motivo que es importante brindar atención oportuna de tal manera que los puestos de salud en las distintas regiones del Perú cuenten con el equipo y medicinas necesarias para tratar los contagios. De lo contrario, la falta de estos suministros puede ocasionar que no se satisfaga la demanda y agravar la salud de las personas que lo necesitan. Por ello, es importante contar con un plan de rutas para el abastecimiento de suministros a los centros de salud que cumpla con ciertos criterios y restricciones. En este sentido, elaborar un plan de rutas de forma eficiente y que sea óptima es una tarea complicada dado de que se trata de un problema algorítmicamente compleja que forma parte de problemas del tipo NP difícil al ser una variante del problema del vendedor viajero. Por esta razón, la solución a este tipo de problemas no puede ser resueltas por algoritmos exactos, sino que se prefiere emplear algoritmos metaheurísticos, dado que estos son más eficientes en cuanto a los tiempos de ejecución y eficaces al encontrar soluciones de tal manera que se respeten las restricciones del problema. El presente proyecto de tesis tiene como objetivo solucionar el problema presentado diseñando e implementando un algoritmo colonia de hormigas para dar solución al problema de ruteo de vehículos con capacidades en situaciones de emergencia puesto que está evidenciado que este algoritmo es perfecto para problemas de optimización enfocado a los problemas de ruteo. De este modo, se podrá definir el mejor plan de distribución y abastecimiento orientado a la realidad peruana durante la pandemia de COVID-19. Asimismo, se desarrolla el algoritmo voraz primero el mejor para tener una línea base sobre el cual poder comparar los resultados obtenidos y poder establecer la optimalidad del algoritmo colonia de hormigas. Finalmente, se analiza y se pone a prueba la implementación del algoritmo en una región del Perú con el fin de poder determinar el mejor plan de rutas para el abastecimiento de medicinas a los centros de salud.Item Metadata only Algoritmo Cuckoo Search para la planificación de citas de recepción de materia prima en empresas de producción multiplanta(Pontificia Universidad Católica del Perú, 2021-05-18) Labajos Trigoso, Steven Alonso; Cueva Moscoso, RonyEn la actualidad, una planificación adecuada de citas de recepción de materia prima es un factor clave en las empresas productoras, ya que se debe garantizar la disponibilidad de los insumos cuando los procesos productivos los requieran. De lo contrario, se corre el riesgo de no poder satisfacer la demanda y de obstaculizar las operaciones de la empresa, generando un incremento en los costos. Dada la alta complejidad involucrada en realizar una planificación de citas de recepción, debido al número de variables y restricciones que utiliza, este tipo de problema se clasifica como NPdifícil, por lo que resolverlo mediante técnicas determinísticas o matemáticas resulta muy complejo. Por ello, para resolver este tipo de problemas se utilizan técnicas metaheurísticas, las cuales proveen algoritmos eficientes y prácticos que permiten obtener soluciones de calidad en un tiempo razonable. En este proyecto de tesis se utiliza el algoritmo Cuckoo Search para resolver el problema de planificación de citas de recepción de materia prima en empresas de producción multipla nta, ya que, a pesar de su desarrollo reciente, está demostrando tener excelentes resultados al resolver problemas de optimización, debido a su rápida convergencia y robusta búsqueda global. Además, no se ha encontrado en la literatura una aplicación del algoritmo mencionado para el problema que se desea resolver. Se desarrolla también una aplicación del algoritmo genético para el caso estudiado, siendo este uno de los más representativos y populares para resolver problemas de optimización, con la finalidad de validar la eficiencia del algoritmo Cuckoo Search respecto a uno de los más usados en la actualidad.Item Metadata only Algoritmo genético multiobjetivo para la optimización de la distribución de ayuda humanitaria en caso de desastres naturales en el Perú(Pontificia Universidad Católica del Perú, 2019-12-03) Aduviri Choque, Robert Alonso; Cueva Moscoso, RonyEl Perú es un país susceptible a desastres naturales, hecho evidenciado con el terremoto de Pisco en 2007 y el fenómeno de El Niño Costero en 2017. Ante la ocurrencia de un desastre surge una cantidad considerable y variada de ayuda proveniente de distintos lugares: INDECI, empresas privadas, ciudadanía y ayuda internacional. Es posible identificar una demanda de bienes de ayuda diferenciada entre las zonas afectadas; sin embargo, el plan logístico del INDECI no indica un procedimiento de distribución de ayuda humanitaria con sustento científico. Ante esto, en el presente proyecto se propone un modelo de programación no lineal entero mixto que servirá como base para generar un plan de distribución de ayuda humanitaria a gran escala de manera automática, abarcando los niveles nacional y regional luego de un desastre. Asimismo, dado que en escenarios reales el tiempo de ejecución de métodos para encontrar soluciones para este modelo es limitado, se propone el diseño e implementación de un algoritmo genético, el cual es un algoritmo de optimización metaheurístico basado en principios evolutivos que se caracteriza por obtener soluciones aproximadas con un tiempo de ejecución menor al de métodos exactos, y permiten generar poblaciones de posibles soluciones para evaluar múltiples objetivos de optimización como la minimización de la inequidad en la distribución y el costo de transporte. Para probar el método exacto y metaheurístico se generará información a partir de datos disponibles del INDECI y la simulación de datos de prueba a partir de distribuciones de probabilidad. Asimismo, se realizará una comparación entre estos métodos, buscando obtener con el algoritmo genético una efectividad aproximada al del método exacto en un tiempo de ejecución mucho menor, y con el objetivo de conocer a partir de qué tamaño de problema es preferible el uso del algoritmo genético. Finalmente, como cada plan de distribución dependerá de las características del desastre a analizar, se propone la implementación de una interfaz de software para la entrada y visualización de información.Item Metadata only Algoritmo genético para la asignación de tipo de aviones a vuelos(Pontificia Universidad Católica del Perú, 2015-06-04) Ávalos Aguilar, Víctor Gabriel; Cueva Moscoso, RonyEl continuo crecimiento del comercio mundial ha ocasionado un incremento constante en la demanda de vuelos comerciales. Las aerolíneas se han visto en la necesidad de diversificar sus flotas de aeronaves y aumentar el número de las mismas para satisfacer la creciente demanda. La variedad de tipos de avión, la creciente cantidad de vuelos y un mayor número de aeronaves disponibles han complicado el proceso mediante el cual se asigna un avión específico a atender un vuelo programado. Ante esta nueva realidad se ha visto un creciente número de investigaciones dedicadas a diseñar algoritmos capaces de obtener una buena asignación vuelo-avión utilizando la menor cantidad de recursos. Los algoritmos planteados han ido subiendo en complejidad a medida que ha pasado el tiempo. Los primeros que fueron planteados eran denominados algoritmos exactos, estos podían obtener la respuesta optima, pero requerían de mucho tiempo y poder de procesamiento. Luego se hizo uso de algoritmos heurísticos, como el GRASP, el cual entregaban una solución buena, que posiblemente no sea la óptima, pero su consumo de recursos era menor. En la actualidad se han diseñado varios algoritmos meta-heurísticos que permiten obtener una mejor solución que los heurísticos haciendo mejoras continuas a la solución obtenida hasta que se cumplan ciertas condiciones de parada. El objetivo de este proyecto es diseñar un algoritmo genético que minimize los costos en la asignación avión-vuelo y a la vez maximice los posibles beneficios a obtener. Para cumplir con este objetivo se hará un estudio de los conceptos asociados a la asignación de tipos de aeronaves a vuelos y se recopilarán datos reales de previas asignaciones hechas por aerolíneas que están presentes en el mercado peruano. El producto final será un algoritmo genético diseñado y calibrado para obtener soluciones que sean válidas para el actual contexto nacional.Item Metadata only Un algoritmo GRASP con doble relajación para resolver problema del flow shop scheduling(Pontificia Universidad Católica del Perú, 2011-05-09) Ramírez Rodríguez, César OswaldoLa mayoría de líneas de producción, incluso las grandes, no tienen una forma adecuada de planificar su producción, optando por distribuciones manuales, producto del conocimiento del jefe de planta o repitiendo alguna anterior con realidades distintas. Esto conlleva a que los recursos (trabajadores, maquinas) estén sin trabajar (ociosas) hasta ser utilizadas, manteniendo las máquinas prendidas, consumiendo combustible y los trabajadores especialistas en una tarea, haciendo otra tarea.Item Metadata only Algoritmo metaheurístico para la optimización de consultas SQL en bases de datos distribuidas relacionales(Pontificia Universidad Católica del Perú, 2024-04-09) Sangama Ramirez, Jesus Angel Eduardo; Cueva Moscoso, RonyEn el contexto empresarial, los datos tienen una importancia significativa tanto para la operación del día a día en una organización como para la toma de decisiones dentro de esta. Por ello, resulta vital que consultar dichos datos sea un proceso lo más eficiente posible. Para las bases de datos relacionales, una forma de lograr esto es la optimización de consultas SQL, y entre los diferentes métodos de optimización se encuentran los algoritmos metaheurísticos. El presente trabajo realiza una investigación de la literatura académica centrada en estos algoritmos aplicados a la optimización de consultas en bases de datos distribuidas relacionales y decide realizar una comparación entre el algoritmo genético (el cual cuenta con gran popularidad en este ámbito) y el memético, con el fin de evaluar si la aplicación de este último resulta viable para este tipo de optimización. Para lograr lo planteado anteriormente, el trabajo busca definir variables, parámetros y restricciones del problema de optimización de consultas; las cuales posteriormente son utilizadas para implementar adaptaciones propias de los algoritmos genético y memético orientadas a dicho problema. Finalmente, se realiza una comparación de eficacia y eficiencia entre ambas implementaciones a través de experimentación numérica. Tras finalizar todas las tareas anteriores, se concluye que se logró implementar un algoritmo memético para optimizar consultas SQL en bases de datos distribuidas relacionales cuyo rendimiento puede superar al algoritmo genético para escenarios de complejidad creciente (es decir, bases de datos con numerosas tablas y sitios).Item Metadata only Algoritmo para el balanceo dinámico del grado de dificultad mediante aprendizaje de máquina en la implementación de un juego orientado a apoyar el desarrollo de la inteligencia espacial en niños de etapa pre-escolar(Pontificia Universidad Católica del Perú, 2018-03-27) Caballero Torres, Franco André; Beltrán Castañón, César ArmandoDentro del ámbito educativo nacional, la Inteligencia espacial, a pesar de haber demostrado estar relacionada con una serie de habilidades que permiten y estimulan la creación y el desarrollo matemático y científico, no es muy reconocida y posee pocas herramientas que ayuden a su desarrollo en niños de edad preescolar, etapa en la que este se recomienda ampliamente. Sumado a esto encontramos la necesidad de herramientas que contribuyan en la enseñanza cuyos requerimientos han crecido en cantidad y complejidad en las últimas décadas, y que involucren modos innovadores de llevar el conocimiento aprovechando las tecnologías disponibles. La necesidad de contribuir con la educación también surge de los requerimientos del Aprendizaje Adaptativo, el cual es una metodología que, a través de la adecuación del nivel del contenido que se desea enseñar, permite al estudiante una experiencia de aprendizaje personalizada y más efectiva en resultados. Esta metodología aprovecha las posibilidades de interacción que proporcionan las tecnologías de información y la capacidad de procesamiento de los equipos informáticos para lograr su objetivo. La presente tesis describe el desarrollo de una aplicación educativa gamificada de apoyo en el desarrollo de la Inteligencia espacial en niños de etapa preescolar, e involucra el uso de tecnologías que permitan adaptar al estudiante la dificultad del juego presentado por el aplicativo. Para esto se hizo uso de métodos de Ajuste Dinámico de la Dificultad, a través de redes neuronales y aprendizaje supervisado. El entorno de juego está basado en el uso de representaciones virtuales de bloques lógicos, mediante los cuales se le presenta al alumno una figura la cual este debe imitar manipulando, mediante la pantalla táctil, otro conjunto bloques similares. Se evaluaron siete métricas en el desempeño del usuario relacionadas a cuan correcta es su respuesta en los siguientes conceptos: Encaje, ubicación, forma, tamaño, color, rotación y textura. Mediante estas métricas la aplicación elige el siguiente escenario a presentar al usuario ajustando diez atributos en dicho escenario. El proceso de adaptación busca introducir las métricas del usuario a un rango de acierto deseado y se realiza en dos pasos. Primero, se realiza sin presencia del usuario un entrenamiento de redes neuronales mediante propagación hacia atrás con información de casos base. Este primer paso permite obtener una versión inicial de la adaptabilidad. Y segundo, luego de cada ronda, se evalúa la respuesta del usuario mediante un conjunto de eventos que determinan la efectividad de la red neuronal para introducir a un usuario especifico al rango deseado, y se modifica la red usada para ese usuario con los resultados obtenidos. En los resultados del proyecto se observó que la metodología empleada es efectiva para el caso propuesto, logrando introducir las métricas en el rango luego de un número de rondas jugadas. La evaluación de requerimientos computacionales (velocidad, efectividad, robustez y eficiencia) y funcionales (claridad, variedad, consistencia y escalabilidad) para una AI adaptativa también muestra resultados positivos. Sobre la rapidez de la solución, la respuesta para ambos modelos (solo entrenamiento inicial y modificación por eventos) es imperceptible para el usuario. En cuanto eficacia se logró resultados positivos, logrando mejorar las métricas respecto a un algoritmo manual en más del 70% de los casos y obteniendo un aumento promedio comparándola a un algoritmo manual de +0.012 para las redes neuronales y +0.02 para el aprendizaje supervisado. Estos valores representan el 13% y el 22% de la máxima mejora posible respectivamente. En cuanto a la robustez y eficacia, ambos modelos lograron adaptar la respuesta al usuario en la mayoría de casos y en un número similar de rondas, aunque el aprendizaje supervisado mostró ser más efectivo en el primer criterio, mejorando los resultados del algoritmo manual. Respecto a la variedad de los escenarios presentados se obtuvo, mediante la modificación por eventos, una menor variación entre estos, lo que se relaciona con la mejor adaptabilidad alcanzada. Y sobre la escalabilidad, ambos modelos mostraron resultados positivos para los tres niveles de desempeño evaluado, aunque el aprendizaje supervisado muestra ser más efectivo. Estos resultados permiten identificar beneficios en el uso de esta metodología específicamente para el ámbito evaluado, así como identificar en qué casos específicos es más efectiva. Los resultados positivos encontrados que en conjunto indican que se ha logrado realizar una aplicación que cumple en presentar al usuario un entorno adaptativo, hacen válido el seguir este camino para futuras investigaciones en la exploración de las aplicaciones gamificadas educativas de apoyo a la inteligencia espacial.Item Metadata only Análisis comparativo entre el algoritmo cuántico de Grover y un algoritmo Grasp, aplicados a la búsqueda de individuos óptimos en la población inicial de un algoritmo genético(Pontificia Universidad Católica del Perú, 2011-06-13) Rivera Alejo, José EnriqueEste trabajo trata sobre la aplicación de dos algoritmos de búsqueda a la selección de individuos óptimos en la población inicial de un algoritmo genético, y la consiguiente comparación entre ambos. El primero de ellos es el algoritmo meta-heurístico GRASP, y el segundo es el algoritmo cuántico de Grover. El algoritmo cuántico de Grover forma parte de una nueva generación en las ciencias de la computación: la computación cuántica. Y por tanto hace uso de conceptos matemáticos y físicos completamente distintos a los usados en la programación clásica. En esta tesis se presenta un análisis general de ambos algoritmos, siendo de especial mención el análisis del algoritmo cuántico de Grover, ya que incluye un modelo matemático del funcionamiento del mismo. Este modelo será de suma importancia para simular la ejecución del algoritmo de Grover en una computadora clásica, dada la carencia de una computadora cuántica sobre la cual realizar esto. Luego, se preparan dos procesos experimentales, los cuales se usarán para realizar la comparación de eficacia y eficiencia entre las ejecuciones de los dos algoritmos. Posteriormente, se presenta el diseño e implementación de los algoritmos, ambos aplicados a la selección de individuos de un algoritmo genético genérico. Una vez ambos algoritmos se encuentren correctamente implementados y funcionales, se ejecutarán las pruebas experimentales que permitan realizar la comparación entre ellos. Finalmente se realizan las conclusiones y observaciones del caso en base a los resultados numéricos obtenidos en la fase experimental.Item Metadata only Análisis de clustering de secuencias genómicas de SARS-COV-2 identificadas en Perú(Pontificia Universidad Católica del Perú, 2023-11-02) Mejia Mujica, Carolina Estefania; Villanueva Talavera, Edwin RafaelEl presente proyecto de tesis tiene como objetivo el desarrollo de una herramienta analítica interactiva para representar visualmente la diversidad de las secuencias genómicas de SARS-CoV-2 en el Perú, que facilite el análisis de agrupamientos en el espacio y tiempo; y, que permita incorporar nuevas secuencias. Este trabajo pretende resolver la necesidad de realizar una analítica avanzada que incluya representaciones de agrupamiento en el espacio y tiempo de la diversidad de las secuencias genómicas de SARS-CoV-2 en el Perú con el fin de apoyar la vigilancia genómica. Esta investigación surge debido a la pandemia y al virus que evoluciona aceleradamente presentando constantes variantes genómicas, por lo que, la comunidad académica y autoridades sanitarias están interesados en entender la diversidad de estas para así realizar más estudios sobre su propagación. En el caso del Perú, de acuerdo a la revisión bibliográfica, no se encontraron estudios publicados que investiguen la distribución de las variantes del virus SARS-CoV-2. Comprender esta dinámica es importante porque ayudará a conocer el impacto de la pandemia en el país, además de tener un mejor conocimiento de la propagación del virus SARS-CoV-2 para que las autoridades sanitarias tomen acciones informadas. Por ello, los objetivos planteados son el desarrollo de un módulo de software que permita realizar una representación visual espacio-temporal de las secuencias genómicas SARS-CoV- 2; el desarrollo de un módulo de software que permita realizar un análisis de agrupamiento de las secuencias genómicas SARS-CoV-2 con la capacidad de incorporar nuevas secuencias; y la implementación de vistas con capacidades interactivas en ambos módulos para que el usuario interactúe con ellos. Finalmente, la herramienta desarrollada cumple con realizar un análisis de agrupamiento y una representación visual en el espacio-tiempo de la diversidad de secuencias genómicas SARS-CoV-2 para apoyar la vigilancia genómica en el Perú.Item Metadata only Análisis de métodos y técnicas de limpieza de datos existentes y aplicación en un sistema CRM para una institución educativa limeña(Pontificia Universidad Católica del Perú, 2018-09-12) Sandoval Linares, Angel Gabriel; Melgar Sasieta, Héctor AndrésEn la actualidad, las organizaciones emplean varios sistemas y varias fuentes de información para las actividades del día a día, y buscan tener toda esta información reunida e integrada en una única base de datos llamada data warehouse ya que permite fortalecer el trabajo del día a día, el análisis de datos y la toma de decisiones. Sin embargo, la información guardada debe de ser de buena calidad ya que una baja calidad de datos puede impactar severamente en el desempeño de la organización, la satisfacción del cliente, la toma de decisiones y reducir la habilidad de la organización de ejecutar correctamente sus planes estratégicos. En este contexto, aparece un problema crítico: la baja calidad de la información en los sistemas; y lo preocupante es que algunas empresas ignoran los impactos y consecuencias mencionados. Un sistema de información muy adquirido y usado por organizaciones Business-to- Consumer (B2C por su abreviatura en inglés) es el sistema de Gestión de Relación con el Cliente (Customer Relationship Management - CRM). Un sistema CRM es un sistema enfocado en la gestión de clientes. Los registros más importantes pertenecen a la entidad “clientes” y esta información es obtenida por las organizaciones a través de varios canales o mediante la compra de bases de datos de terceros. Finalmente, toda la información es almacenada en el data warehouse para ser consumida de allí para la toma de decisiones. Los problemas específicos para un sistema CRM son: registros duplicados de clientes, datos faltantes de un cliente como su teléfono o dirección, datos incorrectos, datos obsoletos que en algún momento fueron correctos y atributos con valores diferentes para un mismo cliente. Mantener estos registros limpios debe ser una actividad vital para la organización. Las instituciones educativas no son ajenas a esta herramienta de soporte CRM, y con el transcurso de los años, están apostando por adoptar sistemas CRM en las organizaciones (KaptureCRM, 2017). En este contexto, tener los datos de los estudiantes limpios es una tarea primordial para la organización. El desarrollo de este proyecto se enfoca en un análisis de los algoritmos, técnicas y métodos usados para la limpieza de datos, la implementación de procesos ETL (extracción, transformación y carga) que permitan la limpieza de cada fuente de datos, la integración de la información a una base de datos transaccional, la carga de la información de la base de datos transaccional a un data warehouse para su próxima explotación y, adicionalmente, el modelamiento de nuevos procesos de negocio para prevenir y mantener la correcta calidad de los datos en el sistema transaccional, para la institución educativa sobre la cual se realiza el proyecto.Item Metadata only Análisis de sentimiento en información de medios periodísticos y redes sociales mediante redes neuronales recurrentes(Pontificia Universidad Católica del Perú, 2022-02-06) Zarate Calderon, Gabriel Helard; Beltrán Castañón, César ArmandoEl análisis de sentimiento es un área de investigación importante en el procesamiento de lenguaje natural, la cual está en constante crecimiento especialmente por la generación de grandes volúmenes de información textual, y el avance tecnológico en lo que se refiere al almacenamiento y los algoritmos inteligentes para el análisis de esta. Esta tarea cada vez va tomando más fuerza su uso en diferentes aplicaciones computacionales dado el crecimiento exponencial del uso de medios digitales y redes sociales, las cuales, gracias a la información debidamente procesada, pueden ser muy valiosas para los negocios. Actualmente existen procedimientos ambiguos para la realización de dicha tarea y sobre todo para textos en español y de manera específica para notas periodísticas y publicaciones realizadas en redes sociales, todo ello por el hecho de la escasa cantidad de herramientas existentes para la presente tarea, por ende el proceso de clasificación de las polaridades de los sentimientos expresadas en los textos se realiza de manera manual por expertos en el tema, generándose así resultados ambiguos y sesgados según la experiencia del encargado, lo cual generaba resultados que no eran del todo fiables retándole valor a dicha tarea, además del hecho de que realizarlo de manera totalmente manual resultaba muy pesado y se realizaba en un periodo largo de tiempo. Para la realización de dicha tarea existen múltiples técnicas de aprendizaje de máquina y de aprendizaje profundo que son adecuadas para este, pero en el último año uno de los modelos que va siendo reconocido cada vez más para ser aplicado a resolver problemas de procesamiento de lenguaje natural son los modelos basados en transformers dadas sus buenas capacidades y los resultados que se obtienen con estos. Ante dicha problemática surge la necesidad de investigar más acerca de cómo se vienen implementando soluciones para la realización de análisis de sentimiento para hacer una comparativa sobre los modelos usados y además dadas las buenas capacidades de los modelos basados en transformers investigar más a fondo la utilidad de estos y las aplicaciones que tiene para así comprobar sus buenas capacidades.Item Metadata only Análisis de usabilidad a la interfaz de carga de archivos de la plataforma Paideia PUCP(Pontificia Universidad Católica del Perú, 2014-11-21) Araujo Falcón, Marcela Noemi; Guanira Erazo, Juan Miguel ÁngelLas plataformas de aprendizaje en línea son una alternativa de soporte y facilitación de la enseñanza, adaptables a las necesidades de docentes y alumnos en diversas instituciones. Uno de los factores del éxito de estos sistemas es la usabilidad, el atributo que indica si un usuario comprende un recurso y puede utilizarlo de forma eficiente y satisfactoria. La dirección de informática académica de la Pontificia Universidad Católica del Perú (DIA PUCP) desarrolló el sistema PAIDEIA sobre la plataforma de aprendizaje gratuita Moodle. PAIDEIA permite a los docentes desarrollar aplicaciones, evaluar a los alumnos y compartir recursos, apoyando la educación en las aulas en la era digital, donde los alumnos participan activamente en la generación de conocimiento. Los profesores organizan los cursos empleando interfaces para carga de contenido, y es aquí donde se descubre una brecha entre el diseño y el uso del sistema. Se encuentran opciones que no son legibles, los docentes no logran asociar los elementos del programa con elementos ya conocidos e intuir sus funcionalidades, lo que dificulta visualizar adecuadamente la interfaz. Ante ello, podrían frustrarse y decidir no emplear la herramienta. En el presente proyecto se diseñará una evaluación de usabilidad con la participación de usuarios y expertos, para descubrir los problemas existentes en la interfaz de carga de archivos de la plataforma PAIDEIA PUCP, presentada al perfil de los profesores. Como parte de la evaluación, un estudio de expertos estará fundado en las heurísticas planteadas por Nielsen, una guía para identificar problemas de usabilidad de diversa severidad. Además, un conjunto significativo de usuarios brindará información sobre su experiencia directa con el sistema en un entorno cercano a un caso real. Partiendo de los problemas de mayor criticidad, se plantearán mejoras de diseño para la interfaz (empleando pantallas o sugiriendo módulos y actualizaciones) con el fin de que las actividades relacionadas a la carga de archivos sean más ordenadas y accesibles para los usuarios. Los cambios serán propuestos en base a la última versión disponible de Moodle, soportados haciendo uso de las herramientas disponibles de la plataforma.Item Metadata only Análisis diseño e implementación de un sistema crowdsourcing para empleos cortos(Pontificia Universidad Católica del Perú, 2018-01-16) León Córdova, Christian Vladimir; Zegarra Balmaceda, Omar Heráclides; Aguilera Serpa, César AugustoEl presente proyecto consiste en el análisis, diseño e implementación de una herramienta de software que brinde soporte a la difusión, negociación y contratación de empleos de corta duración en Lima Metropolitana. Esta herramienta ayudará a mejorar la poco eficaz, insegura e incierta forma de contratar servicios de corta duración con la que cuenta actualmente el país; estará orientada a personas que deseen contratar u ofrecer servicios de una manera más práctica e inmediata. La implementación de este proyecto se enfoca básicamente en aplicar las características del Crowdsourcing a la creación de una herramienta de software que brinde una alternativa de solución a la problemática que se planteó. Crowdsourcing implica la externalización de servicios a una red definida de trabajadores mediante notificaciones directas, donde los ofertantes y demandantes podrían interactuar a través de una plataforma, ya sea Web y/o Móvil, de forma libre y directa, para negociar sus propias ofertas y servicios en función al libre mercado. La condición es que los trabajadoresofertantes estarán ligados a una comunidad virtual, lo que permitirá brindar un buen nivel de protección y seguridad tanto a los trabajadores como a los clientes. Un punto importante a resaltar es el contar con una funcionalidad que permita la libre decisión de contratar o aceptar un trabajo, lo que implica que el trabajador pueda laborar solo cuando tenga la disposición de hacerlo y el contratante podrá optar por una persona acorde con sus expectativas. Asimismo la herramienta de software permitirá la negociación de precios y detallar aspectos sobre las características del servicio, permitiendo al cliente tener libre elección de a quién contratar, en base a los calificativos y comentarios obtenidos en anteriores servicios por parte de otros clientes, los que serán visibles para quien quiera revisarlos. En el primer capítulo, se detalla la identificación y contextualización de la problemática, los objetivos, los resultados esperados, las herramientas, las metodologías, los métodos y los procedimientos, así como el alcance y la justificación del proyecto. En el segundo capítulo se muestra el marco teórico, el marco conceptual, el marco legal relacionado a los conceptos y términos que se utilizarán en esta propuesta. Seguido del Estado del Arte, que muestra un análisis de las soluciones relacionadas existentes en el mercado. El tercer y cuarto capítulo se centran en plasmar los principales procesos a través del diagrama de flujo de procesos, para luego plantear los objetivos principales del sistema. A raíz de estos objetivos se obtiene un catálogo de requisitos funcionales del sistema, los cuales se ven plasmados en los casos de uso del sistema y los diagramas de actividades del sistema. Tomar en cuenta que el análisis de procesos y de sistema fue basado en el estudio de los capítulos 1 y 2. Como resumen del análisis e investigación de procesos se adjunta un documento de procesos y procedimientos del sistema como anexo. En el quinto capítulo se muestran las interfaces gráficas con las que interactúa cada usuario específico definido en los casos de uso. El sexto capítulo trata sobre la arquitectura del sistema, sus objetivos y especificaciones necesarias a fin de cumplir con los requerimientos no funcionales del sistema. Acá se hace hincapié en los atributos de calidad arquitectónica como performance, usabilidad, entre otros.Item Metadata only Análisis y diseño de sistema de gestión de operaciones aduaneras para una agencia de aduanas(Pontificia Universidad Católica del Perú, 2011-11-29) Armestar Urbina, Greta Cecilia; Vargas Machuca Fernández, Paul BrianEl presente proyecto de tesis consiste en realizar el análisis y diseño de un sistema de información para una agencia de aduanas, de tal forma que permita gestionar las operaciones aduaneras de sus clientes: importadores y exportadores de mercancías. A través de esta herramienta se podrá dar soporte a las tareas críticas del área de operaciones de las agencias de aduana, para que así puedan controlar las órdenes de servicio que solicitan los clientes para la atención de sus operaciones. Durante el desarrollo de este proyecto, primero se especificarán los principales procesos de negocio de una agencia de aduanas y los roles involucrados en los mismos. Luego, se identificarán y especificarán los requisitos o requerimientos funcionales del negocio y los casos de usos del sistema. Por último, se realizará el análisis y diseño del sistema, el cual servirá como base para la implementación del mismo. La estructura de la presente tesis contiene un total de 6 capítulos, los cuales se detallan a continuación: El capítulo 1 es una introducción al tema de tesis mediante la descripción del problema y los objetivos generales y específicos de la tesis. El capítulo 2 es el marco teórico necesario para comprender los antecedentes generales, los roles involucrados y los procesos de negocio detallados en forma descriptiva y gráfica a través de flujogramas. El capítulo 3 comprende la identificación de los requisitos o requerimientos funcionales del negocio y la especificación de los mismos mediante los diagramas y especificaciones de los actores del sistema, los paquetes del sistema y los casos de uso. El capítulo 4 comprende el análisis del software, es decir, los diagramas y especificaciones de las clases de análisis y de los estados. El capítulo 5 comprende el diseño del software, es decir, la arquitectura propuesta del sistema y el diseño de los procesos mediante la especificación de los diagramas de secuencia y el diseño de las interfaces de usuario. El capítulo 6 comprende las conclusiones y recomendaciones finales de la tesis.Item Metadata only Análisis y diseño de un sistema de gestión de continuidad de negocio en caso de ocurrencia de sismos para una empresa aseguradora local basado en la ISO/IECD 22301:2012(Pontificia Universidad Católica del Perú, 2014-06-23) Canchari Pastor, Stephany Candy; Villena Aguilar, Moisés AntonioEn la actualidad, las empresas se enfrentan a un entorno cada vez más variable y retador, donde factores como procesos, personas, tecnología y eventos externos hacen que las operaciones y servicios se vean expuestos a interrupciones que pueden afectar la continuidad de las mismas. Dentro de los eventos externos, al estar ubicados geográficamente dentro del llamado “cinturón de fuego del Pacifico”, eventos como los sismos se han convertido en serias amenazas para la continuidad de las operaciones de las empresas. Frente a esto, entidades reguladoras como la Superintendencia de Banca Seguros y AFP, se han preocupado por dar lineamientos que permitan a las empresas reguladas adaptarse a estándares y normas internacionales relacionadas a la continuidad de negocios que les brinden las herramientas necesarias para hacer frente a esta situación. La presente tesis ha realizado una investigación de la ISO/IEC 22301:2012, norma exigida por el ente regulador mencionado anteriormente, permitiendo realizar un análisis y diseño que se adapta a la naturaleza y las necesidades de una empresa aseguradora específica de modo que pueda ser utilizada por dicha institución facilitando que ésta cumpla con la norma de regulación vigentes relacionada a la Continuidad de Negocios.