Tesis y Trabajos de Investigación PUCP
URI permanente para esta comunidadhttp://54.81.141.168/handle/123456789/6
El Repositorio Digital de Tesis y Trabajos de Investigación PUCP aporta al Repositorio Institucional con todos sus registros, organizados por grado: Doctorado, Maestría, Licenciatura y Bachillerato. Se actualiza permanentemente con las nuevas tesis y trabajos de investigación sustentados y autorizados, así como también con los que que fueron sustentados años atrás.
Ingresa a su web: Repositorio Digital de Tesis y Trabajos de Investigación PUCP
Explorar
43 resultados
Resultados de búsqueda
Ítem Texto completo enlazado Método semi-supervisado para detectar, clasificar y anotar en un corpus de suicidio textos extraídos de entornos digitales(Pontificia Universidad Católica del Perú, 2023-01-31) Acuña Caicedo, Roberto Wellington; Melgar Sasieta, Héctor AndrésLa presente tesis doctoral, con un enfoque cualicuantitativo (mixto), se enmarca en la línea del análisis de sentimientos en redes sociales, forma parte del proyecto Life, que busca crear una plataforma integral para detectar y brindar apoyo especializado a usuarios de redes sociales que publican textos con contenido suicida. Por ello se desarrolló el Corpus Life para realizar experimentos con algoritmos de aprendizaje automático, mismo que originalmente constaba de 102 mensajes suicidas (71 textos en inglés y 31 textos en español), 70 de estas muestras Sin Riesgo y 32 con Riesgo. Pero debido al escaso número de muestras y al desbalance entre ellas, los resultados generados no eran confiables. Por ello esta investigación tuvo como objetivo general desarrollar un método semi-supervisado para detectar, clasificar y anotar en el Corpus Life, textos extraídos de entornos digitales, con el fin de incrementar su número de anotaciones, mediante un proceso de evaluación automática de su calidad, previo a su inclusión o exclusión. Anotaciones que fueron evaluadas manualmente, utilizando para ello la medida de concordancia Cohen´s Kappa, con la participación de anotadores especializados quienes evaluaron los textos, alcanzando un nivel de acuerdo entre anotadores de 0,86, cercano al 0,78-0,81 de significancia estadística alcanzado automáticamente por medio del índice macro f1, con el método semi-supervisado. Lo que conllevo a alcanzar experimentos de un mayor grado de confiabilidad, por medio de un método estructurado con actividades, roles y procesos bien definidos y enlazados.Ítem Texto completo enlazado Automatización de la optimización del diseño de elementos mecánicos mediante algoritmo genético aplicando ingeniería del conocimiento(Pontificia Universidad Católica del Perú, 2022-10-05) Barboza Usco, Linder Oskar Jesús; Melgar Sasieta, Héctor AndrésEl objetivo del presente estudio es desarrollar una herramienta que permita agilizar y generalizar el proceso de diseño mecánico de un componente específico teniendo en consideración que la etapa de diseño es una de las más importantes dentro del proceso productivo de una pieza, pues es en donde se pueden generar los mayores ahorros económicos a través de las cualidades del producto (ergonomía, peso, volumen, calidad, etc.). En ese sentido, encontrar una manera de desarrollar dicho proceso de forma personalizada y con la capacidad de adaptarlo a las condiciones de trabajo de la empresa que busca utilizarlo, mejorará su desempeño. Para poder lograr implementar esta herramienta se tuvo que vincular tres conceptos: el diseño mecánico propiamente dicho, que son las definiciones técnicas, fórmulas paramétricas y criterios mecánicos que se utilizan al momento de diseñar un elemento mecánico; la ingeniería del conocimiento, que es la rama de la ingeniería que nos dará los conceptos básicos de cómo extraer la información plasmada dentro de un proceso y trasladarla a un flujo de trabajo; y finalmente, los algoritmos bio inspirados, específicamente, el algoritmo genético, que es el que optimizará el proceso de diseño tomando como base los datos de entrada que se captarán previamente.Ítem Texto completo enlazado Modelo y evaluación de la gestión del conocimiento en organizaciones del clúster energético(Pontificia Universidad Católica del Perú, 2022-01-17) Mejía Lara, Jennifer Vanessa; Melgar Sasieta, Héctor AndrésDurante el 2000 al 2021, las investigaciones, evaluación y desarrollo de la “gestión del conocimiento” (GC) se ha enriquecido y desarrollado desde las propuestas iniciales de Nonaka y Takeuchi [26], hasta los algoritmos desarrollados para implementar la inteligencia artificial en ordenadores y sistemas robotizados. Se precisa que el “capital intelectual” en una organización como la composición de “activos intangibles” que incluyen la GC de los trabajadores, la facultad de comprender, interiorizar, “adaptarse”, relacionarse con las personas al interior y exterior de la estructura organizacional como “clientes y proveedores”, la imagen empresarial, productos, procesos internos, innovación y desarrollo; que generan o generarán valor a futuro, originando una ventaja competitiva de acuerdo al autor Sanchez, Melián & Hormiga [31], cuyas últimas investigaciones corroboran la interrelación de los elementos mencionados con las investigaciones del autor Todericiu & Serban [36]. En la investigación de Sanchez, Melián & Hormiga [31], se define la composición del “capital intelectual” basado en el aspecto “humano, estructural y relacional”, en la cual se afirma que el concepto de capital intelectual comenzó a tener importancia, junto con la teoría de los recursos, desarrollado por la Ref. [22] , cuyo eje focal considera que la empresa, no se manifiesta a través de sus actividades en el mercado del producto o servicio, sino como una sola combinación de recursos tangibles e intangibles. El conocimiento puede ser considerado como una “evolución epistemológica” [16]. En el 2015 la GC tuvo un importante aporte en la comunidad científica, con la definición del autor Demchig: “Actividades deliberadas sistémicas que manejan los recursos de la organización de una forma más eficiente para obtener mejoras y lograr un mejor desempeño a través de disponibilidad, accesibilidad y uso efectivo del conocimiento; lo cual permite a las compañías estimular la innovación, con base al cliente y activo intangible para la excelencia en el negocio” [10]. Como conclusión a la presente tesis, se induce que las organizaciones que proporcionan los espacios e invierten en el uso efectivo del conocimiento, son las más innovadoras y presentan una amplia diferenciación (valor agregado), respecto a otras de su mismo rubro. En el año 2012, el autor Songsangyos nos presenta el conocimiento en 2 categorías: (1) Conocimiento tácito, en el cual está incorporado en la mente de las personas y es adquirido de sus propias experiencias, (2) el conocimiento explicito el cual transforma el conocimiento tácito en la forma de reporte como libros, CD-ROMs, bases de información, entre otros [32]. Al respecto, pienso que, al promover la creación de conocimiento explícito en los estudiantes, a partir de sus experiencias, permitirá no solo un desarrollo más dinámico del aprendizaje en las instituciones, sino que también se promoverá el desarrollo de personas más creativas y preparadas para la solución de conflictos de la sociedad. Hoy en día, el conocimiento en las organizaciones es considerado una de las fuentes de producción, una fuente sostenible de ventaja competitiva que agrega valor en la organización en las instituciones educativas. Se evidencia que existen situaciones que inciden en el conocimiento para impedir o posibilitar el trato como información y no como conocimiento; en conformidad por las investigaciones de los autores Rowley (2000) y Balderas (2009), ambos concluyen que las universidades están en el negocio del conocimiento, ya que están involucrados en la creación de conocimiento, difusión y el aprendizaje, por tanto las organizaciones de desarrollo de tecnologías hasta las empresas burocráticas con mercados monopolizados con ingresos fijos establecidos, han de estar llenas de ejemplos de éxito y mejores prácticas, avanzando en el aprendizaje y enseñanza, investigación y servicios de consultoría a través de la creación de conocimiento y aplicación del mismo. En las organizaciones del clúster de energía, los resultados son mejorables tanto en eficiencia como en calidad, pues no consideran los requerimientos de la sociedad en su integralidad. Asimismo, deben tener conciencia que tienen fortalezas en ciertas áreas y que pueden ser más eficientes trabajando en equipo, promoviendo el trabajo cooperativo inter-institución. Bajo este contexto, en el 2015, el autor Demchig considera que la GC organizacional es una “disciplina” joven y nueva en concepto. Por lo tanto, no se limitan a artículos de investigación científica y discusiones acerca de cómo utilizar la GC de acuerdo al autor Fullan en el 2001 [13]; en donde se busque mejorar la práctica de la 14/363 institución educativa, mediante mejoras en la implementación de la malla curricular, procesos de enseñanza y aprendizaje. La presente tesis ha permitido: - Presentar el fundamento teórico y experiencias en la gestión del conocimiento, limitantes y metodologías. - Desarrollar el modelo de GC en empresas de energía. - Validar el “modelo propuesto” para las empresas de energía. - Evaluar el “modelo de gestión del conocimiento para empresas de energía”.Ítem Texto completo enlazado Diseño de una propuesta de gestión del conocimiento para liquidar administrativamente de forma más eficiente los proyectos de construcción de una empresa de transmisión eléctrica(Pontificia Universidad Católica del Perú, 2021-07-22) Girao La Rosa, Jorge Abraham; Melgar Sasieta, Héctor AndrésEl presente trabajo de tesis está enfocado en diseñar una propuesta de gestión del conocimiento para liquidar administrativamente de forma más eficiente los proyectos de construcción de una empresa de transmisión eléctrica, como es el caso de Red de Energía del Perú (REP). La liquidación administrativa es un proceso que forma parte de la ruta crítica de la construcción de infraestructura para la transmisión eléctrica y que es una de las actividades principales de REP. Dicho proceso se ejecuta de forma tardía y demanda el reproceso de actividades por una inadecuada gestión del conocimiento. Este escenario genera diversos efectos en la organización como la utilización de horas hombres adicionales para poder completar la liquidación, un impacto negativo contable y tributario para la empresa por no realizar oportunamente el pago de impuestos, una gestión de inventarios deficiente debido a no contar con información actualizada de los bienes que se van adquiriendo en el proyecto y un retraso en el envío de información al Ministerio de Energía y Minas (MEM) que podría generar multas con el Estado. Para poder plantear las alternativas de solución de gestión del conocimiento se utilizará la metodología CommonKADS donde primero se analiza a detalle el proceso de liquidación administrativa y se identifican y clasifican los activos de conocimiento más importantes. Luego se analiza el sistema actual de gestión del conocimiento del proceso y finalmente, se identifican oportunidades de mejora con su respectivo análisis de factibilidad de las soluciones propuestas.Ítem Texto completo enlazado Modelo CESM para gestionar la degradación y vida remanente en sistemas de transmisión de energía(Pontificia Universidad Católica del Perú, 2021-01-25) Arias Velásquez, Ricardo Manuel; Melgar Sasieta, Héctor AndrésOn the last twenty years, maintenance analysis and execution has changed, perhaps more than any other discipline in engineering. These changes are mainly based on the increase and variety of physical assets (industrial plants, equipment, buildings, among others). The designs are more complex, new methods of maintenance are applied and the optics in the organization has changed with respect to the maintenance and its responsibilities to assure the reliability of the system. Several developments have been presented to establish a model of greater coverage that allows the evaluation of the equipment. All the companies and goverments need a better reliability in their grid, and an asset management strategy for the remaining life management. However, the calculation of the probability of failure of an equipment is developed in this thesis, for power lines, transformers and circuit breakers. It can be determined by its state which is derived from the estimation of the remaining life. The remaining life recommended by international standards, does not consider the variety of conditions that present the national territory by geography, climate, among others. All equipment does not age at the same speed and is not subject to the same operating or environmental conditions. The knowledge contribution is an assessment model, for a better estimate of the reliability of the power system, with focus in remaining life for the asset and system, the case study has been done successfully, with power transformers, circuit breakers and cables of power lines with high accuracy and effectiveness. The research focused on the main elements of the power transmission system: Power transformer, switch and power lines, it‘s upper than 138 kV (High and very high voltage transmission system), for the physical assets associated to transmission system. In this thesis, the technical assessment for the reliability and remaining life analysis of the electric power system has been achieved, the results are the following: 8 objectives with 24 indicators for the 3 most important equipment of the power system: Inductive equipment, switchgear, cable and conductors of overhead lines. The model CESM developed, it includes the assessment of effectiveness of 98.13% in operating condition for power transformers, 99.36% for switches and 98.43% for overhead lines conductors. The benefits value with a costs analysis has identified savings of USD 22,606,831.60, it was obtained by applying the model. The results of improvement of costs and service level in the implementation of the model in Peru are presented, improving the indicators in switchgears, transformers and conductors of electric power transmission lines.Ítem Texto completo enlazado Una investigación sobre arquitecturas que soportan la composición de servicios web semánticos: una revisión sistemática(Pontificia Universidad Católica del Perú, 2020-06-18) Quispe Yalle, Albert Gustavo; Melgar Sasieta, Héctor AndrésEn la actualidad muchas instituciones están migrando sus procesos de negocio de manera que se encuentren soportados por servicios web para facilitar la interoperabilidad con otras instrucciones y una mejor reutilización de sus componentes, sin embargo la manera sintáctica como se describen los servicios web en la actualidad presentan sus limitaciones cuando se desean hacer actividades automatizadas de descubrimiento, composición e invocación de los servicios web más convenientes. Estas limitaciones están siendo cubiertas con la combinación de conceptos de la web semántica y de los servicios web existentes dando lugar a los servicios web semánticos (SWS). Pero aún existen desafíos que deben resolverse tal como la composición de los servicios web semánticos, este problema se vuelven más críticos sobre todo en las instituciones financieras cuyos procesos de negocio están compuestos por más de un servicio. El objetivo de este trabajo es llenar ese vacío mediante una revisión sistemática de la literatura existente acerca de las arquitecturas planteadas en la composición de servicios web semánticos. Este documento tiene tres propósitos: en primer lugar, proponer una definición y discusión de las arquitecturas de servicios web compuestos, obtener una clasificación de las arquitecturas en base a sus componentes. En base a clasificación, se identifican y discuten necesidades de investigación futuras.Ítem Texto completo enlazado Revisión sistemática sobre generadores de código fuente y patrones de arquitectura(Pontificia Universidad Católica del Perú, 2020-06-18) Huari Casas, María Rosario; Melgar Sasieta, Héctor AndrésLos proyectos de desarrollo de software, están sujetos a situaciones que, pueden ocasionar demora en la entrega del producto o generar aplicaciones de mala calidad, debido a deficiencias en la organización estructural del código y a la falta de integración de los componentes de software. Para reducir el riesgo de demoras en la parte de la codificación de los programas, se puede hacer uso de herramientas informáticas que mejoren la productividad, entre estas herramientas se puede encontrar a los Generadores de Código Fuente (GCF), aplicaciones que generan código automáticamente, los cuales se utilizan en situaciones donde la lógica para armar un sistema es repetitiva; es decir las interfaces para el ingreso de datos, la conexión a las bases de datos, los reportes o salida de datos cumplen la misma lógica teniendo como única variante la estructura de datos. Así mismo, para mejorar la calidad de los productos, antes de empezar a codificar los programas, es muy importante planificar y diseñar el patrón de arquitectura del aplicativo; tener un esquema de organización para agrupar, acoplar y encapsular los programas. Mediante la revisión sistemática de la literatura se logra identificar patrones de arquitectura utilizados en la generación de código fuente de aplicaciones web; así como los principales frameworks y herramientas. Las etapas de la revisión sistemática realizadas son: planeamiento, ejecución, reporte y divulgación. Así mismo, en las preguntas de investigación, se aplicaron los criterios del método PICOC, se realizaron estrategias de búsqueda y selección de fuentes haciendo uso de las principales bases de datos científicas o académicas. Los resultados de la revisión sistemática de la literatura, estuvieron orientadas a analizar los GCF, para comprender su importancia en el desarrollo de sistemas informáticos, así como analizar su relación con los patrones de arquitectura de software. Finalmente, en base a la información obtenida, se llega a la conclusión de que los patrones de arquitectura tienen un papel importante en la generación de código fuente, ya que estandariza y organiza la aplicación en bloques o capas, de esta manera los desarrolladores tienen la opción de elegir herramientas estructuradas, reutilizables y eficientes.Ítem Texto completo enlazado Diseño e implementación de un navegador de conceptos enlazados en el dominio de Ciencias de la computación(Pontificia Universidad Católica del Perú, 2019-02-13) León Shimabukuro, Alexis Enrique; Melgar Sasieta, Héctor AndrésEn la actualidad, la World Wide Web es una de las fuentes principales de información, siendo un espacio que se encuentra en constante crecimiento, puesto que cada vez mas personas cuentan con acceso a internet. Sin embargo, esto genera múltiples problemas entre los que podemos mencionar como la duplicidad de información, que dificulta la búsqueda de información relevante a los usuarios, quienes utilizan herramientas como motores de búsqueda para esta tarea. Ante esta situación surgió la Web Semántica, extensión de la Web tradicional, en donde la información es comprensible tanto para las personas como para las máquinas. Para publicar información en este espacio existen un conjunto de prácticas conocido como Linked Data, que permiten que la información se estructure según su significado y relación entre los datos que la componen, lo que facilita la labor de búsqueda y permite el descubrimiento de nueva información, generando valor a usuarios como investigadores, que constantemente se encuentran en búsqueda de conocimientos. Toda la información en constante crecimiento contenida en la Web Semántica puede ser accedida simplemente mediante navegadores convencionales; sin embargo, esta se encuentra en su mayoría en formato RDF, por lo que el usuario común no podrá comprender su contenido. Para que la información pueda ser de utilidad, se necesitan conocimientos en conceptos como RDF y XML, lo que limita gran parte del potencial actual de la Web Semántica a los especialistas en dicha área. El presente proyecto implementa un navegador de Linked Data, mediante el cual los usuarios pueden consultar información en el dominio de las ciencias de la computación, dicha información es obtenida de la Web Semántica, permitiendo el descubrimiento de información relevante, contribuyendo así a la expansión de dicha tecnología, que busca unificar y estructurar toda la información contenida en la web. Para la elaboración del proyecto, se implementó un módulo de procesamiento de consultas, en donde el usuario ingresa una cadena de búsqueda, al igual que en un motor de búsqueda tradicional y mediante esta cadena se obtienen posibles propiedades, que son enviadas a manera de consultas en lenguaje SPARQL, a partir de cuyos resultados se construyen estructuras RDFs que muestran los conceptos y la información presentada en una interfaz gráfica para que el usuario pueda visualizarla y navegar a través de dichos conceptos, permitiendo el descubrimiento de información relevante.Ítem Texto completo enlazado Investigación cualitativa del impacto de los errores de software en los usuarios(Pontificia Universidad Católica del Perú, 2018-11-26) Romero Untiveros, Luis Alfredo; Melgar Sasieta, Héctor AndrésEl presente trabajo de investigación consiste en una investigación cualitativa que busca indagar acerca del impacto de los errores de software en los usuarios a partir de un estudio de caso correspondiente al desarrollo de un sistema de información de aplicación a nivel nacional. El estudio hace una revisión del estado del arte acerca del tratamiento del usuario desde el punto de vista humano / emocional / emotivo, buscando así indagar en herramientas que permitan mejorar el proceso de desarrollo involucrando a las emociones humanas. A partir de la pregunta inicial ¿cómo influyen los errores de software en los usuarios?, se desarrolla una línea de investigación que toma en cuenta factores de usabilidad considerados dentro de los estándares de desarrollo, los métodos y herramientas utilizados para el registro de requisitos y su alineamiento con las características del usuario final, la caracterización de los usuarios y los elementos personales de los usuarios que deben ser tomados en cuenta durante el proceso de desarrollo. Así se busca responder a la pregunta motivadora del estudio que es ¿cómo influyen los errores de software en los usuarios?, que busca medir el impacto a través de elementos indirectos que se miden a través de las consecuencias en el usuario y su entorno laboral. Durante la investigación se estudiaron los criterios tomados en cuenta por los estándares de desarrollo de la organización a través de una revisión documentaria y entrevistas con los actores involucrados. Asimismo, se analizaron los métodos y procedimientos utilizados por el equipo de desarrollo para el registro de requisitos y cómo estos están alineados con las características del usuario final y sus características personales. Finalmente se identificaron herramientas que puedan aportar a la caracterización de los usuarios a fin de incorporar buenas prácticas destinadas a evitar errores en etapas tempranas de desarrollo. Como resultados de la investigación, se sugiere la incorporación de herramientas que permitan explorar el lado humano del usuario y sus emociones, considerándolos como fuentes valiosas de información para el desarrollo de la solución tecnológica y como una forma de evitar errores de software futuros. Asimismo, el impacto de los errores detectados se hace visible en los ámbitos personal y profesional, impactando en el clima laboral, productividad del equipo usuario y crecimiento institucional. La investigación se realizó en el contexto del desarrollo de la herramienta informática SIGMO diseñada y gestionada por el Ministerio de Educación y que tiene alcance a nivel nacional a partir de la participación de usuarios con permisos y roles diferenciados.Ítem Texto completo enlazado Análisis de métodos y técnicas de limpieza de datos existentes y aplicación en un sistema CRM para una institución educativa limeña(Pontificia Universidad Católica del Perú, 2018-09-12) Sandoval Linares, Angel Gabriel; Melgar Sasieta, Héctor AndrésEn la actualidad, las organizaciones emplean varios sistemas y varias fuentes de información para las actividades del día a día, y buscan tener toda esta información reunida e integrada en una única base de datos llamada data warehouse ya que permite fortalecer el trabajo del día a día, el análisis de datos y la toma de decisiones. Sin embargo, la información guardada debe de ser de buena calidad ya que una baja calidad de datos puede impactar severamente en el desempeño de la organización, la satisfacción del cliente, la toma de decisiones y reducir la habilidad de la organización de ejecutar correctamente sus planes estratégicos. En este contexto, aparece un problema crítico: la baja calidad de la información en los sistemas; y lo preocupante es que algunas empresas ignoran los impactos y consecuencias mencionados. Un sistema de información muy adquirido y usado por organizaciones Business-to- Consumer (B2C por su abreviatura en inglés) es el sistema de Gestión de Relación con el Cliente (Customer Relationship Management - CRM). Un sistema CRM es un sistema enfocado en la gestión de clientes. Los registros más importantes pertenecen a la entidad “clientes” y esta información es obtenida por las organizaciones a través de varios canales o mediante la compra de bases de datos de terceros. Finalmente, toda la información es almacenada en el data warehouse para ser consumida de allí para la toma de decisiones. Los problemas específicos para un sistema CRM son: registros duplicados de clientes, datos faltantes de un cliente como su teléfono o dirección, datos incorrectos, datos obsoletos que en algún momento fueron correctos y atributos con valores diferentes para un mismo cliente. Mantener estos registros limpios debe ser una actividad vital para la organización. Las instituciones educativas no son ajenas a esta herramienta de soporte CRM, y con el transcurso de los años, están apostando por adoptar sistemas CRM en las organizaciones (KaptureCRM, 2017). En este contexto, tener los datos de los estudiantes limpios es una tarea primordial para la organización. El desarrollo de este proyecto se enfoca en un análisis de los algoritmos, técnicas y métodos usados para la limpieza de datos, la implementación de procesos ETL (extracción, transformación y carga) que permitan la limpieza de cada fuente de datos, la integración de la información a una base de datos transaccional, la carga de la información de la base de datos transaccional a un data warehouse para su próxima explotación y, adicionalmente, el modelamiento de nuevos procesos de negocio para prevenir y mantener la correcta calidad de los datos en el sistema transaccional, para la institución educativa sobre la cual se realiza el proyecto.