Tesis y Trabajos de Investigación PUCP

URI permanente para esta comunidadhttp://54.81.141.168/handle/123456789/6

El Repositorio Digital de Tesis y Trabajos de Investigación PUCP aporta al Repositorio Institucional con todos sus registros, organizados por grado: Doctorado, Maestría, Licenciatura y Bachillerato. Se actualiza permanentemente con las nuevas tesis y trabajos de investigación sustentados y autorizados, así como también con los que que fueron sustentados años atrás.
Ingresa a su web: Repositorio Digital de Tesis y Trabajos de Investigación PUCP

Explorar

Resultados de búsqueda

Mostrando 1 - 9 de 9
  • Ítem
    Distinguishing non-standard neutrino interaction scenarios
    (Pontificia Universidad Católica del Perú, 2024-09-04) Pérez García, Alicia; Gago Medina, Alberto Martín
    Las oscilaciones de neutrinos son uno de los casos más representativos de física más allá del Modelo Estándar de partículas elementales. Aunque se ha establecido que este comportamiento es inducido por la diferencia de masas de neutrinos (oscilaciones estándar), las anomalías observadas en la data experimental podrían ser explicadas con física no estándar presente de manera subyacente a las oscilaciones inducidas por masa. Actualmente, se manejan diferentes escenarios de física no estándar, pero no se tienen claras distinciones en su modificación de las observaciones de oscilaciones de neutrinos esperadas, ni preferencias establecidas de la naturaleza por ellos. Este trabajo propone el análisis de estadísticos y/o valores resultantes de ajustes de diferentes modelos a la data, para evaluar la posible distinción entre el-los. En particular, nos enfocamos en el marco de Interacciones no-estándar de neutrinos con materia (Non-Standard Interactions - NSI), evaluadas en el experimento DUNE (Deep Underground Neutrino Experiment). Escogemos tres casos representativos y específicos del amplio conjunto de parámetros que ofrecen la interacciones no-estándar, y realizamos ajustes a la data generada considerando alguno como el que se encuentra presente en la naturaleza. Evaluamos el comportamiento de la significancia de los ajustes y la distorsión en la fase de violación CP respecto a la fase true, mientras intensificamos la presencia del caso NSI true. Buscamos identificar patrones para cada caso y sistematizar sus efectos característicos sobre las observaciones. Encontramos que efectivamente es posible identificar patrones en el comportamiento de las cantidades elegidas, aunque una relación directa entre ellas no puede ser establecida. Esto demuestra la posibilidad de aplicar el método en otros escenarios más allá ́ a del modelo estándar, resaltando la importancia del uso de varias cantidades resultantes de los ajustes de los modelos. Parte de este trabajo fue incluido en el poster titulado DUNE sensitivity for observing/discriminating theories beyond standard neutrino oscillation, presentado en XVIII International Conference on Topics in Astroparticles and Underground Physics (TAUP 2023).
  • Ítem
    Análisis de componentes principales evolutivos frente a segmentado: una comparación
    (Pontificia Universidad Católica del Perú, 2024-05-17) Purizaca Rosillo, Luis Guillermo; Camiz, Sergio
    La reducción de dimensionalidad, fundamental en el análisis estadístico multivariado, busca comprender estructuras complejas de datos extensos de forma reducida. El Análisis de Componentes Principales (PCA) es comúnmente empleado para estos fines, pero en series de tiempo, sus limitaciones surgen debido a que el PCA no considera la variación de la estructura de correlación entre las series de tiempo, así como la potencial autocorrelación existente. Este estudio se enfoca en presentar el PCA Evolutivo, una propuesta metodológica desarrollada por Camiz et al. (2011), diseñada específicamente para capturar las fluctuaciones en niveles de correlación presentes en este tipo de datos. Se procede a comparar los resultados obtenidos a través del PCA Evolutivo con aquellos generados por el método PCA Segmentado, desarrollado por Banko et al. (2011). Los resultados revelan que el PCA Evolutivo complementa la descripción de datos en comparación con el PCA y ofrece perspectivas distintas respecto al PCA Segmentado en la identificación de segmentos homogéneos, relacionados con cambios en correlación en el tiempo. Estas diferencias se atribuyen a las estrategias de construcción: el PCA Evolutivo sigue un enfoque basado en el índice de Calinski-Harabász, mientras que el PCA Segmentado se guía por el método bottom-up. La estabilidad del PCA Evolutivo depende de la ventana de tiempo, determinando la amplitud de los intervalos homogéneos. Por otro lado, el PCA Segmentado es más sensible a la cantidad de dimensiones retenidas, proporcionando mayor robustez al ajustar segmentos mediante una función de costos que disminuye con la retención de más componentes principales. Aplicamos los métodos en datos simulados y en series de tiempo de materias primas.
  • Ítem
    Evaluación crediticia a una empresa mediante modelos endógenos para estimación de la probabilidad de default
    (Pontificia Universidad Católica del Perú, 2023-02-15) Cueva Garriazo, Jennyfer Leyla; Miranda Castillo, Oscar Enrique
    En el presente trabajo se realiza el estudio de diferentes modelos endógenos para predecir la probabilidad de default, que centran su estimación en factores internos de las empresas, tales como el modelo Logit, llamado también modelo de regresión logística, y el modelo KMV, enfocado en la evolución del valor de la firma. Adicionalmente se realiza el análisis de diferentes variables, ratios financieros e indicadores endógenos. Finalmente, se compararon los ratings asignados de las clasificadoras de riesgo más importantes (S&P, Fitch y Moodys) con el rating y probabilidad de default obtenida, llegando a valores semejantes.
  • Ítem
    Estimación bayesiana de efectos de red: el modelo Logit mixto
    (Pontificia Universidad Católica del Perú, 2017-10-02) Chahuara Vargas, Paulo Roberto; Bayes Rodríguez, Cristian Luis
    Los efectos o externalidades de red son factores que pueden condicionar las decisiones de contratación de los consumidores en favor de empresas ya establecidas y en contra de los nuevos competidores, pudiendo limitar la competencia efectiva y potencial de los mercados, en especial, en aquellas industrias donde el número de empresas es bajo y la entrada de nuevos competidores es poco frecuente. Por ello, es importante verificar su existencia y la magnitud de sus efectos sobre las decisiones de compra de los consumidores con el objetivo de justificar o establecer medidas que impulsen una competencia más equilibrada entre las empresas. Además, teniendo en consideración que los consumidores pueden tener cierto grado de heterogeneidad en sus comportamientos de adquisición, también resulta relevante estudiar el grado de diferenciación de los efectos de red entre los consumidores a fin de mejorar las políticas que fomenten la competencia. Este trabajo tiene por objetivo estimar un modelo logit mixto bajo el enfoque de la inferencia bayesiana, para estudiar empíricamente la existencia y heterogeneidad de los efectos de red sobre las decisiones de contratación de los consumidores en la industria de telefonía móvil peruana. El análisis se hace con base a una muestra que combina información de la Encuestas Residencial de Servicios de Telecomunicaciones (ERESTEL) del a˜no 2015 e información de las empresas operadoras del servicio de telefonía móvil. Los resultados de las estimaciones realizadas sugieren que los efectos de red tendrían un condicionamiento importante sobre las decisiones de contración del servicio de telefonía móvil, además de presentar un grado de heterogeneidad estadísticamente significativo en la magnitud de sus efectos.
  • Ítem
    Combinación de reglas de portafolio con la asignación 1/N y la ponderada por capitalización bursátil
    (Pontificia Universidad Católica del Perú, 2016-11-23) Rodríguez Alcócer, Augusto Fernando; Valdivieso Serrano, Luis Hilmar
    La teoría del portafolio estudia el proceso a través del cual se realiza la asignación óptima de activos. El análisis Media - Varianza (MV) propone que los agentes estructuran portafolios de inversión optimizando el retorno esperado o el riesgo. Así, fijando el nivel deseado de una de estas variables, es posible elaborar una frontera eficiente compuesta por portafolios óptimos. Sin embargo, si bien el análisis MV ha sido trabajado de manera extensa presenta una limitación: los parámetros reales no son conocidos sino estimados a partir de la observación de datos. Ello incorpora el problema de incertidumbre en la modelación, por lo que las reglas de portafolio óptimo están sujetas a errores aleatorios que pueden generar que los parámetros estimados se alejen de los reales. El objetivo del presente trabajo es revisar dicho análisis bajo el enfoque de reglas de portafolio, y si existe la posibilidad de reducir el riesgo de estimación a través de la combinación de las reglas con el portafolio de pesos iguales y con el portafolio ajustado por capitalización bursátil. Para la programación se utiliza el paquete estadístico R - project. Los resultados sugieren que la combinación de las reglas con los dos portafolios seleccionados puede mejorar los resultados fuera de muestra esperados y que bajo ciertas circunstancias, combinar con el portafolio de capitalización bursátil puede ser más eficiente que con el portafolio de pesos iguales.
  • Ítem
    Una aplicación de intervalos de confianza para la mediana de supervivencia en el modelo de regresión de Cox
    (Pontificia Universidad Católica del Perú, 2015-07-17) Mondragón Arbocco, Jorge Adolfo; Bayes Rodríguez, Cristian Luis
    El presente trabajo estudiará el método propuesto por Tze y Zheng (2006) aplicándolo a la obtención de intervalos de confianza para la mediana de supervivencia de líneas móviles de una empresa de telecomunicaciones. Esta metodología se aplicará con el objeto de conocer el riesgo de vida promedio de la línea móvil así como de qué manera inciden las covariables sobre el tiempo hasta el incumplimiento del pago de los clientes de la empresa. Para ello se hará uso de una extensión del modelo de Cox haciendo uso de la estimación máximo verosímil para obtener nuevas estimaciones del vector de parámetros mediante el método bootstrap lo que permita la construcción de los intervalos de confianza para la mediana de supervivencia.
  • Ítem
    Análisis de votos electorales usando modelos de regresión para datos de conteo
    (Pontificia Universidad Católica del Perú, 2013-04-08) Contreras Vilca, Norma; Bazán Guzmán, Jorge Luis
    Se presentan dos modelos de regresión para datos de conteo: el modelo de regresión Poisson y modelo de regresión Binomial Negativa dentro del marco de los Modelos Lineales Generalizados. Los modelos son aplicados inicialmente a un conjunto de datos conocido como ((The Aircraft Damage)) presentado en Montgomery (2006) referido al número de daños en las aeronaves durante la guerra de Vietnam. La principal aplicación de este trabajo sería el análisis de los votos obtenidos por el candidato Ollanta Humala Tasso en los resultados de las ((Elecciones Generales y Parlamento Andino 2011)), analizamos los datos de la primera vuelta a nivel de regiones considerando diversos predictores. Ambos conjunto de datos, presentan sobredispersión, esto es una varianza mayor que la media, bajo estas condiciones el modelo de Regresión Binomial Negativa resulta m as adecuado que el modelo de Regresión Poisson. Adicionalmente, se realizaron estudios de diagnósticos que confirman la elección del modelo Binomial Negativa como el más apropiado para estos datos.
  • Ítem
    Modelos de regresión binaria Skew probit para el calculo de probabilidad de default en el ámbito del sistema financiero
    (Pontificia Universidad Católica del Perú, 2013-02-05) Pantoja Marin, Luis; Bazán Guzmán, Jorge Luis
    La presente investigación se fundamenta en el uso o aplicación de Modelos Skew Probit con enlace asimétrico desde un enfoque Bayesiano. Los modelos a usar incorporan la posibilidad de usar enlaces asimétricos para estimar la probabilidad de y i =1 en muestras no balanceadas (alta proporción de ceros y por ende pequeña proporción de unos). La formulación general de esto modelos es debida a Bazán, Bolfarine y Branco (2010). Aunque en estos modelos inicialmente su computación es complicada se usaron Cadenas de Markov por Monte Carlo (MCMC) o muestreo Gibbs (para la aplicación de estos procedimientos ver Carlin y Polson, 1992) que hacen simple la formulación del modelo y por tanto simple su implementación usando el software WinBugs (los códigos de los diferentes modelos utilizados fueron obtenidos en el programa BRMUW propuesto por Bazán y Bayes, 2010). De acuerdo al análisis y estudio de aplicación realizado sobre una muestra de clientes de préstamos pertenecientes a una entidad micro financiera, aquellos modelos Skew Probit BBB y Estándar presentan los mejores indicadores de eficiencia. El análisis sobre datos reales señala que el modelo tradicional Probit presenta un 56.6% (371/664) de mala clasificación versus los modelos Estándar y BBB que en promedio muestran dicho indicador alrededor de 43% (290/664). El análisis mediante curvas COR (Receiver Operating Characteristic) ratifica lo mencionado; el área debajo de las curvas superan el 0.74 de 1 para el modelo BBB, mientras que dicho dato es de 0.70 para el caso del modelo simétrico tradicional probit. Por tanto la sensibilidad y especificidad (eficiencia) es mayor para aquellos modelos Skew Probit (mejor modelo BBB). Dentro de los modelos con Enlaces Asimétricos los modelos (SP) BBB y Estándar son los que presentan mejores indicadores de ajuste e información as__ como mejoran la sensibilidad y especificidad de un determinado modelo. Finalmente, se pretende la sistematización de la propuesta a nivel de la entidad micro financiera y su aplicación en la estimación de la probabilidad de default de créditos pero aplicado en todos los tipos de créditos.
  • Ítem
    El análisis de correspondencias conjunto y múltiple ajustado
    (Pontificia Universidad Católica del Perú, 2012-08-15) Saavedra López, Ricardo Elías; Valdivieso Serrano, Luis Hilmar
    Esta tesis presenta una revisión de los fundamentos teóricos de dos de las más recientes extensiones de la técnica estadística conocida como análisis de correspondencia (AC): el análisis de correspondencia conjunto (ACC) y el análisis de correspondencia múltiple ajustado (ACMA); y muestra una aplicación práctica de éstas a una encuesta de egresados de la Pontificia Universidad Católica del Perú. El análisis de correspondencia simple (ACS) es el primer alcance del análisis de correspondencias y se presenta cuando cada categoría de una variable se describe en función de la dependencia existente de los valores de otra única variable. Su extensión a más de 2 variables es conocida como el análisis de correspondencia múltiple (ACM). Si bien se puede encontrar literatura sobre el ACS y el ACM, es importante destacar que el ACC y el ACMA han sido poco difundidos, encontrándose escasa literatura sobre el tema, más aún, en nuestro idioma. Por lo tanto, se hace necesaria una revisión de las dos primeras a modo de contexto y una presentación metodológica y detallada de las dos últimas. Con la aplicación práctica se pretende obtener una representación de las facultades de los egresados de la PUCP en función del ingreso en su primer empleo relacionado con la formación recibida en la universidad y la percepción del grado de desarrollo de la competencia de comunicación recibida en la universidad. Esta aplicación consistiría en aplicar los 4 métodos descritos, comparándolos mediante nuevas técnicas que permiten reproducir las tablas de contingencia originales a partir de las representaciones obtenidas por los métodos indicados.