Tesis y Trabajos de Investigación PUCP
URI permanente para esta comunidadhttp://54.81.141.168/handle/123456789/6
El Repositorio Digital de Tesis y Trabajos de Investigación PUCP aporta al Repositorio Institucional con todos sus registros, organizados por grado: Doctorado, Maestría, Licenciatura y Bachillerato. Se actualiza permanentemente con las nuevas tesis y trabajos de investigación sustentados y autorizados, así como también con los que que fueron sustentados años atrás.
Ingresa a su web: Repositorio Digital de Tesis y Trabajos de Investigación PUCP
Explorar
12 resultados
Resultados de búsqueda
Ítem Texto completo enlazado Calculations of heavy Majorana neutrino decay widths, in an extension of the Standard Model using type i seesaw and dimension five effective operators(Pontificia Universidad Católica del Perú, 2024-07-31) Peña Llerena, Sócrates Godofredo; Jones Perez, JoelEn el modelo estandar de física de partículas, los neutrinos son descritos en terminos de fermiones no masivos con quiralidad de mano izquierda. Sin embargo, la observación de las oscilaciones de neutrinos implica que los neutrinos tienen masa. Esto incentiva la búsqueda de extensiones del modelo estándar que expliquen la masa de los neutrinos. Uno de estos modelos es el dimension-5 seesaw portal, en el cual se utiliza una combinación del mecanismo seesaw tipo 1 y operadores efectivos de dimensión cinco para modificar el lagrangiano del modelo estándar. El objetivo de este trabajo es derivar fórmulas para calcular la anchura de decaimiento de neutrinos pesados, en un modelo dimensión-5 seesaw portal que añade tres neutrinos masivos de Majorana con quiralidad de mano derecha, con masas en el rango GeV. Los resultados obtenidos fueron graficados para analizar la importancia de cada termino y se encontró que la contribución proveniente de los términos de decamientos a tres cuerpos con operadores de dimensión cinco es pequeña. Esto es debido a que su inclusión reduce la distancia que podría viajar el neutrino antes de desintegrarse en un pequeño porcentaje < 6%. Por lo que si bien son necesarios para un calculo completo, se pueden excluir estos términos si es que no se requiere alta precisión.Ítem Texto completo enlazado Gamma-Hadron separation using the temporal distribution of particle cascades at TeV energies in the SWGO experiment(Pontificia Universidad Católica del Perú, 2024-05-30) Luzquiños Saavedra, David Alonso; Bazo Alba, José LuisDescubrir nuevas fuentes de rayos gamma de alta energía de origen galáctico (por ejemplo, en el centro galáctico o las Burbujas de Fermi) y extragaláctico (como cuásares o blazares) es de gran interés para la comunidad de física de astropartículas. Actualmente, los observatorios HAWC y LHAASO, ubicados en el hemisferio norte, utilizan detectores basados en el efecto Cherenkov en agua para detectar continuamente partículas secundarias de duchas atmosféricas iniciadas por rayos gamma primarios en la atmósfera. Dado que no existe un experimento equivalente en el hemisferio sur, el futuro observatorio de rayos gamma SWGO completará la cobertura del cielo para observatorios de alto ciclo de trabajo y campo de visión amplio. Su sitio propuesto por encima de los 4400 m estará ubicado en los Andes del Sur, con Chile, Argentina y Perú como países candidatos. El diseño de SWGO consiste en un arreglo de tanques de agua con dos núcleos circulares: el núcleo interno, alcanzando un radio de 160 m, con un 88% de área sensible y el anillo exterior, alcanzando un radio de 300 m, con un factor de llenado del 5%. Para identificar fuentes de rayos gamma, las partículas primarias deben reconstruirse a partir de las duchas aéreas que llegan al arreglo de detectores, obteniendo su energía, dirección y tipo. Un separador gamma/hadrón describe las características de las duchas aéreas para distinguir entre rayos gamma, considerados como señal, y hadrones (es decir, rayos cósmicos) que se consideran ruido. Esta tesis propone una variable alternativa de separador gamma/hadrón para distinguir entre tipos de duchas atmosféricas utilizando la distribución de tiempo de llegada de partículas secundarias a SWGO. Para definir la mejor nueva variable basada en el tiempo utilizamos el software CORSIKA para simular el desarrollo de la ducha aérea en la atmósfera hasta la llegada de las partículas secundarias al arreglo de tanques Cherenkov de agua. El análisis se realizó utilizando las condiciones geomagnéticas del sitio candidato de Imata en Arequipa, Perú, ubicado a 4500 metros sobre el nivel del mar. Consideramos como primarios fotones y protones con una trayectoria vertical en el centro del arreglo en el rango de energía de 1 a 100 TeV. El parámetro de separación óptimo encontrado es el tiempo para el percentil 15% de las partículas que llegan dentro de un anillo de 100 a 150 m. Tras el cálculo y la evaluación de la muestra de simulación, la señal reconocida es ≳ 88% en promedio y el rechazo de fondo es (≳ 90%). Ambos desempeños son comparables a usar la variable estándar de conteo de muones.Ítem Texto completo enlazado A study of Ultra-High-Energy Cosmic Ray propagation in one-dimensional simulations(Pontificia Universidad Católica del Perú, 2021-02-15) Olivares Schneider, José Gabriel; Bazo Alba, José LuisCosmic Rays have come to play an important role in understanding the universe, and astroparticle physics has undergone major developments in the last few decades. As such, several observatories have been set up with the purpose of detecting these particles, and simulation frameworks have been developed in order to further analyze their behavior by creating highly variable environments and parameters. This work covers the essential theory required to study propagation of Ultra- High-Energy Cosmic Rays restricted to linear one-dimensional propagation only; this includes the primary methods of energy loss during propagation, mainly through reactions with the photon background like photo-pion production and photo-disintegration, and additional cosmological effects. The study was done using the CRPropa 3.0 simulation framework. To determine the best possible maximum energy for the simulations, initial trials were done by testing the GZK cutoff for multiple energy values, followed by an analysis of heavier nuclei propagation. As a final complete test run, a model of the cosmic ray spectrum for energies above 1018 eV was made based on two data sets, one made from the average composition of the whole CR energy spectrum, and the other from The Pierre-Auger Observatory measurements for the high energy range. The results showed that initial source composition was the determining factor in the shape of the CR spectrum. These initial simulations done in this work will set the ground for future more complex simulations and studies.Ítem Texto completo enlazado Desarrollo de un detector juguete basado en el experimento CMS para la búsqueda de partículas neutras con largo tiempo de vida(Pontificia Universidad Católica del Perú, 2020-09-11) Coll Saravia, Lucía Ximena; Jones Pérez, JoelThe Standard Model (SM) of particle physics consists in a description of all the known elemen-tary particles and their interactions. As far as it is known, the SM has passed all experimental tests, but presents some imperfections such as the presence of neutrino masses and the hierarchy problem. This encourages to probe theories beyond the Standard Model (BSM) that could bring solutions to these problems. An interesting proposal is to search for neutral long lived particles (LLP). These type of particles have long decay lengths and can be generated by a variety of BSM models such as Supersymmetry (SUSY), which proposes a solution to the hierarchy problem, and the Seesaw Mechanism that generates massive neutrinos. The detection of the decay products of LLPs would contribute to the discovery of new physics. The objective of this work is to develop a toy detector based on C++ and Pythia8 with the purpose of creating a tool for searches of neutral long lived particles. All the features, including the geometric characteristics and the particle accep- tance are constructed with information from the sub detectors of the CMS experiment. We use a Minimal SUSY process that violates R parity (RPVMSSM) to simulate processes producing LLPs in MadGraph5 and study the response of the toy detector. We conclude our simulation properly recreates important experimental conditions, and is suitable as a first step towards an international competitive particle physics tool.Ítem Texto completo enlazado Effects of the violation of the equivalence principle at DUNE(Pontificia Universidad Católica del Perú, 2020-07-21) Hoefken Zink, Jaime; Gago Medina, Alberto MartínA number of di erent e ects of the violation of the Equivalence Principle (VEP), taken as sub-leading mechanism of neutrino avor oscillation, are examined within the framework of the DUNE experiment. We study the possibility of obtaining a misleading neutrino oscillation parameter region caused by our unawareness of VEP. Additionally, we evaluate the impact on the measurement of CP violation and the distinction of neutrino mass hierarchy at DUNE. Besides, limits on VEP for a wide variety of textures of the matrix that connects neutrino gravity eigenstates to avor eigenstates are imposed. An extra-task of our study is to set limits on Hamiltonian added terms considering di erent energy dependencies (En, with n = 0; 1; 2; 3) that can be associated to the usual Lorentz violating terms de ned in the Standard Model Extension Hamiltonian. In order to understand our results, approximated analytical three neutrino oscillation probability formulae are derived.Ítem Texto completo enlazado Búsqueda de correlaciones entre eventos de rayos cósmicos ultraenergéticos con fuentes astrofísicas de rayos gamma(Pontificia Universidad Católica del Perú, 2020-01-30) Poma Almanza, Vicente Luis; Bazo Alba, José LuisEn este trabajo se presenta un estudio que busca correlaciones estadísticamente significativas entre eventos de rayos cósmicos ultra-energéticos (UHECR, por sus siglas en inglés) con fuentes astrofísicas de rayos gamma. Para tal propósito, se ha escogido datos de UHECR del Observatorio Pierre Auger y Telescope Array, de los cuales son usados los eventos que poseen una energía mayor a 80 EeV. UHECR provenientes de fuentes extragalácticas son, con mayor probabilidad, compuestos por protones y núcleos ligeros, como el helio y el nitrógeno, y también núcleos pesados como el hierro. Basados en las fracciones de los rayos cósmicos que compondrían estos núcleos simuladas por la colaboración del Observatorio Pierre Auger, realizamos pruebas asignando a cada evento un tipo de núcleo. Para cada prueba, se considera el límite Greisen - Zatsepin - Kuzmin (GZK) como una máxima distancia a la cual podríamos detectar las partículas; así como deflexiones en la trayectoria causadas por campos magnéticos galácticos y extragalácticos. Las fuentes astrofísicas de rayos gamma consideradas son tomadas de diferentes catálogos como TeVCat, 2WHPS y 3FHL de donde obtenemos el tipo de fuente, la distancia a la cuál se encuentra y el flujo de fotones que emite. Para cada catálogo se realiza una búsqueda de correlación espacial dentro de un error angular debido a la desviación por campos magnéticos y limitándose a una distancia máxima dada por la longitud de atenuación. El resultado debe sopesar las correcciones estadísticas por los diferentes intentos. Las fuentes galácticas del catálogo TeVCat son las únicas que tienen correlaciones con los eventos más energéticos de rayos cósmicos. Sin embargo, no es muy probable que estas fuentes puedan acelerar a las partículas hasta las energías que poseen.Ítem Texto completo enlazado Neutrino trident production revisited for DUNE-like and MINERVA-like scenarios(Pontificia Universidad Católica del Perú, 2017-06-28) Sánchez Falero, Sebastián de Jesús; Gago Medina, Alberto MartínRevisamos sistemáticamente el proceso de producción de di-muones vía la dispersión de neutrinos en el campo Coulombiano del núcleo, conocido como producción tridente de neutrinos. A pesar de que este proceso tiene una sección de choque pequeña comparada con el proceso de dispersión neutrino-núcleo vía corriente cargada inclusiva en el Modelo Estándar, se caracteriza por una señal experimental muy clara. El par de muones cargados opuestamente es caracterizado investigando sus distribuciones cinemáticas. Para esto, hemos implementado una simulación detallada del proceso de producción tridente de neutrinos en el generador de eventos Montecarlo GENIE; y analizamos y simulamos los backgrounds relevantes. También exploramos métodos de Análisis Multivariado para mejorar la selección de la señal en el contexto de detectores tipo MINERVA y DUNE como representantes de experimentos de neutrinos de aceleradores presentes y venideros.Ítem Texto completo enlazado Constraining sleptons at the LHC in a supersymmetric low-scale seesaw scenario(Pontificia Universidad Católica del Perú, 2017-06-28) Cerna Velazco, Nhell Heder; Jones Pérez, JoelThe discovery of the Higgs boson in the 8 TeV run of the LHC [1, 2] marks one of the most important milestones in particle physics. Its mass is already known rather precisely: mh = 125.09 ± 0.21 (stat.) ±0.11 (syst.) GeV [3], and the signal strength of various LHC searches has been found consistent with the SM predictions. While this completes the Standard Model (SM) particle-wise, several questions still remain open, for example: (i) Is it possible to include the SM in a grand unified theory where all gauge forces unify? (ii) Is there a particle physics explanation of the observed dark matter relic density? (iii) What causes the hierarchy in the fermion mass spectrum and why are neutrinos so much lighter than the other fermions? What causes the observed mixing patterns in the fermion sector? (iv) What stabilizes the Higgs mass at the electroweak scale? Supersymmetric model address several of these questions and consequently the search for supersymmetry (SUSY) is among the main priorities of the LHC collaborations. Up to now no significant sign for physics beyond SM has been found. The combination of the Higgs discovery with the (yet) unsuccessful searches has led to the introduction of a model class called ‘natural SUSY’ [4–15]. Here, the basic idea is to give electroweak-scale masses only to those SUSY particles giving a sizeable contribution to the mass of the Higgs boson, such that a too large tuning of parameters is avoided. All other particle masses are taken at the multi-TeV scale. In particular, masses of the order of a few hundred GeV up to about one TeV are assigned to the higgsinos (the partners of the Higgs bosons), the lightest stop (the partner of the top-quark) and, if the latter is mainly a left-stop, also to the light sbottom In addition the gluino and the heavier stop masses should also be close to at most a few TeV. Neutrino oscillation experiments confirm that at least two neutrinos have a non-zero mass. The exact mass generation mechanism for these particles is unknown, and both the SM and the MSSM remain agnostic on this topic. Although many ways to generate neutrino mass exist, perhaps the most popular one is the seesaw mechanism [16–21]. The main problem with the usual seesaw mechanisms lies on the difficulty in testing its validity. In general, if Yukawa couplings are sizeable, the seesaw relations require Majorana neutrino masses to be very large, such that the new heavy states cannot be produced at colliders. In contrast, if one requires the masses to be light, then the Yukawas need to be small, making production cross-sections and decay rates to vanish. A possible way out of this dilemma lies on what 3 is called the inverse seesaw [22], which is based on having specific structures on the mass matrix (generally motivated by symmetry arguments) to generate small neutrino masses. This, at the same time, allows Yukawa couplings to be large, and sterile masses to be light. We consider here a supersymmetric model where neutrino data are explained via a minimal inverse seesaw scenario where the gauge-singlet neutrinos have masses in the range O(keV) to O(100 GeV). We explore this with a parametrization built for the standard seesaw, and go to the limit where the inverse seesaw emerges, such that Yukawas and mixings become sizeable. Although non-SUSY versions of this scenario can solve the dark matter and matter-antimatter asymmetry problems [23–25], we shall make no claim on these issues in our model. In view of the naturalness arguments, we further assume that the higgsinos have masses of O(100 GeV), whereas the gaugino masses lie at the multi-TeV scale (see [26] for an example of such a scenario). In addition, we assume all squarks are heavy enough such that LHC bounds are avoided, and play no role in the phenomenology within this work1. In contrast we allow for fairly light sleptons and investigate the extent to which current LHC data can constrain such scenarios. This paper is organized as follows: in the next section we present the model. Section III summarizes the numerical tools used and gives an overview of the LHC analysis used for these investigations. In Section IV we present our findings for the two generic scenarios which differ in the nature of the lighest supersymmetric particle (LSP): a Higgsino LSP and a sneutrino LSP. In Section V we draw our conclusions. Appendices A and B give the complete formulae for the neutrino and sneutrino masses.Ítem Texto completo enlazado Explorando la sensibilidad de DUNE al decaimiento invisible de neutrinos dentro del contexto de las oscilaciones de neutrinos(Pontificia Universidad Católica del Perú, 2017-06-28) Ascencio Sosa, Marvin Vladimir; Gago Medina, Alberto MartínEl fenómeno de oscilaciones de neutrinos ha sido extensamente estudiado experimentalmente y teóricamente en las últimas décadas. Esto no sólo implicó su confirmación sino también la medida de casi todos los parámetros asociados a ésta. Sin embargo, aún quedan pendientes algunas incógnitas por resolver como son la jerarquía de las masas de los neutrinos, la determinación de la fase que viola la simetría carga-paridad, el problema de las degeneraciones, entre otras. Para poder ser resueltos muchos de estos problemas requieren experimentos de gran escala y con la más óptima tecnología para la detección de neutrinos. El experimento DUNE (Deep Underground Neutrino Experiment) tendrá estas capacidades. Este experimento tiene una distancia fuente – detector de 1300km contando con un detector cercano de alta precisión y uno lejano de 40 kton hecho de Argón Líquido. Estas características no sólo permitirán resolver los problemas mencionados sino que además permitirán estudiar, por ejemplo, neutrinos provenientes del colapso de supernovas, así como el decaimiento del protón, entre otros procesos. En esta tesis se ha realizado una revisión detallada de la física de oscilación de neutrinos tanto en vacío como en materia, incorporando a este último el decaimiento invisible de neutrinos. Este fenómeno aunque descartado hoy para la explicación del problema de los neutrinos solares y atmosféricos. Tiene Actualmente una relevancia como un efecto subdominante dentro de las oscilaciones de neutrinos. Haciendo que la probabilidad de oscilación sufra un amortiguamiento. En esta tesis estudiaremos la sensibilidad de DUNE al nuevo parámetro que corresponde al decaimiento invisible de neutrinos. Viendo como distintos valores de este parámetro modifican el espectro de energía producido por los eventos que se observarían en DUNE. Nuestras simulaciones han sido hechas utilizando el paquete GLoBES (General Long Baseline Experiment Simulator) y usando como datos de entrada inputs, distribuciones proporcionadas por el propio experimento.Ítem Texto completo enlazado Disentangling atmospheric cascades started by gamma rays from cosmic rays with CORSIKA(Pontificia Universidad Católica del Perú, 2017-05-31) Rengifo Gonzáles, Javier; Bazo Alba, José LuisEn este trabajo buscamos un método para diferenciar entre lluvias de partículas producidas por rayos cósmicos y por rayos gamma a energías de TeV, utilizando simulaciones CORSIKA. Este método intenta resolver el problema que existe en la búsqueda de señales de rayos gamma medidos por diversos experimentos frente a un fondo de flujo dominante de hadrones. Los resultados de este trabajo pueden aplicarse al estudio de Explosiones de Rayos Gamma (GRBs). Los GRBs emiten fotones muy energéticos, que al interactuar con la atmósfera terrestre, producen una gran cascada electromagnética de partículas secundarias, las cuales son detectables. El procedimiento sería simular eventos producidos por fotones, la señal, y protones, el fondo, que son las partículas más abundantes de los rayos cósmicos. Extraemos varios parámetros de los perfiles longitudinales de las lluvias de partículas, caracterizando las lluvias simuladas. Algunos de los parámetros de ajuste más importantes son el m_aximo de lluvia (Xmax), el ancho de la lluvia FWHM, el parámetro de asimetría, el número máximo de partículas Nmax y el comienzo de lluvia XStart. Existen diferentes experimentos utilizando tanques Cherenkov de agua y detectores de fluorescencia que pueden medir estos parámetros de las lluvias. Hemos probado dos métodos. El primero se basa en cortes simples, mientras que el segundo se basa en un análisis multivariado utilizando el paquete TMVA, que mejora los cortes individuales. El primer método se aplicó a las energías simuladas separadas de 102, 103, 104 y 105 GeV para encontrar cortes adecuados. Encontramos que Xmax, FWHM, Xstart y Nmax dependen de la energía. Posteriormente aplicamos estos cortes dependientes de la energía y otros cortes fijos a una muestra realista, que consiste en 104 eventos de señales (fotones) y 106 eventos de fondo (protones) que cubren un rango de energía de 102 a 105 GeV con diferentes espectros. Además, se introdujo un error en la energía simulada para simular la eficiencia de reconstrucción de energía de un detector. El resultado obtenido deja 54% eventos de señal y 12% eventos de fondo. Aplicando el análisis multivariado TMVA, encontramos que el método Boosted Decision Trees (BDT) era el mejor para distinguir la señal del fondo. El resultado para una eficiencia de señal similar fue 0:7% de eventos de fondo. Por último, utilizando cortes más estrictos en la BDT para mejorar la significancia, el resultado fue 1 evento de fotón por cada 1000 eventos de protón. Dada la proporción de flujo inicial, significa una capacidad de rechazo de fondo de 103. Por lo tanto, la viabilidad de la separación gamma/hadrón requiere una mejora adicional.