Facultad de Ciencias e Ingeniería
URI permanente para esta comunidadhttp://54.81.141.168/handle/123456789/9119
Explorar
2 resultados
Resultados de búsqueda
Ítem Texto completo enlazado Viabilidad de modelos de Machine Learning en el sector Fintech Crediticio Peruano: una aproximación a través de la vigilancia tecnológica(Pontificia Universidad Católica del Perú, 2024-09-16) Herrera Ortega, Ryan André; Hernández Cenzano, Carlos GuillermoEl presente trabajo de investigación desarrolla un estudio de vigilancia tecnológica aplicado a la búsqueda de nuevas formas de detectar casos de fraude y de mejorar la calificación crediticia de clientes dentro del ecosistema fintech de créditos, además de ofrecer un marco general de oportunidades y desafíos para su implementación en dicho sector. Dicho procedimiento toma como referencia artículos científicos, los cuales se someterán a análisis para detectar aportes clave para el objetivo en cuestión. Respecto del macroentorno nacional descrito por el análisis PESTEL, la población nacional está mostrando una tendencia marcada al uso de la banca digital como herramienta para realizar actividades financieras, desde transferencias hasta la solicitud de créditos, así como la construcción de modelos de negocio disruptivos a partir de la explotación de nuevas tecnologías y del conocimiento de segmentos de valor con demanda insatisfecha de servicios financieros, como en el caso de las PyMEs y la población no bancarizada. No obstante, los elevados casos de fraudes digitales y porcentajes de morosidad elevados, observados sobre todo en la banca empresarial y en delitos como la usura en los préstamos gota a gota, limitan el crecimiento sostenido de la tendencia descrita, ocasionando cierta aversión a la adopción de tecnologías digitales en la banca y la temprana desaparición de modelos de negocio disruptivos. Asimismo, la poca investigación a nivel Perú respecto del tema limita las oportunidades de explotación de información y conocimiento, lo cual se traduce en la escasez de capital humano especializado en tareas de investigación y desarrollo. Sobre el análisis bibliométrico y de patentes, se determinó que modelos de clasificación como redes neuronales, árboles de decisión (junto a su variante de bosques aleatorios) y las máquinas de vectores de soporte (SVM) son las mejores herramientas para la detección de fraudes y la clasificación crediticia. Asimismo, la combinación de estos modelos con potenciadores como los algoritmos genéticos y el uso de técnicas de boosting otorga mejores resultados de eficiencia y permite minimizar los falsos positivos y negativos dentro del análisis. Por otro lado, el uso de algoritmos generativos de información, como las redes neuronales generativas (GNN) y sus variantes, permite mitigar riesgos de sobreajuste en los modelos antes descritos mediante la reducción de sesgo con la generación de nuevas muestras a partir de la información existente. Finalmente, es necesario destacar que conceptos de ingreso reciente, como el modelo GPT desarrollado por OpenAI y los nuevos sectores de negocio (a nivel de fintech) que Perú puede integrar, como el caso de cambio de divisas y las criptomonedas, deben funcionar como impulso para fomentar la investigación y la inversión en dichos campos por parte del ecosistema startup peruano, tanto para actualizar sus propuestas de valor como para incrementar el capital humano especializado en dichos temas.Ítem Texto completo enlazado Análisis predictivo de series temporales de temperatura corporal(Pontificia Universidad Católica del Perú, 2020-11-17) Cotrina Araujo, Nikol Alexandra; Rau Álvarez, José AlanComo un ser homeopático el ser humano presenta mecanismos de regulación de la temperatura que aseguran un óptimo funcionamiento del sistema fisiológico. Estos mecanismos de regulación tienen su centro de control e integración en el hipotálamo, que se encarga de mantener la temperatura corporal funcionando a ±1°C de la temperatura en reposo. Cuando la temperatura se encuentra fuera de este rango los sistemas biológicos comienzan a verse afectados. A efectos prácticos, el organismo puede dividirse en una parte central o nuclear, el cual estaría constituido por la cabeza y las cavidades torácica y abdominal; y una parte superficial, que está constituido por la piel, el tejido celular subcutáneo y el grueso de la masa muscular. De manera que, las temperaturas del núcleo y la piel serían las temperaturas central y periférica, respectivamente. La temperatura central (representada por las temperaturas oral, rectal, esofágica, membrana del tímpano, hipotalámica o de la sangre al pasar por cualquiera de los órganos de la parte central o nuclear) permanece relativamente constante, gracias a que es regulada y se mantiene dentro de límites bastante estrechos. Además, dentro de la práctica clínica, la temperatura es una de las variables que se encuentran en constante monitoreo pues resulta fundamental en la atención de pacientes con patologías agudas, ya que permite determinar si el paciente presenta un aumento en su temperatura central o fiebre que usualmente es asociado con el desarrollo de una infección. La fiebre es una respuesta fisiológica adaptativa frente a un agente patógeno, que mejora la respuesta del sistema inmune y evita la propagación de los agentes infecciosos. De hecho, “la elevación de la temperatura corporal en algunos grados puede aumentar la eficiencia de los macrófagos para destruir los microorganismos invasores, dificultando la replicación de diferentes microorganismos y otorgando una ventaja adaptativa al sistema inmune” (Gómez, 2008). Debido a lo anterior, la predicción del desarrollo de fiebre es importante pues, según el horizonte de predicción de este estado en el paciente, se puede permitir la obtención de un cultivo de sangre cuando el recuento de bacterias está en su punto máximo y, de esa manera, precisar el diagnóstico del paciente. Durante la práctica clínica, se registra la temperatura de los pacientes cada 8-12 h, sin embargo, tales mediciones no proporcionan información significativa en el diagnóstico de enfermedades. Por ello, el monitoreo continuo de la temperatura y el análisis de los registros obtenidos utilizando métodos analíticos podrían ayudar a revelar respuestas únicas de fiebre de los pacientes y en diferentes condiciones clínicas. Esta tesis analiza series de temperatura central de pacientes aplicando técnicas estadísticas de series temporales como modelos lineales ARIMA y modelos no lineales de redes neuronales recurrentes para predecir futuros incrementos de la temperatura central que permitiría anticipar el diagnóstico y tratamiento que podría recibir un paciente. Los modelos ARIMA y de Redes neuronales recurrentes fueron caracterizados con un análisis univariante, donde la variable estudiada es la Temperatura central. Por otro lado, los datos utilizados fueron recogidos con un equipo de Monitorización Continua de Temperatura, con un termómetro timpánico de infrarrojos denominado Thercom. Estos dispositivos se configuraron para realizar una determinación de temperatura central por minuto durante aproximadamente 24 horas. No obstante, debido a que la toma de datos de temperatura podría ser incómoda para los pacientes, hay momentos en las series en que los datos obtenidos contienen mediciones que podrían no ser fiables. La primera técnica empleada para el análisis de series temporales fue el modelo de Box-Jenkins o también llamados procesos autorregresivos integrados con media móvil (modelos ARIMA, por sus siglas en inglés) estos modelos pueden capturar las tendencias a corto plazo y las variaciones periódicas en las series temporales, sin embargo, estos no se ajustan a tendencias no lineales que pudiera tener la variable evaluada. Posteriormente, se probaron los modelos no lineales de redes neuronales recurrentes de Elman y se comparó la precisión de las predicciones de los modelos ARIMA, frente a los modelos de Elman usando como estadístico el error absoluto porcentual medio o MAPE para horizontes de 15, 30 y 60 minutos. Ambos modelos fueron desarrollados usando el software estadístico Rstudio con las librerías: “tseries”, para modelos ARIMA; “forecast”, para determinar las predicciones en modelos ARIMA y “RSNNS”, para modelar redes neuronales. Debido a la naturaleza de la variable temperatura central la precisión de los modelos debe ser tal que el error de predicción del modelo no debe ser mayor a 1°C, esto en promedio, implica que las predicciones del modelo deben tener un MAPE máximo admisible de 2.7%. Las predicciones de los modelos ARIMA para los 3 pacientes produjeron MAPEs menores a 3% en todos los horizontes de predicción, no obstante, los residuos obtenidos no siguen una distribución normal, aunque en todos los casos cumplían la hipótesis fundamental de que eran independientes. Además, se produjeron predicciones muy satisfactorias para los 3 pacientes en el horizonte de 15 minutos. Para los otros horizontes de tiempo, los modelos presentaban un intervalo de confianza con amplitud mayor a 2°C, aunque el MAPE producido seguía siendo aceptable. Para los modelos de redes neuronales se utilizaron como variables de entrada, el primer y el segundo retardo de la temperatura central. Como resultado, las predicciones de los modelos de redes de Elman se ajustaron a los datos de tal manera que se obtuvieron MAPEs inferiores a 0.5% para los 3 pacientes en los 3 horizontes de tiempo estudiados (15, 30 y 60 minutos). A pesar de la complejidad de la regulación fisiológica de la temperatura central, el usar retardos de la temperatura central como valores de entrada para el modelo de redes neuronales hace que la estructura del modelo se simplifique y que la predicción de los futuros valores pueda estimarse con modelos de una sola capa de manera satisfactoria, ajustándose a los datos en su escala real y produciendo errores mínimos.