Tesis y Trabajos de Investigación PUCP
URI permanente para esta comunidadhttp://54.81.141.168/handle/123456789/6
El Repositorio Digital de Tesis y Trabajos de Investigación PUCP aporta al Repositorio Institucional con todos sus registros, organizados por grado: Doctorado, Maestría, Licenciatura y Bachillerato. Se actualiza permanentemente con las nuevas tesis y trabajos de investigación sustentados y autorizados, así como también con los que que fueron sustentados años atrás.
Ingresa a su web: Repositorio Digital de Tesis y Trabajos de Investigación PUCP
Explorar
2 resultados
Resultados de búsqueda
Ítem Texto completo enlazado Diseño de un modelo explicativo basado en ontologías aplicado a un chatbot conversacional(Pontificia Universidad Católica del Perú, 2024-01-15) Arteaga Meléndez, Daniel Martin; Gómez Montoya, Héctor ErasmoActualmente, la inteligencia artificial es una de las áreas de investigación más importantes para el desarrollo de tecnología en múltiples disciplinas. Aunque ha tenido un crecimiento exponencial en los últimos años, el entendimiento de cómo funciona es mínimo para la mayoría de las personas. En consecuencia de ello, su uso en actividades que implican una toma de decisiones es limitado, lo cual se evidencia en el Reporte 2023 de Artificial Intelligence Index [1]. Según este reporte, el cambio porcentual en las respuestas de adopción de la inteligencia artificial por industria y actividad entre el 2021 y 2022 ha sido de -15% y -13% para las actividades de marketing y ventas, y desarrollo de productos y/o servicios, respectivamente. Frente a esto se propone el diseño de un modelo que permita explicar los componentes básicos de un sistema basado en inteligencia artificial a través de un chatbot conversacional en idioma inglés. De este modo, la explicación se brinda en un formato sencillo (texto) y a través de un medio interactivo (conversación). El modelo explicativo se basa en la ontología XAIO, propuesta en este estudio y desarrollada a partir de dos ontologías de aprendizaje de máquina e inteligencia artificial explicable. Haciendo uso de un modelo de generación de lenguaje natural a partir de datos estructurados, el modelo explicativo genera explicaciones en lenguaje natural basadas en el conocimiento descrito en las tripletas de la ontología XAIO. Para evaluar el modelo se implementó un chatbot conversacional que utiliza un modelo de entendimiento de lenguaje natural para identificar intenciones y entidades, a partir de las cuales se realizan las consultas en la ontología que permiten obtener las tripletas. En la evaluación cuantitativa se obtuvo un BLEU promedio de 76.97, lo cual indica un buen desempeño en la tarea de generación de lenguaje natural a partir de datos estructurados. Asimismo, se desarrollaron sistemas de inteligencia artificial explicable con chatbot para la prueba con usuarios y se obtuvo un SUS de 69, indicando una usabilidad por encima del promedio. Finalmente, también se realizó una evaluación cualitativa para obtener las apreciaciones de los participantes acerca de los sistemas, las cuales señalan la coherencia al momento de responder, la sencillez de las respuestas y la interacción amigable con el chatbot.Ítem Texto completo enlazado Desarrollo de recursos léxicos multi-dialécticos para el quechua(Pontificia Universidad Católica del Perú, 2023-03-13) Melgarejo Vergara, Nelsi Belly; Gómez Montoya, Héctor ErasmoLas lenguas de bajos recursos como el quechua no cuentan con recursos léxicos a pesar de ser importantes para contribuir en las investigaciones y en el desarrollo de muchas herramientas de Procesamiento de Lenguaje Natural (NLP) que se benefician o requieren de recursos de este tipo, de esa forma poder contribuir en la preservación de la lengua. El objetivo de esta investigación es construir una WordNet (base de datos léxica) para las variedades quechua sureño, central, amazónico y norteño, y un un etiquetado gramatical de secuencias de palabras (POS tagging) para la variedad del quechua sureño. Para el desarrollo de esta investigación se recopiló información de los diccionarios y se creó corpus paralelo quechua - español, se implementó un algoritmo de clasificación para alinear el sentido de las palabras con el synset del significado en español para cada variedad de la lengua quechua y finalmente se creó un modelo de etiquetación gramatical basado en el modelo BERT. El score obtenido para el POS tagging de la variedad quechua sureño fue 0.85% y para el quechua central 0.8 %.