Facultad de Ciencias e Ingeniería
URI permanente para esta comunidadhttp://54.81.141.168/handle/123456789/9119
Explorar
5 resultados
Resultados de búsqueda
Ítem Texto completo enlazado Implementación de algoritmos meta heurísticos para la definición de frecuencias y horarios para rutas de transporte público(Pontificia Universidad Católica del Perú, 2017-08-26) Sato Yamada, José Miguel; Alva Manchego, Fernando EmilioEn los últimos años, se han implementado servicios como el Metropolitano y el Metro que buscan aliviar la congestión vehicular que se genera en las calles de Lima. Si bien estos nuevos servicios han logrado disminuir el tiempo de viajes de los pasajeros, estos aun presentan algunos de los inconvenientes que tienen los viajes en buses y combis tradicionales, como son la falta de capacidad para satisfacer la demanda de los pasajeros y la poca confiabilidad de los servicios. Problemas como estos se deben a deficiencias en el diseño de la red de transporte, este consiste en cinco pasos (Kepaptsoglou y Karlaftis 2009, p 491) los cuales son: Definición de rutas, definición de frecuencias, definición de horarios, asignación de unidades y asignación de choferes. La falta de capacidad de los servicios para atender la demanda se debe a que las frecuencias de las unidades no están definidas correctamente; y la poca confiabilidad de los servicios se debe a que estas no tienen horarios establecidos que pueden ser usados para que los pasajeros sepan las horas de llegadas de las unidades o como una forma de control para la empresa. En el proyecto se buscó dar solución al problema de definición de las frecuencias y definición de horarios implementando algoritmos meta heurísticos que ayuden a definir frecuencias y horarios para cada una de las rutas que componen la red de transporte. Si bien en el proyecto se toma el caso del Metropolitano y el Metro, la solución puede ser utilizada en cualquier sistema de transporte que tenga rutas y demandas definidas. Primero fue necesario obtener toda la información relevante relacionada a la red de transporte, esta información fue procesada y colocada en archivos que son leídos por los algoritmos. Luego se diseñó la solución y la estructura de datos que se emplearan en el programa. Para poder definir las funciones objetivos fue necesario analizar los diferentes componentes que estos presentan. Para la implementación del programa primero se implementó las funciones objetivos, luego se realizó la generación de soluciones aleatorias y luego cada una de los algoritmos que contiene la solución, posteriormente se buscó mejorar la eficiencia de los algoritmos utilizando programación multi-hilos, se siguió los mismos para la definición de frecuencias y la definición de horarios. Una vez implementado todos los algoritmos se creó una interfaz de usuario que facilita el uso y configuración de los algoritmos.Ítem Texto completo enlazado Implementación de una herramienta de automatización para la simplificación de textos en español(Pontificia Universidad Católica del Perú, 2015-10-27) Muroya Tokushima, Luis Fernando; Alva Manchego, Fernando EmilioEl acceso a la información es un derecho reconocido en el artículo 19 de la Declaración Universal de los Derechos Humanos e implica, entre muchas cosas, que la información disponible a través de los medios escritos sea comprensible para todos. Sin embargo, en pleno siglo XXI, todavía existe una brecha insalvable entre la idealidad y la realidad: muchas personas no pueden entender los textos porque son muy complejos para ellos. Los motivos son muy diversos: una educación deficiente, alguna forma de discapacidad, factores exógenos, etc. Para que estas personas gocen de un verdadero acceso a la información, es necesario que la misma sea transformada y reescrita de forma comprensible para ellas, proceso conocido como simplificación textual. En vista que llevarla a cabo manualmente resulta costoso, en los últimos años se ha vuelto de interés automatizar este proceso. En el caso del español, un primer avance se logró con el proyecto Simplext (2009), durante el cual fue construida una herramienta de simplificación léxico-sintáctica con un enfoque primordialmente basado en reglas. En este trabajo se desarrolló una herramienta de simplificación que opera a nivel sintáctico y utiliza clasificadores como elementos de decisión para escoger las operaciones de simplificación sintáctica que deben ser aplicadas sobre un texto. Para construir esta herramienta, primero se anotó el corpus paralelo recopilado durante el proyecto Simplext con las operaciones de simplificación que se llevaron a cabo oración por oración. Asimismo, se entrenó clasificadores binarios y se llevó a cabo una experimentación numérica con la finalidad de definir cuál era el más adecuado para cada operación. Finalmente, se implementó una interfaz web que permite al usuario ingresar un texto y visualizar su versión simplificada. Luego de comparar el índice de perspicuidad (métrica de complejidad textual) de textos antes y después de pasar por la herramienta, se pudo concluir que la misma sí es capaz de simplificar textos, aunque no de una forma tan eficiente como un ser humano. Esta diferencia era esperada debido a que no se incluyó un módulo de simplificación léxica y porque un agente humano tiene experiencia y conocimiento que una máquina carece. En un trabajo futuro podría integrarse dicho módulo para mejorar el funcionamiento de la herramienta.Ítem Texto completo enlazado Herramienta de análisis y clasificación de complejidad de textos en español(Pontificia Universidad Católica del Perú, 2015-06-04) Pérez Urcia, Walter; Quispesaravia Ildefonso, André Raúl; Alva Manchego, Fernando EmilioLa selección de textos es una de las responsabilidades principales de los profesores dentro del planeamiento del orden de exposición a textos para sus alumnos. Debido a la gran cantidad de textos disponibles y la diversidad de géneros y temas, esta tarea demanda mucho tiempo y está ligada a aspectos subjetivos del evaluador. Esto es un problema, sobre el cual proponemos una alternativa de automatización. Se toma como proyecto la implementación de una herramienta de análisis y clasificación de complejidad de tetos en español. Con ello se busca brindar una alternativa automatizada al problema de escalabilidad en complejidad de textos. Esto se refiere a la necesidad de tener un orden de textos evaluados por complejidad. Para ello evaluamos la complejidad utilizando las métricas de Coh-Metrix adaptadas al español. Este conjunto de métricas evalúa textos en inglés de acuerdo a los estudios de coherencia y cohesión que los autores de Coh-Metrix desarrollaron. En base a esta adatapación de Coh-Metrix se desarrolló un clasificador basado en técnicas de aprenizaje de máquina y un conjunto de textos en español conformado por fábulas y cuentos previamente clasificados. Finalmente estos componentes fueron unidos en una herraamienta web para la accesibilidad pública de la herramienta desarrollada.Ítem Texto completo enlazado Método de extracción e identificación de lugares del mundo real en textos en español del género literario(Pontificia Universidad Católica del Perú, 2015-06-04) Zevallos Franco, Melissa; Alva Manchego, Fernando EmilioEn este proyecto de fin de carrera se ha escogido abarcar el tema de Turismo Literario, resaltando principalmente la integración de una herramienta que ha existido durante años, el libro, con las nuevas tecnologías de Reconocimiento de Entidades Mencionadas (REM). Se propone implementar un método de extracción de lugares que se encargue de procesar las obras literarias con la finalidad de identificar los nombres de los lugares mencionados en dichos textos; para que éstos, finalmente, sean validados en el mundo real con el apoyo de una librería de información geográfica. Con el método implementado se va a obtener información, la cual puede ser utilizada para la construcción de herramientas que permitan difundir y aprovechar el Turismo Literario. Esta clase de turismo busca difundir los lugares reales que son mencionados en las obras literarias Estos escenarios pueden ser parques, restaurantes, pasajes, avenidas, entre otros lugares.Ítem Texto completo enlazado Implementación de un software de apoyo a la escritura de resúmenes de textos científicos en español(Pontificia Universidad Católica del Perú, 2014-08-18) Vargas Campos, Irvin Rosendo; Alva Manchego, Fernando EmilioDesde hace tiempo se viene comentando que los estudiantes universitarios presentan serios problemas de expresión escrita. En diversas fuentes de información, tales como artículos de investigación científica, tesis, u otros medios académicos y profesionales, se puede apreciar diversos errores de redacción. Ésta es una situación que se considera inadmisible en personas con un alto nivel de instrucción formal, especialmente porque todas ellas ya han pasado alrededor de once años de escolarización en la que aprobaron diversas materias relativas a la enseñanza de su lengua materna. Como medida para solucionar este problema, se busca promover la enseñanza de la organización de las ideas. Existen varias técnicas que ayudan a organizar las ideas y preparar la información antes de la redacción del ensayo, monografía o artículo científico. Una de las técnicas más básicas es la redacción del resumen. Se sabe que la redacción del resumen de los textos científicos es una técnica básica y fundamental para la organización de ideas y preparación de información para redactar correctamente textos científicos más complejos. Por tal motivo, el presente proyecto de fin de carrera presenta la implementación de un software de apoyo a la escritura de resúmenes de textos científicos en español, el cual ayudará al escritor a redactar resúmenes de sus textos científicos con una estructura adecuada. Para poder llevarlo a cabo, primero se formó un corpus de 44 resúmenes de textos científicos en español, que sirven para el entrenamiento y prueba del modelo clasificador AZEsp. Para formar el corpus, se tuvo como estructura óptima de los textos la presencia de 6 categorías: Contexto, Brecha, Propósito, Metodología, Resultado y Conclusión. Luego, se procedió a determinar un conjunto de 7 características (atributos), las cuales serían utilizadas para identificar cada una de las categorías. Posteriormente, se implementaron una serie de algoritmos para la extracción de los valores de dichos atributos de cada oración de los resúmenes de textos científicos para que sean utilizadas por el modelo. Una vez obtenidos dichos valores, éstos fueron utilizados para la implementación del modelo clasificador AZEsp y evaluación de su desempeño utilizando métricas tales como Precision, Recall y F-Measure. Finalmente, se implementó el ambiente de ayuda SciEsp, el cual utiliza el modelo clasificador AZEsp para clasificar automáticamente las oraciones de los resúmenes de textos científicos en español ingresados por el usuario, siguiendo una estructura predefinida. Se hizo una serie de experimentos para evaluar el desempeño del modelo clasificador AZEsp. Se obtuvo diferentes resultados; sin embargo, el más resaltante fue que el modelo logró un desempeño de 65.4%. Esto demuestra que la herramienta informática propuesta (SciEsp) está apta para su utilización. En conclusión, los estudiantes universitarios podrán emplear esta herramienta para la redacción de sus resúmenes; ellos podrán identificar sus errores y deficiencias en la redacción, y serán capaces de mejorar de forma autodidacta.