Ingeniería Informática
Permanent URI for this collectionhttp://54.81.141.168/handle/123456789/9139
Browse
24 results
Search Results
Item Metadata only Determinación y segmentación del nivel socio-económico a partir del análisis automático de imágenes de satélite(Pontificia Universidad Católica del Perú, 2022-07-11) Sosa Pezo, Carlos Alberto; Beltrán Castañón, César ArmandoEste proyecto tiene como objetivo desarrollar un modelo de análisis de imágenes satelitales basado en redes neuronales profundas para poder identificar de forma automática el nivel socioeconómico de zonas urbanas, a través de la utilización de las imágenes obtenidas mediante el satélite estatal peruano PerúSat-1, las cuales fueron provistas al proyecto por la Comisión Nacional de Investigación y Desarrollo Aeroespacial (CONIDA). De esta manera, se buscó proveer una fuente alternativa y complementaria a los métodos manuales de recolección de datos demográficos para los casos en los que esta metodología tradicional no resulta conveniente de ejecutar por factores de tiempo y presupuesto. Para ello, el proyecto inicia con la conformación del corpus de datos utilizados para el entrenamiento del modelo de análisis de imágenes satelitales. Este conjunto de datos incorpora, además de imágenes satelitales de PerúSat-1 de la ciudad de Lima capturadas entre 2016 y 2020, una serie de etiquetas que indican el nivel de ingresos de cada manzana en dicha ciudad. Estas etiquetas son el resultado de un estudio elaborado por el Instituto Nacional de Estadística e Informática en el año 2019, tomando como base los datos obtenidos durante el Censo Nacional de Población y Vivienda de 2017. En el caso de las imágenes satelitales, este proceso consiste en la composición en imágenes de cuatro bandas (rojo, azul, verde e infrarrojo) de alta resolución y su posterior división en bloques cuadrados de 512 píxeles en cada dimensión; mientras que las etiquetas censales son organizadas en una base de datos relacional, de forma que puedan ser accedidas por el script para la integración de ambas fuentes de datos. Finalmente, se asigna a cada bloque de 512 x 512 píxeles una máscara con las etiquetas censales correspondientes a la zona capturada. Luego, se define un protocolo de preprocesamiento de los datos, en el que normalizan los parches de las imágenes satelitales, además de incrementar el tamaño del conjunto de datos, de modo que sean adecuados para el entrenamiento de los modelos desarrollados. Respecto a estos, se dispone de dos modelos de redes neuronales convolucionales para el análisis socioeconómico de las imágenes satelitales: el primero, encargado de segmentar semánticamente los techos observados en las imágenes; y el segundo que, recibiendo como entradas la imágen satelital original y la máscara de techos generada por el modelo anterior, detecta el nivel socioeconómico de cada manzana en dicha imagen. Así, se obtiene como resultado final una máscara de bits en la que se indica el nivel socioeconómico de cada manzana observada en la imagen satelital. Finalmente, para facilitar su acceso hacia el usuario final, se desarrolla una plataforma web, compuesta por una interfaz gráfica y una interfaz de programación de aplicaciones, que permite seleccionar, con la ayuda de un mapa en la interfaz gráfica, imágenes satelitales para que sean procesadas por los modelos de redes neuronales y puedan ser las máscaras generadas visualizadas en conjunto con la imagen original.Item Metadata only Desarrollo de un Framework para la identificación del nivel de complejidad de texto para el entrenamiento de chatbots basado en Machine Learning(Pontificia Universidad Católica del Perú, 2022-03-21) Matos Rios, Hans; Beltrán Castañón, César ArmandoLa generación de diálogo implica diseñar un programa para generar una conversación natural, esto requiere desarrollar algoritmos que puedan conversar con un ser humano y otro programa de manera coherente y fluida. Desarrollar una conversación también depende del contexto y conocimiento del interlocutor, lo cual nos lleva a definir la existencia de niveles de complejidad conversacional, la cual se refiere a determinar que tan fácil o difícil de leer es un texto. En este aspecto, especialmente para el idioma español, no existe una herramienta que tenga un módulo propio que le permita clasificar textos en español por su complejidad textual. En el presente trabajo de fin de carrera se realiza el desarrollo de un módulo en el lenguaje de programación Python, el cual funciona como un Framework para identificar la complejidad textual de textos en español usando técnicas de Machine Learning. Para ello, en primer lugar, se implementaron 48 métricas de análisis de complejidad textual basadas en Coh-Metrix usando el lenguaje de programación Python. Dichas métricas convierten textos en español en datos numéricos con los cuales se entrenaron distintos modelos de Machine Learning, con el motivo de obtener el mejor modelo a utilizar con el Framework desarrollado, siendo este capaz de utilizar un modelo personalizado provisto por el usuario. Para ello, se necesitó obtener un corpus de 183 textos en español para realizar dicho entrenamiento, el cual fue obtenido al descargar textos educativos de nivel primaria y secundaria. Por último, se entrenó un chatbot con los textos obtenidos para el corpus, cuyas respuestas generadas fueron analizados con el Framework previamente desarrollado, identificando que el nivel de complejidad de dichas respuestas correspondía al nivel de los textos con los cuales el chatbot fue entrenado. En conclusión, en el presente proyecto de investigación se desarrolla un módulo de Python que funciona como un Framework, el cual es capaz de identificar la complejidad textual de textos en español, ya sea con el mejor modelo de Machine Learning utilizado en el presente proyecto o utilizando uno provisto por el usuario de la herramienta.Item Metadata only Análisis de sentimiento en información de medios periodísticos y redes sociales mediante redes neuronales recurrentes(Pontificia Universidad Católica del Perú, 2022-02-06) Zarate Calderon, Gabriel Helard; Beltrán Castañón, César ArmandoEl análisis de sentimiento es un área de investigación importante en el procesamiento de lenguaje natural, la cual está en constante crecimiento especialmente por la generación de grandes volúmenes de información textual, y el avance tecnológico en lo que se refiere al almacenamiento y los algoritmos inteligentes para el análisis de esta. Esta tarea cada vez va tomando más fuerza su uso en diferentes aplicaciones computacionales dado el crecimiento exponencial del uso de medios digitales y redes sociales, las cuales, gracias a la información debidamente procesada, pueden ser muy valiosas para los negocios. Actualmente existen procedimientos ambiguos para la realización de dicha tarea y sobre todo para textos en español y de manera específica para notas periodísticas y publicaciones realizadas en redes sociales, todo ello por el hecho de la escasa cantidad de herramientas existentes para la presente tarea, por ende el proceso de clasificación de las polaridades de los sentimientos expresadas en los textos se realiza de manera manual por expertos en el tema, generándose así resultados ambiguos y sesgados según la experiencia del encargado, lo cual generaba resultados que no eran del todo fiables retándole valor a dicha tarea, además del hecho de que realizarlo de manera totalmente manual resultaba muy pesado y se realizaba en un periodo largo de tiempo. Para la realización de dicha tarea existen múltiples técnicas de aprendizaje de máquina y de aprendizaje profundo que son adecuadas para este, pero en el último año uno de los modelos que va siendo reconocido cada vez más para ser aplicado a resolver problemas de procesamiento de lenguaje natural son los modelos basados en transformers dadas sus buenas capacidades y los resultados que se obtienen con estos. Ante dicha problemática surge la necesidad de investigar más acerca de cómo se vienen implementando soluciones para la realización de análisis de sentimiento para hacer una comparativa sobre los modelos usados y además dadas las buenas capacidades de los modelos basados en transformers investigar más a fondo la utilidad de estos y las aplicaciones que tiene para así comprobar sus buenas capacidades.Item Metadata only Implementación de un algoritmo de aprendizaje profundo basado en eventos para el problema de predicción de movimiento bursátil(Pontificia Universidad Católica del Perú, 2021-11-30) Bustamante Arce, Jaime Diego; Beltrán Castañón, César ArmandoLa predicción de precios bursátiles, acciones e índices siempre ha sido un tema de interés en el mundo financiero, no solo por su capacidad de originar grandes rentabilidades en poco tiempo, sino también por su volatilidad y complejidad. Así, desde que los mercados bursátiles fueron concebidos diferentes investigadores en variadas áreas han tratado de “vencerlo” prediciendo su comportamiento, como el índice S&P 500 que lista la cotización de las 500 corporaciones más líquidas de la Bolsa de New York. Uno de los enfoques es el fundamentalista, que busca predecirlo de acuerdo a las noticias en los medios de las empresas listadas en la Bolsa de Valores. Desde el lado informático, diversas técnicas han venido siendo aplicadas para realizar esta predicción como estadísticas y las clásicas herramientas de aprendizaje de máquina. Sin embargo, con el creciente aumento de volumen de información, se hace necesario aplicar técnicas que consigan lidiar con esta información no estructurada. Técnicas como redes profundas recurrentes (LSTM), se han mostrado ad-hoc para el manejo de información temporal, debido a que tienen de capacidad de memorizar hechos pasados, que persisten en el tiempo. En el presente trabajo se propone una metodología y conjunto de redes neuronales profundas para la predicción de movimiento bursátil a partir de eventos y noticias corporativas. Para ello no solo se considera la contextualización de palabras, sino también sus relaciones y composición semántica, estructura e historia para la predicción del índice S&P 500. En resumen, el presente proyecto obtiene resultados exitosos puesto que sobrepasan a los del estado del arte. Así, el conjunto de modelos neuronales propuestos puede ser usados como apoyo en la decisión de inversión diaria en el índice S&P 500.Item Metadata only Implementación de un sistema de recomendación basado en el análisis de polaridad y caracterización de revisiones de usuarios de un marketplace(Pontificia Universidad Católica del Perú, 2021-07-21) Pando Robles, Enrique André; Beltrán Castañón, César ArmandoEl crecimiento constante de Internet va de la mano con el rápido aumento del volumen de información, lo cual brinda una amplia gama de alternativas de compra al usuario, quien puede verse superado por la gran variedad de productos disponibles. A fin de ayudar en la elección de productos, se desarrollan los sistemas de recomendación, los cuales acotan los potenciales productos de agrado para el usuario. Con el fin de recabar mayor información, los sitios de comercio electrónico van añadiendo nuevas funcionalidades, tales como asignar una puntuación y comentarios sobre el producto adquirido. Este último expresa, en palabras del usuario, su sentimiento luego de realizar la compra, el cual podría ser un comentario positivo, negativo o neutro. Es así como surge la necesidad de poder analizar todos estos datos textuales, los cuales guardan una rica información sobre el parecer de los usuarios, pudiendo así ser utilizada para una potencial mejor toma de decisión a fin de mejorar el servicio de comercio. Sin embargo, para poder otorgar una recomendación al usuario, es necesario analizar a los demás que ya adquirieron productos similares, siendo importante detectar a aquellos compradores que tengan un patrón similar (por ejemplo, en sus comentarios) siendo este un problema que demanda estrategias de filtrado de estas características similares. Por lo tanto, el presente tema de tesis combina los sistemas de recomendación y el análisis de polaridad con el objetivo de brindar una recomendación de productos al usuario con base en las puntuaciones y comentarios (usando filtros colaborativos), de manera que el usuario pueda obtener una lista reducida de productos potenciales a adquirir con base en su histórico de compras. Teniendo como conclusión principal la comprobación estadística de que el sistema de recomendación propuesto es superior a solo usar las puntuaciones para recomendar.Item Metadata only Diseño de un modelo algorítmico para la discriminación de patrones acústicos entre voces y pisadas humanas(Pontificia Universidad Católica del Perú, 2019-03-29) Viera Barthelmes, Cecilia del Pilar; Beltrán Castañón, César ArmandoActualmente existe una gran demanda de soluciones innovadoras e informáticas que permitan generar sistemas de vigilancia o que ayuden en esta labor. Es así como se han generado diversos proyectos que buscan satisfacer las necesidades de sistemas de este tipo. Mayormente, se ha utilizado la tecnología de imágenes y utilizando drones o algún tipo de cámara, donde una persona está monitoreando estas imágenes captadas en tiempo real para verificar la presencia de un objeto o un ser no deseado. Sin embargo, estas soluciones han presentado una gran complejidad tanto en procesamiento como infraestructura, conllevando así también a un precio elevado de su implantación. Es por esto que este proyecto de investigación se enfoca en presentar una solución a este problema utilizando recursos más simples, basándose en un reconocimiento de patrones en señales acústicas. Esta es un área de la especialidad de informática que en los últimos años ha tenido un gran desarrollo y estudio debido a las diversas aplicaciones que puede tener en el mundo contemporáneo. Cada vez se han ido perfeccionando los algoritmos de extracción de características y de aprendizaje de máquina, por lo cual en este trabajo se utilizarán y compararán dos métodos de caracterización estudiados en investigaciones de reconocimiento de voz. Además, se desarrollará un módulo de recorte de la señal que permita identificar a las regiones de interés. Finalmente, se usarán redes neuronales como el clasificador del algoritmo.Item Metadata only Desarrollo de un framework para la recuperación de imágenes a partir del ingreso de dibujos a mano alzada(Pontificia Universidad Católica del Perú, 2018-07-10) Puenternan Fernández, Willy; Beltrán Castañón, César ArmandoEn la actualidad las personas demandan constantemente información que les ayude a realizar todo tipo de acciones. Ante esta necesidad surgieron los buscadores web y durante un tiempo permitieron la obtención de información de forma óptima. No obstante, ante la creciente generación de contenido multimedia como imágenes y videos, estos buscadores vieron afectados en gran medida sus funcionalidades al ser incapaces de describir a través de palabras el contenido de objetos abstractos presentes en dichas imágenes. Como alternativas de solución surgen los sistemas de recuperación de imágenes por contenido, cuyo uso se extiende inclusive a la realización de búsquedas más complejas como la recuperación de información en videos. Estos sistemas de recuperación de información visual comprenden dos conocidas áreas: similitud de imágenes y dibujos a mano alzada. En el caso de la búsqueda por similitud de imágenes se permite una mayor aproximación a las imágenes que el usuario desea obtener como resultado de su búsqueda, pero implica que el usuario disponga de una imagen previa de la que desea buscar; por lo que no tiene mucho sentido buscar una imagen si ya se cuenta con otra. Por otro lado, el uso de dibujos hechos a mano es un medio innato de representación del conocimiento utilizado desde tiempos antiguos y que las personas emplean desde edad temprana. Entonces, ¿por qué no utilizar los dibujos a mano alzada como un parámetro de entrada del motor de búsqueda de imágenes? Es lógico pensar que, mediante el uso de trazos, muchos de los problemas presentes en los buscadores tradicionales serían resueltos. No obstante, el desarrollo de esta alternativa de solución trae consigo nuevas e interesantes dificultades a enfrentar. En el presente proyecto de fin de carrera se desarrollará un framework de recuperación de imágenes mediante la especificación de dibujos a mano alzada como parámetro de entrada. Para ello se creará un algoritmo que priorice la obtención de resultados eficaces a partir del uso de técnicas de inteligencia artificial, visión computacional y sistemas de indexación de imágenes. El presente documento se encuentra dividido en 7 capítulos, los cuales abarcan lo siguiente: el primer capítulo presenta el contexto sobre el cual actúa el proyecto de tesis, sus objetivos, los resultados y las herramientas utilizadas para la obtención de estos; el segundo capítulo define los conceptos básicos y técnicos necesarios para un mayor entendimiento durante el desarrollo del framework; el tercer capítulo presenta una muestra de los trabajos más importantes aplicados hasta la fecha en el campo de recuperación de imágenes; el cuarto capítulo describe en detalle cómo se ideó la representación de las imágenes según la metodología de bolsa de características; el quinto capítulo hace hincapié en el diseño e implementación del proceso de comparación y recuperación de imágenes a partir del ingreso de trazos a mano alzada por parte del usuario; el sexto capítulo realiza un análisis de los resultados obtenidos y la validación de estos; finalmente, el séptimo capítulo presenta las conclusiones y recomendaciones obtenidas a lo largo del proyecto de tesis.Item Metadata only Diseño de un modelo algorítmico basado en visión computacional para la detección y clasificación de retinopatía diabética en imágenes retinográficas digitales(Pontificia Universidad Católica del Perú, 2018-06-19) Abarca Cusimayta, Daekef Rosendo; Beltrán Castañón, César ArmandoLa retinopatía diabética es una enfermedad muy común en pacientes con diabetes. Esta enfermedad ocasiona ceguera de manera gradual debido al deterioro de la retina. Este deterioro puede desencadenar en hemorragias, aneurismas y presencia de exudados en la superficie, las cuales se manifiestan en puntos vacíos de la visión del afectado. Las características mencionadas tienen muchas propiedades visuales como el color, forma, área de presencia que son posibles detectar por medio de imágenes retinográficas digitales. Esta propiedad hace posible el uso de la visión computacional para procesar la imagen y poder diagnosticar la enfermedad de acuerdo al grado de avance de ésta según las características clínicas presentes. El presente proyecto de tesis consiste en el desarrollo de un modelo algorítmico que logre aprovechar las características visuales para poder detectar y clasificar la enfermedad. Las características clínicas utilizadas son los microaneurismas, exudados y hemorragias. Se utilizó una base de datos pública de imágenes retinográficas y un clasificador SVM. El vector de características que se utilizó fue: área, color, número de características prensentes. Es importante mencionar que se utilizó pre-procesamiento en la imagen para excluir elementos como el fondo, disco óptico y las venas debido a que no aportan significativamente al análisis de la imagen. Para el desarrollo del algoritmo se utilizó C++ con OpenCV, la cual es una librería open source para el procesamiento de imágenes. Como resultado final de este proyecto se logró una sensibilidad del 90.17%; especificidad del 96.72% y precisión del 95.08%.Item Metadata only Desarrollo de un modelo algorítmico basado en árboles de decisión para la predicción de la permanencia de un paciente en un proceso psicoterapéutico(Pontificia Universidad Católica del Perú, 2018-04-11) Leon Atiquipa, Heli Eliaquin; Beltrán Castañón, César ArmandoEn la actualidad existe una creciente necesidad de atención psicológica en nuestro país, por lo que existen muchas instituciones públicas y privadas que ofrecen esto servicios profesionales. La psicoterapia es parte de estos servicios y quienes lo brindan son profesionales especializados en la materia, los cuales atienden a pacientes de diferentes edades y estratos socioeconómicos. Estos tratamientos suelen durar mucho tiempo, por lo que muchos pacientes, por diferentes circunstancias, abandonan el proceso al poco tiempo de haberlo iniciado. La institución, el cual es el caso de estudio, maneja ciertos niveles de deserción medibles durante el tiempo. Estos niveles son manejables en el grado en el que se dan, sin embargo, un creciente aumento del mismo podría generar costos para mantener el equilibrio, el cual deberá ser aplicado a los pacientes, los cuales podrían sentir incomodidad y afectar el proceso terapéutico. La necesidad de tener un mayor control sobre los niveles de deserción y reducirlos ayudaría en gran medida a mejorar la calidad de los servicios que se brindan en la institución. Para la institución, la incertidumbre del abandono en el proceso no permite aplicar medidas correctivas que permitan mejorar los niveles de deserción, sin embargo, la información contenida en la base de datos institucional permite, por cuestiones de investigación, estudiar y analizar los patrones que conllevan al abandono del proceso. Realizar este tipo de análisis sobre una gran cantidad de información implica utilizar métodos computacionales que permitan ayudar a analizar la información de una forma rápida y eficiente. Es por ello, que surge la necesidad de apoyarnos en las ciencias de la computación, específicamente en la minería de datos, para identificar los patrones que permitan predecir y determinar la permanencia de los pacientes durante el proceso. El presente proyecto de fin de carrera pretende entender las causales de la deserción en un proceso psicoterapéutico con el fin de poder predecir, desde el primer contacto entre el paciente y la institución, la permanencia del paciente. Para esto, se plantea el desarrollo de un prototipo funcional que permita predecir la permanencia de los pacientes haciendo uso de algoritmos de árboles de decisión para la predicción. Para la elaboración del prototipo funcional y el cumplimiento de los objetivos, se hizo uso de la herramienta Weka, el cual permitió analizar y seleccionar el algoritmo a usar para la implementación del prototipo. El desbalanceo de clases dificulto el proceso de análisis algorítmico, por tal motivo, se aplicaron métodos de minería de datos para analizar los conjuntos de datos desbalanceados. El lenguaje de programación usado fue Java y los algoritmos que permitieron la predicción fueron incorporados desde las librerías del API de Weka. Los resultados obtenidos fueron satisfactorios, en base a los datos que fueron extraídos de la base de datos institucional.Item Metadata only Algoritmo para el balanceo dinámico del grado de dificultad mediante aprendizaje de máquina en la implementación de un juego orientado a apoyar el desarrollo de la inteligencia espacial en niños de etapa pre-escolar(Pontificia Universidad Católica del Perú, 2018-03-27) Caballero Torres, Franco André; Beltrán Castañón, César ArmandoDentro del ámbito educativo nacional, la Inteligencia espacial, a pesar de haber demostrado estar relacionada con una serie de habilidades que permiten y estimulan la creación y el desarrollo matemático y científico, no es muy reconocida y posee pocas herramientas que ayuden a su desarrollo en niños de edad preescolar, etapa en la que este se recomienda ampliamente. Sumado a esto encontramos la necesidad de herramientas que contribuyan en la enseñanza cuyos requerimientos han crecido en cantidad y complejidad en las últimas décadas, y que involucren modos innovadores de llevar el conocimiento aprovechando las tecnologías disponibles. La necesidad de contribuir con la educación también surge de los requerimientos del Aprendizaje Adaptativo, el cual es una metodología que, a través de la adecuación del nivel del contenido que se desea enseñar, permite al estudiante una experiencia de aprendizaje personalizada y más efectiva en resultados. Esta metodología aprovecha las posibilidades de interacción que proporcionan las tecnologías de información y la capacidad de procesamiento de los equipos informáticos para lograr su objetivo. La presente tesis describe el desarrollo de una aplicación educativa gamificada de apoyo en el desarrollo de la Inteligencia espacial en niños de etapa preescolar, e involucra el uso de tecnologías que permitan adaptar al estudiante la dificultad del juego presentado por el aplicativo. Para esto se hizo uso de métodos de Ajuste Dinámico de la Dificultad, a través de redes neuronales y aprendizaje supervisado. El entorno de juego está basado en el uso de representaciones virtuales de bloques lógicos, mediante los cuales se le presenta al alumno una figura la cual este debe imitar manipulando, mediante la pantalla táctil, otro conjunto bloques similares. Se evaluaron siete métricas en el desempeño del usuario relacionadas a cuan correcta es su respuesta en los siguientes conceptos: Encaje, ubicación, forma, tamaño, color, rotación y textura. Mediante estas métricas la aplicación elige el siguiente escenario a presentar al usuario ajustando diez atributos en dicho escenario. El proceso de adaptación busca introducir las métricas del usuario a un rango de acierto deseado y se realiza en dos pasos. Primero, se realiza sin presencia del usuario un entrenamiento de redes neuronales mediante propagación hacia atrás con información de casos base. Este primer paso permite obtener una versión inicial de la adaptabilidad. Y segundo, luego de cada ronda, se evalúa la respuesta del usuario mediante un conjunto de eventos que determinan la efectividad de la red neuronal para introducir a un usuario especifico al rango deseado, y se modifica la red usada para ese usuario con los resultados obtenidos. En los resultados del proyecto se observó que la metodología empleada es efectiva para el caso propuesto, logrando introducir las métricas en el rango luego de un número de rondas jugadas. La evaluación de requerimientos computacionales (velocidad, efectividad, robustez y eficiencia) y funcionales (claridad, variedad, consistencia y escalabilidad) para una AI adaptativa también muestra resultados positivos. Sobre la rapidez de la solución, la respuesta para ambos modelos (solo entrenamiento inicial y modificación por eventos) es imperceptible para el usuario. En cuanto eficacia se logró resultados positivos, logrando mejorar las métricas respecto a un algoritmo manual en más del 70% de los casos y obteniendo un aumento promedio comparándola a un algoritmo manual de +0.012 para las redes neuronales y +0.02 para el aprendizaje supervisado. Estos valores representan el 13% y el 22% de la máxima mejora posible respectivamente. En cuanto a la robustez y eficacia, ambos modelos lograron adaptar la respuesta al usuario en la mayoría de casos y en un número similar de rondas, aunque el aprendizaje supervisado mostró ser más efectivo en el primer criterio, mejorando los resultados del algoritmo manual. Respecto a la variedad de los escenarios presentados se obtuvo, mediante la modificación por eventos, una menor variación entre estos, lo que se relaciona con la mejor adaptabilidad alcanzada. Y sobre la escalabilidad, ambos modelos mostraron resultados positivos para los tres niveles de desempeño evaluado, aunque el aprendizaje supervisado muestra ser más efectivo. Estos resultados permiten identificar beneficios en el uso de esta metodología específicamente para el ámbito evaluado, así como identificar en qué casos específicos es más efectiva. Los resultados positivos encontrados que en conjunto indican que se ha logrado realizar una aplicación que cumple en presentar al usuario un entorno adaptativo, hacen válido el seguir este camino para futuras investigaciones en la exploración de las aplicaciones gamificadas educativas de apoyo a la inteligencia espacial.
- «
- 1 (current)
- 2
- 3
- »