Revista Tecnología y Ciencia - Universidad Tecnológica Nacional

Año 22 - Número 50 / May - Ago. 2024

DOI:https://doi.org/10.33414/rtyc.50.1-17.2024

ISSN 1666-6933

Reconocimiento-NoComercial 4.0 Internacional

Tecnologías digitales. Desarrollo de aplicación de realidad aumentada como herramienta de visualización de vulnerabilidad sísmica edilicia.

Digital technologies. Development of an augmented reality application as a visualization tool for building seismic vulnerability

Presentación: 28/02/2024

Aprobación: 07/05/2024

Sergio Fabián Heredia

Instituto Regional de Planeamiento y Hábitat, Facultad de Arquitectura, Urbanismo y Diseño, Universidad Nacional de San Juan - Argentina

arq_sergioheredia@yahoo.com.ar

Benjamín Jesús Gaia Amorós

Instituto Regional de Planeamiento y Hábitat, Facultad de Arquitectura, Urbanismo y Diseño, Universidad Nacional de San Juan - Argentina

benjagaia19@gmail.com

Resumen

Los rasgos políticos, culturales y económicos que caracterizan a la sociedad del siglo XXI, han permitido el surgimiento de la llamada sociedad digital la cual se caracteriza por el uso dominante de las tecnologías de la información y comunicación para el desarrollo de actividades tales como investigación, comunicación, compartir conocimiento e información, producir, entre otros. En este marco, el presente trabajo tiene por objetivo diseñar y programar una aplicación de tecnología inmersiva de realidad aumentada que permita la visualización de iconografía en 3D para informar sobre el riesgo de vida a los que están expuestos los ocupantes del edificio caso de estudio. Para ello se trabajará con una metodología cuasi-experimental que combina procedimientos de diseño, programación y verificación a través de prueba y error. Concluyendo que es posible integrar la iconografía sobre riesgo sísmico edilicio para su visualización en la aplicación de realidad aumentada.

Palabras claves: Realidad Aumentada, Vulnerabilidad Sísmica, Iconografía.

Abstract

The political, cultural and economic features that characterize the society of the 21st century have allowed the emergence of the so-called digital society, characterized by the dominant use of information and communication technologies for the development of activities such as research, communication, sharing knowledge and information, producing, among others. In this framework, the objective of this work is to design and program an immersive augmented reality application that allows the visualization of 3D iconography to inform about the life risk to which the occupants of the case study building are exposed. To do this, we will work with a quasi-experimental methodology that combines design, programming and verification procedures through trial and error. Concluding that it is possible to integrate seismic risk iconography for visualization in the augmented reality application.

Keywords: Augmented Reality, Seismic Vulnerability, iconography

Introducción

En la década actual, los mayores desastres catastróficos, en términos de pérdida de vidas humanas, han sido producto de terremotos (Bello et al., 2020) por lo cual, la región se encuentra en un contexto de grandes esfuerzos para mitigar los riesgos de desastres, adaptarse a los efectos del cambio climático y reducir la vulnerabilidad ante estos fenómenos (CEPAL, 2018). La Provincia de San Juan se localiza en la porción centro-oeste de la República Argentina, y se ubica en la región de mayor riesgo sísmico; esto se debe a la cercanía respecto al punto de convergencia entre la placa tectónica Nazca y la placa tectónica Sudamericana (Ortiz, 2021).

En esta línea, el riesgo sísmico (RS) se considera un peligro geofísico para el hombre en la tierra (UNESCO, 1980). Sin embargo, según Jorquera (2014), para que exista un riesgo debe existir una amenaza que interactúa con una vulnerabilidad en un contexto temporal y espacial determinado. En muchos casos el riesgo no se puede eliminar, pero sí se puede disminuir, controlar o mitigar la vulnerabilidad identificada, lo que se conoce como gestión del riesgo. Según las Naciones Unidas (UNDRR, 2022) se debe reducir las fuentes de riesgo existentes en el mundo como así también evitar crear nuevos riesgos.

En particular, el RS en los edificios educativos es un tema de amplio estudio ya que los mismos son considerados una construcción esencial, que en caso de terremotos destructivos deben seguir funcionando sin ningún tipo de daño (INPRES, 2022). También se destacan por el valor económico de su reposición, las consecuencias asociadas a su colapso y su importancia para el desarrollo de actividades de protección civil durante la atención de emergencias (EN-1998-1, 2004). Según el código de Edificación de San Juan, en el Folleto I: Prescripciones Generales1, en la clasificación de edificios, se determina que el caso de estudio es una construcción “Clase A”, por ser edificio público en los cuales las personas pueden congregarse para propósitos cívicos, políticos, educacionales, religiosos o de diversión. En correspondencia con esto, según el reglamento vigente INPRES CIRSOC 103 Tomo I2, se clasifica al Grupo A como Construcciones o instalaciones cuyo colapso tiene gran repercusión debido a la ocupación o el uso. Construcciones cuyo contenido es de gran valor o de gran importancia pública.

La Realidad Aumentada (RA) es una tecnología que complementa la percepción e interacción con el mundo real y permite al usuario estar en un entorno, aumentado con información adicional generada por el ordenador. (Basogain et al, 2007). En definitiva, esta tecnología es capaz de complementar la percepción e interacción con el mundo real, brindando al usuario un escenario aumentado con información adicional generada por computadora. (Orozco et al., 2006).

En el caso de la RA, tanto las experiencias como investigaciones en torno a su empleo en el ámbito académico, reflejan que ésta se ha ido incorporando de forma rápida en las aulas (Barroso Osuna et al., 2017; de la Horra, 2017; Moreno Martínez & Galván Malagón, 2020; Hou et al., 2021). Al analizar y comparar la utilización de estas tecnologías en dichos ámbitos, se pueden observar los beneficios en la mejora de la inteligencia espacial en estudiantes a través de la utilización de tecnologías digitales de Realidad Aumentada (del Cerro Velázquez y Méndez, 2017). Los softwares de producción de Realidad Aumentada (RA) existentes ofrecen múltiples posibilidades para su incorporación en el ámbito educativo (Cabero Almenara y Barroso Osuna, 2018). Algunos estudios analizan la visión de estudiantes de nivel secundario sobre el empleo de estas tecnologías en su proceso de aprendizaje. Concluyen que los estudiantes consideran que estas tecnologías pueden ser utilizadas en los escenarios formativos (Marín–Díaz et al., 2022).

En este contexto, el objetivo de este proyecto es desarrollar una aplicación para la visualización de vulnerabilidad sísmica en un edificio de uso público en la provincia de San Juan, para aportar al usuario información adicional, que le permita observar iconografía de riesgo sísmico visibles de manera virtual en el espacio real. Además, por el carácter dinámico e interactivo del desarrollo de esta aplicación, el fin es lograr captar la atención del usuario para concientizar sobre el riesgo de los elementos no estructurales en edificios y lograr una mejor aprehensión de la temática planteada.

Metodología

El presente trabajo es una investigación aplicada (investigación-acción) e incluye objetivos vinculados a un Proyecto de Desarrollo Tecnológico y Social que se encuentra actualmente en desarrollo por nuestro equipo de trabajo. La investigación y la transformación del conocimiento producido se integra desde la retroalimentación resultante en cada etapa del desarrollo. La aplicación desarrollada será utilizada en el contexto del edificio caso de estudio, y está destinada a alumnos de nivel primario para su educación en concientización sobre la realidad sísmica en la que viven a diario.

Dentro de la metodología se establecieron las siguientes instancias: diseñar, crear, programar y verificar

Diseñar: Antes de desarrollar y programar la aplicación, se bocetaron un conjunto de gráficas que se adecuaran a las interfaces que se buscaban obtener para los diferentes estados de la misma. Para crear dichas interfaces, que representen los estados de la aplicación se tuvieron en cuenta factores de personalidad, audiencia, medio, objetivo y originalidad (Baron et al., 2006). Luego, se realizaron los primeros bocetos de las interfaces, dibujos que muestran las primeras ideas de lo que será la aplicación final. A partir de esto, se le fueron añadiendo más características y elementos hasta llegar a la aplicación final.

Crear: Previo a la programación de la aplicación, se crearon las interfaces de la aplicación con las herramientas del “User Interface” de Unity, y los modelos 3D de los íconos que se incorporan a la misma, previamente modelados en Blender.

Blender es un Software libre, donde lo que se crea en este programa es propiedad del usuario; al igual que las ilustraciones, imágenes o archivos de películas, incluidos los archivos (Blend) y otros archivos de datos que Blender puede utilizar. Esto significa que, este programa puede ser utilizado por cualquier persona o entidad que cuente con los conocimientos. Lo mismo sucede con Unity. Al ser un Software libre permite desarrollar videojuegos o aplicaciones donde el creador tiene permitido utilizar los productos realizados allí, teniendo en nuestro caso fines académicos. El propietario de los derechos sobre el software libre garantiza a los usuarios, mediante una licencia, una serie de libertades que no otorga el propietario del software privativo, que se reserva numerosos derechos en base a la legislación sobre propiedad intelectual (Adell & Bernabé, 2007). Es por esto que se seleccionan dichos Softwares para la realización del trabajo.

Programar: Una vez creadas las interfaces, es decir, las diferentes pantallas con las que el usuario se encontrará, los botones que tendrán cada una y la posición de los mismos, se incorporaron al programa “Scripts” que controlan las funciones de la aplicación. Un Script es un término informal que se usa para designar un lenguaje de programación que sirve para manipular, personalizar y automatizar los eventos de un sistema existente. Es decir, con ellos se pueden programar y asignar funciones a cada botón, para que realicen las actividades necesarias para el correcto funcionamiento de la aplicación.

Verificar: La verificación del correcto funcionamiento de la aplicación fue transversal a todo el proceso de creación de la misma, procurando que a cada paso clave del proceso, lo realizado hasta el momento funcionara. Al concluir, se realizó una verificación final de la aplicación en la que se comprobó que todas las acciones funcionaran correctamente y de forma armónica.

Edificio caso de estudio: Complejo Deportivo y Cultural “La Superiora”, Departamento Rawson, Provincia de San Juan, Argentina.

Desarrollo

La RA comprende aquella tecnología capaz de complementar la percepción con el mundo real, brinda al usuario un escenario real, aumentado con información adicional generada por computadora (Orozco et al., 2006). Se trata de una aplicación que proyecta modelos 3D de las iconografías diseñadas para indicar riesgos sísmicos de forma digital en un espacio real previamente escaneado, los cuales pueden moverse, rotarse, escalarse y fijarse en la posición deseada en el espacio. También permite tomar fotografías de la escena conformada entre el espacio real y los íconos colocados con la aplicación.

Etapa I: Desarrollo de la Aplicación

Al iniciar la aplicación, activando los permisos de uso de la cámara, se escanea el espacio arquitectónico a través de un sistema de nube de puntos que reconoce puntos significativos del espacio en el que se encuentra el usuario. Y, a través de una interfaz simple, se despliega un menú donde se encuentran los modelos 3D disponibles en la base de datos de la aplicación.

Una vez seleccionado el modelo del ícono elegido se puede colocar en el espacio, rotar y posicionar. Así, habiendo fijado el modelo, el mismo queda en la posición en la que se colocó y el usuario puede continuar recorriendo el espacio y colocando nuevos íconos, y siempre que la cámara apunte a donde se colocaron los íconos anteriores se podrán ver en la misma posición. Es decir, se pueden colocar múltiples íconos en la realidad aumentada y los mismos quedarán fijos durante toda la sesión. Una vez que la aplicación se cierra, los íconos previamente fijados desaparecen.

Ya con los íconos colocados, se puede tomar fotografías de los mismos y la aplicación automáticamente despliega las opciones para compartir la fotografía en redes sociales como WhatsApp, Instagram, etc.

El desarrollo de la Aplicación se realizó en 7 etapas:

  1. Diseño de la Aplicación
  2. Diseño de la Interfaz
  3. Detección de nube de puntos
  4. Integración de modelos 3D a la Aplicación.
  5. Función “Posicionar modelos”.
  6. Funciones “Rotar y seleccionar modelos”.
  7. Función “Tomar foto de la Realidad Aumentada”

Cada uno de los momentos se desarrollaron en el programa para diseño de juegos de video Unity, complementando con Visual Studio, que permite escribir los Scripts e incorporarlos a Unity. Un Script es un término informal que se usa para designar un lenguaje de programación que se utiliza para manipular, personalizar y automatizar los eventos de un sistema existente. Esta estructura es recomendada para aplicaciones pequeñas de uso especifico.

1.Diseño de la Aplicación

Para la aplicación el diseño de la arquitectura de la misma estará basada en un patrón de eventos. A cada evento está suscrito un Script o partes de uno. Un Script es un término informal que se usa para designar un lenguaje de programación que se utiliza para manipular, personalizar y automatizar los eventos de un sistema existente. Esta estructura es recomendada para aplicaciones pequeñas de uso especifico.

La aplicación tiene 3 estados:

De esta Forma, tenemos tres eventos, uno para cada estado de la aplicación, llamados “OnMainMenu”; “OnItemsMenu”; y “OnARPosition”. Todos estos eventos son parte de un Script llamado “GameManager”. Así, a través del GameManager diferentes scripts que controlan ciertas funciones de la aplicación están suscritos a los tres eventos principales.

Para el desarrollo de la Aplicación se utilizó Unity 2020.3.19. Además, se configuró el programa para que, una vez terminado el proceso de desarrollo, la aplicación sea compatible con el sistema operativo Android, debido a que se trata del sistema operativo más usado actualmente en la provincia.

En primera instancia se programa el script al que estará suscrito el Game Manager, configurando los eventos principales de la aplicación que conforman la arquitectura de la aplicación.

2.Diseño de la Interfaz

Con el Game Manager establecido se puede comenzar a diseñar la interfaz de la aplicación. Para ello previamente se diseñaron los íconos que se utilizarían para cada uno de los botones de la aplicación en Photoshop. Las imágenes en PNG se importan a Unity para incorporaros.

Fig. 1: Íconos gráficos diseñados para cada uno de los botones que contendrá la Aplicación. Fuente: Elaboración propia.

La interfaz se crea para los tres estados de la aplicación, es decir, una interfaz para el menú principal, otra para el menú de ítems y otra para colocar los modelos 3D en el espacio. La misma se crea en un formato para pantalla de teléfono móvil en resolución 1080x1920 en “Portrait”. El objetivo es crear el “lienzo” que el usuario de la aplicación verá en la pantalla, la posición y el tamaño de los botones, utilizando las herramientas de “User Interface” (interfaz de usuario).

La interfaz del menú principal contará con tres botones: Un botón principal “abrir menú de ítems” ubicado en la parte inferior centro del lienzo, que será el botón que al interactuar despliegue el menú de íconos. Un botón de cierre de la aplicación en la parte inferior izquierda, y un botón para tomar captura de pantalla y compartir en la parte inferior derecha de la interfaz. Los dos botones secundarios tendrán un tamaño inferior al botón principal.

Fig. 2: Interfaz del Menú Principal de la aplicación en funcionamiento. Fuente: Elaboración propia.

En esta interfaz, que se activa luego de tocar el botón principal de la anterior, cuenta con dos partes. Un botón en la misma posición que el botón principal de la interfaz anterior, que gráficamente indica que el menú de ítems está desplegado, y un “Scroll View” o vista de desplazamiento. Este permite almacenar contenido que se sale de la pantalla y acceder a él desplazando horizontalmente sobre el mismo. El Scroll View se colocó en la parte superior del botón de ítems desplegados.

En el contenido del Scroll View, se crearon botones que quedan almacenados allí, cada uno de los botones contiene un modelo 3D del ícono al que representan, vinculados al mismo. De esta forma la aplicación queda parametrada, de modo que se pueden seguir agregando botones con íconos y automáticamente se organizarán en la vista de desplazamiento.

Fig. 3: Interfaz del Menú de Íconos de la aplicación en funcionamiento. Fuente: Elaboración propia.

Este estado de la aplicación sólo tendrá dos botones. Un modelo de “delete”, que permitirá eliminar un ícono que se haya colocado y se quiera eliminar, y un botón de “Fijar Ícono” que permite fijar el modelo en la posición elegida por el usuario para que el mismo quede en posición. A cada uno de los botones mencionados se le asignó una instrucción que permita activar la función para la que fueron pensados.

Fig. 4: Interfaz del Menú de Posicionamiento en Realidad Aumentada de la aplicación en funcionamiento. Fuente: Elaboración propia.

Así, al botón principal de la interfaz del Menú Principal, se le asignó la función “itemsMenu”, de modo que al hacer click, se despliegue el Menú de Íconos. Al botón de Cerrar se le asignó dicha función.

En la interfaz de Menú de Íconos, al botón principal se le asignó la función “mainMenu”, de modo que al interactuar con él se devuelva al menú principal. Y a cada botón dentro de la Scroll View se le asignó la función “ARPosition”, que activa el evento de posicionamiento en realidad aumentaasgnoda y selecciona el modelo 3D correspondiente al botón seleccionado.

Una vez en la interfaz de Posicionamiento en Realidad Aumentada, al botón “Delete” se le asignó la función “eliminar modelo”, y al botón “Check” se le asignó la función “fijar modelo” y “mainMenu”, de modo que cuando el modelo 3D se fija en realidad aumentada, se vuelva a empezar desde el menú principal para seguir interactuando. Para controlar cada uno de los estados y las funciones asignadas se creó un Script llamado “UIManager”, que contiene cada una de las instrucciones y funciones previamente mencionadas, desarrollado en Visual Studio y agregado al Game Manager. A este script se referenciaron los campos de los tres eventos principales de la aplicación. De esta manera quedaron asignadas las funciones de los botones y programado su funcionamiento. Durante todo el proceso, se utilizó la función de simular aplicación de Unity para corroborar que los botones cumplan las funciones que se les asignaron de manera correcta.

3.Detección de espacio con Nube de Puntos

Para que la aplicación sea capaz de detectar las características del espacio, en primer lugar, se incorporó a la aplicación una cámara, que permita utilizar la cámara del dispositivo móvil para visualizar el espacio. Para ello se agregó a la aplicación en Unity un elemento “AR Session Origin”, que contiene una cámara para aplicaciones en realidad aumentada.

Para lograr la detección de las características notables del espacio en el que se encuentre el usuario se optó por construir un sistema de partículas para el renderizado de un sistema de nube de puntos. Para ello se agregó al desarrollo un componente llamado “AR Point Cloud Manager”, componente propio de Unity, al que se le asignó un “Prefab”, que es un elemento que contiene la información de la gráfica que utilizarán las partículas y la configuración del sistema de partículas. Gracias al prefab construido donde esté contenido el sistema de partículas se puede ver la nube de puntos. Los puntos de la nube de puntos suelen ser características notables del entorno que el dispositivo reconoce, como elementos característicos, muros y pisos.

Fig. 5: Detección de la Nube de Puntos en la aplicación en funcionamiento. Fuente: Elaboración propia.

En este punto se construyó la aplicación por primera vez, para dispositivos con SO Android, para probar en el gabinete el funcionamiento de la misma hasta el momento. La misma se exporta en formato “.apk”, que luego se instala en el dispositivo.

4.Integración de modelos 3D a la Aplicación.

Para la integración de los modelos 3D de la iconografía a la aplicación se utilizaron “Scriptable Objects”, que es una herramienta de Unity al momento de guardar y organizar información en Unity. Los Scriptable Objects son básicamente contenedores de datos. Se creó una plantilla de Ítem donde se contiene la información del objeto como Nombre, Imagen, descripción y Modelo 3D. Anteriormente en la interfaz de Menú de ítems, dentro del Scroll View se crearon botones que representarían los íconos. Para asignarle a cada botón la información de a qué ícono corresponde, la imagen que lo representa, una pequeña descripción del mismo y el modelo 3D que debe aparecer en realidad aumentada al seleccionarlo se utilizan la plantilla antes mencionada.

Para crear la plantilla, se creó un nuevo Script que contiene la información necesaria para el funcionamiento de los Scriptable Objects. La información que se asignó a cada ítem es:

Para la iconografía que se incorporaron a la aplicación los modelos 3D tomados del trabajo del equipo de investigación del Gabinete de Riesgo Sísmico edilicio No Estructural “La iconografía como herramienta en tecnologías de realidad aumentada para visualizar el riesgo sísmico edilicio. Caso FAUD” (Guillén & Heredia 2021).

Fig. 6: Íconos preliminares. Fuente: “La iconografía como herramienta en tecnologías de realidad aumentada para visualizar el riesgo sísmico edilicio. Caso FAUD” (Guillén & Heredia 2021)

La dificultad encontrada con dichos íconos fue que, a la hora de incorporarlos a una aplicación que funciona en una pantalla de dimensiones reducidas, los detalles no se verían de forma clara, por lo que sería necesario una simplificación de los mismos.

Para esto se tomaron también los íconos desarrollados en el trabajo de investigación “Tecnologías inmersivas para la evaluación y análisis del riesgo sísmico edilicio en establecimientos educativos” (Heredia et al., 2022). En este trabajo se realizó una contrapropuesta al trabajo anteriormente mencionado, donde los íconos fueron rediseñados y simplificados, en bajo y contrarelieve.

Sin embargo, debido a la necesidad de incorporar los íconos a una pantalla de dispositivo móvil se trabajó en adaptar la iconografía tomada de los trabajos mencionados, simplificando y adaptando los íconos para lograr una mejor comprensión de los mismos, pensando en un usuario de nivel primario de educación. Para esto, la propuesta del presente trabajo fue la de trabajar con estrategias de llenos y vacíos, de modo que los personajes del ícono son los vacíos dentro del marco del ícono.

Fig. 7: Íconos tomados. Fuente: “Tecnologías Inmersivas para la Evaluación y Análisis del Riesgo Sísmico edilicio en establecimientos educativos” (Heredia et al., 2022)

Fig. 8: Modelos de íconos utilizando estrategia de llenos y vacíos en impresión 3D. Fuente: Elaboración propia.

5.Función “Posicionar Modelos”

En esta instancia, una vez incorporados los modelos 3D de los íconos a la aplicación, se crearon los Scripts que se asignarán para controlar las interacciones con los mismos, que permitirán controlar los movimientos que el usuario pueda realizar con ellos, al moverlos, rotarlos y escalarlos. Para lograr estas interacciones, se utiliza un recurso que facilita la programación, que será un “Pointer”. El funcionamiento del pointer consiste en un elemento, que se programa al cual se le asignan las funciones que el usuario podrá realizar. De esta forma, se programa una sola vez y luego cada modelo 3D que se incorpore a la aplicación se “suscribe” al pointer. Es decir, se en lace al pointer de modo que cada movimiento, rotación o cambio de escala que se realice con el Pointer se estará realizando

6.Funciones “Rotar y seleccionar modelos”.

En base a la función Posicionar Modelos, la lógica de funcionamiento es muy similar a la función posicionar modelos. Sólo se diferencian en los Script que controlan la interacción.

7.Función “Tomar foto de la Realidad Aumentada”

Para incorporar esta función se tomó un Script modelo descargado de GitHub que ya tiene la función incorporada, y estaba “pre hecha” para ser agregada a la aplicación, personalizando solo el mensaje que aparece al compartir.

Etapa II: Verificación de Funcionamiento

En esta Etapa se realizaron pruebas de funcionamiento en diferentes entornos, con el objetivo de verificar que cada función e interacción de la aplicación trabaje correctamente.

Fig. 9: Pruebas en laboratorio y campo del funcionamiento de la Aplicación. Fuente: Elaboración propia.

Fig. 10: Prueba Función “compartir captura” con mensaje predeterminado en redes sociales. Fuente: Elaboración propia.

Fig. 11: Prueba interfaz “Menú de Íconos” de la Aplicación en funcionamiento. Fuente: Elaboración propia.

Conclusiones

La utilización del software libre Unity para la construcción de la aplicación permitió desarrollar la misma de forma segura y nos brindó todas las herramientas necesarias para este fin. La aplicación se construyó con éxito, se pudieron incorporar las funciones deseadas habiendo pasado verificaciones en diferentes dispositivos y entornos.

La incorporación de Tecnologías Digitales para fines educativos presenta múltiples beneficios en la aprehensión de la temática por su carácter dinámico, que involucra al usuario ya que le permite colocar los íconos por sí mismo, haciendo que previamente sea necesario entender el significado de cada uno y el riesgo que implica. En el contexto de la sociedad digital el uso de aplicaciones incentiva y colabora con un mejor aprendizaje de la temática relacionada al Riesgo Sísmico.

La etapa exploratoria y propositiva desarrollada en la primera Etapa del trabajo, implicó abordar la complejidad de las tecnologías de visualización en realidad aumentada (RA). En particular, para concretar la aplicación de RA, fue necesario indagar sobre lenguajes de programación para dicha tecnología. Este proceso represento dificultades como aprender a utilizar dichos lenguajes a partir de tutoriales y manuales. Además, durante el proceso de desarrollo se presentaron dificultades debido a errores de compatibilidades de ciertos Plugins necesarios para el funcionamiento de la aplicación.

Por lo tanto, el trabajo es una investigación aplicada que puede implementarse en edificios de uso público en ejercicios de concientización sobre los riesgos sísmicos edilicios no estructurales, en beneficio de la sociedad y los entes gubernamentales que administran tales edificios.

1-Codigo de Edificación de San Juan, Folleto I; página 37, punto 2.4.1.0,

2-Reglamento INPRES-CIRSOC 103 Parte I, Página 17 punto 2.4. (Instituto Nacional de Prevención Sísmica)

Referencias

Adell, J., & Bernabé, Y. (2007). Software libre en educación. Tecnología educativa. Madrid: McGraw-Hill, 173-195.

Baron, H. S., Patmore, C., & Li, C. H. (2006). Complete Guide to Anime Techniques: Create Mesmerizing Manga-style Animation with Pencils, Paint, and Pixels. Barron’s Educational Series Inc.

Barroso Osuna, J. M., Cabero Almenara, J., García Jiménez, F., Calle Cardoso, F. M., Gallego Pérez, Ó., & Casado Parada, I. (٢٠١٧). Diseño, producción, evaluación y utilización educativa de la realidad aumentada.

Basogain, X., Olabe, M., Espinosa, K., Rouèche, C., & Olabe, J. C. (٢٠٠٧). Realidad Aumentada en la Educación: una tecnología emergente. Escuela Superior de Ingeniería de Bilbao, EHU. Recuperado de http://bit. ly/٢hpZokY.

Bello, Bustamante, Pizarro. (٢٠٢٠). Planificación para la reducción del riesgo de desastres en el marco de la Agenda ٢٠٣٠ para el Desarrollo Sostenible. https://bibliotecadigital.ciren.cl/items/ff٠٥c١c٧-e١٠٠-٤٧٧f-٩١٩f-f٩٠٣afc١٥٧٨e

Cabero Almenara, J., & Barroso Osuna, J. M. (٢٠١٨). Los escenarios tecnológicos en Realidad Aumentada (RA): posibilidades educativas en estudios universitarios. https://idus.us.es/handle/١١٤٤١/٨٥٤١٦

CEPAL. (٢٠١٨). Guía de ejercicios para la evaluación de desastres. Documentos de Proyectos. Santiago, Chile. https://www.cepal.org/es/publicaciones/٤٤١٤٦-guia-ejercicios-laevaluacion-desastres

Código de Edificación de San Juan, en el Folleto I: Prescripciones Generales. Dirección de Planeamiento y Desarrollo Urbano. https://contenido.sanjuan.gob.ar/index.php?option=com_k٢&view=item&id=٤٨٠٠:codigo-de-edificacion-dpdu&Itemid=٢٩٢

De la Horra Villacé, I. (٢٠١٧). Realidad aumentada, una revolución educativa. Edmetic, ٦(١), ٩-٢٢.

del Cerro Velázquez, F., & Méndez, G. M. (٢٠١٧). Realidad Aumentada como herramienta de mejora de la inteligencia espacial en estudiantes de educación secundaria. Revista de Educación a Distancia (RED), (٥٤). https://revistas.um.es/red/article/view/٢٩٨٨٣١

EN-1998-1. (2004). Eurocode 8. Design of structures for earthquake resistance -Part I. General rules, seismic actions and rules for buildings. British Standards Institution.

Guillén, S. N. & Heredia, S. F. (2021). La iconografía como herramienta en tecnologías de realidad aumentada para visualizar el riesgo sísmico edilicio. Caso FAUD. 1° Jornada interna de Investigación y Extensión. FAUD. UNSJ. ISBN 978-987-8395-45-6. https://faud.unsj.edu.ar/descargas/publicaciones/JIE_Pub.pdf

Heredia, S. F., Reiloba, S. E., & Rodríguez, S. N. G. (2022). La iconografía como herramienta en tecnologías de realidad aumentada para la visualización del riesgo sísmico edilicio. Tecnología y Ciencia, (45), 1-13. http://www.scielo.org.ar/pdf/reteci/n45/1666-6933-reteci-45-1.pdf

Hou, H. T., Fang, Y. S., & Tang, J. T. (2023). Designing an alternate reality board game with augmented reality and multi-dimensional scaffolding for promoting spatial and logical ability. Interactive Learning Environments, 31(7), 4346-4366.

INPRES. (2022). Reglamentos. Zonificación Sísmica. http://contenidos.inpres.gob.ar/acelerografos/Reglamentos#Zonificaci%C3%B3n%20S%C3%ADsmica

Jorquera, N. (2014). Método integral de evaluación del riesgo sísmico del patrimonio arquitectónico menor. Apuntes, 27(1), 52-63. http://dx.doi.org/10.11144/Javeriana.APC26-2.mies

Marín-Díaz, V., Requena, B. E. S., & Gea, E. V. (2022). La realidad virtual y aumentada en el aula de secundaria. Campus Virtuales, 11(1), 225-236.

Moreno Martínez, N. M., & Galván Malagón, M. C. (2020). Realidad aumentada y realidad virtual para la creación de escenarios de aprendizaje de la lengua inglesa desde un enfoque comunicativo. Didáctica, innovación y multimedia, (38).

Orozco, C., Esteban, P. y Trefftz, H. (2006). Collaborative and distributed augmented reality in teaching multi-variate calculus. WBE’06 Proceedings of the 5th IASTED international conference on Webbased education, ACTA Press Anaheim, CA, USA.

Ortiz, G. (2021) La investigación después del temblor. Facultad de Ciencias Exactas, Universidad Nacional de San Juan. https://www.conicet.gov.ar/la-investigacion-despues-del-temblor/

Reglamento INPRES – CIRSOC 103. Reglamento Argentino para Construcciones Sismorresistentes. Instituto Nacional de Prevención Sísmica. Centro de Investigación de los Reglamentos Nacionales de Seguridad de Obras Civiles. http://contenidos.inpres.gob.ar/docs/INPRES-CIRSOC-103_Parte_I-Reglamento.pdf

UNDRR. (2022). Comprender el riesgo. Naciones Unidas para la reducción de riesgo de desastres. https://www.undrr.org/building-risk-knowledge/understanding-risk

UNESCO. (1980). Terremotos: evaluación y mitigación de su peligrosidad. Editorial Blume, 1°ed.

Contribución de los Autores

Nombres y Apellidos del autor

Colaboración Académica

1

2

3

4

5

6

7

8

9

10

11

12

13

14

Sergio Fabián Heredia

x

x

x

x

x

x

x

Benjamín Jesús Gaia Amorós

x

x

x

x

x

x

x

x

x

1-Administración del proyecto, 2-Adquisición de fondos, 3-Análisis formal, 4-Conceptualización, 5-Curaduría de datos, 6-Escritura - revisión y edición, 7-Investigación, 8-Metodología, 9-Recursos, 10-Redacción - borrador original, 11-Software, 12-Supervisión, 13-Validación, 14-Visualización.