Aplicación Android para el reconocimiento de medicamentos mediante QR, texto a voz e inteligencia artificial
Android application for medicines recognition using QR, text-to-speech and artificial intelligence
Issis Pitti1 , Roberto Aguilar1 , Juan Jose Saldana-Barrios1 , Yuraisma Moreno2*
1Universidad Tecnológica de Panamá, Facultad de Ingeniería de Sistemas Computacionales, Panamá
2Universidad Tecnológica de Panamá, Centro Regional de Chiriquí, Grupo de investigación en ingeniería de software aplicada, Panamá
*Autor de correspondencia: [email protected]
DOI: https://doi.org/10.33412/rev-ric.v10.2.4021
Resumen. Este artículo tiene como objetivo desarrollar una aplicación Android para el reconocimiento de medicamentos mediante códigos QR, texto a voz e inteligencia artificial con el interés de apoyar a las personas con problemas de baja visión que con frecuencia pueden enfrentar dificultades para identificar correctamente los medicamentos. Para este tipo de usuarios, esto puede representar un desafío importante y la confusión en el tratamiento recetado puede ocasionarles graves consecuencias para su salud. La aplicación propuesta permite la generación de código QR para impresión y adhesión al empaque de cada medicamento. Cuando se activa la cámara del dispositivo móvil, el medicamento se puede escanear fácilmente, luego el código QR puede ser capturado y se implementa una función integrada para traducir texto en voz alta, indicando al usuario el nombre del medicamento. Utilizando el lenguaje de programación Python, también se creó una interfaz de programación de aplicaciones personalizada mediante inteligencia artificial, usando el modelo GPT-3.5 brindando al usuario una alternativa adicional para obtener indicaciones sobre los medicamentos escaneados. Además, se aplicó el lenguaje de programación Kotlin y la metodología de diseño centrado en el usuario. En la etapa de pruebas se empleó el método de validación de tiempos de respuesta de escaneo, audio y texto, de forma manual y pruebas de usabilidad con usuarios. A partir de este estudio se logró desarrollar un prototipo funcional de alta fidelidad, que integró las funcionalidades principales exitosamente, brindando una alternativa tecnológica a personas con problemas visuales, contribuyendo al cuidado y bienestar de su salud, de forma más segura.
Palabras clave. Diseño centrado en el usuario, escáner, medicamentos, QR, texto a voz, visión.
Abstract. This article aims to develop an Android application for medication recognition using QR codes, text to speech and artificial intelligence to support people with low vision problems who often face difficulties in correctly identifying medicines. For these types of users, this can represent a significant challenge and confusion in the prescribed treatment can cause serious consequences for their health. The proposed application allows the generation of QR code for printing and adhesion to the packaging of each medicine. When the mobile device's camera is activated, the medication can be easily scanned, then the QR code can be captured and a built-in function is implemented to translate text aloud, telling the user the name of the medication. Using the Python programming language, a custom API was also created through AI, using the GPT-3.5 model, providing the user with an additional alternative to obtain indications about the scanned medications. In addition, the Kotlin programming language and the User-Centered Design methodology were applied. In the testing stage, the method of validating scan, audio and text response times was used manually and usability tests with users. From this study, it was possible to develop a high-fidelity(hi-fi) functional prototype, which successfully integrated the main functionalities, providing a technological alternative to people with visual problems, contributing to the care and well-being of their health, in a safer way.
Keywords. User-centered design, scanner, medicines, QR, text to speech, vision.
1. Introducción
En el mundo existen 1100 millones de personas con pérdida de visión que afecta de forma diferente a los grupos de población, sin embargo, esta dolencia es mucho mayor en las personas de edad más avanzada, 73% tiene más de 50 años y en las mujeres, concretamente, el 55% de las personas con pérdida de visión son mujeres y niñas. Aproximadamente 510 millones de personas tienen problemas para ver de cerca, según informe de la comisión de salud global de la revista científica The Lancet sobre salud ocular global [1]. El reconocimiento y la identificación precisa de los medicamentos son aspectos fundamentales para garantizar una correcta administración de los tratamientos médicos. La confusión entre pastillas, píldoras o medicamentos con nombres o presentaciones similares puede tener graves consecuencias para la salud. Sin embargo, las personas con baja visión enfrentan desafíos significativos al intentar leerlos o reconocerlos.
La baja visión [2] es un problema de visión que dificulta llevar a cabo las actividades cotidianas. No es posible solucionarlo con gafas, lentes de contacto ni métodos estándares como fármacos, remedios o cirugías.
Para ayudar a solventar la problemática descrita se propone este proyecto, el cual apoya el logro del tercer Objetivo de Desarrollo Sostenible (ODS) [3], salud y bienestar. Es por ello, que se propone diseñar y desarrollar una aplicación que contribuya al cuidado y bienestar de la salud, enfocada en la accesibilidad y la usabilidad de la audiencia meta: adultos mayores, personas con problemas de baja visión y familiares que les asisten en casa en el cuidado de su salud.
Mediante esta aplicación se brinda una ayuda para reconocer los medicamentos que requieren tomar y una de sus características principales es la generación de código QR (quick response) [4] para impresión y adhesión al empaque de cada medicamento. Activando la cámara del dispositivo móvil, este se puede escanear fácilmente y una vez que el código QR es capturado, la aplicación utiliza una función integrada para traducir texto en voz (Text to Speech) [5] alta, indicando al usuario el nombre del medicamento, superando así la barrera visual.
Medi Scanner [6] es una solución alternativa existente, que permite escanear los medicamentos y obtener información sobre ellos mediante el uso de la tecnología OCR (reconocimiento óptico de caracteres) [7]. Esta tecnología reconoce los caracteres impresos en las imágenes y los convierte en texto digital, sin embargo, la calidad de las imágenes es un factor clave para obtener resultados precisos y fiables.
2. Materiales y métodos
En esta sección se listan las tecnologías aplicadas y se describen las metodologías empleadas en el desarrollo de esta investigación.
2.1 Tecnologías implementadas
Entre las tecnologías implementadas se pueden mencionar:
• Android studio: es un entorno de desarrollo integrado (IDE) para diseñar, desarrollar y depurar aplicaciones Android [8]. Se utilizó para editar el código de la app.
• Kotlin: es un moderno lenguaje de programación de alto nivel que se ejecuta en la máquina virtual de Java (JVM) [9]. Es compatible con el desarrollo de aplicaciones Android y fue empleado como lenguaje principal de desarrollo de la app.
• Text to speech (TTS): esta tecnología permite que las aplicaciones y dispositivos puedan leer en voz alta el contenido textual [5], brindando una experiencia más accesible y conveniente para los usuarios. Esta tecnología retorna el audio con la información del medicamento.
• Código QR: es un tipo de código de barras bidimensional que almacena información en forma de patrones de puntos y líneas [4]. Se encarga de contener la información de los medicamentos.
• ZXing (zebra crossing): es una biblioteca de código abierto que permite la lectura y generación de códigos de barras, incluyendo códigos QR [10]. Genera los códigos QR.
• BudiYev: es una librería de escáner de códigos QR para Android basado en la librería ZXing, esta librería cuenta con características como enfoque automático. Tiene la tarea de ejecutar la cámara para escaneo y a la vez integra el autoenfoque.
• Laptop Lenovo Thinkpad P50: es un dispositivo portátil diseñado para ofrecer un rendimiento de alto nivel y capacidad de procesamiento, utilizado para el desarrollo del código.
• Dispositivo móvil con cámara móvil: se utilizó un dispositivo móvil smartphone estándar de gama baja y uno de gama media con sistema operativo Android y cámara digital incorporada en ambos.
• Python: es un lenguaje de programación de alto nivel, gratuito y de código abierto [11], ampliamente utilizado en el desarrollo de software, la ciencia de datos, el machine learning (ML), entro otros.
• OpenAI: ofrece modelos avanzados de inteligencia artificial, entre ellos el modelo GPT-3.5 [12] utilizado para la creación de la API.
• Amazon Web Services (AWS) Lambda: es un servicio de computación sin servidor de AWS, basado en eventos [13]. Se utilizó para alojar la API como microservicio y ejecutar el código en la nube.
2.2 Metodología DCU
La metodología de diseño centrado en el usuario (DCU) [14] es un enfoque utilizado en el campo del diseño y desarrollo de productos, servicios y sistemas que se centra en las necesidades, deseos y características de los usuarios finales. Se basa en la premisa de que los productos y servicios diseñados pensando en las necesidades de los usuarios son más efectivos, utilizables y satisfactorios y define seis etapas a seguir: planificación estratégica, diseño de las experiencias de usuario, definición de la arquitectura de información, diseño de la interfaz de usuario, desarrollo y producción y finalmente pruebas.
En la etapa 1, planificación estratégica, se definieron los principales objetivos de la solución propuesta, las funcionalidades, características que permitieron diferenciar el producto y dirigirlo de forma asertiva a su audiencia meta. Además, integrar de manera eficiente las funcionalidades de escaneo QR, TTS e IA, asegurando una correcta comunicación entre los módulos de la aplicación y finalmente evaluar la eficacia del prototipo.
En la etapa 2, diseño de experiencia de usuario, se recolectaron datos mediante una encuesta. A continuación, se puede observar la guía de preguntas, la misma fue digitalizada y aplicada mediante Google Forms a usuarios potenciales de la app.
• ¿Tiene usted algún familiar o conocido con problemas de baja visión?
• ¿Tiene usted alguna dificultad para reconocer los medicamentos debido a baja visión?
• ¿Te resulta confuso identificar pastillas o medicamentos con nombres similares?
• ¿Crees que una aplicación móvil que ayude a reconocer los medicamentos sería útil para ti?
• ¿Consideras de la función text-to-speech sería útil para escuchar el nombre del medicamento en lugar de leerlo?
• ¿Te gustaría recibir recordatorios personalizados para tomar los medicamentos en el momento adecuado?
En esta fase, también se aplicó la técnica de perfiles de usuarios. Desde el punto de vista del diseño de interacción, la audiencia meta comprende el grupo de usuarios para los que se diseña un producto. Para identificarlos, es conveniente tomar en cuenta aspectos técnicos, sociales, organizacionales y humanos y determinar las necesidades (tipo de información, transacciones, dispositivos o tecnologías), preferencias y posibles limitaciones. Como se muestra en la tabla 1 la audiencia principal son los adultos mayores con baja visión, en segunda instancia, los familiares del adulto mayor ya sean jóvenes o adultos sanos que asisten a los usuarios que sufren la dolencia. Ellos pudieran realizar el proceso de la generación del código QR para cada medicamento de forma más ágil, imprimirlo y adherirlo físicamente según corresponde. De igual forma, aplicar la activación de la IA para obtener de forma automatizada las indicaciones de los medicamentos escaneados. Otro tipo de audiencia son los jóvenes con baja visión.
Tabla 1. Audiencia meta del producto
Audiencia principal |
Audiencia Específica 1 |
Audiencia Específica 2 |
Adultos mayores |
Familiares de personas |
Jóvenes con baja visión. |
Edad 60 años en adelante. |
Edad 18 años en adelante. |
Edad 15 años a 30 años. |
En la figura 1 se muestra un perfil de usuario de un adulto mayor de 76 años con baja visión, y en ella se describe su nombre, su fotografía, necesidades, frustraciones y preferencias.
Figura 1. Perfil de usuario de la audiencia meta principal.
En la etapa 3 - arquitectura de información, se diseñó un diagrama de modelado BPMN (Businnes Process Model Notation) [15]. Como se muestra en la figura 2, las principales categorías de información que están disponibles para que el usuario pueda utilizarlas una vez ingresa a la app son escanear código QR de un medicamento, ingresar el nombre del medicamento, compartir el código QR e imprimirlo, verificar el historial de medicamentos y gestionar el perfil de usuario. De parte del sistema, la función principal es la generación del código QR, su captación, activación de la función TTS y la petición a la API en AWS como microservicio.
Figura 2. Diagrama BPMN de la app MediScan.
En la etapa 4 – diseño de interfaz de usuario, con base en los requerimientos definidos en las etapas 1, 2 y 3, se diseñó un mockup para una interfaz para dispositivos con pantalla táctil (touchscreen interface), utilizando el software Figma [16] en una vista para dispositivo Android. En la figura 3 se puede observar la vista de inicio y entrada a la app con su logo, a la que hemos denominado MediScan.
Figura 3. Vista de inicio, home, generador de QR y perfil de usuario.
Seguido está la opción del Home, a través de la cual se brinda un enfoque permanente mediante la cámara del dispositivo móvil, para el escaneo automático de medicamentos, su nombre y las indicaciones. Además se observa un cintillo en color rojo, como advertencia para el usuario, ya que en caso de activar la IA, se hace la observación de que las indicaciones mostradas son generales y que se debe consultar al médico para un tratamiento personalizado. Luego, se muestra la opción Generate, la cual permite la generación de los QR, con un campo de entrada para ingresar el nombre del medicamento, otro campo para las indicaciones de toma del medicamento y el botón de generar el código QR. En la cuarta opción, Profile, se puede administrar el perfil del usuario, insertando el nombre completo, el número de cédula, edad, seleccionar un idioma de preferencia entre los cuales están (inglés, español, francés, alemán e italiano) y activar o desactivar la sugerencia de la IA, mediante un botón switch.
En la figura 4, se muestra la función History o historial, a través de la cual se ofrece al usuario un listado con una reseña breve de todos los medicamentos escaneados y ordenados en orden descendente con su respectiva fecha de escaneo. Seguido, se observan las facilidades de edición que se proporcionan en la funcionalidad del perfil de usuario.
Figura 4. Vista de historial, selección de idiomas y edición.
Con respecto al menú principal de información y navegación, el mismo fue diseñado con iconografía y colores cuidadosamente elegidos.
La aplicación también posee una interfaz basada en reconocimiento de voz (speech interface), ya que a través de una librería se convierte el texto en voz alta y una interfaz basada en comando e instrucciones.
El estilo de interacción es basado en comando e instrucciones, ya que es necesario llevar a cabo acciones repetidas en las que no se permite al usuario modificar ninguna instrucción, ni crear nuevas formas de acceder la información.
La etapa 5 corresponde al desarrollo y producción. En la figura 5 se describen los principales métodos programados durante la etapa de desarrollo del prototipo inicial, el primero, de inicialización y condicionamiento para disponer de un permiso que permita acceder a la cámara del dispositivo móvil. El segundo, de iniciación de los métodos de escaneo y conversión de texto a voz, el tercero para la generación del código QR y el cuarto para compartirlo o imprimirlo.
Figura 5. Métodos de escaneo, voz, generación de QR y compartir.
Utilizando el lenguaje de programación Python, se creó una API personalizada para obtener sugerencias basadas en IA sobre las indicaciones de los medicamentos escaneados (resaltando que para indicaciones personales acudir a su médico de cabecera).
Además, se empleó el patrón Model-View-ViewModel (MVVM) cuyo objetivo es separar la interfaz de usuario (View), de la lógica del negocio (Model) mediante el ViewModel facilitando el desarrollo, la mantenibilidad y la escalabilidad de la aplicación y también el patrón de arquitectura Clean Architecture cuya finalidad es estructurar el código aún en más capas que MVVM [17] de modo que sea testeable y proveer independencias de frameworks, interfaces de usuarios, base de datos, obteniendo como resultado una app modular.
En la etapa 6 – pruebas, se construyeron dos instrumentos, uno para evaluar la eficacia del prototipo mediante el método de validación manual de pruebas de escaneo de QR, audio y texto retornado, específicamente 20 lecturas para cada uno de los tres tipos de prueba, con cinco medicamentos. También se aplicó la técnica Think Aloud, o piensa en voz alta, una estrategia de evaluación de usabilidad que involucra a usuarios que por primera vez usan un producto, y uno de los autores coordinó la sesión. Se seleccionaron dos usuarios que cumplen con el perfil descrito en la tabla 1 de audiencia meta y se diseñó un instrumento con el siguiente formato:
• Por favor tome en su mano el dispositivo celular.
• Abra la app MediScan.
• Escanee el código QR del medicamento de su preferencia.
• Le gustaría compartirnos algún comentario sobre el producto.
3. Resultados y discusión
En esta sección se analizan los resultados obtenidos sobre la construcción del prototipo, los datos recolectados y las pruebas de evaluación. El prototipo permitió generar un código QR con información relevante sobre un medicamento para luego ser escaneado, obteniendo, así como resultado, el texto introducido en el código QR y posteriormente convirtiéndolo a voz automáticamente, como se observa en la figura 6.
Figura 6. Prototipo de alto nivel funcionando satisfactoriamente en un móvil Xiaomi Note 8.
En relación con los datos recolectados mediante la encuesta mencionada en la sección 2.2.2, de acuerdo con los resultados mostrados en la figura 7, se puede concluir que los once encuestados tienen por lo menos un familiar con problemas de visión, que nueve de once tienen problemas relacionados con la visión, a seis de once encuestados les resulta confuso reconocer medicamentos y todos concuerdan indicando que sería muy útil el desarrollo de esta aplicación. Con ello, se puede inferir que el producto tiene una audiencia meta alta y una aceptación buena.
Figura 7. Resultados de la encuesta aplicada a posibles usuarios.
3.1 Resultados de pruebas
En la figura 8 se observan los resultados del método de validación manual de las pruebas de escaneo de QR, audio y texto retornado, 20 veces en cinco medicamentos, midiendo la velocidad de reacción con que la app retorna el audio y texto y que tan rápido escanea el QR. En una escala de 1 al 10, siendo 1 muy malo, no funcionó o no retornó nada y 10 muy bueno. Se obtuvieron resultados a la hora de escanear entre 8 y 10, siendo casi inmediato el escaneo, el retorno de audio es muy breve, entre 9 y 10 siempre y el texto de 10, siendo instantáneo el retorno, obteniendo resultados generales en todas las pruebas relativamente buenos.
Figura 8. Validaciones de escaneo, audio y texto.
La API creada para este proyecto, desarrollada en Python e implementada con el framework FastAPI [18], cuenta con dos endpoints significativos. El primero, @app.get("/medicine/{language}/{medicine_name}"), recibe dos parámetros: un código de idioma ISO 639-1, que especifica el idioma seleccionado por el usuario para obtener las indicaciones mediante inteligencia artificial, y el nombre del medicamento escaneado. El segundo endpoint, @app.get("/service/"), está diseñado para ofrecer seguridad a los usuarios en caso de eventos imprevistos con la IA y permite activar o desactivar el servicio de indicaciones mediante inteligencia artificial, pero requiere un parámetro "secret", que es una secuencia alfanumérica, para cambiar el estado del servicio. Cuando se recibe una solicitud correctamente con uno de los lenguajes disponibles, la API devuelve una respuesta en formato JSON [19] que incluye el medicamento solicitado y las indicaciones. La prueba que se muestra en la figura 9, activando la IA resultó efectiva, se observan las indicaciones sugeridas del medicamento “Ibuprofeno” en color rojo, en la parte superior de la imagen.
Figura 9. API Creada con el Framework FastAPI de Python, en la parte superior una prueba de su funcionamiento.
Con respecto a los resultados de las pruebas de usabilidad con usuarios, en la figura 10.a se observa una evidencia de la prueba mediante la técnica Think Aloud en un adulto mayor con baja visión y en la figura 10.b se hizo la misma prueba con un joven de 23 años. En ambos casos, se ejecutó el escaneo correctamente, no se presenció dificultad alguna y el audio se puedo escuchar perfectamente obteniendo los resultados esperados. Sin embargo, se observó que, en el segundo caso, el proceso fue un poco más fluido, siendo un usuario más joven, familiarizado totalmente y dependiente de la tecnología. Algunos comentarios compartidos por los usuarios de pruebas fueron: “es muy exacto”, “responde muy rápido”, “esto sería de gran ayuda para mí”.
Figura 10. Pruebas de usabilidad con un adulto mayor y un joven con baja visión.
4. Conclusiones
De acuerdo a los resultados obtenidos se concluye que se cumplió con el objetivo principal propuesto, ya que el prototipo desarrollado es un prototipo de alta fidelidad, funcional aproximadamente en un 90%. Se logró integrar de forma exitosa las funcionalidades principales de escaneo de QR, generación de QR, texto a voz y el modelo de IA y en la segunda versión la implementación de los patrones de arquitectura MVVM y Clean Architecture que proporcionan a la aplicación una mayor escalabilidad.
La creación de esta herramienta es de gran importancia para avanzar en la agenda de los ODS, salud y bienestar. Sería un elemento de ayuda perfecta para los momentos en que el adulto mayor queda solo en casa.
De igual forma, se logró diseñar una interfaz de usuario guiada por los pasos establecidos en la metodología DCU y que cumple con los principios de usabilidad y accesibilidad.
Como ventajas, se pueden resaltar la precisión de la información obtenida al escanear los diversos medicamentos tomando en cuenta que otras soluciones que se lograron investigar utilizan la tecnología OCR tendiendo esta última a no dar información precisa, ya que depende mucho de la calidad de la imagen. En cuanto a las limitaciones, se identifica principalmente la disposición de la impresora para poder imprimir los códigos QR generados.
Entre los riesgos se encuentra la posibilidad de que el usuario coloque un código QR generado por la app a un medicamento equivocadamente o que la IA empezara a generar texto tendencioso o perjudicial.
Como trabajos a futuro se pueden agregar componentes de inteligencia artificial para especificar las contraindicaciones de los medicamentos y recordatorios a los usuarios.
Este proyecto podría tener un impacto significativo en el sector de salud, ya que puede usarse para identificar medicamentos y prevenir errores, lo que puede mejorar la seguridad del usuario o paciente. Por otra parte, se brinda a los familiares de los adultos mayores, una herramienta que les ayude a monitorear sus tratamientos, consultando el historial de medicamentos escaneados y estando alerta ante alguna confusión que provoque complicaciones y hospitalizaciones. Además, existen muy pocas aplicaciones enfocadas a retornar audio como resultado final, superando así la barrera visual.
AGRADECIMIENTOS
A los organizadores de la Jornada de Iniciación Científica, autoridades de la Universidad Tecnológica de Panamá, Centro Regional de Chiriquí y a los sujetos de prueba que colaboraron para hacer las pruebas de usabilidad del prototipo.
CONFLICTO DE INTERESES
Los autores declaran no tener algún conflicto de interés.
REFERENCIAS
[1] Fundación Ojos del Mundo, “Visión para todas las personas. Datos 2021 sobre salud ocular en el mundo”, 2021. Disponible: https://www.ullsdelmon.org/es/sabies-que/vision-para-todas-las-personas-datos-2021-sobre-salud-ocular-en-el-mundo/ (accessed May 21, 2023).
[2] Y. Z. Cañón Cárdenas, “La baja visión en Colombia y en el mundo,” Cienc. Tecnol. Para Salud Vis. Ocul., vol. 9, no. 1, pp. 117–123, 2011.
[3] A. R. Canelón Silva, A. Almansa Martínez, A. R. Canelón Silva, and A. Almansa Martínez, “Migración: retos y oportunidades desde la perspectiva de los Objetivos de Desarrollo Sostenible (ODS),” retos Rev. Cienc. Adm. Econ., vol. 8, no. 16, pp. 109–120, Mar. 2018, doi: 10.17163/ret.n16.2018.08.
[4] K. Vanessa and C. Quispe, “Desarrollo de aplicaciones móviles usando el lenguaje Kotlin,” Dialogos Abiertos , vol. 1, no. 1, pp. 22–33, Jun. 2022, doi: 10.32654/DIALOGOSABIERTOS.1-1.3.
[5] E. Georgievna Artemova, Y. S. Shishalova, S. Evgenievich Melnikov3, O. Evgenjevna Orekhova, and G. Nikiporets-Takigawa, “El uso de códigos QR y su eficacia en la aplicación de competencias profesionales,” Apuntes Universitarios, vol. 12, no. 1, pp. 419–435, Dec. 2022, doi: 10.17162/AU.V12I1.978.
[6] A. B. Cávez, “tecnologías del habla: conversión de texto a voz.” [Online]. Disponible: https://raco.cat/index.php/Buran/article/download/176896/240227
[7] F. J. Lopez-Pellicer, R. Béjar, M. A. Latre, J. Nogueras-Iso, and F. J. Zarazaga-Soria, “GitHub como herramienta docente,” presented at the Actas de las XXI Jornadas de la Enseñanza Universitaria de la Informática, Universitat Oberta La Salle, Jul. 2015, pp. 66–73. Accessed: Jun. 19, 2024. [Online]. Disponible: https://upcommons.upc.edu/handle/2117/76761.
[8] S. Socorro, B. Estrada, G. M. Romero, and P. A. Cedillo Pérez, “Los problemas de identificación de caracteres OCR para la recuperación de texto en el libro antiguo: un análisis de caso en el Fondo Antiguo de la Biblioteca Central, UNAM,” Biblioteca Universitaria, vol. 15, no. 1, pp. 25–34, Jun. 2012, doi: 10.22201/DGB.0187750XP.2012.1.39.
[9] A. D. Santos Galán, “‘Análisis comparativo de los ide’s de desarrollo xamarin visual studio vs android studio aplicado al sistema de notificación de actividades de la UNACH, 2017,’” bachelorThesis, Riobamba, Universidad Nacional de Chimborazo, 2018. Accessed: Jun. 19, 2024. [Online]. Disponible: http://dspace.unach.edu.ec/handle/51000/4688.
[10] S. Ch Filippo Bergamasco Graduand Daniele Barzazzi, “A quantitative evaluation of the QR code detection and decoding performance in the zxing library,” Mar. 2023, Accessed: Jun. 17, 2023. [Online]. Disponible: http://dspace.unive.it/handle/10579/23171
[11] A. Rawat, “A Review on Python Programming,” Int. J. Res. Eng. Sci. Manag., vol. 3, no. 12, Art. no. 12, Dec. 2020.
[12] M. Goyanes and C. Lopezosa, “ChatGPT en Ciencias Sociales: revisión de la literatura sobre el uso de inteligencia artificial (IA) de OpenAI en investigación cualitativa y cuantitativa,” Anu. ThinkEPI, vol. 18, Mar. 2024, doi: 10.3145/thinkepi.2024.e18a04.
[13] G. A. Alegría Zúñiga, “Análisis comparativo entre arquitecturas sin servidor y arquitecturas orientadas a servicios aplicado a computación en la nube provista por AWS,” 2017, Accessed: Jun. 19, 2024. [Online]. Disponible: http://hdl.handle.net/1992/39477.
[14] R. Galeano, “Diseño centrado en el usuario,” User Centered Design, 2008, Accessed: Jun. 19, 2024. [Online]. Disponible: https://repository.upb.edu.co/handle/20.500.11912/6524.
[15] M.-A. Pastrana-Pardo, H.-A. Ordoñez-Erazo, and C.-A. Cobos-Lozada, “Modelo de procesos representado en BPMN para guiar la implememtacion de prácticas de desarrollo de software en empresas muy pequeñas armonizando DEVOPS y SCRUM,” Revista Facultad de Ingeniería, vol. 31, no. 62, p. e15207, Dec. 2022, doi: 10.19053/01211129.V31.N62.2022.15207.
[16] Z. E. Ferdi, F. Putra, H. Ajie, I. A. Safitri, and U. N. Jakarta, “Designing A User Interface and User Experience from Piring Makanku Application by Using Figma Application for Teens,” IJISTECH (International Journal of Information System and Technology), vol. 5, no. 3, pp. 308–315, Oct. 2021, doi: 10.30645/IJISTECH.V5I3.145.
[17] N. Akhtar and S. Ghafoor, “Analysis of Architectural Patterns for Android Development Human behaviors impact on personality View project Analysis of Architectural Patterns for Android Development,” 2021.
[18] G. A. Alegría Zúñiga, “Análisis comparativo entre arquitecturas sin servidor y arquitecturas orientadas a servicios aplicado a computación en la nube provista por AWS,” 2017, Accessed: Jun. 19, 2024. [Online]. Disponible: http://hdl.handle.net/1992/39477.
[19] B. Lin, Y. Chen, X. Chen, and Y. Yu, “Comparison between JSON and XML in Applications Based on AJAX,” in 2012 International Conference on Computer Science and Service System, Aug. 2012, pp. 1174–1177. doi: 10.1109/CSSS.2012.297.