Soporte para personas con movilidad reducida, basado en BCI
Iveth Moreno
Carlos Boya
José Rolando Serracín
Jacqueline Quintero
Grupo RoboProc
Centro Regional de Chiriquí
Universidad Tecnológica de Panamá
Chiriquí, Panamá
Javier Antelis
Sistema Nacional de Investigadores nivel 1
Campus Guadalajara
Tecnológico de Monterrey Guadalajara, México
Abstract— This document aims to present the methodology to be applied for the development of a domotic system prototype based on a brain computer interface (BCI), to support people with disabilities.
Keywords— BCI, domotic, disabilities.
Resumen— Este documento tiene como objetivo presentar la metodología que se aplicará para el desarrollo de un prototipo de sistema domótico basado en una interfaz cerebro máquina (BCI), para dar soporte a personas con movilidad reducida.
Palabras claves—BCI, domótico, discapacidades.
1. INTRODUCCIÓN
De acuerdo con el censo del 2010 [1], en la República de Panamá hay más de 30 mil personas con deficiencias físicas producto del envejecimiento, accidentes o enfermedades, lo que les limita su capacidad de realizar con destreza y autonomía actividades diarias tan triviales como el encendido de una luz, la apertura de una puerta o una ventana o el control de la temperatura en una habitación. Es necesario la implementación de un sistema que ofrezca a los afectados una solución, preferiblemente de bajo costo y no invasiva que les permita extender sus capacidades físicas para poder gozar de una mayor autonomía.
La solución propuesta tiene que ver con la posibilidad de dotar al cerebro de un canal no muscular que le permita enviar señales al exterior, las cuales se traducen en órdenes. El sistema que permite este tipo de comunicación se le conoce como interfaz cerebro-computadora [2].
En este artículo se presenta brevemente la metodología que se utilizará para desarrollar un prototipo de sistemadomótico basado en BCI, para brindar soporte a personas con movilidad reducida. El artículo se presenta de la siguiente manera: en la sección dos, la definición y aplicaciones comunes de los sistemas que se basan en BCI; en la sección tres, la metodología propuesta; en la sección cuatro, los resultados esperados; y en la sección cinco, las conclusiones.
II. INTERFAZ CEREBRO-MÁQUINA ( BCI)
A. Definición
La interfaz cerebro-computadora (BCI-Brain Computer Interface) es un sistema que se basa en las señales electroencefalográficas (EEG) que produce el cerebro [3], es decir, se basa en los potenciales eléctricos generados por el cerebro y que se obtienen a través de electrodos que se colocan sobre el cuero cabelludo [4]; y cuyo procesado e interpretación es capaz de traducirse en commandos de control sobre dispositivos físicos o virtuales en el entorno del ser humano.
B. Aplicaciones
Existen diversos campos donde se ha trabajado en aplicaciones de las interfaces BCI. Entre las aplicaciones más destacadas se puede mencionar:
Sistema de teleoperación multi-robot [5].
Control del movimiento de una silla de ruedas [6]. [7], [8].
Robot móvil de telepresencia [9], [10].
En video juegos [11], [12].
Brazo robótico [13].
Terapia de rehabilitación asistida por robot [14]
Las aplicaciones mencionadas se caracterizan porque utilizan la interfaz cerebro computador para el control de movimiento de robots en conjunto, del movimiento de la silla de ruedas, de robots de telepresencias, movimiento de brazos robóticos para ayuda, entre otras.
III. METODOLOGÍA
En este trabajo se propone la investigación y desarrollo de un prototipo para el control domótico basado en BCI para personas con movilidad reducida. En la figura 1 se describe el sistema el cual consiste en una etapa de detección de la actividad cerebral por medio de señales EEG y provocada por estímulos visuales. Posteriormente a estas señales se le realiza una extracción de características relevantes con el objetivo de identificar la intención del usuario. Ejemplo: Un deseo o intensión puede diferenciarse de otro, por medio del cambio en la energía de una banda específica de frecuencia de una señal EEG. Cada intensión puede tener un diferente valor de energía y esto puede codificarse y automatizar una acción por medio de un algoritmo de aprendizaje o ML (machine learning). La identificación de la intensión se realiza por medio de un algoritmo ML (Machine Learning) y en esta propuesta consta de 7 intenciones: Llamada de emergencia, encender/apagar luces, abrir/cerrar puertas y abrir/cerrar ventanas; como se observa en la figura 1.
Figura 1. Sistema BCI para control domótico.
Consta de la medición de la actividad cerebral detectada por medio de señales EEG. Esta actividad es provocada por estímulos visuales. Posteriormente la extracción de características relevantes con el objetivo de identificar la intención del usuario. La identificación se realiza por medio de un algoritmo ML (Machine Learning) y consta de 7 intenciones: Llamada de emergencia, encender/apagar luces, abrir/cerrar puerta y abrir/cerrar ventana.
La BCI desarrollada en este trabajo estará basada en una respuesta evocada a estímulos externos, específicamente. En estas el usuario centra su atención en uno de los posibles estímulos visuales, auditivos o somatosensoriales y la BCI se encarga de determinar el estímulo en el que estaba concentrado el usuario. Más en concreto, el presente trabajo está basado en el potencial visualmente evocado P300 [15]. Este potencial se manifiesta como una deflexión positiva en el EEG a una latencia de aproximadamente 300 ms tras la aparición del estímulo deseado dentro de una secuencia aleatoria de estímulos y se registra con mayor intensidad sobre los lóbulos parietal y occipital.
Para detectar las señales EEG son colocados electrodos en el cuero cabelludo utilizando el sistema internacional EEG 10/20 en las siguientes posiciones: Fp1, Fp2, F3, F4, C3, C4, P3, P4, T7, T8, Cp3, Cp4, Fz, Pz, Cz y Oz [4]. El electrodo de tierra se sitúa en la posición FPz y el de referencia en el lóbulo de la oreja izquierda. Estas señales son amplificadas y digitalizadas con una frecuencia de 256Hz. El registro de la señal, su procesamiento y la interfaz gráfica se desarrollan dentro de la plataforma software BCI2000 [16], ejecutada en un computador Intel Core i7 3.3GhZ en un ambiente Linux.
La interfaz gráfica se muestra en la figura 2 y presenta una doble funcionalidad: (i) muestra al usuario un feedback visual para la percepción del entorno, toma de decisiones y control del sistema; y (ii) realiza un proceso de estimulación visual para producir el potencial visualmente evocado P300 en el EEG del usuario y así permitir al sistema de procesamiento de señal decodificar sus intenciones. Esta interfaz gráfica está dividida en una matriz de 4x2 con 8 opciones: Abrir/cerrar puerta, Validar, Llamar a emergencia, abrir/cerrar Ventana y Prender/Apagar Luz. La opción Validar se incluye con el fin de minimizar la probabilidad de enviar comandos no deseados al sistema domótico. Cada vez que el usuario escoge una acción esta debe ser posteriormente validada.
El proceso de estimulación visual debe producir el potencial visualmente evocado P300 en el EEG del usuario cuando se encuentra concentrado en una opción de la interfaz gráfica. Este proceso de estimulación se produce sobre las 8 opciones de la ventana activa. Las opciones se estimulan mediante un mecanismo que consiste en resaltar el texto sobre el cuadro deseado. Se propone una secuencia siguiendo el paradigma [17]. Según este paradigma la estimulación de las opciones se realiza por medio de filas y columnas en lugar de estimular cada opción individualmente, dando lugar a 6 estimulaciones (4 filas más 2 columnas) por secuencia. La opción deseada será la intersección de la fila y columna deseadas. El número de secuencias y la secuenciación temporal de este proceso (principalmente tiempo de exposición de cada estímulo y tiempo entre estímulos) puede ser modificado para equilibrar la capacidad y preferencias de cada usuario con el rendimiento del sistema.
Figura 2. Pantalla para las opciones del usuario.
El texto en los cuadros es resaltado cada cierto tiempo evocando una respuesta P300 cuando coincide con la intensión del usuario.
La detección de las señales EEG es realizada mediante un sistema de sensores conectados a la plataforma OpenBCI, el cual es de código abierto y de bajo costo. Esta plataforma está conectada a una computadora en ambiente Linux y con el sistema de software BCI2000, lo que permite una detección en línea de las intenciones del usuario. Al software BCI2000 se le integra un módulo de aprendizaje supervisado (algoritmo ML) que es entrenado para reconocer la aparición del potencial evocado P300 en el EEG y así decodificar las intenciones del usuario. Desde BCI2000 se contrala la interfaz gráfica para enviar las señales de estímulo al usuario.
Para poner el sistema en condiciones de tomar decisiones se deben resolver realizar dos tares: La primera consiste en entrenar el sistema. Para ello, el usuario se enfrenta al proceso de estimulación visual y debe concentrarse en una secuencia predefinida de opciones que deben cubrir todas las 7 opciones. Mientras tanto se registra su actividad cerebral y posteriormente se utiliza para entrenar el algoritmo de clasificación. Este algoritmo consiste en dos etapas: (i) extracción de características y (ii) algoritmo de clasificación. El potencial P300 está caracterizado en el dominio del tiempo por lo que la información se encuentra en su forma de onda y tiempos de latencia. En primer lugar, se extraen muestras del tamaño de 1 segundo para cada canal después de la aparición de cada estímulo. Estos segmentos de señales se promedian y a continuación se calcula la medida de r2 que es la proporción de la varianza de la señal debida a la aparición del estímulo deseado por cada canal. Aquellos canales con mayor r2 se seleccionan por inspección visual. Cada opción, ya sea cerrar puerta o llamar emergencia, tendrá un valor específico r2 por canal. El algoritmo ML debe ser entrenado para relacionar este valor con la intensión del usuario.
La siguiente tarea es evaluar el sistema verificando la cantidad de fallos vs aciertos y realizando los ajustes correspondientes al sistema.
IV. DISCUSIÓN
La idea fundamental del Proyecto propuesto radica en el hecho, de que su desarrollo e implementación puede llegar a beneficiar a una gran cantidad de personas con movilidad reducida, sobre todo a ancianos, proporcionando la oportunidad de vivir una vida con calidad.
El prototipo utilizará las señales emitidas por el cerebro, cada persona emitirá su propio conjunto de señales; por lo tanto, el algoritmo de identificación solo sirve para una persona en específico. Estas señales controlarán dispositivos específicos del entorno de una vivienda familiar.
El propósito del mismo es que se implemente en los Centros de Salud pública del país, poniendo al alcance de la población, un Sistema que puede llegar a mejorar notablemente la vida de los pacientes.
Este proyecto se trabajará dentro del marco de las líneas de investigación del Grupo Robo-Proc, en el Centro Regional de Chiriquí de la Universidad Tecnológica de Panamá.
REFERENCIAS
J. Guerra, «Situación de las personas con discapacidad en Panamá,» Atlas social de Panamá, Ministerio de Economía y Finanzas, 2012.
R. R. Angevin, «Interfaz cerebro-computadora: Pensamientos al servicio de la comunicación.,» Uciencia, nº 9, 2012.
V. L. V. F. A. R. Sauer L., «Variables psicológicas en el control de interfaces cerebro-computadora.,» Psicothema, vol. 23, nº 4, pp. 745-751, 2011.
R. B. Navarro, Instrumentación Biomédica-Tema 5- Universidad de Alcalá.
M. J. Escolano C., «Sistema de Teleoperación Multi-Robot basado en Interfaz cerebro-computador.,» Revista Iberoamericana de Automática e Informática Industrial., vol. 8, nº 2, pp. 16-23, 2011.
M. J. d. R. Carlson T., «Brain-Controlled Wheelchairs A Robotic Architecture,» IEEE Robotics&Automation Magazine, vol. 20, nº 1, pp. 65-73, 2013.
G. C. Z. H. W. C. T. C. A. M. B. E. Rebsamen B., «A Brain Controlled Wheelchair to navigate in familiar enviroments.,» IEEE Transactions on neural systems and rehabilitation engineering., vol. 18, nº 6, pp. 590-598, 2010.
A. J. K. A. M. J. Iturrate I., «A noninvasive brain-actuated wheelchair based on a P300 neurophysiological protocol and automated navigation.,» IEEE Transactions on robotics., vol. 25, nº 3, pp. 614-627, 2009.
A. J. M. J. Escolano C., «A telepresence mobile robot controlled with a noninvasive brain-computer interface.,» IEEE Transactions on Systems, Man and Cybernetics. Part B, vol. 42, nº 3, pp. 793-804, 2012.
T. L. R. M. D. L. C. T. M. J. d. R. Leeb R., «Towards Independence: A BCI Telepresence Robot for People with severe motor disabilities.,» vol. 103, nº 6, pp. 969-982, 2015.
S. D. L. J. L. A. Muñoz J., «Design and creation of a BCI videogame to rain sustained attention in children with ADHD.,» de Computing Colombian Conference 10th., Colombia, 2015.
J. L. T. P. K. V. A. P. Khong A., «BCI based multi-player 3-D game control using EEG for enhancing attention and memory.,» de 2014 IEEE International Conference on Systems, Man, and Cybernetics (SMC), San Diego, California, 2014.
N. N. N. T. S. T. N. M. Y. D. Yamawaki N., «A prototype of BCI-robot arm system with 1ch acoustic distance measurement device,» de Intelligent Signal Processing and Communications Systems 2013 International Symposium on, 2013.
D. M. W. E. C. S. S. R. R. D. Norman S., «Movement Anticipation and EEG: Implications for BCI-Contigent Robot Therapy,» IEEE Transactions on Neural Systems and Rehabilitation Engineering, vol. 24, nº 8, pp. 911-919, 2016.
B. M. J. E. Sutton S., «Evoked-potential correlates of stimulus uncertainty.,» Science, vol. 150, pp. 1187-1188, 1965.
M. F. D. H. T. B. N. W. J. Schalk G., «BCI2000: A general purpose brain computer interface (BCI) system.,» IEEE Transactions on Biomedical Engineering., vol. 51, nº 6, 2004.
D. E. Farwell L., «Talking off the top of your head: toward a mental prosthesis utilizing event-related brain potentials.,» Elsevier Scientific Publishers Ireland. Ltd., nº 70, pp. 510-523, 1988. 3er Congreso Internacional AmITIC 2016. Santa Cruz de la Sierra, Bolivia. 27-30 de septiembre de 2016. 7