EyeSense Help

Introducción

El problema que queremos resolver

Hay personas que, debido a enfermedades como la parálisis cerebral, la esclerosis lateral amiotrófica (ELA) o el síndrome de enclaustramiento (locked-in syndrome), no pueden mover prácticamente ninguna parte de su cuerpo salvo los ojos. Para ellas, comunicarse con el mundo exterior depende de poder dirigir la mirada hacia las letras de un teclado en pantalla, seleccionándolas una a una. Es un proceso lento, agotador y que deja a estas personas frente a una pantalla, sin poder moverse ni estar plenamente presentes en su entorno.

Los sistemas actuales tienen varios problemas que identificamos durante nuestra investigación: el usuario tiene que seleccionar cada letra por separado, lo que provoca cansancio ocular; la comunicación es muy lenta y los interlocutores pierden el hilo; los oyentes tienen que estar mirando la pantalla para entender lo que se escribe; y el sistema sólo está disponible cuando el usuario se coloca delante de él, no durante todo el día.

Durante una visita a un centro de atención a personas con dependencia, el equipo que desarrolla este proyecto vivió en primera persona una situación que tendría posteriormente un impacto en este trabajo. Era la hora de comer y un usuario estaba siendo alimentado sin ningún dispositivo de comunicación cerca. No podía expresar si la comida estaba fría, si no le apetecía comer ese día, si quería agua o simplemente si necesitaba ir al baño antes. Esa imagen nos hizo ver lo urgente que es dar a estas personas herramientas que les devuelvan la voz, la autonomía y el control sobre su propia vida.

Enfoque del proyecto

EyeSense no está diseñado únicamente para entornos clínicos o de cuidado. Nuestro objetivo principal es que funcione en un contexto educativo, de manera que un alumno o alumna con estas necesidades pueda participar en clase igual que cualquier otro compañero: escuchar, responder preguntas, intervenir en debates y relacionarse con sus iguales sin barreras. Creemos que la tecnología puede ser una herramienta poderosa para construir una educación más inclusiva e igualitaria.

Conexión con el ciclo formativo de DAM

Este proyecto surgió como una forma de dar sentido real a los contenidos de varios módulos del Ciclo Superior en Desarrollo de Aplicaciones Multiplataforma (DAM). Cada parte del sistema que hemos construido está directamente relacionada con competencias trabajadas en clase:

  • Programación Multimedia y Dispositivos Móviles: desarrollo de la aplicación Android central, integración de las gafas de realidad aumentada y gestión de la cámara para el seguimiento ocular.

  • Acceso a Datos: almacenamiento local de la conversación en base de datos y gestión del contexto para el modelo de inteligencia artificial.

  • Programación de Servicios y Procesos: comunicación Bluetooth con el Arduino, llamadas asíncronas a la API de IA y gestión paralela de procesos (grabación, detección de emociones, predicción).

  • Desarrollo de Interfaces: diseño del teclado adaptado, sistema visual de LEDs y experiencia de usuario en las gafas XReal One.

17 March 2026