
Adiós al ratón: Meta presenta una pulsera con la que controlas dispositivos con tus músculos
Meta lanza pulsera que convierte señales musculares en comandos digitales, revolucionando la accesibilidad y la realidad aumentada.
Meta ha presentado un prototipo de pulsera capaz de interpretar las señales eléctricas de los músculos del antebrazo para controlar dispositivos electrónicos. El anuncio, publicado el miércoles en la revista Nature, forma parte del programa de interfaces neuromotoras liderado por su división Reality Labs. El dispositivo, llamado sEMG-RD, puede leer gestos minúsculos e incluso detectar la intención de movimiento antes de que se produzca físicamente. La tecnología podría transformar tanto el mundo de la accesibilidad como el de la realidad aumentada, acercando aún más la computación al cuerpo humano.
La intención es suficiente
El dispositivo sEMG-RD de Meta emplea 16 sensores de electromiografía de superficie (sEMG) chapados en oro, distribuidos alrededor de la muñeca, capaces de registrar señales eléctricas musculares con una frecuencia de 2.000 muestras por segundo. Esta altísima tasa de muestreo permite captar microcontracciones incluso cuando no hay un movimiento visible, haciendo que el control de dispositivos sea posible con gestos apenas perceptibles. Según sus creadores, basta con que el usuario tenga la intención de mover un dedo para que el sistema lo detecte y lo traduzca en una orden digital.
Esto es posible gracias a una red neuronal entrenada con datos de más de 300 participantes, lo que elimina la necesidad de calibración personalizada, uno de los principales cuellos de botella de versiones anteriores. A diferencia de otros sistemas que requieren configurar la interfaz con cada nuevo usuario, esta pulsera funciona desde el primer uso con una alta tasa de precisión, según afirma Thomas Reardon, director de interfaces neuromotoras en Meta.
Aplicaciones revolucionarias en accesibilidad
Uno de los campos donde el impacto podría ser más inmediato es el de la accesibilidad. En colaboración con la Universidad Carnegie Mellon, Meta está probando el sEMG-RD con personas que han sufrido lesiones medulares. Según el profesor Douglas Weber, incluso en pacientes con parálisis completa de la mano, la pulsera puede detectar actividad muscular residual suficiente para ejecutar comandos. Esto representa un salto respecto a tecnologías como EEG o interfaces invasivas tipo Neuralink, ya que la pulsera no requiere cirugía, ni cámaras externas, ni contacto visual.
Además, sus señales son más robustas que las de los cascos EEG tradicionales, al operar en un rango de frecuencia más alto y más estable. “Este tipo de interfaz es menos invasiva, más fiable y puede integrarse fácilmente en la vida diaria”, ha señalado Weber. En términos prácticos, usuarios con limitaciones motoras podrían escribir, navegar por aplicaciones o comunicarse mediante simples gestos de muñeca o dedos.
Realidad aumentada sin manos
La investigación no es aislada: forma parte de una estrategia más amplia de Meta para integrar control neuromotor con realidad aumentada. Durante las pruebas internas, el sEMG-RD se ha utilizado para controlar las gafas de realidad aumentada Orion, aún en desarrollo, mediante pellizcos, gestos en el aire y deslizamientos virtuales. La combinación con seguimiento ocular y retroalimentación háptica podría permitir una experiencia manos libres total, donde la interfaz responde a intenciones antes que a acciones.
Este avance representa el siguiente paso tras la adquisición de CTRL Labs por parte de Meta en 2019, cuyo trabajo ha sido fundamental en el desarrollo del dispositivo actual. La compañía ha publicado más de 100 horas de grabaciones de sEMG con el objetivo de facilitar la investigación abierta y acelerar la adopción de este tipo de tecnología. El ecosistema que Meta está diseñando no depende ya de pantallas ni teclados, sino del cuerpo como interfaz central del futuro digital.
El cuerpo como interfaz
Meta no solo está proponiendo un nuevo dispositivo, sino una nueva relación con la tecnología: una computación invisible, intuitiva, anticipatoria. La posibilidad de controlar sistemas digitales sin tocar nada, solo con un gesto —o incluso sin llegar a movernos— inaugura una era en la que las máquinas no esperan acciones, sino intenciones. Este paradigma tiene implicaciones profundas no solo en accesibilidad o realidad aumentada, sino en cómo entendemos la privacidad, el cuerpo y el entorno digital.
En lugar de depender de pantallas, ratones o cámaras, el ser humano se convierte en su propio mando. Es una visión ambiciosa, sí, pero también inquietante: cuando las máquinas leen nuestros músculos, ¿cuánto falta para que interpreten nuestros pensamientos? El sEMG-RD es un paso decisivo hacia ese horizonte. Ahora queda por ver si sabremos poner los límites, o si —como ya empieza a ocurrir— los límites se redibujarán en nuestra propia piel.