Un nuevo estudio realizado por investigadores de Apple presenta un método que permite que un modelo de IA aprenda un aspecto de la estructura de la actividad eléctrica del cerebro sin ningún dato anotado. Así es como.
Compensación relativa en sentido aéreo
En un nuevo estudio titulado «Aprender la composición relativa de las señales de EEG mediante un preentrenamiento de desplazamiento relativo por pares«, Apple presenta PARS, que es la abreviatura de PAirwise Relative Shift.
Los modelos actuales se basan en gran medida en datos anotados por humanos sobre la actividad cerebral, que indican qué segmentos corresponden a las etapas del sueño Wake, REM, No REM1, No REM2 y No REM3, así como las ubicaciones de inicio y finalización de las convulsiones, etc.
Lo que Apple hizo, en pocas palabras, fue conseguir un modelo para aprender a predecir en qué momento en el tiempo ocurren diferentes segmentos de la actividad cerebral, basándose en datos sin procesar y sin etiquetar.
Extracto del estudio:
«El aprendizaje autosupervisado (SSL) ofrece un enfoque prometedor para aprender representaciones de electroencefalografía (EEG) a partir de datos no etiquetados, lo que reduce la necesidad de costosas anotaciones para aplicaciones clínicas como la estadificación del sueño y la detección de convulsiones. Si bien los métodos actuales de EEG SSL utilizan principalmente estrategias de reconstrucción enmascaradas como autocodificadores enmascarados (MAE) que capturan patrones temporales locales, el entrenamiento previo para la predicción de la posición sigue sin explorarse a pesar de su potencial para aprender dependencias de largo alcance en señales neuronales. Introducimos el entrenamiento previo PAirwise Relative Shift o PARS, una nueva tarea de preentrenamiento que predice cambios temporales relativos entre pares de ventanas de EEG muestreadas aleatoriamente. A diferencia de los métodos basados en la reconstrucción que se centran en recuperar patrones locales, PARS alienta a los codificadores a capturar la composición temporal relativa y las dependencias de largo alcance inherentes a las señales neuronales. A través de una evaluación integral de varias tareas de decodificación de EEG, demostramos que los transformadores preentrenados con PARS superan consistentemente las estrategias de preentrenamiento existentes tanto en contextos de aprendizaje de etiquetas como de transferencia. estableciendo un nuevo paradigma para el aprendizaje de autosupervisión de la representación EEG.
En otras palabras, los investigadores descubrieron que los métodos existentes entrenan principalmente a los modelos para llenar pequeños huecos en la señal. Entonces exploraron si una IA podría aprender la estructura más amplia de las señales de EEG directamente a partir de datos sin procesar y sin etiquetar.
Resulta que es posible.
En el artículo, describen un método de aprendizaje autosupervisado para predecir cómo pequeños segmentos de una señal de EEG se relacionan entre sí a lo largo del tiempo, lo que puede permitir un mejor rendimiento en varias tareas de análisis de EEG, desde las etapas del sueño hasta la detección de convulsiones.
Los resultados fueron prometedores, ya que el modelo preentrenado PARS superó o igualó los métodos anteriores en tres de cuatro pruebas de EEG diferentes.
¿Pero qué tiene esto que ver con los AirPods?
Estos son los cuatro conjuntos de datos utilizados por el modelo preentrenado PARS:
- Estadificación del sueño portátil (EESM17)
- Detección de EEG anormal (TUAB)
- Detección de convulsiones (TUSZ)
- Imágenes motoras (PhysioNet-MI).
En el primer conjunto de datos, EESM17 se refiere a Ear-EEG Sleep Monitoring 2017, que contiene «grabaciones nocturnas de 9 sujetos con un sistema de EEG de oído portátil de 12 canales y un sistema de EEG de cuero cabelludo de 6 canales».
Así es como se ve un sistema EEG de oído:
Aunque el EEG auricular utiliza electrodos diferentes a los de un sistema de cuero cabelludo estándar, aún puede capturar de forma independiente muchas señales cerebrales clínicamente relevantes, como las etapas del sueño y ciertos patrones relacionados con las convulsiones.
Y dado que el conjunto de datos EESM17 se utilizó en un estudio de Apple, que incluyó varios sensores de salud en sus dispositivos portátiles en los últimos años, no es difícil imaginar un mundo en el que Airpods obtener sensores EEG, muy parecidos a los Airpods Pro 3 Recientemente recibí un sensor de fotopletismógrafo (PPG) para detectar la frecuencia cardíaca.
Y aquí está el truco: en 2023, Apple presentó una solicitud de patente para «un dispositivo electrónico portátil para medir las bioseñales de un usuario».
La patente menciona explícitamente los dispositivos EEG de oído como una alternativa al sistema del cuero cabelludo, al tiempo que presenta sus limitaciones:
«La actividad cerebral puede monitorearse usando electrodos colocados en el cuero cabelludo del usuario. En algunos casos, los electrodos pueden colocarse dentro o alrededor del oído externo del usuario. Puede ser preferible medir la actividad cerebral usando electrodos colocados dentro o alrededor del oído externo debido a ventajas tales como movilidad reducida del dispositivo y visibilidad reducida de los electrodos en comparación con otros dispositivos que requieren que los electrodos se coloquen en áreas visibles alrededor del cuero cabelludo del usuario. Sin embargo, para mediciones precisas de la actividad cerebral usando un dispositivo de electroencefalografía auricular (EEG), el Es posible que sea necesario personalizar el dispositivo de EEG de oído para el oído de un usuario (por ejemplo, posiblemente personalizado para la concha, el canal auditivo, el targus, etc.) del usuario, y puede que sea necesario personalizarlo de manera diferente para diferentes usuarios, de modo que los electrodos se coloquen en áreas visibles alrededor del cuero cabelludo del usuario.
A continuación, la patente de Apple aborda estas limitaciones integrando más sensores de los necesarios distribuidos alrededor de las puntas de los oídos de los AirPods y haciendo que un modelo de IA detecte los electrodos con la mejor calidad de señal utilizando métricas como la impedancia, el nivel de ruido, la calidad del contacto con la piel y la distancia entre los electrodos activos y de referencia.
Luego asigna diferentes pesos a cada electrodo para combinar todas las señales en una única forma de onda optimizada. La patente incluso describe un gesto de tocar o presionar que iniciaría o detendría las mediciones, así como múltiples alternativas de diseño e ingeniería que lo harían posible.
Finalmente, Apple afirma que «las mediciones de bioseñales pueden utilizarse para informar al usuario sobre diversos casos de uso basados en bioseñales, como la monitorización del sueño u otras anomalías, como las convulsiones», que son generalmente los mismos ejemplos del nuevo estudio.
Pero seamos claros: el nuevo estudio no menciona Airpods y no está relacionado con la solicitud de patente de 2023. Se trata de una investigación sobre si un modelo puede entrenarse a sí mismo para predecir intervalos de tiempo entre ondas cerebrales a partir de datos no etiquetados, utilizando mediciones de EEG auriculares como parte de su conjunto de datos.
Sin embargo, es interesante ver a Apple explorar hardware para recopilar estos datos, así como un modelo de inteligencia artificial que mejoraría el destino de estos datos una vez recopilados. Queda por ver si esto realmente se convertirá en un producto o característica.



