Управляемые с помощью нейроинтерфейсов протезы — передовая технология, способная улучшить жизнь людей с повреждённым спинным мозгом и другими проблемами с подвижностью. Такие устройства, хоть и экспериментальными сериями, изготавливаются. Но сейчас их нельзя использовать «из коробки», без предварительной настройки под конкретного человека. В ходе обучения компьютер должен научиться понимать беззвучные приказы, а человек — отдавать их. Это довольно длительный и трудоёмкий процесс. Возникает вопрос — насколько сходны передаваемые мозгом сигналы при подаче одной и той же команды разными людьми? Существует ли возможность научить компьютер «понимать» приказы любого человека?
Исследование, материалы которого опубликованы в журнале Sensors, отвечает на эти вопросы.
«Основной результат — удалось получить в задаче распознавания мысленных команд при помощи нейроинтерфейса перенос обучения с одних людей на других. То есть модель, обученная на одних людях, способна распознавать мысленные команды других с некоторой точностью,» — сообщил Сергей Марков, один из авторов работы.
В ходе серии экспериментов из данных электроэнцефалографии (40-канальный ЭЭГ, регистрация сигнала с частотой 500 Гц) здоровых людей выделялись паттерны, соответствующие девяти словам русского языка, среди которых указания направления (вперёд, назад, вверх, вниз), команды (взять, остановить и отпустить) и просьба о помощи. Для этого использовались нейронные сети различной конфигурации, лучшие результаты дала ResNet18 + 2GRU. Удалось достичь распознавания с точностью до 84,51%. Несмотря на ряд проблем, показано наличие в мозговой активности разных людей общих паттернов и возможность с помощью неинвазивного метода распознавать такие паттерны и использовать данные для управления компьютеризированными устройствами.