Polka stworzyła oprogramowanie dzięki któremu osoby
niepełnosprawne będą mogły sterować sprzętem komputerowym i komunikować
się ze światem.
Interfejsy mózg–komputer to
oprogramowania, które pozwalają przekształcić sygnał mózgowy na sygnał
cyfrowy. Zespół bioinżynierów na Politechnice Opolskiej do sterowania
komputerem wykorzystał badanie EEG, gdzie każde zakłócenie widoczne
w badaniu przekształcane jest na daną akcję. Stworzona w ten sposób
aplikacja może służyć jako komunikator dla niepełnosprawnych nie tylko
manualnie, lecz także intelektualnie. W przyszłości mogłaby pomóc osobom
sparaliżowanym, z zaburzeniami pamięci czy mowy.
–
Wykorzystujemy interfejs mózg–komputer firmy Emotiv do sterowania
robotem mobilnym albo aplikacją komputerową. Do sterowania
wykorzystujemy badania EEG, które wykonuje urządzenie, następnie
wykorzystujemy zakłócenia, które wywołuje na przykład mimika twarzy –
w momencie, gdy mrugniemy powieką, zaciśniemy zęby lub się uśmiechniemy,
na badaniu EEG widzimy zakłócenie, które jest na tyle widoczne na
badaniu, że algorytm przetwarza je na daną akcję – mówi agencji
informacyjnej Newseria Innowacje Natalia Browarska, przewodnicząca Koła
Naukowego Bioinżynierów na Politechnice Opolskiej.
Interfejsy
mózg–komputer zamieniają sygnał mózgowy na cyfrowy, który wysyłany do
różnych urządzeń pozwala sterować sprzętem komputerowym czy
elektronicznym. Choć taka technologia może służyć zdrowym osobom
w codziennym życiu, pomaga się komunikować ze światem ludziom chorym,
niepełnosprawnym, po udarach czy wypadkach.
–
Stworzyłam aplikację, która służyła jako komunikator
dla niepełnosprawnej dziewczynki chorej na zespół Dandy’ego-Walkera,
niesprawnej manualnie i intelektualnie. Wykorzystywała pismo obrazkowe
i piktogramy. Dziewczynka wykorzystywała żyroskop wbudowany
w interfejsie mózg–komputer, aby wodzić kursorem myszy, a następnie
zaciśnięciem zębów wywoływała naciśnięcie lewego przycisku myszy w celu
wybrania odpowiedniego symbolu – tłumaczy Natalia Browarska.
Choć
wedle zamierzeń projekt miał być uniwersalnym komunikatorem
dla niepełnosprawnych, musi być jednak dopasowany indywidualnie
dla chorych, którzy mają różne niepełnosprawności lub posługują się
innymi symbolami. Lepiej mógłby się natomiast sprawdzić u osób po
udarach czy wypadkach, które potrafiły się komunikować, ale ze względu
na zdarzenia losowe tę umiejętność straciły.
–
Interfejs mózg–komputer opiera się na badaniu EEG. Ma 16 sensorów,
które nasączone są solą fizjologiczną w celu zapewnienia odpowiedniej
przewodności, sygnał zbierany jest do komputera poprzez moduł Bluetooth.
Zmiany w sygnale EEG wywoływane mimiką twarzy są w stanie wywołać
procesy sterowania. Kiedy korzystamy z robota mobilnego, to np. kiedy
się uśmiechniemy, robot pojedzie do przodu, po zaciśnięciu zębów stanie,
a po mrugnięciu lewym okiem skręci w lewo – wyjaśnia autorka aplikacji.
Interfejs
mózg–komputer może być również wykorzystany w celach rozrywkowych.
Obecnie nad taką technologią pracuje Facebook, który chce wprowadzić
możliwość komentowania postów za pomocą myśli użytkowników. Rozwiązanie
może się także sprawdzić w domu jako część smart home.
Mówi: Natalia Browarska
Funkcja:przewodnicząca Koła Naukowego Bioinżynierów
Firma:Politechnika Opolska
Źródło: newseria.pl