Decodierung der Stille. Schnittstellen der neuen Generation werden gelähmt werden, um Menschen zu kommunizieren
Die fortschrittlichsten Entwicklungen sind in der Lage, die Wörter zu erfassen und zu vermitteln, dass eine Person stillschweigend im Geist ausgesprochen wird, ohne zu blinken, ihren Augen zu folgen oder zu versuchen, sie auszusprechen, invertiert. Im Fokus erschien die Technologie ihr Telegrammkanal.
Abonnieren Sie nicht die meisten Informationen und interessanten Nachrichten aus der Welt der Wissenschaft! Ein Syndrom einer geschlossenen Person ist eine medizinische Erkrankung, bei der eine Person in voller Bewusstsein ist, sich jedoch aufgrund der vollständigen Lähmung fast aller Körpermuskeln, die eine Person kontrollieren kann, nicht mündlich bewegen oder kommunizieren kann.
Oft ist dies auf eine Schädigung des Hirnstamms zurückzuführen, das durch Schlaganfälle, Tumoren, traumatische Verletzungen, Infektionen oder neurodegenerative Erkrankungen wie laterale amymotrophe Sklerose verursacht wird. Die Häufigkeit des Syndroms ist aufgrund von Variationen der Fähigkeit von Patienten, durch Augenbewegungen oder Blinken zu kommunizieren, nicht eindeutig.
Leider verlieren einige Menschen die Mobilität, einschließlich Augen- und Augenlider, vollständig Mobilität, was die Diagnose noch komplizierter macht. Oft verbringen die Patienten durchschnittlich 79 Tage in einem festen Zustand, bevor die korrekte Diagnose gestellt wird.
Sarah Vandalt, Doktorandin der Abteilung für neuronale Systeme und Berechnung in Kaltech, ist begeistert von dem Potenzial dieser Technologie, insbesondere für diejenigen, die vollständig geschlossen sind und nicht kommunizieren können. Jüngste Studien, einschließlich Wandelt-Forschung, sind vielversprechend, da sie vorläufige Beweise dafür liefern, dass Gehirn-Maschinen-Schnittstellen die interne Sprache dekodieren.
Trotz der positiven Veränderungen sind sich Experten einig, dass weitere Entwicklung erforderlich ist, um diese Schnittstellen für Patienten zugänglich, praktisch und kostengünstig zu machen. Die Schaffung einer Hirn-Maschinen-Schnittstelle beginnt mit einer Bestimmung, auf die ein Teil des Gehirns ausgerichtet sein sollte.
Entgegen der Stumpfung der Idee, dass die Struktur des Schädels eine Vorstellung von der Arbeit des Gehirns gibt, verstehen wir heute, dass kognitive Fähigkeiten aufgrund komplexer Wechselwirkungen zwischen zahlreichen Hirnbereichen entstehen.
Diese Komplexität ist sowohl eine Herausforderung als auch eine Gelegenheit zur Forschung, da es keinen einzigen Bereich des Gehirns gibt, der für die interne Sprache verantwortlich ist, die es verschiedenen Bereichen ermöglicht, potenzielle Ziele zu sein. Es ist bemerkenswert, dass Vandult und ihre Kollegin David Bins eine Verbindung zwischen Sprache und supramarginalem Gyrus (SM) im Parietallappen gefunden haben, der normalerweise mit der Erfassung von Objekten verbunden ist.
Diese Entdeckung wurde während der Beobachtung eines tetraplegischen Teilnehmers mit einem in den Medien implantierten Mikroelektrodengitter durchgeführt. Das Array zeichnete die Aktivität einzelner Neuronen auf, die dann vom Computer verarbeitet wurde. Im Kontext des Fußballspiels vergleicht Bianer das Gehirn mit dem Stadion, Neuronen mit dem Publikum und Elektroden - mit Mikrofonen, die in die Menge gesenkt werden, um wichtige Ereignisse zu erfassen.
Das implantierte Gerät zwischen den Neuronen verfolgt elektrochemische Signale, die jedes Mal erzeugt werden, wenn das Neuron funktioniert und einzigartige Klangmuster erzeugt, die mit bestimmten Aktionen oder Absichten verbunden sind. Caltech -Forscher lehrten ihre Hirnmaschinenschnittstelle erfolgreich, zwischen Gehirnmustern zu unterscheiden, die erzeugt haben, wenn der Teilnehmer still sechs Wörter und zwei Pseudopolov ausgesprochen hat.
Das Gerät erreichte mehr als 90% Genauigkeit, um Wörter erst nach 15 Minuten Studium zu erkennen. Dieser erfolgreiche Test war der Schritt mit dem ultimativen Zweck, das Vokabular für eine sinnvollere Kommunikation zu erweitern. Ein weiterer innovativer Ansatz zielt darauf ab, eine Hirn-Maschinen-Schnittstelle zu entwickeln, die einzelne Buchstaben und nicht ganze Wörter erkennen kann.
Dieses Konzept wurde von Sean aus Metzger getestet, einem Doktorand an der University of California in San Francisco und der University of California in Berkel. Dieser Ansatz verwendet Algorithmen für maschinelles Lernen, um still geschriebene Sätze zu dekodieren und in den meisten Fällen 92% der Genauigkeit zu erreichen.
Jun Wang, Spezialist für Computertechnologie und Sprache an der Texas University in Austin, warnt davor, dass diese Branche trotz der jüngsten Fortschritte bei der Entwicklung von Sprachwiederherstellungsgeräten noch in der ursprünglichen Entwicklungsphase liegt. Es geht darum, Hardware und Software zu verbessern, um diese Geräte weniger sperrig, genauer und schneller zu machen.
Darüber hinaus untersuchen die Forscher die Möglichkeit, nicht-invasive Schnittstellen der Gehirnmaschine zu entwickeln, und die Verwendung fortschrittlicher Visualisierungsmethoden zum Umwandeln von Magnetfeldern, die durch Gehirnströme erzeugt werden, in Text. Die Wiederherstellung der Sprache bei Patienten mit Sprachblockierung ist eine einzigartige Aufgabe, die mit der Variabilität der Codierung der internen Sprache bei verschiedenen Personen verbunden ist.
Laut Bons ist ein multilateraler Ansatz aus verschiedenen Forschungsgruppen erforderlich, um diese Probleme zu lösen und Schnittstellen zu entwickeln, die in verschiedenen Kontexten arbeiten. Im Video unten können Sie mehr über die fortschrittlichen Neuroprothese -Technologien erfahren: Früher schrieb der Fokus über die Wiederherstellung des Rückenmarks nach Schäden.