Wie künstliche Intelligenz und maschinelles Lernen Menschen mit Behinderung helfen können

Auf der Google Entwicklerkonferenz 2019 wurden die neuesten Entwicklungen des Softwareriesen vorgestellt. Besonders herausgestochen haben hier Fortschritte in den Bereichen künstliche Intelligenz und maschinelles Lernen. Neben der Entwicklung, dass diese jetzt rein auf den Geräten, also ohne Internetverbindung nutzbar sind, war besonders beeindruckend, wie diese Anwendungen Menschen mit Behinderungen helfen können.

Gesprochenes lesen, Videos transkribieren, schriftlich telefonieren

google assistantNeben der bereits bekannten Spracheingabe, welche bei Einschränkungen der Motorik hilfreich sein kann, wurden Anwendungen vorgestellt, die bei Einschränkungen in den Bereichen Hören, Sehen und Sprechen helfen können. Live Transcribe ermöglicht es gehörlosen Menschen bei einer Unterhaltung mit Menschen, die der Gebärdensprache nicht mächtig sind, das Gesagte auf dem Android-Gerät in Echtzeit zu lesen. Umgekehrt ist es auch möglich, dass das Gerät einen geschriebenen Text vorliest. Live Caption transkribiert simultan den Inhalt von Videos und Podcasts. Außerdem ist es möglich Telefongespräche mit dem Dienst Live Relay in schriftlicher Form zu führen. Das Gesagte des Anrufers kann in schriftlicher Form ausgegeben werden. Ebenso können die Antworten eingetippt werden, was dank der verbesserten Antwortvorschläge wesentlich schneller geht. Der Gesprächspartner, welcher vor dem Gespräch darüber informiert wird, dass der Partner diesen Dienst nutzt und deshalb mit einer Computerstimme spricht, bekommt die eingetippten Antworten vorgelesen. All diese Anwendungen finden in Echtzeit auf dem Gerät statt. So ist zum einen keine Internetverbindung nötig, zum anderen bleiben alle Daten auf dem Gerät und können nicht so einfach an Dritte gelangen.

Das Projekt Euphonia für Menschen mit Sprachstörungen

Einen besonderen Fokus legt Google auf das Projekt Euphonia, welches derzeit noch in den Kinderschuhen steckt. Ziel dieses Projekts ist es, dass Computer auch die (Sprach-) Eingaben von Menschen mit Sprachstörungen verstehen und verarbeiten können. Da es aber viele verschiedene Arten von Krankheiten mit Sprachstörungen gibt, die nicht nur die Wortlautbildung beeinflussen, lag der Fokus der Keynote auf der Krankheit Amyotrophe Lateralsklerose (ALS), einer degenerativen Nervenkrankheit, in deren Verlauf es unter anderem zum vollständigen Verlust der Sprachfähigkeit kommen kann. ALS-Patienten können auch jetzt schon mittels eines Sprachcomputers kommunizieren. Hier erfasst eine Kamera, auf welchen Buchstaben einer Tastatur sich die Augen fixieren. So können Betroffene mit den Augen auf einem Computer tippen. Das dauert aber recht lange. Google arbeitet daran, die Mimik erfassen und verarbeiten zu können, sodass eine schnellere und einfachere Kommunikation möglich ist. Aber auch andere Formen von Sprachstörungen können mit Euphonia verständlich gemacht werden. Da es aber sehr viele verschiedene gibt, bittet Google um Mithilfe. Freiwillige, Betroffene von Sprachstörungen aller Art, können sich an dem Projekt beteiligen und so dazu beitragen, dass dieses Projekt schnellstmöglich möglichst vielen Menschen helfen kann.

Bild: Google

0 Kommentare0