blinde Sprachnavigation auf Androidgerät mit Standardapps

Hilfsmittel für Blinde und Sehbehinderte. Alles was den Alltag erleichtert.
Chris
Moderator
Beiträge: 137
Registriert: 26.12.2014
von Chris » 04.01.2015, 11:31
Ich habe heute mal als Sehender getestet, ob man mit Android blind sein Handy bedienen kann, dazu sind vorab aber einige Sachen notwendig. Es mag sein, dass es spezielle kostenpflichtige Apps dafür gibt, habe aber versucht es mit den kostenlosen Standardapps zu lösen - Erfahrungen mit speziellen Apps sind hier sehr Willkommen.

Vorzugsweise hat man ein neueres Smartphone mit min. Android 4.1 denn dort funktioniert der Befehl "ok google" , bzw. "ok google now" um sofort in die Sprachsteuerung zu kommen, ansonsten muss man erst mal blind die App finden was unnötig Zeit kostet.

Folgende Apps und Einstellungen werden benötigt:
* Sprachsteuerung muss in den Einstellungen aktiviert werden
* die App Google-Suche muss aktiviert sein
* App Google Now Launcher runterladen/aktualisieren
* App Google aktualisieren
* Google Talkback installieren/aktualisieren
* Einstellungen -> Bedienungshilfen -> Talkback aktivieren


Jetzt kommt ein sehr ausführliches Tutorial wo die Bedienung erklärt wird.
Anschließend habe ich einige grundlegende Befehle getestet.

Ich möchte eine SMS senden, dazu starte ich mit dem Grundkommando "Ok Google Now" und ergänze es sofort mit "Ok Google Now Textnachricht an Chris"

Google fragt nach - welchen Chris meinten Sie? Ich nochmals "Ok Google Now Textnachricht an Chris", wieder die Meldung welchen Chris meinten Sie?
Ich muss die Augen öffnen und sehe das ich 3 verschiedene Chris Kontakte habe - lediglich Chris, Chris-Büro, Chris-Festnetz.
Ich nutze die Talkback Bedienung und fahre über den Namen "Chris", die Stimme ertönt und sagt - Chris +vierhundertachtundziebismilliardenfünfhundertmillionendreitausendachtundsiebzig

Unglaublich das hier nicht einmal erkannt wird das es eine Telefonnummer ist und eine komplette Summe vorgelesen wird.
Naja wenn ich weis, dass ich 3 Kontakte habe und in welcher Reihenfolge diese angezeigt werden kann ich auch einfach mit der jeweiligen Nummer fortfahren. z.B. "Ok Google now Textnachricht an Chris" Abfrage welchen Chris meinten sie " ich dann 1"
Anschließend kann ich den Text vorsprechen und hier ist wieder mal das Problem der Spracherkennung da es häufig zu Missverständnissen kommt auch wenn man deutlich spricht. Diese Fehler bekomme ich aber nicht mehr vorgelesen, sondern habe nur mehr die Option zum sofort senden, oder nachträglich urkompliziert mit Talkback zur manuellen Feinjustierung. Habe das versucht und für den Text - "Komme heute circa eine Stunde später" fast 10min gebraucht, blind wohlgemerkt. Hier frage ich mich schon ob die Entwickler das mal selbst probiert haben?

Etwas anders sieht es bei Anrufen aus, dies ist meiner Meinung nach sehr komfortabel. Ich sage "Ok Google Now anrufen Chris".
Google sagt, "ich habe 3 Kontakte mit Chris, sage "Anrufen" nachdem du den Kontakt gehört hast um ihn anzurufen.
Dann liest er mir alle 3 möglichen Kontakte vor und wartet in etwa 2 Sek. wenn ich innerhalb dieser Zeit anrufen sage, ruft er sofort den Kontakt an.

Navigation starte ich z.B. mit "ok Google now navigiere nach Ort", es wird sofort die Navigation mit Google Maps gestartet und die Navigation beginnt. Hier ist das Hauptproblem die Spracherkennung. Wenn ich z.B. sage navigiere nach Ort xx in Straße yy gibt es sehr häufig Ungenauigkeiten, welche ich wieder manuell mit Talkback ändern muss und da bin ich ewig dabei.

Das Hauptproblem an der Sprachsuche ist aber folgendes - es läuft komplett alles über die Google Suche und dort gibt es eine unschöne lange Wartezeit. Ich definiere einen Befehlt z.B. "Ok Google Now navigiere nach Ort zu Straße xx" dann wechselt das Smartphone in die Google Suche, anaylisert je nach länge des gesprochenen den Text und schreibt ihn dann in die Suchmaske und gibt dann eine Antwort. Je nach Befehl wird eine Antwort gesprochen, lediglich in der Google Suche ungesprochen die Ergebnisse angezeigt, oder eine App z.B. SMS geöffnet.

Wenn ich jetzt z.B. eine Navigation starte und Google die Straße falsch verstanden hat lande ich in der Suche ohne Feedback, jetzt weis ich nicht analysiert er noch den Text und ich lass ihn weiterarbeiten, oder starte ich einen neuen Befehl.

Meiner Meinung nach ist die Steuerung für Blinde mit einem Androidgerät mit Standardapps nicht gut gelöst, nicht mal als Sehender bin ich in der Lage mit der Talkbackapp vernünftig zu steuern. Es ist sperrig, unnötig kompliziert und für Laien schwer nachzuvollziehen. Klar mit etwas Eingewöhnungszeit wird es mehr oder weniger klappen, aber ich habe so viele Gesten und Optionen zu merken das ich lange dabei bin und laufe ständig Gefahr in einem falschen Menü zu landen. Wenn ich nicht gerade eine spezielle App benötige welche ich mit Android auch erst mal finden muss, da ich sie per Sprachkommando nicht öffnen kann, bin ich bei einem Smartphone mit Tasten inkl. Screenreader besser aufgehoben.

Das einzige was wirklich gut funktioniert sind die Anrufe und die kleinen Spielereien. Ich kann z.B. sagen "Ok Google Now, wie spät ist es" klar das funktioniert, aber auch nur dann wenn ich mit dem Internet verbunden bin was auch nicht immer der Fall ist.

Meiner Meinung nach benötigt man eine App, welche es z.B. genüge am PC gibt mit welcher ich Steuerungsbefehle mit eigenen Sprachkommandos verbinde. z.B. "Anruf Chris" und es wird sofort gewählt, oder SMS an Chris, komme später und die SMS wird schon verschickt. Navigation nach Hause, Navigation zu Chris - Navigiation wird sofort gestartet und durch die spezifische Einstellung diese Sprachkommandos wird auch die korrekte Straße usw. sofort mitgenommen.
Keine Ahnung wieso Google hier eine derartig komplizierte Wissenschaft draus gemacht hat, die aus meiner Sicht nicht Alltagstauglich ist.



cron