Neu bei der Barrierefreiheit in iOS 11

iOS 11 ist am 19.09.2017 für alle freigegeben worden. Hier sind einige Neuerungen und bemerkenswerte Features in Bezug auf die Nutzung der Bedienungshilfen.

Nach einer ausführlichen Beta-Phase gehört iOS 11 definitiv zu den stabileren Erstreleases in der iOS-Reihe. Vorweg also schon mal die Empfehlung, dass es nach entsprechendem Backup nach meinem Dafürhalten „gefahrlos“ installiert werden kann.

Nach der Installation erwarten uns einige Neuerungen bei den Bedienungshilfen und in der Bedienung bereits bekannter Features. Auf einige soll in diesem Artikel näher eingegangen werden.

Bilderkennung überall

In iOS 10 führte Apple eine Bilderkennung für Fotos in der Fotos-App ein. Anhand verschiedener Merkmale wurden Thema, Anzahl Personen, ggf. deren Namen, sofern die Personen der Mediathek bekannt waren, usw. vom Gerät erkannt. Auch bestimmte Tiere und Naturszenarien erkannte iOS 10 bereits recht zuverlässig. Auch wenn diese Beschreibungen mit Sicherheit noch nicht sehr detailreich waren, so konnte man zumindest recht zuverlässig eine Idee davon bekommen, was das Foto zeigte, das man gerade ausgewählt hatte.

In iOS 11 geht Apple nun gleich mehrere Schritte weiter. Zum einen haben sie eine Texterkennung hinzugefügt. Enthält ein Bild Text, wird versucht, diesen zu erkennen. Die Qualität der Texterkennung reicht noch nicht an die eines KNFB Readers heran, ist aber durchaus schon in vielen Fällen brauchbar.

Zum anderen stellt Apple die Bilderkennung in allen Apps zur Verfügung, in denen Bilder angezeigt werden und die entsprechend der Programmierschnittstellen richtig als „Bild“ von VoiceOver erkannt werden. Damit ein evtl. vom Entwickler vergebenes Label für so ein Bild nicht überschrieben wird, hat Apple extra für die Bilderkennung die Drei-Finger-Tipp-Geste erweitert. Befindet sich der VoiceOver-Fokus auf so einem Bild, tippt man also einmal mit drei Fingern, und VoiceOver erkennt das Bild.

Eine Einschränkung gibt es allerdings: Die Bilderkennung funktioniert nur bei abgeschaltetem Bildschirmvorhang (mit 3 Fingern 3x tippen). Der Bildschirmvorhang ist zwar standardmäßig ausgeschaltet, wird aber von vielen von uns eingeschaltet, um z. B. in der Öffentlichkeit zu verhindern, dass uns jemand über die Schulter gucken kann, ohne dass wir es merken. Für die Bilderkennung muss der Bildschirmvorhang abgeschaltet werden, bevor das Bild aufgerufen wird. Zwei Beispiele aus Apps, die beim Release sofort funktionieren:

Twitterrific

Stößt man im Twitter-Client Twitterrific auf einen Tweet mit Bildanhang, kann man mit Hilfe des Aktionsrotors die Open Media-Aktion ausführen und doppeltippen. Das Bild wird nun in einer Vollansicht geöffnet, und VoiceOver sagt auch „Bild“.

Tippt man nun mit drei Fingern einmal, versucht VoiceOver zu erkennen, was auf dem Bild ist. Erst kommt die Helligkeitserkennung und ob das Bild scharf oder unscharf erkannt wird. Dann kommt eine eventuelle Themen- und Personenbeschreibung, inklusive der Namen erkannter Gesichter. Befindet sich Text auf dem Bild, wird auch dieses erkannt.

Jetzt kann man entscheiden, ob man durch Doppeltippen und Halten die Teilen-Funktion aufruft, das Bild speichert oder an den KNFB Reader übergibt, um es genauer erkennen zu lassen.

Facebook

Facebook hat bereits selbst eine Bilderkennung integriert, die auch mit Hilfe künstlicher Intelligenz versucht, Motive und Personen auf Bildern zu erkennen. Facebook setzt die Bilder in der Anzeige einer Facebook-Statusmeldung ebenfalls korrekt um. Man kann also einfach einen Facebook-Status doppeltippen und bekommt zunächst mal zusammen mit der Tatsache, dass es sich um ein Bild handelt, Facebooks erkannte Bildbeschreibung vorgelesen.

Tippt man nun mit drei Fingern, lässt Apple über dieses Bild seine eigene Bilderkennung laufen. Tests im nicht repräsentativen Newsfeed des Autors haben gezeigt, dass sich die beiden Beschreibungen nicht nur ähneln, sondern erstaunlich oft ergänzen, so dass man einen besseren Eindruck davon bekommt, was auf dem Bild ist. Und Facebook hat noch keine Texterkennung, nur dass es sich um Text handelt. Apple erkennt hier im ersten Anlauf zumindest oft auch Auszüge dessen, was da auf dem Bild zu lesen ist.

Meinung

Dies ist ein riesiger Schritt vorwärts in der Teilhabe für blinde und stark seheingeschränkte Nutzer von iOS. Die Tatsache, dass man jetzt überall Bilder erkennen kann, ohne sie erst in der Fotomediathek speichern zu müssen, erleichtert das Arbeiten damit erheblich. Und im Fall weiterer Bilderkennungen wie bei Facebook ergänzen sich die Angaben oft sehr gewinnbringend.

Allerdings muss Apple noch dringend an der Texterkennung schrauben. Sie erkennt zwar durchaus schon mehrere Sprachen korrekt, aber die Texte selbst sind oft noch sehr lückenhaft. Muster dessen, was erkannt wird und was nicht, und vor allem warum nicht, haben sich mir noch nicht erschlossen. Aber dass ein Anfang gemacht wurde, auf dem aufgebaut werden kann, ist ein riesiger Fortschritt!

Und nein, dies ersetzt nicht die Pflicht eines jeden, seinen Bildern ordentliche Bildbeschreibungen mitzugeben. Künstliche Intelligenz kann inzwischen einiges, aber noch lange nicht genug, um die strukturierte Beschreibung eines Menschen zu ersetzen.

Braille zeigt an wie eingegeben

In iOS 11 findet keine automatische Rückübersetzung von eingegebener Kurzschrift auf die Braillezeile statt. Früher war es so, dass Apple den in Kurzschrift über die Brailletastatur eingegebenen Text gleich übersetzt und die Übersetzung dann auf die Braillezeile geschrieben hat. iOS 11 verhält sich hier stärker wie klassische Notizgeräte, indem die Braillezeile nämlich genau das abbildet, was man eingegeben hat. VoiceOver liest den rückübersetzten Text, und auch nach dem Abschicken einer nachricht, eines Tweets o. ä. bekommen die anderen natürlich den rückübersetzten Text zu lesen, aber auf der Braillezeile erscheint er jetzt so wie man ihn tatsächlich eingegeben hat.

Diese Änderung wird sicherlich für einige Kontroversen sorgen. Die einen werden jubeln, die anderen werden vermissen, dass sie Rückübersetzungsfehler nicht gleich auf der Braillezeile angezeigt bekommen.

Rechtschreibfehler ansteuerbar

Befindet man sich in einem Textfeld mit aktiver Rechtschreibprüfung, kann man jetzt mit dem Rotor den Punkt „Rechtschreibfehler“ auswählen und mit rauf und runter wischen den Cursor an den Anfang des vorherigen bzw. nächsten falsch geschriebenen Wortes bewegen. Das erleichtert das Auffinden von Tippfehlern.

Adaptive Farbumkehr

Hat man unter „Display-Anpassungen“ „Farben umkehren“ aktiviert, versucht Apple jetzt, die Umkehr intelligenter zu gestalten, dass z. B. Fotos durch die Farbumkehr nicht verfälscht werden o. ä. Auch kann man hier noch einige andere darauf abgestimmte Dinge einstellen. Diejenigen, die dies nutzen, werden hier sicher noch einiges für sich und ihre Augen besser einstellen können als vorher. Da ich selbst blind bin, kann ich das leider nur so weitergeben. 😉

Erweiterungen für Hörgeräte-Träger

Für die Träger von Hörgeräten gibt es unter „Hören“ einige weitere Einstellungen zur Kompatibilität, Geräuschreduzierung und anderen Charakteristika, die für ein besseres Integrieren von iOS in die Arbeit mit den eigenen Hörgeräten sorgen sollen.

Bekannte Probleme

Da keine Software perfekt ist, gibt es auch in iOS 11 einige Probleme, allerdings ist nur eines davon wirklich schwerwiegend. Dieses betrifft das schnelle Eingeben von Braille. Hier kann es vorkommen, dass iOS nicht mitkommt, selbst auf modernster Hardware. Dies scheint aber nicht alle Braillezeilen oder die Bildschirm-Brailleeingabe zu betreffen, aber zumindest einige Modelle wie die Freedom-Scientific-Focus-Zeilen sind definitiv von dem Problem betroffen. Bleibt zu hoffen, dass Apple hier schnell nachbessert.

Ein weiteres Problem, das manche sehr stören könnte, ist, dass beim Eingabemodus „10 Finger“ das Eingeben von Sonderzeichen wie ß etwas kaputt gemacht wurde. In ioS 10 konnte man einfach den Finger lange auf dem s halten, dann kam die Auswahl hoch, und man konnte durch Ziehen das ß auswählen. Das ist in der aktuellen Version kaputt gegangen und bereits an Apple gemeldet. Man kann sich behelfen, indem man erst ein s eingibt, dann gleich doppeltippen und halten ausführt, im Popup das ß wählt und dann ein Zeichen zurückgeht und das überflüssige s löscht.

Auch dass noch nicht aller Text auf Bildern ordentlich erkannt wird, ist etwas, woran Apple definitiv noch schrauben müssen (siehe oben).

Weitere Probleme werden ggf. hier im Laufe der nächsten Tage noch nachgetragen, wenn welche gefunden werden, sobald iOS die Betaphase verlässt und mehr Leute es nutzen.

Fazit

iOS 11 ist ein lohnendes Update, schon allein wegen der Bilderkennung und Erkennung von Text in Bildern, die jetzt überall verfügbar sind, wo Bilder ordnungsgemäß angezeigt werden und für die Bedienungshilfen ausgezeichnet sind. Aber wie bei allen großen Updates empfiehlt sich vorher dringend ein Backup zu machen, falls doch mal etwas schiefgehen sollte.

3 Gedanken zu „Neu bei der Barrierefreiheit in iOS 11“

  1. Ich finde es sehr schade, dass der Rotor immer mehr aufgebläht wird. So fände ich es sehr sinvoll, wenn Sprechtempo, Lautstärke, usw. in ein anderes Menü ausgelagert würden. Des weiteren vermisse ich eine separate Geste für die Brailleeingabe.

  2. Funktioniert eigentlich das Scrollen wieder zuverlässig?

    In iOS 10.x habe ich immer das Problem, dass lange Listen nicht zuverlässig automatisch weitergescrollt werden. Man gelangt dann mit VoiceOver plötzlich in den nächsten Bereich, z. B. mit Tabs, obwohl die Liste eigentlich noch weitere Punkte enthält, und muss erst wieder auf die Liste tippen und mit drei Fingern manuell scrollen. Beispielhaft und besonders auffällig war das im App Store unter Updates, wenn man lange Changelogs aufgeklappt hat.

    Ein anderes Phänomen war, dass die Liste von Suchergebnissen immer gerne hinter der eingeblendeten Tastatur verschwand, beobachtet beispielsweise im Kalender, wenn man einen Ort hinzufügt und die ersten paar Buchstaben eingibt. Einträge weiter unten in der Liste lassen sich nicht auswählen, wenn man sie per Wischgeste fokussiert und dann doppeltippt, wird statt dessen ein Buchstabe geschrieben.

    Oder ist das nur bei mir so und vielleicht ein Bedienungsfehler?

    Gruß,
    der Lauscher

    1. Wir konnten heute das geschilderte Verhalten auf einem anderen Gerät mit iOS 11 reproduzieren. Wahrscheinlich sollte ich das mal als Bug einreichen. Wie ist Apples Prozedere dafür und ist das überhaupt für Endkunden erreichbar?

Was denkst Du darüber?