Eine Bahnfahrt mit Problemen und Erkenntnissen
Ich war, so dachte ich, mit der Bahn auf der Reise von Gießen nach Marburg. Doch bald merkte ich, dass etwas nicht stimmte. Ein Ort, der sich wie "Wetzlar" anhörte, wurde durchgesagt. Ich stieg aus dem Zug, weil ich inzwischen bemerkt hatte, dass ich durch ein Missverständnis meiner sehenden Begleitperson, die mich in Gießen in den Zug brachte, im falschen Zugteil saß. Ich stand an einem Bahnhof, es raste ein Güterzug vorbei. Links befand sich das Gleis, rechts die Böschung. Eine Durchsage gab es nicht, die im Zug hatte ich nur halb verstanden. Ich zückte mein Smartphone, öffnete eine App und machte ein Foto. Ich erhielt die Beschreibung, dass ich mich an einem Bahnhof befände, gegenüber, auf der anderen Seite gäbe es eine Überdachung, einen Fahrplan und ein Schild mit der Aufschrift "Bahnhof Werdorf". Nach dieser Beschreibung begann ich mich, interessanterweise, schon etwas wohler zu fühlen. Natürlich war mir noch überhaupt nicht klar, ob ich auf die andere Seite musste, um wieder in die richtige Richtung fahren zu können, denn die Gleisnummer, an der ich mich befand, war mir nicht vorgelesen worden. Auch war mir nicht bekannt, wo ein Weg auf die andere Seite führte, denn eine Treppe oder Ähnliches fand ich nicht. Sehr schnell lösten sich zum Glück alle Probleme, denn es kam eine nette Frau, die mich auf die andere Seite brachte. Man musste noch über eine Brücke laufen, und die Treppen hinunter waren sehr ungleichmäßig.
Jede Person, die blind ist und die regelmäßig Zug fährt, hat sich sicherlich schon einmal in einer ähnlichen Situation befunden und konnte (hoffentlich) für sich eine Lösung finden.
Ist künstliche Intelligenz hier nötig?
Man kann sich nun fragen, an welcher Stelle mir die künstliche Intelligenz geholfen hat, denn ein Standort, an dem man sich gerade befindet, lässt sich auch ohne eine App, die meine Umgebung fotografiert und sie mir dann beschreibt, herausfinden. Allerdings hatte ich durch die App das Gefühl, herausgefunden zu haben, dass es sich hier tatsächlich um einen kleinen Bahnhof handelt, denn bei einem weiteren Foto wurden mir auch Parkplätze beschrieben. Es gab aber einen anderen, in der Situation hilfreichen Punkt: Ich war vollkommen fasziniert davon, wie genau ich mir mit den Apps "Be My Eyes" und "Seeing AI" die Umgebung beschreiben lassen konnte. Ich war also abgelenkt und beschäftigt. Auf diese Weise habe ich die unterschiedlichen Stärken der beiden Apps herausgefunden.
Ein Blick zurück: Die App "TapTapSee"
Das Beschreiben von Bildern begann bereits vor neun oder zehn Jahren mit der App "TapTapSee". Diese habe ich am Bahnhof nicht benutzt. Damals war sie geradezu revolutionär, und wir feierten im Dienst beim Mittagessen, dass sie tatsächlich ein Braille Buch als solches erkannt hatte, was einem heute beinahe selbstverständlich vorkommt. Trotzdem habe ich sie noch gerne auf meinem Smartphone, und sie soll nachfolgend kurz vorgestellt werden, bevor ich dann auf die moderneren, zur Verfügung stehenden Apps eingehe.
TapTapSee bietet die Möglichkeit, sehr schnell eine kurze Bildbeschreibung zu bekommen. In den Einstellungen lassen sich die Bilder beim Fotografieren auch automatisch in der Galerie speichern, sodass man sie auch weiter verschicken könnte. Die Beschreibungen gehen über Sätze wie "Eine Frau vor einem Computer auf einem braunen Holztisch" nicht hinaus. Doch ist für mich immer noch wichtig, dass man recht schnell die Farben von Kleidungsstücken herausfinden kann. Auch werden Gegenstände recht zuverlässig erkannt. Manche Lebensmittel sind auch grob erkennbar. So erhält man die Beschreibung einer Müslipackung, doch die entsprechende Marke wird nicht immer dazu gesagt.
Künstliche Intelligenz ersetzt Gemeinschaft? Eindrücke zu "Be My Eyes"
"Be My Eyes" ist ursprünglich entstanden, um für blinde und hochgradig sehbehinderte Menschen eine Möglichkeit zu bieten, für Hilfe, die sich aus der Ferne erledigen lässt, schnell weltweit Personen zur Verfügung zu haben. Es gibt die Option, über die App einen Anruf auszulösen und eine Person, die gerade Zeit hat, meldet sich. Menschen, die blind oder sehbehindert sind, können dieses bei der Installation der App angeben und Menschen, die ehrenamtlich als Hilfspersonen zur Verfügung stehen, ebenfalls. Hat man dann die "Hilfsperson" am Handy, kann man sich bei allem, was über die Kamera am Smartphone sichtbar ist, helfen lassen. Diese Hilfe kann beispielsweise darin bestehen, aus einem Dokument eine bestimmte Passage vorgelesen zu bekommen, die Farbe eines Kleidungsstückes zu erkennen, Lebensmittel zu sortieren oder man möchte Hilfe bei medizinischen Tests. In meinem Bekanntenkreis gibt es Personen, die auf diese Weise einen Corona-Test gemacht haben.
Spannend ist aber nun ein ganz anderer Punkt: Inzwischen benötigt man für viele Hilfeleistungen keine sehende Person mehr, da die App selbst mit Hilfe von Künstlicher Intelligenz Bilder beschreibt, und man zudem die innovative Möglichkeit hat, gezielt Fragen zu einem Foto zu stellen. Manchmal hat man beispielsweise die Situation, dass der Computer unter Windows nicht mehr spricht. Selbst wenn man dann drei Screenreader auf dem Rechner hat und in der Lage ist, alle drei durch Tastenkombinationen zum Sprechen zu bringen, kann es immer noch passieren, dass man nichts hört. Nun kann man mit Be My Eyes ein Foto machen. Man erfährt dann vielleicht, dass ein Computerbildschirm mit unterschiedlichen Symbolen darauf zu sehen ist. Nun kann man fragen, ob weitere Details sichtbar sind, und sich auf diese Weise durch Fragen und evtl. durch ein neues Foto aus einer anderen Perspektive erschließen, dass gerade mal wieder eines der beliebten Windows Updates installiert wird, und der Computer gerade deshalb außergewöhnlich lange schweigt. Auch lässt sich auf diese Weise das Haltbarkeitsdatum von Lebensmitteln herausfinden, da nicht nur Bilder beschrieben werden, sondern auch der Text auf den Bildern vorgelesen wird. Auch lässt sich durchaus ein Urteil dazu bekommen, ob sich auf Kleidungsstücken Flecke oder Flusen befinden. Immer, wenn man diese App einsetzt, so mein Eindruck, entdeckt man wieder etwas Neues. Genau darin liegt der Vorteil im Einsatz von Künstlicher Intelligenz für die Praxis. Die Programme sind sehr schnell trainierbar. Der Vollständigkeit halber sei noch erwähnt, dass man über die App auch ein Verzeichnis mit Kontaktadressen zu Institutionen finden kann, die sich mit dem Thema Blindheit beschäftigen. Hier kann man auch Organisationen melden, die in das Verzeichnis aufgenommen werden sollen.
Licht-, Farb-, Personen- und Texterkennung in einer App
Eine weitere App, die ich unter anderem auf dem Bahnhof in Werdorf benutzt habe, heißt "Seeing AI". Hier werden unterschiedliche Funktionen angeboten: Das Erkennen von Text, das Lesen eines Dokumentes, die Zuordnung von Lebensmitteln, das Erfassen von Währung, eine Möglichkeit zu hören, wieviel Licht um einen herum ist, und die interessanten beiden Funktionen des Beschreibens einer Szene und einer Person. Auf dem Bahnhof in Werdorf hatte ich einerseits Zeit und andererseits Lust, mich mit dem Beschreiben von Szenen genauer zu beschäftigen. Macht man ein Foto, erhält man eine sehr kurze Beschreibung, wie man sie beispielsweise auf einer Webseite als kurzer "Alternativtext" finden würde wie "zwei Personen auf einer Straße" oder "eine Straße mit Bäumen". Es gibt dann die Möglichkeit, sich die Szene detailliert beschreiben zu lassen. So bekommt man ein Bild davon, auf welche Weise die fotografierten Gegenstände zueinander in Beziehung stehen. Weiterhin gibt es einen Modus, mit dem man die Beziehung von Gegenständen zueinander eigenständig versuchen kann zu "begreifen". Man fährt mit seinem Finger über den Bildschirm des Smartphones und bekommt gesagt, welcher Gegenstand sich gerade unter dem Finger befindet. Die Möglichkeit eines Chats, also zur genaueren Nachfrage, welche Details auf einem Bild noch zu sehen sind, hat man nicht. Man kann allerdings die beiden Apps auch miteinander kombinieren, denn Seeing AI bietet die Möglichkeit, Fotos zu Speichern. Somit lassen sie sich auch an sehende Freunde verschicken oder aber, wenn sie gespeichert sind, in Be My Eyes importieren und beschreiben. Bei beiden Apps lässt sich sagen, dass sie sowohl für das iPhone als auch für Smartphones mit dem Android- Betriebssystem verfügbar sind. Sie sind recht intuitiv bedienbar.
Komfortables Lesen der Post mit dem Smartphone
Früher war es üblich, seine Post, sofern man sie sich nicht von einem Menschen vorlesen ließ, mit einem Scanner am PC durchzusehen. Heute wird dieses, so mein Eindruck, häufig am Smartphone erledigt, und ich gehöre sozusagen auch zum Mainstream. Für mich ist hier eine echte Glanzleistung die App "Lookout" von google, die es leider nur für Android-Geräte gibt. Geburtsblind stehe ich immer wieder vor dem Rätsel, wie weit man die Kamera des Smartphones vom Papier weghalten muss, damit die Schrift gelesen werden kann. Auch ist es mit etwas Übung verbunden zu lernen, die Kamera gerade zu halten. Hier bietet die App aus meiner Sicht sehr gute Unterstützung. Sie macht Live Videos von meinen Aktionen und hat somit die Möglichkeit, mich beim Lesen von Dokumenten sehr exakt zu dirigieren. Man hört Sätze wie "Gerät näher heranbewegen", "Gerät nach unten links bewegen", "Gerät nach oben bewegen" usw.
Auf die Weise habe ich immer mehr Übung darin bekommen, mit der Kamera Texte zu erkennen. Andere Erkennungsapps sagen Dinge wie "nicht alle Kanten sind sichtbar", was auch schon eine Hilfe ist, doch komme ich mit den eben genannten, exakten Anweisungen besser zurecht. Lookout bietet Funktionen wie Bildbeschreibung, einen Erkundungsmodus, einen zum Erkennen von Währung, einen zum Suchen von Gegenständen und denjenigen zum Beschreiben von Bildern an. Der Modus zur Suche ist noch in der Beta-Phase, könnte aber, wenn er noch optimiert wird, eine Hilfe sein, da er Gegenstände, die man aus einer Liste auswählt, in Beziehung zur persönlichen Position setzt. So sagt er durchaus zutreffend an, wenn sich ein Stuhl rechts neben der Person befindet. Dabei wäre es besonders gut, wenn man Elemente des jetzigen Erkundungs- mit dem Suchmodus mischen könnte, denn im Erkundungsmodus werden einem zwar Gegenstände genannt, die sich in der Nähe befinden, doch bekommt man nicht mitgeteilt, wo sie sind. Da Lookout in sämtlichen Situationen in der Lage ist, Text zu erkennen, habe ich auf die Weise schon aus dem fahrenden Bus ein Werbeplakat für eine Theateraufführung gelesen, als ich die Kamera aus dem Fenster gehalten habe. Das hat mich, ich gebe es zu, sehr beeindruckt.
"Neue" Fragen zur eigenen Verantwortung und zum Datenschutz
Als ich nun im richtigen Zug nach Marburg saß, machte ich Fotos, indem ich meine Kamera aus dem Zugfenster hielt. Doch da meldete sich ein anderer Gedanke: Bekomme ich gerade eine Person auf mein Bild? Was denkt sich die Person über mich? Möchte sie überhaupt fotografiert werden? Darf ich das Bild überhaupt speichern? Bei welchen Aktivitäten "erwische" ich Personen? Mir ist klar, dass ich oft fotografiert werde, ohne dass ich es merke. Anschließend werden meine Bilder vermutlich wesentlich häufiger, als ich es denke, in sozialen Netzwerken geteilt.
Bisher musste ich mich bezüglich des Fotografierens nicht mit meiner eigenen Verantwortung für die Themen Datenschutz und Achtsamkeit bei Personen beschäftigen, habe ich doch bisher kaum Fotos "geteilt". Auf meiner Zugfahrt ging es mir überhaupt nicht darum, Bilder weiter zu verbreiten. Ich wollte ausschließlich wissen, was mir alles beschrieben wird. Natürlich habe ich es, das gebe ich zu, interessant gefunden, eigenständig etwas mehr darüber herauszufinden, was Personen um mich herum machen. So habe ich wahrgenommen, dass der Mensch mir gegenüber, er wurde als Mann erkannt, gelesen und "nachdenklich" aus dem Fenster gesehen hat. Bei aller Faszination über die Bildbeschreibungen habe ich mich dann bald dazu entschlossen, das Fotografieren zu stoppen und Musik zu hören. Ich bin gespannt, ob bei meinen nächsten Zugfahrten das Interesse darüber, was die Personen um mich herum machen, oder dasjenige des Zweifelns darüber, ob man aus Datenschutzgründen Fotos machen sollte, siegt. Ich sehe immer noch einen Unterschied zu den Fotos von sehenden Menschen: Sie können, wann immer sie wollen, beobachten, was Personen um sie herum machen, und im Zug ist dies absolut normal. Für mich ist das eigenständige "Beobachten" immer noch etwas Besonderes.