Impuls #7 – Interview1

Zu meinem Forschungsthema habe ich mich bereits um ein paar Interviews bemüht.  Zwei Interviews waren besonders herausragend.

Das erste Interview führte ich mit einem Frontend Entwickler, der seit über 20 Jahren seine Expertise im Bereich digitaler Barrierefreiheit anbietet. Die einleitenden Fragen zu Grundlagen über digitale Barrierefreiheit dgl. sind konkret und informativ beantwortet worden, aber großartigen Input habe ich dann bei den Fragen zu künstlicher Intelligenz bekommen. Screenreader zählen auch dazu, und da konnte mir der Experte spitzen Einblicke liefern. Er wies zwar auf Unterschiede zwischen all den Screenreadern hin, betont aber, dass es quasi wurscht ist, welchen man für seine Testzwecke während der Entwicklung verwendet. Entscheidend ist, dass man überhaupt und schon früh mit Screenreadern auf Barrierefreiheit während der Entwicklung testet. Denn triviale Fehler sollten alle Screenreader schnell identifizieren können. NVDA sei ein solides Tool dafür und steht kostenlos zum Download bereit. Und mittlerweile hätten sich aber auch die integrierten Tools der Betriebssysteme (Windows, IOS, Android usw.) bewährt.

Superspannend wurde der Dialog später beim Thema „Generative AI“ und der Barrierefreiheit von ChatGPT. Dadurch, dass ein GPT im Wesentlichen ein Chatbot in seiner ursprünglichen Form ist, spukt er quasi puren Text aus. Text ist an sich gut konsumierbar für verschiedene Behinderungsgruppen – er kann wiederum vorgelesen werden, Schrift kann, wenn technisch gut umgesetzt, vergrößert oder verkleinert werden, usw. „Wir wissen, dass blinde Menschen sehr gerne die Suche nutzen, weil warum muss ich mich mit der Hierarchie rumschlagen, wenn ich auch einfach die Suche nutzen kann?“ Dieser Satz war und ist mir sehr, sehr wertvoll für meine Forschung, denn ich hinterfrage in meinem Thema die Sinnhaftigkeit von GPT auf einer Webplattform für motorisch und/oder sehbeeinträchtigte Menschen.