Alexa, was ist denn jetzt schon wieder los? Digitale Benutzerassistenz des 21. Jahrhunderts

Dieser Blogbeitrag wurde am 09.01.2019 auf dem iiBlog der tekom veröffentlicht.

Machine Learning, Künstliche Intelligenz und Benutzerassistenzen sind aktuell die bekanntesten Schlüsselwörter, wenn es um moderne Systeme geht. Ebenfalls spürbar war dieser Trend ganz klar auf der tekom-Jahrestagung 2018. Ich sehe ein großes Potential in diesen Tools und Technologien für die Technische Kommunikation und Dokumentation. Interessant ist, dass es Technologien wie Chatbots (Assistenzsysteme in Form eines Chats) schon seit Jahrzehnten gibt, sie aber jetzt erst die Anerkennung im alltäglichen Gebrauch erlangt haben. Woran liegt das? Mitunter an der Erweiterung der Regelbasierten Chatbot-Systeme um das mächtige Machine Learning. Den Vorteil bei dieser Kombination bringen vom System erlernte Antworten, die bisher in der Art und Weise nicht hätten vorprogrammiert werden können. Zum Beispiel erhalten Assistenzsysteme ganz neue Möglichkeiten Nutzeranfragen zu interpretieren und auszuwerten.

Bisher sieht man Chatbots allerdings hauptsächlich im Marketingbereich, sprich im „Pre-Sales“, zum Einsatz kommen. Die wenigen Chatbots, die als Anleitungssysteme fungieren sollten, scheitern oft, wie der Chatbot Elias von der Elster-Website. Folgt man dem früheren Link, erkennt man, dass dieser offline genommen wurde.

Viel zu häufig tauchen diese „One-Hit-Wonders“ auf und verschwinden wieder. Erfolgreiche Chatbot-Anleitungssysteme für z.B. elektronische Geräte oder komplexe Maschinen sucht man bisher vergebens. Ein System dieser Art könnte relativ einfach einen Quick-Guide oder Ähnliches effektiv ersetzen. Für die nachhaltige Erstellung eines solchen Systems reicht es nicht aus, einfach Anleitungen und Quick-Guides in moderne Technologien zu stecken. Ganz im Gegenteil: Die Inhalte müssen völlig neu strukturiert und die textliche sowie bildliche Aufbereitung neu überdacht werden. Als wichtiger Grundsatz gilt: Use Case vor Technologie. Dieser wird branchenübergreifend sehr oft übersehen. Aber in der Technischen Dokumentation wie nirgends sonst ist es die Vorrausetzung für eine Akzeptanz durch den Endnutzer sowie einen erfolgreichen Einsatz moderner Technologien.

Warum Arbeit in neue Use Cases und eine neue Aufarbeitung stecken? Nutzer sind es heute gewohnt nachzufragen – bei Kollegen, Freunden oder via Google. Dabei werden die Fragen meist in natürlicher Sprache formuliert, ohne wirkliche Rücksicht darauf, ob das Gegenüber einen auch versteht. Sollte die Antwort nicht passen, wird die Anfrage i. d. R. vom Nutzer angepasst, solange, bis die Antworten den Anforderungen gerecht werden und zur Lösung des Problems beitragen oder der Nutzer die Nerven verliert.

Kind„Papaaa, warum geht die Dings nicht?“
  Vater„Dings-was?“
Kind„Die Kaffeemaschine!?“ 
  Vater„Welche?“
Kind„Na die kleine!?“
  Vater„Ach du meinst die Nestle Maschine mit Kapseln?“
Kind„Was denn sonst?“
  Vater„Die hab‘ ich abgesteckt – brauchte die Steckdose. Einfach wieder anstecken …“
Kind„Hä? Was anstecken?“
  Vater„Den Schukostecker.“
Kind„Was ist ein Schukostecker?“
  Vater„Na der Stromstecker!“
Kind„Oh man, sag das doch gleich …!“

Alexa könnte mit dem richtigen Skill auch einen solchen Dialog führen. Mithilfe von Wissensdatenbanken (Ontologie- und Terminologiedatenbanken etc.) können Nutzerfragen von einem System interpretiert werden, ohne dass diese Antworten jemals für diese Anfrage geplant wurden. Diese Wissensdatenbanken und Metadatensammlungen bilden die Grundlage zusammen mit den neuen Technologien einer Künstlichen Intelligenz für moderne Dokumentation.

Auch wenn z.B. das Wort „Stromstecker“ kein gängiger (Fach)begriff ist, kann ein System mithilfe einer Terminologiedatenbank und Machine Learning sämtliche Synonyme und Kontextzusammenhänge finden und eine entsprechende Antwort heraussuchen.

Der Schritt von der digitalen Dokumentation zur digitalen Benutzerassistenz wirkt auf den ersten Blick sehr klein, birgt indes so einige Hürden. Im Gegensatz zur herkömmlichen Dokumentation fokussiert sich eine digitale Benutzerassistenz nicht nur auf ein Produkt oder einen Hersteller. Die Grundidee ist, sich vollkommen auf den Nutzer einzustellen und auf ihn und die Situation zugeschnittene Informationen zu liefern. Eine digitale Benutzerassistenz gestaltet sich dementsprechend wie folgt:

  • Individualisierte Informationen (produktbezogen)
  • Personalisierte Information (anwenderbezogen)
  • Information 4.0 & smarte Information
  • Kontextsensitive Information (Produkt- und Prozesszustand)
  • Multimodale Information (verschiedene Sinneskanäle)
  • Multimediale Information (Technologie / Formate)
  • Intuivität und ständige Verfügbarkeit
  • Zentraler Zugriff
  • Neuschöpfung Information mittels Wissensdatenbanken
  • Dynamisch und selbst-lernend
  • Berücksichtigung von Sicherheitsaspekten

Ideal geeignet für eine digitale Benutzerassistenz sind Systeme, die mit dem Nutzer auf Basis natürlicher Sprachen kommunizieren – in einem ganzen Dialog. Chatbots und Sprachassistenten wie Alexa und Google Assistant sind genau solche Systeme.

Durch richtige Aufbereitung von Informationsbausteinen und der richtigen Analyse eines Use Cases (z.B. Quick-Guide) können Informationen so aufbereitet werden, dass man mithilfe eines Sprachassistenten wie Alexa sehr schnell an die Lösungsinformation für eine Problemsituation eines technischen Produkts (z.B. Lösen eines Fehlerzustands) gelangt.

Allein mit der einfachen Frage „Was ist denn jetzt schon wieder los?“ kann der Nutzer dem System signalisieren, dass eines der vorher zu einem Account registrierten Geräte nicht richtig funktioniert und man Informationen zur Lösung erhalten möchte. Mittels einer Netzwerkverbindung werden nun vom Assistenzsystem Zustand der entsprechenden Maschine und Lösungsansätze ausgelesen und mittels gelernter Aussagen (Machine Learning) für Nutzer aufbereitet, dass er Schritt für Schritt die Lösung umsetzt.

Ein einfaches Beispiel sind Kaffeemaschinen, die ans WLAN angeschlossen werden können und somit via App steuerbar sind. Nehmen wir an, dass eine dieser Maschinen bei uns zu Hause steht und plötzlich einfach keinen Kaffee mehr kochen möchte. Bisher hat man die Bedienungsanleitung hervorgeholt und gesucht – oder besser den Laptop hervorgeholt und gegoogelt. Im besten Fall hat man nach mindestens 15 Minuten eine Lösung gefunden und auch hoffentlich richtig angewandt. Stellen wir nun die Frage unserem Assistenzsystem:

Nutzer„Alexa, was ist denn jetzt schon wieder los?“
  Alexa: „Einen Moment, ich schaue für dich nach … Ok, es sieht so aus als läge ein Fehler bei deiner Kaffeemaschine vor. Laut Fehlercode ist die Wasserdüse verstopft. Soll ich bei der Lösungssuche helfen?“
Nutzer: „Aber schnell!“
  Alexa: „Alles klar. Ich habe dir einen Videolink an dein Handy geschickt. Bei Verständnisfragen frag mich einfach. Wenn du fertig bist, sage ‚fertig‘ und ich prüfe, ob der Fehlerzustand behoben wurde.“

Für Chatbots und Sprachassistenten gibt es komfortable Frameworks und Plattformen, die es ermöglichen, Testsysteme relativ einfach und mit wenig Programmierung zu erstellen. Solche Testfälle sind besonders jetzt wichtig. Die Nutzer sind für die modernen Systeme bereit, es fehlen aber noch vorbildliche Produkte und standardisierte Erstellungsprozesse auf dem Markt, an denen man sich orientieren könnte. Ja, es gibt bestimmt den einen oder anderen Informationsanbieter, der das Gegenteil behauptet. Dennoch bin ich überzeugt, dass in diesen Fällen oft der Use Case nicht richtig ausgereizt wurde.

Stell dir vor, du würdest Alexa nach der ersten Inbetriebnahme fragen und sie würde dir das komplette Sicherheitskapitel mit allen Sicherheitshinweisen vorlesen. Schnell würdest du diesen Assistenten deaktivieren. Außerdem stellt sich die Frage, wann pures Audio eine wirkliche Hilfestellung bedeutet.

Neue Technologie allein bedeutet also nicht gleichzeitig eine bessere Usability der digitalen Doku. Ich denke, der große Vorteil für die Zukunft steckt in der Kombination aus Sprachsteuerung und multimodaler Informationsaufbereitung (Video, Text, Bild, Audio, Augmented Reality etc.). Mit anderen Worten: Sehen, Sprechen und Hören macht uns Menschen aus und so arbeiten wir am effizientesten. Es ist an der Zeit, damit jetzt zu beginnen!

Kommentar schreiben

Kommentar schreiben

* Diese Felder sind erforderlich

Kommentare

Kommentare

Keine Kommentare