Experte: Tim Kahle, CEO von 169Labs | Im Rahmen des Open Networks war Tim Kahle, Mitgründer von 169 Labs, einer Agentur für Sprachassistenten mit Niederlassungen in Köln und München, im Neven DuMont Haus zu Gast. Kahle ist für die Konzeption, das Design und die Vermarktung von Voice-Anwendungen verantwortlich und ist einer von weltweit 39 Entwicklern, die von Amazon als „Alexa Champions“ ausgezeichnet wurden. Beim Open Network hat er seine These verteidigt, warum die Zukunft seiner Meinung nach sprachgesteuert ist und was das für Unternehmen bedeutet.

Tim, Sie entwickeln Sprachanwendungen für digitale Assistenten wie Amazon Alexa oder Google Assistant. Warum benötigen Unternehmen sprachgesteuerte Apps?

Weil sie eine neue Art der Kundenkommunikation bieten – einen neuen Zugangsweg zu Inhalten, Produkten und Dienstleistungen. Und der ist im Idealfall schneller und bequemer für den Nutzer als andere Zugänge.

Was genau kann schneller und effizienter funktionieren?

Sehr viel: zum Beispiel die Frage nach einer Bahnverbindung, nach einem Restaurant-Tipp in meiner Nähe. Das Erstellen einer Einkaufsliste ebenso wie eine kurze Info über Aktienkurse.

Das spielt sich alles noch in der Unternehmen-Kunde-Kommunikation ab. Gibt es auch Beispiele aus der Industrie?

Sprachassistenten können die Kommunikation mit Maschinen sehr vereinfachen, indem sie den Anwendern sagen, wie sie zu bedienen sind. Das spielt auch in der Industrie eine große Rolle. Ganz gleich, in welchem Bereich Sprach-Apps zur Anwendung kommen: Es ist wichtig, dass Unternehmensinhalte dialogfähig werden.

Wann ist ein Inhalt dialogfähig?

Nehmen wir das Beispiel unseres Kunden Eismann, der Tiefkühlprodukte vertreibt: Hinter seinen Produkten und Angeboten liegen Daten, die bislang so strukturiert sind, dass sie auf Bildschirmen richtig angezeigt werden. So können Eismann-Kunden die Tiefkühlwaren am PC oder Smartphone bestellen. Die Herausforderung besteht nun aber darin, Datenbanken und Schnittstellen so auszulegen, dass sie auf Sprache reagieren – damit Produkte auch in Form eines Dialogs präsentiert werden können.

Wo liegen die Grenzen der Technologie?

Es gibt manche Dinge, die noch nicht funktionieren, weil die rechtlichen Rahmenbedingungen noch nicht stimmen. Da gibt es einige bislang ungeklärte Fragen: Wie kläre ich über AGBs auf, wie halte ich Informations- oder Kennzeichnungspflichten auch bei Sprachassistenten ein? Ein weiterer Faktor ist aber auch die Überforderung des Nutzers, die die Verbreitung etwas verlangsamt. Denn er muss langsam an die Technologie herangeführt werden: Erst einmal mit Hilfe von Alexa oder anderen Sprachassistenten das Licht ein- und ausschalten, zum Beispiel. Sobald die Menschen die Vorteile der Technologie schätzen, fallen nach und nach die Hemmungen, sich bei immer mehr Aspekten vom Sprachassistenten helfen zu lassen. Bis ich irgendwann nicht mehr automatisch das Handy aus der Tasche ziehe, um eine offene Frage zu klären, sondern sie einfach ausspreche – und der Sprachassistent antwortet.

Wie steht es um den Datenschutz bei Sprachanwendungen?

Für den Datenschutz gelten die gleichen hohen Ansprüche wie an Smartphone-Apps oder Webseiten. Es ist ein Trugschluss, dass Sprachassistenten immer alles mitschneiden, was in dem Raum, in dem sie stehen, gesprochen wird. Sie zeichnen erst auf, sobald man sie per Kommando aktiviert hat, und speichern die Aufnahmen auch nur solange, wie es gesetzlich erlaubt ist.

Warum sind die meisten Sprachassistenten eigentlich weiblich?

Weil Studien zeigen, dass eine weibliche Stimme häufig als angenehmer und womöglich vertrauenswürdiger empfunden wird. Unternehmen sollten aber darüber nachdenken, eigene Stimmen zu entwickeln.

Warum?

Stellen Sie sich vor, zwei Konkurrenten benutzen beide die Stimme von Alexa. Dass eine Stimme für zwei Konzerne spricht, verwässert womöglich die Marke. Auch das muss bedacht werden.

Können Nutzer eigentlich auch Kölsch oder tiefstes Bayerisch mit Sprachassistenten sprechen und werden trotzdem verstanden?

Vieles verstehen sie schon, aber es wird immer Schwierigkeiten geben. Alexa spricht übrigens schon Kölsch, Nutzer können das mit unserer App „Schimpf auf Kölsch“ ausprobieren. Die Frage bleibt aber zentral: Wer muss lernen, mit wem zu sprechen – passt sich der Mensch der Maschine an oder die Maschine dem Menschen? Ich bin der Meinung, dass sich die Maschine dem Menschen annähern muss.

Unser Experte

Tim Kahle ist Co-Founder und CEO von 169Labs. Kahle bringt Erfahrungen aus mehr als zehn Jahren im UX-/UI-Design und Online Marketing in die Agentur ein und ist damit verantwortlich für die Konzeption, das Design und die Vermarktung von Sprachanwendungen.