Das Ende des App-Zeitalters? Achtung, dein Chat-Partner ist ein Roboter!

Microsoft plant, den Messenger Skype mit dem persönlichen Assistenten Cortana auszustatten. Mit dem lässt sich aber nicht nur sprechen, sondern auch chatten. Bloß eine von vielen Entwicklungen, die uns künftig mit Maschinen chatten lassen wollen.

Stellt euch vor, ihr trefft eine Freundin auf Skype. Es geht über Stock und Stein, ihr beschließt, dass ihr mal wieder zusammen in Urlaub fahren könntet. Südspanien wäre schön und Anfang Juli hättet ihr zusammen Zeit. Super, dann los!

Grüß dich, ich habe deinem Gespräch gelauscht

Plötzlich öffnet sich ein weiteres Chat-Fenster. Er habe mitgelauscht, sagt der neue Gesprächspartner, und fragt, ob er behilflich sein könne. Er könne den Termin gleich in den Kalender eintragen, ein paar mögliche Flüge habe er schon herausgesucht. Und gefällt euch womöglich dieses Hotel? Das wäre in der Zeit noch frei, nicht zu teuer und doch bequem.

Gruselig, oder? Und schon bald Realität. Microsoft hat gestern auf der Keynote der Entwicklerkonferenz Build 2016 angekündigt, Cortana in Skype zu integrieren. Den Service hatte Microsoft vor vier Jahren als Antwort auf Apples Sprachsteuerung Siri ins Leben gerufen, ihn inzwischen aber als eine Art persönlichen Assistenten weiterentwickelt. Und dieser kann künftig Gespräche analysieren und passend dazu Services vorschlagen. Antworten kann man natürlich auch, um etwa bessere Ergebnisse zu erhalten. Fast so, als würde man mit einem Menschen diskutieren. Auf Wunsch geht sogar auch das – mithilfe von Video-Bots:

Das geht noch einen Schritt weiter als Googles vergangenen Sommer gezeigte Möglichkeit Now on Tap, Services und Beiträge vorzuschlagen, noch bevor man überhaupt danach gesucht hat. Und mit dieser Entwicklung sind die beiden Techriesen Microsoft und Google natürlich nicht alleine. Künstliche Gesprächspartner, so genannte Bots, stehen derzeit auch bei anderen Tech-Unternehmen hoch im Kurs.

Assistenz bei Bestellungen oder Routine-Aufgaben

Facebook etwa hatte jüngst in Aussicht gestellt, den Messenger für Unternehmen zu öffnen. Die Möglichkeit für Kunden, direkt bei einem Unternehmen etwas nachzufragen und valide Antworten zu erhalten, dürfte aber nur mit massivem personellen Aufwand zu schultern sein – oder eben mit Bots. Einen passenden hat Facebook im vergangenen Herbst bereits vorgestellt: Facebook M ist ein Gesprächspartner für den Messenger, der dem Nutzer vor allem dabei helfen soll, online einkaufen zu gehen.

Disney setzte für eine Werbeaktion der TV-Serie „Die Muppets“ einen Chat-Bot ein, der es Nutzern erlaubt, mit Miss Piggy zu chatten. Die Technik dahinter wird von Startups wie Netomi angeboten. Microsoft zeigt auf der Build 2016 aktuell auch die Möglichkeit für Unternehmen, sich einen Bot selbst zu basteln, der etwa aus häufig gestellten Fragen den Sinn erkennen und entsprechend darauf antworten kann. Etwas derartiges plant Facebook dem Vernehmen nach auch: Auf der Entwicklerkonferenz F8 Mitte April könnte das Social Network den Messenger Bot Store vorstellen, den Unternehmen frei anpassen können.

Der Slackbot

Der Slackbot

Bislang lässt sich mit derartigen Bots nur schwer ein menschliches Gespräch führen. Der Slackbot etwa, ein automatischer Dienst der Business-Chat-Plattform Slack, kann Nutzern vor allem auf Standard-Fragen antworten. Er kann Services liefern und Dienste bestellen, etwa ein Taxi von Uber. Will man ein ernsthaftes Gespräch führen, etwa, um seine Sorgen loszuwerden, hilft eine Maschine derzeit herzlich wenig.

Rassistische Tweets vom Teenager-Bot

Wiederum Microsoft allerdings sorgte vor einer Woche mit einem Teenager-Bot für Aufsehen. Tay sollte ein Mädchen darstellen, dass etwa 14 Jahre alt ist. Auf Twitter und einigen Chat-Apps hatten Nutzer die Möglichkeit, auf natürliche Weise mit diesem „Roboter-Mädchen“ zu chatten. Bald schon allerdings musste Microsoft den Bot wieder abstellen, denn findige Nutzer hatten herausgefunden, wie man Tay dazu bringt, rassistische oder frauenfeindliche Meinungen zu verbreiten. Microsoft sah sich zu einer Entschuldigung genötigt. Dass Bots sich anständig verhalten, ist eine Herausforderung, zumal einige Personen durchaus Interesse daran haben, künstliche Intelligenz mit Hassparolen oder Verschwörungstheorien auf Social Networks loszulassen.

Turing-Test bestanden

Bekannt ist in der Informatik der Turing-Test, 1950 von Computer-Pionier Alan Turing ins Leben gerufen. Dieser Test soll einen Nutzer erkennen lassen, ob sein Gesprächspartner ein Mensch oder eine Maschine ist. Bis zum Jahr 2014 soll angeblich noch keine Maschine diesen Test bestanden haben. Dann schaffte es ein Programm namens „Eugene Goostman“ angeblich, 33 Prozent der Tester der Royal Society in London davon zu überzeugen, es sei ein 13-jähriger ukrainischer Junge. Und die Forschung geht munter weiter.

Werden wir vielleicht eines Tages all unsere Sorgen einer Maschine ausschütten – und diese sogar kompetent darauf antworten können, weil sie die künstliche Intelligenz eines Psychotherapeuten besitzt? Bis dahin ist auf jeden Fall noch viel Arbeit notwendig. Die schlimmste aller Vorstellungen wäre das nicht. Und eine Frage, die noch zu klären ist: Müssen sich Chatbots eigentlich zwangsweise sauber verhalten, wenn nicht einmal Menschen das tun?

Microsoft-Chef Satya Nadella begnügt sich für den Anfang damit, das Ende des App-Zeitalters auszurufen. In Zeiten von cleveren Bots sei nur noch eine Chat-Oberfläche notwendig und der Bot streamt alle gewünschten Informationen dort hinein. Am besten sogar automatisch. Extra ein Fenster verlassen und zwischen Apps hin- und herspringen, das könnte schon bald sehr altbacken wirken. Und immerhin das wäre eine angenehme Veränderung.

Wie gefällt Dir dieser Beitrag?
Bewertung wird geladen …
Nichts mehr verpassen!

Bleib immer auf dem neuesten Stand mit unserem Newsletter! Täglich um 17:00 Uhr frisch in deinem Postfach.

Newsletter abonnierenRSS-Feed abonnieren
Schreibe einen Kommentar

Hinterlasse hier deinen persönlichen Kommentar. Wir freuen uns über deine Meinung.

Deine E-Mail-Adresse wird nicht veröffentlicht. Pflichtfelder sind markiert *

*