Chatbots und Gonebots: Ein Gespräch mit Thomas Meyer von Swat.io

Wir haben schon öfter von den Möglichkeiten fabuliert, die Chatbots (Wikipedia) bieten könnten (hier und hier und hier). Ein Thema steht dabei im Vordergrund: „Gonebots“, also Repräsentanten von Verstorbenen. Vieles davon klingt unglaublich – und unglaublich gruselig. Zeit für einen Reality-Check: Was geht wirklich? Wie weit ist die Technologie? Und wer entscheidet, welche Machbarkeiten umgesetzt werden? Dafür haben wir Thomas Meyer, Sales Director beim Social-Media-Management-Tool Swat.io, interviewt.

Chatbots als Repräsentanten Verstorbener – ich habe sie „GoneBots“ getauft – sind gerade ein Hype-Thema. Ideen virtueller Unsterblichkeit gibt es schon länger, aber aktuell laufen sie mit dem Chatbot-Hype zusammen. Erste Implementierungen schaffen kaum mehr, als einfachen Fragen mit semi-individuellen Antworten zu begegnen. Du beschäftigst dich mit Chatbot-Lösungen und kannst Einsatzgebiete abschätzen. Was hältst du von der Idee, Chatbots einzusetzen, um mit den Toten zu reden? Und wo kollidiert die technische Umsetzbarkeit mit den Erwartungen Hinterbliebener?

Die Idee der Kommunikation zwischen Maschine und Mensch ist keine neue – ganz im Gegenteil. Schon die Mutter aller Chatbots, Eliza, erschaffen von Joseph Weizenbaum vor knapp 50 (!) Jahren, konnte als (zugegebenermaßen sehr eingeschränkter) anorganischer Gesprächspartner dienen. Der aktuelle Hype hat nur zwei Gründe:

  1. kann ich mit den großen Sozialen Netzwerken und deren Messenger-Diensten enorm viele Menschen erreichen und
  2. hat sich die Leistung der Datenverarbeitung exorbitant verbessert.

Somit wurde die Verzögerung der Datenanalyse und der daraus „errechneten“ Antwort stark verkürzt und wir können beinahe von „real-time“-Konversationen sprechen. Klar gab es auch eindeutige Verbesserungen, was „sinnerfassendes“ Lesen betrifft, doch sind wir noch lange nicht dort, wo man von künstlicher Intelligenz spricht. Genau hier sollten wir bei der Beantwortung deiner Frage ansetzen. Messenger Bots sind Maschinen und basieren auf Logik, menschliche Kommunikation auf so viel mehr. Und genau hier sehe ich die potentielle Gefahr – die Gefahr der Inkongruenz.

Chatbots in the Garden 2 by Dennis Schmolk.Wenn Gefühltes und „Geschriebenes“ nicht miteinander übereinstimmen, kommt es zu einer negativen Emotion. Das „Sich-in-andere-Hineinfühlen“ ist ein enorm wichtiger Bestandteil der menschlichen Kommunikation. Fehlt diese Komponente (was bei einer Maschine aktuell (noch) der Fall ist), kann sie nicht auf sich verändernde Gefühlszustände des mit ihm kommunizierenden Menschen reagieren. Die Gefahr liegt somit alleine im Risiko, dass Erwartungen nicht erfüllt werden. Ähnlich wie mit lebendigen Gesprächspartnern – aber doch anders.

Als Entwickler und Anbieter der Social Media Management Lösung Swat.io habt ihr sicherlich Ahnung vom Aufwand, den so ein Bot macht. Wie kompliziert wäre es, z.B. mich als GoneBot zu bauen, der mein engstes Umfeld glauben macht, nach meinem Tod mit mir zu reden?

Das Grundprinzip ist einfach erklärt: du füllst eine Datenbank mit bestehenden Konversationen (SMS, WhatsApp, FB Messenger und ähnliches) und baust darum „Logiken“. Wenn A, dann B. Aus. Ein sehr eindimensionaler, einfacher Bot ist in 30 Minuten gebaut. Ein mit komplexen Logiken und Zusatzfunktionen ausgestatteter Bot ist ein langfristiges und natürlich auch investitionsstarkes Projekt. Gute Bots müssen auch gewartet und ständig adaptiert werden. Es gibt eine eigene Entwickleroberfläche auf Facebook selbst, die es dir erlaubt, Messenger Bots zu „bauen“ und sich auszuprobieren. Hier kann man auch ohne tiefgehende Programmierkenntnisse einfache Bots generieren. Alles weitere ist Expertenarbeit von hoch spezialisierten Entwicklern.

Chatbots in the Garden 1 by Dennis SchmolkSo einfach das Prinzip, so beschränkt die Einsetzbarkeit. Denn kommt eine Eingabe abseits dieser Datenbank, steht es schlecht um unseren digitalen Engel. Aktuell noch. Nur wenige bezweifeln, dass es in Zukunft „machine learning“ geben wird – also Algorithmen, die dazulernen und sich „organisch“, also von sich selbst aus, weiterentwickeln. Für mich ist noch vieles reines Glaskugel-Lesen – und davon bin ich kein großer Freund. Was passieren und möglich sein wird, kann uns alleine die Zeit lehren.

Wie aufwändig wäre es, mir einen Bot an die Seite zu stellen, der ab jetzt bis zu meinem Tod jeden Schritt protokolliert und dann noch eher ist „wie ich“? Wie lernfähig wäre ein heute realisierbarer Bot?

Aufwändig 🙂 Ich möchte gleich mal das Wort „lernen“ ein wenig differenzierter betrachten. Tatsächlich ist es aktuell schon möglich, dass ein Bot dazulernt – jedoch nur basierend auf Zahlen bzw. Statistiken. Ein Beispiel dazu: Zeigt mir der Bot einer Nachrichtenseite jeden Tag in der Früh zwischen 08:00 und 10:00 Uhr Nachrichten aus den Bereichen Wirtschaft, Politik oder Boulevard, erkennt der Bot, zu welchen Uhrzeiten ich mich mit welchen Themen beschäftige.

Daraus kann er Formeln bzw. Handlungsempfehlungen ableiten und mir zielgerichtet Inhalte ausspielen – man könnte dies also als „dazulernen“ bezeichnen. Ich persönlich habe mit der Begrifflichkeit „Lernen“ ein Problem. Für mich ist der Begriff „Lernen“ vielschichtiger und vor allem von einer Metaebene zu betrachten. Lernen basiert auf Erfahrungen, doch beruhen diese nicht nur auf Input-Output-Werten, sondern eben auch auf teils unlogischen Emotionen und vor allem der geistigen Selbstreflexion. Man entwickelt sich weiter, da man sich mit sich selbst beschäftigt – sich selbst analysiert und aus eigenen Handlungen „dazulernt“.

Und von genau dieser organischen bzw. geistigen Selbstreflexion sind wir noch weit entfernt. Also, zurück zu deiner Frage: lernfähig ja, doch rein basierend auf Zahlen bzw. Logiken und unter Ausschluss von typisch menschlichen Lernmethodiken.

Ein Bot, den Menschen (und auch andere Maschinen) nicht von mir unterscheiden können, macht Angst. Er stellt nicht nur (philosophisch) meine Identität in Frage; er öffnet auch dem Identitätsdiebstahl Tür und Tor. Wie schätzt du das ein?

#afterwork16 Robot by Sabine LandesTja, dieser Frage, nämlich die der Unterscheidbarkeit zwischen Mensch und Maschine, widmet sich der bereits 1950 entwickelte “Turing-Test“. Das Setting ist denkbar einfach. Ein menschlicher Fragesteller führt via Tastatur und Bildschirm eine Konversation mit zwei Gesprächspartnern. Der eine ist ein Mensch, der andere eine Maschine. Beide versuchen den Fragesteller davon zu überzeugen, dass sie ein denkender Mensch sind.

Zu deiner Frage: Bisher wurde dieser Test nicht nachweislich bestanden. Dies gilt somit auch als Beweis, dass künstliche Intelligenz (noch) nicht existiert.

Somit sehe ich aktuell keine große Gefahr. Aber klar, es werden, gerade, was Datenschutz und Privatsphäre betrifft, neue Herausforderungen auf uns zukommen. Schon heute gilt es als klassisches Betrugsmodell, dass ich zum Beispiel eine Facebook-Profilseite fälsche und dann mit Freunden dieser Seite in Kontakt trete, um Telefonnummern, Bankdaten etc. abzufischen.

Nun stelle man sich diesen Prozess automatisiert mit Messenger Bots vor – so kann ich in Echtzeit in praktisch unendlich viele Konversationen treten. Doch auch hier befinden wir uns wieder vor der sprichwörtlichen Glaskugel. Schwarzmalen hat noch nie geholfen. Bleiben wir am Ball, beobachten wir genau, analysieren wir den Hype und ziehen dann rational Schlüsse – wie es eben auch ein Bot machen würde 😉

Auch aus trauerpsychologischer Sicht gibt es Vorbehalte gegen Chatbots – man weiß schlicht nicht, wie Menschen mit solchen Möglichkeiten umgehen würden. Von tiefer Traumatisierung bis zur totalen Abhängigkeit von der „Künstlichen Intelligenz“ ist alles denkbar. Wie schätzt du das Risiko ein?

Du sagst schon ganz richtig: „Man weiß schlicht nicht, wie Menschen mit solchen Möglichkeiten umgehen würden.“ Ja, man kann es auch nicht wissen. Aber wir werden es herausfinden. Für mich stellt sich nur eine sehr wichtige und meiner Meinung nach entscheidende Frage: Wie wird der Bot eingesetzt? Um loslassen zu können oder um nicht loslassen zu müssen? Dieser Frage müssen wir uns stellen – die Machbarkeit kommt von ganz alleine…

Featured Image: Tomy Chatbot by Michele M. F. (Flickr). CC-BY-SA 2.0.

9 Gedanken zu „Chatbots und Gonebots: Ein Gespräch mit Thomas Meyer von Swat.io“

  1. Es ist wichtig, die Chatbots oder Gonebots nicht nur unter dem Gesichtspunkt der technischen Machbarkeit zu diskutieren, sondern auch im Hinblick auf die Auswirkungen auf die Trauer. Das gefällt mir gut an dem Artikel. Eine Frage, die mich noch beschäftigt ist, warum dieses Bedürfnis nach technikbasierter postmortaler Kommunikation überhaupt entsteht. Viele Menschen reden innerlich weiter mit ihren Verstorbenen und auf seelischer Ebene bekommen sie auch Antworten. Da braucht es diese Technik überhaupt nicht. Abe vielleicht haben immer weniger Menschen Zugang zum inneren Zwiegespräch.

  2. Ich denke nicht, dass das ein neues Phänomen ist. Das innere Zwiegespräch mit dem Toten (am Grab, im Gebet, zu Hause) wurde ja schon auf andere Weise „äußerlich“, etwa bei Seancen und anderen okkulten Ritualen. (Die wiederum fußen vermutlich auf viel älteren Praktiken, das müsste man mal untersuchen.) Literarisch können wir auch bei E.T.A. Hoffmann (und vielleicht Lovecraft?) anknüpfen, wo ja „Automaten“ Menschen auch in emotionaler Hinsicht ersetzen (sollen).

    Aber auch wenn nicht qualitativ neu, könnte es durch die (bald) machbaren Technologien natürlich quantitativ neue Dimensionen erreichen. Vielleicht bleibt das Phänomen aber aufgrund fehlender Umsetzbarkeit oder geringer Nachfrage auch ewig eine Spinnerei …

Schreibe einen Kommentar

Durch die weitere Nutzung der Seite stimmst du der Verwendung von Cookies zu. Weitere Informationen

Die Cookie-Einstellungen auf dieser Website sind auf "Cookies zulassen" eingestellt, um das beste Surferlebnis zu ermöglichen. Wenn du diese Website ohne Änderung der Cookie-Einstellungen verwendest oder auf "Akzeptieren" klickst, erklärst du sich damit einverstanden.

Schließen