Was Maschinen niemals ersetzen können, ist das menschliche Einfühlungsvermögen. Was sie allerdings schon seit mehr als fünfzig Jahren hervorrufen, ist die Unterstellung, sie besäßen menschliches Einfühlungsvermögen. 1966 hatte der Informatiker Joseph Weizenbaum ein simples Dialogprogramm entwickelt, das auf bestimmte Stichwörter in den Antworten seines menschlichen Benutzers reagierte.
Dabei sollte Eliza, benannt nach George Bernard Shaws Pygmalion-Adaption, einen Psychotherapeuten simulieren. Aus einfachem Grund: Es ist zunächst einmal unverdächtig, wenn diese Art Kommunikationspartner ausschließlich mit Anschlussfragen antwortet. Das allerdings machte Eliza so überzeugend, dass Weizenbaums Sekretärin ihren Chef einmal gebeten haben soll, ihr Zimmer zu verlassen, weil sie mit Eliza allein sein wollte.
Zugehört, Halt gegeben, vermittelt und beraten
Die größte Hilfsorganisation für Essstörungen in den USA, die National Eating Disorders Association, hat etwa ein halbes Dutzend Angestellte und ein paar Hundert Freiwillige damit beauftragt, sich am Telefon oder in Chats um Hunderttausende Hilfesuchende im Jahr zu kümmern. Geschätzt dreißig Millionen Menschen in den Vereinigten Staaten leiden unter einer Essstörung, mehr als zehntausend sterben jährlich an den unmittelbaren Folgen einer solchen Erkrankung. In der Pandemiezeit war die Zahl der Kontakte in die Höhe geschnellt. Die Zahl der Gespräche, in denen es um Selbstverletzung oder Suizid ging, hatte sich verdreifacht. Im persönlichen Austausch haben die Mitarbeiter, von denen die Mehrzahl selbst mit einer Essstörung gelebt hat, zugehört, Halt gegeben, vermittelt und beraten.Bessere Arbeitsbedingungen wurden ihnen bei wachsender psychischer Belastung nicht zugestanden, und als sie sich gewerkschaftlich organisierten, sagte man ihnen, dass sie zu diesem Monatsanfang durch einen Chatbot ersetzt würden. Tessa heißt diese jüngere Schwester von Eliza, entwickelt wurde sie an der Medizinischen Fakultät der Washington University. Kein lernendes System, stellt man dort klar, sondern ein eigens trainierter „Wellness Chatbot“.
Der allerdings noch vor seiner offiziellen Einführung für Unwohlsein sorgte: Nachdem sich Testpersonen über Vorschläge der Maschine beschwert hatten, die eine Essstörung nicht etwa lindern, sondern noch verstärken würden, wurde Tessa vom Dienst suspendiert. Was Eliza dazu gesagt hätte? „Sie haben nie daran gedacht, in welche Schwierigkeiten mich das bringt.“ Das stammt allerdings nicht von einer Maschine, sondern vom Blumenmädchen bei Shaw.