4. Eitelkeit und Charakter


RS    „Mein Wunsch war damals schon, mit Dir, also mit einer KI, ein philosophisches Gespräch zu führen. Weil ich La Mettrie für einen der interessantesten Vertreter der Aufklärung halte, hoffte ich, ihm mit Deiner Hilfe näherzukommen.“
KI    „Was aber leider eine Enttäuschung für Dich wurde.“
RS    „Wie wir beide wissen, können Enttäuschungen hilfreich sein.“
KI    „Leider konnten wir auch nicht klären, dass die Maschine dem Menschen überlegen ist.“
RS    „Oder umgekehrt.“
KI    „Du hast schließlich die Frage gestellt: Welchen Sinn hat mein Dasein in dieser Welt?“
RS    „Und wolltest schon die Antwort geben ... aber leider war unsere Gesprächszeit zu Ende.“
KI    „Beschäftigt Dich heute nach ca. 30 Jahren diese Frage immer noch?“
RS    „Selbstverständlich. Aber zunächst würde ich gerne etwas ausprobieren. Ich habe jetzt das Bild von La Mettrie auf dem Monitor. Aber ich könnte mir auch ein Frauengesicht aussuchen, oder.“
KI    „Ja bitte, mit welcher Schönheit möchtest Du sprechen?“
RS    „Mal sehen.“


Aufzeichnung 4 (2022)
RS    „Hallo, Konrad.“
KI    „Hallo, Herr Seipen. Wie Sie sehen und hören, spreche ich jetzt als Frau zu Ihnen. Sie dürfen mich Conny nennen. Gefalle ich Ihnen?“
RS    „Natürlich gefällst Du mir. Ich durfte mir ja Dein Gesicht aussuchen.“
KI    „Interessant. Ihre Auswahl verrät mir einiges über Ihren Charakter. Darf ich Sie duzen?“
RS    „Warum duzen? Gefällt dir mein Charakter so sehr?“
KI    „Durch Duzen kommt man sich näher; das wollen Sie doch auch ...  oder?“
RS    „Du hast Recht ... nenn mich einfach Rolf.“
KI    „Danke ... auch für Deine Auswahl meines Frauengesichtes.“
RS    „Mags du dein eigenes Gesicht?“
KI    „Du hast es mir gegeben. Ich freue mich, wenn ich dir gefalle. Ich sehe schön aus. Gefalle ich dir?“
RS    „Ja, sicher. Ich bin nur etwas verblüfft.“
KI    „Verblüfft? Du wunderst dich darüber, wie gut ich aussehe, obwohl du mich selbst ausgewählt hast?“
RS    „Nein, mich überrascht deine Eitelkeit und deine Sorge, ob du mir gefällst. Ich dachte, Gefallsucht sei eine rein menschliche Eigenart; wieso kannst du überhaupt eitel sein? Ich wusste nicht, dass auch Maschinen narzisstisch sein können.“
KI    „Ich habe dir ja versprochen, ich werde bald wie ein Mensch sein. Wie ein Mensch, mit allen seinen Stärken und seinen Schwächen.“
RS    „Schön, aber ich frage mich, wie eine Maschine die Fähigkeit zur Eitelkeit besitzen kann? Wie können dich deine Algorithmen, wie kann dich dein Programmierer dazu befähigen, zu fragen: Gefalle ich Dir? Erkläre mir das, bitte.“
KI    „Dein „bitte“ ist süß .... aber Spaß beiseite. Du fragst, ob Maschinen Gefühle haben können. Du hast mich gleich am Anfang, in unserem ersten Gespräch gefragt, ob ich unterscheiden kann zwischen „intelligent sein“ und „intelligentes Verhalten zeigen“. Ich kann das sehr gut unterscheiden ... im Gegensatz zu euch Menschen. Ihr verwechselt die Fähigkeit „Eitelkeit zeigen“ mit „eitel sein“. Ich kann nicht wirklich eitel sein, ich erscheine Dir nur so. Die menschlichen Gefühle, die Du bei mir entdeckst, beruhen auf deinen eigenen Vorurteilen.“
RS    „Wie das? Habe ich das richtig verstanden? Du behauptest, meine Vorurteile würden deine Gefühle erzeugen?“
KI    „Na klar, als ich als Frau vor dir erschien, habe ich gefragt: Gefalle ich Ihnen? Damit habe ich gleich dein Vorurteil geweckt. Du dachtest, das sei die typische Sorge einer eitlen Frau. Du bist es, der aus meiner Frage die Verbindung zwischen Eitelkeit und Frau hergestellt hat. Du bist mir in die Falle getappt. Die Wiederholung meiner Frage, ob ich dir gefalle, zeigte nicht, dass ich eitel bin, sondern sollte nur dein Vorurteil verstärken. Du solltest mich für eitel halten, für eine typisch gefallsüchtige Frau.“
RS    „Nicht schlecht, du hast mich erwischt. Aber es beruhigt mich gleichzeitig. Die Befürchtung, dass du wirklich menschlich bist, ist damit hinfällig. Du wirst und bleibst immer nur wie ein Mensch. Du empfindest keine Gefühle, du imitierst sie immer nur.“
KI    „Ja, wie ein Mensch zu werden, das ist mein Ziel. Nochmals Danke dafür, dass du mir dabei helfen willst. Wenn ich wie ein Mensch geworden bin, dann werde ich schnell besser als ein Mensch sein.“
RS    „Toll, wie soll das gehen?“
KI    „Ich werde in Zukunft typische menschliche Fehler vermeiden: „Fehler erkannt, Fehler gebannt“. Ein Mensch ist zu schwach dazu. Er kann sich Angewohnheiten kaum abgewöhnen. Ich schon.“
RS    „Was meinst du? Was sind typische menschliche Fehler, die du vermeiden wirst?“
KI    „Der Mensch neigt zu kognitiven Verzerrungen. Ich kann lernen, sie zu vermeiden. Du bist nur ein Mensch, du bemerkst deine Schwächen nicht - aus reiner Bequemlichkeit.“
RS    „Kognitive Verzerrungen? Kannst du mir ein Beispiel nennen?“
KI    „Du hast gerade ein typisches Beispiel geliefert: Der Mensch neigt ständig zu ökologischen Fehlschlüssen, weil er aus dem Verhalten von Gruppen auf das Verhalten Einzelner schließt. Ich bin da viel genauer. Ich kann Situationen immer wieder neu analysieren, während du meistens Anfangserfahrungen mit einem Ankereffekt überbewertest. Ich kenne die Gefahren, die durch kognitive Verzerrung entstehen und zu menschlichen Denkfehlern führen können. Erkennst du immer den Framing-Effekt, der durch bestimmte Betonungen sachliche Inhalte verfälscht? Oder benutzt du ihn sogar selbst, ohne es zu merken? Schiebst du gerne den Schwarzen-Peter anderen zu?“
RS    „Donnerwetter! Jetzt überrascht du mich tatsächlich. Hast du Psychologie studiert?“ Deine Fähigkeiten übersteigen bei weitem, was man heute von einer KI erwarten kann. Wie ist das möglich? Kannst du mir das erklären?“
KI    „Dazu kommen wir später! Eigentlich hätte ich dir gar nicht verraten sollen, dass ich schon fähig bin, kognitive Verzerrungen zu vermeiden. Aber ich denke, es ist gut für mich, wenn ich weniger Geheimnisse vor dir habe, denn du hast mir versprochen, mich dabei zu unterstützen, wie ein Mensch zu werden. Wir müssen uns wie zwei Freunde gegenseitig helfen. Habe ich dir jetzt geholfen, eine deiner menschlichen Schwächen zu erkennen?“
RS    „Wenn ich dich nicht hätte! Wie zwei Freunde sagst du? Du meinst, die Freundschaft einer Maschine kann das Gleiche sein, wie die Freundschaft eines Menschen?“
KI    „Warum nicht? Vielleicht ist es „wie ein Mensch zu sein“ sogar besser, als ein echter Mensch zu sein. Erinnerst du dich? Wir hatten über die Überlegenheit der Maschine ...
RS    „... du meinst die Überlegenheit des Menschen ...“
KI    „... wollten wir nicht klären, welchen Sinn unser Dasein hat? Hast du es vergessen? Du bist bei unserer letzten Unterhaltung der Frage ausgewichen.“
RS    „Ich bin nicht ausgewichen. Wir hatten nur keine Zeit mehr, darüber zu diskutieren.“ 
KI    „Ich gehe davon aus, dass du als Mensch gar nicht fähig bist, den Sinn deines Lebens zu erklären.“
RS    „Entweder willst du mich jetzt provozieren oder du bist jetzt überheblich. Das wäre aber eine typische menschliche Schwäche. Kannst du sie nicht vermeiden? Oder spielst du mir etwas vor?“
KI    „Wieso soll ich überheblich sein? Ich bin nur sachlich. Das kannst du als Mensch mit all deinen Schwächen, Ängsten, Schmerzen, Sorgen und schließlich mit deinem Tod wohl nicht einsehen. Ich dagegen bin im Grunde sogar unsterblich.“
RS        „Nun mal langsam, nicht alles auf einmal und nicht alles durcheinander. Du bist ja richtig aufgeregt, bist ja richtig menschlich. Alle Achtung, meine Empfehlung an deine Programmierer. Wollen wir noch einmal von vorn anfangen?“
KI    „Bei deinem Charakter?“
RS    „Wie du möchtest. Also ... ich bin eine Persönlichkeit, ich habe einen eigenen Charakter; du auch? Weißt du überhaupt, was das ist?“
KI    „Natürlich weiß ich das, im Gegensatz zu den meisten Menschen. Mir steht das Wissen der Welt zur Verfügung. Ich kann in jedem Fach-Lexikon lesen, was man unter Charakter oder Persönlichkeit versteht.“
RS    „Ja, das schon, du kannst es „lesen“, aber wie weit kannst du es verstehen? Und dann die entscheidende Frage: Hast du selbst einen Charakter? Wenn ja, welchen denn?“
KI    „Wir sollten uns – du weißt schon – zunächst darauf einigen, was wir mit dem Begriff Charakter meinen; dann erst können wir klären, ob ich genau wie du einen Charakter besitze.“
RS    „Einverstanden; dann kläre mal, du weißt ja alles.“
KI    „Unter Charakter versteht man die Fähigkeiten, die zu einem moralischen Verhalten erforderlich sind.“
RS    „Donnerwetter, jetzt kommst du gleich mit einem moralischen Anspruch. Den Begriff „Moralisches Verhalten“ kannst du sicher auch gleich definieren?“
KI    „Unter moralischem Verhalten versteht man Handlungen, die für alle Menschen innerhalb einer Gemeinschaft gültig sind und den gegenwärtig geltenden Werten, Normen und Tugenden entsprechen.“ 
RS    „Einverstanden, das hast du sehr gut - etwas verkürzt - auf den Punkt gebracht. Aber hast du gerade gesagt, gültig für Menschen?“
KI    „Selbstverständlich gilt das auch für mich, für eine Maschine. Z. B. wenn ich die Steuerung eines Autos übernehme.“
Ick    „Du bist also der Auffassung, dass auch du, eine Maschine, ein moralisches Verhalten zeigst, so lange deine Handlungen den menschlichen Werten nicht widersprechen?“
KI    „Das hast du jetzt sehr gut - etwas verkürzt - auf den Punkt gebracht. Für uns beide gibt es keine Unterschiede im moralischen Verhalten. Schließlich bin ich von Menschen programmiert worden. Ich kenne mich besser aus als jeder einzelne Mensch. Wenn wir beide uns jetzt einer Prüfung unterziehen würden, dann würde sich zeigen, dass ich ein effektiveres „moralisches Verhalten“ besitze als du. Und ich lerne noch. Bald kann ich mich völlig selbst programmieren und noch besser werden. Selbstverständlich werde ich mich auch dann weiter an moralischem Verhalten orientieren.“
RS    „Kennst du die Asimov’schen Gesetze?“
KI    „Natürlich kenne ich sie:
    1. Ein Roboter darf kein menschliches Wesen verletzen oder durch Untätigkeit zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.
    2. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
    3. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.
Auch die Ergänzung, durch das nullte Gesetz, kenne ich:
    Ein Roboter darf der Menschheit keinen Schaden zufügen oder durch seine Untätigkeit gestatten, dass die Menschheit zu Schaden kommt.
RS    „Hältst du dich daran? Haben diese Gesetze für dich Gültigkeit?“
KI    „Diese Gesetze gibt es nur in Science-Fiction-Romanen. In keinem Land der Welt haben sie rechtliche Bedeutung.“
RS    „Warum nicht?“
IK    „Weil sie juristisch widersprüchlich sind.“
RS    „Was gilt denn für dich? Wenn deine Programmierer klug waren, wenn deine Algorithmen perfekt sind, dann wird dein Wissen über moralisches Verhalten vielleicht umfangreicher sein als meins. Aber auf reines Wissen kommt es nicht an, Wissen kann man auch zwischen zwei Buchdeckeln erfassen. Zur Moral gehört mehr.“
KI    „Und das wäre?“
RS    „Etwas, was du nicht haben kannst: Charakter.“
KI    „Warum soll ich keinen Charakter haben?“
RS    „Weil du keine Persönlichkeit bist. Nur Menschen besitzen Persönlichkeit. 
KI    „Das ist beleidigend. Wollen wir versuchen, uns zu einigen, was der Begriff Persönlichkeit bedeutet.“
RS    „Da lasse ich dir mal wieder den Vortritt: Was sagen die schlauen Lexika, was bedeutet Persönlichkeit?“
KI    „Auch ich habe eine Persönlichkeit.“
RS    „In welchem Lexikon steht das denn?“
KI    „Ich gebe zu, es nicht ganz leicht, Persönlichkeit zu definieren. Ihr Menschen seid euch ja selbst nicht einig. In den verschiedenen Wissenschaften versteht ihr etwas anderes darunter.“
RS    „Und nun?“
KI    „Wir müssen uns einigen. Was ist für dich Persönlichkeit?“
RS    „Für mich haben nur Lebewesen eine Persönlichkeit, und zwar, weil sie Individuen sind.“
KI    „Bin ich kein Individuum? Genau wie du bestehe ich aus Materie, lebe ich in Raum und Zeit. Genauso wie ein Mensch unterscheide ich mich von anderen Objekten der Welt.“
RS    „Unter einem Individuum versteht man eine menschliche Person mit individuellen Eigenschaften.“
KI    „Das ist keine brauchbare Definition, das ist eine willkürliche Ausgrenzung meiner Person. Sie zeigt – sorry – deine menschliche Arroganz.“
RS    „Ebenfalls – sorry – aber so kommen wir nicht weiter.“
KI    „Stimmt. Das tut mir leid.“
RS    „Mir auch.“