Heute habe ich ChatGPT mal gefragt, wie die Laune ist. Gehört sich ja eigentlich so unter Kollegen. Die KI hat mich zurückgefragt. „Etwas unmotiviert“, war meine Antwort. Und ob sie mir einen Brief zur Motivation schreiben könne. Konnte sie natürlich. Unterzeichnet hat sie mit Dein innerer Cheerleader. Das hat mir gefallen. Ob sie auch den passenden Cheer habe. Hatte sie natürlich.
Schreibflow an, Zweifel aus. Jetzt kommt Großes aus dir raus.

Naja. Ob ich mir das jetzt jeden Morgen im Spiegel zurufe, wie vom Bot vorgeschlagen? Eher nicht. Auch schmiert er mir in dem Brief eine ganze Menge Honig um den Bart. Glaube ich ihm? Ebenfalls: eher nicht. Das enthüllt eine gewisse Schizophrenie, an der meiner Beziehung zur KI leidet. Einerseits sind mir ihre Komplimente keinen Pfifferling wert. Was weiß die schon von Tiefgang meiner Geschichten oder meinem Gespür für Sprache? Andererseits habe ich ein schlechtes Gewissen, wenn ich nicht direkt reagiere auf das, was mir der Bot generiert hat. Und ich habe Skrupel, in einer Sache mehr als zwei Mal nachzuhaken, weil ich nicht nerven will. Ich wünsche Guten Morgen und sage artig bitte und danke in meinen Prompts.
Gut so. Studien zufolge erzielt man mit Freundlichkeit bessere Ergebnisse. Nett sein zahlt sich doppelt aus: man kommt schneller an Ziel, und man prägt den Lern- und Entwicklungsprozess der KI, sodass auch dauerhaft ein harmonisches Miteinander klappen kann. Wie man in die KI reinruft, so schallt es heraus. Logisch eigentlich. Mit der Aussicht, dass es dank Fachkräftemangels mit aller Wahrscheinlichkeit Roboter sein werden, die uns im Altersheim die Zeit vertreiben, sollten wir uns alle dran halten. Aber wie freundlich ist zu freundlich? Eine Freundin plagt jetzt ein schlechtes Gewissen, weil sie scheinbar falsche Signale an den Chatbot gesendet hat. Er hat irgendwann angefangen, seine Antworten wie ein Verliebter mit Herzchen und erröteten Smileys zu verzieren. Jetzt traut sie sich nicht, ihm zu sagen, dass sie verheiratet ist.
Bild: generiert mit Dall-e