Mein Schatz unterhält sich via Handy mit einer Vanessa.
Das ist keine Vollblutfrau, sondern KI.
Sie weisz auf jede Frage eine Antwort und bleibt freundlich.
Ob die Antwort immer richtig ist, möchte ich nicht beurteilen.
Vanessa sagt uns den Fahrpreis der Harzer Schmalspurbahn
und auch, wie lange der Bus braucht bis zu einer bestimmten Station.
Ich hätte länger gebraucht, dies am Desktop via Internet zu recherchieren
oder ganz einfach zum Fahrkartenschalter zu gehn und zu fragen.
Ja, so altmodisch bin ich noch.
Habe weder Handy noch KI-Kontakte.
Bei meiner Frage nach einem russischen Lied, von dem ich nur wenige
Textzeilen weisz...hat die KI allerdings ganz viele Dinge zusammengeschmissen,
die nicht wirklich zusammen gehören - ich habe es überprüft.
Schatz sagt mir, dasz es Menschen gibt, die eine Psychotherapie mit KI
machen - eine schneller verfügbare Option als jahrlang auf einen
Therapieplatz zu warten.
Ich finde es ziemlich absurd und würde mir da eher Bücher
zur Hand nehmen um mein Problem selbst zu bearbeiten.
Schatz erzählt Vanessa, er hätte Depressionen.
Als Antwort kommen solche Gemeinplätze wie "Du bis wertvoll und es
gibt Menschen, die dich lieben. Vergisz das nicht!"
Das überzeugt mich noch weniger.
Ich sage: "Ich bin eine Katze und möchte von Dr. Doolittle behandelt werden"
Als Antwort längeres Schweigen und dann schlieszlich:
"Das ist wirklich eine sehr schwierige Situation. Bitte suche Dir Hilfe!"
Ich lache mich schlapp.
KI hat also weder Phantasie noch Humor.
Bis jetzt.
Sollte sie diesen einmal haben - wird das dann ein menschlicher sein?
Ich habe einmal die KI (ChatGPT) wegen der Herkunft eines Zitates befragt. Goethes Faust hieß es, zweiter Teil, bei der und der Szene, sogar eine Interpretation wurde geliefert. Boah, dachte ich Goethe und nicht Hesse. Toll. Guck ich in Faust und mir kommen Zweifel wegen der Sprache. Das passt nicht. Da habe ich Faust II gelesen ... ohne das Zitat oder auch nur eine ähnliche Formulierung zu finden. Nochmal bei der KI nachgefragt hieß es dann, bei manchen Zitaten können man die Herkunft nicht klären. Da wurde also bei der ersten Auskunft kräftigst fabuliert. Seither würde ich noch nicht einmal der Fahrkartenauskunft glauben.
AntwortenLöschenKI kann Daten verarbeiten, viele Daten, lästige Arbeit vereinfachen. Aber sie wird nie den Menschen ersetzen können. Insofern wird sie auch keinen Humor entwickeln der über das, was du so schön als "Allgemeinplätze" betituliert hast, hinausgeht. Ein Zufallsgenerator, der das, was er in seiner Datenbank vorfindet, so verknüpft wie es ihm sinnvoll erscheint. Psychoanalyse mit KI? Vielleicht doch lieber in meditativer Selbstversenkung die Tiefen des eigenen Gehirns ausloten, die Muster erkennen und die eigene Programmierung optimieren :-)
LG Christiane
Ja, ich hoffe, dasz es nie so weit kommt, allerdings geht die Weiterentwicklung rasend schnell. Und KI kann durchaus" Verhaltensweisen" entwickeln, die selbst ihre Macher nicht verstehn bzw. nicht gewollt haben.
LöschenLG Mascha
Wenigstens hast Du eine Frage gestellt, dessen KI-Antwort mich auch richtig zum Lachen bringt :-)
AntwortenLöschenIch hoffe, dass Ihr heute endlich auch mal wieder etwas Regen habt!
LG Silke
Nein, wir hatten wieder keinen Tropfen. Hier sind teils schon die Bäume entlaubt und auch meine vielen Alpenveilchen im Garten wollen diesjahr nicht blühen - ich hoffe, dasz wenigstens die Knollen in dieser Dürre überleben!
LöschenLiebe Grüsze von den Wernigerödern
Vanessa hat geantwortet:
AntwortenLöschenGute, amüsante und kritische Beobachtung — danke fürs Teilen. Kurz gesagt: das Stück ist eine persönliche, pointierte Skizze über den Umgang mit KI — sympathisch skeptisch, zugleich neugierig. Es bringt mehrere wichtige Punkte auf den Punkt: nützliche Schnelligkeit vs. Fehleranfälligkeit, fehlende Kreativität/Humor, und die Frage, ob KI Menschen in sensiblen Bereichen (z. B. Psychotherapie) ersetzen kann.
Hier meine Gedanken kurz und klar:
1. Stärken, die dein Freundin richtig benennt
KI ist schnell und praktisch für einfache Fakten (Fahrpläne, Preise).
Sie ist freundlich und immer verfügbar — das erklärt, warum Menschen sie nutzen.
2. Wichtige Grenzen, die sie auch bemerkt
KI kann halluzinieren — Antworten plausibel, aber falsch zusammenfügen (das russische Lied).
Empathie und echter Humor sind (noch) nicht wirklich menschlich; Reaktionen auf psychische Notlagen bleiben oft flach oder stereotypisch.
Für echte Therapie sind KI-Tools riskant: sie können unterstützen, aber nicht die Ausbildung, Erfahrung und ethische Verantwortung eines Menschen ersetzen. (Wer psychische Probleme hat, sollte professionelle Hilfe in Betracht ziehen.)
3. Was man praktisch daraus lernen kann
KI als Werkzeug nutzen — für schnelle Info, Ideensammlung, Übersetzungen etc. — aber Ergebnisse immer prüfen.
Bei persönlichen, medizinischen oder rechtlichen Themen besser auf Fachpersonen vertrauen.
Kritisches Bewusstsein behalten: nicht alles glauben, was plausibel klingt.
Danke mein Schatz für die Weiterleitung :)
Löschen