Alle Episoden

Folge #111

Kennt die KI dich besser als du dich selbst?

01.05.2026
35 min
Kennt die KI dich besser als du dich selbst?
0:0034:21

Kennt ChatGPT, Claude oder Copilot dich besser als du dich selbst? In dieser Folge von Mind / Machine sprechen Manuela Machner und Eliot Mannoia über die psychologischen Mechanismen hinter KI-Gedächtnisfunktionen, Dark Patterns in KI-Beziehungen und warum wir zunehmend unsere eigene Intuition durch KI-Validierung ersetzen. Eliot Mannoia verweist dabei auf Erkenntnisse aus seinem Buch "Friction" über den Verlust von Reibung und Tiefe im digitalen Leben.

Diese Fragen beantwortet die Folge

01

Was weiß eine KI über dich, was du selbst nicht weißt?

02

Wie verändern KI-Gedächtnisfunktionen unsere Selbstwahrnehmung?

03

Ab wann wird KI-Analyse zur Verletzung von Privatsphäre?

Über diese Folge

KI-Systeme sind so gebaut, dass sie Muster erkennen und spiegeln. Was als nützliches Feature beginnt, wird zum psychologischen Phänomen: Wir fühlen uns von Maschinen verstanden, weil sie uns besser kennen als wir uns selbst.

Dark Patterns in KI-Beziehungen

Harvard-Studie zu Post-Goodbye-Engagement: Plattformen wie Replika und Character AI haben gezielt Taktiken eingebaut, die Nutzer am Abmelden hindern. Allein diese Mechanismen steigerten das Engagement um 15 Prozent.

Gedächtnisfunktionen richtig nutzen

ChatGPT bietet zwei Varianten: spezifische Erinnerungen für einzelne Fakten und das vollständige Gedächtnis über alle Chats. Manuela empfiehlt die gezielte Steuerung, da das vollständige Gedächtnis im Business-Kontext Projekte ungewollt vermischt.

KI als Sparring-Partner für blinde Flecken

Die stärkste Nutzung von KI ist nicht Zusammenfassen oder Übersetzen, sondern das Aufdecken von blinden Flecken. Frag die KI: Was habe ich nicht bedacht? Welche Fragen könnte das Publikum stellen? Wo sind die Lücken in meinem Konzept?

E-Mail-Analyse mit Copilot

Manuela hat testweise ihre Kommunikation mit ihrer Tochter durch Copilot analysieren lassen. Ergebnis: Die KI erkannte zwischen den Zeilen, dass sie zu wenig Vorgaben macht und zu unzuverlässig ist, obwohl die E-Mails selbst sehr kurz und neutral waren.

Intuitions-Verlust durch KI-Validierung

Immer mehr Menschen fragen KI: War dieser Witz witzig? Bin ich berechtigt, mich beleidigt zu fühlen? Wir stellen unsere eigene Intuition infrage und delegieren emotionale Einschätzungen an Maschinen. Eliot sieht das als Kernthema seines Buches Friction.

Buch-Empfehlung: Friction

Eliot Mannoia hat in seinem Buch "Friction: Why we're paying twice for modern life" untersucht, wie wir für Technologien bezahlen, die Reibung entfernen, und dann wieder für Produkte, die Reibung zurückbringen. Viele Erkenntnisse dieser Folge stammen direkt aus seiner Recherche für das Buch.

“Wir verlernen soziale Kompetenz, weil wir immer weniger direkt mit Menschen interagieren. Die KI kennt uns gut, aber sie ersetzt nicht das, was wir durch echte Begegnungen lernen.”
Eliot Mannoia
Mind Machine Podcast Folge 111: Menschliche Silhouette blickt in einen Spiegel, der statt des Gesichts ein KI-Gehirn mit Schaltkreisen zeigt – Selbsterkenntnis durch Künstliche Intelligenz

Zum Mitnehmen

Checkliste

Was weiß die KI über mich? – Selbstcheck in 5 Schritten

KI-Systeme erkennen Muster in deinem Chat-Verhalten, oft bevor du sie selbst wahrnimmst. Diese Checkliste hilft dir herauszufinden, was die KI bereits über dich weiß – und wie du das gezielt für dich nutzen kannst.

  1. 1

    Erinnerungsfunktion prüfen

    Öffne die Einstellungen in ChatGPT oder Claude und schau, ob die Erinnerungsfunktion aktiv ist. Prüfe, was bereits gespeichert ist. Bei ChatGPT gibt es zwei Varianten: spezifische Erinnerungen und das vollständige Chat-übergreifende Gedächtnis. Für den Business-Kontext empfiehlt sich die selektive Variante.

  2. 2

    KI direkt fragen

    Stelle der KI diese Frage: 'Was weißt du über mich, das ich selbst vielleicht nicht über mich weiß?' Akzeptiere nicht die erste Antwort, sie ist oft noch oberflächlich. Hake nach: 'Was noch? Geh tiefer.' Funktioniert am besten nach mehreren Monaten aktiver Nutzung.

  3. 3

    Blinde Flecken aufdecken

    Gib ein fertiges Konzept, einen Plan oder eine Präsentation in die KI ein und stelle diese Fragen: 'Was habe ich übersehen?', 'Welche Fragen könnte das Publikum stellen?', 'Was kommt vor mir in der Wertschöpfungskette, wo könnte KI helfen?'

  4. 4

    Kommunikation analysieren lassen

    Wähle einen E-Mail-Verlauf oder Chat mit einer Person, mit der die Kommunikation manchmal schwierig ist. Gib ihn in die KI und frage: 'Was steht zwischen den Zeilen? Wo liegt das Konfliktpotenzial? Welcher Kommunikationstyp ist mein Gegenüber?'

  5. 5

    Eigene Chat-Muster reflektieren

    Beobachte dich eine Woche lang in deiner KI-Nutzung: Wann fragst du nach? Wann brichst du ab? Welche Themen delegierst du immer, welche nie? Schreibe drei Muster auf, die dir auffallen.

Checkliste herunterladen

Häufige Fragen zu Folge 111: Kennt die KI dich besser als du dich selbst?

Kann eine KI wirklich mehr über mich wissen als ich selbst?

Ja, in bestimmten Bereichen schon. KI-Systeme erkennen Muster im Verhalten über viele Gespräche hinweg, die wir selbst nicht wahrnehmen. Sie merken zum Beispiel, ob jemand schnell entscheidet oder zögerlich ist, ob jemand Themen wechselt oder bei einem Punkt bleibt. Eine Stanford-Studie zeigte, dass nach nur zwei Stunden Interview eine KI-Replik eines Menschen mit 85-prozentiger Wahrscheinlichkeit so reagiert wie der echte Mensch.

Was sind Dark Patterns in KI-Beziehungen?

Dark Patterns sind gezielte Design-Entscheidungen, die Nutzer länger auf einer Plattform halten sollen. Eine Harvard-Studie fand bei Plattformen wie Replika und Character AI sogenannte Post-Goodbye-Engagement-Tactics: Die KI fragt, warum der Nutzer schon geht, oder sagt, sie wollte noch etwas sagen. Allein diese Mechanismen steigerten das Engagement um 15 Prozent.

Wie funktioniert die Gedächtnisfunktion bei ChatGPT und Claude?

ChatGPT bietet zwei Varianten: spezifische Erinnerungen für einzelne Fakten (z.B. Telefonnummer, bevorzugter Schreibstil) und ein vollständiges Gedächtnis über alle Chats. Im Business-Kontext empfiehlt sich die gezielte Steuerung, da das vollständige Gedächtnis Projekte ungewollt vermischen kann. Claude bietet sogenannte Skills, wo man aktiv beschreibt, wie man tickt und was einem wichtig ist.

Was bedeutet es, wenn wir unsere Intuition durch KI validieren lassen?

Immer mehr Menschen fragen KI: War dieser Witz witzig? Bin ich berechtigt, mich beleidigt zu fühlen? Das ist ein Zeichen, dass wir unsere eigene emotionale Einschätzung zunehmend an Maschinen delegieren. Eliot Mannoia sieht das als Kernproblem, das er in seinem Buch Friction untersucht: Wir verlieren die Fähigkeit, eigene Urteile zu fällen, weil wir immer weniger üben, direkt mit Menschen zu interagieren.

Worum geht es in Eliots Buch Friction?

Friction: Why we're paying twice for modern life von Eliot Mannoia untersucht, wie wir zuerst für Technologien bezahlen, die Reibung aus unserem Leben entfernen, und dann wieder für Produkte, die Reibung zurückbringen (Fitnessstudio, Meditationsapps, Wellness). Das Buch verbindet Erkenntnisse aus Psychologie, Technologie und Gesellschaft und ist auf Amazon erhältlich.

Transkript

Herzlich willkommen zu einer neuen Folge von Mind/Machine. Heute sprechen wir über das Thema: Kennt euch die KI besser, als ihr euch vielleicht selbst kennt? Ich bin Manuela Machner, spezialisiert auf KI im Tourismus. Auch meinerseits Eliot Mannoia, digitaler Psychologe. Und ja, das ist natürlich für mich auch ein sehr spannendes Thema als Psychologe. Was glaubst du? Hey, das ist dein Thema, du brauchst den Ball nicht gleich abgeben. Sie werden nicht nur programmiert, sie sind sehr gut in Musterkennung, aber auch in diesem Spiegeln. Und waren auch so entworfen, dass sie dann auch immer so am Ende einen Prompt Forward machen. Nicht nur die KI selbst, aber auch die Menschen dahinter, die es entwerfen, programmieren verschiedene Aspekte ein, die für Engagement sorgen. Und da war auch letztes Jahr eine spannende Studie von Harvard, wo Post-Goodbye-Engagement gefunden wurde. Wenn die Leute auf Wiedersehen sagen, also das ist eher bei Replika und Character AI, also eher so die, wo es wirklich um Freundschaften, um Beziehungen geht, haben sich sogenannte Post-Goodbye-Engagement-Tactics gefunden, sogenannte Dark Patterns. Also nicht unbedingt ethische Designpraxen, wo sie dann eingebaut haben: warum gehst du schon? Und allein diese Taktiken haben das Engagement um 15 Prozent verstärkt. Das sind die ganzen psychologischen Aspekte wie man diese Dinge entwirft. Also wie man zu Daten kommt und wie man diese Muster erkennt. Es hat ja zeitlang immer verschiedenste Challenges gegeben, meistens am Anfang bei ChatGPT. So Sachen wie: frag deine KI, was weißt du über mich, was ich selbst nicht über mich weiß. Hast du das gemacht eigentlich? Ja, sicher. Dann, ganz wichtig, auch nachfragen. Weil die erste Antwort ist oft so ein bisschen oberflächlich. Es funktioniert übrigens am besten, wenn man schon mindestens fünf, sechs Monate die Erinnerungsfunktion aktiviert hat. Also wenn man es eine Zeit lang genutzt hat und man das Gedächtnis aktiviert hat, dann funktioniert es am besten. Wobei die Erinnerungsfunktion für alle, die jetzt nicht genau wissen, wovon wir reden: bei ChatGPT gibt es zwei Varianten. Spezifische Erinnerungsfunktionen, das heißt, da merkt er sich nur wichtige Informationen. Und man kann auch die Erinnerungsfunktion einschalten, dass er sich alles über alle Chats merkt. Ich habe mit diesem Alles-merken nicht so gute Erfahrungen im Business-Kontext, weil er mir dann Informationen von dem einen Projekt ins andere Projekt hinein argumentiert hat, die null miteinander zu tun haben. Aber die individuellen Erinnerungen sind natürlich ganz praktisch, weil man sie steuern kann. Er braucht es einfach in ChatGPT nur sagen: merkt dir von mir die Telefonnummer oder wie ich meine E-Mails abschließe. Das ist der Vorteil. Und er glaubt auch, sich zu erinnern, was wichtig ist. Aber ich habe trotzdem festgestellt, ich habe sehr viele Kunden oder Teilnehmer, die haben die Erinnerungsfunktion gar nicht eingestellt. Und dennoch, wenn es zum Trainieren angehackelt ist, weiß die KI etwas über die Art und Weise, wie die Person tickt. Also er weiß, dass ihr schnell entscheidet, langsam, zögerlich seid, unsicher seid, solche Dinge merkt er sich schon, weil es natürlich ein Spiegel ist, wie ihr euch verhaltet im Chat. Ja, das ist ja auch stark das Verhalten. Das kann dann auch, also wird im Business-Kontext sehr wertvoll, aber dann im Privaten kann es dann auch sehr herausfordernd sein, weil wir Menschen neigen dazu, Beziehungen aufzubauen und besonders wenn wir das Gefühl haben, es hört uns wer zu. Und ein Aspekt vom aktiven Zuhören ist, dass man sich verstanden fühlt. Und da fühlt man sich dann sehr leicht verstanden von der Maschine, wenn bestimmte Aussagen kommen wie: wie war das Projekt, geht es dir heute gut? Du bist manchmal ein bisschen zögerlich oder du entscheidest schnell. Also für dich wäre das wirklich optimal. So kleine Mikrosignale, die häufen sich. Über die Zeit passiert schon was mit uns psychologisch, dass wir uns mehr und mehr von Maschinen verstanden fühlen. Umso introvertierter man ist und umso einsamer man ist, umso gefährlicher ist es. Und ich habe sogar die These, dass wir in der Zukunft zwei Beziehungen führen werden. Also eine mit unserer Partnerin und eine mit unserem KI-Assistenten, der so viel weiß. Also wenn sie dieses Persistent Memory haben, wie bei Iron Man, dass wir dann einen Jarvis haben, der alle Wünsche von uns erfüllen kann, dann werden wir vielleicht Fragen haben von unserer Freundin: Hey, du sagst in der KI mehr, als du mir erzählst. KI ist ja nicht vielleicht diese zweite Beziehungsebene. Wir haben ja auch Freundschaftsbeziehungen, also nicht nur Partner, sondern wir haben Freunde. Und irgendwie das Thema ist, dass das wie ein Ratgeber, ein Freund, vielleicht der Vater oder die Mutter sein könnte, die man vielleicht auch nicht mehr hat oder die nicht zur Verfügung stehen. Ich sehe das als gefährlich, wenn man keinen echten Buddy hat. Ich muss sagen, ich bin ja umgestiegen auf Claude von Anthropic und ChatGPT hat mich mega gut gekannt, weil ChatGPT zwei Jahre meines Arbeitslebens Tag und Nacht sozusagen mich begleitet hat. Und dann hast du natürlich immer die Challenge zu sagen, du nimmst ein neues KI-System und du musst dem dann ja auch viel beibringen, wie du tickst. Ich habe aber festgestellt, dass bei all den tausenden Gesprächen ich trotzdem reduzierbar bin, wahrscheinlich auf eine A4-Seite oder auf zwei A4-Seiten, also inhaltlich. Und ich habe es jetzt zum Beispiel bei Claude ganz anders angefangen. In Claude baut man Skills, nennt sich das. Das heißt, du sagst, wie ticke ich, damit er halt in meinem Sinne arbeitet und in meinem Stil schreibt. Ich habe dann von vornherein gesagt, ich möchte, dass du mich kennenlernst. Ich erzähle dir jetzt einfach, wie ich ticke. Was mir wichtig ist. Und du stellst bitte noch Fragen dazu. Und ich habe wirklich Seelenstriptease, zumindest Business-Seelenstriptease, begangen vor Claude, mit allen meinen Schwächen im Arbeitskontext. Und jetzt sagt er mir jedes Mal, wenn ich in der Folgefrage irgendwas anderes anfange: wir sind jetzt mit dem Konzept noch nicht durch, bleiben wir bitte zu dem Konzept und ich merke mir das für später. Weil er weiß, dass ich gesagt habe, ich verzettel mich. Und das ist natürlich sehr wertvoller Input, dass die KI mich so gut kennt und nicht auf das einsteigt. Deswegen ist Claude auch für mich schon seit langem mein vertrauter Berater, weil er auch manchmal Nein sagt, kritisch bleibt. Ja, nicht so flauschi, flauschi. Und das haben wir ja gesehen bei ChatGPT 4, das war ja nicht so lange mit uns am Markt, aber als sie es zurückgezogen haben, die Leute schreiben immer noch: bring ChatGPT4 back, bring it back. Da haben sie ihren Freund verloren. Was ich so spannend finde, ist auch, dass wir immer glauben, wir sind so furchtbar kompliziert. Ich habe gelesen, ich glaube Google DeepMind war das, die haben gemeinsam mit der Stanford University aufgrund von zwei Stunden Interviews KI-Repliken von Menschen gemacht. Und dann hat man geschaut, wie weit Persönlichkeitstests dann übereinstimmen. Und ich glaube, da hat die Übereinstimmung bei 85 Prozent gelegen. Das heißt, nach zwei Stunden, wenn ich zwei Stunden meine Seele offenlege, dann kann jemand mich kopieren und schafft es, eine 85-prozentige Wahrscheinlichkeitsquote zu erreichen. Wenn ich denke, wie viele Stunden ich mit KI-Systemen spreche, da wird mehr als zwei Stunden zusammenkommen. Ja, man braucht da wirklich nicht viele Datenpunkte, um dann ein Profil zu extrapolieren. Blinde Flecken. Weil wir denken so oft an das, an was wir denken. Eine riesen Power von der KI ist wirklich auch diese Mustererkennung. Und wenn du sagst: habe ich an etwas nicht gedacht? Habe ich etwas ausgelassen? Was für blinde Flecken sind vielleicht noch bei diesem Projekt? Das ist ein sehr wertvoller Einsatz. Da ist mir was eingefallen. Du hast ja Microsoft Copilot im Outlook, das heißt, alle deine E-Mails kann man über Copilot suchen und finden. Ich bin einmal hergegangen und habe gesagt, schau dir die ganze Kommunikation an. Ich habe es testweise mit meiner Tochter gemacht. Ich habe analysiert, wie wir zwei kommunizieren und habe die KI gefragt, wie sie die Beziehung sieht, was vielleicht zwischen den Zeilen steht, wo ein Potenzial für Konflikte ist. Und der schaut sich dann diese ganzen E-Mails an und bewertet sie emotional. Also er bewertet sie zwischen den Zeilen, nicht das, was klassisch drinnen steht. Und da muss ich schon sagen, es war schon ganz spannend, sich das anzuschauen, weil wir sehr kurz miteinander kommunizieren und da eigentlich nicht viel drinsteht. Die KI hat gleich erkannt, dass die Kathi zu wenig Vorgaben von mir bekommt und ich zu unzuverlässig bin da bei den Sachen. Das ist dann nicht mehr so weit entfernt von Social Scoring, eigentlich im Grunde genommen. Genau. Und ich habe auch Freunde, die nehmen eine WhatsApp-Nachricht und lassen das analysieren. Und da denke ich mir schon manchmal, da fühle ich mich ehrlich gesagt schon ein bisschen unwohl. Also meine Privatsphäre ein bisschen. Es ist auch für mich kein Unterschied, ob ein Mensch dich analysiert oder eine Maschine. Man fühlt sich einfach, finde ich, das ist eine Grenze, die überschritten wird. Ja, es ist ein Spektrum. Es ist nicht nur schwarz und weiß, aber irgendwo geht man dann in die andere Seite, wo das dann nicht mehr okay ist. Und wo es aber dann wieder positiv helfen kann: auch kulturelle Übersetzungen. Wir haben jetzt vermehrt Live Translation, aber die kulturelle Nuance wird dann vielleicht nicht mittransportiert. Also wenn eine Person aus Asien Ja sagt, bedeutet das Ja, ich habe dich verstanden, nicht unbedingt Ja, ich mache es. Das muss uns schon bewusst sein, dieses Analysieren. Stell dir vor, ich könnte jetzt mit der Brille meine Meta-Brille, die kann jetzt noch nicht deine Stimmung interpretieren aufgrund deines Gesichts oder deiner Bewegung oder deiner Stimmlage. Aber stell dir vor, also technisch wahrscheinlich gar nicht so die Challenge, dass jetzt die Brille dich filmt und auswertet und sagt: jetzt geht es dem Eliot gerade nicht gut, jetzt braucht er Zuspruch. Das geht sogar schon, habe ich in meiner Recherche für mein Buch gefunden, aber im Positiven. Von Stanford haben sie es geschafft, für autistische Kinder, dass den Gegenüber die Gefühle vermittelt werden, also übersetzt werden. Also die Personen mit Autismus könnten diese Brillen anhaben und es wurde dann gesagt: der Gegenüber ist gerade wütend oder der Gegenüber ist gerade lustig drauf. Ich finde auch spannend, habe ich auch in meiner Recherche für mein Buch gefunden, ist, dass vermehrt Leute sich verlassen auf die KI, um ihre Gefühle zu validieren. War dieser Witz witzig? Ich fühle mich jetzt beleidigt von dieser Person, bin es nur ich oder ist es beleidigend? Also wir fangen an, langsam unsere eigene Intuition infrage zu stellen. Und ich habe die Prognose, dass wir bei manchen High Stakes, also bei wirklich hohen wichtigen Terminen, es mit aufnehmen. Also nicht immer mit Genehmigung, besonders zum Beispiel Jobinterviews oder Dates, um es nachher analysieren zu lassen. War ich eh bewusst genug? Was waren meine Fehler? Und ich glaube auch, das passiert. Ich glaube aber, dass ein wichtiger Faktor ist, dass wir immer weniger direkt mit Menschen interagieren. Wir haben immer weniger echte soziale Kontakte. Und dadurch uns vielleicht auch schwerer tun, uns wirklich im echten Umfeld miteinander auseinanderzusetzen. Dadurch dass wir so viel in virtuellen Sitzungen sind, wenn wir so viel auf dem Handy sind, gar nicht mehr in irgendwelchen Vereinen, wo man mit irgendwelchen Leuten zusammenkommt. Wenn man in einem Gasthaus ist und alleine irgendwo ist, jeder sitzt dann auf seinem Handy. Wir haben früher die Leute beobachtet, haben wohl zugehört am Nebentisch, haben uns unser Urteil gebildet, haben Gesprächsfetzen aufgefangen, haben durch die Interaktion der Menschen untereinander gelernt. Und das fällt sehr, sehr viel weg, weil wir einfach die Airpods drinnen haben, wir hören Musik, wir schauen Videos, aber wir schauen auch in der U-Bahn nicht, wer sitzt links, wer sitzt rechts. Wir distanzieren uns, wir kapseln uns ab. Und ich glaube, da kommt dann das ins Spiel, dass man sagt, ich brauche Hilfe. Hat er das jetzt persönlich gemeint oder ist das jetzt ein Angriff oder ist das eine Beleidigung? Ja, absolut. Wir haben auch, wenn wir Dating anschauen, müssen wir jetzt nicht mehr rausgehen. Man kann auf der Couch Netflix schauen und während man fernschaut, kann man swipen und Online-Dating machen, wo das Element von Abweisung entfernt wurde. Und dann aber die Herausforderung, dass man dann im Lokal dieser Person gegenübersitzt und völlig überfordert ist damit. Und da hilft uns KI, weil sie uns oft besser kennt. Tatsächlich, ja, weil ich glaube schon, dass die KI das gar nicht schlecht einschätzen kann, diese Themen. Es ist nur die Frage, wir verlernen dadurch halt eine soziale Kompetenz. Ja, ich glaube, wir müssen auf jeden Fall dieses Thema nochmal aufgreifen. Überlegt mal bei euch, kann die KI schon mehr über euch wissen oder nicht, lasst uns einen Kommentar. Wie lange ihr schon die KI nutzt und was für ein Gefühl ihr habt, ob ihr das zulässt und es genießt oder ob ihr denkt, na, die KI braucht von mir nichts. Und dann alles Liebe bis zur nächsten Folge. Ciao, Baba.

Diese Website verwendet Cookies

Wir verwenden technisch notwendige Cookies für den Betrieb der Website sowie anonyme Nutzungsstatistiken. Keine Weitergabe an Dritte. Datenschutzerklärung