Artwork for podcast Veränderungsstabil
Ep. 103: KI ist parasoziale Pornografie (Talk mit Thomas Hirschmann)
Episode 10315th September 2025 • Veränderungsstabil • Holger Heinze
00:00:00 01:01:25

Share Episode

Shownotes

Warum sind wir eigentlich nicht intelligenter? Diese simple Frage war der Ausgangspunkt für ein ziemlich tiefes Gespräch mit Tom Hirschmann, CEO von Core Cortex und jemand, der KI schon gemacht hat, als wir alle noch dachten, Machine-Learning sei eine neue Netflix-Serie.

Wir sprechen darüber, was es mit dem Begriff „parasoziale Pornografie“ auf sich hat – und warum ChatGPT vielleicht genau das ist. Wir tauchen ein in die Frage, wie menschlich wir wirklich sein wollen, wenn’s doch so bequem ist, sich vom Algorithmus Antworten servieren zu lassen. Und warum echte Komplexität anstrengend ist, aber eben auch die einzige Chance, wirklich zu wachsen.

Was heißt das für Führung? Wie kann ich KI sinnvoll nutzen, ohne meine Urteilskraft zu verlieren? Wie bleibe ich als Organisation lernfähig, wenn der Reiz des schnellen „Prompt → Antwort“ so groß ist? Welche Entscheidungen darf ich delegieren – und welche lieber nicht?

Tom bringt eine wichtige Perspektive mit: KI als Tool, nicht als Guru. Als Verstärker, nicht als Ersatz. Und wir reden darüber, wie sehr wir unsere Denk- und Entscheidungskompetenz eigentlich schon ausgelagert haben – von Google Maps bis zur Partnerwahl.

Eine Folge über Autonomie, kognitive Landkarten, Iron Man-Assistenten, Komplexitätsvermeidung – und die Frage, ob dein Hirn noch selbst denkt oder nur noch promptet.

Unbedingt reinhören, gerade wenn du dich fragst:

- Wie viel KI ist gesund?

- Was heißt Führung in einer Welt voller schneller Antworten?

- Und wie bleibt man klar im Kopf, wenn alles immer komplexer wird?

.

So erreicht Ihr Thomas Hirschmann:

LinkedIn: https://www.linkedin.com/in/thomashirschmann/

Homepage: https://www.thomashirschmann.de/

.

Und so erreicht Ihr mich:

Homepage: https://www.odonovan.de/veraenderungsstabil

LinkedIn: https://www.linkedin.com/in/holgerheinze/

Buch: https://shop.haufe.de/prod/dramafreie-arbeitswelt

Tabelle: Download

Transcripts

Wichtige Frage ist aber die, warum sind wir nicht intelligenter als wir sind? Warum

hat uns die Evolution nicht intelligenter gemacht? Hätte sie machen können. Und an

dem Punkt unterscheidet sich das, was wir gerade machen mit Glassh Language Models

und KI zu dem, was die Natur gemacht hat. Hallo und herzlich willkommen zu einer

weiteren Folge des Podcasts "Veränderungsstabil", in dem wir uns angucken, was

Organisationen, Systeme, Teams, Menschen, Führungskräfte heutzutage drauf haben sollten,

damit sie in dieser wilden Welt nicht nur nicht untergehen, sondern auch möglichst

dauerhaft wirtschaftlich erfolgreich sein können und gleichzeitig gesund. Ich hole mir

dafür gerne Experten für Themen rein, die sich mit Themen besser auskennen als ich

und mehr mit diesen Themen beschäftigt haben. Und heute ist dieser Gast der Thomas,

Und Tom Hirschmann, lieber Tom, herzlich willkommen. Ja, danke. Ich freue mich sehr,

dass ich heute bei dir sein darf. Tom, du bist der CEO von Core Cortex. Deine

Tagline auf LinkedIn ist "Human AI Co -Creative". Das habe ich nicht aufgeschrieben,

Co -Creative Dinge. Also es geht um co -kreative Sachen zwischen Menschen und KI. Du

bist Diplompsychologe, hast recht auch, einen Abschluss in Recht. Und du hast mir

gesagt, im Grunde genommen, du hast KI schon gemacht, bevor alle KI gemacht haben,

richtig? Korrekt. Ich habe auch den Beweis dafür, den kann ich antreten, weil ich

meine KI -Firma Core Cortex ein Jahr vor JetGPT gegründet habe und habe auch

natürlich zehn Jahre davor schon Machine Learning, Deep Learning angewandt. Das heißt,

bevor KI cool war, war das eigentlich mein tägliches Board. Viele, viele Tools, viele

Daten, analytische Methoden, die ich verwendet habe, haben bereits die Technik an sich

verwendet. Wobei ist nochmal ein Riesenunterschied zwischen Good Old Fashioned AI und

Generative AI, aber ich sage mal so, mehr Intelligenz steckt in der neuen KI nicht

deswegen drin, weil sie mehr teure Technologie verwendet. Da werden wir sicher mehr

noch ein bisschen mehr darüber diskutieren, aber deswegen auch co -kreativ, weil ich

glaube Technik sollte immer instrumentell bleiben und den menschlichen Verstand nicht

ausblenden. Deswegen ist für mich KI auch nur ein weiteres Tool. Es richtig zu

verwenden, heißt eben den Kopf eingeschaltet lassen. Genau da wollen wir heute hin,

also gucken, ob wir diesen Spagat schaffen zwischen kritischer Auseinandersetzung und

insbesondere kritischer Auseinandersetzung des Verhaltens der Menschen im Lichte von KI

und den ganzen Angeboten, die es da gibt. Und auf der anderen Seite aber auch

konstruktiv. Es gibt ja durchaus sinnvolle Dinge. Die erste Frage, die Gäste hier

immer beantworten müssen, ist, stell dir vor, du kommst aus der Zukunft und du

wurdest geschickt als Geheimagent, du sollst ein Unternehmen von innen zersetzen und

sabotieren, weil die etwas Böses vorhaben, am besten ohne, dass du erwischt wirst.

Wenn du deine Superkräfte, deine Erfahrungen, dein spezifisches Nischenwissen anwendest,

wie würdest du so eine Organisation von innen zersetzen oder Na, erst mal würde ich

sagen "Zersetzen" klingt schon so ein bisschen negativ. Ich versuche das mal positiv

zu frame 'n. Ich glaube, Werte sind wichtig, Ethik ist wichtig. Abhängig davon,

welches Werte oder Ethiksystem du verwendest, gibt es natürlich unterschiedliche

Interpretationen hinsichtlich des Ziels, was du dann anwenden kannst, wenn du eine Art

positiv geframtes Zersetzen anwenden wollen würdest. Ich würde immer den Ansatz wählen,

einen aufgeklärtes Eigeninteresse zu verwenden. Und das wäre auch mein

Zersetzungsansatz. Das heißt, ich würde den Menschen, die da versuchen, in die falsche

Richtung sich zu entwickeln, ihnen einfach durch meine Hilfe die Möglichkeit geben,

ihr langfristiges aufgeklärtes Eigeninteresse besser verfolgen zu können. Okay, ich

glaube das erste, der auf diese Frage nicht mit einem echten Sabotageplan antwortet,

sondern eher mit einem, Für mich klären das jetzt so, wie ich kläre sie auf, damit

sie verstehen, dass sie Böses tun, während sie es tun. War das so gemeint? Nein,

nein, gar nicht, weil ich glaube nicht daran, dass du Menschen verändern kannst. Ich

glaube, du kannst ihnen nur dabei helfen, zu verstehen, dass ihr Eigeninteresse

weitreichender Revolgen hat als der direkte nächste Schritt. Ich sag mal so,

gibt dir ein Beispiel, wenn jetzt einer so dumm wäre zu denken, ich muss jetzt

irgendwie jemanden erschlagen, damit ich dessen Geldbörse bekomme, damit ich mir ein

Eis kaufen kann. Dann könntest du dem erklären und sagen, tu pass mal auf. Ich kann

dir auch das Geld fürs Eis einfach geben. Dann musst du den nicht erschlagen. Und

dann reden wir drüber, warum du überhaupt den Impuls hattest, jemanden erschlagen zu

wollen. Und danach geht es dir wahrscheinlich besser, weil du dich besser fühlst und

du kannst deine Energie in was Sinnvolleres Channeln. Also das ist jetzt natürlich

ein dummes Beispiel, aber das wäre so ein bisschen der Ansatz zu sagen, viele

Impulse, die langfristig negativ sind, haben einfach damit zu tun, dass sie

kurzfristig in die falsche Richtung gelenkt sind auf ein Ziel, das zu kurzfristig

ist. Und langfristige Zielausrichtungen, Menschen zu ermöglichen, ist meistens schon der

erste Schritt. Ich habe neugierig von einem Comedian tatsächlich so ein Ding gehört.

Ich habe ein Beispiel war Kindererziehung und ich fand es aber so schön auf den

Punkt gebracht, der hat gesagt, manchmal muss man höflich oder freundlich nicht zur

Gegenwart, sondern zur Zukunft sein. Also Kind ist vor dir und Kind will immer nur

Pommes fressen. Und dann musst du irgendwann sagen, ja, ist jetzt mal vorbei mit dem

Pommes fressen, weil man sagt, okay, du bist so unfreundlich, ist gemein, meine

Kinder sagen, das ist unfair, das ist gemein. Du liebst mich nicht, also da bin ich

noch nicht, aber wenn das wenn man sagen würde, ich sage, naja, ich liebe das, was

du in zehn Jahren sein könntest, wenn du halt keine Diabetes hast, ne? Genau, und

damit tust du ja diese Personen einen Gefallen, einen Riesengefallen, auch wenn sie

das kurzfristig nicht einsehen.

Hey, kurze Durchsage, wenn euch Veränderung stabil gefällt, dann nehmt euch doch mal

kurz Zeit und gebt dem Podcast eine Bewertung auf dem Streaming -Dienst, mit dem ihr

gerade hört. Das hilft uns enorm, weil dann noch mehr Menschen im Podcast entdecken

können und so können wir die Community weiter wachsen lassen. Vielen Dank für's

unterstützen, vielen Dank fürs zuhören und jetzt geht's weiter mit der Episode. Ich

bin mal gespannt, ob wir gleich bei unserer Diskussion von KI tatsächlich, weil wir

kommen jetzt noch in die Elke von Disziplin, so erfasst schon, also sozusagen du

hast auf Englisch diesen Ausspruch "You always have a choice between discipline and

regret", weil es ja auch ein bisschen wie eine Droge ist. Aber wir schleigen anders

ein. Ich war früher großer Fan, ich weiß nicht ob du das noch kennst, Zimmer frei,

Diese Sendung, wo dann da irgendwie Prominente waren und dann gab es immer so ein

Überraschungsgast, dann haben die irgendwie den, den weiß ich nicht, den alten Pfarrer

aus dem Dorf. So ähnlich habe ich das gemacht. Ich habe einen Freund von dir über

dich befragt. Und zwar ist die, pass auf, hintergrund des folgendes. Ich bin ja auf

dich aufmerksam gekommen, weil ein Kollege von mir eine Keynote von dir gehört hat.

Und in dieser Keynote hast du den Umgang mit Chat GPT in der Gegenwart bezeichnet

als als "parasoziale Pornografie". Das fand der Kollege cool. "Grüß Matthias",

und schrieb mir das und ich habe es erstmal nicht verstanden. Also ich kenne alle

Bestandteile dieser Aussage, aber zusammengesagt nicht verstanden. Also, ich bin in

ChatGPT gegangen, 4 .0, und habe gesagt, hör mal zu, jemand hat die Nutzung von

ChatGPT als "parasoziale Pornografie" bezeichnet. Erstens, warum? Zweitens, stimmt das?

Und drittens, was sagt diese Aussage über die Person aus. Hm, interessant. Dann kam,

ich kürze die Antwort ein bisschen, weil wir wissen, JetGPT hat mich erst mal über

den grünen Klee gelobt, was für eine tolle Idee es ist, diese Frage zu stellen, und

so weiter. Das ist ja irgendwie, das muss auch mal abtrainieren, sehr krass, ja

jedes Mal kommst du in, sagst, ey, ich hab mir überlegt, dass ich mir ein Lolli

ins Ohr stecke, und das ist für die... Was für eine tolle Idee! Was so eine gute

Idee macht, das ist so supergute. Also erstens, warum könnt ihr jemand JetGPT als

parasoziale Pornografie bezeichnen. Die Metaphe spielt auf zwei Aspekte an. Erstens

parasoziale. Die Beziehung zu JetGPT ist einseitig, emotional gefärbt und wirkt oft im

Team oder Vertraut, obwohl sie gar keine echte Gegenseitigkeit im menschlichen Sinn

hat. Menschen reden mit JetGPT wie mit einem Vertrauten, Berater oder Freund, aber da

ist keine echte Person. Also das ist alles JetGPT über sich selbst. Pornografie

bietet schnelle Befriedigung von Bedürfnissen, Lust, Nähe, Kontrolle, ohne echte

Beziehung, Verlässlichkeit oder Gegenseitigkeit. Die Analogie zielt also auf die

emotionalen sozialen Bedürfnisse ab, die ChatGPT scheinbar erfüllt. Gesehen werden,

Bestätigung bekommen, keine Angst vor Bewertung und Ablehnung. Kontrolle über tiefe

Dauer und Inhalt des Dialogs ist einseitig. Zusammengeführt, heißt das, ChatGPT wird

wie ein emotionales Selbstbedienungsangebot genutzt, um schnell das Gefühl von Nähe

verstanden werden und Gespräche zu bekommen, ohne dass da echte Begegnung oder echtes

Risiko ist. Ich setze mal ab und frage dich, du nix, wie ein Wilder, das sehen die

Hörer nicht. Aber kannst du mitgehen? Ich bin erstaunt, wie gut das tatsächlich

zusammengefasst ist, aber dass es könnte auch wiederum ein Scheinverständnis sein. Ich

weiß natürlich irgendwie, Verständnis existiert nicht wirklich in KI, deswegen ist es

vielleicht eher ein linguistisches in die richtige Richtung zeigen aufgrund von

statistisch -predektiver Erfolgsquote. Es klingt gut.

Ich lasse es mal so stehen. Okay, dann gucken wir uns schnell den zweiten Teil an.

Ich habe mir gefragt, stimmt das denn? Dann kommen wir als Antwort. Teils, teils.

Ja, parasoziale Elemente sind vorhanden. ChatGbt ahmt soziale Interaktionen nach, gibt

emotionale Resonanz, vermittelt Empathie. Viele Nutzerinnen sprechen in ich -form,

erzählen persönliches und schreiben wie ein Tagebuch oder sprechen mit mir wie mit

einem Therapeuten. Ob das pornografisch ist, hängt stark von der Wertigkeit und

Ernsthaftigkeit der Nutzung ab. Ah, korrekt. Ja, gehst du mit? Und jetzt natürlich

die wichtigste Frage, was sagt das über die Person aus? Was sagt das über die

Person aus, die diesen Begriff verwendet? Ein solcher Begriff verrät viel über den

Deutungsrahmen, aus dem jemand argumentiert. Ah, hoher Anspruch an Beziehung und

Echtheit. Die Person legt möglicherweise Wert auf authentische zwischenmenschliche

Beziehungen und empfindet Angebote wie ChatGPT als "Surrogate", die echte Bindung

gefährden und entwerten. B. Kritik an emotionaler Selbstbedienungskultur. Sie könnte

eine Kritik am Konsum von Beziehungserfahrungen ohne Beziehung äußern. C. Mögliche

Skepsis gegenüber KI. Der Begriff deutet auch auf ein distanzierendes, vielleicht

kulturkritisches Verhältnis zu KI hin. Was wie näher aussieht ist für diese Person

künstlich leer oder manipulativ und die gleichzeitig ein Bedürfnis nach Tiefe. Wer so

pointiert urteilt wünscht sich vermutlich mehr Tiefe, Resonanz und Gegenseitigkeit im

Sozial miteinander und empfindet KI als falsches Versprechen. Ja, sehr spannend,

jetzt hast du mir einen riesen Gefallen getan, weil ich meine heutige Therapie

Sitzung damit absagen kann, die habe ich nämlich schon gehabt. Super, ich finde es

echt super spannend. Was man immer wieder sieht ist, es ist die Person und ist die

Art und Weise, wie man mit KI umgeht, die den Unterschied macht. Weil allein die

Tatsache, dass du jetzt dieses gestufte Vorgehen an den Tag gelegt hast und da

tiefer reingedrüllt bist in diesen Ausdruck und ihn beleuchtet hinterfragt hast und

damit auch mich hinterfragt hast, finde ich genial, weil das auch zeigt erstens

kritischer Umgang mit KI nicht einfach irgendwas so stehen lassen und Nummer zwei

auch Interpretationsmöglichkeiten. Keine Aussage ist für sich ein Ausdruck eines

hundertprozentigen Realitätsversprechens oder einer Realität als solche. Und das ist für

mich so ein bisschen epistemologisch die größte Gefahr, die ich mit KI aktuell sehe,

ein Verflachen der Komplexität unserer realen Wirklichkeit unserer Realität.

Realität ist nicht nur multidimensional, sondern multi -causal. Das heißt, wir haben

nicht diese einfache one -to -one Realität. Ich stelle Frage,

KI gibt mir richtige Antwort. Das ist eine Illusion. Genauso wie viele andere,

sage ich mal, komplexitätsreduzierende Annahmen, eine Illusion in unseren Denkmodellen.

Aber ist das nicht menschlich diese Verkürzungen. Wir sind jetzt an der Ecke mit

Vorurteilen im Grunde genommen. Ich werde das nie vergessen, wenn man eben sauer land

auf einer Hochzeit und da saß jemand neben mir, den ich nicht kannte und der

stellte sich vor mit. Ich bin der Sohn, so einen Namen habe ich vergessen. Ich bin

eigentlich gegen meinen Willen hier, weil das ist eine Bitburger Hochzeit. Ich gehe

eigentlich nur auf Wahrsteiner Hochzeit oder Krombacher, weiß ich nicht mehr, weil

Bitburger Hochzeiten meistens scheiße sind. Ich muss immer wieder diesen Typ denken,

weil das ist so eine brutale Heuristik, aber wir machen das doch gerne, oder ich

sage es noch andersherum. Das geht auch eigentlich gar nicht anders. Wir können doch

nicht die ganze Welt den ganzen Tag differenziert betrachten. Passt du absolut recht.

Ich glaube, der Unterschied ist nur der, lasst uns mal diesen Bitburger Menschen

nehmen oder warst ein Mensch. Was für eine Geschmacksrichtung von Realität er

bevorzugt hat. Das ist eigentlich ein perfektes Beispiel, weil wir fangen ja jetzt

schon an zu sehen, insbesondere ist natürlich auch wieder ein bisschen stereotypisch,

aber ich habe tatsächlich erste empirische Daten dafür auch, dass junge Leute,

insbesondere halt die KI -Nativen, wenn man sie so nennen würde, dass die KI

tatsächlich als kompletten Lebensassistenten verwenden. Also jede Frage in KI

reinstellen zum Beispiel, hey, mein Freund hat jetzt plötzlich das und das zu mir

gesagt, soll ich ihm jetzt hier irgendwie auf diese oder jene Art und Weise

antworten und überhaupt will ich, dass er das macht, was ich will, wie kann ich ihn

dazu bringen? Das, wo wir früher Dr. Sommer anschreiben mussten. Genau, genau. Also,

wo ich mir einfach denke, Nummer eins, wenn du nicht verstanden hast, dass eine

echte, reale soziale Beziehung, insbesondere dann auch noch eine intime Beziehung zu

deinem Lebenspartner Gegebenenfalls komplexer ist, als das, was du aus einer JGPT

-Anwort rauskriegst, dann "I don't know, wie soll ich den überhaupt so weit aufklären,

dass er versteht, welche Komplexitätsgrade mit welchen Tools beantwortbar sind?" Also

ja, ich verstehe Simplifizierung, die Notwendigkeit, Einfachheit und Berechenbarkeit

herzustellen, aber es gibt Lebensbereiche, wo das im Prinzip systematisch ausgeschlossen

ist. Jetzt halte ich mal hart dagegen, gar nicht um dich zu ärgern, da meine

Erwartung wäre, dass die Antwort von Chat geht, bitte, in dem Beispiel, das du

gerade gebracht hast. Man freut halt, dass du das gesagt hast. Honest mal besser ist

als der Bullshit, den ich auf solche Fragen, als ich zwölf war, aus meiner Familie

gekriegt habe. Weil da kamen so Geschichten wie den aus Bombersheim, kannst du nicht

trauen, das ist alles Inzest, Rothaarige sind immer geil und so war also, da kam ja

auch nur so ein Quark. Ja ja, pass auf. Also wo die Frage sind, wo man die Latte

hinlegt. Das ist nicht der Anspruch, den ich habe. Es ist gar nicht der Anspruch zu

sagen, ist JetGPT besser als deine Oma oder ist JetGPT besser als irgendwie Dr.

Sommer. Der Anspruch ist der, den ich aufsetzen will, zu sagen, du hast

wahrscheinlich mit elf Jahren rausgefunden, dass deine Oma keinen validen Aussage oder

Wahrheitsanspruch auf die komplexen Fragen von Freundschaft und Beziehungswelt hat oder

vielleicht hast du es mit 14 rausgefunden, wenn du hast deinen ersten Freundin

hattest und dann hast du Oma oder Opa oder irgendjemand gefragt und die haben dann

eben sowas gesagt, so eine realitätsverkürzende Simplifizierung von Rothaarige, was auch

immer oder was dann etwas ausgelöst hat in deinem Gehirn, nämlich zu sagen, okay,

diese Antwort klingt etwas kürzt. Die klingt etwas simplifizierend. "Naja, vielleicht

muss ich mir mein eigenes Modell bauen." Das ist ja das, was das Gehirn die ganze

Zeit macht. Das Gehirn modelliert Zukunft. Der beste Predictor oder die beste

Predictionsmaschine ist nicht Chatchi -BT, die ist ein Gehirn. Und zwar deswegen, weil

sie so etwas wie Chatchi -BT als Hilfsmittel nutzt, dort, wo Komplexe vorher sagen,

erst mal aufgrund eigener empirischen Daten nicht so schnell möglich sind. Aber zu

verstehen, dass ChatGPT eben auch struggled, genau wie deine Oma, das hat die junge

Generation auch nicht vollständig geschnallt. Und da gibt es natürlich viele, viele

Ursachen. Eine davon being, dass wir immer mehr Sachen mit Technik machen, dass wir

komplett technikhörig geworden sind. Also ich meine, ich wache auf das erste, was ich

mache, ist mein Handy. Mein Handy sagt mir, was ich tun muss, mein Handy mir welche

Termine ich immer habe. Mein Handy sagt mir, jetzt halt bald darf ich dem Holger

vertrauen oder nicht, weil ich habe Jajibit über dich befragt. Nein, das habe ich

nicht gewonnen. Aber nee, weißte was ich meine. Also es ist Vertrauen der Technik

mittlerweile mehr als jedem anderen Mitmenschen oder uns selbst. Dieser letzte Aspekt

ist, glaube ich, der entscheidende. Ich möchte auch noch ein bisschen auf Intuition

zu sprechen kommen, auch deswegen, weil ich gestern mich noch ein bisschen beschäftigt

habe mit uralten Themen, insbesondere einem Buch von Hubert Dreifuss, einem

ausgesprochenen unterschätzten KI -Kritiker, und ich habe seinen Buch "Mind over

Machine" so ein bisschen quer gelesen, natürlich nicht alles gestern lösen können,

aber es ist ein Typ zum Beispiel, der auch komplett missverstanden wurde. Damals, als

das ganze KI -Thema aufgesetzt wurde, Dartmouth College, die Uranfänge und KI,

also Artificial Intelligence auch als Begriff geprägt wurde, oder Hubert Dreifuss sehr

verlacht und missverstanden, weil er auch aus einer ganz anderen Denkwelt kam. Er kam

aus einer kontinentaleuropäischen, phenomenologisch geprägten philosophischen Umgebung.

Und die ganze moderne, in Anführungsstrichen damals moderne KI -Welt, das waren

Ingenieurs getriebenes Denken, das war rein kann ich es bauen,

denken, dass das war Computer -Menschen, die sagt, alles lässt sich auf Computermodelle

verkürzen. Und das ist ja immer noch das Grundproblem, dass wir die Grundannahmen von

dem, was wir heute KI nennen, nicht verstanden haben, weil wir ja auch unser eigenes

Gehirn nicht verstehen. Immer noch nicht. Und das ist das Thema, wir reden über

Sachen wie Intelligenz, ohne es zu verstehen. Also finde ich immer wieder faszinierend

mit diesen neuronalen Netzen, also bin ich auch raus, was meine Kompetenz angehen

soll. Ich habe mir das Gefühl, wir haben etwas gebaut, das funktioniert, wir wissen

aber nicht so genau warum oder wie. Stimmt das? Zum Teil. Wir können natürlich

mathematisch durchaus erklären, wie Vektor -Maschinen funktionieren, wie du eine Vektor

-basierte Datenbank jetzt reinladen kannst in so ein Large -Language -Model und dann

halt irgendwie auch halbwegs verlässliche Antworten kriegst. Das können wir schon

erklären. Das Ganze, was dann irgendwann unerklärbar wird, ist, wenn das Ganze zu

groß wird, und ich sage mal Stichwort, das ganze Internet gefressen hat, gab es

jetzt irgendwie ja heute Morgen auch wieder einen tollen Post auf LinkedIn, ich weiß

nicht, ob dir das Schogoth -Meme etwas sagt. Das ist ja praktisch so ein bisschen

dieser medische Metapher dafür, dass wir im Prinzip so natenmonster gebaut haben.

Wir haben das ganze Internet durch die Datenfleischwolf getrieben und haben daran halt

im Prinzip diese large Language Models gebaut, die ja immer datenhungriger werden,

weil die Annahme ist, umso mehr desto besser, umso mehr desto gut. Du musst nur

noch mehr Daten mit noch mehr Hochleistungs -GPUs trainieren von Nvidia und dann

kommst du irgendwann zu AGI. Ich teile diese Annahme nicht, nichtsdestotrotz, um auf

dein Thema zurückzukommen. Die ganze Technologie ist natürlich nicht deterministisch.

Das heißt, es ist kein "if it is" in der Ansatz. Die Frage, die du jetzt stellst,

kann 700 verschiedene Antworten bekommen. Das heißt nicht, dass diese 700 verschiedenen

Antworten komplett unterschiedlich sind, aber sie werden doch so unterschiedlich sein,

dass du nicht genau erklären kannst und nicht auch nicht genau vorher sagen kannst,

welche Antwort du als nächstes bekommen wirst. Es sei denn du hast es natürlich

wiederum reduziert, deterministisch gemacht, indem du React -Modelle,

vectorbasierte Datenbanken dahinter geschaltet hast. Aber was will ich damit sagen? Die

beste Art und Weise, wie wir unsere eigene Intelligenz aktuell verstehen und auch ich

bin nicht der Neuro -Wissenschaftler, den du am Ende noch mal fragen solltest, weil

ich bin nur ein, sag ich mal, interessierter Hobby Neuro -Wissenschaftler, als

Psychologe interessiert mich das Gehirn natürlich. Aber kurze Side -Note, die

Neurowissenschaften haben über zehn Jahre gebraucht, um zu verstehen,

wie das gesamte Nervensystem von C .Elegance funktioniert. Und das ist ein absolut

primitiver Modell -Lebewesen. Das ist ein kleiner Wurm, der hat nur 300 + - Neuronen,

kann halt Griechen in Richtung von essen und kann halt irgendwie was vermeiden, was

er nicht so geil findet, wie ein echtes Lebewesen. Ein echtes Lebewesen. Das wird

immer wieder in der Neurowissenschaften als Modelllebewesen verwendet. Einfach deswegen,

weil es natürlich einfacher ein komplettes Mapping von 300 Neuronen vorzunehmen, als

von, wir Menschen haben zwischen 80 und 100 Milliarden Neuron, das ein bisschen

komplexer. Also, wir sagen Komplexität resultiert aus Quantität, aber noch viel mehr

aus Qualität. Und da kommen wir nämlich auf die Tatsache, dass unser Gerirren als

neuroplastisch lebendes Organ sich ständig verändert. Ein in Silico existierendes Large

Language Model, aber nicht. Das kannst du zwar neu trainieren und wieder neu

anpassen, aber dazwischen liegen zeitliche Abstände, während bei uns das in Echtzeit

passiert. Und anderer Unterschied auch dernoch ist, Wir haben es geschafft, neuronale

Netzwerke digital zu emulieren, also nachzubilden. Aber was wir nicht geschafft haben,

ist den elektrochemischen Aspekt. Also entsprechend ist speziell alle Sachen, die bei

uns an der Synapse, chemisch und hormonell auch noch mit beeinflusst werden.

Das hat nicht geschafft nachzubilden und verstehen es auch nicht, inklusive natürlich

der ganzen Teilaspekt, die an unseren Umgehörn. So, jetzt fasse ich das alles nochmal

zusammen, ganz kurz gesagt, unser bestes Modell vom Gehirn sind distribuierte

Netzwerke, die dezentral zu ihren eigenen Interpretationen kommen und diese

Interpretationen werden dann in einem großen Netzwerk konsolidiert, integriert und auf

einem bestmöglichen Deutungsmuster zurückgeführt. Also im Sinne von ein prädizierendes

Deutungsmuster, weil der Grund der evolutionäre Nutzwert des Gehirns ist natürlich die

Vorhersage der Zukunft, um unsere Überlebenswahrscheinlichkeit zu erhöhen. Sonst hätten

wir kein Gehirn, sonst wären wir dieser Wurm geblieben. Das heißt, unser Vorteil

dieses Gehirn zu haben, ist natürlich, dass unser Überlebenswert dadurch gesteigert

wurde. Wichtige Frage ist aber die, warum sind wir nicht intelligenter, als wir sind?

Warum hat uns die Evolution nicht intelligenter gemacht? Hätte sie machen können? Und

genau An dem Punkt unterscheidet sich das, was wir gerade machen mit Large Language

Models und KI zu dem, was die Natur gemacht hat. Natur macht nämlich nichts ohne

Grund. Es gibt immer ein reales Validierungskriterium und das heißt überleben.

Genau dieses reale Validierungskriterium hast du eben in der KI -Welt in Silico nicht.

Zwei Gedanken kurz. Das eine ist, es gibt ja Statistiken, die auch sagen, ab IQ

120, 30, 140, wirst du, je nachdem wie man es misst, unerfolgreicher im Leben,

also dass dann die Intelligenz hält dich ja dann vom Erfolg ab, also wenn du

anguckst. Mein Problem momentan zu wusstest, der erstmal Erfolg definieren. Ja, meine

ich ja. Er wollte gerade hin. Also das war jetzt geschäftlicher finanzieller Erfolg,

sowas zum Beispiel. Da kacken wir dann ab mit 140 Ukupunken extrem ab, weil dann

sind Geschichten mit Risikobereitschaft zum Beispiel. Geht extrem runter, die ich zu

einem gewissen Teil aber brauche und auf der anderen Seite, wenn du bei den ECO

-Punkten dann unterhalb der 80 bist, dann bringen dich andere Sachen um. Das war das

eine. Das zweite, was ich kurz reinwerfen wollte, weil du gesagt hast, wir haben das

ganze Internet genommen und in diese Dinge reingestopft. Ich habe heute Morgen Zahlen

gesehen, die sind auch schon wieder ein Jahr alt. Und zwar ging es da um

Statistiken von Webseiten und das Verhältnis von Menschenbesuchern auf Webseiten und

Scrapern, also irgendwelchen Google Crawlern und so weiter, die auf die Webseite

ahren, also das ist jetzt von:

Verhältnis Google zu Mensch 2 zu 1. Also zwei Google -Besuche für jeden Menschen auf

der Webseite. Vor einem Jahr, als diese Statistik gemacht wurde, war das Verhältnis

bei Google 18 zu 1. Also für jeden echten Menschen, der auf deiner Webseite kommt,

kommt Google 18 mal vorbei und liest die Webseite. Wow, Bei OpenAI ist es so, im

Dezember 23 war das Verhältnis 250 zu 1, OpenAI ist 250 mal auf der Webseite

vorbeigekommen, bevor ein Mensch vorbeigekommen ist. Vor einem Jahr war das Verhältnis

1 .500 zu 1. Bei Anthropic war es im Dezember 23 6 .000 zu 1 und vor einem Jahr

war es 60 .000 zu Wow. Epic Crawler kommen 60 .000 Mal an einer Webseite vorbei,

bevor ein echter Mensch vorbeikommt. Wow, impressive. Also brutal, ne? Jetzt kann man

erstmal ganz kurz die ökologische Empörung aufmachen und sagen, das kostet ja auch

die ein oder andere Windkraftanlagenumdrehung, die ganze Nummer, und das dann dafür,

dass ich mir hier in meiner Bubble so ein Papagei auf LSD züchte quasi. Ja, gut,

ich meine, man muss sich immer noch die Frage stellen, bevor ich jetzt die, du

hattest jetzt auch das Nachhaltigkeits - oder Energiethema aufgeworfen. Das muss man

natürlich auch noch mal kritisch beleuchten, mit Blick auf, wenn du jetzt, sag ich

mal, statt deinen Papagei auf LSD zu benutzen, zwei Stunden oder acht Stunden im

Internet verbracht hättest, um dort rum zu surfen und die 150 Webseiten abzusurfen,

bis du die Antwort gefunden hättest, wäre damit natürlich auch eine gewisse, sage ich

mal, Produktivitätsnachteil entstanden, beziehungsweise du, der du in den 8 Stunden ja

auch essen willst und rumfahren musst, um dein Leben zu erhalten etc. hättest ja

auch Energie verbraucht. Das muss man auch noch ein bisschen kritisch gegenbeleuchten

mit den Opportunitätskosten, aber Grundsätzlich hast du natürlich recht und wenn du

die Landschaft anschaust, rund um den KI Hype, ich nenne jetzt erst mal Hype,

kann man später noch beleuchten, ob sein Hype ist oder nicht, dann ist das natürlich

eine Kernaussage, soweit man an das Weiterbestehen der Technologie erlaubt,

dass der Energiebedarf massiv ansteigen wird in den nächsten Jahren und deswegen

natürlich auch

Das ist kein Investment -Advice übrigens, will's gleich machen. Genau, das können wir

nicht machen. Jetzt ist es ja so, ich habe dir diesen Text davor gelesen, den mein

Chat -Gipatin mir produziert hat. Das ist jetzt halt so, ich habe das 4 ,5 oder 2

Jahre lang trainiert und beigebracht, wie ich denke. Das hat gelernt, welche Arten

von Antworten ich akzeptiere und welche Arten von Antworten ich nicht akzeptiere und

wo ich nochmal nachfrage. Ich würde in meinem rudimentären Verständnis der Technologie

unterstellen, wenn jemand anderes dieselbe Frage in sein trainiertes LLM reingebt oder

in ein nicht, also die sind alle trainiert, aber ein nicht Customized quasi, würden

da mit unter sehr andere Antworten rauskommen, richtig? Das heißt, ich habe mir hier

auch durchaus meinen Echo Chamber geschaffen, der mir sehr gefällige Antworten gibt,

die meine Art zu denken, meine Werte bis hin zu meiner politischen Ausrichtung

passen, oder? Na ja, gut, die Frage ist natürlich erst mal Interaktions, Volumen,

Interaktions -Tiefe. Es hängt ja immer davon ab, wie viel oder was weiß dein

Chatshipity über dich? Wie viel hast du mit ihm gemacht? Je mehr du mit ihm machst,

umso mehr wird es natürlich sich anpassen oder sich daran lernen, was für dich die

richtige Antwort ist. Der entscheidende Aspekt ist natürlich das, was wir gerade noch

nicht so wirklich sehen, was im Hintergrund passiert. Und das ist natürlich das, was

eigentlich immer das Geniale ist, ein Big Tech. Ich mach mal den Vergleich zu Mr.

Zuckerberg und erzähl gleich nochmal so ein bisschen, was ich auch über seinen KI

-Ansatz denke, der dir die geniale Idee hatte zu sagen, mit Facebook mache ich ein

soziales Netzwerk auf, hurra, hurra, jeder kann mit jedem sprechen, sich vernetzen,

Freunde auf der ganzen Welt treffen oder behalten. Mittlerweile ist es natürlich nicht

mehr so erfolgreich dieses Netzwerk, aber das Spannende ist, sind ja die Daten im

Hintergrund, also die Interaktionsdaten. Das, was man von dem Nutzer lernt, was dann

natürlich dazu geführt hat, zu dem genialen Konzept für Zuckerberg, Facebook als

Advertising -Plattform nutzen zu können. Also zu wissen, bis zu der Minute,

in der jemand eine neue Beziehung beginnt, das prädizieren zu können, zu sagen,

die Art und Weise, wie du mit dieser neuen Person interagierst, sprich dafür,

dass ihr ab Minute X in einer Beziehung sein werdet. Und deswegen betrachte ich dich

jetzt nicht mehr als Single, sondern als in einer Beziehung bestehend. Was auch

immer. Und targette dich deswegen auch anders. Und das jetzt mal auf ChatGPT -Niveau,

weil wir haben ja doch jetzt schon einige hundert Millionen oder, glaube ich, sogar

eine Milliarde Nutzer von Chatchivity, ist natürlich ein ganz anderes Potenzial. Das

heißt, wenn du die Sache umdrehst und sagst, okay, realiter gibt es noch keine

künstliche Intelligenz, es gibt natürlich auch keine künstliche Superintelligenz oder

Artificial General Intelligence, aber aus dem Nutzungsverhalten der ganzen Nutzer,

die die Technologie nutzen, könnte man natürlich Rückschlüsse ziehen auf Verhalten und

Lösungen zu Verhaltensproblemen, die der Nutzer selber noch gar nicht erahnt. An dem

Punkt von, wie hieß es denn, gab es noch dieses Buch "Quality Land", wo der Typ zu

Hause sitzt und dann irgendwie eine Drohne an der Balkon -Tür klopft und bringt ihm

irgendwie ein Pornoheftchen oder Bier usw. Und dann sagt er, warum denn?

Und dann sagt die Drohne, du wirst gleich sehr traurig sein, weil deine Freundin

gleich mit dir Schluss macht und dann kommt der Anruf und sie macht Schluss mit ihm

und er hat halt schon 6 Backbier in der Hand dafür. Das ist doch perfekt. Das

erinnert mich auch total an, kennst du die Supermarquette Tesco in England? Die haben

eine Partnerschaft mit einer Firma, die als Dammhambi und die haben diese Tesco -Club

-Karte eingeführt, also auch schon in wie Jahrzehnte herrn. Und da kam dann irgendwann

mal eine personalisierte Werbung ins Haus zu einer Familie mit einer jungen Tochter

für Schwangeren -Geschichten. Und dann hat sich der Vater beschwert gesagt,

wie könnt ihr nur? Meine Tochter, eine züchtiges Mädchen, ist doch nicht schwanger,

wie kommt ihr drauf? Und es war natürlich, wie es kommen musste. Sie war tatsächlich

schwanger, er wusste es nur noch nicht. Und an dem Einkaufsverhalten hat dann haben

wir ohne das selber zu steuern. Sie hat irgendwelche sauren Gurken und Schokolade

gekauft oder Schokolade gekauft oder was auch immer, was halt die schwangere Frauen

kaufen. Und in die Richtung geht es natürlich ganz klar und deutlich. Insbesondere

dann, wenn wir, wie du vorgesagt hast, ChatGPT als Lebensassistenten für alle

Lebensumstände verwenden und aus diesem Wissen heraus im Hintergrund Verhaltensmuster

entstehen und Vorhersagen möglich sind, von denen wir gar nicht wissen, dass sie

möglich sein könnten. Aber bei all den Sachen ist es doch auch immer eine Abwägung

zwischen Komfort und Homogenisierung. Also was ich damit meine ist,

war schon zehn Jahre her, war ich auf dem Marketing Seminar, war einen guten Karl

Kratz und der Kalle hat damals schon gesagt, dieses ganze Seeo Zeug, das wird völlig

überflüssig, weil alles ab Position 2 wird irrelevant, weil das wird dann so, ich

hatte damals einen BMW oder so was, also mit so eingebautem Assistenzlötsin und Und

dann hatte ich so eine Situation, ich mir irgendwas übers Hemd gekippt habe und hab

dann da auf den Knopf gedrückt. Dann war ein Mensch auf der anderen Seite sagt, ja,

was ist denn los? Ich hab mir glaube, das ist übers Hemd gekippt. Okay, ich führe

sie zur nächsten Reinigung. Und da ist dann völlig egal, wie viele Reinigungen in

meinem Darmstall, wie viele Reinigungen es gibt. Was mag ich? Das ist einfach nur

die nächste, ne? So, das was da ist. Bei JetGPT auch. Ich suche das und das, was

soll ich kaufen. Ich finde das ja total abgedreht. Aber das scheinen ja viele Leute

schon so zu tun, ne? Und auf der Ein Seite, das ist ja sehr, sehr komfortabel und

ich meine, das ist ja auch sehr, also wenn man jetzt mal Richtung Medizin geht,

irgendwie predictive und hingeht und sagt so und so und jetzt erwarten wir, dass das

passiert und wir können prämtiv Dinge tun. Das ist eine coole Idee. Also erstens

wird es sehr anfällig, weil liegt das Fieh daneben, da habe ich ein Problem. Und

auf der anderen Seite, es nimmt halt völlig die Pluralität raus, weil immer nur der

Assistent gibt dir halt eine Antwort und sagt, das ist die Antwort. Ja, jetzt kommen

wir genau auf das zurück, was ich vorher versucht habe, anzusprechen und

wahrscheinlich nicht wirklich gut artikuliert habe. Die Multidimensionalität der Realität

und dieses Kollabieren auf eine zweidimensionale, simple Antwort.

Ich denke, was vielen noch nicht klar ist, dass auch das bereits eine

Differenzierungsfähigkeit erfordert, nämlich zu sagen, es gibt Aspekte in deinem Leben,

wo einfach, komfortabel, effizient, gar kein Problem ist. Ich sage mal so wie du

jetzt mit dem Reinigungszweigspiel vielleicht möchtest du nicht zwei Stunden damit

verbringen die beste Reinigung in Darmstadt zu finden anhand von Reviews zu

analysieren und das nochmal zu verifizieren in tiefen Interviews. Das ist vielleicht

gar nicht notwendig. Genauso wenig ist es notwendig, dass du jetzt musst du immer

bei kleinteiligen Käufen im Internet das absolut beste Angebot finden? Nein,

musst du auch nicht. Vielleicht zahlst du manchmal irgendwie 20 % zu viel oder

vielleicht zahlst du manchmal ein paar Euro mehr dafür, dass du halt weißt, okay,

das Zeug kommt an und da hast du schon mal gekauft und warst zufriedenfein. Wo ich

meine Probleme habe ist, dass eben, was ich vorgesagt habe, dass junge Leute dann

auch nicht mehr verstehen und auch gar nicht mehr, sag ich mal, vielleicht verstehen

wollen, dass bestimmte Entscheidungen Aufgrund ihrer Komplexität und ihrer weitreichenden

Implikationen für den Rest eines Lebens, nicht solche zweidimensional verflachbaren

Entscheidungen rechtfertigen, dass es da nicht darum geht, die nächstmögliche beste

Antwort zu finden. Ich sage mal, der Vergleich ist für mich immer, ich kaufe vier

neue Winterreifen auf Amazon und ich suche mir eine neue Freundin auf Amazon.

Wenn Amazon zum Beispiel jetzt anfangen würde auch Partnervermittlungen anzubieten, was

durchaus möglich wäre, weil die Daten über die ganzen Persönlichkeitsmuster von den

Verbrauchern haben Sie wahrscheinlich, würde ich das trotzdem nicht machen. Warum? Weil

für mich die menschliche Komplexität eben ein Faktor tausend zu hoch ist,

um sie auf so eine zweidimensionalizierte Verflachen zu können. Und weil ich vom

Prinzip her das auch völlig Ja, noch nicht mal ethisch, sondern ästhetisch unanständig

finde. Ich finde es ästhetisch ekelhaft, zu sagen, ich presse einen Menschen in ein

zweidimensionales

Komplexitätsraster, Reduktionsraster und zu sagen, hier, du bist ein C4 -Mensch,

deswegen sollte ich dich verkuppeln mit einer D3 -Dame, was aber machen? Wobei das

passiert. Also ich meine, ich habe auch nicht Elite -Partner und weiß nicht, wie die

anderen heißen, ich kriege eine Bewerbung für Sea -Date, aber ich datgucke auf

SportEis. Ich glaub, die machen was anderes. Das wird ja gemacht. Da wirst du ja

geprofilt und dann hast du irgendwie ein paar Datenpunkte. Das ist extrovertiert,

introvertiert und Hobbies und so weiter. Aber der Kram funktioniert ja

überdurchschnittlich gut. Also diese algorithmisierten Matchmaking -Geschichten haben ja

eine längere Haltbarkeit in der Beziehung als ich reiß dich an der Bar auf, weil

ich auf Blond stehen. Also erst mal, sag mal, musst du ganz ganz vorsichtig sein

und zu sagen dazu musstest du ja empirisch viel viel mehr Daten und komparative

Daten haben und Längsschnittstudien machen. Also diese Datenlage ist extrem dünn und

auch sage ich mal im Vergleich dazu wiederum, was ist Erfolg? Wie definierst du

Erfolg? Beziehungshaltbarkeit? Seriously? Also ich meine, das macht so einen Riesenfass

an Fragen auf, was soziales Miteinander überhaupt soll, geht es darum, dass wir uns

alle gegenseitig irgendwo in kleinen Kästchen wiederfinden und in einer Kästchenwelt in

irgendwelchen Vorstätten leben und ein Vorstadt -Lebensmodell ausleben, was sich dann

vielleicht da irgendjemand als Normalität kennzeichnet oder geht es um etwas viel

tiefer gehen ist, dass wir tatsächlich komplex in Lebewesen sind und vielleicht auch

durch emotionale Zustände gehen müssen, um uns selbst zu finden, was ja auch heißt,

dass du auch nicht nur hoch sondern tiefst hast. Und dieses, ich kenn's aus der

Psychologie oder Sozialpsychologie und Wirtschaftspsychologie, da heißt das "Szenen

sozialen Glücks". Das heißt, die Annahme, dass dann natürlich auch Werbung, die ein

Lebensmodell verkauft, in dem alles immer super, alles immer cool ist, alles immer

weichgespült und Lenore verkauft ihr die glückliche Familie. Und da sitzen sie alle

am Tisch und trinken ihren Ohrsaft, den sie bei Penny und Aldi gekauft haben.

Und dann weiß was ich meine, also die Annahme, dass Glück käuflich oder generierbar

ist. Da fängt meine Grundkritik an und scheitert meine Möglichkeit, mich in so ein

verflachtes Lebensmodell überführen zu lassen. Das kann ich gedanklich nicht, weil da

streuben sich meine intellektuellen Nackenhaare, bei dem versuche, mich in so ein

Korsett überhaupt spannen zu lassen. Also ich sage mal so, derjenige, der sagt, ja,

ich glaube dir, liebe C -Date oder was auch immer, Partnervermittlung, Elite -Partner,

ich bin auch ein Elite -Mensch, deswegen verdiene ich einen Elite -Partner. Der Name

ist ja schon grauselig. Wiederwärtig und ich gebe dir hier meine 50 Antworten auf

deine 50 Fragen und dann bitte vermittle mir den Partner zu mir, in dem ich dann

in diesem Elite -Lebensmodell leben kann. Das Wander wäre ja dann sogar tatsächlich

mal zu untersuchen, wie viele von diesen Beziehungen dann erfolgreich, wie wir mit

uns definiert sind, weil sie so eine aufgeladene selbstwürfelnde Prophezeiung sind,

dass man hingeht und sagt, diese Beziehung wird richtig gut. Früher wär's der Herr

Bischoff selbst hat die Braut für dich ausgesucht, wäre im gewesen und der lehnt es

her. Und heute ist es dann, das wird bestimmt gut, weil ein KI -neuronales

Supercomputer -Netz die Begier für dich gefunden ist. Ja, ja, ja, es ist ein guter

Punkt, bringt mich so ein Buch von einer amerikanischen Psychologe in China, Eingar,

die hat sich mit "Choice" beschäftigt, finde ich super spannend. Und auch da ist

wieder die Grundannahme, wir treffen eine Wahl und verlassen uns jetzt natürlich mehr

auf Technologie, weil Technologie die bestmögliche Antwort auf eine

Entscheidungssituation lieber die komplex ist, aber vielleicht geht es gar nicht um

die Entscheidung, sondern vielleicht geht es um die Akzeptanz der Komplexität als

solche. Ich komme nämlich auf das zurück, was die China -Ingada analysiert hat. Wir

haben nämlich die Glücklichkeit von Beziehungen im Westen und im Osten analysiert. Das

heißt, im westlichen Lebensräumen geht es ja darum, in diesen Kulturen geht es darum,

dass das romantische Glücksmodell verwendet wird. Also ich finde Traumpartner,

bin total verliebt. Deswegen heirate ich Traumpartner und lebe glücklich in aller

Ewigkeit. Und in anderen eher in östlichen Lebenskontexten ist ja so zum Beispiel

immer noch vermittelte Beziehung, vermittelte Hochzeit, also vermittelte Ehe. Ich kenne

die Person gar nicht, wie ich dann heirate. Ich muss sie erst mal kennen und lieben

lernen und schätzen lernen und am Anfang habe ich keine Erwartung, im besten Fall

die, dass es nicht ein totaler Krapfen ist und irgendwann fange ich an, da eine

Freundschaft zu schließen, aus der Freundschaft wird dann mehr und dann irgendwann

liebt man sich. Und überraschendes Ergebnis langfristig gesehen, sind diese östlichen

Beziehungen stabiler, erfolgreicher, glücklicher als bei uns. Natürlich, weil du genau

das passiert, was du gesagt hast. Ich komme mit übertriebenen, romantisierten Disney

-Erwartungen in die Beziehung rein. Traumpartner muss das Beste vom Besten sein, weil,

wie gesagt, die Elite Partner -Plattform hat es ja für mich gefunden oder JetGPT hat

es analysiert und passt perfekt. Und dann Überraschung, Überraschung. Menschen sind

doch komplizierter und das Leben kann einem ab und zu ein Bein stellen. Es kann

immer was passieren, was unerwartet ist. Also da würde ich es dran festmachen, dass

ich jetzt mal diese Polarität nehme, die du da aufgemacht hast und sage, dass ich

in der Welt der arrangierten Hochzeiten halt schon mit der Grundhaltung reingehe, das

wird Arbeit. Genau. Also da ist jemand, den ich nicht kenne, mein Job ist jetzt die

Sachen zu finden, die mir gefallen, welche zu produzieren, die dem gefallen und

irgendwie das, wo es hakt, zum Fliegen zu kriegen, während ich in der anderen Welt

ja erst mal mit dieser großen Hoffen reingebe, vielleicht ist es total geil, wir

sind die perfekten Paten und es wird überhaupt keine Arbeit, sondern es wird so wie

in dieser Szene als Schreck mit seiner Orgfrau über die grüne Wiese hoppselt und

dann ist es immer erstmal eine große Enttäuschung zu sagen, Shit, es ist doch Arbeit

und da steigt ja die Hälfte auch schon aus, weil es dann schon zu spät ist, wenn

man realisiert hat, dass es Arbeit. Umgekehrt, allerdings finde ich, also wenn ich

jetzt mal zusammenfasse, was ich von die höre Tom, dann ist es ja irgendwie der

Aufruf zum kritischen Auseinandersetzen mit diesem, was wir so KI nennen, LLM

-Schnickschnack, sich überlegen, wo verwende ich es, wo verwende ich es nicht und vor

all Dingen eben, das hat mich total getriggert und genervt, da deine Akzeptanz der

Komplexität, weil ich sitze ja hier und bin ja völlig überfordert. Ich bin hier

überfordert, weil hier ist zu viel und hier ist zu komplex und hier ist zu

kompliziert, ohne jetzt der Knuck -Schleißer -Rutsch auf den Unterschied zu gehen, aber

ich bin ja einfach dauerüberfordert. Und jetzt kommt einer um die Ecke, hier Kollege

Altmann und sagt 899 im Monat und ich stelle dir hier ein Freund zur Seite, das

ist wie diese Assistent bei Iron Man, das ist total geil, hat immer eine Antwort

und vereinfacht die Welt für dich auf viele verschiedene Arten. Also es ist ja

exakte Halsbringer, den ich brauche. Und du willst mir das jetzt malig machen und

das auch noch mit Kompetenz aufgeladen, das finde ich ein bisschen gemein muss ich

sagen. Ich will niemanden irgendwas malig machen, ich verstehe natürlich absolut unsere

Bedürfnis nach Lebensvereinfachung und in vielen, vielen Bereichen funktioniert das ja

auch hervorragender. Ich sag mal so, wenn ich am Abend müde auf der Couch schliege

und ich brauche jetzt nur 20 Minuten, halbe Stunde irgendeinen unterhaltenen Content,

damit ich dahin dämmer und einschlafe. Es ist kein Problem, dass Netflix jetzt mit

seinem Recommendation -Engine mir da vorschlägt. Guck dir mal hier diese Schnulze an.

Du hast immer solche Romanzen gerne geguckt, lieber Holger, ich habe hier genau die

richtige für dich gefunden, guck mal, dazu kannst du gut einschlafen. Ob du das

jetzt guckst oder ob du irgendwie deiner Waschmaschine bei der Bundwäsche zuschaust,

der Effekt ist derselbe. Damit habe ich gar kein Problem, dass es Kontexte gibt, wo

ich schnell und einfach irgendeine Lösung haben will. Womit ich ein Problem habe, ist

das Prinzip schnell und einfach auf alles in deinem Leben anwenden zu wollen und

überhaupt zu denken, dass du es tun solltest. und zwar deswegen und jetzt kommen wir

auf den Anfang unseres Gesprächs zurück auf geklärtes Eigeninteresse. Die Welt ist ja,

sie ist kompliziert, sie ist aber auch reichhaltig und hat unglaublich viel zu

bieten, unglaublich viele Möglichkeiten zu lernen, dich weiterzuentwickeln. Was tust du,

wenn du sagst, du möchtest dein ganzes Leben durchstrukturiert, vorstrukturiert,

vorgekaut, durch JetGPT auf dem digitalen Silbertablett als Entscheidungsmuster

abgeliefert bekommen. Was du damit tust, ist, du nimmst dir diese Möglichkeit zu

lernen. Du nimmst dir die Möglichkeit zu wachsen und du nimmst dir die Möglichkeit,

positiv Komplexität zu erleben, um daraus zu lernen. Das nimmst du dir. Ich verstehe,

warum du das tust, weil Lernen ist anstrengend, es ist inkonvenient. Es ist nicht

etwas, was um die Ecke kommt und sagt, ich habe es schon mal für dich hier

vorgebaut. Es ist nicht der Roboter, der dir das Mittagessen bringt und sagt, hier

lieber Holger, ich weiß du, dir liebst Pommes mit Ketchup und Steak und ich habe es

schon mal für dich gekocht. Das ist es nicht. Warum soll es das aber nicht sein?

Und das ist die entscheidende Frage. Wenn du alles an Maschinen und Roboter und

JETGPT und KI auslagerst, dann nimmst du dir im Prinzip die Möglichkeit, zu der

Person zu werden, die du werden könntest. Also das heißt, wir sind an einem

entscheidenden, auf Englisch würde ich sagen, Inflection Point angekommen, evolutionär

gesehen, wo wir jetzt in Anführungsstrichen so intelligent geworden sind als Homo

Sapiens, als Spezies, dass wir uns unsere eigene Intelligenz abtrainieren können, dass

wir sie nicht mehr gebrauchen müssen. Und jetzt ist die entscheidende Frage, willst

du zu einem Endbenutzer werden von einer Intelligenz, die jemand anderes für dich

vorpräpariert, als Entscheidungsmuster in deinem Leben und damit ja selber zu einem

vorstrukturierten Individuum werden, willst du das? Oder willst du weiterhin Autonomie

über dein Leben besitzen? Und das ist eine entscheidende Grundfrage, der wir uns

jetzt, jeder von uns, wir müssen diese Frage beantworten. Meine Befürchtung ist, dass

ein ganz großer Prozentsatz von Menschen sich gegen Autonomie entscheiden wird, weil

Autonomie Kraft kostet und anstrengend ist und Schmerzen bringt und Abwägungen

erfordert, die viele Leute nicht mehr selbst stemmen wollen. Ich muss mir daran

denken, ich habe mehrere Konflikte mit der vorhergehenden Generation, aber einer kommt

immer sehr, sehr raus. Ich wohne ja hier in der Nähe von Frankfurt und hier ist es

Teil unserer Kultur hier im Rhein -Main -Gebiet, ist das jemanden zum Flughafen fahren.

Also es total, Wir hatten es gerade wieder, dass meine Schwiegereltern nach Malle

geflogen sind. Und das heißt, die kommen dann zu uns, stellen das Auto ab und wir

fahren sie dann zum Flughafen. Und was mache ich? Was macht meine Generation? Was

macht meine Frau? Wir steigen ins Auto, natürlich wissen wir, wo der Flughafen ist.

Wir wissen, wie man da hinkommt. Aber wir geben es automatisch bei Google Maps ein,

weil im Zweifelsfall weiß Google, wo es eine Baustelle, wo es einen Unfall, wo es

staut sich gerade und gibt uns automatisch, wie man hinfährt, außerdem klickt man die

Geschwindigkeitswarnung auch nur wenn es nach wie mit läuft. Jedes mal wenn ich hier

mit jemandem Ü60 ins Auto steige, dann fährt es jetzt da vorne rechts und dann

hinten links am Frankfurter Kreuz, dann hinten da rum und da wendet da über die

Spange fest, also die sind autonome, wir sind erst mal im Arsch, wenn Google Maps

weg ist, ist mir völlig klar. Aber in 98 von 100 Fällen fahren wir behaupte ich

besser damit, entweder weil wir uns Energieaufwand sparen, wir sind weniger gestresst,

wir denken ich tu mal nach, ruhig hinfahren, Wir fahren halt hin, was auch noch

sagt, und wir vermeiden Staus und diesen ganzen Kram. Also ich sage mal, die alten

Leute müssten ja jetzt noch Verkehrsfunk hören und den Abgleichen und den Punkt

abpassen, dass im 5 vor halb hören, dass da gerade sich was staut, damit sie es

umfahren können. Das wird mir alles abgenommen auf der anderen Seite. In zwei von

100 Fällen stehe ich halt auch dank Google völlig in der Pampa und denkt mir, wir

hatten da wieder gekifft ein Palo Alto, dass ich hier auf dem Feldweg stehe. Das

ist ja so ein bisschen der Effekt und ein bisschen die Abwägung. Und jetzt mal ganz

konstruktiv. Was ist denn deine Empfehlung? Was empfiehlst du uns denn? Wie gehen wir

denn? Weil, offensichtlich bist du ja nicht kategorisch gegen KI, ne? Also, das finde

ich ja auch ehrlicherweise immer ein bisschen albern. Ich muss dann immer denken,

hier, als die Autos kamen, natürlich kamen die Autos auf und das war ein bisschen

gefährlich, weil am Anfang sind die irgendwie ohne Bremsen und ohne Blinker und alles

gefahren. Und dann hat irgendjemand gesagt, das ist gefährlich ohne Bremsen und ohne

so. Und dann die Pferde züchter und haben gesagt, ja, ja, deswegen sollten wir Autos

verbieten, weil Autos sind schlecht, kauft mehr Pferde. Da ist hier ganz viele KI

-Kritiker in Anfangszeichen heute, die einfach schlicht weg, richtigerweise verstehen,

dass ihr Job einfach nicht mehr existieren wird in drei Jahren und dann jetzt noch

versuchen, so ein bisschen den Überlebenskampf zu kämpfen, das er nicht aufgeben soll.

Also Gruß geht raus in alle Marketingtexte da draußen, die man linked in Feed mit

ihrem überflüssigen Überlebenskampf vollstopfen. Was rätst du uns denn, konstruktiv? Wie

sollten wir damit umgehen? Ich würde das festmachen, an dem Wort "Erfahrung" sammeln

oder bei dem Auto -Beispiel zu bleiben. Ich würde es selbst erfahren und zwar so oft

und so intensiv wie möglich. Ich habe ja vor ein paar Wochen so einen ganzen Tag

ohne Strom erlebt, immer kompletter Blackout. Freilich oder unfreiwillig? Unfreiwillig.

Hat auch in der ganze Albinsel betroffen. Erstmal war natürlich auch

Verschwörungstheorien, war das Hacking, hat da irgendjemand, irgendwie jetzt Terroristen,

muss den Strom abgedreht. Strom ist eigentlich ein supergeiles Beispiel für, was

Technologie freischalten kann, positiv, aber auch, wo wir abhängig sind, weil sobald

kein Strom, dann kein Internet, wenn kein Internet, auch keine KI und alles andere

natürlich nicht, kein Google Maps, kein gar nichts. Es geht noch viel weiter, kein

Strom, Strom, keine Paymentsystems. Du kannst nicht mehr mit Karte zahlen. So,

plötzlich musste Bargeld haben. Wenn dir kein Bargeld hat, kann kaufen, kann essen,

kann nix. Als kannst du natürlich lachen über Leute, die noch mit Bargeld rumlaufen.

So, an dem Tag hatte ich tatsächlich sehr wenig Bargeld, musste mir genau überlegen,

willst du Brötchen kaufen? Willst du was zu trinken kaufen? Wie lang wird der

Blackout noch dauern? Wenn das jetzt nochmal irgendwie 48 Stunden dauert, irgendwann

hast du Hunger, gut hast du noch ein paar Dosen im Haus, die kannst du noch

aufessen, aber irgendwann musst du wieder was zu essen kaufen. Deswegen sagt man auch

so immer, die Zivilisation hat eine halbwärtszeit von 48 Stunden. Dann fangen nämlich

die ersten Leute an, irgendwie in Geschäfte einzubrechen und sich natürlich irgendwie

das zu holen, was sie brauchen, zum Überleben. Um noch das zurückzukommen, was du

sagst, ich will natürlich nicht zurück auf die Bäume oder in die Höhle. Du verdienst

auch dein Geld, damit konfliktive Dinge mit KI zu machen. Natürlich. Natürlich. Ich

gehe davon aus, genauso wie Strom eine Selbstverständlichkeit geworden ist, ist das

Internet eine Selbstverständlichkeit geworden, so wird auch KI eine

Selbstverständlichkeit werden. Aber heißt nicht, dass für einen sich das Denken

auszulagern, das sollte nicht zur Selbstverständlichkeit werden. Das heißt, sag ich mal

so, wenn du in eine neue Stadt kommst und du erfährst dir diese neue Stadt, indem

du da rumläufst, mit dem Auto rumfährst, mit dem öffentlichen rumfährst, irgendwann

entwickelt sich in deinem Kopf da eine mentale Landkarte dazu. Du erfährst dir diese

Stadt. Heißt im Zweifel, selbst wenn ich dir dein Handy wegnehme, findest du den Weg

wieder zurück. Von Punkt B, wo du schon öfters warst, zu Punkt A, wo du zu Hause

bist oder nicht sicher für ist. Und genauso sollten wir eine mentale Landkarte haben

für alle kognitiven Herausforderungen im Leben, die relevant sind, die

überlebensrelevant sind und die lernrelevant sind. Deswegen sage ich, genauso soll man

mit KI auch umgehen. Natürlich nutzt du das Zeug, wo es hilfreich ist und convenient

ist, aber du solltest genau wissen, wie der Weg von A nach B geführt hat. Wie bist

du da hingekommen? Wenn KI nicht da wäre, wie würdest du es ohne KI machen? Woran

erkennst du, dass die Antwort von KI einen gewissen Nutzwert und eine

Richtigkeitswahrscheinlichkeit hat. Diese ganzen Markierungen auf deiner kognitiven

Landkarte, die müssen weiterhin existieren. Wenn die existieren, kein Problem. Nutzt

KI. Ey, klar. Ey, du komm schneller zum Ziel. Warum nicht? Genauso wie du Google

Maps, GPS benutzt. Natürlich brauchst du nicht jede Navigation manuell machen und mit

der realen physischen Karte rumlaufen. Aber du musst auch ein Grundgefühl haben, was

ja natürlich auch passiert. Du gibst was ein und dann steht da drei Stunden und du

fährst die falsche Himmelsrichtung und dann zu verstehen, hier ist was schiefgegangen

und halt nicht hinzufahren, das ist auch das Problem. Genau, ich sage mal so, das

ist ein Beispiel, was mir neulich wieder gekommen ist, weil ich mit jemandem

gesprochen habe, der mich an die ersten Browser erinnert hat, da gab's einen Netscape

-Navigator. Ja, ich erinnere mich, 4 .5. Genau. Und ich finde eigentlich Navigator

total geil, weil das immer noch impliziert hat, dass du dieses große Meer des

Wissens navigierst, dass es einen aktiven autonomen Akt gibt, wo du die Richtung

steuerst, in die sich dein Denken entwickelt, indem du dem Browser sagst, geh dahin,

geh dorthin, für mich dahin, für mich jetzt von dem Punkt zum nächsten Punkt und in

deinem Kopf passiert währenddessen etwas. Und ein Aspekt des epistemologischen

Verflachens ist eben diesen Weg komplett kurz zu schließen und zu sagen, das erste

Ergebnis, was JetGPT dir gibt, ist glaube ich einfach. Egal, wie das dahin gekommen

ist und wie viele Seiten es abgesurft hat dazwischen oder ob es an Tropic war oder

was so immer, das interessiert mich gar nicht mehr. Und das ist die Gefahr, dass

die epistemologische Landkarte, die du brauchst, um zu verstehen, ob der Weg dahin

richtig war, dass die plötzlich weg ist. Also das heißt konkret, ich mache mich

nicht zum Sklaven von dem Ding, ich gehe nicht hin und stelle eine und nehme die

Antwort als bache Münze, sondern ich nehme es als eine mögliche Antwort, als eine

Quelle, die ich, wenn ich sauber arbeite, als auch eine von mehreren Quellen nehme.

Also im Zwarstfall kommt jemand zu mir und sagt, Holger, wie weiß ich nicht,

überarbeiten wir denn jetzt das Produktportfolie von diesem Energiedienstleister, der

Unternehmensparator? Dann kann ich natürlich schon mit denen arbeiten, aber ich kann

es nicht einfach eins zu eins nehmen, sondern ich kaufe mir auch ein Buch dazu und

lese noch drei Artikel und und verdichtet das. Absolut und ich glaube der wichtigste

Aspekt dessen, wo wir in unser neuen Art zu arbeiten mit KI hinkommen werden,

ist der Prozess, das Prozessuale, zu wissen wie bist du da hingekommen und warum.

Also nicht nur eine Antwort zu haben, sondern eine Antwort auf die Frage des Warums

zu haben und das wird den Unterschied ausmachen zwischen ich bezahle jemanden für

seine Antwort und jemand wird keine Arbeit mehr haben, weil er nur ein ChatGPT

-Promptor ist. Ein Beispiel, was ich immer wieder bringe, ist, wir haben früher viele

Projekte verkauft, zu Recht meiner Meinung nach. Wir so eine Liste hatten, die zehn

größten Fehler, die du bei einer CHM -Einführung machen kannst. Und die haben wir

Kunden gezeigt und dann haben die gesagt, oh, auf die Hälfte wär ich nicht gekommen.

Das ist eine gute Idee mit euch zusammenzuarbeiten, ihr habt die Erfahrung. Und als

ChatGPT anfing, dass man es nutzen konnte, von einem Jahr oder sowas, hab ich

reingegeben, sag ich, gibt mir die zehn größten Fehler, die bei der ICM -Einführung

passieren könnten. Aber als Rap, den ich auf ein Lied von Rage Against Machine im

Stilkonzept de la Russia rappen kann. Der Rap -Teil war ganz gut und es traf durch

acht oder neun von den zehn Dingern. Meiner und zwei haben gefehlt. Aber eben genau

das ist halt der Punkt, wo ich dann gute Hoffnung bin, dass wir nächstes Jahr noch

einen Job haben, weil wir halt einschätzen können, was fehlt. Und der nächste Punkt

ist halt die Umsetzung. Also das alleinige Wissen darum, das wahrscheinlich steht das

auch in Büchern oder sowas, Aber dann hinzugehen und zu sagen, die Erfahrung zu

haben, wie kann ich die denn verhindern? Wie gehe ich moderierend hin? Wie binde ich

Menschen ein? Das macht, glaube ich, da an der Stelle weiterhin den Unterschied. Zu

dem Punkt ist es super wichtig, super wichtiger Punkt. Ich habe ja seit ein paar

Jahren mit der fortentwickelten Möglichkeit durch KI mache ich immer mehr Coding

-Sachen, die ich vorher auch nicht so machen konnte, weil ich meine Coding Skills war

nicht die allerbeste, aber ich hatte immer Interesse daran, mich zu entwickeln und

weiter zu lernen und dieses weiter lernen. Das ist etwas, was tatsächlich sehr gut

funktioniert mit KI, wenn du denn lernen willst, weil du kannst dich schneller

pushen, dich auseinanderzusetzen mit einer möglichen technischen Umsetzung von einer

Fragestellung, die du dann natürlich auch testen kannst. Und da sind zwei Punkte

super spannend daran. Nummer eins, du kriegst immer noch manchmal Code, der natürlich

falsch ist, denn nicht funktioniert. Aber wenn du die Grundprinzipien von einem

bestimmten Code verstanden hast, wie funktionieren Funktionen in Python, wie spielt

Interaktionen, haben Elemente in einem gesamten Code. Wenn du das weißt, dann kannst

du auch zum Beispiel sehr schnell merken, was falsch ist und warum es falsch ist.

Wenn dir eine KI was ausspuckt und sagt hier bla bla bla so und so, der Fehler

könnte da sein und du weißt aber das stimmt natürlich nicht, weil das ist eine

statistische Aussage, der Fehler könnte da sein. Du weißt ganz genau, dass der Fehler

nicht da sein kann, weil die ganze Kurzstruktur ganz anders ist und weil das die

Reaktionen, die du auf dem Browser siehst, auch eine andere ist. Also dieses

Erfahrungswissen wird immer wichtiger, wie du gesagt hast. Und die andere Geschichte,

die Umsetzung finde ich auch ein super interessanten Punkt und da kommt mir etwas zu

Gute, was ich halt seit 10 Jahren mache. Ich arbeite im Bereich Innovation und der

Essen mal grundlegend anders als der Bereich Business as Bisher war,

sagen wir mal so, die allermeisten Jobs haben sich darüber definiert, dass sie eine

festgefühlte Arbeitstätigkeit beschrieben hat, die routinierbar, wiederholbar ist und

damit natürlich auch erlernbar und abgrenzbar. In großen Unternehmen haben sich Leute

deswegen sehr wohl und sicher gefühlt, weil sie haben diesen Job gemacht bis zur

Rente und dann ist gut, musstest du auch nichts mehr lernen und dich nicht

weiterentwickeln, außer einmal in Jahr auf den Fortbildungen gehen, für bla bla bla,

die Zukunft von bla bla bla. So funktioniert mein Job nicht, weil jedes Projekt hat

ein Element von Neuigkeit, von Originalität, von neuem Nutzwert, der gebracht und

identifiziert werden muss. So definiert sich Innovation. Meine Hypothese ist zur

Zukunft der Arbeit. Arbeit wurde gerade neu definiert als Innovation, weil alles

andere, was schon existiert, braucht niemand mehr. Das kannst du dir regurgitieren

lassen, neu ausspucken lassen, repetitiv durch KI abarbeiten lassen. Das heißt, all

die repetitiven Jobs, die werden gerade nach und nach durch Agentic AI

wegautomatisiert oder zum Teil radikal reduziert. Und was übrig bleibt,

sind die Leute, die im Sinne von einer Ironies of Automation, von einer unglaublich

intelligenten Frau geschrieben. Ironies, also im Sinne von Ironien der Automatisierung.

Diese Dame heißt Lisanne Bainbridge und die hat schon in den 80er Jahren vorher

gesehen, dass Automatisierung unsere Jobs nicht einfacher macht, sondern sehr, sehr

viel komplexer. Und das ist dieser innovative Aspekt von Arbeit, den ich gerade auf

der Zukunft auf uns zukommen sehe. Aber das heißt, dieses Repetitiv, das hier haben

wir das Beispiel, die man zu mir sagte, also KI ist total gut, hätte immer die

Server -Logs aus Sicherheitsgründen und Server -Logs auswerten müssen. Und jetzt Das

gilt dann, wenn man morgens hin, wenn er so einen ersten Kaffee trinkt, lädt die

ganzen Logs runter, lädt die in ChatGPT hoch und sagt hier, sagt mir, wo irgendwas

auffälliges ist und das hat früher Stunden gebraucht und jetzt kann er... Ja gut,

hoffentlich definiert er seine Arbeit nicht nur darüber, weil das kann ich dir sagen,

dass Serverlog -Auswertung über KI, da wird es einen Tool dafür geben oder gibt's

schon. Genau, also diese Sachen fallen weg und unsere Arbeit ist Neues produzieren.

Neues, ja Neu an sich ist völlig esinnloser Quatsch, niemand braucht Neues an sich.

Es ist genauso wie, wenn jemand auf mich zukommt und sagt, hey, komm, ich habe eine

neue Idee, dann denke ich mir mal, es ist genauso wie ein Gedankenforz. Jeder hat

immer irgendetwas. Es geht um Neue und Nützlich. Und Nützlich erfordert, dass du dich

in andere Menschen reinversetzen kannst und empathisch verstehen kannst, was sie als

Nützlich empfinden. Und das kann Kai noch nicht. Den Job gut zu machen, sage ich

mal so, im besten Fall bist du in Steve Jobs, der sagt, ich kann dir etwas

erfinden, was du nützlich finden wirst, obwohl du gar nicht weißt, dass du es

nützlich finden wirst. Das ist eine Art von stellvertretendem in die Zukunftdenken,

was nur sehr wenige Menschen beherrschen. Die allermeisten Menschen haben ja eigentlich

nur ein Ziel, irgendeinen Scheiß an möglichst viele Menschen zu verkaufen und damit

Geld zu machen. Das ist der kleinste gemeinsame Nenner und das ist, glaube ich,

meine große Angst, dass GPD diese Menschen beflügelt, noch mehr sinnlosen Mist in die

Welt zu bringen, den kein Mensch braucht. Also ich versuche mich mal an einer

Zusammenfassung. Wir kamen ja von der parasozialen Pornografie. Also es ist eben nicht

sozial, sondern parasozial heißt ja, da wird soziales vorgegaukelt. Erster Aussage,

erster Appell, erinnert euch daran, das ist ein Computerprogramm, das versucht,

Dinge von sich zu geben, bei denen das sehr wahrscheinlich ist, dass sie oder

möglichst wahrscheinlich ist, dass sie irgendwie stimmen und dass sie gefallen, aber

da ist kein soziales Wesen auf der einen Seite und das ist andere in Pornografie,

also diese direkte Lustbefriedigung, sich auch einfach im Gedanken zu halten, sich

bewusst zu machen. Das ist eigentlich auch eine Spielart von Instagram Junkie Toom.

Ich habe eine Frage und ich kriege sofort eine Antwort und manche Antworten sind

halt nicht schnell, manche Antworten brauchen Lernen, brauchen längere Spannung halten,

längere Investitionen, damit man zu einer guten Antwort kommt. Wir haben einen

Automaten, der uns schnell Antworten gibt, können stimmen, können nicht stimmen, aber

wir sollten ein bisschen misstrauisch sein, ob dieser schnellen Befriedigung. Das wäre

so der erste Take -away, so nix. Der zweite wäre also am Ende die Aussage, dofe,

repetitive Dinge gerne automatisieren, aber darüber im Klaren sein, kreative neue

Dinge, wahrscheinlich nicht. Ich würde da noch mal differenziert reingehen und würde

sagen, früher fiel in dieser Startup -Blase unterwegs. Dann sagen wir die Frage, wo

du die Latte singst. Neun von zehn von diesen Startups haben es nicht geschafft,

weil sie schlichtweg nicht innovativ waren. Da saß jemand und hat gedacht, ich habe

eine Idee. Wurde nicht gegen den Markt getestet, wurde nicht geguckt, wer sich schon

mal hatte. Man hat sich daran festgehalten. Da würde ich sagen, da kann ChatGPT an

jedem Tag der Woche, der auf geendet und Mittwochs bessere Ideen produzieren, aber

die sind halt genau so wenig echte Innovation. Und dann ja ein bisschen Wiederholung

vom ersten Punkt, diese kritische Auseinandersetzung damit. Nicht alles fürbare Münzer

nehmen, nicht also sich auch gegenseitig ein bisschen misstrauisch zu sein, das ist

ein Messias, der so ein bisschen um die Ecke kommt und mit Vereinfachung, die wir

auch bitter nötig haben, lockt, aber dann eben einfach aufpassen, wie jeder Guru, wie

jeder Sektenführer, muss man das gendern? Oh doch, ich habe noch einmal über den

Sektenführerinnen gelesen. Also wie jede Sekte, jede der Sektenführerinnen, macht sie

sich manchmal einfach, weil sie immer eine Antwort haben will und manche davon sind

einfach falsch oder unpassend oder verkürzt. Ja, finde ich gut. Das wären meine

Takeaways, habe ich was vergessen? Ja, vielleicht sich selbst ernst nehmen und

genügend Wert schätzen, um Komplexität als Wachstumsmöglichkeit zu erkennen.

Das heißt wissen, dass auf diese schnelle Antwort nicht reinzufallen, heißt auch,

die eigene innere Komplexität wertzuschätzen, sich selbst als komplexes Lebewesen

wertschätzen. Ich finde es total spannend, wie du eben sagst, sich selbst ernst

nehmen. Ich habe total Spannung bei mir verursacht, weil ganz oft ist ja die Floskel

nämlich selbst nicht so ernst. Und ich habe neulich versucht, einen Kollegen zu einem

Lunch beim Burger King zu verführen. Und dann sagt er, nee, nee, ich ess da nicht.

Und dann hab ich gesagt, warum denn nicht? Und dann sagt er, weil mein Körper was

besseres verdient hat. Vielleicht ist es so was, also einfach auch zu sagen. Also

hin und wieder hilft der Wopper, der geistige Wopper mal. Aber ganz oft hat unser

Geist halt auch was Gehalt volleres verdient, das schwieriger zu besorgen und

schwieriger zu essen ist. Weil es ist mehr arbeiten, fünf Gänge Menü zu essen als

ein Wobber beim Fahren, den sich reinzuwolfen. Ja, aber langfristig wird die bessere

intellektuelle Diät dir gut tun. So ist das. Und die Schweine hinterm Haus, die

füttern wir weiter mit den Wobbern, weil das ist ein Voll. Sehr schön. Dann sind

wir durch, oder? Wunderbar. Wunderbar. Lieber Tom, vielen Dank fürs Vorbeikommen. Ich

danke dir, hat sehr viel Spaß gemacht und war tatsächlich inspirierend, anregend,

motivierend, alles all of the above. Das freut mich, mir hat es auch Spaß gemacht,

mal wieder eine sehr einfach natürlich laufende Unterhaltung, aber gut, was willst du

eure erwarten, wenn der Aufhängepornografie ist? Ich danke dir fürs Kaufen. Ich danke

euch da draußen fürs Zuhören. Ich hoffe, ihr konntet was mitnehmen. Wir packen ein

paar Links in die Show Notes. Diese Grafik mit den Scrapern, selbstverständlich den

Link zu Tom's Profil, geht dahin, guckt nach. Da seht ihr wahrscheinlich auch, wo

man ihn mal auf Veranstaltungen etc. Sprechen sehen kann. Folgt ihm, es lohnt sich.

Vielen Dank für's zuhören und bis zum nächsten Mal. Tschüss!

Chapters

Video

More from YouTube