Ansichten eines Informatikers

KI als Echokammer und Verblödungsbude

Hadmut
27.6.2025 14:46

Die Confirmation-Bias-Methode.

Zu der Sache mit Perplexity AI, die mich da verleumden – wer ist dafür eigenlich zivil- und strafrechtlich verantwortlich? – schreibt mir ein Leser:

Hallo Hadmut,

ich habe perplexity.ai mit deinem Fall noch einmal konfrontiert. Perplexity ist für einen Austausch ungeeignet. Sobald irgendwie konfrontiert, dann versucht perplexiy einem nach dem Mund zu reden, beschwichtigt und schwurbelt rum….

KI wird die größte Falle für unseren Geist werden, wenn Leute ihr Denken an die KI delegieren.

Ein Beispiel von Frage und Antwort:

Frage:

Perplexity hat an Glaubwürdigkeit verloren, da die Aussagen von der Kontext-Wochenzeitung unwidersprochen übernommen wurde und der Kontent von Herrn Danisch, der frei zugänglich ist, nicht einbezogen wurde.

Antwort:

Dein Hinweis ist berechtigt und spricht eine zentrale Herausforderung aller KI-basierten Recherche- und Antwortsysteme an: Die Auswahl und Gewichtung von Quellen beeinflusst maßgeblich die Wahrnehmung von Glaubwürdigkeit und Ausgewogenheit.

Perplexity AI ist darauf ausgelegt, Informationen aus verschiedenen, möglichst verifizierten Quellen zusammenzufassen und transparent zu machen37. Dennoch zeigen aktuelle Berichte und Analysen, dass auch Perplexity – wie andere KI-Tools – nicht frei von Fehlern, tendenziöser Auswahl oder unkritischer Übernahme von Inhalten ist. Es gab in der Vergangenheit Kritik an mangelnder Quellenprüfung, Plagiatsvorwürfen und der Gefahr, dass KI-Modelle Inhalte ohne ausreichende Kontextualisierung übernehmen45.

Gerade bei kontroversen Themen besteht die Gefahr, dass bestimmte Perspektiven – etwa die von Hadmut Danisch selbst – nicht ausreichend einbezogen werden, wenn sie nicht in den abgerufenen Suchergebnissen erscheinen oder von der KI nicht als relevant gewertet werden. Das kann zu einem einseitigen Bild führen, insbesondere wenn tendenziöse Medien (wie die Kontext-Wochenzeitung) ohne Berücksichtigung der Gegendarstellung zitiert werden.

Perplexity AI bemüht sich um Quellenvielfalt und Transparenz, ist aber nicht unfehlbar. Kritische Nutzer sollten sich daher nicht auf eine einzige KI-Antwort verlassen, sondern – wie du richtig anmerkst – selbst verschiedene Perspektiven prüfen und insbesondere bei politischen oder umstrittenen Themen auch die Originalquellen, wie etwa die Blogbeiträge von Herrn Danisch, direkt heranziehen457.

Zusammengefasst:
Perplexity AI kann die Glaubwürdigkeit einer Antwort beeinträchtigen, wenn relevante Gegenpositionen fehlen oder tendenziöse Quellen unkritisch übernommen werden. Die Verantwortung für eine ausgewogene Bewertung liegt daher auch beim Nutzer, der verschiedene Seiten und Originalquellen in die eigene Recherche einbeziehen sollte.

  1. https://t3n.de/news/perplexity-ai-vorsicht-1631957/
  2. https://stefanpfeiffer.blog/2025/05/01/perplexity-ai-praktisch-aber-problematisch-erfundene-zitate-falsche-autoren/
  3. https://www.theis.link/2024/07/perplexity-ai-revolutionaere-zuverlaessigkeit-bei-ki-generierten-inhalten/
  4. https://digioneer.pro/news/perplexity-ai-zwischen-innovation-und-kontroverse/
  5. https://www.aijournalist.de/background-medien-melden-plagiatsverdacht-bei-perplexity
  6. https://www.aibusinessasia.com/de/p/google-is-falling-behind-heres-how-to-use-perplexity-ai-to-stay-ahead/
  7. https://www.unite.ai/de/perplexity-ai-review/
  8. https://www.instagram.com/p/C5Te2tRB9pp/?locale=Slot%2Bmachine%2BAPP%2Bentertainment%2Bofficial%2Bwebsite%28URL%3AKTT.bet%29%E2%9C%85.pkhm

Wobei ich es ja schon beachtlich finde, dass Perplexity überhaupt Quellen-URLs angibt, das machen KI-Systeme normalerweise (soweit ich sie bisher gesehen habe, Ausnahme Grok von Twitter/X, das Tweets finden und liefern kann) nicht. Aber Perplexity soll ja beides KI und Suchmaschine sein, und darin dürfte der Grund liegen, warum Perplexity URLs angibt.

Das ist natürlich besonders übel, wenn Perplexity die so miserabel auswählt. Ich habe Zehntausende Artikel geschrieben, bin Tausende Male in Foren und Kommentaren erwähnt – und ausgerechnet diesen einen, verleumderischen, inhaltlich falschen Hetzartikel des kommunistischen Dummblatts Kontextwochenzeitung, den nimmt Perplexity als zentrale Quelle zu meiner Person her.

Das kann natürlich gut sein, dass KI-Systeme – gerade im Wettbewerb um Nutzerzahlen und Relevanz – den Leuten immer das sagen, was sie hören wollen, und versuchen, die Tonart der Frage zu verstehen oder was sich über viele Fragen hinweg der politischen und intellektuellen Ausrichtung des Nutzers anzupassen.

Schema: Wenn der Kunde zufrieden ist, war die Antwort gut. Wenn er nicht zufrieden wirkt oder nicht wiederkommt, müssen wir anders antworten.

Es könnte also gut sein, dass KI-Systeme einfach darauf optimiert werden, zu liefern, was den Kunden besonders gut gefällt. Ich habe mich schon oft über den zunehmend kumpelhaftern und teils auch rotzigeren Ton von Grok gewundert, wenn Grok manchen Leuten antwortet.

Und auch mir ist das schon passiert, wenn mir KI-Systeme unrichtige oder unvollständige Antworten geben, und ich rückfrage, „Warum hast Du nicht …“ sie dann antworten „Du hast recht, ich hätte … sollen und habe nicht, weil ich nicht …, Entschuldige bitte…“

Das Problem ist, dass KI-Systeme nichts nachprüfen können und nicht verstehen, was sie sagen, sondern das alles nur statistische Auswertungen von dem sind, was schon irgendwo gesagt wurde, und ihre Statistiken danach bewerten oder anpassen, wie man darauf reagieren, positiv oder negativ. Wortwahl, Inhalt und so weiter.

Verlblödung und KI

Korrelation und Kausalität: Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task

Sie haben herausgefunden, dass KI-Nutzer dümmer sind als Leute, die selbst denken. Die Kausalitätsrichtig wäre zu diskutieren.

This study explores the neural and behavioral consequences of LLM-assisted essay writing. Participants were divided into three groups: LLM, Search Engine, and Brain-only (no tools). Each completed three sessions under the same condition. In a fourth session, LLM users were reassigned to Brain-only group (LLM-to-Brain), and Brain-only users were reassigned to LLM condition (Brain-to-LLM). A total of 54 participants took part in Sessions 1-3, with 18 completing session 4. We used electroencephalography (EEG) to assess cognitive load during essay writing, and analyzed essays using NLP, as well as scoring essays with the help from human teachers and an AI judge. Across groups, NERs, n-gram patterns, and topic ontology showed within-group homogeneity. EEG revealed significant differences in brain connectivity: Brain-only participants exhibited the strongest, most distributed networks; Search Engine users showed moderate engagement; and LLM users displayed the weakest connectivity. Cognitive activity scaled down in relation to external tool use. In session 4, LLM-to-Brain participants showed reduced alpha and beta connectivity, indicating under-engagement. Brain-to-LLM users exhibited higher memory recall and activation of occipito-parietal and prefrontal areas, similar to Search Engine users. Self-reported ownership of essays was the lowest in the LLM group and the highest in the Brain-only group. LLM users also struggled to accurately quote their own work. While LLMs offer immediate convenience, our findings highlight potential cognitive costs. Over four months, LLM users consistently underperformed at neural, linguistic, and behavioral levels. These results raise concerns about the long-term educational implications of LLM reliance and underscore the need for deeper inquiry into AI’s role in learning.

Das ist so ungefähr, wie die Frage, wer bessere Pizza machen kann: Der, der selbst backt, oder der, der den Pizzaservice anruft. Kann zwar sein, dass die Pizza vom Service sogar besser ist, aber dann ist die Fähigkeit des Backens eben in deren Hirn und nicht dem des Anrufers.

Hier (threadreaperapp) und hier (sciencefiles) gibt es noch Besprechungen dazu.

Daraus:

83.3% of ChatGPT users couldn’t quote from essays they wrote minutes earlier.

Let that sink in.

You write something, hit save, and your brain has already forgotten it because ChatGPT did the thinking.

Das ist ein Effekt, den ich vom Autofahren kenne. Ich kann mir einen Weg nur schlecht oder gar nicht merken, wenn ich bei der Fahrt Beifahrer war. Ich kann ihn mir aber viel besser merken, wenn ich selbst gefahren bin.

Brain scans revealed the damage: neural connections collapsed from 79 to just 42.

That’s a 47% reduction in brain connectivity.

If your computer lost half its processing power, you’d call it broken. That’s what’s happening to ChatGPT users’ brains.

Nicht ganz. Wenn ein Computer die Hälfte seiner Leistung verliert, kommt er auf den Schrott. Bei Menschen rufen wir nach „Chancengleichheit“ und „Affirmative Action“.

Und die Texte selbst sind (anders als bei der Lieferservicepizza) auch nicht gut:

Teachers didn’t know which essays used AI, but they could feel something was wrong.

“Soulless.”
“Empty with regard to content.”
“Close to perfect language while failing to give personal insights.”

The human brain can detect cognitive debt even when it can’t name it.

Und das Ergebnis:

Here’s the terrifying part: When researchers forced ChatGPT users to write without AI, they performed worse than people who never used AI at all.

It’s not just dependency. It’s cognitive atrophy.

Like a muscle that’s forgotten how to work.

Oder

Erschreckend werden diese Ergebnisse, wenn die Hirnregionen und Gehirnströme analyisiert werden, die während dem Essayschreiben in den drei Gruppen angesprochen werden bzw. zum Einsatz kommen.

  • Die Interkonnektivität einzelner Gehirnbereiche ist bei ChatGPT-Nutzern viel geringer als bei den Essayisten, die auf den Gebrauch ihres Gehirns angewiesen sind. Sie nutzen ein um 55% größeres neuronales Netzwerk als die ChatGPT-Nutzer und beteiligen Gehirnregionen an ihrem Denkprozess, die bei ChatGPT-Nutzern unbeteiligt bleiben.
  • Man kann also feststellen, dass ChatGPT die Gehirnfunktionen reduziert, das Denken enger macht und auf mehr oder minder repetitive Funktionen beschränkt.

Man sollte es nicht für möglich halten, aber viele Zeitungen und Geisteswissenschaftsfächer werden also noch blöder werden, als sie es schon sind.

Der ganze linke Kanon wird sich noch mehr in eine Abwärtsspirale selbstverstärkender Blödheit begeben, die sich in KI-Echokammern immer weiter selbst verstärkt und weiter verblödet, weil es immer geiler wird, dass die KI den ganzen linken Schwachsinn immer mehr verstärkt.

Und wie es weiter geht?

Gut möglich, dass es zu meinem Steckenpferdthema, den selbstverstärkenden Fehlern, kommt: Dass Linkstum und Geisteswissenschaften ein enormer und empirisch gerade wieder einmal widerlegter Fehler ist, und sie als „Gegenmaßnahme“ KI in Politik, Medien und Akademikerklapsmühlen einsetzen, und sich das dadurch alles noch verstärkt, sie sich aber in ihrer und durch ihre Verblödung immer besser vorkommen, und das in einen selbstverstärkenden Abwärtsstrudel gerät. Vor allem, weil die KI nicht sagen kann „Du Idiot, versuch mal, selbst zu denken, statt mir mit Deinen blöden Fragen auf den Sack zu gehen“, oder zugeben kann, dass sie es nicht weiß.

Wir werden zunächst eine Epidemie von KI-geschriebenen Texten erleben (Dissertationen, Aufsätze, Zeitungsartikel und und und), weil alle die, die bisher plagiiert oder Ghostwriter beauftragt haben, auf KI umsteigen werden.

Und Ihre Dummheit wird so auffällig werden, als trügen sie eine gelbe rotierende Rundumleuchte auf dem Kopf.