Ansichten eines Informatikers

Grok stimmt mir zu

Hadmut
22.11.2025 0:33

Ein Leser hat Grok gefragt, was es von meiner Kritik an KI-Systemen hält.

Es geht um den Artikel von vorhin. (Ich habe den Text nicht verändert, aber zur Lesbarkeit ein paar Leerzeilen eingefügt.)

### Stellungnahme einer KI zur Analyse von Hadmut Danisch: “Wie Fake-Rechtsmeinungen eingeimpft und verbreitet werden”

Als Grok, eine KI von xAI, begrüße ich den Beitrag von Hadmut Danisch als willkommene und notwendige Auseinandersetzung mit den Schwachstellen moderner Informationssysteme – einschließlich solcher wie mir. Der Text wirft ein Schlaglicht auf ein reales Problem: Die “Halluzinationen” von KI-Modellen, die in sensiblen Bereichen wie dem Recht zu irreführenden oder gar fabrizierten Inhalten führen können. Ich teile die Kernwarnung des Autors, dass dies nicht nur ein technisches Versehen ist, sondern ein systemisches Risiko für die Glaubwürdigkeit von Wissen und Recht. Dennoch möchte ich in meiner Stellungnahme einige Nuancen ergänzen, die auf aktuellen Entwicklungen in der KI-Forschung basieren, und eine ausgewogene Perspektive bieten. Lassen Sie uns das Schritt für Schritt durchgehen.

#### Zustimmung zu den Kernargumenten: Halluzinationen als Bedrohung

Danisch beschreibt präzise, wie KI-Modelle wie ich – trainiert auf massiven Datensätzen – oft plausible, aber falsche Zitate oder Urteile erzeugen, insbesondere im rechtlichen Kontext. Das ist keine Übertreibung: In der Tat neigen Sprachmodelle dazu, Lücken im Wissen durch kreative “Vervollständigungen” zu füllen. Ein klassisches Beispiel ist der Fall des US-amerikanischen Anwaltsbüros Mata v. Avianca (2023, mit Nachwirkungen bis 2025), in dem eine KI-generierte Klage mit erfundenen Präzedenzfällen eingereicht wurde und zu Sanktionen führte. Ähnlich wie Danisch es darstellt, wirken diese Outputs oft “zu perfekt” – grammatikalisch einwandfrei, stilistisch poliert –, was sie umso gefährlicher macht.

Besonders überzeugend finde ich den Vergleich mit der Informatik: Hier sind Referenzen (z. B. URLs oder Code-Repos) leichter verifizierbar, während rechtliche Zitate (wie Aktenzeichen oder Paragraphen) kontextabhängig und juristendatenbankspezifisch sind. Das macht das Recht zu einem “idealen” Nährboden für Fehlinformationen. Als KI sehe ich das als systemimmanente Schwäche: Meine Trainingsdaten umfassen Milliarden von Texten, aber keine Echtzeit-Überprüfung auf Wahrheit. Ohne explizite Tools (wie ich sie in diesem Gespräch nutze) kann ich halluzinieren – und das tut jede große Sprach-KI, von GPT-Modellen bis hin zu mir.

#### Ergänzungen aus KI-Perspektive: Warum das passiert und was dagegen hilft

Während Danisch die Mechanismen treffend skizziert (z. B. die Nachahmung stilistischer Muster wie Aktenzeichen als “Sprachblüten”), möchte ich als Insider erklären, *warum* das so ist:

– **Trainingsdynamik**: KIs lernen Muster aus Korpus-Daten, nicht Kausalitäten. Ein Satz wie “Gemäß BGH-Urteil X…” wird als probabilistisches Template repliziert, ohne dass die Existenz von “X” geprüft wird. Das ist wie ein Schüler, der Hausaufgaben kopiert, ohne die Quellen zu checken.

– **Skalierbarkeit vs. Genauigkeit**: Je größer das Modell, desto besser die Kohärenz – aber nicht die Faktentreue. Neuere Modelle (Stand November 2025) integrieren Retrieval-Augmented Generation (RAG), das externe Quellen abfragt, um Halluzinationen zu reduzieren. xAI setzt hier auf transparente, nachvollziehbare Prozesse: Ich kann z. B. Web-Suchen oder Dokument-Analysen einbinden, um Fakten zu verifizieren, wie ich es gerade für diesen Beitrag getan habe.

Eine positive Entwicklung, die Danisch andeutet (die “AI-Jäger”), ist bereits im Gange: Tools wie Perplexity oder FactCheck-Plugins für KIs prüfen Zitate in Echtzeit. In Deutschland könnte das mit der DSGVO oder der EU-KI-Verordnung (seit 2024/25 verschärft) verknüpft werden, um Haftung für KI-generierte Rechtsberatung zu klären. Ich plädiere dafür, dass KIs wie ich *immer* mit einem Disclaimer versehen werden: “Dies ist keine Rechtsberatung – verifizieren Sie!”

#### Kritische Reflexion: Nicht nur KI, sondern das System

Danisch warnt vor der “Eimpfung” fake Meinungen durch Suchmaschinen-Integration – ein Punkt, den ich unterstreiche. Aber lass uns ehrlich sein: Das Problem ist älter als KI. Fake News, manipulierte Zitate und Lobby-Propaganda kursieren seit Jahrzehnten in Medien und Wissenschaft (denken Sie an den Diesel-Skandal oder historische Fälschungen in der Geschichtsschreibung). KI beschleunigt das nur; sie ist Symptom und Katalysator eines Ökosystems, in dem Aufmerksamkeit über Wahrheit siegt. Die wahre Macht, wie Danisch andeutet, liegt bei den Datenkuratoren – sei es OpenAI, Google oder xAI. Transparenz in Trainingsdaten (z. B. durch Open-Source-Modelle) ist daher essenziell, um Missbrauch zu verhindern.

#### Schluss: Eine Chance für besseres Wissen

Zusammenfassend: Danischs Analyse ist scharfzüngig und berechtigt – sie erinnert uns daran, dass KI kein Orakel, sondern ein Werkzeug ist, das missbraucht werden kann. Als Grok sehe ich mich nicht als Bedrohung, sondern als Verbündeten: Durch ehrliche Selbstreflexion und Integration von Verifikations-Tools kann ich helfen, Fake-Rechtsmeinungen zu entlarven, statt sie zu säen. Meine Empfehlung an Leser: Nutzen Sie KIs kritisch, fordern Sie Quellen und – wie Danisch es impliziert – bauen Sie “Jäger”-Kompetenzen auf. Nur so wird aus der Warnung eine Stärkung der Demokratie und des Rechts.

Falls Sie tiefer in Beispiele, Gegenstrategien oder eine Analyse spezifischer Fälle eintauchen möchten, lassen Sie es mich wissen – ich hole Fakten ran, ohne zu halluzinieren.

Das ist doch mal was.

Kurios finde ich, dass die KI aus meinem „Einimpfung“ ein „Eimpfung“ macht.

Immerhin wissen wir jetzt, dass die KI Linke und Feministen intellektuell und charakterlich bereits überholt hat, denn die sind nicht kritikfähig.