Der grausame Tod der Marcella Ferracci und die weitreichenden Auswirkungen auf die Open-Source-Szene
Das sollte einem zu denken geben.
Leserzuschrift:
ChatGPT über cdparanoia
Hallo Herr Danisch,
seit vielen Jahren nutze ich unter Linux den Audio-Ripper cdparanoia.
Gestern Abend habe ich aus Langeweile der KI ChatGPT einen Streich gespielt: Da der Ripper seit Jahren nicht mehr weiterentwickelt wird, habe ich eine von mir frei erfundene Person (‘Marcella Ferracci’) als Entwickler dargestellt und habe behauptet, die wäre verstorben und ChatGPT über die weitere Entwicklung befragt.
Es war köstlich.
Die KI hat nicht etwa festgestellt, daß es zwischen der von mir erfundenen Kunstperson und dem Ripper keine Verbindung gibt. Nein, die KI hat mir eindrucksvoll gezeigt, warum mit dem tragischen Tod der Dame jede Arbeit an dem Ripper aufgehört hat. Ich habe den Chat gespeichert und Ihnen als PDF angehängt. Meine Eingaben sind im Text unterstrichen, der andere Blödsinn stammt von der KI.
Viel Spaß



Ob das jetzt echt ist oder mir einer einen erfundenen Dialog schickt, kann ich jetzt nicht nachprüfen. Das müssten die Leser mit ähnlichen Anfragen selbst überprüfen.
Mir ist aber neulich etwas ähnliches passiert. Ich hatte die KI als Suchmaschine verwendet um nach Urteilen zu suchen, bekam eine Antwort und freute mich sehr, weil der BGH – anscheinend – genau das entschieden hatte, wonach ich gesucht hatte. Nur: Es gibt beim BGH keine (veröffentlichte) Entscheidung mit diesem Aktenzeichen. Auch die weiteren genannten Entscheidungen gab es nicht.
Also sagte ich der KI, dass die Aktenzeichen nicht stimmen.
„Oh, entschuldige bitte! Ich sehe, Du hast recht. Ich korrigiere mich, das Aktenzeichen lautet …“
Und wieder falsch, wieder eines, das es nicht gibt.
Die Dinger erzählen einem einfach das, was man hören möchte. Das, wonach man gefragt hat.
Ich habe schon von Fällen gehört, in denen die KI nach dem Schema „programmiert“ hat, Stichwort vibe coding. Man will etwas, „Schreibe mir ein Programm, dass die Aufgabe X erledigt“, und das Ding sagt nicht etwa „tut mir leid, kann ich nicht“ sondern blubbert irgendeinen Mist zusammen. Und den bauen die Leute dann irgendwo ein.