Wie KI die Open-Source-Welt zerstört
Das wird böse enden.
Golem hat einen Artikel darüber, wie KI ein Open-Source-Projekt zerstört: Das drohende Ende von Open-Source-Projekten durch LLMs
Kurz: Eine Firma betreibt das Open-Source-CSS-Framework Tailwind und hat(te) viele Angestellte. Sie leb(t)en davon, dass sie das Grundsystem kostenlos anbieten, und – wie das so viele machen – Zusatzdienste und Beratungen anboten. Auf diese wiesen sie in der Dokumentation hin.
Das Geschäftsmodell und Marketing beruhte also darauf, dass die Leute die Dokumentation lesen und dabei auf die Zusatzangebote aufmerksam werden. Das ist oft so oder ähnlich.
Nun lesen die Leute aber die Dokumentation nicht mehr, weil ihnen das zu anstrengend ist. Stattdessen fragen sie nur noch die KI, die die Dokumentation gelesen hat und ihnen Fragen beantwortet. Mit der Folge, dass die Firma ihre Zusatzangebote nicht mehr verkauft und deshalb viele Leute entlassen musste.
Das passt zu einer anderen Meldung. Ich weiß zwar nicht mehr, wo ich das gestern oder vorgestern gelesen habe, habe aber per Suchmaschine einen anderen Artikel über dieselbe Studie gefunden: Anthropic-Studie: KI-Hilfe kann das Lernen neuer Programmier-Skills verschlechtern
Demnach ist die Produktionssteigerung durch KI weitaus geringer als versprochen:
Die Kontrollgruppe ohne KI-Zugang machte mehr Fehler und musste sich daher dreimal öfter mit ihnen befassen als die KI-Gruppe. Diese Fehler zwangen die Teilnehmer laut den Forschenden zum kritischen Nachdenken über den Code. Auch das schmerzhafte Feststecken bei einem Problem könnte wichtig für den Kompetenzaufbau sein, so die Studie.
Die größten Unterschiede im Wissenstest zeigten sich bei den Debugging-Fragen. Die Kontrollgruppe hatte während der Aufgabe mehr Trio-spezifische Fehler erlebt, etwa RuntimeWarnings bei nicht erwarteten Coroutinen. Diese Erfahrungen förderten offenbar das Verständnis der Kernkonzepte.
Anders gesagt: „Vibe Coding“ ist zu einfach, man lernt dabei zu wenig.
In dem anderen Artikel, den ich gestern oder vorgestern gelesen hatte, stand noch, dass die Entwickler ohne KI ein deutliches, messbares besseres Verständnis des Codes hatten, und die stärksten Unterschiede bei der Fehlersuche zu Tage traten. Entwickler, die KI nutzen, sind bei Standardfällen zwar schneller, ein Programm hinzubekommen, aber es funktioniert meistens nicht wie gewünscht. Und dann fangen die Probleme an.
Die Forschenden warnen vor den Konsequenzen für sicherheitskritische Anwendungen. Wenn Menschen KI-generierten Code überprüfen und debuggen sollen, benötigen sie selbst entsprechende Fähigkeiten. Diese könnten jedoch verkümmern, wenn der Kompetenzaufbau durch KI-Nutzung beeinträchtigt wird.
“KI-gestützte Produktivität ist keine Abkürzung zu Kompetenz”, fassen die Forschenden zusammen. Der Schlüssel zum Erhalt der Lernfähigkeit liege in kognitiver Anstrengung: Wer die KI nur für konzeptuelle Fragen nutze oder sich Erklärungen geben lasse, könne den Lernerfolg bewahren.
Vor einem halben Jahr schrieb schon heise: KI untergräbt die Fähigkeiten von Entwicklerinnen und Entwicklern
Zurück zum Tailwind-Artikel:
Was sie eben auch kritisieren, ist, dass die KI-Systeme das Geld verdienen und die Open-Source-Entwickler nur noch eine Art kostenlose Zulieferer sind. Und das führt dann dazu, dass die Leute hinwerfen und keine Lust mehr haben oder schlicht nicht mehr können.
Im Prinzip melken die Firmen, die Vibe Coding anbieten, die Autoren von Webseiten und Open Source Produkten ab.
Mich erinnert das an die Migrationskrise: Da ist die angestammte Bevölkerung auch nur noch Arbeiter und Steuerzahler, und der Rest macht es sich einfach und zieht das Geld ab.