Ansichten eines Informatikers

„Schreibe einen Aufsatz über Apple“

Hadmut
12.1.2023 20:43

Wer künftig die Schulaufgaben macht und die Zeitung schreibt.

KI ist groß im Kommen.

Sie erzeugt mittlerweile künstliche Fotos, Texte, Musik immer mehr. In den Fotoforen gibt es gerade jede Menge Phantasiekameras, die Leute erzeugen, indem sie von der KI Kameras anfordern, die aussehen wie R2D2 oder Indiana Jones. Robbie Williams hat sich gerade seinen Song Angels per KI auf Beethoven umbügeln lassen. Sogar die abgeschnittenen und fehlenden Teile von Rembrandts Nachtwache hat man rekonstruieren lassen, weil eine abgekupferte Version eines anderen Malers existierte, man und dessen Bild im Rembrandt-Stil synthetisieren ließ. Neulich sah ich in einem Fotoforum ein Portrait einer Frau mit sagenhaftem Gesicht, aber sehr, sehr seltsamen Fingern, einschließlich der Aufgabe, die Gelenke mal nachzuzählen, einem Kinn, das Fragen aufwirft, und Haaren, deren Schärfeverlauf in Optik wohl durchfallen würde. Wo ich dann den Eindruck hatte, dass dieses Bild nicht so ganz echt ist.

Neulich hatte ich schon bebloggt, dass KI ein ganz erhebliches juristisches Problem mit sich bringt, nämlich die Frage des Plagiats. KI ist nicht kreativ, sondern verwurstet das, worauf sie trainiert wurde, also anderen Bildern, Gemälden, Musikstücken. Wenn sie also irgendetwas generiert, dann ist das keine richtige Schöpfung, keine Kreativität, sondern nur eine Variation dessen, was sie gelernt, gesehen hat. (Man kann sich darüber streiten, ob das beim Menschen mehr als das ist.) Es gibt schon KI-Systeme, denen man ein Bild vorwerfen und es auffordern kann, Variationen davon zu erzeugen. Das Ding produziert dann Bilder, die ähnlich sind, aber doch anders aussehen, kein unmittelbar erkennbares Plagiat sind. Verletzen die das Urheberrecht an den gelernten Bildern? Wer ist dann Inhaber der Rechte am geschaffenen Bild? Ist es überhaupt ein Werk im Sinne des Urheberrechts? Ist es eine Vervielfältigung der eingegebenen Bilder?

Gerade gehen wieder einige neue Anwendungen durch die Medien. Beispielsweise ChatGPT von OpenAI.

Hier nun wird beschrieben, wie man das in Siri auf dem iPhone einbindet und das Ding dadurch „Intelligenter“ wird.

Gedichte schreiben, Code programmieren, Hausaufgaben erledigen oder sogar wissenschaftliche Texte verfassen: All das und noch viel mehr kann „ChatGPT“ – der Chatbot der Firma OpenAI – bereits und verblüfft dabei mit erstaunlichen Ergebnissen, die auch gut und gerne von einem Menschen stammen könnten. Die Reaktionen reichen von Begeisterung über die Fähigkeiten des Chatbots bis hin zur Sorge über das mögliche Ende ganzer Berufsgruppen – wie z. B. Journalisten, Ärzte oder Juristen -, die drohen von der künstlichen Intelligenz in Zukunft ersetzt zu werden.

Man kann das Ganze aber auch positiv sehen und sich die tollen Möglichkeiten des Tools zunutze machen. Als iPhone-User z. B. könnt ihr mithilfe der Anwendung Siri intelligenter machen. Dafür müsst ihr euch zunächst den Kurzbefehl „OpenAI GPT-3“ aufs iPhone laden.

Und dann sagen „Schreibe einen Aufsatz über Apple“.

Und die Ergebnisse sind verblüffend gut.

Was natürlich ein Trugschluss ist, denn es besteht dasselbe Problem, das ich schon bei den Programmen zur scheinbaren Schärfung und Auflösungserhöhung von Fotos beschrieben habe: Die zeigen nicht das echte Bild. Sie können keine Information errechnen, die nicht da ist. Sondern sie wählen aus dem Fundus ihrer Trainingsbilder das aus, was unscharf oder in niederiger Auflösung dem vorgegebenen Bild nahekommt. Das Ding produziert keine Texte, sondern rekombiniert die erlernten. Man kann sich darüber streiten, ob der durchschnittliche Massen-Mensch mehr als das kann.

Gerade wenn man sich dann auch noch vorstellt, dass diese Dinger nicht nur Texte erzeugen, sondern dazu auch die passende Bewegung eines Sprechers und das noch mit der Deep-Fake-Technik für Gesichert kombiniert, hat man ein komplettes Fake-Video, in dem Albert Einstein oder Elvis erzählen, was sie im Jenseits so erfahren haben.

Etwas banaler gesagt, werden viele Schüler ihre Schulaufgaben künftig von der KI erledigen lassen.

Und viele Journalisten ihre Texte schreiben und mit scheinbar echten Fotos ergänzen lassen. Gerade hatten wir ja den Fall der Berichterstattung über einen Naziaufmarsch, den es nicht gab. Künftig werden da aber passende Beweisfotos dabei sein, die irgendeine KI produziert hat, anstelle der bisher üblichen „Archivfotos“. Künftig werden die Bilder stets beweisen, was im Text steht, weil sie passend zum Text synthetisiert werden.

Ich habe auf Reisen schon Leute erlebt, die keine Fotos machen und keine Kamera dabei haben, nicht mal das Handy benutzen, weil sie sagten, dass es von jedem wichtigen Ort, an den sie kommen, im Netz schon weit bessere Fotos gibt, als sie sie je machen könnten, und es Zeit, Geld, Mühe, Schlepperei spare, wenn man sich einfach fremde Bilder runterlädt, als eigene (schlechte) zu machen. Gerade das, nämlich die Verfügbarkeit vieler Bilder, wäre aber ein Paradebeispiel für KI. „Mache ein Bild von mir, auf dem ich mit Moulin-Rouge-Tänzerinnen und viel Gold vor dem Eiffelturm stehe und mir die französische Regierung zu Füßen liegt.“ Bald kein Problem mehr. Oder mache ein Bild von Kanzler Scholz, wie er nackt kleinen Kindern auf dem Spielplatz nachstellt. Oder als Pornodarsteller. Auch kein Problem mehr.

Es ist eine Frage der Zeit, bis Verleumdung, Diffamierung, falsche Anschuldigung mit synthetisierten Bilder in Mode kommen.

Ich muss da immer an diese Journalistin denken, die ich mal auf einer dieser Konferenzen im NDR erlebt habe. Die sagte, sie müsse gar nicht rausgehen um zu berichten oder recherchieren. Sie findet alles in Twitter und schreibt dann darüber. Gerade sowas werden die KI-Systeme dann erlernen.

Und die Gender-Studies sind ja auch nur Rabulistik-Lehrgänge, in denen man lernt, den immer selben Quatsch auf jegliche Sachverhalte anzuwenden.

Interessant wird das dann, wenn die Dinger ordentlich planen und Architekten ersetzen können. Denn „Mach mir einen Flughafen“ wäre doch ein echter Fortschritt etwa für Berlin.

Die Gefahr

besteht natürlich darin, dass man mit der Auswahl an Trainingsdaten alles manipulieren kann.

Man kann dafür sorgen, dass die Texte gegendert werden, politisch korrekt sind, immer nur dunkle Hautfarben zeigen und jeder beliebigen anderen Vorgabe folgen. Solche Effekte haben wir ja jetzt schon in den Suchmaschinen.

Politisierung und Propaganda werden damit eine neue Phase treten. Denn künftig werden die Zeitungen nicht mehr offen manipuliert, sondern sie bekommen einfach eine KI, die auf politisch korrekte Texte trainiert wurde, und dann nur noch politisch korrekt daherschwätzt. Oder bei der Bewertung von Bewerbungsunterlagen weiße Männer herabstuft.