Ansichten eines Informatikers

Halbkünstliche Menschen aus dem KI-Katalog

Hadmut
30.3.2024 13:35

Beachtliches Problem.

Die ist angeblich nicht echt, sondern von KI erzeugt:

Das Problem daran könnte sein, dass das Video in Wirklichkeit aber wohl auch nicht voll synthetisiert ist, sondern ein bestehendes Video (anderen Inhaltes) verwendet und dabei per KI nur die Stimme und die Mundbewegung ausgetauscht wurde, sie im Original etwas anderes sagte. Das ist wohl gerade der Hype, dass man irgendwelche „echten“ Videos aus den Social Media holt und daraus dann Werbevideos macht:

Es gibt sogar die Vermutung, dass das ein neuer Jobs für Models und die Stock-Photo-Branche sein kann, weil wir ja inzwischen mehr Video als Fotos sehen: Die machen irgendein Video, erzählen einfach irgendwas, egal was, irgendeine Schöne oder Auffällige erzählt irgendwas, und liefert dafür Material für die KI-Generatoren, die dann bei Bedarf und Bestellung einfach Stimme und Mund austauschen, damit sie dann sagt, was bestellt wird. Dann hat man bald – wie bisher bei Stock-Photo-Anbietern – ein Lager von fertigen Videos. Und dann bestellt man sich „eine dralle Blondine im Auto“, die den Brotaufstrich lobt oder über Trump schimpft. Zack, sagt sie den Text, den der Auftraggeber vorgegeben hat, vielleicht von der KI noch an Jugendslang angepasst.

Ich weiß nicht, ob es dabei um dasselbe Programm geht, aber zumindest um ein ganz ähnliches mit gleicher Problemstellung: Die Washington Post berichtet darüber, dass zunehmend Leute ihre eigenen Gesichter und Aussagen in Werbung wiederfinden, weil die KI mit ihren Fotos und Videos gefüttert wurde und das nun verwurstet:

Michel Janse was on her honeymoon when she found out she had been cloned.

The 27-year-old content creator was with her husband in a rented cabin in snowy Maine when messages from her followers began trickling in, warning that a YouTube commercial was using her likeness to promote erectile dysfunction supplements.

The commercial showed Janse — a Christian social media influencer who posts about travel, home decor and wedding planning — in her real bedroom, wearing her real clothes but describing a nonexistent partner with sexual health problems.

“Michael spent years having a lot of difficulty maintaining an erection and having a very small member,” her doppelgänger says in the ad.

Scammers appeared to have stolen and manipulated her most popular video — an emotional account of her earlier divorce — probably using a new wave of artificial intelligence tools that make it easier to create realistic deepfakes, a catchall term for media altered or created with AI.

Was bei Werbung noch eine gewisse Komik hat, könnte (und wird) sich zum üblen Propagandawerkzeug entwickeln, weil man damit dem Gegner einfach alles in den Mund legen kann.

Denkt nur mal an das Ibiza-Video. Dabei war das nur geschnitten und durch Tricks provoziert. Was aber, wenn da jemanden in einem nahezu echten Video einfach nur ein paar Worte ausgetauscht werden? Manchmal ist es nur ein Komma, das die Aussage ins Gegenteil drehen kann. Oder ein falsches Wort. Manchmal reicht es, Teile eines echten Videos in anderer Reihenfolge zusammenzuschneiden und das so zu machen, dass man keinen Übergang sieht.

Sehr gefährlich.