Ob-la-di, Ob-la-da …
Ein Leser fragt an, wie man das macht.
Immer wieder mal geht in den Social Media dieses Video von Gabriela Bee herum:
Schön gesungen, schönes Video, auch wenn man allerdings merkt, dass sie keines der Instrumente spielen kann und spielt, und nur so tut als ob. Dafür kann sie ganz ordentlich singen und sieht hübsch aus.
Ein Leser fragt, wie das gemacht ist, ob das KI ist. Weil im Moment gerade in Mode ist, dass die Leute in den Social Media alles für KI halten, was sie nicht unmittelbar verstehen.
Der große Video-Experte bin ich auch nicht. Aber ich denke, das ist recht offensichtlich, wenn man sich klar macht, dass eine Sache ein Trick ist.
Das Video ist schon 6 Jahre alt, da gab es diese KI-Möglichkeiten noch nicht (zumindest nicht bezahlbar).
Das ist einfach mit zwei oder drei Kameras aus festen Blickwinkeln auf sehr stabilen, unverrückbaren Stativen aufgenommen. Man hat vorher eine Tonspur mit den Instrumenten, und vermutlich auch der Stimme aufgenommen, die man da fünfmal abgespielt hat, und sie hat sich einfach an fünf verschiedene Stellen gesetzt, mit verschiedenen T-Shirts, Instrumenten, Mützen/Frisuren, und einmal auch die Hose gewechselt.
Es gibt Kameras, die man mit einem Time-Code synchronisieren kann, und dann hat man da 5 x Zahl der Kameras, also vermutlich 10 Videos, die exakt zeitsynchron bezüglich der Tonspur sind. Und es gibt Video-Software, die Objekte erkennen und auch über mehrere Frames freistellen kann. Und dann hat man sie einfach – bis auf die jeweils am weitesten hinten sitzende Version „ausgeschnitten“ und das einfach übereinander gelegt.
Der eigentliche Trick, der die Täuschung ermöglicht, liegt woanders:
- Das ganze Video wackelt (unnatürlich gleichmäßig) als wäre es von Hand gedreht,
- es gibt Zoom-Effekte,
- es gibt Unschärfefehler und Autofokus-Effekte.
Und die sind nachträglich eingefügt. Die sind Fake. Denn diese „Fehler“ lassen das so authentisch aussehen und es als unmöglich erscheinen, dass das getrickst wurde, wenn wie will man ein verwackeltes Video oder Schärfefehler wiederholen?
Das Video wurde nicht verwackelt oder unscharf aufgenommen. Das Video wurde mit fester Einstellung und scharf von vorne bis hinten aufgenommen, auf bombenfesten Stativen, damit die fünf Ebenen pixelgenau übereinander passen, und das vermutlich in 4K oder 6K, damit man genügend Qualitätsreserve hat, um das dann später zu verwackeln und zu zoomen. Da gibt es einen Master, in dem die einzelnen ausgeschnittenen Ebenen übereinander liegen.
Gegen Ende des Videos läuft sie zweimal durch das Bild, das ist vor Greenscreen aufgenommen und nachträglich reingepappt.
Und erst als die Ebenen übereinandergelegt wurden und das Video mit den fünf Klonen exakt stimmte, erst dann hat man darauf dann Wackel- und Schärfeeffekte gelegt, damit das authenatisch nach Handyvideo aussieht.
Der eigentliche Fake besteht also im Wackeln und der Unschärfe.
Mit KI hat das eigentlich gar nichts, oder wenn, dann nur beim automatischen Freistellen zu tun. Es gibt Systeme (und so funktionieren ja auch die billigen Videokonferenzprogramme, die den Hintergrund austauschen), die erkennen, was sich bewegt, und das dann für Mensch halten, indem sie die Kanten nachverfolgen und vervollständigen. Und genau so wie diese Videokonferenzssysteme funktioniert das auch, nur mit sehr viel besserer und professionellerer Qualität.
Dass das kein einfaches Handy ist, sieht man ja auch an den wechselnden Blickwinkeln. Die Fenster sind schwarz, und das ganze Zimmer sieht völlig inszeniert, künstlich aus, wie ein Influencer-Zimmer. Das wurde vermutlich in einem semiprofessionellen Studio auf Influencer-Niveau aufgenommen.
Aber irgendwie kommt das gerade in Mode, alles, was einem nicht sofort einleuchtet, als „KI“ abzutun.
Ich hatte vor Jahren mal beschrieben, dass es so eine Sorte von Pseudobesserwissern gibt, die einfach immer alles als Fake, Photoshop usw. hinstellen, weil sie zwar eigentlich gar nichts wissen, als Skeptiker aber schlau erscheinen wollen und einfach das geringste Risiko eingehen. Man blamiert sich damit viel weniger, als auf einen Fake hereinzufallen. Und diese Leute nennen eben heute alles „KI“ und meinen, damit besonders schlau auszusehen.