ChatGPT für Videos: Sind wir bereit für die Konsequenzen?

Innerhalb von weniger als einem Jahr haben wir eine Entwicklung von, zugegebenermassen etwas befremdlichen, KI-Videos wie “Will Smith Eating Spaghetti” hin zu täuschend echten Videos miterlebt. Das neuste Text-zu-Video-Modell von OpenAI mit dem Namen Sora wurde entwickelt, um ein tiefes Verständnis der physikalischen Welt zu erlangen. Es ist in der Lage, minutenlange Videos zu generieren, die realistische, vielfältige und konsistente Bewegungsabläufe zeigen. Dabei kann Sora Videos von Grund auf generieren, nahtlose Übergänge gestalten oder perfekte Loops erzeugen. Die ersten Beispielvideos, veröffentlicht auf einer dafür eigens eingerichteten Website, veranschaulichen das breite Spektrum an Anwendungsmöglichkeiten, die Sora durch einfache Texteingaben ermöglicht. Dieser Fortschritt wirft eine entscheidende Frage auf: Sind wir als Gesellschaft auf die möglichen Auswirkungen solcher Technologien vorbereitet?

Das Potenzial von Sora ist unbestreitbar gross, doch die Verbreitung von KI-generierten Videos birgt auch erhebliche Risiken. Die NZZ hebt in einem Artikel unter anderem die Gefahr von Wahlmanipulationen durch Deepfakes hervor, gerade weil in diesem Jahr global wichtige Wahlen anstehen. Auch wenn OpenAI zugesichert hat, den Missbrauch von KI im Wahlkampf verhindern zu wollen, zeigen Erfahrungen von ChatGPT und andern Chatbots, dass sich die Sicherheitsvorkehrungen umgehen lassen, wenn die Anfragen geschickt formuliert werden. Zudem wurden historisch gesehen technische Hilfsmittel fast immer irgendwann im Wahlkampf eingesetzt, wie die NZZ anhand von Beispielen aus den USA aufzeigt. Weiter merkt der Autor an, dass die mögliche Flut von Deepfakes prominenter Politiker das Vertrauen in demokratische Prozesse generell weiter untergraben könnte, indem der Eindruck verstärkt wird, Wahlkämpfe seien grundsätzlich manipuliert und Politiker unehrlich.

Im Gegenzug relativiert Christian Hoffmann, Professor für Kommunikationsmanagement an der Universität Leipzig, in einem Artikel des MDR die Bedenken bezüglich der bevorstehenden Wahlen. Er vertritt die Auffassung, dass die Technologie vorerst keine kritische Bedrohung darstelle, da Menschen sich in ihrer politischen Meinung nicht so einfach verändern, höchstens verstärken liessen. OpenAI hat aktuell zudem keinen Zeitplan, wann Sora ein Produkt wird, und fokussiert sich auf Feedback für die weitere Forschung. Aus gutem Grund?

Machen Sie sich am besten selbst ein Bild und tauchen Sie in die faszinierenden Entwicklungen mittels der verlinkten Beiträge ein.

Bildquelle: DALL·E 3
Textquellen: https://www.youtube.com/watch?v=XQr4Xklqzw8, https://openai.com/sora, https://www.nzz.ch/wirtschaft/video-ki-sora-openai-loest-neue-debatte-um-deepfakes-und-urheberrecht-aus-ld.1814606, https://openai.com/blog/how-openai-is-approaching-2024-worldwide-elections, https://llm-attacks.org/, https://www.mdr.de/wissen/video-deep-fakes-wahlen-politik-ki-sora-100.html, https://the-decoder.de/openais-video-ki-sora-wird-nicht-in-absehbarer-zeit-veroeffentlicht/


Autor:


Tags: Artificial Intelligence, Digital, Leseempfehlung



Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht.

*

*

*