OpenAI veröffentlicht Sora: Traut euren Augen nicht mehr
Nach einer frühen Vorschau zu Beginn des Jahres ist Sora, das lang erwartete Video-Generierungsmodell von OpenAI, für die Öffentlichkeit bereit.
Über OpenAIs Sora
Wenn ihr ein ChatGPT Plus- oder Pro-Abo in den USA oder in “den meisten anderen Ländern” außerhalb Europas habt, in denen der Chatbot verfügbar ist, dürft ihr ab sofort mit dem Tool experimentieren, dies gab OpenAI diese Woche bekannt. Ein leistungsfähigeres Modell treibt das Produkt an als das, was OpenAI noch im Februar gezeigt hat. Sora Turbo ist laut dem Unternehmen deutlich schneller, obwohl OpenAI warnt, dass das neue Modell immer noch Einschränkungen hat. “Es erzeugt oft unrealistische Physik und kämpft mit komplexen Aktionen über lange Zeiträume”, sagt das Unternehmen. Wenn ihr zum ersten Mal die dedizierte Landing Page besucht, werdet ihr mit einem Feed mit Videos begrüßt, die das Modell für andere Personen erstellt hat. Wenn ihr auf ein Video klickt, seht ihr die Worte, die jemand Sora gegeben hat, um das Filmmaterial zu generieren. In dieser ersten Version beschränkt OpenAI Sora auf die Erstellung von Videos, die bis zu 1080p und 20 Sekunden lang sind.
ChatGPT Plus-Abonnent*innen können Sora verwenden, um bis zu 50 Videos in 480p pro Monat zu erstellen. Alternativ können Plus-Benutzer*innen weniger (und kürzere) Videos mit 720p-Auflösung erstellen. OpenAI sagt, dass der Pro-Plan 10-mal so viel Nutzung bietet, bei höheren Auflösungen und längeren Laufzeiten. “Wir arbeiten an maßgeschneiderten Preisen für verschiedene Arten von Nutzern, die wir Anfang nächsten Jahres zur Verfügung stellen wollen”, fügt das Unternehmen hinzu. Aus Sicherheitsgründen enthält jedes Video standardmäßig ein sichtbares Wasserzeichen und enthält C2PA-Metadaten zur Unterstützung der Identifizierung. OpenAI sagt, dass es Benutzer daran hindern wird, Sora zu verwenden, um Materialien für sexuellen Kindesmissbrauch (CSAM) und sexuelle Deepfakes zu erstellen. Im weiteren Sinne plant das Unternehmen, die Uploads von Personen zu begrenzen, bis es Zeit hat, seine Sicherheitsvorkehrungen gegen Deepfakes zu verfeinern.