Az OpenAI csütörtökön mutatta be a Sora nevű videógeneráló modelljét, amely képes szöveges utasításokból videókat generálni – írja a The Guardian-re hivatkozva az index.hu.
Az új modell képes akár egyperces, valósághű felvételeket is készíteni, amelyek a felhasználó tárgyra és stílusra vonatkozó utasításaihoz igazodnak.
A vállalat blogbejegyzése szerint a modell képes arra is, hogy állókép alapján videót készítsen, vagy új anyaggal bővítse a meglévő felvételeket.
A vállalat bejelentette, hogy néhány kutató és videókészítő számára megnyitotta a hozzáférést a Sorához. A szakértők tesztelnék, hogy a modell hajlamos-e megkerülni az OpenAI szolgáltatási feltételeit, amelyek tiltják a szélsőséges erőszakot, a szexuális tartalmakat, a gyűlöletkeltő képeket és a hírességek képmásának vagy mások szellemi tulajdonának felhasználását.
A vállalat 2021-ben mutatta be a Dall-E képgenerátort, 2022 novemberében pedig a ChatGPT generatív AI-chatbotot.
Más AI-cégek is debütáltak már videógeneráló eszközökkel, bár ezek a modellek csak néhány másodperces felvételeket tudtak készíteni, amelyeknek gyakran alig van közük a felhasználó utasításaihoz.
Az OpenAI nem hozta nyilvánosságra, hogy mennyi felvételt használtak fel a Sora betanításához, és azt sem, hogy honnan származhatnak ezek a videók. A vállalatot már többször perelték be a szerzői jogok állítólagos megsértése miatt, mivel a generatív mesterséges intelligenciát alkalmazó eszközeiket az internetről származó anyagok segítségével tanították be, és a modellek utánozzák az ezekben az adathalmazokban szereplő képeket vagy szövegeket.