OpenAI lanceert Sora 2: TikTok-achtige AI-video’s en nieuwe juridische vragen
OpenAI heeft deze week de opvolger van zijn tekst-naar-video model Sora 2 gelanceerd, samen met een nieuwe iOS-app die – enigszins verwarrend – dezelfde naam draagt: Sora. Waar de eerste versie vooral indruk maakte met de kwaliteit van korte video’s op basis van tekstprompts, richt Sora 2 zich expliciet op het sociale domein. Met een interface die doet denken aan TikTok en Instagram Reels, kunnen gebruikers nu AI-gegeneerde video’s delen in een algoritmisch gepersonaliseerde feed.
Deze stap van OpenAI markeert een verschuiving: van experimentele AI-tool naar volwaardig socialmediaplatform. Voor juristen roept dit direct vragen op over auteursrecht, privacy en aansprakelijkheid.
Realisme en fysica in AI-video’s
Een belangrijke innovatie is dat Sora 2 volgens OpenAI beter de “wetten van de fysica” volgt. Waar eerdere AI-video’s vaak onrealistisch waren (denk aan objecten die door elkaar heen bewegen of lichamen die onnatuurlijk vervormen), moet Sora 2 overtuigend realistische scènes produceren. Dat maakt de grens tussen feit en fictie nog diffuser.
Daarnaast introduceert de app een Cameo-functie, waarmee gebruikers een video van zichzelf kunnen uploaden. Vervolgens kan hun digitale dubbelganger naadloos in AI-gegenereerde scènes worden geplaatst. Dit opent creatieve mogelijkheden, maar vergroot ook de kans op misbruik.
Juridische relevantie: privacy, consent en deepfakes
Het vermogen om iemands uiterlijk of stem digitaal te reproduceren zonder diens toestemming is geen nieuwe uitdaging, maar met Sora 2 wordt de drempel voor massaal gebruik lager. Voor juristen spelen onder meer de volgende vragen:
Portretrecht en AVG – Mag iemand jouw likeness gebruiken in AI-video’s? Hoe wordt ‘toestemming’ afgedwongen of gecontroleerd?
Misleiding en aansprakelijkheid – Als AI-video’s worden ingezet om verkiezingen te beïnvloeden of reputaties te schaden, wie is verantwoordelijk: de maker, de verspreider of het platform?
Regulering van AI-content – OpenAI voorziet in ouderlijk toezicht en personalisatiecontroles, maar regelgeving voor deepfakes en synthetische media blijft versnipperd. In Nederland en de EU liggen er voorstellen, maar de praktijk loopt voor op de wetgeving.
Impact op desinformatie en verkiezingen
Critici waarschuwen dat apps als Sora een katalysator kunnen zijn voor misleidende politieke content. De combinatie van realistische video’s, een algoritmische feed en de mogelijkheid om bestaande beelden te vermengen met AI-gegenereerde content, creëert een krachtig middel om verhalen te sturen of verwarring te zaaien. Met de Europese verkiezingen van 2026 in zicht, is dit juridisch én maatschappelijk een urgent thema.
Afsluiting
Met Sora 2 begeeft OpenAI zich niet alleen in de markt van AI-creatie, maar ook in die van sociale platforms – een terrein dat traditioneel wordt gedomineerd door discussies over moderatie, privacy en verantwoordelijkheid. Voor juristen is het een nieuwe testcase: hoe passen bestaande regels rond auteursrecht, persoonsgegevens en misleiding zich aan aan een realiteit waarin ieder individu in seconden een overtuigende deepfake kan maken en verspreiden?
De lancering van Sora 2 toont opnieuw dat de technologische vooruitgang sneller gaat dan de juridische kaders. De komende maanden zal duidelijk worden hoe wetgevers, toezichthouders en rechters met dit nieuwe spanningsveld omgaan.