OpenAI Lance Sora 2: La Nouvelle Ère de la Génération Vidéo et Audio par IA

Édité par : Veronika Radoslavskaya

OpenAI a dévoilé Sora 2, une avancée majeure dans le domaine de la génération de contenu vidéo et audio par intelligence artificielle. Ce nouveau modèle, disponible via une application iOS en accès limité, promet des améliorations significatives en matière de réalisme, de précision physique et de contrôle, marquant une étape importante vers des simulateurs de monde généralistes.

Sora 2 se distingue par sa capacité à produire des vidéos d'une durée allant jusqu'à 16 secondes avec des dialogues et des effets sonores synchronisés, une fonctionnalité qui le place à parité avec des concurrents tels que Google Veo 3. Le modèle excelle dans la création de séquences réalistes, cinématographiques et même de style anime, tout en démontrant une meilleure compréhension des lois de la physique, corrigeant ainsi les imperfections des générations précédentes où les objets pouvaient se déformer ou se téléporter de manière irréaliste. OpenAI souligne que Sora 2 est capable de simuler des actions complexes, comme des routines de gymnastique olympique ou des figures acrobatiques sur l'eau, avec une fidélité accrue.

L'application Sora, propulsée par Sora 2, est positionnée comme un équivalent de TikTok, mais avec un contenu entièrement créé par l'IA. Elle est actuellement disponible sur invitation uniquement pour les utilisateurs d'iOS aux États-Unis et au Canada, avec une expansion prévue dans d'autres régions. Pour permettre la création de "cameos" personnalisés, où les utilisateurs peuvent s'insérer dans des scènes générées par IA avec une ressemblance et une voix fidèles, une vérification d'identité unique est requise via un enregistrement vidéo et audio. OpenAI a mis en place des mesures de sécurité robustes, notamment une équipe de modérateurs humains, pour atténuer les risques potentiels tels que l'isolement, la dépendance ou la diffusion de contenu de faible qualité. Chaque vidéo générée par Sora est également marquée par un filigrane visible et des métadonnées C2PA pour assurer la provenance.

Cette nouvelle itération s'appuie sur le modèle Sora original, lancé en février 2024, qui avait déjà marqué les esprits par ses capacités, bien qu'il ait rencontré des défis dans la simulation d'interactions physiques complexes. Sora 2 adresse ces limitations, se positionnant comme une évolution majeure dans la création de contenu multimédia. L'intégration de la technologie "cameo" vise à renforcer le contrôle de l'utilisateur sur son image, avec la possibilité de révoquer l'accès à tout moment. OpenAI a également pris des mesures pour bloquer la représentation de personnalités publiques, sauf si elles utilisent elles-mêmes la fonction "cameo".

Sur le plan économique, l'avènement de Sora 2 pourrait transformer des secteurs comme la publicité et la production cinématographique en réduisant les coûts de production. Cependant, cette avancée soulève également des questions importantes concernant le droit d'auteur. OpenAI a adopté une politique d'opt-out, informant les détenteurs de droits que leur matériel pourrait être utilisé par défaut dans Sora 2, à moins qu'ils ne demandent explicitement à en être exclus. Cette approche, bien qu'innovante, suscite des débats sur la propriété intellectuelle et la protection des œuvres créatives.

La plateforme Sora est conçue pour être une expérience sociale, permettant aux utilisateurs de créer, de remixer et de découvrir des vidéos générées par IA. L'accent est mis sur la créativité et l'expérimentation, tout en intégrant des garde-fous pour un usage responsable. L'application est conçue pour être accessible, avec une disponibilité progressive et des limites généreuses pour permettre une exploration libre des capacités du modèle.

Sources

  • NBC News

  • OpenAI Releases Sora 2: Advanced AI Video and Audio Generation App

  • OpenAI Is Preparing to Launch a Social App for AI-Generated Videos

Avez-vous trouvé une erreur ou une inexactitude ?

Nous étudierons vos commentaires dans les plus brefs délais.