Un couloir flou, des commandes de jeu et une IA qui génère chaque image en temps réel… Non, ce n’est pas un bug de Street View, mais la dernière expérimentation d’une start-up baptisée Odyssey. Derrière cette étrange vidéo interactive se cache un concept inédit : une « vidéo » dans laquelle on peut littéralement se déplacer. Pas dans un décor modélisé comme dans un jeu, mais dans des scènes qui ressemblent à de vraies prises de vue, générées à la volée par une intelligence artificielle. 1v523d
Disponible en accès libre depuis le 28 mai 2025, cette démonstration technique intrigue autant qu’elle interroge. Est-ce le début d’un nouveau format narratif, ou simplement une curiosité technologique floue et un peu brouillonne ? On a testé, et on vous explique ce qu’Odyssey tente réellement de faire avec son « interactive video ».
Vidéo interactive : un concept rendu possible par les « world models » 355929
Pour bien comprendre ce qu’Odyssey propose, il faut faire la distinction entre deux types de modèles utilisés dans l’IA : les modèles vidéo classiques et les world models.
Un modèle vidéo, c’est ce qu’on retrouve derrière les générateurs comme Sora (OpenAI), Runway ou Pika. On lui donne un prompt ou une séquence et il produit une vidéo complète d’un seul coup. Une fois générée, cette vidéo est figée. Impossible d’interagir avec elle ou de modifier ce qui se e en temps réel.
Un world model, comme celui utilisé par Odyssey, fonctionne différemment. Il ne génère pas une vidéo entière à l’avance : il prédit chaque image au fur et à mesure, en fonction de ce que vous faites (avancer, tourner, rester immobile…). C’est ce qui permet cette sensation d’exploration en direct, même si le rendu reste très flou pour le moment.
Concrètement, à chaque pression sur une touche, l’action est transmise au modèle. Celui-ci utilise cette info, ainsi que l’historique de vos déplacements, pour générer le prochain « état du monde » sous forme d’une nouvelle image, qu’il vous envoie presque instantanément (en 40 millisecondes selon Odyssey). Le tout sans moteur de jeu, sans scène 3D pré-calculée. Juste un modèle, des données et beaucoup de GPU.
Une expérience étrange, entre rêve flou et bug de simulation 4u273y
Une fois le test lancé sur le site d’Odyssey, on se retrouve propulsé dans un décor généré en temps réel. Le tout se contrôle comme un jeu à la première personne : les touches W, A, S, D permettent de se déplacer. Pas de souris ici, tout se fait au clavier. Et c’est là que la magie (ou le malaise) opère.
L’environnement a un aspect réaliste, comme une vidéo filmée avec une GoPro… mais souffre d’une définition très floue, comme si on avait mis un filtre « rêve éveillé » par-dessus. Les objets tremblotent, les textures bougent, certains éléments disparaissent ou se déforment selon l’angle de vue. Ce n’est pas un bug, c’est voulu : chaque image est une prédiction de l’IA et non un rendu stable comme dans un moteur 3D.
L’effet est troublant. Dans une session, on explore une forêt avec une cabane, dans une autre, on tombe sur un parking, un centre commercial ou une maison… mais jamais deux fois la même version. Les lieux changent légèrement à chaque session, preuve que l’IA régénère ce qu’elle « voit » en fonction de votre position et de vos mouvements.
En revanche, l’interactivité reste très limitée : on ne peut pas interagir avec les objets et les collisions sont capricieuses. Parfois un mur vous bloque, parfois vous traversez une maison sans transition. L’ensemble donne la sensation d’un prototype – un peu bancal – mais techniquement impressionnant.
Un premier pas vers un nouveau format narratif e2j18
Malgré ses imperfections, Odyssey ne cache pas ses ambitions. Ce que l’entreprise propose ici, c’est un prototype, une première brique vers une nouvelle manière de raconter des histoires. Pas via un film figé ou un jeu scripté, mais par une vidéo générée en temps réel, qui s’adapte à ce que vous faites.
Dans sa présentation, Odyssey parle d’un format capable de remplacer un jour les films, les jeux, les publicités ou même les formations en ligne. Plus besoin de décors, de caméras ou de moteurs de jeu : il suffirait d’un modèle IA, d’un peu de calcul et d’un scénario généré ou guidé par l’utilisateur.
Le projet repose sur un « world model » propriétaire, alimenté par des vidéos réelles capturées avec une caméra 360° portée comme un sac à dos. Grâce à ces données, l’IA apprend à anticiper les mouvements, générer de nouveaux plans et maintenir une cohérence dans les déplacements.
Mais Odyssey reste lucide : le rendu est flou, les scènes instables, les collisions bancales. Le modèle dérive parfois dans l’étrange, transformant une porte en mur ou vous coinçant dans un décor mouvant. L’entreprise elle-même parle d’un « glitchy dream » – un rêve flou, instable, mais prometteur.
La bonne nouvelle, c’est qu’ils ne comptent pas s’arrêter là. Une nouvelle version du modèle est déjà en préparation, avec des visuels plus nets, une meilleure stabilité temporelle, et une interactivité enrichie (au-delà des simples déplacements). L’objectif est de permettre à terme de « manipuler » les scènes : allumer une lumière, ouvrir une porte, voire influencer le récit.

Un concept encore flou, mais à surveiller de près 6f1zt
Pour l’instant, Odyssey n’a rien d’un produit fini. L’expérience est courte, parfois frustrante et techniquement imparfaite. Mais elle marque peut-être le début d’un nouveau chapitre dans la manière de concevoir des contenus interactifs. Ici, ce n’est plus le joueur qui évolue dans un univers préconçu, mais l’univers lui-même qui se crée au fil de ses mouvements.
On est encore loin d’un Holodeck et il faudra du temps (et beaucoup de GPU) avant d’arriver à des expériences vraiment convaincantes. Mais le principe posé est solide et la technologie avance vite. Reste à voir si ce type d’approche servira demain à enrichir les jeux vidéo, révolutionner le storytelling, ou simplement proposer des expériences inédites à petit budget.
Dans tous les cas, Odyssey ouvre une porte. Même si, parfois, elle se transforme en mur de briques en pleine exploration.
Source : Odyssey