YouTube : modification de l'arrière-plan en temps réel sur mobile, sans fond vert

YouTube : modification de l’arrière-plan en temps réel sur mobile, sans fond vert

YouTube : modification de l'arrière-plan en temps réel sur mobile, sans fond vert

Détourer un objet ou une personne pour remplacer le décor derrière n'a rien de nouveau. Cette technique est notamment utilisée par les studios de cinéma et les réalisateurs amateurs.

Google planche sur une version capable de réaliser cette opération en temps réel sur mobile, sans avoir recours à de l'incrustation (via un fond vert par exemple). Le géant du Net utilise ici le machine learning et des réseaux de neurones convolutifs.

Cette fonctionnalité est proposée en bêta à certains comptes YouTube triés sur le volet. Elle est intégrée aux Stories maison baptisées Reels (lancées en novembre) et permet de changer l'arrière-plan d'une vidéo, en temps réel donc.

Des exemples et des explications techniques sont disponibles par ici.

Commentaires (7)


Tiens, ça faisait au moins 24h que Google ne communiquait pas sur une de ses IA.








Liara T’soni a écrit :



Tiens, ça faisait au moins 24h que Google ne communiquait pas sur une de ses IA. 





“Réseau de neurones convolutifs”, c’est plus classe.



pourtant “réseau de neurones convolutifs” est le bon terme contrairement à “IA”…


C’est vraiment génial ce truc ! Alors oui les studios et amateurs utilisent déja cette méthode avec un fond vert mais pour avoir essayé pas mal de fois c’est vraiment super galère à utiliser. Le fond vert doit être parfaitement éclairé et rien ne doit baver sur le sujet.








skankhunt42 a écrit :



C’est vraiment génial ce truc ! Alors oui les studios et amateurs utilisent déja cette méthode avec un fond vert mais pour avoir essayé pas mal de fois c’est vraiment super galère à utiliser. Le fond vert doit être parfaitement éclairé et rien ne doit baver sur le sujet.







D’après les papiers de Google, l’IA n’a été entrainé que pour le mode selfie.



Donc ca ne fonctionnera pas (ou mal) dans les autres cas (portait en pied, en groupe, …)









127.0.0.1 a écrit :



D’après les papiers de Google, l’IA n’a été entrainé que pour le mode selfie. Donc ca ne fonctionnera pas (ou mal) dans les autres cas (portait en pied, en groupe, …)





C’est un début et c’est déjà énorme hein… Et puis je rappelle que dans l’absolu il y à pas besoin d’avoir un réseaux de neurones pour extraire une chose qui bouge par rapport à un fond fixe. Mais bon les soft à la adobe ne sont pas fichus de faire ça pour la vidéo et photoshop n’a même pas d’outil intégré pour un simple fond vert.



Ca va mettre un bon coup de pied dans la fourmilière pour qu’ils ce bougent le cul à update leur soft au lieu de continuer à toucher leur rente via la location.



Pour encore plus de contenu pourri sur Youtube, merci :)


Fermer