[Interview] Quand une startup française mise sur la métadonnée certifiée et transparente
Entre Dailymotion et la SACEM, Transparency
Le 15 novembre 2014 à 09h00
11 min
Droit
Droit
Quand YouTube ou Dailymotion diffusent des morceaux de musiques associés à une vidéo, les créateurs bénéficient de retombées sonnantes et trébuchantes du fait d'accords avec les sociétés de collecte et répartition. Seulement, du côté de ces dernières, la gestion de ces flux de données n’est pas simple. Une société française, Transparency Rights Management s’est cependant glissée sur ce marché, comme nous l’explique Jean François Bert, son fondateur et président.
Comment vous est venue l’idée de créer cette société ?
En 2010, l’usage des œuvres basculait déjà vers le numérique. L’époque était celle d’une explosion des exploitations, de plus en plus à la demande et nomades. Il fallait donc créer de nouveaux outils pour que les créateurs puissent être rémunérés de façon pertinente.
Les différents acteurs qui font appel à vous, je pense à la SACEM notamment, ne sont pas en capacité de gérer directement ces flux ?
On les aide à les gérer de façon optimale. Le premier « deal » fut d’interfacer Dailymotion France avec la SACEM. On a fait ça pendant 18 mois. La société de gestion collective traitait auparavant la répartition plutôt par analogie ou par échantillonnage en ciblant les plus grosses vues. Grâce à notre intervention, elle a pu faire une répartition au réel. Cela n’a pas changé le montant de la rémunération des créateurs, mais cela a permis une répartition qui soit beaucoup plus précise. Ce sont les vrais créateurs des œuvres utilisées qui ont été rémunérés et nous avons gommé toute l’approximation qu’il y a avec l’échantillonnage et les répartitions par analogie.
Auparavant, certains créateurs avaient donc plus, d’autres moins, voire rien ?
On est passé d’un fonctionnement où la SACEM, en toute bonne foi avec les outils qu’elle utilisait, analysait une partie des données et extrapolait sur les autres à une logique où on analyse tout. La répartition est donc beaucoup plus fine. C’est un vrai plus pour les créateurs, et la SACEM a été moteur là-dessus.
Dans votre quotidien, comment cela se passe en pratique ?
Notre métier est d’être tiers de confiance, nous sommes d’ailleurs membres de la FNTC (Fédération Nationale des Tiers de Confiance), et lauréat 2014 de leur Trophée de l’Innovation d’usage avec notre service de traçabilité sur internet. Au quotidien, nous sommes garants de la qualité des données échangées entre les plateformes et les sociétés d’auteurs. Par qualité, j’entends fiabilité, intégrité et format des données. Nous gérons aussi les problématiques de confidentialité et de traçabilité. Ces données-là ne peuvent être jetées sur la place publique. De même, si jamais il y a des interrogations ou des contestations, il faut que nous puissions remonter toute la chaîne de nos process pour pouvoir expliquer pourquoi on en est arrivé à ce résultat-là. Ces informations sont opposables aux tiers.
Donc pour reprendre votre exemple, chaque mois Dailymotion vous transmet un flux de données que vous allez ensuite traiter pour faire des relevés précis à la SACEM...
Exactement. Avec Dailymotion, on a été très loin dans le partenariat. Nous avons signé un contrat à la fois avec la plateforme et la SACEM. Nous avions installé notre marqueur directement sur le player de Dailymotion. C’est une grande première qui nous a permis d’être au courant en même temps que Dailymotion des vidéos vues par les internautes. On avait donc le détail de la durée de chaque vue des vidéos sur le territoire français. Ensuite suivait un travail d’analyse des métadonnées liées à la vidéo : les chansons dans la vidéo, les créateurs des œuvres utilisées, etc. Si jamais l’information nous paraissait incomplète ou sujette à caution, puisque parfois des personnes mettent en ligne des vidéos sans être très regardantes sur les crédits, nous faisions un travail de vérification et d’enrichissement via une première couche d’algorithmes. On interrogeait à ce titre des bases de référence pour matcher les résultats. Et si le résultat n’était pas assez pertinent, on passait à une couche de fingerprint, une technique à la Shazam. Enfin, si cela ne fonctionnait toujours pas, on faisait une vérification manuelle.
Vous parlez au passé, l’accord n’existe plus avec la SACEM et Dailymotion ?
Ces deux acteurs sont en cours de discussion, notre prestation est donc en stand-by.
Comment cela se passe pour les remix, les œuvres composites qui créent par exemple une nouvelle chanson à partir de bouts d’autres ?
C’est exactement le même principe, mais c’est beaucoup plus dur. Si les métadonnées sont bonnes, nos algorithmes sémantiques fonctionnent bien. Sinon, il faut faire du fingerprint avec une fréquence élevée pour savoir à partir de quel moment on passe d’une œuvre à l’autre. Et si on est sur des répertoires qui sont mal référencés dans les bases, on passe à l’humain.
Et quand le morceau est ralenti ou accéléré ?
C’est extrêmement compliqué. Il y a de très bons algorithmes de fingerprint pour reconnaitre un enregistrement identique à ce qui est dans la base référentielle. D’autres sont plus souples et acceptent qu’on « dépitche » l’enregistrement. Certains fonctionnent même sur le live et savent reconnaître l’interprétation faite par d’autres. Le revers de la médaille est que ces algorithmes plus souples se trompent aussi plus souvent. Il faut donc être prudent dans cette utilisation. On les a testés en apposant un score de fiabilité. En deçà de ce score, on passe en manuel pour être sûr de ne pas pousser des données erronées vers les sociétés de gestion collective.
Combien êtes-vous à traiter en manuel à gérer ces incidents ?
Il y a une petite équipe de deux personnes dans le back-office, car les cas sont rares. Notre valeur ajoutée est de passer d’un traitement en grande partie manuel à un traitement en grande partie automatisé.
Vous avez évoqué Dailymotion, mais comment cela se passe avec YouTube ?
Le process est beaucoup plus lourd, car tout est centralisé aux États-Unis. Nous discutons avec eux au niveau international depuis 18 mois maintenant, j’espère que nous pourrons bientôt annoncer quelque chose.
On est ici sur une base consensuelle. Le rapport Lescure proposait de mettre en place une obligation de certification à partir d’un certain chiffre d’affaires ou d’un certain niveau d’audience. Où en est-on ?
Lettre morte. Il n’y a pas eu de volonté politique d’imposer une certification donc tout ça est remis au bon vouloir des acteurs. Ceux qui veulent aller vers une transparence au bénéfice des créateurs le font, mais pour ceux qui rechignent ou trainent des pieds, il n’y a aucune contrainte.
Qui trouve-t-on au fond de la classe ?
Personne ne rechigne de façon officielle. Tout le monde s’empare de ce discours fédérateur, le fait de dire « je m’engage au profit de la transparence », surtout que cette démarche n’implique pas de payer plus, mais permet de payer plus rapidement les bonnes personnes, avec le bon montant. Dans les faits, il y a des gens qui ont réagi très rapidement, comme Dailymotion qui a été pionnier, d’autres pour lesquels cela a pris plus de temps, d’autres enfin où rien n’est fait. Les créateurs devraient être beaucoup plus exigeants concernant la transparence de leurs droits en provenance du numérique, de plus en plus d’argent est en jeu.
Il y a une différence dans la gestion des données provenant de Dailymotion et YouTube ?
Je ne pourrais pas porter de jugement sur la qualité des uns et des autres, mais les données sont différentes. Pour Dailymotion, on est sur une volumétrie qui nous a permis de travailler vraiment comme on le souhaitait. À partir du moment où nous avions accès aux données directement depuis leur API et leur player, on a pu mettre en place tous les processus pour travailler les données comme on l’entendait. L’équipe de Dailymotion a même rajouté des champs pour nous. Sur YouTube, au regard de la quantité colossale de données à traiter au niveau mondial, le formatage est plus strict, c’est normal.
Y-a-t-il des initiatives à l’international au profit d’un format uniforme ?
La CISAC, confédération internationale des sociétés d’auteurs et de compositeurs, essentiellement donc des gens autour de la musique, pousse spécialement le DDEX pour que de iTunes à Spotify, Deezer, Youtube ou Dailymotion, tout le monde puisse envoyer les rééditions de compte dans ce format-là. Mais dans les faits, ce n’est pas toujours comme ça que cela se passe.
Et que devient le GRD (Global Repertoire Database) ?
C’était une formidable initiative… qui est morte cet été. Elle consistait pour toutes les sociétés de gestion collective à mettre en place un système qui permette de dédoublonner les données sujettes à caution concernant la création et le contrôle des œuvres. Ce projet aurait permis d’avoir une vision claire et référentielle sur ce que contrôlent les sociétés de gestion collective sur tel ou tel territoire.
Pourquoi cet échec ?
Je ne sais pas pourquoi c’est mort, mais il y a eu un fait déclenchant, lorsque certaines SPRD se sont vues adresser une facture élevée pour leur quote-part « GRD ». Elles ont alors décidé de se retirer du projet qui, assez rapidement, a capoté en quelques semaines.
Vous avez également travaillé avec la Hadopi pour la mise en open data de six plateformes vidéos. Quel a été votre rôle exactement ?
Un rôle purement technique. On a mis en avant notre expertise pour rencontrer les plateformes, voir ce qu’elles acceptaient de mettre à disposition, sous quel format et comment elles souhaitaient que ce soit réutilisé par la Hadopi. Les contraintes étaient données par le cahier des charges. On n’a pas cherché à retravailler les données ou les enrichir, on les a utilisées telles qu’elles ont été transmises par les plateformes.
Le CNC œuvre également dans ce secteur-là, vous travaillez également avec eux ?
Non, mais nous serions ravis de le faire.
Quels sont vos projets en France ou à l’international ?
Quand on travaille sur de la big data, on est forcément sur une exploitation internationale. Aujourd’hui, 75 % de notre activité est à l’international. En 2015, on va certainement travailler aussi avec les gens du livre, et également sortir du secteur de la culture pour mettre à profit notre expérience dans les données de santé (health care).
C’est-à-dire ?
Dans le health care, les gens se retrouvent exactement dans la même position que la musique il y a 10 ans. Il y a une explosion des données à traiter et se pose la nécessaire question de leur fiabilité. Comment par exemple gérer les données de santé qui remontent des objets connectés ? Avec beaucoup de rigueur comme les données de patients, ou avec une rigueur un peu moindre, en les considérant comme des données personnelles ? La question du curseur des exigences se pose actuellement en France et en Europe. En attendant, il y a des besoins colossaux pour les traiter, les mettre dans des formats ad hoc, etc.
Au niveau applicatif, quelle pourrait être votre utilité ?
Imaginons une association de malades qui peut avoir accès à de nombreuses données en provenance de ses membres, mais qui ne souhaitent pas que ces données soient livrées tel quel aux acteurs de l’industrie pharmaceutique. Par contre, cette association verrait un intérêt à ce que ces données puissent être traitées et analysées, pour qu’en retour cette industrie puisse faire des progrès, proposer des prestations de plus en plus pointues, mais sans que ce soit intrusif, qu’il y ait un garde-fou interdisant de retrouver le profil précis des malades ou que ces données se retrouvent chez un assureur, un employeur, ou que sais-je.
Là, on est au cœur d’une problématique, celle du besoin d’un tiers de confiance, pour appliquer des process et faire en sorte que la confidentialité et la traçabilité du traitement des données sensibles soient respectées.
Merci Jean François Bert.
[Interview] Quand une startup française mise sur la métadonnée certifiée et transparente
-
Comment vous est venue l’idée de créer cette société ?
-
Les différents acteurs qui font appel à vous, je pense à la SACEM notamment, ne sont pas en capacité de gérer directement ces flux ?
-
Auparavant, certains créateurs avaient donc plus, d’autres moins, voire rien ?
-
Dans votre quotidien, comment cela se passe en pratique ?
-
Donc pour reprendre votre exemple, chaque mois Dailymotion vous transmet un flux de données que vous allez ensuite traiter pour faire des relevés précis à la SACEM...
-
Vous parlez au passé, l’accord n’existe plus avec la SACEM et Dailymotion ?
-
Comment cela se passe pour les remix, les œuvres composites qui créent par exemple une nouvelle chanson à partir de bouts d’autres ?
-
Et quand le morceau est ralenti ou accéléré ?
-
Combien êtes-vous à traiter en manuel à gérer ces incidents ?
-
Vous avez évoqué Dailymotion, mais comment cela se passe avec YouTube ?
-
On est ici sur une base consensuelle. Le rapport Lescure proposait de mettre en place une obligation de certification à partir d’un certain chiffre d’affaires ou d’un certain niveau d’audience. Où en est-on ?
-
Qui trouve-t-on au fond de la classe ?
-
Il y a une différence dans la gestion des données provenant de Dailymotion et YouTube ?
-
Y-a-t-il des initiatives à l’international au profit d’un format uniforme ?
-
Et que devient le GRD (Global Repertoire Database) ?
-
Pourquoi cet échec ?
-
Vous avez également travaillé avec la Hadopi pour la mise en open data de six plateformes vidéos. Quel a été votre rôle exactement ?
-
Le CNC œuvre également dans ce secteur-là, vous travaillez également avec eux ?
-
Quels sont vos projets en France ou à l’international ?
-
C’est-à-dire ?
-
Au niveau applicatif, quelle pourrait être votre utilité ?
Commentaires (4)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 15/11/2014 à 09h13
Très intéressant. Pour ce qui est du dernier paragraphe, c’est déjà une réalité, mais pour des données collectées de façon traditionnelle, pas par des objets connectés : des associations de malades gèrent des bases de données médicales de patients.
Le 15/11/2014 à 15h44
Plus besoin de questionnaire de santé pour souscrire une assurance santé, les big data sont là pour ça
Le 16/11/2014 à 10h05
En parlant de traitement des données et de big data :
Big data : données, données, donnez-moi ! #DATAGUEULE 15
Le 16/11/2014 à 10h29