Tencent Cloud lance une plateforme de « Deepfakes-as-a-Service » pour 145 dollars seulement
Le 02 mai 2023 à 05h00
2 min
Sciences et espace
Sciences
Tencent Cloud a annoncé le lancement d'une plateforme qualifiée par The Register de « Deepfakes-as-a-Service (DFaaS) » afin de créer des robots conversationnels humanoïdes en haute définition.
Tencent, qui avance pouvoir les livrer sous 24 heures, n'aurait besoin pour cela que de trois minutes de vidéo, 100 phrases parlées et 145 dollars. Le service, qui n'est cela dit disponible qu'en chinois et en anglais, permet de personnaliser l'arrière-plan et le ton, et propose cinq styles de chatbots : réaliste en 3D, semi-réaliste en 3D, dessin animé en 3D, personne réelle en 2D et dessin animé en 2D.
« Tencent semble vouloir utiliser ces créations pour diffuser en direct des publireportages, une forme de commerce électronique très répandue en Chine », note The Register : « les médias locaux ont également rapporté que Tencent pouvait créer des médecins, des avocats et d'autres professionnels ».
En janvier, relève notre confrère, l'Administration chinoise du cyberespace (CAC) avait commencé à exiger des « fournisseurs de services de synthèse profonde » qu'ils s'assurent que leurs algorithmes d'IA ne soient pas utilisés « à des fins illégales, telles que la fraude, les escroqueries et les fausses informations » :
« Les services qui fournissent des fonctions telles que le dialogue intelligent, la voix humaine synthétisée, la génération de visages humains et les scènes réalistes immersives qui génèrent ou modifient de manière significative le contenu de l'information, doivent être marqués de manière visible afin d'éviter toute confusion ou identification erronée de la part du public. Il est exigé qu'aucune organisation ou personne n'utilise de moyens techniques pour supprimer, altérer ou dissimuler les marques pertinentes. »
Le 02 mai 2023 à 05h00
Commentaires (23)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 02/05/2023 à 06h40
Est-ce que Tencent va fournir un système permettant de savoir si une vidéo est issue de son service de DeepFake ?
Le 02/05/2023 à 07h55
Hmm… Je vois comme une contradiction quelque-part…
Le 02/05/2023 à 08h38
Du temps que tu y es, intéresses toi au «Fonds Marianne» qui n’est pas à une contradiction près.
Uniquement si la Chine est meilleure.
Le 02/05/2023 à 08h03
On va peut-être se montrer critique vis-à-vis des IA et du machine learning maintenant que la Chine s’y met ?
Tay, Galactica, Bard n’ont rien à craindre pour ce qui est de leur médiocrité : difficile de faire pire.
Le 02/05/2023 à 08h42
Oh comme c’est une super idée un tel service, ça présente vraiment aucun risque. Surtout qu’on voit fleurir d’ores et déjà de faux JT propageant des fakes news sur le net, de pouvoir industrialiser le processus et le rendre accessible à tous c’est vraiment génial.
Le 02/05/2023 à 09h21
Business is business Les affaires sont les affaires.
J’y vois du positif, ça devrait apprendre aux gens à se méfier de ce qu’ils voient et entendent.
Le 02/05/2023 à 09h42
A ce train là, on va tous devenir paranoïaques
Le 02/05/2023 à 13h01
Il faudra que je m’offre le livre d’Andrew Grove un jour Seuls les paranoïaques survivent.
Le 02/05/2023 à 12h44
Oui et non. Avec une généralisation de tels services les gens vont être plus méfiant….on peut rêver non?
Le 02/05/2023 à 13h07
Clairement, tu rêves.
Si “les gens” avaient la moindre capacité de recul, l’idée de ce genre de service ne serait même pas envisagée. Mais la génération de fakes même pas deep a beaucoup de succès pour raison simple: “les gens” y croient parce que c’est plus facile de gober une info que de la vérifier.
Le 02/05/2023 à 13h20
Le problème c’est de savoir ce que ça veut dire “la vérifier”.
Avant le deep fake une vidéo pouvait être une bonne preuve (déclaration d’une personne, …).
Maintenant (depuis quelques années) on ne peut plus croire ses yeux, du coup à part la confiance il ne reste plus grand chose. Et la confiance c’est dangereux.
Bientôt on va avoir droit à du rétropédalage avec des gens qui vont faussement dire que c’est généré par IA alors que c’est vrai …
A partir du moment où il n’est plus possible de discerner le vrai du faux, c’est le faux qui gagne :(
Le 03/05/2023 à 07h56
Si les videos “officielles” sont signées numériquement, distinguer le vrai du faux est possible.
Ce qui ne fait que déplacer le problème: qui vérifiera la signature numérique?
Le 03/05/2023 à 08h13
Ça pourrait fonctionner pour des vidéos officielles ou de médias qui pourraient signer leurs vidéos pour qu’on ne puisse pas usurper leur identité / marque (si c’est pas signé, méfiance).
Mais le problème viendrait des vidéos amateur (par exemple les gens qui filment les opérations policières).
C’est déjà compliqué à cause du montage (j’ai vu beaucoup de critiques de ces vidéos car elles ne commencent pas au début de l’altercation).
Mais la finalité c’est que ça va demander plus d’effort pour savoir si c’est véritable ou pas.
Le 03/05/2023 à 08h20
Je signe beaucoup de mes courriels, et ce depuis bien longtemps. Combien de mes correspondants vérifient ma signature ?
Ca n’est pas propre aux vidéos, c’est juste de la paresse.
Il n’y a aucun problème technique là-dessous. Qu’on soit pro ou amateur.
Le 03/05/2023 à 09h29
Oui mais un amateur peut signer un deep fake, du coup on avance pas.
L’utilité de la signature c’est juste d’avoir la provenance et de se prémunir du faux.
Un déclaration du ministre serait signée par le cabinet, une déclaration non signée serait présumée fausse.
Mais si je filme le ministre entrain de torturer des animaux, on fait comment ? Je ne suis personne, donc ça pourrait être un faux.
De là on peut se dire que si c’est propagé par des médias réputés c’est qu’il y a de fortes chances que ce soit vrai.
Mais on retombe sur le soucis de la confiance, et on a pas tous confiance aux mêmes médias.
Pour la paresse, c’est pour ça que je mentionne que ça va demander plus d’effort, du coup ça va être un frein, avoir accès à la même information demandera plus d’investissement.
Le 03/05/2023 à 09h42
Tu dis toi-même:
Une conséquence est aussi qu’on identifie la provenance d’un fake qui serait signé, ça devrait en refroidir déjà quelques uns.
Signe donc ta vidéo du ministre qui torture des animaux. Avec une vraie signature, issue d’une AC officielle, bien entendu.
Le 03/05/2023 à 09h55
J’ai la possibilité de signer des documents électroniquement à l’aide de ma carte d’identité. Je t’avoue ne pas savoir comment faire en détail. Mais normalement c’est techniquement faisable.
Le soucis c’est que l’amateur n’est “personne”, si la vidéo n’est pas fiable on arrive au même niveau de confiance qu’un témoignage.
Si c’est un fake, l’objectif est accompli car j’ai semé le doute et que ceux qui veulent y croire vont perdre confiance envers ceux qui disent que c’est un faux.
Si c’est vrai ceux qui veulent défendre le ministre pourront remettre en doute la valeur de ma parole.
Et je mets de coté le fait que je perds le droit à l’anonymat et que je risque des conséquences (si le gars torture des animaux il est dangereux :) ).
Le 03/05/2023 à 10h38
On peut avoir ce débat sur tous les medias ou support.
Comme je t’ai dit, je signe l’essentiel de mes courriels. Et mon site web est en https, il utilise un certificat issu d’une AC officielle.
La video non signée aura (ou devrait avoir…) un potentiel de crédibilité moindre, fake ou pas. Et je doute que beaucoup signeront une vidéo d’un ministre qui “ah, euh… kulunmoton” sauf à préciser que c’est une parodie grolandaise. Sinon, identification de l’auteur par simple requête à l’AC et en avant les poursuites (cadeau)
Le 02/05/2023 à 09h14
AI Chatbots Have Been Used to Create Dozens of News Content Farms
A new report documents 49 new websites populated by AI tools like ChatGPT and posing as news outlets
(source)
Le 02/05/2023 à 14h21
Mais c’est vraiment pas le meme type de produit la, a ma connaissance c’est les seul à le proposé sous forme de service, jusqu’à présent pour du deepfake tu devais te procuré la technologie (il y a des logiciels gratuit..) et après c’est a toi de te débrouiller pour faire tes video/images.
C’est effectivement une forme commercial similaire à tes exemples, mais le potentiel de fake news est sacrément plus élever avec du deepfake qu’avec un bot conversationnel, auprès du grand public.
Le 03/05/2023 à 10h48
Oui mais c’est là que j’ai un problème. Le fake a la même valeur que le vrai d’un amateur.
Et les solutions technique ne feront que renforcer le besoin de la confiance. Une vidéo france-info sera garantie vrai par france-info, mais n’aura pas de valeur pour ceux qui considèrent que France-info n’est pas fiable.
Avant c’était plus compliqué de douter d’une source vidéo (ce qui n’est pas forcément bien quand on pense aux vidéos d’OVNI)
Le 03/05/2023 à 10h55
L’amateur qui fait une vraie vidéo la signera.
Ce qui ne change rien par rapport à aujourd’hui, sauf que tu ne trouvera pas sur les rézosocio un fake de FI puisqu’il ne sera pas signé. Aujourd’hui, je te colle un logo FI par dessus une vidéo d’un gosse de 4 ans qui dit que le président avait une bosse dans son pantalon quand il l’a pris sur les genoux et zou… le deep fake ne change rien.
Le 03/05/2023 à 14h58
Oui mais l’amateur qui paie pour du deepfake la signera aussi (ou alors il paiera quelqu’un pour la signer).
Je suis d’accord que ça ne pourra être fait qu’une fois par personne. Mais ça ne devrait pas être difficile à trouver.