Quand la BBC demande à Google de déréférencer la page d’accueil de Dailymotion

Quand la BBC demande à Google de déréférencer la page d’accueil de Dailymotion

Situation Dailycate

Avatar de l'auteur

Xavier Berne

Publié dansDroit

12/05/2015
55
Quand la BBC demande à Google de déréférencer la page d’accueil de Dailymotion

Google a reçu voilà plusieurs jours une demande de déréférencement de la page d’accueil de la version britannique de Dailymotion. Le géant de l’internet n’a pas donné de suite favorable à cette requête présentée au nom de la BBC, pas plus d’ailleurs qu’à trois autres demandes qui visaient des pages IMDb de films et séries.

Perçu par de nombreux ayants droit comme une porte dorée vers le piratage, Google croule depuis plusieurs années sous les demandes dites DMCA – du nom de la législation américaine applicable aux hébergeurs. En vertu de cette procédure, le célèbre moteur de recherche est prié de ne plus faire apparaître certaines pages au sein de ses résultats, au motif que celles-ci permettraient la diffusion illégale de films, ebooks, séries, etc. 

Une demande à côté des clous

Le problème est que les ayants droit envoient ces requêtes à tour de bras (345 millions de demandes en 2014), bien souvent à l’aide de programmes informatiques qui ont du mal à faire la différence, à partir de simples mots-clés, entre contenus licites ou illicites... Le dernier exemple de cet effet de bord notoire a une nouvelle fois été repéré par TorrentFreak. Le 2 mai, Google a reçu une demande transmise au nom du groupe BBC Worldwide, propriétaire de la célèbre chaîne britannique et des nombreuses séries et émissions que celle-ci produit.

Sur son Transparency Report, la firme de Mountain View indique ainsi qu’il lui a été demandé de déréférencer la page d’accueil de Dailymotion UK, « www.dailymotion.com/gb ». Une page qui permet certes de lire des vidéos pouvant être illicites, mais dont le contenu évolue très fréquemment... Google n’a d’ailleurs pas donné suite à cette requête.

dmca dailymotion imdb
Crédits : Google Transparency Report

Le moteur de recherche a d’autre part été prié de ne plus faire apparaître trois pages du site IMDb, le père spirituel anglophone d'Allociné. Là non plus, Google n’a procédé à aucun déréférencement puisque les pages signalées contenaient de simples descriptifs d’une série financée par la BBC, « The Game », ainsi que d’émissions « Top Gear ».

Des exemples de plus en plus nombreux

Si un géant tel que Google a les moyens d’éviter que des contenus illégitimement dénoncés ne soient retirés, ce n’est malheureusement pas le cas de tous les hébergeurs... La publication de nombreuses données par le géant de l’internet montre pourtant que les dérives peuvent parfois être très larges : page d’accueil de Gmail, fiches Wikipédia, vidéos sous licence Creative Commons, livres appartenant au domaine public, pages de téléchargement de logiciels gratuits (Skype, VLC, OpenOffice...), etc.  

En France, le fait, pour toute personne, de signaler « un contenu ou une activité comme étant illicite dans le but d'en obtenir le retrait ou d'en faire cesser la diffusion, alors qu'elle sait cette information inexacte, est puni d'une peine d'un an d'emprisonnement et de 15 000 euros d'amende » (article 6 de la loi pour la confiance dans l’économie numérique).

55
Avatar de l'auteur

Écrit par Xavier Berne

Tiens, en parlant de ça :

Logo Twitch

Citant des « coûts prohibitifs », Twitch quitte la Corée du Sud

Avec neutralité, sans neutralité

16:58 ÉcoWeb 5
Formation aux cryptomonnaies par Binance à Pôle Emploi

Binance fait son marketing pendant des formations sur la blockchain destinées aux chômeurs

Crypto influenceurs

16:41 Éco 2
Consommation électrique du CERN

L’empreinte écologique CERN en 2022 : 1 215 GWh, 184 173 teqCO₂, 3 234 Ml…

Ça en fait des démarrage de DeLorean

14:45 Science 0

Sommaire de l'article

Introduction

Une demande à côté des clous

Des exemples de plus en plus nombreux

Logo Twitch

Citant des « coûts prohibitifs », Twitch quitte la Corée du Sud

ÉcoWeb 5
Formation aux cryptomonnaies par Binance à Pôle Emploi

Binance fait son marketing pendant des formations sur la blockchain destinées aux chômeurs

Éco 2
Consommation électrique du CERN

L’empreinte écologique CERN en 2022 : 1 215 GWh, 184 173 teqCO₂, 3 234 Ml…

Science 0
station électrique pour voitures

Voitures électriques : dans la jungle, terrible jungle, des bornes de recharge publiques

Société 43

#LeBrief : intelligence artificielle à tous les étages, fichier biométrique EURODAC

KDE Plasma 6

KDE Plasma 6 a sa première bêta, le tour des nouveautés

Soft 13
Un homme noir regarde la caméra. Sur son visage, des traits blancs suggèrent un traitement algorithmique.

AI Act et reconnaissance faciale : la France interpelée par 45 eurodéputés

DroitSociété 4
Api

La CNIL préconise l’utilisation des API pour le partage de données personnelles entre organismes

SécuSociété 2
Fouet de l’Arcep avec de la fibre

Orange sanctionnée sur la fibre : l’argumentaire de l’opérateur démonté par l’Arcep

DroitWeb 20
Bombes

Israël – Hamas : comment l’IA intensifie les attaques contre Gaza

IA 15

#LeBrief : bande-annonce GTA VI, guerre électronique, Spotify licencie massivement

Poing Dev

Le poing Dev – Round 7

Next 73
Logo de Gaia-X sour la forme d’un arbre, avec la légende : infrastructure de données en forme de réseau

Gaia-X « vit toujours » et « arrive à des étapes très concrètes »

WebSécu 6

Trois consoles portables en quelques semaines

Hard 37
Une tasse estampillée "Keep calm and carry on teaching"

Cyberrésilience : les compromis (provisoires) du trilogue européen

DroitSécu 3

#LeBrief : fuite de tests ADN 23andMe, le milliard pour Android Messages, il y a 30 ans Hubble voyait clair

#Flock a sa propre vision de l’inclusion

Flock 25
Un Sébastien transformé en lapin par Flock pour imiter le Quoi de neuf Docteur des Looney Tunes

Quoi de neuf à la rédac’ #10 : nous contacter et résumé de la semaine

44
Autoportrait Sébastien

[Autoportrait] Sébastien Gavois : tribulations d’un pigiste devenu rédac’ chef

Next 20
Logo de StreetPress

Pourquoi le site du média StreetPress a été momentanément inaccessible

Droit 21
Amazon re:Invent

re:Invent 2023 : Amazon lance son assistant Q et plusieurs services IA, dont la génération d’images

IA 14
Un œil symbolisant l'Union européenne, et les dissensions et problèmes afférents

Le Conseil de l’UE tire un bilan du RGPD, les États membres réclament des « outils pratiques »

Droit 6

19 associations européennes de consommateurs portent plainte contre Meta

DroitSocials 16

#LeBrief : Ariane 6 l’été prochain, Nextcloud rachète Roundcube, désinformation via la pub

Chiffre et formules mathématiques sur un tableau

CVSS 4.0 : dur, dur, d’être un expert !

Sécu 16
Une tête de fusée siglée Starlink.

Starlink accessible à Gaza sous contrôle de l’administration israélienne

Web 35
Fibre optique

G-PON, XGS-PON et 50G-PON : jusqu’à 50 Gb/s en fibre optique

HardWeb 53
Photo d'un immeuble troué de part en part

Règlement sur la cyber-résilience : les instances européennes en passe de conclure un accord

DroitSécu 10
lexique IA parodie

AGI, GPAI, modèles de fondation… de quoi on parle ?

IA 11

#LeBrief : logiciels libres scientifiques, fermeture de compte Google, « fabriquer » des femmes pour l’inclusion

MIA : l’IA d’enseignement de Gabriel Attal pour faire oublier le classement PISA

IASociété 63

Une main sur laquelle est collée une étiquette où est écrit "human".

AI Act : des inquiétudes de l’impact de la position française sur les droits humains

DroitIA 1

Un tiroir montrant de nombreuses fiches voire fichiers

Une centaine d’ONG dénonce l’expansion du fichier paneuropéen biométrique EURODAC

DroitSécu 1

WhatsApp

Meta coupe le lien entre Instagram et Messenger

Soft 3

Nuage (pour le cloud) avec de la foudre

Cloud : Amazon rejoint Google dans l’enquête de la CMA sur les pratiques de Microsoft

DroitWeb 0

Des billets volent dans les airs.

Mistral AI s’apprête à lever 450 millions d’euros auprès de NVIDIA et a16z

ÉcoIA 0

Commentaires (55)


knos
Il y a 9 ans

Soit les algorithme de google sont bien plus pertinent et arrive à trier les requêtes juste des mauvaises. Soit ils doivent avoir une armés de personne qui ce charge de cela.

Bon et sinon comme d’hab à quand un permis a point pour les demandes DMCA.


eliumnick Abonné
Il y a 9 ans

De toute façon, depuis qu’ils ont viré Jeremy Clarkson, ils méritent juste de crever ^^


knos
Il y a 9 ans

Bring
Back
Clarkson


Khalev
Il y a 9 ans






knos a écrit :

Soit les algorithme de google sont bien plus pertinent et arrive à trier les requêtes juste des mauvaises. Soit ils doivent avoir une armés de personne qui ce charge de cela.

Bon et sinon comme d’hab à quand un permis a point pour les demandes DMCA.


Ça ne m’étonnerait pas qu’ils aient un filtre qui extrait les requêtes qui ne ressemblent pas à des url de vidéos pour être traitées manuellement.



knos
Il y a 9 ans

Oui et bien faudrait que les compagnies qui envoie les requêtes fassent également le trie AVANT au lieu d’en abuser. Mais tant qu’il n’y aura pas de sanction pour requête abusive…


vizir67 Abonné
Il y a 9 ans

demander un déréférencement d’une Page qui NE leur APPARTIENT PAS ! <img data-src=" />
“rien …QUE ça, ‘Google” DOIT REFUSER !
sinon : moi AUSSI je vais demander de déréf… le voisin (il a une tête qui me revient pas), hop ..!!!


Candl3
Il y a 9 ans






eliumnick a écrit :

De toute façon, depuis qu’ils ont viré Jeremy Clarkson, ils méritent juste de crever ^^


Ah!&nbsp; Il n’est pas reviendu sous la pression populaire ?

Edit : je me suis un peu rensegné et il semblerait que le trio va tenter de refaire une émission auto mais sur netflix.



Nozalys Abonné
Il y a 9 ans

Sous-titre excellent <img data-src=" />
<img data-src=" /> pour ce fou rire


FunnyD
Il y a 9 ans

Mmmmm <img data-src=" /> Je l’iaime bien, mais là il l’a quand même cherché. <img data-src=" />


kade
Il y a 9 ans






knos a écrit :

Soit les algorithme de google sont bien plus pertinent et arrive à trier les requêtes juste des mauvaises. Soit ils doivent avoir une armés de personne qui ce charge de cela.

Bon et sinon comme d’hab à quand un permis a point pour les demandes DMCA.





knos a écrit :

Oui et bien faudrait que les compagnies qui envoie les requêtes fassent également le trie AVANT au lieu d’en abuser. Mais tant qu’il n’y aura pas de sanction pour requête abusive…



<img data-src=" /> Je peux pas lire, vraiment.



Nozalys Abonné
Il y a 9 ans

C’est pas si gigantesque que ça en fait.
345 millions de requêtes en 1 an. Je suppose une année composée de 220 jours ouvrés, travaillés 8 heures. Ca donne 3267 requêtes à traiter par jour. Avec une équipe de 150 personnes (c’ést grand, mais c’est loin de représenter une “armée”), ça donne un peu moins de 22 requêtes à traiter par minute.

Vérifier à la main 22 URL par minute, c’est jouable, surtout que dans certains cas, l’URL suffit à déterminer l’invalidité sans avoir à cliquer dessus pour accéder au contenu.

En supposant encore que cette partie est automatisée par des algos maison de Google, ce qui ne fait pas l’ombre d’un doute, il doit rester quoi, 30% tout au plus des requêtes qui doivent être vérifiées à la main.






knos a écrit :

Oui et bien faudrait que les compagnies qui envoie les requêtes fassent également le trie AVANT au lieu d’en abuser. Mais tant qu’il n’y aura pas de sanction pour requête abusive…


Ça par contre, on est bien d’accord…



eliumnick Abonné
Il y a 9 ans






Candl3 a écrit :

Ah!  Il n’est pas reviendu sous la pression populaire ?

Edit : je me suis un peu rensegné et il semblerait que le trio va tenter de refaire une émission auto mais sur netflix.




FunnyD a écrit :

Mmmmm <img data-src=" /> Je l’iaime bien, mais là il l’a quand même cherché. <img data-src=" />




Je sais pas j’avais juste envie de pecher <img data-src=" /><img data-src=" />



knos
Il y a 9 ans

22 Requêtes minutes? C’est quand même beaucoup je trouve.


knos
Il y a 9 ans

Navré pour toi…


tazvld Abonné
Il y a 9 ans






Nozalys a écrit :

C’est pas si gigantesque que ça en fait.
345 millions de requêtes en 1 an. Je suppose une année composée de 220 jours ouvrés, travaillés 8 heures. Ca donne 3267 requêtes à traiter par jour. Avec une équipe de 150 personnes (c’ést grand, mais c’est loin de représenter une “armée”), ça donne un peu moins de 22 requêtes à traiter par minute.

Vérifier à la main 22 URL par minute, c’est jouable, surtout que dans certains cas, l’URL suffit à déterminer l’invalidité sans avoir à cliquer dessus pour accéder au contenu.

En supposant encore que cette partie est automatisée par des algos maison de Google, ce qui ne fait pas l’ombre d’un doute, il doit rester quoi, 30% tout au plus des requêtes qui doivent être vérifiées à la main.


Ça par contre, on est bien d’accord…


Personnellement, à ce rythme au bout d’une heure, ça me casserait déjà sérieusement les couilles. Je pense plus que google à son propre algo de préfiltration aussi de son coté. Il a la technologie avec youtube de reconnaître des œuvres protégées.



kade
Il y a 9 ans






knos a écrit :

Navré pour toi…


Pareillement.



js2082
Il y a 9 ans

&nbsp;





knos a écrit :

22 Requêtes minutes? C’est quand même beaucoup je trouve.


Pas tant que ça.
Lire une URL ça prend une seconde, rarement plus.
Savoir si elle est valable demande pas forcément plus.

Mais effectivement, au bout d’une heure, ça gaverait n’importe qui.

Par contre, je pense que les systèmes de vérification automatique doivent éjecter bien plus que les 70% de demandes. Entre les doublons et les sites légitimes, les vérifications manuelles doivent être beaucoup plus rares.(5% des demandes voir moins peut-être)



knos
Il y a 9 ans

C’est fortement possible pour le coté semi automatique. Mais c’était juste le 22 requêtes minutes qui me choquait. (on est pas des robots) Mais oui il doit y avoir un très gros pourcentage fait en automatique. Des 100% validés (délit flagrant), des 100% invalidés (page racine) et des doutes du robot qui seront traité en manuel.


eliumnick Abonné
Il y a 9 ans






js2082 a écrit :

Pas tant que ça.
Lire une URL ça prend une seconde, rarement plus.
Savoir si elle est valable demande pas forcément plus.

Mais effectivement, au bout d’une heure, ça gaverait n’importe qui.

Par contre, je pense que les systèmes de vérification automatique doivent éjecter bien plus que les 70% de demandes. Entre les doublons et les sites légitimes, les vérifications manuelles doivent être beaucoup plus rares.(5% des demandes voir moins peut-être)



Genre en qq seconde tu arrives à savoir si la personne qui te demande la suppression du lien est bien titulaire des droits de l’oeuvre qu’elle veut faire disparaitre ?



ZelMorF
Il y a 9 ans






Nozalys a écrit :

C’est pas si gigantesque que ça en fait.



345 millions de requêtes en 1 an. Je suppose une année composée de 220 jours ouvrés, travaillés 8 heures. Ca donne 3267 requêtes à traiter par jour. Avec une équipe de 150 personnes (c'ést grand, mais c'est loin de représenter une "armée"), ça donne un peu moins de 22 requêtes à traiter par minute.      





Vérifier à la main 22 URL par minute, c'est jouable, surtout que dans certains cas, l'URL suffit à déterminer l'invalidité sans avoir à cliquer dessus pour accéder au contenu.      





En supposant encore que cette partie est automatisée par des algos maison de Google, ce qui ne fait pas l'ombre d'un doute, il doit rester quoi, 30% tout au plus des requêtes qui doivent être vérifiées à la main.      






Ça par contre, on est bien d'accord...






Je suis mauvais en maths, mais je crois que ton calcul est faux.     


345 millions de requêtes par an, ça ne fait pas 3 267 requêtes à traiter par jour, mais 1 568 182 par jour (sur la même base de 220 jours ouvrés).
&nbsp;Et là c’est pas tout à fait le même ordre de grandeur, même avec les moyens de google :)



maestro321
Il y a 9 ans






tazvld a écrit :

Personnellement, à ce rythme au bout d’une heure, ça me casserait déjà sérieusement les couilles.


Ha! c’est sur que c’est pas un boulot pour les feignasses! Mais au moins t’es sur d’être payé correctement.



eliumnick Abonné
Il y a 9 ans






maestro321 a écrit :

Ha! c’est sur que c’est pas un boulot pour les feignasses! Mais au moins t’es sur d’être payé correctement.



Depuis quand les boulots les plus pénibles sont bien payés ?



linkin623 Abonné
Il y a 9 ans

Déjà en ayant des listes blanches de site “officiels” et sans doutes possibles (genre tout ce qui est imdb.com/*) dégage les requêtes frauduleuses.

Ensuite pour une url de vilains pirates, je pense que les sites reviennent régulièrement. Donc si domaine possède genre 3 adresses “pirates”, alors les requêtes suivantes seront traitées automatiquement.

Donc en combinant des listes blanches (remplie à la main) et des blacklist remplies quasi automatiquement, google doit écrémer avant d’envoyer à ses employés.

Et faire ce genre de chose pour Google, c’est clairement pas kiffant mais ils ont les personnes, les connaissances et les finances pour plier le truc.


Takaï
Il y a 9 ans

Le salaire serait probablement minable, mais l’économie en terme de dépenses culturelles serait substantielle avec tous les liens qu’ils pourraient collecter. <img data-src=" />

Ca doit bien pouvoir compter comme un avantage du même type que le tarif EDF non ? <img data-src=" />


Larsirion
Il y a 9 ans

en fait son calcul est juste, c’est son explication qui est fausse <img data-src=" />

345 millions /220 jours /150 personnes / 8 heures / 60 minutes donne bien 22 requêtes à analyser par minute et par personne… ;)

après, ça me fait marrer ceux qui disent qu’il faut moins d’une seconde pour lire une url… dailymotion.com… ok… mais un truc à rallonge sur un site pas connu… je vois pas comment un gars peut dire en moins de 3 secondes si c’est légitime ou pas…


Gilgen Abonné
Il y a 9 ans

Pas d’accord, The PirateBay AFk (licence CC) s’est bien fait déréférencer alors que les ayants-droits n’avaient justement pas les droits dessus (alors qu’on sait tous que TPB ne sert qu’à télécharger des ISO Linux <img data-src=" />).


Pwney
Il y a 9 ans






js2082 a écrit :

&nbsp;
Pas tant que ça.
Lire une URL ça prend une seconde, rarement plus.
Savoir si elle est valable demande pas forcément plus.


Tu arrives à voir le contenu d’une page rien qu’en lisant son URL ? Chapeau !



ZelMorF
Il y a 9 ans

Ah oui, en effet ^^
Bon, cela dit, même pour google, ça me parait beacoup, 150 personnes à temps plein, juste pour gérer les demandes de retrait…
Il y a surement un système de tri préalable, retrait des doublons, etc.


CryoGen Abonné
Il y a 9 ans






Pwney a écrit :

Tu arrives à voir le contenu d’une page rien qu’en lisant son URL ? Chapeau !


Y en a bien qui voient l’intégralité du monde à travers une série de symboles verts qui dégringolent le long de deux écrans. Faut te libérer l’esprit <img data-src=" />



linkin623 Abonné
Il y a 9 ans

Certains diront que c’est un “dommage collatéral” du système.

Si le film s’est fait déréférencer, c’est qu’il était sur TPB (ou un miroir) ! C’est d’ailleurs révélateur de ce que je dis plus haut : si l’adresse appartient au domaine à thepiratebay.com/* alors c’est direct.

C’est toujours comme ça : les erreurs d’un algo sont plus révélatrices de son fonctionnement que les “bons résultats”.
C’est d’ailleurs un axe de travail très courant en cryptographie.


maestro321
Il y a 9 ans

Depuis que le salaire est basé sur le mérite.


alain57
Il y a 9 ans

a mon avis quand le PR de la page est elevé (ou que sa categorie n’a rien a voir avec du P2P) google verifie a la main&nbsp;


linkin623 Abonné
Il y a 9 ans

Voir ma réponse au dessus (bug dans le mode réponse)


canti
Il y a 9 ans

pour moi ils ont justement un indicateur de “sérieux” ( est ce que le site est populaire, est ce qu’il est hosté aux US/pays favoris, est ce qu’il existe depuis longtemps, est ce que d’autres site “sérieux” le cite, etc…), qui est pris en compte par le page rank.

c’est cette stat qui ( d’après moi ) leurs permet de faire une liste a bannir automatiquement ( c’est quand même la plupart des cas), et une liste à vérifier à la main


Gritou
Il y a 9 ans

Ca ne répond pas à la question.


maestro321
Il y a 9 ans

J’y peut rien, tout ce qui tourne autour de la justification des différences de salaires n’apporte aucune réponse rationnelle.<img data-src=" />


Gritou
Il y a 9 ans

Que je sache niveau pénibilité, infirmière ou technicien de surface, voir éboueur c’est un chouilla plus que trader pour un salaire bien inférieur, donc le mérite n’a pas de lien avec la pénibilité.

&nbsp;Mais sinon oui, on est d’accord c’est un peu n’imp ^^’


quegorosoit
Il y a 9 ans

Utiliser son cerveau n’est pas moins pénible… Mais en général quand on bosse dans un bureau on est forcément dans un boulot non pénible..


ludo0851
Il y a 9 ans






vizir67 a écrit :

demander un déréférencement d’une Page qui NE leur APPARTIENT PAS ! <img data-src=" />
“rien …QUE ça, ‘Google” DOIT REFUSER !
sinon : moi AUSSI je vais demander de déréf… le voisin (il a une tête qui me revient pas), hop ..!!!

Euh, je vois ta philosophie mais le principe du déréférencement c’est quand même qu’on puisse demander à rendre + difficile l’accès à un site qui (enfin dont on estime qu’il) nous cause dommage.
Demain, je vais créer et populariser www . vizir67estungrosblaireau . com (désolé, c’est pour l’exemple) et tu vas juste attendre que je demande à ce que le site soit déréférencer? <img data-src=" />


Gritou a écrit :

Que je sache niveau pénibilité, infirmière ou technicien de surface, voir éboueur c’est un chouilla plus que trader pour un salaire bien inférieur, donc le mérite n’a pas de lien avec la pénibilité.

 Mais sinon oui, on est d’accord c’est un peu n’imp ^^’

Mouis, éboueur à Marseille (fini/parti) c’est moins pénible qu’éboueur ailleurs et puis trader…faut voir les sinusites que les mecs se tapent à force de sniffer de la coke


EDIT: on est bien d’accord déréférencement=suppression des résultats de recherche Google =/= de suppression du site?



knos
Il y a 9 ans

Il n’y a certes pas que le travail physique qui est pénible mais les salaires n’ont absolument jamais eu d’indexation sur le mérite (ou alors ils faut m’expliquer ce sens du mot mérite). Le salaire est un mélange de mérite, environnement, coup de pouce, chance … Et je pense que le mérite est l’un des éléments qui joue le moins sur le salaire.


MasterDav
Il y a 9 ans

Google devrait surtout mettre en place un système qui, en cas de demande abusive de déréférencement, déréférencie l’ensemble des sites web du demandeur.
Ils y regarderaient à 2 fois avant d’envoyer toutes leurs listes à la con.

edit: ah j’allais oublier:

Bring
Back
Clarkson


maestro321
Il y a 9 ans






knos a écrit :

Il n’y a certes pas que le travail physique qui est pénible mais les salaires n’ont absolument jamais eu d’indexation sur le mérite (ou alors ils faut m’expliquer ce sens du mot mérite). Le salaire est un mélange de mérite, environnement, coup de pouce, chance … Et je pense que le mérite est l’un des éléments qui joue le moins sur le salaire.


Voilà une bonne raison de virer les salaires minimum dans ce cas.<img data-src=" />



js2082
Il y a 9 ans






Pwney a écrit :

Tu arrives à voir le contenu d’une page rien qu’en lisant son URL ? Chapeau !


Les ddl-series, allostreaming et consorts…
Suffit d’un coup d’oeil sur leurs urls pour savoir que ce ne sont pas des sites légaux. Et encore plus quand tu vois qu’ils disposent de toutes les dernières séries de tous les producteurs, même ceux qui sont concurrents. (tu ne trouveras jamais GOT mélangé avec les séries les plus populaires de la Fox par ex)

Beaucoup de sites pirates (si ce n’est tous) utilisent un langage très spécifique et très clair sur la nature de leur contenu.
Jouer au bisounours, ça va 5 min hein.<img data-src=" />
&nbsp;



knos
Il y a 9 ans

Ca dépend tu es tendance marxciste ou tu es de ceux qui juge que ceux qui n’ont pas de chance mérite un salaire encore plus faible?


maestro321
Il y a 9 ans






knos a écrit :

Ca dépend tu es tendance marxciste ou tu es de ceux qui juge que ceux qui n’ont pas de chance mérite un salaire encore plus faible?


http://i.imgur.com/uqoeA.jpg



philanthropos
Il y a 9 ans

Une news à ce genre de sujet à chaque coup ? Sérieusement ? : /


panda09
Il y a 9 ans

“En France, le fait, pour toute personne, de signaler « un contenu ou
une activité comme étant illicite dans le but d’en obtenir le retrait
ou d’en faire cesser la diffusion, alors qu’elle sait cette information
inexacte, est puni d’une peine d’un an d’emprisonnement et de 15 000
euros d’amende » (article 6 de la loi pour la confiance dans l’économie numérique).”

Cette loi est faite pour faire condamner les petites gens, elle ne s’applique pas aux gros requins !


eXa
Il y a 9 ans

Close enough ? :)

Bring
Back
Clarkson


Gritou
Il y a 9 ans

Google ne possèdant pas (encore) l’internet, oui ça veut juste dire supprimer des résultats de recherche. Après comme de moins en moins d’utilisateurs lambda savent qu’on peut aussi taper une URL, pour certains ça revient presque au meme.


Nozalys Abonné
Il y a 9 ans

Autant pour moi, je voulais bien entendu dire 3267 requêtes par minute (345000000/220/8/60).


Nozalys Abonné
Il y a 9 ans

Oui c’est certain, ça gaverait n’importe qui, mais c’est pas insurmontable, ce que je voulais dire par ce calcul c’est que c’est humainement possible sans algo amont. Et comme on parle de Google, on sait tous très bien qu’ils doivent déjà avoir un algo (le genre d’IA qui apprend au fur et à mesure de son utilisation donc qui devient de plus en plus performant) pour réduire cette charge de travail humaine au strict minimum.


vizir67 Abonné
Il y a 9 ans

ok !
(j’ai mal compris la New)


ludo0851
Il y a 9 ans

OK, mais je n’avais pas de doute sur ce point.

Après, même si on sait qu’on peut “taper une URL” <img data-src=" />, le déréférencement complique l’accès à des sites qu’on ne connait pas. Mais bon ce n’est pas la panacée (du point de vue des éditeurs)


Vin Diesel Abonné
Il y a 9 ans

Et ne plus, Google n’est pas l’unique moteur de recherche sur la Toile, ça ne va pas être simple de faire le tri chez DuckDuckGo et Co.

<img data-src=" />