votre avatar

Fuinril

est avec nous depuis le 8 avril 2010 ❤️

2751 commentaires

Le 15/02/2017 à 02h 09

Normalement non.



Je ne peux pas me prononcer sur le cas exact de font-family car je ne l’ai jamais fait, et j’ai carrément la flemme de mettre en place les conditions nécessaires pour un test réel. Mais en tous cas je peux garantir le bon fonctionnement sur tous les attributs de style “normaux” (height, width, padding, margin, etc….).



Normalement ça fonctionne bien, mais la gestion des polices est assez spéciale (ce n’est pas géré directement par le browser) donc je ne peux pas le garantir à 100%.





Definition and Usage



The getComputedStyle() method gets all the actual (computed) CSS property and values of the specified element.



The computed style is the style actually used in displaying the element, after “stylings” from multiple sources have been applied.



Style sources can include: internal style sheets, external style sheets, inherited styles and browser default styles.



The getComputedStyle() method returns a CSSStyleDeclaration object.





Source :https://www.w3schools.com/jsref/jsref_getcomputedstyle.asp

Le 15/02/2017 à 01h 52

Ok. Vu comme ça ça se tient mais admet que c’est tiré par les cheveux… Et que implémenter un truc qui va mettre le CPU des clients à plats pour plusieurs secondes juste pour affiner l’identification de 0.01% de tes visiteurs c’est absurde.



D’autant que si le mec gère vraiment il va savoir qu’il est tracé et va faire en sorte de pourrir (littéralement) son navigateur de données foireuses…



Tout ça pour un résultat qui est bien naze par rapport à ce que peut faire google via son omniprésence et la qualité hallucinante de leur analyse de données (nan parce que le cross media ça c’est un vrai truc de fou ! Il y a rien, aucune données identiques : ni IP, ni cookie, ni browser, ni CPU, ni OS… rien !).



Du coup, euh…. Publier un papier ça sert à quoi ?

Le 15/02/2017 à 01h 02







v1nce a écrit :



Oui effectivement si tu trouves 1 police pour laquelle le mot “abcdefg” a EXACTEMENT la même largeur qu’avec la police par défaut il te dira que la police n’est pas installée.



Plante c’est-à-dire ?



Comment tu demandes au DOM la police utilisée ?







Pas besoin d’exactitude, ça va dépendre de la string : si les caractères de la string ont la même largeur globale ça ne fonctionne pas. Sur 2000 caractères, sauf si elle a été faite pour peu de chance, sur 10 par contre….



“Plante” est trop fort : ça ne fonctionne juste pas mais pas d’erreur.



Pour le dom, au pif, getComputedStyle ? (illustrée ici : la seule vraie source :https://www.w3.org/TR/DOM-Level-2-Style/css.html )


Le 15/02/2017 à 00h 50

Tu prends (comme Ricard) le problème à l’envers. La question n’est pas de savoir si l’on peut reconnaitre l’internaute, mais la robustesse de la reconnaissance.



Encore une fois, c’est caricatural mais créer une empreinte pour détecter si un internaute particulier a changé de navigateur c’est super simple, il suffit de se baser sur la résolution d’écran. Ce ne va pas t’aider quand tu auras 250k internautes qui ont la même….



C’est tout le problème de leur méthode : ils n’ont aucun moyen novateur d’identification. Après, combiné au reste, certes…. mais la plus grande discrimination est faite via l’IP et les cookies, ça n’est jamais que de l’affinage (genre la paille est jaune, mais j’ai une super méthode qui coute un million à implémenter qui permet de détecter la nuance exacte de jaune….).



Je vais citer juste un petit passage :





Screen Resolution.

The current measurement of screen resolu-

tion is via the “screen” object under JavaScript. However, we

find that many browsers, especially Firefox and IE, change the

resolution value in proportion to the zoom level. For example,

if the user enlarges the webpage with “ctrl++” in Firefox and

IE, the screen resolution is inaccurate. We believe that the

zoom level needs to be considered in both single- and cross-

browser fingerprinting.

Specifically, we pursue two separate directions. First, we

adopt existing work [13] on the detection of zoom levels based

on the size of a div tag and the device pixel ratio, and then

adjust the screen resolution correspondingly. Second, because

the former method is not always reliable as acknowledged by

the inventors, we adopt a new feature, i.e., the ratio between

2

screen width and height, which does not change with the zoom

level









Ouha ! Ils font des ratios largeur / hauteur ! Quelle innovation !



Le papier c’est uniquement des conneries du genre ! Que ça berne des marketteux qui pètent plus haut que leur cul, ok, c’est fait pour leur soutirer du fric. Mais des techniques (desquels tu me sembles faire partie) ça m’inquiète….

Le 15/02/2017 à 00h 22

Et au passage ton script comporte des erreurs de syntaxe (ça passe peut être mais jusqu’à preuve du contraire ta ligne 1 renvoie un dom element, pas un tableau de dom element - après jQuery est excessivement crade sur la gestion du typage donc bon…) et ne prend pas en considération 2 police ayant le même empâtement, ni les différences entre la police chargée et la police de l’OS, ni…. bah rien en fait, il suffit que je change les alias de police dans mon navigateur et ton truc plante.



Du coup autant demander directement au DOM la police qu’il applique non ? Ca revient au même, c’est moins compliqué et c’est infiniment plus propre….

Le 15/02/2017 à 00h 02







v1nce a écrit :



Ca a peu de sens de charger une police depuis un cdn.







Ah ? Tu es sûr de toi ?





J’ai ni la même expérience ni les mêmes retours…. Le fait est que des polices, par nature, il y en a une infinité (d’où ma question de standard ou pas). Tu peux créer tes propres polices aussi facilement que tu vas te soulager tous les matins, les mettre dans le CSS de ton site (avec le fichier woff), remplacer les polices existantes sur ton OS, utiliser un CDN, etc…



Tu es en train d’essayer de me prouver qu’un script peut détecter les polices normales ? Tu prêches un convaincu, j’ai même expliquer comme faire plus haut (et pas besoin de passer par un calcul des bounds, il suffit d’interroger le dom).



Ce que je t’explique moi c’est que hors police standard il n’y a aucun moyen d’avoir la liste des polices installées sur un OS. Et si tu veux faire mumuse, ton var candidat fera plusieurs centaines de gigas octets (et fera crasher les navigateurs). Donc baser une méthode d’unicité (qui se base sur les composants non standards présent sur les machines) sur un élément que tu es obligé de deviner c’est encore plus con que me dire que tu peux deviner la combinaison du prochain loto avec 13 millions de bulletins : oui c’est théoriquement faisable, en pratique tu perds du fric


Le 14/02/2017 à 23h 17







maestro321 a écrit :



Les régies publicitaires (dont facebook, google, twitter) sont prêtent à tout.<img data-src=" />

Économiquement, elles ne peuvent pas se permettre de faire reposer leur technologie de tracking uniquement sur le cookie.

Elles se préparent depuis plusieurs années au “tracking sans cookie” en complément… et surtout au cas où..







C’est vrai, mais les régies qui ont des pratiques qui impactent très négativement les temps de chargement se font souvent virer (je pense ici à Criteo que j’ai personnellement dégagé par exemple).



En complément : je suis bien plus inquiet face à google qui arrive à faire du crossmedia (!!!!) que de ces résultats qui restent des résultats de labo avec un échantillon non significatif et en condition non réelle.



Google ils ont pas fait de publication mais ils arrivent à nous suivre quand on passe du téléphone au desktop…. Merci analytics :/


Le 14/02/2017 à 23h 11

Exact. Non standard !



Genre si je duplique time new roman en toto.ttf



Tiens, au pif, choppé sur un site random :http://cdn.fontspace.com/Styles/font-icon/font/fsicons.woff2?81454616



Trouve moi un script non fait pour qui la détecte….

Le 14/02/2017 à 23h 05

Très vrai !



Mais ça reste une méthode excessivement lourde pour “juste” une précision de données

Le 14/02/2017 à 23h 00

Tu veux quels genres de polices ? Exclusivement des non web j’ai le droit ?



Si ta question c’est “trouve moi une police qui sera pas listée” ça va pas être dur, des polices y en a une infinité….

Le 14/02/2017 à 22h 50







v1nce a écrit :



http://www.geeks3d.com/webgl/



presencePoliceTypeMyMusic =  div_texte_toto_defaut_fontFamily.getClientBoundingBox() != div_texte_toto_fontTypeMyMusic.getClientBoundingBox()







Je suis pas sûr de comprendre ton exemple mais si j’ai une police russe sur mon OS c’est pas comme ça que tu vas la détecter…


Le 14/02/2017 à 22h 48

Euh d’où ? Le principe de l’empreinte c’est d’être un hash d’un agrégat de données. Change un bit à la string initial et ton hash n’aura rien à voir….





Heureusement d’ailleurs, sinon j’aurais vraiment peur quant au paiement en ligne : si tu décales une virgules dans les paramètres tu changes tout le hash et le paiement devient invalide….

Le 14/02/2017 à 22h 44







v1nce a écrit :



Tu veux commander sur un site de voyages.

 Tu es déjà allé plusieurs fois sur le site.

Et à chaque fois le prix augmente. Tu changes de browser tu passes par un proxy et magique le prix a diminué. Plus de cookie, adresse IP changée tu es considéré comme un nouvel utilisateur.



 Maintenant si au lieu de stocker simplement cookie et IP on stocke en plus la résolution de l’écran (1920 ? 2560 ?4k ?) les capacités de ta carte graphique (modèle, fréquence,  ram, résolution max de la texture) les polices exotiques liées à la présence d’un logiciel (barcode, notation musicale, tablature…), que crois-tu qu’il va arriver si  tu fais ta recherche ?







Ah aussi, dans l’ordre des données fiables ou considérées comme telles sont :




  1. les cookies : propre, infalsifiable, unique, 99% des utilisateurs ne savent pas ce que c’est et encore moins les purger

  2. l’ip : une IP est unique a un instant T et les gens normaux ne changent pas d’IP toutes les 2min (sauf les gens en train sur mobile) =&gt; pas fiable

  3. tout le reste où tu as tellement de collision que c’est inexploitable



    Au final il faut se placer du côté de l’agence : elle cherche à faire croire au client que le bien s’épuise et le prix augmente… mais pour ça il faut être relativement sûr de l’unicité du client. Sinon la seule chose que tu fais c’est de faire fuir le client avec des prix prohibitifs par rapport à la concurrence : si tu lui affiche le prix d’un mec qui a rafraichi 15 fois la page avant ça ne va pas aider ton taux de transfo….


Le 14/02/2017 à 22h 33







v1nce a écrit :



Tu veux commander sur un site de voyages.

 Tu es déjà allé plusieurs fois sur le site.

Et à chaque fois le prix augmente. Tu changes de browser tu passes par un proxy et magique le prix a diminué. Plus de cookie, adresse IP changée tu es considéré comme un nouvel utilisateur.



 Maintenant si au lieu de stocker simplement cookie et IP on stocke en plus la résolution de l’écran (1920 ? 2560 ?4k ?) les capacités de ta carte graphique (modèle, fréquence,  ram, résolution max de la texture) les polices exotiques liées à la présence d’un logiciel (barcode, notation musicale, tablature…), que crois-tu qu’il va arriver si  tu fais ta recherche ?







Impossible. Le navigateur n’a pas accès à ces données (heureusement). Dans la technique décrite ils passent par des calculs de rendu… et ne peuvent jamais s’affranchir du navigateur. Tu veux utiliser une police non standard comme une notation de musique pour la détection ? Bah amuse toi ! Mais va falloir recoder une partie de firefox qui ne connait pas….





Tiens, un bon exemple : tu as certainement déjà vu des petits losange noirs avec un “?” blanc sur des pages web. C’est dû à des encodages de caractères non standards W3C. C’est parfaitement supporté par ton OS (d’ailleurs la plupart viennent de copier coller, tu as l’apostrophe design word par exemple), parfaitement par un moteur de BDD (du moins un peu évolué), mais ton navigateur sera absolument incapable de lire ce caractère.



Donc amuse toi avec tes polices ;)


Le 14/02/2017 à 22h 26

Mais ça marche pas : 60 polices me dit le site, windows me dit 98. Tu peux savoir si une police est présente ou non, pas obtenir la liste de celles présentes….. et pour peu que ton navigateur en ait chargé une distante sur un site juste avant ça foire l’empreinte….





Non vraiment c’est super comme technique….

Le 14/02/2017 à 22h 24

En réalité c’est une technique qui aurait eu beaucoup de mérite il y a 20 ans, avec des environnements extrêmement hétérogènes. Aujourd’hui tous les fabricants, tous les éditeurs, tous les assembleurs tentent par tous les moyens de réduire leurs coûts via des économies d’échelle…. et du coup les environnement sont très semblables d’un utilisateur sur l’autre (hors cas particulier : les devs, les sysadmin, les utilisateurs de BSD, de Lynx, etc…).



La technique se basant sur les différences d’environnement entre utilisateurs c’est on ne peut plus débile….

Le 14/02/2017 à 22h 19







v1nce a écrit :



Je ne vois pas comment obtenir la liste des polices.

Calculer une empreinte oui. Obtenir la liste, non









Tu peux obtenir les polices chargées.



Genre tu fais un style time new roman, gothica, sans serif



Tu sauras simplement si l’utilisateur a time new roman installée, sinon si il a gothica sinon si il a sans serif. Remplace les polices par des choses un peu plus exotiques et tu auras une idée de son OS (au cas où tu aies la flemme de lire la donnée dans le navigateur, on sait jamais ….) ou du moins les packs de police qu’il a installé.



En granulant ça convenablement il y a moyen d’obtenir des données exploitables…. si ce n’est que 80% des visiteurs vont avoir un windows 10 avec office installé - et donc tous les mêmes packs de polices…..


Le 14/02/2017 à 22h 03







ndjpoye a écrit :



“sur 3 615 empreintes collectées auprès de 1 903 utilisateurs au cours d’une période de trois mois”En fait, pour le moment, ils ont juste prouvé que l’empreinte pouvait être identique en changent de navigateur.Ca montre pas qu’on peut te pister.







Exactement.


Le 14/02/2017 à 21h 57

Tu prends le problème à l’envers.



Le SEUL intérêt du tracking du point de vue de ceux qui financent le marché (c’est à dire les clients, pas les chercheurs) c’est d’être unique et fiable. Et à priori ce n’est pas le cas avec cette technique.



Des techniques avancées de tracking fiables à 80% basées sur l’histo y en a à la pelle. Ici on est largement en dessous, le seul intérêt de la technique c’est d’être crossbrowser mais si c’est pas fiable…. Et même en admettant qu’ils arrivent à 90% de fiabilité c’est par machine et non par utilisateur (exit le cross media - pas de bol en tant que webmarchand j’aimerais bien savoir combien de % de mes clients visitent le site sur mobile pour acheter sur desktop ou l’inverse….), du coup…..



Et je ne parle pas de la technique en elle même que personne ne voudra implémenter : bouffer 80-100% du CPU de l’utilisateur pendant plusieurs secondes au chargement de la page alors qu’on essaye d’accélérer le chargement des scripts fonctionnels, mais bien sûr !



Sinon : les polices dépendent de l’OS (principalement), les plugins la plupart n’en ont pas, le support de webGL dépend du navigateur de la CG et des pilotes, canvas de l’OS et du navigateur (et du CPU mais non pris en compte pour des raisons évidentes). L’audio c’est devenu inutile depuis que toutes les CM implémentent la même carte….



Je le redis : c’est une recherche bidon publiée pour le fric. Le navigateur peut lire des données ! Scandale ! Ca fait jamais que 25 ans qu’on le sait (au bas mot), en attendant ça reste basé sur la fiabilité de l’IP (qui ne l’est pas, donc….)

Le 14/02/2017 à 21h 13

about:config est ton ami

Le 14/02/2017 à 21h 07







vaneck a écrit :



Bon ,imaginons que ces criteres soit juste binaire (j’ai ou j’ai pas). Ca nous donne 2³⁶ possibilités soit = 68.719.476.736, donc tant que chaque etre humain ne depassent pas ses 10 machines, ca passe.

Si les criteres sont analogique , et peuvent se moduler à l’infinie entre 0 et 1, ca fait encore plus.









Sur la théorie oui.



En pratique non.



Pour reprendre l’exemple de ma machine j’ai un 6600 et 1070. Bon, tous les 6600 ont 4 coeurs et toutes les 1070 ont les mêmes fonctions, avec le même résultat (modulo la version des pilotes mais ça empire le problème, cf plus bas).

C’est une config assez haut de gamme de joueur, mais tout à fait standard, comme certainement la version du dessus à base d’i7 et de 1080 et la version du dessous.



Du coup tu élimines déjà plusieurs critères d’unicité. Rajoutons à cela la carte son : c’est les même sur toute la gamme joueur de MSI !



Tu vas me parler de la version des pilotes qui font varier le rendu, certes. Mais ça empire le problème : ça veut juste dire qu’à chaque nouvelle version tes empreintes sont bonnes à jeter…. et en plus vu que ce sont des configs de joueur et que les jeux demandent de faire les majs….



Changement intégral : passons à un PC de bureau dans une entreprise, PC qui sont généralement achetés en lots et configurés en masse… quels résultats à ton avis ? Si c’est pour avoir aussi peu de précision y a l’IP qui fonctionne très bien….



Bref, j’ai lu le PDF, ils essayent de rajouter un maximum de choses auxquels ils ont accès (c’est à dire pas grand chose) et arrivent certainement à avoir une empreinte plutôt fiable pour identifier un utilisateur entre deux navigateurs. Par contre différencier les utilisateurs c’est une autre paire de manche…. Leur étude c’est comme si je te disais : j’arrive à identifier un utilisateur unique en calculant un hash à partir de la résolution d’écran. C’est cool mais ça sert à rien….

Alors oui, c’est plus développé et y a moins de collisions que ça, mais dans la pratique, sur un serveur live avec plusieurs millions (milliards !) de connexions c’est du même ordre à priori…. Plus tu augmentes le nombre de connexion plus le risque de tomber sur des collisions augmente…. et pas qu’un peu vu les critères pris en considération, du coup comme l’intérêt de l’exploitation c’est la fiabilité du tracking ça sert à rien….



Pour donner une idée, windows se base sur les numéros de série du matos installé sur les machines (auxquels le navigateur n’a pas accès), et même comme ça ils excluent un certain nombre de périphérique pour réduire le risque de collision…. Pour moi c’est encore une école en mal de fric qui a besoin de financiers en publiant un papier bidon… Je peux me tromper mais les critères me semblent légers et l’échantillon inhabituellement faible…..


Le 14/02/2017 à 20h 08

Euh, mais c’est NUL !



C’est quoi cet échantillon moisi ? 36 critères c’est ridicule ! Alors oui sur moins de 2000 utilisateurs, ok, sur 2 millions combien de collisions ? Sachant qu’en plus, sur la masse, les matos vont se recouper en fonction de certaines caractéristiques utilisateur (exemple : j’ai un proc de gamer, une CG de gamer et une carte mère de gamer. Dans les 3 cas la gamme est exactement la même et ce n’est pas une gamme sur laquelle il y a beaucoup de produits….) .



Complètement inexploitable ! Les chercheurs arrivent à avoir une empreinte unique sur plusieurs navigateurs (je veux bien), mais cette empreinte sera reproduite autant de fois qu’il y a de configuration similaires… Je demande à voir le taux de fiabilité sur un environnement réel avec plusieurs millions de connexions, mais j’ai de sérieux doutes….

Le 02/02/2017 à 23h 08

Au passage, de la part d’un médecin, ne pas prendre en considération le cout du produit pharmaceutique dans l’évaluation du coût de la consultation ça fait montre d’un tel “je m’en bas les steaks c’est la sécu qui paye” que ça me laisse sans voix….



Le problème avec les relations entre médecins et labo est peut être là….



Qu’un quidam ne l’appréhende pas, c’est plutôt normal, mais un médecin bordel….

Le 02/02/2017 à 22h 47







Nerg34 a écrit :



Ca vaut dire quoi le “quasi rien”? Car la dernière fois ou j’ai amené mon chien chez le Veto, j’ai pas eu l’impression qu’elle était gratuite la consultation… Quand on regarde le prix d’une consultation d’un Médecin…







Bah j’en sais rien, je suis pas véto moi…. Je connais bien, par contre, un certains nombre de problématiques associées au secteur…



Maintenant si tu es médecin je te pose la question, considérant que :



_un vaccin pour ton chien + un checkup coute dans les 45€ et que ça peut prendre un certain temps si le chien est récalcitrant (voir demander l’assistance d’une ASV)

_que le vaccin en question n’est absolument pas remboursé par la sécu contrairement aux vaccins humains et est compris dans le prix de la consultation (je ne connais pas le prix du vaccin en lui même)

_qu’il y a une réelle prise de risque de la part du praticien (sauf erreur le pire gamin du monde ne risque pas de te broyer un bras si tu ne fais pas attention, un labrador ou autre chien avec une machoire puissante qui n’apprécie pas ton vaccin ça lui prend 3 secondes max)

_la formation de véto est à la fois plus longue et plus dure que pour être médecin (d’une manière générale, si tu me parles des neuro chirurgiens je te parle des spécialistes des tigres du bengal !)



Ca te semble toujours si cher payé ? Nan parce que un médecin c’est 23 balles les 5 min, et tout est remboursé….. et ils se plaignent tellement d’être sous payé que beaucoup pratiquent allègrement le dépassement des honoraires conventionnés….


Le 31/01/2017 à 19h 35







Ghorghor Bey a écrit :



Donc les politiques transfèrent leur responsabilités sur les véto.

Ils devraient mettre leur nez dans ce merdiers mais préfèrent accusé les vétos, il faudrai tout de même pas se facher avec bayer ou autre.







Bah c’est à dire que des politiques qui ont fait médecine c’est pas ce qu’il y a de plus courant, encore moins médecine vétérinaire….



Après c’est le gros merdier comme tout ce qui est profession réglementée, et cette démarche de transparence c’est un (petit) pas dans la bonne direction


Le 31/01/2017 à 17h 48







Ghorghor Bey a écrit :



Ouhhh ça vas géner les labo de savoir qu’ils sont en affaires avec les véto, beaucoup plus que les liens avec les politiques.







Bah il faut se rendre compte que si l’on ramène le problème à sa plus simple expression :



les laboratoires pharmaceutiques sont les employeurs des vétérinaires (ce sont eux qui payent le salaire, la part des remises dans le revenu annuel d’une clinique est absurde).



A partir de là aucun vétérinaire travaillant ou voulant un jour travailler en clinique ne peut prendre de position publique contre un laboratoire (au mieux il peut ne pas prescrire….). Quand tu as Bayer qui te dit “Mr, nous ne soutenons pas vos positions, votre catégorie a changé, vous ne toucherez maintenant plus que 7% de remise au lieu de 17” et que les produits bayer c’est 30% de ton CA annuel brut tu ne fais pas le malin



….



Ce qui impacte évidemment les AMM, puisque tous les vétérinaires sont concernés par ce problème - et plus ils sont gros et réputés plus ils le sont (donc l’ordre des vétérinaire aussi)


Le 31/01/2017 à 17h 36







Ghorghor Bey a écrit :



D’ou l’inutilité de cette “transparence”.

Par contre faire la transparence sur les autorisations de mise sur le marché, réglementé l’usage des antibiotiques, la il n’y a plus grand monde quand c’est la responsabilité de l’état.







Après faut voir, en soit je ne trouve pas normal qu’un professionnel de la santé soit pieds et poings liés face aux lobby pharmaceutiques (ce sont, après tout, eux qui payent le vétérinaire et ça va vite de sauter d’une catégorie à une autre….).



Si cela peut entrainer une prise de conscience publique et changer les choses ça ne serait pas un mal….


Le 31/01/2017 à 17h 19







Ghorghor Bey a écrit :



Tu mélanges résistance au antibiotiques dans les élevages intensif, et les liens avec les labos je comprends.

Le véto qui veux vendre un max d’antibiotiques a un éleveur en prenant sa commission c’est justement celui qui a le moins intérêt au “cadeau” des labo il a déjà sa vache a traire.

En prime ça ne change rien au fait qu’il peut prescrire et vendre tous ce qu’il veux.







Sauf que le véto ne gagne quasi rien sur les consultations (hors chirurgie), et ce qu’il ne gagne pas là il se rattrape en vendant des produits (y compris des non médicaments sur prescription).



Donc les produits sont chers parce que c’est dessus qu’il fait sa marge.



Mais c’est pas tout, tous les labos - sans exception dans le domaine vétérinaire - proposent un système de remises arrières selon des quota contractuels en fin d’année.



Concrètement, ça signifie que dans dans le cas des vétérinaires, tous les vétos seront en lien avec à peu près tous les labos. Super utile…..


Le 31/01/2017 à 17h 14

Vu le fonctionnement des vétérinaires et les marges arrières démentes ça va être drôle

Le 21/01/2017 à 19h 10







bloossom a écrit :



Pourtant l’analogie se tient. comme une oeuvre littéraire n’est pas qu’une suite de phrases. Il faut dissocier le support (la composante d’instructions), de l’oeuvre en elle même qui représente la volonté artistique de son ou ses auteurs

donc non c’est pas juste un logiciel, c’est bien plus que ça.







Parce que un logiciel c’est quoi si ce n’est la volonté artistique de son auteur ? Y a autant de façon de coder qu’il y a de codeur, certaines plus belles que d’autres aux yeux des amateurs du secteur, sans compter que le code en question est articulé pour produire un tout à partir de parties…. exactement comme un livre qui peut être un roman ou un livre technique.



A quel moment tu fais le distinguo entre artiste et producteur ? Le menuisier qui fait des chaises c’est quoi ? Ca dépend du type de chaise ? Qui en juge ? Selon quels critères ?







Cashiderme a écrit :



Ils ont certains droits sur leurs oeuvres liés au régime artistique que les informaticiens n’ont pas sur leur code.







Quelle aberration ! Bien sûr qu’ils ont les mêmes droits sur leur code…. Le propriétaire du code en tous cas…. Exactement comme les graphistes (par exemple) : si ils sont indés et qu’ils revendent seulement une licence d”utilisation c’est à eux, sinon non et ils n’ont plus rien à dire sur l’usage ou la propagation


Le 20/01/2017 à 20h 53

Quel être normalement constitué, n’ayant pas subis de chocs violents et répétés sur la tête, cela choque-t-il ?

Le 20/01/2017 à 19h 57

J’espère que ça ne sera pas QUE pour les campagnes…. j’habite en zone dense mais avec un internet tout pourri (fibre à 100m, 4,5Mb chez moi), ça pourrait être une meilleure solution que le partage de connexion de mon téléphone (50Go ça va vite…)

Le 19/01/2017 à 16h 26







NonMais a écrit :



Remarque c’est bien, les banques vont faire pression sur les sites pour utiliser un moyen de confirmation (SMS par ex, boitier déporté où tu dois saisir ton code PIN après y avoir inséré ta CB etc…) : ce ne sera pas plus mal.







Si ca peut te rassurer c’est déjà le cas depuis bien longtemps : en cas de fraude, si pas de 3D secure, c’est le commerçant qui y est de sa poche, le client est remboursé (le tout sans aucune vérification).



Là il y avait une protection, à partir de ce moment ce sont les banques les responsables, ce qui expliquent qu’elles gueulent….

C’est quand même dommage, le lobby bancaire français à réussi à rendre obligatoire un des systèmes de vérification les plus pourris du monde, ultra chiant et contraignant pour le client (à comparer avec le système anglais tellement plus simple et rapide par exemple), dans le seul but de ne pas avoir à supporter la fraude et ils tombent quand même sur un cas où ils doivent le faire….


Le 11/01/2017 à 17h 46

Bah y a de quoi se poser des questions…. et ils les ont posé à Apple.



Le fait est que je doute qu’ils aient magouillés les options comme des tarés. Leurs protocoles de test sont fait pour tester des PC, le mac book est un PC, les résultats sont comparés avec (beaucoup) d’autres PC d’autres marques.



Les résultats sont cohérents sur tous les modèles sauf sur celui là : tu poses des questions au constructeur, tu ne remets pas en question le test

Le 11/01/2017 à 17h 29







yvan a écrit :



Il a juste beaucoup de mal à articuler logiquement un soutien indéfectible à l’Europe tout en étant indéfectiblement pour la démocratie également.



Il a beaucoup de la mal à articuler politique économique pro capitaliste et protection de l’environnement (voeux pieu tant qu’on vise la croissance).



Il a beaucoup de mal à relayer les positions que ses militants ont choisi collectivement (genre sur le revenu de base) quand lui même n’y croit pas une seconde puisqu’il sait qu’au mieux le PS lui laissera un ou deux ministères…



En dehors de ça il est super cool et gentil oui <img data-src=" />







C’est justement ça qui fait qu’il est crédible….



Le problème de démocratie VS Europe ne devrait pas exister (ce n’est en rien antinomique, c’est juste le fonctionnement actuel de l’Europe qui est problématique, pas le principe) et c’est une position que partage pas mal de monde.



Concernant l’économie c’est bien normal, ou alors il existe un génie qui y est parvenu…. auquel cas qu’il se fasse connaitre. Le problème est global et frappe les populations de plein fouet. A comparer avec les “gros” candidats qui ne parle que de politique éco ou environnementale sans jamais lier les deux. C’est sûr qu’en enlevant des paramètres de l’équation c’est plus simple à résoudre…. mais ça s’appelle de la démagogie.



Je ne partage pas du tout ton point de vue sur son discours concernant le revenu universel. A mon avis, qui n’engage que moi, ses propositions sont les plus crédibles (et logiques) de toutes celles que j’ai entendu.



Après tu peux dire que c’est facile pour lui de prendre des positions en sachant qu’il ne sera pas élu…. je te rétorquerais alors qu’il est facile pour Fillion de prendre des postions de volontarisme professionnel avec objectif plein emploi en ignorant complètement la mutation profonde que subit l’économie avec le numérique et plus encore, demain, avec les robots qui commencent vraiment à investir les entreprises (quand une personne en 2017 fait le travail de 100 en 1997, comment on peut parler de plein emploi en 2020 ?).


Le 11/01/2017 à 10h 44

J’aime bien ce mec. On en entend quasiment pas parler, mais généralement ce qu’il dit est intéressant et plein de bon sens tout en évitant la démagogie.



Tellement loin du discours de ses concurrents….

Le 11/01/2017 à 10h 43

J’aime bien ce mec. On en entend quasiment pas parler, mais généralement ce qu’il dit est intéressant et plein de bon sens tout en évitant la démagogie.



Tellement loin du discours de ses concurrents….

Le 10/01/2017 à 09h 45

Mais personne n’a prétendu que les services et produits commerciaux de google étaient libres.



Ce que je dis c’est qu’ils utilisent de l’open source mais qu’ils en respectent scrupuleusement les règles, notamment en terme de contribution.



De plus ils ouvrent beaucoup des technos qu’ils développent en interne.





J’ai quand même l’impression qu’il y a une grosse confusion… Qu’on tape sur google pour leur politique de vie privée ou fiscale, oui et 100 oui. Qu’on tape dessus pour des raisons techniques c’est déjà plus compliqué à justifier….



C’est loin d’être des saints, et on pourrait même qualifier leur stratégie de services gratuits de vicieuse, oui. Mais techniquement (donc pas leurs produits mais une partie de leurs technos) il n’y a strictement rien à dire…. c’est encore eux qui décident si ils veulent rendre libre une techno ou pas, et si pas comment ils vont l’exploiter (libre à chacun de l’utiliser ou pas).



Donc, à la limite, critiquer google pour son insertion dans la vie privée via leurs produits oui. Taper sur leur politique technique alors que ce qu’ils donnent librement (dans l’espoir de le voir se démocratiser nous sommes d’accord) est exempt de tout reproche (du moins j’attends encore le scandale de la techno libre qui inclut des couches propriétaires et/ou des espions….) je suis déjà moins d’accord.


Le 05/01/2017 à 16h 08







seblutfr a écrit :



il faut comparer ce qui est comparable : MS aussi participe au noyau linux, sans doute de manière aussi intéressée que Google. Ms aussi propose des solutions open source désormais. Mais ils traient un passif très lourd.

Google est aussi très gros parce qu’ils utilisent la position dominante pour mettre en avant leurs autres solutions. Je reste persuadé que Chrome n’aurait pas sa part de marché aujourd’hui sans le forcing majeur à la limite du crapware.

Bref, là où Google te parait nettement plus attrayant, mais je le trouve beaucoup trop gros et clairement effrayant. A la date d’aujourd’hui, entre Google et MS (si je dois choisir entre ces 2 là, pour rester dans la discussion), je choisis directement MS et je fuis Google.







Concernant Chrome le fonctionnement a été pensé comme ça pour forcer l’adoption. Effectivement.



Mais il faut remettre dans le contexte : c’était pour forcer l’abandon d’IE6. A partir de là toute solution était bonne à prendre.


Le 05/01/2017 à 14h 27







Mihashi a écrit :



Non, mais des personnes compétentes et indépendantes peuvent le faire (et ne se privent pas de le faire), alors qu’avec chrome, toute une partie du code n’est pas lisible et peux contenir n’importe quoi.







Dans tes rêves oui. Qui va s’amuser à décortiquer du code ? Si il a été validé il peut s’écouler des années avant que quiconque relise sérieusement un bout particulier. Les failles openSSL le démontre….







Mihashi a écrit :



En terme de vitesse firefox et chrome se valent : score : 2 chacun

Et ne dit pas n’importe quoi, firefox consomme beaucoup moins de mémoire que chrome.







Je ne dois plus parler français….. tu compares la vitesse de rendu du moteur et la vitesse du navigateur…



C’est pas dur à tester pourtant. Tu fais ctrl + u, ctrl + a, tu crées un nouveau fichier texte que tu appelels test.htm et tu l’ouvres simultanément avec chrome et FF sur ton pc.



Donc là chrome va mettre une misere pas possible à firefox parce qu’il s’ouvre plus vite. Ensuite tu fais ctrl + f5 sur les deux pages, et tu verras que chrome va vraiment plus vite. Pas beaucoup mais quand même.



Concernant la mémoire tu n’as pas idée…. fais le test : ferme tes navigateurs et rouvre les avec un seul onglet dans les deux qui pointe vers la même page. Regarde la mémoire. Sur la page courante je suis a 350Mo pour firefox, 50Mo sur chrome. Alors oui j’ai firebug sur FF mais je signale que sur chrome il n’y en a juste pas besoin pour l’usage que j’en ai majoritairement. J’ai très souvent FF qui crash par excès d’usage de RAM, avec des consommations de plusieurs gigas. Jamais eu le problème avec chrome. (et oui j’ai souvent les deux d’ouverts avec des dizaines d’onglets).



Bref, de toutes façons on verra bien ce que donne la maj, en attendant avant de raconter n’importe quoi fais des tests simple (une recherche sur electrolysis peut aider aussi).


Le 05/01/2017 à 13h 48

J’ai souvenir d’un temps où on expliquait que l’open source pouvait être rentable. Google l’a prouvé.



Ils exploitent l’opensource ? Et alors ? C’est fait pour ça ! Ce n’est pas comme si ce n’était pas un des plus gros contributeurs…. Avec des millions de sociétés qui exploitent de l’open source sans en respecter les règles tu viens taper sur google ? C’est parce qu’ils sont gros ou tu es en fait contre l’exploitation commerciale de l’open source ?



Même les technos qu’ils développent en interne ils les ouvrent ! C’était le rêve des libristes d’il y a 15 ans qui avaient pour référence Microsoft, Apple et IBM.



Bien sûr qu’il y ont un intérêt. Ils sont devenus omniprésents grâce à cette stratégie et aujourd’hui bien malin qui peut se passer de google. Ca correspond à leur modèle commercial, oui.



Et alors ? Ce n’est pas comme si il y avait des espions dans les libs qu’ils fournissent…



Et dans la liste des choses qu’ils fournissent commercialement en closed source tu oublies analytics. Mais nous sommes d’accord sur le fait que là ils pompent à mort. Le gros problème c’est que si tout le monde l’utilise c’est surtout et avant tout parce c’est ce qu’il y a de mieux ! Rien, absolument aucune société sur la planète, ne s’approche de la qualité de ce que fait google. Réfléchis 10s et pense à ce que Google a changé pour le monde entier en seulement 15 ans…

Je me souviens que j’utilisais un logiciel microsoft (piraté) dont le nom m’échappe, hors de prix, très limité et lourd pour prévoir mes trajets en voiture. Aujourd’hui non seulement je vois ma position en temps réel, mais je vois les alentours, les points d’intérêt, je peux voir une rue à 10000km de là, le trafique, adapter le calcul de mon parcours quand je le souhaite, localiser ce que je veux….

Et ça c’est point de vue utilisateur uniquement, mais ces technos se retrouvent aussi diffusées commercialement à coût raisonnable (de mémoire si l’on prend map c’est 2500 requêtes gratuite quotidienne puis 0.5€ par block de 1000 requêtes supplémentaires avec si vraiment tu consommes un abonnement raisonnable de quelques dizaines d’euros - dans un autre registre oracle vend son assistant de déploiement et gestion de clusters mysql 10K + abonnement), le tout étant simple à implémenter !



Donc oui il y aurait certainement beaucoup à dire sur les donnés utilisateurs que google possède et ce qu’il en fait. Maintenant je pense que n’importe quel service ayant une telle masse d’utilisateurs se retrouverait confronter au même problème : c’est normal et sain que les entreprises fassent et utilisent des statistiques sur leurs utilisateurs. Les problèmes commencent quand les utilisateurs utilisent tes produits sur tous les aspects de leur vie en continue parce que tu sais tout sur tout le monde si tu as les compétences de les exploiter (ce qui est le cas de google).



Ca n’empêche que techniquement parlant il n’y a rien à dire sur google. Ils n’ont pas besoin de mettre des mouchards dans chrome (et bien malin qui pourra le dire, la différence entre un mouchard et un rapport de plantage est ténue), toi, ton voisin, tes amis, tes ennemis…. tous utilisent les produits commerciaux de google tous les jours sans forcément s’en rendre compte (analytics est devenu une plaie à ce niveau, mais d’un autre côté les sites l’utilise parce que c’est génial)

Le 05/01/2017 à 12h 34







Mihashi a écrit :



Firefox est aussi rapide que chrome.







Non. Loin de là. Firefox mets (nettement) plus de temps à s’ouvrir, à rendre une page (c’est très visible sur les full page cache) et plus de temps à interpréter le javascript.

Le tout en consommant plus de mémoire.



Ca a déjà été dit je crois, mais le fait que pour le moment firefox soit mono thread est un handicap majeur. C’est Mozilla eux même qui parlent de 400 à 700% d’amélioration pour la version multithread.



De toutes façons c’était prévu pour la version 52 ou 53, donc ça ne devrait plus tarder et on verra si ils rattrapent chrome….


Le 05/01/2017 à 12h 11







kyrios123 a écrit :



Une dernière chose, le fait que Google puisse dicter sa loi, lui permet d’implémenter ses nouveaux standards dans son navigateur avant les autres (puisqu’il décide quand passer l’info), ce qui lui donne un avantage. Ce n’est pas rien.



Au niveau des moteurs de rendu, Blink/Webkit est aussi ultra dominant (reste quoi? le moteur de Firefox et de Edge/IE ?), ce qui pose aussi problème comme expliqué dans la vidéo car les dev ne suivent plus les standards mais ce qui a été implémenté pour ces moteurs de rendu!







Euh pas vraiment. Dans les process standards d’évolution des navigateurs, les fonctionnalités sont discutées au WWW, implémentées (ou pas) au choix de l’éditeur mais ne deviennent standard que quand le W3C donne son aval après un temps largement assez long pour que tous les navigateurs aient le temps de l’implémenter.

Le principe d’un standard ce n’est pas de donner des avantages concurrentiels….



Concernant les web components, puisque c’est ce dont il s’agit, c’était supporté par tous les navigateurs quand c’est passé standard. Ce que dit la vidéo c’est que les specs d’implémentation de la fonctionnalité sont crades et que le W3C a été forcé de l’adopter quand même (il n’y a pas de critique de la fonctionnalité elle-même). Mais ce qu’il ne dit pas c’est qu’à cette date tous les navigateurs la supportait et tout le monde comprend très bien que cette fonctionnalité est importante.



Google a un poids suffisant pour accélérer un peu les process de validation du W3C, pas pour faire adopter les standards qu’ils veulent. Microsoft n’y a pas réussi avec 90% de PDM, alors chrome et ces 55%….



Voilà à quoi a du ressembler la discussion :

_Bonjour W3C, comme vous le savez les web components sont une évolution majeure du web via des ajouts et modifications du DOM. Ca fait quelques mois / années que nous testons l’implémentation décrite dans notre document au sein de webkit et elle nous semble prête. Nous aimerions que ce document soit adopté et devienne une norme.

_Euh, ok Google. Par contre votre implémentation ne correspond pas aux critères de qualité habituellement adopté au W3C…

_Oui on sait que ce n’est pas parfait, mais les besoins ne sont plus au stade émergeant mais réels. Notamment nous en avons besoin pour nos applis lourdes. A vous de voir : nous allons continuer à bosser sur cette norme, ou vous l’adoptez telle quelle et nous collaborerons sur les modifications à lui apporter, y compris en terme d’implémentation, au cours des mois / années qui suivent ; ou nous l’utilisons quand même et la ferons évoluer comme bon nous semble. Si vous ne voulez pas que les clients passent tous sur chrome pour pouvoir utiliser les applications google vous devrez de toutes façons l’implémenter dans vos navigateurs. A vous de voir si vous voulez avoir votre mot à dire sur l’évolution ou pas…..



Deux choses importantes dans cette discussion :




  1. Le besoin est réel. La fonctionnalité était en discussion depuis des années. Ce n’est pas un truc sorti du chapeau de google un matin qui a pris tout le monde de court.

  2. La pression se fait plus au niveau de l’usage des apps google qu’au niveau des PDM de chrome. C’est un problème potentiel mais pour l’instant ils n’en ont pas abusé





    Faut bien comprendre aussi que les standards actuels et ceux d’il y a 15 ans n’ont rien à voir, tant du point de vue nombre que fonctionnel ou complexité. Si il y a 15 ans il y avait énormément de lacunes dans les standards ce n’est plus le cas et l’immense majorité des utilisateurs de ces standards (dev JS, intégrateurs, etc…) n’en maitrisent pas plus de 70% (méthode du doigt mouillé, check !). Alors aller implémenter du spécifique….





    Je suis un grand admirateur du W3C et de leur manière de fonctionner. Par contre de temps en temps ils faudrait qu’ils comprennent que leur lenteur peut avoir des conséquences…. C’est pour ça que le WWW s’est formé, et il n’est pas composé que de google…


Le 05/01/2017 à 11h 40

La discussion est purement technique.

Le 05/01/2017 à 01h 46







Reparateur a écrit :



chrome c’est un peut le crapware généralisé







Chrome, Ask, max PC booster, même combat !


Le 09/01/2017 à 18h 17

Adobe c’est des petits joueurs (ils ont une grosse base de clients non pro et/ou indés).



Les prix des vrais logiciels pro est délirant. Dans le même secteur on peut citer 3DsMax à 1500 par an, autocad dans la même gamme de prix.



Et puis après on change de secteur et c’est encore pire. Oracle, IBM, Microsoft… la même chose que les précédents avec un 0 en plus….

Le 07/01/2017 à 15h 58







FNK a écrit :



Ton exemple est le parfait exemple du sophisme !!!



Dans un cas, l’utilisateur est déjà en fraude, dans l’autre non.







Pardon ? Dans les deux cas l’utilisateur a commis 2 fautes : rouler sans permis ET faire un excès de vitesse dans le premier, télécharger illégalement ET ne pas sécuriser sa connexion dans le second.



Dans les deux cas il est attaquable pour les deux.


Le 06/01/2017 à 21h 29







FNK a écrit :



Et je vais te répéter la même  chose jusqu’à ce que tu comprennes …



Le rapport / point commun avec les radars ?!?



D’un coté, Hadopi n’exclut pas des poursuites par les AD

De l’autre l’amende due au radar qui fait cesser toute démarche concernant ton excès de vitesse



= comparaison foireuse !







Bah fais toi flasher en cas de suspension de permis. Le paiement de l’amende ne t’empêchera pas de te faire juger et condamner.



Hadopi c’est pareil : ils te condamnent non pour contrefaçon mais pour défaut de sécurisation facilitant une contrefaçon. SI après tu es effectivement coupable de contrefaçon c’est un autre problème.


Le 05/01/2017 à 18h 03







boogieplayer a écrit :



Normalement par défaut ça devrait en mode liste noire : on refuse tout, c’est l’admin qui ouvre. Et pas l’inverse.







Je ne connais pas les tenants et aboutissants mais quelque chose me dit que c’est plus compliqué que ça…. Par exemple pour mysql tu peux bind une ip qui a les accès, mais une seule. Sinon c’est ouverture pour tout le monde, pour le reste il faut passer par iptables.


Le 05/01/2017 à 00h 07







kortez06 a écrit :



Pour le motion sickness je n’ai pas pu tester de jeux avec un déplacement “direct” , mais que des téléportations. En revanche sur Asseto Corsa rien de ce genre alors que le déplacement est plutôt rapide.



Sinon j’ai vu passer la question : Oui il est possible de regarder des films “Façon Cinema” via l’application Vive Cinema.







En fait tu n’as pas la même sensation selon que ton regard ait un point de repère fixe (genre un cockpit) ou non. Si tu veux vomir un bon coup essaye le mod qui permet de jouer en VR à n’importe quel jeu et lance un FPS. Une autre possibilité c’est d’essayer de modifier le mode de déplacement dans le home hub de steam, on se rend très vite compte du problème….



Et sinon je complète réponse à la question que tu as vu passer. Oui c’est possible mais c’est infame et il vaut mieux regarder sur un écran normal. La définition des casques actuels (les haut de gamme hein) est bien trop faible et ça donne un espèce de filtre “effet mouche” alvéolé en altérant fortement les couleurs et la netteté au passage. Mais ça fait la taille que tu souhaites (de 10% de ton champ de vision à plusieurs fois)