Pour le coeur du débat je pense qu’on s’est effectivement tout dit avec nos points vus, par contre je vois que tu es complètement passé outre mes remarques sur le fait que tu fais souvent dire aux autres des choses qu’ils n’ont pas dit pour les décrédibiliser, j’espère juste que tu évolueras de ce côté parce que c’est vraiment “rageant” de se voir attribuer des propos que l’on a jamais tenu.
Moi j’ai admis comme tu abordais la norme NF C 15-100 j’avais présupposé que tu voulais un déploiement à l’avenir dans les habitations, c’est mon erreur d’interprétation (je suis pas le seul). Par contre toi tu me fais dire des propos que je n’ai pas tenu, même pas des suppositions. C’est plus grave.
Dernier exemple pour la route dans ton dernier commentaire, je te cite “on passe déjà de ‘ça consomme 200 mW’ à ‘ça dépend’” => mon premier message abordant les 200mW était : “ j’ai regardé le premier lien de résultat Google pour des adaptateurs USB certains consomment 200mW”. Si ça c’est pas déformer mes propos que de dire que javais dit “ça consomme forcément 200mW”…
“des économies de plusieurs centaines de Wh” => j’ai dit ça où ? Tu vois c’est désagréable de faire dire à des gens des choses qu’ils n’ont pas dit. Mais bon comme tu dis, tu t’adaptes à la personne donc j’ai du te faire dire des choses que tu n’as pas dit non plus…
“Je te fais juste remarquer que la façon de percevoir des uns ne fait pas une vérité pour les autres” : et on a été plusieurs à juste te faire remarquer que consommer de l’énergie pour 0 utilité c’était dommage, même si ce n’est pas beaucoup. 2 visions différentes.
“Ce que fait chacun chez soi n’est pas de ton ressort” : encore une fois j’ai dit le contraire ? non, et c’est vraiment pas une façon de répondre en me faisant dire des choses et me faire passer pour le débile écolo sur des pouillemmes de watts. Jusqu’à que fry vienne te sauver à aucun moment tu n’as indiqué que tu souhaitais une utilisation ponctuelle en remplacement des adaptateurs qui restent branchés uniquement. Dans l’article tu parles de la norme NF C 15-100 qui n’évolue pas et j’avais l’impression que tu voulais qu’elle évolue pour intégrer des prises USB PD. Je me suis peut être trompé, comme d’autres sur ta vision des choses. Je l’admets mais si on est plusieurs dans ce cas, l’article était peut être pas clair non ? C’est pas toujours la faute des autres :)
“il n’y a aucune régulation, c’est faux : la première en la matière est le coût de l’installation et de son maintien en service” : aucun rapport avec ce que je disais… tu vois encore une fois tu fais exprès de pas comprendre pour me faire passer pour un idiot. Je parle de régulation sur la conso à vide. Comme on en a sur les alim ATX par exemple pour le PFC obligatoire ou les rendements mini. Mais bon encore une fois tu préfères me faire dire que je veux des taxes pour que le finisse au bûcher aux yeux des autres.
Le
12/02/2021 à
07h
50
Si c’est pour combatre d’un côté puis perdre de l’autre à quoi bon ? Actuellement il n’y a aucune régulation (je me trompe ?) et comme le client, si on prends ton cas et ton entourage comme tu l’indiques, ça n’est pas sa priorité ben les constructeurs ne vont peut être pas faire des prises à 30mW à vide (la preuve: apple qui fait des blocs usb qui tiennent la route niveau régulation de charge mais consomment 200mW à vide).
S’il y a des garanties que la conso à vide soit vraiment ridicule et négligeable à l’échelle mondiale, ok sinon tu peux peut être admettre que c’est dommage ou non toujours pas ? D’autres choses consomment plus mais au moins elles ont une utilité en soit alors qu’une prise inoccupée qui consomme c’est parfaitement inutile (cf ton exemple de switch) ?
Petit remarque au passage sur ta façon de répondre :
insister sur 30mW alors que je citais 200mW, c’est ignorer ce que je dis
“cramer de l’énergie” : c’est exactement ça, elle est brûlée avec un rendement de 0 (n’alimente rien d’utile)
“Il faut dire que je n’ai qu’un Bac+2.” : tu insinues que je t’ai pris pour un idiot alors que justement tu sais que ça consomme sans équipement de branché
Pourquoi déformer les propos des gens ou faire semblant de pas comprendre ? Dis moi simplement que pour toi des prises qui consomment des faibles courant ce n’est pas important à ton avis, comme tu le dis c’est ton point de vue et je ne vais pas essayer de le changer. Maintenant laisse moi, de mon côté, penser que c’est important si tout le monde se mets à installer des prises USB PD dans sa maison partout ou ya des prises 220V (c’est peut être là qu’on ne s’est pas compris, tu veux en installer que ponctuellement la ou tu as un chargeur branché en continu ?). Je pense qu’on peut partager 2 avis différents sur la question.
Le
11/02/2021 à
19h
56
On est d’accord :)
Le
11/02/2021 à
19h
26
Tu sais que c’est vexant pour les gens de les prendre pour du jambon tout le temps, le débat initial de Lasout était quune prise PD consomme inutilement, que tu le veuilles ou non c’est le cas, que tes prises de test soient économes peut être, maintenant j’ai regardé le premier lien de résultat Google pour des adaptateurs USB certains consomment 200mW (un des modèles apple) a vide. Donc tu fais la multiplication du nombre de prises a mettre dans un logement et du nombre de logements en France, c’est bien triste de perdre cette énergie.
Maintenant avec tes remarques j’ai que bac+2 et compagnie, même toi qui laisse tes chargeurs branchés je suis persuadé que tu les laisses la ou tu branches tes équipements. Ben dans une maison si tu mets des prises USB PD toutes ne seront pas utilisées, donc forcément des pertes en plus par rapport a brancher un adaptateur.
Bref j’ai bien compris que tu voulais pas admettre que de nos jours partir sur une solution qui crame de l’énergie dans le vide c’est, de mon point de vue et de deux autres personnes ici, dommage.
Le
11/02/2021 à
18h
21
C’est clair que ça va devenir un beau massacre d’énergie si on se mets à mettre des prises USB PD partout dans les habitations… Quoiqu’en dise David ca consomme quelques dixièmes de watts par prise pour strictement rien alors que perso dans mon entourage personne ne laisse des transfo branchés inutilement (pas besoin de bac +5 pour savoir que ça consomme).
Mais bon faut laisser le choix aux gens comme il dit… Après il se plaint des box internet qui consomment 10w en veille, ben ça revient au même que de mettre une bonne brochette de prises PD inutilisées.
Pour l’entretiens du réseau cuivre, je comprends pas trop c’est un appel d’offre auquel Orange a postulé non ? S’ils étaient OK sur les indicateurs à respecter et sur l’argent qu’ils allaient toucher pour faire ce boulot, pourquoi maintenant se plaindre ? Fallait pas se proposer… Si personne ne s’était proposé (je crois que seul Orange avait répondu de mémoire), je suppose que la compensation financière pour l’entretiens du réseau aurait augmentée, mais là Orange a accepté maintenant qu’ils remplissent leur contrat au lieu de pleurer.
Lequel de code source ? Leurs drivers ? Personne ne le fait :/ je suis pas forcément à jour mais l’avantage de Qualcomm c’est que eux font du support dans le temps pour leur drivers, alors que Mediatek c’était pas aussi glorieux.
Tu as raison de dire en diagonale parce que si tu le lis correctement cet article, en FHD avec 1 seule GTX 580 : Wolfeinstein : 112 FPS Mass Effect : 85 FPS DIRT 2 : 110 FPS Stalker : 63FPS BFBC 2 : 82 FPS Civ 5 : CPU limited (précisé par l’auteur), donc aucun intérêt Hawk : 172 FPS Metro 2033 : 42 FPS (enfin un jeu sous les 60 FPS !) Battleforge : 90FPS Crysis Warhead : 57 FPS (oui le jeu mythique qui mettait à genoux tous les PC pendant des années)
Donc sérieux, si tu sais pas lire tes propres sources je peux plus rien pour toi. Tu es vraiment de mauvaise fois.
Sans dire ça méchamment quand on avance des choses d’un ton sûr le mieux est de mettre ses sources, je ne remets pas en cause ce que tu dis mais du coup j’ai pas les mêmes chiffres quand je fais une recherche perso.
Le
07/12/2020 à
14h
35
ForceRouge a dit:
Tu compares des cartes et des contraintes d’il y a 10 ans avec des cartes et des contraintes de maintenant. Y a 10 ans, on parlait à peine de FHD.
Oui c’est bien de ça dont il est question :)
En faite, ton problème, c’est que t’as acheté un écran 4K sans te poser la question de savoir quel prix t’aller devoir mettre dans le GPU. Et malheureusement, bah les contraintes industrielles sont ce qu’elles sont, et un gros GPU (taille physique du die) gravé en 7/8nm pour faire tourner de la 4K, c’est cher, car c’est difficile, c’est aussi simple que ca.
Qui a dit que je n’étais pas au courant quand j’ai acheté mon écran ? Ce que je disait simplement c’est que les GPU ne semblent pas avoir évolués suffisamment par rapport au reste, peut être parce qu’il n’y avait pas de compétition dans le haut de gamme. Bizarrement pour tous les autres composants PC on a pas eu ce problème, faut aussi se poser la question non ? Après les développeurs de jeux peuvent aussi s’adapter tout n’est pas la faute des concepteurs de GPU hein je dis pas ça.
T’aimerais une carte à 1000€ pour 200€. Mais c’est juste pas possible. Si tu veux pas lâcher 1000€ dans une carte graphique, contente toi du FHD et basta.
Ok merci, tu peux presque rajouter “ferme la”, sympathique le débat. A nouveau tu es persuadé que c’est techniquement pas faisable de faire un GPU a 300€ qui saurait faire de la 4K dans les jeux récents, mais je pense de mon côté que s’il y avait plus de concurrence pendant ces 5⁄10 dernières années, on en serait peut être pas là. Il n’y a qu’a voir les évolutions de perf côté CPU avec les générations de Ryzen, les GPU j’ai pas l’impression que ça ai bougé autant.
Et au final, avec ta dernière phrase, je comprends toujours pas ta logique, car tu te plaint, mais tu travail et joue “dans de très bonne conditions” sur ta TV 4K. Il est où le problème?
Oui parce tu me répondais plus haut qu’un écran 4K n’est pas donné et hors de porté pour du gaming, ce qui est faux. C’est le GPU qui va avec qui est cher, pas l’écran. Et donc oui avec des jeux un peu ancien je joue parfaitement bien en 4K avec cet écran.
Quant à la comparaison Ferrari/écran 4K, faut être sérieux 2s… 400€ mon écran, c’est clairement pas du haut de gamme niveau tarif moniteur PC.
Et pour info, Freesync et le DLSS de Nvidia, c’est justement ce qui permet de faire tourner des jeux gourmand dans de bonnes conditions pour compenser le manque de puissance brut.
Sauf que perso le vsync off me dérange pas, quant a DLSS je n’en profiterai pas vu que je veux pas de carte nvidia car driver pas open source sous Linux. Mais oui je comprends ton idée, reste que DLSS n’est pas compatible avec tous les jeux donc ce n’est pas la solution parfaite.
Donc oui, aujourd’hui le confort de jeu ne se base plus uniquement sur la perf brut, mais aussi sur les astuces sur le rendu (ce qui compte au final). Si t’en veux pas, c’est ton choix, mais essaye pas de réinventer l’histoire, les faits sont ce qu’ils sont et t’as beau l’interpréter comme tu veux, ca ne changera pas la vérité.
J’ai pas dit ça. Voir plus haut, freesync j’ai pas la TV compatible mais rien de grave vu que sans vsync ça me va. Pour le reste des techniques j’ai jamais dit que ça m’intéressait pas, c’est juste que tu me parlais qu’il fallait un écran de jeu et un écran de bureautique “pour optimiser”, faudra m’expliquer la logique. Payer 2 écrans (sans compter l’aspect écologique de la chose), s’encombrer de 2 écrans, etc tout ça pour avoir un compatible freesync qui est dans une résolution plus faible (donc au final moins bien) ? Mouai.
Après je pense qu’on peut s’arrêter là, pour toi les prix sont normaux et les GPU ont évolués correctement, j’ai pas le même point de vue mais je cherche pas à te convaincre, tu as peut être raison.
Le
06/12/2020 à
12h
31
On est bien d’accord.
Quand aux réponses de David_L, on également d’accord, il n’y a plus de débat possible avec lui je trouve. Il a un avis sur un sujet, si on est pas du sien ben on a tort point barre, et pas de débat possible c’est toujours expéditif. Je suis vraiment déçu, les articles sont en général intéressant par contre ses réactions dans les commentaires sont très souvent désagréables et gentillement agressives.
Il se plaint de répéter toujours la même chose, mais c’est peut être qu’il n’a pas écouté/compris ce que les gens lui disent, ou qu’il ne détient pas forcément la vérité absolue.
Le
06/12/2020 à
12h
24
On se calme hein, je ne suis pas agressif moi. Donc j’atterris et je prends vos chiffres, 500€ pour une CG haut de gamme de l’époque, la RX 6900 est annoncée a 1000$, les 6800Xt sont presque à 1000€ actuellement mais ok ça n’a pas doublé.
Quant aux écrans 4k pas abordables, j’ai acheté une TV 4K 43” à 400€ samsung ya 1 an, je sais pas ce qu’il vous faut… Trouver un écran de cette taille ya 10ans c’était pas le même prix clairement. Comme je disais, maintenant pour trouver une CG qui permets de jouer en définition native, c’est pas 200€ comme ce que je dépensais il y a 10 ans pour accompagner mon écran.
Ben pas sur ma TV, pourtant on dit que les TV upscale mieux que les écrans PC… C’est baveux crados quand on est pas en résolution native, comme tous les LCD que j’ai croisé jusqu’ici.
Je suis au courant des astuces de mise à l’échelle par la CG mais étant sous Linux et avec une carte AMD, je sais pas si c’est possible de faire pareil que sous Windows. Mais le débat n’est pas là, ce que je voulais dire c’est qu’à l’époque une CG haut de gamme permettait de jouer en résolution native d’un écran “normal” de l’époque, alors que maintenant faut viser le double de budget.
Je te garantie qu’avec ma pauvre TV entrée de gamme Samsung je joue dans de très bonnes conditions. Aucun input lag, contraste top (dalle VA), pas de rémanence. Et pourtant avant j’avais une Sony FHD haut de gamme, clairement la samsung fait mieux. Donc non pas besoin de 2 écrans (m’en fou du freesync et compagnie). J’ai choisi samsung car je sais que l’input lag est correct et que la dalle est bien calibrée.
Le
02/12/2020 à
09h
55
Faut aussi tout remettre dans le contexte de l’époque, à l’époque le Full HD était le max et je dis peut être des bêtises mais je pense qu’on pouvait jouer en Full HD avec une carte haut de gamme de 300€ de l’époque.
Maintenant la 4K est courante (un écran 4K c’est abordable), par contre la CG pour jouer en 4K c’est 600€, soit le double d’il y a 10ans.
J’ai bien compris que tant que les gens sont prêts à payer les sommes actuelles les fabricants seraient idiots de pas faire des produits adaptés à ce segment de prix. Mais on peut aussi admettre que les prix ont flambés pour jouer avec l’écran presque courant de nos jours. J’ai un écran 4K pour travailler, c’est hyper confortable, par contre j’ai pas envi de mettre 600€ pour un GPU pour pouvoir aussi jouer avec, et descendre la résolution sur un LCD on sait ce que ça donne :(
Au risque de répéter les précédents commentaires, sauf si le développeur a eu un accès anticipé aux cartes AMD, ils peuvent pas se permettre se sortir le jeu avec l’option raytracing active pour AMD en espérant qu’il y ai 0 bug. Je suis pas développeur de jeux mais je suis persuadé qu’il y a toujours des petites différences d’implémentation malgré directx qui font qu’ils faut adapter le code. En tout cas, comme dit dans un précédent commentaire par quelqu’un d’autre, je prendrai pas le risque a leur place.
Si vous avez plus d’info pour juger (ils ont bien les cartes depuis longtemps par exemple) alors la on peut dire que c’est de la mauvaise volonté de leur part (pour pas dire autre chose), mais sinon c’est juger sans connaitre la situation je trouve.
Du coup tu parles d’outils en dehors des dépôts des distributions, faut pas s’étonner si effectivement ils font des trucs a l’arrache. Maintenant perso j’ai pas vu de package intégré dans debian qui tourne en root sans bonne raison de le faire.
Comme dit plus haut, les packages sont gérés souvent par des volontaires qui sont là pour le bien de leur distrib, par pour se faire du fric en planquant des mouchards. Sous windows, exécuter des binaires que personne peut contrôler, perso j’ai nettement moins confiance. Après chacun son avis.
Pour avoir une TV Samsung en écran de PC , c’est une entrée de gamme et j’ai 0 pb d’input lag. Comme tu dis, certaines marques y’a pas de souci et Samsung en fait parti, c’est imbattable niveau prix par rapport a la taille d’écran.
Le seul problème comme dis plus haut c’est quon est redevable de la redevance TV alors que j’en ai rien a secouer perso, le câble antenne est même pas branché dessus.
oui et non pour beaucoup d’entreprise le mail est critique et necessite une infrastructure redondante.
regis1 a dit:
Le vrai souci c’est que de nos jours si tu t’appelles pas gmail ou Microsoft, tes mails finissent en spam car ils en ont rien a battre de tes serveurs, même en mettant du spf et dkim. Mais c’est en utilisant leur service que justement on les conforte et on perds la possibilité d’être autonome sur les emails.
actuellement j’ai un serveur postfix avec tous les certificats et enregistrement dns de fait et il n’est considéré comme spam nulle part et il a meme une tres bonne note sur des sites de tests
Je parlai du cas de l’article bien evidemment, pas de linfra d’une societe…
Le
13/11/2020 à
15h
33
occitanie2040 a dit:
une infra mail on premise on commence a environ 100 k€ pour de la haute dispo pour a peu pres 1000 utilisateurs, je te laisse faire le calcul…
Faut comparer ce qui est comparable, là c’est une adresse email. Y’a pas 1000 utilisateurs, si le serveur tombe y’a pas mort d’homme les serveurs SMTP attendront que le serveur revienne pour lui renvoyer les emails en attente (si quelqu’un réponds a cette adresse). Bref ça doit pas coûter très cher a mettre en place.
Le vrai souci c’est que de nos jours si tu t’appelles pas gmail ou Microsoft, tes mails finissent en spam car ils en ont rien a battre de tes serveurs, même en mettant du spf et dkim. Mais c’est en utilisant leur service que justement on les conforte et on perds la possibilité d’être autonome sur les emails.
Cherche pas ça balance tout son argumentaire a la poubelle donc effectivement faut tout miser sur ce qui c’est passé pour Samsung et apple en Italie ne peut pas se produire en France.
« quelques € de plus », c’est la différence entre crever et survivre
« travail normal » = planqué, rentier, socioassisté ou fonctionnaire ?
le système est horizontal (par définition) et les norme évoluent (pas comme certains)
fantaisie extrémiste absurde car hors réalité
c’est le but recherché quand les coûts sociaux sont > aux avantages . .
totale méconnaissance : les boutiques (par ex. Légo) sont des quasi sites Web qui profite de l’infrastructure mutualisée, du sérieux et des garanties de la plateforme
comme si la concurrence n’existait pas ailleurs
suppositions et généralisation abusives . . On pourrait conclure qu’il faut être particulièrement c… pour commenter sur un sujet dont on ignore tout.
Impressionnant la mauvaise foi (je débats pas vu tes réponses c’est pas la peine, je réponds juste pour que fofo9012 se sente moins seul)
Pour utiliser les bouzes de Microsoft quand on a pas le choix sans avoir a passer par windows ca sera peut être pratique (genre teams en web si tu as pas edge le partage d’écran marche pas sur chromium ni firefox).
Je doute quand même que Apple donne gratuitement à DDG l’accès à leur infra/API. Pour Apple, faut qu’ils puissent en tirer des bénéfices.
Google faisait pareil avec Maps et ont eu ce qu’ils voulaient : écraser tous ses concurrents et que tout le monde utilise le service, jusqu’à le faire payer maintenant pour beaucoup d’utilisations (les quota d’appels à l’API maps pour rester gratuit sont maintenant dérisoires par rapport à avant).
Pas possible qu’Apple ai la même ambition vu son concurrent, donc faut qu’ils fassent leur beurre autrement, à voir comment avec DDG vu qu’on a pas clairement l’explication.
Le
13/10/2020 à
14h
04
euh tu as une source pour ça ? parce que pour indiquer à quelqu’un un trajet, faut suivre sa position, donc Apple fait pas de la magie, ils ont ta position.
On pourrait penser qu’ils font comme Osmand par exemple avec un calcul local et les cartes en local, mais y’a qu’a voir le temps de calcul sur osmand pour un gros trajet, je doute qu’apple fasse pareil avec le volume de données à télécharger en local (les cartes) au moment où l’utilisateur demande un “nouveau” trajet. Bref je serai curieux d’en savoir plus.
Au passage, je vois pas l’intérêt de soit disant mettre ce point en avant pour Apple Plan sachant qu’ils siphonnent la localisation des gens ayant un iphone pour mapper la position des réseaux wifi et accélérer le positionnement quand on ne capte pas le GPS (Google fait pareil hein, je ne critique pas qu’apple).
C’est vrai, mais en visant un truc un peu moins identique à ce qu’ils vendent en tant que NAS ça peut aussi te coûter 3 fois moins cher pour plus performant.
Un boîtier micro atx, un CPU ryzen/pentium entrée de gamme + CM + RAM ça va pas coûter très cher. Sans compter que pas mal d’entre nous avons de vieux composants à recycler qui sont souvent meilleurs que les “bouses” intégrés dans les NAS : même un vieux CPU moyen de gamme de 10 ans fera mieux qu’un Atom ou celeron actuel.
Comme dis, clairement c’est pour la partie logicielle qu’on choisis une solution clé en main, le reste est cher payé.
Comme on dit, tout travail mérite salaire. Ça leur a pris du temps de faire ce “remaster”, donc qu’il soit payant c’est pas non plus déconnant.
Le plus moche dans ce remaster c’est que visiblement ils ont repris la version console comme base donc ya des choses qui manquent par rapport à la version PC originale (voir la vidéo de Digital foundry pour les détails). Ça fait mal au coeur que des années après le remaster soit moins bon que l’original sur certains points…
Pour les droits avec le plugin external storage, si on veut pas y toucher sur le FS on peut tricher avec le module fuse bindfs qui permet de remonter le FS en mappant des uid vers d’autres uid, donc ton user linux vers le uid d’Apache ou nginx. Ça évite la galère de gestions des droits, nextcloud y accède comme si c’était toi en local avec ton uid (bon par contre ça veut aussi dire que ton serveur web peut tout faire avec tes fichiers mais c’est presque pareil si tu ajoutes les droits au compte apache/nginx sans bindfs).
Attends que le SSD tombe en rade, tu auras la réponse
Pour une utilisation personnelle, je trouve que le RAID est inutile : ça bouffe de l’espace et ça remplace pas des backup. La probabilité pour une utilisation perso qu’un SSD tombe en rade est faible (ça m’est jamais arrivé perso), vaut mieux pas perdre d’espace et le jour où le SSD tombe en rade, une petite resto depuis des backups et au pire ya 1j d’interruption de “service”.
Au lieu de perdre la moitié ou 1⁄3 de l’espace des SSD (surtout que du coup ça veut dire en prendre au mini 2 ou 3), je trouve ça plus rentable. On a pas tous besoin d’une dispo 24⁄7 99,9999%.
Je confirme qu’en France on y a bien “droit”. Mi 5 sous MIUI 10, pub à l’installation d’application. Ça fait tout “drôle” de voir de la pub sur son tel, on croirait presque qu’il est vérolé… du coup Xiaomi je suis plus trop fan bizarrement.
Je n’ai pas forcément le courage de lire tous les commentaires, mais pour ceux que ça intéresse phoronix a testé les threadripper sous Linux VS Windows et il s’avère que visiblement c’est Windows qui est largué niveau gestion du NUMA/scheduler :
Donc peut etre que d’ici quelques mois on verra le vrai potentiel des threadrippers avec une update de Windows (pour les pingouins c’est déjà bon ^_^)
edit: du coup c’est un peu désolant de voir aucune review noter ce point spécifique. Les TR sont trèès loin devant les intel sauf qu’avec Windows, ben ça se voit pas trop… et c’est un peu débile d’AMD de pas insister sur le fait que windows est un facteur limitant, et de faire des tests sous linux (pour une station de travail c’est pas forcément capilotracté de viser un publique linuxien)
La on parle de localiser les gens grâce aux points d’accès wifi dont ont connaît leur position (sinon le système ne fonctionne pas).
Le
13/08/2018 à
15h
34
Niveau données perso je pense pas que ce soit un problème : depuis quelques versions d’android, l’OS génère une adresse MAC aléatoire tant que tu es pas connectée à un réseau wifi. Donc les points d’accès d’un centre commercial ne pourront pas t’identifier de manière unique. Ils pourront par contre suivre ton cheminement je suppose. Mais si tu reviens le lendemain, ton adresse MAC aura changée donc pas de pistage à ce niveau.
Pour moi ça me semble quand même une sacrée avancée, pouvoir se géolocaliser en intérieur c’est quand même hyper pratique (tant que bien sûr on ne puisse pas nous traquer/identifier).
Pour moi Next inpact c’est mon site de référence dans l’actu numérique. Quand une grosse news sort et que tout le monde en parle, bien souvent elle est survolée/mal expliquée/carrément à moitié fausse car tous les sites se dépêchent de faire leur news pour le côté buzz/preum’s je suppose.
De mon côté, je me régale d’attendre la news Next inpact qui arrive peut être un peu plus tard (parfois même beaucoup ;) mais au moins il y a du vrai contenu avec des recherches et un effort d’explication qu’on ne retrouve pas ailleurs.
Ravi en tout cas que next inpact survive aussi bien jusqu’ici. Bonne continuation !
En même temps windows est tout de même un peu plus utilisé, et surtout par des industries qui ont pas envie de suivre les changements d’humeur de Microsoft toutes les 2s, donc forcément quand Microsoft veut tenter ARM ça se vautre parce que tout le monde veut conserver les 2 milliards de logiciels dispo sous Windows. Et avec le temps, garder la compatibilité Win32 et toutes les autres API qu’a tenté Microsoft depuis, ça arrange pas la légèreté de Windows. Mais j’admire un peu quand même cette rétrocompatibilité qui marchouille depuis des années.
Sous Mac il y a carrément moins de logiciels dispo et c’est aussi vrai qu’Apple contrôle mieux le hardware et le software qui va avec, donc s’ils veulent faire une transition d’archi, c’est plus “facile”.
Mais sinon oui rien ne vaut les logiciels libres, de nos jours, sauf cas très spécifiques, il n’y a pas d’optimisation pour une archi, et même s’il y en a (je suppose pour les soft genre x264/x265 par exemple où ça vaut le coût d’optimiser à mort), il y a toujours un codepath générique portable. Du coup, nouvelle archi == nouvelle recompilation et boom ça roule (je suis sûrement un peu trop optimiste, mais ça doit être pas loin de ça).
Ou alors faut faire à la Android avec des applis java/avec une machine virtuelle, comme ça ça tourne sur n’importe quelle archi si la VM existe. M’enfin niveau perf je suis pas sûr que ce soit top.
Et je ne comprends pas aussi pourquoi OVH n’abandonne pas leur solution pourrie pour simplement proposer du nextcloud rebadgé, niveau fonctionnalité ça serait nettement supérieur (corbeille, chiffrement, appli mobiles top, etc) tout en leur coûtant 0 en dev (ou presque, faudrait sûrement l’adapter quand même un peu à leur infra).
S’ils ne maîtrisent même pas le code intégré à leur application, ils découvriront peut être qu’un autre module quelque part fuitait encore d’autres données personnelles…
Autant j’aime bien l’idée d’une alternative à Google, autant laisser passer des régies publicitaires dans sa propre appli alors que c’est sa raison d’être, ça me dépasse un peu…
C’est pas un problème en soit tant que l’URL a un paramètre à rallonge pour rendre toute devinette de ce paramètre impossible par quelqu’un de mal intentionné (une suite de caractères aléatoires par exemple).
Ça permet au client de ne pas avoir à créer de compte (je ne connais pas ce site, je ne sais pas si c’est pour ça qu’ils ont fait ça comme ça) tout en étant parfaitement sécurisé.
Le problème pour SFR, c’était que le paramètre n’était pas du tout aléatoire je suppose :)
chez moi un bon vieux pentium relativement récent suffit à décoder du h265 en 1080p sans souci. C’est sur qu’il faut fuir les atom mais pas besoin de viser un i5 ou i7 non pu :)
C’est bien corrigé depuis quelques temps, NXi et lesnum s’affichent en version mobile avec FF. Par contre je suis d’accord avec toi, avec un Galaxy S4, FF ça rame pas mal…
C’est pas parce que tu “n’auras jamais de problème avec les impots” que c’est légal ce que tu fais :) c’est pour ça que les autres posent des questions et se renseignent avant de dire “on s’en fou les impôts ne viendront pas nous embêter”, sinon on ne dit jamais rien aux lois qui potentiellement nous toucherons à force d’être resserrées parce qu’à la base “on s’en fou on passe sous le radar”.
83 commentaires
Si l’USB Type-C perce dans l’équipement résidentiel, c’est souvent sans Power Delivery
09/02/2021
Le 12/02/2021 à 11h 01
Pour le coeur du débat je pense qu’on s’est effectivement tout dit avec nos points vus, par contre je vois que tu es complètement passé outre mes remarques sur le fait que tu fais souvent dire aux autres des choses qu’ils n’ont pas dit pour les décrédibiliser, j’espère juste que tu évolueras de ce côté parce que c’est vraiment “rageant” de se voir attribuer des propos que l’on a jamais tenu.
Moi j’ai admis comme tu abordais la norme NF C 15-100 j’avais présupposé que tu voulais un déploiement à l’avenir dans les habitations, c’est mon erreur d’interprétation (je suis pas le seul). Par contre toi tu me fais dire des propos que je n’ai pas tenu, même pas des suppositions. C’est plus grave.
Dernier exemple pour la route dans ton dernier commentaire, je te cite “on passe déjà de ‘ça consomme 200 mW’ à ‘ça dépend’” => mon premier message abordant les 200mW était : “ j’ai regardé le premier lien de résultat Google pour des adaptateurs USB certains consomment 200mW”. Si ça c’est pas déformer mes propos que de dire que javais dit “ça consomme forcément 200mW”…
Le 12/02/2021 à 08h 47
La mienne de source : http://www.righto.com/2012/10/a-dozen-usb-chargers-in-lab-apple-is.html . Le mec à l’air assez calé, et 2 adaptateurs sont sous les 30mW les autres au dessus et parfois de beaucoup.
“des économies de plusieurs centaines de Wh” => j’ai dit ça où ? Tu vois c’est désagréable de faire dire à des gens des choses qu’ils n’ont pas dit. Mais bon comme tu dis, tu t’adaptes à la personne donc j’ai du te faire dire des choses que tu n’as pas dit non plus…
“Je te fais juste remarquer que la façon de percevoir des uns ne fait pas une vérité pour les autres” : et on a été plusieurs à juste te faire remarquer que consommer de l’énergie pour 0 utilité c’était dommage, même si ce n’est pas beaucoup. 2 visions différentes.
“Ce que fait chacun chez soi n’est pas de ton ressort” : encore une fois j’ai dit le contraire ? non, et c’est vraiment pas une façon de répondre en me faisant dire des choses et me faire passer pour le débile écolo sur des pouillemmes de watts. Jusqu’à que fry vienne te sauver à aucun moment tu n’as indiqué que tu souhaitais une utilisation ponctuelle en remplacement des adaptateurs qui restent branchés uniquement. Dans l’article tu parles de la norme NF C 15-100 qui n’évolue pas et j’avais l’impression que tu voulais qu’elle évolue pour intégrer des prises USB PD. Je me suis peut être trompé, comme d’autres sur ta vision des choses. Je l’admets mais si on est plusieurs dans ce cas, l’article était peut être pas clair non ? C’est pas toujours la faute des autres :)
“il n’y a aucune régulation, c’est faux : la première en la matière est le coût de l’installation et de son maintien en service” : aucun rapport avec ce que je disais… tu vois encore une fois tu fais exprès de pas comprendre pour me faire passer pour un idiot. Je parle de régulation sur la conso à vide. Comme on en a sur les alim ATX par exemple pour le PFC obligatoire ou les rendements mini. Mais bon encore une fois tu préfères me faire dire que je veux des taxes pour que le finisse au bûcher aux yeux des autres.
Le 12/02/2021 à 07h 50
Si c’est pour combatre d’un côté puis perdre de l’autre à quoi bon ? Actuellement il n’y a aucune régulation (je me trompe ?) et comme le client, si on prends ton cas et ton entourage comme tu l’indiques, ça n’est pas sa priorité ben les constructeurs ne vont peut être pas faire des prises à 30mW à vide (la preuve: apple qui fait des blocs usb qui tiennent la route niveau régulation de charge mais consomment 200mW à vide).
S’il y a des garanties que la conso à vide soit vraiment ridicule et négligeable à l’échelle mondiale, ok sinon tu peux peut être admettre que c’est dommage ou non toujours pas ? D’autres choses consomment plus mais au moins elles ont une utilité en soit alors qu’une prise inoccupée qui consomme c’est parfaitement inutile (cf ton exemple de switch) ?
Petit remarque au passage sur ta façon de répondre :
Pourquoi déformer les propos des gens ou faire semblant de pas comprendre ? Dis moi simplement que pour toi des prises qui consomment des faibles courant ce n’est pas important à ton avis, comme tu le dis c’est ton point de vue et je ne vais pas essayer de le changer. Maintenant laisse moi, de mon côté, penser que c’est important si tout le monde se mets à installer des prises USB PD dans sa maison partout ou ya des prises 220V (c’est peut être là qu’on ne s’est pas compris, tu veux en installer que ponctuellement la ou tu as un chargeur branché en continu ?). Je pense qu’on peut partager 2 avis différents sur la question.
Le 11/02/2021 à 19h 56
On est d’accord :)
Le 11/02/2021 à 19h 26
Tu sais que c’est vexant pour les gens de les prendre pour du jambon tout le temps, le débat initial de Lasout était quune prise PD consomme inutilement, que tu le veuilles ou non c’est le cas, que tes prises de test soient économes peut être, maintenant j’ai regardé le premier lien de résultat Google pour des adaptateurs USB certains consomment 200mW (un des modèles apple) a vide. Donc tu fais la multiplication du nombre de prises a mettre dans un logement et du nombre de logements en France, c’est bien triste de perdre cette énergie.
Maintenant avec tes remarques j’ai que bac+2 et compagnie, même toi qui laisse tes chargeurs branchés je suis persuadé que tu les laisses la ou tu branches tes équipements. Ben dans une maison si tu mets des prises USB PD toutes ne seront pas utilisées, donc forcément des pertes en plus par rapport a brancher un adaptateur.
Bref j’ai bien compris que tu voulais pas admettre que de nos jours partir sur une solution qui crame de l’énergie dans le vide c’est, de mon point de vue et de deux autres personnes ici, dommage.
Le 11/02/2021 à 18h 21
C’est clair que ça va devenir un beau massacre d’énergie si on se mets à mettre des prises USB PD partout dans les habitations… Quoiqu’en dise David ca consomme quelques dixièmes de watts par prise pour strictement rien alors que perso dans mon entourage personne ne laisse des transfo branchés inutilement (pas besoin de bac +5 pour savoir que ça consomme).
Mais bon faut laisser le choix aux gens comme il dit… Après il se plaint des box internet qui consomment 10w en veille, ben ça revient au même que de mettre une bonne brochette de prises PD inutilisées.
Télécoms : la Commission engage des procédures d’infraction contre 24 États membres, dont la France
05/02/2021
Le 06/02/2021 à 20h 03
Oui du coup pas super utile comme news si tout le monde doit faire sa recherche pour savoir ce qu’il y a a transposer chez nous.
Prix du dégroupage et 5G de Free Mobile : Stéphane Richard à l’attaque
02/02/2021
Le 06/02/2021 à 17h 50
Merci pour ta réponse, je ne savais pas
Le 02/02/2021 à 13h 57
Pour l’entretiens du réseau cuivre, je comprends pas trop c’est un appel d’offre auquel Orange a postulé non ? S’ils étaient OK sur les indicateurs à respecter et sur l’argent qu’ils allaient toucher pour faire ce boulot, pourquoi maintenant se plaindre ? Fallait pas se proposer…
Si personne ne s’était proposé (je crois que seul Orange avait répondu de mémoire), je suppose que la compensation financière pour l’entretiens du réseau aurait augmentée, mais là Orange a accepté maintenant qu’ils remplissent leur contrat au lieu de pleurer.
Google va limiter l’accès à ses API privées de synchronisation
18/01/2021
Le 22/01/2021 à 12h 25
Et pour teams les appels audio fonctionnent ? Le reste ? Chez moi non.
Qualcomm annonce son Snapdragon 870 5G (ou 865+-), MediaTek ses Dimensity 1100/1200
21/01/2021
Le 21/01/2021 à 12h 36
Lequel de code source ? Leurs drivers ? Personne ne le fait :/ je suis pas forcément à jour mais l’avantage de Qualcomm c’est que eux font du support dans le temps pour leur drivers, alors que Mediatek c’était pas aussi glorieux.
GeForce RTX 3060 Ti : une presque RTX 3070, dès 419 euros
01/12/2020
Le 07/12/2020 à 19h 04
Tu as raison de dire en diagonale parce que si tu le lis correctement cet article, en FHD avec 1 seule GTX 580 :
Wolfeinstein : 112 FPS
Mass Effect : 85 FPS
DIRT 2 : 110 FPS
Stalker : 63FPS
BFBC 2 : 82 FPS
Civ 5 : CPU limited (précisé par l’auteur), donc aucun intérêt
Hawk : 172 FPS
Metro 2033 : 42 FPS (enfin un jeu sous les 60 FPS !)
Battleforge : 90FPS
Crysis Warhead : 57 FPS (oui le jeu mythique qui mettait à genoux tous les PC pendant des années)
Donc sérieux, si tu sais pas lire tes propres sources je peux plus rien pour toi. Tu es vraiment de mauvaise fois.
Le 07/12/2020 à 14h 44
D’après ce test ça n’a pas l’air d’être le cas, une seule GTX580 suffit pour jouer souvent à plus de 60fps en FHD :
https://www.anandtech.com/show/4008/nvidias-geforce-gtx-580⁄15
Sans dire ça méchamment quand on avance des choses d’un ton sûr le mieux est de mettre ses sources, je ne remets pas en cause ce que tu dis mais du coup j’ai pas les mêmes chiffres quand je fais une recherche perso.
Le 07/12/2020 à 14h 35
Oui c’est bien de ça dont il est question :)
Qui a dit que je n’étais pas au courant quand j’ai acheté mon écran ? Ce que je disait simplement c’est que les GPU ne semblent pas avoir évolués suffisamment par rapport au reste, peut être parce qu’il n’y avait pas de compétition dans le haut de gamme. Bizarrement pour tous les autres composants PC on a pas eu ce problème, faut aussi se poser la question non ? Après les développeurs de jeux peuvent aussi s’adapter tout n’est pas la faute des concepteurs de GPU hein je dis pas ça.
Ok merci, tu peux presque rajouter “ferme la”, sympathique le débat. A nouveau tu es persuadé que c’est techniquement pas faisable de faire un GPU a 300€ qui saurait faire de la 4K dans les jeux récents, mais je pense de mon côté que s’il y avait plus de concurrence pendant ces 5⁄10 dernières années, on en serait peut être pas là. Il n’y a qu’a voir les évolutions de perf côté CPU avec les générations de Ryzen, les GPU j’ai pas l’impression que ça ai bougé autant.
Oui parce tu me répondais plus haut qu’un écran 4K n’est pas donné et hors de porté pour du gaming, ce qui est faux. C’est le GPU qui va avec qui est cher, pas l’écran. Et donc oui avec des jeux un peu ancien je joue parfaitement bien en 4K avec cet écran.
Quant à la comparaison Ferrari/écran 4K, faut être sérieux 2s… 400€ mon écran, c’est clairement pas du haut de gamme niveau tarif moniteur PC.
Sauf que perso le vsync off me dérange pas, quant a DLSS je n’en profiterai pas vu que je veux pas de carte nvidia car driver pas open source sous Linux. Mais oui je comprends ton idée, reste que DLSS n’est pas compatible avec tous les jeux donc ce n’est pas la solution parfaite.
J’ai pas dit ça. Voir plus haut, freesync j’ai pas la TV compatible mais rien de grave vu que sans vsync ça me va. Pour le reste des techniques j’ai jamais dit que ça m’intéressait pas, c’est juste que tu me parlais qu’il fallait un écran de jeu et un écran de bureautique “pour optimiser”, faudra m’expliquer la logique. Payer 2 écrans (sans compter l’aspect écologique de la chose), s’encombrer de 2 écrans, etc tout ça pour avoir un compatible freesync qui est dans une résolution plus faible (donc au final moins bien) ? Mouai.
Après je pense qu’on peut s’arrêter là, pour toi les prix sont normaux et les GPU ont évolués correctement, j’ai pas le même point de vue mais je cherche pas à te convaincre, tu as peut être raison.
Le 06/12/2020 à 12h 31
On est bien d’accord.
Quand aux réponses de David_L, on également d’accord, il n’y a plus de débat possible avec lui je trouve. Il a un avis sur un sujet, si on est pas du sien ben on a tort point barre, et pas de débat possible c’est toujours expéditif. Je suis vraiment déçu, les articles sont en général intéressant par contre ses réactions dans les commentaires sont très souvent désagréables et gentillement agressives.
Il se plaint de répéter toujours la même chose, mais c’est peut être qu’il n’a pas écouté/compris ce que les gens lui disent, ou qu’il ne détient pas forcément la vérité absolue.
Le 06/12/2020 à 12h 24
On se calme hein, je ne suis pas agressif moi. Donc j’atterris et je prends vos chiffres, 500€ pour une CG haut de gamme de l’époque, la RX 6900 est annoncée a 1000$, les 6800Xt sont presque à 1000€ actuellement mais ok ça n’a pas doublé.
Quant aux écrans 4k pas abordables, j’ai acheté une TV 4K 43” à 400€ samsung ya 1 an, je sais pas ce qu’il vous faut… Trouver un écran de cette taille ya 10ans c’était pas le même prix clairement. Comme je disais, maintenant pour trouver une CG qui permets de jouer en définition native, c’est pas 200€ comme ce que je dépensais il y a 10 ans pour accompagner mon écran.
Ben pas sur ma TV, pourtant on dit que les TV upscale mieux que les écrans PC… C’est baveux crados quand on est pas en résolution native, comme tous les LCD que j’ai croisé jusqu’ici.
Je suis au courant des astuces de mise à l’échelle par la CG mais étant sous Linux et avec une carte AMD, je sais pas si c’est possible de faire pareil que sous Windows. Mais le débat n’est pas là, ce que je voulais dire c’est qu’à l’époque une CG haut de gamme permettait de jouer en résolution native d’un écran “normal” de l’époque, alors que maintenant faut viser le double de budget.
Je te garantie qu’avec ma pauvre TV entrée de gamme Samsung je joue dans de très bonnes conditions. Aucun input lag, contraste top (dalle VA), pas de rémanence. Et pourtant avant j’avais une Sony FHD haut de gamme, clairement la samsung fait mieux. Donc non pas besoin de 2 écrans (m’en fou du freesync et compagnie). J’ai choisi samsung car je sais que l’input lag est correct et que la dalle est bien calibrée.
Le 02/12/2020 à 09h 55
Faut aussi tout remettre dans le contexte de l’époque, à l’époque le Full HD était le max et je dis peut être des bêtises mais je pense qu’on pouvait jouer en Full HD avec une carte haut de gamme de 300€ de l’époque.
Maintenant la 4K est courante (un écran 4K c’est abordable), par contre la CG pour jouer en 4K c’est 600€, soit le double d’il y a 10ans.
J’ai bien compris que tant que les gens sont prêts à payer les sommes actuelles les fabricants seraient idiots de pas faire des produits adaptés à ce segment de prix. Mais on peut aussi admettre que les prix ont flambés pour jouer avec l’écran presque courant de nos jours. J’ai un écran 4K pour travailler, c’est hyper confortable, par contre j’ai pas envi de mettre 600€ pour un GPU pour pouvoir aussi jouer avec, et descendre la résolution sur un LCD on sait ce que ça donne :(
B&You (sans engagement) : 130 Go de 5G pour 24,99 euros par mois, une option 5G pour les anciens clients
01/12/2020
Le 02/12/2020 à 11h 46
Reste a trouver une zone 5G sans fibre
Palantir flambe à Wall Street :+ 53 % en une semaine
27/11/2020
Le 29/11/2020 à 20h 19
Merci, on est bien d’accord…
Malgré DirectX, le ray tracing de CyberPunk 2077 et Godfall tarde à se standardiser
23/11/2020
Le 28/11/2020 à 17h 54
Au risque de répéter les précédents commentaires, sauf si le développeur a eu un accès anticipé aux cartes AMD, ils peuvent pas se permettre se sortir le jeu avec l’option raytracing active pour AMD en espérant qu’il y ai 0 bug. Je suis pas développeur de jeux mais je suis persuadé qu’il y a toujours des petites différences d’implémentation malgré directx qui font qu’ils faut adapter le code. En tout cas, comme dit dans un précédent commentaire par quelqu’un d’autre, je prendrai pas le risque a leur place.
Si vous avez plus d’info pour juger (ils ont bien les cartes depuis longtemps par exemple) alors la on peut dire que c’est de la mauvaise volonté de leur part (pour pas dire autre chose), mais sinon c’est juger sans connaitre la situation je trouve.
Playstation 5 : les stocks sont vite partis, des sites d’ecommerce sont tombés… y compris Amazon
20/11/2020
Le 22/11/2020 à 17h 05
Quel rapport entre le catalogue et la fin de vie ? Il a pas tort, nouvelle génération = ancienne qui est délaissée assez rapidement.
macOS Big Sur : les applications d’Apple outrepassent les VPN et pare-feux
19/11/2020
Le 22/11/2020 à 16h 47
Du coup tu parles d’outils en dehors des dépôts des distributions, faut pas s’étonner si effectivement ils font des trucs a l’arrache.
Maintenant perso j’ai pas vu de package intégré dans debian qui tourne en root sans bonne raison de le faire.
Comme dit plus haut, les packages sont gérés souvent par des volontaires qui sont là pour le bien de leur distrib, par pour se faire du fric en planquant des mouchards. Sous windows, exécuter des binaires que personne peut contrôler, perso j’ai nettement moins confiance. Après chacun son avis.
Smart Monitor et Console Mode : Samsung et MSI adaptent leurs écrans au salon
16/11/2020
Le 17/11/2020 à 11h 10
Pour avoir une TV Samsung en écran de PC , c’est une entrée de gamme et j’ai 0 pb d’input lag. Comme tu dis, certaines marques y’a pas de souci et Samsung en fait parti, c’est imbattable niveau prix par rapport a la taille d’écran.
Le seul problème comme dis plus haut c’est quon est redevable de la redevance TV alors que j’en ai rien a secouer perso, le câble antenne est même pas branché dessus.
Pourquoi l’État-major des Armées est autorisé à utiliser Gmail
12/11/2020
Le 16/11/2020 à 12h 24
Je parlai du cas de l’article bien evidemment, pas de linfra d’une societe…
Le 13/11/2020 à 15h 33
Faut comparer ce qui est comparable, là c’est une adresse email. Y’a pas 1000 utilisateurs, si le serveur tombe y’a pas mort d’homme les serveurs SMTP attendront que le serveur revienne pour lui renvoyer les emails en attente (si quelqu’un réponds a cette adresse). Bref ça doit pas coûter très cher a mettre en place.
Le vrai souci c’est que de nos jours si tu t’appelles pas gmail ou Microsoft, tes mails finissent en spam car ils en ont rien a battre de tes serveurs, même en mettant du spf et dkim. Mais c’est en utilisant leur service que justement on les conforte et on perds la possibilité d’être autonome sur les emails.
OnePlus Nord 10 5G et N100 : une seule « mise à jour majeure d’Android »
12/11/2020
Le 13/11/2020 à 16h 48
Cherche pas ça balance tout son argumentaire a la poubelle donc effectivement faut tout miser sur ce qui c’est passé pour Samsung et apple en Italie ne peut pas se produire en France.
Amazon accusée par la Commission européenne d’infractions aux règles concurrentielles
12/11/2020
Le 13/11/2020 à 16h 29
Impressionnant la mauvaise foi (je débats pas vu tes réponses c’est pas la peine, je réponds juste pour que fofo9012 se sente moins seul)
Charge sans fil ultra-rapide : Xiaomi grimpe à 80 watts, 4000 mAh en 20 minutes
21/10/2020
Le 21/10/2020 à 16h 18
On peut pas calculer comme ça, comme dit dans l’article la puissance de charge se réduit en fin de charge donc on est plus a 80w.
Le nouveau Microsoft Edge installé par défaut sous Windows 10 20H2, disponible sous Linux
21/10/2020
Le 21/10/2020 à 10h 31
Pour utiliser les bouzes de Microsoft quand on a pas le choix sans avoir a passer par windows ca sera peut être pratique (genre teams en web si tu as pas edge le partage d’écran marche pas sur chromium ni firefox).
DuckDuckGo propose des itinéraires pour piétons et voitures, toujours via Apple Plans
12/10/2020
Le 13/10/2020 à 14h 09
Je doute quand même que Apple donne gratuitement à DDG l’accès à leur infra/API. Pour Apple, faut qu’ils puissent en tirer des bénéfices.
Google faisait pareil avec Maps et ont eu ce qu’ils voulaient : écraser tous ses concurrents et que tout le monde utilise le service, jusqu’à le faire payer maintenant pour beaucoup d’utilisations (les quota d’appels à l’API maps pour rester gratuit sont maintenant dérisoires par rapport à avant).
Pas possible qu’Apple ai la même ambition vu son concurrent, donc faut qu’ils fassent leur beurre autrement, à voir comment avec DDG vu qu’on a pas clairement l’explication.
Le 13/10/2020 à 14h 04
euh tu as une source pour ça ? parce que pour indiquer à quelqu’un un trajet, faut suivre sa position, donc Apple fait pas de la magie, ils ont ta position.
On pourrait penser qu’ils font comme Osmand par exemple avec un calcul local et les cartes en local, mais y’a qu’a voir le temps de calcul sur osmand pour un gros trajet, je doute qu’apple fasse pareil avec le volume de données à télécharger en local (les cartes) au moment où l’utilisateur demande un “nouveau” trajet. Bref je serai curieux d’en savoir plus.
Au passage, je vois pas l’intérêt de soit disant mettre ce point en avant pour Apple Plan sachant qu’ils siphonnent la localisation des gens ayant un iphone pour mapper la position des réseaux wifi et accélérer le positionnement quand on ne capte pas le GPS (Google fait pareil hein, je ne critique pas qu’apple).
Synology DS1520+ : Synology mise sur le cache SSD… au détriment du reste
12/10/2020
Le 13/10/2020 à 13h 17
C’est vrai, mais en visant un truc un peu moins identique à ce qu’ils vendent en tant que NAS ça peut aussi te coûter 3 fois moins cher pour plus performant.
Un boîtier micro atx, un CPU ryzen/pentium entrée de gamme + CM + RAM ça va pas coûter très cher. Sans compter que pas mal d’entre nous avons de vieux composants à recycler qui sont souvent meilleurs que les “bouses” intégrés dans les NAS : même un vieux CPU moyen de gamme de 10 ans fera mieux qu’un Atom ou celeron actuel.
Comme dis, clairement c’est pour la partie logicielle qu’on choisis une solution clé en main, le reste est cher payé.
Crysis Remastered tente de corriger ses défauts
05/10/2020
Le 08/10/2020 à 09h 41
Comme on dit, tout travail mérite salaire. Ça leur a pris du temps de faire ce “remaster”, donc qu’il soit payant c’est pas non plus déconnant.
Le plus moche dans ce remaster c’est que visiblement ils ont repris la version console comme base donc ya des choses qui manquent par rapport à la version PC originale (voir la vidéo de Digital foundry pour les détails). Ça fait mal au coeur que des années après le remaster soit moins bon que l’original sur certains points…
Le ministère de l’Intérieur migre sur la solution libre Nextcloud
27/08/2019
Le 28/08/2019 à 06h 14
Pour les droits avec le plugin external storage, si on veut pas y toucher sur le FS on peut tricher avec le module fuse bindfs qui permet de remonter le FS en mappant des uid vers d’autres uid, donc ton user linux vers le uid d’Apache ou nginx. Ça évite la galère de gestions des droits, nextcloud y accède comme si c’était toi en local avec ton uid (bon par contre ça veut aussi dire que ton serveur web peut tout faire avec tes fichiers mais c’est presque pareil si tu ajoutes les droits au compte apache/nginx sans bindfs).
Proxmox VE 6.0 est disponible : Debian 10, Kernel 5.0, QEMU 4.0 et autres nouveautés
16/07/2019
Le 18/07/2019 à 11h 58
Pour une utilisation personnelle, je trouve que le RAID est inutile : ça bouffe de l’espace et ça remplace pas des backup. La probabilité pour une utilisation perso qu’un SSD tombe en rade est faible (ça m’est jamais arrivé perso), vaut mieux pas perdre d’espace et le jour où le SSD tombe en rade, une petite resto depuis des backups et au pire ya 1j d’interruption de “service”.
Au lieu de perdre la moitié ou 1⁄3 de l’espace des SSD (surtout que du coup ça veut dire en prendre au mini 2 ou 3), je trouve ça plus rentable. On a pas tous besoin d’une dispo 24⁄7 99,9999%.
Publicité dans son interface MIUI : Xiaomi assume et tempère
20/09/2018
Le 27/09/2018 à 13h 43
Je confirme qu’en France on y a bien “droit”. Mi 5 sous MIUI 10, pub à l’installation d’application. Ça fait tout “drôle” de voir de la pub sur son tel, on croirait presque qu’il est vérolé… du coup Xiaomi je suis plus trop fan bizarrement.
Threadripper 2950X/2990WX : comment AMD veut annihiler Intel dans les stations de travail
13/08/2018
Le 17/08/2018 à 16h 07
Je n’ai pas forcément le courage de lire tous les commentaires, mais pour ceux que ça intéresse phoronix a testé les threadripper sous Linux VS Windows et il s’avère que visiblement c’est Windows qui est largué niveau gestion du NUMA/scheduler :
https://www.phoronix.com/scan.php?page=article&item=windows-server-2990w…
Donc peut etre que d’ici quelques mois on verra le vrai potentiel des threadrippers avec une update de Windows (pour les pingouins c’est déjà bon ^_^)
edit: du coup c’est un peu désolant de voir aucune review noter ce point spécifique. Les TR sont trèès loin devant les intel sauf qu’avec Windows, ben ça se voit pas trop… et c’est un peu débile d’AMD de pas insister sur le fait que windows est un facteur limitant, et de faire des tests sous linux (pour une station de travail c’est pas forcément capilotracté de viser un publique linuxien)
Géolocalisation : focus sur le Wi-Fi RTT (802.11mc), pris en charge par Android 9 Pie
13/08/2018
Le 13/08/2018 à 15h 36
Le rapport avec l’actu ? ;-)
La on parle de localiser les gens grâce aux points d’accès wifi dont ont connaît leur position (sinon le système ne fonctionne pas).
Le 13/08/2018 à 15h 34
Niveau données perso je pense pas que ce soit un problème : depuis quelques versions d’android, l’OS génère une adresse MAC aléatoire tant que tu es pas connectée à un réseau wifi. Donc les points d’accès d’un centre commercial ne pourront pas t’identifier de manière unique. Ils pourront par contre suivre ton cheminement je suppose. Mais si tu reviens le lendemain, ton adresse MAC aura changée donc pas de pistage à ce niveau.
Pour moi ça me semble quand même une sacrée avancée, pouvoir se géolocaliser en intérieur c’est quand même hyper pratique (tant que bien sûr on ne puisse pas nous traquer/identifier).
Concours des 15 ans : il vous reste jusqu’à demain soir pour participer et tenter votre chance
13/07/2018
Le 05/07/2018 à 16h 45
Pour moi Next inpact c’est mon site de référence dans l’actu numérique. Quand une grosse news sort et que tout le monde en parle, bien souvent elle est survolée/mal expliquée/carrément à moitié fausse car tous les sites se dépêchent de faire leur news pour le côté buzz/preum’s je suppose.
De mon côté, je me régale d’attendre la news Next inpact qui arrive peut être un peu plus tard (parfois même beaucoup ;) mais au moins il y a du vrai contenu avec des recherches et un effort d’explication qu’on ne retrouve pas ailleurs.
Ravi en tout cas que next inpact survive aussi bien jusqu’ici. Bonne continuation !
Apple : nouvelles rumeurs autour de l’utilisation de puces maison plutôt qu’Intel dans les Mac
03/04/2018
Le 07/04/2018 à 10h 28
En même temps windows est tout de même un peu plus utilisé, et surtout par des industries qui ont pas envie de suivre les changements d’humeur de Microsoft toutes les 2s, donc forcément quand Microsoft veut tenter ARM ça se vautre parce que tout le monde veut conserver les 2 milliards de logiciels dispo sous Windows. Et avec le temps, garder la compatibilité Win32 et toutes les autres API qu’a tenté Microsoft depuis, ça arrange pas la légèreté de Windows. Mais j’admire un peu quand même cette rétrocompatibilité qui marchouille depuis des années.
Sous Mac il y a carrément moins de logiciels dispo et c’est aussi vrai qu’Apple contrôle mieux le hardware et le software qui va avec, donc s’ils veulent faire une transition d’archi, c’est plus “facile”.
Mais sinon oui rien ne vaut les logiciels libres, de nos jours, sauf cas très spécifiques, il n’y a pas d’optimisation pour une archi, et même s’il y en a (je suppose pour les soft genre x264/x265 par exemple où ça vaut le coût d’optimiser à mort), il y a toujours un codepath générique portable. Du coup, nouvelle archi == nouvelle recompilation et boom ça roule (je suis sûrement un peu trop optimiste, mais ça doit être pas loin de ça).
Ou alors faut faire à la Android avec des applis java/avec une machine virtuelle, comme ça ça tourne sur n’importe quelle archi si la VM existe. M’enfin niveau perf je suis pas sûr que ce soit top.
Face à ses concurrents, Hubic a bien peu d’arguments
22/02/2018
Le 27/02/2018 à 09h 22
Pareil, je serai intéressé pour comparer.
Et je ne comprends pas aussi pourquoi OVH n’abandonne pas leur solution pourrie pour simplement proposer du nextcloud rebadgé, niveau fonctionnalité ça serait nettement supérieur (corbeille, chiffrement, appli mobiles top, etc) tout en leur coûtant 0 en dev (ou presque, faudrait sûrement l’adapter quand même un peu à leur infra).
La piste de la suspension du permis de conduire pour ceux qui téléphonent au volant
09/01/2018
Le 14/01/2018 à 20h 13
(Rien finalement)
Google Maps Go sur le Play Store… mais seulement pour les modèles Go
15/12/2017
Le 18/12/2017 à 10h 25
Nan c’est pareil chez moi, sur un Galaxy S4 ça rame régulièrement, j’attends quelques secondes des fois avant de pouvoir faire une action…
Qwant se débarrasse de mouchards dans ses applications Android et iOS
27/11/2017
Le 27/11/2017 à 10h 30
S’ils ne maîtrisent même pas le code intégré à leur application, ils découvriront peut être qu’un autre module quelque part fuitait encore d’autres données personnelles…
Autant j’aime bien l’idée d’une alternative à Google, autant laisser passer des régies publicitaires dans sa propre appli alors que c’est sa raison d’être, ça me dépasse un peu…
Quand une faille chez SFR permettait à un client d’accéder aux factures d’autres abonnés
03/03/2017
Le 05/03/2017 à 17h 20
C’est pas un problème en soit tant que l’URL a un paramètre à rallonge pour rendre toute devinette de ce paramètre impossible par quelqu’un de mal intentionné (une suite de caractères aléatoires par exemple).
Ça permet au client de ne pas avoir à créer de compte (je ne connais pas ce site, je ne sais pas si c’est pour ça qu’ils ont fait ça comme ça) tout en étant parfaitement sécurisé.
Le problème pour SFR, c’était que le paramètre n’était pas du tout aléatoire je suppose :)
Kodi 17 disponible en version finale, des nightlies pour Kodi 18 (Leia)
03/02/2017
Le 05/02/2017 à 21h 41
chez moi un bon vieux pentium relativement récent suffit à décoder du h265 en 1080p sans souci. C’est sur qu’il faut fuir les atom mais pas besoin de viser un i5 ou i7 non pu :)
Dès janvier, les entreprises pourront dénoncer sur Internet les excès de vitesse de leurs salariés
22/12/2016
Le 22/12/2016 à 16h 31
Opera pour Android révise entièrement son interface
26/09/2016
Le 27/09/2016 à 15h 27
C’est bien corrigé depuis quelques temps, NXi et lesnum s’affichent en version mobile avec FF. Par contre je suis d’accord avec toi, avec un Galaxy S4, FF ça rame pas mal…
Airbnb, eBay,… Les plateformes devront bientôt envoyer un récapitulatif de transactions
03/08/2016
Le 04/08/2016 à 15h 56
C’est pas parce que tu “n’auras jamais de problème avec les impots” que c’est légal ce que tu fais :) c’est pour ça que les autres posent des questions et se renseignent avant de dire “on s’en fou les impôts ne viendront pas nous embêter”, sinon on ne dit jamais rien aux lois qui potentiellement nous toucherons à force d’être resserrées parce qu’à la base “on s’en fou on passe sous le radar”.