votre avatar

regis1

est avec nous depuis le 8 décembre 2004 ❤️

83 commentaires

Le 12/02/2021 à 11h 01

Pour le coeur du débat je pense qu’on s’est effectivement tout dit avec nos points vus, par contre je vois que tu es complètement passé outre mes remarques sur le fait que tu fais souvent dire aux autres des choses qu’ils n’ont pas dit pour les décrédibiliser, j’espère juste que tu évolueras de ce côté parce que c’est vraiment “rageant” de se voir attribuer des propos que l’on a jamais tenu.



Moi j’ai admis comme tu abordais la norme NF C 15-100 j’avais présupposé que tu voulais un déploiement à l’avenir dans les habitations, c’est mon erreur d’interprétation (je suis pas le seul). Par contre toi tu me fais dire des propos que je n’ai pas tenu, même pas des suppositions. C’est plus grave.



Dernier exemple pour la route dans ton dernier commentaire, je te cite “on passe déjà de ‘ça consomme 200 mW’ à ‘ça dépend’” => mon premier message abordant les 200mW était : “ j’ai regardé le premier lien de résultat Google pour des adaptateurs USB certains consomment 200mW”. Si ça c’est pas déformer mes propos que de dire que javais dit “ça consomme forcément 200mW”…

Le 12/02/2021 à 08h 47

La mienne de source : http://www.righto.com/2012/10/a-dozen-usb-chargers-in-lab-apple-is.html . Le mec à l’air assez calé, et 2 adaptateurs sont sous les 30mW les autres au dessus et parfois de beaucoup.



“des économies de plusieurs centaines de Wh” => j’ai dit ça où ? Tu vois c’est désagréable de faire dire à des gens des choses qu’ils n’ont pas dit. Mais bon comme tu dis, tu t’adaptes à la personne donc j’ai du te faire dire des choses que tu n’as pas dit non plus…



“Je te fais juste remarquer que la façon de percevoir des uns ne fait pas une vérité pour les autres” : et on a été plusieurs à juste te faire remarquer que consommer de l’énergie pour 0 utilité c’était dommage, même si ce n’est pas beaucoup. 2 visions différentes.



“Ce que fait chacun chez soi n’est pas de ton ressort” : encore une fois j’ai dit le contraire ? non, et c’est vraiment pas une façon de répondre en me faisant dire des choses et me faire passer pour le débile écolo sur des pouillemmes de watts. Jusqu’à que fry vienne te sauver à aucun moment tu n’as indiqué que tu souhaitais une utilisation ponctuelle en remplacement des adaptateurs qui restent branchés uniquement. Dans l’article tu parles de la norme NF C 15-100 qui n’évolue pas et j’avais l’impression que tu voulais qu’elle évolue pour intégrer des prises USB PD. Je me suis peut être trompé, comme d’autres sur ta vision des choses. Je l’admets mais si on est plusieurs dans ce cas, l’article était peut être pas clair non ? C’est pas toujours la faute des autres :)



“il n’y a aucune régulation, c’est faux : la première en la matière est le coût de l’installation et de son maintien en service” : aucun rapport avec ce que je disais… tu vois encore une fois tu fais exprès de pas comprendre pour me faire passer pour un idiot. Je parle de régulation sur la conso à vide. Comme on en a sur les alim ATX par exemple pour le PFC obligatoire ou les rendements mini. Mais bon encore une fois tu préfères me faire dire que je veux des taxes pour que le finisse au bûcher aux yeux des autres.

Le 12/02/2021 à 07h 50

Si c’est pour combatre d’un côté puis perdre de l’autre à quoi bon ? Actuellement il n’y a aucune régulation (je me trompe ?) et comme le client, si on prends ton cas et ton entourage comme tu l’indiques, ça n’est pas sa priorité ben les constructeurs ne vont peut être pas faire des prises à 30mW à vide (la preuve: apple qui fait des blocs usb qui tiennent la route niveau régulation de charge mais consomment 200mW à vide).



S’il y a des garanties que la conso à vide soit vraiment ridicule et négligeable à l’échelle mondiale, ok sinon tu peux peut être admettre que c’est dommage ou non toujours pas ? D’autres choses consomment plus mais au moins elles ont une utilité en soit alors qu’une prise inoccupée qui consomme c’est parfaitement inutile (cf ton exemple de switch) ?



Petit remarque au passage sur ta façon de répondre :




  • insister sur 30mW alors que je citais 200mW, c’est ignorer ce que je dis

  • “cramer de l’énergie” : c’est exactement ça, elle est brûlée avec un rendement de 0 (n’alimente rien d’utile)

  • “Il faut dire que je n’ai qu’un Bac+2.” : tu insinues que je t’ai pris pour un idiot alors que justement tu sais que ça consomme sans équipement de branché



Pourquoi déformer les propos des gens ou faire semblant de pas comprendre ? Dis moi simplement que pour toi des prises qui consomment des faibles courant ce n’est pas important à ton avis, comme tu le dis c’est ton point de vue et je ne vais pas essayer de le changer. Maintenant laisse moi, de mon côté, penser que c’est important si tout le monde se mets à installer des prises USB PD dans sa maison partout ou ya des prises 220V (c’est peut être là qu’on ne s’est pas compris, tu veux en installer que ponctuellement la ou tu as un chargeur branché en continu ?). Je pense qu’on peut partager 2 avis différents sur la question.

Le 11/02/2021 à 19h 56

On est d’accord :)

Le 11/02/2021 à 19h 26

Tu sais que c’est vexant pour les gens de les prendre pour du jambon tout le temps, le débat initial de Lasout était quune prise PD consomme inutilement, que tu le veuilles ou non c’est le cas, que tes prises de test soient économes peut être, maintenant j’ai regardé le premier lien de résultat Google pour des adaptateurs USB certains consomment 200mW (un des modèles apple) a vide. Donc tu fais la multiplication du nombre de prises a mettre dans un logement et du nombre de logements en France, c’est bien triste de perdre cette énergie.



Maintenant avec tes remarques j’ai que bac+2 et compagnie, même toi qui laisse tes chargeurs branchés je suis persuadé que tu les laisses la ou tu branches tes équipements. Ben dans une maison si tu mets des prises USB PD toutes ne seront pas utilisées, donc forcément des pertes en plus par rapport a brancher un adaptateur.



Bref j’ai bien compris que tu voulais pas admettre que de nos jours partir sur une solution qui crame de l’énergie dans le vide c’est, de mon point de vue et de deux autres personnes ici, dommage.

Le 11/02/2021 à 18h 21

C’est clair que ça va devenir un beau massacre d’énergie si on se mets à mettre des prises USB PD partout dans les habitations… Quoiqu’en dise David ca consomme quelques dixièmes de watts par prise pour strictement rien alors que perso dans mon entourage personne ne laisse des transfo branchés inutilement (pas besoin de bac +5 pour savoir que ça consomme).



Mais bon faut laisser le choix aux gens comme il dit… Après il se plaint des box internet qui consomment 10w en veille, ben ça revient au même que de mettre une bonne brochette de prises PD inutilisées.

Le 06/02/2021 à 20h 03

Oui du coup pas super utile comme news si tout le monde doit faire sa recherche pour savoir ce qu’il y a a transposer chez nous.

Le 06/02/2021 à 17h 50

Merci pour ta réponse, je ne savais pas :chinois:

Le 02/02/2021 à 13h 57

Pour l’entretiens du réseau cuivre, je comprends pas trop c’est un appel d’offre auquel Orange a postulé non ? S’ils étaient OK sur les indicateurs à respecter et sur l’argent qu’ils allaient toucher pour faire ce boulot, pourquoi maintenant se plaindre ? Fallait pas se proposer…
Si personne ne s’était proposé (je crois que seul Orange avait répondu de mémoire), je suppose que la compensation financière pour l’entretiens du réseau aurait augmentée, mais là Orange a accepté maintenant qu’ils remplissent leur contrat au lieu de pleurer.

Le 22/01/2021 à 12h 25

Je suis connecté en ce moment sur teams via firefox, version 84.0.2



Ok, c’est quand même étrange pour un système de paiement. Mais bon, firefox mobile reste “nouveau”

Et pour teams les appels audio fonctionnent ? Le reste ? Chez moi non.

Le 21/01/2021 à 12h 36

Lequel de code source ? Leurs drivers ? Personne ne le fait :/ je suis pas forcément à jour mais l’avantage de Qualcomm c’est que eux font du support dans le temps pour leur drivers, alors que Mediatek c’était pas aussi glorieux.

Le 07/12/2020 à 19h 04

Tu as raison de dire en diagonale parce que si tu le lis correctement cet article, en FHD avec 1 seule GTX 580 :
Wolfeinstein : 112 FPS
Mass Effect : 85 FPS
DIRT 2 : 110 FPS
Stalker : 63FPS
BFBC 2 : 82 FPS
Civ 5 : CPU limited (précisé par l’auteur), donc aucun intérêt
Hawk : 172 FPS
Metro 2033 : 42 FPS (enfin un jeu sous les 60 FPS !)
Battleforge : 90FPS
Crysis Warhead : 57 FPS (oui le jeu mythique qui mettait à genoux tous les PC pendant des années)



Donc sérieux, si tu sais pas lire tes propres sources je peux plus rien pour toi. Tu es vraiment de mauvaise fois.

Le 07/12/2020 à 14h 44

D’après ce test ça n’a pas l’air d’être le cas, une seule GTX580 suffit pour jouer souvent à plus de 60fps en FHD :
https://www.anandtech.com/show/4008/nvidias-geforce-gtx-58015



Sans dire ça méchamment quand on avance des choses d’un ton sûr le mieux est de mettre ses sources, je ne remets pas en cause ce que tu dis mais du coup j’ai pas les mêmes chiffres quand je fais une recherche perso.

Le 07/12/2020 à 14h 35


ForceRouge a dit:


Tu compares des cartes et des contraintes d’il y a 10 ans avec des cartes et des contraintes de maintenant. Y a 10 ans, on parlait à peine de FHD.


Oui c’est bien de ça dont il est question :)




En faite, ton problème, c’est que t’as acheté un écran 4K sans te poser la question de savoir quel prix t’aller devoir mettre dans le GPU. Et malheureusement, bah les contraintes industrielles sont ce qu’elles sont, et un gros GPU (taille physique du die) gravé en 7/8nm pour faire tourner de la 4K, c’est cher, car c’est difficile, c’est aussi simple que ca.


Qui a dit que je n’étais pas au courant quand j’ai acheté mon écran ? Ce que je disait simplement c’est que les GPU ne semblent pas avoir évolués suffisamment par rapport au reste, peut être parce qu’il n’y avait pas de compétition dans le haut de gamme. Bizarrement pour tous les autres composants PC on a pas eu ce problème, faut aussi se poser la question non ? Après les développeurs de jeux peuvent aussi s’adapter tout n’est pas la faute des concepteurs de GPU hein je dis pas ça.




T’aimerais une carte à 1000€ pour 200€. Mais c’est juste pas possible. Si tu veux pas lâcher 1000€ dans une carte graphique, contente toi du FHD et basta.


Ok merci, tu peux presque rajouter “ferme la”, sympathique le débat. A nouveau tu es persuadé que c’est techniquement pas faisable de faire un GPU a 300€ qui saurait faire de la 4K dans les jeux récents, mais je pense de mon côté que s’il y avait plus de concurrence pendant ces 510 dernières années, on en serait peut être pas là. Il n’y a qu’a voir les évolutions de perf côté CPU avec les générations de Ryzen, les GPU j’ai pas l’impression que ça ai bougé autant.




Et au final, avec ta dernière phrase, je comprends toujours pas ta logique, car tu te plaint, mais tu travail et joue “dans de très bonne conditions” sur ta TV 4K. Il est où le problème?


Oui parce tu me répondais plus haut qu’un écran 4K n’est pas donné et hors de porté pour du gaming, ce qui est faux. C’est le GPU qui va avec qui est cher, pas l’écran. Et donc oui avec des jeux un peu ancien je joue parfaitement bien en 4K avec cet écran.



Quant à la comparaison Ferrari/écran 4K, faut être sérieux 2s… 400€ mon écran, c’est clairement pas du haut de gamme niveau tarif moniteur PC.




Et pour info, Freesync et le DLSS de Nvidia, c’est justement ce qui permet de faire tourner des jeux gourmand dans de bonnes conditions pour compenser le manque de puissance brut.


Sauf que perso le vsync off me dérange pas, quant a DLSS je n’en profiterai pas vu que je veux pas de carte nvidia car driver pas open source sous Linux. Mais oui je comprends ton idée, reste que DLSS n’est pas compatible avec tous les jeux donc ce n’est pas la solution parfaite.




Donc oui, aujourd’hui le confort de jeu ne se base plus uniquement sur la perf brut, mais aussi sur les astuces sur le rendu (ce qui compte au final). Si t’en veux pas, c’est ton choix, mais essaye pas de réinventer l’histoire, les faits sont ce qu’ils sont et t’as beau l’interpréter comme tu veux, ca ne changera pas la vérité.


J’ai pas dit ça. Voir plus haut, freesync j’ai pas la TV compatible mais rien de grave vu que sans vsync ça me va. Pour le reste des techniques j’ai jamais dit que ça m’intéressait pas, c’est juste que tu me parlais qu’il fallait un écran de jeu et un écran de bureautique “pour optimiser”, faudra m’expliquer la logique. Payer 2 écrans (sans compter l’aspect écologique de la chose), s’encombrer de 2 écrans, etc tout ça pour avoir un compatible freesync qui est dans une résolution plus faible (donc au final moins bien) ? Mouai.



Après je pense qu’on peut s’arrêter là, pour toi les prix sont normaux et les GPU ont évolués correctement, j’ai pas le même point de vue mais je cherche pas à te convaincre, tu as peut être raison.

Le 06/12/2020 à 12h 31

On est bien d’accord.



Quand aux réponses de David_L, on également d’accord, il n’y a plus de débat possible avec lui je trouve. Il a un avis sur un sujet, si on est pas du sien ben on a tort point barre, et pas de débat possible c’est toujours expéditif. Je suis vraiment déçu, les articles sont en général intéressant par contre ses réactions dans les commentaires sont très souvent désagréables et gentillement agressives.



Il se plaint de répéter toujours la même chose, mais c’est peut être qu’il n’a pas écouté/compris ce que les gens lui disent, ou qu’il ne détient pas forcément la vérité absolue.

Le 06/12/2020 à 12h 24

On se calme hein, je ne suis pas agressif moi. Donc j’atterris et je prends vos chiffres, 500€ pour une CG haut de gamme de l’époque, la RX 6900 est annoncée a 1000$, les 6800Xt sont presque à 1000€ actuellement mais ok ça n’a pas doublé.



Quant aux écrans 4k pas abordables, j’ai acheté une TV 4K 43” à 400€ samsung ya 1 an, je sais pas ce qu’il vous faut… Trouver un écran de cette taille ya 10ans c’était pas le même prix clairement. Comme je disais, maintenant pour trouver une CG qui permets de jouer en définition native, c’est pas 200€ comme ce que je dépensais il y a 10 ans pour accompagner mon écran.



Ben pas sur ma TV, pourtant on dit que les TV upscale mieux que les écrans PC… C’est baveux crados quand on est pas en résolution native, comme tous les LCD que j’ai croisé jusqu’ici.



Je suis au courant des astuces de mise à l’échelle par la CG mais étant sous Linux et avec une carte AMD, je sais pas si c’est possible de faire pareil que sous Windows. Mais le débat n’est pas là, ce que je voulais dire c’est qu’à l’époque une CG haut de gamme permettait de jouer en résolution native d’un écran “normal” de l’époque, alors que maintenant faut viser le double de budget.



Je te garantie qu’avec ma pauvre TV entrée de gamme Samsung je joue dans de très bonnes conditions. Aucun input lag, contraste top (dalle VA), pas de rémanence. Et pourtant avant j’avais une Sony FHD haut de gamme, clairement la samsung fait mieux. Donc non pas besoin de 2 écrans (m’en fou du freesync et compagnie). J’ai choisi samsung car je sais que l’input lag est correct et que la dalle est bien calibrée.

Le 02/12/2020 à 09h 55

Faut aussi tout remettre dans le contexte de l’époque, à l’époque le Full HD était le max et je dis peut être des bêtises mais je pense qu’on pouvait jouer en Full HD avec une carte haut de gamme de 300€ de l’époque.



Maintenant la 4K est courante (un écran 4K c’est abordable), par contre la CG pour jouer en 4K c’est 600€, soit le double d’il y a 10ans.



J’ai bien compris que tant que les gens sont prêts à payer les sommes actuelles les fabricants seraient idiots de pas faire des produits adaptés à ce segment de prix. Mais on peut aussi admettre que les prix ont flambés pour jouer avec l’écran presque courant de nos jours. J’ai un écran 4K pour travailler, c’est hyper confortable, par contre j’ai pas envi de mettre 600€ pour un GPU pour pouvoir aussi jouer avec, et descendre la résolution sur un LCD on sait ce que ça donne :(

Le 02/12/2020 à 11h 46

Reste a trouver une zone 5G sans fibre :D

Le 29/11/2020 à 20h 19

Merci, on est bien d’accord…

Le 28/11/2020 à 17h 54

Au risque de répéter les précédents commentaires, sauf si le développeur a eu un accès anticipé aux cartes AMD, ils peuvent pas se permettre se sortir le jeu avec l’option raytracing active pour AMD en espérant qu’il y ai 0 bug. Je suis pas développeur de jeux mais je suis persuadé qu’il y a toujours des petites différences d’implémentation malgré directx qui font qu’ils faut adapter le code. En tout cas, comme dit dans un précédent commentaire par quelqu’un d’autre, je prendrai pas le risque a leur place.



Si vous avez plus d’info pour juger (ils ont bien les cartes depuis longtemps par exemple) alors la on peut dire que c’est de la mauvaise volonté de leur part (pour pas dire autre chose), mais sinon c’est juger sans connaitre la situation je trouve.

Le 22/11/2020 à 17h 05

Quel rapport entre le catalogue et la fin de vie ? Il a pas tort, nouvelle génération = ancienne qui est délaissée assez rapidement.

Le 22/11/2020 à 16h 47

Du coup tu parles d’outils en dehors des dépôts des distributions, faut pas s’étonner si effectivement ils font des trucs a l’arrache.
Maintenant perso j’ai pas vu de package intégré dans debian qui tourne en root sans bonne raison de le faire.



Comme dit plus haut, les packages sont gérés souvent par des volontaires qui sont là pour le bien de leur distrib, par pour se faire du fric en planquant des mouchards. Sous windows, exécuter des binaires que personne peut contrôler, perso j’ai nettement moins confiance. Après chacun son avis.

Le 17/11/2020 à 11h 10

Pour avoir une TV Samsung en écran de PC , c’est une entrée de gamme et j’ai 0 pb d’input lag. Comme tu dis, certaines marques y’a pas de souci et Samsung en fait parti, c’est imbattable niveau prix par rapport a la taille d’écran.



Le seul problème comme dis plus haut c’est quon est redevable de la redevance TV alors que j’en ai rien a secouer perso, le câble antenne est même pas branché dessus.

Le 16/11/2020 à 12h 24

oui et non pour beaucoup d’entreprise le mail est critique et necessite une infrastructure redondante.




regis1 a dit:



Le vrai souci c’est que de nos jours si tu t’appelles pas gmail ou Microsoft, tes mails finissent en spam car ils en ont rien a battre de tes serveurs, même en mettant du spf et dkim. Mais c’est en utilisant leur service que justement on les conforte et on perds la possibilité d’être autonome sur les emails.


actuellement j’ai un serveur postfix avec tous les certificats et enregistrement dns de fait et il n’est considéré comme spam nulle part et il a meme une tres bonne note sur des sites de tests

Je parlai du cas de l’article bien evidemment, pas de linfra d’une societe…

Le 13/11/2020 à 15h 33


occitanie2040 a dit:


une infra mail on premise on commence a environ 100 k€ pour de la haute dispo pour a peu pres 1000 utilisateurs, je te laisse faire le calcul…


Faut comparer ce qui est comparable, là c’est une adresse email. Y’a pas 1000 utilisateurs, si le serveur tombe y’a pas mort d’homme les serveurs SMTP attendront que le serveur revienne pour lui renvoyer les emails en attente (si quelqu’un réponds a cette adresse). Bref ça doit pas coûter très cher a mettre en place.



Le vrai souci c’est que de nos jours si tu t’appelles pas gmail ou Microsoft, tes mails finissent en spam car ils en ont rien a battre de tes serveurs, même en mettant du spf et dkim. Mais c’est en utilisant leur service que justement on les conforte et on perds la possibilité d’être autonome sur les emails.

Le 13/11/2020 à 16h 48

Si c’est utile chez nos voisin ….

Cherche pas ça balance tout son argumentaire a la poubelle donc effectivement faut tout miser sur ce qui c’est passé pour Samsung et apple en Italie ne peut pas se produire en France.

Le 13/11/2020 à 16h 29

Quelles inepties !




  • « quelques € de plus », c’est la différence entre crever et survivre

  • « travail normal » = planqué, rentier, socioassisté ou fonctionnaire ?

  • le système est horizontal (par définition) et les norme évoluent (pas comme certains)

  • fantaisie extrémiste absurde car hors réalité

  • c’est le but recherché quand les coûts sociaux sont > aux avantages
    .
    .

  • totale méconnaissance : les boutiques (par ex. Légo) sont des quasi sites Web qui profite de l’infrastructure mutualisée, du sérieux et des garanties de la plateforme

  • comme si la concurrence n’existait pas ailleurs :roll:

  • suppositions et généralisation abusives
    .
    .
    On pourrait conclure qu’il faut être particulièrement c… pour commenter sur un sujet dont on ignore tout.

Impressionnant la mauvaise foi :incline: (je débats pas vu tes réponses c’est pas la peine, je réponds juste pour que fofo9012 se sente moins seul)

Le 21/10/2020 à 16h 18

On peut pas calculer comme ça, comme dit dans l’article la puissance de charge se réduit en fin de charge donc on est plus a 80w.

Le 21/10/2020 à 10h 31

Pour utiliser les bouzes de Microsoft quand on a pas le choix sans avoir a passer par windows ca sera peut être pratique (genre teams en web si tu as pas edge le partage d’écran marche pas sur chromium ni firefox).

Le 13/10/2020 à 14h 09

Je doute quand même que Apple donne gratuitement à DDG l’accès à leur infra/API. Pour Apple, faut qu’ils puissent en tirer des bénéfices.



Google faisait pareil avec Maps et ont eu ce qu’ils voulaient : écraser tous ses concurrents et que tout le monde utilise le service, jusqu’à le faire payer maintenant pour beaucoup d’utilisations (les quota d’appels à l’API maps pour rester gratuit sont maintenant dérisoires par rapport à avant).



Pas possible qu’Apple ai la même ambition vu son concurrent, donc faut qu’ils fassent leur beurre autrement, à voir comment avec DDG vu qu’on a pas clairement l’explication.

Le 13/10/2020 à 14h 04

euh tu as une source pour ça ? parce que pour indiquer à quelqu’un un trajet, faut suivre sa position, donc Apple fait pas de la magie, ils ont ta position.



On pourrait penser qu’ils font comme Osmand par exemple avec un calcul local et les cartes en local, mais y’a qu’a voir le temps de calcul sur osmand pour un gros trajet, je doute qu’apple fasse pareil avec le volume de données à télécharger en local (les cartes) au moment où l’utilisateur demande un “nouveau” trajet. Bref je serai curieux d’en savoir plus.



Au passage, je vois pas l’intérêt de soit disant mettre ce point en avant pour Apple Plan sachant qu’ils siphonnent la localisation des gens ayant un iphone pour mapper la position des réseaux wifi et accélérer le positionnement quand on ne capte pas le GPS (Google fait pareil hein, je ne critique pas qu’apple).

Le 13/10/2020 à 13h 17

C’est vrai, mais en visant un truc un peu moins identique à ce qu’ils vendent en tant que NAS ça peut aussi te coûter 3 fois moins cher pour plus performant.



Un boîtier micro atx, un CPU ryzen/pentium entrée de gamme + CM + RAM ça va pas coûter très cher. Sans compter que pas mal d’entre nous avons de vieux composants à recycler qui sont souvent meilleurs que les “bouses” intégrés dans les NAS : même un vieux CPU moyen de gamme de 10 ans fera mieux qu’un Atom ou celeron actuel.



Comme dis, clairement c’est pour la partie logicielle qu’on choisis une solution clé en main, le reste est cher payé.

Le 08/10/2020 à 09h 41

Comme on dit, tout travail mérite salaire. Ça leur a pris du temps de faire ce “remaster”, donc qu’il soit payant c’est pas non plus déconnant.



Le plus moche dans ce remaster c’est que visiblement ils ont repris la version console comme base donc ya des choses qui manquent par rapport à la version PC originale (voir la vidéo de Digital foundry pour les détails). Ça fait mal au coeur que des années après le remaster soit moins bon que l’original sur certains points…

Le 28/08/2019 à 06h 14

Pour les droits avec le plugin external storage, si on veut pas y toucher sur le FS on peut tricher avec le module fuse bindfs qui permet de remonter le FS en mappant des uid vers d’autres uid, donc ton user linux vers le uid d’Apache ou nginx. Ça évite la galère de gestions des droits, nextcloud y accède comme si c’était toi en local avec ton uid (bon par contre ça veut aussi dire que ton serveur web peut tout faire avec tes fichiers mais c’est presque pareil si tu ajoutes les droits au compte apache/nginx sans bindfs).

Le 18/07/2019 à 11h 58


David_L a dit:


Attends que le SSD tombe en rade, tu auras la réponse :D


Pour une utilisation personnelle, je trouve que le RAID est inutile : ça bouffe de l’espace et ça remplace pas des backup. La probabilité pour une utilisation perso qu’un SSD tombe en rade est faible (ça m’est jamais arrivé perso), vaut mieux pas perdre d’espace et le jour où le SSD tombe en rade, une petite resto depuis des backups et au pire ya 1j d’interruption de “service”.



Au lieu de perdre la moitié ou 13 de l’espace des SSD (surtout que du coup ça veut dire en prendre au mini 2 ou 3), je trouve ça plus rentable. On a pas tous besoin d’une dispo 247 99,9999%.

Le 27/09/2018 à 13h 43

Je confirme qu’en France on y a bien “droit”. Mi 5 sous MIUI 10, pub à l’installation d’application. Ça fait tout “drôle” de voir de la pub sur son tel, on croirait presque qu’il est vérolé… du coup Xiaomi je suis plus trop fan bizarrement.

Le 17/08/2018 à 16h 07

Je n’ai pas forcément le courage de lire tous les commentaires, mais pour ceux que ça intéresse phoronix a testé les threadripper sous Linux VS Windows et il s’avère que visiblement c’est Windows qui est largué niveau gestion du NUMA/scheduler :

https://www.phoronix.com/scan.php?page=article&item=windows-server-2990w…



Donc peut etre que d’ici quelques mois on verra le vrai potentiel des threadrippers avec une update de Windows (pour les pingouins c’est déjà bon ^_^)



edit: du coup c’est un peu désolant de voir aucune review noter ce point spécifique. Les TR sont trèès loin devant les intel sauf qu’avec Windows, ben ça se voit pas trop… et c’est un peu débile d’AMD de pas insister sur le fait que windows est un facteur limitant, et de faire des tests sous linux (pour une station de travail c’est pas forcément capilotracté de viser un publique linuxien)

Le 13/08/2018 à 15h 36

Le rapport avec l’actu ? ;-)



La on parle de localiser les gens grâce aux points d’accès wifi dont ont connaît leur position (sinon le système ne fonctionne pas).

Le 13/08/2018 à 15h 34

Niveau données perso je pense pas que ce soit un problème : depuis quelques versions d’android, l’OS génère une adresse MAC aléatoire tant que tu es pas connectée à un réseau wifi. Donc les points d’accès d’un centre commercial ne pourront pas t’identifier de manière unique. Ils pourront par contre suivre ton cheminement je suppose. Mais si tu reviens le lendemain, ton adresse MAC aura changée donc pas de pistage à ce niveau.



Pour moi ça me semble quand même une sacrée avancée, pouvoir se géolocaliser en intérieur c’est quand même hyper pratique (tant que bien sûr on ne puisse pas nous traquer/identifier).

Le 05/07/2018 à 16h 45

Pour moi Next inpact c’est mon site de référence dans l’actu numérique. Quand une grosse news sort et que tout le monde en parle, bien souvent elle est survolée/mal expliquée/carrément à moitié fausse car tous les sites se dépêchent de faire leur news pour le côté buzz/preum’s je suppose.



De mon côté, je me régale d’attendre la news Next inpact qui arrive peut être un peu plus tard (parfois même beaucoup ;) mais au moins il y a du vrai contenu avec des recherches et un effort d’explication qu’on ne retrouve pas ailleurs.



Ravi en tout cas que next inpact survive aussi bien jusqu’ici. Bonne continuation !

Le 07/04/2018 à 10h 28

En même temps windows est tout de même un peu plus utilisé, et surtout par des industries qui ont pas envie de suivre les changements d’humeur de Microsoft toutes les 2s, donc forcément quand Microsoft veut tenter ARM ça se vautre parce que tout le monde veut conserver les 2 milliards de logiciels dispo sous Windows. Et avec le temps, garder la compatibilité Win32 et toutes les autres API qu’a tenté Microsoft depuis, ça arrange pas la légèreté de Windows. Mais j’admire un peu quand même cette rétrocompatibilité qui marchouille depuis des années.



Sous Mac il y a carrément moins de logiciels dispo et c’est aussi vrai qu’Apple contrôle mieux le hardware et le software qui va avec, donc s’ils veulent faire une transition d’archi, c’est plus “facile”.



Mais sinon oui rien ne vaut les logiciels libres, de nos jours, sauf cas très spécifiques, il n’y a pas d’optimisation pour une archi, et même s’il y en a (je suppose pour les soft genre x264/x265 par exemple où ça vaut le coût d’optimiser à mort), il y a toujours un codepath générique portable. Du coup, nouvelle archi == nouvelle recompilation et boom ça roule (je suis sûrement un peu trop optimiste, mais ça doit être pas loin de ça).



Ou alors faut faire à la Android avec des applis java/avec une machine virtuelle, comme ça ça tourne sur n’importe quelle archi si la VM existe. M’enfin niveau perf je suis pas sûr que ce soit top.

Le 27/02/2018 à 09h 22

Pareil, je serai intéressé pour comparer.



Et je ne comprends pas aussi pourquoi OVH n’abandonne pas leur solution pourrie pour simplement proposer du nextcloud rebadgé, niveau fonctionnalité ça serait nettement supérieur (corbeille, chiffrement, appli mobiles top, etc) tout en leur coûtant 0 en dev (ou presque, faudrait sûrement l’adapter quand même un peu à leur infra).

Le 14/01/2018 à 20h 13

(Rien finalement)

Le 18/12/2017 à 10h 25

Nan c’est pareil chez moi, sur un Galaxy S4 ça rame régulièrement, j’attends quelques secondes des fois avant de pouvoir faire une action…

Le 27/11/2017 à 10h 30

S’ils ne maîtrisent même pas le code intégré à leur application, ils découvriront peut être qu’un autre module quelque part fuitait encore d’autres données personnelles…



Autant j’aime bien l’idée d’une alternative à Google, autant laisser passer des régies publicitaires dans sa propre appli alors que c’est sa raison d’être, ça me dépasse un peu…

Le 05/03/2017 à 17h 20

C’est pas un problème en soit tant que l’URL a un paramètre à rallonge pour rendre toute devinette de ce paramètre impossible par quelqu’un de mal intentionné (une suite de caractères aléatoires par exemple).



Ça permet au client de ne pas avoir à créer de compte (je ne connais pas ce site, je ne sais pas si c’est pour ça qu’ils ont fait ça comme ça) tout en étant parfaitement sécurisé.



Le problème pour SFR, c’était que le paramètre n’était pas du tout aléatoire je suppose :)

Le 05/02/2017 à 21h 41

chez moi un bon vieux pentium relativement récent suffit à décoder du h265 en 1080p sans souci. C’est sur qu’il faut fuir les atom mais pas besoin de viser un i5 ou i7 non pu :)

Le 22/12/2016 à 16h 31







ort a écrit :



Ah ça y’est, on a explicitement franchi le pas où il faut prouver son innocence.





sauf que là on a la preuve de l’infraction, donc oui à toi de prouver que ce n’est pas toi qui l’a commise


Le 27/09/2016 à 15h 27

C’est bien corrigé depuis quelques temps, NXi et lesnum s’affichent en version mobile avec FF. Par contre je suis d’accord avec toi, avec un Galaxy S4, FF ça rame pas mal…

Le 04/08/2016 à 15h 56

C’est pas parce que tu “n’auras jamais de problème avec les impots” que c’est légal ce que tu fais :) c’est pour ça que les autres posent des questions et se renseignent avant de dire “on s’en fou les impôts ne viendront pas nous embêter”, sinon on ne dit jamais rien aux lois qui potentiellement nous toucherons à force d’être resserrées parce qu’à la base “on s’en fou on passe sous le radar”.