votre avatar

Inodemus

est avec nous depuis le 18 septembre 2012 ❤️

1889 commentaires

Le 23/10/2014 à 16h 02

Ce genre d’anti-aliasing revient en fait à flouter légèrement l’image en mélangeant tous les pixels proches sans distinction. Ca a l’avantage d’anti-aliaser à la fois les textures et les bordures des polygones, par contre ça a un effet désastreux à mon goût sur les petites polices de caractères, qui elles doivent rester les plus nettes possibles.



Après ça dépend évidemment du DPI de l’écran, mais on en arrive vite à obtenir des caractères suffisamment floutés pour que ce soit visible. Sur un jeu comportant un bon nombre d’informations écrites suffisamment petit, ou alors sur un menu ou un écran d’information hors jeu (vu que ça s’applique tout le temps et plus seulement en jeu), ça donne un rendu franchement moche par rapport à une version non anti-aliasé.



 J’ai pu constater ça ne serait-ce que sur Warcraft 3 et StarCraft 2 avec certains modes d’anti-aliasing qui reposent sur le même principe, alors que les polices sont encore assez grosses et l’écran pas trop chargé, alors j’imagine avec des MMORPG où il y a du texte partout…


Le 07/09/2014 à 21h 40







chp2 a écrit :



C’est trop facile de proposer des videos Full HD ou 4K (et tout le monde en redemande) mais qui doit payer le réseau? celui qui ne se limite pas (Google) ou celui qui en re-veux (le client)?





Le réseau interne au FAI doit être payé par lui-même et par lui seul. Il lui appartient entièrement, et c’est de son entière responsabilité de le dimensionner en conséquence. Si ses finances ne le permettent pas, il doit soit trouver d’autres sources de revenus, soit augmenter l’abonnement de base, soit supporter que ses clients se plaignent et s’en aillent, ce qui fera du coup baisser son trafic à un niveau qu’il pourra maîtriser.



Quant au réseau Internet, qui doit payer est plus difficile à établir. Cependant, dans ce cas précis, Google finance lui-même une bonne partie de son transit Internet, en fournissant des points d’accès à son réseau gratuits et proches des FAI locaux, et en finançant l’acheminement des données entre ces points d’accès. Ce qu’ils refusent, c’est de payer le réseau interne des FAI locaux.







Bylon a écrit :



D’ailleurs je comprends mal pourquoi la commission enquêterait sur Android et n’a jamais enquêté sur l’abus de position dominante et le racket exercé par M$ dans le monde du PC.



Si mes souvenirs sont bons, c’est déjà arrivé plusieurs fois, et ça a eu pour effet visible des versions de Windows sans Internet Explorer (ainsi que l’écran du choix du navigateur) et d’autres versions sans Windows Media Player. On peut éventuellement juger ça léger, mais pas dire que ça n’a pas existé.



Le 14/08/2014 à 15h 23







genialmaniac a écrit :



180 km de Paris, toujours pas de dégroupage, pas de tv via internet, 4Mb de connexion max avec orange.



A 180 km de Paris, tu n’as plus rien à voir avec Paris depuis longtemps. Les réseaux ça s’étend 10-20 km grand max autour des villes, ensuite ça s’étend dans le même ordre de distance autour des grands axes reliant les grandes villes, jusqu’à créer de nouveaux axes, relier aussi les villes plus petites, et ainsi de suite.



Si tu es dans une zone pas très peuplée et pas à côté d’un grand axe télécom, ni sur un chemin qui pourrait en créer un, ben ça va tarder à arriver, et ce n’est pas la présence d’une (très) grande ville à quelques dizaines de km (et même centaine dans ton cas) qui va changer quelque chose.







jinge a écrit :



ça n’est pas leur métier aux opérateurs, ça coûte beaucoup trop cher en investissement pour un revenu de long terme, c’est plutôt le boulot de boites d’infrastructure type ERDF.



Clair, il faudrait une boîte d’infrastructure qui s’occupe du réseau et le loue aux opérateurs. Mais dans les télécoms c’est pas du tout la mode. Donc le gouvernement a tenté de faire un compromis en obligeant les opérateurs à partager leurs réseaux fibre, mais au final ça coûte toujours très cher et personne ne veut le payer, donc y a pas grand chose à partager même à plusieurs.



Le 06/08/2014 à 17h 52

Je fais peut-être partie d’une espèce en voie de disparition, mais moi ça ne me gêne pas d’attendre mes commandes plusieurs jours. A force de commander sur Internet j’ai fini par en avoir l’habitude. Il n’y a que dernièrement ou j’ai du commander quelque chose en urgence, mais c’est la première fois en plus de 10 ans.



Evidemment si je pouvais l’avoir le même jour je ne cracherait pas dessus, mais hormis dans les zones très très denses, ça demande une logistique énorme qui ne me paraît pas à la mesure du désagrément causé par une livraison en 2 ou 3 jours, et qui coûtera cher au vendeur (et donc à nous aussi).



A mon avis, la meilleure “innovation” récente est la possibilité de plus en plus courante de se faire livrer en point-relais pour quand on n’est pas là en journée, point-relais qui se multiplient bien ces derniers temps. Il y a sûrement encore à creuser du côté des solutions de livraisons sans présence requise du destinataire, parce que s’il faut être là on peut se prendre facilement 1 ou 2 jours de retard même si on a choisi un service de livraison rapide.


Le 30/07/2014 à 14h 08

Bon puisqu’on est dans les blagues…



nous attendons le retour du terrain

Il est parti le terrain ?


Le 23/06/2014 à 11h 00







Tiobet a écrit :



Si on part sur ce principe alors le CD est aussi un DRM. Tu ne peux plus jouer s’il est cassé <img data-src=" />.



Le CD tu peux en faire une copie ailleurs. Enfin sauf s’il est aussi DRMisé, on retombe dans le même problème…



Le 20/06/2014 à 00h 20

Y a quand même un truc que je pige pas avec ces boîtiers, c’est pourquoi il n’y a quasiment jamais beaucoup d’emplacements 3.5”. J’ai un (très) vieux Lian Li dans lequel je peux mettre 8 disques durs (et il y a encore 4 baies 5.25”), et avant ça, j’avais un boîtier noname pas cher où on pouvait en mettre autant.



C’est pas la place qui manque pourtant dans ces boîtiers, et ils sont pas donnés, alors pourquoi ils ne font pas descendre les emplacement 3.5” jusqu’en bas (et même monter jusqu’en haut pour celui-ci) ?


Le 21/04/2014 à 18h 39







ben5757 a écrit :



Mise à part le 2FA, il y’a pas tellement de solution pour se prévenir du vol de mot de passe par une application malveillante. Tu en as ?



J’essaie de ne pas taper mon mot de passe à un endroit où il pourrait y avoir des virus. J’ai justement dit que je n’avais pas d’autre solution pour sécuriser l’accès que l’authentification en 2 temps, mais ça ne veut pas dire que cette solution soit bonne. J’espère que quelqu’un trouvera le moyen de la rendre plus pratique, ou trouvera une solution différente.



A ma banque, avant il y avait la double authentification avec une carte imprimée avec un tableau de numéros, et un choisi au hasard à chaque fois. C’était une très bonne solution je trouve, la carte est facile à garder dans son portefeuille. Maintenant il ont ajouté en plus le téléphone portable, ça fait triple authentification et c’est bien lourd, il faut vraiment en arriver là ? Ailleurs il faut se trimbaler des boîtiers et c’est aussi lourd.









ben5757 a écrit :



Tu aurais pas le syndrome de l’utilisateur invincible ? Le prend pas mal, mais des gens qui ont ce discours ne sont pas les derniers à êtres victime d’incident de sécurité généralement. Quoiqu’il en soit, ta position implique qu’il faut faire confiance au bon sens de l’utilisateur. C’est en parti vrai, mais penser que cela suffit n’est pas vraiment réaliste.



Personne n’est invincible, et je n’ai rien à dire pour ma défense parce qu’on pourra toujours me dire que j’ai eu de la chance jusqu’à maintenant, mais l’utilisateur est à mon avis bien souvent le maillon faible. Je ne suis pas expert (ni même bon) en sécurité, mais je doute que la majorité des mots de passes soient volés par des virus (qu’il faut encore se choper), mais plutôt par une faute de l’utilisateur (qui est aussi le plus souvent à l’origine de l’installation du virus s’il y a lieu). De bonnes pratiques réduisent quand même très fortement les risques. Quelqu’un de mieux renseigné que moi pourrait-t-il commenter ça ?



Après je comprends ta problématique d’éducation de tous les utilisateurs, et je n’ai pas de solution pour ça. Mais je pense que c’est clairement ça la cause du problème, il est impossible de s’assurer des bonnes pratiques de la totalité des utilisateurs. J’imaginais qu’avec le temps ça allait changer positivement, mais ce n’est à priori pas ce qui s’est passé.









ben5757 a écrit :



De mon point de vue de client, l’accès au solde de compte et aux historiques de transactions est tout aussi sensible que la possibilité de faire des virements.



Question de point de vue, moi je ne trouve pas que les 2 soient aussi sensible. Mais même si tu le penses, je doute que ceux qui essaient de voler des mot de passe partage cet avis, et je pense que personne ne va s’amuser à mettre en place une stratégie de vol de mot de passe s’il sait qu’il ne pourra que regarder des relevés de compte.



Le 20/04/2014 à 21h 58

L’authentification en 2 temps est loin d’être la panacée je trouve. J’utilise très peu mon portable, souvent je ne l’ai pas sur moi, et franchement quand je suis pas chez moi ça me casse les pieds d’avoir besoin d’autre chose que d’un ordinateur pour accéder à mes comptes (bancaires ou non).



Je ne donne mes mots de passe à personne, je ne les partage pas entre les sites sensibles, je ne télécharge pas de virus et je ne rentre pas mes mots de passe n’importe où non plus. Si un site n’est pas capable de sécuriser l’accès avec seulement mon mot de passe (ou impose des limites débiles dessus), ce n’est pas ma responsabilité mais la sienne.



Je n’ai pas envie d’avoir à me trimbaler partout mon portable et/ou un boîtier pour chaque compte qui utilise l’authentification en 2 temps. A la limite une petite carte contenant plein de clés demandées aléatoirement comme fait ma banque avant de vouloir m’obliger à utiliser mon portable. Mais sinon, imaginez que ça se généralise, va vous falloir une brouette pour tout transporter.



Je ne connais pas la solution miracle, mais clairement pour moi ce n’est pas celle-ci.


Le 19/03/2014 à 14h 59

Je ne comprends pas trop cette étude, en prouvant que les bons en orthographe rédigent aussi des SMS moches, j’ai l’impression qu’ils ont fait l’inverse de ce qu’il fallait faire. C’est plutôt l’influence dans l’autre sens qu’il me semble que l’on cherche à établir.



J’aurais plutôt vu une comparaison du niveau en orthographe entre ceux qui utilisent les SMS et ceux qui ne les utilisent pas, ça m’a l’air plus juste.


Le 06/03/2014 à 09h 44







garvek a écrit :



Sans compter que le PNJ est un vieux format aussi …





Toi, tu fais trop de RPG…



Le 07/02/2014 à 15h 11



Cours Sonic, cours !

Ca fait bien longtemps qu’il n’existe plus !


Le 22/01/2014 à 16h 38







atomusk a écrit :



C’est pourtant bien le souci avec Free pour augmenter le peering : Google dit que c’est à Free de payer, et Free dit le contraire …





Si j’ai bien compris:




- Google dit que c'est à Free de payer le matériel qui permet de se connecter à leur point de peering gratuit, ce qui reste relativement peu cher. Et encore, pas sûr vu qu'ils proposent aussi d'installer des serveurs de cache directement chez le FAI, mais je n'ai pas regardé en détail cette possibilité.   






- Free ne veut peut-être pas payer ce matériel (je n'en suis pas sûr), mais veut surtout faire payer le peering lui-même à Google, c'est à dire la quantité de données que Google envoie vers Free, donc une tarification au volume sur la durée et pas une seule fois, ce qui sera très cher.   





Mais en aucun cas Google ne veut faire payer de peering (au volume) à Free. Et Google ne veut pas non plus en payer à Free.



Le 22/01/2014 à 16h 01







atomusk a écrit :



Clairment ici c’est avant tout un moyen pour Youtube de créer un logo à apposer sur les FAI qui leur léche les couilles et payent rubis sur ongle le Peering (comme avec SFR et Youtube en illimité).





Il ne me semble pas que le peering avec Google soit payant, c’est justement un argument qu’ils mettent en avant, qu’ils amènent eux-même les données directement chez le FAI.



Après ça reste effectivement un moyen de pression, parce que ce qui intéresse Google c’est que tout le monde puisse accéder à leurs services sans restrictions, donc ils veulent pousser les FAI à ne pas en mettre.



Le 22/01/2014 à 15h 51







fred42 a écrit :



Je parlais des cœurs de réseau opérateur et non pas de la boucle locale.



Pour cette partie de réseau, je n’ai jamais lu quoi que ce soit qui parlait d’une saturation. Si tu as une source, ce serait sympa de la partager.

La fibre des backbones des opérateurs est a priori loin de la saturation, enfin, c’est ce que j’ai lu jusqu’à présent à chaque fois que l’on parlait des problèmes de type Free/Youtube.





Non je n’ai pas d’infos particulières, je pensais simplement que s’il n’y avait pas de limitation de l’entrée du trafic au coeur du réseau, ça pourrait entraîner des saturations au niveau de liens plus locaux, qui sont eux plus chers à améliorer (même si ce n’est pas une excuse).



Mais d’après ce que tu dis, ce ne serait sans doute pas le cas, c’est donc plus une question de politique commerciale que de technique, mais le combat contre Google me paraît quand même bien déséquilibré…



Le 22/01/2014 à 12h 08







fred42 a écrit :



Oui mais non.

Ce qui coûte cher c’est le transit, pas vraiment le débit à l’intérieur du réseau du FAI. Il suffit essentiellement d’ajouter des routeurs.





Euh non le débit à l’intérieur du réseau du FAI dépend plutôt de la capacité des liens (câbles et fibres) qui le composent. S’il y a des goulots d’étranglement à certains endroits on ne peut les résoudre qu’en remplaçant le lien incriminé ou en en ajoutant d’autres en parallèle, ce qui implique au minimum de payer le nouveau lien (qui peut faire des dizaines ou centaines de km de long), et parfois refaire des travaux de génie civil.



Le progrès technologique permet aussi parfois d’augmenter la capacité des liens existants (comme pour l’ADSL qui a progressé en débit sans qu’on change jamais le câble de la ligne téléphonique), mais c’est à mon avis loin de couvrir la majorité des cas.



Donc je pense pas qu’augmenter le débit du réseau interne soit aussi trivial que tu le dis, mais par contre on est d’accord que c’est au FAI de le faire (et à personne d’autre), avec l’argent de nos abonnements.



Le 26/09/2013 à 09h 48

J’ai une question, attention c’est juste une question, pas un troll ni une ébauche d’avis pour ou contre le vote électronique.



Jusqu’où on contrôle le vote papier ? Au niveau des bureaux de vote on peut contrôler le comptage, mais ensuite ? Comment et à qui sont communiqués les résultats ? Comment et qui les agrège au niveau départemental, régional, national ? Quels moyens de contrôle a-t-on pendant le processus à ces niveaux-là ?



Après c’est sûr, on peut toujours refaire le compte soi-même en prenant les résultats de tous les bureaux de vote qui sont publiés sur différents médias et qu’on peut considérer comme justes vu qu’il serait très risqué de les publier faux, mais c’est très fastidieux, il faut quand même avoir un léger doute au départ pour s’y lancer et il faut pas se gourrer.


Le 25/09/2013 à 18h 23

J’ai sûrement raté un épisode, mais quel est le rapport entre ce compteur et le fait que certains payent un abonnement trop puissant par rapport à ce qu’ils consomment ? Que je sache le compteur ne change pas les tarifs, ces gens payaient déjà trop avant, et s’ils avaient baissé leur abonnement avant ils auraient payé le même prix qu’après pour la modification, et économisé sur le long terme pareil avant qu’après. Bref je ne comprends pas cet argument…



Pour les disjonctages intempestif c’est sûr qu’une gestion du courant de pointe serait pas du luxe pour ceux qui sont à la limite sans la dépasser de manière prolongée (je veux dire plus de quelques secondes). En électricité on retrouve partout cette notion de courant de pointe de courte durée et courant nominal, ça devrait s’appliquer ici aussi.



Après, qu’il n’y ait plus de tolérance ça ne me choque pas, mais attention quand même à respecter le fait que les abonnements sont exprimés en kVA, pas en kW. Je demande à un électricien ici d’expliquer la différence dans le cas de EDF parce que je saurais pas le faire, mais je sais qu’il y en a une et qu’elle ne peut être qu’à notre avantage.



Aussi, il faut arrêter de dire que les factures ne seront plus lissées à l’année. Partout quand on veut vous faire payer quelque chose on essaie de vous refiler un montant fixe à payer chaque mois, parce que ça fait moins d’un coup et que ça rassure les clients qui accepteront de dépenser plus au final mais moins tout de suite. Il n’y a aucune raison que ça change juste pour des raisons techniques, les raisons commerciales de le faire sont toujours là.


Le 23/08/2013 à 15h 14







chaps a écrit :



Sur les Samsung tu peux en paramétrer un toi même, de la taille que tu veux, si tu le désires <img data-src=" />





Ah OK. En même temps on peut le faire sur n’importe quel SSD en laissant de la place à côté des partitions.



Le 23/08/2013 à 15h 07







Avygeil a écrit :



Et l’over provisionning se fait sur tous les disques depuis un moment déjà…sauf si tu retrouves un vieux vertex en firmware 1.1.





Un Crucial m4 c’est pas si vieux quand même, et sauf erreur les Samsung (sauf 840 pas pro) et Plextor n’en ont pas non plus…







sylware a écrit :



L’usb3 peut encaisser? Car quand j’aurais mon modem/routeur ADSL avec aux fesses 2 SSDs en RAID1 pour faire un home server…

<img data-src=" />





Si t’es en Ethernet 1Gbps vers ton PC ensuite, l’USB 3.0 suivra… Si tu as un meilleur accès (lequel ?) alors non. Dans les 2 cas le RAID ne t’apportera pas de performances supplémentaires…



Le 23/08/2013 à 13h 57







Avygeil a écrit :



En pratique non, les SSD ont tous de l’overprovisioning proportionnel à la capacité totale pour justement faire passer son Garbage collector quand un SSD est plein.





Non ils n’ont pas tous de l’overprovisionning. Par contre ils font tous du wear levelling, et ce depuis longtemps. C’est qu’ils se débrouillent pour écrire dans les cellules les moins usées parmi les cellules libres. Et même quand il est plein, il peut toujours déplacer des données suivant ce qui l’arrange (par exemple d’une cellule usée à une moins usée, mais y a peut-être d’autres mouvements utiles).



Ce qui veut dire qu’on ne peut pas user une cellule en particulier, pour qu’une cellule atteigne sa limite de nombre d’écriture il faut que toutes les cellules du disque en soient aussi proches. On ne peut pas non plus écrire dans une seule cellule en particulier, car c’est le SSD lui-même qui gère la répartition des données dans les cellules, répartition qui n’a aucun lien avec l’emplacement des données vues par le PC.



Il y a effectivement une usure plus rapide quand il est plein, mais c’est du au facteur write amplification, que je n’expliquerai pas ici mais qui augmente quand la place disponible diminue. Mais ça reste maîtrisé quand même, genre ça s’use 2 ou 3 fois plus vite quand c’est bien plein, mais pas 100 fois.



La durée de vie d’un SSD correspond donc simplement au nombre de cycles d’écriture supportés par une cellule multiplié par la capacité totale du SSD. Cela donne le volume de données qu’il est possible d’écrire sur le SSD avant qu’il montre des signes de faiblesse, et ce que l’écriture se fasse linéairement ou toujours au même endroit.



Et encore, le nombre d’écritures donné est souvent pas mal sous-estimé car il s’agit d’une valeur minimum garantie par le fabricant de la flash, alors que la grande majorité des cellules ont une endurance bien plus grande.



En gros, faut pas s’en faire, il est difficile d’arriver au bout, hormis en le cherchant vraiment (genre écrire au débit max 247)…



Le 13/08/2013 à 13h 44

J’ai pas trop compris comment ils étaient censé attraper pacifiquement les ballons, ils ont l’air de s’envoler super vite et d’aller assez haut, il fallait les suivre à travers la campagne en attendant qu’ils retombent pour espérer en avoir un ?


Le 30/03/2013 à 20h 37

Par contre, si je me gourre pas, si on veut téléphoner depuis la France vers l’International, il faut prendre l’option “Internationale” (celle avec les 5€ valables 3 mois). L’option “Voyage” ne fonctionne que depuis l’étranger, pas depuis la France.



Donc pour que ce soit fonctionnel avec l’étranger pour toutes les possibilités il faut prendre les 2 options.


Le 21/03/2013 à 17h 29

Même avec une bonne connexion ADSL, il faut déjà 12h par jour d’upload. Je vois pas trop comment utiliser ce truc dans ces conditions…



C’est seulement destiné aux 0.5% en France qui ont la fibre (et encore, à plus de 10M d’upload, sinon faut quand même plus d’une heure par jour) ? Ou alors en amérique tout le monde a ça?



Ou alors j’ai rien compris…


Le 09/01/2013 à 11h 52







pti_pingu a écrit :



Ca dépend de l’interface <img data-src=" />



Ben même, je saurai toujours que c’est une machine derrière.



Le 09/01/2013 à 11h 48

J’ai vraiment du mal à me faire au fait de commander des appareils à la voix, je ne sais pas si certains trouvent vraiment plus naturel de parler à une machine plutôt que d’appuyer sur des boutons, mais moi non. Je suis peut-être de la vieille école, mais j’ai l’impression d’atteindre le summum de l’autisme chaque fois que je dois le faire (cf certains répondeurs téléphoniques où il faut causer pour donner son choix, qui en plus souvent ne comprennent rien).



Même pour les gens qui ont du mal avec la technologie, j’ai de gros doutes qu’ils trouvent ça plus naturel…


Le 07/01/2013 à 15h 46







june a écrit :



Tu as oublié :

USB 1.1 : FullSpeed



Et aussi USB 1.1 : LowSpeed (1.5 Mbit/s), principalement pour les souris qui n’aiment pas les gros câbles nécessaires pour les vitesses supérieures…



Le 28/11/2012 à 23h 26

Moi je les vois très bien les bandes, et sur 2 écrans différents. Sur celui-ci, je les vois presque jusqu’en bas et j’en vois même certaines bien fourmiller à cause du dithering (première fois que je le vois aussi nettement), alors que d’autre sont bien unies.


Le 28/11/2012 à 19h 31







HarmattanBlow a écrit :



Je t’invite à le voir par toi-même

Ceci est le résultat d’un dégradé d’une luminosité de 25% au noir. Soit, en 8 bits, de (64,64,64) vers (0,0,0). Sur 1024 pixels, tu te retrouves alors avec une succession de bandes de 16 pixels de large (102464 = 16) au lieu du magnifique dégradé attendu.



Merci pour ton exemple et tes infos, en réfléchissant un peu je pensais aussi à ce genre de cas, mais en fait je me demandais plutôt au cours de quel type d’activité, générale ou spécifique à une profession particulière mais sans chercher volontairement la petite bête, on se retrouvait avec des cas moches qui donnaient envie d’avoir plus de couleurs.



Et sinon oui j’ai un vieux TN iiyama qui dithere et qui a du mal avec les noirs…



Le 28/11/2012 à 16h 54







HarmattanBlow a écrit :



Mon rêve : un moniteur 10 bits par canal (R, G, B, A)



On arrive vraiment à voir une différence entre 8 et 10 bits par canal ? Je demande en amateur, je ne suis pas graphiste ou autre…



Le 28/11/2012 à 16h 45

Une backdoor pour moi c’est un accès volontairement placé par un programmeur du logiciel original, sinon c’est une faille de sécurité. Ce cas est-il identifié comme tel, ou alors c’est moi qui ai une mauvaise définition du terme backdoor ?


Le 16/11/2012 à 11h 29

Pourquoi vous dites tous qu’il est con ? Il prêche juste pour sa paroisse, et sans complexe, en faisant preuve d’ailleurs d’un égoïsme monstre, vu l’ampleur qu’aurait une telle taxe par rapport à l’économie réalisée par lui seul sur ses box…



Par contre effectivement, il est peut-être un peu con dans le sens où jamais une seconde je ne crois que ça diminuerai les taxes sur les autres catégories de produit. Peut-être une petite baisse la première année, pour faire style, mais rapidement rattrapée par une bonne hausse l’année suivante. Un doublement du revenu, vous croyez vraiment que la commission va laisser passer une occasion pareille ?


Le 14/11/2012 à 11h 48







Lynh a écrit :



Mais chez moi, Resharper ne fait pas ses modifications tout seul, c’est seulement à la demande :-).



Non effectivement, je me suis mal exprimé, je veux dire qu’il considère ça comme un changement à faire. Du coup, si tu lui demandes de faire automatiquement tous les changements de var, il fera sans distinction les lisibles et les moins lisibles.



Sans compter que ça vient encore s’ajouter à la barre d’infos/warnings/erreurs à droite du code (et pas qu’un peu), et que chez moi elle est déjà passablement surchargée de plein de trucs inutiles, ce qui la rend quasi inutilisable pour autre chose que les erreurs. Et à chaque version il y en a des nouveaux.



Le 14/11/2012 à 11h 28







Lynh a écrit :



var myObject = new MyCustomClass();



Je ne trouve pas cette forme plus ou moins lisible que l’autre, juste moins redondante. Mais il ne me semble pas qu’on paie les caractères à l’unité, en plus ReSharper propose tout seul de compléter la fin de la ligne dès qu’on a tapé le new, si le type a été spécifié à gauche.



Un cas par contre où c’est vraiment moins lisible, c’est ça (si le nom de la fonction ne permet pas d’identifier un type sans possibilité d’erreur) :



var myObject = GetCustomClass();



Et pourtant il me semble que ReSharper propose ce genre de remplacement par défaut, même si ça peut toujours se configurer.



Le 07/11/2012 à 15h 00







letter a écrit :



Un gros risque sur les photocopieurs modernes que beaucoup ignorent, c’est qu’ils ont une puce 3G pour que les prestataires s’occupent de la maintenance sans avoir à se déplacer.



Donc aussi une SIM et un abonnement pour chaque photocopieur ? Ou alors il est possible de transmettre en 3G sans ça ?



Le 07/11/2012 à 12h 38







timhor a écrit :



non le raid 5 n’a toujours qu’un disque de parite, peut importe la quantite de disques.

le 6 en a 2



le 50 est un raid 0 de raid 5 et contient 2 disques de parite, un pour chaque grappe de r5.



C’est ce que je voulais dire par “version du RAID 5”, me rappelais plus comment il s’appellait… Le 50 peut contenir plusieurs grappes RAID 5 donc plusieurs disques de parité, il n’y a pas de limites…



Le 07/11/2012 à 12h 18

Il y a plein de variantes, mais elles n’ont pas forcément toutes une utilité. A ma connaissance, il n’y en a pratiquement que 4 d’utilisées (avec n le nombre de disques et t la taille d’un disque):



RAID0, stripping : n &gt;= 2, taille totale = t * n, performances séquentielles multipliées par n en lecture/écriture, pas de tolérance aux pannes



RAID1, mirroring : n &gt;= 2, taille totale = n, performances séquentielles multipliées par n en lecture seulement, tolère la panne de n - 1 disques



RAID5, parité : n &gt;= 3, taille totale = t * (n - 1), performances séquentielles multipliées par n - 1 en lecture/écriture (avec un calculateur de parité hardware, en soft c’est plus lent), tolère la panne d’un disque



RAID10, stripping + mirroring : n pair &gt;= 4, taille totale = t * (n / 2), performances séquentielles multipliées par n en lecture et n / 2 en écriture, tolère la panne de n / 2 disques



Et parfois des versions du RAID 5 avec plusieurs disques de parité, pour les configs avec beaucoup de disques…


Le 07/11/2012 à 11h 49

En RAID, on divise la taille totale en blocs de taille fixe (disons 128 Ko), puis on répartit ces blocs sur les différents disques suivant le mode RAID utilisé.



Dans le cas du RAID0, on répartit simplement les blocs en changeant de disque à chaque fois. Avec 3 disques, le 1er disque contiendra les blocs 0, 3, 6… le 2ème disque contiendra les blocs 1, 4, 7… le 3ème disque contiendra les blocs 2, 5, 8. Eventuellement, les derniers blocs à la fin du disque sont peut-être plus petit, ou alors la taille totale est légèrement diminuée pour être divisible par 128 Ko.



Le système de fichiers se fiche de ça, il ne sait même pas que cette répartition existe. Lui ne voit que la taille totale, qui est la taille d’un disque multipliée par le nombre de disques. Effectivement, si tu pensais que le RAID0 répartit chaque fichier de manière équitable sur chaque disque, ce n’est pas le cas. La divison se fait bien plus bas niveau, et de manière plus grossière, au niveau du contrôleur RAID. On gagne en perf surtout en faisant des grosses lectures consécutives (avec des gros fichiers), pas des petites aléatoires (sur lesquelles les SSD les défonceront toujours).


Le 07/11/2012 à 10h 24







psikobare a écrit :



deux disque, pour chaque octet on met 4bit sur l’un, 4bit sur l’autre, mais trois?





Ca ne marche pas au bit le RAID, les données sont réparties sur les disques par blocs de dizaines ou centaines de Ko, il n’y a donc jamais de maximum pour le nombre de disques, seulement un minimum qui varie suivant le mode RAID utilisé.