votre avatar

Inodemus

est avec nous depuis le 18 septembre 2012 ❤️

1935 commentaires

Le 30/07/2014 à 14h 08

Bon puisqu’on est dans les blagues…



nous attendons le retour du terrain

Il est parti le terrain ?

Le 23/06/2014 à 11h 00







Tiobet a écrit :



Si on part sur ce principe alors le CD est aussi un DRM. Tu ne peux plus jouer s’il est cassé <img data-src=" />.



Le CD tu peux en faire une copie ailleurs. Enfin sauf s’il est aussi DRMisé, on retombe dans le même problème…


Le 20/06/2014 à 00h 20

Y a quand même un truc que je pige pas avec ces boîtiers, c’est pourquoi il n’y a quasiment jamais beaucoup d’emplacements 3.5”. J’ai un (très) vieux Lian Li dans lequel je peux mettre 8 disques durs (et il y a encore 4 baies 5.25”), et avant ça, j’avais un boîtier noname pas cher où on pouvait en mettre autant.



C’est pas la place qui manque pourtant dans ces boîtiers, et ils sont pas donnés, alors pourquoi ils ne font pas descendre les emplacement 3.5” jusqu’en bas (et même monter jusqu’en haut pour celui-ci) ?

Le 21/04/2014 à 18h 39







ben5757 a écrit :



Mise à part le 2FA, il y’a pas tellement de solution pour se prévenir du vol de mot de passe par une application malveillante. Tu en as ?



J’essaie de ne pas taper mon mot de passe à un endroit où il pourrait y avoir des virus. J’ai justement dit que je n’avais pas d’autre solution pour sécuriser l’accès que l’authentification en 2 temps, mais ça ne veut pas dire que cette solution soit bonne. J’espère que quelqu’un trouvera le moyen de la rendre plus pratique, ou trouvera une solution différente.



A ma banque, avant il y avait la double authentification avec une carte imprimée avec un tableau de numéros, et un choisi au hasard à chaque fois. C’était une très bonne solution je trouve, la carte est facile à garder dans son portefeuille. Maintenant il ont ajouté en plus le téléphone portable, ça fait triple authentification et c’est bien lourd, il faut vraiment en arriver là ? Ailleurs il faut se trimbaler des boîtiers et c’est aussi lourd.









ben5757 a écrit :



Tu aurais pas le syndrome de l’utilisateur invincible ? Le prend pas mal, mais des gens qui ont ce discours ne sont pas les derniers à êtres victime d’incident de sécurité généralement. Quoiqu’il en soit, ta position implique qu’il faut faire confiance au bon sens de l’utilisateur. C’est en parti vrai, mais penser que cela suffit n’est pas vraiment réaliste.



Personne n’est invincible, et je n’ai rien à dire pour ma défense parce qu’on pourra toujours me dire que j’ai eu de la chance jusqu’à maintenant, mais l’utilisateur est à mon avis bien souvent le maillon faible. Je ne suis pas expert (ni même bon) en sécurité, mais je doute que la majorité des mots de passes soient volés par des virus (qu’il faut encore se choper), mais plutôt par une faute de l’utilisateur (qui est aussi le plus souvent à l’origine de l’installation du virus s’il y a lieu). De bonnes pratiques réduisent quand même très fortement les risques. Quelqu’un de mieux renseigné que moi pourrait-t-il commenter ça ?



Après je comprends ta problématique d’éducation de tous les utilisateurs, et je n’ai pas de solution pour ça. Mais je pense que c’est clairement ça la cause du problème, il est impossible de s’assurer des bonnes pratiques de la totalité des utilisateurs. J’imaginais qu’avec le temps ça allait changer positivement, mais ce n’est à priori pas ce qui s’est passé.









ben5757 a écrit :



De mon point de vue de client, l’accès au solde de compte et aux historiques de transactions est tout aussi sensible que la possibilité de faire des virements.



Question de point de vue, moi je ne trouve pas que les 2 soient aussi sensible. Mais même si tu le penses, je doute que ceux qui essaient de voler des mot de passe partage cet avis, et je pense que personne ne va s’amuser à mettre en place une stratégie de vol de mot de passe s’il sait qu’il ne pourra que regarder des relevés de compte.


Le 20/04/2014 à 21h 58

L’authentification en 2 temps est loin d’être la panacée je trouve. J’utilise très peu mon portable, souvent je ne l’ai pas sur moi, et franchement quand je suis pas chez moi ça me casse les pieds d’avoir besoin d’autre chose que d’un ordinateur pour accéder à mes comptes (bancaires ou non).



Je ne donne mes mots de passe à personne, je ne les partage pas entre les sites sensibles, je ne télécharge pas de virus et je ne rentre pas mes mots de passe n’importe où non plus. Si un site n’est pas capable de sécuriser l’accès avec seulement mon mot de passe (ou impose des limites débiles dessus), ce n’est pas ma responsabilité mais la sienne.



Je n’ai pas envie d’avoir à me trimbaler partout mon portable et/ou un boîtier pour chaque compte qui utilise l’authentification en 2 temps. A la limite une petite carte contenant plein de clés demandées aléatoirement comme fait ma banque avant de vouloir m’obliger à utiliser mon portable. Mais sinon, imaginez que ça se généralise, va vous falloir une brouette pour tout transporter.



Je ne connais pas la solution miracle, mais clairement pour moi ce n’est pas celle-ci.

Le 19/03/2014 à 14h 59

Je ne comprends pas trop cette étude, en prouvant que les bons en orthographe rédigent aussi des SMS moches, j’ai l’impression qu’ils ont fait l’inverse de ce qu’il fallait faire. C’est plutôt l’influence dans l’autre sens qu’il me semble que l’on cherche à établir.



J’aurais plutôt vu une comparaison du niveau en orthographe entre ceux qui utilisent les SMS et ceux qui ne les utilisent pas, ça m’a l’air plus juste.

Le 06/03/2014 à 09h 44







garvek a écrit :



Sans compter que le PNJ est un vieux format aussi …





Toi, tu fais trop de RPG…


Le 07/02/2014 à 15h 11



Cours Sonic, cours !

Ca fait bien longtemps qu’il n’existe plus !

Le 22/01/2014 à 16h 38







atomusk a écrit :



C’est pourtant bien le souci avec Free pour augmenter le peering : Google dit que c’est à Free de payer, et Free dit le contraire …





Si j’ai bien compris:




- Google dit que c'est à Free de payer le matériel qui permet de se connecter à leur point de peering gratuit, ce qui reste relativement peu cher. Et encore, pas sûr vu qu'ils proposent aussi d'installer des serveurs de cache directement chez le FAI, mais je n'ai pas regardé en détail cette possibilité.   






- Free ne veut peut-être pas payer ce matériel (je n'en suis pas sûr), mais veut surtout faire payer le peering lui-même à Google, c'est à dire la quantité de données que Google envoie vers Free, donc une tarification au volume sur la durée et pas une seule fois, ce qui sera très cher.   





Mais en aucun cas Google ne veut faire payer de peering (au volume) à Free. Et Google ne veut pas non plus en payer à Free.


Le 22/01/2014 à 16h 01







atomusk a écrit :



Clairment ici c’est avant tout un moyen pour Youtube de créer un logo à apposer sur les FAI qui leur léche les couilles et payent rubis sur ongle le Peering (comme avec SFR et Youtube en illimité).





Il ne me semble pas que le peering avec Google soit payant, c’est justement un argument qu’ils mettent en avant, qu’ils amènent eux-même les données directement chez le FAI.



Après ça reste effectivement un moyen de pression, parce que ce qui intéresse Google c’est que tout le monde puisse accéder à leurs services sans restrictions, donc ils veulent pousser les FAI à ne pas en mettre.


Le 22/01/2014 à 15h 51







fred42 a écrit :



Je parlais des cœurs de réseau opérateur et non pas de la boucle locale.



Pour cette partie de réseau, je n’ai jamais lu quoi que ce soit qui parlait d’une saturation. Si tu as une source, ce serait sympa de la partager.

La fibre des backbones des opérateurs est a priori loin de la saturation, enfin, c’est ce que j’ai lu jusqu’à présent à chaque fois que l’on parlait des problèmes de type Free/Youtube.





Non je n’ai pas d’infos particulières, je pensais simplement que s’il n’y avait pas de limitation de l’entrée du trafic au coeur du réseau, ça pourrait entraîner des saturations au niveau de liens plus locaux, qui sont eux plus chers à améliorer (même si ce n’est pas une excuse).



Mais d’après ce que tu dis, ce ne serait sans doute pas le cas, c’est donc plus une question de politique commerciale que de technique, mais le combat contre Google me paraît quand même bien déséquilibré…


Le 22/01/2014 à 12h 08







fred42 a écrit :



Oui mais non.

Ce qui coûte cher c’est le transit, pas vraiment le débit à l’intérieur du réseau du FAI. Il suffit essentiellement d’ajouter des routeurs.





Euh non le débit à l’intérieur du réseau du FAI dépend plutôt de la capacité des liens (câbles et fibres) qui le composent. S’il y a des goulots d’étranglement à certains endroits on ne peut les résoudre qu’en remplaçant le lien incriminé ou en en ajoutant d’autres en parallèle, ce qui implique au minimum de payer le nouveau lien (qui peut faire des dizaines ou centaines de km de long), et parfois refaire des travaux de génie civil.



Le progrès technologique permet aussi parfois d’augmenter la capacité des liens existants (comme pour l’ADSL qui a progressé en débit sans qu’on change jamais le câble de la ligne téléphonique), mais c’est à mon avis loin de couvrir la majorité des cas.



Donc je pense pas qu’augmenter le débit du réseau interne soit aussi trivial que tu le dis, mais par contre on est d’accord que c’est au FAI de le faire (et à personne d’autre), avec l’argent de nos abonnements.


Le 26/09/2013 à 09h 48

J’ai une question, attention c’est juste une question, pas un troll ni une ébauche d’avis pour ou contre le vote électronique.



Jusqu’où on contrôle le vote papier ? Au niveau des bureaux de vote on peut contrôler le comptage, mais ensuite ? Comment et à qui sont communiqués les résultats ? Comment et qui les agrège au niveau départemental, régional, national ? Quels moyens de contrôle a-t-on pendant le processus à ces niveaux-là ?



Après c’est sûr, on peut toujours refaire le compte soi-même en prenant les résultats de tous les bureaux de vote qui sont publiés sur différents médias et qu’on peut considérer comme justes vu qu’il serait très risqué de les publier faux, mais c’est très fastidieux, il faut quand même avoir un léger doute au départ pour s’y lancer et il faut pas se gourrer.

Le 25/09/2013 à 18h 23

J’ai sûrement raté un épisode, mais quel est le rapport entre ce compteur et le fait que certains payent un abonnement trop puissant par rapport à ce qu’ils consomment ? Que je sache le compteur ne change pas les tarifs, ces gens payaient déjà trop avant, et s’ils avaient baissé leur abonnement avant ils auraient payé le même prix qu’après pour la modification, et économisé sur le long terme pareil avant qu’après. Bref je ne comprends pas cet argument…



Pour les disjonctages intempestif c’est sûr qu’une gestion du courant de pointe serait pas du luxe pour ceux qui sont à la limite sans la dépasser de manière prolongée (je veux dire plus de quelques secondes). En électricité on retrouve partout cette notion de courant de pointe de courte durée et courant nominal, ça devrait s’appliquer ici aussi.



Après, qu’il n’y ait plus de tolérance ça ne me choque pas, mais attention quand même à respecter le fait que les abonnements sont exprimés en kVA, pas en kW. Je demande à un électricien ici d’expliquer la différence dans le cas de EDF parce que je saurais pas le faire, mais je sais qu’il y en a une et qu’elle ne peut être qu’à notre avantage.



Aussi, il faut arrêter de dire que les factures ne seront plus lissées à l’année. Partout quand on veut vous faire payer quelque chose on essaie de vous refiler un montant fixe à payer chaque mois, parce que ça fait moins d’un coup et que ça rassure les clients qui accepteront de dépenser plus au final mais moins tout de suite. Il n’y a aucune raison que ça change juste pour des raisons techniques, les raisons commerciales de le faire sont toujours là.

Le 23/08/2013 à 15h 14







chaps a écrit :



Sur les Samsung tu peux en paramétrer un toi même, de la taille que tu veux, si tu le désires <img data-src=" />





Ah OK. En même temps on peut le faire sur n’importe quel SSD en laissant de la place à côté des partitions.


Le 23/08/2013 à 15h 07







Avygeil a écrit :



Et l’over provisionning se fait sur tous les disques depuis un moment déjà…sauf si tu retrouves un vieux vertex en firmware 1.1.





Un Crucial m4 c’est pas si vieux quand même, et sauf erreur les Samsung (sauf 840 pas pro) et Plextor n’en ont pas non plus…







sylware a écrit :



L’usb3 peut encaisser? Car quand j’aurais mon modem/routeur ADSL avec aux fesses 2 SSDs en RAID1 pour faire un home server…

<img data-src=" />





Si t’es en Ethernet 1Gbps vers ton PC ensuite, l’USB 3.0 suivra… Si tu as un meilleur accès (lequel ?) alors non. Dans les 2 cas le RAID ne t’apportera pas de performances supplémentaires…


Le 23/08/2013 à 13h 57







Avygeil a écrit :



En pratique non, les SSD ont tous de l’overprovisioning proportionnel à la capacité totale pour justement faire passer son Garbage collector quand un SSD est plein.





Non ils n’ont pas tous de l’overprovisionning. Par contre ils font tous du wear levelling, et ce depuis longtemps. C’est qu’ils se débrouillent pour écrire dans les cellules les moins usées parmi les cellules libres. Et même quand il est plein, il peut toujours déplacer des données suivant ce qui l’arrange (par exemple d’une cellule usée à une moins usée, mais y a peut-être d’autres mouvements utiles).



Ce qui veut dire qu’on ne peut pas user une cellule en particulier, pour qu’une cellule atteigne sa limite de nombre d’écriture il faut que toutes les cellules du disque en soient aussi proches. On ne peut pas non plus écrire dans une seule cellule en particulier, car c’est le SSD lui-même qui gère la répartition des données dans les cellules, répartition qui n’a aucun lien avec l’emplacement des données vues par le PC.



Il y a effectivement une usure plus rapide quand il est plein, mais c’est du au facteur write amplification, que je n’expliquerai pas ici mais qui augmente quand la place disponible diminue. Mais ça reste maîtrisé quand même, genre ça s’use 2 ou 3 fois plus vite quand c’est bien plein, mais pas 100 fois.



La durée de vie d’un SSD correspond donc simplement au nombre de cycles d’écriture supportés par une cellule multiplié par la capacité totale du SSD. Cela donne le volume de données qu’il est possible d’écrire sur le SSD avant qu’il montre des signes de faiblesse, et ce que l’écriture se fasse linéairement ou toujours au même endroit.



Et encore, le nombre d’écritures donné est souvent pas mal sous-estimé car il s’agit d’une valeur minimum garantie par le fabricant de la flash, alors que la grande majorité des cellules ont une endurance bien plus grande.



En gros, faut pas s’en faire, il est difficile d’arriver au bout, hormis en le cherchant vraiment (genre écrire au débit max 247)…


Le 13/08/2013 à 13h 44

J’ai pas trop compris comment ils étaient censé attraper pacifiquement les ballons, ils ont l’air de s’envoler super vite et d’aller assez haut, il fallait les suivre à travers la campagne en attendant qu’ils retombent pour espérer en avoir un ?

Le 30/03/2013 à 20h 37

Par contre, si je me gourre pas, si on veut téléphoner depuis la France vers l’International, il faut prendre l’option “Internationale” (celle avec les 5€ valables 3 mois). L’option “Voyage” ne fonctionne que depuis l’étranger, pas depuis la France.



Donc pour que ce soit fonctionnel avec l’étranger pour toutes les possibilités il faut prendre les 2 options.

Le 21/03/2013 à 17h 29

Même avec une bonne connexion ADSL, il faut déjà 12h par jour d’upload. Je vois pas trop comment utiliser ce truc dans ces conditions…



C’est seulement destiné aux 0.5% en France qui ont la fibre (et encore, à plus de 10M d’upload, sinon faut quand même plus d’une heure par jour) ? Ou alors en amérique tout le monde a ça?



Ou alors j’ai rien compris…

Le 09/01/2013 à 11h 52







pti_pingu a écrit :



Ca dépend de l’interface <img data-src=" />



Ben même, je saurai toujours que c’est une machine derrière.


Le 09/01/2013 à 11h 48

J’ai vraiment du mal à me faire au fait de commander des appareils à la voix, je ne sais pas si certains trouvent vraiment plus naturel de parler à une machine plutôt que d’appuyer sur des boutons, mais moi non. Je suis peut-être de la vieille école, mais j’ai l’impression d’atteindre le summum de l’autisme chaque fois que je dois le faire (cf certains répondeurs téléphoniques où il faut causer pour donner son choix, qui en plus souvent ne comprennent rien).



Même pour les gens qui ont du mal avec la technologie, j’ai de gros doutes qu’ils trouvent ça plus naturel…

Le 07/01/2013 à 15h 46







june a écrit :



Tu as oublié :

USB 1.1 : FullSpeed



Et aussi USB 1.1 : LowSpeed (1.5 Mbit/s), principalement pour les souris qui n’aiment pas les gros câbles nécessaires pour les vitesses supérieures…


Le 28/11/2012 à 23h 26

Moi je les vois très bien les bandes, et sur 2 écrans différents. Sur celui-ci, je les vois presque jusqu’en bas et j’en vois même certaines bien fourmiller à cause du dithering (première fois que je le vois aussi nettement), alors que d’autre sont bien unies.

Le 28/11/2012 à 19h 31







HarmattanBlow a écrit :



Je t’invite à le voir par toi-même

Ceci est le résultat d’un dégradé d’une luminosité de 25% au noir. Soit, en 8 bits, de (64,64,64) vers (0,0,0). Sur 1024 pixels, tu te retrouves alors avec une succession de bandes de 16 pixels de large (102464 = 16) au lieu du magnifique dégradé attendu.



Merci pour ton exemple et tes infos, en réfléchissant un peu je pensais aussi à ce genre de cas, mais en fait je me demandais plutôt au cours de quel type d’activité, générale ou spécifique à une profession particulière mais sans chercher volontairement la petite bête, on se retrouvait avec des cas moches qui donnaient envie d’avoir plus de couleurs.



Et sinon oui j’ai un vieux TN iiyama qui dithere et qui a du mal avec les noirs…


Le 28/11/2012 à 16h 54







HarmattanBlow a écrit :



Mon rêve : un moniteur 10 bits par canal (R, G, B, A)



On arrive vraiment à voir une différence entre 8 et 10 bits par canal ? Je demande en amateur, je ne suis pas graphiste ou autre…


Le 28/11/2012 à 16h 45

Une backdoor pour moi c’est un accès volontairement placé par un programmeur du logiciel original, sinon c’est une faille de sécurité. Ce cas est-il identifié comme tel, ou alors c’est moi qui ai une mauvaise définition du terme backdoor ?

Le 16/11/2012 à 11h 29

Pourquoi vous dites tous qu’il est con ? Il prêche juste pour sa paroisse, et sans complexe, en faisant preuve d’ailleurs d’un égoïsme monstre, vu l’ampleur qu’aurait une telle taxe par rapport à l’économie réalisée par lui seul sur ses box…



Par contre effectivement, il est peut-être un peu con dans le sens où jamais une seconde je ne crois que ça diminuerai les taxes sur les autres catégories de produit. Peut-être une petite baisse la première année, pour faire style, mais rapidement rattrapée par une bonne hausse l’année suivante. Un doublement du revenu, vous croyez vraiment que la commission va laisser passer une occasion pareille ?

Le 14/11/2012 à 11h 48







Lynh a écrit :



Mais chez moi, Resharper ne fait pas ses modifications tout seul, c’est seulement à la demande :-).



Non effectivement, je me suis mal exprimé, je veux dire qu’il considère ça comme un changement à faire. Du coup, si tu lui demandes de faire automatiquement tous les changements de var, il fera sans distinction les lisibles et les moins lisibles.



Sans compter que ça vient encore s’ajouter à la barre d’infos/warnings/erreurs à droite du code (et pas qu’un peu), et que chez moi elle est déjà passablement surchargée de plein de trucs inutiles, ce qui la rend quasi inutilisable pour autre chose que les erreurs. Et à chaque version il y en a des nouveaux.


Le 14/11/2012 à 11h 28







Lynh a écrit :



var myObject = new MyCustomClass();



Je ne trouve pas cette forme plus ou moins lisible que l’autre, juste moins redondante. Mais il ne me semble pas qu’on paie les caractères à l’unité, en plus ReSharper propose tout seul de compléter la fin de la ligne dès qu’on a tapé le new, si le type a été spécifié à gauche.



Un cas par contre où c’est vraiment moins lisible, c’est ça (si le nom de la fonction ne permet pas d’identifier un type sans possibilité d’erreur) :



var myObject = GetCustomClass();



Et pourtant il me semble que ReSharper propose ce genre de remplacement par défaut, même si ça peut toujours se configurer.


Le 07/11/2012 à 15h 00







letter a écrit :



Un gros risque sur les photocopieurs modernes que beaucoup ignorent, c’est qu’ils ont une puce 3G pour que les prestataires s’occupent de la maintenance sans avoir à se déplacer.



Donc aussi une SIM et un abonnement pour chaque photocopieur ? Ou alors il est possible de transmettre en 3G sans ça ?


Le 07/11/2012 à 12h 38







timhor a écrit :



non le raid 5 n’a toujours qu’un disque de parite, peut importe la quantite de disques.

le 6 en a 2



le 50 est un raid 0 de raid 5 et contient 2 disques de parite, un pour chaque grappe de r5.



C’est ce que je voulais dire par “version du RAID 5”, me rappelais plus comment il s’appellait… Le 50 peut contenir plusieurs grappes RAID 5 donc plusieurs disques de parité, il n’y a pas de limites…


Le 07/11/2012 à 12h 18

Il y a plein de variantes, mais elles n’ont pas forcément toutes une utilité. A ma connaissance, il n’y en a pratiquement que 4 d’utilisées (avec n le nombre de disques et t la taille d’un disque):



RAID0, stripping : n &gt;= 2, taille totale = t * n, performances séquentielles multipliées par n en lecture/écriture, pas de tolérance aux pannes



RAID1, mirroring : n &gt;= 2, taille totale = n, performances séquentielles multipliées par n en lecture seulement, tolère la panne de n - 1 disques



RAID5, parité : n &gt;= 3, taille totale = t * (n - 1), performances séquentielles multipliées par n - 1 en lecture/écriture (avec un calculateur de parité hardware, en soft c’est plus lent), tolère la panne d’un disque



RAID10, stripping + mirroring : n pair &gt;= 4, taille totale = t * (n / 2), performances séquentielles multipliées par n en lecture et n / 2 en écriture, tolère la panne de n / 2 disques



Et parfois des versions du RAID 5 avec plusieurs disques de parité, pour les configs avec beaucoup de disques…

Le 07/11/2012 à 11h 49

En RAID, on divise la taille totale en blocs de taille fixe (disons 128 Ko), puis on répartit ces blocs sur les différents disques suivant le mode RAID utilisé.



Dans le cas du RAID0, on répartit simplement les blocs en changeant de disque à chaque fois. Avec 3 disques, le 1er disque contiendra les blocs 0, 3, 6… le 2ème disque contiendra les blocs 1, 4, 7… le 3ème disque contiendra les blocs 2, 5, 8. Eventuellement, les derniers blocs à la fin du disque sont peut-être plus petit, ou alors la taille totale est légèrement diminuée pour être divisible par 128 Ko.



Le système de fichiers se fiche de ça, il ne sait même pas que cette répartition existe. Lui ne voit que la taille totale, qui est la taille d’un disque multipliée par le nombre de disques. Effectivement, si tu pensais que le RAID0 répartit chaque fichier de manière équitable sur chaque disque, ce n’est pas le cas. La divison se fait bien plus bas niveau, et de manière plus grossière, au niveau du contrôleur RAID. On gagne en perf surtout en faisant des grosses lectures consécutives (avec des gros fichiers), pas des petites aléatoires (sur lesquelles les SSD les défonceront toujours).

Le 07/11/2012 à 10h 24







psikobare a écrit :



deux disque, pour chaque octet on met 4bit sur l’un, 4bit sur l’autre, mais trois?





Ca ne marche pas au bit le RAID, les données sont réparties sur les disques par blocs de dizaines ou centaines de Ko, il n’y a donc jamais de maximum pour le nombre de disques, seulement un minimum qui varie suivant le mode RAID utilisé.