TreeSize pour savoir ou est l’encombrant plus finement. Il permet d’y voir clair en un clin d’œil.
Glary utils qui fait pas trop mal le ménage mais surtout qui a des modules intéressant pour gérer (démarrage, pilote, MAJ).
En général c’est Windows , Program files, pagefile.sys et hiberfil.sys qui sont dans le top. Accessoirement un repertoire steam… Users n’est pas mal non plus suivant comment on gère ces fichiers (<username>\AppData\Local\Temp etc).
Le
18/10/2017 à
15h
15
2show7 a écrit :
Je me souviens du Temps du C64 avec le datasette " /> " />
Et le tournevis pour régler la tête de lecture…
Le
18/10/2017 à
15h
14
micktrs a écrit :
Tu es bien en arrière. On ne parle pas de cube mais bien de perfs avec une cg.
Et sous windows, si tu veux les perfs liées à ta cg tu dois aussi aller sur le site du constructeur.
Et pour rivaliser sous blender entre os : YouTubeLe cube Compizien (puisque cela n’est pas perçu comme tel visiblement) requiert les performances de la CG en bonne et due forme donc proprio. Faut sortir du moule des moutures trop toute faite et qui imposent littéralement leur desktop pas vraiment unificateur. Et surtout ce sont des solutions qui n’ont pas besoin de grand chose en terme de performances. C’est d’ailleurs une sale habitude chez certains de pratiquer la compatibilité matérielle à X % en élaguant bien trop souvent. Certes les standardisations sont compliquées dans ce domaine; la situation s’améliore mais on est assez loin du compte en ce qui concerne les pilote générique ou plus ou moins frelatés.
Sur un SurfaceBook le pilote est fourni par Nvidia (décrit comme tel dans l’OS lui même) MAIS vient bien de l’installation d’origine du produit. Le fameux Microsoft. Pas besoin donc d’aller chercher plus loin et Blender trouve bien les CUDAs. Donc non on est pas toujours obligé avec Windows. Je leur ait craché dessus pas mal; mais je n’irais pas leur jeter la pierre sur les pilotes. Ils ont réglé un tas de problème du troll moyen qui n’a jamais rien vu de ces opérations. Mais surtout l’adage n’est plus valable. Il y a une diversification des méthodes c’est aussi suivant les matériels.
Merci de nous montrer cette vidéo qui relate bien ce que je dis.
Tu lis à l’endroit ou à l’envers? Nan je dis ça car sur la route ça peut être gênant. Mais merci pour le mode paraphrase.
Le
18/10/2017 à
08h
07
micktrs a écrit :
lol
Celà fais longtemps que tu as installé une distribution Linux ?
Drivers nvidia, simple d’installation soit avec le paquet fourni par la distrib ou par l’archive présente sur le site Nvidia.
ATI ? Encore plus simple : si carte graphique récente (R9 et suivantes) pas besoin d’installer de driver depuis le kernel 4.5 (et le 4.13 est dispo). Sinon, le driver libre prend le relais sans soucis.
Pour en revenir au sujet, il est clair que windows est long pour l’installation et les maj face aux distribution linux.
C’est bien ce que je décris. Merci pour la paraphrase. L’installation requiert un aller chez le constructeur. Pour ce qui est fourni par défaut cela dépend de la distribution et de la provenance. Je parle de perf… hein… Fais tourner le cube; après on verra. Merci
David_L a écrit :
Certes mais surtout cela amène toujours le même problème d’exhaustivité que nos chers troller-loller nous ramèneront sans cesses. Soit cela va aller plus vite sur X ou Y matériel, certes. Mais si on doit faire un profil bureautique ou infographiste cela peut changer du tout au tout. Je ne parle même pas des couches Oracle (quand requis) et compagnie sur Win dans le cadre bureautique avec “appli spé” (type CRM).
Avec le temps je considère que ce n’est pas la peine de prendre une Ferrari pour aller chercher le pain a 2 minutes de chez toi. Ou pire se paumer en route… Le profil cible a son importance aussi. Et il n’y en a pas qu’un seul.
Et qu’aussi ces OS sont plus ou moins dans des thèmes réservés à juste titre ou pas suivant les avis. On va dégrossir en disant que Windows a une large part bureautique et les X like une grosse part serveur. Ce qui relativise pas mal le bien fondé de la question générale. Sans compter l’application de méthodes industrielles d’installation.
On verra toujours Linux vs Win vs Mac avec des news:*.advocacy” aussi succulent que complètement démantibulés de la tête visiblement (lecture qu’on peut recommander en cas de déprime sévère).
Maintenant je préférerais : Quel OS pour quel usage? On verra du trollolo aussi mais au moins cela permettrait de faire connaître ces OS (puisque c’est une finalité en soit) un peu mieux pour ce qu’ils ont de bien.
Tiens un exemple : Qui fait du Blender sous Linux avec rendu accéléré ? Et pourtant ça marche comme un charme et c’est pas dur a installer (driver propriétaire compris). Quid des listes d’équivalence Linux/Win. La aussi, plus d’un aura des surprises.
Le
17/10/2017 à
20h
32
hmmmm Pour moi je sais pas si ca compte ce genre de test.
Installez les drivers propriétaire (ou équivalent) pour la carte graphique et faire tourner le divin cube sur un linux peut s’avérer chronophage. Et installez un blender pour voir si ca fait un rendu bien comme prévu avec l’accélération matérielle bien sur. Ou pourrai y avoir quelques reprise a faire.
Je dirai que cela dépends surtout de ce que l’on veut.
Windows s’installe nu. Vient ensuite la panoplie. Logiciel libre ou pas.
Linux peut être plus garni dès l’installation mais attention a ne pas trop en demander non plus. Dès qu’on veut pousser le schmilblick (surtout avec Ubuntu).
Sous cet angle cela aurait peut être eu plus de sens.
Bref LA bonne réponse, à partir du moment où l’on veut maintenir un réseau cellulaire, c’est de mailler finement (qu’une zone soit dense ou pas en terme de population) avec des antennes de faibles émission. Justement pour qu’il y ait par exemple moins de pélerins par antenne (aussi bien dans la cambrousse qu’en ville), et que tu sois moins arrosé, par exemple, et seulement par des antennes/téléphones émettant du coup à faible puissance.
Mouais… mais c’est pas le cas. En tout cas on en est loin et cela restera longtemps comme cela. Pour des raisons de coût et de complexité foncière notamment. A la rigueur les box en hotspot wifi mais bon si t’es sur un vélo…
Le
18/10/2017 à
21h
30
“Au passage, si on augmente la densité des antennes, la puissance d’émission des téléphones tend à diminuer elle aussi, donc l’utilisateur se fait un peu moins arrosé par son propre combiné… ca aussi, c’est un bon point pour augmenter la densité d’antennes. ”
D’accord pour les téléphones c’est effectivement un bon point
Un peu moins pour les antennes. En fait c’est en fonction de la densité. Cela dépend très lourdement de l’état du réseau. Et je peux t’assurer à 10000% que de l’antenne seule à desservir 3 petites villes de la pampa pendant plusieurs mois (en attendant d’installer/réparer/upgrader le reste) n’est pas du tout mais alors vraiment pas un phénomène rare. Ajoutons en plus les plans du style Crozon (en gros c’est du roaming entre opérateur FR (ici Bytel / SFR)) ou encore Free au début… Souvent cela affiche “ton opérateur chéri” mais c’est l’antenne d’un autre. Donc ça on va relativiser. La présence des opérateurs n’est pas la véritable présence physique. Du coup on peut pas compter sur une présupposé densité en fonction du nombre d’opérateur.
et puis …Pour une seule connexion. soit.
Qu’en est il des heures de pointe ou nous aurons une multitude de connexions à plus ou moins grande distance (donc puissance) ? je veux dire par là que quand bien même le multiplexage fait que ton téléphone ne s’occupe pas de la fréquence prévue pour un autre; il n’en n’est pas moins qu’elle le traverse (plus ou moins) et toi avec (complètement). Voire pire si ça rebondit.
Donc en fait mise à part que l’antenne GSM émet dans une direction (un angle) et que ce n’est pas omnidirectionnel (ouf). On se fait traverser quand même par tout se qui passe sur cette antenne et éventuellement qu’en présence réelle de plusieurs opérateurs (les villes +10k habitant); il y a toutes les antennes arrosant dans la même direction.
Je veux dire par là: On a un environnement avec
une multitude de fréquence
une multitude de puissances différentes (même si infime cela reste distinctif)
des usages différents. La voix c’est pas le débit en DL sur Youporn
Effectivement si on teste avec 1 GSM, 1 antenne, 1 gus et avec une seule fréquence (isolation du phénomène); on ne pourra pas voir de résultat s’approchant de la réalité urbaine. Je conçoit que ce soit difficile mais bon; il va bien falloir se poser la bonne question à un moment.
Le
17/10/2017 à
12h
55
Paupiette5000 a écrit :
Les degats sur le cerveau, en France, ne sont pas considérés. Par dégâts, j’entends surtout la permeabilisation temporaire de la membrane cerebrale durant l’emission et l’entrée de substances , qui n’ont pas à rentrer, dans le cerveau.
Il y a peut être le principe de “l’intégrité corporelle”. A creuser pour les juriste chevronnés.
Le
13/10/2017 à
21h
48
heu… est tu certain d’avoir bien lu ?
Le
13/10/2017 à
19h
03
Ici je parle des effets biologique. Pas seulement de la description physique. Et puis y’a pas que les antennes GSM. Les bornes Wi-Fi ne sont pas avares non plus de flux et bien plus proche de nous.
Pour vulgariser un peu l’exemple. Prendre une grosse cuite une fois dans l’année ou tu te mets grave sera probablement moins néfaste que de boire un demi verre tous les jours. La molécule chimique récréative est la même, seulement on sait avec certitude que l’ingérence ponctuelle contre une habitude n’a pas les mêmes effets sur le long terme. Et devines qui gagne à la loterie de la cirrhose du foie ?
Quid des ondes radio sur le même thème? Je n’ai jamais entendu parler d’étude sur le sujet.
Le
13/10/2017 à
09h
49
KBO Zoreil a écrit :
Je confirme. L’émission du mobile pouvant monter en général autour des 26 dBm lorsque celui-ci cherche à joindre le réseau, il est beaucoup plus nocif qu’une antenne située à plusieurs centaines de mètres dont le signal est reçu autour des -90dBm en moyenne.
Les associations du style Robin des toits me font beaucoup rire (jaune) " />
Il me semble que c’est d’ailleurs pour cela que les mobiles doivent être déconnectés dans un avion pour éviter d’avoir plusieurs centaines de sources qui émettent à pleine gomme dans une boîte métallique pendant toute la durée du vol." />
Il me semble que c’était (donc avant) pour le fait que cela gênait certains équipements. Pas certain mais il me semble que la fibre a fait son entrée dans les avion (a cause des moniteur et films) et que du coups le même système est utilisé pour d’autres équipements. Donc moins pénalisant.
Toutefois c’est pas faux que les téléphones sont un peu nunuche a bouriner pour trouve une antenne.
C’est pas ce que j’ai demandé. En fait il parle d’un niveau moyen versus le téléphone qui “chauffe seul”. Pour ma part je considère que du réseau il y en a partout ou l’urbanisation existe. Surtout avec les appels wifi qui permettent de contourner la problématique de la présence des antennes. Dans une gare, ou a proximité d’un bâtiment ou les box font le relais par exemple. Bref le maillage est déjà là. Ca dépend ensuite du téléphone.
Ce que je demande en source c’est qui montre que le maillage ténu (donc plus de sources de tout genre) qui augmente la pression radio moyenne est plus salutaire qu’un téléphone seule qui émet un peu plus fort. Dans ce dernier cas c’est une exposition courte et ponctuelle. Dans l’autre c’est une exposition moins forte mais omniprésente. Pour moi y’a matière à vérifier. Seulement quelqu’un l’a-t-il fait??? Source??
Le
13/10/2017 à
01h
07
DayWalker a écrit :
Ca explique d’ailleurs la bêtise des gens qui ne veulent pas voir d’antennes sur les toits… il vaut mieux avoir plein d’antennes émettant peu que moins d’antennes obligées d’émettre plus fort pour couvrir une zone plus grande. En effet la puissance à la réception sur un téléphone étant définie par la sensibilité de ce dernier, à téléphone identique, plus le maillage d’antennes est important, plus il y aura de chances d’avoir une antenne proche nécessitant une faible émission, “arrosant” nettement moins les gens entre le combiné et l’antenne (entre autre, ceux qui ne sont pas en train de téléphoner, mais se trouvant au voisinage de l’antenne, et de la personne qui téléphone…).
Merci pour le retour, c’est une info intéressante, mais je voudrais être sûr d’avoir bien compris. C’est directement auprès de Microsoft France que tu as soumis la procédure d’échange, ou c’est ton revendeur ?
Oui Ms en direct; il faut déclarer l’équipement sur le site et lancer la procédure. Pendant que j’y pense il y a des manques sur certains points. Le site n’est pas d’une clarté absolue quand on veut consulter l’avancement du ticket mais c’est pas la croix et la bannière non plus.
Le
18/10/2017 à
08h
35
127.0.0.1 a écrit :
Je ne suis pas assez spécialiste pour voir l’intérêt de se payer cette config par rapport à des offres a 50% ou 75% de ce prix chez les concurrents (genre un Acer Swift).
C’est un truc qui peut s’utiliser en mode tablette comme en PC portable de base. Avec donc le tactile (ou stylet) en plus. Un dessinateur y voit tout de suite son intérêt. Mais pas que. Le fait qu’il y ait du Nvidia dedans a permis de faire du Blender en mode GPU (car mieux supporté à l’époque que AMD) par exemple.
Ca en fait un bon compagnon de route pour l’utiliser partout. Et cela manquait dans le paysage d’avoir un vrai portable en toutes situation. Le mode tablette permet de se passer d’une table. On peut montrer (et aussi retoucher) des choses même en étant debout. Ex; sur un chantier ou au coin d’une table d’un café. Prendre des notes.
Pour de la bureautique c’est largement suffisant (très large même).
Le
18/10/2017 à
08h
24
Citan666 a écrit :
Ma foi, ils auraient annoncé ça un mois plutôt, j’aurais peut-être différé mon renouvellement de portable… Même si le prix… Ouch !!
Je sais bien que les ratios élevés de flexibilité/compacité/performance se payent, mais là, on sent tout de même la bonne grosse marge façon “notre public cible ce sont les gens capables d’acheter du Apple donc on peut charger comme des boeufs, ça passera crème”.
Ouais mais le SAV n’est clairement pas en basse de la note. Pour moi j’ai eu un remplacement en moins de 4 jours pour mon problème. Sans plus de discussion que cela. 3 ou 4 phrases sur le site. Le plus chiant a été de faire le carton. Je suppose que cela se paye.
C’est étonnant ce propension a détourner les propos d’autrui. Surtout pour avancer des choses que les faits contredisent. Franchement partir sur le sujet des pesticides est au mieux maladroit sinon très mal au fait des choses.
Sujet clôt.
Le
16/10/2017 à
11h
39
OlivierJ a écrit :
On n’a aucun moyen de ressentir du WiFi (ou de la 4G d’ailleurs) avec nos sens, en plus le WiFi c’est une puissance dérisoire, on est dans les milliWatts.
Chaque fois que ça a été étudié, on a vu que la supposée électro-sensibilité n’existait pas.
Je t’invite à lire un dossier de CanardPC très bien fait qui fait le point sur ces questions.
Il y a aussi de beaux effets placebos, un des plus beaux est celui-ci :
Les habitants d’un quartier de Saint-Cloud seraient atteints de malaises plus ou moins graves depuis l’installation d’antennes relais d’Orange. France 5, le JDD, Le Parisien et autres s’en sont fait l’écho.
Or, selon Challenges (qui lui a appelé Orange), aucun de ces médias n’a interrogé l’opérateur. C’est bien dommage car il semblerait que “les trois antennes mobiles de Saint-Cloud installées depuis le mois de mars dernier n’ont jamais fonctionné et n’ont donc jamais émis la moindre onde”. [faute d’avoir installé les armoires de puissance]
En ce qui me concerne ce n’est pas parce que je savais. J’ai d’abord cherché pourquoi j’avais des picotements. Rhumatismes, usure musculaire (levé de charge à la salle), trauma (plantage en skate), goutte ??? etc… rien.
Ben moi aussi mon portable chauffe quand il fait des mises à jour.
je n’ai pas parlé de chauffe. En fait mon SurfaceBook ne chauffe qu’à un seul endroit tellement c’est miniaturisé
Le tabac on sait que ça peut entrainer des pathologies depuis la fin 19e ou début 20e, et les premières études épidémiologiques sérieuses ont eu lieu à la fin des années 40 début des années 50. Dans les années 70, mes parents ont arrêté de fumer car ils savaient (comme plein de gens) que ce n’était pas bon pour la santé à la longue, en plus de réduire les performances sportives.
L’amiante, on sait que c’est nocif (surtout pour ceux qui l’extraient ou la manipulent) depuis la fin du 19e, c’est facile à vérifier. L’amiante est restée utilisée très longtemps car c’était un matériau un peu miracle pour la résistance au feu (bâtiments et combinaisons), et quelques autres usages, sans créer de dommages pour autant.
" />
Ce que je décris pour l’amiante par exemple est le fait que il a quand même fallu pas moins de 50 ans pour l’interdire et désamianter en France.
“Il s’est écoulé plus d’un demi-siècle entre les premières études irréfutables (1945) et l’interdiction de l’amiante en 1997 par le président Jacques Chirac. ”
Ça fait une belle jambe a ceux qui sont mort d’un cancer des poumons et dont les familles n’ont finalement jamais eu gain de cause. Seule une partie a eu réparation. Et ça leur fait une belle jambe aussi. C’est toujours mieux de compter les vivants.
Toutefois il aurait été bien mieux de faire des études (apparemment ça c’est ok), puis déterminer comment c’est nocif et enfin l’utiliser à bon escient. On a assisté un peu au contraire.
Le tabac… juste que c’est encore en vente libre… Quid du défilé des 7 nains ? (si tu connais l’histoire)
Bref la position dominante de certains ne s’amenuise qu’avec le tarissement de leur source de pognon. A moins d’un “énomissimo-grandiosa shady scandalous”. Mais bon quand on connaît l’histoire des 7 nains du tabac on peut se dire que même cela n’est pas efficace.
Bref on est des cobayes.
Le
14/10/2017 à
22h
03
Je ne dis pas que je suis malade. Juste que je le sent. Après le mot douleur c’est pour faire comprendre. En tout cas picotement dans les paluches.
Test très simple -> SurfaceBook, win10. L’OS pompe les mises à jour sans le dire. Elles font des gigas; ca prend du temps. Si t’as les mains dessus… t’es au contact.
Après faut voir comment les protocoles de test sont fait. C’est pas seulement la porteuse qu’il faut tester. C’est avec ce qui passe dessus aussi. Bref de toutes façons on n’en saura pas vraiment plus avant que le secteur soit moins fortuné. Comme pour tout. L’amiante, le tabac, bref…
Et non je n’ai pas d’antécédents du coté du bulbe; j’ai même mis du temps a me dire que fallait être prudent.
Le
14/10/2017 à
18h
52
Non
Le
13/10/2017 à
19h
15
Pour le WiFi ça va de douleur singulière à picotement. Ce n’est pas forcément instantané non plus. Parfois ça se réveille après un temps. J’y étais moins sensible avant.
Ce n’est pas non plus un truc a se tordre de douleur par terre comme Rambo qui se serait coupé le bout du doigt et crierait “Moman!”. Mais c’est suffisant pour que je le remarque. Et ca décale un peu avec le personnage un peu trapu et pas franchement douillet que je suis.
Évidement le mobile sur la tronche est exclu pour moi. Casque obligatoire! Quitte a passer pour un malpoli quand quelqu’un veut me passer l’appel. Je refuse net si pas d’écouteur disponible.
Si dans un TGV la personne à coté téléphone en pleine pampa et que le téléphone se met a booster le signal… bon bin je vais pisser. Sans quoi c’est mal de tronche garanti et un pauvre type qui fini sur les rails.
Je dirai que cela fait 5 a 7 ans que c’est comme cela. Ce sont je suppose les débits et volume transmis grandissant qui donnent cela.
Le
13/10/2017 à
09h
31
Donc voila; Y’a rien de sérieux concernant l’exposition sur le long (depuis les années 90 quand même - c’est l’avènement du mobile) à toutes les sources de proximité qui sont ceux qui nous filent le plus de watts du fait de cette proximité (voir du contact)…
Je sais pas pour vous mais si je pompe un truc en Wi-fi depuis un PC portable je le sens. Au moins dans les mains si je les laisse sur le clavier. Idem avec un mobile. Du coup ça fait des années que j’achète des rallonges pour éloigner les sources émettrice quand je le peux.
Remarque, depuis le temps on va peut être finir par voir des pathologies émerger.
Le
13/10/2017 à
01h
02
Halala. Cette étude c’est une mesure prise… dans la rue par exemple. Ce n’est en aucun cas une étude épidémiologique.
On ne peut que se poser la question. Être a proximité (wi-fi, mobile) ou en contact direct d’émetteurs et de manière répétée et régulière ne peut qu’inciter à y regarder de plus près.
Il me semble avoir entendu parler d’une étude du genre en 2009 qui préconisait de porter le dispositif plutôt du coté de la fesse. Une conclusion édulcorée s’il en est.
Le
12/10/2017 à
13h
14
C’est mignon mais cela reste une mesure dans le milieu.
Qu’en est-il de l’exposition aux ondes des téléphones eux mêmes.
Après tout la plupart des gens le tient bien fermement contre la face. Et très régulièrement qui plus est.
+1, elle sont où les offres de fichiers que je peux DL, mettre sur tous mes devices, en 1080p ou 4k quand le support existe, et sans DRM?
“DRM matériel exclusif”. Les gens disent DRM en en pensant a celui ci alors que cela peut prendre un tas de formes. Malheureusement l’industrie ne fait que la promotion du premier.
Mihashi a écrit :
À la vitesse où les choses vont dans 100 ans le domaine publique n’existera plus…
Et sinon, il n’y a que moi pour penser qu’un ministère de la culture devrait s’intéresser surtout à la diffusion la plus large possible de la culture plutôt qu’à sa rentabilité économique pour certains intérêts privés ?
Il te faut une bonne dose de Franck Lepage sur ce qu’est le ministère de la culture. Petit extrait
Autrement:
Sur ce genre de sujet on a toujours les même poncif à la con.
Ce qui serait plus juste ce serait de s’amener avec les chiffres du secteur et de regarder ce que cela donne.
Je ne prétend pas en faire un exemple général mais en cherchant vite fait:
Ca se porte pas si mal. Si on ajoute les chiffres des salles de cinéma qui sont intrinsèquement liés à la production de films. Il ne doivent peut-être pas trop pleurer non plus.
Bref à chaque fois que les voit pleurer c’est qu’il se portent bien en fait. Même coup en 2009. On entendait “hhhaaa on va tous mourir a cause du piratage”. Alors qu’on avait des records de ticket vendu dans les salles…
Et jamais on ne parle du prix prohibitif de la place de ciné (ou des carte d’abo).
Comme d’habitude avec ce genre d’article, la conclusion me laisse un goût d’inachevé dans la rédaction.
Pourquoi partir sur un délire “même si un tel couplage était voté par les parlementaires puis validé dans son principe par le juge constitutionnel” quand on sait que cette proposition n’a AUCUNE chance d’aboutir car venant de l’opposition.
Plutôt que de dire justement “si dans le principe on sait que ce projet a peu de chances d’aboutir car provenant de l’opposition, il a le mérite de présager ce que ferait le groupe LR une fois au pouvoir”
Cette conclusion couplée avec la présentation des “amendements”, “propositions” issues des autres groupes parlementaires d’opposition (la France insoumise, PS et FN) rendrait ce travail d’information beaucoup plus pertinent et utile pour le lecteur.
En fait je vois plutôt que cela ressemble au problème des liens forts entre les bases deux ans (ou plus) en arrière. Il reviennent avec un contournement. Ce sera pas des liens forts mais probablement une “méta-base”. Et qui va faire le boulot de crawling??? hmmm y’a bon les moteurs de recherche…
Le terrorisme est une bonne excuse. Que cela vienne ou pas de l’opposition il semble que cela soit un vœux pieux. Bien que je reconnaisse que cela peut aider cela aura fatalement des effets négatifs. Sous prétexte que tu as eu X ou Y démêlé avec la justice (ex tu t’es battu avec un type -> passage devant le juge) tu pourrais avoir des durée de contrôle routier qui se rallonge. Mais tout ça dans le respect de la vie privée hein…
Et pire encore si tu troll dans les forums… Tu pourrais te faire ficher comme dissident. Attends… nan c’est bon personne le lit NxI… " />
Winderly a écrit :
J’ai l’impression que dans l’ensemble, c’est toujours le même cap mais quand je lis ça :
“L’article 53 veut à cette fin soumettre l’ensemble des lycéens « à un examen médical de dépistage, au moins une fois par an »”
Est-ce qu’ils prennent les lycéens pour des débiles ?
En fait ça laisse plus de traces qu’on ne croit. Il faut 15 jours pour bien nettoyer le sang (et encore il y a des signes)… Alors évidement avec des boutonneux qui ne peuvent pas la tenir 5 minutes dans le slip. Il y en aura toujours pour se faire gauler. Bonne pioche quand même puisque cela ne sera pas a zéro par défaut. Cela permet de fichier plus vite. niark niark.
Sinon pour la reconnaissance faciale. Quelque solutions existent depuis un lustre:
Après cette série d’annonces, faisons un rapide bilan de la situation. Sur le matériel, les changements sont assez peu nombreux en façade, mais plus profond qu’il n’y parait dans certains cas. Le passage sur des SoC ARM en 64 bits permet de profiter du système de fichiers Btrfs sur des NAS de la gamme « Value » (DS218 et DS418 par exemple, d’autres suivront).Par contre, toujours pas vraiment de processeur véloce même sur les séries « + » puisqu’il faut trop souvent se contenter de Celeron J d’Intel. Côté connectique, si l’on peut comprendre l’absence de sortie vidéo HDMI, Synology misant sur le streaming, on regrette que le 10 Gb/s ne soit encore réservé qu’à certains modèles très haut de gamme (gamme « xs »).Il se répand pourtant sur les cartes mères de milieu de gamme et permet de dépasser la limite des 125 Mo/s du Gigabit. Une vraie barrière pour les NAS et les disques durs actuels, souvent capables de grimper largement plus haut, surtout lorsqu’ils sont utilisés dans une grappe RAID.Au lieu de cela, Synology continue de proposer plusieurs ports réseau Gigabit en mettant en avant l’agrégation de liens, contrairement à QNAP avec ses NAS de la série « X » qui intègrent du 10 Gb/s. Interrogé sur le sujet, le constructeur nous répond qu’il n’aurait pas de demande en ce sens de la part de ses clients pour le moment, y compris chez les professionnels.Dans tous les cas, il est dommage que le constructeur ne soit pas plus pro-actif sur le sujet, cela aiderait certainement à démocratiser le 10 Gb/s. Une situation qui n’est pas sans rappeler la (très) longue transition de l’USB 2.0 vers l’USB 3.0 (ou 3.1 gen 1, marketing quand tu nous tiens) de Synology.
Je pense qu’il y a un petit focus a faire. Je pense que le jugement n’est pas mérité. Vouloir du “plus; plus” dans ces boites; c’est bien mais encore faut il garder les pieds sur le sol.
Avoir plus de vélocité CPU sera surtout utile au utilisateurs de virtualisation. Pour le boulot service de fichier cela suffit largement. En fait les goulots d’étranglement sont plutôt les disques durs et éventuellement la bobox de monsieur tout le monde (les ressources réseau).
D’ailleurs même dans une PME un switch sera la plupart du temps en 1Gb/s et pire quand tout le monde se connecte avec sont portable (soit disant surpuissant mais bridé en mode batterie) qui va ne faire que du WiFi…
Aller on dit que dans la PME c’est des Roxor qui font un peu plus que de synchroniser leur agenda Google. Le 10Gb/s dépote à 125Mo/s. Comme pour tout; il faut que toute la chaîne suive. Je doute fort que des PME (je regroupe autant l’EI, que SARL etc.) soit au top niveau dans chaque détail. Même avec une ligne SDSL (qui est coutumier).
Ils seront plutôt du genre à faire de l’économie d’échelle. Donc un switch tout naze autant que du PC en mousse expansée à la ramasse d’IO sera commune mesure. Et puis en cuivre le 10Gb/s si on arrive à 15 mètres c’est le moment de jouer à Euromillions.
En optique ça va mieux mais encore une fois ce n’est plus pour les pékins moyen. Effectivement ce genre de boite peut se payer une ligne à 10Gb/s. Quand on a ce besoin on brasse assez de pognon pour faire une AO et choisir éventuellement un autre que Synology.
Je dis pour une dizaine d’employés un 918+ suffit bien. Pour plus de personnes le reste de la gamme est quand même pas dégueu.
N’oublions pas que ce sont maintenant des machines qui concentre un tas de services autre que “Filer”pour répondre à un grand nombre de besoin. Mais je doute fort encore une fois que tout le monde fasse tout tourner tout le temps. Excepté les labos de test.
Après je veux bien écouter quelqu’un qui arrive à prendre une de ces machines en défaut. Mais bon, je ne pense pas qu’il n’y ait que des idiots chez Synology. Ils taillent les machines pour des cibles…
En terme de démocratisation j’aurai préféré que le support de BtrFs soit élargi aux gammes existantes. L’excuse SoC 64bit me parait un peu flemmarde. Mais bon c’est de la logique commerciale.
Et non je ne bosse pas pour Synology mais ayant été à cet événement je trouve que globalement cela va dans le bon sens. J’ai vu bien bien bien pire.
Le
07/10/2017 à
13h
56
Oxygen a écrit :
Il serait utile de mieux faire resortir les NAS qui sont limités au 32bits par leur SOC.
J’ai été confronté au problème avec un DS416, qui n’est que 32bits.
La conséquence est une taille de volume maximal autour de 15TB. Ce qui empeche de faire un volume a partir de 4 disques de 6TB. La somme totale dépasse le volume maximal (pour quelques dizaines de GB).
Résultat, il faut se limiter à une grappe de 3 disques et un solitaire à côté.
Un peu ridicule.
Si j’avais su, j’aurais pris un 64bits. (du genre le 416Play …)
Heu qu’est ce qui nécessite un volume de 15Tb? Même en faisant de la vidéo; c’est pas mal. Bref, il n’y a que les fichiers média qui demeurent gourmands.
Après, on peut découper en plusieurs volume.
Le
07/10/2017 à
10h
22
Pour ceux qui ont des soucis il y a le forum Synology francophone qui n’est pas mal. Ça répond vite pour un sujet de niche.
On retombe dans l’écueil de la loi sur les pages perso, on dirait. Celle qui dit que l’hébergeur est responsable. Ca ressemble plus a une chasse au sites plutôt qu’a une chasse au “influenceur payés” (un youtubeur quoi " /> ).
En fait il faudrait un site d’avis par et pour les consommateurs et avec un engagement et une vérification des personnes. Car le problème c’est bien cela.
La vérité se trouve dans les faits. Hors ce qu’on lit souvent c’est des avis plus émotifs que factuels quand ils sont sincères. Comme le décrit Charly32. Et des avis limite copié/collé quand c’est du payé.
Avoir un site ou la personne émettrice documente factuellement les choses serait déjà plus porteur de sens. On peut prendre des vidéos avec les téléphones, les technos pour poster sont plus que connues… Bref tout est la.
Bon, d’un autre coté le premier qui fait cela s’attirera les foudres de l’industrie avec le concours de la DGCCCRF (y’a assez de C?). On est ba|sés en somme.
vous imaginez prendre un badge d’une couleur correspondant à un candidat, sur la table à l’entrée du bureau de vote ? Genre jaune c’est Chirac, rouge Jospin, bleu foncé Cheminade, bleu clair Poutou, etc ? Et comment on fait en 2002 avec 16 candidats au premier tour ?
C’est quand même plus pratique avec un nom sur un bulletin.
Et si on écrit quelque chose sur les badges au lieu de mettre une couleur, c’est aussi des dépenses, faut les refaire à chaque fois
comment on traite les blancs et nuls ? OK pour le blanc, il faut prévoir un badge blanc, sinon ça se verra un peu que l’enveloppe est vide, à la chute dans l’urne par exemple ; pour le nul, bonne question, comment vont faire ceux qui trouvent intelligent d’écrire sur un bulletin dont ils savent qu’il ne sera pas pris en compte ?
J’en reviens au fait qu’a priori, ce qui permettrait d’accélérer le dépouillement, ça serait d’utiliser des machines à reconnaissance optique, il reste à ouvrir les enveloppes et à faire des tas très “propres” avec les contenus, tout en notant le nombre de blancs et nuls (je ne sais pas si la machine gère facilement tous les cas).
Là aussi, il faut avoir confiance dans la machine qui fait la reconnaissance optique.
On est pas obligé de mettre des couleurs non plus. C’est juste une suggestion. Une lettre peut largement suffire si on veut de la sérigraphie. On peut mettre des contacts éclectiques, bref. On peut inventer n’importe quoi.
Pour les couleurs on a déjà le rouge pour X et le bleu pour Y dans les bulletins papier.
Prend la facture du système papier. Il n’est pas réutilisable; envoyé en
double chez toi… Ca ce chiffre en centaine de millions d’euros. Un
système réutilisable vaut cent fois le détour mais en plus d’être
réutilisable, il est manufacturable. On peut améliorer les dépouillement s
avec un carré (ou autre forme d’ailleurs) de plastique solide plus facilement qu’avec un papier a
déplier et j’en passe.
Le principe étant qu’on peut faire une machine transparente (littéralement) avec très peut d’électronique pour le comptage. Et ceci permet le contrôle par n’importe qui. Et c’est très important.
Et comme le badge au format CB est solide, manipulable comme une jeu de carte, de poids & taille connu. On peut aller super vite et faire le compte de plusieurs façons.
Aujourd’hui une machine de vote telle qu’on les a, peut être contrôlée uniquement par du personnel qualifié (et encore) en plus du temps de contrôle nécessaire. Sans compter le fait que ce ne soit pas de l’open source hein…
Le
30/09/2017 à
07h
58
digital-jedi a écrit :
Je parlais d’une machine à voter, pas d’un vote sur internet.
Pour la sécurisation de la machine à voter :
Pour le code sécurisé, il suffit d’un code open source (comme cela visible de tous) et validé par une autorité de certif.
Ensuite, tu programmes et claques en dur les composants, tu mets un
scellé sur la machine, tu mets les autorités de contrôle sur le flux de
production et distribution des machines. Et tu as ton système non
manipulable*.
Une imprimante au fil de l’eau écrit ton vote de
façon visible pour l’électeur, en plus de l’enregistrement numérique de
la machine à voter, et à la fin de la journée, tu compares résultats
papier et enregistrements de la machine à voter.
* On
retrouve les mêmes difficultés de sécurité à gérer qu’avec une urne
physique et des bulletins papier qu’il faut sécuriser puis décompter.
La machine aussi protégée qu’elle puisse être si tant est que cela soit possible. On est jamais à l’abri d’une erreur n’est ce pas. Donc aussi indivisible soit cette machine il faudra bien en extirper les données et les centraliser. Même dans un “internet dédié’ il se posera beaucoup de questions qui rendent cette sécurisation sans intérêt. Car tout simplement il y a un problème par étage.
choukky a écrit :
" /> Mais c’est quoi cette envie de foutre des machines partout.
Je suis incapable de suivre une machine qui compte des billets de banque. Elle va trop vite pour moi. Ta machine a compter les badges risque d’être aussi rapide et donc me rendre incapable de savoir si elle incrémente bien 1 à chaque badge. " />
hé non les badges on un volume fixe et un poids donné. Tu peux donc vérifier rapidement par plusieurs moyens. Sans même que cela nécessite des équipements de haute précision. C’est dire.
OlivierJ a écrit :
Je ne comprends pas ton propos, actuellement on centralise aussi, on regroupe les résultats de plus en plus (je parle pour une présidentielle, évidemment pas une communale).
Le problème majeur de l’informatisation du vote est le contrôle. Cette industrialisation permettrai de voter bien plus souvent (si tant est que cela serve encore) mais sans les contrôles humains. De plus cette centralisation informatique ne permet plus de faire un contrôle. On te dirait que c’est pour sécuriser le dernier serveur… bref.
OlivierJ a écrit :
Si c’est pour avoir des badges plastiques et y lire des lettres A/B/C/D, autant lire directement les bulletins papier (comme sur des machines à compter les billets), ça se lit facilement de nos jours, surtout pour différencier seulement quelques noms.
Un badge coloré, en l’état des enveloppes légères utilisées aujourd’hui, ça se verrait une fois dans l’enveloppe.
Le papier ne serait pas vraiment réutilisable. Le badge est plus solide dans le temps. Il y a tous les systèmes qu’on veut à disposition. On est pas obligé de faire de la sérigraphie dessus…
Le
29/09/2017 à
12h
04
fred42 a écrit :
Pour un jedi du doigt, ça ne m’étonne pas qu’il soit pour le vote électronique malgré toutes les raisons d’être contre indiquées dans le lien du premier commentaire.
Oui m’enfin d’un autre coté le vote papier est fastidieux et aurait pu bénéficier d’un tas d’avancées technologique depuis des lustres.
Le fait de prendre des badges en plastique par exemple. Soit des badges de couleur différentes soit des marque simple du type A B C D…
C’est réutilisable a souhait (on peut pas le plier). Ca se glisse dans les mêmes enveloppes sans problèmes. Le dépouillement serait bien plus facile avec des machines à compter les badges (le badge passe bien dans les machine tandis que le papier…).
Bref tout en gardant un système physique ouvert on pourrait déjà aller plus vite sans déroger au règles de transparence.
Le
29/09/2017 à
11h
59
digital-jedi a écrit :
Verrouiller
une machine informatique avec un sellé et sécuriser son code
informatique, c’est pas impossible, faut juste mettre les moyens.
Le problème n’est pas seulement là.
Il y a la centralisation des résultats par exemple. Le vote électronique suivant son mode d’exécution (la méthode) a un degré plus ou moins élevé de centralisation. Ce qui est juste pas acceptable. Qui centralise? Qui sécurise? Qui donne accès au résultats? Comment les contrôler?
Ou encore le sujet des falsifications potentielles du vote par internet.
Ce sont autant de questions très sensibles qu’on a toujours pas fini de débattre. Et probablement jamais. A plus forte raison dans un environnement bien fourni en affaires de corruption en tout genre ou de “passe droit” par ordonnance.
La question est à des années lumière d’être résolue.
On ne met jamais “de” devant “par”, sauf s’il s’agit de Dieu " />
Sinon, cette débilité, c’est la porte ouverte à toutes les fenêtres pour la censure débile…
Mais pas du tout! 2+2 ça fait 5 d’après les impôts. Comme c’est le gouvernement; ils ont raison. Si tu publie un blog avec 2+2=4 tu es donc un terroriste de la pensée et donc dans l’illégalité à priori.
Heu et si la rédaction a envie de faire un sujet dessus ? La liberté c’est un truc bizarre hein ?
En plus je discerne d’après tes propos hérétiques que tu ne fais pas tourner Apache sur une de tes machines ou pire si tu n’en a qu’une seule.
Bon, il va falloir la faire Médiévale. Sortez moi le mal-confort, la table d’écartèlement. 127.0.0.1 ranges ce bazooka ça ne fait pas assez mal sur le long. Sors plutôt les masses à pointes et le papier de verre type N°2.
ne serait-ce qu’au niveau ergonomie… y’a encore du boulot pour certains.
Le
19/09/2017 à
15h
00
KP2 a écrit :
Le snapshot replication sert lorsque tu utilises ton NAS comme stockage centralisé ….
Heu oui mais pas que. On peut faire du A ves B et du B vers A (documenté sur leur site). En fait un tas de combinaisons sont possibles. On peut faire un NAS qui centralise tout ou encore dans un trio A,B,C d’avoir des réplications de AB sur C, de BC sur A et de CA sur B.
…pour une infra virtualisée.
Pas obligé non plus.
Donc effectivement, ça marche pas
sans proc Intel car c’est la couche de virtualisation qui s’en occupe
(btrfs ne possède pas cette fonctionnalité)
J’ai appris la virtualisation à une époque ou en envisageait même pas cela au sein d’un processeur et le multitâche encore fébrile. Pour moi c’est un choix de Synology de le faire de cette manière pour ce package. Plus facile a programmer ou pas; rien ne l’impose.
Ce ne sont au final que des données qu’il faut lire de la bonne manière (ou les transmettre). Et un programme/service en est normalement parfaitement capable. Le support Synology n’a pas trop su quoi répondre sur ce sujet précis d’ailleurs.
On sera plus dans le vrai en parlant de nivellement de la gamme qu’autre chose.
Le
19/09/2017 à
14h
04
Hmmm on parle toujours du matos dans ce genre d’article mais pas assez finement des solutions logicielles résidentes.
Ex:
J’ai deux NAS " />S411j 4 dsk RAID5 (en poc maxwell) / DS16+ 4 dsk RAID5 (en proc intel)
Hé bien ca pose quelques soucis quand on veut faire des choses qu’on pense naturelles.
BtrFs n’est pas supporté sur un DS411j
Le paquet “Snapshot réplication” ne fonctionne que sur des cœurs Intel (de mémoire).
Il n’y a pour moi aucune limitation matérielle. Seulement du soft qu’on n’a pas voulu compiler dans une version ou une autre. Alors que bon, avec deux NAS faire de la réplication plutôt que du “simple backup automatisé” devrait ne pas poser de problèmes. Mais bon voila.
Franchement, cette histoire est pas étonnante… le W3C a abandonné son ame dans cette affaire et c’est grave car il y a un vrai risque qu’une initiative concurrente émerge à cause de ça. Et à partir de là, on sera plus dans une guerre des navigateurs mais dans une guerre des standards.
Et l’EFF (et le Libre en général) est plein de gens assez fous pour se lancer là-dedans…
Néanmoins, je comprends aussi le point de vue du “camp adverse” : comme les DRM sont inéluctables, autant avoir une solution standardisée plutôt que plein de solutions proprio basées sur des extensions plus ou moins moisies.
Toute la question étant : les DRM sont-ils inéluctables ?
J’avais espéré que le “marché” fasse comprendre assez vite aux industries des contenus qu’empêcher les clients d’accéder à leurs produits n’était pas la meilleure façon de les vendre afin d’éviter que les EME soient adoptés. On en est pas loin mais ils ont quand même gagné… C’est triste…
Effectivement mais malheureusement ce n’est pas une bonne tournure de phrase. Les DRM depuis les histoires d’Apple sont perçues comme “t’as pas le droit” et “je t’empêche de voir/écouter”. Avec un lecteur supportant ces systèmes.
Alors que les DRM peuvent être beaucoup plus souple et infiniment plus respectables que les versions qu’on a pu voir jusqu’à présent. Cela concerne aussi les œuvres libres quoiqu’on en dise. Surtout celle en CC-BY-NC. C’est à mes yeux un très bon exemple.
Donc il y a DRM de merde (type Apple et Empecheur.com) et le DRM qui s’accommode des modes de consommations en transportant efficacement les licences référençant les auteurs. On arrivera plus vite au circuit courts qui court-circuiterait vite fait les douaniers moine copiste.
Mais transporter la licence avec le contenu et surtout laisser le choix à l’utilisateur sera toujours mieux que de faire des lecteurs dédiés à tel ou tel service (type netflix).
J’ai dû le faire à l’époque où mon unique Yubikey est morte… j’aurais dû en acheter une autre en backup, mais maintenant j’ai retenu la leçon.
En gros, ça dépend des sites.
Kickstarter demande des informations complémentaires (IP utilisées pour se connecter avec succès, exemples de projets soutenus, …).
Gandi appelle carrément au téléphone pour vérifier des informations du compte (lister des noms de domaine possédés, date et lieu de naissance, adresse renseignée, …).
D’autres envoient un SMS avec un code de vérification.
Mais ça pose surtout problème pour les sites sur lesquels on n’avait pas de session ouverte, car souvent dès qu’une session est ouverte il est assez facile de désactiver la double authentification dans les paramètres, souvent en retapant le mot de passe pour s’assurer que c’est bien l’utilisateur qui fait la demande (voire là aussi une vérification par code SMS).
En bref ce n’est pas un protocole unifié.
Le pirate moyen cherchera donc les cibles à processus léger ou faillible pour désactiver la clé (donc le besoin matériel) et repartir avec les seuls L/MDP pour faire des usurpations.
J’extrapole peut être n’importe quoi mais imaginons qu’un gus télécharge les données profil du navigateur et les cookies d’une autre personne. Pourrait-t-il simuler un utilisateur et désactiver les clés sur un site ? Ce serait tout à fait ennuyeux.
Enfin je veux dire que je vois le besoin de protection et que des couches supplémentaires ne sont pas de trop dans le monde numérique d’aujourd’hui (quoique NFC me fait pleurer). Toutefois cela reste juste des obstacles de plus suivant les processus utilisés ou leurs failles. Il suffit d’une seule faille parfois et tout l’édifice s’écroule.
Bref le biométrique a encore de beaux jour devant lui (troll). Enfin je veux que ces dispositifs sont pour identifier; et non pas à protéger la connexion. Et aujourd’hui je dois avouer le l’identification est un sacré problème tant technique, qu’éthique, juridique etc…
Le
19/09/2017 à
11h
45
Comment se déroule la procédure de “désactivation” d’une clé sur un site ? Ont-il tous le même processus?
Le
19/09/2017 à
09h
59
Ok en gros la plupart des gens qui utilisent ce truc sont quoi ?
Des sédentaires qui vont de toutes façons laisser la clé branchée sur le PC en permanence. Bref accèdes au PC d’une manière ou d’une autre (de préférence distante en mode prise de contrôle) et ça revient au même. non ?
Des itinérants circulant avec seulement la clé dans les poches qui pourront éventuellement se faire voler la clé ou la perdre. C’est pas forcément mieux suivant les cas de figure. Que ce passe-t-il quand la clé est définitivement perdue (ou cassé)? La déclaration de la nouvelle clé est un problème en soit. Quid des cas ou les SI interdisent des connexions de périphériques (ici USB)? Ça pourrai bien compliquer la vie de ces itinérants.
En fait de créer un certificat (avec une solution logicielle dédiée) du PC utilisateur est certes moins itinérant mais revient quasiment au même. On sait que les utilisateurs seront à un moment ou à un autre “flemmard” et oublieront de débrancher. Je reconnais volontiers que cela complique les choses pour les pirates mais le problème est encore un peu le même. L’utilisateur.
Le
19/09/2017 à
07h
41
Et quels sont les exemples d’utilisation concret de ce truc?
Ouch pour le montant à sortir quand tu renouvelles :-) .
Quand tu mentionnes la question qualité / coût, tu parles du coût à la page ?
Le coût à la page devrait être le critère majeur, cela dit je préfère
avoir à sortir 40 E à chaque fois plutôt que 400, vu mon besoin à moi.
Tout compte fait entre la qualité et le cout je trouve le laser mieux.
Le jet d’encre surconsomme a cause des nettoyages.
C’est très volatile comme encre, parfois ça bave. Ou ça fait des stries en fonction des problèmes d’alignement.
Cela nécessite un papier nettement plus lourd quand on fait de la qualité photo. Sinon c’est l’effet serpillère.
Perso 400 € pour 4000 pages en noir et 2000 en couleur; ça va. Bien sur c’est variable suivant l’usage.
L’avantage laser:
N’est plus flou en qualité photo. Ca reste cependant un peu moins précis que le jet d’encre mais à 1 mètre de distance tu vois pas la différence. Alors sur un A3. On peut avoir un sur-contraste suivant les cas mais rien qui ne soit pas ajustable.
Ne sèche pas; pas de problème de nettoyage.
consommation plutôt économique.
On
paye un peu plus cher au départ mais c’est clairement mieux sur le
long. Je suis du genre à acheter des “office pro” et franchement les
jets d’encre m’ont bien déçu. Ca coute moins cher en cartouche après
achat (dans les 120€) mais c’est plus souvent. alors en mode photo tu
repasse au magasin toutes les deux semaines. Donc c’est con.
Et
je parle pas des imprimante Epson spécial photo (une prograf pro 1000
par ex) qui sont tout simplement hors de prix avec des consommables en
nombre (plus que 3 couleurs) et cher comme ta vie.
OlivierJ a écrit :
Sur ta dernière phrase je ne peux qu’être d’accord. En revanche, de
quelle question précise tu parles avec “fortuit ou pas” ?
Je
doute fort qu’une boite comme Epson ou HP laisse au hasard un tel taux
d’erreur. Surtout si la matière (l’encre) est si cher. Donc soit c’est
des quiches quand on leur laisse le bénéfice du doute (le coté fortuit)
soit c’est intentionnel. Dans les deux cas cela lèse le consommateur.
OlivierJ a écrit :
Je crains qu’une partie des
consommateurs qui achètent une imprimante tombe dans le cas où ils
impriment relativement peu, et où il préfèrent ne pas sortir trop
d’argent au départ, même si sur le long terme ça semble peu rationnel.
C’est un peu mon cas car je dois me racheter une imprimante, et le jet
d’encre me permet de sortir peu d’argent tout de suite, et pas beaucoup
dans 6 mois ou 1 an ; ce qui ne m’empêche pas de creuser un peu la
question des modèles et des marques côté fiabilité et tout.
Le cout à la page des jet d’encre est pour moi fantoche. Quand
les mesures sont faite c’est dans un banc d’essai. Ce n’est pas sur un
usage de plusieurs mois. L’entretient et la résilience sont aussi
important. Et les tests ne le révèlent jamais.
Le
19/09/2017 à
11h
06
OlivierJ a écrit :
Je sais que c’est un problème réel, mais les expériences varient, car j’ai eu ce problème une seule fois en 10 ans, et l’imprimante de mon père dans la maison de vacances n’a pas l’air de se boucher malgré le temps qu’elle passe sans imprimer (il a eu HP et à présent… Epson).
La solution serait d’imprimer une page légère tous les mois (au pif), c’est que je me suis dit quand j’ai vraiment délaissé mon imprimante longtemps. C’est sûr que c’est bête, mais ça m’arrive d’être chez moi et d’avoir un besoin d’impression qui ne peut attendre d’être au boulot.
Ouch pour le montant à sortir quand tu renouvelles :-) .
Quand tu mentionnes la question qualité / coût, tu parles du coût à la page ?
Le coût à la page devrait être le critère majeur, cela dit je préfère avoir à sortir 40 E à chaque fois plutôt que 400, vu mon besoin à moi.
Sur ta dernière phrase je ne peux qu’être d’accord. En revanche, de quelle question précise tu parles avec “fortuit ou pas” ?
Le remplissage physique est un faux problème à mon avis, car ce qui compte c’est le prix à la page au final. Que le prix soit loin des coûts de fabrication n’est pas forcément un problème, surtout si le prix de fabrication est faible. Après tout, dans l’eau en bouteille de marque, 95 % du prix est autre chose que le prix de l’eau collectée (il y a beaucoup en pub et marketing par exemple), mais les gens achètent.
Je suis d’accord avec toi, et on a ici une question où le consommateur est en principe roi : il suffirait qu’il favorise les constructeurs qui sont les plus vertueux, avec un meilleur recyclage et durabilité/réparabilité de tout ça, voire auraient un modèle différent, avec imprimante vendue au prix normal et encre vendue à un prix qui semble plus normal aussi.
Je crains qu’une partie des consommateurs qui achètent une imprimante tombe dans le cas où ils impriment relativement peu, et où il préfèrent ne pas sortir trop d’argent au départ, même si sur le long terme ça semble peu rationnel. C’est un peu mon cas car je dois me racheter une imprimante, et le jet d’encre me permet de sortir peu d’argent tout de suite, et pas beaucoup dans 6 mois ou 1 an ; ce qui ne m’empêche pas de creuser un peu la question des modèles et des marques côté fiabilité et tout.
Le
19/09/2017 à
07h
27
J’ai de la chance et pas de chance. Après avoir pendant des années tapé dans l’imprimante jet d’encre et dans les gammes pro, je suis passé au laser. J’ai avec ces “jet d’encres” eu les problèmes du pékin moyen et franchement ça gonfle énormément. Ça va de la quantité d’encre utilisée pour la qualité photo qui fait fondre les cartouches à vue d’œil et donc fait penser qu’il faut vendre un rein. En passant par les nettoyages des têtes fort chiant; voire qui se bouchent si on ne l’utilise pas pendant longtemps.
Depuis je suis passé au laser couleur qui finalement n’a rien a envier au jet d’encre question qualité / cout. Il fut un temps ou une photo avait l’air floue avec le laser. Aujourd’hui j’ai plus peur de la réserve de toner que du reste. Un pack toner couleur HP + noir vaut dans les 400 € facile (suivant vendeur / marque générique ou pas).
J’ai le noir (livré d’origine) qui dit qu’il n’y a plus d’encre et que je dois la remplacer depuis plusieurs mois. Ça imprime encore. A noter que le système n’interdit pas l’impression. Il lève un drapeau, je clique “m’en fou” (sur la pile des idées a penser plus tard) et ça fonctionne. Je dois être dans ce cas des cartouches mal calibrés. Par précaution j’ai de quoi la remplacer en 5 minutes, mais j’attends que cela refuse l’impression.
Toutefois pour reprendre OlivierJ qui semble se faire l’avocat du diable. Il est évident que fortuit ou pas ce n’est pas à l’avantage du client. Erreur ou pas. D’un coté c’est une erreur et le fabriquant est une quiche, de l’autre c’est volontaire et c’est donc mal intentionné. Dans les deux cas la justice doit se placer du coté du consommateur.
Ce qui est toutefois ahurissant depuis des lustres est le prix de ces encres. Il est absolument prohibitif. Alors que les cout de fabrication des celle-ci est bien dérisoire. En comparaison un médicament fragile fabriqué et livré en 24h doit probablement couter moins cher. Il y a de tout temps des offres d’imprimante neuve qui coutent aussi voire moins cher qu’un pack complet de recharge (surtout les lasers). Bien sur les cartouches sont souvent remplies à demi, mais c’est trompeur et révélateur. Le prix des encre/toner est très loin de leurs couts de fabrication.
Il serait moins polluant et moins couteux pour tous de pouvoir recharger ces cartouches avec des encres (ou toner) dédiées à impression. Tous les systèmes que j’ai pu voir sont des honteux bricolages. Surtout quand on sait que les programmes de recyclage des cartouches ne font pas si “recyclage” que cela. C’est du plastique, les puces sont à jeter d’une génération à l’autre, bref ça fini en incinérateur très probablement.
1945 commentaires
Installation de Windows 10 : comment gagner du temps ? Le test face à Ubuntu Budgie
17/10/2017
Le 19/10/2017 à 08h 17
éventuellement :
TreeSize pour savoir ou est l’encombrant plus finement. Il permet d’y voir clair en un clin d’œil.
Glary utils qui fait pas trop mal le ménage mais surtout qui a des modules intéressant pour gérer (démarrage, pilote, MAJ).
En général c’est Windows , Program files, pagefile.sys et hiberfil.sys qui sont dans le top. Accessoirement un repertoire steam… Users n’est pas mal non plus suivant comment on gère ces fichiers (<username>\AppData\Local\Temp etc).
Le 18/10/2017 à 15h 15
Le 18/10/2017 à 15h 14
Le 18/10/2017 à 08h 07
Le 17/10/2017 à 20h 32
hmmmm Pour moi je sais pas si ca compte ce genre de test.
Installez les drivers propriétaire (ou équivalent) pour la carte graphique et faire tourner le divin cube sur un linux peut s’avérer chronophage. Et installez un blender pour voir si ca fait un rendu bien comme prévu avec l’accélération matérielle bien sur. Ou pourrai y avoir quelques reprise a faire.
Je dirai que cela dépends surtout de ce que l’on veut.
Sous cet angle cela aurait peut être eu plus de sens.
Ondes émises par les smartphones : à la découverte des mesures du DAS par l’ANFR
12/10/2017
Le 18/10/2017 à 21h 47
Le 18/10/2017 à 21h 30
“Au passage, si on augmente la densité des antennes, la puissance d’émission des téléphones tend à diminuer elle aussi, donc l’utilisateur se fait un peu moins arrosé par son propre combiné… ca aussi, c’est un bon point pour augmenter la densité d’antennes. ”
D’accord pour les téléphones c’est effectivement un bon point
Un peu moins pour les antennes. En fait c’est en fonction de la densité. Cela dépend très lourdement de l’état du réseau. Et je peux t’assurer à 10000% que de l’antenne seule à desservir 3 petites villes de la pampa pendant plusieurs mois (en attendant d’installer/réparer/upgrader le reste) n’est pas du tout mais alors vraiment pas un phénomène rare. Ajoutons en plus les plans du style Crozon (en gros c’est du roaming entre opérateur FR (ici Bytel / SFR)) ou encore Free au début… Souvent cela affiche “ton opérateur chéri” mais c’est l’antenne d’un autre. Donc ça on va relativiser. La présence des opérateurs n’est pas la véritable présence physique. Du coup on peut pas compter sur une présupposé densité en fonction du nombre d’opérateur.
et puis …Pour une seule connexion. soit.
Qu’en est il des heures de pointe ou nous aurons une multitude de connexions à plus ou moins grande distance (donc puissance) ? je veux dire par là que quand bien même le multiplexage fait que ton téléphone ne s’occupe pas de la fréquence prévue pour un autre; il n’en n’est pas moins qu’elle le traverse (plus ou moins) et toi avec (complètement). Voire pire si ça rebondit.
Donc en fait mise à part que l’antenne GSM émet dans une direction (un angle) et que ce n’est pas omnidirectionnel (ouf). On se fait traverser quand même par tout se qui passe sur cette antenne et éventuellement qu’en présence réelle de plusieurs opérateurs (les villes +10k habitant); il y a toutes les antennes arrosant dans la même direction.
Je veux dire par là: On a un environnement avec
Effectivement si on teste avec 1 GSM, 1 antenne, 1 gus et avec une seule fréquence (isolation du phénomène); on ne pourra pas voir de résultat s’approchant de la réalité urbaine. Je conçoit que ce soit difficile mais bon; il va bien falloir se poser la bonne question à un moment.
Le 17/10/2017 à 12h 55
Le 13/10/2017 à 21h 48
heu… est tu certain d’avoir bien lu ?
Le 13/10/2017 à 19h 03
Ici je parle des effets biologique. Pas seulement de la description physique. Et puis y’a pas que les antennes GSM. Les bornes Wi-Fi ne sont pas avares non plus de flux et bien plus proche de nous.
Pour vulgariser un peu l’exemple. Prendre une grosse cuite une fois dans l’année ou tu te mets grave sera probablement moins néfaste que de boire un demi verre tous les jours. La molécule chimique récréative est la même, seulement on sait avec certitude que l’ingérence ponctuelle contre une habitude n’a pas les mêmes effets sur le long terme. Et devines qui gagne à la loterie de la cirrhose du foie ?
Quid des ondes radio sur le même thème? Je n’ai jamais entendu parler d’étude sur le sujet.
Le 13/10/2017 à 09h 49
Le 13/10/2017 à 01h 07
OVH se réorganise autour de trois marques et lance l’Open Cloud Fondation
18/10/2017
Le 18/10/2017 à 15h 21
“Nous sommes de fait le premier cloud européen,” Hmmm. C’est bien certains ça ??
Le Surface Book 2 est annoncé : Core 8ème génération, GTX 1050/1060, USB Type-C, modèle 15″
17/10/2017
Le 18/10/2017 à 10h 56
Le 18/10/2017 à 08h 35
Le 18/10/2017 à 08h 24
Exposition aux ondes : « les niveaux mesurés demeurent faibles » pour l’ANFR
12/10/2017
Le 16/10/2017 à 14h 54
C’est étonnant ce propension a détourner les propos d’autrui. Surtout pour avancer des choses que les faits contredisent. Franchement partir sur le sujet des pesticides est au mieux maladroit sinon très mal au fait des choses.
Sujet clôt.
Le 16/10/2017 à 11h 39
Le 14/10/2017 à 22h 03
Je ne dis pas que je suis malade. Juste que je le sent. Après le mot douleur c’est pour faire comprendre. En tout cas picotement dans les paluches.
Test très simple -> SurfaceBook, win10. L’OS pompe les mises à jour sans le dire. Elles font des gigas; ca prend du temps. Si t’as les mains dessus… t’es au contact.
Après faut voir comment les protocoles de test sont fait. C’est pas seulement la porteuse qu’il faut tester. C’est avec ce qui passe dessus aussi. Bref de toutes façons on n’en saura pas vraiment plus avant que le secteur soit moins fortuné. Comme pour tout. L’amiante, le tabac, bref…
Et non je n’ai pas d’antécédents du coté du bulbe; j’ai même mis du temps a me dire que fallait être prudent.
Le 14/10/2017 à 18h 52
Non
Le 13/10/2017 à 19h 15
Pour le WiFi ça va de douleur singulière à picotement. Ce n’est pas forcément instantané non plus. Parfois ça se réveille après un temps. J’y étais moins sensible avant.
Ce n’est pas non plus un truc a se tordre de douleur par terre comme Rambo qui se serait coupé le bout du doigt et crierait “Moman!”. Mais c’est suffisant pour que je le remarque. Et ca décale un peu avec le personnage un peu trapu et pas franchement douillet que je suis.
Évidement le mobile sur la tronche est exclu pour moi. Casque obligatoire! Quitte a passer pour un malpoli quand quelqu’un veut me passer l’appel. Je refuse net si pas d’écouteur disponible.
Si dans un TGV la personne à coté téléphone en pleine pampa et que le téléphone se met a booster le signal… bon bin je vais pisser. Sans quoi c’est mal de tronche garanti et un pauvre type qui fini sur les rails.
Je dirai que cela fait 5 a 7 ans que c’est comme cela. Ce sont je suppose les débits et volume transmis grandissant qui donnent cela.
Le 13/10/2017 à 09h 31
Donc voila; Y’a rien de sérieux concernant l’exposition sur le long (depuis les années 90 quand même - c’est l’avènement du mobile) à toutes les sources de proximité qui sont ceux qui nous filent le plus de watts du fait de cette proximité (voir du contact)…
Je sais pas pour vous mais si je pompe un truc en Wi-fi depuis un PC portable je le sens. Au moins dans les mains si je les laisse sur le clavier. Idem avec un mobile. Du coup ça fait des années que j’achète des rallonges pour éloigner les sources émettrice quand je le peux.
Remarque, depuis le temps on va peut être finir par voir des pathologies émerger.
Le 13/10/2017 à 01h 02
Halala. Cette étude c’est une mesure prise… dans la rue par exemple. Ce n’est en aucun cas une étude épidémiologique.
On ne peut que se poser la question. Être a proximité (wi-fi, mobile) ou en contact direct d’émetteurs et de manière répétée et régulière ne peut qu’inciter à y regarder de plus près.
Il me semble avoir entendu parler d’une étude du genre en 2009 qui préconisait de porter le dispositif plutôt du coté de la fesse. Une conclusion édulcorée s’il en est.
Le 12/10/2017 à 13h 14
C’est mignon mais cela reste une mesure dans le milieu.
Qu’en est-il de l’exposition aux ondes des téléphones eux mêmes.
Après tout la plupart des gens le tient bien fermement contre la face. Et très régulièrement qui plus est.
Ça mérite un peu d’attention, non?
Françoise Nyssen : la lutte contre le piratage, une « priorité absolue »
13/10/2017
Le 14/10/2017 à 11h 49
Des députés LR déposent un énième texte sécuritaire
11/10/2017
Le 11/10/2017 à 15h 23
Des mises à jour de sécurité pour Debian 9.2
09/10/2017
Le 09/10/2017 à 09h 11
Quelqu’un a-t-il réussi a faire tourner le divin cube de Compiz sur cette mouture ?
Synology 2018 : les nouveautés du DSM 6.2, routeur Wi-Fi Mesh, Btrfs sur SoC ARM
06/10/2017
Le 07/10/2017 à 21h 38
Après cette série d’annonces, faisons un rapide bilan de la situation. Sur le matériel, les changements sont assez peu nombreux en façade, mais plus profond qu’il n’y parait dans certains cas. Le passage sur des SoC ARM en 64 bits permet de profiter du système de fichiers Btrfs sur des NAS de la gamme « Value » (DS218 et DS418 par exemple, d’autres suivront).Par contre, toujours pas vraiment de processeur véloce même sur les séries « + » puisqu’il faut trop souvent se contenter de Celeron J d’Intel. Côté connectique, si l’on peut comprendre l’absence de sortie vidéo HDMI, Synology misant sur le streaming, on regrette que le 10 Gb/s ne soit encore réservé qu’à certains modèles très haut de gamme (gamme « xs »).Il se répand pourtant sur les cartes mères de milieu de gamme et permet de dépasser la limite des 125 Mo/s du Gigabit. Une vraie barrière pour les NAS et les disques durs actuels, souvent capables de grimper largement plus haut, surtout lorsqu’ils sont utilisés dans une grappe RAID.Au lieu de cela, Synology continue de proposer plusieurs ports réseau Gigabit en mettant en avant l’agrégation de liens, contrairement à QNAP avec ses NAS de la série « X » qui intègrent du 10 Gb/s. Interrogé sur le sujet, le constructeur nous répond qu’il n’aurait pas de demande en ce sens de la part de ses clients pour le moment, y compris chez les professionnels.Dans tous les cas, il est dommage que le constructeur ne soit pas plus pro-actif sur le sujet, cela aiderait certainement à démocratiser le 10 Gb/s. Une situation qui n’est pas sans rappeler la (très) longue transition de l’USB 2.0 vers l’USB 3.0 (ou 3.1 gen 1, marketing quand tu nous tiens) de Synology.
Je pense qu’il y a un petit focus a faire. Je pense que le jugement n’est pas mérité. Vouloir du “plus; plus” dans ces boites; c’est bien mais encore faut il garder les pieds sur le sol.
Avoir plus de vélocité CPU sera surtout utile au utilisateurs de virtualisation. Pour le boulot service de fichier cela suffit largement. En fait les goulots d’étranglement sont plutôt les disques durs et éventuellement la bobox de monsieur tout le monde (les ressources réseau).
D’ailleurs même dans une PME un switch sera la plupart du temps en 1Gb/s et pire quand tout le monde se connecte avec sont portable (soit disant surpuissant mais bridé en mode batterie) qui va ne faire que du WiFi…
Aller on dit que dans la PME c’est des Roxor qui font un peu plus que de synchroniser leur agenda Google. Le 10Gb/s dépote à 125Mo/s. Comme pour tout; il faut que toute la chaîne suive. Je doute fort que des PME (je regroupe autant l’EI, que SARL etc.) soit au top niveau dans chaque détail. Même avec une ligne SDSL (qui est coutumier).
Ils seront plutôt du genre à faire de l’économie d’échelle. Donc un switch tout naze autant que du PC en mousse expansée à la ramasse d’IO sera commune mesure. Et puis en cuivre le 10Gb/s si on arrive à 15 mètres c’est le moment de jouer à Euromillions.
En optique ça va mieux mais encore une fois ce n’est plus pour les pékins moyen. Effectivement ce genre de boite peut se payer une ligne à 10Gb/s. Quand on a ce besoin on brasse assez de pognon pour faire une AO et choisir éventuellement un autre que Synology.
Je dis pour une dizaine d’employés un 918+ suffit bien. Pour plus de personnes le reste de la gamme est quand même pas dégueu.
N’oublions pas que ce sont maintenant des machines qui concentre un tas de services autre que “Filer”pour répondre à un grand nombre de besoin. Mais je doute fort encore une fois que tout le monde fasse tout tourner tout le temps. Excepté les labos de test.
Après je veux bien écouter quelqu’un qui arrive à prendre une de ces machines en défaut. Mais bon, je ne pense pas qu’il n’y ait que des idiots chez Synology. Ils taillent les machines pour des cibles…
En terme de démocratisation j’aurai préféré que le support de BtrFs soit élargi aux gammes existantes. L’excuse SoC 64bit me parait un peu flemmarde. Mais bon c’est de la logique commerciale.
Et non je ne bosse pas pour Synology mais ayant été à cet événement je trouve que globalement cela va dans le bon sens. J’ai vu bien bien bien pire.
Le 07/10/2017 à 13h 56
Le 07/10/2017 à 10h 22
Pour ceux qui ont des soucis il y a le forum Synology francophone qui n’est pas mal. Ça répond vite pour un sujet de niche.
http://www.nas-forum.com/forum/
Les avis de consommateurs plus strictement encadrés sur Internet à partir de 2018
05/10/2017
Le 05/10/2017 à 15h 40
On retombe dans l’écueil de la loi sur les pages perso, on dirait. Celle qui dit que l’hébergeur est responsable. Ca ressemble plus a une chasse au sites plutôt qu’a une chasse au “influenceur payés” (un youtubeur quoi " /> ).
En fait il faudrait un site d’avis par et pour les consommateurs et avec un engagement et une vérification des personnes. Car le problème c’est bien cela.
La vérité se trouve dans les faits. Hors ce qu’on lit souvent c’est des avis plus émotifs que factuels quand ils sont sincères. Comme le décrit Charly32. Et des avis limite copié/collé quand c’est du payé.
Avoir un site ou la personne émettrice documente factuellement les choses serait déjà plus porteur de sens. On peut prendre des vidéos avec les téléphones, les technos pour poster sont plus que connues… Bref tout est la.
Bon, d’un autre coté le premier qui fait cela s’attirera les foudres de l’industrie avec le concours de la DGCCCRF (y’a assez de C?). On est ba|sés en somme.
Le gouvernement songe à interdire les machines à voter et à réformer le vote électronique
29/09/2017
Le 30/09/2017 à 15h 57
Le 30/09/2017 à 07h 58
Le 29/09/2017 à 12h 04
Le 29/09/2017 à 11h 59
La Commission européenne plaide pour la suppression a priori des contenus illicites
29/09/2017
Le 30/09/2017 à 08h 08
Serveurs Apache : une faille sérieuse, mais pas si dangereuse
20/09/2017
Le 21/09/2017 à 12h 54
Heu et si la rédaction a envie de faire un sujet dessus ? La liberté c’est un truc bizarre hein ?
En plus je discerne d’après tes propos hérétiques que tu ne fais pas tourner Apache sur une de tes machines ou pire si tu n’en a qu’une seule.
Bon, il va falloir la faire Médiévale. Sortez moi le mal-confort, la table d’écartèlement. 127.0.0.1 ranges ce bazooka ça ne fait pas assez mal sur le long. Sors plutôt les masses à pointes et le papier de verre type N°2.
YouTube Gaming ouvre les abonnements aux chaînes pour 4,99 euros par mois
20/09/2017
Le 20/09/2017 à 14h 36
Si déjà Youtube améliorait son interface. Question gestion des abonnements, chaines etc. c’est juste minable.
Il y a eu l’histoire des rémunérations qui a forcé tout les Youtubeurs à faire des vidéo en série avec des titres “ ca y est Demain j’arrête Youtube”.
Avec ce sujet ou on les qualifie de “suiveur” on a vraiment l’impression que c’est en perte de vitesse.
Synology lance cinq NAS dans sa gamme 2018 : du DS218+ au DS3018xs avec 6 baies
19/09/2017
Le 20/09/2017 à 09h 52
D’un autre coté quand on regarde la concurrence…
ne serait-ce qu’au niveau ergonomie… y’a encore du boulot pour certains.
Le 19/09/2017 à 15h 00
Le 19/09/2017 à 14h 04
Hmmm on parle toujours du matos dans ce genre d’article mais pas assez finement des solutions logicielles résidentes.
Ex:
J’ai deux NAS " />S411j 4 dsk RAID5 (en poc maxwell) / DS16+ 4 dsk RAID5 (en proc intel)
Hé bien ca pose quelques soucis quand on veut faire des choses qu’on pense naturelles.
BtrFs n’est pas supporté sur un DS411j
Le paquet “Snapshot réplication” ne fonctionne que sur des cœurs Intel (de mémoire).
Il n’y a pour moi aucune limitation matérielle. Seulement du soft qu’on n’a pas voulu compiler dans une version ou une autre. Alors que bon, avec deux NAS faire de la réplication plutôt que du “simple backup automatisé” devrait ne pas poser de problèmes. Mais bon voila.
L’EFF quitte le W3C, suite à la standardisation des Encrypted Media Extensions
19/09/2017
Le 19/09/2017 à 12h 34
Firefox et double authentification : le support des clés de sécurité (U2F) enfin natif
19/09/2017
Le 19/09/2017 à 12h 19
Le 19/09/2017 à 11h 45
Comment se déroule la procédure de “désactivation” d’une clé sur un site ? Ont-il tous le même processus?
Le 19/09/2017 à 09h 59
Ok en gros la plupart des gens qui utilisent ce truc sont quoi ?
En fait de créer un certificat (avec une solution logicielle dédiée) du PC utilisateur est certes moins itinérant mais revient quasiment au même. On sait que les utilisateurs seront à un moment ou à un autre “flemmard” et oublieront de débrancher. Je reconnais volontiers que cela complique les choses pour les pirates mais le problème est encore un peu le même. L’utilisateur.
Le 19/09/2017 à 07h 41
Et quels sont les exemples d’utilisation concret de ce truc?
Quid de la navigation en mode caché?
Quid de l’utilisation des données ???
La première plainte pour obsolescence programmée vise les fabricants d’imprimantes
18/09/2017
Le 19/09/2017 à 11h 32
Screugneugneu le commentaire a foiré.
@Admin Merci de retirer le #135
Le 19/09/2017 à 11h 06
Le 19/09/2017 à 07h 27
J’ai de la chance et pas de chance. Après avoir pendant des années tapé dans l’imprimante jet d’encre et dans les gammes pro, je suis passé au laser. J’ai avec ces “jet d’encres” eu les problèmes du pékin moyen et franchement ça gonfle énormément. Ça va de la quantité d’encre utilisée pour la qualité photo qui fait fondre les cartouches à vue d’œil et donc fait penser qu’il faut vendre un rein. En passant par les nettoyages des têtes fort chiant; voire qui se bouchent si on ne l’utilise pas pendant longtemps.
Depuis je suis passé au laser couleur qui finalement n’a rien a envier au jet d’encre question qualité / cout. Il fut un temps ou une photo avait l’air floue avec le laser. Aujourd’hui j’ai plus peur de la réserve de toner que du reste. Un pack toner couleur HP + noir vaut dans les 400 € facile (suivant vendeur / marque générique ou pas).
J’ai le noir (livré d’origine) qui dit qu’il n’y a plus d’encre et que je dois la remplacer depuis plusieurs mois. Ça imprime encore. A noter que le système n’interdit pas l’impression. Il lève un drapeau, je clique “m’en fou” (sur la pile des idées a penser plus tard) et ça fonctionne. Je dois être dans ce cas des cartouches mal calibrés. Par précaution j’ai de quoi la remplacer en 5 minutes, mais j’attends que cela refuse l’impression.
Toutefois pour reprendre OlivierJ qui semble se faire l’avocat du diable. Il est évident que fortuit ou pas ce n’est pas à l’avantage du client. Erreur ou pas. D’un coté c’est une erreur et le fabriquant est une quiche, de l’autre c’est volontaire et c’est donc mal intentionné. Dans les deux cas la justice doit se placer du coté du consommateur.
Ce qui est toutefois ahurissant depuis des lustres est le prix de ces encres. Il est absolument prohibitif. Alors que les cout de fabrication des celle-ci est bien dérisoire. En comparaison un médicament fragile fabriqué et livré en 24h doit probablement couter moins cher. Il y a de tout temps des offres d’imprimante neuve qui coutent aussi voire moins cher qu’un pack complet de recharge (surtout les lasers). Bien sur les cartouches sont souvent remplies à demi, mais c’est trompeur et révélateur. Le prix des encre/toner est très loin de leurs couts de fabrication.
Il serait moins polluant et moins couteux pour tous de pouvoir recharger ces cartouches avec des encres (ou toner) dédiées à impression. Tous les systèmes que j’ai pu voir sont des honteux bricolages. Surtout quand on sait que les programmes de recyclage des cartouches ne font pas si “recyclage” que cela. C’est du plastique, les puces sont à jeter d’une génération à l’autre, bref ça fini en incinérateur très probablement.
Accident mortel : le NTSB pointe du doigt le pilote automatique de Tesla
18/09/2017
Le 18/09/2017 à 14h 31
Si ça se trouve il était en train de mater YouPorn…
Il a pas pu reprendre le volant et tenir… enfin… du coup 7 secondes c’est trop juste.
Ok je sors.