PC monté, car impossible à l’époque d’activer le cache SSD sur un PC du commerce (hors stations de travail hors de prix).
Le prochain sera pareil (SSD 64Go de cache), car au bout de 4 ans je suis toujours convaincu que c’est le meilleur choix (justement car il n’y a pas à choisir ce qui va sur le SSD). Mais il tiendra encore bien la route pour 2 ans…
Un NUC est juste un terminal, pour faire du TS, un Core i c’est juste délirant.
???
Mon NUC est juste un serveur d’application, on s’y connecte en TS (ou presque) pour lancer les applis qui n’existent pas sur tablette…
C’est aussi mon serveur de compilation pour les trucs qui tournent trop longtemps. Il est lent, mais il est allumé toute la journée de toutes façons.
Le
21/08/2017 à
13h
23
Dude76 a écrit :
Y’a un truc qui continue de me faire tripper.
J’ai commencé avec un x286 à 6/12MHz et 1Mo de RAM (684ko + 384ko étendu).
6-12MHz avec le bouton à l’arrière pour passer d’un mode à l’autre? Et les disques durs de 32Mo?
Et les disquettes qu’on poussait en ajoutant quelques pistes pour gagner 50ko / disquette?
Effectivement, les procs ont 6/8Mo de cache (encore plus sur Xeon). Mais pense aussi aux cartes graphiques qui ont 1, 2, 4Go de RAM!
Moi vers 2000 j’étais content de ma Voodoo2 avec 12Mo de RAM (j’avais quand même une carte son avec 18Mo de RAM) et mes 192Mo de RAM, je pouvais enfin jouer à Unreal correctement (ça m’est donc arrivé en gros 2 ans après avoir acheté le jeu…)
Retour à la news: merci AMD d’avoir donné un petit frisson dans le dos de Intel. Enfin on va pouvoir récupérer un peu de perfs sur les portables. A voir l’INpact du côté de l’autonomie…
Je suis aussi avec une vieille archi (tablette Core i5 de 2011 - Sandy bridge) parce que les nouvelles technos m’apportent peu en perfs pour le prix qu’elles coûtent.
Perso sauf erreur j’ai pas eu de chargeur avec ma tablette Shield, j’utilise celui de mon téléphone.
Non, pas de chargeur avec la K1, c’était une réédition “light” de la shield d’origine.
-> Pas de 3G, pas de chargeur, pas de place pour le stylet
Ca reste la meilleure tablette que j’ai, une valeur sûre.
Et le support NVidia est très bon, ils ne chipotent pas pour la remplacer en cas de problème (même si je les soupçonne d’en avoir un stock invendu et invendable suite au contrat avec Nintendo).
Je veux bien rester chez SFR ou RED, mais seulement si je peux payer mon abonnement à crédit. Ils ont pas une banque en ligne chez Altice? Comme ça on peut boucler la boucle.
Dans tous les cas, Altice ferait mieux de s’éparpiller dans le monde: le jour où la boite explose sous les dettes, ça fait plus de pays à racketter pour “préserver les emplois”
Ensuite, la liberté d’expression, ok, mais quand il s’agit exprimer une connerie (en l’état de la connaissance à ce jour), faut pas déconner non plus.
La discrimination positive n’est pas la plus élégante solution, mais elle est une solution ou au moins un début.
Par contre, je ne comprends pas pourquoi il faut systématiquement faire taire les personnes qui auraient des idées racistes ou sexistes. En faisant cela: il n’y a plus de débat, on se voile la face (bonne expression dans le contexte), et on n’est plus sûr que l’on parle avec une personne qui va défendre les idées ou parce qu’elle est secrètement contre, les ralentir.
Enfin, je pense qu’il est viré pour avoir exprimé en public une opinion sur le cadre de son travail, et son message était de nature à porter un préjudice (potentiellement chiffrable) à son employeur. En général, il est interdit de le faire tant qu’on est employé. Il avait envie de parler, ils l’ont libéré, il devrait être content.
J’ai bien compris que les 700 et 800mhz étaient tip top car portent loin et pénètrent bien dans les bâtiment, mais alors du coup, pourquoi ne pas déployer un max de ça?
Il ne doit pas y avoir la moitié des téléphones qui soient compatibles 700MHz.
En tout cas pour être passé de SFR à Free, je reconnais la supériorité de SFR dans le domaine de la couverture et de la qualité près de chez moi.
Chez SFR, j’avais souvent la 4G, parfois de la 3G, et internet marchait toujours bien.
Chez Free, que ce soit 4G ou 3G, internet rame, m’affiche des pages blanches, ne finit pas les chargements de page… et avec le même téléphone. Sauf si je suis en 4G avec 4 barres, là ça marche très bien (mais c’est très rare).
Mais bon, SFR venait d’augmenter mon abonnement en douce donc j’en ai eu marre.
“pu accéder aux données à caractère personnel de 35 327 personnes ».”
j’espère qu’ils ont automatisé le test " />
Et que ça n’a pas mis le site HS: “Le fait d’entraver ou de fausser le fonctionnement d’un système de traitement automatisé de données est puni de cinq ans d’emprisonnement et de 75000 euros d’amende.”
Le problème du gaming sur pc est très très complexe… D’un côté ont te pousse pour acheter la dernière cg à 800 balles pour cocher certaines case qui te boufferont 20 fps sans aucune différence visuelle, les jeux très mal optimisés qui demanderont effectivement une carte à 800€ juste pour tourner correctement et le budget gaming qui même en fin de vie sera toujours mieux qu’une console…
“Jeux très mal optimisés”. La plupart des jeux sont suffisamment optimisés à mon avis. Faut pas cracher ainsi sur le boulot des autres. Qu’à sa sortie, il y ait des ajustements, c’est pas grave. Bien sûr il y a des cas flagrants de produits sortis trop tôt. Je ne crois pas que les programmeurs de jeux vidéos soient des incompétents notoires.
“on te pousse à acheter la dernière cg à 800€”. Non, c’est juste qu’on te donnes envie, mais jamais je n’irais acheter une telle carte.
Ca me fait toujours rire les réflexion du type “tu as vu comme c’est réaliste” quand on regarde un méga dinosaure armé d’une mitraillette (j’exagère).
Je ne joue qu’occasionnellement maintenant et j’ai récemment investi… dans une GT1030. La myopie me permet de faire des économies au moins.
Je vois pas trop les concepts derrière NES, N64 et Game Cube
La NES était un total renouveau dans les jeux vidéos, avec du scrolling!!! Et une nouvelle définition pour l’expression “écrase le champignon”.
La N64 était la dernière avec des cartouches. Pas de temps de chargement, pas besoin de mettre une bouteille sur la console pour que le CD soit lu. Et des textures h-i-é.
La gamecube avait des jeux en couleur là où les autres avaient des jeux en noir et sang. Je passe sur le WAF de la gamecube, la présence quasi systématique de mode 2 joueur minimum, la connexion GBA (pour un jeu “asymétrique”)
Le
27/07/2017 à
09h
53
Nioniotte a écrit :
Neuf, je la vois pas vraiment moins cher que la Switch
La WiiU a été bradé à 60% passé près de chez moi pendant les soldes (pas sûr qu’il en reste).
En moins simple, j’utilise WinPE et DISM, mais je n’ai eu à restaurer qu’une fois. C’est moins pratique, mais indépendant du disque et permet de restzurer sur des partitions plus petites.
Le
25/07/2017 à
11h
54
G2LØQ a écrit :
Sinon, depuis Windows 7 il y a l’Outil Capture d’écran… " />
Mais on ne peut l’ouvrir qu’une fois!
Je préfère ouvrir x fois paint, faire imprime écran et coller dans paint, puis à la fin reprendre toutes les captures une par une.
plop97 a écrit :
Utilise GIMP !
Oui, comme OpenOffice pour lire un readme.txt :)
Le
25/07/2017 à
09h
22
plop97 a écrit :
Le store paraîtra moins vide
Vu que l’utilise tous les jours pour entourer des zones sur mes captures d’écran, ça va être mon appli la plus téléchargée.
Si MS ne sort pas d’OS mobile, c’est leur OS desktop qui risque de disparaître à terme.
Quand au fait de sortir les apps sur de multiples plateformes, je trouve ça très bien
Si on fait le compte, Ms tente d’occuper tous les terrains:
* Côté Mobile, ils maintiennent WM10 en mode Zombie (pour être encore là), et communiquent sur un futur OS pour “périphériques qu’on peut emmener partout” (alors qu’il y a déjà des PC qu’on peut emmener partout)
* Côté Desktop (grand public), ils maintiennent leur OS en espérant ne pas se faire manger, mais soyons clairs: le futur du PC ne semble pas dans nos tours et portables surdimensionnés, mais dans des dérivés à la Chromebook qui offirait aussi une expérience “partiellement online” mais à coût bien inférieur
* Côté Desktop (pro), ils maintiennent leur OS de façon à rester compatible, mais Windows 10 S est un premier pas vers une “purge” des applis, et je m’attends à ce que le support x86 de ce Windows ARM soit tout de même restrictif. Dernièrement, soyons clairs, c’est l’informatique grand public qui a tiré de nouvelles technos vers le pro, qui est très conservateur.
* Côté Serveur, Ms décline ses fers de lance version Linux, intègre docker, propose et conseille une implémentation libre de .Net pour les micro services qui est compatible Linux… Doit-on développer sur une cible Windows? Linux? .Net/SQL Server sans dépendance OS?
* Côté Cloud, Ms propose sharepoint/office online. Mais office online manque encore de fonctionnalités typiques: les macros et le publipostage. Sans ces deux fonctionnalités, la version Online est difficile à conseiller face aux outils des concurrents. Azure semble un bon produit en tout cas pas avec plus de difficultés ou mauvaises surprises que les concurrents.
* Côté console: y-a-t’il des innovations? Se démarquent-ils? Ca semble se jouer surtout sur le hard (et ils semblent bien jouer sur ce plan).
* Côté IOT: ils sont là, mais sont-ils aussi investis que d’autres? Je n’en n’ai pas l’impression.
Bref, ils sont partout, mais n’ont pas l’air d’être vraiment performants quelques part. On a l’impression qu’ils maintiennent leur présence, mais leur image se dégrade au fur et à mesure des abandons avoués ou non et autres déceptions (Windows Phone, Silverlight, LightSwitch, Access Online) et les nouveautés/innovations ont beaucoup de mal à percer je trouve.
Bref, ça s’effrite, ça s’érode et les gens s’habituent de plus en plus à faire sans eux.
Très difficile à comprendre car il y a quelques années, .Net ne semblait pas être une montagne à adapter pour le multiplate-forme. La route semblait très claire pour lancer Windows 8 mobile avec un développement commun à Windows 8. Mais ils ont tellement tardé à unifier le développement, et ils ont tellement trahis leur propre plateforme (Windows 10 mobile était parfois le dernier à jour pour Word, Excel, Minecraft, Skype), sans parler de tout ce qu’ils ont coulé (Nokia) qu’il y a une certaine défiance quand à la réalité et la pérennité de tout ce qu’ils annoncent.
Dommage, car ils ont eu de bon produits…
Le
21/07/2017 à
10h
03
GTO a écrit :
Genre ta fille (je suppose qu’elle doit avoir entre 12 et 25 ans) est quasiment née avec les smartphones tels qu’on les connait aujourd’hui et elle n’est pas capable de savoir les utiliser? Désolé mais c’est un peu gros! Perso j’ai encore jamais vu un jeune (entre 10 et 25 ans) galérer avec un tél Android, des personnes de + de 40 ans qui galèrent avec Android, oui (mais c’est logique ils ne sont pas nés avec), mais pas des jeunes!
Pareil sur le téléphone Android qui te met en liste noire parce que tu communique beaucoup avec ta femme… Là aussi je suis très dubitatif car je n’ai jamais entendu parler de ça, si c’était le cas ça se saurait je pense….
Pour ma fille, c’est son premier tel, et elle est pas très écran, c’est pas son truc.
Pour l’antispam, c’est sur un honor 5 (stock, elle n’a aucune appli supplémentaire à part fitbit), et je l’ai reproduis, il faut envoyer très vite (en quelques secondes) plusieurs SMS et un MMS. J’avoue, c’est particulier, j’essayais de faire le ryhtme d’une chanson avec des SMS…
Mais j’ai trouvé pour désactiver l’antispam (elle avait deux personnes dedans).
Concernant Android, je l’aime bien quand il est “pur”. J’ai une tablette NVidia et j’en suis très content. Mais les téléphones vendus avec des surcouches soit-disant mieux qui donnent une UI à mi-chemin entre Android et iOS, très peu pour moi. En fait on a l’impression que c’est nul part.
Reste les virus Android, deux tablettes (identiques ou presque) touchées dans mon entourage actuellement, impossible à nettoyer visiblement car le virus se réinstalle quand on fait une réinstall d’usine (tablettes non rootées/utilisées de façon très basique et peu risquée à priori)
Bref, Android fait le boulot, mais les téléphones Android souffrent du syndrôme du bloatware qu’on trouve sur les ordis de supermarché et des problèmes liées à une domination de marché (cible des virus)
Maintenant, le store Microsoft souffre des applis pourries et des émulateurs qui remplacent de vrais jeux. Mais l’ergonomie est top je trouve.
Le
21/07/2017 à
06h
54
dante_elysium a écrit :
Quand je vois comment les gens se font ch* avec leurs Android (dernière en date: installation d’usine sur le téléphone d’un collègue => coucou il y a 3 applications qui peuvent relever tes e-mails " />, je choisis laquelle ? " /> )
Avec 2 corollaires: tu montres comment relever les mails sur une appli à ta fille, elle revient le lendemain car “elle n’a plus de mails-> normal, elle utilisait une autre appli intégrée du téléphone.
Par ailleurs, aucune appli n’a de mode d’emploi, quand il y en a un c’est celui de la version 2.0a et celle installée est la version 11.1704…
Par ailleurs, on peut râler sur les mises à jour Windows 10, mais les mises à jour de la couche Asus ou Honor, ça prend des siècles aussi… tout cela pour avoir l’impression que rien n’a changé (ou quelques icônes qui ne sont plus les mêmes et du coup “papa! ça a changé, c’est des virus? Et ça ne ressemble plus à avant je ne retrouve plus mes trucs…”)
Bref, je passe mon temps sur les 2 téléphones android de la maison (le mien est toujours un Windows phone) à régler tel problème de surconsommation de data ou tel problème de fonctionnalité (exemple: en envoyant 3 SMS rapidement à ma femme, je bascule automatiquement dans l’antispam… Et je me fait engueuler parce que je ne répond plus pendant la journée, et je ne peux plus l’appeler car son téléphone me raccroche au nez…)
Du matériel pas supporté, oui, des merdouilles lors de certaines évolutions, oui, mais du matériel non supporté qui ne l’est plus, non.
J’ai dans ma chambre un vieux treuil avec un AMD Sempron de 2008 qui tourne toujours impeccable sous la dernière version de Mint. Je doute pouvoir lui coller un Win 10 dessus…
Moi c’est l’inverse. Un bug a été révélé par le kernel de Ubuntu 12 sur mon portable (HP NC6400): plantage aléatoire. Au bout de quelques mois d’essais d’autres kernels/distro, je suis revenu sous Windows (FreeBSD fonctionnait, mais il ne supportait pas le VPN du boulot). Et ce PC fonctionne toujours sous Windows 10 (Core Duo première génération, PC de 2006, HP).
Bref, on peut toujours trouver un contre exemple.
Ceci dit, le support des Atom Z27xx sous Linux est il me semble limité (notamment concernant la partie graphique qui n’est pas d’Intel et nécessite des binaires qui ne sont plus maintenus, et concernant la gestion d’énergie)
Concernant Windows 10 je l’ai installé sur une variété de portable allant du Core Duo première génération au Core i5, je n’ai jamais eu de problème de compatibilité, sauf avec des périphériques USB bas de gamme (qui ne marchent pas bien sous Linux non plus d’ailleurs) ou avec de vieilles cartes ATI dont les derniers pilotes sont pour Vista (là je tends le dos, une mis à jour Windows les fera sauter c’est certain)
Le plus petit PC sur lequel je l’ai mis est un Celeron Core 2 Solo portable de 2009. L’utilisatrice le trouve très bien. En fait, j’ai Windows 10 sur des machines qui ont entre 11 et 2 ans, aucune n’a de problème. Seul un portable HP n’a pas le lecteur d’empreinte reconnu, mais sous Linux je n’arrive pas à le paramétrer non plus.
Et vive Intel et ses GMA 950 et +: sous Windows 10 ils fonctionnent toujours … comme on peut attendre qu’ils fonctionnent (fiable mais lent).
Je trouve que l’abandon de support de ces CPU atypiques est pour le moins prévisible, vu qu’ils ne ressemblent pas aux autres. Quand on choisi le matériel, mieux vaut ne pas prendre de chose trop exotique - ces CPU sont carrément des extraterrestres dans le monde Intel.
Pouarf, quand je vois tous ceux qui achètent encore et toujours des skins ou des boost sur R6 Ghost, alors que le jeux n’est pas des plus récents, je me dis que certains ont les moyens ! :)
Si les devs sont incapables d’indentifier les prérequis de leurs applications, il y a un problème grave de compétence.
Ou un manque cruel de doc depuis quelques années…
Vive docker pour réconcilier tout cela!
Après, il faut encore éduquer les dev pour qu’ils arrêtent de croire que toutes les ressources sont dispos en permanence et qu’ils gèrent les cas d’erreur et de reprise. Ce n’est qu’avec cela en tête qu’on peut économiser en passant sur le cloud (être capable d’éteindre les machines du cloud hors des heures d’utilisation ou de les basculer sans devoir redémarrer tous les logiciels dans le bon ordre)
Le
17/07/2017 à
12h
00
xillibit a écrit :
Je veux bien savoir comment tu fais tourner 10 VMs avec seulement un CPU 4c/8t ?
4c/8t, c’est sûr que c’est pas un serveur pour virtualiser. C’est trop limité si tu as des VM de 2vCPU.
Je parle là en entreprise avec plein de VM faisant tourner des logiciels différents pour des profils d’utilisation différents, pas de VMs dans des fermes dédiées et ultra optimisées (fermes web, fermes de rendu).
De manière générale, il est rare maintenant de n’affecter qu’un seul CPU à une VM, mais de même en mettre plus de 8 correspond à une charge fortement parallélisée rarement rencontrée. 2 ou 4vCPU font le job dans une majorité de cas. La plupart du temps, c’est le réseau ou le disque plus que le CPU ou la RAM qui va limiter les perfs. Et une VM n’a pas besoin d’un CPU 100% du temps.
Sur 8c, on peut voir 16vCPU affectés sans perte de performance (et même plus si on centralise les vieux logiciels sur la pente descendante).
Les configurations à éviter:
* tous les cœurs affectés à une VM
* beaucoup de cœurs affectés à des VM qui travaillent main dans la main (exemple: serveur applicatif et BDD)
* beaucoup de cœurs affectés à des VM qui ont le même profil d’utilisation (genre ferme Citrix pour les mêmes profils utilisateurs)
-> ce genre de config mène à une utilisation simultanée de trop de CPU, et donc de VM qui vont avoir de la famine (pas de CPU affectée à un moment où elles en ont besoin).
-> il faut monitorer ce “vol de temps”.
Le
17/07/2017 à
09h
45
KzR a écrit :
Je me bats en interne pour arrêter que nos développeurs développent sur des machines de guerre qui n’ont rien à voir avec les machines de production…
Effectivement, quand le développeur fait tourner 3 VMs sur sa machine: 2 Windows 1 pour le frontend, un pour les web services et un pour le SQL, et qu’après en prod bizarrement c’est pas aussi rapide car les VM ne sont pas sur la même machine justement, ils n’arrivent pas tous à intégrer la différence entre un lien réseau physique et un lien réseau virtuel entre VM sur la même machine…
Je passe le CPU à 3.4GHz alors qu’en prod c’est 2.2 ou 2.4.
Heureusement, en prod le cache est supérieur généralement.
Et d’un autre côté, il faut aussi expliquer aux admins que pour faire marcher 10VM de 4 CPU, il ne faut pas forcément disposer de 40CPU ou 40 threads. Ca dépend et il faut conserver l’esprit d’analyse.
Le problème, c’est surtout la stabilité de l’OS. C’est de pire en pire et revenir en Stable ne change rien. Le problème a été remonté, “pris en charge” selon Microsoft, mais toujours pas corrigé alors qu’il est là depuis des mois.
Moi j’ai un problème de stabilité avec Windows 10 sur mon 1320 depuis toujours. La seule correction, c’est d’enlever ma carte mémoire ou de n’y stocker QUE la musique (pas les photos ni les messages ni les applis).
A priori changer de carte mémoire pourrait corriger le problème, mais pas de référence sûre.
Sinon, je suis d’accord: l’OS de Microsoft est bien plus pratique/rapide que Android pour toutes les tâches de téléphonie et messagerie. Et il continue de m’inspirer plus confiance que Android (et consomme moins de données out of the box - je compare avec un android qui n’a pas d’appli tierce installée)
Mme Michu elle ne se plaint pas des mises à jour. Elle se plaint qu’elle ne peut pas regarder le replay de “plus belle la vie” (en Wifi sur sa tablette) si l’ordinateur du salon est allumé.
Et quand tu as deux-trois ordis Windows, les mises à jour de 3Go, tu as le temps de les sentir passer même sur le l’ADSL 6Mb/s.
Et ça c’est Windows. J’ai un collègue qui se plaignait du débit à son FAI, avant de comprendre que le débit chutait au fur et à mesure que les gens se lèvent dans la maison et allument leur téléphone.
Le
10/07/2017 à
12h
20
David.C a écrit :
ou alors ils ont reflechit au fait que 90% de leurs clients on un acces internet inferieur au 100Mbps, ils font un “speedtest” ou equivalent, et ensuite calculent la bande passante allouée en fonction du % demandé et du resultat du test
Un peu naïf s’ils continuent à passer des Go par mise à jour. Un “speedtest” like a plusieurs défauts:
- ils ne prennent pas en compte la conso actuelle de ton ordinateur par d’autres applis
- ils ne prennent pas en compte la conso actuelle de ta ligne par les autres ordis
- ils sont une image à un instant t, la mesure peut varier sur les quelques heures qu’il faut pour les 3Go de mise à jour
Il faudrait quelque chose de plus complet, c’est à dire une limite globale de tous les ordis avec une domaine particulier. Exemple: la box limite à 2Mb/s le flux depuis *.microsoft.com.
C’est ce que je suis en train de faire sur mon proxy (limiter les flux vers Google et OneDrive, limiter les flux depuis steam et Ms)
Sinon, dès qu’on allume 2 ordis et une tablette, ils se mettent à télécharger comme des furieux chacun vers leur site préféré, au point que le ping s’envole (200-300ms au lieu de 40-50) et même les pages web simples rament…
Peut-être que l’adoption de ce Windows 10 S (afin de remplacer les postes en XP incompatibles avec les outils fournis dernièrement) serait bien accompagnée par Microsoft?
Certains logiciels utilisés dans les collèges et lycées sont déjà dans le store, donc ça pourrait marcher.
Par contre, je me demande si Windows 10 S s’inscrit toujours dans un domaine AD?
Et effectivement, il existe des problèmes de pilotes sous Windows 10 avec des machines livrées sous Windows 10 (exemple: des machines ATOM qui après mise à jour de Windows 10 n’ont plus de pilote Wifi, il faut aller le chercher dans le catalog Windows Update sous forme de msi/msu, le tout sans réseau)
Enfin, je m’interroge sur tous ces développements très liés à la présence d’internet. Les nouvelles solutions sont belles en présentation, mais confrontées à la réalité de deux salles infos de 20 postes chacunes + deux salles mobiles de 25 tablettes chacune + l’administration qui envoie de gros mails en simultané, ça donne quoi, même sur de la fibre à 20⁄40 Mb/s?
Non, totalement pas d’accord. Regarde ce qui s’est passé avec les CD ou iTunes. Au bout d’un moment ils ont été abandonné sans mal. Donc non les DRM ne sont absolument pas une nécessité.
On est quand même face à trois grosses différences:
- ici les DRM sont appliqués sur des contenus “loués”, pas achetés pour une utilisation illimité
- ici on met en place un standard, là où les DRM audio ont été abandonnés aussi par absence de standard (et par absence de retour sur investissement certainement)
ii les DRM sont déjà actifs et de façon transparente - pour l’audio les DRM compliquaient la vie des utilisateurs
Et pourtant, Unix s’en passe depuis toujours. Linux aussi.
Ça m’étonne que tu l’ignores.
Ils sont “résistant” à la fragmentation, mais ils en ont. Par contre, tu n’as pas forcément le besoin de défragmenter. C’est selon l’usage.
Mais si tu mixes création/suppression de petits fichier et augmentation régulière d’un gros fichier, tu auras de la fragmentation.
Si tu as un serveur PHP et un serveur MySQL ou un disque avec tes sources web et un disque avec ta BDD, tu ne sentiras rien.
sous Windows non plus d’ailleurs.
OlivierJ a écrit :
Un disque ne peut pas savoir comment le FS répartit les données. Seuls l’OS a la connaissance qui permettrait la défragmentation.
Le FS sait seulement ce que le disque lui dit.
Deux pistes actuelles (avec des modèles existants, mais incapable de les retrouver):
* Conserver dans une flash un mapping des secteurs, faire toutes les écritures dans une zone contigue, et la recopier ensuite en cas d’inactivité disque aux bons endroits
* Conserver la liste des secteurs lus ensemble et “défragmenter” quand le disque a le temps pour les mettre à la suite ou en parallèle sur les plateaux.
OlivierJ a écrit :
Du temps de la FAT, possible. Mais avec NTFS sous Windows XP, je n’ai pas constaté. Les applications une fois installée ne peuvent pas se fragmenter, d’ailleurs, ni l’OS.
Sous Windows, une cause de fragmentation c’est les mises à jour, et la proximité de Windows\temp des fichiers systèmes et les faibles espaces disque libres.
Par contre, quand tu as plein de place sur le disque, la fragmentation est assez fausse: le défragmenteur de Windows est idiot et tente de tout mettre de façon contigue sur le disque, là où il faudrait surtout garder de l’espace libre contigue dans les répertoires temporaires, dans program files, dans c:\windows afin de ralentir la fragmentation.
En fait, une fois que tu as défragmenté avec l’outil de Windows, tu as signé pour défragmenter régulièrement, puisqu’il n’y a plus de place libre proche de tes fichiers! D’où Windows défragmente en tâche de fond toutes les semaines.
Conseil: utiliser contig. Il permet de défragmenter un répertoire particulier ou un fichier particulier. Au choix.
Dernière expérience de fragmentation: 160000 fichiers dans un répertoire, temps de listing des fichiers: plusieurs dizaines de secondes. Après défragmentation: 4s. Et là je parle de défragmentation des entrées dans le système de fichier, qui elles mêmes peuvent se fragmenter sous Windows.
OlivierJ a écrit :
Je me demande où tu as vu ça. Moi jamais vu en production chez divers hébergeur. J’ai jamais vu ça recommandé dans une doc.
Si tu utilises un SAN, surtout avec du tiering, tu ne défragmentes jamais aucun système, que ce soit Linux, Windows, Dos, OpenVMS ou autre. Ca n’a pas de sens.
Si tu es sur un disque dur ou système RAID local, e2defrag, e4defrag sont les utilitaires de defragmentation linux.
Mais surtout, défragmenter n’a de sens que s’il y a gêne! Sous Windows, on le sent au boot, au démarrage des applis, mais sur un serveur qui est généralement up and running, et fait des accès disques limités à quelques zones et fichiers, on s’en moque!
Le
04/07/2017 à
17h
31
Commentaire_supprime a écrit :
Sauf erreur de ma part, il me semble que, depuis Windows 7, il y a une fonction de limitation de la fragmentation en temps réel incluse dans l’OS.
En fait, la défragmentation est planifiée régulièrement et se déclenche pendant que l’ordi est allumé. Elle est faite en tâche de fond et est généralement presque indolore.
Le
04/07/2017 à
17h
30
OlivierJ a écrit :
Ça jouait peut-être sur des systèmes avant XP et formattés en FAT (un filesystem rudimentaire), mais ça n’a aucune utilité sur NTFS, et ça ne se fait jamais sur Unix et Linux. C’est juste une perte de temps.
Ben d’expérience, sur un disque dur non défragmenté pendant 2 ans, tu sens la différence après défragmentation. Au démarrage de l’ordi, des applis, à l’ouverture d’une bibliothèque d’images, à la compilation…
Et si, ça se fait sur Unix et Linux mais dommage, à froid la plupart du temps (donc serveur indisponible) alors que sous Windows tu le fait à chaud.
C’est surtout utile si tu gères de gros fichiers à taille variable, par exemple des BDD. Mais dans ce cas tu stockes certainement sur un SAN, où la fragmentation du FS n’est que logique (et la non-fragmentation du FS … une potentielle illusion).
Le
04/07/2017 à
17h
25
OlivierJ a écrit :
Peut-être, mais un filesystem bien conçu n’en a pas besoin, et de plus avec la généralisation des SSD, même si la fragmentation finissait par être un peu élevée, ça ne se sentirait pas.
J’ai du mal à admettre qu’un filesystem puisse totalement se passer de fragmentation. A la rigueur en faire une donnée fixe pour garantir les perfs, mais ça existe toujours.
Sur un disque de 60Go, si tu crées un fichier de 30Go, puis un de 10, puis tu supprimes celui de 30 pour en créer un de 40, ton fichier est forcément en 2 fragments.
Maintenant, certains disques durs utilisent des techniques de défragmentation en idle en utilisant l’espace réputé libre. Quand aux SSD, la fragmentation ne les ralenti pas, sauf peut-être en écriture.
Le
04/07/2017 à
12h
53
OlivierJ a écrit :
C’est une blague ? Parler de défragmenter un disque en 2017 ? (déjà qu’en 2007…)
Où est le problème? Il est normal qu’un disque dur se fragmente et le défragmenter est utile.
Le
01/07/2017 à
09h
56
Commentaire_supprime a écrit :
Moi aussi.
Tous mes disques système sur mes machines (sauf exception pour cause de HDD de récup sur des bécanes anciennes) sont des SSD. Pour le stockage de données, c’est sur mes NAS, garnis de HDD classiques.
l’hybridation, c’est justement de ne pas choisir le SSD pour le système, mais de tout stocker sur le HDD et de laisser le système choisir ce qui va sur le SSD. Et d’expérience c’est efficace (sauf que le disque dur n’est plus jamais défragmenté)
Le
30/06/2017 à
13h
26
Commentaire_supprime a écrit :
Mais 512 Go, ça permet déjà, en usage courant hors besoins spécifiques, d’avoir un beau SSD unique dans un PC, intéressant pour un portable pro par exemple. Et +/- 180⁄200 € le SSD, c’est achetable par un particulier motivé. À suivre…
Perso pour les particuliers je conseille l’hybridation.
J’utilise un SSD en cache avec la techno Intel Smart Response. Hormis 2 crash qui ont nécessité de débrancher le SSD (sur mon ancienne CM qui a cramé depuis), rien à redire: les perfs sont plus proches du SSD que du disque dur, et ça fait 3ans1/2 que je fonctionne comme cela: 64Go de cache et 1To de disque dur. Pas besoin de choisir ce qui va sur le SSD ou sur le disque dur. Tout ce que j’utilise régulièrement semble bien sur le SSD. Le temps de démarrage est de l’ordre de 10s à froid (boot complet, login et démarrage bureau compris).
De plus, le disque dur se met régulièrement en veille pour économiser l’énergie quand il n’y a rien à écrire.
Il y a un mode encore plus agressif qui diffère les écritures sur le HD, mais je n’ai pas essayé, le mode “sûr” m’apportant suffisamment en perfs.
De même, j’ai un nouveau SSHD dans un portable, c’est presque aussi efficace que le SSD, ça coûte 4 à 6 fois moins cher.
Le
29/06/2017 à
17h
35
Ricard a écrit :
Question conne pour ma culture personnelle. Quelle différence entre de la QLC et TLC (à part le nombre de bits) ?
En gros, au lieu de stocker 1 bit (0 ou 1) par cellule, on stocke un certain niveau de charges. 2 niveaux de charge = 1 bit, 4 niveaux de charge = 2 bits, … 16 niveaux de charge = 4 bits.
Donc comme chaque cellule produite peut stocker plus d’info, à fabrication quasi identique on a à peu près le même coût de production mais plus d’infos stockées. Schématiquement, en faisant du QLC au lieu de TLC, on baisse le prix de 1⁄4.
Par contre, le stockage multi-bits est plus complexe et plus long à écrire, peut augmenter le taux d’erreur d’écriture et de lecture. Sans parler de l’affreuse réputation du TLC chez Samsung.
Ils pourraient quand même assurer une meilleure sauvegarde… Genre une réplication horaire ou ce genre de trucs. (oui je sais, ce n’est pas gratuit, mais combien a couté cet incident?)
Justement, ça coûte. Si tu veux ce service, tu ne prends pas un mutualisé!
Et connais-tu les CAL Sql Server Standard / Enterprise? C’est bien plus compliqué comme équation qu’un simple ratio. Et figures-toi que c’est arrivé l’année dernière: j’ai pris un serveur hôte avec une fréquence plus haute, et ai rajouté 2 CAL au lieu de passer en Enterprise sur un serveur physique. Le coût? C’est simple, 8000€ au lieu de 90000€…. Avec des temps de requêtes aussi bon que sur une machine physique à la même fréquence (testé).
Je plussoie: les serveurs SQL, même virtualisés, on préfère leur mettre du CPU que du coeur. Car chaque coeur coûte 1500€ de CAL.
Maintenant, un SQL serveur, ça se dimensionne. D’expérience, sur 4 coeurs et 100 conntections simultanées, il y a un risque que des requêtes de plusieurs minutes simultanées “saturent” le serveur à 60% de CPU maxi. POur faire mieux, il faut baisser des paramètres (ici j’ai joué sur le max dop) pour que chaque requête ne puisse pas monopoliser tous les CPU. Cela permet de sature le CPU au-delà des 95% sur ces charges tout en délivrant plus vite les résultats. Par contre, de gros traitements en 1 requête peuvent durer plus longtemps.
-> Quand on est contraint par le budget, il faut segmenter les requêtes, de façon à contourner le risque de “ma requêtes de 25 minutes n’est pas passée, il faut la relancer” par “mon traitement de 5x5 requête a une requête de 5 min qui n’est pas passée, je peux la relancer et finir le traitement”.
Dans tous les cas, si le serveur est limité par le CPU s’il est virtualisé l’ajout de coeur est simplifié. De plus, je n’ai pas vu de perte de perfs.
Si le serveur est limité par la RAM (cf le Page Life Expectancy) -> la virtualisation permet de jouer dessus aussi.
Si le serveur est limité par les IO disque… LA virtualisation permet de donner une priorité, mais au détriment des autres VM.
Dans tous les cas, quand on a hérité d’un système conçu sans cohérence, plus de coeur = plus de machines en parallèle.
Attention toutefois: aucun besoin qu’un serveur virtuel ait autant de coeur CPU que ceux distribués sur les machines: on peut très bien allumer l’équivalent de 80 coeurs sur 40 coeurs physiques sans aucune perturbation de service.
En revanche, c’est d’un tel confort un SSD que je m’étonne que tu aies remplacé le disque d’origine par un disque classique. J’ai acheté à peine plus de 100 E un Samsung 240 G, l’avantage étant aussi que ça améliore un peu l’autonomie.
Par autonomie honnête, tu entends quelle durée ? (le mien tenait genre 5 h au début, nettement moins à présent avec l’usure).
Disons que le disque dur suffit amplement, et que je l’avais sous la main. Pour l’autonomie, il fait 2h30 - 4h sans broncher, office/web/un peu de 3D type “Sweet home 3D” ou petits jeux comme marvelous miss take / minecraft.
Le
29/05/2017 à
13h
18
Nerthazrim a écrit :
Coupaing ! " />
Le truc qui me rend fou par contre sur le clavier du UX501 c’est l’absence de touche “End”. Pour développer c’est une PLAIE.
T’as pas des combinaisons de touche avec “Fn”? “Fn”+ Flèche du bas par exemple?
Le
29/05/2017 à
13h
17
OlivierJ a écrit :
Bien d’accord, et depuis que j’ai acheté ce portable début 2013 j’ai l’impression qu’on n’en trouve plus à ces conditions, avec un rapport performances/prix aussi intéressant :
J’ai acheté en Juin 2015 un S301 Full HD: 13.3”, écran FullHD, HD500Go, I3 4010 à 399€
Mon avis perso:
Ecran h-i-é (mais vraiment! il faut être pile pile pile en face, sinon les couleurs ne sont pas les mêmes à droite et à gauche. Et j’ai pas le nez collé dessus!)
Wifi mer baldique sans le bal. Carte wifi Mediatek déjà problématique en … 2009 d’après les forums, refourguée en 2015.
Disque dur la-men-table. Remplacé vite par un disque dur 5400t d’un boitier externe qui trainait par là
Bon, les bons côté de l’ordi: le 13.3” qui est mon format préféré, clavier pas mal, grand touchpad de sensibilité bien calibrée, son honnête, autonomie honnête, démontable à minima.
En bref: à ce prix là, tu en as pour ton argent. Mais plus jamais de portable à moins de 600-700€ pour moi. Je suis plus satisfait de vieux portables pro (Core 2 Duo) que de ce portable grand public en i3.
Je m occupe de driverscloud je peux te dire qu il y a plein de matos usb qui ne passent pas avec les drivers usb par defaut. Quand ca passe il manque plein d options.
Oui, il manque des options, mais souvent les drivers standard sont plus stables -> je les préfère. Ceci dit, je choisis beaucoup le matos par rapport à sa compatibilité. Mais ces quelques dernières années, je n’ai pas eu de mauvaise surprise.
Le
21/05/2017 à
19h
58
charon.G a écrit :
Ce n’est pas vrai, il y a pas mal de pilotes qui ne sont pas gérées par les pilotes de classes standard comme les clés wifi,scanners,casques audios,manettes de jeux etc.
Pour les applications systèmes oui tu as les antivirus ,les logiciels de gravure mais aussi les logiciels comme cpuz ou driverscloud….
Manettes des jeu = pilotes HID standard
Casque audio = audio standard
Scanners = standard
Wifi, il doit bien y avoir un standard maintenant.
Les téléphones sont-ils plus souvent compatibles 800MHz que 700MHz? Parce que visiblement la compatibilité 700MHz est très difficile à établir avant achat, et ça en devient limite un canular (d’un côté on nous annonce la 4G en 700MHz, mais en réalité c’est plutôt ma TV qui peut la capter que mon téléphone)
3758 commentaires
[Sondage] Votre machine principale : un ordinateur fixe ou portable, de marque ou monté ?
23/08/2017
Le 23/08/2017 à 17h 10
PC monté, car impossible à l’époque d’activer le cache SSD sur un PC du commerce (hors stations de travail hors de prix).
Le prochain sera pareil (SSD 64Go de cache), car au bout de 4 ans je suis toujours convaincu que c’est le meilleur choix (justement car il n’y a pas à choisir ce qui va sur le SSD). Mais il tiendra encore bien la route pour 2 ans…
Processeurs Core de 8ème génération (Kaby Lake R) : plus de cœurs dans les portables de la rentrée
21/08/2017
Le 22/08/2017 à 09h 42
Le 21/08/2017 à 13h 23
NVIDIA : rappel d’embouts électriques de tablettes et boîtiers TV SHIELD
10/08/2017
Le 11/08/2017 à 09h 33
Altice voudrait croquer le 2e câblo-opérateur américain, une cible à 186 milliards de dollars
10/08/2017
Le 11/08/2017 à 07h 40
Je veux bien rester chez SFR ou RED, mais seulement si je peux payer mon abonnement à crédit. Ils ont pas une banque en ligne chez Altice? Comme ça on peut boucler la boucle.
Dans tous les cas, Altice ferait mieux de s’éparpiller dans le monde: le jour où la boite explose sous les dettes, ça fait plus de pays à racketter pour “préserver les emplois”
Firefox : une version 55 riche en nouveautés, une fin d’année cruciale
09/08/2017
Le 09/08/2017 à 13h 14
C’est quand même dingue de voir une telle course à l’optimisation pour afficher des pages web…
J’ai l’impression qu’on marche sur la tête: c’est pas les navigateurs qui sont lents ou lourds, c’est le HTML5, le CSS et le javascript.
3 à 7 processus en parallèle pour afficher quelques page de texte et images??? Word fait ça avec un seul processus et ça ne rame pas.
On irait peut-être plus vite en mettant tout en PDF (bref, en faisant le rendu côté serveur une fois pour 10000 machines).
Vivement le remplaçant du HTML5/CSS/Javascript (webassembly ou autre), qu’on voit de quoi sont capables nos ordis.
Le 09/08/2017 à 09h 13
Chez Google, un employé licencié après un texte controversé sur la diversité
08/08/2017
Le 08/08/2017 à 11h 54
Les Ryzen Threadripper d’AMD en précommande, dès 880 euros
02/08/2017
Le 03/08/2017 à 11h 51
Earth Overshoot Day : pour se rappeler que les ressources de la Terre ne sont pas illimitées
02/08/2017
Le 03/08/2017 à 09h 52
Déploiement 4G : 501 sites mis en service par les opérateurs en juillet
01/08/2017
Le 02/08/2017 à 08h 48
Microsoft revoit une fois de plus la distribution des mises à jour de Windows et Office
28/07/2017
Le 28/07/2017 à 13h 50
Quasiment tout le monde dans le même SAC.
Hertz, première société sanctionnée par la CNIL sous l’empire de la loi Lemaire
28/07/2017
Le 28/07/2017 à 09h 13
AMD : Les Ryzen 3 sont là, Threadripper et Vega arrivent, les APU Bristol Ridge reviennent
27/07/2017
Le 27/07/2017 à 20h 33
Nintendo voit ses revenus plus que doubler grâce à la Switch
26/07/2017
Le 27/07/2017 à 19h 22
Le 27/07/2017 à 09h 53
Porté par Ryzen, AMD renoue avec la croissance et se rapproche des bénéfices
26/07/2017
Le 26/07/2017 à 13h 38
On n’en est pas encore revenu à cette époque, mais quand même c’est bien un peu de concurrence…
good old time
Abandonné, Paint migrera de Windows vers le Store
25/07/2017
Le 25/07/2017 à 14h 44
Le 25/07/2017 à 11h 54
Le 25/07/2017 à 09h 22
Non, Windows 10 pour ARM ne prendra pas la relève de l’édition Mobile
19/07/2017
Le 21/07/2017 à 12h 40
Le 21/07/2017 à 10h 03
Le 21/07/2017 à 06h 54
Windows 10 supportera finalement les Atom Clover Trail d’Intel jusqu’en 2023
20/07/2017
Le 20/07/2017 à 11h 39
Ubisoft : des revenus en nette hausse, tirés par le fond de catalogue
19/07/2017
Le 19/07/2017 à 15h 07
AMD dévoile ses Ryzen Threadripper 1920X et 1950X dès 799 dollars, et deux Ryzen 3
13/07/2017
Le 18/07/2017 à 10h 46
Le 17/07/2017 à 12h 00
Le 17/07/2017 à 09h 45
Windows 10 Server intègre le programme Insider, la version Mobile dans le brouillard
17/07/2017
Le 17/07/2017 à 10h 04
Windows 10 va (enfin) limiter la bande passante réservée aux mises à jour
10/07/2017
Le 12/07/2017 à 07h 36
Le 10/07/2017 à 12h 20
Windows 10 S : ses capacités et restrictions en 11 questions
11/07/2017
Le 12/07/2017 à 07h 31
Peut-être que l’adoption de ce Windows 10 S (afin de remplacer les postes en XP incompatibles avec les outils fournis dernièrement) serait bien accompagnée par Microsoft?
Certains logiciels utilisés dans les collèges et lycées sont déjà dans le store, donc ça pourrait marcher.
Par contre, je me demande si Windows 10 S s’inscrit toujours dans un domaine AD?
Et effectivement, il existe des problèmes de pilotes sous Windows 10 avec des machines livrées sous Windows 10 (exemple: des machines ATOM qui après mise à jour de Windows 10 n’ont plus de pilote Wifi, il faut aller le chercher dans le catalog Windows Update sous forme de msi/msu, le tout sans réseau)
Enfin, je m’interroge sur tous ces développements très liés à la présence d’internet. Les nouvelles solutions sont belles en présentation, mais confrontées à la réalité de deux salles infos de 20 postes chacunes + deux salles mobiles de 25 tablettes chacune + l’administration qui envoie de gros mails en simultané, ça donne quoi, même sur de la fibre à 20⁄40 Mb/s?
DRM : le W3C standardise les Encrypted Media Extensions, l’EFF fait appel
10/07/2017
Le 10/07/2017 à 09h 59
SSD : la 3D NAND QLC arrive, Intel lance son 545 s avec de la TLC sur 64 couches
29/06/2017
Le 05/07/2017 à 12h 34
Le 04/07/2017 à 17h 31
Le 04/07/2017 à 17h 30
Le 04/07/2017 à 17h 25
Le 04/07/2017 à 12h 53
Le 01/07/2017 à 09h 56
Le 30/06/2017 à 13h 26
Le 29/06/2017 à 17h 35
Mutualisé d’OVH : importante panne, communication floue, clients dans l’expectative
03/07/2017
Le 03/07/2017 à 12h 12
AMD dévoile ses EPYC 7000, des CPU pour serveurs jusqu’à 32 cœurs de 400 à plus de 4 000 dollars
21/06/2017
Le 23/06/2017 à 10h 15
ASUS renouvelle ses ZenBook et VivoBook, des portables fins et légers dès 499 $
29/05/2017
Le 29/05/2017 à 20h 54
Le 29/05/2017 à 13h 18
Le 29/05/2017 à 13h 17
Windows 10 pour ARM : comment viendra s’insérer le système dans l’offre actuelle ?
17/05/2017
Le 21/05/2017 à 20h 45
Le 21/05/2017 à 19h 58
WanaKiwi peut retrouver la clé WannaCrypt sur Windows XP, Vista et 7
22/05/2017
Le 19/05/2017 à 12h 24
Zones blanches : les opérateurs mobiles tiennent leurs délais, contrairement à l’État
19/05/2017
Le 19/05/2017 à 12h 23
Les téléphones sont-ils plus souvent compatibles 800MHz que 700MHz? Parce que visiblement la compatibilité 700MHz est très difficile à établir avant achat, et ça en devient limite un canular (d’un côté on nous annonce la 4G en 700MHz, mais en réalité c’est plutôt ma TV qui peut la capter que mon téléphone)