dit autrement, en slc on va avoir 4 blocs au lieu d’un seul en qlc pour stocker 4 octets, donc si on fait plusieurs changements d’un bit aléatoire dans nos 4 octets, en slc on aura moins d’usure des cellules individuelles vu qu’il ne faudra réécrire qu’un seul des 4 blocs, en qlc c’est le même bloc qui sera sollicité à chaque fois pour la même quantité de données stockées et modifiées.
Ca c’est clair.
C’est juste que physiquement, dans la vie réelle, il est très difficile de quantifier les écritures réelles dans les cellules. Finalement, il est possible que dans le monde pro les conditions soient plus favorables: écrire beaucoup d’un coup peut être profitable face à écrire un peu toutes les secondes.
Par ailleurs, dans le monde pro, le overprovisionning est assez conséquent (30%, y compris sur les disques durs: des disques de 320Go rapportaient une taille sans overprovisionning de 500Go), ce qui compense un peu les effets nocifs d’écritures “collatérales” - et limite l’augmentation d’usure en cas de disque plein. Enfin, les contrôleurs SAN, RAID et les disques et SSD dédiés ont parfois des firmwares adaptés - comprendre que l’écriture et l’allocation seront optimisée par rapport au matériel, pas par rapport à l’OS qui reste souvent avec des blocs de 4ko(donc ni la taille d’une piste de DD ni d’une ensemble de base de cellules de SSD).
Tu confonds la RAM de l’ordi avec la RAM présente dans le SSD. La RAM du contrôleur surtout. Quand on met des SSD en cache, ce n’est pas le SSD qui pilote le cache, c’est le système. Et pour cela, il garde un plan de quelle cellule (SSD) contient quel secteur (Volume HDD ou autre). Et si sur 256Go/1To de cache ça passe, sur 16To ça commence à peser.
fry a dit:
en slc, chaque cellule aura été écrite 2 fois (enregistrement initial, puis modification de chacun des bits en qlc, chacune des 2 cellules aura été écrite 5 fois (et encore, en considérant que l’écriture initiale ait été faite en un seul coup car les 4 bits auraient été regroupés par le contrôleur), Purement théorique et “Worst case” (ou presque):
les SSD n’écrivent pas en général les données au lieu même où ils les lisent. Tu lis un secteur, si tu l’écrit il est écrit ailleurs et le plan est reconstruit.
Si tu écris vite, seule l’écriture finale attendra les cellules, sauf si le cache du SSD est plein.
Donc au final, on a beaucoup de FUD, car ce que fait réellement le SSD est bien différent du principe “je lis en A12 et je réécris en A12” car A12 est déjà une adresse virtuelle.
Remarque: certains disques dur le faisaient déjà, avec une technique d’écriture sur l’emplacement libre le plus proche, à la file, puis une réécriture plus tard, quand on a le temps, au bon endroit.
Le
15/09/2020 à
08h
16
(quote:50200:Idiogène) Durée de vie moyenne constatée : 10 ans. Maintenant c’est basé sur 1 échantillon….
Dans un SAN qui brasse des To par jour: 4 SSD en tiers 1er niveau, (256Go - RAID 1 - 2 baies, SLC par contre) + infra VMWare avec des SSD locaux pour le cache disque, les migrations. En 3 ans: je ne compte plus les disques durs changés sur les baies ou les serveurs. Aucun SSD changé. Encore 3 ans plus tard: visiblement les SSD n’ont jamais été changés.
Remarque: le tiering est remis en cause chaque semaine par la baie, mais les SSD prennent dans la figure les recalculs d’index et écriture BDD notamment. Et ils sont bien au chaud, l’armoire avec les baies de stockage posant quelques problèmes de refroidissement (perso je proposais de faire sécher le linge derrière, on aurait pu sécher quelques centaines de kg /j je pense)
Bref, que ce soit perso ou pro, je pense que les SSD sont très fiables, plus que les HDD. Et j’ai surtout utilisé du SSD en cache (donc avec plein de lecture/écriture aléatoires), un domaine où leurs performances font une différence même sur de vieux systèmes, mais qui est censé les fatiguer plus vite.
Le
15/09/2020 à
08h
09
OlivierJ a dit:
Quand on utilise un SSD comme cache, pourquoi avoir besoin de RAM ? Un SSD permet justement d’avoir des perfs importantes sur une BDD sans avoir besoin de RAM
Les systèmes de cache SSD réservent de la RAM pour garder le plan du cache. Ils sont assez simples à priori, et le résultat c’est que la RAM nécessaire augmente avec la taille du cache. Mais les contrôleurs sont très limités en RAM. Donc le cache risque de ne pas passer ou de couter trop de RAM. -> Mieux vaut les utiliser en tiering. Mais à ce prix et avec ces perfs, mieux vaut plus petit et plus rapide à mon avis. Quand aux serveurs SQL: je suis d’accord. Les SSD permettent de limiter la RAM nécessaire pour faire tourner la BDD. Et sur une infra virtualisé, c’est double gain, car la mémoire vive est réservée aussi sur le stockage pour permettre les migrations/mises en veille/SWAP. De plus, le débit d’un RAID SSD dépasse rapidement le débit réseau des machines (souvent encore en 1x1Gbit/s). Donc si les requêtes n’ont pas trop de jointures, ça peut passer crème.
Le
12/09/2020 à
19h
28
gallean a dit:
quand je vois crucial par exemple, qui garantie ses ssd 5 ans, et après ? les HDD que j’ai tournent toujours impec…
J’ai des HDD qui tournent toujours et qui ont largement dépassé les 15 ans. Est-ce que ce sont des exceptions? Aucune idée. Mais à part au début des SSD où des erreurs de firmware ont pu les bloquer définitivement et autres scandales des TLC samsung, j’ai une confiance plutôt aveugle dans les SSD.
Premièrement, les charges de travail pro ou perso que j’ai pu rencontrer n’ont aucune chance de fatiguer un SSD. D’ailleurs, j’ai un SSD que j’ai utilisé pendant 6 ans en tant que cache disque système (donc forte tendance à écrire), ce SSD a 8 ans maintenant et ne présente aucun signe d’usure grave (juste les compteurs d’allumages et de nombre d’heures et d’écritures).
Deuxièmement, en environnement pro, et dans le cas que je connais dans un SAN, les conditions sont extrêmes niveau chaleur, et des disques on en changeait très régulièrement. Donc la fiabilité du HDD payé une blinde, c’est limité de mon point de vue.
Le
12/09/2020 à
14h
04
gallean a dit:
ça douille quand même ^^
Il y a 3-4ans ans, un disque dur 2-3To c’était 200-300€ (en 15K) mais on les achetait forcément par 3 mini (pour le RAID) et même par 6 (baies en redondance) Et chaque disque ajouté augmentait aussi le prix de maintenance annuelle du SAN…
Au point que payer 300€ n’était pas du tout le problème, c’était le reste.
Et expliquer aux utilisateurs que eux payaient 100€ un disque chez carrefour mais que pour nous c’était 1000€ à investir pour la dispo…+ le coût annuel.
Ca, c’était pour les disques rapides. Les disques lents étaient plus abordables. Les SSD en cache primaire étaient hors de prix.
Au final, pour avoir des perfs et du stockage, on achetait par exemple 2 SSD, 8 disques rapides, 16 disques lents.
Là, avec des SSD de 15To, on peut ne plus avoir à réfléchir à certaines problématiques (le cache SSD est-il suffisant?) et se passer de tiering sans sacrifier en perfs, en stockage, et sans pleurer sur la conso électrique.
Vu le prix de maintien de 2 baies de 16To, la place occupée et la consommation électrique + échauffement (donc la clim), j’imagine facilement convaincre mon ex directeur qu’on pourrait utiliser seulement quelques SSD et avoir tous les avantages… même à 900€ pièce!
Le
11/09/2020 à
09h
10
Le cache à 530Mo/s. Bof bof. Sans compter que pour gérer un cache de 15To, il faut combien de RAM pour se rappeler quoi est où?
Après, beaucoup de BDD sont légères en écriture; de nouveaux moteurs se profilent pour éviter de reconstruire des index et autre; les SSD en RAID pourront à terme permettre des BDD avec des perfs suffisante sans trop de RAM je pense, et sans risquer de pourrir le SSD avec des écritures indûes.
Mais pour le moment, des SSD QLC, je ne les mettrais pas trop dans un SAN…
Quasi tous les logiciels libres de l’époque étaient sur ce disque et même jeune j’avais trouvé que ça avait une importance énorme. À côté Windows XP était inutilisable « nu ».
Ceci dit, Ms ne semble plus oser distribuer de softs intégrés, d’où la tonne de bloatware mal finis qu’on a eus par un moment. Car a l’époque de Windows XP/vista, on avait encore des softs intégrés classes et utiles, comme la galerie photo et Movie Maker (sortis ensuite en pack autonome connecté à Live! puis disparus…)
Moi cet article me rappelle surtout (étant un adepte du “je ferai marcher ce vieux truc”) certaines anecdotes genre les environnement X qui passent par défaut au mode 3D (adieu autonomie et performance), ou les choix côté kernel de devenir ultra strict sur les ACPI (adieu portables HPs),et maintenant la fin du X86/x32 (adieu les ultra légers)
Tout ceci est en général vieux mais ‘a détrouné de Linu pour les vieilles machines: car à mesure que les distros évoluaient, Linux s’arrêtait de fonctionner et Windows continuait…
Le
15/09/2020 à
18h
40
Attention aux pièges. XFCE est léger. Mais ce qui est lourd, c’est de charger des outils gnome ou KDE qui chargent leur environnement respectif.
En gros, XFCE consomme moins de RAM au démarrage, mais XFCE + KOffice est au moins aussi lourd que KDE + KOffice et XFCE + KOffice + GIMP est plus lourd. Je schématise, mais on a souvent des surprises. Il faut garde run cohérence d’environnement pour ne pas saper les ressources quand on est limité (je parle de moins de 2Go de RAM, après le surcoût pèse moins lourd).
Ceci dit, mon beau père utilise Windows 10 sur un Core Solo 1.7GHz. Ce n’est pas si mauvais en fait.
Arcy a dit:
(tout ceux qui nécessite internet en fait) pourraient être téléchargé à la demande ou lors de l’installation.
C’est un choix, mais je trouve bien que la pluaprt des distro incluent des outils de base, plutôt que de devoir tout télécharger soit-même. Si je veux partir de 0, je prend un deb net install ou carrément un Tiny core Linux.
ce qui m’inquiète surtout, si ce rachat ce fait, comment va se débrouiller amd ? vu qu’il y a de l’arm dans leurs cpu…
En quoi ça changerait quelquechose? Ils payent la licence ARM et c’est bon.
De toutes façons, en informatique, le matériel, si extraordinaire qu’il puisse être, ne crée pas un marché. C’est le logiciel qu’il fait fonctionner qui le crée. Et le logiciel, si extraordinaire qu’il puisse être, ne crée pas seul un marché. C’est surtout le marketing autour qui le crée…
Le
14/09/2020 à
20h
35
David_L a dit:
Tu te tords le cerveau dans le vide, tout ce que tu évoques déjà.
Je crois qu’on a tous un peu la même idée de ce que NVidia pourrait pousser: du GPGPU en argument principal, avec un bon ARM bien armé pour le serveur mais pas forcément capable de casser de l’intel. Et ça existe ça et là, on a plein d’exemples d’ARM modifiés pour être interconnecté à du pcie 3 ou de la mémoire HBM, mais tout est éparse. Chaque annonce fait marché de niche et “pionnier”, mais ça n’inspire pas forcément confiance. D’autant plus qu’actuellement quand on achète une carte/un serveur ARM, le linux associé peu avoir des parties exotiques dont le maintien dépend de la survie de la boîte… Les DSI restent un peu en attente d’un produit qui donne autant confiance que le x64 dans le support et la continuité.
Et beaucoup pensent encore Nvidia = carte graphique = jeu = pas sérieux, malgré les produits pour Datacenters, beaucoup de DSI ne sont pas convaincus par le GPGPU. Du coup, ça manque d’impulsion pour créer/porter des logiciels vers le GPGPU.
L’association NVidia=ARM peu imposer une nouvelle vision: NVidia est associé à performance et ARM à innovation. Reste peut-être l’éternel refrain de la killer app (et si possible autre chose que des fermes de rendu blender) - par exemple des applis de RH/Paye/Compta sur GPGPU+ARM et licence nouvelle: ce sont des logiciels qui nécessitent des serveurs énormes, sont critiques et coûtent deux bras (donc un seul ARM serait déjà plus économique). Les pires vaches à lait en IT je trouve.
Bref, je trouve que ça a du sens, et que ça peut déstabiliser le marché. Par contre, je pense que ça marquerait une pause dans l’évolution des aRM pour la mobilité.
Le
14/09/2020 à
11h
27
tazvld a dit:
En effet, la carte graphique est leur marché historique, connu aussi bien du public que des pro. Sur une plateforme PC, n’ayant pas de licence X86, il ne leur est pas possible de proposer des puces tout en un CPU avec GPU intégré comme le fait Intel ou AMD.
Mais alors avec un petit CPU et un GPU très balèze? Les cartes NVidia Jetson et consorts sont déjà pas mal dans cette démarche. Et effectivement il y a peut-être un marché pour avoir des calculateurs qui sont de très gros GPU et très peu de CPU juste là pour les interfaces avec l’extérieur et coordonner le tout. Ca ferait un serveur de calcul complet, les SOC étant encore surtout utilisé pour la mobilité et les ordis plutôt bas de gamme.
Mais je crois que ça se développerait si les BDD et autres applis “classiques” de serveur sur GPU se développaient.
Le
14/09/2020 à
07h
37
David_L a dit:
il ne leur manque plus que la partie CPU / Stockage. Le second point est trivial, le premier essentiel.
Tout est une question d’ambition. Actuellement, le stockage et l’interfaçage du stockage est un point d’amélioration énorme dans les Datacenters et le traitement de données en masse. La question est: peut-on se passer de la RAM (et de son coût, de sa conso, de son bus)?
Mais c’est sûr que acquérir et diriger ARM permettrait à NVidia de se mettre directement face à Intel/AMD - avec en plus le côté un peu plus “alternative” vis à vis de Intel que AMD.
C’est aussi un moyen efficace de consolider le GPGPU côté serveur, en orientant peut-être les concepts ARM vers un écosystème lié à leurs technos, avec un CPU qui sert essentiellement d’ordonnanceur.
Le
14/09/2020 à
06h
15
Ca signifie quoi concernant l’embargo Huawey? ARM ne pourrait alors plus vendre ses concepts à Huawey? Huawey devrait passer par un tiers chinois pour fabriquer ses CPU ARM?
Et concernant l’opensource, beaucoup font une levée de bouclier tellement NVidia est diabolisé dans ce domaine, car NVidia ne fourni pas toutes les sources (malgré le fait que NVidia a été le premier à fournir un pilote sous FreeBSD il y a des années, et que NVidia fournisse toute la procédure pour débloquer les shield et compiler soit-même Android, avec les pilotes (closed source d’accord), et que NVidia participe au calcul en GPGPU…)
PS : Je me suis embrouillé les pinceaux je crois, je parle de désinstallés les pilotes uniquement si tu changes de marques, évidemment pour des mises à jours de pilotes sur un même GPU, pas besoin de désinstallés les anciennes.
Pour l’avoir fait dernièrement, ça ne semble pas risqué tu changes de CG. Par contre, prendre une image Windows AMD (APU) et la placer sur un Intel, c’est pas immédiat. Mais Windows fait du bon travail et au bout de 3 redémarrage tout est OK. Ensuite, DriverStoreExplorer est ton ami pour virer les pilotes.
Galak_ a dit:
Même en tapant sur de la 2080 Ti tu dépasses difficilement les 400W sur une conf standard, et t’es sous les 250-300W avec les cartes milieu de gamme les plus répandues.
Tout à fait d’accord (j’ai une 350W depuis 2013 pour un i5 3570K et une GTX 1050 + 2 disques). Je n’ai jamais compris les alims à plus de 700W.
Mais gare à être trop radin! Car si peu d’applis/jeux utilisent 100% sur tous les composants (IE GPU à 100% + CPU à 100% + activité disque + USB3 qui charge), il faut quand même que l’alim le tienne “au cas où”.
Le
10/09/2020 à
14h
57
David_L a dit:
Oui après le rendement maximal d’un alimentation est dans les environs de 50% Mais je suis d’accord : surdimensionner dans le vide n’a aucun intérêt.
On est pas plutôt sur du 80-95% de rendement?
Galak_ a dit:
Et c’est là qu’avoir une alim à 850W qui va tourner à faible régime, soit là où le rendement est le moins bon, sur la config au repos à 70-120W n’a pas de sens si la config ne dépasse jamais 550W.
Le problème quand on tire trop juste l’alim, c’est qu’on peut se retrouver avec une alim qui sort en théorie beaucoup sur le 5V (par exemple pour alimenter des ports USB2) mais pas assez sur le 12V … ou l’inverse.
Et par habitude, je garde toujours au moins 20% de marge.
Exemple connu: les dell optiplex 3010: l’alim est trop juste sur le 5V, si on branche souvent des appareils USB2 à charger (iPhone, batteries), on grille l’alim. Pourtant, il me semble que ce sont des 180W, largement suffisantes pour des I3/I5 avec carte graphique intégrée.
La Quadro RTX 3000 c’est une carte graphique mobile.Je me demande si elle occupera un port pci-express ou si elle sera directement intégré sur la carte-mère.
On reste donc sur des cartes à 50W maxi peut-être 75. Je ne sais pas si c’est du low profile ou non.
C’est très habituel sur les config compactes pro. Le nombre de cartes possibles (low profile et 50W maxi) est (très) restreint. Actuellement la GTX1650 était la plus puissante que j’ai pu trouver (low profile, < 75W).
Le
09/09/2020 à
10h
16
tazvld a dit:
pour relativiser, sur les serveurs, il est courant que les firmeware des disques soient modifiés, tu ne peux pas mettre n’importe quel disque, uniquement des disques acheté chez l’assembleur pour ton modèle de serveur : bienvenue dans le monde pro.
Je te rassure, Asus, Lenovo, HP, ont aussi déjà ajouté des limitations sur des PC grand public: liste de modèles de cartes Wifi et de SSD limitées par exemple.
Ce qui n’est pas contre généralement pas un problème sur les PC pro (pour les serveurs, ça va encore plus loin: chez IBM/Lenovo, si tu ne mets pas à jour ton firmware de SAN régulièrement, les disques plus récents finiront par être rejetés - sauf que pour recevoir le firmware à jour, il faut avoir un contrat de maintenance actif. Arrêter son contrat de maintenance, c’est ne plus pouvoir facilement trouver de disques de rechange…)
(quote:49885:skankhunt42 ) La vache, 700€ une machine avec un i3 et 8 go de ram sans carte graphique… En plus de ça c’est une seule barette de 8go, lol ? Tu dois bien bosser avec ça !
La qualité du boulot n’est pas tant rapport à la puissance de la machine. L’agacement de l’utilisateur, peut-être. Ceci dit, j’ai eu la main sur une floppée d’ordis en 35W (encore plus petits), ils sont très agréables à utiliser (d’ailleurs je m’en suis acheté un). Et ces ordis pro sont généralement très fiables, durables et réparables (ils ont un stock de pièces conséquent visiblement). Ils ont aussi une gestion intégrée pour la distribution des firmwares, le verrouillage à distance, la réinstallation du système juste en cochant “réinstaller” depuis sont siège sans aller chercher l’ordi… bref, l’administration de flotte.
J’aurai probablement des problèmes, mais avec une box serveur largement au dessus de tout ce que j’ai pu voir chez la concurrence.
J’ai la mini, donc je n’ai que les problèmes. J’ai dû virer le Wifi, il faut désactiver le Cell to fem à chaque mise à jour/reboot pour stabiliser la ligne, le boitier TV ne retrouve pas la Wifi au boot 1 fois sur 3 (remarque: c’est un progrès), je ne peux plus activer freewifi (IP de la box non reconnue, visiblement à cause du partage de ports), alors vu la stabilité des trucs de base que tout le monde offre, pour la partie serveur, j’ai un NUC.
Mais bon, Free, ça me coûte 15€/mois de moins que SFR, et de puis le temps j’ai stabilisé pas mal (sauf le femto, dès que ça déconne sur la ligne je dois aller le couper depuis la box - on ne peut pas depuis l’interface visiblement). Et c’est les seuls avec Orange à me garantir plus de 8Mb/s.
(quote:1822785antonQ-Robespierre) Du coup ça m’inspire une suggestion : ce serait bien de faire aussi un point sur les débrideurs…? Bon vous allez me dire, on est un peu dans le domaine de l’ombre, faut pas parler de ces choses-là, ouuuh c’est pêché…
Je ne suis pas convaincu que NXI soit l’endroit pour un benchmark de services liés uniquement au contournement de règles d’autres services. Ceux qui les utilisent prennent leur risques et responsabilités, s’ils se font arnaquer en tentant de se soustraire à un service jugé trop cher, ils ne peuvent que s’en prendre à eux même.
Le sujet de la sauvegarde est très sérieux, et sans côté équivoque. L’analyse concernant la sécurisation est importante aussi. Par contre, l’article ne traite pas des technos sous-jacentes: la sauvegarde est-elle sécurisée en cas de crash? Y-at’il un principe de données chaudes/données froides? Par exemple, en perso j’utilise un serveur dédié kimsufi, mais je sais qu’en cas de crash du serveur, je pers tout (donc autre sauvegarde ailleurs).
Après, j’applaudis le côté userfriendly de la solution, c’est très bien fait.
Le
04/09/2020 à
07h
04
wanou2 a dit:
C’est pour accéder aux fichiers sur les sites d’hébergeur premium
Hébergeur premium? Je ne l’ai pas non plus.
Le
04/09/2020 à
06h
20
(quote:1822785antonQ-Robespierre) Intéressant, merci pour ce dossier !
Du coup ça m’inspire une suggestion : ce serait bien de faire aussi un point sur les débrideurs…?
Il y a un sacré chemin à faire: Android, c’est un système où les applis “user” sont mises en pauses/déchargées en permanence. Les applis “natives” n’ont pas encore cette faculté il me semble.
D’après Anandtech, le gros i7 monte à 50W de conso en turbo. Donc à voir si les performances sont constantes sur les longs traitements.
Les portables Intel ont de mon expérience des perfs en dent de scie, ou alors un beau pic puis un long plateau un peu bas…
Je n’ai pas expérimenté le ryzen 4800U, mais les tests montre plutôt un graphique plat que ce soit niveau perf ou conso.
Intel n’a pas précisé non plus les conditions de test il me semble - il ont déjà été sournois sur ces petits détails.
Bref, attendons des tests indépendants. Je pense qu’Intel a repris la palme, mais peut-être au détriment de certains éléments, et dans un mesure un peu plus modérée que leur démo ne laisse présager.
Le
03/09/2020 à
09h
44
sephirostoy a dit:
En tant que développeur (C++, pauvre de moi ), je suis davantage regardant sur le nombre de cœurs pour la compilation plutôt que sur la partie graphique. De ce point de vue, la génération précédente est plus intéressante.
Tout dépend des outils. J’ai encore bon nombre d’outils qui sont plus sensibles à la fréquence qu’au nombre de coeurs.
Ensuite, on parle ici de processeurs mobiles qui ne sont pas pour les workstations mobiles il me semble - d’où la comparaison avec des “U” chez AMD. Sur mobile ont est vite limité par des limitations en vitesse de RAM ou de transfert SSD et 16 threads peuvent être un peu trop à gérer pour le système.
Je pense qu’ils tiennent un bon compromis.
Arona a dit:
Les dénominations… Quel bordel!
Tout à fait d’accord. Lire la référence d’un CPU intel, c’est pire je trouve que décoder la valeur d’une résistance. Et on ne risque pas de retenir parfaitement plusieurs références.
Il y a déjà eu des Geforce MX pour portables qui sont à peine plus puissantes en jeu que les intel HD620 (mx110) - surtout si on en en dual channel avec de la bonne RAM quand même.
Des PC étaient vendus avec, et la conso prenait un coup face à la version sans GeForce, tout cela pour ne rien apporter de concret.
Actuellement, ces cartes bas de gamme se battent déjà contre les APU de AMD qui sont inférieurs mais de peu (MX250 vs RX Vega 8), tout en consommant visiblement moins.
Du coup, il va falloir mettre un bon coup pour se démarquer nettement. 30% de perfs en plus ne justifie pas un surcoût ou une gêne (refroidissement/autonomie) supplémentaire, vu qu’on est pas dans le hardcore gaming.
Pour cet autre exemple de zone couverte / non couverte. Tu ne parles pas de bande passante cette fois-ci mais de disponibilité hors ligne. Ce n’est pas pareil. Ce problème n’a pas attendu PWA pour être réglé. Avec des moyens plus ou moins fiable / élégants suivant les avis; certes. Mais des solutions; il y en a toujours eu.
PWA a l’avantage de faire un peu comme le “full stack”: un développeur Web HTML/CSS/JS est censé pouvoir faire du PWA (pas taper, je sais bien à quel point le full stack et le tout HTML/CSS/JS contiennent comme problèmes cachés et complexité rarement comprises par bon nombre de développeurs)
Comme dit dans l’article, les applis Web téléchargeables ce n’est pas nouveau (j’ai fait ma première sous iOS 6), mais on a passé un cap dans les fonctionnalités, l’intégration et dans le cross platform qui rend cela cohérent. De plus, cela permet de ne pas avoir à payer les stores.
Alors bien sûr, pour le moment il faut encore choisir entre un appli native et du PWA selon le degré de complexité et la nature des fonctionnalités (difficile encore de faire une PWA qui charge toute une map en local, et surtout plutôt long à mettre au point face aux SDK existant en natif), et on peut s’attendre à des restrictions (pas le même niveau d’optimisation comme chez Apple, limitations WebAssembly ou WebGL par exemple), mais pour des applis simples/moyennes ça n’a pas d’importance.
Ceci dit, je me demande si avec Qt for Web Assembly on peut faire une PWA déconnectée (Qt for webassembly demo
Le
25/08/2020 à
13h
27
David_L a dit:
Disons que ça revient un peu à dire “J’ai un SUV mais…”.
David_L a dit:
Il y a une règle : les comparaisons entre l’informatique et l’automobile sont toujours foireuses
WTF?
DanLo a dit:
On est d’accord… tu remarqueras que je n’ai pas mentionné une seule fois le mot “écologique”. ;) Je parle effectivement de sobriété d’usage de façon générale pour ne pas abuser de nos capacités actuelles juste pour le plaisir d’en abuser
Si c’est pour faire dans la sobriété … un magazine en ligne ça produit quoi … 200000 caractères utiles par jour.
Et un site Web pour publier ces 200Ko (mettons 400Ko pour l’unicode), ça consomme quoi … 40Mo par jour…
Bref, est-ce que NextInpact peut nous montrer un exemple de sobriété avec des articles dispos sur BBS SVP? Ou diffusés par le réseau Alphapage?
Merci :)
Sinon, Danlo, je suis assez d’accord, je suis révolté par le gâchis de ressources. C’est clair que déjà un RPI c’est puissant par rapport à pas mal d’ordi que j’ai eu et sur lesquels j’ai bossé (et parfois sur lesquels j’ai effectué des tâches bien plus gourmantes à priori ou complexes que celles que je fais sur mon i5).
Et la consommation réseau est immense par rapport aux besoin effectifs de chacun. Je pense d’ailleurs que la green it doit se concentrer sur la conso réseau et le stockage en premier lieu. Le calcul est finalement plutôt secondaire (car non continu)
En ce sens, les PWA sont un pas en avant: on a au moins le choix de ne pas mettre à jour tout de suite + le fait qu’elle ne se mettent à jour que quand on les utilise (pas comme une appli du play store qui va se mettre à jour 20 fois entre 2 de mes utilisations)
Le
25/08/2020 à
09h
35
(quote:1821980:Singular-) Structurellement :
une PWA reste donc du langage JS interprété qui va s’exécuter en quasi totalité dans un environnement single threadé. Le temps d’interprétation du JS (et ca peut être long si on utilise des frameworks lourds type angular, qui auront eux même un temps de “boot” derrière) et son exécution single thread rendent une app web quelle qu’elle soit nécessairement et visiblement plus lente au démarrage qu’une application compilée nativement … En terme d’empreinte CPU/RAM, un site web est toujours plus gourmand qu’une app native : c’est logique vu qu’on ajoute de l’abstraction (on a un site, qui tourne dans un navigateur, qui tourne sur le système vs une app qui tourne sur le système, et on ajoute de l’abstraction graphique avec un DOM interprété, et logique avec du code JS là aussi interprété).
Je suis plutôt d’accord, mais certains m’ont prouvé qu’on pouvait faire des applis magnifiques en JS: BPMN viewer et Draw.IO. Ces deux applis sont ultra performantes, démarrage ultra rapide, et les applis équivalents en natifs sont toutes à la ramassage (peut-être dia, mais qu’il est moche!)
Attention aussi à ce qu’on appelle la conso de RAM: JS est interprété, mais chaque ligne peut effectuer des tâches complexes pour du natif. Résultat: le natif est plus lourd, surtout que le moteur JS peut jeter une partie du code ou ne pas compiler le code qu’il n’a pas utilisé. Donc en conso RAM “exécutable” par rapport à un natif, si on considère que le moteur JS est de toutes façons chargé, on est pas si mal.
En termes de CPU par contre, c’est moche. Sauf si le moteur JS garde des morceaux compilés des PWA tant qu’elle n’a pas changé.
En termes de complexité d’exécution… c’est selon le framework natif. Certains framework passent par tellement de couches qu’ils ont perdu tout intérêt en termes d eperfs par rapport à de l’interprété.
Par contre si tu compares fonctionnellement les applis, Word 95 fait plus et utilise beaucoup moins de RAM que Word online, tout en étant extrêmement plus léger en volume. Certaines démo de PWA font télécharger 3Mo, démarrent dans un environnement de 100Mo pour faire ce qu’on faisait en Delphi en 300ko. Mais je compare à de l’ancien: quand tu fais une appli Java/.Net/Qt, tu te retrouves souvent avec 50Mo de dépendances chargées avant même d’avoir pu écrire “hello world” (bon, qt, c’est moins normalement).
Le
25/08/2020 à
06h
41
Tandhruil a dit:
En gros c’est du langage interprété compatible avec les navigateurs web (donc l’interprète est présent dans toutes les machines connectées au web). J’ai du mal à voir une “révolution”…
Tout est révolutionnaire en informatique. Mais en fait c’est par vagues.
En gros:
avant, on était en n tiers (client lourd) -> le client fait l’affichage, le serveur renvoie les données. (souvent, le client demande trop de données)
après, on était en Web: le serveur fait tout le boulot, les données affichées ne sont que les données utiles. Mais c’est lourd côté client, et c’est connecté en permanence
ensuite on a eu le web 2.0: on a ajouté du rendu côté client et de l’ajax dans tous les sens.
maintenant on est entre les deux: une PWA peut être déconnectée et fonctionner ainsi ou être connectée au serveur. On choisit
Ben, on faisait plus ou moins pareil avant mais avec plusieurs techno (applet, appli différenciés) ou une seule mais non cross platform (silverlight)
Et bientôt, on va nous montrer des applis totalement cross platform en client lourd (en fait, j’en utilise déjà comme diagrams.net, anciennement draw.io, qui s’installe maintenant en PWA pour être dispo hors connection)
Effectivement, ce modèle avec des big wins, mais au final il faut compter sur des perfs proches d’une GTX1060. Après, ça peut être mieux, mais ce n’est pas très prévisible.
Le
25/08/2020 à
13h
36
Ghimo a dit:
Question bête : Est-ce qu’on sait le niveau de perf max théorique que l’on peut atteindre en GPU avec un APU ? Sans parler du fait que ce sont actuellement des Vega 8. Est-ce que caser les perf d’une 1060 (par exemple) est physiquement possible sur ce type d’architecture maintenant ?
Rah! L’enfer des pilotes qui ne vérifiaient pas si un IRQ tombait pour eux ou du matos qui ne donnait pas de possibilité de vérifier que c’était lui qui avait déclenché l’IRQ!
A ce propos, j’en ai vécu une bien bonne. Possesseur d’une Maxisound64, j’ai commencé à fair el pilote BeOS. La maxisound64 était balèze: en plus du mixage 64 voix sur la table d’onde Midi (jusqu’à 16Mo), elle donnait aussi 8 voix hardware mixées avec effets.
Sauf que: pas d’IRQ pour le chip! (SAM9407) –> c’était du polling, et le chip mettait tellement de temps à acquitter avoir lu la donnée sur le port que … ça consommait près de 10% de temps CPU par voix de transmettre les données! Encore mieux: sous Windows, ce temps consommé n’était pas vu par le système, ça ralentissait mais sans occupation CPU visible par le panneau Windows (on le voyait avec les compteurs du CPU pourtant) :)
Sous BeOS, j’ai vite vu le problème. Hoontech m’a donné une carte (avec le même chip, mais avec un IRQ et un DMA) et là ça marchait mieux. Mais de l’eau avait coulé sous les ponts et Be Inc avait coulé avec.
Le
25/08/2020 à
09h
26
trash54 a dit:
En 94 ou 95 (neurones archivés) il fallait 36 disquettes pour les premiers Linux que j’ai vu ….
Et au moins 8Mo de RAM pour lancer l’interface graphique X11. En 4Mo, c’était trop juste - alors que ça marchait sous Windows 95 (archi monolithique vs client/serveur bien lourd de X11).
En tout cas faire un sauvegarde des disquettes du système et de certains logiciels, ça remplissait rapidement les boites de 60⁄80 disquettes à l’époque.
J’ai des CD gravés de l’époque, c’est dingue la quantité de logiciels qu’on mettait dessus! Bon après, un disque dur très respectable ça faisait 420Mo aussi.
Le
25/08/2020 à
09h
19
KooKiz a dit:
C’est toujours le cas pour ces deux points. Je ne parlais pas de bug sur le pilote, mais de bug sur l’installation du pilote.
Beaucoup de chemin a été fait avec Windows 98⁄2000. Dans le cas de Windows 95, certains pilotes par exemple (et logiciels) assumaient le nom des répertoires - qui parfois étaient différents selon la langue. Certains ajoutaient dans system.ini/win.ini des entrées mais ne géraient pas les fichiers qui contenaient des accents. D’autres remplaçaient des DLL système…
Bref, un pilote de carte réseau pouvait sauter en installant une carte son pas chère…
Le
25/08/2020 à
07h
34
Tandhruil a dit:
A noter que les serveurs NT4 devaient être rebootés régulièrement, on m’avait dit que c’était un compteur qui passait en overflow au delà d’un certain temps (2 mois environ).
Non, pas sous NT4 normalement (sauf pilote pourri?). J’ai connu des NT4 démarré depuis des mois sans problème. Sous Windows 95, il y avait un compteur 32bits des millisecondes. S’il bouclait (donc après 4,3Gms soit 49,7j), ça plantait.
Le
25/08/2020 à
06h
32
Entre 95 et XP, il a fallu passer en gros de 4Mo (8Mo pour être à l’aise) à 128Mo (256Mo pour être à l’aise) en 5 ans. Et changer la carte vidéo ISA par une VLB pour que le dégradé (grille superposée) qui s’affichait quand on quittait soit instantanée. A l’époque, on benchait les CG en 2D pour savoir si l’interface graphique serait accélérée.
Les Windows 9x ont été empoisonnés de problème de fiabilité liés parfois aux pilotes (certains développés comme des pilotes pour Win 3.1). Un mauvais pilote pouvais empêcher Windows de démarrer.
De plus, on était dans le DLL hell: Windows allait chercher les DLL des applis dans le répertoire Windows par défaut, avant celui de l’appli, et plein d’appli remplaçaient des DLL dans le répertoire Windows par les leurs (les DLL MFC, VB, …)
J’ai réinstallé dernièrement un Windows 95 (pour le jeu des screenshots), ben ça ne ravive pas que des bon souvenirs: chercher le bon pilote, planter l’install, modifier dans les fichiers ini pour désactiver le truc pourri, redémarrer toutes les 5 minutes à chaque changement…
Windows 2000 a corrigé cela - c’est le Windows que j’ai gardé le plus longtemps à part 10, j’ai eu XP mais pas sur mon poste principal - trop gourmand. Et un virus a eu raison de mon Windows 2000 ce qui a entamé ma période freebsd.
(quote:48899:skankhunt42 ) En ce moment je bosse sur un jeu vidéo alors je sais de quoi je parle… Le temps et le matériel, c’est de l’argent. Actuellement le frein du photoréalisme c’est les outils…
C que tu soulignes surtout, ce n’est pas le manque de performances, mais le coût pour exploiter, et le retour sur investissement probable, qui est peu lié à la présence de machines capable de restituer un jeu dans toutes sa splendeur, mais surtout au fait qu’il est difficile de vendre un jeu actuellement. Le marketing fait la vente, et on n’est plus à une époque où acheter les pages du milieu de GEN4/Joystick suffit à faire les ventes.
Beaucoup de jeux, même plus beaux, n’apportent pas grand chose à d’anciens jeux déjà présents et bradés.
Déjà début 2000, certains jeux qui avaient de la pub ont fait des ventes catastrophiques (genre 4000⁄5000 boites) soit au mieux à peine de quoi couvrir un an de salaire de 2⁄3 personnes.
Enfin, certaines personnes se fichent pas mal du photoréalisme. Perso j’adore la technique du cell shading. Et dire d’un jeu où un gars porte 10 armes et 400kg de munitions pour tuer de l’alien qu’il est “réaliste”, ça me fait toujours sourire. Enfin, le photoréalisme sans la physique est nuisible: je pardonne un jeu peu détaillé si le feu ne se transmet pas d’un véhicule à une cabane en bois, je remarque ce manque immédiatement sur un jeu “photo réaliste”. (Exemple aussi: les jeux “réalistes” comme HL2: tous les humains ont les mêmes vêtements, la même taille, la même corpulence. Ca m’a choqué et m’a cassé “l’immersion”)
Le
20/08/2020 à
14h
08
Soraphirot a dit:
Nintendo n’en a rien à secouer du marché des tablettes. Le secteur est morose et les ventes des tablettes Shields étaient pas folles. Nvidia a juste décidé d’arrêter les frais sur ce segment et s’est concentré sur les boitiers télés, qui se vendent mieux.
Ce qui est sûr, c’est que les shield K1 n’ont pas été vendues très longtemps et ont disparu quasiment en même temps de toutes les boutiques. vec une réapparition éclair avant une disparition complète. Pourtant, NVidia devait avoir du stock puisqu’il m’ont changé la tablette gratuitement après une casse écran sans aucune négo nécessaire (au moment où on ne pouvait plus les acheter).
Le
20/08/2020 à
09h
07
lololasticot a dit:
J’ai quand même un peu l’impression que les évolutions des cartes graphiques c’est un peu du bullshit pour vendre à tout prix
Vu que dans l’entrée moyen de gamme une même carte peut se vendre au même prix pendant 4 ans, et que son successeur arrive “à peine” à tirer 25% de perfs en plus (GTX 1050-> GTX1650), je dirais oui, ça stagne.
Le RTX était un bon argument marketing, mais j’ai la net impression que les RTX 2xxx ne permettent pas d’exploiter le raytracing (dans les jeux) comme on aimerait le voir: généralisé, fluide.
Le
20/08/2020 à
09h
04
Le_poilu a dit:
Il faudrait savoir combien rapporte la vente du Tegra à Nintendo, c’est surement sans commune mesure avec ce que doit rapporter la vente de la ShieldTV (même pas sur que la ShieldTV soit dans le positif)
Surtout qu’avant l’annonce de la switch, NVidia vidé les stocks en vendant la shield K1, avant l’annonce semi officielle (par un courrier fuité sur internet) qu’il n’y aurait pas de Shield Tablet 2 (pour raisons commerciales). Ensuite est apparue la switch… Donc en gros, Nintendo a certainement demandé à NVidia de ne plus vendre de tablettes. Donc le contrat doit être assez juteux.
Alors quand on leur dit que c’est une bêtise ces acheteurs et DSI rétorquent qu’au moins il y a le support. Rien de mieux pour se déresponsabiliser.
Surtout que les réponse du support Ms, c’est:
“Windows 7 s’arrête dans quelques mois, migrez sur Windows 10”
“Votre problème sharepoint n’arrive que dans IE11, utilisez un autre navigateur” (ce qui à l’époque amputait Word de son support collaboratif)
“Votre Windows 10 est en 1709, passez donc toute l’entreprise en 1803”
“J’ai passé la question au N2 développement, mais n’attendez pas de réponse”
“Allez proposer cela sur le site vox, si elle a assez de votes les développeurs finiront par la prendre en charge” (demande sur comment interroger rapidement pour chaque site quel espace est consommé pr des version intermédiaires de documents - vu que SPO n’utilise pas le standard avec brouillons puis validation et préfère stocker indéfiniment 500 versions du même doc) … j’en ai encore une bonne dizaine - jamais Ms n’a réglé un seul de mes problèmes, alors qu’ils étaient plutôt basiques: erreur en ouvrant un fichier/une version depuis sharepoint avec le client lourd suite à une màj de Windows, changement dan l’accès depuis les fichiers Excel aux listes sharepoint online qui m’a cassé des fichiers, …) 0, nada. C’est même pas Microsoft qui répond.
En plus, chaue fois qu’on doit renouveller les licences, on se prend un coup de massue: “la dernière fois vous aviez profité de telle offre, donc ces licences c’est +25% et c’est normal - mais si vous ajoutez le pack superblabla inutile, on vou le fait au même prix, c’est une affaire”. Et donc au renouvellement suivant: “oui, mais le pack superblabla vous était offert - mais on peut faire une offre si vous prenez de nouvelles licences mégarnak”
Le
15/08/2020 à
18h
40
NiCr a dit:
Le travail collaboratif sur un document (façon Google Doc) mais où tu peux être d’un côté en client lourd (Windows…) et de l’autre en client web (on the go, Linux…) via Office365 je dois avouer que ça m’a grandement impressionné.
Quand tu auras eu des problèmes de synchro avec le client Onedrive (parce que en télétravail, les gens sauvegardent, ferment office, éteignent le poste … mais en ADSL il faut parfois plusieurs minutes pour remonter le fichier).
Sans compter que le client lourd ne ressemble plus à rien: les utilisateurs ne savent plus comment sauvegarder un nouveau fichier. L’interface de choix entre l’ordi, One drive, Sharepoint est complètement invraisemblable.
J’ai énormément de grief contre O365 qui pose des problèmes permanents aux utilisateurs et aux informaticiens (genre toutes les limitations fonctionnelles que Sharepoint sur O365 a par rapport à un sharepoint on premise) + les outils lancés par Microsoft qui semblent de bonnes idées mais ne vony pas au bout des choses + la guéguerre intra microsoft entre Office lourd, Office Web et Office mobile qui mène à des fonctionnalités spécifiques à certaines (XLOOKUP, qu’on attendait depuis si longtemps, n’existe pas sur client lourd - Powerpivot installé et utilisé par pas mal de monde n’existe ni en Web ni en mobile)
Bref, en ce moment je hais Microsoft sur O365 - un outil absolument pas professionnel en fait, ça ressemble à une suite de petites évolutions et désévolutions (genre le replaçant web de Access, arrêté au bout de 6 mois sans successeur ni retour en arrière possible) sans direction claire…
Ne pas se mouiller de trop avec O365 pour le moment.
Bah, prends les sources et fige. De toutes façons, actuellement je remble à chaque déploiement de logiciel en SAAS: ces logiciels changent régulièrement d’aspect, de fonctionnalités (avec souvent des fonctionnalités en moins ou qui changent de comportement), donc il faut se former et former les utilisateurs (par dizaines, centaines, voire milliers) en permanence.
Donc un logiciel qu’on peut recompiler et installer chez soi, quitte à ne pas avoir de support de sécurité, ça commence à me donner plus confiance que les abonnements.
Le
14/08/2020 à
20h
34
En tout cas, ça fait clairement plaisir de voir qu’on prend le libre comme alternative (et pas comme remplacement, Word est a des années-lumières de LibreOffice) mais je suis convaincu que si on impose LO, Firefox, Thunderbird et co,
Libreoffice peut surtout être remplacé par OnlyOffice, bien plus proche de Word en visuel, plus user friendly et infiniment meilleur que Word en online!
3763 commentaires
La PlayStation 5 de Sony sera vendue dès 400 euros en France, disponible le 19 novembre
17/09/2020
Le 17/09/2020 à 06h 47
Ca veut dire quoi “Pas d’offre de crédit”, des gens achètent leur console à crédit???
Phison S12DC : un SSD QLC de 15,36 To dans un format de 2,5″ (7 mm)
11/09/2020
Le 16/09/2020 à 14h 44
Ca c’est clair.
C’est juste que physiquement, dans la vie réelle, il est très difficile de quantifier les écritures réelles dans les cellules. Finalement, il est possible que dans le monde pro les conditions soient plus favorables: écrire beaucoup d’un coup peut être profitable face à écrire un peu toutes les secondes.
Par ailleurs, dans le monde pro, le overprovisionning est assez conséquent (30%, y compris sur les disques durs: des disques de 320Go rapportaient une taille sans overprovisionning de 500Go), ce qui compense un peu les effets nocifs d’écritures “collatérales” - et limite l’augmentation d’usure en cas de disque plein. Enfin, les contrôleurs SAN, RAID et les disques et SSD dédiés ont parfois des firmwares adaptés - comprendre que l’écriture et l’allocation seront optimisée par rapport au matériel, pas par rapport à l’OS qui reste souvent avec des blocs de 4ko(donc ni la taille d’une piste de DD ni d’une ensemble de base de cellules de SSD).
Bref, je dirais: pas de panique, le QLC semble être encore viable pour de très nombreux usages (sauf peut-être dans les Tesla https://tesla-info.com/blog/tesla-mcu1-emmc-failure.php :-) )
Le 16/09/2020 à 12h 00
Donc au final, on a beaucoup de FUD, car ce que fait réellement le SSD est bien différent du principe “je lis en A12 et je réécris en A12” car A12 est déjà une adresse virtuelle.
Remarque: certains disques dur le faisaient déjà, avec une technique d’écriture sur l’emplacement libre le plus proche, à la file, puis une réécriture plus tard, quand on a le temps, au bon endroit.
Le 15/09/2020 à 08h 16
Dans un SAN qui brasse des To par jour: 4 SSD en tiers 1er niveau, (256Go - RAID 1 - 2 baies, SLC par contre) + infra VMWare avec des SSD locaux pour le cache disque, les migrations.
En 3 ans: je ne compte plus les disques durs changés sur les baies ou les serveurs. Aucun SSD changé.
Encore 3 ans plus tard: visiblement les SSD n’ont jamais été changés.
Remarque: le tiering est remis en cause chaque semaine par la baie, mais les SSD prennent dans la figure les recalculs d’index et écriture BDD notamment. Et ils sont bien au chaud, l’armoire avec les baies de stockage posant quelques problèmes de refroidissement (perso je proposais de faire sécher le linge derrière, on aurait pu sécher quelques centaines de kg /j je pense)
Bref, que ce soit perso ou pro, je pense que les SSD sont très fiables, plus que les HDD. Et j’ai surtout utilisé du SSD en cache (donc avec plein de lecture/écriture aléatoires), un domaine où leurs performances font une différence même sur de vieux systèmes, mais qui est censé les fatiguer plus vite.
Le 15/09/2020 à 08h 09
Les systèmes de cache SSD réservent de la RAM pour garder le plan du cache. Ils sont assez simples à priori, et le résultat c’est que la RAM nécessaire augmente avec la taille du cache.
Mais les contrôleurs sont très limités en RAM. Donc le cache risque de ne pas passer ou de couter trop de RAM.
-> Mieux vaut les utiliser en tiering. Mais à ce prix et avec ces perfs, mieux vaut plus petit et plus rapide à mon avis.
Quand aux serveurs SQL: je suis d’accord. Les SSD permettent de limiter la RAM nécessaire pour faire tourner la BDD. Et sur une infra virtualisé, c’est double gain, car la mémoire vive est réservée aussi sur le stockage pour permettre les migrations/mises en veille/SWAP.
De plus, le débit d’un RAID SSD dépasse rapidement le débit réseau des machines (souvent encore en 1x1Gbit/s). Donc si les requêtes n’ont pas trop de jointures, ça peut passer crème.
Le 12/09/2020 à 19h 28
J’ai des HDD qui tournent toujours et qui ont largement dépassé les 15 ans. Est-ce que ce sont des exceptions? Aucune idée. Mais à part au début des SSD où des erreurs de firmware ont pu les bloquer définitivement et autres scandales des TLC samsung, j’ai une confiance plutôt aveugle dans les SSD.
Premièrement, les charges de travail pro ou perso que j’ai pu rencontrer n’ont aucune chance de fatiguer un SSD.
D’ailleurs, j’ai un SSD que j’ai utilisé pendant 6 ans en tant que cache disque système (donc forte tendance à écrire), ce SSD a 8 ans maintenant et ne présente aucun signe d’usure grave (juste les compteurs d’allumages et de nombre d’heures et d’écritures).
Deuxièmement, en environnement pro, et dans le cas que je connais dans un SAN, les conditions sont extrêmes niveau chaleur, et des disques on en changeait très régulièrement. Donc la fiabilité du HDD payé une blinde, c’est limité de mon point de vue.
Le 12/09/2020 à 14h 04
Il y a 3-4ans ans, un disque dur 2-3To c’était 200-300€ (en 15K) mais on les achetait forcément par 3 mini (pour le RAID) et même par 6 (baies en redondance)
Et chaque disque ajouté augmentait aussi le prix de maintenance annuelle du SAN…
Au point que payer 300€ n’était pas du tout le problème, c’était le reste.
Et expliquer aux utilisateurs que eux payaient 100€ un disque chez carrefour mais que pour nous c’était 1000€ à investir pour la dispo…+ le coût annuel.
Ca, c’était pour les disques rapides. Les disques lents étaient plus abordables. Les SSD en cache primaire étaient hors de prix.
Au final, pour avoir des perfs et du stockage, on achetait par exemple 2 SSD, 8 disques rapides, 16 disques lents.
Là, avec des SSD de 15To, on peut ne plus avoir à réfléchir à certaines problématiques (le cache SSD est-il suffisant?) et se passer de tiering sans sacrifier en perfs, en stockage, et sans pleurer sur la conso électrique.
Vu le prix de maintien de 2 baies de 16To, la place occupée et la consommation électrique + échauffement (donc la clim), j’imagine facilement convaincre mon ex directeur qu’on pourrait utiliser seulement quelques SSD et avoir tous les avantages… même à 900€ pièce!
Le 11/09/2020 à 09h 10
Le cache à 530Mo/s. Bof bof. Sans compter que pour gérer un cache de 15To, il faut combien de RAM pour se rappeler quoi est où?
Après, beaucoup de BDD sont légères en écriture; de nouveaux moteurs se profilent pour éviter de reconstruire des index et autre; les SSD en RAID pourront à terme permettre des BDD avec des perfs suffisante sans trop de RAM je pense, et sans risquer de pourrir le SSD avec des écritures indûes.
Mais pour le moment, des SSD QLC, je ne les mettrais pas trop dans un SAN…
La manette Razer Kishi est disponible pour iPhone, à 109,99 euros
16/09/2020
Le 16/09/2020 à 11h 49
Emmabuntüs : la distribution Linux spécialisée dans le matériel reconditionné et sa clé magique
15/09/2020
Le 16/09/2020 à 04h 43
Ceci dit, Ms ne semble plus oser distribuer de softs intégrés, d’où la tonne de bloatware mal finis qu’on a eus par un moment.
Car a l’époque de Windows XP/vista, on avait encore des softs intégrés classes et utiles, comme la galerie photo et Movie Maker (sortis ensuite en pack autonome connecté à Live! puis disparus…)
Moi cet article me rappelle surtout (étant un adepte du “je ferai marcher ce vieux truc”) certaines anecdotes genre les environnement X qui passent par défaut au mode 3D (adieu autonomie et performance), ou les choix côté kernel de devenir ultra strict sur les ACPI (adieu portables HPs),et maintenant la fin du X86/x32 (adieu les ultra légers)
Tout ceci est en général vieux mais ‘a détrouné de Linu pour les vieilles machines: car à mesure que les distros évoluaient, Linux s’arrêtait de fonctionner et Windows continuait…
Le 15/09/2020 à 18h 40
Attention aux pièges. XFCE est léger. Mais ce qui est lourd, c’est de charger des outils gnome ou KDE qui chargent leur environnement respectif.
En gros, XFCE consomme moins de RAM au démarrage, mais XFCE + KOffice est au moins aussi lourd que KDE + KOffice et XFCE + KOffice + GIMP est plus lourd.
Je schématise, mais on a souvent des surprises. Il faut garde run cohérence d’environnement pour ne pas saper les ressources quand on est limité (je parle de moins de 2Go de RAM, après le surcoût pèse moins lourd).
Ceci dit, mon beau père utilise Windows 10 sur un Core Solo 1.7GHz. Ce n’est pas si mauvais en fait.
C’est un choix, mais je trouve bien que la pluaprt des distro incluent des outils de base, plutôt que de devoir tout télécharger soit-même. Si je veux partir de 0, je prend un deb net install ou carrément un Tiny core Linux.
NVIDIA confirme sa volonté d’acheter ARM pour 40 milliards de dollars
14/09/2020
Le 15/09/2020 à 06h 04
En quoi ça changerait quelquechose? Ils payent la licence ARM et c’est bon.
De toutes façons, en informatique, le matériel, si extraordinaire qu’il puisse être, ne crée pas un marché. C’est le logiciel qu’il fait fonctionner qui le crée.
Et le logiciel, si extraordinaire qu’il puisse être, ne crée pas seul un marché. C’est surtout le marketing autour qui le crée…
Le 14/09/2020 à 20h 35
Je crois qu’on a tous un peu la même idée de ce que NVidia pourrait pousser: du GPGPU en argument principal, avec un bon ARM bien armé pour le serveur mais pas forcément capable de casser de l’intel.
Et ça existe ça et là, on a plein d’exemples d’ARM modifiés pour être interconnecté à du pcie 3 ou de la mémoire HBM, mais tout est éparse. Chaque annonce fait marché de niche et “pionnier”, mais ça n’inspire pas forcément confiance. D’autant plus qu’actuellement quand on achète une carte/un serveur ARM, le linux associé peu avoir des parties exotiques dont le maintien dépend de la survie de la boîte… Les DSI restent un peu en attente d’un produit qui donne autant confiance que le x64 dans le support et la continuité.
Et beaucoup pensent encore Nvidia = carte graphique = jeu = pas sérieux, malgré les produits pour Datacenters, beaucoup de DSI ne sont pas convaincus par le GPGPU. Du coup, ça manque d’impulsion pour créer/porter des logiciels vers le GPGPU.
L’association NVidia=ARM peu imposer une nouvelle vision: NVidia est associé à performance et ARM à innovation. Reste peut-être l’éternel refrain de la killer app (et si possible autre chose que des fermes de rendu blender) - par exemple des applis de RH/Paye/Compta sur GPGPU+ARM et licence nouvelle: ce sont des logiciels qui nécessitent des serveurs énormes, sont critiques et coûtent deux bras (donc un seul ARM serait déjà plus économique). Les pires vaches à lait en IT je trouve.
Bref, je trouve que ça a du sens, et que ça peut déstabiliser le marché. Par contre, je pense que ça marquerait une pause dans l’évolution des aRM pour la mobilité.
Le 14/09/2020 à 11h 27
Mais alors avec un petit CPU et un GPU très balèze? Les cartes NVidia Jetson et consorts sont déjà pas mal dans cette démarche. Et effectivement il y a peut-être un marché pour avoir des calculateurs qui sont de très gros GPU et très peu de CPU juste là pour les interfaces avec l’extérieur et coordonner le tout. Ca ferait un serveur de calcul complet, les SOC étant encore surtout utilisé pour la mobilité et les ordis plutôt bas de gamme.
Mais je crois que ça se développerait si les BDD et autres applis “classiques” de serveur sur GPU se développaient.
Le 14/09/2020 à 07h 37
Tout est une question d’ambition. Actuellement, le stockage et l’interfaçage du stockage est un point d’amélioration énorme dans les Datacenters et le traitement de données en masse.
La question est: peut-on se passer de la RAM (et de son coût, de sa conso, de son bus)?
Mais c’est sûr que acquérir et diriger ARM permettrait à NVidia de se mettre directement face à Intel/AMD - avec en plus le côté un peu plus “alternative” vis à vis de Intel que AMD.
C’est aussi un moyen efficace de consolider le GPGPU côté serveur, en orientant peut-être les concepts ARM vers un écosystème lié à leurs technos, avec un CPU qui sert essentiellement d’ordonnanceur.
Le 14/09/2020 à 06h 15
Ca signifie quoi concernant l’embargo Huawey? ARM ne pourrait alors plus vendre ses concepts à Huawey? Huawey devrait passer par un tiers chinois pour fabriquer ses CPU ARM?
Et concernant l’opensource, beaucoup font une levée de bouclier tellement NVidia est diabolisé dans ce domaine, car NVidia ne fourni pas toutes les sources (malgré le fait que NVidia a été le premier à fournir un pilote sous FreeBSD il y a des années, et que NVidia fournisse toute la procédure pour débloquer les shield et compiler soit-même Android, avec les pilotes (closed source d’accord), et que NVidia participe au calcul en GPGPU…)
AMD annoncera Zen 3 le 8 octobre, les Radeon RX 6000 le 28 octobre
09/09/2020
Le 11/09/2020 à 13h 54
Pour l’avoir fait dernièrement, ça ne semble pas risqué tu changes de CG. Par contre, prendre une image Windows AMD (APU) et la placer sur un Intel, c’est pas immédiat. Mais Windows fait du bon travail et au bout de 3 redémarrage tout est OK. Ensuite, DriverStoreExplorer est ton ami pour virer
les pilotes.
Tout à fait d’accord (j’ai une 350W depuis 2013 pour un i5 3570K et une GTX 1050 + 2 disques).
Je n’ai jamais compris les alims à plus de 700W.
Mais gare à être trop radin! Car si peu d’applis/jeux utilisent 100% sur tous les composants (IE GPU à 100% + CPU à 100% + activité disque + USB3 qui charge), il faut quand même que l’alim le tienne “au cas où”.
Le 10/09/2020 à 14h 57
On est pas plutôt sur du 80-95% de rendement?
Le problème quand on tire trop juste l’alim, c’est qu’on peut se retrouver avec une alim qui sort en théorie beaucoup sur le 5V (par exemple pour alimenter des ports USB2) mais pas assez sur le 12V … ou l’inverse.
Et par habitude, je garde toujours au moins 20% de marge.
Exemple connu: les dell optiplex 3010: l’alim est trop juste sur le 5V, si on branche souvent des appareils USB2 à charger (iPhone, batteries), on grille l’alim. Pourtant, il me semble que ce sont des 180W, largement suffisantes pour des I3/I5 avec carte graphique intégrée.
Dell Precision 3240 : une station de travail compacte, avec Quadro RTX 3000 dès octobre
09/09/2020
Le 09/09/2020 à 13h 16
La carte est dans le port d’extension (cf la doc de maintenance https://topics-cdn.dell.com/pdf/precision-3240-workstation_owners-manual2_fr-fr.pdf).
Deux alims possibles: 180W (si tu achètes sans CG) ou 240W (avec une CG ou le modèle Xeon).
On reste donc sur des cartes à 50W maxi peut-être 75. Je ne sais pas si c’est du low profile ou non.
C’est très habituel sur les config compactes pro. Le nombre de cartes possibles (low profile et 50W maxi) est (très) restreint. Actuellement la GTX1650 était la plus puissante que j’ai pu trouver (low profile, < 75W).
Le 09/09/2020 à 10h 16
Je te rassure, Asus, Lenovo, HP, ont aussi déjà ajouté des limitations sur des PC grand public: liste de modèles de cartes Wifi et de SSD limitées par exemple.
Ce qui n’est pas contre généralement pas un problème sur les PC pro (pour les serveurs, ça va encore plus loin: chez IBM/Lenovo, si tu ne mets pas à jour ton firmware de SAN régulièrement, les disques plus récents finiront par être rejetés - sauf que pour recevoir le firmware à jour, il faut avoir un contrat de maintenance actif. Arrêter son contrat de maintenance, c’est ne plus pouvoir facilement trouver de disques de rechange…)
La qualité du boulot n’est pas tant rapport à la puissance de la machine. L’agacement de l’utilisateur, peut-être.
Ceci dit, j’ai eu la main sur une floppée d’ordis en 35W (encore plus petits), ils sont très agréables à utiliser (d’ailleurs je m’en suis acheté un). Et ces ordis pro sont généralement très fiables, durables et réparables (ils ont un stock de pièces conséquent visiblement). Ils ont aussi une gestion intégrée pour la distribution des firmwares, le verrouillage à distance, la réinstallation du système juste en cochant “réinstaller” depuis sont siège sans aller chercher l’ordi… bref, l’administration de flotte.
Free met à jour ses boîtiers Server
08/09/2020
Le 09/09/2020 à 08h 17
J’ai la mini, donc je n’ai que les problèmes. J’ai dû virer le Wifi, il faut désactiver le Cell to fem à chaque mise à jour/reboot pour stabiliser la ligne, le boitier TV ne retrouve pas la Wifi au boot 1 fois sur 3 (remarque: c’est un progrès), je ne peux plus activer freewifi (IP de la box non reconnue, visiblement à cause du partage de ports), alors vu la stabilité des trucs de base que tout le monde offre, pour la partie serveur, j’ai un NUC.
Mais bon, Free, ça me coûte 15€/mois de moins que SFR, et de puis le temps j’ai stabilisé pas mal (sauf le femto, dès que ça déconne sur la ligne je dois aller le couper depuis la box - on ne peut pas depuis l’interface visiblement).
Et c’est les seuls avec Orange à me garantir plus de 8Mb/s.
À la découverte de pCloud et de ses offres de stockage en ligne « à vie »
03/09/2020
Le 05/09/2020 à 13h 48
Je ne suis pas convaincu que NXI soit l’endroit pour un benchmark de services liés uniquement au contournement de règles d’autres services.
Ceux qui les utilisent prennent leur risques et responsabilités, s’ils se font arnaquer en tentant de se soustraire à un service jugé trop cher, ils ne peuvent que s’en prendre à eux même.
Le sujet de la sauvegarde est très sérieux, et sans côté équivoque. L’analyse concernant la sécurisation est importante aussi.
Par contre, l’article ne traite pas des technos sous-jacentes: la sauvegarde est-elle sécurisée en cas de crash? Y-at’il un principe de données chaudes/données froides?
Par exemple, en perso j’utilise un serveur dédié kimsufi, mais je sais qu’en cas de crash du serveur, je pers tout (donc autre sauvegarde ailleurs).
Après, j’applaudis le côté userfriendly de la solution, c’est très bien fait.
Le 04/09/2020 à 07h 04
Hébergeur premium? Je ne l’ai pas non plus.
Le 04/09/2020 à 06h 20
C’est quoi un débrideur?
postmarketOS : la réappropriation des téléphones par Linux
04/09/2020
Le 04/09/2020 à 16h 54
Il y a un sacré chemin à faire: Android, c’est un système où les applis “user” sont mises en pauses/déchargées en permanence.
Les applis “natives” n’ont pas encore cette faculté il me semble.
Intel dévoile 9 processeurs mobiles Tiger Lake (11e génération), projet Athena devient Evo
02/09/2020
Le 03/09/2020 à 11h 41
D’après Anandtech, le gros i7 monte à 50W de conso en turbo. Donc à voir si les performances sont constantes sur les longs traitements.
Les portables Intel ont de mon expérience des perfs en dent de scie, ou alors un beau pic puis un long plateau un peu bas…
Je n’ai pas expérimenté le ryzen 4800U, mais les tests montre plutôt un graphique plat que ce soit niveau perf ou conso.
Intel n’a pas précisé non plus les conditions de test il me semble - il ont déjà été sournois sur ces petits détails.
Bref, attendons des tests indépendants. Je pense qu’Intel a repris la palme, mais peut-être au détriment de certains éléments, et dans un mesure un peu plus modérée que leur démo ne laisse présager.
Le 03/09/2020 à 09h 44
Tout dépend des outils. J’ai encore bon nombre d’outils qui sont plus sensibles à la fréquence qu’au nombre de coeurs.
Ensuite, on parle ici de processeurs mobiles qui ne sont pas pour les workstations mobiles il me semble - d’où la comparaison avec des “U” chez AMD. Sur mobile ont est vite limité par des limitations en vitesse de RAM ou de transfert SSD et 16 threads peuvent être un peu trop à gérer pour le système.
Je pense qu’ils tiennent un bon compromis.
Tout à fait d’accord. Lire la référence d’un CPU intel, c’est pire je trouve que décoder la valeur d’une résistance. Et on ne risque pas de retenir parfaitement plusieurs références.
NVIDIA évoque le design de ses prochaines GeForce et confirme le connecteur PCIe 12 broches
26/08/2020
Le 26/08/2020 à 18h 49
On commence franchement à avoir l’impression de brancher une carte mère et un CPU au bout d’une carte graphique là.
NVIDIA annonce sa GeForce MX450 PCIe 4.0… pour contrer DG1 d’Intel dans les portables ?
26/08/2020
Le 26/08/2020 à 09h 41
Il y a déjà eu des Geforce MX pour portables qui sont à peine plus puissantes en jeu que les intel HD620 (mx110) - surtout si on en en dual channel avec de la bonne RAM quand même.
Des PC étaient vendus avec, et la conso prenait un coup face à la version sans GeForce, tout cela pour ne rien apporter de concret.
Actuellement, ces cartes bas de gamme se battent déjà contre les APU de AMD qui sont inférieurs mais de peu (MX250 vs RX Vega 8), tout en consommant visiblement moins.
Du coup, il va falloir mettre un bon coup pour se démarquer nettement. 30% de perfs en plus ne justifie pas un surcoût ou une gêne (refroidissement/autonomie) supplémentaire, vu qu’on est pas dans le hardcore gaming.
La révolution des applications web progressives (PWA)
24/08/2020
Le 25/08/2020 à 20h 01
PWA a l’avantage de faire un peu comme le “full stack”: un développeur Web HTML/CSS/JS est censé pouvoir faire du PWA (pas taper, je sais bien à quel point le full stack et le tout HTML/CSS/JS contiennent comme problèmes cachés et complexité rarement comprises par bon nombre de développeurs)
Comme dit dans l’article, les applis Web téléchargeables ce n’est pas nouveau (j’ai fait ma première sous iOS 6), mais on a passé un cap dans les fonctionnalités, l’intégration et dans le cross platform qui rend cela cohérent. De plus, cela permet de ne pas avoir à payer les stores.
Alors bien sûr, pour le moment il faut encore choisir entre un appli native et du PWA selon le degré de complexité et la nature des fonctionnalités (difficile encore de faire une PWA qui charge toute une map en local, et surtout plutôt long à mettre au point face aux SDK existant en natif), et on peut s’attendre à des restrictions (pas le même niveau d’optimisation comme chez Apple, limitations WebAssembly ou WebGL par exemple), mais pour des applis simples/moyennes ça n’a pas d’importance.
Ceci dit, je me demande si avec Qt for Web Assembly on peut faire une PWA déconnectée (Qt for webassembly demo
Le 25/08/2020 à 13h 27
WTF?
Si c’est pour faire dans la sobriété … un magazine en ligne ça produit quoi … 200000 caractères utiles par jour.
Et un site Web pour publier ces 200Ko (mettons 400Ko pour l’unicode), ça consomme quoi … 40Mo par jour…
Bref, est-ce que NextInpact peut nous montrer un exemple de sobriété avec des articles dispos sur BBS SVP? Ou diffusés par le réseau Alphapage?
Merci :)
Sinon, Danlo, je suis assez d’accord, je suis révolté par le gâchis de ressources. C’est clair que déjà un RPI c’est puissant par rapport à pas mal d’ordi que j’ai eu et sur lesquels j’ai bossé (et parfois sur lesquels j’ai effectué des tâches bien plus gourmantes à priori ou complexes que celles que je fais sur mon i5).
Et la consommation réseau est immense par rapport aux besoin effectifs de chacun. Je pense d’ailleurs que la green it doit se concentrer sur la conso réseau et le stockage en premier lieu. Le calcul est finalement plutôt secondaire (car non continu)
En ce sens, les PWA sont un pas en avant: on a au moins le choix de ne pas mettre à jour tout de suite + le fait qu’elle ne se mettent à jour que quand on les utilise (pas comme une appli du play store qui va se mettre à jour 20 fois entre 2 de mes utilisations)
Le 25/08/2020 à 09h 35
Je suis plutôt d’accord, mais certains m’ont prouvé qu’on pouvait faire des applis magnifiques en JS: BPMN viewer et Draw.IO. Ces deux applis sont ultra performantes, démarrage ultra rapide, et les applis équivalents en natifs sont toutes à la ramassage (peut-être dia, mais qu’il est moche!)
Attention aussi à ce qu’on appelle la conso de RAM: JS est interprété, mais chaque ligne peut effectuer des tâches complexes pour du natif. Résultat: le natif est plus lourd, surtout que le moteur JS peut jeter une partie du code ou ne pas compiler le code qu’il n’a pas utilisé. Donc en conso RAM “exécutable” par rapport à un natif, si on considère que le moteur JS est de toutes façons chargé, on est pas si mal.
En termes de CPU par contre, c’est moche. Sauf si le moteur JS garde des morceaux compilés des PWA tant qu’elle n’a pas changé.
En termes de complexité d’exécution… c’est selon le framework natif. Certains framework passent par tellement de couches qu’ils ont perdu tout intérêt en termes d eperfs par rapport à de l’interprété.
Par contre si tu compares fonctionnellement les applis, Word 95 fait plus et utilise beaucoup moins de RAM que Word online, tout en étant extrêmement plus léger en volume. Certaines démo de PWA font télécharger 3Mo, démarrent dans un environnement de 100Mo pour faire ce qu’on faisait en Delphi en 300ko. Mais je compare à de l’ancien: quand tu fais une appli Java/.Net/Qt, tu te retrouves souvent avec 50Mo de dépendances chargées avant même d’avoir pu écrire “hello world” (bon, qt, c’est moins normalement).
Le 25/08/2020 à 06h 41
Tout est révolutionnaire en informatique. Mais en fait c’est par vagues.
En gros:
Ben, on faisait plus ou moins pareil avant mais avec plusieurs techno (applet, appli différenciés) ou une seule mais non cross platform (silverlight)
Et bientôt, on va nous montrer des applis totalement cross platform en client lourd (en fait, j’en utilise déjà comme diagrams.net, anciennement draw.io, qui s’installe maintenant en PWA pour être dispo hors connection)
Van Gogh : AMD préparerait un processeur avec GPU Navi 2, lancé en 2020
24/08/2020
Le 25/08/2020 à 14h 21
J’étais resté sur Anandtech1
Alors qu’il y a aussi Anantech 2-la revanche
Effectivement, ce modèle avec des big wins, mais au final il faut compter sur des perfs proches d’une GTX1060. Après, ça peut être mieux, mais ce n’est pas très prévisible.
Le 25/08/2020 à 13h 36
Genre Hades Canyon (proche GTX 980)?
L’histoire de Windows : l’attente fut longue avant Windows XP
25/08/2020
Le 25/08/2020 à 13h 16
Rah! L’enfer des pilotes qui ne vérifiaient pas si un IRQ tombait pour eux ou du matos qui ne donnait pas de possibilité de vérifier que c’était lui qui avait déclenché l’IRQ!
A ce propos, j’en ai vécu une bien bonne. Possesseur d’une Maxisound64, j’ai commencé à fair el pilote BeOS.
La maxisound64 était balèze: en plus du mixage 64 voix sur la table d’onde Midi (jusqu’à 16Mo), elle donnait aussi 8 voix hardware mixées avec effets.
Sauf que: pas d’IRQ pour le chip! (SAM9407) –> c’était du polling, et le chip mettait tellement de temps à acquitter avoir lu la donnée sur le port que … ça consommait près de 10% de temps CPU par voix de transmettre les données! Encore mieux: sous Windows, ce temps consommé n’était pas vu par le système, ça ralentissait mais sans occupation CPU visible par le panneau Windows (on le voyait avec les compteurs du CPU pourtant) :)
Sous BeOS, j’ai vite vu le problème. Hoontech m’a donné une carte (avec le même chip, mais avec un IRQ et un DMA) et là ça marchait mieux. Mais de l’eau avait coulé sous les ponts et Be Inc avait coulé avec.
Le 25/08/2020 à 09h 26
Et au moins 8Mo de RAM pour lancer l’interface graphique X11. En 4Mo, c’était trop juste - alors que ça marchait sous Windows 95 (archi monolithique vs client/serveur bien lourd de X11).
En tout cas faire un sauvegarde des disquettes du système et de certains logiciels, ça remplissait rapidement les boites de 60⁄80 disquettes à l’époque.
J’ai des CD gravés de l’époque, c’est dingue la quantité de logiciels qu’on mettait dessus! Bon après, un disque dur très respectable ça faisait 420Mo aussi.
Le 25/08/2020 à 09h 19
Beaucoup de chemin a été fait avec Windows 98⁄2000. Dans le cas de Windows 95, certains pilotes par exemple (et logiciels) assumaient le nom des répertoires - qui parfois étaient différents selon la langue.
Certains ajoutaient dans system.ini/win.ini des entrées mais ne géraient pas les fichiers qui contenaient des accents.
D’autres remplaçaient des DLL système…
Bref, un pilote de carte réseau pouvait sauter en installant une carte son pas chère…
Le 25/08/2020 à 07h 34
Non, pas sous NT4 normalement (sauf pilote pourri?). J’ai connu des NT4 démarré depuis des mois sans problème. Sous Windows 95, il y avait un compteur 32bits des millisecondes. S’il bouclait (donc après 4,3Gms soit 49,7j), ça plantait.
Le 25/08/2020 à 06h 32
Entre 95 et XP, il a fallu passer en gros de 4Mo (8Mo pour être à l’aise) à 128Mo (256Mo pour être à l’aise) en 5 ans. Et changer la carte vidéo ISA par une VLB pour que le dégradé (grille superposée) qui s’affichait quand on quittait soit instantanée. A l’époque, on benchait les CG en 2D pour savoir si l’interface graphique serait accélérée.
Les Windows 9x ont été empoisonnés de problème de fiabilité liés parfois aux pilotes (certains développés comme des pilotes pour Win 3.1). Un mauvais pilote pouvais empêcher Windows de démarrer.
De plus, on était dans le DLL hell: Windows allait chercher les DLL des applis dans le répertoire Windows par défaut, avant celui de l’appli, et plein d’appli remplaçaient des DLL dans le répertoire Windows par les leurs (les DLL MFC, VB, …)
J’ai réinstallé dernièrement un Windows 95 (pour le jeu des screenshots), ben ça ne ravive pas que des bon souvenirs: chercher le bon pilote, planter l’install, modifier dans les fichiers ini pour désactiver le truc pourri, redémarrer toutes les 5 minutes à chaque changement…
Windows 2000 a corrigé cela - c’est le Windows que j’ai gardé le plus longtemps à part 10, j’ai eu XP mais pas sur mon poste principal - trop gourmand. Et un virus a eu raison de mon Windows 2000 ce qui a entamé ma période freebsd.
L’étau se resserre pour Huawei, sur fond de tensions géopolitiques
24/08/2020
Le 24/08/2020 à 07h 50
https://www.nextplatform.com/2020/08/21/alibaba-on-the-bleeding-edge-of-risc-v-with-xt910/
Bon, à prendre avec des pincettes, mais RISC-V est ce qui peut faire de l’ombre à ARM dans les prochaines années (d’où la revente d’ARM en ce moment?)
NVIDIA : les revenus dans les serveurs dépassent ceux des GeForce
20/08/2020
Le 21/08/2020 à 06h 11
C que tu soulignes surtout, ce n’est pas le manque de performances, mais le coût pour exploiter, et le retour sur investissement probable, qui est peu lié à la présence de machines capable de restituer un jeu dans toutes sa splendeur, mais surtout au fait qu’il est difficile de vendre un jeu actuellement. Le marketing fait la vente, et on n’est plus à une époque où acheter les pages du milieu de GEN4/Joystick suffit à faire les ventes.
Beaucoup de jeux, même plus beaux, n’apportent pas grand chose à d’anciens jeux déjà présents et bradés.
Déjà début 2000, certains jeux qui avaient de la pub ont fait des ventes catastrophiques (genre 4000⁄5000 boites) soit au mieux à peine de quoi couvrir un an de salaire de 2⁄3 personnes.
Enfin, certaines personnes se fichent pas mal du photoréalisme. Perso j’adore la technique du cell shading. Et dire d’un jeu où un gars porte 10 armes et 400kg de munitions pour tuer de l’alien qu’il est “réaliste”, ça me fait toujours sourire. Enfin, le photoréalisme sans la physique est nuisible: je pardonne un jeu peu détaillé si le feu ne se transmet pas d’un véhicule à une cabane en bois, je remarque ce manque immédiatement sur un jeu “photo réaliste”. (Exemple aussi: les jeux “réalistes” comme HL2: tous les humains ont les mêmes vêtements, la même taille, la même corpulence. Ca m’a choqué et m’a cassé “l’immersion”)
Le 20/08/2020 à 14h 08
Ce qui est sûr, c’est que les shield K1 n’ont pas été vendues très longtemps et ont disparu quasiment en même temps de toutes les boutiques. vec une réapparition éclair avant une disparition complète. Pourtant, NVidia devait avoir du stock puisqu’il m’ont changé la tablette gratuitement après une casse écran sans aucune négo nécessaire (au moment où on ne pouvait plus les acheter).
Le 20/08/2020 à 09h 07
Vu que dans l’entrée moyen de gamme une même carte peut se vendre au même prix pendant 4 ans, et que son successeur arrive “à peine” à tirer 25% de perfs en plus (GTX 1050-> GTX1650), je dirais oui, ça stagne.
Le RTX était un bon argument marketing, mais j’ai la net impression que les RTX 2xxx ne permettent pas d’exploiter le raytracing (dans les jeux) comme on aimerait le voir: généralisé, fluide.
Le 20/08/2020 à 09h 04
Surtout qu’avant l’annonce de la switch, NVidia vidé les stocks en vendant la shield K1, avant l’annonce semi officielle (par un courrier fuité sur internet) qu’il n’y aurait pas de Shield Tablet 2 (pour raisons commerciales). Ensuite est apparue la switch…
Donc en gros, Nintendo a certainement demandé à NVidia de ne plus vendre de tablettes.
Donc le contrat doit être assez juteux.
Microsoft à la conquête des développeurs : des succès mais quelques ratés
19/08/2020
Le 19/08/2020 à 20h 56
Ok pour les efforts avec VsCode, .Net core, …
Mais le terminal, on ne peut pas dire qu’on l’attendait. Il est même assez décevant en fait.
Mais c’est vrai que ce n’est as spécialement une priorité.
Par ailleurs, j’ai du mal avec les initiatives Ms tous azimuts côté Linux, Azure, on ne sait plus trop où donner de la tête.
Le logiciel libre arrive au sein de la Centrale d’achat de l’informatique hospitalière
14/08/2020
Le 15/08/2020 à 18h 55
Surtout que les réponse du support Ms, c’est:
… j’en ai encore une bonne dizaine - jamais Ms n’a réglé un seul de mes problèmes, alors qu’ils étaient plutôt basiques: erreur en ouvrant un fichier/une version depuis sharepoint avec le client lourd suite à une màj de Windows, changement dan l’accès depuis les fichiers Excel aux listes sharepoint online qui m’a cassé des fichiers, …)
0, nada. C’est même pas Microsoft qui répond.
En plus, chaue fois qu’on doit renouveller les licences, on se prend un coup de massue: “la dernière fois vous aviez profité de telle offre, donc ces licences c’est +25% et c’est normal - mais si vous ajoutez le pack superblabla inutile, on vou le fait au même prix, c’est une affaire”. Et donc au renouvellement suivant: “oui, mais le pack superblabla vous était offert - mais on peut faire une offre si vous prenez de nouvelles licences mégarnak”
Le 15/08/2020 à 18h 40
Quand tu auras eu des problèmes de synchro avec le client Onedrive (parce que en télétravail, les gens sauvegardent, ferment office, éteignent le poste … mais en ADSL il faut parfois plusieurs minutes pour remonter le fichier).
Sans compter que le client lourd ne ressemble plus à rien: les utilisateurs ne savent plus comment sauvegarder un nouveau fichier. L’interface de choix entre l’ordi, One drive, Sharepoint est complètement invraisemblable.
J’ai énormément de grief contre O365 qui pose des problèmes permanents aux utilisateurs et aux informaticiens (genre toutes les limitations fonctionnelles que Sharepoint sur O365 a par rapport à un sharepoint on premise) + les outils lancés par Microsoft qui semblent de bonnes idées mais ne vony pas au bout des choses + la guéguerre intra microsoft entre Office lourd, Office Web et Office mobile qui mène à des fonctionnalités spécifiques à certaines (XLOOKUP, qu’on attendait depuis si longtemps, n’existe pas sur client lourd - Powerpivot installé et utilisé par pas mal de monde n’existe ni en Web ni en mobile)
Bref, en ce moment je hais Microsoft sur O365 - un outil absolument pas professionnel en fait, ça ressemble à une suite de petites évolutions et désévolutions (genre le replaçant web de Access, arrêté au bout de 6 mois sans successeur ni retour en arrière possible) sans direction claire…
Ne pas se mouiller de trop avec O365 pour le moment.
Le 15/08/2020 à 11h 54
Bah, prends les sources et fige. De toutes façons, actuellement je remble à chaque déploiement de logiciel en SAAS: ces logiciels changent régulièrement d’aspect, de fonctionnalités (avec souvent des fonctionnalités en moins ou qui changent de comportement), donc il faut se former et former les utilisateurs (par dizaines, centaines, voire milliers) en permanence.
Donc un logiciel qu’on peut recompiler et installer chez soi, quitte à ne pas avoir de support de sécurité, ça commence à me donner plus confiance que les abonnements.
Le 14/08/2020 à 20h 34
Libreoffice peut surtout être remplacé par OnlyOffice, bien plus proche de Word en visuel, plus user friendly et infiniment meilleur que Word en online!