Sympa. Ca a l’air du sérieux. Mais j’ai un peu de mal avec les tablettes convertibles Dell qui m’ont par le passé montré des faiblesses dans le temps (les venue 11 pro notamment).
yl a dit:
Dell qui vante une machine écolo, avec un truc tout dans l’écran (architecture tablette) probablement impossible à réparer/upgrader…
Merci pour l’article sur le fond, mais sur la forme… Vous aviez besoin de traduire absolument tout en Français ?
Tout n’a pas été traduit: il reste App Store, Apple, malware, Motherboard :)
D’ailleurs, le terme payload est tellement nul en anglais que même s’il sonne mal, le terme français est bien meilleur. bug/bogue est nul dans les deux langues.
Bon, on voit que Apple a le vent en poupe: ils passent de nouveau à la casserole sur les pb de sécurité…
Un HDD fera toujours du bruit, si tu ne l’entends pas “gratter” c’est que tu es en séquentiel en général.
Je reconnais que le bruit des toshibas est particulier: je trouve le grattement est beaucoup plus sec que les concurrents pour ceux que j’ai. Mais d’expérience, ce n’est pas lié à un problème de fiabilité ou autre.
(quote:1869342:christophe.agostini) Question bête: est-il prévu de supporter des partitions de type ext4 au sein de Windows?
Avec un logiciel comme celui-ci? (il en existe plusieurs) GitHub
Le
22/04/2021 à
19h
03
SartMatt a dit:
Super pratique quand tu dois faire du scripting avec des applications métier en ligne de commande qui n’existent que sous Windows, mais que tu préfères largement bash comme langage de script (parce que les batch Windows, ça reste assez limité, et PowerShell, c’est une logique très particulière, qui nécessite un certain temps d’adaptation).
C’est pas un peu overkill pour lancer bash :) ?
Par contre, ça fait un petit moment que je teste certaines de mes applis .Net Core sous Linux, et c’est bien pratique d’être sous Windows qui est la cible principale et de lancer en toute transparence la version Linux.
Le
22/04/2021 à
18h
53
L’archi de ouf! Donc quand la distro Linux fait un appel graphique, ça passe sur la VM intermédiaire qui fait du RDP … Ca fait pas mal de context switches! Vu le coût actuel du CS, ça fait mal. Ca ne serait pas cela l’occupation CPU?
Et pourquoi se limiter au test monocore, quelle application n’utilise qu’un seul cœur aujourd’hui ? Ce qui compte c’est à l’utilisation, le multitasking.
Il est aussi très bon en multitasking. Et avec les applis web, le mono coeur est à la fête dans l’énorme majorité des cas!
Le
22/04/2021 à
15h
33
Patch a dit:
Si tu as besoin d’un bon CPU et que la carte graphique sert juste à l’affichage, j’ai du mal à voir l’intérêt d’y foutre une RTX3090 o/c…
Je rappelle que tu disais pouvoir monter un PC meilleur qu’un iMac. Là les deux n’ont plus du tout la même utilisation/cible.
Et mon point était la dispose des pièces. Enfin , j’imagine mal quelqu’un se résoudre à monter une gt710 sur un 5800x en l’achetant 50€ juste pour l’affichage. Au pire prendre n’importe quelle carte dans une poubelle pour attendre la larme à l’oeil que les prix baissent et que des cartes réapparaissent à 100-150€ (ce segment ressemblant à un désert depuis 2-3 ans, avec juste les âmes de quelques modèles sortis en 2016-2017)
Le
22/04/2021 à
08h
32
Patch a dit:
Une GT710 se trouve encore encore sans pb à 50€. Après en effet elle ne dépassera pas le 2k.
Donc tu conseillerais à la place d’un iMAC M1: Ryzen 5800X et GT710 (nettement moins performante que les intel intégrés)
Je ne te demanderais pas de me monter un config :)
Je ne dis pas que le M1 enterre les PC. Je dis juste qu’il est suffisant et nettement au-dessus de la plupart des PC utilisés, et qu’à ce niveau de performance et d’intégration, je ne connais pas de PC équivalent.
Et je crois que les bench et test applicatifs du M1 (et l’affaire des SSD qui sont écrits plus souvent que d’habitude) montrent que Apple sait faire une architecture capable de travailler même avec 8Go de RAM.
Par contre, le iMAC en Workstation lourde, ça n’a jamais été une bonne idée (ratio performances/prix raz des pâquerettes du très haut de gamme, confort perdu)
Le
21/04/2021 à
19h
05
Patch a dit:
A peu près n’importe quoi qui permet un affichage à 50€ sera bon, pas besoin d’y foutre 300€.
On m’a fait remarquer que dernièrement, à 50€ il était difficile de trouver quelque chose d’utilisable à cause des pénuries.
En plus, pour être réaliste il faudrait mettre une carte entre une 1030 et une GTX 1050, soit entre 100 et 250€ (4k oblige)
Le
21/04/2021 à
13h
09
darkjack a dit:
Effectivement. Mais je me suis mal expliqué. Le type A dont parlait le post, pour une clef usb, c’est le facteur de forme commun comme sur les clefs usb1, usb2 et usb3. Sur les nouveaux mac M1, il n’y a que de l’USB4 type C.
Je te rejoins: j’ai des prises USB-C sur deux ordis, je ne sais toujours pas quoi en faire (enfin si: j’ai un cable branché pour charger les téléphones mobiles :) )
Le
21/04/2021 à
12h
40
cyp a dit:
Un 5800X c’est 2 à 3 fois plus rapide qu’un M1 dans les cas favorables a ce dernier (genre Cinebench ou Geekbench grandement mis en avant pour sa promotions) et l’écart peux s’accentuer grandement en partie car l’écosystème n’est pas encore prêt (malgré le boulot excellent effectué par Apple).
Plus qu’à mettre le 5800X dans 1cm d’épaisseur. Tu compares des produits différents de toutes façons.
Le M1 est un bon CPU mobile mais sur une machine comme l’iMac souvent utilisé comme station de travail une déclinaison plus péchu serait un minimun.
Le iMac M1 (1600€) arrive en CPU à 60% des perfs du i9 9900K (4-5000€ soit une dépense totalement inconsidérée). Et en single core il le bat. C’est pas déconnant. Le M1 a peu ou prou 90% des perfs de 80% des ventes de imac (au doigt mouillé).
Pour le moment, le M1 fait le job, plutôt très bien, et il permet à Apple de faire un ticket d’entrée relativement abordable.
Les futures déclinaisons arriveront quand le M1 sera implanté: plus de coeurs, plus de RAM, meilleure CG (et certainement une petite économie de transistors sur les premiers étages ce qui réduira les perfs de l’émulation x86/x64)
cyp a dit:
Un 5800X avec sa carte mère en stock pour 600€ https://www.materiel.net/bons-plans/o17822/#a_aid=aff1550 et je n’ai pas chérché longtemps. Avec 600€ ça laisse de quoi y ajouter quelque dizaine de Go de ram et 1 ou 2To de SSD et une carte graphique convenable.
Finit l’addition s’il te plaît: le ventirad à 50€, 50€ boitier, 50€ alim, 80€ de RAM, 70€ de SSD. Je te fais grâce de la licence. Tu es à 900€. Il te reste 300€ pour la CG, bon courage pour en trouver une à ce prix en ce moment. Et ton ordi ne ressemble pas du tout à un imac discret, que tu peux mettre en batterie dans des openspace sans faire de bruit et sans prendre de place. Ce n’est pas, je le répète, le même type d’ordi (celui qui prenait un imac pour une station de travail n’a pas dû utiliser de station de travail comme les HP Z1 - de vrais bijoux, quelque part entre le PC et le serveur RAID intégré, contrôles avancés des perfs, …)
Le
21/04/2021 à
09h
42
cyp a dit:
mais il ne se compare qu’au CPU/GPU basse consommation (et encore faut pas trop trop regarder du coté des derniers produit Intel/AMD) face a un cpu desktop actuelle c’est un peut ridicule.
C’est quoi un CPU desktop actuel? A prix “équivalent”, en PC, machine + écran: tu comptes au moins 400€ pour un écran approchant. Il te reste 1200€ pour la tour. Tu tombes sur du i5 10400, soit dans cinebench l’équivalent du M1 (sauf en SC, le i5 perd).
Et si on cherche sur de la machine tout en un à la iMac, là, je ne vois aucun équivalent PC en fait. Perso j’ai des machines 35W (qu’on trouve dans les tout en un), ni l’Intel ni l’AMD ne se rapprochent des benchs du M1. Si les AMD 5000 sont meilleurs, on ne les trouve pas -> on ne peut pas les compter en concurrence.
Pour le moment, Apple doit établir une transition et si leur CPU est dispo, ceux de la concurrence pas forcément. Le timing est bon. Voire très bon. Et toute la gamme y passe, c’est cohérent, le message est clair.
Le
21/04/2021 à
09h
21
David_L a dit:
Bof, c’est bien quand tu acceptes de faire avec les contraintes d’iOS, mais ça ne marche pas pour tous les usages (même si certains y arrivent très bien).
Beaucoup d’utilisateurs aiment avoir de l’Apple, et s’en sortent très bien avec un iPad. Mais ils ont un portable en plus pour la bureautique et l’écran plus grand. D’autres ont l’ordi pour le montage ou des tâches de publication vidéo un peu plus avancées que ce qu’on peut faire confortablement sur l’ipad.
J’imagine qu’avec l’ipad pro en M1, ça va permettre à des applis plus complètes d’arriver en ultra mobilité.
Perso c’est moyennement mon truc depuis mon ipod touch que je ne peux même plus activer car le serveur est down :(
Le
21/04/2021 à
06h
58
Et du coup, le M1, Apple peut le produire en ce moment (outre la pénurie de composants), c’est cela? C’est une carte de plus à jouer: la disponibilité des machines.
Sinon, le M1 dans un iPad Pro: excellent idée je trouve. Une vraie concurrence aux ordis portables (enfin, surtout la 12.9” à 1200€ mini quand même)
Alors, non, avec Zen3, la GEN11 d’Intel a fort à faire (voire est dépassée).
Je n’ai pas encore vu de bench d’une machine en Zen3, Je ne sais même pas où en acheter.
Zen2 accusait encore pas mal de retard en monothread (donc en gros et malgré de que pensent les gens: presque tout ce qui se fait en Web notamment). https://www.anandtech.com/show/16084/intel-tiger-lake-review-deep-dive-core-11th-gen –> Zen 3 a un gap à combler pour être le meilleur partout, notamment sur tout ce qui touche aux applis web.
Mais ça n’enlève rien à la superbe de AMD: ce sont d’excellents CPU, mais on ne peut pas non plus cracher sur Intel à boulets rouges: leurs CPU sont excellents aussi - au prix effectivement de “boost” qui semblent de moins en moins sérieux…
Et selon le cas d’utilisation, un CPU peut être avantagé par rapport à l’autre. (il y a quelques années, c’est ce qui m’a fait suggérer un 4C vs un 4C/8T pour gérer 80 bases de données: le ressenti allait être meilleur sur le 4C car c’était surtout plein de petites requêtes limitées par le CPU: un 4C avec plus de GHz était plus utile qu’un 8T - sans compter l’économie en licences :) )
Le
14/04/2021 à
20h
58
(quote:1867578:dvr-x) Parce qu’il y a besoin d’un i7 pour faire de la bureautique ? :) ;)
C’est clairement pas de la machine type workstation, plutôt bureautique /dev ‘classy’.
Il y a effectivement besoin de 8 à 16 go pour de la bureautique surtout quand tu as des fichiers excel de 80onglets ou 400000lignes avec des recalculés partout et des applis en Saas ouvertes toute la journée…
Citan666 a dit:
Rappelons également qu’Intel égrène les problèmes béants de sécurité depuis des années.
Pour les benchs, l’échauffement et l’impact du boost, je te laisse chercher mes autres commentaires régulier sur le sujet (ayant un vieux i5 4xxx 35w qui bat régulièrement un i5 8xxx 15w si le traitement est suffisamment long) J’ajoute à ton moulin l’affaire des dell dont le i5 est doivent plus rapide que le i7, la cause au boost et à l’échauffement.
Pour la partie graphique, ce n’est pas dur de trouver des tests du Xe (celui du i7, donc le plus cher) en gpgpu on en jeu: il est au-dessus des Vega 8 actuels/Vega 11 des 2000⁄3000. Et les benchs des apu te montreront que AMD stagne sur la partie graphique intégrée. La question étant: vu le surcoût du Intel, le xe n’est pas un argument si on a besoin de graphiques, en AMD on a un chipset dédié pour le même prix.
Pour les failles Intel, Il a fallu plus de 10ans pour trouver ma faille, dont le vecteur principal reste partagé par ARM et AMD (et les PowerPC…), qui ne sont pas à l’abri dans les prochaines années qu’on leur trouve un trou basé sur ce type d’attaque. Mais regarde aussi les conditions d’exploitation de ces failles:tu t’apercevrais rapidement d’une attaque car ton CPU saturerait à fond pendant in temps très long.
Enfin, “plus puissant pour de la bureautique” j’attends de voir sachant que de plus en plus d’applis “classiques” sont multi-threadées
Oui, mais elles ne saturent généralement pas 8 threads/ou sont moins performantes au delà concernant des tâches bureautiques. Actuellement mieux vaut monter en fréquence que paralléliser si la tâche est courte.
Concernant le web, JavaScript n’est pas réellement multithreadé, donc les applis sas (de toutes façons limitées par les accès web) n’ont pas besoin de 16 threads.
En dev, le nombre de coeurs pour les VM est important dans certains cas, mais comme on déploie 8fois sur dix sur des serveurs de 1,2 ou 4 coeurs, ce n’est pas grave. La compilation en parallèle sur 8 threads c’est sympa, mais il faut de bons ssd derrière pour écrire… Perso, je trouve que 4c/8t c’est agréable, mais 4c/4t ne changent pas le ressenti. Bien sûr, 8c c’est bien sympa aussi, mais loin d’être nécessaire ( mon serveur de test a longtemps été un 2c/4t avec plusieurs VM).
Je te rejoins complètement sur la violence du boost intel pour gagner en single thread, au prix de grands coups de consos (mortel sur les batteries 3 cellules), surtout qu’AMD a bien réglé le problèmed’alimenter 8 coeurs en permanence (depuis les ryzen 3xxx, l’autonomie des portable en AMD est prédictible)
Mais surtout, l’argument principal de ces ordis c’est l’écran 3:2. Ms les sort en AMD et Intel, ce qui est un tour de force: deux cartes mères totalement différentes. Donc chacun peut commander ce qu’il préfère.
Le
14/04/2021 à
14h
08
aldwyr a dit:
Donc on oublie une version AMD Ryzen 7 4980U avec 32 Go de RAM et 1To de SSD.
Qui aurait été moins chère et plus performant que la version intel.
Dans la plupart des cas, le intel est > à l’AMD. Sur tous les cas qui concerneraient de la bureautique ou du travail de bureau.
Et le Xe est > AMD Vega 8 aussi.
Le choix de Ms a du sens pour le public visé
Le
14/04/2021 à
13h
59
Aloryen a dit:
100% trop cher, configuration a peine suffisante pour de la bureautique (sérieux, 8Go de ram ???), une génération de retard sur les proc amd, et mise en avant des intel soi disant plus puissant…
Le i7 est souvent plus puissant que les AMD sur de la bureautique, du dev. On n’est pas sur une station de travail multimédia là. En single core le i7 est meilleur le plus souvent. En multicoeurs “léger” (4-8 threads) pareil.
Et le Intel Xe est généralement bien meilleur que le Vega 8, en vidéo, en traitement GPU et en jeu.
Bref, tant qu’on ne fait pas du calcul lourd, le i7 sera meilleur.
je dois avouer que j’ai du mal a comprendre l’intérêt d’un windows ARM… le nombre de softs doit se compter sure les doigts d’un manchot unijambiste les soir de pleine lune, non ? enfin je veux dire si on compare avec les versions compilé natif pour MacOS M1
Je comprends ton point de vue: émuler le x86 pour avoir un logiciel particulier, je comprends. Mais finalement, les softs ARM sous Windows, ils sont 99,9% des fois dans le store Microsoft, et donc encore 99% des fois dans le store Apple…
Le
19/04/2021 à
19h
00
waxime a dit:
Question, est ce qu’une vieille surface RT qui est techniquement un processeur ARM pourrait être alors mis à jour à un Windows full ?
Certes mais c’est surtout leur résistance au temps. Une bande magnétique bien conservée a une durée de vie moyenne extrêmement longue, bien plus qu’un disque dur, ce qui est parfait pour de l’archivage.
Dans l’optique ou tu trouves un lecteur encore fonctionnel… J’ai eu pas mal de bande illisibles faute de trouver le lecteur en ordre de marche/de connexion à un ordinateur (genre même si tu arrives à brancher le lecteur, le pilote MSDOS ne fonctionne plus à cause de la vitesse de la machine :) )
Mais les LTO, c’est que du bonheur (sauf sur VAX/Alpha, difficile de trouver les lecteurs compatibles).
Et les robots de sauvegarde sont super appréciable: gèrent la sauvegarde, la rotation des bandes, l’éjection des dernières sauvegardes… Un petit bout d’admin assez rapide à prendre en main :)
Une adresse de banque ça se tape au clavier ou c’est en marque page, mais l’on vérifie l’URL. Décidément Google a fait énormément de mal au Web.
Je ne dis pas de cacher totalement l’URL, mais comme sur les téléphones, de la cacher rapidement pour regagner de la place!
Le
16/04/2021 à
14h
58
Jeanprofite a dit:
À force de niveler par le bas on se rapproche vraiment beaucoup de Idiocratie.
Merci, mais non. Mon propos est que l’outil devrait avoir atteint un niveau où son utilité dépasserait sa complexite de mise en oeuvre. Hors, actuellement, les solution web font perdre un temps énorme et sont source d’insatisfaction notoire. Il y a des domaines dans lesquels les solutions web dépassent les anciennes solutions: la messagerie, la carto, le multimédia. Et pour le reste: les tâches administratives, la bureautique, c’est une plaie.
Pourquoi? Notamment parce qu’on demande à monsieur tout le monde de savoir ce que normalement une personne du guichet fait. Et que pendant que l’utilisateur doit se concentrer sur sa tâche et sur comprendre (sans mode d’emploi) comment fonctionne le site, le navigateur lui offre en plus une myriade de petites infos totalement inutiles dont l’utilisateur doit savoir s’il doit en faire quelque chose ou pas.
Les technos web devraient avancer vers une abstraction du technique ou mourir pour être remplacées par les app (et ça ne me fait pas plaisir, mais au niveau utilisabilité, le web stagne voire régresse, et est une hérésie majeure au niveau de l’utilisation des ressources).
On peut critiquer le minitel, il avait ses défauts (notamment niveau des perfs…) mais il avait aussi ses forces: un facilité d’utilisation remarquable
eglyn a dit:
“Faut-il en déduire que l’on doit simplifier l’orthographe pour la rendre plus accessible ?” –> Clairement oui ! Il y a tant de choses à apprendre bien plus importantes et intéressantes que des règles sans aucune logique.
Mais alors pourquoi rationnaliser l’orthographe (ça aussi je suis pour) et pas le web qui n’est qu’un infâme monceau de technologies toutes plus stupidement écrites les unes que les autres? Pourquoi HTML (du SGML dont on a supprimé les contraintes) +CSS (une bonne idée au départ, bourrée de verrues qui se chevauche les unes sur les autres) +JS (un langage ni fait ni à faire vu ce qu’il implique en conso mémoire et CPU) et pas reprendre un standard propre?
Et pourquoi un protocole HTTP qui ne maintient pas ses connexions, forçant à créer des mécanismes complexes et coûteux (et qu’il a fallu sécuriser au fur et à mesure des années) pour conserver une session utilisateur, un peu au hasard, pour voir s’il relance une requête dans les 20 minutes???
Franchement, le web actuel c’est comme le français: bâti sur un ancien monde sans cohérence, mélange de dialectes qui se sont imposés dans une guerre d’influence… Y a pas de logique non plus :)
Le
16/04/2021 à
12h
36
marba a dit:
Oui et non. Les gens qui ne comprennent pas comment fonctionne une URL ne savent pas naviguer sur le web, et sont donc la cible et les victimes d’attaques massives très faciles à réaliser.
De toutes façons il ne regardent pas l’URL ou ne savent pas déceler les problèmes. Les alertes de sécurité actuelles sont déjà bonnes. Et le but est de masquer l’URL, pas de supprimer le champ, simplement d’arrêter de nous pourrir l’affichage avec des choses inutiles dans 99% des cas. C’est quasi fait sur tablette, dès qu’on scrolle on ne voit plus les barres d’onglet ou l’URL.
En fait, je ferais presque un process par navigateur, et j’utiliserais la barre des tâches de l’OS plutôt que de mettre des onglets dans l’appli, avec un regroupement par nom de domaine et l’icône du site.
Le fonctionnement actuel par onglet est une torture en entreprise quand on veut passer d’une appli SAAS à l’autre.
Et il faut enfin passer le cap des dev internet pour que la technique s’efface. On a l’impression que c’est resté à l’état de brouillon le dev web. Les utilisateurs n’arrivent pas à capitaliser l’expérience car en plus de nécessiter plus de manipulation à cause du web, ils doivent ingurgiter l’utilisation du navigateur… C’est trop pour eux, ils ont l’impression qu’on leur demande de devenir “informaticien”.
Du coup, ils adorent les PWA.
Le
16/04/2021 à
12h
13
Salamandar a dit:
Mais what. La barre d’url est super utile. Vérifier le site sur lequel t’es. Sur Reddit, savoir en un coup d’oeil si t’es sur un /r/ ou un /u/. Savoir si t’es sur la page d’accueil/about/produits d’une entreprise. Github : savoir en un coup d’oeil quel est le propriétaire d’un dépôt sans avoir à re-scroll en haut de la page. ETC.
Vue les URL qu’on nous pond dans énormément de sites, ça ne sert à rien. Et c’est technique, ça ne devrait être là que pour référence quand on en a besoin et s’automasquer au moins. Je parle du point de vue utilisateur bien sûr. Quelqu’un de technique comprend comment naviguer avec l’URL, pour 80% des gens, ça contribue à l’impression de complexité de l’informatique.
Le
16/04/2021 à
09h
35
La barre d’adresse, c’est SOOOO 90’s. En fait, on s’en moque de la barre d’adresse, un bouton nouvel onglet avec recherche ou adresse c’est bien, mais à part pour le dev, la barre d’adresse peut être masquée en permanence.
Je teste les onglets à gauche de EDGE, après quelques heures d’énervement, je dois dire que je suis totalement pour: revenir avec moins de place en hauteur est carrément difficile (je lis beaucoup de doc et d’articles).
Pour revenir à proton, ça change un peu, mais sur des écran FHD ou HD (1366x768), on ne gagne pas grand chose en place est c’est une grande partie du problème des navigateurs et applis SAAS: la perte énorme de place entre la barre des tâches de l’ordi et la barre d’onglet et d’adresse du navigateur.
(quote:1867628:alex.d.) Bah bannir une plage d’IP d’où tu constates des attaques, c’est déjà un peu plus malin que de blacklister un “pays d’origine” selon GeoIP.
Les IP changent tout le temps, c’est bien par plage qu’on bloque.
Moi je n’ai pas eu l’occasion de le faire. Quand le site te refuse l’accès sous prétexte que ton adresse IP pue, tu n’as même pas l’occasion de trouver l’adresse de contact.
Les gens utilisent leur téléphone mobile.
Mais je suis en France. Tu n’as pas de bol. Peut-être en forçant en IP v6 (on constate infiniment moins d’attaque sur les adresse IPv6 - les pirates ne semblent pas bien malin pour la plupart: ils achètent des kits rôdés, mais uniquement compatibles IPv4 visiblement)
Le
14/04/2021 à
13h
20
(quote:1867245:alex.d.) Ah oui, ceux qui bannissent les IPs “russes”, ce sont de gros clowns. Ben propose une autre idée qui fonctionne. On n’a pas les moyens pour gérer les attaques permanentes de certaines plages IP. Du coup, oui, j’ai parfois des gens qui demandent à ne pas être illégitimement banis. Malheureusement, hors VPN qui te resitue en France, pas de solution viable pour le moment.
Gilbert_Gosseyn a dit:
Je l’avais lu (sans retrouver la source pour l’instant) de la part d’un cadre du CNED. Et, je suis tombé sur ceci qui cite 300k fin 2020.
Donc, le passage à 400k connexions simultanées est très probable. Aller au delà est possible aussi, sauf que cela coûte vite extrêmement cher.
C’est clair: si j’ai franchement une grande estime pour la plate-forme du CNED, comme tu le dis elle n’est pas forcément dimensionnée pour un tel afflux. Sauf si on fait confiance aux profs et aux élèves pour laisser un peu de place :)
Le
13/04/2021 à
13h
43
Gilbert_Gosseyn a dit:
Bon, franchement, cette histoire d’attaques ciblées ne tient pas la route quand tu sais que :
d’une part, aujoud’hui, la plateforme du CNED est dimensionnée pour environ 400000 utilisateurs simultanés
Ce que je trouve dommage, c’est que… ça fait un très bon job.
Le 4650G semble dispo depuis un moment chez Grosbill. Pour la partie graphique, j’aimerais qu’ils la montent un peu quand même: les perfs sont quasi les mêmes du 2400G au 4700G - à part le bus mémoire qui améliore un peu, mais rien de transcendant: gagner 10%, c’est 4FPS sur 40… et on ne gagne pas souvent 10%! Par contre, les perfs graphiques entre G et GE sont quasiment les mêmes (j’ai un 3400GE et un 3400G - c’est tout pareil). La partie CPU du GE est un peu en retrait, mais pas énorme sur des travaux courts (moins de 30min). Par contre, en CPU+GPU, le GE a une nette dégradation CPU (il tient à peine la fréquence “nominale” - le 3400G tient parfaitement la sienne)
C’est surtout que Tegra c’est le nom d’une gamme de SoC ARM chez NVIDIA, mais ils en ont déjà différentes dans tous leurs marchés. Du coup je ne comprends pas la question.
My bad, j’ai lu l’article en 2 fois, et je ne sais pas pourquoi j’ai mélangé les 2 sujets de l’article: effectivement le CPU pour serveurs n’a rien à voir avec mediatek.
Le
13/04/2021 à
05h
59
C’est un aveu d’échec de ne pas prendre des Tegra?
Il n’y a que moi que ça énerve d’avoir les boutons OK or ANNULER en haut dans la barre de titre plutôt que dans le bas de la fenêtre sur presque toutes les modales ?
Non
eglyn a dit:
j’avoue que même si ça reste subjectif, le choix des couleurs est quand même discutable (c’est moche, faut le dire)
Oui
Mais les deux points font partie de l’image de marque, la signature ubuntu, ubuntu qui rassemble et accorde tout le monde: c’est déroutant, ça donne pas envie :) Trolldi…
Surtout, j’attends les retours sur un déploiement massif de wayland. Je ne suis pas sûr du rapport bénéfice/risque (maintenant qu’on est tous des pros là dedans), car de nombreux logiciels pointaient l’absence de fonctionnalités de ce compositeur (dont OBS il me semble, et différents softs de capture et de prise de contrôle à distance).
Wayland m’a toujours paru adapté aux tablettes/téléphones, mais pour du pro, j’attends de voir.
Je vais remettre DirectFB tiens :)
Edit: - remarque - j’étais très circonspect sur l’activation par défaut du backend opengl/dri dans les compositeur (vers la 11.04/12.04 je crois), je pensais que ça allait être terrible pour mon i945 de l’époque et ma batterie. Je me rappelle qu’il n’en n’a rien été - sauf que j’ai lâché ubuntu à l’époque car pour des raisons ACPI mon PC plantait au hasard sous Linux à partir de 12.04, et personne n’a résolu le problème ou ne m’a aidé à le résoudre)
Par contre oui les procs RISC faisait mieux (les PowerPC était meilleur que la gamme des Pentium au début ).
Ca n’a pas tenu très longtemps… Et qu’on ne se méprenne pas: je suis pro-RISC! En fait, j’ai rêvé dès le début d’avoir un acorn Archimedes (je faisais de l’assembleur x86, et c’était déprimant comme la moindre instruction coûtait plus d’un - voir plus de 20 cycles). Mais les ARM ont vite déçu, les PPC aussi…
Bah , non ça ne fait pas du VLIW en interne :) Après la comparaison est tout simplement que le VLIW peut être vu comme une version manuelle du Superscalaire , mais en interne , y’a de grosse différence entre eux.
Disons que le câblage va favoriser une certaine suite d’instructions, l’étage de réorganisation est censé produire ces suites le plus possible. Si on multiplie ces suites précablées, on se rapproche d’un VLIW.
Sinon tu as mal compris le CELL (qui est pour ma part on va dire ma vision du CPU moderne), il n’avait pas de gros registre , il avait des registre de 128 bits au grand max.
Je parlais surtout sur la façon de programmer - isoler des boucles dont on sait qu’elles ont une certaine durée. Et c’est une réflexion qui date de fin des années 90 en fait, en regardant le bytecode java et le fait qu’on s’énerve à le coller sur des machines à registres. Google a réglé le problème je crois en faisant un bytecode à registres.
Le
09/04/2021 à
07h
02
kannagi a dit:
Cela n’empêche pas que le x86 est pourri , et même pour du superscalaire Out of order , il est handicapant. Voilà quelque point où un processeur RISC à l’avantage comparé à un x86 :
C’est clair que le x86 a un décodage ultra compliqué. Ca paraît complètement idiot de nos jours, et les nouvelles instructions ne sont pas franchement plus simples.
Mais le out of order est apparu dans le grand public aussi avec les RISC, et il était nécessaire pour les perfs (PowerPC à l’époque). Sauf que qu’il fallait pour optimiser le prévoir dans les compilos, car ce n’est pas le CPU qui s’en chargeait. Et les compilos n’étaient pas prêt.
Quand à la “pureté” du RISC: c’est bien parce que l’idée ne résout pas tout et de loin que les ARM/PowerPC n’arrivent sur le devant de la scène que maintenant: depuis le début des années 90, la révolution RISC n’a pas réussi réellement à faire des machines aussi performantes que les CISC, sauf Apple M1… Qui embarque plus de transistors que les x86.
D’après ce que j’ai lu, il a une ISA RISC, mais il ressemble plus à une espèce de VLIW en interne (mais on ne peut que spéculer). Quelques articles d’il y a quelques années comparaient des RISC à décodage multiple à du VLIW car en réorganisant “de force” les instructions, on pouvait exécuter des “cascades d’instructions” avec moins de cycle qu’il n’y a d’instructions, bloc par bloc.
En gros ce que faisait transmeta en 2000 (les CPU compatibles x86 à 1W contre 20 pour la consurrence - mais à 2⁄3 des perfs)
Belle idée , mais non , si tu as un registre de 64 octets , ça poserais pas mal de soucis (et globalement un accès relativement long , même en register). Et les load/store ont souffrirait , vu qu’en général on préfère unifié le load/store , cela veut dire qu’on aura un ralentissement du load/store pour tout , et donc un load 8 bits serait donc aussi long que le load 64 octets.
Belle idée , mais non , si tu as un registre de 64 octets , ça poserais pas mal de soucis (et globalement un accès relativement long , même en register).
C’est un autre façon de penser, plus proche du Cell de la PS3 en fait. Grosses tâches à alimenter. Un peut comme un GPU, mais au lieu de registres, des déplacement sur une ligne plus ou moins grande. Ca peut coller avec du bytecode Java, puisqu’il déclare d’avance les espaces nécessaires pour une fonction. Mais mon passé fortran parle :)
Le
08/04/2021 à
13h
19
wanou a dit:
Coté archi du coeur, avec l’amd64 , on revient aux nombrux registres généreaux comme dans le 68000 et tous les processeurs bien conçus y compris côté microcontrôleurs comme les AVR et bien sûr, les ARM et les R3000.
Attention, les ISA ne sont qu’une façade pour les micro instructions derrières. Entre les renommages de registre, le out of order et le prédictif, c’est un peu une soupe derrière ce qu’on voit en assembleur. Et ça date du PPC, en RISC.
Par ailleurs, moi je vois plutôt une ISA différente, avec au lieu de registre des lignes de cache de plusieurs dizaines d’octets. Là on peut se lâcher sur le calcul matriciel.
Sauf que, quand une boucle itérative est écrite en C avec un index , le compilateur ne peut pas rattraper le coup.
Si mais pas forcément tout seul. Sur certains compilos fortran, on indiquait simplement quelles variables étaient variables dans la boucle et lesquelles étaient potentiellement différentes, le compilo parallélisait les for tout seul ensuite (SGI, 64 CPU, an 2000 :) )
wanou a dit:
Et le calcul décimal reste utile et très utlisé pour ceux qui veulent compter juste. C’est le cas avec le type decimal en sql qui est indispensable pour tout ce qui touche à l’argent, de la gestion de coûts aux payes, aux taux de change etc
+1, il est essentiel de connaître la différence en decimal et réel, leur limitations (et que en réels, 10000000+10000000* 0,00000001 n’est pas égal à 100000000+10000000 de fois l’addition de 0,00000001)
Le
06/04/2021 à
22h
07
wanou a dit:
Toutes les astuces trouvées par les fabricants de processeurs x86 pour tenter de faire fonctionner les application massivement mono cœur sont en train de tomber les unes après les autres manifestement.
Ce n’est pas limité aux x86, spectre a touché ARM aussi il me semble. Par ailleurs il semble bien que l’Apple M1 se paye une bonne tranche de prédiction/réordonnancement, il ressemble plus à un Crusoé en tard qu’à un ARM. Wild guess: une bonne part est destinée à mapper ce qui sort de rosetta sur un max de coeurs.
Le monocoeur n’est pas mort, car il est compliqué d’alimenter les coeurs en données au delà de 8. Après,on a des coeurs périphériques mal exploités et des coeurs centraux isolés. La plupart des algos sont difficilement parallélisables. Une archi comme les Arm avec des coeurs type graphique intégrés qui ont accès au cache est plus intéressant qu’un CPU à tout faire.
Et je n’irai pas cracher sur le x86, vu ce qu’AMD en sort dernièrement, c’est impressionnant. Quand aux ARM, ils ajoutent instructions et unités tout comme le x86 l’a fait (même si la base est plus saine au vu des opportunités technologiques actuelles)
Pour rappel, en x86 on pouvait faire du calcul décimal sur des nombres décimaux codés binaires et des comparaisons de chaînes une poignée d’instruction. A l’époque, c’était de bons arguments. Maintenant,c’est juste totalement inutile.
Le
06/04/2021 à
11h
42
Du coup, il y a un bench sur phoronix, avec et sans PSF. On perd 0,5% de perfs sans…
A quoi il sert ce PSF? Ca fait beaucoup de transistor inutiles :) ? Ou c’est juste les compilos qui ne sont pas prêts?
Mais de mémoire, le premier kangoo VE était du même niveau de performance. Ou l’AX 1L. Mais ça ne m’a jamais dérangé. Surtout qu’avec ce genre de voiture un peu “veau”, il suffit de ne pas ralentir dans les virages.
En plus, d’après les essais, en ville ça ne se sent pas, l’accélération est tout à fait semblable à une autre voiture, c’est au-delà de 70⁄80 que ça commence à devenir moins convaincant.
Mais ça préserve la batterie :)
(quote:1865649:ProFesseur Onizuka) C’est dangereux, les camions doivent te pousser sur nationale tellement tu te traines C’est le conducteur qui est dangereux, pas la voiture.
Le
07/04/2021 à
08h
35
joma74fr a dit:
La Dacia Spring comparée à la Renault Zoe ? J’avais l’impression que ce n’était pas la même catégorie de véhicules pourtant.
Pourquoi? La Dacia Spring est du gabarit “grosse twingo” il me semble, non?
Pour les CPUs de portable, c’est aussi de telles “marches” entre TDP et puissance crête en début de fortes sollicitations ? (genre dépasser 4x le TDP pendant ce temps tau)
Expérience 3615 perso: j’ai eu une tablette samsung en I5 2567m. Quand je décompressais un gros fichier zip qui durait plusieurs minutes, je voyais la différence de vitesse de la barre de progression entre le début (boost à 2,6Ghz) puis une période de rafraichissement (sous le GHz)…
Comment en lisant les commentaires as-tu pu conclure que les gens voulaient interdire les blagues du 1er avril ?
Je suis d’accord avec @blob741: les blagues ne peuvent qu’être interdites si en quelques années elle génèrent autant de tension collective. Des voisins qui ont un jour échangé les panneaux des villes ont eu des remontrances de la mairie, mais personne n’en garde un mauvais souvenir (même pas mes invités qui venaient pour la première fois à la maison ce jour là sans GPS) On a l’impression que les gens ont aboli leur sens critique et leur capacité à imaginer que si la blague ne leur parle pas, elle peut plaire à plein d’autres gens…
J’ai appris récemment qu’on ne pouvait pas faire de GPU passthrough sur un PC Portable. C’est bien dommage.
Le PCIe passthrough fonctionne sur portables, mais ce sont les mêmes restrictions que sur un PC fixe: chipset qui le supporte, CPU qui le supporte, et BIOS qui te donne accès aux bonnes options.
Le
31/03/2021 à
13h
25
La limitation était dans le pilote NVidia, donc un passthrough pour un invité Linux ne devait pas présenter de problème si on utilisait le pilote open source, non?
Par ailleurs, je ne sais pas si la procédure marche dans tous les cas, car d’habitude je dois indiquer au système de ne pas charger les pilotes des cartes que je mets en passthrough (notamment les cartes Wifi/réseau). Là comme la carte principale est celle intégrée au CPU, ubuntu ne charge pas les pilotes NVidia, c’est cela?
kj a dit:
Je demande car ma seconde CG est très ancienne (GT620 ou GT710 sait plus) et le driver nvidia le plus récent ne prend plus en charge cette carte (et j’en ai besoin pour ma principal…)
Si tu as un PC en intel et en dual channel, la CG intégrée au CPU sera certainement proche voire meilleure que ces cartes NVidia (à partir de la HD 520⁄530, Intel fait généralement mieux que la Geforce - avant c’est très variable). Et le passthrough marche très bien.
3766 commentaires
Scaleway veut recruter 100 nouveaux collaborateurs
30/04/2021
Le 30/04/2021 à 12h 15
C’est le côté digital. Mais d’habitude, le marketing digital, c’est pour passer par un autre trou…
Le 30/04/2021 à 09h 16
Lille, Paris… Ca ne fait pas rêver ça…
Dell présente son Latitude 7320 détachable de 13″ avec stylet, à partir de 1 483 euros
29/04/2021
Le 29/04/2021 à 09h 53
Sympa. Ca a l’air du sérieux. Mais j’ai un peu de mal avec les tablettes convertibles Dell qui m’ont par le passé montré des faiblesses dans le temps (les venue 11 pro notamment).
Avantage chez Dell: dès que le modèle est un peu haut de gamme/pro, la doc est dispo le jour de sortie:
https://www.dell.com/support/kbdoc/fr-fr/000182078/latitude-7320-replace-removal-guide-for-customer-remplaçable-units-cru-template
Au moins, il y a le minimum vital: le SSD, la carte cellulaire. Dommage pour la RAM.
Apple corrige en urgence une importante faille de sécurité
28/04/2021
Le 28/04/2021 à 11h 52
Tout n’a pas été traduit: il reste App Store, Apple, malware, Motherboard :)
D’ailleurs, le terme payload est tellement nul en anglais que même s’il sonne mal, le terme français est bien meilleur. bug/bogue est nul dans les deux langues.
Bon, on voit que Apple a le vent en poupe: ils passent de nouveau à la casserole sur les pb de sécurité…
HDD Seagate Exos X16 et Toshiba MG07 : quelles performances pour 14 To à 290 euros ?
27/04/2021
Le 27/04/2021 à 14h 34
Je reconnais que le bruit des toshibas est particulier: je trouve le grattement est beaucoup plus sec que les concurrents pour ceux que j’ai.
Mais d’expérience, ce n’est pas lié à un problème de fiabilité ou autre.
Le récap’ des bons plans du moment, semaine 16
23/04/2021
Le 23/04/2021 à 17h 18
Justement, elles le sont…
Le 23/04/2021 à 16h 50
Pour info, PNY a une boutique sur ebay et y a mis des cartes graphiques reconditionnés (garanties 6 mois je crois)
Boutique ebay PNY
Il y a de la GT1030 à 55€, GTX1050 à 100€, RTX2060/2070/2080…
WSLg : comment utiliser des applications Linux sous Windows 10 avec interface graphique et GPU
22/04/2021
Le 23/04/2021 à 08h 22
Avec un logiciel comme celui-ci? (il en existe plusieurs)
GitHub
Le 22/04/2021 à 19h 03
C’est pas un peu overkill pour lancer bash :) ?
Par contre, ça fait un petit moment que je teste certaines de mes applis .Net Core sous Linux, et c’est bien pratique d’être sous Windows qui est la cible principale et de lancer en toute transparence la version Linux.
Le 22/04/2021 à 18h 53
L’archi de ouf! Donc quand la distro Linux fait un appel graphique, ça passe sur la VM intermédiaire qui fait du RDP … Ca fait pas mal de context switches! Vu le coût actuel du CS, ça fait mal. Ca ne serait pas cela l’occupation CPU?
AirTag, TV 4K avec Thread, Nouvel iMac, iPad Pro M1, 5G et Mini LED : Apple fait le plein
21/04/2021
Le 22/04/2021 à 16h 06
Il est aussi très bon en multitasking. Et avec les applis web, le mono coeur est à la fête dans l’énorme majorité des cas!
Le 22/04/2021 à 15h 33
Je rappelle que tu disais pouvoir monter un PC meilleur qu’un iMac. Là les deux n’ont plus du tout la même utilisation/cible.
Et mon point était la dispose des pièces. Enfin , j’imagine mal quelqu’un se résoudre à monter une gt710 sur un 5800x en l’achetant 50€ juste pour l’affichage. Au pire prendre n’importe quelle carte dans une poubelle pour attendre la larme à l’oeil que les prix baissent et que des cartes réapparaissent à 100-150€ (ce segment ressemblant à un désert depuis 2-3 ans, avec juste les âmes de quelques modèles sortis en 2016-2017)
Le 22/04/2021 à 08h 32
Donc tu conseillerais à la place d’un iMAC M1: Ryzen 5800X et GT710 (nettement moins performante que les intel intégrés)
Je ne te demanderais pas de me monter un config :)
Je ne dis pas que le M1 enterre les PC. Je dis juste qu’il est suffisant et nettement au-dessus de la plupart des PC utilisés, et qu’à ce niveau de performance et d’intégration, je ne connais pas de PC équivalent.
Et je crois que les bench et test applicatifs du M1 (et l’affaire des SSD qui sont écrits plus souvent que d’habitude) montrent que Apple sait faire une architecture capable de travailler même avec 8Go de RAM.
Par contre, le iMAC en Workstation lourde, ça n’a jamais été une bonne idée (ratio performances/prix raz des pâquerettes du très haut de gamme, confort perdu)
Le 21/04/2021 à 19h 05
On m’a fait remarquer que dernièrement, à 50€ il était difficile de trouver quelque chose d’utilisable à cause des pénuries.
En plus, pour être réaliste il faudrait mettre une carte entre une 1030 et une GTX 1050, soit entre 100 et 250€ (4k oblige)
Le 21/04/2021 à 13h 09
Je te rejoins: j’ai des prises USB-C sur deux ordis, je ne sais toujours pas quoi en faire (enfin si: j’ai un cable branché pour charger les téléphones mobiles :) )
Le 21/04/2021 à 12h 40
Plus qu’à mettre le 5800X dans 1cm d’épaisseur. Tu compares des produits différents de toutes façons.
Le iMac M1 (1600€) arrive en CPU à 60% des perfs du i9 9900K (4-5000€ soit une dépense totalement inconsidérée). Et en single core il le bat. C’est pas déconnant. Le M1 a peu ou prou 90% des perfs de 80% des ventes de imac (au doigt mouillé).
Pour le moment, le M1 fait le job, plutôt très bien, et il permet à Apple de faire un ticket d’entrée relativement abordable.
Les futures déclinaisons arriveront quand le M1 sera implanté: plus de coeurs, plus de RAM, meilleure CG (et certainement une petite économie de transistors sur les premiers étages ce qui réduira les perfs de l’émulation x86/x64)
Finit l’addition s’il te plaît: le ventirad à 50€, 50€ boitier, 50€ alim, 80€ de RAM, 70€ de SSD. Je te fais grâce de la licence. Tu es à 900€. Il te reste 300€ pour la CG, bon courage pour en trouver une à ce prix en ce moment.
Et ton ordi ne ressemble pas du tout à un imac discret, que tu peux mettre en batterie dans des openspace sans faire de bruit et sans prendre de place.
Ce n’est pas, je le répète, le même type d’ordi (celui qui prenait un imac pour une station de travail n’a pas dû utiliser de station de travail comme les HP Z1 - de vrais bijoux, quelque part entre le PC et le serveur RAID intégré, contrôles avancés des perfs, …)
Le 21/04/2021 à 09h 42
C’est quoi un CPU desktop actuel? A prix “équivalent”, en PC, machine + écran: tu comptes au moins 400€ pour un écran approchant. Il te reste 1200€ pour la tour. Tu tombes sur du i5 10400, soit dans cinebench l’équivalent du M1 (sauf en SC, le i5 perd).
Et si on cherche sur de la machine tout en un à la iMac, là, je ne vois aucun équivalent PC en fait.
Perso j’ai des machines 35W (qu’on trouve dans les tout en un), ni l’Intel ni l’AMD ne se rapprochent des benchs du M1. Si les AMD 5000 sont meilleurs, on ne les trouve pas -> on ne peut pas les compter en concurrence.
Pour le moment, Apple doit établir une transition et si leur CPU est dispo, ceux de la concurrence pas forcément. Le timing est bon. Voire très bon. Et toute la gamme y passe, c’est cohérent, le message est clair.
Le 21/04/2021 à 09h 21
Beaucoup d’utilisateurs aiment avoir de l’Apple, et s’en sortent très bien avec un iPad. Mais ils ont un portable en plus pour la bureautique et l’écran plus grand.
D’autres ont l’ordi pour le montage ou des tâches de publication vidéo un peu plus avancées que ce qu’on peut faire confortablement sur l’ipad.
J’imagine qu’avec l’ipad pro en M1, ça va permettre à des applis plus complètes d’arriver en ultra mobilité.
Perso c’est moyennement mon truc depuis mon ipod touch que je ne peux même plus activer car le serveur est down :(
Le 21/04/2021 à 06h 58
Et du coup, le M1, Apple peut le produire en ce moment (outre la pénurie de composants), c’est cela?
C’est une carte de plus à jouer: la disponibilité des machines.
Sinon, le M1 dans un iPad Pro: excellent idée je trouve. Une vraie concurrence aux ordis portables (enfin, surtout la 12.9” à 1200€ mini quand même)
Microsoft : Surface Laptop 4 avec CPU AMD ou Intel au choix, pelleté d’accessoires
14/04/2021
Le 20/04/2021 à 11h 58
Je n’ai pas encore vu de bench d’une machine en Zen3, Je ne sais même pas où en acheter.
Zen2 accusait encore pas mal de retard en monothread (donc en gros et malgré de que pensent les gens: presque tout ce qui se fait en Web notamment).
https://www.anandtech.com/show/16084/intel-tiger-lake-review-deep-dive-core-11th-gen
–> Zen 3 a un gap à combler pour être le meilleur partout, notamment sur tout ce qui touche aux applis web.
Mais ça n’enlève rien à la superbe de AMD: ce sont d’excellents CPU, mais on ne peut pas non plus cracher sur Intel à boulets rouges: leurs CPU sont excellents aussi - au prix effectivement de “boost” qui semblent de moins en moins sérieux…
Et selon le cas d’utilisation, un CPU peut être avantagé par rapport à l’autre. (il y a quelques années, c’est ce qui m’a fait suggérer un 4C vs un 4C/8T pour gérer 80 bases de données: le ressenti allait être meilleur sur le 4C car c’était surtout plein de petites requêtes limitées par le CPU: un 4C avec plus de GHz était plus utile qu’un 8T - sans compter l’économie en licences :) )
Le 14/04/2021 à 20h 58
C’est clairement pas de la machine type workstation, plutôt bureautique /dev ‘classy’.
Il y a effectivement besoin de 8 à 16 go pour de la bureautique surtout quand tu as des fichiers excel de 80onglets ou 400000lignes avec des recalculés partout et des applis en Saas ouvertes toute la journée…
Pour les benchs, l’échauffement et l’impact du boost, je te laisse chercher mes autres commentaires régulier sur le sujet (ayant un vieux i5 4xxx 35w qui bat régulièrement un i5 8xxx 15w si le traitement est suffisamment long)
J’ajoute à ton moulin l’affaire des dell dont le i5 est doivent plus rapide que le i7, la cause au boost et à l’échauffement.
Pour la partie graphique, ce n’est pas dur de trouver des tests du Xe (celui du i7, donc le plus cher) en gpgpu on en jeu: il est au-dessus des Vega 8 actuels/Vega 11 des 2000⁄3000. Et les benchs des apu te montreront que AMD stagne sur la partie graphique intégrée. La question étant: vu le surcoût du Intel, le xe n’est pas un argument si on a besoin de graphiques, en AMD on a un chipset dédié pour le même prix.
Pour les failles Intel, Il a fallu plus de 10ans pour trouver ma faille, dont le vecteur principal reste partagé par ARM et AMD (et les PowerPC…), qui ne sont pas à l’abri dans les prochaines années qu’on leur trouve un trou basé sur ce type d’attaque.
Mais regarde aussi les conditions d’exploitation de ces failles:tu t’apercevrais rapidement d’une attaque car ton CPU saturerait à fond pendant in temps très long.
Oui, mais elles ne saturent généralement pas 8 threads/ou sont moins performantes au delà concernant des tâches bureautiques.
Actuellement mieux vaut monter en fréquence que paralléliser si la tâche est courte.
Concernant le web, JavaScript n’est pas réellement multithreadé, donc les applis sas (de toutes façons limitées par les accès web) n’ont pas besoin de 16 threads.
En dev, le nombre de coeurs pour les VM est important dans certains cas, mais comme on déploie 8fois sur dix sur des serveurs de 1,2 ou 4 coeurs, ce n’est pas grave. La compilation en parallèle sur 8 threads c’est sympa, mais il faut de bons ssd derrière pour écrire…
Perso, je trouve que 4c/8t c’est agréable, mais 4c/4t ne changent pas le ressenti. Bien sûr, 8c c’est bien sympa aussi, mais loin d’être nécessaire ( mon serveur de test a longtemps été un 2c/4t avec plusieurs VM).
Je te rejoins complètement sur la violence du boost intel pour gagner en single thread, au prix de grands coups de consos (mortel sur les batteries 3 cellules), surtout qu’AMD a bien réglé le problèmed’alimenter 8 coeurs en permanence (depuis les ryzen 3xxx, l’autonomie des portable en AMD est prédictible)
Mais surtout, l’argument principal de ces ordis c’est l’écran 3:2. Ms les sort en AMD et Intel, ce qui est un tour de force: deux cartes mères totalement différentes. Donc chacun peut commander ce qu’il préfère.
Le 14/04/2021 à 14h 08
https://cpu.userbenchmark.com/Compare/Intel-Core-i7-1165G7-vs-AMD-Ryzen-9-4900U/m1195374vsm1097507
Dans la plupart des cas, le intel est > à l’AMD. Sur tous les cas qui concerneraient de la bureautique ou du travail de bureau.
Et le Xe est > AMD Vega 8 aussi.
Le choix de Ms a du sens pour le public visé
Le 14/04/2021 à 13h 59
Le i7 est souvent plus puissant que les AMD sur de la bureautique, du dev. On n’est pas sur une station de travail multimédia là.
En single core le i7 est meilleur le plus souvent. En multicoeurs “léger” (4-8 threads) pareil.
Et le Intel Xe est généralement bien meilleur que le Vega 8, en vidéo, en traitement GPU et en jeu.
Bref, tant qu’on ne fait pas du calcul lourd, le i7 sera meilleur.
Windows on ARM : comment télécharger l’image (ISO, VHDX)
19/04/2021
Le 19/04/2021 à 19h 09
Je comprends ton point de vue: émuler le x86 pour avoir un logiciel particulier, je comprends.
Mais finalement, les softs ARM sous Windows, ils sont 99,9% des fois dans le store Microsoft, et donc encore 99% des fois dans le store Apple…
Le 19/04/2021 à 19h 00
En tout cas, il existe un projet pour certains anciens téléphone lumia
Proxmox Backup Server 1.1 disponible, la sauvegarde sur bandes en « Technology Preview »
19/04/2021
Le 19/04/2021 à 13h 07
Dans l’optique ou tu trouves un lecteur encore fonctionnel… J’ai eu pas mal de bande illisibles faute de trouver le lecteur en ordre de marche/de connexion à un ordinateur (genre même si tu arrives à brancher le lecteur, le pilote MSDOS ne fonctionne plus à cause de la vitesse de la machine :) )
Mais les LTO, c’est que du bonheur (sauf sur VAX/Alpha, difficile de trouver les lecteurs compatibles).
Et les robots de sauvegarde sont super appréciable: gèrent la sauvegarde, la rotation des bandes, l’éjection des dernières sauvegardes… Un petit bout d’admin assez rapide à prendre en main :)
Plongée dans Proton, la nouvelle interface en préparation de Firefox
16/04/2021
Le 17/04/2021 à 17h 02
Je ne dis pas de cacher totalement l’URL, mais comme sur les téléphones, de la cacher rapidement pour regagner de la place!
Le 16/04/2021 à 14h 58
Merci, mais non. Mon propos est que l’outil devrait avoir atteint un niveau où son utilité dépasserait sa complexite de mise en oeuvre.
Hors, actuellement, les solution web font perdre un temps énorme et sont source d’insatisfaction notoire.
Il y a des domaines dans lesquels les solutions web dépassent les anciennes solutions: la messagerie, la carto, le multimédia.
Et pour le reste: les tâches administratives, la bureautique, c’est une plaie.
Pourquoi? Notamment parce qu’on demande à monsieur tout le monde de savoir ce que normalement une personne du guichet fait. Et que pendant que l’utilisateur doit se concentrer sur sa tâche et sur comprendre (sans mode d’emploi) comment fonctionne le site, le navigateur lui offre en plus une myriade de petites infos totalement inutiles dont l’utilisateur doit savoir s’il doit en faire quelque chose ou pas.
Les technos web devraient avancer vers une abstraction du technique ou mourir pour être remplacées par les app (et ça ne me fait pas plaisir, mais au niveau utilisabilité, le web stagne voire régresse, et est une hérésie majeure au niveau de l’utilisation des ressources).
On peut critiquer le minitel, il avait ses défauts (notamment niveau des perfs…) mais il avait aussi ses forces: un facilité d’utilisation remarquable
Mais alors pourquoi rationnaliser l’orthographe (ça aussi je suis pour) et pas le web qui n’est qu’un infâme monceau de technologies toutes plus stupidement écrites les unes que les autres?
Pourquoi HTML (du SGML dont on a supprimé les contraintes) +CSS (une bonne idée au départ, bourrée de verrues qui se chevauche les unes sur les autres) +JS (un langage ni fait ni à faire vu ce qu’il implique en conso mémoire et CPU) et pas reprendre un standard propre?
Et pourquoi un protocole HTTP qui ne maintient pas ses connexions, forçant à créer des mécanismes complexes et coûteux (et qu’il a fallu sécuriser au fur et à mesure des années) pour conserver une session utilisateur, un peu au hasard, pour voir s’il relance une requête dans les 20 minutes???
Franchement, le web actuel c’est comme le français: bâti sur un ancien monde sans cohérence, mélange de dialectes qui se sont imposés dans une guerre d’influence… Y a pas de logique non plus :)
Le 16/04/2021 à 12h 36
De toutes façons il ne regardent pas l’URL ou ne savent pas déceler les problèmes. Les alertes de sécurité actuelles sont déjà bonnes. Et le but est de masquer l’URL, pas de supprimer le champ, simplement d’arrêter de nous pourrir l’affichage avec des choses inutiles dans 99% des cas.
C’est quasi fait sur tablette, dès qu’on scrolle on ne voit plus les barres d’onglet ou l’URL.
En fait, je ferais presque un process par navigateur, et j’utiliserais la barre des tâches de l’OS plutôt que de mettre des onglets dans l’appli, avec un regroupement par nom de domaine et l’icône du site.
Le fonctionnement actuel par onglet est une torture en entreprise quand on veut passer d’une appli SAAS à l’autre.
Et il faut enfin passer le cap des dev internet pour que la technique s’efface. On a l’impression que c’est resté à l’état de brouillon le dev web. Les utilisateurs n’arrivent pas à capitaliser l’expérience car en plus de nécessiter plus de manipulation à cause du web, ils doivent ingurgiter l’utilisation du navigateur… C’est trop pour eux, ils ont l’impression qu’on leur demande de devenir “informaticien”.
Du coup, ils adorent les PWA.
Le 16/04/2021 à 12h 13
Vue les URL qu’on nous pond dans énormément de sites, ça ne sert à rien. Et c’est technique, ça ne devrait être là que pour référence quand on en a besoin et s’automasquer au moins.
Je parle du point de vue utilisateur bien sûr. Quelqu’un de technique comprend comment naviguer avec l’URL, pour 80% des gens, ça contribue à l’impression de complexité de l’informatique.
Le 16/04/2021 à 09h 35
La barre d’adresse, c’est SOOOO 90’s. En fait, on s’en moque de la barre d’adresse, un bouton nouvel onglet avec recherche ou adresse c’est bien, mais à part pour le dev, la barre d’adresse peut être masquée en permanence.
Je teste les onglets à gauche de EDGE, après quelques heures d’énervement, je dois dire que je suis totalement pour: revenir avec moins de place en hauteur est carrément difficile (je lis beaucoup de doc et d’articles).
Pour revenir à proton, ça change un peu, mais sur des écran FHD ou HD (1366x768), on ne gagne pas grand chose en place est c’est une grande partie du problème des navigateurs et applis SAAS: la perte énorme de place entre la barre des tâches de l’ordi et la barre d’onglet et d’adresse du navigateur.
Rendez-nous nos écrans!
CNED : des sources confirmeraient des cyberattaques venues de l’étranger
13/04/2021
Le 15/04/2021 à 07h 36
Les IP changent tout le temps, c’est bien par plage qu’on bloque.
Les gens utilisent leur téléphone mobile.
Le 14/04/2021 à 13h 20
C’est clair: si j’ai franchement une grande estime pour la plate-forme du CNED, comme tu le dis elle n’est pas forcément dimensionnée pour un tel afflux.
Sauf si on fait confiance aux profs et aux élèves pour laisser un peu de place :)
Le 13/04/2021 à 13h 43
Et d’où tu le sais?
Ryzen 5000G(E): AMD annonce ses APU Zen 3 (Cezanne) pour PC de bureau, réservés aux OEM
14/04/2021
Le 14/04/2021 à 14h 25
Le 4650G semble dispo depuis un moment chez Grosbill.
Pour la partie graphique, j’aimerais qu’ils la montent un peu quand même: les perfs sont quasi les mêmes du 2400G au 4700G - à part le bus mémoire qui améliore un peu, mais rien de transcendant: gagner 10%, c’est 4FPS sur 40… et on ne gagne pas souvent 10%!
Par contre, les perfs graphiques entre G et GE sont quasiment les mêmes (j’ai un 3400GE et un 3400G - c’est tout pareil). La partie CPU du GE est un peu en retrait, mais pas énorme sur des travaux courts (moins de 30min).
Par contre, en CPU+GPU, le GE a une nette dégradation CPU (il tient à peine la fréquence “nominale” - le 3400G tient parfaitement la sienne)
Grace : NVIDIA lance son premier CPU pour serveur, des SoC Mediatek avec GeForce RTX
12/04/2021
Le 14/04/2021 à 14h 18
My bad, j’ai lu l’article en 2 fois, et je ne sais pas pourquoi j’ai mélangé les 2 sujets de l’article: effectivement le CPU pour serveurs n’a rien à voir avec mediatek.
Le 13/04/2021 à 05h 59
C’est un aveu d’échec de ne pas prendre des Tegra?
Ubuntu 21.04 (Hirsute Hippo) passe à Wayland, mais ne fait pas de vagues
09/04/2021
Le 09/04/2021 à 11h 49
Ce titre
Non
Oui
Mais les deux points font partie de l’image de marque, la signature ubuntu, ubuntu qui rassemble et accorde tout le monde: c’est déroutant, ça donne pas envie :)
Trolldi…
Surtout, j’attends les retours sur un déploiement massif de wayland. Je ne suis pas sûr du rapport bénéfice/risque (maintenant qu’on est tous des pros là dedans), car de nombreux logiciels pointaient l’absence de fonctionnalités de ce compositeur (dont OBS il me semble, et différents softs de capture et de prise de contrôle à distance).
Wayland m’a toujours paru adapté aux tablettes/téléphones, mais pour du pro, j’attends de voir.
Je vais remettre DirectFB tiens :)
Edit: - remarque - j’étais très circonspect sur l’activation par défaut du backend opengl/dri dans les compositeur (vers la 11.04/12.04 je crois), je pensais que ça allait être terrible pour mon i945 de l’époque et ma batterie. Je me rappelle qu’il n’en n’a rien été - sauf que j’ai lâché ubuntu à l’époque car pour des raisons ACPI mon PC plantait au hasard sous Linux à partir de 12.04, et personne n’a résolu le problème ou ne m’a aidé à le résoudre)
Zen 3 : AMD détaille une faille du Predictive Store Forwarding (PSF)
06/04/2021
Le 09/04/2021 à 07h 34
Ca n’a pas tenu très longtemps… Et qu’on ne se méprenne pas: je suis pro-RISC! En fait, j’ai rêvé dès le début d’avoir un acorn Archimedes (je faisais de l’assembleur x86, et c’était déprimant comme la moindre instruction coûtait plus d’un - voir plus de 20 cycles).
Mais les ARM ont vite déçu, les PPC aussi…
Disons que le câblage va favoriser une certaine suite d’instructions, l’étage de réorganisation est censé produire ces suites le plus possible. Si on multiplie ces suites précablées, on se rapproche d’un VLIW.
Je parlais surtout sur la façon de programmer - isoler des boucles dont on sait qu’elles ont une certaine durée. Et c’est une réflexion qui date de fin des années 90 en fait, en regardant le bytecode java et le fait qu’on s’énerve à le coller sur des machines à registres. Google a réglé le problème je crois en faisant un bytecode à registres.
Le 09/04/2021 à 07h 02
C’est clair que le x86 a un décodage ultra compliqué. Ca paraît complètement idiot de nos jours, et les nouvelles instructions ne sont pas franchement plus simples.
Mais le out of order est apparu dans le grand public aussi avec les RISC, et il était nécessaire pour les perfs (PowerPC à l’époque). Sauf que qu’il fallait pour optimiser le prévoir dans les compilos, car ce n’est pas le CPU qui s’en chargeait. Et les compilos n’étaient pas prêt.
Quand à la “pureté” du RISC: c’est bien parce que l’idée ne résout pas tout et de loin que les ARM/PowerPC n’arrivent sur le devant de la scène que maintenant: depuis le début des années 90, la révolution RISC n’a pas réussi réellement à faire des machines aussi performantes que les CISC, sauf Apple M1… Qui embarque plus de transistors que les x86.
D’après ce que j’ai lu, il a une ISA RISC, mais il ressemble plus à une espèce de VLIW en interne (mais on ne peut que spéculer).
Quelques articles d’il y a quelques années comparaient des RISC à décodage multiple à du VLIW car en réorganisant “de force” les instructions, on pouvait exécuter des “cascades d’instructions” avec moins de cycle qu’il n’y a d’instructions, bloc par bloc.
En gros ce que faisait transmeta en 2000 (les CPU compatibles x86 à 1W contre 20 pour la consurrence - mais à 2⁄3 des perfs)
C’est un autre façon de penser, plus proche du Cell de la PS3 en fait. Grosses tâches à alimenter. Un peut comme un GPU, mais au lieu de registres, des déplacement sur une ligne plus ou moins grande.
Ca peut coller avec du bytecode Java, puisqu’il déclare d’avance les espaces nécessaires pour une fonction.
Mais mon passé fortran parle :)
Le 08/04/2021 à 13h 19
Attention, les ISA ne sont qu’une façade pour les micro instructions derrières. Entre les renommages de registre, le out of order et le prédictif, c’est un peu une soupe derrière ce qu’on voit en assembleur. Et ça date du PPC, en RISC.
Par ailleurs, moi je vois plutôt une ISA différente, avec au lieu de registre des lignes de cache de plusieurs dizaines d’octets. Là on peut se lâcher sur le calcul matriciel.
Si mais pas forcément tout seul. Sur certains compilos fortran, on indiquait simplement quelles variables étaient variables dans la boucle et lesquelles étaient potentiellement différentes, le compilo parallélisait les for tout seul ensuite (SGI, 64 CPU, an 2000 :) )
+1, il est essentiel de connaître la différence en decimal et réel, leur limitations (et que en réels, 10000000+10000000* 0,00000001 n’est pas égal à 100000000+10000000 de fois l’addition de 0,00000001)
Le 06/04/2021 à 22h 07
Ce n’est pas limité aux x86, spectre a touché ARM aussi il me semble. Par ailleurs il semble bien que l’Apple M1 se paye une bonne tranche de prédiction/réordonnancement, il ressemble plus à un Crusoé en tard qu’à un ARM. Wild guess: une bonne part est destinée à mapper ce qui sort de rosetta sur un max de coeurs.
Le monocoeur n’est pas mort, car il est compliqué d’alimenter les coeurs en données au delà de 8. Après,on a des coeurs périphériques mal exploités et des coeurs centraux isolés. La plupart des algos sont difficilement parallélisables. Une archi comme les Arm avec des coeurs type graphique intégrés qui ont accès au cache est plus intéressant qu’un CPU à tout faire.
Et je n’irai pas cracher sur le x86, vu ce qu’AMD en sort dernièrement, c’est impressionnant. Quand aux ARM, ils ajoutent instructions et unités tout comme le x86 l’a fait (même si la base est plus saine au vu des opportunités technologiques actuelles)
Pour rappel, en x86 on pouvait faire du calcul décimal sur des nombres décimaux codés binaires et des comparaisons de chaînes une poignée d’instruction. A l’époque, c’était de bons arguments. Maintenant,c’est juste totalement inutile.
Le 06/04/2021 à 11h 42
Du coup, il y a un bench sur phoronix, avec et sans PSF. On perd 0,5% de perfs sans…
A quoi il sert ce PSF? Ca fait beaucoup de transistor inutiles :) ? Ou c’est juste les compilos qui ne sont pas prêts?
Leclerc propose des locations de Dacia Spring (100 % électrique) dès 5 euros par jour
07/04/2021
Le 07/04/2021 à 13h 33
En plus, d’après les essais, en ville ça ne se sent pas, l’accélération est tout à fait semblable à une autre voiture, c’est au-delà de 70⁄80 que ça commence à devenir moins convaincant.
Mais ça préserve la batterie :)
Le 07/04/2021 à 08h 35
Pourquoi? La Dacia Spring est du gabarit “grosse twingo” il me semble, non?
Comment débrider facilement le Core i7-11700 et son TDP de 65 watts
06/04/2021
Le 07/04/2021 à 08h 48
Si la question est de comparer la conso électrique au TDP: oui, les portables en 15 et 28W se prennent des claques à 50-80W de conso instantanée (https://www.anandtech.com/show/16084/intel-tiger-lake-review-deep-dive-core-11th-gen/7)
On le voit aussi sur les NUC (https://www.notebookcheck.net/Intel-NUC-Kit-NUC8i7BEH-i7-8559U-Mini-PC-Review.360356.0.html)
Mais finalement, du moment que l’ordi a été calibré pour le dissiper, ce n’est pas un problème. Mais parfois, le TDP est un peu trop flou et même un bon design 15W ne suffit plus à encaisser correctement les montées en charge violentes ou durables (sauf pour https://www.notebookcheck.net/That-awkward-moment-when-a-Core-i5-1135G7-can-outperform-the-more-expensive-Core-i7-1165G7.512848.0.html)
Expérience 3615 perso: j’ai eu une tablette samsung en I5 2567m. Quand je décompressais un gros fichier zip qui durait plusieurs minutes, je voyais la différence de vitesse de la barre de progression entre le début (boost à 2,6Ghz) puis une période de rafraichissement (sous le GHz)…
Faux mail avec près de 500 euros de pizzas commandés : Deliveroo plante son 1er avril
02/04/2021
Le 06/04/2021 à 06h 50
Je suis d’accord avec @blob741: les blagues ne peuvent qu’être interdites si en quelques années elle génèrent autant de tension collective.
Des voisins qui ont un jour échangé les panneaux des villes ont eu des remontrances de la mairie, mais personne n’en garde un mauvais souvenir (même pas mes invités qui venaient pour la première fois à la maison ce jour là sans GPS)
On a l’impression que les gens ont aboli leur sens critique et leur capacité à imaginer que si la blague ne leur parle pas, elle peut plaire à plein d’autres gens…
Pornhub bientôt remplacé par une page du CSA ?
02/04/2021
Le 03/04/2021 à 14h 59
Tu peux aussi modifier ton fichier host pour résoudre l’adresse IP sans DNS.
Mais si l’adresse IP change, tu dois la retrouver.
Passthrough GPU sur GeForce : qu’est-ce que c’est, comment en profiter ?
31/03/2021
Le 01/04/2021 à 08h 29
Le PCIe passthrough fonctionne sur portables, mais ce sont les mêmes restrictions que sur un PC fixe: chipset qui le supporte, CPU qui le supporte, et BIOS qui te donne accès aux bonnes options.
Le 31/03/2021 à 13h 25
La limitation était dans le pilote NVidia, donc un passthrough pour un invité Linux ne devait pas présenter de problème si on utilisait le pilote open source, non?
Par ailleurs, je ne sais pas si la procédure marche dans tous les cas, car d’habitude je dois indiquer au système de ne pas charger les pilotes des cartes que je mets en passthrough (notamment les cartes Wifi/réseau). Là comme la carte principale est celle intégrée au CPU, ubuntu ne charge pas les pilotes NVidia, c’est cela?
Si tu as un PC en intel et en dual channel, la CG intégrée au CPU sera certainement proche voire meilleure que ces cartes NVidia (à partir de la HD 520⁄530, Intel fait généralement mieux que la Geforce - avant c’est très variable). Et le passthrough marche très bien.