votre avatar Abonné

Wosgien

est avec nous depuis le 18 mars 2003 ❤️

3763 commentaires

Le 24/11/2020 à 09h 28


SomeDudeOnTheInternet a dit:


Ça en a. L’overlocking diminue la durée de vie des composants, et l’undervolting pour les CPU, s’il est mal fait peut grandement accélérer ça. C’est pour ça que la garantie est automatiquement invalidée.


Ca oui, d’accord, mais quand je touche simplement à l’adressage des rang, l’interleave et les paramètres de mapping du cache, ça n’a pas à impacter ma garantie.

Le 24/11/2020 à 08h 41


Arona a dit:


Anandtech, ajoute que, comme l’utilisation de n’importe quelle fonctionnalité liée à PBO 2, cela mènera à une invalidation de la garantie, même s’il ne s’agit que d’undervolting.


J’ai ça partout dans mon BIOS: chaque fois qu’on va dans un menu un peu évolué, il y a un message qui indique que cela fait sauter la garantie… Overclock mémoire, CPU, changement du TDP peut-être, mais changement TDP à la baisse, modification du mappage cache, de l’interleave, du mode d’adressage des rangs ça n’a pas d’importance particulière sur la longévité du produit…

Le 24/11/2020 à 09h 25


golgoth17 a dit:


C’est lent, lourd et totalement anti-ergonomique : on zoome et on doit se déplacer dans une grande image avec une appli proprio mal foutue et peu stable.


Souvent c’est basé sur un navigateur -> j’ai fait un navigateur qui rend en 4000x4000, clique pour passer les pages et vire les bandes blanches, et j’ai téléchargé des captures grand format de toutes les pages. Du coup, on imprime au besoin. C’est pour quand c’est trop lourdingue de zoomer partout.



Tu peux aussi naviguer en mode “test” du navigateur, tu crées un périphérique qui affiche en 4000x4000: le zoom du navigateur est infiniment plus pratique.

Le 23/11/2020 à 18h 49


yl a dit:


Le double de stockage change tout, ainsi que les droits admin. Quand tu as une machine qui en a la moitié et qui à la première connexion charge ses MAJ et un tas d’applicatifs pas forcément utilisables et non désinstallables (zéro droits)…


Sûr, j’ai déjà dû mettre à jour un Windows 10 sur 32Go … Les commandes COMPACT /COMPACTOS et DISM /ONLINE /CLEANUP-IMAGE /Startcomponentcleanup /resetbase sont utiles



Mais utiliser des ordis avec 64Go et moins sous Windows est un sport.




Si on ajoute que des laptops ont commencé à fumer dès la 1ère recharge, ce n’est plus seulement un pb de machin inutilisable mais de risque incendie.


Pareil ici, des batteries gonflées au point que les claviers sont bombés et que l’écran en souffre - et les élèves accusés de ne pas prendre soin du matériel même quand ce n’est pas leur faute…

Le 23/11/2020 à 16h 03


CryoGen a dit:


Je répondais à un message sur les écoles. A la maison, qui n’a pas d’illimité ?


Bien plus de gens qu’on ne pense en fait. Constaté par ma femme (prof de maths) pendant le 1er confinement: beaucoup de parents seuls n’ont que leur téléphone portable, sans internet. Compte sur une classe de 6ème un bon 10% d’effectifs qui n’ont soit pas internet dispo pour tout le monde à la maison, soit pas d’ordi (milieu rural, et encore pas rural profond/montagne!)




Franchement pas si complexe ou impossible.


Mais cher, très cher pour un établissement scolaire.




Ensuite il faut voir de quoi on besoin les élèves comme contenu. La mise en cache n’est pas si impossible que ca, même en HTTPS (mais il y a des prérequis oui).


Je suis curieux, tu as quoi comme solution cache HTTPS sans décrypter/réencrypter? (question vraiment sans aucune agressivité, j’aimerais savoir ce qui se fait - je ne suis plus admin, ça nuisait à mes relations avec mes collègues :) )




C’est un peu pareil à l’école, la connexion/déconnexion des appareils n’est pas spécialement lourde pour un réseau.


Le problème à l’école, c’est quand plusieurs profs veulent faire un cours avec des ressources en ligne: compte environ 25Mo par ordi pour le démarrage, l’établissement de la connexion, la synchro onedrive, … x34 élèves pour une classe, x5 classes pour être gentil. Ca fait 4Go à télécharger, soit à 10Mo/s (fibre 100Mbit/s) soit environ 400s. Oui, mais cela se produit tout en même temps sur un intervale de 5 minutes, soit 300s, on est juste.



Il suffit d’avoir d’autres consommations comme l’administration qui télécharge les mails, les profs qui se connectent pour faire l’appel… Tout rame pendant ces 5 minutes totalement incompressible, endébut de quasi chaque heure.




car comme d’habitude, cela a été décidé par une bande de nulles.


Ou par une bande d’informaticiens dans leur bulle ultra privilégié qui ne savent pas évaluer le déploiement sur des infrastructures réelles. Ce que je rencontre trop souvent.
Il suffirait d’héberger les ressources numériques sur place (il faut en début d’année plus d’une semaine de cours pour télécharger les manuels scolaire en hors ligne au lycée - tout simplement parce que la ligne est saturée et qu’à chaque timeout il faut recommencer depuis 0)



Les tablettes en collège semblaient bien faites, avec une valise qui fait pont wifi et proxy pour les APK, sauf que par manque de formation j’imagine, les profs utilisent des apk depuis internet (oui, on forme les profs à extraire les apk des applis qu’ils aiement bien…)

Le 23/11/2020 à 12h 32


tpeg5stan a dit:


Windows est-il installé de force dessus ? De façon générale, quels logiciels sont inclus ? Est-ce possible d’accéder au BIOS et de changer de système d’exploitation. ?


Windows est installé, c’est à peu près tout à part quelques outils pour l’accès aux livres numériques. Accès au BIOS et accès admin sur windows sans restriction. L’étudiant est responsable de l’ordi. Si l’étudiant finit son lycée, l’ordi est à lui.

Le 23/11/2020 à 11h 54


tpeg5stan a dit:


Quelle horreur ! C’est que pour la région Île-de-France, j’imagine que d’autres régions ont mis en place des politiques similaires ?


Grand-Est aussi: Celeron N4000, 4Go de RAM, SSD 128Go. Sérieusement, ils font largement le taf. Ils fonctionnent très bien et ont une autonomie qui couvre la journée très limitée des lycéens.




Nerg34 a dit:


Mais sérieux… Ce combat d’arrière garde….
On est en 2020, le fixe n’est pas limité en France. Les forfaits mobiles sont rapidement illimité ou avec une enveloppe conséquente.
En milieux rural, il y a de vrais problèmes. D’autres part, certains parents n’ont que leur téléphone portable, pas de fixe, et pas internet sur le portable.
Si quand on a des collégiens/lycéens il est moins fréquent de ne pas avoir d’internet, quand on a que des primaires, c’est beaucoup plus souvent le cas.
Quand aux réseaux 3G/4G: ils ne suffisent pas en campagne pour surfer sur certains sites.
Enfin, le forfait 2€ de free c’est 50Mo ou 100Mo par mois: de quoi travailler 2/3j…



CryoGen a dit:


il suffit de déléguer ces tâches à des sociétés tierces. Gérer un accès Internet de manière centralisée c’est largement faisable de nos jours.


1- on parle surtout des connxeions à la maison
2-quels prestataires sont capables de gérer des réseaux Wifi qui tiendront la connexion simultanée de 600 équipements toutes les heures, sur un intervalle de 5min, le tout passant par une fibre à 100Mb/s?



Parce que c’est le problème dans les collèges/lycées: si en entreprise on voit souvent les phénomènes de ralentissement de 8hà9h et 17h-18h quand les gens arrivent et partent, dans un établissement scolaire c’est toutes les heures sur une période de 5min. Une fibre à 100Mb/s pour 600 personnes, c’est 160kb/s. Toutes les sites plantent, paretent en timeout…
Centraliser? Avec un proxy? c’était le bon temps, avant le HTTPS, maintenant on ne peut plus mettre en cache.



Et combien de bornes wifi pour couvrir une salle de classe? Une ne suffit souvent pas: si un borne peut gérer 256 clients en même temps, elle ne gère pas que 30 clients veuille du débit en même temps… Qui plus est si on permet aux élèves d’avoir le Wifi de l’établissement sur le portable et leur ordi: 2 clients par élève…



Et les établissements scolaires n’ont pas le budget d’un aéroport.



N’importe quel administrateur réseau sérieux verra immédiatement que l’équation est difficile à tenir pour avoir un service utilisable.

Le 23/11/2020 à 08h 36


alain_p a dit:


Comment votre opérateur sait que vous allez sur tel et tel site, surtout si vous êtes en https, et que vous utilisez DoH ?


Ils connaissent l’adresse IP destination, mais elle peut être partagée avec plein d’autres services, et le nom du service est inconnu.



Il me semble que le nom de domaine passe en clair lors de la négociation TLS/SSL selon le protocole.



Avec DNS over https, plus grand-chose ne passe à part l’IP destination.

Le 22/11/2020 à 21h 11


regis1 a dit:


Du coup tu parles d’outils en dehors des dépôts des distributions, faut pas s’étonner si effectivement ils font des trucs a l’arrache.


Disons que je ne donne pas une confiance aveugle à l’opensource. Tout comme sous Windows je n’utilise que très peu d’installers, j’utilise plutôt des logiciels distribués en zip.



Et surtout, je tiens à souligner que les fuites les plus grosses font rarement partie du système, plutôt des logiciels tiers.



Ce type de situation n’est pas nouveau, à l’époque de XP les firewall tiers ne pouvaient pas fonctionner avant que certaines parties du système - dont le réseau - avaient démarré,



Faire confiance à un package VPN qu’on installe sur le système nécessite aussi de savoir comment le système fonctionne, ainsi que le VPN - pour savoir ce qu’il protège. Dans la logique actuelle des SNAP et autres conteneurs, il devient difficile d’être assez bas dans le système pour faire un VPN ou un firewall sans services du noyau.

Le 21/11/2020 à 18h 43


Jeanprofite a dit:


Qu’il faille avoir plus de crainte de tout ce que tu décris que de Windows se comprends, mais il faut voir que cela est souvent inutile sous Linux.


Je distingue bien le noyau Linux des outils qu’on peut y mettre. Le noyau a tout un processus de revue qui fait que le code est lu normalement par plus d’un personne.



Les grandes distro font une revue des principaux logiciels, pas de toute leur bibliothèque.



Ce n’est absolument pas le cas d’autres projets. Et je passe les outils bancals, les scripts mal fichus glânés sur le net qui sont parfois utilisés directement en prod sans vérification, se retrouvent dans des procédures d’install de logiciels opensource (perso: kettle) et qui se lancent en root ET modifient des droits ou créent des utilisateurs quasi root juste pour eux…



Opensource est différent de digne de confiance.



Hidden backdoors are here to stay
Celle-ci était plus que suspecte
Celle-ci encore pire et avait plusieurs années

Le 21/11/2020 à 13h 50


Jeanprofite a dit:


Faux ! Linux n’envoie pas des informations de «télémétrie» par défaut sans que l’utilisateur puisse s’y opposer.


Enfin y a pas grand chose dans ces données comparé à ce qu’il y a dans nos recherches google, notre utilisation de facebook et autres.
La télémétrie remonte surtout la config, les infos sur les applis qui plantent, les alertes signalées de l’antivirus.
Se mettre en connexion limitée empêche la télémétrie de remonter d’ailleurs.



Et de toutes façon, j’active la télémétrie sur linux, dès fois que quelqu’un analyse réellement l’utilisation des packages. Mais je n’y crois même pas.



Et si je peux comprendre qu’on face confiance à Linux (le noyau), je ne comprends pas que l’on fasse plus confiance à un PC avec une distro Linux (donc des milliers de potentielles mauvaises volonté…) qu’à un PC sous Windows /MacOS (une seule politique + les quelques logiciels installés).



Je crains plus les “CCleaner”, les antivirus gratuits, les aggrégateurs de réseau sociaux que Windows lui-même.

Le 20/11/2020 à 13h 35


(quote:1838321:Marc S.)
Je serais bien passé à Linux pour éviter le siphonage de mes données (malgré les extensions), mais ce système est trop compliqué pour moi.


Les OS ne font pas de siphonage des données. En tout cas, aucun rapport si on compare à ce que peuvent faire les fournisseurs de mails, les sites liés à de la pub, et les sites qui exploitent les cookies. Sans parler de ce qu’on laisse de nous sur les forums, facebook, twitter, …



Linux ne sers à rien pour se protéger du “siphonage de données”, c’est les pratiques qu’on a qui font la majorité du boulot.

Le 20/11/2020 à 13h 32


Mihashi a dit:


Qu’est-ce qui te dis qu’elle ne fuite pas des choses sur Internet directement elle aussi ?  


L’implémentation d’un VPN est relativement simple: une carté réseau/un filtre réseau dédié, et une config de l’OS pour que certains flux réseaux passent par le VPN.
Si certains flux réseaux de l’OS ne passent par ce VPN parce que le système est “en dessous” de la couche laissée aux VPN, cela laisse la porte à d’autres services. Donc si tu utilises ces services précisément, tu ne passes pas par le VPN.



Si tu fais une machine dédiée au VPN avec ton implémentation VPN en laquelle tu crois, et que tu n’utilises rien d’autre sur cette machine dédié, aucun problème ne se pose.



Apple n’est pas nouveau dans le “je fais le réseau comme ça me chante” - Apple en entreprise, c’est une plaie. Ils font ce qu’ils veulent, sans se soucier des proxy notamment ou des protocoles standards.

Le 20/11/2020 à 10h 35


deathscythe0666 a dit:



Et donc l’employé qui télétravaille sur un mac, il fait quoi concrètement ?


Quand on télétravaille, le VPN est généralement ciblé:




  • La navigation internet générale ne passe pas par le VPN

  • Les mises à jour Windows / MacOS ne passent pas par le VPN

  • Les appels visio ne passent pas par le VPN

  • Les accès aux serveurs de l’entreprise passent par le VPN



Donc il fait comme tout le monde et comme avant. Ca n’est pas compromis, la situation n’a pas changé dans ce cas (et c’est la même quelque soit l’OS y compris Linux)

Le 20/11/2020 à 10h 32


Mihashi a dit:


Et sur ta machine dédiée au VPN, tu n’es pas aussi obligé de faire confiance à tout ça ?


Oui, mais mon activité est sur d’autres machines dans ce cas et dans ce cas je suis sûr que la confidentialité des échanges : la sécurité/confidentialité du VPN n’est pas remise en cause, simplement l’activité qu’on a sur un machine qui exécute un VPN peut passer hors VPN.

Le 20/11/2020 à 05h 43

Faire confiance à un OS et un logiciel VPN pour un VPN., c’est idiot. Si quelqu’un veut un VPN, il doit avoir une machine dédiée au VPN.
Sinon, il faut:




  • Faire confiance au logiciel VPN pour ne faire que du VPN

  • Faire confiance à l’OS pour permettre totalement le VPN

  • Faire confiance à ce qu’on met sur l’OS pour ne pas compromettre le VPN (exemple: machines virtuelles avec d’autres adaptateurs réseau virtuels)



Là, ce n’est pas un bug, on peut s’attendre à ce que l’espace utilisateur ne puisse pas modifier le comportement du système complet: un utilisateur peu monter son VPN et un autre utilisateur de la machine monter le sien (en même temps).

Le 20/11/2020 à 17h 28


seboquoi a dit:


Je vais peut-être avoir besoin d’un mini PC bientôt pour un usage bureautique sérieux. Je me demande si cette machine peut faire l’affaire. J’avais eu une expérience assez moyenne avec les premiers modèles de NUC pour ce même usage.


Ayant un NUC I5 5xxx à la maison, ils font déjà bien l’affaire. Si tu as un doute et que tu cherches la compacité, pars sur un Lenovo Tiny/Prodesk 600 mini d’occasion. Perso j’ai un lenovo tiny en Ryzen 5, je l’ai eu (coup de bol) à 350€ et j’ai pu ajouter un garantie lenovo dessus (60€/an). Ca carbure sec pour la bureautique et le dev.



D’expérience des portables du boulot, les Ryzen 3 4300U se débrouillent très bien.

Le 19/11/2020 à 15h 58


Tristos a dit:


D’un point de vue entreprise, c’est la version 8.1 que je retiendrais : stable, très rapide, moderne.


Côté utilisateur, peut-être. Mais c’était une plaie de personaliser les tuiles par GPO je trouvais.



Côté serveur (Windows 2012) les tuiles sont une grosse, grosse plaie… et là où je suis maintenant, pas de powershell à distance, il faut se connecter sur chaque serveur.



Un truc drôle qui m’est arrivé avec 8: j’avais alors une tablette PC samsung (un beau core i5). Mais le SSD était trop juste. J’ai éteint la tablette, j’ai enlevé le capot, changé le SSD, mis un clé USB pour réinstaller et allumé la tablette … Windows était en fait en veille! J’ai pu lancer la calculatrice et le notepad (que j’avais lancé avant d”‘éteindre”) avant que Windows ne crashe parce que le disque était vide … ce qui m’a montré à quel point Windows 8 était moins “disque dépendant” que Windows 7.

Le 18/11/2020 à 21h 35


Pour moi ce qui a tue windows phone c’est cet errement. On est parti d’un OS avec un personalite tres forte et tres bien optimise a un truc qui devenait de plus en plus plat (comme sur windows 8). Les tuiles etaient une bonne idee qui n’a jamais ete pousse jusqu’au bout. y a qu a voir ce qu’elles sont devenues sur win10.


Ms, malgré l’impression qu’ils donnaient de pouvoir sortir une plate-forme unifiée, n’a jamais réussi à le faire. En plus, à sortir tous les types de dev possibles mais aucun réellement finit, on ne savait pas quelle cible prendre: javascript+html? Xamarin? Windows universel?



Moi je suis arrivé sur Windows Phone 8.1 et 10 (Nokia 735 - une tuerie et Nokia 1030 - toujours vaillant, 3j de batterie mais bon, y a aucune app dessus maintenant).



Hyper simple, hyper efficace, à 1000 lieues de ce qu’est mon Android qui se fige régulièrement 1s ou 2 quand je passe d’une appli à l’autre et mange de la batterie même si on ne s’en sert pas.



La suppression des services nokia a été un problème aussi, notamment nokia musique, l’unique (j’insiste, l’unique) service de musique qui à partir de mes MP3 m’a réellement fait découvrir des morceaux que j’allais aimer, et ne m’a pas proposé toutes les daubes commerciales qu’on entend de toutes façons à la radio (un des 1er trucs qu’il m’a fait découvrir c’est le morceau “Goldorak est mort” alors que je n’avais pas mis encore d’album des Fatals Picards)



Je suis vraiment hyper fan des tuiles, c’était super personnalisable et utile - tellement plus qu’une icône avec des tags numériques: on pouvait voir un aperçu du derniers mails sur la tuile si on voulait! Pas besoin d’ouvrir l’appli pour checker, pas besoin de glisser pour voir une notif. Bien foutu, efficace.

Le 18/11/2020 à 18h 36


Semt3x a dit:


En tout cas dans le monde de l’entreprise ça a quand même été bien mieux accepté et plus simple à gérer que le passage XP -> Seven.


C’est surtout le passage x86 ->x64 qui a été difficile en entreprise.



Globalement le noyau Vista était bien, mais l’interface… Il y avait trop de choses en test (comme les bibliothèques basées sur une recherche).
Et les perfs étaient quand même en retrait (j’utilisais déjà l’indexation de fichier depuis Windows 2000, et Vista indexait mieux, ça coûtait)



Sans compter les joies des pilotes grphiques de cartes intégrées avec Windows Aero: Vista gardait des ressources graphiques en mémoire: chez lui, dans le pilote, et le pilote les répliquait en mémoire partagée… Triple conso, patché uniquement depuis Windows 7.



Quand à l’UAC, je n’ai pas compris le problème: j’étais bien content de l’avoir - il ne m’a jamais plus que l’équivalent sous Linux en fait, sauf sur des softs mal fichus mais ce n’est pas la faute de Vista.



Enfin, Vista était plus agréable si on utilisait la veille prolongée (en tout cas dans mon cas, c’est bien plus rapide à démarrer que depuis 0) et Readyboost (le truc où on branche une clé USB pour faire cache, on trouve que ça n’a aucun effet jusqu’à ce qu’on la retire pour voir et qu’on pleure comme ça rame).

Le 18/11/2020 à 14h 50

Le ticket d’entrée à 800€ paraît presque intéressant, sauf que 8Go de RAM partagée, actuellement je pense que c’est un peu limité (notamment pour jouer un peu ou faire du montage en full HD).



Et 300€ de plus pour les 16Go + un SSD avec un minimum de place, ça fait réfléchier quand même… Même en qualité Apple et considérant qu’il faut être quand même fan de l’OS qui est un peu consommateur de pixels je trouve.

Le 18/11/2020 à 07h 35


Tarpan a dit:


Me vient une question : est-il techniquement possible (contraintes de l’architecture) de proposer des machines bi-processeur M1 (comme les antiques bi-G4) ?


C’est possible, sauf que avec la RAM sur le CPU, la RAM n’est pas partagée. Un poil compliqué d’avoir non pas 16Go mais bien 2x8 séparés…



Donc en l’état, ce serait ridicule.

Le 17/11/2020 à 08h 22


bilbonsacquet a dit:


Les 8 ou 16 Go de RAM sont en fait dans le SOC (et on n’a pas d’option pour plus de RAM actuellement).
Non, ils sont sur le support du CPU


Mais à priori non, pas de cache L3 (ou alors ils l’ont mis en dessous)



Ces benchs, ça fait froid dans le dos, c’est un peu “pure perf”. Après, à voir quels modèles sont testés et quels modèles sont présents à quel prix: on voit peut-être les benchs d’un modèle qui se trouvera à 2000€ mini.

Le 17/11/2020 à 07h 55

Impressionant. Apple ne lance pas des trucs à moitié finis et maîtrise son sujet. La guéguerre Intel vs AMD semble fade maintenant, y compris les récentes victoires de Zen3 - en prenant le point de vue de l’utilisateur lambda qui n’a que faire de 1216 threads.



Il y aurait des benchs sur la partie graphique, elle semblerait très très nettement au-dessus d’une GTX 1050 Ti.
Vu les milliards de transistors, j’ai l’impression que ce SOC contient de la mémoire à l’intérieur (512Mo, 1Go peut-être) genre méga cache L3 (un peu comme la RAM rapide de la gamecube, les cartes graphiques hyper memory, le I7 5775C dont des benchs avaient refait surface ces dernières semaines), car je ne vois pas comment avec de la DDR4L standard on peut concurrencer en FPS une GTX1050 (je me trompe peut-être, mais ça me paraît trop énorme).

Le 18/11/2020 à 07h 41

Je note que la mémoire est de la LPDDR4, pas de la GDDR5 par exemple. J’imagine que c’est moins cher? Apple et Intel montrent qu’on peut avoir des perfs plus qu’honorables en vidéo avec de la mémoire moins couteuse en ce moment.

Le 16/11/2020 à 10h 22


David_L a dit:


“When it’s done” (à peu près :D)


Je préfèrerais “when it’s ready”. “when it’s done”, ça ressemble au lancement de la 4.

Le 16/11/2020 à 10h 19


David_L a dit:


Mais bon les deux puces ne sont pas tout à fait comparables, dans leur conception et leur objectif.


Ca reste un autre point de référence. Apple se compare au X86, avec Intel HD, ou on compare à du Ryzen 5800X et + donc je trouvais que la comparaison restait intéressante.

Le 16/11/2020 à 10h 06


seboquoi a dit:


Je ne suis pas expert et je débarque peut-être mais plutôt que ces benchs, la question n’est-elle pas de savoir comment va se comporter ce processeur quand il va devoir gérer des applis pas prévues pour ?


Oui, mais on peut s’attendre à un résultat convaincant. Effectivement, un test sur un gros tableau Excel peut être intéressant à voir.
Mais le mac ayant encore un gros public dans la création, ces benchs création sont très pertinents.



Ce M1 semble rattraper le “retard” (très relatif) des A12X sur les NVidia Xavier (qui sont encore plus bourrins pour l’apprentissage, mais ont une partie CPU qui laminait les Intel basse conso de l’époque sur plein de benchs “création” et compression) (j’ai mis l’époque, mais c’était à peine un hier à peine lointain)

Le 15/11/2020 à 10h 29


OlivierJ a dit:


D’après la photo, la RAM est à côté du CPU, mais sur 2 puces séparées.


Sauf erreur de ma part, c’est une illustration du M1, pas du A12Z qui semble être un A12 “classique” un peu boosté.




David_L a dit:


Pour la mémoire embarquée, je ne sais pas trop comment ça a été fait dans le DTK 2020, mais sur le fond, ça change quoi ? C’est d’ailleurs ce qui coûte à Apple des possibilités d’évolution (8 ou 16 Go seulement).


D’où je pense qu’il y a un gain - peut-être ont-ils simplifié/optimisé le contrôleur mémoire. en tout cas les projections de Anandtech montrent une latence digne des Intel. Et actuellement ce qui freine les perfs, c’est la mémoire - d’où les 12Mo de cache du M1 pour les coeurs rapide, plus que chez Intel.



D’ailleurs l’énorme capacité de réorganisation des instructions me fait penser que finalement, cette architecture RISC se rapproche de ce qu’on attendrait d’un VLIW. (Transmetta renaît? :-) )
Des articles (bien vieux - j’étais à l’école donc je dirais 1998-2000) imaginaient qu’un CPU remanier un flux d’instructions “random” en morceaux de flux bien connus ultra optimisés au niveau du pipeline de traitement.

Le 13/11/2020 à 16h 16

Je trouve l’affirmation “disposant de plus de coeurs physiques” un peu trompeuse: il y a bien 4 coeurs rapides et 4 coeurs lents …



N’empêche, là c’est “juste” un A12Z, la RAM n’est pas sur le CPU sur ce kit, si?

Le 16/11/2020 à 09h 57


(quote:1837309:skankhunt42 )
faut voir aussi pendant combien de temps les soft seront maintenant pour du x86.
Vu les pratiques de Apple qui aime vers dans la douceur, si le M1 ne perce pas, ils vont nous sortir un Rosetta3 qui traduit le ARM en x86 et forcer tout le monde à compiler en ARM seulement “parce que c’est mieux”


Le 16/11/2020 à 07h 10


OlivierJ a dit:


Au niveau de chaque CPU, en multicoeur c’est presque pareil. La différence majeure c’est pour si 2 CPU accèdent au même emplacement mémoire, car ils ont des caches (L1 et L2 sont locaux à chaque coeur) ; il y a donc des mécanismes de cohérence de cache.


La différence majeure dans les context-switch, c’est surtout protection mémoire ou non. Si on change de context, on est censé changer le mapping mémoire (TLB sur les PC). Ca peut coûter aussi. Quand je parlais de multitâche “monocoeur”, je voulais surtout parler des anciens OS monocoeur/monoutilisateur (quelqu’un parlait de l’Amiga).




Actuellement on en sauvegarde plus, sauf qu’on est dans les GHz au lieu des MHz, ce qui fait que le temps de changement de contexte reste négligeable.


1µs x 400000, c’est 4% d’occupation en monocoeur. Certains crient au scandale dans ce cas.



Mais concernant la sécurité, autre source: “With all of the mitigations on earlier CPUs, the context switch time went from commonly around 150 clocks upwards to 600~800”



Le temps de context switch était complètement négligeable il y a 3 ans sur la plupart des PC…




Bon sang les gars… L’informatique ça n’est pas né en 2000 (oui je suis né au 20e siècle à l’époque où il n’existait même pas les micro-ordinateurs, et j’ai fait de l’assembleur 8 bits et j’ai vu tous les progrès informatiques depuis plusieurs décennies).
C’est ce que je dis tout le temps: rien d’inventer quasiment depuis les années 70.


Mais une évolution nette dans les habitudes et les paradigmes: d’OS où les applis étaient ouvertes entre elles (mémoire partagée, ODBC, DDE, ActiveX pour la sphère Ms), on arrive à des conteneurs où rien ne peut communiquer autrement que par des protocoles ultra lourds.



Les moyens et les contraintes ont changés.

Le 15/11/2020 à 10h 21


fred42 a dit:


Quelle drôle d’idée de masquer les Interruptions tout le temps qu’un changement de contexte !


Les interruptions risquent très fort de faire un changement de contexte dans un OS multitâche protégé: si on est dans un process utilisateur, il va falloir repartir sur un niveau driver/noyau –> changement de contexte pour quelqu’un.




Heureusement que l’on n’a pas attendu des processeurs multicœurs pour ne pas perdre d’IT et traiter à temps les E/S, qu’on a eu des systèmes temps réels …
Mais bon, on savait concevoir un système en fonction de ce qu’il devait traiter, on utilisait des DMA pour que les E/S fonctionnent en chargeant le moins possible les processeurs, on minimisait le temps de masquage des IT au minimum afin de pouvoir prendre en compte une autre IT de priorité plus élevée


… Ce que l’on fait toujours. Mais l’ancien temps ou l’embarqué ne se soucie pas de la sécurité ,encore moins du multicoeurs.
C’est sûr que sur un monocoeur, passer d’un tâche à l’autre se résume presque à changer le pointeur d’instruction puisque rien d’autre ne peut altérer le système si on ne s’en occupe pas.
Avec le multicoeurs … c’est un poil différent.



Mais les DMA existe toujours, les interruptions masquable/non masquables subsistent, le partage mémoire entre processus, …
La différence c’est qu’on a des POC sur le piratage de données via la mémoire des cartes graphiques, donc sur un ordi même quand on passe d’un processus à l’autre, on doit assurer que la mémoire graphique est protégée (ou … vidée, bonjour le temps de context switch)



Pour info, quelqu’un m’a expliqué que début 2000, dans les caméra embarquées pour de la reconnaissance de forme, les processeurs utilisés étaient parfois des équivalents 386DX… Donc on a déjà su faire du traitement vidéo sur 386 aussi.




touitboy a dit:


Ben si C’EST le jour et la nuit. Le M1 permettrait de dépasser les perfs du MEILLEUR processeur pour portables intel avec une consommation inférieure à leurs modèles anémiques pour ultraportables.


Presque OK pour les perfs (le meilleur dépend de ce qu’on souhaite faire), pour la conso, j’attends.




Sur les 20 dernières années l’informatique grand public je ne crois pas me rappeller d’un seul progrès de performances (à plateforme identique) aussi significatif.


D’accord. Surtout qu’il place ces performances qui semblent amplement suffisantes pour la plupart du public (hors joueurs) à un niveau de prix “normal”.




OlivierJ a dit:


Mais ça ne change rien en pratique, le changement de contexte était déjà “invisible” pour l’utilisateur sur un Amiga avec un 68000 à 7 MHz ; et j’ai oublié combien ça prend sur un ordinateur de maintenant, mais même à l’époque ça prenait bien moins qu’une milliseconde.


Comme dit au-dessus: on n’a pas du tout les mêmes contraintes, surtout en monocoeur puisque à part une interruption mal gérée, on n’a besoin de se protéger de rien. On sauvegarde les registres et on passe le pointeur.
Sur un PC, on sauvegarde tous les registres de toutes les unités du coeur (CPU, FPU/MMX, AVX j’imagine), et on doit basculer les tables de mappage mémoire. On vide aussi les différent buffer d’instruction en attente, on donne le signal d’abandonner je pense aux ALU… Je n’ai pas relu, je cite de mémoire et de ce que j’imagine, car avec les différentes failles, on en a ajouté.

Le 13/11/2020 à 09h 09


(quote:1836974:Master Of Bandwidth)
Tout cela me fait penser à la bataille RISC vs CISC des années 90. Les processeurs RISC écrasaient les CISC sur certaines tâches, mais c’est la polyvalence du CISC qui leur a permis de s’imposer sur de nombreux segments.


C’est aussi le parc installé et la capacité de créer des clones de machines et la maîtrise du PC, là où le RISC avait tendance à révolutionner un peu trop souvent les conceptions - bref, l’inertie du marché et des fabricants.



Par ailleurs, CISC vs RISC c’est un peu has been: en interne les CISC et les RISC traitent les instructions un peu de la même manière, les CISC doivent juste les “casser” en instructions plus simples. Ensuite, qu’est-ce que RISC? C’est juste la partie “+, -, * , /, if then else”, à côté tous les CPU ont des unités supplémentaires pour améliorer tel ou tel traitement…



Enfin, dans les années 90, la “religion” RISC tendait à dire que tout était dans le compilateur. Au final, on voit bien que les CPU “RISC” actuels ont les mêmes concepts que les CISC pour “palier” aux aléas de l’exécution et du compilateur: réorganisation des instructions, renommage des registres…




touitboy a dit:


Je sais que mon avis ne fera pas l’unanimité, mais je pense vraiment que la RAM est un faux problème pour 99% des utilisateurs. Nous avons le réflexe de vouloir rajouter de la RAM parce que nous sommes vieux et qu’à l’époque la ram était un goulet d’étranglement.


8Go est le minimum sur ordi (en ce moment). Après, c’est du confort. Sauf sur Android que je ne comprend pas: comment on peut manquer de RAM sur un téléphone avec 4Go de RAM, et des applis immensément moins évoluées que sur Windows ou Linux???



Par contre, vu l’énorme quantité de RAM à disposition actuellement, les développeurs ne travaillent plus à faire des programmes qui marchent avec de la RAM inférieure à la taille des données. Dans les années 90, un travail de photo scannée de 180Mo se faisait sur 8Mo de RAM - sans trop de problèmes. Sous Win95, Excel.exe pouvait peser 8Mo et pourtant se charger sur 4Mo sans swapper.



Toutefois avec des ordis limités à 8Go de RAM (partagée avec le GPU en plus), Apple prend un risque sur le futur. A quand l’annonce d’Apple d’arrêter le support Javascript/CSS pour une techno à eux parce que ça consomme trop?




Idem pour les processeurs, toutes les applications ne sont pas extrêmement performantes en multithreading et l’importance des performances en single core sont complètement sous-estimées


Complètement d’accord. En grand public, les gens ne font en gros qu’une tâche à la fois: il vaut mieux leur rendre vite le résultat que leur permettre d’en lancer plusieurs en parallèle.
Par contre un intérêt d’avoir plein de coeurs sous Windows: l’analyse par l’antivirus a moins d’impact sur les perfs.




Je travaille sur des machines de puissance et configurations (stockage, RAM) différentes avec des logiciels pro assez lourds


Le truc qui surprend les stagiaires c’est quand je leur dis que le serveur de prod sera moins performant que leur machine (niveau CPU, RAM). En environnement virtualisé, on a beaucoup de serveur avec 1, 2, 4 coeurs maxi, 4-6Mo de RAM. 8 coeurs c’est spécifique. Et ça tourne bien. D’ailleurs, mettre plus de coeurs peut souvent être contre productif.




Je pense que certains ici sous-estiment le changement de paradigme dont on parle. Multiplier les perfs par trois en un seul bond, à prix égal voir inférieur on n’a pas vu ça depuis plus de 15 ans.


Là je reste dubitatif sur leurs benchs. Je pense que leur CPU/GPU fait jeu à peu près égal avec de bons CPU Intel/AMD - mais pas plus pour les applis dépendantes du CPU. Ils comparent visiblement les résultats de leur GPU à l’ancien GPU Intel, et beaucoup de leurs benchs sont dépendants du GPU.



LA question, c’est quand même le multitâche: 4 coeurs rapides bourins et 4 coeurs lents (moins du tiers/du 4 des perfs visiblement) - que se passe-t-il pendant un calcul lourd?

Le 12/11/2020 à 18h 08

Anandtech a une article sur le M1: https://www.anandtech.com/show/16226/apple-silicon-m1-a14-deep-dive
C’est un peu le bourinage de AMD mais version ARM; 12Mo de cache pour les 4 coeurs hautes perf, et un out of order sur plus de 600 instructions.
Quelque part, le out of order large me rappelle … les transmeta début 2000 dans leur réorganisation “VLIW”.
L’interface mémoire est un énorme point fort (logique, sinon à quoi bon) et les résultat en bench placent du coup le A14 entre Intel (10900K) et AMD (Zen3), surtout lorsque la mémoire est sollicitée.



Ca en fait un excellent processeur consumer à priori, car on ne sait pas trop si les perfs peuvent se dégrader sur de longs traitements.



Ca montre la capacité, avec un haut niveau d’intégration, à avoir de meilleures perfs, au prix de l’évolutivité de la plate-forme.

Le 12/11/2020 à 15h 07


jpaul a dit:


Les labos d’analyse qui ont des sites de merde vont bien devoir faire redévelopper leurs sites quand plus personne ne pourra y accéder… etc.
Tu y va fort: les sites ne sont pas totalement daubés, ils marchent avec quasiment tout le reste sauf IE.
Safari, c’est à peine 15% de parts de marché. Pas une priorité malheureusement. Apple n’a qu’à accepter le moteur de chrome sur iOS et c’est réglé



Et petit aparté sur le stockage mais si t’es ric rac avec 128Go sur un iPad sans solution de secours, c’est que t’as clairement un problème de stratégie de sauvegarde de tes données perso (ou que t’as des dizaines de Go de données inutiles à virer).


Je n’ai plus d’Apple, je ne connais pas les solutions de secours envisageables quand on n’a qu’un iPhone, pas d’ordi, pas d’ADSL/fibre, juste le téléphone et l’iPad pour tout faire. Mais je veux bien savoir, on m’a posé la question et hormis un ordi, je ne vois pas comment faire mettre en sécurité les photos/vidéos de presque 10ans d’utilisation d’iPhone.




OlivierJ a dit:


Je n’en ai pas l’expérience, c’est compliqué d’imprimer depuis une tablette ? (je ne vois pas la raison) Et pour les sites des labos d’analyse, quel est le souci ?


Pour l’impression, c’est variable: hors PDF jpeg, c’est un peu la jungle.Comme ta tablette ne sait pas toujours ouvrir le document, tu dois envoyer (souvent c’est dans ton dos) à un serveur chez HP (par exemple) qui interprète le document et l’envoie à ton imprimante (les imprimantes HP ont une adresse email pour cela).
Tu t’en aperçois quand un directeur veut imprimer depuis sa tablette et que bizarrement seulement certains documents passent, les autres non et tu les retrouves dans le proxy…



Pour les sites de labos et d’exercies des collèges, c’est par expérience: j’ai quelqu’un dans mon entourage qui n’a que iPhone et iPad, et il fait certaines choses chez moi depuis mon PC car ça ne marche pas sur ses appareils (notamment la connexion)



Bon, j’arrête, on est loin du M1…



Mais bon, c’était il y a 4 ans, ça a du bouger.

Le 12/11/2020 à 13h 41


jpaul a dit:



De toutes façons je pense que le véritable destin de l’industrie c’est la disparition du PC de “maison” : un iPad fait déjà largement le job pour n’importe quel particulier sans usages pros


Tu peux le répéter en face de parents d’élèves au collège/lycée pour voir :)
Ou à ceux qui souhaitent imprimer des documents quand ils veulent?
Ou à ceux qui veulent accéder à des sites comme les labos d’analyse pour avoir leurs résultats?
Sans parler de ceux qui se sont acheté des iPhone/iPad et ont plus de 128Go de photos et ne peuvent les consulter que connectés au cloud et doivent payer un abo… (ça c’est pour le rapport qualité/prix dans le coût total de possession…)



J’aime beaucoup le matos Apple, il a la classe, il est solide. Mais il ne faut consommer que Apple pour ne jamais avoir de problèmes. Sinon, on a les mêmes qu’Android ou presque.

Le 12/11/2020 à 05h 25


barlav a dit:


clouflare est passé sous des serveurs arm parce que leurs besoins sont particuliers: ils ont besoin de beaucoup de BP en IO et de peu de calcul. Et à ce boulot ils disent que même gratuits les CPU intel vont défoncer le budget avec leur conso pour ce travail spécifique de cache local.


C’était résumé dans l’article que tu avais mis par “That may not be true for every data center, but ARM is a good fit for Cloudflare’s workload.”



J’écrivais effectivement sur le cas général d’un serveur un peu “à tout faire”.



Bref, bien sûr qu’il y a des marchés sur lesquels il vaut mieux du bon ARM qu’un Intel. Sinon on aurait de l’Intel partout. Dans les réseaux et parfois le stockage, Intel est overkill… (démonte un SAN Lenovo, et surprise! Ca tourne avec un i5 des familles - mais une CM complètement custom, bon comme à l’époque où j’ai fait ça on stockait sur disque dur, la conso du CPU elle passe complètement inaperçu face à la conso globale de la baie)



Et tu aurais aussi pu parler du supercalculateur fujitsu sur ARM - mais à priori il consomme pas moins que les Intel.

Le 11/11/2020 à 20h 33


cyp a dit:


Pour autant le gain aurait été le même en faisant évoluer la gamme avec les nouveaux modèles Intel et ça reste très loin des GPU haut de gamme


Oui, c’est bien mon point de vue.

Le 11/11/2020 à 17h 58


touitboy a dit:


en GPU ils annoncent des performances non pas x3 mais x5 :fumer: Moi j’attends de voir la qualité de la virtualisation sur les taches GPU malgré tout.


Ils annoncent x5 en bench GPU pur et x3 en perfs applicative, mais la plupart de leurs benchs applicatif sont basés sur le GPU.



Pour le natif, il y aura certainement du très bon et du moins très bon. Les x64 ont de très bonnes capacités en desktop et grosse dissipation, les ARM viennent du mobile et ont un bon rapport perf/énergie dans la basse conso. Mais quand on augmente les perfs, la conso monte en flèche: les serveurs ARM ont rarement un meilleur rendement net que les serveurs x64, y compris à 64 coeurs vs 20, sur des benchs applicatifs…



Maintenant, une autre question se pose: qui a besoin d’autant de perfs que peut fournir un Ryzen 57? Hors jeu ultra balèze, les CPU de 2016 tiennent encore largement le coup pour le quidam.
Le produit d’Apple me semble très bien placé niveau performances/perfs/“agréabilité” (= échauffement, bruit, autonomie). Et ils ont travaillé les perfs sur leurs produits “fer de lance” (montage/photoshop like). Bref, avec leur maîtrise de bout en bout, ils peuvent placer un produit qui répond au besoin, face à des PC qui surrépondent à des besoins particuliers…

Le 11/11/2020 à 17h 06


KP2 a dit:


Ca aide quand meme… Mais CanardPC a fait des tests sur le Kit de migration Apple basé sur une puce A12 et certains softs tournaient mieux en émulation qu’en natif.


J’ai pas trouvé sur internet pour confirmer le mieux qu’en natif (hormis quand ça utilise le GPU - qui semble être très bon face à un intel intégré). Par contre, une remarque m’a surprise de la part de CanardPC: “rosetta 2 ne semble avoir accès qu’à 4 CPU sur les 8” -> c’est normal en big.LITTLE: un processus tourne soit sur les 4 coeurs rapides, soit sur les 4 coeurs lents, mais pas sur les 2. En théorie, on peut voir des processus sur les 4 coeurs lent en même temps que d’autres sur les 4 coeurs rapides, mais d’après quelques lectures, des implémentations se font en basculant complètement de rapide à lent et de lent à rapide - j’imagine que c’est plus simple à gérer.



J’aime bien aussi ls comparaisons avec les modèle en i5 “Y” en 5/7W…



Mais une remarque me semble très importante: la comparaison à prix égal - clairement Apple va placer ses M1 à un rapport perf/prix bien meilleur que les Intel.

Le 11/11/2020 à 15h 59


Minarey a dit:


Détail intéressant, sur le site d’Apple, il est précisé que les comparaisons de performances sont par rapport aux MacBook Air i7, MacBook Pro 2 ports i7 et Mac mini i3. le tout à 16G de RAM et 2To de SSD.


Oui, j’attends de voir, car beaucoup de tests cités sont dépendants du GPU et beaucoup de la com s’appuie sur métal et le GPU.
Donc s’ils comparent leur GPU à un HD620, c’est déjà très bien de faire X3, mais c’est aussi ce qu’intel propose en GPU sur les nouveaux DG1 (enfin, X2 et plus d’après les tests).
De plus, avec une mémoire totalement unifiée, c’est peut-être plus facile à atteindre.
Attention, je ne nie pas les perfs certainement hors du commun pour une plateforme ARM, mais c’est au prix de ne plus pouvoir augmenter la RAM je pense et d’une fermeture de l’ordi au niveau de la fermeture d’un iPhone.

Le 11/11/2020 à 13h 02


xillibit a dit:


Pourquoi le TDP de la puce M1 intégrait la RAM ?
On le voit sur la illustration: le chip du CPU, et 2 chips de RAM sur le support.
C’est d’ailleurs assez logique qu’ils arrivent à tirer les meilleures perfs en associant tout: j’imagine qu’ils ont simplifié le contrôleur mémoire pour avoir un réel


Les 16M de transistors me font penser à un super cache (genre l’eDRAM de certains Core I5/I7, cf l’article de Anandtech il n’y a pas longtemps sur les perfs du i7 5775C vs des processeurs récents - on voit que 128Mo de eDRAM permettent à un CPU de 2016 de rester au niveau d’un CPU de 2020 dans beaucoup de cas.
C’est d’ailleurs ce qui explique en partie les perfs des Ryzen: un sacré cache, maintenant unifié.




(quote:1836604:33A20158-2813-4F0D-9D4A-FD05E2C42E48)
Mais pourquoi diable un Linux ne fonctionnerait-il pas sur un ARM Apple ?
Contrairement au PC, il n’y a aucune base de compatibilité avec un ARM dans les domaines de la séquence de démarrage, les linux sont donc différents par carte mère. De plus, il n’y a pas de “règle” concernant la liste/l’accès aux périphériques d’un SOC (il peut y avoir par exemple des adresses mémoires réservées en fixe. Chaque SOC a son noyau…
-> l’ARM est une bête noire pour l’open source en fait.



Meewan a dit:


Sachant que Linux tourne sur ps4 contre la volonté de Sony, je suis a peu près certain que quelqu’un finira par faire un support de Linux pour ce SOC.


C’est une base PC quand même, c’est bien plus “simple”.




tazvld a dit:


Techniquement, un SoC peut intégrer la RAM, ça serait possible, ce qui expliquerait peut-être les 16 milliard de transistor.
16 milliards n’est pas assez pour de la RAM: il faut compter je crois 6 transistors par bit soit pour 1Go 48G transistors.


Le 13/11/2020 à 09h 12


xillibit a dit:


Apple annonce des performances 5x supérieures sur la partie graphique du M1 mais d’après anandtech c’est en compute mais pas en FPS, ils mettent en avant juste des beaux chiffres …


Pareil. Par contre les perfs mémoire, elles cartonnent!

Le 12/11/2020 à 14h 56

J’allais dire “à quoi bon?”, mais la partie sur les maths m’a convaincu qu’il y a quelque chose à creuser - je cherche un moyen plus propre de saisir les cours de maths de ma femme en numérique et de faire rapidement des exos. Libreoffice est pas mal, mais on se bat souvent avec le placement des formules de maths.

Le 10/11/2020 à 07h 01


RatonLaveur54 a dit:


Alterte : Tu as utilisé 4 fois le mot “taxe” dans ton post. :stress: Pas bien M’en vais te laver la bouche avec du savon, comme les Dalton. :sm:


J’4i 4rr4ch3 c3s qu41r3s 1ouch3s



Mais tu as raison, mon vrai crédo, c’est pas les taxes sur le commerce - je n’y crois pas, c’est de transformer les allocs pour qu’on n’en touche plus au-delà de 2 enfants.
Mais je reste très concerné par le fait que les gens aient tant de crainte de ne pas pouvoir changer leur smartphone, d’avoir un TV plus petite que le autres pendant 5 ans, ou de ne pas voir la dernière série Netflix que de manger correctement et équilibré.

Le 09/11/2020 à 17h 43


J a dit:


Si je comprends bien, j’ai intérêt à apprendre à tricoter fissa fissa.


Et tu devrais aussi élever tes propres moutons!




KaraMan a dit:


Le principe de base se défend, à la fois pour éviter l’hégémonie de certaines structures, mais aussi pour des raisons écologiques


Oui, mais quelle galère à faire appliquer! Et bonjour le “marché noir” de la distribution!



Je crois surtout qu’il serait intéressant de monter les taxes sur tout ce qui est non vital et baisser sur tout le reste. Voir un taxe sur produit fabriqué à l’étranger. Dont les abonnements à Netflix et autres.



Histoire de rééquilibrer le budget “loisir” et le budget “nourriture”



Et un taxe sur produit sur transformé, comme en Norvège (le prix paquet de prince en Norvège te fait apprendre à aimer les fruits)



Et j’oubliais le principe: je mets une taxe après en avoir enlevé au moins 2 ailleurs (ou fusionnées)

Le 09/11/2020 à 17h 36


spidermoon a dit:


Je n’ai jamais compris le black friday sur Amazon, il y a les ventes flash, les prix conseillés barrés, les promos.


Et comme partout ailleurs, plein de ces soi-disant promos n’en sont pas du tout (je ne dis pas toutes, mais beaucoup).



Par contre, toutes ces interdictions mènent à une chose: une ruée en partie sur les magasins quand les rayons seront rouverts. Même si on sera sorti de la zone rouge, on sera encore dans une épidémie.



Je ne comprends pas comment ces décisions ont pû être prises: les petits commerçant comme les grandes enseignes faisaient respecter la distanciation, le nombre de clients présents simultanément, non?

Le 09/11/2020 à 14h 50


Norde a dit:


Le Black Friday c’est mal, mais apparemment les soldes c’est ok (encore un coup de la vilaine immigration !).


Les soldes sont historiques et sont destinés à permettre aux commerçants à vider leurs stocks, en donnant plus de latitude sur les promos, mais tout de même dans un cadre.



Mais avec les promos continues, le flux tendu, les plate-formes internet qui on un roulement de stock très court, les soldes n’ont plus beaucoup d’intérêt sauf pour les boutiques physiques - on y trouve de vraies promos à -75% alors que sur internet, les “grandes” promos ne se démarquent pas des promos au fil de l’eau (quand pendant les french days ou les soldes on annonce des promos, souvent les produits ont déjà été affichés au prix promo quelques mois avant).



En France, le black friday n’a pas de logique - ce n’est pas un moment où on a du mal à vendre et ça ne répond pas à un besoin.

Le 06/11/2020 à 10h 55


ForceRouge a dit:



What?? Le 3700x est meilleur dans tous les cas par rapport à un 3600.



5600X et 3700X, c’est le même TDP hein, 65W. Donc ils sont tous les deux à même d’être monté sur du mini-ITX.


Euh, oui, effectivement, je retire ce que j’ai écrit: j’ai confondu le 2700X et le 3700X. Je crois même n’avoir jamais lu en fait les tests du 3700X. Surtout que je cherche surtout en TDP <70W. Belle bête aussi.