votre avatar Abonné

Wosgien

est avec nous depuis le 18 mars 2003 ❤️

3766 commentaires

Le 30/04/2021 à 12h 15


(quote:1870777:j34n-r0x0r)
Un ou deux doigts au fond de la gorge suffisent effectivement. :D


C’est le côté digital. Mais d’habitude, le marketing digital, c’est pour passer par un autre trou…

Le 30/04/2021 à 09h 16

Lille, Paris… Ca ne fait pas rêver ça…

Le 29/04/2021 à 09h 53

Sympa. Ca a l’air du sérieux. Mais j’ai un peu de mal avec les tablettes convertibles Dell qui m’ont par le passé montré des faiblesses dans le temps (les venue 11 pro notamment).




yl a dit:


Dell qui vante une machine écolo, avec un truc tout dans l’écran (architecture tablette) probablement impossible à réparer/upgrader…


Avantage chez Dell: dès que le modèle est un peu haut de gamme/pro, la doc est dispo le jour de sortie:
https://www.dell.com/support/kbdoc/fr-fr/000182078/latitude-7320-replace-removal-guide-for-customer-remplaçable-units-cru-template
Au moins, il y a le minimum vital: le SSD, la carte cellulaire. Dommage pour la RAM.

Le 28/04/2021 à 11h 52


Freud a dit:


Merci pour l’article sur le fond, mais sur la forme… Vous aviez besoin de traduire absolument tout en Français ?


Tout n’a pas été traduit: il reste App Store, Apple, malware, Motherboard :)



D’ailleurs, le terme payload est tellement nul en anglais que même s’il sonne mal, le terme français est bien meilleur. bug/bogue est nul dans les deux langues.



Bon, on voit que Apple a le vent en poupe: ils passent de nouveau à la casserole sur les pb de sécurité…

Le 27/04/2021 à 14h 34


David_L a dit:


Un HDD fera toujours du bruit, si tu ne l’entends pas “gratter” c’est que tu es en séquentiel en général.


Je reconnais que le bruit des toshibas est particulier: je trouve le grattement est beaucoup plus sec que les concurrents pour ceux que j’ai.
Mais d’expérience, ce n’est pas lié à un problème de fiabilité ou autre.

Le 23/04/2021 à 17h 18


marba a dit:


Le bon plan du siècle, ça serait une carte graphique disponible :D


Justement, elles le sont…

Le 23/04/2021 à 16h 50

Pour info, PNY a une boutique sur ebay et y a mis des cartes graphiques reconditionnés (garanties 6 mois je crois)
Boutique ebay PNY



Il y a de la GT1030 à 55€, GTX1050 à 100€, RTX2060/2070/2080…

Le 23/04/2021 à 08h 22


(quote:1869342:christophe.agostini)
Question bête: est-il prévu de supporter des partitions de type ext4 au sein de Windows?


Avec un logiciel comme celui-ci? (il en existe plusieurs)
github.com GitHub

Le 22/04/2021 à 19h 03


SartMatt a dit:


Super pratique quand tu dois faire du scripting avec des applications métier en ligne de commande qui n’existent que sous Windows, mais que tu préfères largement bash comme langage de script (parce que les batch Windows, ça reste assez limité, et PowerShell, c’est une logique très particulière, qui nécessite un certain temps d’adaptation).


C’est pas un peu overkill pour lancer bash :) ?



Par contre, ça fait un petit moment que je teste certaines de mes applis .Net Core sous Linux, et c’est bien pratique d’être sous Windows qui est la cible principale et de lancer en toute transparence la version Linux.

Le 22/04/2021 à 18h 53

L’archi de ouf! Donc quand la distro Linux fait un appel graphique, ça passe sur la VM intermédiaire qui fait du RDP … Ca fait pas mal de context switches! Vu le coût actuel du CS, ça fait mal. Ca ne serait pas cela l’occupation CPU?

Le 22/04/2021 à 16h 06


arvi89 a dit:


Et pourquoi se limiter au test monocore, quelle application n’utilise qu’un seul cœur aujourd’hui ? Ce qui compte c’est à l’utilisation, le multitasking.


Il est aussi très bon en multitasking. Et avec les applis web, le mono coeur est à la fête dans l’énorme majorité des cas!

Le 22/04/2021 à 15h 33


Patch a dit:


Si tu as besoin d’un bon CPU et que la carte graphique sert juste à l’affichage, j’ai du mal à voir l’intérêt d’y foutre une RTX3090 o/c…


Je rappelle que tu disais pouvoir monter un PC meilleur qu’un iMac. Là les deux n’ont plus du tout la même utilisation/cible.



Et mon point était la dispose des pièces. Enfin , j’imagine mal quelqu’un se résoudre à monter une gt710 sur un 5800x en l’achetant 50€ juste pour l’affichage. Au pire prendre n’importe quelle carte dans une poubelle pour attendre la larme à l’oeil que les prix baissent et que des cartes réapparaissent à 100-150€ (ce segment ressemblant à un désert depuis 2-3 ans, avec juste les âmes de quelques modèles sortis en 2016-2017)

Le 22/04/2021 à 08h 32


Patch a dit:


Une GT710 se trouve encore encore sans pb à 50€. Après en effet elle ne dépassera pas le 2k.


Donc tu conseillerais à la place d’un iMAC M1: Ryzen 5800X et GT710 (nettement moins performante que les intel intégrés)



Je ne te demanderais pas de me monter un config :)



Je ne dis pas que le M1 enterre les PC. Je dis juste qu’il est suffisant et nettement au-dessus de la plupart des PC utilisés, et qu’à ce niveau de performance et d’intégration, je ne connais pas de PC équivalent.



Et je crois que les bench et test applicatifs du M1 (et l’affaire des SSD qui sont écrits plus souvent que d’habitude) montrent que Apple sait faire une architecture capable de travailler même avec 8Go de RAM.



Par contre, le iMAC en Workstation lourde, ça n’a jamais été une bonne idée (ratio performances/prix raz des pâquerettes du très haut de gamme, confort perdu)

Le 21/04/2021 à 19h 05


Patch a dit:


A peu près n’importe quoi qui permet un affichage à 50€ sera bon, pas besoin d’y foutre 300€.


On m’a fait remarquer que dernièrement, à 50€ il était difficile de trouver quelque chose d’utilisable à cause des pénuries.



En plus, pour être réaliste il faudrait mettre une carte entre une 1030 et une GTX 1050, soit entre 100 et 250€ (4k oblige)

Le 21/04/2021 à 13h 09


darkjack a dit:


Effectivement. Mais je me suis mal expliqué. Le type A dont parlait le post, pour une clef usb, c’est le facteur de forme commun comme sur les clefs usb1, usb2 et usb3. Sur les nouveaux mac M1, il n’y a que de l’USB4 type C.


Je te rejoins: j’ai des prises USB-C sur deux ordis, je ne sais toujours pas quoi en faire (enfin si: j’ai un cable branché pour charger les téléphones mobiles :) )

Le 21/04/2021 à 12h 40


cyp a dit:


Un 5800X c’est 2 à 3 fois plus rapide qu’un M1 dans les cas favorables a ce dernier (genre Cinebench ou Geekbench grandement mis en avant pour sa promotions) et l’écart peux s’accentuer grandement en partie car l’écosystème n’est pas encore prêt (malgré le boulot excellent effectué par Apple).


Plus qu’à mettre le 5800X dans 1cm d’épaisseur. Tu compares des produits différents de toutes façons.




Le M1 est un bon CPU mobile mais sur une machine comme l’iMac souvent utilisé comme station de travail une déclinaison plus péchu serait un minimun.


Le iMac M1 (1600€) arrive en CPU à 60% des perfs du i9 9900K (4-5000€ soit une dépense totalement inconsidérée). Et en single core il le bat. C’est pas déconnant. Le M1 a peu ou prou 90% des perfs de 80% des ventes de imac (au doigt mouillé).



Pour le moment, le M1 fait le job, plutôt très bien, et il permet à Apple de faire un ticket d’entrée relativement abordable.



Les futures déclinaisons arriveront quand le M1 sera implanté: plus de coeurs, plus de RAM, meilleure CG (et certainement une petite économie de transistors sur les premiers étages ce qui réduira les perfs de l’émulation x86/x64)




cyp a dit:


Un 5800X avec sa carte mère en stock pour 600€ https://www.materiel.net/bons-plans/o17822/#a_aid=aff1550 et je n’ai pas chérché longtemps. Avec 600€ ça laisse de quoi y ajouter quelque dizaine de Go de ram et 1 ou 2To de SSD et une carte graphique convenable.


Finit l’addition s’il te plaît: le ventirad à 50€, 50€ boitier, 50€ alim, 80€ de RAM, 70€ de SSD. Je te fais grâce de la licence. Tu es à 900€. Il te reste 300€ pour la CG, bon courage pour en trouver une à ce prix en ce moment.
Et ton ordi ne ressemble pas du tout à un imac discret, que tu peux mettre en batterie dans des openspace sans faire de bruit et sans prendre de place.
Ce n’est pas, je le répète, le même type d’ordi (celui qui prenait un imac pour une station de travail n’a pas dû utiliser de station de travail comme les HP Z1 - de vrais bijoux, quelque part entre le PC et le serveur RAID intégré, contrôles avancés des perfs, …)

Le 21/04/2021 à 09h 42


cyp a dit:


mais il ne se compare qu’au CPU/GPU basse consommation (et encore faut pas trop trop regarder du coté des derniers produit Intel/AMD) face a un cpu desktop actuelle c’est un peut ridicule.


C’est quoi un CPU desktop actuel? A prix “équivalent”, en PC, machine + écran: tu comptes au moins 400€ pour un écran approchant. Il te reste 1200€ pour la tour. Tu tombes sur du i5 10400, soit dans cinebench l’équivalent du M1 (sauf en SC, le i5 perd).



Et si on cherche sur de la machine tout en un à la iMac, là, je ne vois aucun équivalent PC en fait.
Perso j’ai des machines 35W (qu’on trouve dans les tout en un), ni l’Intel ni l’AMD ne se rapprochent des benchs du M1. Si les AMD 5000 sont meilleurs, on ne les trouve pas -> on ne peut pas les compter en concurrence.



Pour le moment, Apple doit établir une transition et si leur CPU est dispo, ceux de la concurrence pas forcément. Le timing est bon. Voire très bon. Et toute la gamme y passe, c’est cohérent, le message est clair.

Le 21/04/2021 à 09h 21


David_L a dit:


Bof, c’est bien quand tu acceptes de faire avec les contraintes d’iOS, mais ça ne marche pas pour tous les usages (même si certains y arrivent très bien).


Beaucoup d’utilisateurs aiment avoir de l’Apple, et s’en sortent très bien avec un iPad. Mais ils ont un portable en plus pour la bureautique et l’écran plus grand.
D’autres ont l’ordi pour le montage ou des tâches de publication vidéo un peu plus avancées que ce qu’on peut faire confortablement sur l’ipad.



J’imagine qu’avec l’ipad pro en M1, ça va permettre à des applis plus complètes d’arriver en ultra mobilité.



Perso c’est moyennement mon truc depuis mon ipod touch que je ne peux même plus activer car le serveur est down :(

Le 21/04/2021 à 06h 58

Et du coup, le M1, Apple peut le produire en ce moment (outre la pénurie de composants), c’est cela?
C’est une carte de plus à jouer: la disponibilité des machines.



Sinon, le M1 dans un iPad Pro: excellent idée je trouve. Une vraie concurrence aux ordis portables (enfin, surtout la 12.9” à 1200€ mini quand même)

Le 20/04/2021 à 11h 58


Gilbert_Gosseyn a dit:


Alors, non, avec Zen3, la GEN11 d’Intel a fort à faire (voire est dépassée).


Je n’ai pas encore vu de bench d’une machine en Zen3, Je ne sais même pas où en acheter.



Zen2 accusait encore pas mal de retard en monothread (donc en gros et malgré de que pensent les gens: presque tout ce qui se fait en Web notamment).
https://www.anandtech.com/show/16084/intel-tiger-lake-review-deep-dive-core-11th-gen
–> Zen 3 a un gap à combler pour être le meilleur partout, notamment sur tout ce qui touche aux applis web.



Mais ça n’enlève rien à la superbe de AMD: ce sont d’excellents CPU, mais on ne peut pas non plus cracher sur Intel à boulets rouges: leurs CPU sont excellents aussi - au prix effectivement de “boost” qui semblent de moins en moins sérieux…



Et selon le cas d’utilisation, un CPU peut être avantagé par rapport à l’autre. (il y a quelques années, c’est ce qui m’a fait suggérer un 4C vs un 4C/8T pour gérer 80 bases de données: le ressenti allait être meilleur sur le 4C car c’était surtout plein de petites requêtes limitées par le CPU: un 4C avec plus de GHz était plus utile qu’un 8T - sans compter l’économie en licences :) )

Le 14/04/2021 à 20h 58


(quote:1867578:dvr-x)
Parce qu’il y a besoin d’un i7 pour faire de la bureautique ? :) ;)


C’est clairement pas de la machine type workstation, plutôt bureautique /dev ‘classy’.



Il y a effectivement besoin de 8 à 16 go pour de la bureautique surtout quand tu as des fichiers excel de 80onglets ou 400000lignes avec des recalculés partout et des applis en Saas ouvertes toute la journée…




Citan666 a dit:


Rappelons également qu’Intel égrène les problèmes béants de sécurité depuis des années.


Pour les benchs, l’échauffement et l’impact du boost, je te laisse chercher mes autres commentaires régulier sur le sujet (ayant un vieux i5 4xxx 35w qui bat régulièrement un i5 8xxx 15w si le traitement est suffisamment long)
J’ajoute à ton moulin l’affaire des dell dont le i5 est doivent plus rapide que le i7, la cause au boost et à l’échauffement.



Pour la partie graphique, ce n’est pas dur de trouver des tests du Xe (celui du i7, donc le plus cher) en gpgpu on en jeu: il est au-dessus des Vega 8 actuels/Vega 11 des 20003000. Et les benchs des apu te montreront que AMD stagne sur la partie graphique intégrée. La question étant: vu le surcoût du Intel, le xe n’est pas un argument si on a besoin de graphiques, en AMD on a un chipset dédié pour le même prix.



Pour les failles Intel, Il a fallu plus de 10ans pour trouver ma faille, dont le vecteur principal reste partagé par ARM et AMD (et les PowerPC…), qui ne sont pas à l’abri dans les prochaines années qu’on leur trouve un trou basé sur ce type d’attaque.
Mais regarde aussi les conditions d’exploitation de ces failles:tu t’apercevrais rapidement d’une attaque car ton CPU saturerait à fond pendant in temps très long.




Enfin, “plus puissant pour de la bureautique” j’attends de voir sachant que de plus en plus d’applis “classiques” sont multi-threadées


Oui, mais elles ne saturent généralement pas 8 threads/ou sont moins performantes au delà concernant des tâches bureautiques.
Actuellement mieux vaut monter en fréquence que paralléliser si la tâche est courte.



Concernant le web, JavaScript n’est pas réellement multithreadé, donc les applis sas (de toutes façons limitées par les accès web) n’ont pas besoin de 16 threads.



En dev, le nombre de coeurs pour les VM est important dans certains cas, mais comme on déploie 8fois sur dix sur des serveurs de 1,2 ou 4 coeurs, ce n’est pas grave. La compilation en parallèle sur 8 threads c’est sympa, mais il faut de bons ssd derrière pour écrire…
Perso, je trouve que 4c/8t c’est agréable, mais 4c/4t ne changent pas le ressenti. Bien sûr, 8c c’est bien sympa aussi, mais loin d’être nécessaire ( mon serveur de test a longtemps été un 2c/4t avec plusieurs VM).



Je te rejoins complètement sur la violence du boost intel pour gagner en single thread, au prix de grands coups de consos (mortel sur les batteries 3 cellules), surtout qu’AMD a bien réglé le problèmed’alimenter 8 coeurs en permanence (depuis les ryzen 3xxx, l’autonomie des portable en AMD est prédictible)



Mais surtout, l’argument principal de ces ordis c’est l’écran 3:2. Ms les sort en AMD et Intel, ce qui est un tour de force: deux cartes mères totalement différentes. Donc chacun peut commander ce qu’il préfère.

Le 14/04/2021 à 14h 08


aldwyr a dit:


Donc on oublie une version AMD Ryzen 7 4980U avec 32 Go de RAM et 1To de SSD.



Qui aurait été moins chère et plus performant que la version intel.


https://cpu.userbenchmark.com/Compare/Intel-Core-i7-1165G7-vs-AMD-Ryzen-9-4900U/m1195374vsm1097507



Dans la plupart des cas, le intel est > à l’AMD. Sur tous les cas qui concerneraient de la bureautique ou du travail de bureau.



Et le Xe est > AMD Vega 8 aussi.



Le choix de Ms a du sens pour le public visé

Le 14/04/2021 à 13h 59


Aloryen a dit:


100% trop cher, configuration a peine suffisante pour de la bureautique (sérieux, 8Go de ram ???), une génération de retard sur les proc amd, et mise en avant des intel soi disant plus puissant…


Le i7 est souvent plus puissant que les AMD sur de la bureautique, du dev. On n’est pas sur une station de travail multimédia là.
En single core le i7 est meilleur le plus souvent. En multicoeurs “léger” (4-8 threads) pareil.



Et le Intel Xe est généralement bien meilleur que le Vega 8, en vidéo, en traitement GPU et en jeu.



Bref, tant qu’on ne fait pas du calcul lourd, le i7 sera meilleur.

Le 19/04/2021 à 19h 09


Z_cool a dit:


je dois avouer que j’ai du mal a comprendre l’intérêt d’un windows ARM… le nombre de softs doit se compter sure les doigts d’un manchot unijambiste les soir de pleine lune, non ?
enfin je veux dire si on compare avec les versions compilé natif pour MacOS M1


Je comprends ton point de vue: émuler le x86 pour avoir un logiciel particulier, je comprends.
Mais finalement, les softs ARM sous Windows, ils sont 99,9% des fois dans le store Microsoft, et donc encore 99% des fois dans le store Apple…

Le 19/04/2021 à 19h 00


waxime a dit:


Question, est ce qu’une vieille surface RT qui est techniquement un processeur ARM pourrait être alors mis à jour à un Windows full ?


En tout cas, il existe un projet pour certains anciens téléphone lumia

Le 19/04/2021 à 13h 07


SomeDudeOnTheInternet a dit:


Certes mais c’est surtout leur résistance au temps. Une bande magnétique bien conservée a une durée de vie moyenne extrêmement longue, bien plus qu’un disque dur, ce qui est parfait pour de l’archivage.


Dans l’optique ou tu trouves un lecteur encore fonctionnel… J’ai eu pas mal de bande illisibles faute de trouver le lecteur en ordre de marche/de connexion à un ordinateur (genre même si tu arrives à brancher le lecteur, le pilote MSDOS ne fonctionne plus à cause de la vitesse de la machine :) )



Mais les LTO, c’est que du bonheur (sauf sur VAX/Alpha, difficile de trouver les lecteurs compatibles).



Et les robots de sauvegarde sont super appréciable: gèrent la sauvegarde, la rotation des bandes, l’éjection des dernières sauvegardes… Un petit bout d’admin assez rapide à prendre en main :)

Le 17/04/2021 à 17h 02


Jeanprofite a dit:


Une adresse de banque ça se tape au clavier ou c’est en marque page, mais l’on vérifie l’URL. Décidément Google a fait énormément de mal au Web.


Je ne dis pas de cacher totalement l’URL, mais comme sur les téléphones, de la cacher rapidement pour regagner de la place!

Le 16/04/2021 à 14h 58


Jeanprofite a dit:


À force de niveler par le bas on se rapproche vraiment beaucoup de Idiocratie.


Merci, mais non. Mon propos est que l’outil devrait avoir atteint un niveau où son utilité dépasserait sa complexite de mise en oeuvre.
Hors, actuellement, les solution web font perdre un temps énorme et sont source d’insatisfaction notoire.
Il y a des domaines dans lesquels les solutions web dépassent les anciennes solutions: la messagerie, la carto, le multimédia.
Et pour le reste: les tâches administratives, la bureautique, c’est une plaie.



Pourquoi? Notamment parce qu’on demande à monsieur tout le monde de savoir ce que normalement une personne du guichet fait. Et que pendant que l’utilisateur doit se concentrer sur sa tâche et sur comprendre (sans mode d’emploi) comment fonctionne le site, le navigateur lui offre en plus une myriade de petites infos totalement inutiles dont l’utilisateur doit savoir s’il doit en faire quelque chose ou pas.



Les technos web devraient avancer vers une abstraction du technique ou mourir pour être remplacées par les app (et ça ne me fait pas plaisir, mais au niveau utilisabilité, le web stagne voire régresse, et est une hérésie majeure au niveau de l’utilisation des ressources).



On peut critiquer le minitel, il avait ses défauts (notamment niveau des perfs…) mais il avait aussi ses forces: un facilité d’utilisation remarquable




eglyn a dit:


“Faut-il en déduire que l’on doit simplifier l’orthographe pour la rendre plus accessible ?” –> Clairement oui ! Il y a tant de choses à apprendre bien plus importantes et intéressantes que des règles sans aucune logique.


Mais alors pourquoi rationnaliser l’orthographe (ça aussi je suis pour) et pas le web qui n’est qu’un infâme monceau de technologies toutes plus stupidement écrites les unes que les autres?
Pourquoi HTML (du SGML dont on a supprimé les contraintes) +CSS (une bonne idée au départ, bourrée de verrues qui se chevauche les unes sur les autres) +JS (un langage ni fait ni à faire vu ce qu’il implique en conso mémoire et CPU) et pas reprendre un standard propre?



Et pourquoi un protocole HTTP qui ne maintient pas ses connexions, forçant à créer des mécanismes complexes et coûteux (et qu’il a fallu sécuriser au fur et à mesure des années) pour conserver une session utilisateur, un peu au hasard, pour voir s’il relance une requête dans les 20 minutes???



Franchement, le web actuel c’est comme le français: bâti sur un ancien monde sans cohérence, mélange de dialectes qui se sont imposés dans une guerre d’influence… Y a pas de logique non plus :)

Le 16/04/2021 à 12h 36


marba a dit:


Oui et non. Les gens qui ne comprennent pas comment fonctionne une URL ne savent pas naviguer sur le web, et sont donc la cible et les victimes d’attaques massives très faciles à réaliser.


De toutes façons il ne regardent pas l’URL ou ne savent pas déceler les problèmes. Les alertes de sécurité actuelles sont déjà bonnes. Et le but est de masquer l’URL, pas de supprimer le champ, simplement d’arrêter de nous pourrir l’affichage avec des choses inutiles dans 99% des cas.
C’est quasi fait sur tablette, dès qu’on scrolle on ne voit plus les barres d’onglet ou l’URL.



En fait, je ferais presque un process par navigateur, et j’utiliserais la barre des tâches de l’OS plutôt que de mettre des onglets dans l’appli, avec un regroupement par nom de domaine et l’icône du site.



Le fonctionnement actuel par onglet est une torture en entreprise quand on veut passer d’une appli SAAS à l’autre.



Et il faut enfin passer le cap des dev internet pour que la technique s’efface. On a l’impression que c’est resté à l’état de brouillon le dev web. Les utilisateurs n’arrivent pas à capitaliser l’expérience car en plus de nécessiter plus de manipulation à cause du web, ils doivent ingurgiter l’utilisation du navigateur… C’est trop pour eux, ils ont l’impression qu’on leur demande de devenir “informaticien”.



Du coup, ils adorent les PWA.

Le 16/04/2021 à 12h 13


Salamandar a dit:


Mais what. La barre d’url est super utile. Vérifier le site sur lequel t’es. Sur Reddit, savoir en un coup d’oeil si t’es sur un /r/ ou un /u/. Savoir si t’es sur la page d’accueil/about/produits d’une entreprise. Github : savoir en un coup d’oeil quel est le propriétaire d’un dépôt sans avoir à re-scroll en haut de la page. ETC.


Vue les URL qu’on nous pond dans énormément de sites, ça ne sert à rien. Et c’est technique, ça ne devrait être là que pour référence quand on en a besoin et s’automasquer au moins.
Je parle du point de vue utilisateur bien sûr. Quelqu’un de technique comprend comment naviguer avec l’URL, pour 80% des gens, ça contribue à l’impression de complexité de l’informatique.

Le 16/04/2021 à 09h 35

La barre d’adresse, c’est SOOOO 90’s. En fait, on s’en moque de la barre d’adresse, un bouton nouvel onglet avec recherche ou adresse c’est bien, mais à part pour le dev, la barre d’adresse peut être masquée en permanence.



Je teste les onglets à gauche de EDGE, après quelques heures d’énervement, je dois dire que je suis totalement pour: revenir avec moins de place en hauteur est carrément difficile (je lis beaucoup de doc et d’articles).



Pour revenir à proton, ça change un peu, mais sur des écran FHD ou HD (1366x768), on ne gagne pas grand chose en place est c’est une grande partie du problème des navigateurs et applis SAAS: la perte énorme de place entre la barre des tâches de l’ordi et la barre d’onglet et d’adresse du navigateur.



Rendez-nous nos écrans!

Le 15/04/2021 à 07h 36


(quote:1867628:alex.d.)
Bah bannir une plage d’IP d’où tu constates des attaques, c’est déjà un peu plus malin que de blacklister un “pays d’origine” selon GeoIP.


Les IP changent tout le temps, c’est bien par plage qu’on bloque.




Moi je n’ai pas eu l’occasion de le faire. Quand le site te refuse l’accès sous prétexte que ton adresse IP pue, tu n’as même pas l’occasion de trouver l’adresse de contact.


Les gens utilisent leur téléphone mobile.




Mais je suis en France.
Tu n’as pas de bol. Peut-être en forçant en IP v6 (on constate infiniment moins d’attaque sur les adresse IPv6 - les pirates ne semblent pas bien malin pour la plupart: ils achètent des kits rôdés, mais uniquement compatibles IPv4 visiblement)


Le 14/04/2021 à 13h 20


(quote:1867245:alex.d.)
Ah oui, ceux qui bannissent les IPs “russes”, ce sont de gros clowns.
Ben propose une autre idée qui fonctionne. On n’a pas les moyens pour gérer les attaques permanentes de certaines plages IP.
Du coup, oui, j’ai parfois des gens qui demandent à ne pas être illégitimement banis. Malheureusement, hors VPN qui te resitue en France, pas de solution viable pour le moment.



Gilbert_Gosseyn a dit:


Je l’avais lu (sans retrouver la source pour l’instant) de la part d’un cadre du CNED. Et, je suis tombé sur ceci qui cite 300k fin 2020.



http://blogpeda.ac-poitiers.fr/onpg/2020/09/14/continuite-pedagogique-et-cned/



Donc, le passage à 400k connexions simultanées est très probable. Aller au delà est possible aussi, sauf que cela coûte vite extrêmement cher.


C’est clair: si j’ai franchement une grande estime pour la plate-forme du CNED, comme tu le dis elle n’est pas forcément dimensionnée pour un tel afflux.
Sauf si on fait confiance aux profs et aux élèves pour laisser un peu de place :)

Le 13/04/2021 à 13h 43


Gilbert_Gosseyn a dit:


Bon, franchement, cette histoire d’attaques ciblées ne tient pas la route quand tu sais que :




  • d’une part, aujoud’hui, la plateforme du CNED est dimensionnée pour environ 400000 utilisateurs simultanés


Et d’où tu le sais?

Le 14/04/2021 à 14h 25


Strimy a dit:



Glandos a dit:


Ce que je trouve dommage, c’est que… ça fait un très bon job.


Le 4650G semble dispo depuis un moment chez Grosbill.
Pour la partie graphique, j’aimerais qu’ils la montent un peu quand même: les perfs sont quasi les mêmes du 2400G au 4700G - à part le bus mémoire qui améliore un peu, mais rien de transcendant: gagner 10%, c’est 4FPS sur 40… et on ne gagne pas souvent 10%!
Par contre, les perfs graphiques entre G et GE sont quasiment les mêmes (j’ai un 3400GE et un 3400G - c’est tout pareil). La partie CPU du GE est un peu en retrait, mais pas énorme sur des travaux courts (moins de 30min).
Par contre, en CPU+GPU, le GE a une nette dégradation CPU (il tient à peine la fréquence “nominale” - le 3400G tient parfaitement la sienne)

Le 14/04/2021 à 14h 18


David_L a dit:


C’est surtout que Tegra c’est le nom d’une gamme de SoC ARM chez NVIDIA, mais ils en ont déjà différentes dans tous leurs marchés. Du coup je ne comprends pas la question.


My bad, j’ai lu l’article en 2 fois, et je ne sais pas pourquoi j’ai mélangé les 2 sujets de l’article: effectivement le CPU pour serveurs n’a rien à voir avec mediatek.

Le 13/04/2021 à 05h 59

C’est un aveu d’échec de ne pas prendre des Tegra?

Le 09/04/2021 à 11h 49

:bravo: Ce titre :bravo:




Alfred1664 a dit:


Il n’y a que moi que ça énerve d’avoir les boutons OK or ANNULER en haut dans la barre de titre plutôt que dans le bas de la fenêtre sur presque toutes les modales ?


Non




eglyn a dit:


j’avoue que même si ça reste subjectif, le choix des couleurs est quand même discutable (c’est moche, faut le dire)


Oui



Mais les deux points font partie de l’image de marque, la signature ubuntu, ubuntu qui rassemble et accorde tout le monde: c’est déroutant, ça donne pas envie :)
Trolldi…



Surtout, j’attends les retours sur un déploiement massif de wayland. Je ne suis pas sûr du rapport bénéfice/risque (maintenant qu’on est tous des pros là dedans), car de nombreux logiciels pointaient l’absence de fonctionnalités de ce compositeur (dont OBS il me semble, et différents softs de capture et de prise de contrôle à distance).



Wayland m’a toujours paru adapté aux tablettes/téléphones, mais pour du pro, j’attends de voir.



Je vais remettre DirectFB tiens :)



Edit: - remarque - j’étais très circonspect sur l’activation par défaut du backend opengl/dri dans les compositeur (vers la 11.04/12.04 je crois), je pensais que ça allait être terrible pour mon i945 de l’époque et ma batterie. Je me rappelle qu’il n’en n’a rien été - sauf que j’ai lâché ubuntu à l’époque car pour des raisons ACPI mon PC plantait au hasard sous Linux à partir de 12.04, et personne n’a résolu le problème ou ne m’a aidé à le résoudre)

Le 09/04/2021 à 07h 34


kannagi a dit:


Par contre oui les procs RISC faisait mieux (les PowerPC était meilleur que la gamme des Pentium au début ).


Ca n’a pas tenu très longtemps… Et qu’on ne se méprenne pas: je suis pro-RISC! En fait, j’ai rêvé dès le début d’avoir un acorn Archimedes (je faisais de l’assembleur x86, et c’était déprimant comme la moindre instruction coûtait plus d’un - voir plus de 20 cycles).
Mais les ARM ont vite déçu, les PPC aussi…




Bah , non ça ne fait pas du VLIW en interne :) Après la comparaison est tout simplement que le VLIW peut être vu comme une version manuelle du Superscalaire , mais en interne , y’a de grosse différence entre eux.


Disons que le câblage va favoriser une certaine suite d’instructions, l’étage de réorganisation est censé produire ces suites le plus possible. Si on multiplie ces suites précablées, on se rapproche d’un VLIW.




Sinon tu as mal compris le CELL (qui est pour ma part on va dire ma vision du CPU moderne), il n’avait pas de gros registre , il avait des registre de 128 bits au grand max.


Je parlais surtout sur la façon de programmer - isoler des boucles dont on sait qu’elles ont une certaine durée. Et c’est une réflexion qui date de fin des années 90 en fait, en regardant le bytecode java et le fait qu’on s’énerve à le coller sur des machines à registres. Google a réglé le problème je crois en faisant un bytecode à registres.

Le 09/04/2021 à 07h 02


kannagi a dit:


Cela n’empêche pas que le x86 est pourri , et même pour du superscalaire Out of order , il est handicapant. Voilà quelque point où un processeur RISC à l’avantage comparé à un x86 :


C’est clair que le x86 a un décodage ultra compliqué. Ca paraît complètement idiot de nos jours, et les nouvelles instructions ne sont pas franchement plus simples.



Mais le out of order est apparu dans le grand public aussi avec les RISC, et il était nécessaire pour les perfs (PowerPC à l’époque). Sauf que qu’il fallait pour optimiser le prévoir dans les compilos, car ce n’est pas le CPU qui s’en chargeait. Et les compilos n’étaient pas prêt.



Quand à la “pureté” du RISC: c’est bien parce que l’idée ne résout pas tout et de loin que les ARM/PowerPC n’arrivent sur le devant de la scène que maintenant: depuis le début des années 90, la révolution RISC n’a pas réussi réellement à faire des machines aussi performantes que les CISC, sauf Apple M1… Qui embarque plus de transistors que les x86.



D’après ce que j’ai lu, il a une ISA RISC, mais il ressemble plus à une espèce de VLIW en interne (mais on ne peut que spéculer).
Quelques articles d’il y a quelques années comparaient des RISC à décodage multiple à du VLIW car en réorganisant “de force” les instructions, on pouvait exécuter des “cascades d’instructions” avec moins de cycle qu’il n’y a d’instructions, bloc par bloc.



En gros ce que faisait transmeta en 2000 (les CPU compatibles x86 à 1W contre 20 pour la consurrence - mais à 23 des perfs)




Belle idée , mais non , si tu as un registre de 64 octets , ça poserais pas mal de soucis (et globalement un accès relativement long , même en register). Et les load/store ont souffrirait , vu qu’en général on préfère unifié le load/store , cela veut dire qu’on aura un ralentissement du load/store pour tout , et donc un load 8 bits serait donc aussi long que le load 64 octets.



Belle idée , mais non , si tu as un registre de 64 octets , ça poserais pas mal de soucis (et globalement un accès relativement long , même en register).


C’est un autre façon de penser, plus proche du Cell de la PS3 en fait. Grosses tâches à alimenter. Un peut comme un GPU, mais au lieu de registres, des déplacement sur une ligne plus ou moins grande.
Ca peut coller avec du bytecode Java, puisqu’il déclare d’avance les espaces nécessaires pour une fonction.
Mais mon passé fortran parle :)

Le 08/04/2021 à 13h 19


wanou a dit:


Coté archi du coeur, avec l’amd64 , on revient aux nombrux registres généreaux comme dans le 68000 et tous les processeurs bien conçus y compris côté microcontrôleurs comme les AVR et bien sûr, les ARM et les R3000.


Attention, les ISA ne sont qu’une façade pour les micro instructions derrières. Entre les renommages de registre, le out of order et le prédictif, c’est un peu une soupe derrière ce qu’on voit en assembleur. Et ça date du PPC, en RISC.



Par ailleurs, moi je vois plutôt une ISA différente, avec au lieu de registre des lignes de cache de plusieurs dizaines d’octets. Là on peut se lâcher sur le calcul matriciel.




Sauf que, quand une boucle itérative est écrite en C avec un index , le compilateur ne peut pas rattraper le coup.


Si mais pas forcément tout seul. Sur certains compilos fortran, on indiquait simplement quelles variables étaient variables dans la boucle et lesquelles étaient potentiellement différentes, le compilo parallélisait les for tout seul ensuite (SGI, 64 CPU, an 2000 :) )




wanou a dit:




Et le calcul décimal reste utile et très utlisé pour ceux qui veulent compter juste. C’est le cas avec le type decimal en sql qui est indispensable pour tout ce qui touche à l’argent, de la gestion de coûts aux payes, aux taux de change etc


+1, il est essentiel de connaître la différence en decimal et réel, leur limitations (et que en réels, 10000000+10000000* 0,00000001 n’est pas égal à 100000000+10000000 de fois l’addition de 0,00000001)

Le 06/04/2021 à 22h 07


wanou a dit:


Toutes les astuces trouvées par les fabricants de processeurs x86 pour tenter de faire fonctionner les application massivement mono cœur sont en train de tomber les unes après les autres manifestement.


Ce n’est pas limité aux x86, spectre a touché ARM aussi il me semble. Par ailleurs il semble bien que l’Apple M1 se paye une bonne tranche de prédiction/réordonnancement, il ressemble plus à un Crusoé en tard qu’à un ARM. Wild guess: une bonne part est destinée à mapper ce qui sort de rosetta sur un max de coeurs.



Le monocoeur n’est pas mort, car il est compliqué d’alimenter les coeurs en données au delà de 8. Après,on a des coeurs périphériques mal exploités et des coeurs centraux isolés. La plupart des algos sont difficilement parallélisables. Une archi comme les Arm avec des coeurs type graphique intégrés qui ont accès au cache est plus intéressant qu’un CPU à tout faire.



Et je n’irai pas cracher sur le x86, vu ce qu’AMD en sort dernièrement, c’est impressionnant. Quand aux ARM, ils ajoutent instructions et unités tout comme le x86 l’a fait (même si la base est plus saine au vu des opportunités technologiques actuelles)



Pour rappel, en x86 on pouvait faire du calcul décimal sur des nombres décimaux codés binaires et des comparaisons de chaînes une poignée d’instruction. A l’époque, c’était de bons arguments. Maintenant,c’est juste totalement inutile.

Le 06/04/2021 à 11h 42

Du coup, il y a un bench sur phoronix, avec et sans PSF. On perd 0,5% de perfs sans…



A quoi il sert ce PSF? Ca fait beaucoup de transistor inutiles :) ? Ou c’est juste les compilos qui ne sont pas prêts?

Le 07/04/2021 à 13h 33


ToMMyBoaY a dit:


Mais de mémoire, le premier kangoo VE était du même niveau de performance.
Ou l’AX 1L. Mais ça ne m’a jamais dérangé. Surtout qu’avec ce genre de voiture un peu “veau”, il suffit de ne pas ralentir dans les virages.


En plus, d’après les essais, en ville ça ne se sent pas, l’accélération est tout à fait semblable à une autre voiture, c’est au-delà de 7080 que ça commence à devenir moins convaincant.



Mais ça préserve la batterie :)




(quote:1865649:ProFesseur Onizuka)
C’est dangereux, les camions doivent te pousser sur nationale tellement tu te traines :mad2:
C’est le conducteur qui est dangereux, pas la voiture.


Le 07/04/2021 à 08h 35


joma74fr a dit:


La Dacia Spring comparée à la Renault Zoe ? J’avais l’impression que ce n’était pas la même catégorie de véhicules pourtant.


Pourquoi? La Dacia Spring est du gabarit “grosse twingo” il me semble, non?

Le 07/04/2021 à 08h 48


DayWalker a dit:


Pour les CPUs de portable, c’est aussi de telles “marches” entre TDP et puissance crête en début de fortes sollicitations ? (genre dépasser 4x le TDP pendant ce temps tau)


Si la question est de comparer la conso électrique au TDP: oui, les portables en 15 et 28W se prennent des claques à 50-80W de conso instantanée (https://www.anandtech.com/show/16084/intel-tiger-lake-review-deep-dive-core-11th-gen/7)
On le voit aussi sur les NUC (https://www.notebookcheck.net/Intel-NUC-Kit-NUC8i7BEH-i7-8559U-Mini-PC-Review.360356.0.html)



Mais finalement, du moment que l’ordi a été calibré pour le dissiper, ce n’est pas un problème. Mais parfois, le TDP est un peu trop flou et même un bon design 15W ne suffit plus à encaisser correctement les montées en charge violentes ou durables (sauf pour https://www.notebookcheck.net/That-awkward-moment-when-a-Core-i5-1135G7-can-outperform-the-more-expensive-Core-i7-1165G7.512848.0.html)



Expérience 3615 perso: j’ai eu une tablette samsung en I5 2567m. Quand je décompressais un gros fichier zip qui durait plusieurs minutes, je voyais la différence de vitesse de la barre de progression entre le début (boost à 2,6Ghz) puis une période de rafraichissement (sous le GHz)…

Le 06/04/2021 à 06h 50


carbier a dit:


Comment en lisant les commentaires as-tu pu conclure que les gens voulaient interdire les blagues du 1er avril ?


Je suis d’accord avec @blob741: les blagues ne peuvent qu’être interdites si en quelques années elle génèrent autant de tension collective.
Des voisins qui ont un jour échangé les panneaux des villes ont eu des remontrances de la mairie, mais personne n’en garde un mauvais souvenir (même pas mes invités qui venaient pour la première fois à la maison ce jour là sans GPS)
On a l’impression que les gens ont aboli leur sens critique et leur capacité à imaginer que si la blague ne leur parle pas, elle peut plaire à plein d’autres gens…

Le 03/04/2021 à 14h 59


guimoploup a dit:


Et si on tape l adresse ip a la olace du nom de domaine?


Tu peux aussi modifier ton fichier host pour résoudre l’adresse IP sans DNS.
Mais si l’adresse IP change, tu dois la retrouver.

Le 01/04/2021 à 08h 29


Ju_ a dit:


J’ai appris récemment qu’on ne pouvait pas faire de GPU passthrough sur un PC Portable. C’est bien dommage.


Le PCIe passthrough fonctionne sur portables, mais ce sont les mêmes restrictions que sur un PC fixe: chipset qui le supporte, CPU qui le supporte, et BIOS qui te donne accès aux bonnes options.

Le 31/03/2021 à 13h 25

La limitation était dans le pilote NVidia, donc un passthrough pour un invité Linux ne devait pas présenter de problème si on utilisait le pilote open source, non?



Par ailleurs, je ne sais pas si la procédure marche dans tous les cas, car d’habitude je dois indiquer au système de ne pas charger les pilotes des cartes que je mets en passthrough (notamment les cartes Wifi/réseau). Là comme la carte principale est celle intégrée au CPU, ubuntu ne charge pas les pilotes NVidia, c’est cela?




kj a dit:


Je demande car ma seconde CG est très ancienne (GT620 ou GT710 sait plus) et le driver nvidia le plus récent ne prend plus en charge cette carte (et j’en ai besoin pour ma principal…)


Si tu as un PC en intel et en dual channel, la CG intégrée au CPU sera certainement proche voire meilleure que ces cartes NVidia (à partir de la HD 520530, Intel fait généralement mieux que la Geforce - avant c’est très variable). Et le passthrough marche très bien.