Open source ne signifie pas gratuit, et je trouve l’incitatif très intéressant : combien de dons n’ai-je jamais fait à de super softs juste par … flemme. Ici si j’ai l’option de payer 1€ à l’install de Firefox, je le ferai sans soucis.
Je te rejoins sur le fait que certaines applis du quotidien (comme Firefox) mériteraient largement quelques dons, et il y a un vrai questionnement sur le sujet. Mais le réflexe qu’auront certains devant ce genre de prix (et là on était sur du 9 balles pour l’exemple dont je me rappelle), bah tu te débrouilles pour choper et installer la version “gratuite”. Ou au lieu d’acheter, si tu connais le truc, tu contournes en proposant un don de 0€.
Shamaan a dit:
J’ai quand même l’impression que si quelque chose fonctionne bien auprès d’un grand public, il finit par être adopté. Force est de constater que Linux Desktop n’y arrive pas.
Tout à fait. même si le chemin parcouru en une vingtaine d’années est assez phénoménal. A titre perso, je ne demanderais pas mieux que de passer sur du linux pour mon usage perso au quotidien (et windows pour le taf et le jeu). Mais à chaque tentative (tous les 2⁄3 ans, quand ça me prend), il y a toujours des trucs qui font que je finis par me lasser des bidouilles pour faire marcher tel machin qui a toujours fonctionné sur windows sans même que l’on y pense (ie : l’accélération GPU pour éviter de flinguer le CPU à la moindre vidéo YT).
Semt3x a dit:
Je suis globalement pas d’accord avec les gens qui trouvent W10 fouilli ou ringard visuellement
W10 n’est pas ringard à mon sens, par contre le manque d’uniformisation, ça pique un peu dès que l’on se balade dans des paramètres un peu trop “avancés”. Je trouve étonnant que ce boulot là n’ait pas été fait depuis longtemps.
Après, j’ai beau utiliser W10 depuis sa sortie, les rares fois ou je me confronte à certains paramètres, c’est quand même assez le foutoir (la partie réseau par exemple). Mais c’est peut être une logique à laquelle je n’arrive pas à adhérer.
Globalement, je te rejoins sur ton propos, à minima, les OS grands publics desktop que sont W10 et MacOs sont matures et stables (et en réalité, ça fait pas loin de 20 ans que c’est le cas).
C’est souvent une question de préférence perso, même si j’avoue avoir été très séduit par MacOS que je réutilise depuis 2 semaines sur mon macbook M1, après plus de dix ans “d’absence”.
Le
05/05/2021 à
07h
17
tazvld a dit:
Quand tu parle d’OS, j’ai l’impression que tu parles de noyau.
Oui, lorsque je parle du problème que Linux peut avoir en terme d’environnement graphique, je fais bien allusion au noyau plus ou moins commun de l’ensemble des distributions, et des différentes surcouches graphiques que je trouve très imparfaites en comparaison de ce que sait faire Apple.
J’avais omis Android, mais en effet, c’est la démonstration qu’il est possible d’avoir des interfaces efficaces full graphique sur une base Linux. Même s’il convient de rappeler que le fameux polish dont tu parles à mis du temps à arriver, les premières versions d’Android étaient loin d’égaler iOS (de mémoire, ça a commencé à tenir la comparaison à partir d’Android 4).
Pour en revenir à Apple, il est assez clair qu’ils ont historiquement dans le viseur une UI ultra polish, c’est justement une des raisons de la fidélité de leur communauté.
Le
04/05/2021 à
08h
31
L’idée de proposer quelque chose qui s’approche le plus possible de MacOS n’est pas inintéressant pour celui qui veut quelque chose de rassurant visuellement.
Par contre, le fait de proposer des applis open source payantes (mais que l’on peut avoir gratuitement en mettant “0” dans la somme à payer), c’est un peu sale dans le principe.
Je ne sais pas si ce sera encore le cas via ce nouveau store, mais j’avais trouvé ça pas dingue.
Après, AMHA, ça reste du maquillage pour un OS (je parle de linux d’une façon générale) qui sait faire de l’interface graphique, mais dont ce n’est pas la philosophie première, et ça se voit dès que les premières coutures craquent plus ou moins rapidement.
On pourrait en dire autant de MacOS et sa base Unix, mais ça reste pour moi un cas d’exception (grandement aidé par un hardware maîtrisé).
Par contre, l’avantage de distribs comme LXLE ou Mint sont leur capacité à tourner comme des horloges sur des configurations qui galèrent à faire tourner même un antique windows 7.
(quote:1871300:brice.wernet) Ensuite, c’est la complexité: beaucoup de softs Linux sont pleins d’options. Hors, les gens ont leurs habitudes sous Windows, et la complexité des softs sous Windows a été “digérée”. Quand ils son sous Linux, la somme apparente d’infos à ingurgiter est trop importante.
Si on parle des paramétrages inhérents à une application, je ne vois pas du tout en quoi.
Des dirigeants d’Apple ont maintes fois été interrogées sur sujet par le passé, en fait depuis que l’iPad existe. Ils ont toujours réfuté la possibilité de merger macOS et iPadOS, de porter intégralement iOS sur Mac ou inversement de faire tourner macOS sur iPad.
Enfin, Apple n’aime pas avoir tort, alors faudra attendre longtemps avant qu’ils disent : “OK, on le fait”.
Oui. Mais on peut aussi se rappeler des nombreuses incohérences d’Apple qui n’a jamais hésiter à se contredire ouvertement. On peut citer l’exemple de la bascule sur l’architecture Intel, alors que depuis des années, dans les keynote, ça balançait des benchs (complètement pétés) qui donnaient l’avantage aux G3/4/5. Et de rebalancer à ce moment là des benchs inversés qui démontraient à quel point les x86 étaient 4 fois plus rapides que les G4/5.
Ou le fait de tourner en ridicule les smartphones concurrents de 4”, parce que la taille idéale était “évidemment” les 3,5 pouces de l’iPhone. Jusqu’au jour ou ils ont présenté la révolution du premier iphone avec un écran dépassant les 3,5”.
Il faut être un fanboy absolu pour ne pas avoir eu l’impression d’être parfois pris pour le dernier des crétins, au vu des retournement de veste wtf.
Ceci ne contrevient pas à ton raisonnement, et tu as peut être raison (pour le partage entre les applications, par contre, ça ne me semble pas délirant de partager un espace de stockage local, dans l’exemple de photos ou de documents).
Mais de mon point de vue, les “certitudes” d’Apple sont celles du business, il n’y a aucune autre forme de cohérence dans leurs choix techniques.
Le
29/04/2021 à
16h
26
(quote:1870604:skankhunt42 ) Je pense que le jours ou les ventes d’un des deux vont commencer à s’écrouler alors apple y pensera fortement
En fait, ma logique est de penser qu’Apple pourrait ici proposer un produit équivalent à la surface book de MS, mais en “réussi”, vu qu’ils ont à disposition deux interfaces parfaitement abouties (tactile et non tactile), et avec un écosystème conséquent déjà en place pour les deux “mondes”.
C’est une force assez unique, et sur ce terrain, Android et MS n’ont pas une telle possibilité. Là dessus, AMHA, Apple aurait une carte assez incroyable à jouer, mais peut être que je me goure, et qu’il n’y a pas un marché suffisant.
Le
29/04/2021 à
07h
44
yoms a dit:
macOS sur iPad Pro : 0% de chance
Pourquoi une telle certitude ?
Le
28/04/2021 à
17h
55
(quote:1870435:skankhunt42 ) Ça résume bien toute cette situation…
Pas sûr d’avoir compris, ou de m’être fait comprendre.
Je serais intéressé par un iPad Pro qui switch sur un Mac OS full une fois docké, sur un support comme la surface book en son temps, et se transforme en vrai ultrabook.
Uniquement dans ce cas de figure, OK pour l’écran glossy et ses traces de doigts, parce que le jeu en vaut la chandelle. Mais un MacBook avec une option tactile, j’ai beaucoup de mal à y trouver un intérêt, le form factor ne s’y prête vraiment pas.
Le
28/04/2021 à
15h
33
(quote:1870180:skankhunt42 ) Je met tout le monde d’accord : Le mac book devrait avoir un écran tactile.
Certainement pas. Je suis contre les traces de doigts sur un écran de portable, et encore plus contre les écrans glossy.
Le
27/04/2021 à
12h
53
“Un design plus ancien, pas de Touch Bar et une première configuration désactivant l’un des cœurs du GPU, mais un prix attractif de 1 129 euros, l’écran étant le même.”
Ceci m’amène à quelques remarques :
côté design, celui du mb pro n’a pas plus évolué que celui du MacBook Air ?
se passer de la touch bar, manifestement, c’est loin d’être un inconvénient, si j’en crois ceux qui l’ont déjà pratiqué
l’écran est bridé sur le MacBook Air, en terme de luminosité maximale (400 vs 500 nits), c’est pour le coup un avantage sensible pour le MacBook Pro en extérieur.
Au delà ce pinaillage, j’avoue trouver l’iPad pro beaucoup trop cher pour ce qu’il apporte, en tout cas tant qu’il n’aura pas la possibilité de tourner sur une interface hybride iPadOS / macOS (et dans ce cas de figure, ok, on serait devant un produit très intéressant).
Et je rajouterais que même en restant chez Apple, prendre un mac mini avec un bel écran 27” 4k ça coûte moins cher au final, et plus intéressant sur la durée, perso j’ai plus souvent changé d’unité centrale que d’écran, si dans 3 ans tu veux un nouveau mac mini, ça coûtera bien moins cher que de tout remplacer.
Sur ce point, nous sommes bien d’accord, malgré le manque d’évolutivité du Mac mini.
Le
22/04/2021 à
17h
47
arvi89 a dit:
Et pourquoi se limiter au test monocore, quelle application n’utilise qu’un seul cœur aujourd’hui ? Ce qui compte c’est à l’utilisation, le multitasking.
Pas nécessairement, tout ne peut pas facilement (et efficacement) se multi-threader.
Et l’idée n’est pas de se limiter au test mono-coeur, mais simplement d’en tenir compte.
Bref, restons d’accord sur un désaccord
Par contre, sur certains autres points, je te rejoins. Même si ça n’est absolument pas le monopole d’Apple (malheureusement), le côté jetable des produits complètement verrouillés et non évolutifs, c’est pas franchement glorieux.
Surtout lorsqu’on a connu une époque pas si lointaine ou pouvoir changer la ram ou le disque dur sur un pc portable était le minimum syndical (même chez Apple).
Le
22/04/2021 à
14h
50
Le 4800U a été lancé il y a plus d’un an… Et ce n’est pas le fleuron de la gamme mobile non plus.
En effet, je me paume dans les ref chez Ryzen, à force.
Le 4800u et plus le 5800u sont donc le fleuron dans un TDP contenu (au dessus, même si on reste sur du 8c/16t, l’enveloppe explose)
Mais au delà de mes erreurs, cela invalide-t-il mon propos ?
Le
22/04/2021 à
10h
31
Myrddinlefou a dit:
Justement, je ne vois pas les pixels sur écrans classiques sans m’approcher à une distance non utilisable pour un écran de poste fixe…
Je trouve, personnellement, que c’est juste pour dire qu’on en met plus que les autres…
Essaye de bosser sur un 32” FHD, je pense que tu vas pouvoir compter les pixels (ça m’est arrivé, et malgré ma myopie, ça me sautait un peu à la tronche).
Après, ça reste du confort visuel, on y est sensible ou non.
arvi89 a dit:
Tous les tests cinebench montrent le 4800U au dessus en multicore. Quand ça throttle à voir (il faudrait tester dans des conditions similaires, le M1 aussi throttle)
Mais heureusement que le 4800u est au dessus en multicore, l’inverse serait dramatique. On parle quand même du fleuron de la nouvelle gamme des Ryzen mobiles, en comparaison du premier SOC d’Apple (en tout cas, pour autre chose que du smartphone/tablette), sur de l’entrée de gamme du constructeur.
Qui plus est, on compare 8c/16t x86-64 à un 4c+4c ARM, sur une exécution multithread
Alors oui, le M1 est un 8c, mais 4c sont des core “basse perf”, qui apportent environ 20% de puissance totale brute dans le meilleur des cas.
Ici, pour jauger de la perf technique, il faut prendre la performance en mono-core, y compris sur Cinebench 1235 (Ryzen) vs 1514 (M1). Et ramener à cela la perf au Mhz (sans même parler de la partie énergétique).
Quant au throtling, non, le M1 ne baisse pas en perf à partir du moment ou on lui met un refroidissement actif, même très léger (ça a été testé et retesté à x endroits sur le web). On observe par contre un throthling assez light sur le macbook (non-pro, sans refroidissement actif), sur des opés “stressantes” comme du jeu (qui va tirer sur le CPU et sur le GPU), au bout d’un certain temps.
Maintenant, au delà de la partie spécifiquement technique dont une majorité se fiche royalement, je pense que personne n’a jamais dit qu’une bécane Apple était un foncièrement un excellent rapport qualité/prix, en observant l’ensemble de ses caractéristiques (techniques, mais pas que).
Seule exception au tableau, à mon sens, le macbook en config d’entrée de gamme, se positionne plutôt bien si on prend le temps d’analyser l’ensemble de sa proposition.
Le
22/04/2021 à
08h
21
David_L a dit:
Pas parce qu’il est le plus puissant comme dit, il y a bien mieux sur ce terrain. Mais parce que c’est le plus efficace dans son segment, et de loin. Et mal le comparer à des machines plus grosses, plus bruyantes, consommant plus, n’y changera rien. C’est d’ailleurs le défi principal pour AMD et Intel pour les années qui viennent que de répondre à ce nouvel arrivant.
Parfait résumé, merci
Je ne sais pas trop si c’est naïf de ma part, mais j’imaginais que sur un site un peu pointu tel que celui-ci, il y aurait moins de gueguerres apple vs “le reste du monde”.
C’est quand même moins virulent qu’ailleurs, mais on sent ici aussi des tensions, avec des clichés qui ont la peau dure.
Myrddinlefou a dit:
Quelles est l’intérêt d’une telle définition sur un écran aussi petit ?
Le fait de ne plus voir les pixels, tout simplement. Ce que Apple a marketé sous le nom de “Retina” il y a une dizaine d’année environ.
On y est sensible ou non, mais concrètement, on a probablement tous un exemple de cette finesse via nos smartphones (qui souvent on une définition supérieure à nos écrans de 32” )
Évidement, ce n’est pas le seul constructeur sur cette voie là, mais il en a été l’initiateur.
Le
21/04/2021 à
15h
30
darkjack a dit:
“Côté tarif, comptez 1 449 euros (256 Go SSD) au minimum. Mais pour ce prix vous aurez une version « castrée ». L’Apple M1 sera en effet limité à 7 unités graphiques sur les 8 que compte la puce” Ce ne serait pas un moyen de refourguer des puces avec un cœur graphique en défaut?
Si, tout à fait. C’est le même M1 “castré” que dans les macbook au tarif de base. Heureusement que la perte de performances est très faible.
Le
21/04/2021 à
15h
28
cyp a dit:
Surtout ils auraient pu attendre une version plus musclé du M1. Il a bien sa place dans un ultraportable (ou une tablette) mais dans un desktop et plus de 6 mois plus tard c’est vraiment limite. Apple a bien géré la transition et le M1 est une réussite mais il ne se compare qu’au CPU/GPU basse consommation (et encore faut pas trop trop regarder du coté des derniers produit Intel/AMD) face a un cpu desktop actuelle c’est un peut ridicule.
Ça n’est pas tout à fait vrai.
J’ai pas mal regardé du côté du M1, et côté efficacité CPU en single thread, c’est quand même très impressionnant, même en excluant purement la partie énergétique, et en comparaison directe avec du x86-64 de desktop actuel.
Bien évidemment, dès qu’il s’agit de perfs en multi-core, nos “traditionnels” AMD/Intel reprennent de l’avance à partir du moment ou le nombre de cores est significativement supérieur aux 4 cores du M1 (je passe sur les 4 petits cores dédiés au tâches légères), mais même là, c’est étonnant de voir le nombre de cpu “classiques” que le M1 met à l’amende.
Pour la partie GPU, c’est un peu la même, on peut évidemment trouver plus puissant, mais pas en intégré (à l’image des circuits Vega ou HDxxx).
Du coup, non, il n’est pas limite même pour du desktop. Mais il montrera forcément ses limites pour une utilisation ou la puissance brute est fondamentale, ou l’on revient à la bonne vieille tour watercoolée et ses gros CPU/GPU, avec ce que cela comporte en terme d’enveloppe énergétique (et de bruit).
Je dois bien admettre que sur cette dernière partie, je suis très curieux de voir si Apple va nous sortir un dérivé du M1 qui parvienne à mettre la même claquasse. Pas que j’y tienne particulièrement, mais ce serait quand même une incroyable fessée pour AMD/Intel qu’un Apple qui sorte (presque) de nulle part et se pointe avec un truc qui atomise deux fondeurs aussi historiques.
Reste le problème de la ram embarquée. MacOS fait un boulot assez remarquable sur la gestion mémoire (je l’ai mis dans des situations improbables ou un windows serait parti en flammes), mais malgré ça, 8 et 16Go c’est trop light pour certains usages.
Et de la HP Touchpad aussi, ça fait un moment qu’on l’a pas ressorti celle-là
Elle fait pourtant un excellent cale meuble
patos a dit:
Rosetta n’est pas un émulateur mais un compilateur qui prépare ses tâches quand il détecte un exécutable qui a besoin de lui, ou “just in time” s’il n’a pas eu le temps de la détection.
Pour moi, Rosetta 2 est un mystère complet. Que ce ne soit pas de l’émulation, au vu des perfs des applis x86, me semble être assez clair, mais je ne comprends pas comment il procède concrètement. Mais au delà de mon incompréhension, pourquoi un Windows version “arm” n’est pas en mesure de proposer le même type de solution, afin de bypasser l’énorme problème de la limitation des applis x86 ? Ce serait probablement le vrai coup d’envoi d’un Windows/Arm crédible, au lieu d’avoir des Windows RT ou maintenant ce Windows 10 arm qui ne sert en l’état pas à grand chose.
waxime a dit:
Question, est ce qu’une vieille surface RT qui est techniquement un processeur ARM pourrait être alors mis à jour à un Windows full ?
En supposant que ce soit le cas (si par windows full, tu entends le windows 10 arm), ce serait une horreur à l’utilisation. J’avais testé la surface RT à l’époque (2015 je crois), avec un représentant MS à mes basques. On voyait facilement les limites du hardware embarqué, et même le gars de chez MS avait bien du mal à trouver des arguments pour me conseiller la RT, quant on grattait un peu la surface du discours marketing.
Il me semble qu’il existe déjà des accords de branche dans des entreprises donnant droit à des “indemnités de télétravail”, notamment pour la conso électrique augmentée en raison du travail à domicile. J’ai entendu des collègues en parler vis à vis de leur SSII. Un peu comme les indemnités kilométriques en gros.
Ça ne doit pas être monnaie courante, surtout si on considère que c’est plus l’employé que l’employeur qui va souhaiter faire du TTV. C’est presque une faveur qui est accordée (en dehors du contexte du COVID bien sûr). Il faut bien voir également que les lois Macron cherchant à favoriser le TTV ont également supprimé l’obligation de participation financière de l’employeur (les indémnités évoquées), mais également la nécessité de fournir un équipement comme un pc portable par exemple. Autrement dit, si tu as un pc, une connexion internet perso, tu es éligible. On est loin de l’époque ou l’employeur devait fournir l’équipement et participer aux frais d’électricité, de connexion, etc.
DayWalker a dit:
Il y a quand même un léger “soucis” avec le TT à domicile : c’est à l’employé de prévoir un lieu de travail chez lui, et donc de consacrer une partie de la surface de son habitat au travail. Un bureau convenablement aménagé par exemple (double écran, fauteuil, bureau, chaise), ce sont des frais, et des m² qu’on paie sur le loyer ou son crédit.
-> quitte à ce que l’employeur fasse des économies sur ces éléments, il pourrait payer ce qui a trait au travail de ses employés (pas que le PC portable)
La question est de savoir à quel point le TTV est “intégré” dans les pratiques de la société. Dans mon cas (une SS2I), on a 2 jours de TTV (enfin, quand on sortira du contexte covid), mais on a des bureaux attitrés, donc les charges type m² sont les mêmes pour l’employeur.
Quand au lieu de travail, la période nous a appris (notamment en métropole) que l’immense majorité bosse dans un lieu de vie partagé (salon,…) et que ça peut vite devenir compliqué (coucou les confcall).
Concernant les normes électriques, oui c’est débile car non applicable. Techniquement, l’employeur peut se rendre sur le lieu de TTV de l’employé pour procéder aux vérifications. Dans la pratique, il n’en a rien carrer. A noter également que l’employé est en charge de fournir un certificat de conformité à l’entreprise (à la charge de l’employé, évidemment).
Il faut voir également que le télétravailleur est censé également prendre des mesures pour que la confidentialité de ce qu’il affiche sur son écran soit préservé, sans oublier que personne d’autre que lui n’est censé pouvoir … télétravailler. Je ne sais pas si on a déjà vu le cas d’une boulette faîte par “junior” qui a cliqué là ou il ne fallait pas au moment ou l’employé était parti faire une course ?
Dernier point amusant qui montre à quel point toutes ces mesures ne peuvent pas s’appliquer, c’est que le télétravailleur n’est pas obligé de bosser de chez lui, il peut être absolument n’importe ou tant qu’il est en mesure d’effectuer son travail.
Ce qui est surtout inquiétant, c’est qu’une bête gtx 1080 de 2016 semble meilleure qu’une rx 5700 de 2019, et à un similaire (généralement) à une 5700 xt.
Et les perfs “extraordinaire” en 1440p, pour avoir une 1080, ça devient très très juste sur des jeux gourmands en cette résolution (Metro Exodus ou Control par exemple).
Il n’y a jamais eu de taxe, ca a toujours été la RCP. Et c’est la même depuis les années 80-90 (qui a juste sérieusement enflé dans les années 2000 quand ils ont vu le pognon qu’ils pouvaient se faire).
En effet, ce n’est pas à proprement parler une taxe, si on veut jouer sur les mots. Sur le terrain, la différence me semble plus compliquée à faire pour le consommateur qui voit son media vierge augmenter.
Et il me semble pourtant qu’il y a bien une autre taxation (ou redevance, ou autre machin qui à la même finalité), sous un motif différent, mais soit.
Le
01/10/2020 à
13h
49
erreur de double post
Le
01/10/2020 à
13h
48
Cette bêtise monumentale que de présupposer que les espaces de stockage sont utilisés à des fins de piratage (une vision de l’esprit des lobbyes ?) me rappelle la taxe débile dans les années 2000 sur les CDs vierges.
De mémoire, on payait déjà une première taxe (pour compenser le piratage), à laquelle s’est rajoutée une autre taxe plus violente pour compenser… le piratage. Double peine, double bénef.
Résultat le prix de cds vierges s’était furieusement envolé (vu que sans la taxe, ça ne valait pratiquement plus rien), et il y avait eu une ruée sur (notamment) les magasins de “montgallet”, car ils ne majoraient pas leurs prix, sauf s’ils se faisaient choper.
Bref, bis repetita, et on ne m’enlèvera pas de l’idée que ça doit graisser des paluches pour arriver à faire passer ce genre de taxation débile.
On en reviendrait presque à regretter les claviers apple “clic” des macbook.
Bambou64 a dit:
Je plussoie (envoyé de mon bon vieux x230 :-) )
J’ai encore mon x61 de 2010. C’est (presque) increvable avec un linux light, et ça à ce petit relent du look’n’feel des meilleures années Soviétiques
KP2 a dit:
J’aimerais bien voir la tête des écrans pliables au bout de 2 ou 3 ans d’utilisation quotidienne… je doute que ce soit très beau à voir…
On manque de recul, mais au delà de la pliure qui va peut être s’intensifier, je pense surtout au marquage par les doigts(ongles), vu que le problème des écrans pliables, c’est que la protection ne peut pas être du gorilla ou assimilé, et va être très fragile.
Au passage, offre plutôt intéressante de Micromania, reprise de 250€ de la ps4 pro en bon d’achat.
Je ne sais pas trop comment ils s’en sortent, perso j’ai acheté la mienne à 300€ il y a plus de deux ans, mais c’est ultra intéressant du coup (s’il n’y a pas une condition à la con).
Le
22/09/2020 à
17h
45
lysbleu a dit:
Les jeux PS2 était à 500F, soit 80€ sans prendre en compte l’inflation. Je pense mais je ne suis plus sûr que c’était la même chose sur la PS1. Les jeux NES était moins cher mais ceux SNES était du même ordre de prix. Ce cap a été franchi y a 20 ans, voire 30.
Ce n’est pas du tout mon souvenir, ou alors on parle d’exception, comme des jeux imports par exemple (et là oui, je me souviens de dbz sur snes qui atteignait des sommes débiles, parce que dispo uniquement en import dans un premier temps).
Il me semble plutôt que les jeux de l’époque, c’était globalement de l’ordre de 300-350 au prix fort (et les jeux “classic” étaient à 99 francs, contre 15 maintenant.
De toute façon, on ne va pas se mentir, là ou les jeux sont le plus intéressant question tarif, c’est de loin le PC ou la concurrence des store fait rage, sans même parler du marché plus ou moins gris.
Le
21/09/2020 à
16h
16
SirGallahad a dit:
J’ai effectivement constater que le i7 n’était pas loin d’être en permanence à 97⁄98% d’utilisation. Alors que sur le i5, c’est nettement plus bas 80% grosso modo. Toujours sur Division 2 qui est le seul jeu gourmand auquel je joue.
Rha les jeux ubi qui te trucident un honnête CPU
Perso c’est Watch Dogs 2 et Assassin Creed (Origins je crois) qui mettaient mon i5 3570k (pourtant oc à 4.7ghz) en souffrance, alors que j’avais investi dans une 1080 qui “attendait” le cpu, et donc un framerate franchement bas. Comme c’était un peu rageant comme constat, en venant d’une 970, j’avais fait le saut vers un 8700k (6c/12t), en pensant bêtement que le “futur” des jeux défonceraient également un simple 4c. Au final je me rends compte en regardant la charge CPU qu’en général, il n’en fout pas une rame, et que tout le taf ou presque est dirigé vers le GPU.
Le
21/09/2020 à
12h
35
Intriguant que tu aies constaté une diff de perf, alors que tu es passé un 4c/8t à un 4c dont les perfs devraient être très proches par coeur, mais inférieures globalement (à cause de l’HT qui peut avoir son rôle à jouer).
Mais tu as constaté que ton CPU était régulièrement au taquet ? Pour moi (mais je me trompe peut-être), c’est notamment l’indicateur du fameux effet “bottleneck”.
Le
21/09/2020 à
12h
31
tazvld a dit:
J’imagine que c’était des carte video VGA/SVGA ou un truc dans le genre, non ? J’ai découvert ça récemment, il y en avait a priori de base dans les IBM PC (avec un standard plus ancien). Mais si j’ai bien compris, c’est surtout pour géré des résolutions et des couleurs plus grande. En gros, avec une tel carte tu pouvais soit afficher une résolution plus élevé, soit avec plus de couleur (il me semble que le mode par défaut de win 95 était 256 couleurs et 98 permettait de passer même sur les 16millions que l’on connais aujourd’hui)
Oui, après c’était une question de mémoire embarquée qui permettait de monter plus haut en terme de définition (xga par exemple) en conservant un nombre conséquent de couleurs. De mémoire, on avait aussi eu le 65k couleurs, entre le 256 et les 16.7M. Mais il y avait quand même une question de rapidité d’affichage (j’étais passé d’une cirrus logic à une s3 trio juste pour en bénéficier). Par contre, impossible de me souvenir si ça avait un impact sur les jeux ou non… J’imagine que oui, vu que mon pc c’était 95% de jeux à l’époque, mais dans le doute…
C’était même pire que ça, chaque machine nécessitait de se triturer les méninges pour en tirer le maximum. Ca a été poussé à son paroxysme avec la demoscene qui poussait les machines dans leur dernier retranchement (le tout dans une poignée d’octet).
Les demoscenes étaient complètement dingues oui, ça faisait cracher des trucs incroyablement beaux alors que le programme tenait sur quelques Ko.
Le
20/09/2020 à
11h
38
tazvld a dit:
Je suis d’accord, c’est pour ça que je dit que le PC gaming n’existant pas encore. Je ne crois pas qu’il existait des carte fille pour gérer des sprites, ni aucun programme pour l’exploiter, ce n’était que le proco.
Au final, les jeux était très différents entre les 2 plateforme.
On avait, bien avant les cartes 3D, des cartes accélératrices 2D. Je me souviens que ça impactait sensiblement la fluidité de l’affichage du bureau de ce bon vieux windows 9x (en comparaison d’une carte graphique intégrée à la carte mère), mais je ne me souviens pas de l’impact côté jeux.
Et les jeux étaient différents, mais malgré tout, on pouvait jouer à Wolfenstein 3D sur une poubelle de l’époque, là ou les consoles phares du moment n’y sont parvenues que tardivement et en réduisant la surface d’affichage jouable (et à un framerate calamiteux).
A cette époque complètement révolue, les consoles et PC étaient deux univers complètement distincts et très complémentaires. Avec le recul, c’est assez fou de voir cette convergence hardware/software.
Oui, il suffit que tu change de carte graphique pour un 3070, mais quand le feras tu ? Le parc PC a de cela qu’il est hétérogène et qu’il évolution plutôt progressivement.
Hétérogène certes, et pour répondre à ta question sur le moment ou je ferais la bascule, c’est le moment ou ma bonne vieille 1080 n’arrivera plus à me sortir du 1440p/60fps stable avec les preset sur “high/very high”. C’est la facilité qu’on a sur PC de pouvoir jouer avec beaucoup de paramètres pour rester dans son seuil de tolérance framerate vs détails.
Un parc PS5 ne sera que de la PS5.
J’aurais été d’accord avec toi, si Sony n’avait pas brouillé les cartes en annonçant certaines des exclus ps5 très attendues, finalement présentes sur la ps4, à l’image de Horizon 2.
Le
18/09/2020 à
22h
00
Ok… Ca confirme mon constat, si ce n’est que ubi semble s’être calmé sur les ressources CPU (de mémoire, il y avait AC Origins et surtout Watch Dogs 2 qui mettaient mon i5 dans le malus).
Le
18/09/2020 à
15h
56
tazvld a dit:
Je ne sais pas si c’était aussi le cas pour la 5eme génération (PS/Nintendo 64/Saturn).
La NES, la SNES, la Mégadrive n’était pas spécialement très bonne non plus, c’est juste que le PC “gaming” n’existait pas vraiment
Disons que la différence, c’est que même si en puissance brute, un pc lambda de la même était sans doute bien loin devant n’importe laquelle de ses machines, les archis étaient faites pour du jeu, et rien d’autre. Du coup, c’était ultra spécialisé, et performant pour cet usage.
Et ceux qui n’ont pas connu l’époque qui précède l’arrivée des premières cartes accélératrices 3D n’imaginent pas à quel point une console comme la PS1 faisait baver le joueur pc en 94⁄95.
Maintenant, la comparaison se fait naturellement vu que les archis ont fusionné, et que même la fameuse particularité du ssd next-gen est quelque chose qui sera un classique dans le monde pc d’ici peu.
Non, la 2070 arrive certes à dépasser la XBox Série S, mais se fait exploser par le reste (7.5TFLOPS contre 10 et 12 TFLOPS pour respectivement la PS5 et la XBox Serie X). La 2070Super est encore en dessous (9.1TFLOPS).
Au final, si tu prend le parc PC gaming acutel, la prochaine génération de console est pour l’instant globalement largement supérieur. Là, c’est vraiment le parc PC qui est en retard à cause justement de cet énorme gap qui est apparu cette année.
Je te rejoins en partie, si on fait une moyenne du pc lambda dans les 4 dernières années. Mais si demain matin, je change juste le gpu de ma bécane par une 3070 ou une 3080, je repasse (tranquillement) nettement devant la puissance développée par ces consoles.
D’ailleurs, j’avoue que ces notions de tflops me laisse un peu dans le flou. On parle seulement de la puissance du gpu ? ou de la totalité de la machine ? Et quoiqu’il en soit, on sait que c’est une valeur un peu attrape nigaud car très fourre-tout, et qui ne représente pas nécessairement ce que la machine saura afficher.
Le
18/09/2020 à
15h
44
revker a dit:
Je suis d’accord. Inutile de se prendre une 30XX si c’est pour la connecter à un CPU qui a plus de deux ans à mon avis.
D’une manière générale, le CPU est quand même très peu sollicité, en comparaison du GPU.
Il y a bien de rare cas, comme certains jeux Ubi Soft qui éclatent un vieux i5 4c à cause de leur double protection, mais c’est plus l’exception que la règle. Je pense que même un vieux i7 3770 (4c/8t) de 2012 fait encore parfaitement l’affaire.
J’ai depuis 2 ans un i7 8700k (6c/12t) oc 5ghz, il se paluche quelque soit le jeu que je fais tourner (cela dit, peut être qu’un FS changerait la donne
Le
17/09/2020 à
17h
21
tazvld a dit:
Je ne pense pas que les consoles de Nintendo et de Sega est été vendu une fois à perte, même aujourd’hui.
Nintendo/Sega, je n’en sais rien. Par contre Sony/Microsoft, c’était une “norme” à ma connaissance, jusqu’à la gen ps4/xbox one. Ce qui nous a donné les plus mauvaises consoles day one sur un plan hardware (je sors Nintendo de l’équation). Sur la gen actuelle, il semble plus qu’évident qu’on soit revenu sur cette logique de vente à perte. Ça ne doit d’ailleurs pas arranger Sony, là ou MS n’a aucun problème.
Les deux consoles sont annoncer avec des GPU affichant 10/12TFLOPs, quel est la proportion de config PC possède une RTX2080 super ou supérieur ou un NVidia Serie 30 (officiellement en commerce à partir de 15h aujourd’hui) à ce jour ?
Sauf erreur de ma part, on serait plus sur de la 2070 (c’est déjà plus la même chose), même si ces configs hardware semblent vraiment intéressantes en terme de rapport qualité/prix.
Après, la sortie des 3xxx vient ternir un peu cette impression. Il y a quelques semaines, “à l’époque” des 2XXX, c’était fou. Aujourd’hui, lorsque l’on voit le gap monstrueux de perfs entre la gen 2 et 3, ça ringardise dans une certaine mesure ces configs console qui n’ont plus grand chose de next gen tout à coup.
Le
17/09/2020 à
17h
11
aurel_gogo a dit:
Seul God of War pourrait me faire passer à la caisse mais pas en 2020 ni en 2021.
Et le cross gen annoncé via le PS Blog alors que Sony avait dit que non, nous on fait que des jeux nouvelle génération, la blague !!!
Idem pour GoW, et je suis prêt à parier qu’il se prendra des retards. Il a sans doute été balancé en damage control pour pallier à un line up faiblard, et susciter un minimum d’intérêt pour la PS5. On peut aussi noter qu’il n’y a pratiquement pas eu de gameplay de montré, ce qui ne rassure pas sur l’avancement réel du dev des jeux.
Pour le cross gen, là aussi c’est du damage control. Et ils ont en plus le gros problème de la rétro compatibilité, dont ils ne voulaient pas au départ. Mais vu l’engagement de MS sur ce terrain, ils essayent tant bien que mal de donner le change, mais sans pouvoir s’avancer sur grand chose (ce qui n’est pas rassurant là non plus).
La petite phrase “nous ne sommes pas inquiet” est sans doute précisément l’inverse exact de leur état d’esprit. Ou alors ils sont encore dans une forme d’arrogance, mais depuis le résultat mitigé de la PS3, je doute qu’ils en soient encore là.
Mon prochain téléphone sera soit un Pixel soit un iPhone mais je me refuse à encore passer par un fabricant tiers et à attendre de longs mois des mises à jour du système.
Même OnePlus, dont le support est assez remarquable, a mis 9 mois à me proposer Android 10 sur mon OP5. C’est bien mais trop long.
En effet, mais comme les autres constructeurs, ils ont tendance à se focaliser sur les flagship récents. Le fait d’avoir encore un support sur le OP5 est en effet assez remarquable, et c’est clairement un constructeur qui est un exemple à suivre AMHA (que ce soit sur le suivi, autant que pour sa version d’Android).
Le
09/09/2020 à
10h
43
SomeDudeOnTheInternet a dit:
C’est donc la première version d’Android 11 à n’apporter aucun changement “majeur”.
En réalité, ça fait un sacré paquet d’années que les nouveautés majeures (au sens, remarquables par l’utilisateur final lambda) sont à peu près absentes. Pratiquement toutes les améliorations sont assez peu visibles, et se concentrent sur la sécurité, l’autonomie, la fluidité, etc.
Pour moi, la dernière fois qu’Android s’est réinventé en profondeur, c’était lors du passage (sur smartphones) d’Android 2.x à la version 4.x (qui reprenait pas mal d’éléments d’Android 3 dispo sur tablettes). Depuis, même si les améliorations sont sensibles, c’est un peu “calme” pour l’utilisateur geek qui attend chaque nouvelle version avec curiosité. Sans doute le signe d’une maturité côté interface.
edit : il y a quand même eu les “gestures” unifiés (ou presque, merci Samsung) avec Android 10, c’est quand même un changement majeur dans l’utilisation au quotidien.
(quote:1822242:Zone démilitarisée) C’est marrant, cela me rappelle effectivement des souvenirs de gravure de CD sous Adaptec Easy CD Creator où je surveillais le niveau du tampon en espérant qu’il ne descende pas en dessous d’un certain seuil sous peine de perdre le disque…
J’avais complètement oublié le nom de ce soft. Et je ne sais pas combien de disques j’ai cramé avec cette appli, sans jamais savoir si c’était la faute du média (c’était pas des cd-r low cost), du graveur (un acer low cost aussi), ou du soft lui-même.
Graveur low cost, mais ça valait quand même 1000 francs, et c’était le machin le plus accessible de l’époque
Quand on voit actuellement le prix d’un graveur BR de marque, externe et ultra fin, ça laisse pensif.
Le
26/08/2020 à
12h
28
Tandhruil a dit:
De mémoire à l’époque, tous les magazines de JV ont découvert qu’ils pouvaient jouer avec W2K (pas de directX sous NT4) avec un système plus fiable et les ressources mieux adaptées aux jeux que Win98.
WinMe sorti plus tard était moins bon que Win2K.
WinMe était une magnifique bouse, un espèce d’OS de transition qui boursouflait inutilement Windows 98. Par contre, les BSOD, on s’en prenait pas mal aussi quelque soit la version de Win9x. Ceci dit, malgré ses qualités Win2K n’était pas particulièrement optimal pour les jeux. Je me rappelle qu’à l’époque j’étais en dual boot avec win98se (ou win95osr2) pour tout ce qui était gaming, et win2K pour “le reste”. Il est vrai par contre que c’est vraiment le premier Windows “moderne” (en comparaison de NT4) qui permettait d’avoir une stabilité tellement supérieure à ces saletés de Win9x/ME.
Petite anecdote, lorsque j’avais eu mon premier PC sous win95, et que je n’y connaissais rien, j’avais fini par m’auto persuader que l’instabilité de l’OS était lié à la version CD, et j’avais été acheter le windows 95 officiel chez le vendeur du coin, pour la somme de 1500 francs (une fortune pour moi), en version disquettes (13 de mémoire, plus quelques unes pour IE, facultatif). Évidemment, ça n’avait rien changé
Petite remarque quant à l’article lui même : les énormes problèmes de stabilité des Win9X/ME (et même WinXP au tout début) ne sont pas réellement cités, alors que ça faisait clairement partie de “l’expérience” de l’époque.
“Pour rappel, c’est en effet le 31 août 1999 que la GeForce 256 avait été dévoilée avant d’être mise sur le marché quelques semaines plus tard.”
Sans vouloir jouer le pénible de service, si l’histoire se répète, il sera urgent d’attendre la version “ddr” qui était arrivée (de mémoire) peu de temps après la version sdr, et qui révélait les perfs réelles de cette architecture.
Oui, je pinaille, pas pu m’en empêcher ;)
Il n’empêche que toute considération technique mise à part sur cette nouvelle gamme, je suis littéralement sidéré quand je pense à la courbe des prix des GPU, depuis leur apparition dans les années 2000.
Je ne sais pas si le fait d’avoir une vraie concurrence jouerait de manière aussi épatante que ce qui s’est passé avec Intel lorsque AMD a sortir son Ryzen, mais le quasi monopole de nvidia sur les GPU est réellement problématique pour le consommateur qui doit lâcher une somme considérable pour une carte dite “milieu de gamme”.
Après vos commentaires, je me demande si je dois toujours être impatient d’avoir cette update.
Pour le moment, malgré le fait de m’être inscrit au shield preview program, je ne peux toujours pas l’obtenir. Je commence à me demander si quelque chose bloque, car de ce que je comprends de la news, la maj n’est plus en beta ?
141 commentaires
elementary OS 6 dévoile de profonds remaniements dans une première bêta
04/05/2021
Le 05/05/2021 à 10h 00
Je te rejoins sur le fait que certaines applis du quotidien (comme Firefox) mériteraient largement quelques dons, et il y a un vrai questionnement sur le sujet.
Mais le réflexe qu’auront certains devant ce genre de prix (et là on était sur du 9 balles pour l’exemple dont je me rappelle), bah tu te débrouilles pour choper et installer la version “gratuite”.
Ou au lieu d’acheter, si tu connais le truc, tu contournes en proposant un don de 0€.
Tout à fait. même si le chemin parcouru en une vingtaine d’années est assez phénoménal. A titre perso, je ne demanderais pas mieux que de passer sur du linux pour mon usage perso au quotidien (et windows pour le taf et le jeu).
Mais à chaque tentative (tous les 2⁄3 ans, quand ça me prend), il y a toujours des trucs qui font que je finis par me lasser des bidouilles pour faire marcher tel machin qui a toujours fonctionné sur windows sans même que l’on y pense (ie : l’accélération GPU pour éviter de flinguer le CPU à la moindre vidéo YT).
W10 n’est pas ringard à mon sens, par contre le manque d’uniformisation, ça pique un peu dès que l’on se balade dans des paramètres un peu trop “avancés”.
Je trouve étonnant que ce boulot là n’ait pas été fait depuis longtemps.
Après, j’ai beau utiliser W10 depuis sa sortie, les rares fois ou je me confronte à certains paramètres, c’est quand même assez le foutoir (la partie réseau par exemple). Mais c’est peut être une logique à laquelle je n’arrive pas à adhérer.
Globalement, je te rejoins sur ton propos, à minima, les OS grands publics desktop que sont W10 et MacOs sont matures et stables (et en réalité, ça fait pas loin de 20 ans que c’est le cas).
C’est souvent une question de préférence perso, même si j’avoue avoir été très séduit par MacOS que je réutilise depuis 2 semaines sur mon macbook M1, après plus de dix ans “d’absence”.
Le 05/05/2021 à 07h 17
Oui, lorsque je parle du problème que Linux peut avoir en terme d’environnement graphique, je fais bien allusion au noyau plus ou moins commun de l’ensemble des distributions, et des différentes surcouches graphiques que je trouve très imparfaites en comparaison de ce que sait faire Apple.
J’avais omis Android, mais en effet, c’est la démonstration qu’il est possible d’avoir des interfaces efficaces full graphique sur une base Linux.
Même s’il convient de rappeler que le fameux polish dont tu parles à mis du temps à arriver, les premières versions d’Android étaient loin d’égaler iOS (de mémoire, ça a commencé à tenir la comparaison à partir d’Android 4).
Pour en revenir à Apple, il est assez clair qu’ils ont historiquement dans le viseur une UI ultra polish, c’est justement une des raisons de la fidélité de leur communauté.
Le 04/05/2021 à 08h 31
L’idée de proposer quelque chose qui s’approche le plus possible de MacOS n’est pas inintéressant pour celui qui veut quelque chose de rassurant visuellement.
Par contre, le fait de proposer des applis open source payantes (mais que l’on peut avoir gratuitement en mettant “0” dans la somme à payer), c’est un peu sale dans le principe.
Je ne sais pas si ce sera encore le cas via ce nouveau store, mais j’avais trouvé ça pas dingue.
Après, AMHA, ça reste du maquillage pour un OS (je parle de linux d’une façon générale) qui sait faire de l’interface graphique, mais dont ce n’est pas la philosophie première, et ça se voit dès que les premières coutures craquent plus ou moins rapidement.
On pourrait en dire autant de MacOS et sa base Unix, mais ça reste pour moi un cas d’exception (grandement aidé par un hardware maîtrisé).
Par contre, l’avantage de distribs comme LXLE ou Mint sont leur capacité à tourner comme des horloges sur des configurations qui galèrent à faire tourner même un antique windows 7.
Si on parle des paramétrages inhérents à une application, je ne vois pas du tout en quoi.
Travail itinérant : l’iPad Pro M1 face au MacBook M1, que choisir ?
27/04/2021
Le 30/04/2021 à 12h 19
Oui. Mais on peut aussi se rappeler des nombreuses incohérences d’Apple qui n’a jamais hésiter à se contredire ouvertement.
On peut citer l’exemple de la bascule sur l’architecture Intel, alors que depuis des années, dans les keynote, ça balançait des benchs (complètement pétés) qui donnaient l’avantage aux G3/4/5.
Et de rebalancer à ce moment là des benchs inversés qui démontraient à quel point les x86 étaient 4 fois plus rapides que les G4/5.
Ou le fait de tourner en ridicule les smartphones concurrents de 4”, parce que la taille idéale était “évidemment” les 3,5 pouces de l’iPhone. Jusqu’au jour ou ils ont présenté la révolution du premier iphone avec un écran dépassant les 3,5”.
Il faut être un fanboy absolu pour ne pas avoir eu l’impression d’être parfois pris pour le dernier des crétins, au vu des retournement de veste wtf.
Ceci ne contrevient pas à ton raisonnement, et tu as peut être raison (pour le partage entre les applications, par contre, ça ne me semble pas délirant de partager un espace de stockage local, dans l’exemple de photos ou de documents).
Mais de mon point de vue, les “certitudes” d’Apple sont celles du business, il n’y a aucune autre forme de cohérence dans leurs choix techniques.
Le 29/04/2021 à 16h 26
En fait, ma logique est de penser qu’Apple pourrait ici proposer un produit équivalent à la surface book de MS, mais en “réussi”, vu qu’ils ont à disposition deux interfaces parfaitement abouties (tactile et non tactile), et avec un écosystème conséquent déjà en place pour les deux “mondes”.
C’est une force assez unique, et sur ce terrain, Android et MS n’ont pas une telle possibilité. Là dessus, AMHA, Apple aurait une carte assez incroyable à jouer, mais peut être que je me goure, et qu’il n’y a pas un marché suffisant.
Le 29/04/2021 à 07h 44
Pourquoi une telle certitude ?
Le 28/04/2021 à 17h 55
Pas sûr d’avoir compris, ou de m’être fait comprendre.
Je serais intéressé par un iPad Pro qui switch sur un Mac OS full une fois docké, sur un support comme la surface book en son temps, et se transforme en vrai ultrabook.
Uniquement dans ce cas de figure, OK pour l’écran glossy et ses traces de doigts, parce que le jeu en vaut la chandelle.
Mais un MacBook avec une option tactile, j’ai beaucoup de mal à y trouver un intérêt, le form factor ne s’y prête vraiment pas.
Le 28/04/2021 à 15h 33
Certainement pas. Je suis contre les traces de doigts sur un écran de portable, et encore plus contre les écrans glossy.
Le 27/04/2021 à 12h 53
“Un design plus ancien, pas de Touch Bar et une première configuration désactivant l’un des cœurs du GPU, mais un prix attractif de 1 129 euros, l’écran étant le même.”
Ceci m’amène à quelques remarques :
Au delà ce pinaillage, j’avoue trouver l’iPad pro beaucoup trop cher pour ce qu’il apporte, en tout cas tant qu’il n’aura pas la possibilité de tourner sur une interface hybride iPadOS / macOS (et dans ce cas de figure, ok, on serait devant un produit très intéressant).
AirTag, TV 4K avec Thread, Nouvel iMac, iPad Pro M1, 5G et Mini LED : Apple fait le plein
21/04/2021
Le 26/04/2021 à 12h 34
Sur ce point, nous sommes bien d’accord, malgré le manque d’évolutivité du Mac mini.
Le 22/04/2021 à 17h 47
Pas nécessairement, tout ne peut pas facilement (et efficacement) se multi-threader.
Et l’idée n’est pas de se limiter au test mono-coeur, mais simplement d’en tenir compte.
Bref, restons d’accord sur un désaccord
Par contre, sur certains autres points, je te rejoins. Même si ça n’est absolument pas le monopole d’Apple (malheureusement), le côté jetable des produits complètement verrouillés et non évolutifs, c’est pas franchement glorieux.
Surtout lorsqu’on a connu une époque pas si lointaine ou pouvoir changer la ram ou le disque dur sur un pc portable était le minimum syndical (même chez Apple).
Le 22/04/2021 à 14h 50
En effet, je me paume dans les ref chez Ryzen, à force.
Le 4800u et plus le 5800u sont donc le fleuron dans un TDP contenu (au dessus, même si on reste sur du 8c/16t, l’enveloppe explose)
Mais au delà de mes erreurs, cela invalide-t-il mon propos ?
Le 22/04/2021 à 10h 31
Essaye de bosser sur un 32” FHD, je pense que tu vas pouvoir compter les pixels (ça m’est arrivé, et malgré ma myopie, ça me sautait un peu à la tronche).
Après, ça reste du confort visuel, on y est sensible ou non.
Mais heureusement que le 4800u est au dessus en multicore, l’inverse serait dramatique. On parle quand même du fleuron de la nouvelle gamme des Ryzen mobiles, en comparaison du premier SOC d’Apple (en tout cas, pour autre chose que du smartphone/tablette), sur de l’entrée de gamme du constructeur.
Qui plus est, on compare 8c/16t x86-64 à un 4c+4c ARM, sur une exécution multithread
Alors oui, le M1 est un 8c, mais 4c sont des core “basse perf”, qui apportent environ 20% de puissance totale brute dans le meilleur des cas.
Ici, pour jauger de la perf technique, il faut prendre la performance en mono-core, y compris sur Cinebench 1235 (Ryzen) vs 1514 (M1).
Et ramener à cela la perf au Mhz (sans même parler de la partie énergétique).
Quant au throtling, non, le M1 ne baisse pas en perf à partir du moment ou on lui met un refroidissement actif, même très léger (ça a été testé et retesté à x endroits sur le web).
On observe par contre un throthling assez light sur le macbook (non-pro, sans refroidissement actif), sur des opés “stressantes” comme du jeu (qui va tirer sur le CPU et sur le GPU), au bout d’un certain temps.
Maintenant, au delà de la partie spécifiquement technique dont une majorité se fiche royalement, je pense que personne n’a jamais dit qu’une bécane Apple était un foncièrement un excellent rapport qualité/prix, en observant l’ensemble de ses caractéristiques (techniques, mais pas que).
Seule exception au tableau, à mon sens, le macbook en config d’entrée de gamme, se positionne plutôt bien si on prend le temps d’analyser l’ensemble de sa proposition.
Le 22/04/2021 à 08h 21
Parfait résumé, merci
Je ne sais pas trop si c’est naïf de ma part, mais j’imaginais que sur un site un peu pointu tel que celui-ci, il y aurait moins de gueguerres apple vs “le reste du monde”.
C’est quand même moins virulent qu’ailleurs, mais on sent ici aussi des tensions, avec des clichés qui ont la peau dure.
Le fait de ne plus voir les pixels, tout simplement. Ce que Apple a marketé sous le nom de “Retina” il y a une dizaine d’année environ.
On y est sensible ou non, mais concrètement, on a probablement tous un exemple de cette finesse via nos smartphones (qui souvent on une définition supérieure à nos écrans de 32” )
Évidement, ce n’est pas le seul constructeur sur cette voie là, mais il en a été l’initiateur.
Le 21/04/2021 à 15h 30
Si, tout à fait.
C’est le même M1 “castré” que dans les macbook au tarif de base. Heureusement que la perte de performances est très faible.
Le 21/04/2021 à 15h 28
Ça n’est pas tout à fait vrai.
J’ai pas mal regardé du côté du M1, et côté efficacité CPU en single thread, c’est quand même très impressionnant, même en excluant purement la partie énergétique, et en comparaison directe avec du x86-64 de desktop actuel.
Bien évidemment, dès qu’il s’agit de perfs en multi-core, nos “traditionnels” AMD/Intel reprennent de l’avance à partir du moment ou le nombre de cores est significativement supérieur aux 4 cores du M1 (je passe sur les 4 petits cores dédiés au tâches légères), mais même là, c’est étonnant de voir le nombre de cpu “classiques” que le M1 met à l’amende.
Pour la partie GPU, c’est un peu la même, on peut évidemment trouver plus puissant, mais pas en intégré (à l’image des circuits Vega ou HDxxx).
Du coup, non, il n’est pas limite même pour du desktop. Mais il montrera forcément ses limites pour une utilisation ou la puissance brute est fondamentale, ou l’on revient à la bonne vieille tour watercoolée et ses gros CPU/GPU, avec ce que cela comporte en terme d’enveloppe énergétique (et de bruit).
Je dois bien admettre que sur cette dernière partie, je suis très curieux de voir si Apple va nous sortir un dérivé du M1 qui parvienne à mettre la même claquasse.
Pas que j’y tienne particulièrement, mais ce serait quand même une incroyable fessée pour AMD/Intel qu’un Apple qui sorte (presque) de nulle part et se pointe avec un truc qui atomise deux fondeurs aussi historiques.
Reste le problème de la ram embarquée. MacOS fait un boulot assez remarquable sur la gestion mémoire (je l’ai mis dans des situations improbables ou un windows serait parti en flammes), mais malgré ça, 8 et 16Go c’est trop light pour certains usages.
Windows on ARM : comment télécharger l’image (ISO, VHDX)
19/04/2021
Le 21/04/2021 à 15h 56
Elle fait pourtant un excellent cale meuble
Pour moi, Rosetta 2 est un mystère complet. Que ce ne soit pas de l’émulation, au vu des perfs des applis x86, me semble être assez clair, mais je ne comprends pas comment il procède concrètement.
Mais au delà de mon incompréhension, pourquoi un Windows version “arm” n’est pas en mesure de proposer le même type de solution, afin de bypasser l’énorme problème de la limitation des applis x86 ? Ce serait probablement le vrai coup d’envoi d’un Windows/Arm crédible, au lieu d’avoir des Windows RT ou maintenant ce Windows 10 arm qui ne sert en l’état pas à grand chose.
En supposant que ce soit le cas (si par windows full, tu entends le windows 10 arm), ce serait une horreur à l’utilisation.
J’avais testé la surface RT à l’époque (2015 je crois), avec un représentant MS à mes basques. On voyait facilement les limites du hardware embarqué, et même le gars de chez MS avait bien du mal à trouver des arguments pour me conseiller la RT, quant on grattait un peu la surface du discours marketing.
Une proposition de loi veut revoir l’encadrement du télétravail
09/10/2020
Le 14/10/2020 à 13h 52
Ça ne doit pas être monnaie courante, surtout si on considère que c’est plus l’employé que l’employeur qui va souhaiter faire du TTV.
C’est presque une faveur qui est accordée (en dehors du contexte du COVID bien sûr).
Il faut bien voir également que les lois Macron cherchant à favoriser le TTV ont également supprimé l’obligation de participation financière de l’employeur (les indémnités évoquées), mais également la nécessité de fournir un équipement comme un pc portable par exemple.
Autrement dit, si tu as un pc, une connexion internet perso, tu es éligible.
On est loin de l’époque ou l’employeur devait fournir l’équipement et participer aux frais d’électricité, de connexion, etc.
La question est de savoir à quel point le TTV est “intégré” dans les pratiques de la société. Dans mon cas (une SS2I), on a 2 jours de TTV (enfin, quand on sortira du contexte covid), mais on a des bureaux attitrés, donc les charges type m² sont les mêmes pour l’employeur.
Quand au lieu de travail, la période nous a appris (notamment en métropole) que l’immense majorité bosse dans un lieu de vie partagé (salon,…) et que ça peut vite devenir compliqué (coucou les confcall).
Concernant les normes électriques, oui c’est débile car non applicable. Techniquement, l’employeur peut se rendre sur le lieu de TTV de l’employé pour procéder aux vérifications. Dans la pratique, il n’en a rien carrer. A noter également que l’employé est en charge de fournir un certificat de conformité à l’entreprise (à la charge de l’employé, évidemment).
Il faut voir également que le télétravailleur est censé également prendre des mesures pour que la confidentialité de ce qu’il affiche sur son écran soit préservé, sans oublier que personne d’autre que lui n’est censé pouvoir … télétravailler.
Je ne sais pas si on a déjà vu le cas d’une boulette faîte par “junior” qui a cliqué là ou il ne fallait pas au moment ou l’employé était parti faire une course ?
Dernier point amusant qui montre à quel point toutes ces mesures ne peuvent pas s’appliquer, c’est que le télétravailleur n’est pas obligé de bosser de chez lui, il peut être absolument n’importe ou tant qu’il est en mesure d’effectuer son travail.
John McAfee arrêté pour évasion fiscale en Espagne, en attente d’extradition
06/10/2020
Le 06/10/2020 à 21h 51
Manifestement, un sacré provocateur en manque de reconnaissance.
AMD « continue de produire les Radeon RX 5700, parfaites pour le 1440p »
05/10/2020
Le 06/10/2020 à 09h 17
Ce qui est surtout inquiétant, c’est qu’une bête gtx 1080 de 2016 semble meilleure qu’une rx 5700 de 2019, et à un similaire (généralement) à une 5700 xt.
Et les perfs “extraordinaire” en 1440p, pour avoir une 1080, ça devient très très juste sur des jeux gourmands en cette résolution (Metro Exodus ou Control par exemple).
Ça sent le déni ou bien ?
Copie privée : les ayants droit proposent de 1 à 3 euros de redevance pour les téléphones basiques
30/09/2020
Le 05/10/2020 à 14h 01
En effet, ce n’est pas à proprement parler une taxe, si on veut jouer sur les mots. Sur le terrain, la différence me semble plus compliquée à faire pour le consommateur qui voit son media vierge augmenter.
Par contre, j’aurais appris
1/ qu’on avait la RCP la plus élevée d’Europe (quelle surprise)
2/ qu’on pouvait se la faire rembourser :
https://www.intendancezone.net/spip.php?article786
Et il me semble pourtant qu’il y a bien une autre taxation (ou redevance, ou autre machin qui à la même finalité), sous un motif différent, mais soit.
Le 01/10/2020 à 13h 49
erreur de double post
Le 01/10/2020 à 13h 48
Cette bêtise monumentale que de présupposer que les espaces de stockage sont utilisés à des fins de piratage (une vision de l’esprit des lobbyes ?) me rappelle la taxe débile dans les années 2000 sur les CDs vierges.
De mémoire, on payait déjà une première taxe (pour compenser le piratage), à laquelle s’est rajoutée une autre taxe plus violente pour compenser… le piratage. Double peine, double bénef.
Résultat le prix de cds vierges s’était furieusement envolé (vu que sans la taxe, ça ne valait pratiquement plus rien), et il y avait eu une ruée sur (notamment) les magasins de “montgallet”, car ils ne majoraient pas leurs prix, sauf s’ils se faisaient choper.
Bref, bis repetita, et on ne m’enlèvera pas de l’idée que ça doit graisser des paluches pour arriver à faire passer ce genre de taxation débile.
Lenovo : ThinkPad X1 Fold, X1 nano et une ribambelle de ThinkBook avec CPU AMD ou Intel
30/09/2020
Le 30/09/2020 à 15h 11
Chouette, un clavier full tactile.
On en reviendrait presque à regretter les claviers apple “clic” des macbook.
J’ai encore mon x61 de 2010. C’est (presque) increvable avec un linux light, et ça à ce petit relent du look’n’feel des meilleures années Soviétiques
On manque de recul, mais au delà de la pliure qui va peut être s’intensifier, je pense surtout au marquage par les doigts(ongles), vu que le problème des écrans pliables, c’est que la protection ne peut pas être du gorilla ou assimilé, et va être très fragile.
La PlayStation 5 de Sony sera vendue dès 400 euros en France, disponible le 19 novembre
17/09/2020
Le 23/09/2020 à 08h 49
Au passage, offre plutôt intéressante de Micromania, reprise de 250€ de la ps4 pro en bon d’achat.
Je ne sais pas trop comment ils s’en sortent, perso j’ai acheté la mienne à 300€ il y a plus de deux ans, mais c’est ultra intéressant du coup (s’il n’y a pas une condition à la con).
Le 22/09/2020 à 17h 45
Ce n’est pas du tout mon souvenir, ou alors on parle d’exception, comme des jeux imports par exemple (et là oui, je me souviens de dbz sur snes qui atteignait des sommes débiles, parce que dispo uniquement en import dans un premier temps).
Il me semble plutôt que les jeux de l’époque, c’était globalement de l’ordre de 300-350 au prix fort (et les jeux “classic” étaient à 99 francs, contre 15 maintenant.
De toute façon, on ne va pas se mentir, là ou les jeux sont le plus intéressant question tarif, c’est de loin le PC ou la concurrence des store fait rage, sans même parler du marché plus ou moins gris.
Le 21/09/2020 à 16h 16
Rha les jeux ubi qui te trucident un honnête CPU
Perso c’est Watch Dogs 2 et Assassin Creed (Origins je crois) qui mettaient mon i5 3570k (pourtant oc à 4.7ghz) en souffrance, alors que j’avais investi dans une 1080 qui “attendait” le cpu, et donc un framerate franchement bas.
Comme c’était un peu rageant comme constat, en venant d’une 970, j’avais fait le saut vers un 8700k (6c/12t), en pensant bêtement que le “futur” des jeux défonceraient également un simple 4c.
Au final je me rends compte en regardant la charge CPU qu’en général, il n’en fout pas une rame, et que tout le taf ou presque est dirigé vers le GPU.
Le 21/09/2020 à 12h 35
Intriguant que tu aies constaté une diff de perf, alors que tu es passé un 4c/8t à un 4c dont les perfs devraient être très proches par coeur, mais inférieures globalement (à cause de l’HT qui peut avoir son rôle à jouer).
Mais tu as constaté que ton CPU était régulièrement au taquet ? Pour moi (mais je me trompe peut-être), c’est notamment l’indicateur du fameux effet “bottleneck”.
Le 21/09/2020 à 12h 31
Oui, après c’était une question de mémoire embarquée qui permettait de monter plus haut en terme de définition (xga par exemple) en conservant un nombre conséquent de couleurs.
De mémoire, on avait aussi eu le 65k couleurs, entre le 256 et les 16.7M.
Mais il y avait quand même une question de rapidité d’affichage (j’étais passé d’une cirrus logic à une s3 trio juste pour en bénéficier). Par contre, impossible de me souvenir si ça avait un impact sur les jeux ou non… J’imagine que oui, vu que mon pc c’était 95% de jeux à l’époque, mais dans le doute…
Les demoscenes étaient complètement dingues oui, ça faisait cracher des trucs incroyablement beaux alors que le programme tenait sur quelques Ko.
Le 20/09/2020 à 11h 38
On avait, bien avant les cartes 3D, des cartes accélératrices 2D. Je me souviens que ça impactait sensiblement la fluidité de l’affichage du bureau de ce bon vieux windows 9x (en comparaison d’une carte graphique intégrée à la carte mère), mais je ne me souviens pas de l’impact côté jeux.
Et les jeux étaient différents, mais malgré tout, on pouvait jouer à Wolfenstein 3D sur une poubelle de l’époque, là ou les consoles phares du moment n’y sont parvenues que tardivement et en réduisant la surface d’affichage jouable (et à un framerate calamiteux).
A cette époque complètement révolue, les consoles et PC étaient deux univers complètement distincts et très complémentaires. Avec le recul, c’est assez fou de voir cette convergence hardware/software.
Hétérogène certes, et pour répondre à ta question sur le moment ou je ferais la bascule, c’est le moment ou ma bonne vieille 1080 n’arrivera plus à me sortir du 1440p/60fps stable avec les preset sur “high/very high”.
C’est la facilité qu’on a sur PC de pouvoir jouer avec beaucoup de paramètres pour rester dans son seuil de tolérance framerate vs détails.
J’aurais été d’accord avec toi, si Sony n’avait pas brouillé les cartes en annonçant certaines des exclus ps5 très attendues, finalement présentes sur la ps4, à l’image de Horizon 2.
Le 18/09/2020 à 22h 00
Ok… Ca confirme mon constat, si ce n’est que ubi semble s’être calmé sur les ressources CPU (de mémoire, il y avait AC Origins et surtout Watch Dogs 2 qui mettaient mon i5 dans le malus).
Le 18/09/2020 à 15h 56
Disons que la différence, c’est que même si en puissance brute, un pc lambda de la même était sans doute bien loin devant n’importe laquelle de ses machines, les archis étaient faites pour du jeu, et rien d’autre. Du coup, c’était ultra spécialisé, et performant pour cet usage.
Et ceux qui n’ont pas connu l’époque qui précède l’arrivée des premières cartes accélératrices 3D n’imaginent pas à quel point une console comme la PS1 faisait baver le joueur pc en 94⁄95.
Maintenant, la comparaison se fait naturellement vu que les archis ont fusionné, et que même la fameuse particularité du ssd next-gen est quelque chose qui sera un classique dans le monde pc d’ici peu.
Je te rejoins en partie, si on fait une moyenne du pc lambda dans les 4 dernières années.
Mais si demain matin, je change juste le gpu de ma bécane par une 3070 ou une 3080, je repasse (tranquillement) nettement devant la puissance développée par ces consoles.
D’ailleurs, j’avoue que ces notions de tflops me laisse un peu dans le flou. On parle seulement de la puissance du gpu ? ou de la totalité de la machine ?
Et quoiqu’il en soit, on sait que c’est une valeur un peu attrape nigaud car très fourre-tout, et qui ne représente pas nécessairement ce que la machine saura afficher.
Le 18/09/2020 à 15h 44
D’une manière générale, le CPU est quand même très peu sollicité, en comparaison du GPU.
Il y a bien de rare cas, comme certains jeux Ubi Soft qui éclatent un vieux i5 4c à cause de leur double protection, mais c’est plus l’exception que la règle.
Je pense que même un vieux i7 3770 (4c/8t) de 2012 fait encore parfaitement l’affaire.
J’ai depuis 2 ans un i7 8700k (6c/12t) oc 5ghz, il se paluche quelque soit le jeu que je fais tourner (cela dit, peut être qu’un FS changerait la donne
Le 17/09/2020 à 17h 21
Nintendo/Sega, je n’en sais rien. Par contre Sony/Microsoft, c’était une “norme” à ma connaissance, jusqu’à la gen ps4/xbox one. Ce qui nous a donné les plus mauvaises consoles day one sur un plan hardware (je sors Nintendo de l’équation).
Sur la gen actuelle, il semble plus qu’évident qu’on soit revenu sur cette logique de vente à perte. Ça ne doit d’ailleurs pas arranger Sony, là ou MS n’a aucun problème.
Sauf erreur de ma part, on serait plus sur de la 2070 (c’est déjà plus la même chose), même si ces configs hardware semblent vraiment intéressantes en terme de rapport qualité/prix.
Après, la sortie des 3xxx vient ternir un peu cette impression. Il y a quelques semaines, “à l’époque” des 2XXX, c’était fou. Aujourd’hui, lorsque l’on voit le gap monstrueux de perfs entre la gen 2 et 3, ça ringardise dans une certaine mesure ces configs console qui n’ont plus grand chose de next gen tout à coup.
Le 17/09/2020 à 17h 11
Idem pour GoW, et je suis prêt à parier qu’il se prendra des retards. Il a sans doute été balancé en damage control pour pallier à un line up faiblard, et susciter un minimum d’intérêt pour la PS5. On peut aussi noter qu’il n’y a pratiquement pas eu de gameplay de montré, ce qui ne rassure pas sur l’avancement réel du dev des jeux.
Pour le cross gen, là aussi c’est du damage control. Et ils ont en plus le gros problème de la rétro compatibilité, dont ils ne voulaient pas au départ.
Mais vu l’engagement de MS sur ce terrain, ils essayent tant bien que mal de donner le change, mais sans pouvoir s’avancer sur grand chose (ce qui n’est pas rassurant là non plus).
La petite phrase “nous ne sommes pas inquiet” est sans doute précisément l’inverse exact de leur état d’esprit. Ou alors ils sont encore dans une forme d’arrogance, mais depuis le résultat mitigé de la PS3, je doute qu’ils en soient encore là.
Android 11 disponible en version finale : les nouveautés, les smartphones éligibles
09/09/2020
Le 10/09/2020 à 13h 18
En effet, mais comme les autres constructeurs, ils ont tendance à se focaliser sur les flagship récents.
Le fait d’avoir encore un support sur le OP5 est en effet assez remarquable, et c’est clairement un constructeur qui est un exemple à suivre AMHA (que ce soit sur le suivi, autant que pour sa version d’Android).
Le 09/09/2020 à 10h 43
En réalité, ça fait un sacré paquet d’années que les nouveautés majeures (au sens, remarquables par l’utilisateur final lambda) sont à peu près absentes.
Pratiquement toutes les améliorations sont assez peu visibles, et se concentrent sur la sécurité, l’autonomie, la fluidité, etc.
Pour moi, la dernière fois qu’Android s’est réinventé en profondeur, c’était lors du passage (sur smartphones) d’Android 2.x à la version 4.x (qui reprenait pas mal d’éléments d’Android 3 dispo sur tablettes).
Depuis, même si les améliorations sont sensibles, c’est un peu “calme” pour l’utilisateur geek qui attend chaque nouvelle version avec curiosité. Sans doute le signe d’une maturité côté interface.
edit : il y a quand même eu les “gestures” unifiés (ou presque, merci Samsung) avec Android 10, c’est quand même un changement majeur dans l’utilisation au quotidien.
L’histoire de Windows : l’attente fut longue avant Windows XP
25/08/2020
Le 28/08/2020 à 17h 26
J’avais complètement oublié le nom de ce soft. Et je ne sais pas combien de disques j’ai cramé avec cette appli, sans jamais savoir si c’était la faute du média (c’était pas des cd-r low cost), du graveur (un acer low cost aussi), ou du soft lui-même.
Graveur low cost, mais ça valait quand même 1000 francs, et c’était le machin le plus accessible de l’époque
Quand on voit actuellement le prix d’un graveur BR de marque, externe et ultra fin, ça laisse pensif.
Le 26/08/2020 à 12h 28
WinMe était une magnifique bouse, un espèce d’OS de transition qui boursouflait inutilement Windows 98. Par contre, les BSOD, on s’en prenait pas mal aussi quelque soit la version de Win9x.
Ceci dit, malgré ses qualités Win2K n’était pas particulièrement optimal pour les jeux. Je me rappelle qu’à l’époque j’étais en dual boot avec win98se (ou win95osr2) pour tout ce qui était gaming, et win2K pour “le reste”.
Il est vrai par contre que c’est vraiment le premier Windows “moderne” (en comparaison de NT4) qui permettait d’avoir une stabilité tellement supérieure à ces saletés de Win9x/ME.
Petite anecdote, lorsque j’avais eu mon premier PC sous win95, et que je n’y connaissais rien, j’avais fini par m’auto persuader que l’instabilité de l’OS était lié à la version CD, et j’avais été acheter le windows 95 officiel chez le vendeur du coin, pour la somme de 1500 francs (une fortune pour moi), en version disquettes (13 de mémoire, plus quelques unes pour IE, facultatif).
Évidemment, ça n’avait rien changé
Petite remarque quant à l’article lui même : les énormes problèmes de stabilité des Win9X/ME (et même WinXP au tout début) ne sont pas réellement cités, alors que ça faisait clairement partie de “l’expérience” de l’époque.
GeForce Ultimate : l’annonce dans trois semaines
11/08/2020
Le 11/08/2020 à 14h 17
“Pour rappel, c’est en effet le 31 août 1999 que la GeForce 256 avait été dévoilée avant d’être mise sur le marché quelques semaines plus tard.”
Sans vouloir jouer le pénible de service, si l’histoire se répète, il sera urgent d’attendre la version “ddr” qui était arrivée (de mémoire) peu de temps après la version sdr, et qui révélait les perfs réelles de cette architecture.
Oui, je pinaille, pas pu m’en empêcher ;)
Il n’empêche que toute considération technique mise à part sur cette nouvelle gamme, je suis littéralement sidéré quand je pense à la courbe des prix des GPU, depuis leur apparition dans les années 2000.
Je ne sais pas si le fait d’avoir une vraie concurrence jouerait de manière aussi épatante que ce qui s’est passé avec Intel lorsque AMD a sortir son Ryzen, mais le quasi monopole de nvidia sur les GPU est réellement problématique pour le consommateur qui doit lâcher une somme considérable pour une carte dite “milieu de gamme”.
Shield TV : la mise à jour vers Android Oreo reprend, via la version 7.0.1
13/06/2018
Le 20/06/2018 à 13h 30
Après vos commentaires, je me demande si je dois toujours être impatient d’avoir cette update.
Pour le moment, malgré le fait de m’être inscrit au shield preview program, je ne peux toujours pas l’obtenir. Je commence à me demander si quelque chose bloque, car de ce que je comprends de la news, la maj n’est plus en beta ?