Pat_Hator
est avec nous depuis le 24 mai 2018 ❤️
Oups.
On dirait que quelqu'un ici aime garder ses petits secrets, comme si de par hasard il y avait quelque chose à cacher...
Désolé, ô lectrice de passage, cher lecteur égaré, pas de révélation sensationnelle pour le moment sur ce profil.
Repassez plus tard ?
141 commentaires
elementary OS 6 dévoile de profonds remaniements dans une première bêta
Le 04/05/2021Le 05/05/2021 à 10h 00
Je te rejoins sur le fait que certaines applis du quotidien (comme Firefox) mériteraient largement quelques dons, et il y a un vrai questionnement sur le sujet.
Mais le réflexe qu’auront certains devant ce genre de prix (et là on était sur du 9 balles pour l’exemple dont je me rappelle), bah tu te débrouilles pour choper et installer la version “gratuite”.
Ou au lieu d’acheter, si tu connais le truc, tu contournes en proposant un don de 0€.
Tout à fait. même si le chemin parcouru en une vingtaine d’années est assez phénoménal. A titre perso, je ne demanderais pas mieux que de passer sur du linux pour mon usage perso au quotidien (et windows pour le taf et le jeu).
Mais à chaque tentative (tous les 2⁄3 ans, quand ça me prend), il y a toujours des trucs qui font que je finis par me lasser des bidouilles pour faire marcher tel machin qui a toujours fonctionné sur windows sans même que l’on y pense (ie : l’accélération GPU pour éviter de flinguer le CPU à la moindre vidéo YT).
W10 n’est pas ringard à mon sens, par contre le manque d’uniformisation, ça pique un peu dès que l’on se balade dans des paramètres un peu trop “avancés”.
Je trouve étonnant que ce boulot là n’ait pas été fait depuis longtemps.
Après, j’ai beau utiliser W10 depuis sa sortie, les rares fois ou je me confronte à certains paramètres, c’est quand même assez le foutoir (la partie réseau par exemple). Mais c’est peut être une logique à laquelle je n’arrive pas à adhérer.
Globalement, je te rejoins sur ton propos, à minima, les OS grands publics desktop que sont W10 et MacOs sont matures et stables (et en réalité, ça fait pas loin de 20 ans que c’est le cas).
C’est souvent une question de préférence perso, même si j’avoue avoir été très séduit par MacOS que je réutilise depuis 2 semaines sur mon macbook M1, après plus de dix ans “d’absence”.
Le 05/05/2021 à 07h 17
Oui, lorsque je parle du problème que Linux peut avoir en terme d’environnement graphique, je fais bien allusion au noyau plus ou moins commun de l’ensemble des distributions, et des différentes surcouches graphiques que je trouve très imparfaites en comparaison de ce que sait faire Apple.
J’avais omis Android, mais en effet, c’est la démonstration qu’il est possible d’avoir des interfaces efficaces full graphique sur une base Linux.
Même s’il convient de rappeler que le fameux polish dont tu parles à mis du temps à arriver, les premières versions d’Android étaient loin d’égaler iOS (de mémoire, ça a commencé à tenir la comparaison à partir d’Android 4).
Pour en revenir à Apple, il est assez clair qu’ils ont historiquement dans le viseur une UI ultra polish, c’est justement une des raisons de la fidélité de leur communauté.
Le 04/05/2021 à 08h 31
L’idée de proposer quelque chose qui s’approche le plus possible de MacOS n’est pas inintéressant pour celui qui veut quelque chose de rassurant visuellement.
Par contre, le fait de proposer des applis open source payantes (mais que l’on peut avoir gratuitement en mettant “0” dans la somme à payer), c’est un peu sale dans le principe.
Je ne sais pas si ce sera encore le cas via ce nouveau store, mais j’avais trouvé ça pas dingue.
Après, AMHA, ça reste du maquillage pour un OS (je parle de linux d’une façon générale) qui sait faire de l’interface graphique, mais dont ce n’est pas la philosophie première, et ça se voit dès que les premières coutures craquent plus ou moins rapidement.
On pourrait en dire autant de MacOS et sa base Unix, mais ça reste pour moi un cas d’exception (grandement aidé par un hardware maîtrisé).
Par contre, l’avantage de distribs comme LXLE ou Mint sont leur capacité à tourner comme des horloges sur des configurations qui galèrent à faire tourner même un antique windows 7.
Si on parle des paramétrages inhérents à une application, je ne vois pas du tout en quoi.
Travail itinérant : l’iPad Pro M1 face au MacBook M1, que choisir ?
Le 27/04/2021Le 30/04/2021 à 12h 19
Oui. Mais on peut aussi se rappeler des nombreuses incohérences d’Apple qui n’a jamais hésiter à se contredire ouvertement.
On peut citer l’exemple de la bascule sur l’architecture Intel, alors que depuis des années, dans les keynote, ça balançait des benchs (complètement pétés) qui donnaient l’avantage aux G3/4/5.
Et de rebalancer à ce moment là des benchs inversés qui démontraient à quel point les x86 étaient 4 fois plus rapides que les G4/5.
Ou le fait de tourner en ridicule les smartphones concurrents de 4”, parce que la taille idéale était “évidemment” les 3,5 pouces de l’iPhone. Jusqu’au jour ou ils ont présenté la révolution du premier iphone avec un écran dépassant les 3,5”.
Il faut être un fanboy absolu pour ne pas avoir eu l’impression d’être parfois pris pour le dernier des crétins, au vu des retournement de veste wtf.
Ceci ne contrevient pas à ton raisonnement, et tu as peut être raison (pour le partage entre les applications, par contre, ça ne me semble pas délirant de partager un espace de stockage local, dans l’exemple de photos ou de documents).
Mais de mon point de vue, les “certitudes” d’Apple sont celles du business, il n’y a aucune autre forme de cohérence dans leurs choix techniques.
Le 29/04/2021 à 16h 26
En fait, ma logique est de penser qu’Apple pourrait ici proposer un produit équivalent à la surface book de MS, mais en “réussi”, vu qu’ils ont à disposition deux interfaces parfaitement abouties (tactile et non tactile), et avec un écosystème conséquent déjà en place pour les deux “mondes”.
C’est une force assez unique, et sur ce terrain, Android et MS n’ont pas une telle possibilité. Là dessus, AMHA, Apple aurait une carte assez incroyable à jouer, mais peut être que je me goure, et qu’il n’y a pas un marché suffisant.
Le 29/04/2021 à 07h 44
Pourquoi une telle certitude ?
Le 28/04/2021 à 17h 55
Pas sûr d’avoir compris, ou de m’être fait comprendre.
Je serais intéressé par un iPad Pro qui switch sur un Mac OS full une fois docké, sur un support comme la surface book en son temps, et se transforme en vrai ultrabook.
Uniquement dans ce cas de figure, OK pour l’écran glossy et ses traces de doigts, parce que le jeu en vaut la chandelle.
Mais un MacBook avec une option tactile, j’ai beaucoup de mal à y trouver un intérêt, le form factor ne s’y prête vraiment pas.
Le 28/04/2021 à 15h 33
Certainement pas. Je suis contre les traces de doigts sur un écran de portable, et encore plus contre les écrans glossy.
Le 27/04/2021 à 12h 53
“Un design plus ancien, pas de Touch Bar et une première configuration désactivant l’un des cœurs du GPU, mais un prix attractif de 1 129 euros, l’écran étant le même.”
Ceci m’amène à quelques remarques :
Au delà ce pinaillage, j’avoue trouver l’iPad pro beaucoup trop cher pour ce qu’il apporte, en tout cas tant qu’il n’aura pas la possibilité de tourner sur une interface hybride iPadOS / macOS (et dans ce cas de figure, ok, on serait devant un produit très intéressant).
AirTag, TV 4K avec Thread, Nouvel iMac, iPad Pro M1, 5G et Mini LED : Apple fait le plein
Le 21/04/2021Le 26/04/2021 à 12h 34
Sur ce point, nous sommes bien d’accord, malgré le manque d’évolutivité du Mac mini.
Le 22/04/2021 à 17h 47
Pas nécessairement, tout ne peut pas facilement (et efficacement) se multi-threader.
Et l’idée n’est pas de se limiter au test mono-coeur, mais simplement d’en tenir compte.
Bref, restons d’accord sur un désaccord
Par contre, sur certains autres points, je te rejoins. Même si ça n’est absolument pas le monopole d’Apple (malheureusement), le côté jetable des produits complètement verrouillés et non évolutifs, c’est pas franchement glorieux.
Surtout lorsqu’on a connu une époque pas si lointaine ou pouvoir changer la ram ou le disque dur sur un pc portable était le minimum syndical (même chez Apple).
Le 22/04/2021 à 14h 50
En effet, je me paume dans les ref chez Ryzen, à force.
Le 4800u et plus le 5800u sont donc le fleuron dans un TDP contenu (au dessus, même si on reste sur du 8c/16t, l’enveloppe explose)
Mais au delà de mes erreurs, cela invalide-t-il mon propos ?
Le 22/04/2021 à 10h 31
Essaye de bosser sur un 32” FHD, je pense que tu vas pouvoir compter les pixels (ça m’est arrivé, et malgré ma myopie, ça me sautait un peu à la tronche).
Après, ça reste du confort visuel, on y est sensible ou non.
Mais heureusement que le 4800u est au dessus en multicore, l’inverse serait dramatique. On parle quand même du fleuron de la nouvelle gamme des Ryzen mobiles, en comparaison du premier SOC d’Apple (en tout cas, pour autre chose que du smartphone/tablette), sur de l’entrée de gamme du constructeur.
Qui plus est, on compare 8c/16t x86-64 à un 4c+4c ARM, sur une exécution multithread
Alors oui, le M1 est un 8c, mais 4c sont des core “basse perf”, qui apportent environ 20% de puissance totale brute dans le meilleur des cas.
Ici, pour jauger de la perf technique, il faut prendre la performance en mono-core, y compris sur Cinebench 1235 (Ryzen) vs 1514 (M1).
Et ramener à cela la perf au Mhz (sans même parler de la partie énergétique).
Quant au throtling, non, le M1 ne baisse pas en perf à partir du moment ou on lui met un refroidissement actif, même très léger (ça a été testé et retesté à x endroits sur le web).
On observe par contre un throthling assez light sur le macbook (non-pro, sans refroidissement actif), sur des opés “stressantes” comme du jeu (qui va tirer sur le CPU et sur le GPU), au bout d’un certain temps.
Maintenant, au delà de la partie spécifiquement technique dont une majorité se fiche royalement, je pense que personne n’a jamais dit qu’une bécane Apple était un foncièrement un excellent rapport qualité/prix, en observant l’ensemble de ses caractéristiques (techniques, mais pas que).
Seule exception au tableau, à mon sens, le macbook en config d’entrée de gamme, se positionne plutôt bien si on prend le temps d’analyser l’ensemble de sa proposition.
Le 22/04/2021 à 08h 21
Parfait résumé, merci
Je ne sais pas trop si c’est naïf de ma part, mais j’imaginais que sur un site un peu pointu tel que celui-ci, il y aurait moins de gueguerres apple vs “le reste du monde”.
C’est quand même moins virulent qu’ailleurs, mais on sent ici aussi des tensions, avec des clichés qui ont la peau dure.
Le fait de ne plus voir les pixels, tout simplement. Ce que Apple a marketé sous le nom de “Retina” il y a une dizaine d’année environ.
On y est sensible ou non, mais concrètement, on a probablement tous un exemple de cette finesse via nos smartphones (qui souvent on une définition supérieure à nos écrans de 32” )
Évidement, ce n’est pas le seul constructeur sur cette voie là, mais il en a été l’initiateur.
Le 21/04/2021 à 15h 30
Si, tout à fait.
C’est le même M1 “castré” que dans les macbook au tarif de base. Heureusement que la perte de performances est très faible.
Le 21/04/2021 à 15h 28
Ça n’est pas tout à fait vrai.
J’ai pas mal regardé du côté du M1, et côté efficacité CPU en single thread, c’est quand même très impressionnant, même en excluant purement la partie énergétique, et en comparaison directe avec du x86-64 de desktop actuel.
Bien évidemment, dès qu’il s’agit de perfs en multi-core, nos “traditionnels” AMD/Intel reprennent de l’avance à partir du moment ou le nombre de cores est significativement supérieur aux 4 cores du M1 (je passe sur les 4 petits cores dédiés au tâches légères), mais même là, c’est étonnant de voir le nombre de cpu “classiques” que le M1 met à l’amende.
Pour la partie GPU, c’est un peu la même, on peut évidemment trouver plus puissant, mais pas en intégré (à l’image des circuits Vega ou HDxxx).
Du coup, non, il n’est pas limite même pour du desktop. Mais il montrera forcément ses limites pour une utilisation ou la puissance brute est fondamentale, ou l’on revient à la bonne vieille tour watercoolée et ses gros CPU/GPU, avec ce que cela comporte en terme d’enveloppe énergétique (et de bruit).
Je dois bien admettre que sur cette dernière partie, je suis très curieux de voir si Apple va nous sortir un dérivé du M1 qui parvienne à mettre la même claquasse.
Pas que j’y tienne particulièrement, mais ce serait quand même une incroyable fessée pour AMD/Intel qu’un Apple qui sorte (presque) de nulle part et se pointe avec un truc qui atomise deux fondeurs aussi historiques.
Reste le problème de la ram embarquée. MacOS fait un boulot assez remarquable sur la gestion mémoire (je l’ai mis dans des situations improbables ou un windows serait parti en flammes), mais malgré ça, 8 et 16Go c’est trop light pour certains usages.
Windows on ARM : comment télécharger l’image (ISO, VHDX)
Le 19/04/2021Le 21/04/2021 à 15h 56
Elle fait pourtant un excellent cale meuble
Pour moi, Rosetta 2 est un mystère complet. Que ce ne soit pas de l’émulation, au vu des perfs des applis x86, me semble être assez clair, mais je ne comprends pas comment il procède concrètement.
Mais au delà de mon incompréhension, pourquoi un Windows version “arm” n’est pas en mesure de proposer le même type de solution, afin de bypasser l’énorme problème de la limitation des applis x86 ? Ce serait probablement le vrai coup d’envoi d’un Windows/Arm crédible, au lieu d’avoir des Windows RT ou maintenant ce Windows 10 arm qui ne sert en l’état pas à grand chose.
En supposant que ce soit le cas (si par windows full, tu entends le windows 10 arm), ce serait une horreur à l’utilisation.
J’avais testé la surface RT à l’époque (2015 je crois), avec un représentant MS à mes basques. On voyait facilement les limites du hardware embarqué, et même le gars de chez MS avait bien du mal à trouver des arguments pour me conseiller la RT, quant on grattait un peu la surface du discours marketing.
Une proposition de loi veut revoir l’encadrement du télétravail
Le 09/10/2020Le 14/10/2020 à 13h 52
Ça ne doit pas être monnaie courante, surtout si on considère que c’est plus l’employé que l’employeur qui va souhaiter faire du TTV.
C’est presque une faveur qui est accordée (en dehors du contexte du COVID bien sûr).
Il faut bien voir également que les lois Macron cherchant à favoriser le TTV ont également supprimé l’obligation de participation financière de l’employeur (les indémnités évoquées), mais également la nécessité de fournir un équipement comme un pc portable par exemple.
Autrement dit, si tu as un pc, une connexion internet perso, tu es éligible.
On est loin de l’époque ou l’employeur devait fournir l’équipement et participer aux frais d’électricité, de connexion, etc.
La question est de savoir à quel point le TTV est “intégré” dans les pratiques de la société. Dans mon cas (une SS2I), on a 2 jours de TTV (enfin, quand on sortira du contexte covid), mais on a des bureaux attitrés, donc les charges type m² sont les mêmes pour l’employeur.
Quand au lieu de travail, la période nous a appris (notamment en métropole) que l’immense majorité bosse dans un lieu de vie partagé (salon,…) et que ça peut vite devenir compliqué (coucou les confcall).
Concernant les normes électriques, oui c’est débile car non applicable. Techniquement, l’employeur peut se rendre sur le lieu de TTV de l’employé pour procéder aux vérifications. Dans la pratique, il n’en a rien carrer. A noter également que l’employé est en charge de fournir un certificat de conformité à l’entreprise (à la charge de l’employé, évidemment).
Il faut voir également que le télétravailleur est censé également prendre des mesures pour que la confidentialité de ce qu’il affiche sur son écran soit préservé, sans oublier que personne d’autre que lui n’est censé pouvoir … télétravailler.
Je ne sais pas si on a déjà vu le cas d’une boulette faîte par “junior” qui a cliqué là ou il ne fallait pas au moment ou l’employé était parti faire une course ?
Dernier point amusant qui montre à quel point toutes ces mesures ne peuvent pas s’appliquer, c’est que le télétravailleur n’est pas obligé de bosser de chez lui, il peut être absolument n’importe ou tant qu’il est en mesure d’effectuer son travail.
John McAfee arrêté pour évasion fiscale en Espagne, en attente d’extradition
Le 06/10/2020Le 06/10/2020 à 21h 51
Manifestement, un sacré provocateur en manque de reconnaissance.
AMD « continue de produire les Radeon RX 5700, parfaites pour le 1440p »
Le 05/10/2020Le 06/10/2020 à 09h 17
Ce qui est surtout inquiétant, c’est qu’une bête gtx 1080 de 2016 semble meilleure qu’une rx 5700 de 2019, et à un similaire (généralement) à une 5700 xt.
Et les perfs “extraordinaire” en 1440p, pour avoir une 1080, ça devient très très juste sur des jeux gourmands en cette résolution (Metro Exodus ou Control par exemple).
Ça sent le déni ou bien ?
Copie privée : les ayants droit proposent de 1 à 3 euros de redevance pour les téléphones basiques
Le 30/09/2020Le 05/10/2020 à 14h 01
En effet, ce n’est pas à proprement parler une taxe, si on veut jouer sur les mots. Sur le terrain, la différence me semble plus compliquée à faire pour le consommateur qui voit son media vierge augmenter.
Par contre, j’aurais appris
1/ qu’on avait la RCP la plus élevée d’Europe (quelle surprise)
2/ qu’on pouvait se la faire rembourser :
https://www.intendancezone.net/spip.php?article786
Et il me semble pourtant qu’il y a bien une autre taxation (ou redevance, ou autre machin qui à la même finalité), sous un motif différent, mais soit.
Le 01/10/2020 à 13h 49
erreur de double post
Le 01/10/2020 à 13h 48
Cette bêtise monumentale que de présupposer que les espaces de stockage sont utilisés à des fins de piratage (une vision de l’esprit des lobbyes ?) me rappelle la taxe débile dans les années 2000 sur les CDs vierges.
De mémoire, on payait déjà une première taxe (pour compenser le piratage), à laquelle s’est rajoutée une autre taxe plus violente pour compenser… le piratage. Double peine, double bénef.
Résultat le prix de cds vierges s’était furieusement envolé (vu que sans la taxe, ça ne valait pratiquement plus rien), et il y avait eu une ruée sur (notamment) les magasins de “montgallet”, car ils ne majoraient pas leurs prix, sauf s’ils se faisaient choper.
Bref, bis repetita, et on ne m’enlèvera pas de l’idée que ça doit graisser des paluches pour arriver à faire passer ce genre de taxation débile.
Lenovo : ThinkPad X1 Fold, X1 nano et une ribambelle de ThinkBook avec CPU AMD ou Intel
Le 30/09/2020Le 30/09/2020 à 15h 11
Chouette, un clavier full tactile.
On en reviendrait presque à regretter les claviers apple “clic” des macbook.
J’ai encore mon x61 de 2010. C’est (presque) increvable avec un linux light, et ça à ce petit relent du look’n’feel des meilleures années Soviétiques
On manque de recul, mais au delà de la pliure qui va peut être s’intensifier, je pense surtout au marquage par les doigts(ongles), vu que le problème des écrans pliables, c’est que la protection ne peut pas être du gorilla ou assimilé, et va être très fragile.
La PlayStation 5 de Sony sera vendue dès 400 euros en France, disponible le 19 novembre
Le 17/09/2020Le 23/09/2020 à 08h 49
Au passage, offre plutôt intéressante de Micromania, reprise de 250€ de la ps4 pro en bon d’achat.
Je ne sais pas trop comment ils s’en sortent, perso j’ai acheté la mienne à 300€ il y a plus de deux ans, mais c’est ultra intéressant du coup (s’il n’y a pas une condition à la con).
Le 22/09/2020 à 17h 45
Ce n’est pas du tout mon souvenir, ou alors on parle d’exception, comme des jeux imports par exemple (et là oui, je me souviens de dbz sur snes qui atteignait des sommes débiles, parce que dispo uniquement en import dans un premier temps).
Il me semble plutôt que les jeux de l’époque, c’était globalement de l’ordre de 300-350 au prix fort (et les jeux “classic” étaient à 99 francs, contre 15 maintenant.
De toute façon, on ne va pas se mentir, là ou les jeux sont le plus intéressant question tarif, c’est de loin le PC ou la concurrence des store fait rage, sans même parler du marché plus ou moins gris.
Le 21/09/2020 à 16h 16
Rha les jeux ubi qui te trucident un honnête CPU
Perso c’est Watch Dogs 2 et Assassin Creed (Origins je crois) qui mettaient mon i5 3570k (pourtant oc à 4.7ghz) en souffrance, alors que j’avais investi dans une 1080 qui “attendait” le cpu, et donc un framerate franchement bas.
Comme c’était un peu rageant comme constat, en venant d’une 970, j’avais fait le saut vers un 8700k (6c/12t), en pensant bêtement que le “futur” des jeux défonceraient également un simple 4c.
Au final je me rends compte en regardant la charge CPU qu’en général, il n’en fout pas une rame, et que tout le taf ou presque est dirigé vers le GPU.
Le 21/09/2020 à 12h 35
Intriguant que tu aies constaté une diff de perf, alors que tu es passé un 4c/8t à un 4c dont les perfs devraient être très proches par coeur, mais inférieures globalement (à cause de l’HT qui peut avoir son rôle à jouer).
Mais tu as constaté que ton CPU était régulièrement au taquet ? Pour moi (mais je me trompe peut-être), c’est notamment l’indicateur du fameux effet “bottleneck”.
Le 21/09/2020 à 12h 31
Oui, après c’était une question de mémoire embarquée qui permettait de monter plus haut en terme de définition (xga par exemple) en conservant un nombre conséquent de couleurs.
De mémoire, on avait aussi eu le 65k couleurs, entre le 256 et les 16.7M.
Mais il y avait quand même une question de rapidité d’affichage (j’étais passé d’une cirrus logic à une s3 trio juste pour en bénéficier). Par contre, impossible de me souvenir si ça avait un impact sur les jeux ou non… J’imagine que oui, vu que mon pc c’était 95% de jeux à l’époque, mais dans le doute…
Les demoscenes étaient complètement dingues oui, ça faisait cracher des trucs incroyablement beaux alors que le programme tenait sur quelques Ko.
Le 20/09/2020 à 11h 38
On avait, bien avant les cartes 3D, des cartes accélératrices 2D. Je me souviens que ça impactait sensiblement la fluidité de l’affichage du bureau de ce bon vieux windows 9x (en comparaison d’une carte graphique intégrée à la carte mère), mais je ne me souviens pas de l’impact côté jeux.
Et les jeux étaient différents, mais malgré tout, on pouvait jouer à Wolfenstein 3D sur une poubelle de l’époque, là ou les consoles phares du moment n’y sont parvenues que tardivement et en réduisant la surface d’affichage jouable (et à un framerate calamiteux).
A cette époque complètement révolue, les consoles et PC étaient deux univers complètement distincts et très complémentaires. Avec le recul, c’est assez fou de voir cette convergence hardware/software.
Hétérogène certes, et pour répondre à ta question sur le moment ou je ferais la bascule, c’est le moment ou ma bonne vieille 1080 n’arrivera plus à me sortir du 1440p/60fps stable avec les preset sur “high/very high”.
C’est la facilité qu’on a sur PC de pouvoir jouer avec beaucoup de paramètres pour rester dans son seuil de tolérance framerate vs détails.
J’aurais été d’accord avec toi, si Sony n’avait pas brouillé les cartes en annonçant certaines des exclus ps5 très attendues, finalement présentes sur la ps4, à l’image de Horizon 2.
Le 18/09/2020 à 22h 00
Ok… Ca confirme mon constat, si ce n’est que ubi semble s’être calmé sur les ressources CPU (de mémoire, il y avait AC Origins et surtout Watch Dogs 2 qui mettaient mon i5 dans le malus).
Le 18/09/2020 à 15h 56
Disons que la différence, c’est que même si en puissance brute, un pc lambda de la même était sans doute bien loin devant n’importe laquelle de ses machines, les archis étaient faites pour du jeu, et rien d’autre. Du coup, c’était ultra spécialisé, et performant pour cet usage.
Et ceux qui n’ont pas connu l’époque qui précède l’arrivée des premières cartes accélératrices 3D n’imaginent pas à quel point une console comme la PS1 faisait baver le joueur pc en 94⁄95.
Maintenant, la comparaison se fait naturellement vu que les archis ont fusionné, et que même la fameuse particularité du ssd next-gen est quelque chose qui sera un classique dans le monde pc d’ici peu.
Je te rejoins en partie, si on fait une moyenne du pc lambda dans les 4 dernières années.
Mais si demain matin, je change juste le gpu de ma bécane par une 3070 ou une 3080, je repasse (tranquillement) nettement devant la puissance développée par ces consoles.
D’ailleurs, j’avoue que ces notions de tflops me laisse un peu dans le flou. On parle seulement de la puissance du gpu ? ou de la totalité de la machine ?
Et quoiqu’il en soit, on sait que c’est une valeur un peu attrape nigaud car très fourre-tout, et qui ne représente pas nécessairement ce que la machine saura afficher.
Le 18/09/2020 à 15h 44
D’une manière générale, le CPU est quand même très peu sollicité, en comparaison du GPU.
Il y a bien de rare cas, comme certains jeux Ubi Soft qui éclatent un vieux i5 4c à cause de leur double protection, mais c’est plus l’exception que la règle.
Je pense que même un vieux i7 3770 (4c/8t) de 2012 fait encore parfaitement l’affaire.
J’ai depuis 2 ans un i7 8700k (6c/12t) oc 5ghz, il se paluche quelque soit le jeu que je fais tourner (cela dit, peut être qu’un FS changerait la donne
Le 17/09/2020 à 17h 21
Nintendo/Sega, je n’en sais rien. Par contre Sony/Microsoft, c’était une “norme” à ma connaissance, jusqu’à la gen ps4/xbox one. Ce qui nous a donné les plus mauvaises consoles day one sur un plan hardware (je sors Nintendo de l’équation).
Sur la gen actuelle, il semble plus qu’évident qu’on soit revenu sur cette logique de vente à perte. Ça ne doit d’ailleurs pas arranger Sony, là ou MS n’a aucun problème.
Sauf erreur de ma part, on serait plus sur de la 2070 (c’est déjà plus la même chose), même si ces configs hardware semblent vraiment intéressantes en terme de rapport qualité/prix.
Après, la sortie des 3xxx vient ternir un peu cette impression. Il y a quelques semaines, “à l’époque” des 2XXX, c’était fou. Aujourd’hui, lorsque l’on voit le gap monstrueux de perfs entre la gen 2 et 3, ça ringardise dans une certaine mesure ces configs console qui n’ont plus grand chose de next gen tout à coup.
Le 17/09/2020 à 17h 11
Idem pour GoW, et je suis prêt à parier qu’il se prendra des retards. Il a sans doute été balancé en damage control pour pallier à un line up faiblard, et susciter un minimum d’intérêt pour la PS5. On peut aussi noter qu’il n’y a pratiquement pas eu de gameplay de montré, ce qui ne rassure pas sur l’avancement réel du dev des jeux.
Pour le cross gen, là aussi c’est du damage control. Et ils ont en plus le gros problème de la rétro compatibilité, dont ils ne voulaient pas au départ.
Mais vu l’engagement de MS sur ce terrain, ils essayent tant bien que mal de donner le change, mais sans pouvoir s’avancer sur grand chose (ce qui n’est pas rassurant là non plus).
La petite phrase “nous ne sommes pas inquiet” est sans doute précisément l’inverse exact de leur état d’esprit. Ou alors ils sont encore dans une forme d’arrogance, mais depuis le résultat mitigé de la PS3, je doute qu’ils en soient encore là.
Android 11 disponible en version finale : les nouveautés, les smartphones éligibles
Le 09/09/2020Le 10/09/2020 à 13h 18
En effet, mais comme les autres constructeurs, ils ont tendance à se focaliser sur les flagship récents.
Le fait d’avoir encore un support sur le OP5 est en effet assez remarquable, et c’est clairement un constructeur qui est un exemple à suivre AMHA (que ce soit sur le suivi, autant que pour sa version d’Android).
Le 09/09/2020 à 10h 43
En réalité, ça fait un sacré paquet d’années que les nouveautés majeures (au sens, remarquables par l’utilisateur final lambda) sont à peu près absentes.
Pratiquement toutes les améliorations sont assez peu visibles, et se concentrent sur la sécurité, l’autonomie, la fluidité, etc.
Pour moi, la dernière fois qu’Android s’est réinventé en profondeur, c’était lors du passage (sur smartphones) d’Android 2.x à la version 4.x (qui reprenait pas mal d’éléments d’Android 3 dispo sur tablettes).
Depuis, même si les améliorations sont sensibles, c’est un peu “calme” pour l’utilisateur geek qui attend chaque nouvelle version avec curiosité. Sans doute le signe d’une maturité côté interface.
edit : il y a quand même eu les “gestures” unifiés (ou presque, merci Samsung) avec Android 10, c’est quand même un changement majeur dans l’utilisation au quotidien.
L’histoire de Windows : l’attente fut longue avant Windows XP
Le 25/08/2020Le 28/08/2020 à 17h 26
J’avais complètement oublié le nom de ce soft. Et je ne sais pas combien de disques j’ai cramé avec cette appli, sans jamais savoir si c’était la faute du média (c’était pas des cd-r low cost), du graveur (un acer low cost aussi), ou du soft lui-même.
Graveur low cost, mais ça valait quand même 1000 francs, et c’était le machin le plus accessible de l’époque
Quand on voit actuellement le prix d’un graveur BR de marque, externe et ultra fin, ça laisse pensif.
Le 26/08/2020 à 12h 28
WinMe était une magnifique bouse, un espèce d’OS de transition qui boursouflait inutilement Windows 98. Par contre, les BSOD, on s’en prenait pas mal aussi quelque soit la version de Win9x.
Ceci dit, malgré ses qualités Win2K n’était pas particulièrement optimal pour les jeux. Je me rappelle qu’à l’époque j’étais en dual boot avec win98se (ou win95osr2) pour tout ce qui était gaming, et win2K pour “le reste”.
Il est vrai par contre que c’est vraiment le premier Windows “moderne” (en comparaison de NT4) qui permettait d’avoir une stabilité tellement supérieure à ces saletés de Win9x/ME.
Petite anecdote, lorsque j’avais eu mon premier PC sous win95, et que je n’y connaissais rien, j’avais fini par m’auto persuader que l’instabilité de l’OS était lié à la version CD, et j’avais été acheter le windows 95 officiel chez le vendeur du coin, pour la somme de 1500 francs (une fortune pour moi), en version disquettes (13 de mémoire, plus quelques unes pour IE, facultatif).
Évidemment, ça n’avait rien changé
Petite remarque quant à l’article lui même : les énormes problèmes de stabilité des Win9X/ME (et même WinXP au tout début) ne sont pas réellement cités, alors que ça faisait clairement partie de “l’expérience” de l’époque.
GeForce Ultimate : l’annonce dans trois semaines
Le 11/08/2020Le 11/08/2020 à 14h 17
“Pour rappel, c’est en effet le 31 août 1999 que la GeForce 256 avait été dévoilée avant d’être mise sur le marché quelques semaines plus tard.”
Sans vouloir jouer le pénible de service, si l’histoire se répète, il sera urgent d’attendre la version “ddr” qui était arrivée (de mémoire) peu de temps après la version sdr, et qui révélait les perfs réelles de cette architecture.
Oui, je pinaille, pas pu m’en empêcher ;)
Il n’empêche que toute considération technique mise à part sur cette nouvelle gamme, je suis littéralement sidéré quand je pense à la courbe des prix des GPU, depuis leur apparition dans les années 2000.
Je ne sais pas si le fait d’avoir une vraie concurrence jouerait de manière aussi épatante que ce qui s’est passé avec Intel lorsque AMD a sortir son Ryzen, mais le quasi monopole de nvidia sur les GPU est réellement problématique pour le consommateur qui doit lâcher une somme considérable pour une carte dite “milieu de gamme”.
Shield TV : la mise à jour vers Android Oreo reprend, via la version 7.0.1
Le 13/06/2018Le 20/06/2018 à 13h 30
Après vos commentaires, je me demande si je dois toujours être impatient d’avoir cette update.
Pour le moment, malgré le fait de m’être inscrit au shield preview program, je ne peux toujours pas l’obtenir. Je commence à me demander si quelque chose bloque, car de ce que je comprends de la news, la maj n’est plus en beta ?