votre avatar

kikoo26

est avec nous depuis le 1 septembre 2014 ❤️

684 commentaires

Le 12/01/2017 à 11h 21







Zebulon84 a écrit :



Les mises à jour sur les iMachin ne peuvent être comparées qu’aux mises à jour des téléphones commercialisés par Google (Nexus, Pixels). C’est un énorme avantage de maitriser parfaitement le logiciel et le matériel utilisé lorsque l’on doit pousser la mise à jour de l’OS.







A la sortie du Nexus 4 par exemple, c’était 18 mois de màj majeures garanties, et après, selon l’envie.

Maintenant ils ont monté à 2 ans, ce qui reste bien trop court à mon gout.

support.google.com Google


Le 11/01/2017 à 14h 58

En fait, j’ai vu un autre site reparler du sujet un peu plus tôt avec un lien vers le site de ConsumerReport, et j’ai découvert que certains de leurs articles sur le sujet étaient en accès libre, dont celui que j’ai donné en lien (par contre les articles dédiés au test de chaque MacBook ne sont pas lisible). Je pensais qu’il n’y avait que des articles en PayWall, du coup je n’avais pas regardé plus tôt.



Et du coup, je voulais surtout réagir sur le scandale d’origine, parce qu’au final toutes les raisons que j’avais de leur cracher dessus, c’était suite à des informations incomplètes qui étaient reportés par tous les sites.



Je pense que le problème vient de iMore, l’article tweeté par Phil Schiller (haut responsable Apple, du coup j’ai supposé à tort que c’était fiable). iMore a tronqué la citation de ConsumerReport, en laissant l’impression qu’ils se sont contenté d’une série de 3 tests, alors que dans le contexte ils ont isolé ces 3 tests consécutifs pour dire à quel point les résultats étaient incohérents.

iMore à ensuite continué sa charge en disant que ConsumerReport aurait du tester plus et en changeant des paramètres et enchaine sur la conclusion aussi tronquée.

S’en suit d’une tirage sur les scandales “-gate” en accusant CR d’avoir fait ça pour attirer l’attention.

Au final c’est iMore qui a largement déformé l’article de CR, sans donner de lien vers leur article pour empêcher de vérifier par soi-même (d’où mon impression que c’était du PayWall ou papier uniquement).

Le 11/01/2017 à 13h 42



Chaque version du portable subissait trois passes du même protocole, pour mesurer l’autonomie. Or, ces passes ont renvoyé des temps très différents.









k43l a écrit :



Quand ton test va de 19h30 d’autonomie à 3h30 au troisième essai, et que tu gardes ce dernier résultat y’a de quoi se poser des questions.







J’ai vu beaucoup de monde s’exciter là dessus (et moi le premier !), parce que c’est l’info que la plupart des sites rapportent, mais après lecture de leur site, je doute un peu.

Je n’ai pas accès à la version papier, l’article à peut être été mis à jour, et je ne suis pas abonné donc je peux pas regarder ce qu’il y a écrit dans le test de chaque MacBook, mais cette page indique ceci :



The MacBook Pro battery life results were highly inconsistent from one trial to the next.



For instance, in a series of three consecutive tests, the 13-inch model with the Touch Bar ran for 16 hours in the first trial, 12.75 hours in the second, and just 3.75 hours in the third. The 13-inch model without the Touch Bar worked for 19.5 hours in one trial but only 4.5 hours in the next. And the numbers for the 15-inch laptop ranged from 18.5 down to 8 hours.



Those were just a few of the results; we tested battery life on these laptops repeatedly.





Traduction à l’arrache :



Les résultats du test de batteries étaient très incohérent d’une fois à l’autre.

Par exemple, dans une série de trois tests consécutifs [blabla 19h->3h]

Ces chiffres sont juste une poignée de résultats; nous avons testé à de nombreuses reprises la batterie de ces PC portables.





Du coup, c’est pas tout à fait la même chose que dire “ils ont fait 3 tests et ce sont arrêté là”.





Ensuite, pour l’histoire du minimum VS moyenne, certaines personnes disaient que c’était justifié parce que c’est leur protocole habituel :



Typically, a laptop’s battery life may vary from one trial to another by less than 5 percent. To arrive at our final battery life score we average those measurements together.



However, with the widely disparate figures we found in the MacBook Pro tests, an average wouldn’t reflect anything a consumer would be likely to experience in the real world. For that reason, we are reporting the lowest battery life results, and using those numbers in calculating our final scores. It’s the only time frame we can confidently advise a consumer to rely on if he or she is planning use the product without access to an electrical outlet.



Et bien c’était faux, c’était une exception pour le MacBook avec ses résultats foireux.

Je suis pas tout à fait d’accord avec leur raisonnement “c’est le seul chiffre qu’on peut vous donner d’autonomie garantie”, mais au final ils se sont quand même posé un minimum et y ont réfléchi puisqu’ils ont dévié de leur protocole standard.





Donc voila, j’étais parmi ceux qui leur crachait (crachaient ? j’ai un doute sur l’accord) violemment dessus dans les commentaires de l’article précédent, je m’excuse et je retire ce que je disais maintenant que j’ai eu plus d’info sur le sujet.

Peace <img data-src=" />


Le 11/01/2017 à 13h 28







tifounon a écrit :



Quoiqu’il en soit, pourquoi CR a-t-il utilisé l’option pour dev de Safari ?





L’explication est sur leur site, c’est pour simuler le fait d’aller sur de nombreux sites différents, ce qui est selon eux plus réaliste que consulter 10 pages d’accueil de site en boucle toutes les X secondes pendant 15+ heures.



Avec le cache activé, Safari ne recharge quasiment rien sur la page (vu que c’est la même), alors qu’en vrai navigation, tu vas forcément cliquer sur des liens avec plus ou moins d’éléments en cache.


Le 11/01/2017 à 13h 11







jeje07bis a écrit :



le cas en CRT, pas en LCD.







Les CRT étaient pas en 6500K par défaut ? Dans mon souvenir d’enfance, tous les cathodiques avaient une teinte jaune, et je les réglais en profil “RGB 100/100/100” plutôt que le profil 6500K. Ou alors c’est les gens qui passaient avant moi qui mettaient le profil 6500K ?


Le 10/01/2017 à 15h 40







bibou65 a écrit :



Tout le monde a l’aire super emballé par le fonction lumière bleu maismoi je vois pas du tout à quoi ça peut servir :/ au contraire si la

teinte de l’écran change, ça doit être dégueu selon ce qu’on fait.







A ce qu’il parait, les LED bleus sont mauvaises pour la santé des yeux. C’est à la mode en ce moment, avec d’un côté des gens qui te vendent des lunettes teintées pour filtrer le bleu (avant c’était des lunettes séparées et dédiées à ça, maintenant les opticiens essaient de te vendre l’option quand tu achètes des lunettes !), de l’autre les vendeurs d’écran qui sont intègrent les LED potentiellement dangereuses et qui mettent des options sur les modèles plus cher pour réduire/filtrer leur effet (au lieu de chercher une autre solution que la LED), et enfin le côté logiciel avec ces fonctions plus ou moins intégrées à la l’OS.



Il parait aussi que ça affecte le cycle de sommeil.



Du coup, cette fonction (côté santé, pour le sommeil, pourquoi pas) concerne uniquement les possesseurs d’écran LED, donc les vieux écrans cathodiques ou plats avec des tubes néons sont pas concernés. Pour les OLED j’ai pas trouvé d’info.



Moi j’aime pas, ça jaunit beaucoup trop l’image. (Du coup <img data-src=" /> pour les opticiens qui essaient de te coller ça cette option sur les lunettes de vue, alors que ça a un bénéfice uniquement face aux écrans LED).


Le 10/01/2017 à 15h 08



On regrettera par contre encore une fois qu’aucune option ne permette de gérer la bande passante réservée aux téléchargements. Pour l’instant, ces derniers se font donc toujours en saturant la connexion.





Ah ? Pour moi c’est le contraire, quand je lance manuellement une recherche de màj, ça prends 3 plombes, et quand il en trouve, les téléchargements sont d’une incroyable lenteur. Je suis en câble coaxial, mais vu l’utilisation réseau que ça me fait, j’ai des doutes sur la saturation de la connexion pour des ADSL “urbains” (pour les ADSL loin du NRA comme mes parents en campagne, je veux bien le croire).

Le 09/01/2017 à 14h 21







sr17 a écrit :



Pour ma part, quand je suis passé d’un Core 2 Quad à un Core i5 plus récent, je n’ai pas vu de différence époustouflante. Et pourtant, j’aime les jeux vidéo.









OlivierJ a écrit :



C’est clair !

Comme on peut le lire régulièrement ici, un “vieux” CPU avec un SSD, 8 ans après ça suffit toujours. Mon CPU date de début 2008, et sauf quand je fais des conversions d’images genre 300 photos d’une soirée (pas souvent) et où je ne serais pas contre que ce soit plus rapide, je n’ai pas besoin de plus. Je pense que dans les cas où j’ouvre un paquet d’onglets, je sentirais la différence avec un CPU récent, parce que je l’ai vu sur un ordinateur du boulot relativement récent avec un core i5 que j’ai démarré sur une clé Linux.







Oui, niveau “usage”, un bon CPU desktop de 2008 peut être toujours satisfaisant (de toute façon ça reste plus puissant que ce qu’on trouve de nos jours dans les tablette Windows 10 ou PC fixes/portables très bas de gamme).



Le seul domaine ou je vois une grosse différence entre mes différentes machines (hors jeux vidéo et calcul, évidemment), c’est la navigation internet. Sur mon ancienne tour (Core 2 Quad Q9400), ça allait, sur mon PC portable (Ivy Bridge i7 3632QM), c’était équivalent, sur ma nouvelle tour (Skylake i7 6700K), c’est nettement plus rapide, et sur ma tablette (Atom Cherry Trail Z8300) selon les sites ça va de “lent mais ça passe” à “totalement insupportable”.



Pour les autres usage “bureautique”, il n’y a pas vraiment de logiciel qui pose problème à l’utilisation. C’est juste qu’il faut attendre plus longtemps sur les barres de chargement, rien d’handicapant, on s’y habitue et on oublie rapidement. Ça ne génère pas la sensation de frustration que j’ai avec la navigation internet asthmatique de la tablette.



Après pour du calcul lourd, la différence est flagrante, et pour le jeux vidéo, j’ai investi dans le Skylake quand mon PC portable (GTX 660M) commençait à faire mieux tourner certains jeux que l’ancienne tour (GTX 660 Ti).


Le 05/01/2017 à 15h 20







OlivierJ a écrit :



Ça ne correspond à rien, rien de théorique ni de pratique :




  1. l’OS n’a rien à faire à part servir les programmes utilisateur et

  2. passer de 1 coeur à plusieurs coeurs n’a jamais accéléré le moindre programme mono-tâche.







  3. Ça dépend si tu considère que l’OS c’est juste le noyau ordonnanceur de tâches, ou si tu considères tout le reste qui est inclus dans Windows/MacOS/une distribution Linux complète. Les drivers pour gérer le matériel, la gestion de la RAM, la gestion du stockage, le réseau, l’affichage, l’interface graphique, etc, c’est pas “rien à faire”.

  4. Ça dépend de la puissance de ton coeur, et de la charge nécessaire pour faire tourner l’OS. Sur des archis récentes à 4 GHz, c’est surement négligeable, sur des vieux trucs il y a moyen de récupérer quelques %.









    OlivierJ a écrit :



    Peut-être sous Windows du fait que la machine a toujours l’air de s’agiter même quand on ne fait rien (c’est toujours le mystère pour moi, anti-virus, mise à jour, autre processus qui tourne quoi qu’on fasse).



    En effet ça sent le Windows. Quoi donc en-dehors de l’appli, vu qu’on parle d’une seule appli ?



    Rendre de le reste de la machine instable, c’est drôle comme idée, comment on faisait avant, en mono-coeur ?

    Soyons sérieux.





    Honnétement, ça date comme souvenir (environ 10 ans), c’était un CPU du style Pentium III a 800MHz, et je cherchais à faire tourner un jeu Flash assez lourd (100% CPU, pas d’accélération matérielle à l’époque). Après avoir mis le processus Flash en priorité “temps réel”, le jeu gagnait un peu en fluidité.

    Et pour les effets secondaires, je me souviens surtout que l’interface graphique de Windows était dans les choux (genre déplacer la fenêtre du gestionnaire de tâches), et que je perdais souvent le processus “explorer.exe”.



    Avoir un 2ème coeur aurait permis au jeu de tourner aussi bien qu’en mode “priorité temps réel”, tout en n’handicapant pas Windows à côté.







    OlivierJ a écrit :



    Rendre de le reste de la machine instable, c’est drôle comme idée, comment on faisait avant, en mono-coeur ?





    Oh mais je me souviens très bien, avant quand un programme quelconque crashait en faisant une bonne boucle infinie, t’étais obligé d’appuyer sur le bouton “reset” du PC, parce que le système était bloqué et ne pouvait donc pas te laisser la main pour aller le fermer toi même. De nos jours avec le multi-coeurs les dégâts sont limités et tu peux quasi-toujours avoir la main pour tuer le processus.


Le 05/01/2017 à 12h 23







OlivierJ a écrit :



En fait ça ne se voit pas vraiment, parce que la parallélisation possible est limitée (et ça fait plus de 10 ans qu’on a des CPU grand public bi-coeur déjà, et des OS aussi, par exemple avec Linux). En utilisation courante de ton ordinateur, avec un quadri-coeur je parie que tu vois peu de différence avec un mono-coeur (je ne sais plus si l’essai a été fait en désactivant des coeurs, par ex sur un i5).

Il n’y a que dans certains cas favorables (calcul parallélisable de façon quasi-linéaire) que c’est efficace.







Pour avoir les performances maximales sur une application mono-thread, il faut au minimum 2 coeurs : 1 qui est dédié à 100% à l’appli, et l’autre coeur qui peut faire tourner l’OS et tout autre tâche de fond parasite par derrière.

Pour bien s’en rendre compte, il faut mettre le processus de l’application en priorité “temps réel” avec le gestionnaire de tâches, sur un CPU mono-coeur tu vas voir que tout ce qui est en dehors de l’appli patine énormément. Du coup avec 2 coeurs l’OS peut donner toute la puissance mono-thread a l’appli, sans rendre le reste de la machine instable.

cf les consoles de génération actuelle par exemple : CPU 8 coeurs, environ 6 dédiés aux jeux, et 2 réservés à l’OS.





De nos jours, 4 coeurs ça me parait pas mal, ça permet d’avoir un peu de marge pour pouvoir faire 2-3 trucs mono-thread lourds sans problème, et sur les navigateurs web qui utilisent le multi-processus ça fait plaisir avec les pages web très chargées.


Le 09/01/2017 à 10h 52

J’ai pas beaucoup d’expérience en VR, juste 5 min dans un Google Cardboard sur Nexus 5X (LCD 1080p, 60Hz) et une petite montagne russe à Europa Park (Samsung Gear VR, donc a priori du OLED 1440p).



La montagne russe VR, j’ai eu aucun mal de mer, ma copine non plus (les mouvements étant synchronisés avec la vidéo).

Le Google Cardboard, j’ai juste fait la démo de base avec un renard à cliquer, une mouette qui vole, et je sais plus quoi. Aucun problème pour moi, par contre la phase de vol était insupportable pour ma copine qui avait des nausées.

Ma copine à aussi du mal avec les séquence “vue à la première personne” au cinéma (elle a souffert sur ça).



Je pense vraiment que la sensibilité des personnes joue un grand rôle. Je me souviens que dans mon enfance, les reliefs en voiture me mettaient extrêmement mal à l’aise (une route que nous empruntions toutes les semaines présente une succession de petites collines assez marquée), puis au fil des années ce problème à disparu.

Il y a des gens qui ont le mal des transports en bus, d’autres ont le mal de mer, et certains vont avoir envie de vomir s’ils font le “manège des tasses” (Disney ou Europa Park) avec des bourrins ( <img data-src=" /> ).



Du coup pour la VR, je pense que c’est pareil, certains (minorité) n’auront aucun problème quelque soit le mode de déplacement, d’autres (majorité) auront aucun problème/des symptômes limités en adaptant au maximum le jeu, et enfin le reste (minorité) auront toujours du mal avec la VR, même avec tous les efforts du monde.

C’est une courbe de gauss quoi. Tu peux faire des efforts pour ratisser plus large, mais tu arriveras jamais à toucher 100% de la population, tant qu’on a pas des technologies genre Matrix capable d’englober toutes les sensations.



Mais bon, je me trompe peut être, vu mon peu d’expérience. Je pense que je suis capable de faire de la VR avec déplacement à la manette/clavier sans problème, et je pense que ma copine aurait quand même du mal avec le point fixe+téléportation.

Le 05/01/2017 à 09h 42







Fuinril a écrit :



Et sinon je complète réponse à la question que tu as vu passer. Oui c’est possible mais c’est infame et il vaut mieux regarder sur un écran normal. La définition des casques actuels (les haut de gamme hein) est bien trop faible et ça donne un espèce de filtre “effet mouche” alvéolé en altérant fortement les couleurs et la netteté au passage. Mais ça fait la taille que tu souhaites (de 10% de ton champ de vision à plusieurs fois)







Du coup, avec un double écran 4K, ça devrait améliorer considérablement la qualité pour cette utilisation non ?


Le 08/01/2017 à 13h 59

Je suis entrain de regarder de près leur site, et la FAQ parle des ruptures de contrat : après expiration du contrat, le jeu disparait du service, et n’est donc plus téléchargeable, ni jouable (même si déjà installé, c’est écrit clairement).



Du coup, gros point noir par rapport à Steam, puisque chez eux, le jeu est téléchargeable et jouable, il ne peut juste plus être acheté.

Le 05/01/2017 à 08h 46







griffondor a écrit :



en bref c’est de la SVOD du jeu, maintenant tout est SVOD désormais : le jeux, la musique, les films et séries, les documentaires, la SVOD c’est l’avenir







Le modèle marche plutôt bien pour la musique, pour les séries grâce à Netflix on a franchit la barre du “potable” (ça reste à améliorer), donc pourquoi pas le jeu ?



En fait, le seul problème que j’y vois, c’est les cas de fin de contrat entre ayant droits et celui qui propose l’abonnement. Ça arrive de temps en temps sur Steam et les jeux disparaissent de la vente, mais ceux qui ont acheté peuvent sans problème re-télécharger et y jouer, alors que dans l’abonnement, fini tu peux plus télécharger le jeu (et plus jouer pour les services de cloud gaming).


Le 04/01/2017 à 13h 26







Ulfr Sarr a écrit :



Faux, tu as un mois gratuit donc tu peux voir le catalogue sans payer.





Ah oui, j’ai pas assez réfléchi en tapant, mea culpa. Mais comme tu donnes ton numéro de CB à l’inscription, faut pas oublier de couper l’abonnement.



Et pour chipoter, si tu as déjà testé Netflix une fois, arrêté pour X raisons (au hasard, quasi aucun sous-titres en anglais et très peu de VO à l’époque de l’ouverture en France), il faut payer pour retourner voir le catalogue <img data-src=" /> (ou changer de CB).


Le 04/01/2017 à 10h 06







Fuinril a écrit :



+1, très étrange comme pratique commerciale…. “Abonnez vous, on a plein de jeux….. mais on vous dit pas lesquels !”







C’est pas étrange, c’est malheureusement très répandu pour les trucs en locations. Netflix par exemple, impossible de voir quoi que ce soit avant de payer.

EDIT : grillé par SebGF. Pour Netflix, j’ai quand même craqué, parce que c’est quand même pratique, et je préfère passer par du légal quand je peux. Par contre ce qui me fait vraiment peur, c’est des sites de vente en ligne (j’entends par là du style amazon, pas un truc avec abonnement pour louer du contenu) qui oblige la création de compte. J’ai déjà vu, et je pense que c’est à fuir comme la peste.



J’ai fait une recherche pour voir s’il y avait une liste consultable, mais rien trouvé. Quelqu’un se dévoue pour créer un compte puis recopier les 410 titres ? <img data-src=" />


Le 04/01/2017 à 09h 32







BTCKnight a écrit :



Ouais… je suis pas convaincu…. peut-être pour les adeptes du rétro gaming…

Sinon, le petit problème qu’il va y avoir à moyen terme, c’est que pas mal de gamers vont finir par s’apercevoir qu’ils ont acheté plein de jeux pas chers (sur différentes plateformes, pour profiter des soldes/promos)… mais qu’ils n’ont pas le temps d’y jouer…

Perso, c’est mon cas… vu la concurrence sur les prix (un jeux sympa est souvent dispo en super promo moins d’un an après sa sortie), j’ai acheté plein de jeux à prix soldé… que j’ai même pas eu le temps de lancer.

C’est juste addictif (et très con) puisque une journée ne comprend toujours que 24 heures…







Idem, ma librairie Steam est déjà trop remplie, et ma librairie Humble Bundle est encore pire (ayant la flemme d’importer les trop nombreuses clés dans Steam). Du coup, j’ai arrêté d’acheter des jeux intéressants en soldes il y a quelques temps si je vais pas y jouer dans les jours suivants.



Mais peut être que la solution c’est justement des services comme Utomik : au lieu de se ruiner à acheter 500 jeux au cas où on aurait le temps d’y jouer un jour, autant payer un service de location comme ça qui te propose d’emblée les 500 jeux, et auquel tu peux jouer le moment venu. Et quand tu joues pas, tu suspens l’abonnement.


Le 06/01/2017 à 14h 32

Oui mais compare avec Shadow, pour un peu plus cher, tu as 1 mois sans limite d’heures, et ils ont des GTX 1070 ou 1080.



Et ils auront exactement le même problème avec la mutualisation.



(Et chez eux, tu as le Windows complet sous la main, donc t’es libre toucher des .ini à la main ou mettre des MOD)

Le 05/01/2017 à 09h 40

$25 pour 20h de jeu ? <img data-src=" /> <img data-src=" />

Effectivement le “Shadow” n’a pas de souci à ce faire.

Le 04/01/2017 à 21h 42







carbier a écrit :



180 commentaires pour détruire la position de la famille.

Pas un pour se poser les bonnes questions. Ben oui remettre en cause l’utilité d’un smartphone quand on conduit semble être au dessus de la capacité de la plupart des commentateurs.







Relis bien les commentaires, combien exactement font l’apologie de l’utilisation du smartphone au volant ?

Oui les téléphones sont des appareils pleins de distractions, et n’ont rien à faire dans les mains/champ de vision du conducteurs s’ils ne sont pas en mode guidage GPS.



C’est tellement évident que ça sert à rien de le répéter et de cracher 180x sur le conducteur en tort.


Le 04/01/2017 à 17h 05

Quitte a porter plainte contre Apple qui a pas grand chose à voir là dedans, autant porter plainte contre les interlocuteurs FaceTime, qui eux voyaient clairement que Garrett Wilhelm était en train de conduire et sont donc complices de l’accident.



Je suis étonné de n’avoir vu qu’un seul commentaire mentionner ça.







vincentA a écrit :



Les personnes qui étaient en visio-Conférence avec le conducteur portent également une responsabilité.



Le 30/12/2016 à 09h 25

Je suppose que tu parles de l’avant dernier paragraphe ?

Je l’ai dit : “J’ai pas leur magazine sous la main pour juger par moi même”.



Tu peux lire les 2 derniers paragraphes de imore, l’article tweeté par Phil Schiller, l’auteur dit que de son point de vue, Consumer Report cherche plus à être au centre de l’attention qu’à aider les consommateurs dans leurs choix, et qu’il a arrêté de lire leurs publications il y a plusieurs années à cause de ça.



C’est l’avis d’une seule personne, certes, mais ça me semble bien coller aux faits qu’on a ici.

Le 28/12/2016 à 11h 18

Je me suis peut être mal exprimé, je ne considère pas la moyenne comme une solution non plus.



Ce que je voulais dire c’est qu’ils auraient du s’arrêter net sur la variance gigantesque, et ne pas tirer de conclusion sur le résultat de ces 3 tests. Quelque que soit l’opération statistique effectuée sur ces 3 tests (moyenne, médiane, minimum, maximum, quartiles, etc.), il n’y a absolument rien à en déduire parce que l’écart est beaucoup trop grand entre les 3 résultats.



Ils devraient prendre quelques cours de statistiques, j’étais une buse dans cette matière dans mes études, mais là je vois clairement qu’ils sont dans l’erreur totale, leur échantillon est inutilisable.



D’ailleurs, je suis allé voir sur le lien du tweet de Phil Schiller, et je découvre la citation suivante de l’association (traduite à l’arrache pour les non anglophones du coin) :



Avec de telles écarts entre les mesures d’autonomies, utiliser une moyenne pour le score ne serait pas représentatif de l’expérience qu’un consommateur va surement avoir dans le monde réel (33% c’est la majorité des cas !). Pour cette raison,

nous allons conserver le plus petit résultat d’autonomie pour notre calcul du score final. C’est la seule autonomie que l’on peut donner avec confiance aux consommateurs pour qu’ils sachent à quoi s’attendre s’ils doivent utiliser le produit pendant une longue période sans prise électrique.



Je vais le remettre une 2ème fois : “C’est la seule autonomie que l’on peut donner avec confiance”.

Avec une variation pareille de résultats, peut être qu’au 4ème test ils seraient tombés à 1h30 de batterie ?



Ces gens n’ont aucune crédibilité après avoir écrit un truc pareil.

C’est comme si je lance un dé à 6 face 3 fois, et que j’en conclus que les valeurs qui ne sont pas tombés n’existent pas sur le dé.

Le 28/12/2016 à 10h 00







coket a écrit :



Ouais enfin… c’est pas le problème de l’assos de consommateurs de trouver ou de résoudre le problème….

Quand les résultats sont mauvais, c’est les tests qui sont foireux? <img data-src=" />

Au contraire, c’est même le bon choix qu’ils ont fait, celui de ne pas conseiller le produit. Et si dans 3 mois, Apple leur représente un bébé non vérolé qui passe haut la main les tests, ils le recommanderont.



Ils ne vont quand même pas conseiller aux consommateurs de se faire avoir “dans le doute” si?







Je ne conteste pas le protocole de test, ni les résultats obtenus, de toute façon ils semblent ne pas être les seuls a avoir des problèmes, donc il semble clair que les batteries et/ou la gestion de l’autonomie a un gros problème sur cette nouvelle série de macbooks.



Je ne dis pas non plus que c’est leur boulot de chercher l’origine du problème. Par contre ils auraient pu relancer plus de tests pour essayer de stabiliser les résultats (le test étant vraisemblablement automatisé, ils vont pas laisser un mec regarder le PC pendant 19h, ça leur coute pas grand chose de continuer les tests).



Ce que je dis c’est que leur conclusion est foireuse.

Pour moi, la conclusion logique ça devrait être de ne pas donner de note, pour revenir sur le sujet dans un numéro ultérieur, et d’écrire en conclusion temporaire : “en l’état actuel des choses, nous avons une autonomie totalement aléatoire, donc tant que Apple ne fait pas quelque chose pour régler ça nous recommandons d’attendre avant d’acheter, ou se tourner vers un autre modèle”.

Ou sinon donner 2 notes et deux conclusions, sur les valeurs 2 extrêmes en précisant bien au consommateur qu’il faut attendre un petit peu pour savoir laquelle de ces 2 notes restera.



J’ai pas leur magazine sous la main pour juger par moi même, donc je dois faire confiance à ce qui est rapporté par NextInpact ou d’autres, mais je considère que se limiter à “Ce portable a 4h d’autnomie, Apple a menti sur les 10h d’autonomie” c’est du journalisme bâclé, c’est digne d’un tabloïd qui cherche la polémique pour vendre, plutôt qu’une association de consommateur qui cherche a informer honnêtement les consommateurs.



Leur méthodologie pour choisir le score final d’autonomie qui a été utilisé pour leurs milliers de tests passés et valable sur une variance faible : si le PC tient 4h05, 4h13, et 4h08, ça parait pas déconnant de partir sur le 4h05 pour le score, mais des résultats qui font 16h, 12h45, et 3h45, c’est totalement aberrant de s’arrêter sur ces chiffres là et de dire qu’on peut tirer une conclusion sérieuse sur la base de 3h45.


Le 27/12/2016 à 16h 44







Xaelias a écrit :



C’est vraiment étrange de passer de 18h à 8h sur le même test…





de 18h à 8h, c’est le plus régulier des 3 modèles, c’est deux autres, c’est un facteur 4,3 l’écart ! (16-&gt;3.75 et 19.5-&gt;4.5)



Je comprends absolument pas comment des gens qui veulent pris au sérieux peuvent publier un truc pareil : “on a essayé 3X pour réduire la marge d’erreur, mais du coup on a des écarts de 400%… donc on s’est arrêté là et on considère que la vraie autonomie c’est moins bonne des 3”.

Alors que la machine a bien été capable d’atteindre les 19h d’autonomie une fois, donc elle est capable de le refaire quand le problème sera corrigé.

La bonne réaction dans ce cas c’est de ne pas donner de note finale, et de dire qu’ils vont conduire plus des tests et qu’ils donneront une note dans un numéro ultérieur de leur magazine.


Le 20/12/2016 à 08h 45







eric31810 a écrit :



Yep, chez moi, ça tourne aux alentours de 170Mbit/s pour le téléchargement. Sur une connexion à 1000, c’est dommage…

 

Mais vu la vitesse du disque dur intégré (ou même externe), l’installation prendra quand même du temps…







Ma copine m’a piqué le PC pour jouer à Sims, donc j’ai enfin testé hier soir, après une 1ère tentative plutôt raté (téléchargement vers 35Mbit/s), j’ai redémarré la Xbox, et la 2ème tentative a commencé plutôt pas mal à 210Mbit/s, puis a descendu graduellement pour se stabiliser dans les 160~170Mbit/s.



C’est mieux qu’avant certes, mais un peu déçu que le débit ne soit pas resté à 210Mbit/s.


Le 15/12/2016 à 13h 57



Pour ceux équipés d’une connexion Internet à plus de 100 Mb/s, la hausse pourrait atteindre 80 % selon le fabricant.





Bonne nouvelle, je trouvais ça dommage que les téléchargements ne montaient pas au delà de ~110Mbit/s sur une connexion a 400Mbit/s (sachant qu’à l’époque ou j’étais en 200Mbit/s, j’avais fait un Speedtest dans IE sur la Xbox, et ça me confirmait bien que la console pouvait avaler 200Mbit/s).

Le 14/12/2016 à 22h 20







Charly32 a écrit :



Oui, le dual est un minimum aujourd’hui, le quad est plutôt bien géré par les jeux vidéos et au delà, c’est déjà un bien plus confidentiel comme usage : calcul scientifique, traitement vidéo, usage de VM, c’est à peu près tout ce que je vois capable, aujourd’hui, de bénéficier de l’effet d’échelle au delà de 4 coeurs.





Ça fait plusieurs commentaires que je vois mentionnant les VMs comme profitant des nombreux coeurs … vous faites quoi au juste dans ces VMs pour avoir besoin de nombreux coeurs ? La VM c’est juste un conteneur, ça n’a pas un pré-requis de X coeurs.

J’ai même fait tourner des VM sur mon Netbook, avec le foudroyant Intel Atom N270 : 1 coeur avec hyper-threading, et ç a se passait bien pour l’utilisation que j’en voulais.







Charly32 a écrit :



Du mien ce n’est pas vraiment la même chose :




  • Le throttling est un processus de protection (…)

  • Le tubo/XRF est un processus d’optimisation (…)







    C’est de la sémantique, je parlais du procédé aboutissant à ces “technologies”, tu parlais de l’objectif. Je suis d’accord pour dire que l’objectif est différent, mais je maintiens que le procédé de base est le même : réguler la fréquence par rapport à la chauffe/consommation.









    Charly32 a écrit :



    Le problème de ce genre de turbo “sans limite”, c’est que les performances des puces ne sont plus équivalentes. Tu achète une performance minimales garanties : si tu as de la chance, tu as une bonne puce qui permet d’aller plus haut en fréquence. Si tu joue de malchance, tu as une puce récalcitrante qui refuse d’aller plus haut que le mini. Du coup lors des benchs par les journalistes, il faut faire attention au fréquences atteintes, les fondeurs pouvant trier des puces sur le volet pour afficher des plus gros résultats.







    Avec des processeurs complétement auto-régulés, ça les empêche aussi de faire des “gammes artificielles” avec des puces identiques mais qui ont des fréquences limitées par le FW. Ils vont trier les puces et les regrouper dans des lots de qualité similaires, et ça fera leurs gammes à prix différent.

    Du coup, à l’achat, tu aura un aperçu de la qualité du silicium par rapport au prix.

    Et pour les tests journalistes, le pire qu’ils pourront faire c’est leur donner que le meilleur du CPU possible dans chaque gamme, donc il suffira de décaler les noms d’une ligne dans le tableau du benchmark pour savoir à quoi ça correspond.


Le 14/12/2016 à 07h 23







Charly32 a écrit :



Non, parce que le processeur tournera au minimum à la fréquence vendue (sauf problème dans le refroidissement). Je pense qu’il faut le voir comme un turbo (celui des GPU en fait) : tant que la conso et la temperature sont OK, on augmente la fréquence. Ca optimise l’enveloppe thermique et ça permet de profiter de la qualité defabrication de la puce. Pour tout le monde, même ceux qui n’ont aucune connaissance de la manipulation manuelle.

Aussi, un autre aspect auquel on pense moins, c’est pour les pros. En général, c’est la stabilité qui est recherchée (et puis aucune boite ne va s’amuser à OC à la main des dizaines de PC). Or là, AMD aura validé le comportement de la puce, et donc les pros pourront eux aussi bénéficier de ce gain de fréquence.







C’était juste un petit troll gratuit <img data-src=" />

De mon point de vue le “XFR” et le Throttling c’est exactement la même chose : mesure de température et de conso pour réguler la fréquence.

Ça me sidère un peu que ce turbo sans limite arrive que maintenant, les capteurs existent déjà (dans les Intel et puces ARM en tout cas, j’ai jamais eu AMD mais je suppose qu’ils ont aussi le Throttling en protection) ils auraient pu mettre ça en place plus tôt quand même.


Le 13/12/2016 à 22h 59







Patch a écrit :



Au contraire.

Paradoxalement, pour qu’une augmentation du nombre de cores soit efficace, il faut que chaque core soit plus efficace. Sinon l’effet sera à peine visible, voire nul.

On peut comprendre le truc avec les routes :

-S’il y a une route à 1 voie, la vitesse moyenne sera par ex de 80km/h.

-Sur autoroute 2 voies avec les mêmes véhicules, on montera à 110km/h.

-Sur autoroute 3 voies, ca sera 118 km/h.

-Sur autoroute 4 voies, 121km/h.

-Et sur autoroute 5 voies, 122km/h. Soit un gain quasi-nul.

Par contre si on met des véhicules plus rapides sur la 4 voies, on pourrait monter à 150km/h de moyenne.







Non, tout dépend du traitement que tu veux effectuer.



Si c’est purement séquentiel (exemple con, énumérer les nombres de 1 à 1 milliards dans l’ordre), tu gagnes rien dès que tu dépasse 2 coeurs (le seul intérêt du 2ème coeur c’est que l’OS peut dédier un coeur entier au traitement, tout le reste qui est peu consommateur vas sur l’autre).



Si une partie du traitement est parallélisable, en fonction de la durée de la section parallèle, tu peux gagner à avoir plus de coeurs, mais le fait de devoir resynchroniser les threads ralentit énormément.

Le “coeur le plus lent” vas donner la cadence au traitement au final

Exemple vécu : un traitement sur une image, à chaque “passe” on peut découper traiter chaque pixel indépendamment pour calculer des valeurs, puis à la fin de la passe on calcule une valeur globale par rapport aux résultats de la passe, et rebelote sur une nouvelle passe (environ 1000 “passes” par secondes).



Perfs à 1 coeur : 1X

Perfs à 2 coeurs : 1,7X

Perfs à 8 coeurs : 2,4X

Perfs en OpenCL sur la vielle Nvidia Quadro pourrie de l’école : 0,6X (centaines de “coeurs” CUDA, mais peu véloces)



Sur un traitement intégralement parallélisable (ex : traitement très lourd sur une image avec des zones traitées indépendamment), rajouter des coeurs augmentera presque toujours les performances en conséquences, tant que les unités de travail sont de tailles adaptées. Tu peux même avoir des coeurs à fréquences différentes et y gagner.


Le 13/12/2016 à 22h 41

L’overcloking dynamique, en fait, ce serait pas du Throttling sans le dire ? <img data-src=" />

(genre la fréquence nominale est 7GHz, et comme le CPU est trop chaud, la fréquence est en permanence ajustée vers le bas pour rester dans la limite de température).

Le 09/12/2016 à 14h 52







tefze1 a écrit :



Bien sur, mais l’existant est mis de côté par “manque de puissance”.

 

Alors que je n’y crois pas pour 2 sous, comme Windows Phone 10 incompatible avec les Lumia X2X alors que certains appareils moins puissants de la génération X3X on leur mise à jour.







C’était plus un problème de drivers et de support de la part de Qualcomm qu’une histoire de puissance.







goldennet a écrit :



Oui enfin les jeux en émulation ça risque de pas être joli joli… C’est clairement orienté professionnel cette solution !





Côté graphismes, DirectX est géré directement par le GPU sans émulation. C’est plus le côté CPU qui vas coincer, et la limite de RAM du 32 bit (2 Go, ou 3 Go avec PAE).

C’est sur, ça fera pas tourner les derniers AAA, mais il doit quand même y avoir un certain nombre de jeux moins exigeants qui passe dessus.


Le 09/12/2016 à 14h 01



Notez que Microsoft devra également répondre à certaines questions en suspens. Par exemple, sur la possibilité plus tard que ces PC utilisent des SoC d’autres constructeurs.





Alors :





  • Win32 = Steam et sa ribambelle de jeux

  • Nvidia a un SoC Tegra avec les GPU Pascal qui devrait bientôt sortir

  • un design façon Razer Edge ou assimilé qui ont moins fait parler d’eux







    Nintendo peut se faire du souci pour leur nouvelle console !

Le 30/11/2016 à 16h 25







darkbeast a écrit :



Et vu leur par de marché mondiale ça n’ira pas en s’améliorant. donc soit tu passe sous android/ios soit tu as un os atypique et t’as pas d’apps dessus.







Windows Phone, certes, mais pour les PC Windows en général pour regarder Netflix ?

Avec les embêtements de Flash/Silverlight, et la HD en HTML5 uniquement sur certains navigateurs, j’ai toujours utilisé l’application Modern UI.


Le 22/11/2016 à 20h 32

Je confirme, je ne paye rien pour l’option.



sur mon espace client

email de confirmation

Le 21/11/2016 à 12h 21

Ah… je vérifierai mon espace client ce soir, quand j’ai souscrit à l’option elle était marquée gratuite (ou rien d’indiqué ?) il me semble.



Si l’option m’est effectivement facturée, il faut qu’ils clarifient leur espace client.

Le 18/11/2016 à 10h 22

Ok, donc c’est plutôt un problème de DNS FAI que un DNS spécifique SFR.



Je pensais qu’il y avait un truc spécifique :







XMalek a écrit :



Donc coaxial (avec les jolis problèmes de capture DNS de sfr)



Le 18/11/2016 à 09h 28







Hyenal a écrit :



Le FTTLA c’est plutôt 200 Mb/s max.

Il faut du FTTB pour du 400 et plus.







Je viens de déménager en maison individuelle et j’ai fait un speedtest a 387Mbps sur le coaxial.

A moins que le “Building” ça puisse aussi être des maisons ?

Auquel cas c’est des enfoirés de pas me filer un vrai fibre, plutôt que de transformer ça en coaxial.







Charly32 a écrit :



À chaque fois que quelqu’un conseille OpenDNS ou Google DNS, Stéphane Bortzmeyer tue un chaton! <img data-src=" />

 Si celui de votre FAI est en rade/ne convient pas, que vous avez la flemme/pas les moyens d’installer votre propre résolveur, je pense que le meilleur compromis est FDN







J’ai du rater un truc, c’est quoi le problème avec le DNS de SFR et pourquoi vous êtes plusieurs à parler de le changer ?


Le 17/11/2016 à 16h 54

Je les avait oublié en effet. Il me semblait qu’ils avaient arrêté le réseau SFR-NC, un premier passage sur le site semblait donner raison (aucune trace de l’offre Sensation, ou je suis pas doué), jusqu’à ce que je fasse un test d’éligibilité de mon adresse.



Donc pour compléter <img data-src=" /> :




  • Bouygues BBox Sensation : 37€/mois , 1005 Mbps

Le 17/11/2016 à 16h 23







xouboudou a écrit :



“débit pouvant atteindre 400 Mb/s en téléchargement (suivant l’adresse de

raccordement) au lieu de 100 Mb/s, tandis que l’upload reste le même à

50 Mb/s maximum”



Déjà le 1er Avril ? O_o





J’ai tiqué aussi, mais ça inclus le FFTLA (coaxial ex-numéricable) et le FFTH (vrai fibre optique).


Le 17/11/2016 à 16h 15

Comme d’autres au dessus, quand la vraie fibre n’est pas dispo jusque chez toi et que t’as le choix entre (ma ville est a 400Mbps max) :




  • SFR Starter : 25€/mois , 1005 Mbps

  • SFR Power : 30€/mois , 40040 Mbps

  • RED fibre : 10€/mois , 100/? Mbps

  • RED fibre avec l’option « débit plus » : 15€/mois , 40040 Mbps

  • LaPosteMobile Fibre (oui c’est zarb comme nom) : 20€/mois , 40020 Mbps (leur site indique 1005 Mbps, mais quand j’y ai souscrit il y a 5 mois, c’était indiqué 20010 Mbps, et depuis quelque temps une option gratuite est apparue sur l’espace client pour avoir le “débit max”, qui me donne du 40020 Mbps)

  • ADSL : des prix de 20 à 30€/mois, pour un débit max de 20Mbps (je n’ai pas de ligne FT, donc impossible de tester mon adresse), voire plus si on est très proche d’un NRA



    Le choix est vite fait pour ma part. Je suis chez LaPoste parce que c’était le mieux placé à un moment ou j’avais besoin de changer, mais quand j’ai fini mes 12 mois je passe sur RED avec l’option débit max.



    * : pour les prix, j’ai inclus la location de box, et je compte uniquement les 12 premiers mois. A la fin de la promo, il suffit de tourner sur les autres FAI, comme pour les téléphones.

Le 22/11/2016 à 08h 13

Tiens voilà, sur le test que Clubic viens de publier sur le OnePlus 3T, le testeur indique clairement à la fin de l’article :





PS : ceci était mon dernier test en tant que journaliste sur Clubic, puisque j’ai quitté la rédaction le 18 novembre. Merci de l’avoir lu jusqu’au bout, merci de m’avoir lu pendant ces sept dernières années. On se retrouvera peut-être, ailleurs sur la toile. En attendant, pour pouvez me suivre sur Twitter ;)





Ceci dit, je m’interroge sur cette vague de départ : le délai de préavis est de 3 mois pour les démissions non ? donc d’une part ils se sont plus ou moins concerté, et d’autre part ça fait 3 mois que les dirigeants n’ont pas cherché à les remplacer et du coup se retrouvent à utiliser les rédacteurs de sites d’économie et de voiture pour les remplacer.

Le 18/11/2016 à 13h 49

Comme d’autres ici, j’ai commencé à lire les actus d’info sur Clubic avant de connaitre NextInpact.

C’est dommage, mais pas étonnant vu la dégradation progressive de la qualité depuis le rachat par M6Web.

J’attends 1-2 mois pour voir, mais je les retireraient bientôt de mes flux RSS du coup.

Le 24/10/2016 à 22h 22







David_L a écrit :



Le tableau final reprend l’ADSL oui (parce qu’on a aussi le tarif box de SFR simple dessus), mais je ne vois pas en quoi ce n’est pas clair (les tarifs sont identiques et l’important c’est la séparation des packs inclus pendant 12 mois ou définitivement).





Quand j’ai lu l’article et que je suis arrivé sur l’image finale, j’ai cru que la ligne avec les débits était un troll mesquin sur le coaxial.



Pour les gens éligibles au coaxial supérieur à 100Mbps, il y a une différence : les forfaits “Starter” sont limités à 1005 Mbps, alors que le reste est à 1Gbps/40 Mbps selon le site de numéricable, et 1Gbps/60 Mbps selon le site de SFR.



Surhttps://www.lesoffresinternet.fr/ , ça pourrait être intéressant d’ajouter l’équivalent des MVNO pour le fixe. Je trouve l’offre “fibre” de La Poste Mobile plutôt intéressante, ainsi que RED (pour internet uniquement, la télé je regarde pas <img data-src=" /> ) :

-RED : 10€/mois pour 12 mois, 20€/mois , pas de location de box

-La Poste : 17€/mois pour 12 mois, puis 34€/mois, + 3€/mois de location box (la box de numéricable)

-SFR Starter : 20€/mois pour 12 mois, puis 35€/mois, + 5€/mois de location box (la box de numéricable)

-SFR Power : 30€/mois pour 12 mois, puis 40€/mois, + 5€/mois de location box (la nouvelle box Zive)



Et niveau débits :

-RED : 1005 Mbps

-La Poste : 20010 Mbps

-SFR Starter : 1005 Mbps

-SFR Power : 100060 Mbps



Et au printemps dernier Numericable/SFR avait une offre Starter à 20010 Mbps. J’avais vraiment lutté avec le service client pour transformer mon “Starter 1005 Mbps” en “Starter 20010 Mbps”, avant de faire une résiliation sans frais (merci les augmentations de tarif forcées) pour me barrer chez La Poste.


Le 08/09/2016 à 15h 28







manu0086 a écrit :



Et tes arguments à toi en français ? :)

Et le matos dispo dans nos magasins français, et son prix à la sortie des consoles?  On compare? non, c’est mieux de comparer sur des sites anglais avec un matos qui n’était pas présent à la sortie des consoles (ou hors de prix).



Mais de toutes façons, coût de côté, y’a aucune comparaison possible entre une console de salon et un pc… avec l’un, on joue seul (ou en réseau), avec l’autre on joue également en famille confortablement installé dans son canapé.

Donc, chacun ses goûts.







Prix du matériel mis à part, le prix des jeux, c’est vraiment pas la même chose, et je pense que ça fait vraiment la différence sur la durée.



Pour les façons de jouer, en quoi le PC t’empêche de jouer dans le salon sur le canapé ? Ma tour est à côté de la télé, je joue régulièrement à des jeux à plusieurs sur la télé avec le PC.

Côté console, j’ai acheté une Xbox One en grosse promo il y a quasiment 1 an, et je suis plutôt déçu par le catalogue de jeux coop, je pensais en trouver bien plus.


Le 08/09/2016 à 11h 28







k43l a écrit :



Comme j’ai dis on est en environnement fermé. Dire que la PS4pro se limitera à du 1080/60ips c’est croire que la PS4 ne l’atteint pas hors c’est faux. 80% des jeux PS4 sont en 1080/30ips (généralement il est bloqué pour éviter un effet yoyo) - 15% en 1080/60ips et les autres 5% en 900p/60ips.

Petit rappel quand même qu’un pc avec la même config ne fait pas ce que fait la ps4 ! <img data-src=" />



Y’a donc une certaine marge avec une console 2 à 3 fois plus puissante pour atteindre du 4k en 30ips.







Source pour les 80% en 1080p@60ips ? Hier soir je suis parti chercher des listes (pour troller, je voyais plutôt du 5% en 108060 , 15% en 108030 et le reste en 90060), j’ai pas fait le comptage manuellement, mais c’est bien loin de 80% en 108060.



Même si on a du 108060 , avec le X2 en puissance, on tombe sur 216030, donc je doute qu’on voit des jeux en 216060 hors graphismes simplismes.



Il faut aussi noter que “1080p”, c’est pas nécessairement 1920x1080, c’est souvent anamorphosé (économie sur l’horizontal en étirant l’affichage à l’écran), donc c’est pas comme sur PC (mais ça change rien pour le 4k, ce sera fait pareil)


Le 08/09/2016 à 11h 16







Reparateur a écrit :



en attendant déjà que grosoft était à la ramasse la il sont carrement enterré pour 2017



est on peut les comprendre

l’archi de la Xone est pas bonne pour recevoir une mise à jour

les base ne vont pas



alors que la PS4 avait de très bonne base car il avais fait le parie de la GDDR5 dès le début

donc très facile de booster leur console



microsoft doit revoir ça copie tout en assurant la rétro compatibilité

beaucoup plus dure





Je vois pas le rapport de la “mauvaise” archi de Xbox One ? c’est quasiment la même chose entre Xbox One et PS4.

Et en quoi la GDDR5 de la PS4 permet de booster facilement la console ? Sur les consoles déjà vendues, ça change rien, elles seront jamais modifiées pour être “boostées”, et sur les futurs modèles, rien ne les oblige à rester sur le même type de mémoire. La Xbox Scorpio pourrait très bien se retrouver avec de la HBM2 à la place de la DDR3, rien ne l’empêche (la prix à la rigueur, mais c’est tout).


Le 07/09/2016 à 21h 48







Darok a écrit :



“la PS4 avait tiré le maximum des écrans Full HD (sic), la version 4 Pro doit en faire autant avec les écrans 4K”

 

“la PS4 Pro, qui sera vendue 399 euros”



Le bon bullshit marketing, une console 4K à 400€ ça fera jamais tourner les jeux avec les niveaux de graphisme actuel en 4K, déjà que les consoles actuelles ont encore du mal avec la FHD ce qui est honteux.







Peut être que la PS4 Pro pourra enfin faire tourner les jeux en vrai 1080p à 60fps ?



Pour le “4k”, énumérons les faits clairement :





  • 3840x2160 , c’est 4X plus de pixels que 1920x1080

  • La PS4 Pro est 2,26X plus puissante que la PS4 “de paysan” (cf chiffres officiels Sony de l’article)

  • La PS4 “de paysan” à du mal à cracher du 1920x1080 @ 60Hz (de nombreux jeux sont donnés en “1080p” mais ça ne dit rien pour les 1920 pixels horizontaux, les rendus sont souvent anamorphiques =&gt; étirés sur l’axe horizontal)

  • Quelle est la probabilité de voir des jeux 3D en 3840x2160 @ 60Hz sur la PS4 Pro ? Parce que les rares jeux 1920x1080 @ 60Hz pourront passer en 3840x2160 @ 30Hz avec l’augmentation de puissance, mais au delà, je vois pas.







    A ce niveau d’improbabilité de voir un jeu en 3840x2160 @ 60Hz , est-ce qu’on peut porter plainte pour publicité mensongère pour le “4k” mentionné à toute sauce ? (c’est même pas du 4096px de large…)


Le 22/07/2016 à 15h 48

Bon, il va être temps que je migre mon PC. Vous savez si les favoris/onglets ouverts dans Firefox/Chrome/Opera survivent bien à la mise à jour ?









Folgore a écrit :



Je comprends ceux qui veulent rester sur Windows 7 mais alors pour Windows 8… la barre de démarrage intrusive, lenteur extrême pour rechercher des fichiers et vu que Windows 10 est une version définitive de Windows 8, ca vaut le “patch”.





Sur un PC portable, le réglage de la luminosité est nettement plus galère sur 10 que sur 8 (le clavier interne est mort donc j’ai pas les touches Fn pour régler).

La fonction pour “mixer” les volumes (couper le son d’un programme X, ou réduire son volume tout en laissant le reste à son niveau normal) est plus difficilement trouvable, il m’a fallu plusieurs mois pour remettre la main dessus, je pensais que ça avait été supprimé.

J’avais quelques autre griefs qui m’ont fait rester sur Windows 8.1 pendant 1 an en attendant que ça s’améliore, mais je me souviens plus, je vais redécouvrir ça dans quelques jours <img data-src=" />









Elwyns a écrit :



Il paraitrait d’ailleurs que W10 se permettrait de désinstaller des programmes ( hormis AV ) sans demander l’avis à l’user ?





Oui, j’avais lu que quelqu’un s’était fait piraté son compte Teamviewer, et avait été “sauvé” par Windows 10 qui a jugé bon de s’installer pendant que le méchant contrôlait la machine, puis a décidé que Teamviewer était non-compatible avec W10 et l’a donc viré pendant la mise à jour.



Il y a t’il moyen de voir à l’avance quels programmes seront virés, et s’assurer de ne perdre aucune donnée pendant la mise à jour ? (par exemple : configuration d’applications)


Le 11/07/2016 à 13h 45







death_deanied a écrit :



20 jours avant.





20 jours avant ?

J’avais entendu parler des 2 quelques temps auparavant (je m’intéresse peu au jeu multi), j’ai très bien remarqué la sortie de Overwatch, mais pas du tout celle de Battleborn.

Pour tout dire, environ 1 semaine après la sortie d’Overwatch, je me suis dit : “tiens, mais il y en avait un autre dans le même style qui devait sortir dans la même période, il arrive quand ?”. J’ai du commencer par chercher pour trouver le nom, puis “oh, c’est déjà sorti en fait”.



Tu dis que Blizzard s’est dépêché de sortir Overwatch pour rafler la mise, pourquoi pas. Moi quand je regarde les pages Wikipedia respectives, ce que je vois c’est que certes Battleborn avait une petite avance sur toutes les dates, mais les dates sont tellement proches, les gens de 2K Games/Take Two auraient du voir que les sorties allaient coïncider, et il auraient bien du se douter qu’a moins d’un foirage de Blizzard (peu probable vu que c’est Blizzard du coup), la confrontation serait pas à leur avantage.



Battleborn peut très bien être meilleur qu’Overwatch et différent, c’était Blizzard en face !

D’une part, Blizzard pouvait sortir un gros budget marketing (les pubs Overwatch, je pense qu’on les a tous vus, Battleborn, jamais entendu parler en dehors de la presse spécialisée), et d’autre part ils ont droit à la hype d’une horde de fans.

D’autre part, même si le style de jeu est différent, il y a un gros point commun : ce sont des FPS compétitifs en équipe en ligne. Certains joueurs n’aimeront pas Battleborn, d’autres n’aimeront pas Overwatch, mais une grosse partie des clients potentiels de l’un sont aussi les clients potentiels de l’autre. Et là, le nombre de joueurs et les amis qui y jouent font vite pencher la balance sur lequel acheter. Donc cf. l’argument marketing/hype.

Enfin, le modèle économique aurait pu changer la donne, mais pas de chance, ils sont tous les deux payants donc la cible potentielle est la même (plutôt que d’aller chercher les joueurs qui ne (p/v)eulent pas payer). Là encore, c’est le marketing/hype qui va faire que l’un se vends mieux que l’autre.



Pour que Battleborn s’en sorte, il aurait fallu qu’ils suscitent assez d’envie pour en vendre plusieurs millions dans les quelques 20 jours d’avance qu’ils avaient.

Ou qu’ils décalent la sortie du jeu de plusieurs mois pour que la hype Overwatch redescende et qu’une partie des joueurs d’Overwatch se lasse juste le petit peu qu’il faut pour être tenté de voir ailleurs.

Ou qu’ils tentent leur chance de F2P.