T’es au Canada ? " /> J’y pars en 8⁄9 mois en septembre et j’hésite entre prendre un de ces forfaits (Free / RED) avec pas mal de roaming mais en dépassant le temps limite (4mois chez Free) ou prendre un forfait là-bas, mais ça m’a l’air assez pauvre en data et très cher..
J’y suis passé brièvement en 2012. A l’époque, les forfait data coutaient un bras, j’en avais donc pas pris (j’étais étudiant). Au menu des joyeusetés qui m’avaient marqués : hors plan haut de gamme, on paye pour recevoir les SMS, les appels sont toujours segmentés selon la distance.
joma74fr a écrit :
je ne me plains pas, seulement je trouve que ça fait cher la connexion internet et que je ne comprends pas qui a besoin de dépenser autant (même 46€ par mois pour une AndroidBox+mobile) pour de l’illimité (terme marketing fumeux). C’est comme les smartphones à plus de 500€.
On m’aurait proposé le FTTH à 45€/mois, j’aurais signé sans réfléchir pour remplacer mon ADSL.
A 60€, je pense que j’aurai signé après réflexion, vu le confort apporté (les patchs de quelques Go qui se font en un clin d’œil, upload qui permet enfin de se faire un NAS et VPN perso) et mes revenus.
code a écrit :
Wwaaaa 16 € avec 4g ilimité ( je ne parle meme pas des promos de 4 €)
Et vous trouver encore quelques choses redire ??!!!
C’est pas tellement l’offre qui est critiquée, mais le réseau derrière.
Lady Komandeman a écrit :
Quel est l’intérêt de télécharger juste histoire de ? " />
Voir si l’usage du terme illimité est justifié ou bien s’il s’agit d’une astuce marketing " />
coket a écrit :
Non, ça a toujours été autorisé.
Ok, j’ai confondu alors, merci " />
Le
21/03/2017 à
09h
15
Burn2 a écrit :
Moi. :o
Pas près de changer mon vaillant nexus4 ne trouvant rien d’intéressant ou de comparable de nos jours. :/
Si tu as la 4G dans ton coin, le gain est appréciable. Je sais que c’est ce qui a motivé mon choix pour la cher mon 4S vers un One Plus X.
DUNplus a écrit :
Free n’a jamais bloquer le “mode modem”.
De mémoire, cet usage est “interdit” dans les Conditions Générales de Vente (à vérifier)
joma74fr a écrit :
En attendant, ça fait cher l’illimité (un terme qu’il faudra définir
un jour tellement il ne veut rien dire) : à 56 € par mois le quadplay,
quelle proportion de la population a besoin de ça à ce prix là ?
Relastivisons ; dans certains pays, ils aimeraient bien avoir ne serait-ce que du triple (voire dual) play sans fair use pour ce prix là " />
Le
21/03/2017 à
09h
06
FunnyD a écrit :
Umbrella serait encore là, il t’expliquerai que 100 Go, c’est un minimum et qu’il consomme facilement 2 à 3 To " />
Sur ma connexion fixe, je fais largement péter les 100Go mensuel (streaming vidéo + maj OS + maj Jeux Vidéo) Au canada, en 2012, j’ai du vivre avec un fair use de 80Go sur le fixe, j’étais malheureux.
adarion29 a écrit :
il n’y a qu’une antenne, proche certes, mais une seule antennes contre 3⁄4 pour les autre opérateur, ça sens l’itinérance orange fréquente.
Et impossible de désactiver ce roaming devenu inutile " />
Je préfèrerait rester en 2G quand aucune antenne Free n’est à portée, au moins je n’aurai pas de faux espoirs sur ma connexion.
Alderic a écrit :
N’en déplaise à tous les troll miteux qui sévissent ici, je bosse à Paris, vis en région parisienne, suis en 4G free tout le long de mon trajet, à mon taf et chez moi !
Pareil, dans les divers endroits où je suis amené à me déplacer (région Parisienne), je suis plutôt bien couvert avec Free Mobile. A mon domicile ce n’est pas terrible, mais je suis fibré donc pas très important pour moi.
Mais ce n’est pas la peine de traiter de trolls miteux les gens qui n’ont pas cette chance : le réseau Free est moins déployé que le réseau de ses concurrents, et donc des clients peuvent ne pas bénéficier d’une offre digne de ce nom (vu les débits offerts par itinérance Orange, il vaudrait mieux la tuer de suite)
Nico4271 a écrit :
Réduction du débit en cas de “congestion” de l’antenne mobile : TwitterBah rien d’alarmant, si l’antenne ne peut plus fournir le débit max vendu, automatiquement il va être réduit.
Quand y’a un bouchon sur l’autoroute, tu ne peux plus rouler à 130.
Le meilleur codeur au monde, il peut aussi éviter d’utiliser une fonction pas optimisée trop souvent.
Sauf si il veut livrer un truc qui rame parce qu’on lui fout la pression
Ce n’est pas forcement UNE fonction de l’API qui n’est pas bien optimisée, mais un enchainement de fonctions.
Ou bien la fonction peut être optimisée pour une architecture, mais celle concurrente.
Ce n’est pas pour rien si les marques de GPU sponsorisent des studios de développement en allant jusqu’à “prêter” des ingénieurs maison pour réaliser du travail d’optimisation.
Le
20/03/2017 à
18h
24
uzak a écrit :
En gros, si je lis entre les lignes, ça veut dire que l’API est mal documentée aux cas limites OU que les devs sont des charlots qui ne savent pas lire une doc et ne savent pas ce qu’ils font.
C’est beaucoup plus compliqué que ça.
L’exemple que je prend souvent, ce sont les Radeons 5xxx et 6xxx et leur architecture VLIW : le principe était de traiter une instruction complexe, composée de sous-fonction plus simples (5, puis 4 avec les dernières générations) d’un seul coup (i.e à chaque cycle).
Mais si les pixels ne demandaient qu’une seule opération, c’était quelque part 4 (ou 3) opérations qui étaient perdues lors du cycle. Le pilote devait donc optimiser l’ordonnancement des calculs afin d’atteindre une efficacité maximale.
On voit clairement que ce travail était hors cadre de celui du dev de jeu (et d’ailleurs, AMD a laissé tomber ce modèle avec GCN).
Elitrich a écrit :
Ba
ne lis pas entre les lignes ça t’éviteras de comprendre de travers. Il
veut juste dire qu il y a un certain nombre d’optimisations qui ne sont
faisables que du coté du driver. Et que tu peux être le meilleur codeur
au monde, il n y a rien que tu puisses faire (pour ce genre d’opti).
" />
Le
20/03/2017 à
16h
27
domFreedom a écrit :
C’est l’avenir de Windows : le changement de drivers à la volée en fonction de l’appli qu’on s’apprête à lancer ! " />
(sans reboot évidemment " />)
Chez les devs :
Ho Kévin ! not’ jeu sur GTX1080 et RX480 est un slide show avec des macroblocs verts dans les coins
Commit Marcel, commit ! AMD et Nvidia finiront le taf…! " />
noobinou a écrit :
Je dois être trop naïf mais pourquoi a chaque jeux les drivers reçoivent une maj?
Parce que les devs de jeu n’ont pas forcement accès aux fonctions très bas niveau des GPU (c’est particulièrement vrai les anciennes API liées à la 3D, Direct11 et OpenGL).
De fait, lorsqu’il font appel à des fonctions de l’API 3D, ils ne savent pas vraiment ce qui se passe derrière. C’est là que le pilote intervient, afin d’organiser les calculs à effectuer pour optimiser la charge sur les différentes unités des GPU. Et ce d’autant plus que les GPU nVidia et AMD peuvent avoir des goulots d’étranglement à différent niveaux.
Sans être lecteur du canard, Optane n’est pas vraiment attrayante :
Aucun avantage (du moins pour le grand public) vs RAM ou SSD.
Demande une plateforme Intel particulière pour être compatible (je sais plus si les chipsets 170 le supporte, ou si Intel a locké cette fonctionnalité aux 270)
AMD Polaris 10⁄11 v2 : Une petite " /> augmentation de fréquence de 20% à consommation identique et ça roule ! " />
Pour occasion, les GPU seront nomenclaturés Polaris 20 et 21 " />
kurgan187 a écrit :
Les radeons RX 500 seront un renommage façon 280⁄380290⁄390 ou de la nouveauté seras tt de même présent?
Patch a écrit :
Rebadgeage avec amélioration des perfs via augmentation de la fréquence et de la BP mémoire, si ca n’a pas changé " />
C’est entre les deux. Cmme d’habitude, pas de quoi justifier un renommage qui laisse supposer un changement de génération (pas d’améliration d’archi, ni de réduction de la finesse de gravure).
En revanche, si la finesse ne change pas, le procédé est toutefois amélioré, et devrait d’une part faciliter la montée en fréquence et d’autre part réduire la consommation à fréquence identique.
Jungledede a écrit :
c’est la dymo qui va graver en plus fin?
" /> rhooo
Dymo? Sinon pas de changement de la finesse de gravure :)
Le
20/03/2017 à
09h
57
Ainsi, c’est surtout au niveau des procédés de fabrication que la révolution serait attendue.
Effectivement, le site gouvernemental suisse est plus neutre que le notre, il a même une page dédiée à la prise de décision.
Pas étonnant, les Suisses sont les champions de la neutralité " />
sr17 a écrit :
Pour ma part, il y a plusieurs choses qui me choquent dans cette affaire…
La première, ce sont les anti IVG. Le plus souvent, ce sont des croyances religieuses qui motivent leur position sur le sujet.
Bien sûr, c’est la liberté de chacun d’être croyant… tant qu’il respecte la liberté des autres d’avoir des croyances différentes.
Si vous êtes croyant, je comprends parfaitement que vous ne vouliez pas recourir à l’IVG pour vous même. C’est votre droit.
Mais il est profondément choquant de vouloir l’interdire à des personnes qui ne partagent pas vos croyances.
La deuxième chose qui me choque, c’est le fait qu’un gouvernement se permette de réglementer à tout va la liberté d’expression. L’établissement d’une police de la pensée, c’est le début de la censure et de la dictature : c’est une pente extrêmement dangereuse pour une démocratie.
Ce que l’on pourrait en revanche contester dans cette affaire, c’est que des média puissent se faire passer pour des sites d’information sur la santé s’ils sont en réalité créés/financés par des mouvements politiques ou religieux.
Je pense que le gouvernement ne prends pas le problème par le bon côté.
L’indépendance de l’information sur le web à l’heure du “tout gratuit” est un problème généralisé. C’est donc de manière globale que le sujet doit être traité.
Un gros +1, sur tous les arguments.
Cette loi a été créé en réaction au FUD des anti-ivg, mieux référencé que des sites d’information plus “neutres”.
Ça part d’un bon sentiment, mais la réalisation est mauvaise.
Non mais franchement, quelle foutage de “tronche”, surtout quand sur bien des sites, les “scripts inutiles et les pubs” font plus que doubler le poids des pages… il me semble qu’il y a des leviers plus intéressants à jouer si on veut réduire la bande passante, comme limiter les données “parasites” ! ! !
Mais bon, sinon, ca reste intéressant, c’est toujours ca de gagné !
Quand tu t’appelle Google, ce n’est pas ton problème si le client met 10 secondes à exécuter un script de quelques ko.
En revanche, économiser des ko, voire des Mo sur les millions d’images que t’héberge, ça fait un paquet de frais en moins sur ta facture réseau.
Ouai enfin même à 150€, on est plutôt dans la gamme moyenne (moyenne basse si tu préfères). Je vois plus l’entrée de gamme pour les CPU < 100€ : le genre de CPU que tu va utiliser pour de la bureautique (encore que, le Pentium G4560 est trouvable à 75€ et talonne d’ailleurs les gammes supérieures - le core i3 6100 - en JV).
Aussi, l’évolution du prix des CPU peu après leur sortie, c’est variable, rien ne permet d’affirmer qu’ils vont baisser d’ici à 3 mois.
Le
16/03/2017 à
17h
07
Flyman81 a écrit :
Pour le 1500X au moins ce serait toujours du 2CCX: Ars Technica
Pour le 1400 à voir, ça pourrait explique la différence de cache.
mysf a écrit :
Anandtech semble de ton avis “The six-core parts will be a strict 3+3 combination, while the four-core parts will use 2+2.“Un avantage à cette approche : jusqu’au 1500x, les 16Mo de cache L3 seront disponibles
Yes, merci pour vos réponses les gars!
J’avais tiqué justement car il se murmurait qu’il n’y aurait que des CPU avec 2 CCX. Toutefois, je n’avais jamais vu l’info confirmée par AMD, mais je ne suis pas omniscient non plus " />
XMalek a écrit :
AMD a enfin compris qu’il devait de nouveau revenir sur le marché entrée de gamme ? c’est un miracle…
Je me demande quel était le fruit véreux qui a été renvoyé à coup de pied dans le cul pour que ça bouge.
le 1600X est l’équivalent de mon i7-2600k et pour ce prix c’est très intéressant .
Entrée de gamme à 190€? " />
Alucard63 a écrit :
C’est pas certain. A voir. D’autant plus qu’il n’y a pas que le i7 7700 k dans le viseur d’AMD je pense.
Celui me semble intouchable pour le jeu, par contre le 7600k (et ses petits frères) a du soucis à se faire!
piwi82 a écrit :
Comparer un i7-7700K à un 1600X c’est comparer un 4C/8T-4,2⁄4,5Ghz avec un 6C/12T-3,6⁄4,0Ghz. Peu importe lequel est plus rapide que l’autre, les caractéristiques sont trop hétérogènes pour comparer quoi que ce soit. C’est comme brider un 8C/16T à 4C/8T pour se rapprocher d’un Core i7, c’est de la bidouille sans intérêt.
J’attends patiemment les tests du 1500X qui est de base comparable au i7-7700 (4C/8T à ~100Mhz près hors boost/turbo), là on saura ce que vaut l’architecture.
Les journalistes ne cherchent pas vraiment à comparer directement des architectures (sauf pour l’exercice comme on dit), mais plutôt deux produits. Finalement en tant qu’acheteur, je me fou de savoir qui à le plus gros nombre de cores ou le plus d’IPC, ce qui m’intéresse c’est plutôt : “j’ai un budget de X€, quel produit va m’offrir le plus de performances pour mon utilisation?”
Le
16/03/2017 à
09h
58
Nozalys a écrit :
Super positionnellement sur le plan tarifaire ! Par contre c’est toujours pas ce que j’attends.. Allez, qu’ils nous dévoilent un 4-coeurs à 4.2 ou 4.5 GHz de base à 200 ou 250 euros pour détrôner le i7-7700k…. C’est ça que je veux voir moi ! " />
Et c’est exactement ce qu’a AMD n’offrira pas avec Ryzen.
Intel a pour le moment trop d’avance d’un point de vue architecture (ils la peaufinent depuis Sandy bridge) et sur le procédé de gravure qui leur permet de proposer du 4GHz stock.
Le
16/03/2017 à
08h
57
De plus, ne disposant que d’un groupe de quatre cœurs (CCX)
C’est officiel cette info ? Je n’ai vu aucune confirmation nulle part que le recyclage de die 8 cores (en 2+2) ne seraient pas de la partie (même si au vu des tarots ça ferait mal à AMD)
Petite question: la série des phenom2X6 sont t’il de vrais 6cores/6 threads?
Pour la série fx je sais que ce sont des “modules” et pour ryzen?
Je remarque aussi dans les comm précedents que les r5 4 cores ne sont pas de “vrais” 4 cores?
savez vous m’éclairer?
Merci d’avance
ps: cpuz et non gpuz pour le message si dessus(timing court pour éditer^^)
Oui pour les phenom x6, la mutualisation des unités n’est apparue qu’avec bulldozer (FX et APU)
Quant aux R5, ce sont bien des 4 cores, mais organisés un peu comme s’il s’agissait de 2 CPU dual core accolés.
En pratique, ça peut gêner certains programmes.
Le
16/03/2017 à
22h
14
t0FF a écrit :
Mouai j’y crois moyen à la réactivation.
Ca m’étonnerais vraiment qu’AMD n’ai pas géré le coup de la désactivation de façon irréversible.
Mais si c’est le cas, je vend mon 7700k juste pour pouvoir le faire, c’est le genre de truc que j’adore totalement ! " />
domFreedom a écrit :
AMHA un laser est passé sur la puce en fin de chaine de certification, et clac ! Dézingués, les CCX ! " />
obyonbeone a écrit :
il vont griller les core au lazer comme sur les r9 fury
donc, surement fausse bonne nouvelle….
On verra bien, après AMD à tout de même une réputation d’être souple à ce niveau : phenom qui pouvaient récupérer leur quatrième core, r9 290 qui pouvaient redevenir des r9 290X…
Après avoir la possibilité de le faire ne veut pas dire que votre 4⁄6 coeurs redeviendra un 6⁄8 coeurs, ce sera la lotterie.
On peut imaginer que si un faible pourcentage de CPU puisse récupérer des cores désactivés (et donc que ça ne risque pas de ruiner leur gamme), ils laissent cette possibilité, qui est tjrs bon pour l’image.
Roger01 a écrit :
Ca serait lequel qui se rapproche le plus du i5 7600k pour du jeu?
Sur le papier, et “out of the box”, ce serait probablement le 1600X. Après, reste à voir en pratique, comme d’habitude.
S’est bien sympaces Tesla mais pourquoi faire uniquement des “super” car super performantesà des prix de dingues. S’il s’attaquait au marcher des citadines de moyennegamme je pense qu’ils en vendraient beaucoup plus….Le marché des voitures électrique et soit des toutespetites voiture soit des monstres :/
Parce que de l’aveu de Musk lui-même Tesla a été développe sur fond propre.
Les marges dégagées sur les citadines sont assez ridicule (~1000€ pour une type twingo) et demande un outil industriel puissant pour sortir de la masse et rentabiliser le projet. Ce que ne pouvait s’offrir Tesla.
Aussi vu les techno et l’innovation de ces véhicules, il aurait été très compliqué de le vendre au format citadines à tarif concurrentiel.
Une info sur la plateforme am4 en pci express 4.0? Merci
Le PCIe 4.0 est à peine prêt (il devrait l’être cette année). Étant donné que le contrôleur PCiE est désormais intégré au CPU, il faudra attendre à minima Zen 2 pour en bénéficier.
Ensuite, il faudra si les anciennes cartes mères sont compatibles. Ce n’est pas parce que le socket perdurera jusqu’en 2020 que de nouveau chipsets ne sortiront pas.
Bref tu as le temps de te prendre une config aujourd’hui sans trop te soucier du PCiE 4.0 : n’oublions pas que les GPU devront aussi s’y mettre, et que la norme est rétrocompatible.
djshotam a écrit :
mais apparemment il y aurait 20° d’écart avec le réel
Sur les 1700X et 1800X, mais pas sur le 1700 " />
neojack a écrit :
Vos tests sont meilleurs que ceux d’hardware.fr
on dirait qu’ils sont payés pour chercher tous les défauts, et ils comparent direct ryzen au 6900k - 6950x alors que ce n’est pas le même tarif !
c’est plus cohérent de le tester face au 6850k en effet
Ce n’est pas le même tarif, mais c’est presque les mêmes perfos :)
C’est aussi un CPU possédant le même nombre de cœurs, ce qui en fait un adversaire intéressant. Le 6850k est effectivement aussi intéressant parce qu’au même tarif. La comparaison est cohérente dans les deux cas.
Après est-ce que NXi a choisi le 6850k par pertinence, ou bien parce que le 6900k ne leur était pas/difficilement accessible?
Après HFR a tendance à pousser assez loin leur tests, parfois au delà des réponses que cherchent les gens.
Mais ils soulèvent également des point auxquels certains prêtent attention, et qu’on ne retrouve pas forcément ailleurs.
Ici, je dirais que les deux tests sont complémentaires.
skankhunt42 a écrit :
Il y à 2 choses que je trouve concon et qui ont un rapport direct entre elles :
Au vu des perfs je ne comprend pas l’intérêt de changer de plateforme… Intel est capable d’avoir les même perfs avec une ancienne architecture, pourquoi pas amd ? Le soucis du changement de plateforme c’est qu’il faut changer la carte mère ( donc démonter le pc ) et la ram.
Pourquoi ne pas avoir sortit des cpu au prix des intel en doublant les perfs ? C’est top moumoute d’avoir un intel like pour la moitié prix mais au niveau strico pc loi Moore mon fion il y à aucun gain. D’ailleurs il est également intéressant de noter qu’entre un ancien i7 et un nouveau on gagne seulement 17% de perfs, c’est pas énorme.
Tu parle par rapport à quelle plateforme? Si c’est par rapport à l’AM3, cette dernière est clairement hors du coup, et s’imposer la contrainte de la rétrocompatibilité aurait posé trop de problème pour concevoir l’architecture du CPU Zen.
D’ailleurs la concurrence ne fait pas mieux, et n’a pas d’états d’âme à modifier 1 pin ou 2 à ses sockets entre deux générations.
Ah oui, bah tant qu’à faire autant être 10 fois plus performants et 10 fois moins cher, comme ça y’a encore moins photo! :p
D’autant plus que sur la performance monocore, personne ne s’attendait à voir AMD prendre le dessus.
Le
15/03/2017 à
15h
35
Le 1800X intéressera surtout les (semi) pros, cherchant des perfs multithread et surtout la stabilité.
Si vous lancez un calcul sur plusieurs jours, vous ne voulez pas prendre le risque de la planter à cause d’un OC un peu limite.
Et si j’en crois les infos receuillies sur silicon lottery, les 1800x sont à peine meilleurs que les 1700.
Effectivement, on ne peut comparer que des couples architecture + procédé. Sauf dans le cas d’Apple qui avait fait graver une même puce par deux fondeurs différents, ce qui a permis de comparer directement les procédés " />
Le
15/03/2017 à
11h
18
t0FF a écrit :
B Accessoirement, la finesse de gravure est la même que celle qui permet 4.5ghz stock chez intel, l’écart ne devrait pas être trop important de ce coté là.
Pour moi ça ne peut pas être ça la raison… mais j’en vois pas vraiment d’autre donc à défaut je trouve ça dommage.
Pour compléter mon message ci-dessus, quelques articles très intéressants de SemiWiki sur les procédés de fabrication des processeurs :
J’ai regardé un peu le lien, ça n’a pas l’air aussi clair dans la garantie :
Après ta réponse, je m’attendais à ce qu’ils disent clairement que le moindre overclock enlève la garantie, mais j’ai l’impression (avec mon niveau d’anglais de merde) que ce n’est pas exactement ce qui est dit.
C’est exactement ce qui est dit, mais en Novlangue contractuelle :p
Le passage “Intel does warranty the operation beyond specification” est suffisamment clair.
Aussi mon lien pointait vers une réponse d’un officiel Intel, et reflète donc la position d’inteI vis à vis du sujet de manière claire :)
t0FF a écrit :
Accessoirement, la finesse de gravure est la même que celle qui permet 4.5ghz stock chez intel, l’écart ne devrait pas être trop important de ce coté là.
Pour moi ça ne peut pas être ça la raison… mais j’en vois pas vraiment d’autre donc à défaut je trouve ça dommage.
Attention, ce n’est pas parce que les deux fondeurs affichent “14nm” que les deux procédés se valent :
d’une part parce que chacun utilise désormais plus ou moins sa propre tambouille pour donner une valeur (les densités entre de procédés de même finesse peuvent varier)
et d’autre part parce que la qualité et l’optimisation de deux procédés de même finesse peut varier : certains vont privilégier la densité, d’autres la montée en fréquence etc. Récemment on a vu ce que ça a donné avec les puces Apple, gravée en 16nm TSMC et 14nm Samsung (le premier délivrant des puces chauffant moins)
Le
14/03/2017 à
18h
40
t0FF a écrit :
Overclocker un CPU n’enlève pas la garantie, sauf si tu ponces, ou delid le cpu (et encore, pour le delid, tu peux tricher car ce n’est pas visible)
Sachant qu’Intel vend plus chère des CPU débloqué pour l’OC, ce serait ridicule d’enlever la garantie si overclock. " />
Hé ben tu le crois ou non, mais Intel ne garanti pas les puces OC. En pratique, ils n’ont aucun moyen de vérifier si elle l’a été (sauf si t’as été trop gourmand sur la tension).
Ils proposent en revanche une extension de garantie de 3 ans qui permet d’obtenir un échange de CPU ayant été détruit par un OC. Mais ils précisent bien qu’ils n’offriront aucun autre support ou remboursement de matériel autre que le CPU.
Le
14/03/2017 à
18h
36
Danao31 a écrit :
… non là t’inverse complétement le délire, depuis 2 semaines c’est le contraire !
>>> c’est les fanboys Intel pour se voiler la face (d’avoir payé des procs vraiment chers) qui t’expliquent que les R7 sont un flop, sont bidons etc justement parce que le 7700K fait mieux.
c’est EUX qui oublient que l’équivalent d’un 7700K c’est un 1500X (quad + HT/SMT)
et certainement pas un octocore (donc le 6900K et les R7)
(et j’ajouterais que la vitesse stock on s’en tape un peu en faite, regarde le 1700 s’oc autant que le 1800X qui vaut 200€ de plus … c’est ce que je disais, quid de prendre le R5 1300 à 200€ si il montait “manuellement” aussi haut que le 1500X et approcherait tout de même les FPS du 7700K -_-)
Tout le monde n’a pas forcément les connaissances ou la motivation pour OC son CPU.
Pour ma part, rien que le bruit supplémentaire que ça génère, ça me refroidit (sans jeu de mot " />)
N’oublions pas non plus qu’il n’y a aucune garantie que le CPU soit coopératif et accepte de monter en fréquence (même si je n’ai jamais vu de puce modernes refuser de prendre quelques centaines de MHz supplémentaires).
Mais oui, il s’agit d’un argument en faveur d’AMD, qui a décidé d’autoriser l’OC via coeff débloqué sur tous ses CPU. Il y aura peut-être de bonnes affaires en vue, à voir.
Le
14/03/2017 à
16h
32
overdrives a écrit :
des perfs en 1080p bizarrement faibles mais qu’on va pas évoquer, et le calcul de la temp fait de manière complètement je-m’en-foutiste (j’en reviens pas… “He Robert, rajoute 20° et on va dire que c’est bon. Quoi ? Spa la temp réelle ? Pourquoi 20 plutôt qu’autre chose ? Tu pose trop de questions Robert”) c’est une com’ du tonnerre auprès des power users.
La seule chose qu’on peut pas leur reprocher c’est qu’ils foutent autre chose que la purée Mousseline d’Intel pour dissiper la chaleur, mais ça fait léger comme avantage. (d’ailleurs un jour faudra vraiment m’expliquer le délire d’Intel là dessus, je pige pas).
En quoi les perfs sont bizarrement faibles en 1080p? Par rapport à quoi?
Il a toujours été clair que Zen ne pourrait battre Intel sur ce terrain. Ces perfs sont toutefois suffisantes pour jouer dans de bonnes conditions. La communication d’AMD axée sur le JV est certes maladroite, d’un autre côté on peut comprendre qu’ils ne voulaient pas se fermer le marché lucratif du jeu hautes performances.
L’offset de 20° c’est une méthode peu élégante pour rendre plus agressive le comportement des ventilateurs. AMD voulait probablement s’assurer que le XFR serait toujours actif, et n’a pas du avoir confiance en ses partenaires pour la gestion de la ventilation.
Quant au délire d’Intel sur la pâte thermique à la place de la soudure du heatspreader : money’s money.
David_L a écrit :
Ce n’est pas un CPU de gamer, mais franchement, qui pensait que ce serait le cas ?
Ben à en lire les commentaires un peu partout sur le net, un partie non négligeable des gens :°)
xillibit a écrit :
AMD ne dit rien concernant le lien interne à Ryzen sous-dimensionné comme l’a relevé hardware.fr
Encore une fois, ce n’est pas parce qu’il y a goulot d’étranglement qu’il y a sous-dimensionnement. Il y aura toujours un élément pour limiter un autre. Augmenter la BP de ce lien améliore-t-il vraiment les perfs globales du CPU, à quel point et surtout à quel prix ? Bref, AMD a fait ici un compromis de conception, comme les ingénieurs doivent en faire chaque jour.
Obidoub a écrit :
Il n’y a pas 50% entre le 1800X (550€) et le i7-7700k (400€), en fait le RyZen est 150€ plus cher.
N’oublions pas que la Cible du 1800X, c’est le 6900K, pas le 7700k. Beaucoup de fanboy AMD cherchent à expliquer qu’un 1800X est idéal pour jouer, et refusent de voir qu’un 7700k fait mieux pour moins cher (et qu’un 7600k est déjà overkill pour 97*% des joueurs sur PC).
*estimation réalisée selon la méthode du doigt mouillé, et recalculé avec l’algorithme de la louche percée " />
Stel a écrit :
Attendre 2 semaines pour mettre tout ca d’aplomb manifestement c’était trop demandé.
Il y a une réalité économique derrière. Le plus gros couac IMO, c’est la dispo des cartes mères.
Les optimisations logicielles tierce arriveront au bout d’un certain temps, et AMD ne pouvait probablement pas se permettre d’attendre avant de lancer le produit.Enfin, c’est toujours cette histoire de serpent qui se mort la queue : les devs veulent bosser s’il y a un parc suffisant de hardware, et le hardware mieux se vendra si les evs optimisent.
Muageto a écrit :
Moi ce que je ne comprends pas, c’est qu’avec ces histoires de scheduler, les reviewers avaient trouvé une raison (“excuse”) aux contre performances en jeu finalement, pour Ryzen.
Et AMD vient et nous dit "non non tout va bien, tout fonctionne normalement".
[…]
Dans tous les cas, faudra qu'ils m'expliquent leur comm lors du reveal qui avait aussi été orientée jeu à un moment, alors que le proc ne fonctionne pas bien dans cette optique.
Non, ils ont juste dit que le problème ne venait pas du scheduler de windows 10.
Et comme je le dit plus haut : les joueurs sur PC représentent une clientèle non négligeable. Leur promo était pour dire “hé, regardez, notre CPU est suffisamment performant pour jouer en 4k”. Ce qui est vrai, et il est également suffisament performant pour jouer en 1080p
Manque de pot, Intel fait mieux, et pour moins cher.
Heuuu ce bug sur Android, ca fait bien longtemps qu’il n’y ait plus… en tous cas chee moi ( galaxy note 2 en 4.3 ) ca fonctionne très bien.
Toujours présent sur un OP3T (oxygen OS basé sur Android nougzt), OPX (oxygen os base sur marshmallow), wiko Ufeel liteet Sony z2 tablet (Android marshmallow)
Le
15/03/2017 à
10h
07
darkbeast a écrit :
ça va pas être facile d’écoute le monsieur qui guide quand on écoute du slayer à fond en même temps
Waze est capable de baisser la musique lorsqu’il envoie une indication sonore. En revanche, sur Android et contrairement à iOS, c’est mal synchronisé (comprendre que le volume de la musique est diminué 1s après que Waze ait commencé à parler et revient au volume nominal 1s après que Waze ait fini de parler)
Soltek a écrit :
Mouais…
Quand tu as Spotify de lancé en arrière plan et que tu es sur Waze il
suffit d’aller dans la barre de notification d’Android pour zapper (ou
le truc du bas sur iOS). Le double tap switch entre les 2 applications
aussi.
Bizarre cette intégration…
Pas mieux, j’utilise Soundcloud et VLC, et ça réagit même aux commandes au volant.
Question serieuse: comment echape-t-on a la reconnaissance faciale facilement ? Lunettes de soleil ? Coiffure differente ?
Du peu que j’en connais, la reconnaissance faciale compare plusieurs points du visage (distance entre ces points ?) En tous cas, les cheveux n’interviennent pas dans l’analyse.
La solution la plus évidente consiste à se masquer complètement le visage.
à ce jour, la qualité de service est relation proportionnelle aux investissements de chaque opérateurs.
Oui, et je n’ai jamais dit le contraire.
Charly32 a écrit :
[…] je soulignais que l’exemple de Depra n’était pas des plus judicieux (mais ça remarque était pertinente : la qualité se paye)
Pour schématiser, je souligne que la qualité implique de payer mais que contre, payer n’implique pas forcement la qualité.
Le
15/03/2017 à
09h
37
sepultura666 a écrit :
Aaaaaaah, je dois avoir mal compris… c’est vrai qu’entre :
Orange : 22965 stations au total
SFR : 20242 stations au total
Bouygues : 19238 stations au total
Free : 11248 stations au total
Free se bouge vraiment les fesses… surtout avec des fréquences hautes la plupart du temps, donc dans l’obligation de mettre plus d’antennes pour couvrir… Excuse moi, j’avais mal compris.
FREE est le meilleur, il a la plus grande couverture en France, et la meilleure qualité de service tout opérateur confondu…
Vraiment, je suis désolé, je m’en vais de suite acheter des actions FREE, avec de la chance X.Niel va racheter Orange et SFR d’ici la fin T1’2017.
pfiou, heureusement que tu était là pour m’ouvrir les yeux… vraiment, merci
Remarque encore hors-sujet. Je ne commente absolument pas l’effort de déploiement de Free dans mes posts. Je dis qu’ils payent actuellement un contrat d’itinérance avec Orange une blinde (et qui est inutilisable en pratique) et un déploiement de réseau en parallèle. Fait le delta avec le nombre de supports d’il y a quelques semaines/mois : s’il y a 1 milllions ou une seule antenne de plus, il y a bien déploiement.
Pour les commentaires des performances sur les déploiements des réseaux des FA mobiles, rdv sur la news idoine de chez NXi, qui est mensuelle il me semble.
Le
15/03/2017 à
09h
31
Patch a écrit :
Non, la LB peut être remplacée par un autre modem sans pb (certains le font même sur la fibre) " />
“sans problème” : ce n’est tout de même pas officiellement supporté, et rien n’est fait pour faciliter la tâche de l’utilisateur (de mémoire le bypass de box chez Orange ça implique le paramétrage de VLANs, non?)
En revanche je ne sais plus chez Orange s’i lest possible d’avoir la TV et le téléphone sans garder la LB pour l’authentification.
Patch a écrit :
Détruit quels emplois exactement?
Il y a tout de même eu des dégraissages massifs chez les concurrents depuis , plus que les embauches de Free mobiles. Ça a d’ailleurs été couvert par NXi.
Le
15/03/2017 à
09h
19
sepultura666 a écrit :
c’est toujours moins cher que de déployer son réseau en propre…
Sauf que Free mobile paye les deux.
Et la remarque n’a pas grand chose à voir avec la choucroute, puisque je soulignais que l’exemple de Depra n’était pas des plus judicieux (mais ça remarque était pertinente : la qualité se paye)
Le
14/03/2017 à
15h
03
Drepanocytose a écrit :
Free paye son roaming FT pas cher : roaming de merde
Euh en l’occurrence, si, Free le paye une blinde " />
J’avais même entendu dire que Orange considérait ce prix comme dissuasif et qu’ils ont été les premiers surpris que Free dise “ok”.
Par contre, ne vous mettez pas au titre faux ou racoleur ….
Rien n’arrive sur pc …c’est du streaming.
Ce n’est que du déporté.
Par contre ,j’aimerai connaitre le pourcentage de gens y faisant appel à ce mode d’utilisation du jeu console streamé sur un écran.
Ben si, la possibilité de bénéficier du service de streaming de Sony arrivé bel et bien sur PC.
dematbreizh a écrit :
Attention, ce qui suit est l’avis d’une personne étant farouchement opposée aux exclus console
Ou bien tu peux espérer que des jeux comme Horizon Zero Dawn, Uncharted 4 ou Yakuza 0 soient enfin jouables sur PC, sans attendre un portage dégueulasse 5 ans après l’abandon de la ps4.
Yes, je suis du même avis, ce service permet au moins de profiter des quelques exclus console sans avoir à débourser le prix de la console + jeu. Une fois le jeu terminé, hop on resilie l’abonnement.
Ça permet aussi de bénéficier des titres ps4 hors de chez soit (vacances, logement étudiant…)
C’est bien mon intention à terme (plutôt avec un Opteron quand ils seront avec la nouvelle archi d’AMD), modulo quelques réglages perso (un simple CPU me suffit, et j’irai pas au-delà de 32 Go de RAM ECC, pas besoin de plus pour un pool ZFS à la hauteur de mes envies).
Je ne sais pas si tu es déjà allé y faire un tour, mais je pense que tu pourrais te plaire sur /r/homelab :)
Le
13/03/2017 à
19h
30
Et sinon ce ne serait pas la première news de Guillaume ?
Perso j’ai rebind la touche super (windows) sur le caps lock (car pas de touche dédiée sur le Model M)
grospoulpe a écrit :
perso, je verrais plus un clavier qui se détacherait en deux parties : à gauche, azerty/touches de fonctions et à droite : flèches/sup…/numérique…
Est-ce que ça existe ?
Comme je disais plus haut, l’asus Roger claymore propose le pavé numérique détachable.
Le
08/03/2017 à
15h
33
Pour ma part, je pense que mon prochain clavier pour le jeu sera sans pavé numérique. Le TKL est plus confortable pour moi car je peux avoir ma main droite plus proche de la gauche. Et ça prend moins de place sur le bural :ouiui:
Le Cooler Master Novatouch avec ses switchs Topre me tente bien.
Commentaire_supprime a écrit :
Quelqu’un sait ce que ça vaut les Romer-G par rapport aux Cherry équivalents ? C’est pour ma curiosité personnelle.
Sinon, pour une fois, ils ont fait un truc qui ne ressemble pas à un décor de film de SF cheap, c’est un point positif pour eux.
Pour info, il y a un comparatif géant de tous les swithcs (et membranes) dans le PC Update de ce mois-ci :)
sigz a écrit :
est-ce qu’un jour les constructeurs vont réaliser que la disposition des touches en quinconce doit disparaître au profit de l’orthogonal..
J’ai dans un coin de la tête de me dégoter un BEPO à disposition matricielle.
dvr-x a écrit :
C’est C*n je tr Next INpact cette tendance à vouloir supprimer le pavé numérique toujours, et le repose poignet dans le cas présent.
Ils pourraient faire un pavé optionnel qui se plug au bout du clavier, (idem repose poignet devant).
mais ces ventirads c’est comme ceux fournit pas intel ou ils servent à quelque chose
D’après les possesseurs de 1700, ils sont efficaces pour une première monte, et permettrait même d’envisager un petit OC. PCU/HM indique même qu’ils offre une prestation similaire à un TX3, généralement qualifié par la presse comme étant bien plus efficace que les ventirad d’origine pour un prix plancher.
Après relecture, Les Nums ne compare pas les solutions graphiques intégrées mais les résultats quand on adosse le proc à une grosse CG type TitanX
Normal, Ryzen n’embarque pas d’IGP (tout comme les CPU sur socket 2011 chez Intel d’ailleurs) :)
Le
03/03/2017 à
17h
22
Alucard63 a écrit :
Sauf qu’à chaque fois qu’ils communiquent, ils communiquent comme si ils allaient écraser la concurrence…et à chaque fois ce n’est soit pas du tout le cas (epic fail bulldozer), soit pas tout à fait le cas (Ryzen).
Pourquoi communiquer sur les perfs des 6900k alors qu'ils savaient très bien que les Ryzen ne les battraient que dans certains cas précis?
Pour Ryzen, ils n’ont justement pas communiqué sur le fait qu’ils allaient écraser la concurrence, mais qu’ils allaient revenir dans la course. Bien sûr, pour mettre l’eau à la bouche, ils ont comparé dans les cas favorables leur produit face à un des CPU les plus haut de gamme de leur concurrent et qui coûte au bat mot un bras. Et si le 1800X n’est devant que dans quelques cas de figure, ils est généralement pas bien loin derrière (sauf les jeux, j’en conviens).
Alucard63 a écrit :
Pourquoi pousser des processeurs grand public 8c/16t incapables de tenir face au HdG Intel pour le gaming au lieu de sortir un i5/i3 killer immédiatement?
J’ai pas de réponse à ça, mais des hypothèses :
1 - c’est dans l’ordre de conception. Ils conçoivent une puce avec un grand nombre de cœurs, puis recycleront les die endommagés et/ou déclineront de plus petites puces pour le reste de la gamme.
2 - Ils voulaient se racheter une image. Revenir de loin, approcher de très très près les performances et l’efficacité d’une puce à ~1000\( et la proposer pour ~500\), c’est tout de même un signe fort pour s’attirer la sympathie des clients (“quoi? Ca fait 5 ans qu’Intel nous la met à l’envers sur le très haut de gamme! Merci AMD notre sauveur”)
3 - Le pouvaient-ils vraiment? Ils savent bien que le cœur de gamme Intel va pas mal intéresser les joueurs. Hors ils ne peuvent se battre ni sur les IPC, ni sur la montée en fréquence, ce que la plupart des moteurs de JV semblent apprécier fortement. Tandis qu’une puce 8 cœurs va intéresser ceux qui font de la photo, vidéo, calcul scientifique. D’ailleurs c’est probablement à cette même clientèle que s’adressera le reste de la gamme Ryzen, mais qui ne veut pas mettre 350/500€ dans un CPU. Sauf évidemment bonne surprise, si les modèles 4 cœurs s’OC bien et ne sont pas vendus trop chers (<200€), ils pourraient se trouver une niche commerciale :)
Alucard63 a écrit :
Franchement une grande partie des particuliers qui mettent de l’argent dans leur PC c’est pour le gaming et la majorité ne prend pas un i7 et encore moins un 6900k qui n’est pas fait pour le jeu, la majorité prend un i5 voir même des i3 (et Pentium 2c/2t maintenant…).
Ben oui, Ryzen s’attaque au 6900K donc…ne vise pas les joueurs. Mais je te rejoins sur les couacs de comm’, un des trucs qu’AMD a mis en avant, c’est la demo de Doom en 4K à 60FPS. Visiblement, d’après le AMA sur Reddit, leur position c’est “Ryzen est apte à faire tourner des jeux en 4k en haute qualité”.
Oui mais Intel fera tout aussi bien pour moins cher, à l’heure actuelle.
Mais je ne sais pas à quelle moment le “hype train” s’est emballé, j’ai toujours perçu Ryzen comme une alternative à Broadwell-E, proche en terme de performances, mais bien moins chère. Et kaby lake serait intouchable. Et de nombreux leak ont confirmé ça (en particulier celui de CPC).
Alucard63 a écrit :
L’autre exemple c’est la com catastrophique des RX460/470/480…
[…]
Pourquoi, alors, avoir laissé croire que les RX480 seraient comparables aux 1080 ou 1070 des chez Nvidia?
Alors là non, jamais ils n’ont laissé entendre de telles choses. Le “hype train” laissait entendre des performances dignes de la 980, et c’était déjà exagéré. Aussi je pense qu’ils s’attendaient a avoir plus de temps avant de subir la concurrence de Pascal. Mais ouai, au fond le lancement de Polaris a été un véritable effet soufflé qui se dégonfle à la sortie du four, et là dessus s’est ajouté les problèmes de connecteurs PCIe.
Le
03/03/2017 à
14h
27
loser a écrit :
par rapport à rien du tout " />
Du coup une division par 0 ça tend vers… l’infini, wouhouuuuu elle était bien ma blague ! ;)
djshotam a écrit :
le Ryzen 5 1600X ne serait t’il pas un 8 coeur dont deux coeurs auraient été désactivé ?
Si. A voir d’ailleurs s’il y aura une influence selon si les deux cœurs désactivés sont répartis sur les deux CCX ou bien un seul.
kantfredo a écrit :
Donc en gros tout le monde trouve incroyable que AMD arrive enfin a s’aligner sur la génération de processeur Intel qui a maintenant 6 ans ? (et qui n’a presque pas évoluer depuis un i7 2600k tien les R7 1700 ….).
Personne ne se dit qu’Intel attendais ça depuis longtemps, a engrangé des centaines de milliards ces dernières années et va donner le coup de grâce a AMD quand il va annoncé sa nouvelle génération de processeur gardé bien au chaud ?
la comparaison en oubliant l’absence de partie GPU dans le SOC on en parle ?
Pour moi cette sortie de processeur est la mort d’AMD, ils arrivent tout juste a s’aligner alors que pour tenir les prochaines années il fallait qu’il sortent bien mieux qu’intel.
bref, le monopole est plus que jamais d’actualité.
AMD propose aujourd’hui un CPU commercialement capable de lutter contre le 6900K dans bon nombre d’applications.
Personne n’attendait un CPU aussi affûté que kabyle Lake entre le budget R&D bien inférieur et le procédé de gravure de GloFo. Ce qu’on attendait, c’est un CPU capable de 75% à 90% de son concurrent pour la moitié du prix, avec une consommation maîtrisée. Et c’est à ce qu’aux nous propose.
Et visiblement AMD ne va pas s’endormir sur ses lauriers comme avec Bulldozer, vu que l’évolution de l’architecture est prévu pour l’an prochain.
Pas la peine d’être devant en terme de performances pures pour pouvoir proposer une offre commerciale avantageuse :)
Enfin, il semblerait qu’Intel prenne la menace au sérieux, du moins suffisamment pour réagir.
À voir dans quelques mois, une fois la gamme Ryzen complète et les chiffres de vente :)
kantfredo a écrit :
juste comme ca, le tout bas de gamme intel a 70€, pentium G4560 fait aussi bien en jeux que le top AMD a 550€ ….
Encore une fois, il faut arrêter de considérer les CPU Ryzen pour un usage vidéoludique pur.
Également, le résultats du site allemand montrent que le pentium s’en sort très bien dans les jeux exploitant mal plus de 2 cœurs, quand ça tape bien dans les 4, les i5 reprennent le dessus (mais oui le pentium est bien vaillant !). Même le i3 7350k ne peut rivaliser dans ce cas d’ailleurs.
Enfin, au vu des résultats, je suis assez surpris des résultats de Witcher et CoD où l’écart est assez faible : GPS limited ?
Y a qd même une grosse différence entre construire une banale Audi Q7 et fibrer une ville.
Euh construire un véhicule n’a rien de simple non plus, c’est d’ailleurs généralement le produit technologique le plus complexe qu’un particulier possède " />
Et la partie administrative n’est pas en reste côté homologation.
Ok pour le ton, mais quand on CPU à ~200€ fait mieux dans un domaine qu’un CPU à ~500€, on peut parler de “défonce”, non? :)
Je te rejoins aussi sur le fait qu’un 1800X est tout à fait apte à faire tourner les jeux. Encore une fois, tout dépend de l’usage de la machine. Une autre manière de tourner le problème , serait d’imaginer la situation avec un 6900K à 500€ : est-ce que je prendrai ce dernier ou un 7700K? Le choix est loin d’être évident, et je pense que seuls certains profils particuliers pencheront pour un 6900K, même à 500€.
Quant à tester les CPU dans les jeux en 4K ou avec une carte milieu de gamme : ce n’est pas le but des tests. Quand tu teste/compare les CPU, tu veux voir jusqu’où ils peuvent aller, sans être “bridés” par un autre élément. Donc forcément, si ton GPU ne permet pas de délivrer plus de 60FPS, tu ne verra aucune différence au niveau du CPU. Si tu veux voir combien de FPS tu atteindrait avec un 1800X associé à une RX480, va voir les tests GPU (qui sont généralement faits avec un 6900K, voire un 6950X overclockés). Le 1800X ne limitera pas ce cartes non plus.
3585 commentaires
Free Mobile : 4G illimitée pour les clients de l’offre fixe, 100 Go de « Fair use » pour les autres
21/03/2017
Le 21/03/2017 à 10h 23
Le 21/03/2017 à 09h 15
Le 21/03/2017 à 09h 06
AMD et NVIDIA publient leurs pilotes dédiés à Mass Effect : Andromeda
20/03/2017
Le 20/03/2017 à 18h 31
Le 20/03/2017 à 18h 24
Le 20/03/2017 à 16h 27
Avec son SSD DC P4800X, Intel veut trouver une place à la technologie Optane dans les serveurs
20/03/2017
Le 20/03/2017 à 11h 08
Sans être lecteur du canard, Optane n’est pas vraiment attrayante :
GPU-Z 1.18 supporte les Radeon RX 500, attendues le mois prochain
20/03/2017
Le 20/03/2017 à 10h 23
Le 20/03/2017 à 09h 57
Ainsi, c’est surtout au niveau des procédés de fabrication que la révolution serait attendue.
Dès le Lundi matin, ah ben bravo! " />
Les réserves du Conseil constitutionnel sur le délit d’entrave numérique à l’IVG
17/03/2017
Le 18/03/2017 à 07h 30
Guetzli, l’algorithme de Google pour réduire le poids des fichiers JPG de 35 %
17/03/2017
Le 18/03/2017 à 07h 14
Ryzen 5 : AMD lancera quatre CPU le 11 avril, dès 169 dollars
16/03/2017
Le 17/03/2017 à 19h 12
Ouai enfin même à 150€, on est plutôt dans la gamme moyenne (moyenne basse si tu préfères). Je vois plus l’entrée de gamme pour les CPU < 100€ : le genre de CPU que tu va utiliser pour de la bureautique (encore que, le Pentium G4560 est trouvable à 75€ et talonne d’ailleurs les gammes supérieures - le core i3 6100 - en JV).
Aussi, l’évolution du prix des CPU peu après leur sortie, c’est variable, rien ne permet d’affirmer qu’ils vont baisser d’ici à 3 mois.
Le 16/03/2017 à 17h 07
Le 16/03/2017 à 09h 58
Le 16/03/2017 à 08h 57
De plus, ne disposant que d’un groupe de quatre cœurs (CCX)
C’est officiel cette info ? Je n’ai vu aucune confirmation nulle part que le recyclage de die 8 cores (en 2+2) ne seraient pas de la partie (même si au vu des tarots ça ferait mal à AMD)
Ryzen : une même puce avec deux CCX actifs pour les modèles à 4, 6 ou 8 coeurs
16/03/2017
Le 17/03/2017 à 10h 43
Le 16/03/2017 à 22h 14
Pour lancer sa Model 3, Tesla veut lever jusqu’à 1,15 milliard de dollars
16/03/2017
Le 16/03/2017 à 19h 19
Ryzen 7 1700 @ 4 GHz : un overclocking facile, mais gare à la consommation
15/03/2017
Le 16/03/2017 à 10h 12
Merci pour l’info! " />
Le 16/03/2017 à 00h 01
Le 15/03/2017 à 15h 35
Le 1800X intéressera surtout les (semi) pros, cherchant des perfs multithread et surtout la stabilité.
Si vous lancez un calcul sur plusieurs jours, vous ne voulez pas prendre le risque de la planter à cause d’un OC un peu limite.
Et si j’en crois les infos receuillies sur silicon lottery, les 1800x sont à peine meilleurs que les 1700.
AMD Ryzen : « il n’y a aucun problème avec le scheduler de Windows 10 »
14/03/2017
Le 16/03/2017 à 10h 09
Effectivement, on ne peut comparer que des couples architecture + procédé. Sauf dans le cas d’Apple qui avait fait graver une même puce par deux fondeurs différents, ce qui a permis de comparer directement les procédés " />
Le 15/03/2017 à 11h 18
Le 15/03/2017 à 10h 09
Le 14/03/2017 à 18h 40
Le 14/03/2017 à 18h 36
Le 14/03/2017 à 16h 32
Spotify s’intègre dans Waze, et vice-versa
15/03/2017
Le 15/03/2017 à 16h 27
Le 15/03/2017 à 10h 07
Des députés LR veulent coupler vidéoprotection et reconnaissance faciale
15/03/2017
Le 15/03/2017 à 16h 21
Débits moyens sur Netflix : Free progresse enfin… mais reste dernier au niveau européen
14/03/2017
Le 15/03/2017 à 09h 51
Le 15/03/2017 à 09h 37
Le 15/03/2017 à 09h 31
Le 15/03/2017 à 09h 19
Le 14/03/2017 à 15h 03
Le PlayStation Now accueillera bientôt des jeux PS4 sur PC
14/03/2017
Le 14/03/2017 à 11h 00
Free Mobile fait évoluer son roaming : 5 Go par mois, toute l’année
14/03/2017
Le 14/03/2017 à 08h 29
Le 14/03/2017 à 08h 21
Me déplaçant régulièrement en Europe et amérique du Nord, cette annonce me fait bien plaisir " />
Z270 : ASUS dégaine la carte mère de tous les excès, la Maximus IX Extreme
13/03/2017
Le 13/03/2017 à 20h 47
Le 13/03/2017 à 19h 30
Et sinon ce ne serait pas la première news de Guillaume ?
Bienvenue Guillaume !
Voyages-SNCF fonde Team Loco, une équipe d’e-sport formée par 17 salariés
10/03/2017
Le 10/03/2017 à 09h 15
En 2017, si t’as pas ta team de isport, t’as raté ta comm’ " />
Performances de Ryzen : Y a-t-il un bug dans le scheduler de Windows 10 ?
09/03/2017
Le 09/03/2017 à 10h 47
Ryzen c’est le grand cru du CPU, il se bonifie avec le temps " />
Logitech G Pro : un clavier mécanique sans pavé numérique à 149 euros
08/03/2017
Le 08/03/2017 à 16h 24
Le 08/03/2017 à 15h 33
Pour ma part, je pense que mon prochain clavier pour le jeu sera sans pavé numérique. Le TKL est plus confortable pour moi car je peux avoir ma main droite plus proche de la gauche. Et ça prend moins de place sur le bural :ouiui:
Le Cooler Master Novatouch avec ses switchs Topre me tente bien.
AMD Ryzen : le ventirad Wraith Max pour les intégrateurs, le Stealth pour certains CPU
06/03/2017
Le 06/03/2017 à 15h 03
AMD lève le voile sur ses processeurs Ryzen 5 1500X et 1600X
02/03/2017
Le 03/03/2017 à 17h 23
Le 03/03/2017 à 17h 22
Le 03/03/2017 à 14h 27
Très haut débit : Free reçoit 200 millions d’euros de l’UE pour déployer la fibre
03/03/2017
Le 03/03/2017 à 12h 54
AMD Ryzen 7 sur socket AM4 : notre premier bilan, à lire avant de craquer (ou pas)
02/03/2017
Le 03/03/2017 à 10h 13
Ok pour le ton, mais quand on CPU à ~200€ fait mieux dans un domaine qu’un CPU à ~500€, on peut parler de “défonce”, non? :)
Je te rejoins aussi sur le fait qu’un 1800X est tout à fait apte à faire tourner les jeux. Encore une fois, tout dépend de l’usage de la machine. Une autre manière de tourner le problème , serait d’imaginer la situation avec un 6900K à 500€ : est-ce que je prendrai ce dernier ou un 7700K? Le choix est loin d’être évident, et je pense que seuls certains profils particuliers pencheront pour un 6900K, même à 500€.
Quant à tester les CPU dans les jeux en 4K ou avec une carte milieu de gamme : ce n’est pas le but des tests. Quand tu teste/compare les CPU, tu veux voir jusqu’où ils peuvent aller, sans être “bridés” par un autre élément. Donc forcément, si ton GPU ne permet pas de délivrer plus de 60FPS, tu ne verra aucune différence au niveau du CPU. Si tu veux voir combien de FPS tu atteindrait avec un 1800X associé à une RX480, va voir les tests GPU (qui sont généralement faits avec un 6900K, voire un 6950X overclockés). Le 1800X ne limitera pas ce cartes non plus.