Mettre le gamin au second plan? De quelle manière? Comment c’est possible?
Parce que je lis cet argument souvent, mais je ne vois pas comment on fait pour créer un GPU “dont on met le gaming au second plan”, c’est à dire, performante pour les pros, mais nul en jeu.
On a souvent entendu ça, parce que les unités de calcul AMd sont plus facile à intégrer en grand nombre, et que du coup, les cartes AMD ont plus de puissances brutes que les NVidia, qui compensent avec un meilleur scheduler.
Mais ça n’a rien à voir avec une question de priorité, c’est un choix de design, qui est plus un pari à long terme.
Le
31/07/2017 à
18h
18
Figure toi que c’est exactement ce que j’ai fait.
J’ai pris le rapport tflops sur fps de la furxyX, qui est la carte AMD avec le plus mauvais rapport.
Je trouvé un coefficient de “rendement” sur quelques titres.
Avec une simple règle de trois, j’ai calculé le fps théorique sur le même titre des Vega, en imaginant que ce même rapport tflops/fps ne se soit absolument pas amélioré depuis la FuryX.
Voici ma feuille de calcul:
SW Battle Front 4K DX11 (HardwareCanuck)
Fury X:
8601.648
coeff 179.2
1080: 887356coeff 158.44
1080TI: 11340
RX Vega 56
10500
58.59 ?? (10500⁄179.2)
RX Vega 64
12660
70.64 ??? (12660⁄179.2)
RX Vega 64 Liquid
13700
76.45 ??? (13700⁄179.2)
The Division 4K DX11 (AnandTech)
FuryX" />601.636
coeff 238.93
1080:
40.8
1080TI:
54.7
RX Vega 56
10500
43.94 ??? (10500⁄238.93)
RX Vega 64
12660
52.98 ??? (12660⁄238.93)
RX Vega 64 Liquid
13700
57.33 ??? (13700⁄238.93)
BF4 4K DX11 (AnandTech)
FuryX" />601.651.1
coeff : 168.32
1080:
74.9
1080TI:
99.7
RX Vega 56
10500
62.38 ??? (10500⁄168.32)
RX Vega 64
12660
75.213 ??? (12660⁄168.32)
RX Vega 64 Liquid
13700
81.39 ???? (13700⁄168.32)
Le
31/07/2017 à
16h
32
On a un champion de l’argumentaire technique!
Je ne peux que m’incliner devant un tel exposé, devant un tel étalage de connaissance et d’argumentaire.
Le
31/07/2017 à
15h
17
Le gaming mode de la FE n’existe pas. Le bouton gaming mode ne fait rien du tout.
Le draw bining rasterizer mode est désactivé dans la FE. Les fonction de gestion d’énergie sont totalement désactivées également. Voir le post sur le site d’AnandTech.
Les pilotes n’ont absolument aucune optimisation pour le jeu. Ca reviendrait à faire tourner une 1080Ti avec les pilotes d’une quadro.
Les tflops sont toujours valables, l’affichage en jeu, c’est du calcul. La ou c’est plus compliqué pour le jeu que pour les applis pro, c’est que cette charge est d’une variable, et de deux, non prédictible.
Historiquement, depuis CGN et la 7970, AMD utilise un scheduler matériel. Il n’y a que 4 files, une groupe de rendering compute unit. Chaque image est globalement découpé en quatre et envoyé les les groupes, en gros.
Si l’image à calculé est homogène, ça marche très bien, mais ce n’est pas le cas pour un jeu. Si un quart de l’image concentre toute la complexité et que le reste est tout noir, alors le CPU va tomber à 25% de charge le temps que l’image soit calculé.
Ce système est conservé avec Vega, mais il y a une nouvelle fonctionnalité qui permet de rééquilibrer les files à la volée pour limiter cet effet.
Le scheduler utilisé par NVidia est 100% logiciel, et tourne avec le CPU. Ca génère un peu d’overhead CPU, mais en contrepartie, il est bien plus intelligent, et permet d’utiliser la puissance du GPU bien plus efficacement, ce qui explique que les cartes NVidia ont tendance à tourner plus vite, malgré une puissance brute inférieure.
L’IPC est un peu irrelevant dans le cas d’un GPU. Mais j’ai fait mon calcul en prenant le cas pire, à savoir l’IPC de Fiji. Or, on sait qu’il a augmenté, parce qu’en calcul pro, l’IPC a beaucoup augmenté entre Fiji et la FE.
tl;dr: Si les tflops, ça compte, et c’est la vie. Et ni le firmware, ni les pilotes ne sont prêt dans le cas de la FE. Pour Fiji, j’en sais rien, mais je ne pense pas que ça sera opti à 100% le jour de la release (toujours le cas le pire. Il est aussi possible que ça soit prêt, que ces fonctions aurait put fonctionner pour la FE, mais qu’elles ai été desactivé dans la fE, pour des raisons de stabilité, stabilité qui aurait été obtenu depuis. Pure spéculation, on va prendre le cas le pire, driver pas prêt).
Le
31/07/2017 à
14h
42
Non, AMD a comparé Vega, un modèle non spécifié, à la 1080.
Ils n’ont jamais précisé qu’il s’agissait de la 64.
Le mode d’adressage et le scheduler ayant été complètement, le firmware et les pilotes nécessitent une réécriture complète par rapport à Fiji, ou Polaris.
Les performances dépendent de la qualité de cette réécriture, et je pense qu’AMD ne précise pas de quel modèle il s’agit, parce qu’ils ne savent pas quel performance ils pourront sortir au jour J.
Mais à terme, il est évident que Vega 64 sera plus puissant que la 1080TI.
La seule question reste la conso réelle en charge, qui détermine le dimensionnement du refroidissement, et le bruit.
Moi, je suis sous flotte, je m’en fout, mais les modèle de ref risquent d’être bruyant, sans doute au niveau de Hawaï.
Le
31/07/2017 à
13h
25
Aller chercher la 1080 avec le modèle le plus véloce?
Certainement pas, vu le Tflops annoncé.
En imaginant qu’il n’y ai aucun gain de rendement entre la puissance brute et la perf en jeu par rapport à la FuryX (ce qui est improbable, vu la refonte du scheduler, mais prenons le cas le pire), alors c’est la 56 qui va chercher la 1080 (en passant dessus), et les 64 s’intercalent au niveau et au dessus de la 1080TI.
Je me suis amusé à faire le calcul en 4K (toujours sous directX11, pour prendre le cas le pire) en prenant comme base SW BattleFront par Hardware Canuck, The Division et BF4 testé par AnandTech, on obtient la même chose, à peu de chose près.
Il suffit de prendre la puissance Tflops de la FuryX comme base, et son framerate en jeu, on obtient son rendement en perf sur ce titre. Avec une basique règle de trois, on peut déduire une estimation de la puissance des Vega sur le même titre, en imaginant que leur rendement n’ai pas augmenté.
Cela en idf (paris + 1ere couronne) et dans les hyper centres je veux bien te croire tant l’immobilier est delirant est la densité élevée. Je me rappelle autrefois quand je vivais sur paname que finalement l’emplacement est le seul critère quitte à prendre n’importe quoi tant il y a de pression. Mais heureusement cela ne s’applique pas à toute la France.
C’est valable dans et près de toute les agglomérations de plus de 100 000 habitants, toutes les bandes côtières sur plus ou moins 10 km d’épaisseur (entre Dunkerque et Biarritz, et entre Perpignan et Nice, ça fait du kilométrage), parfois plus, et dans toute l’IDF, pas seulement Paris et couronne: un pote à fait construire dans le plein sud de la Picardie à 5 km de l’IDF, le m² de terrain à bâtir lui a déjà couté 150€ il y a 8 ans. Sur un parcelle de 500m², ça fait déjà 75k€. Sans la maison. Je te laisse imaginer comment ça impact le prix de l’ancien, surtout quand on entre en IDF, hors banlieue pourrave.
@olivierdj : Tu avoueras que c’est un cas particulier, les contraintes du à la météo en montagne qui obligent l’enfouissement. C’est pénible, et on doit en tenir compte, mais c’est pas représentatif du territoire français.
Le
01/09/2016 à
18h
56
olivierdj a écrit :
Juste pour info, la fibre passe très bien en aérien, hein. La tranché n’est pas obligatoire.
On a tendance à penser le contraire parce que les communes intelligentes qui veulent enterrer leurs réseaux en profite pour tout faire en même temps. Mais c’est loi d’être obligatoire.
C’est comme ça qu’ils vont réussir à fibrer chez moi, il y a 4500 m jusqu’au NRA, en dédié juste pour nous…. Et c’est pareil pour tout les hameaux du coin.
La fibre va arriver chez vous bien plus vite que tu ne le penses. Le cuivre, ça avait pris 50 ans pour couvrir la France.
Mais pour la fibre, on y met infiniment plus de moyen qu’à l’époque, et surtout, on bénéficie de l’infra existante: pour fibrer un hameau perdu, suffit de rajouter un câble sur les mêmes poteaux que celui qui tient déjà le cuivre, et roule.
Le
01/09/2016 à
18h
47
Carpette a écrit :
Interessant, on rentre dans le coeur du sujet. Si tu achetes ta maison uniquement pour la localisation et la surface sans en avoir rien a foutre du reste alors tu as un probleme. Si pour toi, 2 maisons de meme surface/emplacement mais d’equipements completement differents (isolation, norme elec etc.) se valent alors tu as un grand probleme d’appreciation.
Le puavre type comme tu dis est suppose etre au courant de la maison. Une maison ca se visite, tu as le droit de demander tout un paquet de documents au proprio, tu peux regarder comment la maison est faite (dans une certaine mesure, le drainage par exemple bonne chance pour le voir) etc.
Si tu achetes une maison n’importe comment en esperant qu elle soit conforme au catalogue approuve de l’etat alors tu as un serieux probleme. D’autant que tu peux demander a des agences de s’occuper de ce genre de boulot pour toi alors franchement aucune excuse.
De plus, pour la vente ou la location il y a certaines normes a respecter (electrique et eau en gros, c-a-d securite et environnement) qui pour le coup sont plutot legitimes, enfin du moins j’ai jamais entendu personne se plaindre.
Mais ne me fais pas dire ce que je n’ai pas dis, si demain je construis une maison je vais probablement payer pour mettre la fibre car je suis assez grand pour decider si je veux investir ou payer *2 ou plus dans 15 ans.
Enfin, je ne suis pas du tout d’accord avec ta derniere phrase. Les normes existent pour des raisons bien precises: securite, environnement, strategique (independance energetique avec l’isolation) etc. Mais certainement pas pour eviter les “escroqueries” comme tu dis. Pour info, tu peux toujours mandater un pro pour verifier differents trucs et te retourner contre le proprio si un vice a ete deliberemment cache.
Pour le prix d’une maison, si, c’est déterminé comme ça. Ca explique pourquoi des phoenix mal montés et mal équipé de 90 m² sur 300 m² de terrain peuvent se vendre 400k€ ou bien plus en région parisienne.
Les acheteurs moyen d’une maison n’ont même pas le niveau technique de celui qui se lance en construction, et bien moins de courage pour apprendre la technique. On ne peut pas les blâmer, apprendre ce qu’il faut savoir prend un temps fou, et demande des bases. Tout le monde ne peut simplement pas faire l’effort, même si ils le devraient. Un coup de peinture fraiche, une cuisine/salle de bain tout équipé assez récente, et roule. Qui a déjà demandé au vendeur l’épaisseur précise et l’age de l’isolation? De la qualité du montage de l’isolation, qui détermine pour moitié son efficacité? Si il y a de l’isolation partout, mais mal foutu avec des ponts thermiques partout, ça ne va pas servir à grand chose. Pleins de gens ne savent même pas ce qu’est un drain, ou comment fonctionne une fosse, même en campagne. Ils savent juste qu’il faut demander l’état du truc, tu peux répondre n’importe quoi, l’acheteur va avaler le morceau, de toute façon, il n’a strictement aucun moyen de vérifier.
Enfin, si les normes existent en partie pour ça: le bilan énergétique, le bilan thermite, et tout ler este de la paperasse normalisé obligatoire à la vente d’une maison ont été créé pour ça, pour tenter d’offrir un peu de sécurité à l’acheteur ignorant.=, ou moins ignorant, mais n’ayant aucun moyen de vérifier les dires du vendeur:
Le mec te dit qu’il y a 20 cm de laine de roche dans les murs, tu fais quoi, tu exploses le placo pour vérifier? Il te sors des factures de chauffage. Cool, il les a sans doute choisis, va prétendre qu’il a perdu les autres, et de toute façon, tu ne sais pas à combien il chauffait: des factures faibles, c’est cool, si le mec ne chauffait jamais au dessus de 16°C, ça te fait une belle jambe, surtout si t’as des gamins en bas age, tu vas pas payer pareil.
Tout ça, tu me coryras ou pas, c’est du vécu.
Le
01/09/2016 à
12h
42
Carpette a écrit :
En fait, vu les reponses precedentes que ce soit moi ou avec les autres, je crois que c’est toi qui est egocentrique pour TON confort. Nous on propose de laisser les gens libres de faire ce qu’ils veulent de leur fric (la baraque est nulle ? Pas de soucis elle voudra 50% d’une moderne alors) tandis que toi tu es pour des obligations perpetuelles et pour tout le monde. C’est deliberemment de la mauvais foi.
Oui, quand tu la construit. Mais le prix de vente d’une maison ne dépend pas de l’épaisseur de l’isolation, ni de la qualité des fondations. Elle ne dépend quasiment que de la localisation, et de la surface (avec le nombre de pièces).
Sans norme, TOUT les gens qui construisent sans vouloir habiter longtemps dedans ne ferait que de la merde, et c’est le pauvre type qui achète derrière qui se fait baiser, à claquer 2k€ pour être fibré, et dépense 300€ / mois de chauffage en hivers.
Et en plus, c’est de l’économie de bout de chandelles complètement inutile: comme l’économie d’une gaine pour la fibre ne se justifie pas, celle de l’isolation non plus. La laine de verre ne coute pas grand chose, et elle est rentabilisé en 5 à 10 ans (en étant très pessimiste) en économie de chauffage. Donc pour économiser du fric la première année, pendant toute la durée de vie de la maison, un siècle ou plus, tu vas raquer à mort. Joli calcul.
Ton raisonnement se tient si le jour ou tu vends, tu rases ta merde et ne vend que le terrain. Autrement, c’est une escroquerie, et rien d ‘autre.
Les normes existent à cause de ça, pour éviter les malfaçon, dont sont sans doute conscient les constructeurs et les premiers proprios, mais ceux ci ne vont pas s’en vanter le jour ou ils vendent.
Le
01/09/2016 à
12h
34
lanoux a écrit :
dans le btp ils pleurent pas sur les normes, ça augmente la facture du client c’est tout.
Puis faut voir également la gueule des normes pondues par les hauts fonctionnaires, exemple à la con isolation de toiture en laine de verre, 27cm….ils ont jamais foutu les pieds dans une GSB ces guignols, tu l’achètes en rouleau de 20 ou 10cm
Trouver ça m’a pris moins d’une minute sur google.
Le
01/09/2016 à
12h
31
olivierdj a écrit :
encore un qui a pas fait caca ce matin .tu a lu ce que j’ai marqué ? je suis d’accord pour mettre une gaine adéquate non câblé pire câblé si il le faut (si c’est la loi) si tu sais pas lire les gens s’en t’énerver je peux comprendre que t’as fais l’apéro.si tu t’en branles de mon opinion soit mais soit pas agressif va te laver les mains ça doit coller." />
quel pari sur l’avenir? en ville oui mais pas en rural c’est ça que tu comprends pas viens vivre a la campagne respirer le grand aire regarder le beau paysage ça te feras du bien.
je le dis et je le répète si ça toi tu es d’accord c’est ton droit mais j’ai aussi le droit de ne pas être d’accord avec cette loi.comme j’ai dis en rural pas en ville.
il suffit de voir le fiasco pour l’adsl en ville pire en rural a grand coup de subvention de L’État alors la fibre…..après je respecte ton avis alors calmes toi je m’en tape aussi de ton avis et pourtant je reste calme. " />
tu parles d’un avenir ça fait 10 ans que l’adsl devrait être pour tous (comme pour le reseau des antennes téléphonique) .la ou ici on a pas encore du vrai adsl on impose un truc qui quand il sera pour tous on sera tous mort alors qu’il y aura certainement bien mieux.mais bon si toi tu y vois de l’avenir c’est le tien car tu vis dans ta bulle viens prendre l’aire a la campagne te taper les 2 mégas et peut etre que tu diras comme moi : vi ben la fibre…..encore du pipo.
Si t’avais lu toutes les pages avant de répondre, tu saurais que mon compteur à est 70m de la rue. Tu en déduirais que je vis sans doute à la campagne, et tu aurais raison, dans un hameau de moins de quinées maisons.
Je respire donc le grand air, qui me permet de réfléchir avant d’écrire, contrairement à d’autres.
Et pourtant, je serais fibré avant 2020.
Quand au débat sur l’ADSL, il est hors sujet. L’ADSL a été abandonné dans les faits (du moins, son développement) au moment ou il a été choisis de fibrer les gens (donc il y pas loin de 10 ans), ce qui aussi était un paris sur l’avenir, en grande partie à cause des zones rurales justement, parce que la fibre optique n’a pas l’atténuation d’un câble cuivre, et donc la perte de signal associé, sur de longues distances.
La fibre a également été choisis à l’époque, parce que justement, elle permet un bien meilleur gain dans le temps, c’est à dire qu’il est plus que probable que l’on puisse bien plus facilement augmenter les débits sur de la fibre que sur du câble.
La France a justement fait le choix de la fibre, pour recabler maintenant, alors que l’ADSL tient encore la route, et pas dans 50 ans, alors que les limites du cuivres seront atteintes (on en est déjà très proche).
Et ce décret qui oblige à préfibrer les maison neuves (qui je le rappelles sont destinées à être utilisées plus de 10 ans, hein…) rentre dans ce décors: à terme, il va remplacer l’obligation du câble téléphonique, qui sera abandonné.
En gros, si tu ne fibres pas ta baraque maintenant quand tu la construit, et que tu t’en fout,n tu seras bien emmerdé pour la vendre dans 15 ans quand ça sera la norme.
Mais tout le monde préfère gueuler que ça coute cher bla bla bla, et surtout éviter de regarder ailleurs que son nombril: raison pour laquelle il y a un obligation légale. C’est le béa ba, ça coule de source, préfibrer lors d’une construction neuve dans l’optique du futur coule de source, SURTOUT à la campagne, mais vu que les gens sont con, ils ne le feront pas si on ne leur force pas la main. Et si on ne le fait pas, ils couineront dans 10 ans que l’installation coute cher, qu’il faut refaire une tranché, parce qu’ils ont refusé de claquer 50€ quand ils ont construit leur baraque.
Voila à quoi servent les normes obligatoire: à combattre la bêtise humaine.
Le
01/09/2016 à
10h
58
olivierdj a écrit :
on s’est loupé le temps que je réponde a djbudge2 " /> si tu lis juste au dessus c’est la le problème.quel type de câble sera utilisé dans 10 ans ? et souvent une prise il t’en faut donc d’autres une seule suffit pas.donc tu en rajoutes a la construction mais actuellement quand t’arrive dans ta maison(neuve) elle est pas encore relié tu comprends? donc il te faudra prévoir quand même le cuivre branché au tableau et a la rue pour le départ non ?et a coté la fibre pré câblé qui attendra le bon vouloir des fai….que l’on impose des loi a la c… aux citoyens oui mais que le fai alors est l’obligation de te brancher rapidement sinon tout ça ne sert a rien mais réellement a rien .faut revoir tout ça correctement avec les fai si on fait tout le boulot ben qu’ils fassent le leur sinon ça sert a rien (dans le milieu rural)cela reste mon point de vue bien sur . j’habite en rural je sais de quoi je parle" /> ça fait 17 ans que l’on attend simplement un reseau correct adsl et la fibre on est pas pret de l’avoir faut comprendre ausi que ces loi servent en ville mais en rural (6 km de l’Ardèche pour moi) ben on s’en fout de nous (les fai) " />
On s’en fout du cable qui sera utilisé dans 10ans. C’est pour ça que FT impose des gaines de 35, et pas du 10, pour passer un pov cable simple: pour pouvoir recabler après.
Ton débat est un faux débat: on s’en branle complet du câble, son prix est négligeable, quitte à passer une câble, autant foutre un câble dedans qui devrait sans doute servir.
Et si on doit recabler, le câble existant fera un bien meilleur tire fil que la daube en nylon fournit, qui casse presque à tout les coup.
C’est un pari sur l’avenir, pour faciliter la vie des gens. Mais tout le monde s’en fout, et préfère faire un caca nerveux pour un cable à 50€.
En quoi ça t’emmerde de foutre une fibre dans ta gaine, puisque tu la passe, le jour ou tu construit ta baraque? La probabilité qu’elle serve, plus les emmerdement qu’elle peut t’éviter le justifie, en comparaison de l’immense difficulté de passer une fibre dans une gaine non encore enterrée, et le prix monstrueux de 100m de fibre optique, comparé aux 120k€ mini que coute une maison.
L’art d’enculer les mouches.
Le
01/09/2016 à
10h
46
alex.d. a écrit :
Non, si t’es à plus de 35m, ton compteur est au bord de la route, et du coup dans la tranchée c’est un câble qui t’appartient puisqu’il fait partie de l’installation intérieure (EDF s’arrête au disjoncteur, FT s’arrête au DTI, le fournisseur de fibre s’arrête au PTO). Donc EDF le raccord, comme ils te raccordent ton installation intérieure, du moment que tu fournis le Consuel.
Moi je te parlais du câble avant le compteur, comme on parlait de la fibre avant le PTO.
Ca revient au même techniquement, que le câble soit avant ou après le compteur.
C’est juste une question de responsabilité contractuelle. Et tu te retrouve à enterrer un 2x 35² en cuivre, ou 2x 50² en alu, à fournir toi même, dimensionner toi même, et enterrer toi même.
Le
31/08/2016 à
20h
53
renaud07 a écrit :
Même le 5e marchera, et d’après un expert qui travail dans tout ce qui est ondes, il m’a dit que même du non blindé fonctionnerait pour du gigabit… D’après lui si on a besoin de cat6 blindé, c’est qu’on doit passer le réseau dans une usine avec des machines à forte puissance qui créent beaucoup de perturbations.
Je veux bien le croire mais par précaution je poserais quand même du cat5e blindé.
C’est vrai, j’ai déjà fait passer du base 100 sur 25m sur du fil téléphonique tout pourrave sans blindage.
Mais quand tu achètes une bobine de 100m, le surcout est dérisoire. J’ai trouvé une bobine de 100m en cat6a double blindage pour 50 ou 60€. J’ai aurais économisé genre 10€ en prenant du 5e….
Autant pas s’emmerder, je peux faire du 10gb avec, en théorie. Et vu que je ne compte pas tout recabler dans 10 ans, autant avoir de la marge.
Le
31/08/2016 à
20h
43
graphseb a écrit :
L’expression, c’est pas tout à fait “gros travaux”, puisque apparemment le texte dit “permis de construire”, ce qui est très différent. On verra bien ce que le décret d’application juge “disproportionné”. Mais vu le climat d’entubage permanent, je ne pars pas confiant.
Si t’as besoin d’un permis de construire, c’est que c’est des très gros travaux.
On te demande pas de permis de construire pour changer le papier peint de ta cuisine, ou ajouter un radiateur dans tes chiottes.
Le
31/08/2016 à
20h
39
renaud07 a écrit :
Tu peux remplacer tes gigognes par des RJ45 et relier au tableau à une baie de brassage avec un switch et hop t’as un réseau info dans toutes les pièces. En général si le cable PTT est pas trop long il peut faire du 100 mbps et si t’as de la chance le gigatbit passera, mais pour ça faut s’appliquer au câblage de la prise.
Au pire, il met 50€ dans une bobine de 100m de cable cat6, et il tire son nouveau câble avec l’ancien, dans la gaine de l’ancien, et hop, du gigabit dans toute les pièces ne moins d’une après midi de travail.
Le
31/08/2016 à
20h
37
alex.d. a écrit :
Si c’est quand même un peu stupide.
Pour EDF, il ne faut fournir qu’une gaine pour qu’ils passent leur câble. Si tu veux fournir le câble, ils refusent, car ils ne peuvent pas garantir la conformité sur un câble qu’ils n’ont pas fourni eux-mêmes.
Et pourtant, je pense bien qu’un constructeur de maison a plus de chance de fournir la mauvaise fibre que le mauvais câble électrique, c’est quand même une techno qu’ils maîtrisent moins.
Tu crois sérieusement que les opérateurs vont assurer la garantie de service et le SAV sur un tronçon de fibre qu’ils n’ont pas installé ? Est-ce que tu crois sérieusement qu’ils vont s’embêter à faire une soudure pour exploiter ton petit morceau de fibre de 5m alors qu’il leur coûte beaucoup moins cher de dérouler la leur directement jusqu’au tableau sans soudure ?
Je ne dis pas qu’il ne faut rien faire, juste qu’il faut imposer de préparer une gaine TPC 50 verte vide.
C’est faux pour EDF. Si ton tableau est à plus de 35m du compteur, c’est toi qui raccorde et tu te démerdes, ils ne font rien. J’ai pas loin de 70m entre le compteur et la maison, c’est moi qui ai été acheté le câble, et qui l’ai installé. EDF m’a raccordé sans aucun soucis. De toute façon, si ça prend feu, c’est ton problème et ta responsabilité, pas le leur.
Pour la fibre, pareil. L’opérateur s’en cogne. Et la, on parle de passer un câble, simplement dans l’attente du futur. Le surcout va être de 50€ à la construction, parce que la tranchée est déjà ouverte pour passer l’eau, l’électricité et le téléphone. On ne fait que rajouter une gaine et un câble. Et encore, à terme, le surcout serait de zéro, parce que ça viendra remplacer la paire de cuivre du téléphone.
Par contre, ça te permet d’économiser 2 000 € si t’as pas de bol et que tu veux le faire plus tard et qu’il faut tout réouvrir. Qu’il faille un loi pour obliger ça est aberrant, les gens devrait le faire de base.
Pour être contre, il faut soit n’avoir jamais construit de maison de ta vie (alors tu sais pas, c’est pas de ta faute), soit être très con.
En fait, les chip Pascal (comme les Maxwell) n’ont pas de matériel pouvant gérer l’Async Compute. Peut-on dire qu’ils sont certifiables DirectX 12 ? Sachant que, sauf erreur de ma part, cela fait aprtie de la norme ?
Sinon, pour répondre à la personne qui voulait savoir su une surcharge “en pics” était plus ou moins dangereuse ? La réponse est : largement plus. L’électronique, en particulier celle de puissance, n’aime pas du tout. Un exemple tout con : certaines ampoules à basse consommation (dotées d’une alim à découpage dans leur culot) indique non seulement uen durée de vie, mais aussi une quantité maximale de commutations (comprendre allumage / extinction) qui, après examen, s’avère bien en deçà de la durée de vie totale théorique de l’ampoule. C’est l’effet d’arc que l’électronique n’aime pas.
Au contraire, une surcharge continue est plus simple à gérer, si le refroidissement (l’électronique n’aime pas la chaleur) est bien conçu.
En fait en théorie, tu as tout à fait raison, en pratique, ça dépend. Les alims à découpage ont de gros condos qui vont encaisser la différence. Ca les fait vieillir un peu plus vite, mais ils vont normalement plus ou moins protéger le reste de l’alim. Donc, si on tire sur le connecteur 6⁄8 broches, c’est moins pire. Par conter, via le connecteur PCIex, la, il n’y a rien pour protéger la carte mère…
La cerise sur le gâteau, c’est que ce genre de pic sera invisible par un wattmètre lambda, beaucoup trop lent. Et du coup, sera complètement ignoré par les tests de conso effectués par la presse spécialisé. Il faudrait refaire ces tests avec un bon wattmètre pro, histoire de voir si l’avantage de NVidia en terme de conso est aussi élevé et réel qu’il parait.
Ça me semble difficile de mettre à disposition des opérateurs télécoms les informations du réseau électrique. J’ai pu constater que ERDF ne connaît déjà pas lui-même son réseau…
Je confirme. Dans ma rue, leurs plans sont faux. L’opérateur pensait que la ligne était de l’autre côté de la rue, lorsque l’on a fait construire, et qu’il faudrait ouvrir la route, alors que le poteau se trouve en réalité chez moi (non seulement du bon côté, mais dans MON terrain)…
Dans l’absolu qq1 peut m’expliquer à quoi sert la sim ?
On ne peut pas simplement se connecter à la station de base et passer un login/password ?
La SIM est standard, et c’est le composant, qui, sur un appareil non SIMlocké, te permet à n’importe quel instant de changer d’opérateur comme tu l’entends, sans l’avis du fabricant de l’appareil, juste en changeant la SIM.
Si la SIM est intégré à l’appareil, alors le fabricant s’intercale entre le client et l’opérateur. Il peut bloquer l’appareil sur un réseau, sans possibilité de contournement.
Dans le cas ou le client est dit captif, comme dans le cas des iphone, puisqu’une part du renouvellement est fait par les clients comme des moutons sans regarder la concurrence, alors, le constructeur peut via la SIM intégré imposer sa loi aux opérateurs.
Dans 5 ou 10 ans, Apple pourrait très bien décider de facturer l’accès aux terminaux Apple aux opérateurs dans le cadre de partenariat, en exigeant un reversement d’une partie du prix de l’abonnements, disons, au hasard, 30%, par exemple…
Charge que les opérateurs refactureraient aux clients.
C’est tout l’intérêt à long terme d’Apple. La SIM intégré va servir à lier les mains des opérateurs, avant de s’imposer lui même MVNO, et tuer la concurrence par la suite.
Un peu comme ils l’ont fait avec les revendeurs Apple traditionnels, qu’ils ont tué avec les Apple store.
En France ou les prix sont bas, le client à 100% de chance d’être perdant, et de le payer à terme sur le prix de son abonnement.
Un drone capable de voler à 1600 m d’altitude, c’est pas en vente à un particulier, en principe. Les Phantoms & co sont très très loin de ce genre de perf.
J’y connais pas grand chose mais ça m’étonne un peu cette histoire de batterie. Tout les concerts auquels j’ai assité, on des micros pour la batterie, du coup y a quand même besoin de l’amplifier, non ?
Ca dépend de la salle aussi.
A Bercy, forcément, la batterie a des micros et est amplifié.
Au concert de rock du café du coin qui contient pas plus de 50 personnes chiottes incluses, non, la batterie n’a pas de micro.
Le
03/03/2016 à
10h
21
numerid a écrit :
Je ne vais plus du tout au cinéma à cause de ça et je fuis, quand je peux, les manifestations publiques où il y a de la “musique” avec des baffles. Le niveau sonore est beaucoup trop élevé.
Un orchestre symphonique ça peut avoir un haut niveau sonore, mais jamais à ce point là et l’écriture fait qu’il y a des nuances, des tutti et des soli qui permettent d’aérer les oreilles entre deux passages fortissimo.
Un orchestre symphonique, ça peut monter à 122 db au milieu du parterre, hein….
C’est surtout complètement con de la part de Facebook/Instagram. Le message envoyé au public, c’est: “si vous trouvez une faille ultra critique pour permet de compromettre l’intégralité de notre infra, si vous voulez du pognon, vendez ça à la NSA ou à la mafia russe, mais nous, on vous filera juste un paquet de cahouèttes et une tape sur l’épaule”.
Enfin, il est juste scandaleux qu’une faille sur un frontend compromette l’intégralité d’une infra. L’architecte qui a mis ça en place devrait retourner jouer aux billes. Et de fait, le mec a eu raison de continuer. L’architecture en elle même constitue la seconde faille, qui vaudrait donc, à minima un second chèque de 2500$ en suivant la logique de facebook.
Aucun lieu de culte n’est financé par de l’argent publique, c’est interdit par la loi. Et si,ça se faisait quand même, ça serait très facile à prouver et punir. C’est mal de colporter les trolls de Buisson.
Pour une machine non dédiée à jouer, sous Linux, tu prends Intel…
J’ai pas forcément besoin d’un CPU à 300€.
J’ai un HTPC sous Linux, c’est un APU AMD, il n ‘y rien en face chez Itnel en terme de rapport perf / prix.
Et pour un HTPC, si tu veux par exemple du 4K, avec décodage matériel, jusqu’à tout récemment (tellement récemment que je ne sais même pas si c’est déjà en vente), chez Intel, il n’y avait rien.
Le
10/09/2015 à
19h
28
Uther a écrit :
+1
Ce n’est certainement pas le marché Linux encore anecdotique qui explique la situation d’AMD. Mais j’ai beau aprécier AMD, en tant qu’utilisateur Linux, , le choix du constructeur de ma carte graphique ne c’est même pas posé. Les drivers ATI ne sont juste pas au niveau.
Si tu joues ok. Mais sou Linux, pour une machine non dédié à jouer, c’est AMD direct. Les drivers NVidia sont aussi bugué, et au moins, avec AMD, on a le choix, si le driver proprio est moisi, on peut toujours passer sous gallium.
Chez Nvidia, si t’as un bug bloquant, ce qui arrive aussi, ben t’as gagné le droit d’attendre que nvidia daigne patcher son tas de bouse, et ils ont généralement autre chose à foutre, que de patcher le driver mainstream linux.
J’explique simplement pourquoi spéculer sur un éventuel rachat d’AMD est hors sujet, et je donne mes sources.
Dans le même paragraphe, avec le fameux “moi président d’AMD”, qui n’est d’ailleurs pas “moi président d’AMD”, mais “moi acheteur d’AMD”, ce qui n’a rien à voir, j’explique pourquoi, AMHA, le rachat d’AMD est hros sujet.
Mais comme tu n’as rien compris ni au post, ni à l’article, ni à la situation d’AMD ou d’Intel, et qu’un niveau de réthorique aussi faible que le mien est déjà trop élevé pour toi, tu réponds à côté de la plaque.
Je t’aide: la plaque, c’est coment un acheteur potentiel, qu’il soit Microsoft,, Apple ou qui que ce soit d’autre, pourrait réussir à rachetter AMD, tout en en faisant quelque chose, donc sans perdre de licence x86, sans mettre Intel en situation de monopole, et en tentant de vendre des produits sur un marché pas déjà complètement saturé.
Trouve une réponse à ça, et on en reparle.
Le
05/07/2015 à
21h
43
T’as soit pas lu mon post, soit tu l’as pas compris.
J’explique pourquoi AMD ne sera jamais racheté, et c’est une démonstration par l’absurde, en montrant ce qui ce passerait si ça arrivait.
Il est ou le monde des bisounours, et ton argumentaire, il est ou?
D’ailleurs, ton post, il sert à quoi?
Le
04/07/2015 à
21h
02
trekker92 a écrit :
source?
Je trouve un peu facile cette habitude de venir demander des sources sur des infos triviales, quand on est trop flemmard pour se faire chier à faire une recherche google de 15s.
Comme je suis un mec sympa, je t’en file une quand même, parmi 3 millions de résultats:
Moi, je parie que AMD ne mourra jamais et ne sera jamais racheté par personne.
AMD à une licence x86 qui provient d’un échange croisé de licence, c’est par ce biais qu’Intel a une licence AMD64. Pour rappel 100% des CPU Intel actuel sont des AMD64, depuis l’échec de l’Itanium.
Or cet accord croisé stipule que la branche CPU d’AMD ne peut changer de structure. Elle ne peut être divisée, cédée. Elle ne peut être rachetée par personne sans rendre cette accord caduc.
Si j’avais 2M$, j’aurais racheté AMD dans l’instant pour le transformer en patent troll, laisser tomber le x86 et la fabrication de CPU, et laisser Intel dans la merde fasse aux loi antitrust, tout en exigeant d’eux des royalties monumentales en % pour l’utilisation de la licence AMD64. Ca devrait pouvoir rapporter quelques milliards de dollars chaque année, siphonnés directement des poches d’Intel.
Le fait est que personne ne laisserait faire une chose pareille, ni Bruxelles, ni Washington, et bien sur, ni Intel.
Tout ça pour dire, que AMD peut accumuler des pertes jsqu’à la fin des temps, ils ne seront ni vendu, ni liquidé.
Si il le faut, Intel injectera du fric jusqu’à plus soif pour les maintenir en vie, en état de challenger sous perfusion, comme l’a fait Microsoft avec Apple à une époque, pour conserver l’accord de licence croisée, et pour éviter de se faire tronçonner à cause de lois antitrusts.
Sans déconner les mecs qui sortent le rapport perf / watt pour une carte qui bouffe de toute façon plus de 250W en charge, ça me fait doucement rigoler.
Sur l’ensemble de la machine, ça représente 50 W sur 5 ou 600, donc 10%, mortel comme gain.
Sur que c’est mieux que rien, mais en argument n°1, c’est ridicule.
Le
16/06/2015 à
19h
58
Ca existe pas un TV 120Hz.
Un TV 120 Hz, fait du 30 Hz, avec une image noire intercalé un coup sur deux, un marketeux appelle ça du 60 Hz, 120 avec la 3D.
Mais chaque œil n’a toujours que 30 img/s, même en mode super 120 Hz.
je vais faire mon lourd et on va me jeter des caillours, mais si tu ne veux que lire des videos avec ton HTPC, je te conseille plutot un petit RPi avec OpenELEC
non seulement, c’est (tres) discret, moins cher et totalement silencieux, mais c’est pilotable avec la télécommande de la télé via HDMI-CEC (pas de souris/clavier qui traine donc)
à l’utilisation, c’est comme si XBMC était intégré à la tv
Il peut aussi ne pas acheter de NAS, se monter un HTPC basse conso à base d’une barebone quelconque, qui servirait de NAS…
Mais dans son cas, un syno play seul me semble indiqué également.
Le
21/03/2014 à
09h
36
Capslock a écrit :
Il y aurait des inconvénients à ça ? Sur le papier ça a l’air bien….
Par vraiment des inconvénients, mais c’est pas adapté à tout le monde.
Les constructions neuves ont souvent une arrivée téléphone au tableau électrique (dans le garage, donc), et ont donc leur box à cette endroit. La législation imposant de câbler toutes les pièces en Ethernet, il est donc logique d’avoir le switch dans le garage, à côté de la box, au tableau.
Et donc de mettre le NAS à cet endroit. En plus, du coup, plus d’emmerde avec le bruit.
Mais ça impose d’utiliser autre chose que le NAS pour la lecture (une steam box, un Ras Pi, un HTPC dédié, n’importe quel genre d’objet de ce genre, juste capable de booter même sur une simple carte flash, voire, sans disque du tout, avec l’OS de l’engin sur le NAS et un boot via réseau), et ça rend ce genre de fonction( sortie HDMI), totalement inutilisable.
Edit: Il est aussi, AMHA, sauf haut de gamme, totalement illusoire de penser faire du décodage vidéo HD avec un NAS, tout en s’en servant de serveur applicatif (owncloud, seedbox, teamspeak, whatever…). Les CPU de base tiendront pas la route, AMHA.
Aussi, les CPU de NAS étant ce qu’ils sont, c’est souvent limite pour une application au moment ou on l’achète, mais assez peu capable d’évoluer: par exemple si un NAS actuel est capable de décoder du HD, si dans dans 5 ans, t’achètes une TV 4K, faudra oublier le décodage via le vieu NAS, qui pourtant marche encore très bien.
Actuellement, il n’y a, à ma connaissance, aucune machine aussi puissante et aussi silencieuse disponible sous windows,
Ben pourtant, ça existe depuis des années. Depuis bien avant que Apple fasse des machines x86, en fait.
Si tu vas sur le site de Lenovo, par exemple, tu pourras faire une machine moche, mais en bi Xeon, pour le prix du macpro en mono CPU.
Dans le temps, la gamme Precision chez Dell avait aussi des machines de ce type, mais ils ont apparemment arrêté. J’imagine que chez HP Compaq, il doit y avoir la même chose. Et i lest bien évidement possible d’en assembler une from scratch.
Zorglob a écrit :
Je dis donc simplement que le MP actuel livré avec 2 GPU bénéficie des travaux des éditeurs de softs et que dans ce contexte ce n’est pas si malsain que les éditeurs se préparent eux aussi intensivement aux GPGPU… OpenCL ET CUDA.
Oui et non. Sur le fond, je suis tout à fait d’accord avec toi. Évidemment, il est positif que les éditeurs se préparent. Ne serait ce que pour que leurs applis aient une interaction efficaces avec le matériel via l’OS.
Mais je suis un intégriste de la séparation des rôles, et pour moi, l’approche d’Apple ne devraient pas perdurer à long terme, parce que, à terme, ce n’est pas un approche saine que de laisser ce rôle aux applis, voila tout.
Le
19/03/2014 à
15h
36
Zorglob a écrit :
Simple avis perso non fondé particulièrement : je n’y crois absolument pas, mais alors du tout. Si Apple avait envie de se maquer avec AMD pour x longues années contractuelles, le crossfire géré nativement serait proposé dès la rev B ou c du MacPro, soit 2015 au grand plus tard. J’en suis intimement persuadé, mais ce n’est qu’un sentiment (un peu fondé sur la manière très rapide du deal PPC -> X86).
Sauf que je ne comprend pas en quoi le fait de supporter le crossfire obligerait Apple à se maquer pour x année avec AMD.
Surtout le crossfire en fait. AMD est bien content de vendre des GPu, et veulent qu’ils soient facile à utiliser et performant pour les clients pour en vendre.
je doute fortement qu’ils obligent Apple à signer un contrat restrictif pour avoir un support natif implémenté dans l’OS.
Zorglob a écrit :
Mais… comment dire… Si on voit le crossfire comme (1) une fin en soi (2) immédiate, alors oui, peut-être… Mais je doute que les pro ciblés voient comme ça. Et je sais que ça fait partisan (alors que ce n’est pas le cas), mais énormément de monde n’a absolument pas du tout envien d’être sur Windows, il faut quand même le savoir.
Tu t’accroches trop à Windows lui-même je trouve, d’autant trop s’il ne s’agit que de la faible et fragile qualité très ponctuelle du crossfire/SLI.
Je le répète : bien que les tests soient difficiles à faire pour l’heure, si un soft s’en sort aussi bien en gérant lui-même 2 GPU qu’un autre en se servant de l’OS qui voit un crossfire unique, tout le monde s’en foutra…
" />
Je ne m’accroche pas à Windows du tout, la situation est la même sous Linux. C’est macOSX, l’exception, pas Windows, sur ce point.
Et j’anticipe. De la même manière que la puissance des core CPU n’augmente plus vraiment, et qu’on se lance dans le multicore massif, je me dit qu’un jour, la même problématique arrivera pour les GPU. Ils sont de plus en plus gros, mais on ne gagne pas en finesse suffisamment vite. Ce qui a poussé au multicore CPU risque de pousser au multiGPU, à terme. D u moins, même si c’est une hypothèse fondu sur rien que mon intuition à moi que j’ai moi personnellement, je pense que c’est une possibilité. Et qu’alors, si le support du multi GPu est laissé à l’OS, et aux pilotes, ça ira. Mais si les applis doivent se palucher le support du SLI, du crossfire, en 2, 3, 4, X GPU…. on est pas sortit de l’auberge. Je doute fortement que le support par chaque applis du multi GPU soient aussi efficace et aussi bien foutu et performant que si seul les pilotes et l’OS doivent le supporter. Chaque développeur va devoir réinventer la roue, c’est un peu à l’opposé de toute l’évolution du développement depuis des années.
Je ne suis pas sur que ça soit une bonne solution à terme.
Le
19/03/2014 à
14h
46
Zorglob a écrit :
Oui.
Non. C’est là la différence. Pour prendre comme exemple des logiciels Apple qui sont particulièrement ciblés par cette machine, Final Cut Pro X et/ou Motion utilisent les 2 GPU à pleine puissance. Il ne s’agit ni de “crossfire” ni de SLI dans les définitions elles-mêmes, mais elles gèrent le GPGPU des 2 GPU, qu’ils soient D300, D500 ou D700 de chez AMD.
Je viens de t’en citer 2, je t’en cite vite fait une 3ème histoire de changer d’éditeur : DaVinci Resolve, de Blackmagic. Et il y en a d’autres.
Note : certes, c’est mon “monde professionnel”, forcément je le sais et en parle dans ce milieu depuis avant même que la machine soit sortie; ça n’enlève rien à ta perspicacité concernant le crossfire, car c’est un monde de niche (prod. et post-prod audiovisuelle) que personne n’est sensé connaître. D’un autre coté, c’est un peu le milieu visé par la machine….
Note 2 : le site barefeats répertorie un max de bench du milieu duquel je te parle, pour info.
Non, comme expliqué plus haut. Et le terme “utilisable” est d’autant moins pertinent que tu chercheras les benchs et tests divers.
Perso bof bof la participation à vos invectives, je me suis contenté de répondre à un bouffon plus haut, c’était déjà trop " />
Merci pour cette info, je me coucherais moins bête ce soir.
Pour le reste, l’excuse de la liberté par rapport au fournisseur ne tient pas vraiment.
AMHA, c’est surtout que l’implémentation native complète du crossfire et du SLI prend énormément de temps et de ressources, coute très cher, pour un public très restreint.
Vu que la plupart des utilisateurs ne verront même pas la différence, autant simplement tenter de pousser OpenCL, pour pas se faire chier, et laisser les éditeurs faire le boulot. Accessoirement, openCL ne va pas magiquement résoudre le problème du crossfire sous macOSX, hein: de toute façon, l’appli devra faire le boulot elle même, pour utiliser les deux, vu que le système en présente deux, et non un seul comme sous Windows.
Les très gros utilisateurs de multi GPU massif sont sous Linux de toute façon. Et les amateurs d’énormes config desktop pro orienté GPGPU peuvent aller chez Lenovo… qui vend des machines avec une limite de TDP bien plus élevée, et donc au finals, bien plus puissantes, pour un tarif comparable.
Reste que la problématique pour l’utilisateur reste entière: un support très parcellaire, et or quelques applications spécifiques, Windows reste la seule planche de salut polyvalente.
misterB a écrit :
Dire qu’OpenCL à été lancé par Apple et Nvidia au départ " />" />
NVidia, les trucs open, c’est pas trop leur truc, hein.
Le
19/03/2014 à
13h
44
ar7awn a écrit :
c’est un argument d’autorité, ça ne veut rien dire du tout. Ce qui m’intéresse c’est s’il est vrai que OsX ne gère par lui même les deux GPU et qu’il faut coder le support dans l’appli contrairement a windows.
@Citan666: bien sur que je suis un boulet qui ne sais pas de quoi je parle. C’est pour ça, que j’imagine que toi, en tant que grand client Apple, tu saurais nous dire quelles applis seraient capable d’utiliser les 2 GPU sous MacOSX.
Apple a conçu une machine pour qu’elle soit vendue, pas pour qu’elle correspondent à un besoin client. En ça, ils ont raison, c’est d’ailleurs ce que font tout les autres constructeurs également.
Les acheteurs qui se prétendent pro et qui achètent des machines sans connaitre leurs capacités, par contre….
Quand au paragraphe sur l’écosystème, pardon, mais c’est juste du flan, pour être poli.
Tu mets pas 4000€ min pour un écosystème Apple. Si tu veux juste un écosystème, et que tu t’en fout des perfs, et que tu sais ce que tu fais, tu prends un imac, qui coute au moins deux fois moins cher. T’as un top écran, un bel écosystème, et il te reste plein de fric pour acheter autre chose, ou éviter de gaspiller ton fond d’investissement (vu que t’es un pro, n’est ce pas, t’es sensé acheter des outils rentable).
La, tu essaie juste de justifier l’injustifiable, à savoir que le crossfire sous MacOSX n’est pas géré nativement, et que du coup, pour pouvoir l’utiliser, tu dois booter sur un OS concurrent. Mais comme la plupart des client Apple ne le savent pas, vu qu’ils s’en foutent de la technique, on peut juste les enfiler avec du gravier, ils sont content avec leur dual GPU, même si il n’y a qu’une seule carte (bas de gamme, à 4000€), qui tourne.
Sauf si bien sur tu me dis que tu fais des calculs de rendu en arrière plan, tout en jouant à Diablo III.
Donc les vrais users du macPro, ceux qui savent ça, ben ils peuvent s’assoir sur le version boite de Windows 7 et vont devoir racheter un Windows 8.1 64 e, version boite. CQFD.
Le
19/03/2014 à
12h
52
Zorglob a écrit :
Certes, voilà un post qui sert à quelque chose.
Il faut savoir tout de même que Maverricks (l’OS livré avec la machine) est optimisé entièrement pour du double AMD d’une part, et que les GPU en barrette entrant dans la machine ne sont pas légions pour l’instant.
=> Il n’est donc pas facilement tentable de faire un crossfire avec les GPU que l’on veut dans ce MP, et je doute que Windows gère mieux le multithreading et le GPGPU des softs pro que ce MP est sensé faire tourner que l’OS spécialement conçu pour.
En bref, je suis d’accord avec ce que tu dis… sur l’ancien MP (pour l’instant en tous cas).
Sauf que la machine n’est vendu qu’en configuration crossfire, avec deux cartes.
Sauf erreur, peut importe la config, impossible de la commander avec une seule carte.
Et Windows, contrairement à MacOSX, gère le crossfire lui même. Ca veut dire que l’appli n’a pas besoin de le supporter spécifiquement, elle ne voit qu’une seul GPU, ce en quoi, i lest sur ce point bien plus efficace que MACOSX.
Surtout que je ne connais aucune appli type utilisé sur OSX capable de gérer elle même chaque GPU.
Ce pourquoi, AMHA, cette machine n’est réellement utilisable que sous Windows pour en tirer le plein potentiel.
Conclusion qui me fait doucement rigoler quand je lis les “commentaires” de Cita666 par exemple.
Pourquoi supporter un OS concurrent? Ben pour que le client puisse utiliser la machine, tout simplement.
Le
19/03/2014 à
08h
46
L’intérêt de faire tourner Windows la dessus, plutôt que d’utiliser Paralel desktop, peut être surtout parce que OSX ne supporte pas vraiment le crossfire, à savoir, il délègue la gestion du crossfire à l’appli, qui le plus souvent, elle ne le gère pas.
Je suis près à parier que la majorité des acheteurs ignorent ce détail, d’autant plus croustillant que la machine n’existe qu’en crossfire.
Mais les acheteurs de cet engin ne sont plus à ça près, devoir racheter une licence Windows 8.1 x64 quand on a déjà une version boite de Windows 7.
Surtout si on aime pas ModernUI.
Je doute que la licence à 100€ soit accessible aux pros…
48 commentaires
AMD dévoile ses Radeon RX Vega : mise en vente à partir du 14 août, dès 399 dollars
31/07/2017
Le 31/07/2017 à 20h 46
Mettre le gamin au second plan? De quelle manière? Comment c’est possible?
Parce que je lis cet argument souvent, mais je ne vois pas comment on fait pour créer un GPU “dont on met le gaming au second plan”, c’est à dire, performante pour les pros, mais nul en jeu.
On a souvent entendu ça, parce que les unités de calcul AMd sont plus facile à intégrer en grand nombre, et que du coup, les cartes AMD ont plus de puissances brutes que les NVidia, qui compensent avec un meilleur scheduler.
Mais ça n’a rien à voir avec une question de priorité, c’est un choix de design, qui est plus un pari à long terme.
Le 31/07/2017 à 18h 18
Figure toi que c’est exactement ce que j’ai fait.
J’ai pris le rapport tflops sur fps de la furxyX, qui est la carte AMD avec le plus mauvais rapport.
Je trouvé un coefficient de “rendement” sur quelques titres.
Avec une simple règle de trois, j’ai calculé le fps théorique sur le même titre des Vega, en imaginant que ce même rapport tflops/fps ne se soit absolument pas amélioré depuis la FuryX.
Voici ma feuille de calcul:
SW Battle Front 4K DX11 (HardwareCanuck)
Fury X:
8601.648
coeff 179.2
1080: 887356coeff 158.44
1080TI: 11340
RX Vega 56
10500
58.59 ?? (10500⁄179.2)
RX Vega 64
12660
70.64 ??? (12660⁄179.2)
RX Vega 64 Liquid
13700
76.45 ??? (13700⁄179.2)
The Division 4K DX11 (AnandTech)
FuryX" />601.636
coeff 238.93
1080:
40.8
1080TI:
54.7
RX Vega 56
10500
43.94 ??? (10500⁄238.93)
RX Vega 64
12660
52.98 ??? (12660⁄238.93)
RX Vega 64 Liquid
13700
57.33 ??? (13700⁄238.93)
BF4 4K DX11 (AnandTech)
FuryX" />601.651.1
coeff : 168.32
1080:
74.9
1080TI:
99.7
RX Vega 56
10500
62.38 ??? (10500⁄168.32)
RX Vega 64
12660
75.213 ??? (12660⁄168.32)
RX Vega 64 Liquid
13700
81.39 ???? (13700⁄168.32)
Le 31/07/2017 à 16h 32
On a un champion de l’argumentaire technique!
Je ne peux que m’incliner devant un tel exposé, devant un tel étalage de connaissance et d’argumentaire.
Le 31/07/2017 à 15h 17
Le gaming mode de la FE n’existe pas. Le bouton gaming mode ne fait rien du tout.
Le draw bining rasterizer mode est désactivé dans la FE. Les fonction de gestion d’énergie sont totalement désactivées également. Voir le post sur le site d’AnandTech.
Les pilotes n’ont absolument aucune optimisation pour le jeu. Ca reviendrait à faire tourner une 1080Ti avec les pilotes d’une quadro.
Les tflops sont toujours valables, l’affichage en jeu, c’est du calcul. La ou c’est plus compliqué pour le jeu que pour les applis pro, c’est que cette charge est d’une variable, et de deux, non prédictible.
Historiquement, depuis CGN et la 7970, AMD utilise un scheduler matériel. Il n’y a que 4 files, une groupe de rendering compute unit. Chaque image est globalement découpé en quatre et envoyé les les groupes, en gros.
Si l’image à calculé est homogène, ça marche très bien, mais ce n’est pas le cas pour un jeu. Si un quart de l’image concentre toute la complexité et que le reste est tout noir, alors le CPU va tomber à 25% de charge le temps que l’image soit calculé.
Ce système est conservé avec Vega, mais il y a une nouvelle fonctionnalité qui permet de rééquilibrer les files à la volée pour limiter cet effet.
Le scheduler utilisé par NVidia est 100% logiciel, et tourne avec le CPU. Ca génère un peu d’overhead CPU, mais en contrepartie, il est bien plus intelligent, et permet d’utiliser la puissance du GPU bien plus efficacement, ce qui explique que les cartes NVidia ont tendance à tourner plus vite, malgré une puissance brute inférieure.
L’IPC est un peu irrelevant dans le cas d’un GPU. Mais j’ai fait mon calcul en prenant le cas pire, à savoir l’IPC de Fiji. Or, on sait qu’il a augmenté, parce qu’en calcul pro, l’IPC a beaucoup augmenté entre Fiji et la FE.
tl;dr: Si les tflops, ça compte, et c’est la vie. Et ni le firmware, ni les pilotes ne sont prêt dans le cas de la FE. Pour Fiji, j’en sais rien, mais je ne pense pas que ça sera opti à 100% le jour de la release (toujours le cas le pire. Il est aussi possible que ça soit prêt, que ces fonctions aurait put fonctionner pour la FE, mais qu’elles ai été desactivé dans la fE, pour des raisons de stabilité, stabilité qui aurait été obtenu depuis. Pure spéculation, on va prendre le cas le pire, driver pas prêt).
Le 31/07/2017 à 14h 42
Non, AMD a comparé Vega, un modèle non spécifié, à la 1080.
Ils n’ont jamais précisé qu’il s’agissait de la 64.
Le mode d’adressage et le scheduler ayant été complètement, le firmware et les pilotes nécessitent une réécriture complète par rapport à Fiji, ou Polaris.
Les performances dépendent de la qualité de cette réécriture, et je pense qu’AMD ne précise pas de quel modèle il s’agit, parce qu’ils ne savent pas quel performance ils pourront sortir au jour J.
Mais à terme, il est évident que Vega 64 sera plus puissant que la 1080TI.
La seule question reste la conso réelle en charge, qui détermine le dimensionnement du refroidissement, et le bruit.
Moi, je suis sous flotte, je m’en fout, mais les modèle de ref risquent d’être bruyant, sans doute au niveau de Hawaï.
Le 31/07/2017 à 13h 25
Aller chercher la 1080 avec le modèle le plus véloce?
Certainement pas, vu le Tflops annoncé.
En imaginant qu’il n’y ai aucun gain de rendement entre la puissance brute et la perf en jeu par rapport à la FuryX (ce qui est improbable, vu la refonte du scheduler, mais prenons le cas le pire), alors c’est la 56 qui va chercher la 1080 (en passant dessus), et les 64 s’intercalent au niveau et au dessus de la 1080TI.
Je me suis amusé à faire le calcul en 4K (toujours sous directX11, pour prendre le cas le pire) en prenant comme base SW BattleFront par Hardware Canuck, The Division et BF4 testé par AnandTech, on obtient la même chose, à peu de chose près.
Il suffit de prendre la puissance Tflops de la FuryX comme base, et son framerate en jeu, on obtient son rendement en perf sur ce titre. Avec une basique règle de trois, on peut déduire une estimation de la puissance des Vega sur le même titre, en imaginant que leur rendement n’ai pas augmenté.
Les nouveaux propriétaires bientôt tenus de pré-raccorder leur logement à la fibre optique
31/08/2016
Le 02/09/2016 à 15h 28
Le 01/09/2016 à 18h 56
Le 01/09/2016 à 18h 47
Le 01/09/2016 à 12h 42
Le 01/09/2016 à 12h 34
Le 01/09/2016 à 12h 31
Le 01/09/2016 à 10h 58
Le 01/09/2016 à 10h 46
Le 31/08/2016 à 20h 53
Le 31/08/2016 à 20h 43
Le 31/08/2016 à 20h 39
Le 31/08/2016 à 20h 37
[MàJ] AMD : les pilotes Crimson Edition 16.7.2 sont certifiés WHQL
20/07/2016
Le 20/07/2016 à 21h 00
Très haut débit : le gouvernement facilite l’accès au génie civil
02/05/2016
Le 02/05/2016 à 09h 27
iPad Pro de 9,7″ : une « Apple SIM intégrée », qu’en pensent les opérateurs français ?
25/03/2016
Le 25/03/2016 à 13h 57
Enquête ouverte après une « quasi-collision » entre un drone et un avion de ligne
04/03/2016
Le 04/03/2016 à 10h 26
Un drone capable de voler à 1600 m d’altitude, c’est pas en vente à un particulier, en principe. Les Phantoms & co sont très très loin de ce genre de perf.
Des députés veulent contraindre les cinémas, discothèques et salles de concert à baisser le son
03/03/2016
Le 03/03/2016 à 11h 09
Le 03/03/2016 à 10h 21
Instagram : un chercheur a trouvé une faille, mais serait allé trop loin selon Facebook
18/12/2015
Le 18/12/2015 à 19h 53
C’est surtout complètement con de la part de Facebook/Instagram. Le message envoyé au public, c’est: “si vous trouvez une faille ultra critique pour permet de compromettre l’intégralité de notre infra, si vous voulez du pognon, vendez ça à la NSA ou à la mafia russe, mais nous, on vous filera juste un paquet de cahouèttes et une tape sur l’épaule”.
Enfin, il est juste scandaleux qu’une faille sur un frontend compromette l’intégralité d’une infra. L’architecte qui a mis ça en place devrait retourner jouer aux billes. Et de fait, le mec a eu raison de continuer. L’architecture en elle même constitue la seconde faille, qui vaudrait donc, à minima un second chèque de 2500$ en suivant la logique de facebook.
État d’urgence : après les perquisitions, les saisies administratives d’ordinateurs
09/12/2015
Le 09/12/2015 à 17h 50
Et bien dépose plainte.
Le 09/12/2015 à 17h 47
Aucun lieu de culte n’est financé par de l’argent publique, c’est interdit par la loi. Et si,ça se faisait quand même, ça serait très facile à prouver et punir. C’est mal de colporter les trolls de Buisson.
AMD veut « redéfinir l’industrie » du GPU avec le Radeon Technologies Group
10/09/2015
Le 10/09/2015 à 20h 11
Le 10/09/2015 à 19h 28
Qui va donc racheter AMD cette semaine ?
04/07/2015
Le 06/07/2015 à 08h 22
J’explique simplement pourquoi spéculer sur un éventuel rachat d’AMD est hors sujet, et je donne mes sources.
Dans le même paragraphe, avec le fameux “moi président d’AMD”, qui n’est d’ailleurs pas “moi président d’AMD”, mais “moi acheteur d’AMD”, ce qui n’a rien à voir, j’explique pourquoi, AMHA, le rachat d’AMD est hros sujet.
Mais comme tu n’as rien compris ni au post, ni à l’article, ni à la situation d’AMD ou d’Intel, et qu’un niveau de réthorique aussi faible que le mien est déjà trop élevé pour toi, tu réponds à côté de la plaque.
Je t’aide: la plaque, c’est coment un acheteur potentiel, qu’il soit Microsoft,, Apple ou qui que ce soit d’autre, pourrait réussir à rachetter AMD, tout en en faisant quelque chose, donc sans perdre de licence x86, sans mettre Intel en situation de monopole, et en tentant de vendre des produits sur un marché pas déjà complètement saturé.
Trouve une réponse à ça, et on en reparle.
Le 05/07/2015 à 21h 43
T’as soit pas lu mon post, soit tu l’as pas compris.
J’explique pourquoi AMD ne sera jamais racheté, et c’est une démonstration par l’absurde, en montrant ce qui ce passerait si ça arrivait.
Il est ou le monde des bisounours, et ton argumentaire, il est ou?
D’ailleurs, ton post, il sert à quoi?
Le 04/07/2015 à 21h 02
Le 04/07/2015 à 19h 49
Moi, je parie que AMD ne mourra jamais et ne sera jamais racheté par personne.
AMD à une licence x86 qui provient d’un échange croisé de licence, c’est par ce biais qu’Intel a une licence AMD64. Pour rappel 100% des CPU Intel actuel sont des AMD64, depuis l’échec de l’Itanium.
Or cet accord croisé stipule que la branche CPU d’AMD ne peut changer de structure. Elle ne peut être divisée, cédée. Elle ne peut être rachetée par personne sans rendre cette accord caduc.
Si j’avais 2M$, j’aurais racheté AMD dans l’instant pour le transformer en patent troll, laisser tomber le x86 et la fabrication de CPU, et laisser Intel dans la merde fasse aux loi antitrust, tout en exigeant d’eux des royalties monumentales en % pour l’utilisation de la licence AMD64. Ca devrait pouvoir rapporter quelques milliards de dollars chaque année, siphonnés directement des poches d’Intel.
Le fait est que personne ne laisserait faire une chose pareille, ni Bruxelles, ni Washington, et bien sur, ni Intel.
Tout ça pour dire, que AMD peut accumuler des pertes jsqu’à la fin des temps, ils ne seront ni vendu, ni liquidé.
Si il le faut, Intel injectera du fric jusqu’à plus soif pour les maintenir en vie, en état de challenger sous perfusion, comme l’a fait Microsoft avec Apple à une époque, pour conserver l’accord de licence croisée, et pour éviter de se faire tronçonner à cause de lois antitrusts.
AMD lève le voile sur les Radeon Fury, X et Nano ainsi que la gamme R7/R9 300
16/06/2015
Le 16/06/2015 à 21h 43
Sachant que sur ta TV, les entrée HDMI sont limité en 4K à 60Hz, en 3D, t’as donc plus que 30Hz en 4K sur chaque œil. CQFD.
En tout cas, t’es très loin de 120 img/s.
Le 16/06/2015 à 20h 04
Donne la ref de ta TV pour voir.
Le 16/06/2015 à 20h 04
http://www.tomshardware.fr/articles/moniteur-ultrahd-bdm4065uc,1-54724.html
En bonus, pas de redevance.
De rien.
Le 16/06/2015 à 20h 01
Sans déconner les mecs qui sortent le rapport perf / watt pour une carte qui bouffe de toute façon plus de 250W en charge, ça me fait doucement rigoler.
Sur l’ensemble de la machine, ça représente 50 W sur 5 ou 600, donc 10%, mortel comme gain.
Sur que c’est mieux que rien, mais en argument n°1, c’est ridicule.
Le 16/06/2015 à 19h 58
Ca existe pas un TV 120Hz.
Un TV 120 Hz, fait du 30 Hz, avec une image noire intercalé un coup sur deux, un marketeux appelle ça du 60 Hz, 120 avec la 3D.
Mais chaque œil n’a toujours que 30 img/s, même en mode super 120 Hz.
FreeSync d’AMD : les pilotes sont disponibles, les résultats des tests tombent
23/03/2015
Le 23/03/2015 à 10h 39
Ben si il y a une solution générique, c’est l’aAdaptive Sync, satndard VESA utilisé par AMD sous le nom FreeSync.
Après, si certains constructeurs décident de ne pas le supporter pour utiliser des formats proprios, c’est un autre problème.
Synology évoque ses prochains NAS : EDS14, DS414play, DS414j et DS414slim
21/03/2014
Le 21/03/2014 à 10h 03
Le 21/03/2014 à 09h 36
Sur les Mac Pro, Boot Camp ne supporte plus que Windows 8.1
19/03/2014
Le 20/03/2014 à 08h 20
Le 19/03/2014 à 15h 36
Le 19/03/2014 à 14h 46
Le 19/03/2014 à 13h 44
Le 19/03/2014 à 13h 34
@Citan666: bien sur que je suis un boulet qui ne sais pas de quoi je parle. C’est pour ça, que j’imagine que toi, en tant que grand client Apple, tu saurais nous dire quelles applis seraient capable d’utiliser les 2 GPU sous MacOSX.
Apple a conçu une machine pour qu’elle soit vendue, pas pour qu’elle correspondent à un besoin client. En ça, ils ont raison, c’est d’ailleurs ce que font tout les autres constructeurs également.
Les acheteurs qui se prétendent pro et qui achètent des machines sans connaitre leurs capacités, par contre….
Quand au paragraphe sur l’écosystème, pardon, mais c’est juste du flan, pour être poli.
Tu mets pas 4000€ min pour un écosystème Apple. Si tu veux juste un écosystème, et que tu t’en fout des perfs, et que tu sais ce que tu fais, tu prends un imac, qui coute au moins deux fois moins cher. T’as un top écran, un bel écosystème, et il te reste plein de fric pour acheter autre chose, ou éviter de gaspiller ton fond d’investissement (vu que t’es un pro, n’est ce pas, t’es sensé acheter des outils rentable).
La, tu essaie juste de justifier l’injustifiable, à savoir que le crossfire sous MacOSX n’est pas géré nativement, et que du coup, pour pouvoir l’utiliser, tu dois booter sur un OS concurrent. Mais comme la plupart des client Apple ne le savent pas, vu qu’ils s’en foutent de la technique, on peut juste les enfiler avec du gravier, ils sont content avec leur dual GPU, même si il n’y a qu’une seule carte (bas de gamme, à 4000€), qui tourne.
Sauf si bien sur tu me dis que tu fais des calculs de rendu en arrière plan, tout en jouant à Diablo III.
Donc les vrais users du macPro, ceux qui savent ça, ben ils peuvent s’assoir sur le version boite de Windows 7 et vont devoir racheter un Windows 8.1 64 e, version boite. CQFD.
Le 19/03/2014 à 12h 52
Le 19/03/2014 à 08h 46
L’intérêt de faire tourner Windows la dessus, plutôt que d’utiliser Paralel desktop, peut être surtout parce que OSX ne supporte pas vraiment le crossfire, à savoir, il délègue la gestion du crossfire à l’appli, qui le plus souvent, elle ne le gère pas.
Je suis près à parier que la majorité des acheteurs ignorent ce détail, d’autant plus croustillant que la machine n’existe qu’en crossfire.
Mais les acheteurs de cet engin ne sont plus à ça près, devoir racheter une licence Windows 8.1 x64 quand on a déjà une version boite de Windows 7.
Surtout si on aime pas ModernUI.
Je doute que la licence à 100€ soit accessible aux pros…