En fait en relisant une partie de vos commentaires il n’y que moi que ça dérange de voir ce genre de déclaration ? : « Vous savez qu’on a réussi, notamment sur Twitter, à ce que la parole antisémite ou homophobe ne se diffuse pas. Il y a un certain nombre de décisions qui ont été prises »
Donc en fait des “insultes” antisémite et/ou homophobe se diffuse pas, mais des insultes racistes pas de soucis ?
Mr Valls sais ce que représente le mot Sémite ? Wikipedia(bon je me base sur Wiki plus simple pour expliquer)…
C’est un peu de l’égoïsme total de parler que des homos et des sémites, non ?
Non parce que après le mariage gay, leur défense sur Twitter, c’est quoi le but ? Avoir des votes de la part des gay ?
Et puis sincèrement nous bassiner avec cet histoire de “racisme” alors que les français veulent surtout une situation stable et avoir du boulot, c’est du n’importe quoi… Ah non ont me souffle dans l’oreille que les personnes de religion juive ne sont pas à la recherche d’un emploi, tout vas bien alors… " />
Les trop nombreux DLC ont tué FORZA, depuis le 3… Sans moi pour celui-ci, Forza Horizon m’a couté 80 euros avec 80% des dlc Rofl, terminé la vache à lait " />
Pour faire court les perfs des R9 sont plus que médiocres sous OpenGL / Linux.
Comme tu le dis, ils ont surement dû mettre des priorités, mais vu les promesses maintes fois répétées pour Linux depuis des années, tu peux aussi comprendre que la confiance pour eux soit plus qu’érodée…
Bah même sous Win c’est pas folichon en OpenGL, pour ma part rien que (par exemple) Euro Truck Simulator 2 en OpenGL c’est moche les perfs par rapport au DX… Mais bon c’est pas nouveau apparemment.
Le
25/11/2013 à
10h
28
zefling a écrit :
C’est comme ça qu’on perd des clients et un marché. Est-ce qu’il va perdre celui de SteamOS ?
Effectivement…
Tiens d’ailleurs c’est quoi le noyau des OS des PS4 et XBO ?
Le
25/11/2013 à
10h
24
ldesnogu a écrit :
Relis le titre de cette news, ça te donnera un indice " />
Rahh merde j’ai vu que Windows moi " /> Je doit être hermétique à Linux…Mais la news n’a pas été modifiée entre temps ???
Bon effectivement pour le coup, râler pour les pilotes Linux je peut comprendre… Mais bon pas pour des cartes vieilles de 2 ans ou plus lol
Le
25/11/2013 à
10h
14
Cara62 a écrit :
Sauf que amd, trouve pas ma 6770M sur mon linux. La classe quoi.
(D’ailleurs sous Windows non plus en fait, et je me traîne les vieux drivers proposé par le constructeur, en 12.X)
Et j’ose pas passer sous W8.1, pas envie de planter les drivers….
Je vois pas ce qu’apporterais les drivers plus récents sur ta 6770M sous win ?
Le
25/11/2013 à
10h
11
M’enfin je vois pas le rapport avec Linux et une news pour pilotes WINDOWS… Je doute qu’une personne de chez AMD va lire les plaintes des utilisateurs Linux sur cette news.
Un retour sur les bugs de cette version sous WINDOWS serait pas mal par exemple.
Comme je le dit plus haut, si il ne vous reste que Linux pour crédibiliser Nvidia.
Sincèrement depuis un petit moment ça se plaignait d’avoir des pilotes pas stables sous Win, maintenant qu’ils sont pas trop mal, ça se plain sous Linux…
Pour l’instant ce qui fait la différence sous Windows, c’est le prix, le bundle et les perfs. Ont est bien loin des pilotes non optimisés.
Le support pour Linux n’est pas obligatoire que je sache, et comme je l’ai également déjà dit, rien ne vous empêche de prendre du Nvidia plus chère, le prix plus élevé comprends les pilotes pour Linux " />
Plus sérieusement, AMD n’a pas les reins assez solides en ce moment, et je pense qu’ils ne vont pas consacrer d’avantage de budget (enfin bon c’est déjà limite le néant) pour des pilotes Linux. Ils se focalisent sur ce qui est le plus utilisé.
Technique du serpent qui se mort la queue : Pilotes AMD non optimisés Linux => Moins d’acheteurs CG AMD sous Linux => Pas de budget alloué pour les pilotes sous Linux /Return
Le
25/11/2013 à
08h
49
Quelles grosse franchises ? Parler de Linux pour devenir crédible avec Nvidia… Mantle arrive a petits pas, sincèrement rien à foutre du support OpenGL….
Et puis nous mettre un pavé pour un émulateur, qui certes représente le problème AMD avec OpenGL sous Linux, mais bon… Y’a des moments faut arrêter de prendre le baton pour se faire taper, go Nvidia si tu veut Linux, stou… Sinon pas de soucis sous Win7 et DX11.
Erratum le jeu tourne bien en DX11 avec une HD5850
Le
24/11/2013 à
09h
14
cojy a écrit :
Source clubic: La radeon 7870 à gagné 27% de perf sur une 5850. Disons 30. Par exemple la 7870 fait tourner bioshock infinite (plutot récent) en ultra à 49fps soit un peu moins de 40fps pour la 5850. 40fps, c’est jouable, certains aiment avoir plus, on pourra éventuellement baisser qqesréglages et passer à 50-60fps, mais il est donc tout à fait envisageable de jouer décemment avec une vieille carte.
Pour LoL je le fais effectivement tourner en 1620*1080, sur une HD3000 & corei5. Pour garder une fluidité décente (40-60fps, 30 lorsque le nexus adverse tombe) seules les ombres ont été baissées, le reste des réglages est à haut.
Pour Bioshock Infinite, il est loin d’être gourmand avec son Unreal Engine 3 , il tourne même avec un APU en 1920*1080, et pour finir ce jeu a un partenariat avec AMD…
Mais bon l’Unreal Engine 3 commence à se faire vieux…
Pour LoL, je te parle d’un i3, et tu me parle d’un i5 sans référence (2xxx ? 3xxx ?)… Sachant que sur un i5 2500k est en HD3000 contrairement au autres i5 2xxx en HD2000. Si je suis ton raisonnement à quoi sert un i5 2500K si c’est pour utiliser l’IGP…
Le
23/11/2013 à
07h
23
elite7words a écrit :
Bah en fait je suis passé d’une hd4850gs à une asus hd7870 directcu2, donc je vois les performances de la carte. Comme toi je fais en sorte de prendre une carte un peu plus chère mais avec un bon système de refroidissment.
Après je ne connais pas les performances de l’équivalent actuel mais selon les tests, elles seraient similaires. Je change de pc tous les cinq ans donc je me contente de peu aussi.
Mais suivant l’actu du matériel informatique j’ai été déçu du renommage qu’à fait AMD. Et je comprend donc que quelqu’un qui a la génération de carte précédente (ou bien d’avant) n’ait pas envie d’investir dans une nouvelle carte.
Effectivement vu de ce point de vu là je comprends, bon après je suis récemment passé d’une HD7850 à une R9 270X, donc oui le gain est appréciable. Par contre, et c’est sûr, aucun intérêt de passer d’un HD7870 à une R9 270X, ou alors éventuellement pour l’évolution des pilotes, mais ça fait (très) chère pour juste ça lol
En fait je suis passé par un peu de tout et rien récemment : une HD7870 XT puis une HD7870 Black Edition (XT aussi), revenu vers une HD6870 et ensuite une HD7850 en méga promo pour finir par cette HIS R9 270X également en promo.
Pour faire simple cette HIS R9 270X IceQ X² Boost Clock a des perfs entre la HD7870XT et très proche d’une HD7950 et un excellent refroidissement silencieux , et surtout un suivi de pilotes. Après effectivement je conseil pas de la prendre pour ceux qui ont déjà une HD7870.
Le
22/11/2013 à
18h
43
Ok toi tu me parle de coil whine et de bundle, je te réponds par rapport à ça : donc en général VRM identique et condos identiques pour les versions de base et pour le bundle selon le distributeur, et toi tu me sort la mémoire et les GPU différents…. Évidemment que les GPU sont différents selon le wafer utilisé & co et pour la mémoire selon le stock.
Je te parle de la différences des condensateurs et de l’étage d’alimentation qui est en grande partie (hors Sapphire apparemment hors Vapor-X, et malheureusement) de meilleurs qualité sur les cartes customs…
Faut être une tête en bois pour penser que les carte avec le rad et pcb d’origine utilise des VRM et condensateurs différents selon la marque " />
Le
22/11/2013 à
16h
11
Reparateur a écrit :
ok donc pour conclure pour toi c’est normal de payer plus cher pour moins
les custom je m’en fou un peut car je suis en watercooling
90% des custom c’est juste un radiateur custom
Quand tu prends une R9 290/290X tu t’informe au minimum, non ? Elles sont toutes identiques les version de bases, juste un stupide autocollant, une boite en couleur et le bundle du pauvre en plus pour certaines
Pour les customs au dela du ram “custom”, comme son nom l’indique, il peut y avoir un PCB différent (qui parfois est incompatible avec le watercolling lol), mais surtout des phases d’alimentation supplémentaires, des condensateurs solides et en générale une meilleur qualité de fabrication. Et en général pour le même prix voir moins chère.
“The layout of the PCB is similar to the GHz edition reference card, although not identical. The GPU still sits in the middle of the card surrounded by the twelve 256MB memory chips. Most of the power circuitry still resides on the right side of the PCB, but HIS has siginificantly increased the 5+1+1 power phases of the original card to a whopping 18+1+1, and these are complemented by the inclusion of two top-mounted 8-pin PCI-E connectors, in place of the original 8-pin and 6-pin combo. Despite the already large overclock, then, we were hopeful that the improved power circuitry would mean the X Turbo still had even more to give. ”
Tu a juste pris un model identique à toute les autres marques, juste le bundle de différent, les composants étant les même….
Ceci dit un câble HDMI du même genre c’est 5 euros Amazon et pour les câble d’alimentation en molex bah si ton alim a pas 1 x PCI Express 6 broches et 1 x PCI Express 8 Broches tu peut te poser des questions, même ma simple OCZ Silencer MK III Bronze les as ^^”
Le
22/11/2013 à
15h
16
Reparateur a écrit :
perso j’ai une HIS 290 est c’est une grosse arnaque
plus cher de 20€ que la sapphyre
pas de cables d’alim (présent sapphyre)
pas de cable HDMI (présent sapphyre)
et coil wine sur les condo !!!
super -_-
plus jamais HIS pour moi finalement j’aurais du prendre la moins cher et basta
Un peu normale ton problème : je te parle de mon HIS custom (en (l’occurence une R9 270X IceQ X²).
Et tu me parle d’une R9 290 HIS, MSI, Sapphire, ASUS & co tout le monde dans le même panier vu que c’est juste un autocollant sur celle-ci et une boite qui fait la différence entre-elle, elle proviennent sûrement du même fournisseur… Donc possibilité de condos pas top et de VRM limite" />
Fallait attendre patiemment une version custom, et nul doute que la version custom d’HIS de la R9 290/290X auras des condos solides et un bon étage d’alimentation. " />
Le
22/11/2013 à
02h
26
cojy a écrit :
Clairement une carte comme la radeon 5850 ou 5870 fait presque tout tourner en max détails encore aujourd’hui, cette carte à 4ans, donc pas besoin de renouveler ou d’acheter du très haut de gamme pour jouer décemment.
Et c’est assez normal, les consoles ont peu évolué ces 4dernières années et beaucoup de jeux sont multi-plateformes, donc les PC sont alignés sur des graphismes de consoles qui ont 4ans. Les jeux ne peuvent plus tirer les CG vers le haut, le besoin de puissance supplémentaire n’existe pas, les gens renouvellent moins.
Ajouter à celà Intel qui augment de 50 à 100% les performances de ses IGP d’une génération à l’autre et on peut jouer à beaucoup de jeux en faible détails avec une carte intégrée. De plus des jeux très populaires (wow, league of legends, cs) ne nécéssitent pas beaucoup de puissance. La communauté joueur avec des besoins de puissance est réduite.
La nécessité de renouvellement est fortement diminué et avec la crise, on ne force pas la dépense. Le retour à la croissance avec les nouvelles consoles ?
Pour la radeon HD5850/HD5870 j’ai des doute pour ton max détails surtout 1920x1080, sachant que le soucis est que ces cartes étaient avec des C2D à l’époque. Maintenant avec un cpu actuelle ça tiendrais la route, mais pas en detail max sur des résolutions supérieures à 1600.
Pour League of Legends , sincèrement j’ai tenté avec un i3 3220 au moment ou ma cg était en panne : en 1920x1080, details minimums, non seulement c’est moche, mais en plus ça rame en pleine baston… Après tout dépends de la résolution, possible qu’en 1600 ça passe sans soucis au minimum.
Le
22/11/2013 à
02h
17
Sinon pour rester dans le sujet, ça parait logique qu’Intel n’ai pas de soucis de part de marché pour les puces graphiques, vu que la plupart des utilisateurs part sur des proco Intel et qu’AMD est boudé à cause de benchs…
AMD a fait le pari des APU avec CPU entrée/moyen de gamme et GPU assez performant et Intel le pari d’un CPU performant avec une partie graphique suffisante pour de la bureautique/video/dépannage et des perfs CPU qui sont idéales pour des configs “gamer”.
Dommage à quelques points de benchs et FPS près, chez AMD ça tiens la route, surtout pour le prix. Qu’ont me parle pas encore une fois de la consommation, ça reviens à une poignée d’euros sur plusieurs années.
Le
22/11/2013 à
01h
47
Par contre dire que des R9 270X ce sont des HD7870 “boostée”, toutes ne sont pas à la même enseignes.
Perso j’ai une HIS R9 270X IceQ X² Boost Clock (que j’ai eue à 165 euros) et la comparer à une Sapphire HD7870 Dual X OC Edtion à 145 euros, y’a juste une excellente qualité de fabrication chez HIS : le rad est quasi équivalent à une HIS R9 280X IceQ X² qui est un des meilleurs du marché, les composants sont de qualités, pas de coil whine, et pas de bug écran noir & co avec cette gen.
Les perfs sont là et, de mon avis, seront encore là avec le support des pilotes AMD.
Par contre une chose ou je suis d’accord c’est le prix et les perfs des cartes actuellement qui stagne. Ce qui est normale vu que l’évolution est de plus en plus compliqué avec les finesse de gravures actuelles.
Le
22/11/2013 à
01h
27
elite7words a écrit :
Ok la crise du pc y est pour quelque chose mais AMD et NVIDIA n’y mettent pas du leur pour augmenter les ventes :
les tarifs sont salés pour avoir une carte permettant de jouer correctement et pas seulement pendant 1an, surtout chez NVIDIA (une carte à 150⁄200 euros n’est qu’une carte milieu de gamme…)
la dernière génération de cartes graphiques d’AMD n’est qu’un pauvre renommage de la génération précédente en plus cher (parait que la hd7870 est plus valable économiquement que l’équivalent actuel)
Ces chères entreprises ne nous prendraient pas pour des … pigeons?" />
Pour AMD tu a raison, mais j’ai bien peur que seul les R7/R9 &co seront pris en compte et non les HD7xxx pour les nouveaux pilotes… Çà commence à se confirmer pour les actuels 13.10 et 13.11 WHQL. A savoir si ça apporte un gain de perfs dans l’avenir.
tout le monde se crepe le chignon sur “ avait elle ou non le droit de telephoner au seing de l’entreprise .. ?? ”
Alors que c’est plutot : “ Une entreprise Francaise (electricite .. ??? EDF ???) a t elle le droit d’empecher une Roumaine de communiquer avec sa familliale, Roumaine embauchee pour diminuer les coups de main d’ oeuvre … ”
5 mois, 21 appels cqfd 1 appel par demaine, pour 617Francs
ce qui fait en gros 29.4Fr par appel
> [Mode vieuxPepe prehistorique On]
En ce temps la … il n’existait pas de forfait pour appeller a l’internationnal tel que les operateurs nous en presentent actuellement
c’etait taxé et surtaxé 1€26 la minute ca n’etait si vieux que ca …
par contre les entreprises internationnales avait le privilege de negocier aupres de l’operateur des tarifs aventageux … ce que les particuliers ne pouvaient pretendre
[Mode vieuxPepe prehistorique Off]
Que l’entreprise demande a sa salariee de rembourser c’est tout ce qu’il y a de plus normal
mais si on compare maintenant les dates
[Mode DRHalacon On]
Embauche debut Aout
> Effectif Francais en “ vacances ” on vient renforcer l’equipe en embauchant du personnel etranger … pas cher
On vire la personne embauchee en Fevrier de l’annee suivante
(> il faudrait reverifier par rapport a la loi en vigueur a l’epoque, la version sur www.legifrance.gouv.fr fait etat d’une consolidation )
> l’Effectif Francais revient de son conge de maternite et retrouve son poste
Cqfd comment se debarrasser d’une employee etrangere a peu de frais
[Mode DRHalacon Off]
Sujet de dissertation en droit du travail " />
ceux qui ne seront pas d’accord pourront toujours se demander comment l’Allemagne arrive a faire passer son dumping social au seing de l’EU en … embauchant des Espagnoles des Greques des Lituaniens des Estoniens pour 3 francs 6 sous … sans couvertures sociales
Cf enquete capital sur le marche de l’aggroalimentaire
T’est craqué toi, ma femme a de la famille au Cambodge c’est pas pour ça qu’elle les appel du taf hein.
Au travail, tu travail point. Ce sont des appels personnels, facturés ou pas il y a déjà un problème. Les histoires de famille & co d’un employé ne sont pas le problème de l’employeur peut importe les origines de l’employé.
Peut importe les pays d’où tu viens pour travailler, tu travail et tu met ta vie perso de côté.
De plus en France ça n’a rien à voir avec l’Allemagne, à savoir qu’il y a un salaire minimum à respecter, en temps plein ou partiel. Vu le contrat de travail qu’elle a eue je doute qu’elle ai été embaucher “au black”. Sinon je vois pas comment elle aurai pu avoir un recours en justice.
C’est comme un support informatique d’une SSI dans une de mes boites qui s’est fait éjecter de chez un client pour avoir utiliser la bande passante du client pour download ses films & co, bah sincèrement il a eue du bol d’être dans une SSI.
Le tel est à l’entreprise pas à l’employée, c’est comme si elle prenait la voiture de son patron pour allez faire des courses sans rien demander à personne. Faut pas déconner non plus hein.
C’est pas pour chicaner mais j’ai fais l’exercice… et je n’arrive pas si loin des 400€ chez ldlc. Si je fais la même liste chez mon fournisseur j’arrive à 398€ " />
Bon ok, c’est un 6coeurs, une allim pourrie, pas de lecteur dvd, clavier de mee* ; mais bon… pour 400€ ça reste une machine de jeux plus que correcte.
(il faut encore retirer 7€ du prix grâce à la promo ldlc : 7% de réduc sur l’article le + chère).
Oui enfin bon sur le papier les GPU des nouvelles XBOX One et de la PS4 sont à des années lumières d’une HD7790…
Pour l’alim “500W Heden ” qui crame au bout de 3 mois (loterie, toussa),surtout vu le matos que tu met dessus, je parle principalement du proco entre autre…
Moi le gars il me refourgue ce matos pour 400 euros, je lui fait un procès… Autant partir sur du matos d’occaz… Il n’y a que le processeur qui est de bonne facture.
Et 160Go (enfin 150Go si tu compte l’OS windows qui n’est pas inclus dans le prix, parce que linux c’est un peu limite pour du gaming), du met quoi euh, 25 bons jeux et basta ? Et encore je vois large, parce que des “gros jeux” font facile 7-8Go…
Sans compter que c’est pas “plug & play”, y’as la galère (pour les néophytes) d’installation d’OS, de pilotes, des jeux, des bugs et j’en passe…
Non vraiment c’est de la mauvaise foi, autant pour comparer à un XBOX360/PS3 vieille de plusieurs années ok, mais comparé à PS4/XBOX one qui viennent juste de paraître… Sachant que les premiers jeux sont loin d’être optimisés et sont déjà au dessus au niveau qualité visuelle que la config que tu propose…
Et pas de manette… L’encombrement et la mocheté (toute relative) du boiter à côté de ta TV…
Le
20/11/2013 à
17h
32
cronoskev a écrit :
" /> busted.
je devrais posté cela à chaque fois que tu écris.
La moitié des gens te le dise mais ça ne rentre pas.
T’es commentaires sont :
HS
insultants
Arrogants
Inutiles
Polluants
En espèrent qu’enfin tu réfléchisses sur toi même, je te souhaite un changement d’attitude ou une courte vie sur ce forum.
Ouvre un blog/ va sur boursorama ou ZDnet ou change mais pitié arrête ton flood les commentaires des autres sont intéressent (eux)
Cordialement
Fait comme moi bloque le, l’ignorance c’est le top ^^
Le
20/11/2013 à
12h
58
LoL la gueguerre PS4 vs XBOX One " /> Vous avez des actions ou quoi ?
De mon avis ça va faire comme la PS3 vs Xbox 360, des jeux équivalents et quelques exclus.
Par contre je pense que pas mal d’utilisateurs vont se tourner vers le moins chère, sachant qu’en plus sur le papier la PS4 est plus performante…
Dommage, la manette de la XBOX One me tente bien, mais pas le kinect….
Perso je suis pour…… Celle qui fonctionnera le mieux d’ici environ 6 mois (donc en essuyant les plâtres des testeurs bêta, dans tous les sens du terme), et 100 euros de moins me ferais pencher pour la PS4…
Si Forza est du même acabit que le dernier sur Xbox360 (DLC à gogo) ça sera sans moi.
Perso je suis encore très surpris de la qualité visuels des derniers bon jeux PS3 et XBOX360, qui je le rappelle sont des consoles dépassé techniquement… Nul doute que la XBOX One et la PS4 feront le même genre de perfs… Ont en est encore qu’aux premiers jeux…
Les perfs sont là, c’est indéniable, et comparer celles-ci à un PC entrée de gamme est juste ridicule… Allez faire tourner les derniers jeux Xbox 360 avec une X1900XT et un proco datant de 2006 et une poignée de Mo de ram… Et financièrement un PC de 2006 coute combien de nos jours ? Et la Xbox 360/PS3 ?
Penser ce que vous voulez, 400 ou 500 euros pour du matos conçu pour durer minimum 5 ans, c’est pas si chère l’investissement, si ont veut faire des concessions sur les graphisme à long terme c’est pas trop difficile, tout le monde n’est pas steve austin avec un oeil bionique… Quid du PC de maintenant à 500-600 euros dans 5 ans ? Voir dans 2 ans ?
punaise, ya un paquet de gens qui bossent a l’edf !!!
parceque côté conso, la R9 est goulue ! :francais :
C’te troll, remarque c’est vrai que les acheteur de GTX780/780Ti/Titan et R9 290/290X sont très inquiets pour leur facture EDF en hausse de 15-20 euros/an " />
Hum, l’adaptateur secteur dans la console, perso je trouve pas ça très avantageux… Si l’alimentation foire, c’est tout la console qu’il faut renvoyer… Ce qui implique des colis perdus, une console qui n’est peut-être plus la sienne, etc….
Bla bla j’ai pas d’argument alors je crache sur les tests indépendants et je peu le faire car j’utilise des pc depuis 20 ans…
-En 15 jours les prix on un peu bougé et de nouvelles références sont dispo. J’ai pas un comparatif récemment sur toute les gammes donc je dirais pas ce qu’il en est maintenant tout simplement.
-Tu es tellement largué que tu t’accroche au moindre détail pour extrapoler n’importe quoi. Je retire le “dans quelques années”, je pense quand dans les deux ans AMD fera faillite (ou sera racheté avant) parce que la société dans le fond du trou et leur politique n’évolue presque pas.
-le rapport avec les serveurs, portables,…? AMD ne perce nullepart et est à la ramasse sur tout les secteurs ce qui est mauvais pour son avenir.
-Il est interdit de faire des bénéfices? Woaw tu est vraiment un ahuri toi. Si un détaillant ne revend pas plus chers ses produits qu’à son achat il vend à perte et ça c’est illégale.
-Donc dans ton monde un vendeur ne peut pas faire des bénéfices? Remarque Amazon que tu adore ne gagne presque pas d’argent, une fois que les boutiques physique auront toutes fermé et qu’ils écraseront les autre pure player il sera bien temps de se rattraper.
" />
Ahuri pas mal comme mot ^^
-Je crache pas sur les tests, je test par moi même… Mais apparemment tu vends du matos que tu test pas…
-En 15 jours rien de bien nouveau, ah si des R7/9, mais le prix des HD7870/HD7970 et j’en passe n’a que très peu évolué pour le moment, voir quasiment pas…
-Marrant de dire ça d’AMD alors qu’ils sortent justement légèrement la tête du trou…
-Aucuns rapport avec ce que je disais oui, mais bon faut bien se justifier hein.
-Un détaillant ne peut effectivement pas acheter sur un site de vente en ligne public pour vendre plus chère et se faire des bénéfices. Mais bon tu connais bien la loi apparemment. Pour l’histoire des boutiques physiques “pur player”, si tu parle de magasins qui propose que du Intel et Nvidia et des alim Advance lol
Sur ce, je te filtre, pas envie de t’avoir à chaque fois dans les commentaires…
Le
20/10/2013 à
11h
14
FREDOM1989 a écrit :
-Plus de 1€ par mois qui rendent le FX plus chers que l’i5 à terme " />
-Ton ressentit concernant les perf n’ont aucun intérêt.
-J’ai pas du cherché loin pour trouver le test, il y en a très peu, c’est le premier sur lequel je suis tomber. Mais ces test sont moins objectif que ton ressentit sur la qualité visuel offerte par différente cartes.
-Encore une fois, ton avis de troll sur le dual graphic est sans intérêt comparé à des tests.
-Au moment où j’ai mit que les carte Nvidia dominait niveau perf/prix c’était le cas mais comme toi tu reste bloqué dans tes fantasmes d’un AMD deux fois moins chers pour les même perf tu peux pas le comprendre.
-
Blabla, rattrape toi aux branches " />
Plus chère à terme de quoi ? de 3 ans ?
-Oh excuse moi d’avoir le matos et pas toi pour pouvoir donner mon avis et pas celui de testeurs… bon évidemment ça fait 25 ans que j’utilise un PC mais je sais pas reconnaitre un bug graphique ^^”
-Ah, donc le 4 octobre 2013 tu sort que “ Ca ne fait que 6⁄9 mois que Nvidia est globalement nettement meilleurs niveau perf/prix. “, et en 15 jours, la situation change " />
Pour ton autre post, :
-Rdv dans 2 ans pour la faillite d’AMD, ah non tu sort dans quelques années maintenant lol Moi je prédit la fin d’AMD dans 25 ans, je prends pas risque " />
-C’est sûr qu’en tant que vendeur tu connais parfaitement le milieu des serveurs, portable & co, ceci-dit je vois pas trop la rapport avec ce que je disais…
Continue de vendre des Pentium G3220 killeurs de processeurs AMD, pas de soucis je suis pas ton client.
Et puis ça crache sur Amazon mais ça se fourni chez eux rofl, d’ailleurs légalement il est interdit d’acheter un produit acheter moins chère pour le revendre plus chère et se faire des bénéfices, mais bon c’est cool de prendre ses clients pour des pigeons…
Le
19/10/2013 à
23h
59
Ah au passage FREDOM1989 en voyant ta rage vers AMD, je comprends mieux en regardant un peu tes commentaires de news :
-Rendez-vous dans 2 ans pour la faillite d’AMD, ont en reparlera " />
-Et puis pense à trouver une GTX6xx qui écrase une HD7870, HD7950 et HD7970 Ghz au même prix (cf ta remarque : Niveau GPU, les Radeon HD 4000 était les meilleurs, les 5000 ridiculaisait Nvidia, les 6000 dominaient et les 7000 ont dominées jusqu’à l’arrivé des gtx 600. Ca ne fait que 6⁄9 mois que Nvidia est globalement nettement meilleurs niveau perf/prix. “)
Pour un soit disant fan d’AMD ça fait beaucoup, déçu qu’AMD n’a pas la plus grosse et qu’il soit pas chère ? Tu préfère le plus chère pour quelques FPS et sauver l’environnement ?
A puis en fait oui, c’est toi qui m’avait constamment contredit sur Amazon.fr… J’avais oublié…
Alors donc tu a des clients, mais tu commande sur Amazon les pièces informatique pour tes clients ? " />
Bon Week-end :)
Le
19/10/2013 à
23h
34
FREDOM1989 a écrit :
En prenant pour le FX 8350, vu qu’au repos il consomme 30w de plus qu’un i5 4670 et plus de 100w en plus en charge si on se base sur 6h/j d’utilisation avec une moyenne de 50w de supplément par rapport à l’i5 (je suis très très gentil) ça te fais 14.5€ par ans de frais en supplément. Quand on achète ce genre de cpu on le garde minimum 3ans (c’est peut-être pas ton cas mais rare sont ceux qui ne le font pas), donc tu as 43.5€ à rajouter au prix d’achat d’un FX8350 (sans compter qu’une config demandant une Antec HCG 620W avec le FX n’a plus besoin que d’une 520w avec l’i5). Alors le FX8350 est-il intéressant? Non certainement pas.
Le surcout annuel pour une petite config est moins important mais le CPU sera sans doute gardé bien plus longtemps dans un pc multimédias donc l’avantage d’AMD est assez discutable.
Pour les jeux avec un APU et bien là, les résultat sont tellement minable que ça n’a aucun intérêt, mieux vaut le pentium + 7750 30€ plus chers et nettement plus véloce (pas la peine de revenir avec le dual graphic à la con, ça marche super mal, les tests l’on montré). Et si tu t’imagine que l’igp 8670D vaut au moins autant qu’une 7750 regarde ne serait-ce que cecihttp://www.jagatreview.com/2013/08/performa-gpu-amd-radeon-hd-8670d-vs-graphics-…
Je me suis gouré pour les pef de la partie graphique du G3220 (trop vite regardé une comparatif sur cpu world) mais pour le reste je viens de te démontrer que les A10 étaient pourris pour le jeux par rapport à un pentium + CG dédiée, que le FX8350 est plus chers qu’un i5 4670 si on tient compte du cout d’utilisation. Reste les petit pc multimédias mais là c’est pas forcément gagnant non plus.
Faut arrêté de dire que AMD est aussi perf pour moitié moins chers, c’est totalement faux même en tenant compte de la puissance graphique des igp.
Je suis un fanboy AMD, quand la marque est intéressante je la pousse en avant. Il y a 3 ans j’ai vendu bien plus de phenom II X4 que d’i5, leur rapport perf/prix était bien meilleur pour les gamer (en plus maintenant celui qui une conf intel de l’époque peut bien pleurer si sa carte mère tombe en panne) et les perspective des CPU buldo étaient très bonne. Maintenant je ne peu raisonnablement plus conseiller de l’AMD à mes clients sauf dans de rare cas tout comme je ne peu peu plus systématiquement recommandé une Radeon vu que Nvidia est revenu à un bon rapport perf/prix et perf/wat.
J’étais pas loin pour les 1 euros/ mois " />
A10 pourri en te basant sur des tests, moi je te donne mon ressenti personnel sur un écran 24” en 1920*1080 :
-L’APU du A10 fait effectivement tourner les jeux récent avec des détails au minimum en 1920*1080 et en général medium pour les résolutions en dessous , mais c’est très loin d’être “pourri” et la différence visuel comparé à un HD7750 est quasi inexistante… Libre à toi de mettre plus, encore une fois… Tu me montre un test sur “.jagatreview.com”, connais pas désolé, tu as dû bien chercher pour ça " />
-Idem pour le dual graphic, tu te base sur des tests, moi sur mon ressenti perso, et du peu que j’ai tester je n’ai pas ressenti de problème…
Bon après pour le reste je laisse tomber, si tu veux même je te laisse raison tu est hermétique au point de chercher un test indonésien..
Ah si quand même me sortir qu’Nvidia est revenue à un bon rapport perfs/prix c’est également un beau troll, sort moi une carte chez Nvidia (génération GTX7xx hein lol) qui donne le même rapport perfs/prix que chez AMD " /> Mais bon tu a du rester aux HD5870 chez AMD
Le
19/10/2013 à
18h
07
FREDOM1989 a écrit :
Quand Kaveri sortira on verra, mais pour l’instant AMD est objectivement à la ramasse pour les CPU desktop et dans le comas profond pour les cpu mobile.
Sur le secteur GPU ça va mieux, ils dominent régulièrement Nvidia (je dirais même la plupart du temps depuis pas mal d’années) mais niveau CPU c’est pas ça et leur retard niveau finesse de gravure y est souvent pour beaucoup.
Trouve moi la ramasse à part en conso et surtout le coût électrique supplémentaire. Parce que c’est bien beau de dire un CPU consomme plus donc coûte plus chère en conso, si c’est genre 1 euros par mois lol
Les perfs sont quasi égale chez AMD pour moitié moins chère que chez le concurrent.
Pour les GPU, ce qui fait tenir AMD c’est surtout le rapport perfs/prix bien à leur avantage.
Par contre je suis d’accord sur le problème de finesse de gravure, et surtout ce vieillissant socket AM3 qui deviens useless…
Le
19/10/2013 à
18h
04
FREDOM1989 a écrit :
Le dual graphique c’est de la daube, ça ne fait presque jamais augmenter les perf et quand c’est le cas ça provoque des artefacte ou des micro sacade insupportable.
Pour le pentium, il est globalement à peine moins perf que l’A10, consome deux fois moins, coute presque deux fois moins chers et niveau puissance GPU est aussi puissant.
Pour la partie graphique, une 7750 est largement au dessus de la puce graphique de ton A10. Un couple 7750 + G3220 consommera à peine plus et sera bien plus performant en jeux pour un surcout minime (30€)
Le GPU d’une pentium à peine moins perf qu’un A10 c’est cela oui lol :
Et encore c’est un A10 5800K, pas le 6800K dont le GPU a été légèrement amélioré.
La drogue c’est mal.
Pour les perfs d’un A10 6800K vs HD 7750, trouve un lien au lieu d’affirmer avec des arguments sortie de ton imagination…
Pour le dual graphique, testé également pour le fun avec mon HD7850 (bien qu’une HD7750 suffit aussi), pas de micro saccade ou autres, avant d’avoir des ouidires des “projesaipakoi” faudrait peut-être tester le matos par soi-même. Et ça tourne pas mal du tout.
Pour le prix d’un G3220 (double coeurs sans HT hein) + HD7750 + cm entrée de gamme b75 (pas h61 sauf si mise à jour du bios) ça fait environ 195 euros. Un A10 5800K ( quad) + CM entrée de gamme A55 : 165 euros et pour 15 euros de plus une carte mère FM2+ .
Donc effectivement 30 euros différence, sauf qu’à côté de ça : possibilité d’ajouter un CG au besoin sans avoir à refourguer une HD7750 qui ferait également perdre de l’argent.
Et sincèrement en résolution en dessous de 1920*1080, la différence est obsolète entre une HD 7660D et une HD7750. Pour le multithread, le G3220 est moins à l’aise qu’un A8/A10.
J’ai eue également un i3 3220 (voir même deux fois lol), mais sincèrement les perfs du GPU d’un i3 3220 sont désastreuses sauf en bureautique… Alors me sortir que le GPU d’un pentium G3220 est égale à celui d’un A10 5800k/6800K c’est un jolie troll.
Le
19/10/2013 à
14h
54
FREDOM1989 a écrit :
La conso ça change tout quand au prix du CPU. Tu dépense bien plus d’argent à terme en achetant un FX 8350 qu’un i5.
Faut vraiment être idiots pour économiser 50€ sur le prix du CPU ou alors avoir l’électricité gratos pour préféré le FX8350 surtout pour les jeux.
Pour les APU, l’économie est risible pour qui joue avec un minimum de confort sur pc, il vaut bien mieux dépenser 160€ dans un couple pentium + 7750 que de prendre un APU à 110€.
Tu prends comme seul comparaison le proco qui consomme le plus chez AMD, le FX8350…
Ceci-dit si tu a un test qui parle de la consommation électrique au mois voir à l’année, je sais qu’il faut pas être devin pour voir qu’il consomme plus, mais à quelle montant ça correspond à l’année ? Et tu peut aussi mettre un FX6300 qui se débrouille bien, en conso comme en perfs.
Si tu part sur la conso justement, un APU A10 6800K à 120 euros consomme théoriquement moins que le duo pentium + GPU7750, au passage le pentium est un simple deux coeurs sans HT.
La partie GPU du A10 6800K est égale à une HD7750 (d’où le dual graphic avec une HD7750, cqfd), je vois pas ou est le confort en plus avec un pentium dual core sans HT + HD7750 vs un A10 6800K quad avec un APU équivalent à une HD7750. C’est de la mauvaise fois d’orienter un utilisateur vers un pentium pour les jeux…
De plus le A10 6800K couplé à une HD7750 en dual graphique explose le duo que tu propose…
Bref, sort moi les arguments que tu veut, de toute façon tu veut avoir raison, alors pour te faire plaisir je vais dire ok tu a raison, dépense plus pour moins, pas de soucis " />
Je ne remet pas en cause que les proco Intel sont plus performant effectivement, mais faut relativiser, les processeurs AMD ne sont pas à la rue lol
Le
19/10/2013 à
13h
54
FREDOM1989 a écrit :
Et la conso? Parce que oui un FX8350 est très performant pour le prix mais si on prend en compte la conso, une config avec un FX 8350 est juste ridicule comparé à une équipée d’un i5 4670 qui reviendra moins chers en plus vu la différence énorme niveau conso.
Les APU intéressant? Oui les moins chers à 30€, après ils sont naze face aux pentium et celeron à cause de leur conso. Ok la partie graphique est meilleur mais ça sert à quoi de toute manière vu que ça suffit pas pour jouer ou faire du calcul gpu?
En plus AMD est à présent à la traine niveau chipset, ils ont été les premiers à intégré SATA III et USB 3 à des chipset mais l’USB n’est pas encore généralisé au chipset le moins chers ou à un chipset pour l’AM3+. A coté Intel intègre l’USB 3.0 dans les chip set les plus basique.
Jolie troll mais je vais quand même y répondre…
La conso, ça me fait marrer, si tu prends des CPU haut gamme, en général tu fout pas un CG entrée de gamme à côté, et donc la conso ? " />
Pour les APU, regarde de plus près un A10 5800K par exemple, et trouve moi un proc intel au même prix qui peut faire tourner des jeux “correctement”… Et tout le monde ne jouent pas nécessairement avec tous les détails kikolol… Et sincèrement pour 110 euros tu a un proco et une CG entrée de gamme…
Pour mon expérience personnel, j’ai joué au jeu League of Legend avec un i3 3220 quand je n’avais plus de CG, même en minimum en 19201080, ça ramais à mort. Et là récemment j’ai testé avec mon A8 6600K, tourne nickel détail moyen (et même quelques options max) en 19201080… Et pourtant League of Legends est très loin d’être un jeu gourmand…
J’ai aussi testé FFXIV ARR avec l’APU seul, il tourne en 1920*1080, certes avec pas mal de concession, mais je doute qu’un i3 au même prix puisse rivaliser.
Effectivement un simple i3 3220 peut rivaliser avec un APU A10 6800K, mais AVEC une carte graphique dédié.
Pour la conso ? bah sincèrement je m’en fou, tant que le pc tourne en silence même IG, et qu’en idle ou bureautique il consomme pas énormément, c’est kif kif…
Pour l’histoire des sockets, le FM2 est à jour (le FM2+ aussi), pour l’AM3+, il est sortie fin juillet 2011 soit il y a presque 2 ans, ok aucunes améliorations n’ont été apporté récemment, mais bon comparer à des socket 1155 voir 1150 plus récent… useless. A voir avec le FM2+ peut-être.
Le
19/10/2013 à
13h
10
FREDOM1989 a écrit :
Niveau CPU AMD est et restera à la rue. AMD aura toujours au mieux une génération de gravure de retard par rapport à Intel et ils ont énormément moins de moyens. Ils peuvent de temps à temps faire de beaux coup en ayant une bonne idée d’architecture (APU Bobcat malheureusement arrivé à la fin des netbook) mais lutter face à Intel est impossible.
ARM qui cartonne en ce moment va certainement se faire assommer par Intel, les bond que font les Atom sont énorme et bientot ils ne seront plus défavorisé niveau finesse de gravure par rapport aux cpu performants.
A la rue faut pas déconner non plus, ils sont pas mal niveau APU, et niveau CPU, leur prix reflète bien les perfs, c’est bien beau de comparer des procs INTEL à 250 euros face à des procs AMD à 150 euros… " />
Le
19/10/2013 à
13h
07
zeebiXx a écrit :
On me souffle à l’oreille que faire des pilotes linux pour 10 personnes n’intéresse pas trop.
J’ai parcouru les commentaires, j’ai dû vérifier plusieurs fois si je ne m’étais pas téléporté sur JV.com.
Entre les attaques personnelles, les exemples foireux (il est mignon celui qui cite son gamin, mais un cas ne fait pas une généralité), ceux qui interviennent au milieu du débat sans avoir pris la peine d’en lire le début, j’en passe et des meilleures, je félicite bbbbben qui est resté assez objectif malgré tout ce que vous lui avez balancé dans la gueule.
Sa seule erreur a finalement été de dire qu’il est ingénieur statisticien qui a été pris comme un air supérieur alors qu’il s’agissait d’une tentative pour donner plus de crédit à ses propos.
Toujours est-il qu’il faut vraiment être de mauvaise foi pour ne pas voir que la PS4 part avec une sacrée avance, en grande partie à cause des erreurs de com’ de MS il y a quelques mois, que c’est tout ce que bbbbben disait, sans faire aucune prévision sur la suite, car la guerre est longue.
Enfin pour finir et parce que beaucoup ici aiment les analogies avec les moutons : qu’on achète une PS, un PC ou une Xbox, on est tous des moutons… de la société de consommation.
Sérieux ? Ca m’a toujours étonné ces différences de prix, le problème c’est que je ne connais pas le trop le rapport perf/prix d’AMD par rapport à Nvidia.
Le problème d’AMD ne serait pas plutôt les pilotes et l’optimisation des ces derniers ?
Pour les pilotes, ça fait un bail qu’il n’y plus vraiment de soucis chez AMD…" />
Le
17/10/2013 à
18h
43
Par contre une offre qui a une durée d’un mois c’est un peu juste, à moins qu’elle se prolonge… Ou alors Nvidia se dit que l’euphorie des nouvelles cartes AMD ne sera que d’un mois ?
Ceci-dit je salut l’initiative des jeux, bien plus utile que du “crédit de jeu”. Et les jeux semblent intéressant.
Sur le site officiel, Batman semble offert pour bien plus de “gpu qualifiés” dans la news (annonce du 30 aout 2013…) :
De plus la réduction pour le shield n’étant pas dispo en France, ils auraient pu trouver une alternative. Alors ok c’est bien ont te file des jeux “gratos”, mais bon…
Pour l’offre AMD Never Settle, je me souviens pas qu’AMD ai confirmer qu’il mettrai ça de côté (ou alors je lis mal si c’est le cas), effectivement les R7/R9 sont sortie sans bundle, mais c’était le cas avec la sortie des HD7xxx.
j’ai un doute.. je pense plus tot qu’ils vont faire la même chose qu’avec la GTX280 et la GTX285…
ils retirent la GTX780 du marché et sortent la GTX780Ti en baissant le prix de la GTX770 au même temps :p
Je suis d’accord sur le principe, mais bon les vendeurs ne vont pas retirer de la vente leur stock de GTX780 lol
Le
18/10/2013 à
17h
16
Xaelias a écrit :
Mauvaise news sry :-\
Et j’arrive pas à éditer sur mon tel :-\
" />
Le
18/10/2013 à
16h
51
seboquoi a écrit :
C’est vraiment de bonne guerre. Ils ont vraiment aucune raison de se faire de cadeau.
Ce qui est surtout dommage, c’est que Nvidia puisse, en faisant le feignant, rattraper aussi facilement AMD.
Enfin on ne le saura réellement que lorsqu’on prendra connaissance du prix de la bête.
Merci Kepler et les cartes pro ^^”
Ceci-dit vendre la peau de l’ours avant de l’avoir tuer toussa…
Si la R9 290X est au même prix que la GTX780 et des perfs au minimum égales à la GTX780 voir égale à la Titan (de base). Il vont faire quoi Nvidia ? Sortir une GTX780Ti plus puissante que la GTX780 ok, mais à quel prix ? Entre la GTX780 et la Titan, donc ok pour les perfs mais pour le prix ? " />
Parce que en disant 2012 à 2013, je comprends une année entière, donc novembre-février je trouve ça court
Rien compris à ton début de message…
Oui ça fait effectivement que 4 mois entre la Tesla et la Titan, mais bien plus pour l’archi Kepler : presque 1 an entre la GTX680 et la Titan.
Le GK 110 n’est qu’une belle évolution du GK 104.
Si ton précédent commentaire concerne les séries R7 et R9 “rebadgées”, les perfs sont là (une 280X avec les perfs d’un GTX770) le prix a bien baissé et est même en dessous de certaines HD7xxx…
Pour la R9 290/290X ce n’est pas une archi “pro” mis à jour pour le grand public ? Si ?
Pour le fameux “processus de fabrique maitrisé”, actuellement le problème n’est pas là mais la gravure employé et surtout AMD et Nvidia qui ne font rien de réellement innovant pour le moment…
AMD suis juste le pas de Nvidia avec le renommage et 2 nouvelles références haut de gamme (Titan/GTX780 vs R9 290/290X).
Bien que pour le coup, Nvidia ne s’est pas trop mouillé avec l’archi déjà éprouvée des Quadro K6000/K7000 contrairement à AMD qui sort avec du Tahiti (je me trompe peut-être)
Wait & See pour les résultats, mais bon de toute façon les GTX780, Titan, R9 290X sont pour un marché assez limité…
Le
16/10/2013 à
18h
54
athlon64 a écrit :
Perso, je pense pas. Si la carte de 2013 est égale a celle de 2012 sur le plan perf, même pour une consommation moindre, je trouve que ça fait cher. Etant donné que d’année en année le processus de fabrique est mieux maitrisé.
Ça se tiens notamment pour la Titan sortie en février 2013 qui est basé sur une archi pro (Tesla) de Novembre 2012…
Le
16/10/2013 à
12h
25
En attendant, les R9 280X customs (EX HD7970 Ghz boostées )sont au dessus des GTX770 custom pour plus ou moins 100 euros de moins selon le modèle…
La HIS R9 280X iPower IceQ X² Boost Clock 3GB GDDR5 est actuellement à 260 euros (custom) alors que la MSI GeForce GTX 770 Twin Frozr GAMING 2GB est à 339 euros.
Je ne parle pas du SLI vs CrossFire, mais en mono gpu.
Si pour la R9 290X, elle est au même niveau voir plus perf qu’une GTX780 avec un prix égale et à fréquences d’origines pour les deux, je pense que la pari est réussi.
Les applis qu’on veut installer sont déplaçables sur la carte supplémentaire, mais malgré cela, on a un souci pour les MàJ qui doivent passer par la mémoire interne.
Enfin bon, je veux bien qu’on m’explique davantage qu’en se foutant de moi, j’aime bidouiller les OS, mais le fonctionnement d’un smartphone n’est pas ma spécialité du tout. " />
Un tel vieux de presque 3 ans, il n’y a pas de miracle… 512Mo de ram était pas si mal i l’époque pour un milieu de gamme.
Pour les mise à jour, bah ce tel n’avait pas vocation à passer vers Android Jelly Bean à sa conception, donc ^^”
Le
15/10/2013 à
14h
02
mdc888 a écrit :
Le galaxy S2 a 1 Go de RAM, ca change tout…
Déjà qu’il est pas super réactif (je l’ai depuis 2 ans)
Idem je l’ai depuis 2 ans et il est réactif chez moi, bien plus que certains tels récents après tout dépends de la rom utilisé, les fameuses roms dites “super optimisées” c’est des usines à gaz…
Pour l’instant le miens est avec un proc exynos et est en 4.1.2 sans surcouche et il tourne mieux qu’au premier jour ^^ La seule chose à déplorer c’est la batterie qui commence à fatiguer :/
Le
15/10/2013 à
10h
30
Atos a écrit :
512MB RAM
Epic fail !
Mouais à 99 euros voir à 69 euros avec l’ODR, c’est déjà pas si mal.
Il n’y a pas beaucoup plus de concurrence à ce prix, en plus la dalle IPS mesure 4.3” avec une résolution correcte, autant qu’un Galaxy SII et donc assez confortable…
De mémoire, Android 4.2 est un peu mieux optimisé qu’un 2.3 par exemple. L’ancien tel de ma femme (un Sony Kyno) avait que 512Mo de ram et tournais très bien en 4.2.
Le
15/10/2013 à
10h
04
C’est étrange, l’Idol mini a une camera VGA en façade :
Camera
Main Camera : 5 Mpxl, HDR, face detection, touch focus, panorama
Autofocus : Yes
Digital Zoom : Yes
Sub Camera : VGA
Video Capture : 720p@30fps
LED Flash : Yes
Video Player : 720p@30fps
Video Codec : H.264, H.263, MPEG4
Video Streaming : 720p@30fps
Etrange qu’ils l’ont enlevée.
Pas partisans non plus des “#”, m’enfin, pas pire qu’Alacatel écrit en gros derrière…
299 commentaires
La première mise à jour majeure de la Xbox One s’attaquera à son interface
10/01/2014
Le 12/01/2014 à 19h 19
Y’en a qui doivent avoir des actions chez MS, ou alors qui l’ont mauvaise dès qu’une blague est dite de leur précieux à 500 boules lol
Perso je pleure pas d’avoir dépenser 500 boules, mon PC me va très bien " />
Selon Manuel Valls, les propos racistes ne sont plus « diffusés » sur Twitter
10/01/2014
Le 11/01/2014 à 06h 56
En fait en relisant une partie de vos commentaires il n’y que moi que ça dérange de voir ce genre de déclaration ? : « Vous savez qu’on a réussi, notamment sur Twitter, à ce que la parole antisémite ou homophobe ne se diffuse pas. Il y a un certain nombre de décisions qui ont été prises »
Donc en fait des “insultes” antisémite et/ou homophobe se diffuse pas, mais des insultes racistes pas de soucis ?
Mr Valls sais ce que représente le mot Sémite ? Wikipedia(bon je me base sur Wiki plus simple pour expliquer)…
C’est un peu de l’égoïsme total de parler que des homos et des sémites, non ?
Non parce que après le mariage gay, leur défense sur Twitter, c’est quoi le but ? Avoir des votes de la part des gay ?
Et puis sincèrement nous bassiner avec cet histoire de “racisme” alors que les français veulent surtout une situation stable et avoir du boulot, c’est du n’importe quoi… Ah non ont me souffle dans l’oreille que les personnes de religion juive ne sont pas à la recherche d’un emploi, tout vas bien alors… " />
Micro-transactions : les joueurs de Forza 5 essuient les plâtres
28/11/2013
Le 28/11/2013 à 16h 00
Les trop nombreux DLC ont tué FORZA, depuis le 3… Sans moi pour celui-ci, Forza Horizon m’a couté 80 euros avec 80% des dlc Rofl, terminé la vache à lait " />
[MàJ] AMD met en ligne ses pilotes Catalyst 13.12 WHQL
20/12/2013
Le 25/11/2013 à 10h 32
Le 25/11/2013 à 10h 28
Le 25/11/2013 à 10h 24
Le 25/11/2013 à 10h 14
Le 25/11/2013 à 10h 11
M’enfin je vois pas le rapport avec Linux et une news pour pilotes WINDOWS… Je doute qu’une personne de chez AMD va lire les plaintes des utilisateurs Linux sur cette news.
Un retour sur les bugs de cette version sous WINDOWS serait pas mal par exemple.
Comme je le dit plus haut, si il ne vous reste que Linux pour crédibiliser Nvidia.
Sincèrement depuis un petit moment ça se plaignait d’avoir des pilotes pas stables sous Win, maintenant qu’ils sont pas trop mal, ça se plain sous Linux…
Pour l’instant ce qui fait la différence sous Windows, c’est le prix, le bundle et les perfs. Ont est bien loin des pilotes non optimisés.
Le support pour Linux n’est pas obligatoire que je sache, et comme je l’ai également déjà dit, rien ne vous empêche de prendre du Nvidia plus chère, le prix plus élevé comprends les pilotes pour Linux " />
Plus sérieusement, AMD n’a pas les reins assez solides en ce moment, et je pense qu’ils ne vont pas consacrer d’avantage de budget (enfin bon c’est déjà limite le néant) pour des pilotes Linux. Ils se focalisent sur ce qui est le plus utilisé.
Technique du serpent qui se mort la queue : Pilotes AMD non optimisés Linux => Moins d’acheteurs CG AMD sous Linux => Pas de budget alloué pour les pilotes sous Linux /Return
Le 25/11/2013 à 08h 49
Quelles grosse franchises ? Parler de Linux pour devenir crédible avec Nvidia… Mantle arrive a petits pas, sincèrement rien à foutre du support OpenGL….
Et puis nous mettre un pavé pour un émulateur, qui certes représente le problème AMD avec OpenGL sous Linux, mais bon… Y’a des moments faut arrêter de prendre le baton pour se faire taper, go Nvidia si tu veut Linux, stou… Sinon pas de soucis sous Win7 et DX11.
Puces graphiques : Intel augmente ses parts dans un marché en difficulté
21/11/2013
Le 24/11/2013 à 09h 44
Erratum le jeu tourne bien en DX11 avec une HD5850
Le 24/11/2013 à 09h 14
Le 23/11/2013 à 07h 23
Le 22/11/2013 à 18h 43
Ok toi tu me parle de coil whine et de bundle, je te réponds par rapport à ça : donc en général VRM identique et condos identiques pour les versions de base et pour le bundle selon le distributeur, et toi tu me sort la mémoire et les GPU différents…. Évidemment que les GPU sont différents selon le wafer utilisé & co et pour la mémoire selon le stock.
Je te parle de la différences des condensateurs et de l’étage d’alimentation qui est en grande partie (hors Sapphire apparemment hors Vapor-X, et malheureusement) de meilleurs qualité sur les cartes customs…
Faut être une tête en bois pour penser que les carte avec le rad et pcb d’origine utilise des VRM et condensateurs différents selon la marque " />
Le 22/11/2013 à 16h 11
Le 22/11/2013 à 15h 29
Après sur le site de HIS le bundle est bien spécifié pour la R9 290 :http://www.hisdigital.com/un/product2-776.shtml . Et idem pour la Sapphire R9 290 :http://www.sapphiretech.com/presentation/product/product_index.aspx?pid=2044&… . Pour une carte à plus de 300 euros, perso je fait un tour vite faite sur les reviews et les sites constructeurs.
Ceci dit un câble HDMI du même genre c’est 5 euros Amazon et pour les câble d’alimentation en molex bah si ton alim a pas 1 x PCI Express 6 broches et 1 x PCI Express 8 Broches tu peut te poser des questions, même ma simple OCZ Silencer MK III Bronze les as ^^”
Le 22/11/2013 à 15h 16
Le 22/11/2013 à 02h 26
Le 22/11/2013 à 02h 17
Sinon pour rester dans le sujet, ça parait logique qu’Intel n’ai pas de soucis de part de marché pour les puces graphiques, vu que la plupart des utilisateurs part sur des proco Intel et qu’AMD est boudé à cause de benchs…
AMD a fait le pari des APU avec CPU entrée/moyen de gamme et GPU assez performant et Intel le pari d’un CPU performant avec une partie graphique suffisante pour de la bureautique/video/dépannage et des perfs CPU qui sont idéales pour des configs “gamer”.
Dommage à quelques points de benchs et FPS près, chez AMD ça tiens la route, surtout pour le prix. Qu’ont me parle pas encore une fois de la consommation, ça reviens à une poignée d’euros sur plusieurs années.
Le 22/11/2013 à 01h 47
Par contre dire que des R9 270X ce sont des HD7870 “boostée”, toutes ne sont pas à la même enseignes.
Perso j’ai une HIS R9 270X IceQ X² Boost Clock (que j’ai eue à 165 euros) et la comparer à une Sapphire HD7870 Dual X OC Edtion à 145 euros, y’a juste une excellente qualité de fabrication chez HIS : le rad est quasi équivalent à une HIS R9 280X IceQ X² qui est un des meilleurs du marché, les composants sont de qualités, pas de coil whine, et pas de bug écran noir & co avec cette gen.
Les perfs sont là et, de mon avis, seront encore là avec le support des pilotes AMD.
Ça justifie bien les 20 euros de différence.
J’aime les les “parait que la HD7870 est plus valable…”, faudrait peut-être en avoir une pour justifier ce genre de commentaire et pas se baser sur des tests en ligne. Ceci-dit en voici un surtout pour montrer la qualité de fabrication :http://www.59hardware.net/articles/cartes-graphiques/his-r7-260x-ipower-iceq-x%C…
Par contre une chose ou je suis d’accord c’est le prix et les perfs des cartes actuellement qui stagne. Ce qui est normale vu que l’évolution est de plus en plus compliqué avec les finesse de gravures actuelles.
Le 22/11/2013 à 01h 27
Les coups de fil perso au travail peuvent justifier un licenciement
22/11/2013
Le 22/11/2013 à 15h 45
Revue de presse : la Xbox One sort de sa cachette, mais ses jeux y restent
20/11/2013
Le 20/11/2013 à 17h 47
Le 20/11/2013 à 17h 32
Le 20/11/2013 à 12h 58
LoL la gueguerre PS4 vs XBOX One " /> Vous avez des actions ou quoi ?
De mon avis ça va faire comme la PS3 vs Xbox 360, des jeux équivalents et quelques exclus.
Par contre je pense que pas mal d’utilisateurs vont se tourner vers le moins chère, sachant qu’en plus sur le papier la PS4 est plus performante…
Dommage, la manette de la XBOX One me tente bien, mais pas le kinect….
Perso je suis pour…… Celle qui fonctionnera le mieux d’ici environ 6 mois (donc en essuyant les plâtres des testeurs bêta, dans tous les sens du terme), et 100 euros de moins me ferais pencher pour la PS4…
Si Forza est du même acabit que le dernier sur Xbox360 (DLC à gogo) ça sera sans moi.
Perso je suis encore très surpris de la qualité visuels des derniers bon jeux PS3 et XBOX360, qui je le rappelle sont des consoles dépassé techniquement… Nul doute que la XBOX One et la PS4 feront le même genre de perfs… Ont en est encore qu’aux premiers jeux…
Les perfs sont là, c’est indéniable, et comparer celles-ci à un PC entrée de gamme est juste ridicule… Allez faire tourner les derniers jeux Xbox 360 avec une X1900XT et un proco datant de 2006 et une poignée de Mo de ram… Et financièrement un PC de 2006 coute combien de nos jours ? Et la Xbox 360/PS3 ?
Penser ce que vous voulez, 400 ou 500 euros pour du matos conçu pour durer minimum 5 ans, c’est pas si chère l’investissement, si ont veut faire des concessions sur les graphisme à long terme c’est pas trop difficile, tout le monde n’est pas steve austin avec un oeil bionique… Quid du PC de maintenant à 500-600 euros dans 5 ans ? Voir dans 2 ans ?
" />
Radeon R9 290(X) : un souci avec les modèles vendus dans le commerce ?
06/11/2013
Le 06/11/2013 à 22h 11
PlayStation 4 : de nombreuses fonctionnalités manqueront à l’appel
01/11/2013
Le 01/11/2013 à 12h 01
Hum, l’adaptateur secteur dans la console, perso je trouve pas ça très avantageux… Si l’alimentation foire, c’est tout la console qu’il faut renvoyer… Ce qui implique des colis perdus, une console qui n’est peut-être plus la sienne, etc….
Retour aux bénéfices pour AMD, sauvé par les Xbox One et PS4
18/10/2013
Le 20/10/2013 à 12h 13
Le 20/10/2013 à 11h 14
Le 19/10/2013 à 23h 59
Ah au passage FREDOM1989 en voyant ta rage vers AMD, je comprends mieux en regardant un peu tes commentaires de news :
-Rendez-vous dans 2 ans pour la faillite d’AMD, ont en reparlera " />
-Et puis pense à trouver une GTX6xx qui écrase une HD7870, HD7950 et HD7970 Ghz au même prix (cf ta remarque : Niveau GPU, les Radeon HD 4000 était les meilleurs, les 5000 ridiculaisait Nvidia, les 6000 dominaient et les 7000 ont dominées jusqu’à l’arrivé des gtx 600. Ca ne fait que 6⁄9 mois que Nvidia est globalement nettement meilleurs niveau perf/prix. “)
-Oublie pas ton phénoménal Pentium G3220 qui “bouffe” les procos AMDhttp://www.cpu-world.com/benchmarks/Intel/Pentium_G3220.html Et encore il n’y a pas les procos récents en face… Il au niveau d’un AMD A8-5500 …
Wow pas mal les performances graphiques du A10 6800K pour un APU pourri :http://wccftech.com/review/amd-a10-6800k-a10-6700-richland-apu-review/
Pour un soit disant fan d’AMD ça fait beaucoup, déçu qu’AMD n’a pas la plus grosse et qu’il soit pas chère ? Tu préfère le plus chère pour quelques FPS et sauver l’environnement ?
A puis en fait oui, c’est toi qui m’avait constamment contredit sur Amazon.fr… J’avais oublié…
Alors donc tu a des clients, mais tu commande sur Amazon les pièces informatique pour tes clients ? " />
Bon Week-end :)
Le 19/10/2013 à 23h 34
Le 19/10/2013 à 18h 07
Le 19/10/2013 à 18h 04
Le 19/10/2013 à 14h 54
Le 19/10/2013 à 13h 54
Le 19/10/2013 à 13h 10
Le 19/10/2013 à 13h 07
Drive Club ne sera finalement pas disponible au lancement de la PS4
18/10/2013
Le 19/10/2013 à 13h 34
NVIDIA : jusqu’à trois jeux offerts, de la GeForce GTX 660 à la Titan
17/10/2013
Le 18/10/2013 à 20h 25
Le 17/10/2013 à 18h 43
Par contre une offre qui a une durée d’un mois c’est un peu juste, à moins qu’elle se prolonge… Ou alors Nvidia se dit que l’euphorie des nouvelles cartes AMD ne sera que d’un mois ?
Ceci-dit je salut l’initiative des jeux, bien plus utile que du “crédit de jeu”. Et les jeux semblent intéressant.
Sur le site officiel, Batman semble offert pour bien plus de “gpu qualifiés” dans la news (annonce du 30 aout 2013…) :
http://www.nvidia.fr/object/nvidia-batman-arkham-origins-pc-aug30-2013-fr.html
http://www.nvidia.fr/object/geforce-family-fr.html#source=pr
http://www.ldlc.com/n2413/nvidia-batman-arkham-origins/
De plus la réduction pour le shield n’étant pas dispo en France, ils auraient pu trouver une alternative. Alors ok c’est bien ont te file des jeux “gratos”, mais bon…
Pour l’offre AMD Never Settle, je me souviens pas qu’AMD ai confirmer qu’il mettrai ça de côté (ou alors je lis mal si c’est le cas), effectivement les R7/R9 sont sortie sans bundle, mais c’était le cas avec la sortie des HD7xxx.
NVIDIA évoque sa GeForce GTX 780 Ti, mais ne dit rien
18/10/2013
Le 18/10/2013 à 20h 24
Le 18/10/2013 à 17h 16
Le 18/10/2013 à 16h 51
Le 18/10/2013 à 16h 50
La Radeon R9 290X lancée dans une semaine, les testeurs recoivent les cartes
16/10/2013
Le 16/10/2013 à 21h 23
Le 16/10/2013 à 18h 54
Le 16/10/2013 à 12h 25
En attendant, les R9 280X customs (EX HD7970 Ghz boostées )sont au dessus des GTX770 custom pour plus ou moins 100 euros de moins selon le modèle…
La HIS R9 280X iPower IceQ X² Boost Clock 3GB GDDR5 est actuellement à 260 euros (custom) alors que la MSI GeForce GTX 770 Twin Frozr GAMING 2GB est à 339 euros.
Je ne parle pas du SLI vs CrossFire, mais en mono gpu.
Si pour la R9 290X, elle est au même niveau voir plus perf qu’une GTX780 avec un prix égale et à fréquences d’origines pour les deux, je pense que la pari est réussi.
Surtout que ça relancerai peut-être Nvidia :)
Wait & See
Sosh lance « son » smartphone : écran IPS de 4,3″ et Jelly Bean, dès 69 €
15/10/2013
Le 15/10/2013 à 22h 50
Le 15/10/2013 à 14h 02
Le 15/10/2013 à 10h 30
Le 15/10/2013 à 10h 04
C’est étrange, l’Idol mini a une camera VGA en façade :
Camera
Main Camera : 5 Mpxl, HDR, face detection, touch focus, panorama
Autofocus : Yes
Digital Zoom : Yes
Sub Camera : VGA
Video Capture : 720p@30fps
LED Flash : Yes
Video Player : 720p@30fps
Video Codec : H.264, H.263, MPEG4
Video Streaming : 720p@30fps
Etrange qu’ils l’ont enlevée.
Pas partisans non plus des “#”, m’enfin, pas pire qu’Alacatel écrit en gros derrière…