Moi j’ai peut-être un souvenir déformé de D2 mais il me semble que les uniques de D2 avaient plus de caractéristiques spéciales que les légendaires de D3. Dans D2 un unique qui droppait c’était toujours sympa, alors que dans D3 99% du temps ça se résume à « Combien de force ? Ok c’est nul poubelle » (remplacer force par int/dex/… selon la classe du perso).
Oula ça dépend vraiment de l’objet! Par exemple pour un DH :
Sur anneau/Amulette, tu va surtout rechercher Dexterité/Chances de Coups Critique/Dégats CC/Chasse
Sur les Epaulettes, tu vas chercher Dext/Vita/ All resistance/Armure/Réduction du coût en ressource/Réduction des cooldown
etc…
Et certains build ont des spécificités , nécessitant absolument une stat que tu ne trouve pas sur toutes les pièces. :)
Le
06/03/2015 à
14h
49
Blizzard victime de son succès. Je comprend mieux pourquoi les accès à Heroes of the Storm arivent au compte goutte : ils cassent déjà les scores avec un jeu payant, alors avec un f2p…
Neeko a écrit :
J’aime pas trop la critique du manque de diversité des archétypes. Quel pourcentage de joueurs jouent vraiment “au sommet des classements”. Très peu. Au final, pour faire rien que tu Tourment VI, il y a assez de builds valables à partir du moment où on a un équipement décent (et là encore, pas forcément full set ultime).
Assez d’accord, il y a moyen de faire de builds “fun” qui passent même en T6. Après pour faire de la faille sup’, ça devient tendu dès que tu tapes dans les lvl >35 (sûrement plus maintenant, avec les objets anciens) .
Sur la Vanilla, je jouai le sorcier en Sleet Storm, bien moins cher à stuffer qu’un permarchonte ou un permagel
et tellement jouissif!
Reznor26 a écrit :
« Les commerciaux avaient estimé que l’on pourrait vendre 6,666 millions d’unités lors de la première année… »
En même temps si les commerciaux basent leurs prévisions sur des blagues...
De toute manière, pour l’entrée et le milieu de gamme, si on dispose d’une ancienne puce qui fait très bien le boulot sans être trop bloquante niveau foncitonnalités, pourquoi ne pas réutiliser cette puce? Ça peut être INtéressant pour tout le monde, suivant la manière dont c’est fait.
Au fond, ce qui compte, c’est la compatibilité, les performances, (la consommation, ) et le prix.
On ne parle pas de la jeter une puce au bout d’un an, mais pas de te le vendre “comme du neuf” pour les consommateurs non avertis.
Oui une R9 280X est encore dans la course pour le jeu en full HD, mais ça reste une HD 7970. Sans compter les fois où le prix est plus “neuf” que “ancien”.
Strimy a écrit :
C’est pas comme si ça faisait 3 ans qu’il n’y avait eu aucune (vraie) nouveauté sur l’archi des GPU AMD (HD7000 début 2012). Quelques mois de plus ou de moins…
C’est les mois qui font mal…comme tu le dis, il n’y a pas eu de gros bouleversement depuis 2012 (surtout sur le milieu de gamme, car il y a eu Tahiti sur le haut de gamme pour AMD), sauf Maxwell chez nVidia…qui a séduit de nombreuses personnes qui attendaient un “gap” de performances suffisant pour renouveler leur CG.
Le
06/03/2015 à
09h
07
accompagnées d’autres modèles de génération actuelle à la dénomination modifiée pour l’occasion
Faut vraiment arrêter ces pratiques… " />
Entoni_ a écrit :
Ils ont intérêt de sortir quelque chose d’intéressant si ils veulent pas définitivement se faire bouffer par Nvidia, sur le marché PC.
Continuer avec des produits de la veine des HD 5xxx, 6xxx et 7xxx en somme :p
Juste une petite précision, ce n’est pas vraiment la 3D qui a amené le GPU mais le besoin croissant en calcul des nombres flottants. Mais effectivement les jeux font partie de ces grands demandeurs, tout comme le traitement photo/vidéo, etc…
Un CPU (32 ou 64 bits) a une bonne puissance de calcul mais c’est surtout taillé pour les entiers et perd en efficacité avec les flottants.
Après, l’autre atout du GPU c’est sa capacité de paralléliser les traitements qui commence à être sérieusement utilisée (OpenCL & co).
Dans les ordinateurs grand public, c’est bien sa fonction principale, les autres calculs étant réalisable par un CPU x86 :)
Je veux dire, aucun jeu 3D ne peut se lancer sans un co-processeur dédié aux calculs 3D. Alors qu’un film est encodable avec un CPU x86 par exemple.
Par contre, à l’époque où je tenais pas encore debout, les CPU pour PC ne comprenaient pas de base (parfois en option, comme avec le 486) de FPU
yvan a écrit :
Il n’était pas né il y a bien longtemps déjà?
De mémoire les amigas avaient déjà ces deux puces de traitement séparés, du moto 68XXX comme cpu et denise/superdenise (eh oui " />) pour la vidéo et ceci dès l’amiga 1000 en 1985. " />
Techniquement parlant, les co-processeur graphique existaient bien avant le PC, oui.
Par contre, arrête moi si je me trompe, sur l’Amiga ça ne concernait que de
l’affichage 2D (nombre de couleurs, définition…) et pas de calculs 3D.
Le
05/03/2015 à
13h
14
Bball a écrit :
Petite question pour les gens calés sur le sujet. Quel est la différence entre un CPU et un GPU?
Je précise, quand je vois les commentaires, j’ai l’impression que les GPU sont des monstres de calculs capable d’engloutir des milliards d’infos et de régurgiter des résultats qui permettront de connaitre la météo dans 5 mois. Mais que font les CPU alors? Pourquoi les CPU semblent stagner alors que les GPU semblent ne pas avoir de limite de puissance?
Des gens ont déjà répondu, j’apporte ma petite contribution :
Dans un PC, il n’y n’existait à la base que le “CPU”, d’architecture intel x86. Cette architecture est conçue pour pouvoir traiter une grande diversité de calcul, mais pas spécialement de manière optimale.
Puis dans les années 90, les jeux en 3D ont commencé à apparaitre, très gourmand en calculs. Le CPU ne suffisait plus. C’est comme ça que sont apparu les “co-processeurs” graphiques, via des “cartes accélératrice3D” : leur but était de soulager le processeur des calculs de la 3D de l’image (calculer un cube en rotation, par exemple). Le GPU était né :)
Plus tard, dans les années 2000, on s’est rendu compte que le GPU, créé spécialement pour du calcul d’image 3D, pouvait servir à d’autres tâches de manière plus efficace qu’un CPU, comme l’encodage d’un film par exemple. Le GPGPU est alors arrivé (General Purpose GPU : usage général du GPU). La première carte grand public à gérer le GPUGPU était la 8800GTX de nVidia.
En résumé :
GPU => processeur spécialisé pour quelques tâches données
CPU => processeur général apte à traiter toutes sortes de calculs
Il existe d’autres type de processeurs spécialisé pour des tâches bien précise :
Les DSP : processeurs dédiés au traitement du signal (en audio par exemple) o
les FPGA ou encore les ASICS : ils offrent un rapport puissance/énergie imbattable, mais ne peuvent pas servir à d’autres tâches que pour lesquels ils ont été programmés. Si l’algo change, il faut changer le processeur.
Le
05/03/2015 à
09h
56
Vekin a écrit :
Déjà, merci pour toutes les informations " />
Concernant ce point, je parlais plus des Quadro que des Titan. Désolé si je n'ai pas été assez clair.
Je suis d'accord avec toi sur l'utilité de ces cartes pour des pros, mais je ne pense pas non plus que tous les logiciels pros arrivent à les exploiter comme elles se doivent. Dans ce cas précis, ce serait un achat inutile.
De rien, c'est pas évident de s'y retrouver et les marques entretiennent volontairement le flou. Les Quadro sont clairement des cartes médiocres pour le jeu, vu qu'elles ne sont simplement pas faites/vendues pour ça.
Même si, matériellement, je pense que rien n'empêcherai de créer une carte mixte, ou du moins avec un meilleur compromis, mais les équipes marketing ne l'entendent pas de cette oreille (ça peut se comprendre) (à une époque, des bidouilles sur les pilotes existaient pour "transformer" une GeForce en Quadro, mais ça a été rendu impossible de nos jours).
Quant à choisir sont matos en adéquation avec son besoin...si les équipes des achats font bien leur boulot, tout va bien
Et dans le domaine du calcul intensif, c’est plus forcement une suite logicielle, mais directement du code optimisé pour l’architecture que tu exécute ;)
Zorglob a écrit :
…
L'usage pro, c'est aussi plutôt spécifique comme emploi, ce n'est pas connu de tout le monde ;)
Merci pour le partage de l'exemple concret
Le
05/03/2015 à
09h
36
Vekin a écrit :
Quelqu’un sait si ça vous quelque chose en jeu ou si c’est juste pour du traitement lourd ?
Les deux. Il s’agit d’une carte grand public (donc dédiée sutout aux JV), mais apte à traiter des calculs GPGPU lourds
Vekin a écrit :
Oui, un peu comme la Quattro qui coûte un bras, mais qui arrive à se faire battre par son équivalent grand public (quatre fois moins cher) " />
Tout ça sous prétexte d'avoir des pilotes "optimisés" et deux-trois autres détails
Bon sinon je vais couper la poire en deux : je mise sur un prix de 2500€ !
Ce n’est pas du tout la même cible, le même usage. Les GPU grand public sont orientés jeux vidéo, les gammes “pro” calcul scientifique. C’est pour cela que nVidia réserve le calcul en double précision pour la gamme pro.
Et les “2,3 optimisations” des pilotes, ça coute du temps et de l’argent, et peut faire une grosse différence dans les applications! Et je passe sur le support qui se doit d’être au niveau d’entreprises (i.e c’est pas M Mme Michu qui plante quand elle lance démineur, mais plutôt des ingénieurs…)
Winderly a écrit :
12 Go de mémoire ! " />
J’ai seulement 4 Go en barrettes, je suis vraiment à la ramasse.
J’imagine qu’il faut un boîtier plutôt spacieux pour cette super carte ?
12Go, c’est clairement parce que nVidia la vend comme uen carte “semi-pro”, où les calculs peuvent être très gourmands en RAM. Pour de l’application grand public, c’est clairement sur-dimensionné. Pour info, en mono-GPU et en 1920x1080, 3Go te permettent de faire face à tous les cas de figure, 2Go à une grande majorité.
Concernant le volume, elle ne fera pas 17cm de long, mais pas non plus 50cm. Niveau dégagement calorifique, c’est un gros GPU, mais c’est aussi le point fort de Maxwell, donc je pense qu’elel peut être intégrée dans un boitier moyenne tour comme le Fractal Design Arc Midi dans devenir un grill ni faire un bruit d’hélicoptère.
nlougne a écrit :
Non! Il y a une marque dédié pour ça
Oui et non, nVidia ne se cache pas de proposer ce produit aux entreprises qui ont des besoins de calculs GPGPU, sans pour autant nécessiter de faire appel aux gammes Quadro. Si tu es prêt à faire quelques sacrifices (pilotes, double précision…), la gammeTitan peut t’offrir une puissance e calcul pour un coût modéré (tout est relatif).
Vekin a écrit :
En 4K, peut-être. Sinon, je ne pense pas que ça serve à quelque chose, surtout d’un point de vue performances/prix !
Je pense qu’un SLI de GTX 980 sera bien plus efficace et moins cher pour jouer. Il faudrait que je trouve des tests comparant les Titan avec les cartes grand public pour me faire une idée précise.
Plus tu montes en haut en gamme, moins le rapport performance/prix est bon. Clairement nVidia propose avec ce produit une vitrine technologique à ceux qui sont prêt à mettre le prix.
Vekin a écrit :
Oui, mais qu’a-t-elle de si incroyable qui justifie un prix si “pro” justement ? Parce que sur le papier, c’est une carte graphique gamer médiocre.
Avoir un GPU de 8Md de transistors fonctionnels implique un tri drastique. Si tu veux le sommet de la pyramide, le top du top, il faut allonger la maille.
Et dire que la carte est “médiocre” d’un point de vue des performances, c’est un peu abusé puisqu’il s’agira certainement du GPU le plus rapide sur le marché.
Zyami a écrit :
Ca n’a rien à voir et ce n’est pas fait pour les jeux, tu dois avoir
environ 1000 sinon plus unités de calculs sur ce genre de matos pro.
Ca sert quasi uniquement à faire du calcul procédural à grande échelle
(simulation de collision avec plusieurs millions de particules,
simulation de mélange de 2 liquides par exemples).
Attention, d’un point physique, les GPU pro et grand public sont très similaires, même si les fondeurs évitent de le dire tout fort. La grosse différence se fait sur la partie logicielle.
Quel est le cout en calcul de ce genre de technique ? Car la PS4 a un matos très limité, faut pas l’oublier…
Ben aucun…si la PS4 fourni les images suivantes toutes les 0.017s (soit 60 fps) :
[A B C D E]
Et si le casque rafraichit son écran toutes les 0.083s (soit 120Hz), il affichera
[A A B B C C D D E E]
Le tout étant que les capteurs arrivent à donner l’évolution de la tête suffisamment rapidement pour qu’elle soit prise en compte entre l’image A et l’image B, l’image B et l’image C etc.
THM077 a écrit :
Donc en gros ça va être hors de prix mais limité techniquement quand même !! " />
Sony make believe " />
Tout est “limité techniquement”, peu importe le prix que tu met. ;)
Le tout est de sortir un produit offrant un compromis acceptable.
Pour ce prix, on aura le droit à un « processeur AMD quadricœur », dont le modèle exact n’a pas été précisé, ainsi qu’une « carte graphique GeForce GTX
», sans plus de détails. Difficile de dire si l’ensemble sera bel et
bien plus performant qu’une console de salon de dernière génération.
Le modèle supérieur, annoncé pour 100 dollars de plus, dispose quant à
lui d’un processeur Pentium G3258 accompagné d’une Radeon R9 270X.
La configuration à +100$ sembledéjà un minimum pour jouer (1080p@30fps+ j’entends), et en se passant de filtre gourmands (tel que MSAA 8x).
En dessous ça nous laisse quoi?
En quad-core AMD il y a le FX4300 et ses coupaings, les APU basé sur Kaveri : mais ils ne sont pas vraiment meilleurs marché que le Pentium. Donc je vois bien arriver le coup de l’APU basse conso (“Beema”) qui est loin d’être un foudre de guerre (c’est une architecture similaire qui équipe les PS4/.X1)
Ton modèle n’était peut être pas encore incriminé par une whitelist ;)
Et cette même liste peut être mise à jour au bon gré du fabricant " />
Bref ça ne change rien au fait que certains portables Lenovo et HP sont actuellement équipé de BIOS à whitelist et que c’est le genre de pratique qui mérite un travail au fer rouge ! " />
Le
02/03/2015 à
13h
44
Non non, il s’agit bien de BIOS avec whitelist qui autorise certains composant autorisé. Le problème est également présent avec des cartes wifi. Google si tu veux t’en convaincre ;)
Le
02/03/2015 à
12h
12
Il faut que le matériel soit autorisé par le BIOS. C’est au petit bonheur-la-chance, selon le bon vouloir de Lenovo.
Le mieux étant de se renseigner sur le net avant d’envisager une upgrade, il y a des forums qui en parlent (j’ai pas l’adresse sous la main, mais au besoin je peux retrouver).
Il me semble qu’il existe aussi des BIOS modifiés, mais c’est plus risqué.
Le
02/03/2015 à
11h
51
Pour les portables bureautique, les meilleures affaires sont du côté des gammes pro, IMO.
A l’époque (2012) chez Dell, la série Latitude offraient un écran mat, un disque dur 7200tr/m de base et pas de GPU mobile (uniquement un IGP), le tout pour moins de 600€. Sans oubleir l’option clavier rétro-éclairé, parfois très pratique en usage mobile (la machine était destinée à des néophytes ne connaissant pas leur clavier par cœur).
Sinon à utiliser, j’aime bien les thinkpad (mis à part la disposition de la touche ctrl qui demande un petit temps d’adaptation). Par contre, Lenovo et HP utilisent un BIOS à base de whitelist, qui empêche de changer librement les composants : les SSD Crucial ne sont pas compatibles sur certains modèles Lenovo par exemple " />
La densité calorifique, c’est un autre problème. Comme tu le soulignes les palliatifs existent : plus de cache et/ou plus de cores et/ou revenir à la soudure du heatspreader sur le die… Quitte à investir dans un CPU, autant avoir de la performance là où j’en veux plutôt que dans un mauvais compromis.
De plus, sur broadwell, entre l’iGP ‘de base’ et l’iris pro, c’est plus de 30% de surface en plus…pour des performances graphiques certes meilleures pour l’iris, mais toujours insuffisante pour faire plus qu’avec l’IGP de base.
Et je ne comprends pas ta dernière phrase. Si j’investis dans un GPU, quel qu’il soit c’est bien pour le jeu (voire du GPGPU). Si c’est pour afficher mon bureau et mon film, un bon vieux GMA le fait depuis des années, pas la peine de multiplier les “EU” pour ça. C’est en suivant cette logique que pour le mobile , je privilégie généralement les machines qui font l’impasse sur une GTX830M et se contente de l’IGP, qui ne me permettra pas de jouer dans des conditions décentes de toute manière.
Le
26/02/2015 à
10h
32
sdevilcry a écrit :
[…]
Surtout que je ne sais pas pour la surface, mais souvent les 300MHz supplémentaires sont facturés aux prix fort.
Alors que pour un usage tablette/bureautique, c’est 300MHz n’apportent rien à l’utilisateur
k43l a écrit :
Oui mais seulement si on compare deux style d’ordinateur qui n’ont rien à voir.
Si on recherche un ordinateur avec de l’autonomie tout en étant puissant et qu’on compare un i5M d’un i7U on part dans le mur.
Le i5 sera certes plus puissant mais son autonomie nulle comparer au i7u.
Oui mais tu es un iNpactien averti. " />
Imagine le pauvre Michu qui va chercher son matériel dans une grande enseigne “spécialisée” et qui compte uniquement sur le vendeur pour le guider…
Bref si Intel voulait être franc, il séparerait clairement les processeurs mobiles qui favorisent les performances de calculs et ceux qui favorisent les performances énergétiques (d’ailleurs si tu fais gaffe, j’ai bien précisé “performances de calcul” dans mon post précédent, pour séparer des perfo énergétiques). Mais on préfère plutôt sortir une reférence flatteuse pour donner le “kikitoutdur” au consommateur plutôt que de lui expliquer qu’il faut faire des compromis, et que c’est à lui de choisir.
kypd a écrit :
Quand NXI se remettra à faire de vrais tests matériels ce genre de commentaire sera acceptable !
Les iGPU Intel affichent en effet des performances qui sont impressionantes pour des iGPU, avec systématiquement les plus grosses références proposés sur les gammes mobiles même sur l’entrée de gamme (i3)
A coté AMD brille pour ses APU qui embarquent des iGPU très performants sur leur haut de gamme ou leur Flagship, mais on ne peu pas en dire autant sur les références d’entrées de Gamme ou même les SoC (qui doivent être massivement intégrés dans les portables premiers prix au contraire des Flagships)
Beaucoup de joueurs se suffisent des iGPU pour les jeux moins gourmand dans le genre de League of Legend, World of Warcraft, Counter Strike etc… (Sans même parler de toute l’offre de jeux plus “casual”)
C’est vrai que les iGPU sont tellement bons qu’ils arrivent presque à atteindre les performances d’une PS4 ou d’une XB1 " />
La liste des jeux que tu cite sont très orientés eSport (où les devs privilégient la fluidité/réactivité à la qualité graphique) et/ou âgés.
Ce n’est pas le cas de jeux plus “casu” comme Far Cry, Bioshock 3….
J’ai même benché Heroes of the Storm avec l’iGP d’un 4670K ( alors certes l’iGP d’un laptop est plus gros) en 1920x1080, hé ben fallait tomber quasiment tous les réglages au mini pour arriver à une fluidité correcte (> 30 fps).
Donc non, on ne peut parler de “performances graphiques impressionnantes” dans le sens où, une carte milieu de gamme comme la GTX750 fait beaucoup mieux pour moins de 100€.
Si intel pouvait arrêter de perdre une surface conséquente de silicium pour graver l’iGP et consentir une réduction sur les CPU desktop, ça m’arrangerai.
En revanche sur Laptop, c’est pas déconnant comme approche, car ça reste un bon palliatif. Et puis les GPU dédiés pour laptop ne sont pas spécialement plus reluisants, à moins de taper dans une haut de gamme, au détriment de l’autonomie.
Le
26/02/2015 à
09h
35
Clairement l’organisation gamme intel c’est la daube sur l’entrée de gamme/mobile.
L’article résume bien les pièges :
une gamme mobile qui abuse des suffixes (entre un i5-4200U et un i5-4200M, grosse différence de performances de calcul alors que le nom suggère des produits proches)
Des noms commerciaux (Pentium et Celeron) qui regroupe diverses architectures visant deux cibles différentes
+ Une arrivée de micro-architecture très chaotique : Broadwell uniquement sur les CPU mobiles, cohabitation avec Braswell sur la gamme bureautique…
Bref, je sens que la section “conseil d’achat” du forum NXi va avoir du taf
Ah et si vous avez un doute, voici une liste de benchmarks des processeur mobiles très complètes, pour vous donner une idée de grandeur des performances. Après sur le monde mobile c’est difficile de comparer précisément 2 composants, tant la mise en œuvre peut influer sur le résultat (capacité de refroidissement, qualité de la RAM etc…)
k43l a écrit :
Après je dirai rien sur la différence Core i5 - i7 sur ordinateur
mobile. Pour moi ça me permet de voir dans un premier temps lequel est
plus puissant.
Justement, le problème c’est que des core i5 mobiles peuvent être plus rapides (à tout point de vue) que des i7 mobiles :/
En même temps, les 20% d’abonnement ne sont pas vraiment étonnants, tout simplement parce que les FAI ne fibrent pas jusqu’au logement particulier.
En gros, la fibre est dans le quartier, mais si tu vis pas dans un immeuble d’au moins X personnes, t’es foutu.
Il faudrait regarder la définition de l’éligibilité. Pour moi un logement (ou plutôt un immeuble) non raccordé est logement non éligible (et je compatis avec tous ceux qui ont une fibre qui passent juste devant chez eux et qui ne peuvent en profiter :x).
Du coup je comprend que le taux de pénétration est défini comme le rapport entre les personnes qui ont un abonnement fibre et les personnes qui ont la possibilité de souscrire un tel abonnement.
Mimoza a écrit :
Et quid des opérateur alternatif/associatif comme FDN qui n’a accès a aucun réseau fibre ? C’est un peu comme des MVNO de la téléphonie mobile qui n’aurait pas la possibilité d’utiliser la 4G …
Je ne suis pas spécialiste, mais ils n’ont pas non plus accès à la boucle locale. Ils ont un accord avec SFR pour ça de mémoire.
Ils devront donc négocier un nouvel accord pour la fibre (par contre j’imagine que ça sera infiniment plus complexe).
Ça a évolué en douceur, mais ils ont tout de même du le mettre au gout du jour :)
Sigma42 a écrit :
Qu’il y ait besoin de marketing pour ventre, je veux bien l’admettre, mais bon, les changements de logo facturés à des sommes astronomique, ça me semble être du “hors-sol” total : Un bon marketing est un marketing en lien étroit avec l’ingénierie pour moi…
Pourtant, ça peut se comprendre : si tu as 4 ou 5 personnes diplômée qui travaillent dessus pendant plusieurs semaines à temps plein, le chiffre monte vite.
Ça parait insignifiant comme travail, mais derrière il y a beaucoup de questions à prendre en compte, étant donné que tu es en plein dans le subjectif.
Network a écrit :
Les marchés publiques c’est toujours un peu sur-facturé
Et puis il y a la partie budget qui n’apparait pas sur la facture. " />
ExIcarus a écrit :
Il n’est ni rond , ni carré , ni pointu
" /> pour la référence au Kamoulox
Le
25/02/2015 à
10h
50
Reznor26 a écrit :
Intérêt ?
Rafraichir un bon coup l’image de la marque. C’est bête,
mais dans l’inconscient collectif, le logo vient souvent en tête quand
on évoque une entreprise. Une entreprise avec un logo moche/dépassé
(surtout dans le domaine des NTIC) ça n’inspire pas confiance.
knos a écrit :
C’est pas exactement du comic sans. Les lettres sont droites et régulières. Moi ca ne me choque pas.
Pour ça que j’ai dit “ressemble” ;)
Le
25/02/2015 à
10h
47
J’aime bien aussi, et je me posais la même question pour le prix " />
Par contre, la police utilisée pour “bouygues” ressemble un peu trop au comic sans " />
Si ce bug est préjudiciable, il n’en reste pas moins que
les débits bruts ne sont pas forcement ce qui iNpacte le plus les
performances sur un disque système.
Groumfy a écrit :
Samsung = bas de gamme avec de l’emballage haut de gamme.
Autant je suis d’accord pour les smartphones, autant pour le SSD, mis à part cet écart sur le 840EVO, ils restent de très bonne facture.
Alesk a écrit :
Personnellement je ne jure que par crucial, composer de puces Intel. De plus , les contrôleur n’use pas (encore ) d’astuce d’optimisation qui augmente les débit en réduisant la durée de vie des cellules.
J’en ai, et fait acheter une petite dizaine autour de moi et je n’ai jamais eu de problème (touche du bois)
De quel genre d’astuce tu parles? Si tu parle du fait d’avoir quelques Go de mémoire TLC (3 bits par cellule) fonctionnant en mode MLC (2 bits par cellule) pour avoir un “boost” sur les débits (pour peu que le transfert ne soit pas trop gros), c’est le cas sur les nouveaux MX200 me semble-t-il. (faut que je check)
M’enfin, avant “d’user” un SSD avec un usage disque système classique, faut y aller.
J’ai autant confiance dans un SSD de 7 ans d’age qu’un disque dur de 7 ans d’age " />
Les fond d’écrans par défaut sont rarement dégueu : la plupart du temps c’est un beau paysage, et depuis vista les images utilisent du HDR/tone mapping pour avoir un rendu “percutant”. Il est loin le temps de “colline verdoyante” ;)
Pour ma part, les icones du bural c’est une colonne en 1920x1200, pas plus. Et je ne les utilise quasiment jamais, car les fenêtre des appli recouvrent tout le reste. J’utilise plus volontiers les icones programme dans la barre des tâches. Mais là chacun à sa manière de faire, effectivement.
Enfin, je ne suis pas graphiste, mais je ne vois pas ce qui empêche de créer un bandeau avec le style modern UI (je ne sais plus comment s’appelle ce style graphique “plat”).
Tu as raison de souligner que ce n’est qu’un concept et qu’il y a des défaut, mais il faut bien avouer que ça en jette et qu’il y a de bonnes idées " />
En l’occurrence, le brevet a bien été conçu par son détenteur.
Mais même si ce n’était pas le cas, quand tu achètes un brevet, tu payes pour tout le travail fourni avec. Ça n’enlève rien à sa valeur.
Dans ton exemple, Jean-roger a payé pour son brevet. Il n’y a aucune raison pour qu’il ne puisse pas bénéficier de son droit exclusif d’exploitation.
Si des gens autres que le monsieur veulent l’exploiter, ils n’avaient qu’à l’acheter. S’ils ne l’ont pas fait, ils ne peuvent pas en bénéficier, c’est la règle,c’est tout. Et ils peuvent toujours obtenir des licences d’exploitation.
Certes c’est tout à fait légal, mais fonder son business là dessus c’est clairement du troll : acheter de la PI dont tu n’a pas usage, pour gratter du pognon auprès de ceux qui en ont besoin. C’est clairement un frein à l’innovation et nuit au final au consommateur. Bref, totalement à l’encontre de ce que le brevet est sensé représenter.
Je ne reviendrai pas sur “yaka acheter”, car il aurait déjà fallu que l’entreprise sache que ce brevet existe (c’est un peu comme le “nul n’est sensé ignorer la loi”)
Par contre j’imagine que Samsung a du calculer qu’il était moins cher d’aller au tribunal ou la prise de risque était “worth it’. Je vais spécialement pleurer pour eux.
Le
19/02/2015 à
11h
50
js2082 a écrit :
En même temps, si Samsung a bien violé un brevet, il est logique qu’il passe à la caisse, non?
Peu importe qui détient le brevet, les techniques utilisées ont fait l’objet de recherches, de temps et de dépense d’argent. Ce travail n’est pas gratuit.
Et voir une entreprise quelconque venir tranquillement te piquer ton boulot et s’en servir tranquille sans même daigner te jeter un coup d’œil, ça fait plaisir à personne.
Samsung a voulu jouer au plus malin, il a perdu, c'est tout.
Le truc, c’est que les patent troll n’ont pas forcement participé à la recherche. Autant je vois bien l’intêret de breveter sa recherche pour se protéger commercialement (et finalement offrir un meilleur produit aux clients), autant je vois pas l’intérêt des patent troll : c’est vraiment soutirer du pognon pour le plaisir d’en soutirer.
Exemple :
Samsung viole un brevet posé par Apple. Les deux entreprises vendent des produits similaires, il est normal qu’Apple protège ses travaux.
Jean-Roger possède un brevet qu’il a acheté dans une brocante. Il cherche activement des gens qui utilisent ce brevet pour leur soutirer du pognon.
Ma conclusion : Jean-Roger ne produit rien, il dépense de l’énergie de manière improductive. Jean-Roger est un parasite.
psn00ps a écrit :
Cours déposer un brevet sur le voyage dans le temps et aussi la téléportation " />
On peut breveter n’importe quoi sans application, c’est débile.
Tu peux breveter un concept, qui n’a pas d’application directe. Une preuve de concept, si tu veux.
Le freesync est open-source, donc ils ne payent rien pour pouvoir l’utiliser ce qui est l’avantage par rapport au G-SYNC qui lui est proprio et en plus c’est un module en sus. Apres rien ne les empeches d’augmenter les prix des ecrans c’est sur, mais ca restera toujours moins chere qu’un G-SYNC.
Ce n’est pas parce qu’une technologie est open source qu’elle ne coute rien à implémenter ;)
Le scaler doit être compatible, ce qui engendre une modification, qui coûte un peu (certes pas grand chose comparé à un module Gsync). Les fabricants de scaler facturent surement plus cher un scaler compatible Freesync, pour créer une gamme. Le fabricant d’écran doit aussi en faire de même " />
marquis a écrit :
Ooops, sorry " />
Y’a pas d’bug ;)
sniperdc a écrit :
Jamais
déçu par les écrans Acer. J’allais le prendre mais après ma
documentation je préfère attendre le Display port 1.3 avec le 4k@120 IPS
Sur un écran 1440p, le 1.2 est suffisant hein :)
Le
18/02/2015 à
15h
19
Non, fhd = full HD = 1920x1080 (je parle de l’exemple de js082 hein, pas de l’article)
Le
18/02/2015 à
13h
12
Ouai mais il faut comparer ce qui est comparable : à 170€, m’étonnerait que tu aie du 144Hz et du freesync déjà (même si le freesync est censé être moins cher que Gsync, il doit bien y avoir un surcoût et les fabricant d’écrans en profiteront surement pour organiser leurs gammes).
Même si Nintendo craquera surement un jour face aux investisseur, je les salue ainsi que Satoru Iwata concernant leur position face aux marché du JV sur smartphone.
Nintendo, ça reste le “Seal of Quality”, alors que les JV smartphone, c’est l’inverse. Ce serait juste renier leur manière de penser et de voir le JV.
Les JV de Nintendo, c’est pas des jeux auxquel tu joues 10 minutes par jour dans le metro.
Pourtant ils ont sortit un “Magic/Earthstone-like” sur iPad avec l’univers Pokemon, qui est un très bon jeu m’a-t-on dit (il m’a même fait hésiter à prendre un iPad à la place d’une Sony Xperia). C’est le genre de jeu qui n’a pas tellement sa place sur console, et qui n’est pas non plus un candy-crush nobrain.
Sans complètement changer de modèle économique, pousser ce genre d’initiatives (déjà une version android " />) pourrait être très bénéfique pour Nintendo.
Je trouve que les plus grandes forces de Nintendo, ce sont ses licences et non son hardware. Alors certes ils ont eu de très bonnes idées avec (double écran tactile, Wiimote), mais ça fait chier énormément de monde d’investir dedans pour jouer quasiment qu’aux titres Nintendo.
Tarata le fait depuis perpète, personne n’en parle.
Google le fait depuis 30 secondes, et c’est la révolution.
On ne sent pas du tout cette attitude de mouton servile, nooon.
Bon, et comme d’hab, google n’invente rien, ils ne font que copier (voler?) les autres, encore et toujours.
Ce mauvais troll " />
Ce n’est pas parce que quelque chose existe déjà que son implémentation est du “vol”.
S’ils permettent aux utilisateurs de créer leurs propres vidéos multipiste, ça sera, à ma connaissances les premiers. Ça permettra également de démocratiser la chose : on peut comparer le nombre de personnes potentiellement touchées entre youtube et taratata : c’est peut être pour ça qu’on en parle :°)
Quand je parle d’harmonisation, c’est surtout pour éviter les trop grand écarts comme c’est le cas actuellement, pas mettre tout le monde à la même enseigne. Jouer de quelques % sur les impôts ce n’est pas un problème en soit (ça peut être un facteur pour attirer des entreprises, mais tout ne se joue pas là dessus), mais là les disparités sont trop grandes. Même aux USA tu n’a pas de tels écarts, à ma connaissance (restreinte sur le sujet je l’avoue)
D’ailleurs les USA laissent une liberté aux états pour fixer leur fiscalité, mais il y a la fiscalité fédérale aussi.
3585 commentaires
Blizzard s’explique sur le lancement cauchemardesque de Diablo III
06/03/2015
Le 06/03/2015 à 14h 57
Le 06/03/2015 à 14h 49
Blizzard victime de son succès. Je comprend mieux pourquoi les accès à Heroes of the Storm arivent au compte goutte : ils cassent déjà les scores avec un jeu payant, alors avec un f2p…
Humble Bundle broie du noir avec 7 jeux monochromatiques
06/03/2015
Le 06/03/2015 à 12h 12
Les nouvelles Radeon d’AMD pourraient n’être lancées qu’au Computex
06/03/2015
Le 06/03/2015 à 10h 30
Le 06/03/2015 à 09h 07
accompagnées d’autres modèles de génération actuelle à la dénomination modifiée pour l’occasion
Faut vraiment arrêter ces pratiques… " />
GeForce GTX Titan X : 8 milliards de transistors, 12 Go de mémoire
05/03/2015
Le 05/03/2015 à 19h 45
Le 05/03/2015 à 13h 14
Le 05/03/2015 à 09h 56
Le 05/03/2015 à 09h 36
La France sommée de mettre fin à la TVA réduite sur les ebooks
05/03/2015
Le 05/03/2015 à 11h 59
Une mauvaise nouvelle pour certains sera une bonne pour d’autre : les librairies devraient se réjouir de la décision.
Enfin ce que je retiens de l’article : il va falloir se dépêcher de prendre/prolonger l’abonnement à NXi avant que l’abonnement n’augmente " />
Source 2, Unity 5 : Valve et Unity3D dégainent leurs moteurs
05/03/2015
Le 05/03/2015 à 09h 11
Half-Life 2, dont la suite reste à ce jour la plus belle arlésienne vidéoludique.
T’oublie un peu vite Duke Nukem Forever.
MGS V arrivera en septembre avec une version PC à 70 euros
04/03/2015
Le 04/03/2015 à 16h 20
Boarf pour le dernier MGS réalisé par Kojima, on peut bien mettre quelques € de plus, non? " /> " />
Les smartphones 4G Honor 6 + et Honor 4X arrivent en France
04/03/2015
Le 04/03/2015 à 15h 01
Honor! /GoT
ANFR : Free Mobile et Orange en tête des déploiements 4G pour le mois de février
04/03/2015
Le 04/03/2015 à 13h 48
AAAAAAAAAAAAAH UN SCRIPT QUI PARLE!
Le 04/03/2015 à 13h 19
C’est Sébastien le script! " />
Sony fait évoluer Project Morpheus pour le lancer en 2016
04/03/2015
Le 04/03/2015 à 13h 48
Valve annonce de nouvelles Steam Machines pour novembre
04/03/2015
Le 04/03/2015 à 11h 41
Pour ce prix, on aura le droit à un « processeur AMD quadricœur », dont le modèle exact n’a pas été précisé, ainsi qu’une « carte graphique GeForce GTX
», sans plus de détails. Difficile de dire si l’ensemble sera bel et
bien plus performant qu’une console de salon de dernière génération.
Le modèle supérieur, annoncé pour 100 dollars de plus, dispose quant à
lui d’un processeur Pentium G3258 accompagné d’une Radeon R9 270X.
La configuration à +100$ sembledéjà un minimum pour jouer (1080p@30fps+ j’entends), et en se passant de filtre gourmands (tel que MSAA 8x).
En dessous ça nous laisse quoi?
En quad-core AMD il y a le FX4300 et ses coupaings, les APU basé sur Kaveri : mais ils ne sont pas vraiment meilleurs marché que le Pentium. Donc je vois bien arriver le coup de l’APU basse conso (“Beema”) qui est loin d’être un foudre de guerre (c’est une architecture similaire qui équipe les PS4/.X1)
Lenovo veut « devenir le leader des PC plus propres et plus sûrs »
02/03/2015
Le 02/03/2015 à 16h 01
Ton modèle n’était peut être pas encore incriminé par une whitelist ;)
Et cette même liste peut être mise à jour au bon gré du fabricant " />
Bref ça ne change rien au fait que certains portables Lenovo et HP sont actuellement équipé de BIOS à whitelist et que c’est le genre de pratique qui mérite un travail au fer rouge ! " />
Le 02/03/2015 à 13h 44
Non non, il s’agit bien de BIOS avec whitelist qui autorise certains composant autorisé. Le problème est également présent avec des cartes wifi. Google si tu veux t’en convaincre ;)
Le 02/03/2015 à 12h 12
Il faut que le matériel soit autorisé par le BIOS. C’est au petit bonheur-la-chance, selon le bon vouloir de Lenovo.
Le mieux étant de se renseigner sur le net avant d’envisager une upgrade, il y a des forums qui en parlent (j’ai pas l’adresse sous la main, mais au besoin je peux retrouver).
Il me semble qu’il existe aussi des BIOS modifiés, mais c’est plus risqué.
Le 02/03/2015 à 11h 51
Pour les portables bureautique, les meilleures affaires sont du côté des gammes pro, IMO.
A l’époque (2012) chez Dell, la série Latitude offraient un écran mat, un disque dur 7200tr/m de base et pas de GPU mobile (uniquement un IGP), le tout pour moins de 600€. Sans oubleir l’option clavier rétro-éclairé, parfois très pratique en usage mobile (la machine était destinée à des néophytes ne connaissant pas leur clavier par cœur).
Sinon à utiliser, j’aime bien les thinkpad (mis à part la disposition de la touche ctrl qui demande un petit temps d’adaptation). Par contre, Lenovo et HP utilisent un BIOS à base de whitelist, qui empêche de changer librement les composants : les SSD Crucial ne sont pas compatibles sur certains modèles Lenovo par exemple " />
VLC 2.2 enfin disponible, des mises à jour pour toutes les plateformes
27/02/2015
Le 27/02/2015 à 17h 19
Du beau boulot! Longue vie au cône " />
Atom x3, x5 et x7 : Intel organise et segmente son offre mobile
26/02/2015
Le 26/02/2015 à 13h 06
La densité calorifique, c’est un autre problème. Comme tu le soulignes les palliatifs existent : plus de cache et/ou plus de cores et/ou revenir à la soudure du heatspreader sur le die… Quitte à investir dans un CPU, autant avoir de la performance là où j’en veux plutôt que dans un mauvais compromis.
De plus, sur broadwell, entre l’iGP ‘de base’ et l’iris pro, c’est plus de 30% de surface en plus…pour des performances graphiques certes meilleures pour l’iris, mais toujours insuffisante pour faire plus qu’avec l’IGP de base.
Et je ne comprends pas ta dernière phrase. Si j’investis dans un GPU, quel qu’il soit c’est bien pour le jeu (voire du GPGPU). Si c’est pour afficher mon bureau et mon film, un bon vieux GMA le fait depuis des années, pas la peine de multiplier les “EU” pour ça. C’est en suivant cette logique que pour le mobile , je privilégie généralement les machines qui font l’impasse sur une GTX830M et se contente de l’IGP, qui ne me permettra pas de jouer dans des conditions décentes de toute manière.
Le 26/02/2015 à 10h 32
Le 26/02/2015 à 09h 35
Clairement l’organisation gamme intel c’est la daube sur l’entrée de gamme/mobile.
L’article résume bien les pièges :
+ Une arrivée de micro-architecture très chaotique : Broadwell uniquement sur les CPU mobiles, cohabitation avec Braswell sur la gamme bureautique…
Bref, je sens que la section “conseil d’achat” du forum NXi va avoir du taf
Ah et si vous avez un doute, voici une liste de benchmarks des processeur mobiles très complètes, pour vous donner une idée de grandeur des performances. Après sur le monde mobile c’est difficile de comparer précisément 2 composants, tant la mise en œuvre peut influer sur le résultat (capacité de refroidissement, qualité de la RAM etc…)
Justement, le problème c’est que des core i5 mobiles peuvent être plus rapides (à tout point de vue) que des i7 mobiles :/
Très haut débit : la mission Champsaur propose une extinction progressive du réseau cuivre
25/02/2015
Le 25/02/2015 à 15h 55
Bouygues Telecom dévoile son nouveau logo
25/02/2015
Le 25/02/2015 à 13h 35
Le 25/02/2015 à 10h 50
Le 25/02/2015 à 10h 47
J’aime bien aussi, et je me posais la même question pour le prix " />
Par contre, la police utilisée pour “bouygues” ressemble un peu trop au comic sans " />
Droit d’auteur : l’Europe veut s’attaquer au geoblocking
23/02/2015
Le 23/02/2015 à 16h 31
“Oh sorry, I though it was the World Wide Web.”
SSD Samsung 840 EVO : encore des chutes de débits, nouveau correctif en mars
23/02/2015
Le 23/02/2015 à 09h 29
Comment une erreur peut tuer une réputation!
Si ce bug est préjudiciable, il n’en reste pas moins que
les débits bruts ne sont pas forcement ce qui iNpacte le plus les
performances sur un disque système.
Windows 10 : un concept apprécié des internautes et noté par Microsoft
20/02/2015
Le 23/02/2015 à 08h 20
Merci bien! " />
Le 20/02/2015 à 15h 51
Les fond d’écrans par défaut sont rarement dégueu : la plupart du temps c’est un beau paysage, et depuis vista les images utilisent du HDR/tone mapping pour avoir un rendu “percutant”. Il est loin le temps de “colline verdoyante” ;)
Pour ma part, les icones du bural c’est une colonne en 1920x1200, pas plus. Et je ne les utilise quasiment jamais, car les fenêtre des appli recouvrent tout le reste. J’utilise plus volontiers les icones programme dans la barre des tâches. Mais là chacun à sa manière de faire, effectivement.
Enfin, je ne suis pas graphiste, mais je ne vois pas ce qui empêche de créer un bandeau avec le style modern UI (je ne sais plus comment s’appelle ce style graphique “plat”).
Tu as raison de souligner que ce n’est qu’un concept et qu’il y a des défaut, mais il faut bien avouer que ça en jette et qu’il y a de bonnes idées " />
Samsung devra payer 15,7 millions de dollars à un patent troll
19/02/2015
Le 19/02/2015 à 15h 32
Le 19/02/2015 à 11h 50
XG270HU : Acer ajoute la compatibilité FreeSync à son écran pour joueurs
18/02/2015
Le 18/02/2015 à 17h 02
Le 18/02/2015 à 15h 19
Non, fhd = full HD = 1920x1080 (je parle de l’exemple de js082 hein, pas de l’article)
Le 18/02/2015 à 13h 12
Ouai mais il faut comparer ce qui est comparable : à 170€, m’étonnerait que tu aie du 144Hz et du freesync déjà (même si le freesync est censé être moins cher que Gsync, il doit bien y avoir un surcoût et les fabricant d’écrans en profiteront surement pour organiser leurs gammes).
Et puis 1080p quoi…(surtout sur un 27”).
Nintendo croit en la Wii U, mais pas dans le mobile
16/02/2015
Le 16/02/2015 à 09h 17
Zynga : 250 millions de pertes et 71 licenciements
13/02/2015
Le 13/02/2015 à 14h 24
Stahp!! " />
Puis bon, stop la diffamation aussi, je suis sûr que si tu lui en donne les moyens, Mattrick casse la baraque!
Le 13/02/2015 à 14h 09
Le plus dur avec Mattrick, c’est de garder son sérieux ;)
Le 13/02/2015 à 14h 07
Le 13/02/2015 à 14h 05
Il y a des ces journées qui commenent mal et qui ont tout pour être merdique…et là, un évènement à priori insignifiant vient te l’illuminer \o/
Mattrick a décidé de taper dans les effectifs
J’avais réussi à garder mon calme en m’étranglant avec mon écharge et en me mordant les lèvres jusqu’à lire ça…
Ubisoft a augmenté son CA de 55 % au troisième trimestre
13/02/2015
Le 13/02/2015 à 09h 26
T’oublies Uplay, qui est la plateforme dématérialisée la plus aboutie à ce jour " />
Le 13/02/2015 à 09h 18
Cinquante nuances de Creed
" />
Peut mieux faire. Kevin a de capacité, mais n’exploite pas tout son potentiel. Efforts attendus au prochain trimestre.
Expérimentations YouTube : angles de vue multiples et Radio
12/02/2015
Le 13/02/2015 à 09h 14
NVIDIA termine son année avec un bénéfice en hausse de 43 %
12/02/2015
Le 12/02/2015 à 10h 54
En fait pour les fabricants de GPU, leur couleur correspond à celle du solde du compte en banque :x
Sinon, Profits are Max & well " />
MongoDB : des BDD librement accessibles, dont celle d’un opérateur français
11/02/2015
Le 11/02/2015 à 12h 06
Oh-Oh, alerte Mongo! Alerte au Mongo les enfants!
Valve serre la vis sur les échanges de clés contre des votes sur Greenlight
11/02/2015
Le 11/02/2015 à 09h 49
Serge Dassault désapprouve
T’as tellement pas d’âme que t’aurais fait un bon politicien " />
Fleur Pellerin propose (encore) de taxer la bande passante
11/02/2015
Le 11/02/2015 à 09h 30
Quand je parle d’harmonisation, c’est surtout pour éviter les trop grand écarts comme c’est le cas actuellement, pas mettre tout le monde à la même enseigne. Jouer de quelques % sur les impôts ce n’est pas un problème en soit (ça peut être un facteur pour attirer des entreprises, mais tout ne se joue pas là dessus), mais là les disparités sont trop grandes. Même aux USA tu n’a pas de tels écarts, à ma connaissance (restreinte sur le sujet je l’avoue)
D’ailleurs les USA laissent une liberté aux états pour fixer leur fiscalité, mais il y a la fiscalité fédérale aussi.