votre avatar

Charly32

est avec nous depuis le 28 août 2009 ❤️

3585 commentaires

Le 06/03/2015 à 14h 57







Athropos a écrit :



Moi j’ai peut-être un souvenir déformé de D2 mais il me semble que les uniques de D2 avaient plus de caractéristiques spéciales que les légendaires de D3. Dans D2 un unique qui droppait c’était toujours sympa, alors que dans D3 99% du temps ça se résume à « Combien de force ? Ok c’est nul poubelle » (remplacer force par int/dex/… selon la classe du perso).





Oula ça dépend vraiment de l’objet! Par exemple pour un DH :





  • Sur anneau/Amulette, tu va surtout rechercher Dexterité/Chances de Coups Critique/Dégats CC/Chasse 

  • Sur les Epaulettes, tu vas chercher Dext/Vita/ All resistance/Armure/Réduction du coût en ressource/Réduction des cooldown



    etc…



    Et certains build ont des spécificités , nécessitant absolument une stat que tu ne trouve pas sur toutes les pièces. :)


Le 06/03/2015 à 14h 49

Blizzard victime de son succès. Je comprend mieux pourquoi les accès à Heroes of the Storm arivent au compte goutte : ils cassent déjà les scores avec un jeu payant, alors avec un f2p…

 







Neeko a écrit :



J’aime pas trop la critique du manque de diversité des archétypes. Quel pourcentage de joueurs jouent vraiment “au sommet des classements”. Très peu. Au final, pour faire rien que tu Tourment VI, il y a assez de builds valables à partir du moment où on a un équipement décent (et là encore, pas forcément full set ultime).





Assez d’accord, il y a moyen de faire de builds “fun” qui passent même en T6. Après pour faire de la faille sup’, ça devient tendu dès que tu tapes dans les lvl >35 (sûrement plus maintenant, avec les objets anciens) .

Sur la Vanilla, je jouai le sorcier en Sleet Storm, bien moins cher à stuffer qu’un permarchonte ou un permagel

et tellement jouissif!

 





Reznor26 a écrit :



« Les commerciaux avaient estimé que l’on pourrait vendre 6,666 millions d’unités lors de la première année…  »  



En même temps si les commerciaux basent leurs prévisions sur des blagues... :transpi:







J’ai pensé la même <img data-src=" />


Le 06/03/2015 à 12h 12







Ellierys a écrit :



Y’en a plusieurs des raisons <img data-src=" />



La première c’est une question de temps […]





Et les autres raisons, c’est quoi? <img data-src=" />


Le 06/03/2015 à 10h 30







night57200 a écrit :



De toute manière, pour l’entrée et le milieu de gamme, si on dispose d’une ancienne puce qui fait très bien le boulot sans être trop bloquante niveau foncitonnalités, pourquoi ne pas réutiliser cette puce? Ça peut être INtéressant pour tout le monde, suivant la manière dont c’est fait.

Au fond, ce qui compte, c’est la compatibilité, les performances, (la consommation, ) et le prix.





&nbsp;On ne parle pas de la jeter une puce au bout d’un an, mais pas de te le vendre “comme du neuf” pour les consommateurs non avertis.

Oui une R9 280X est encore dans la course pour le jeu en full HD, mais ça reste une HD 7970. Sans compter les fois où le prix est plus “neuf” que “ancien”.





Strimy a écrit :



C’est pas comme si ça faisait 3 ans qu’il n’y avait eu aucune (vraie) nouveauté sur l’archi des GPU AMD (HD7000 début 2012). Quelques mois de plus ou de moins…





C’est les mois qui font mal…comme tu le dis, il n’y a pas eu de gros bouleversement depuis 2012 (surtout sur le milieu de gamme, car il y a eu Tahiti sur le haut de gamme pour AMD), sauf Maxwell chez nVidia…qui a séduit de nombreuses personnes qui attendaient un “gap” de performances suffisant pour renouveler leur CG.


Le 06/03/2015 à 09h 07

&nbsp;&nbsp;

accompagnées d’autres modèles de génération actuelle à la dénomination modifiée pour l’occasion



Faut vraiment arrêter ces pratiques… <img data-src=" />



&nbsp;





Entoni_ a écrit :



Ils ont intérêt de sortir quelque chose d’intéressant si ils veulent pas définitivement se faire bouffer par Nvidia, sur le marché PC.





Continuer avec des produits de la veine des HD 5xxx, 6xxx et 7xxx en somme :p


Le 05/03/2015 à 19h 45







Enyths a écrit :



Juste une petite précision, ce n’est pas vraiment la 3D qui a amené le GPU mais le besoin croissant en calcul des nombres flottants. Mais effectivement les jeux font partie de ces grands demandeurs, tout comme le traitement photo/vidéo, etc…

Un CPU (32 ou 64 bits) a une bonne puissance de calcul mais c’est surtout taillé pour les entiers et perd en efficacité avec les flottants.



Après, l’autre atout du GPU c’est sa capacité de paralléliser les&nbsp; traitements qui commence à être sérieusement utilisée (OpenCL & co).





Dans les ordinateurs grand public, c’est bien sa fonction principale, les autres calculs étant réalisable par un CPU x86 :)

Je veux dire, aucun jeu 3D ne peut se lancer sans un co-processeur dédié aux calculs 3D. Alors qu’un film est encodable avec un CPU x86 par exemple.

Par contre, à l’époque où je tenais pas encore debout, les CPU pour PC ne comprenaient pas de base (parfois en option, comme avec le 486) de FPU

&nbsp;





yvan a écrit :



Il n’était pas né il y a bien longtemps déjà?

De mémoire les amigas avaient déjà ces deux puces de traitement séparés, du moto 68XXX comme cpu et denise/superdenise (eh oui&nbsp; <img data-src=" />) pour la vidéo et ceci dès l’amiga 1000 en 1985.&nbsp;&nbsp; <img data-src=" />

&nbsp;





Techniquement parlant, les co-processeur graphique existaient bien avant le PC, oui.

Par exemple, la cartouche SNES Starwing intégrait un co-processeur pour aider la console à calculer la 3D :)

Par contre, arrête moi si je me trompe, sur l’Amiga ça ne concernait que de

l’affichage 2D (nombre de couleurs, définition…) et pas de calculs 3D.


Le 05/03/2015 à 13h 14







Bball a écrit :



Petite question pour les gens calés sur le sujet. Quel est la différence entre un CPU et un GPU?

Je précise, quand je vois les commentaires, j’ai l’impression que les GPU sont des monstres de calculs capable d’engloutir des milliards d’infos et de régurgiter des résultats qui permettront de connaitre la météo dans 5 mois. Mais que font les CPU alors? Pourquoi les CPU semblent stagner alors que les GPU semblent ne pas avoir de limite de puissance?





Des gens ont déjà répondu, j’apporte ma petite contribution :

Dans un PC, il n’y n’existait à la base que le “CPU”, d’architecture intel x86.&nbsp; Cette architecture est conçue pour pouvoir traiter une grande diversité de calcul, mais pas spécialement de manière optimale.



Puis dans les années 90, les jeux en 3D ont commencé à apparaitre, très gourmand en calculs. Le CPU ne suffisait plus. C’est comme ça que sont apparu les “co-processeurs” graphiques, via des “cartes accélératrice3D” : leur but était de soulager le processeur des calculs de la 3D de l’image (calculer un cube en rotation, par exemple). Le GPU était né :)



Plus tard, dans les années 2000, on s’est rendu compte que le GPU, créé spécialement pour du calcul d’image 3D, pouvait servir à d’autres tâches de manière plus efficace qu’un CPU, comme l’encodage d’un film par exemple. Le GPGPU est alors arrivé (General Purpose GPU : usage général du GPU). La première carte grand public à gérer le GPUGPU était la 8800GTX de nVidia.



En résumé :

GPU =&gt; processeur spécialisé pour quelques tâches données

CPU =&gt; processeur général apte à traiter toutes sortes de calculs



Il existe d’autres type de processeurs spécialisé pour des tâches bien précise :

Les DSP : processeurs dédiés au traitement du signal (en audio par exemple) o

les FPGA ou encore les ASICS : ils offrent un rapport puissance/énergie imbattable, mais ne peuvent pas servir à d’autres tâches que pour lesquels ils ont été programmés. Si l’algo change, il faut changer le processeur.

&nbsp;


Le 05/03/2015 à 09h 56







Vekin a écrit :



Déjà, merci pour toutes les informations <img data-src=" />






   Concernant ce point, je parlais plus des Quadro que des Titan. Désolé si je n'ai pas été assez clair.         






   Je suis d'accord avec toi sur l'utilité de ces cartes pour des pros, mais je ne pense pas non plus que tous les logiciels pros arrivent à les exploiter comme elles se doivent. Dans ce cas précis, ce serait un achat inutile.








  De rien, c'est pas évident de s'y retrouver et les marques entretiennent volontairement le flou.&nbsp; Les Quadro sont clairement des cartes médiocres pour le jeu, vu qu'elles ne sont simplement pas faites/vendues pour ça.         

Même si, matériellement, je pense que rien n'empêcherai de créer une carte mixte, ou du moins avec un meilleur compromis, mais les équipes marketing ne l'entendent pas de cette oreille (ça peut se comprendre) (à une époque, des bidouilles sur les pilotes existaient pour "transformer" une GeForce en Quadro, mais ça a été rendu impossible de nos jours).






  Quant à choisir sont matos en adéquation avec son besoin...si les équipes des achats font bien leur boulot, tout va bien :transpi:  



&nbsp;

Et dans le domaine du calcul intensif, c’est plus forcement une suite logicielle, mais directement du code optimisé pour l’architecture que tu exécute ;)




  &nbsp;





Zorglob a écrit :










   L'usage pro, c'est aussi plutôt spécifique comme emploi, ce n'est pas connu de tout le monde ;)   

Merci pour le partage de l'exemple concret :yes:

Le 05/03/2015 à 09h 36







Vekin a écrit :



Quelqu’un sait si ça vous quelque chose en jeu ou si c’est juste pour du traitement lourd ?





&nbsp;&nbsp;Les deux. Il s’agit d’une carte grand public (donc dédiée sutout aux JV), mais apte à traiter des calculs GPGPU lourds





Vekin a écrit :



Oui, un peu comme la Quattro qui coûte un bras, mais qui arrive à se faire battre par son équivalent grand public (quatre fois moins cher) <img data-src=" />




 Tout ça sous prétexte d'avoir des pilotes "optimisés" et deux-trois autres détails :fumer:  

Bon sinon je vais couper la poire en deux : je mise sur un prix de 2500€ !







Ce n’est pas du tout la même cible, le même usage. Les GPU grand public sont orientés jeux vidéo, les gammes “pro” calcul scientifique. C’est pour cela que nVidia réserve le calcul en double précision pour la gamme pro.

Et les “2,3 optimisations” des pilotes, ça coute du temps et de l’argent, et peut faire une grosse différence dans les applications! Et je passe sur le support qui se doit d’être au niveau d’entreprises (i.e c’est pas M Mme Michu qui plante quand elle lance démineur, mais plutôt des ingénieurs…)

&nbsp;





Winderly a écrit :



12 Go de mémoire ! <img data-src=" />

J’ai seulement 4 Go en barrettes, je suis vraiment à la ramasse.

J’imagine qu’il faut un boîtier plutôt spacieux pour cette super carte ?





12Go, c’est clairement parce que nVidia la vend comme uen carte “semi-pro”, où les calculs peuvent être très gourmands en RAM. Pour de l’application grand public, c’est clairement sur-dimensionné. Pour info, en mono-GPU et en 1920x1080, 3Go te permettent de faire face à tous les cas de figure, 2Go à une grande majorité.

Concernant le volume, elle ne fera pas 17cm de long, mais pas non plus 50cm. Niveau dégagement calorifique, c’est un gros GPU, mais c’est aussi le point fort de Maxwell, donc je pense qu’elel peut être intégrée dans un boitier moyenne tour comme le Fractal Design&nbsp; Arc Midi dans devenir un grill ni faire un bruit d’hélicoptère.



&nbsp;





nlougne a écrit :



Non! Il y a une marque dédié pour ça



Oui et non, nVidia ne se cache pas de proposer ce produit aux entreprises qui ont des besoins de calculs GPGPU, sans pour autant nécessiter de faire appel aux gammes Quadro. Si tu es prêt à faire quelques sacrifices (pilotes, double précision…), la gammeTitan peut t’offrir une puissance e calcul pour un coût modéré (tout est relatif).





Vekin a écrit :



En 4K, peut-être. Sinon, je ne pense pas que ça serve à quelque chose, surtout d’un point de vue performances/prix !



Je pense qu’un SLI de GTX 980 sera bien plus efficace et moins cher pour jouer. Il faudrait que je trouve des tests comparant les Titan avec les cartes grand public pour me faire une idée précise.





Plus tu montes en haut en gamme, moins le rapport performance/prix est bon. Clairement nVidia propose avec ce produit une vitrine technologique à ceux qui sont prêt à mettre le prix.







Vekin a écrit :



Oui, mais qu’a-t-elle de si incroyable qui justifie un prix si “pro” justement ? Parce que sur le papier, c’est une carte graphique gamer médiocre.





Avoir un GPU de 8Md de transistors fonctionnels implique un tri drastique. Si tu veux le sommet de la pyramide, le top du top, il faut allonger la maille.

Et dire que la carte est “médiocre” d’un point de vue des performances, c’est un peu abusé puisqu’il s’agira certainement du GPU le plus rapide sur le marché.

&nbsp;





Zyami a écrit :



Ca n’a rien à voir et ce n’est pas fait pour les jeux, tu dois avoir

environ 1000 sinon plus unités de calculs sur ce genre de matos pro.



Ca sert quasi uniquement à faire du calcul procédural à grande échelle

(simulation de collision avec plusieurs millions de particules,

simulation de mélange de 2 liquides par exemples).





Attention, d’un point physique, les GPU pro et grand public sont très similaires, même si les fondeurs évitent de le dire tout fort. La grosse différence se fait sur la partie logicielle.


Le 05/03/2015 à 11h 59

Une mauvaise nouvelle pour certains sera une bonne pour d’autre : les librairies devraient se réjouir de la décision.



Enfin ce que je retiens de l’article : il va falloir se dépêcher de prendre/prolonger l’abonnement à NXi avant que l’abonnement n’augmente <img data-src=" />

Le 05/03/2015 à 09h 11



Half-Life 2, dont la suite reste&nbsp;à ce jour la plus belle arlésienne vidéoludique.





T’oublie un peu vite Duke Nukem Forever.

Le 04/03/2015 à 16h 20

Boarf pour le dernier MGS réalisé par Kojima, on peut bien mettre quelques € de plus, non? <img data-src=" />&nbsp; <img data-src=" />

Le 04/03/2015 à 15h 01

Honor! /GoT

Le 04/03/2015 à 13h 48

AAAAAAAAAAAAAH UN SCRIPT QUI PARLE!

Le 04/03/2015 à 13h 19

C’est Sébastien le script! <img data-src=" />

Le 04/03/2015 à 13h 48







Bejarid a écrit :



Quel est le cout en calcul de ce genre de technique ? Car la PS4 a un matos très limité, faut pas l’oublier…



Ben aucun…si la PS4 fourni les images suivantes toutes les 0.017s (soit 60 fps) :

[A B C D E]

Et si le casque rafraichit son écran toutes les 0.083s (soit 120Hz), il affichera

[A A B B C C D D E E]



Le tout étant que les capteurs arrivent à donner l’évolution de la tête suffisamment rapidement pour qu’elle soit prise en compte entre l’image A et l’image B, l’image B et l’image C etc.







THM077 a écrit :



Donc en gros ça va être hors de prix mais limité techniquement quand même !! <img data-src=" />

Sony make believe <img data-src=" />





Tout est “limité techniquement”, peu importe le prix que tu met. ;)

Le tout est de sortir un produit offrant un compromis acceptable.


Le 04/03/2015 à 11h 41



Pour ce prix, on aura le droit à un&nbsp;« processeur AMD quadricœur », dont le modèle exact n’a pas été précisé, ainsi qu’une&nbsp;« carte graphique GeForce GTX

», sans plus de détails. Difficile de dire si l’ensemble sera bel et

bien plus performant qu’une console de salon de dernière génération.&nbsp;

Le modèle supérieur, annoncé pour 100 dollars de plus, dispose quant à

lui d’un processeur Pentium G3258 accompagné d’une Radeon R9 270X.





La configuration à +100$ sembledéjà un minimum pour jouer (1080p@30fps+ j’entends), et en se passant de filtre gourmands (tel que MSAA 8x).



En dessous ça nous laisse quoi?

En quad-core AMD il y a le FX4300 et ses coupaings, les APU basé sur Kaveri&nbsp; : mais&nbsp; ils ne sont pas vraiment meilleurs marché que le Pentium. Donc je vois bien arriver le coup de l’APU basse conso (“Beema”) qui est loin d’être un foudre de guerre&nbsp; (c’est une architecture similaire qui équipe les PS4/.X1)



&nbsp;

Le 02/03/2015 à 16h 01

Ton modèle n’était peut être pas encore incriminé par une whitelist ;)

Et cette même liste peut être mise à jour au bon gré du fabricant <img data-src=" />

Bref ça ne change rien au fait que certains portables Lenovo et HP sont actuellement équipé de BIOS à whitelist et que c’est le genre de pratique qui mérite un travail au fer rouge ! <img data-src=" />

Le 02/03/2015 à 13h 44

Non non, il s’agit bien de BIOS avec whitelist qui autorise certains composant autorisé. Le problème est également présent avec des cartes wifi.&nbsp; Google si tu veux t’en convaincre ;)

Le 02/03/2015 à 12h 12

Il faut que le matériel soit autorisé par le BIOS. C’est au petit bonheur-la-chance, selon le bon vouloir de Lenovo.

Le mieux étant de se renseigner sur le net avant d’envisager une upgrade, il y a des forums qui en parlent (j’ai pas l’adresse sous la main, mais au besoin je peux retrouver).



Il me semble qu’il existe aussi des BIOS modifiés, mais c’est plus risqué.

Le 02/03/2015 à 11h 51

Pour les portables bureautique, les meilleures affaires sont du côté des gammes pro, IMO.

A l’époque (2012) chez Dell, la série Latitude offraient un écran mat, un disque&nbsp; dur 7200tr/m de base et pas de GPU mobile (uniquement un IGP), le tout pour moins de 600€. Sans oubleir l’option clavier rétro-éclairé, parfois très pratique en usage mobile (la machine était destinée à des néophytes ne connaissant pas leur clavier par cœur).



Sinon à utiliser, j’aime bien les thinkpad (mis à part la disposition de la touche ctrl qui demande un petit temps d’adaptation). Par contre, Lenovo et HP utilisent un BIOS à base de whitelist, qui empêche de changer librement les composants : les SSD Crucial ne sont pas compatibles sur certains modèles Lenovo par exemple <img data-src=" />

&nbsp;

Le 27/02/2015 à 17h 19

Du beau boulot! Longue vie au cône <img data-src=" />

Le 26/02/2015 à 13h 06

La densité calorifique, c’est un autre problème.&nbsp; Comme tu le soulignes les palliatifs existent : plus de cache et/ou plus de cores et/ou revenir à la soudure du heatspreader sur le die… Quitte à investir dans un CPU, autant avoir de la performance là où j’en veux plutôt que dans un mauvais compromis.

De plus, sur broadwell, entre l’iGP ‘de base’ et l’iris pro, c’est plus de 30% de surface en plus…pour des performances graphiques certes meilleures pour l’iris, mais toujours insuffisante pour faire plus qu’avec l’IGP de base.

&nbsp;

Et je ne comprends pas ta dernière phrase. Si j’investis dans un GPU, quel qu’il soit c’est bien pour le jeu (voire du GPGPU). Si c’est pour afficher mon bureau et mon film, un bon vieux GMA le fait depuis des années, pas la peine de multiplier les “EU” pour ça. C’est en suivant cette logique que pour le mobile , je privilégie généralement les machines qui font l’impasse sur une GTX830M et se contente de l’IGP, qui ne me permettra pas de jouer dans des conditions décentes de toute manière.

Le 26/02/2015 à 10h 32







sdevilcry a écrit :



[…]





&nbsp;Surtout que je ne sais pas pour la surface, mais souvent les 300MHz supplémentaires sont facturés aux prix fort.

Alors que pour un usage tablette/bureautique, c’est 300MHz n’apportent rien à l’utilisateur

&nbsp;





k43l a écrit :



Oui mais seulement si on compare deux style d’ordinateur qui n’ont rien à voir.

Si on recherche un ordinateur avec de l’autonomie tout en étant puissant et qu’on compare un i5M d’un i7U on part dans le mur.

Le i5 sera certes plus puissant mais son autonomie nulle comparer au i7u.



Oui mais tu es un iNpactien averti. <img data-src=" />

Imagine le pauvre Michu qui va chercher son matériel dans une grande enseigne “spécialisée” et qui compte uniquement sur le vendeur pour le guider…

Bref si Intel voulait être franc, il séparerait clairement les processeurs mobiles qui favorisent les performances de calculs et ceux qui favorisent les performances énergétiques (d’ailleurs si tu fais gaffe, j’ai bien précisé “performances de calcul” dans mon post précédent, pour séparer des perfo énergétiques). Mais on préfère plutôt sortir une reférence flatteuse pour donner le&nbsp; “kikitoutdur” au consommateur plutôt que de lui expliquer qu’il faut faire des compromis, et que c’est à lui de choisir.



&nbsp;





kypd a écrit :



&nbsp;

Quand NXI se remettra à faire de vrais tests matériels ce genre de commentaire sera acceptable !



&nbsp;Les iGPU Intel affichent en effet des performances qui sont impressionantes pour des iGPU, avec systématiquement les plus grosses références proposés sur les gammes mobiles même sur l’entrée de gamme (i3)



A coté AMD brille pour ses APU qui embarquent des iGPU très performants sur leur haut de gamme ou leur Flagship, mais on ne peu pas en dire autant sur les références d’entrées de Gamme ou même les SoC (qui doivent être massivement intégrés dans les portables premiers prix au contraire des Flagships)



Beaucoup de joueurs se suffisent des iGPU pour les jeux moins gourmand dans le genre de League of Legend, World of Warcraft, Counter Strike etc… (Sans même parler de toute l’offre de jeux plus “casual”)





C’est vrai que les iGPU sont tellement bons qu’ils arrivent presque à atteindre les performances d’une PS4 ou d’une XB1 <img data-src=" />



&nbsp;La liste des jeux que tu cite sont très orientés eSport (où les devs privilégient la fluidité/réactivité à la qualité graphique) et/ou âgés.

Ce n’est pas le cas de jeux plus “casu” comme Far Cry, Bioshock 3….

J’ai même benché Heroes of the Storm avec l’iGP d’un 4670K ( alors certes l’iGP d’un laptop est plus gros) en 1920x1080, hé ben fallait tomber quasiment tous les réglages au mini pour arriver à une fluidité correcte (&gt; 30 fps).

Donc non, on ne peut parler de “performances graphiques impressionnantes” dans le sens où, une carte milieu de gamme comme la GTX750&nbsp; fait beaucoup mieux pour moins de 100€.

Si intel pouvait arrêter de perdre une surface conséquente de silicium pour graver l’iGP et consentir une réduction sur les CPU desktop, ça m’arrangerai.

&nbsp;

En revanche sur Laptop, c’est pas déconnant comme approche, car ça reste un bon palliatif. Et puis les GPU dédiés pour laptop ne sont pas spécialement plus reluisants, à moins de taper dans une haut de gamme, au détriment de l’autonomie.


Le 26/02/2015 à 09h 35

Clairement l’organisation gamme intel c’est la daube sur l’entrée de gamme/mobile.

L’article résume bien les pièges :




  • une gamme mobile qui abuse des suffixes&nbsp; (entre un i5-4200U et un i5-4200M, grosse différence de performances de calcul alors que le nom suggère des produits proches)

  • Des noms commerciaux (Pentium et Celeron) qui regroupe diverses architectures visant deux cibles différentes

    +&nbsp; Une arrivée de micro-architecture très chaotique : Broadwell uniquement sur les CPU mobiles, cohabitation avec Braswell sur la gamme bureautique…



    Bref, je sens que la section “conseil d’achat” du forum NXi va avoir du taf :harou:



    Ah et si vous avez un doute, voici une liste de benchmarks des processeur mobiles très complètes, pour vous donner une idée de grandeur des performances. Après sur le monde mobile c’est difficile de comparer précisément 2 composants, tant la mise en œuvre peut influer sur le résultat (capacité de refroidissement, qualité de la RAM etc…)








    k43l a écrit :

    Après je dirai rien sur la différence Core i5 - i7 sur ordinateur
    mobile. Pour moi ça me permet de voir dans un premier temps lequel est
    plus puissant.




    &nbsp;

    Justement, le problème c’est que des core i5 mobiles peuvent être plus rapides (à tout point de vue) que des i7 mobiles :/

Le 25/02/2015 à 15h 55







thorspark a écrit :



En même temps, les 20% d’abonnement ne sont pas vraiment étonnants, tout simplement parce que les FAI ne fibrent pas jusqu’au logement particulier.

En gros, la fibre est dans le quartier, mais si tu vis pas dans un immeuble d’au moins X personnes, t’es foutu.





Il faudrait regarder la définition de l’éligibilité. Pour moi un logement (ou plutôt un immeuble) non raccordé est logement non éligible (et je compatis avec tous ceux qui ont une fibre qui passent juste devant chez eux et qui ne peuvent en profiter :x).

Du coup je comprend que le taux de pénétration est défini comme le rapport entre les personnes qui ont un abonnement fibre et les personnes qui ont la possibilité de souscrire un tel abonnement.

&nbsp;





Mimoza a écrit :



Et quid des opérateur alternatif/associatif comme FDN qui n’a accès a aucun réseau fibre ? C’est un peu comme des MVNO de la téléphonie mobile qui n’aurait pas la possibilité d’utiliser la 4G …





Je ne suis pas spécialiste, mais ils n’ont pas non plus accès à la boucle locale. Ils ont un accord avec SFR pour ça de mémoire.

Ils devront donc négocier un nouvel accord pour la fibre (par contre j’imagine que ça sera infiniment plus complexe).


Le 25/02/2015 à 13h 35







Sigma42 a écrit :



Motorola n’a pas réellement changé de logo depuis 1955 et ça ne semble pas leur nuire hein ^^ :

http://logos.wikia.com/wiki/Motorola





Ça a évolué en douceur, mais ils ont tout de même du le mettre au gout du jour :)

&nbsp;





Sigma42 a écrit :



Qu’il y ait besoin de marketing pour ventre, je veux bien l’admettre, mais bon, les changements de logo facturés à des sommes astronomique, ça me semble être du “hors-sol” total : Un bon marketing est un marketing en lien étroit avec l’ingénierie pour moi…





Pourtant, ça peut se comprendre : si tu as 4 ou 5 personnes diplômée qui travaillent dessus pendant plusieurs semaines à temps plein, le chiffre monte vite.&nbsp;

Ça parait insignifiant comme travail, mais derrière il y a beaucoup de questions à prendre en compte, étant donné que tu es en plein dans le subjectif.

&nbsp;





Network a écrit :



Les marchés publiques c’est toujours un peu sur-facturé





Et puis il y a la partie budget qui n’apparait pas sur la facture.&nbsp; <img data-src=" />

&nbsp;





ExIcarus a écrit :



Il n’est ni rond , ni carré , ni pointu





<img data-src=" /> pour la référence au Kamoulox


Le 25/02/2015 à 10h 50







Reznor26 a écrit :



Intérêt ?







Rafraichir un bon coup l’image de la marque. C’est bête,

mais dans l’inconscient collectif,&nbsp; le logo vient souvent en tête quand

on évoque une entreprise. Une entreprise avec un logo moche/dépassé

(surtout dans le domaine des NTIC) ça n’inspire pas confiance.

&nbsp;

&nbsp;



knos a écrit :



C’est pas exactement du comic sans. Les lettres sont droites et régulières. Moi ca ne me choque pas.





Pour ça que j’ai dit “ressemble” ;)


Le 25/02/2015 à 10h 47

J’aime bien aussi, et je me posais la même question pour le prix <img data-src=" />



Par contre, la police utilisée pour “bouygues” ressemble un peu trop au comic sans <img data-src=" />

Le 23/02/2015 à 16h 31

“Oh sorry, I though it was the World Wide Web.”

Le 23/02/2015 à 09h 29

Comment une erreur peut tuer une réputation!

Si ce bug est préjudiciable, il n’en reste pas moins que

les débits bruts ne sont pas forcement ce qui iNpacte le plus les

performances sur un disque système.

&nbsp;







Groumfy a écrit :



Samsung = bas de gamme avec de l’emballage haut de gamme.





Autant je suis d’accord pour les smartphones, autant pour le SSD, mis à part cet écart sur le 840EVO, ils restent de très bonne facture.







Alesk a écrit :



Personnellement je ne jure que par crucial, composer de puces Intel. De plus , les contrôleur n’use pas (encore ) d’astuce d’optimisation qui augmente les débit en réduisant la durée de vie des cellules.



J’en ai, et fait acheter une petite dizaine autour de moi et je n’ai jamais eu de problème (touche du bois)





De quel genre d’astuce tu parles? Si tu parle du fait d’avoir quelques Go de mémoire TLC (3 bits par cellule) fonctionnant en mode MLC (2 bits par cellule) pour avoir un “boost” sur les débits (pour peu que le transfert ne soit pas trop gros), c’est le cas sur les nouveaux MX200 me semble-t-il. (faut que je check)



M’enfin, avant “d’user” un SSD avec un usage disque système classique, faut y aller.

J’ai autant confiance dans un SSD de 7 ans d’age qu’un disque dur de 7 ans d’age <img data-src=" />


Le 23/02/2015 à 08h 20

Merci bien!&nbsp; <img data-src=" />

Le 20/02/2015 à 15h 51

Les fond d’écrans par défaut sont rarement dégueu : la plupart du temps c’est un beau paysage, et depuis vista les images utilisent du HDR/tone mapping pour avoir un rendu “percutant”. Il est loin le temps de “colline verdoyante” ;)

Pour ma part, les icones du bural c’est une colonne en 1920x1200, pas plus. Et je ne les utilise quasiment jamais, car les fenêtre des appli recouvrent tout le reste. J’utilise plus volontiers les icones programme dans la barre des tâches. Mais là chacun à sa manière de faire, effectivement.

Enfin, je ne suis pas graphiste, mais je ne vois pas ce qui empêche de créer un bandeau&nbsp; avec le style modern UI (je ne sais plus comment s’appelle ce style graphique “plat”).





Tu as raison de souligner que ce n’est qu’un concept et qu’il y a des défaut, mais il faut bien avouer que ça en jette et qu’il y a de bonnes idées <img data-src=" />

Le 19/02/2015 à 15h 32







js2082 a écrit :



En l’occurrence, le brevet a bien été conçu par son détenteur.



Mais même si ce n’était pas le cas, quand tu achètes un brevet, tu payes pour tout le travail fourni avec. Ça n’enlève rien à sa valeur.

Dans ton exemple, Jean-roger a payé pour son brevet. Il n’y a aucune raison&nbsp; pour qu’il ne puisse pas bénéficier de son droit exclusif d’exploitation.



Si des gens autres que le monsieur veulent l’exploiter, ils n’avaient qu’à l’acheter. S’ils ne l’ont pas fait, ils ne peuvent pas en bénéficier, c’est la règle,c’est tout. Et ils peuvent toujours obtenir des licences d’exploitation.





Certes c’est tout à fait légal, mais fonder son business là dessus c’est clairement du troll : acheter de la PI dont tu n’a pas usage, pour gratter du pognon auprès de ceux qui en ont besoin. C’est clairement un frein à l’innovation et nuit au final au consommateur. Bref, totalement à l’encontre de ce que le brevet est sensé représenter.

Je ne reviendrai pas sur “yaka acheter”, car il aurait déjà fallu que l’entreprise sache que ce brevet existe (c’est un peu comme le “nul n’est sensé ignorer la loi”)



&nbsp;Par contre j’imagine que Samsung a du calculer qu’il était moins cher d’aller au tribunal ou la prise de risque était “worth it’. Je vais spécialement pleurer pour eux.



&nbsp;



&nbsp;

&nbsp;

&nbsp;

&nbsp;


Le 19/02/2015 à 11h 50







js2082 a écrit :



En même temps, si Samsung a bien violé un brevet, il est logique qu’il passe à la caisse, non?



Peu importe qui détient le brevet, les techniques utilisées ont fait l’objet de recherches, de temps et de dépense d’argent. Ce travail n’est pas gratuit.

Et voir une entreprise quelconque venir tranquillement te piquer ton boulot et s’en servir tranquille sans même daigner te jeter un coup d’œil, ça fait plaisir à personne.



&nbsp; Samsung a voulu jouer au plus malin, il a perdu, c'est tout.







&nbsp;Le truc, c’est que les patent troll n’ont pas forcement participé à la recherche. Autant je vois bien l’intêret de breveter sa recherche pour se protéger commercialement (et finalement offrir un meilleur produit aux clients), autant je vois pas l’intérêt des patent troll : c’est vraiment soutirer du pognon pour le plaisir d’en soutirer.

&nbsp;

Exemple :

Samsung viole un brevet posé par Apple. Les deux entreprises vendent des produits similaires, il est normal qu’Apple protège ses travaux.

Jean-Roger possède un brevet qu’il a acheté dans une brocante. Il cherche activement des gens qui utilisent ce brevet pour leur soutirer du pognon.

Ma conclusion : Jean-Roger ne produit rien, il dépense de l’énergie de manière improductive. Jean-Roger est&nbsp; un parasite.





psn00ps a écrit :



Cours déposer un brevet sur le voyage dans le temps et aussi la téléportation&nbsp;<img data-src=" />

On peut breveter n’importe quoi sans application, c’est débile.





Tu peux breveter un concept, qui n’a pas d’application directe. Une preuve de concept, si tu veux.


Le 18/02/2015 à 17h 02







SuperNarco a écrit :



Le freesync est open-source, donc ils ne payent rien pour pouvoir l’utiliser ce qui est l’avantage par rapport au G-SYNC qui lui est proprio et en plus c’est un module en sus. Apres rien ne les empeches d’augmenter les prix des ecrans c’est sur, mais ca restera toujours moins chere qu’un G-SYNC.





Ce n’est pas parce qu’une technologie est open source qu’elle ne coute rien à implémenter ;)

Le scaler doit être compatible, ce qui engendre une modification, qui coûte un peu (certes pas grand chose comparé à un module Gsync). Les fabricants de scaler facturent surement plus cher un scaler compatible Freesync, pour créer une gamme. Le fabricant d’écran doit aussi en faire de même <img data-src=" />







marquis a écrit :



Ooops, sorry&nbsp;<img data-src=" />





Y’a pas d’bug ;)









sniperdc a écrit :



Jamais

déçu par les écrans Acer. J’allais le prendre mais après ma

documentation je préfère attendre le Display port 1.3 avec le 4k@120 IPS





Sur un écran 1440p, le 1.2 est suffisant hein :)


Le 18/02/2015 à 15h 19

Non, fhd = full HD = 1920x1080 (je parle de l’exemple de js082 hein, pas de l’article)

Le 18/02/2015 à 13h 12

Ouai mais il faut comparer ce qui est comparable : à 170€, m’étonnerait que tu aie du 144Hz et du freesync déjà (même si le freesync est censé être moins cher que Gsync, il doit bien y avoir un surcoût et les fabricant d’écrans en profiteront surement pour organiser leurs gammes).

Et puis 1080p quoi…(surtout sur un 27”).



&nbsp;

&nbsp;

Le 16/02/2015 à 09h 17







Jean Sébastien Gwak a écrit :



Même si Nintendo craquera surement un jour face aux investisseur, je les salue ainsi que Satoru Iwata concernant leur position face aux marché du JV sur smartphone.



Nintendo, ça reste le “Seal of Quality”, alors que les JV smartphone, c’est l’inverse. Ce serait juste renier leur manière de penser et de voir le JV.



Les JV de Nintendo, c’est pas des jeux auxquel tu joues 10 minutes par jour dans le metro.



&nbsp;





Pourtant ils ont sortit un “Magic/Earthstone-like” sur iPad avec l’univers Pokemon, qui est un très bon jeu m’a-t-on dit (il m’a même fait hésiter à prendre un iPad à la place d’une Sony Xperia).&nbsp; C’est le genre de jeu qui n’a pas tellement sa place sur console, et qui n’est pas non plus un candy-crush nobrain.



&nbsp;Sans complètement changer de modèle économique, pousser ce genre d’initiatives (déjà une version android <img data-src=" />) pourrait être très bénéfique pour Nintendo.



Je trouve que les plus grandes forces de Nintendo, ce sont ses licences et non son hardware. Alors certes ils ont eu de très bonnes idées avec (double écran tactile, Wiimote), mais ça fait chier énormément de monde d’investir dedans pour jouer quasiment qu’aux titres Nintendo.


Le 13/02/2015 à 14h 24

Stahp!! <img data-src=" />



&nbsp; Puis bon, stop la diffamation aussi, je suis sûr que si tu lui en donne les moyens, Mattrick casse la baraque!

Le 13/02/2015 à 14h 09

Le plus dur avec Mattrick, c’est de garder son sérieux ;)

Le 13/02/2015 à 14h 07







TdbSpidey a écrit :



On a vraiment un pays magique, où l’Etat touche plus que l’entreprise….





C’est connu, les entreprises financent les routes, hôpitaux, couvertures sociales, services de sécurité :p





Bref sur qui Mattrick va bien pouvoir s’appuyer pour se redresser?


Le 13/02/2015 à 14h 05

Il y a des ces journées qui commenent mal et qui ont tout pour être merdique…et là, un évènement à priori insignifiant vient te l’illuminer \o/



&nbsp;

Mattrick a décidé de taper dans les effectifs





J’avais réussi à garder mon calme en m’étranglant avec mon écharge et en me mordant les lèvres jusqu’à lire ça…

Le 13/02/2015 à 09h 26

T’oublies Uplay, qui est la plateforme dématérialisée la plus aboutie à ce jour&nbsp; <img data-src=" />

Le 13/02/2015 à 09h 18



Cinquante nuances de Creed



<img data-src=" />



Peut mieux faire. Kevin a de capacité, mais n’exploite pas tout son potentiel. Efforts attendus au prochain trimestre.





&nbsp;

Le 13/02/2015 à 09h 14







js2082 a écrit :



Tarata le fait depuis perpète, personne n’en parle.

Google le fait depuis 30 secondes, et c’est la révolution.



On ne sent pas du tout cette attitude de mouton servile, nooon.



Bon, et comme d’hab, google n’invente rien, ils ne font que copier (voler?) les autres, encore et toujours.





Ce mauvais troll <img data-src=" />





Ce n’est pas parce que quelque chose existe déjà que son implémentation est du&nbsp; “vol”.&nbsp;

S’ils permettent aux utilisateurs de créer leurs propres vidéos multipiste, ça sera, à ma connaissances les premiers. Ça permettra également de démocratiser la chose : on peut comparer le nombre de personnes potentiellement touchées entre youtube et taratata : c’est peut être pour ça qu’on en parle :°)


Le 12/02/2015 à 10h 54

En fait pour les fabricants de GPU, leur couleur correspond à celle du solde du compte en banque :x



Sinon, Profits are Max & well <img data-src=" />

Le 11/02/2015 à 12h 06

Oh-Oh, alerte Mongo! Alerte au Mongo les enfants!

Le 11/02/2015 à 09h 49



Serge Dassault désapprouve





T’as tellement pas d’âme que t’aurais fait un bon politicien <img data-src=" />

Le 11/02/2015 à 09h 30

Quand je parle d’harmonisation, c’est surtout pour éviter les trop grand écarts comme c’est le cas actuellement, pas mettre tout le monde à la même enseigne. Jouer de quelques % sur les impôts ce n’est pas un problème en soit (ça peut être un facteur pour attirer des entreprises, mais tout ne se joue pas là dessus), mais là les disparités sont trop grandes. Même aux USA tu n’a pas de tels écarts, à ma connaissance (restreinte sur le sujet je l’avoue)

&nbsp;

D’ailleurs les USA laissent une liberté aux états pour fixer leur fiscalité, mais il y a la fiscalité fédérale aussi.