votre avatar

Charly32

est avec nous depuis le 28 août 2009 ❤️

3585 commentaires

Le 03/01/2017 à 13h 39

Je suis dans l’ensemble d’accord avec toi, on a bien vu les problèmes de l’IoT avec le botnet Miraï.

En revanche, je trouve que IFTT est une bonne idée, ça permet la programmation évènementielle de plusieurs services et appareils. A moins qu’il existe une alternative à installer sur un serveur perso, mais j’en doute.

Le 03/01/2017 à 10h 09





  • un peu moins de 30 euros



    • pile (fournie) de type CR2032

    • pour l’utiliser, Il faut installer et lancer (au moins en arrière plan)

      une application sur votre appareil mobile avec le bluetooth activé.

      Elle est disponible sur Android et iOS uniquement

    • votre appareil mobile devra être à proximité du NIU pour que cela fonctionne

    • il est toujours impossible d’utiliser plusieurs NIU avec un même appareil

       



       

      Merci mais non merci.

      Je ne vois clairement pas la valeur ajoutée du bouton par rapport au smartphone dans ce cas. Autant utiliser l’appli directement, l’environnement vous remerciera. 

       


Le 30/12/2016 à 14h 51


  • pouvoir revenir à un affichage purement chronologique



    • pouvoir virer les section “ce que vous avez manqué” et “cela pourrait vous intéresser”



    • une fonction favori qui permettrait de pouvoir revenir sur un tweet facilement (et non, c’est différent du “like”)



       


Le 30/12/2016 à 11h 46

Je compte lancer une collection de t-shirt avec une bande noire en diagonale <img data-src=" />



&nbsp;







kurgan187 a écrit :



Dites jai une question peut être idiote.mais une personne enceintes doit elle obligatoirement mettre une ceinture? Avec la pression lors d’un accident le bébé risque quelques chose?





Normalement tu es censé mettre la sangle latérale au niveau taille, pas de la ceinture (sinon en cas de choc violent, risque de faire exploser le foie) et la sangle “verticale” doit appuyer sur l’épaule.

Mais comme l’a souligné un iNpactien plus haut, tu peux avoir une exemption via certificat médical.

Autre exception, certaines professions comme les chauffeur de taxi ne sont pas tenu au port de la ceinture de sécurité (je ne sais pas si c’est toujours d’actualité).


Le 28/12/2016 à 12h 35







zip a écrit :



Si l’étage situé sous le tien entend ton clavier c’est que tu dois pas t’en servir de la manière prévue par le fabriquant <img data-src=" />





IBM Model M FTW <img data-src=" />


Le 27/12/2016 à 15h 12



« première évolution dans l’industrie mobile », tout en allant là où « aucun autre fabricant de téléphones n’est allé auparavant ».





Vers une autonomie de plus d’une journée ? <img data-src=" />

Le 24/12/2016 à 13h 03

Bien sympathique comme article, ça fait un moment que je lorgne sur ce type de matériel. J’ai cru comprendre que NXi préparait quelque chose sur le sujet <img data-src=" />

Le 24/12/2016 à 12h 52

3 millions de $ Australiens… Half-life 3 confirmed!!!

Le 23/12/2016 à 10h 58

En gros l’usage de l’appli sur la montre permet de remplacer le bracelet, c’est bien ça ?

Pas mal pour ceux déjà équipés.

Le plus gros défaut de PoGO, c’est que l’appli est incapable de compter les pas en arrière plan, et impose donc de marcher avec le téléphone déverrouillé.

Le 22/12/2016 à 17h 40







gavroche69 a écrit :



Un exemple tout bête :



Tu sais que tes voisins maltraitent leur gosse mais tu ne dis rien parce que “dénoncer” c’est mal, le gosse meure des suites de cette maltraitance, tu te sens bien ?



Cet exemple est volontairement extrême mais des trucs comme ça arrivent régulièrement.

La non-dénonciation dans certains cas c’est juste de la non assistance à personne en danger.



Et non, dénonciation et délation ce n’est pas du tout la même chose.







C’est une question d’usage je pense. En Allemagne, si tu fais une touchette en te garant ou si tu fais sauter un rétro et que tu t’arrêtes pas, il y a de fortes chances qu’un témoin rapporte la scène à la police.

Pour un français, c’est un truc choquant.


Le 22/12/2016 à 17h 29







kade a écrit :



Je croyais qu’aux US le feu orange c’était pour annoncer le vert, pas le rouge.









Adhrone a écrit :



Je crois que c’est les deux : vert &gt;&gt; orange &gt;&gt; rouge ou rouge &gt;&gt; orange &gt;&gt; vert. A confirmer.







En tout cas, ce n’est pas le cas dans l’Indiana, le Kentucky et l’Ohio.

Par contre en Allemagne c’est le cas.



Aussi, contrairement à la France, passer à l’orange mûr est ok aux USA.


Le 22/12/2016 à 14h 32







Nico4271 a écrit :



Nperf ou un autre.



Quand la TV n’est pas décompté du forfait, c’est un problème pour la neutralité du net.



Il faut arrêter d’utiliser partout et tout le temps la neutralité du net comme une arme ultime !









piwi82 a écrit :



Que dit la neutralité du réseau ?





Oui, je sais, la neutralité c’est plutôt le concept de ne prioriser aucun usage sur le réseau.

Mais je suis personnellement opposé au fait que l’opérateur regarde la donnée qui transite (ou sa destination) pour l’exclure du fair use.


Le 22/12/2016 à 11h 22

PAs mal, mais en contradiction avec la neutralité du réseau <img data-src=" />

Le 21/12/2016 à 09h 33



lors que deux pilotes de drones ont récemment été condamnés – mais dispensés de peine





Ah, Christine et Bernard sont pilotes de drones? <img data-src=" />

Le 20/12/2016 à 10h 22

Euh pourquoi ce pécule devrait revenir aux USA ? Il s’agit d’impôts dus par l’entité d’Apple en Europe, sur la vente de produits sur le territoire européen, non ?

Le 19/12/2016 à 20h 01







Moebius13100 a écrit :



Il était tellement buggué que chez moi il tournait comme une horloge, le sale était correct et les perfs au rdv, du coup je comprends pas le retrait et vu le succès du jeu je pense pas qu’ils vont remédier à ce problème (surtout que pour BF1 il s’en tapent), donc encore un jeu qui perd le support SLI.

&nbsp;

J’ai du me créer un dossier pilotes sur mon HDD pour y coller les pilotes qui marchent pour un jeu défini.



Et oui c’est bien parce que les développeurs ont maintenant la main que je dis que DX12 est une vraie merde&nbsp;<img data-src=" />

d’autant que bon courage pour faire de belles présentations de ton triple A en 4K top moumoute sans SLI fonctionnel, même une titan X pascal ne tape pas les 60 fps sur les jeux récents.

&nbsp;

Donc abandonner ou marginaliser le SLI au moment où l’industrie veut te vendre du 4k c’est une énorme connerie commerciale&nbsp;<img data-src=" />





Cela dit le SLi/CFX était déjà marginal. D’ailleurs avec nVidia qui ne l’autorise que sur les cartes (très) haut de gamme , ça donne le ton. Je conçois tout à fait ton désarrois, se sentir à l’abandon quand on est un bon client, ça a de quoi foutre les nerfs.



Par contre je ne suis pas de ton avis sur la 4k, une 1080 peut atteindre les 60fps en moyenne en ultra sur BF1 et COD:IW&nbsp; par exemple (et même bien plus si on se passe d’AA, dont le besoin se fait moins sentir sur cette résolution). Couplé à un écran Adaptive Sync, on peut même descendre vers les 40fps et toujours profiter d’une bonne fluidité (peut être pas terrible pour un jeu nerveux, mais pour des jeux plus peace comme un RPG why not).



Concernant DX12, c’était une orientation qui était demandée par l’industrie et les devs eux même, qui ne comprenaient pas forcement comment étaient traité les instructions. Mantle a permis une bonne optimisation des performances chez les rouges, probablement parce que leur architecture était plus adaptée à ce type d’API (d’ailleurs les Radeon semble mieux tirer leur épingle du jeu avec DX12 que les Geforce). Si les devs jouent le jeu de l’optimisation, ça permettrait de rendre leur produit moins sensible aux travaux des devs de driver graphiques.&nbsp;









Nozalys a écrit :



Mince,

après des années au service des Radeons, je viens de m’acheter une GTX

1080 … si j’avais su, j’aurais attendu quelques semaines :/





Argh,

pourtant c’est pas les indices qui manquaient : le GPU de la 1080

n’avait pas toutes ses unités, il y a donc une porte ouverte pour un

produit équipé d’un GPU avec toutes ses unités fonctionnelles :&nbsp; ils

avaient déjà fait le coup avec la 780Ti et la 980Ti. Plus l’apparition

d’une Titan avec un tel GPU.&nbsp;

Après pour te consoler, tu peux essayer d’imaginer le prix que coutera la bête si Vega ne vient pas les titiller.


Le 19/12/2016 à 14h 05







Moebius13100 a écrit :



&nbsp;

&nbsp; OK les gars donc en gros je dois jongler entre vos pilotes en fonction de ce qui est sur mon pc ?





Il me semble que ça a été désactivé car le support du SLi sur Titan Fall 2 est buggué. Du coup pas trop d’intêre à downgrader pour activer un truc buggué.







Moebius13100 a écrit :



&nbsp;



Au final ça donne juste des jeux pourraves, moins performants qu’en

DX11 avec des développeurs en roue libre qui ne prennent même plus la

peine de supporter le SLI sur leurs derniers jeux AAA.

Non mais sans blague, BF1 SLI non supporté en DX12, GOW4 idem, Quantum Break idem, Forza Horizon idem….<img data-src=" />&nbsp;



&nbsp;

Bah c’était à prévoir, vu qu’avec DX12 le support du multiGPU est dans le camp des dev de jeux et non plus dans celui des fabricants de GPU. Et clairement vu les parts de marché de multiGPU, rares seront les boites à s’y intéresser.







Moebius13100 a écrit :



et puis sérieux Nvidia une 1080 avec un bus

de 256 WTF, pour 700€ ça vous ferait chier de coller au moins 10Go de

Vram et un bus de 512 ?&nbsp;<img data-src=" />&nbsp;





&nbsp;512 ça fait une sacré largeur de bus, techniquement je pense qu’il vaut alors mieux passer sur de la HBM.


Le 19/12/2016 à 14h 32

Je pense que ça peut suffire oui, merci pour l’info! <img data-src=" />

Le 19/12/2016 à 10h 04







skankhunt42 a écrit :



Sauf que DXO n’est même pas capable de faire de la retouche

localisée… Donc pour faire de la retouche localisée tu doit faire un

rendu en tiff de tes images ( qui prendront 4 fois plus de place ) puis

les ouvrir dans photoshop ! Au final t’a plus vite fait d’utiliser

lightroom.





Je n’étais pas au courant de ces limitations chez DXO. <img data-src=" />

Je viens de finir les versions d’éval de lightroom et je vais me pencher sur celle de DXO.



&nbsp;





skankhunt42 a écrit :



Après

je connais pas dxo, mais lightroom est vraiment bien fichu pour gérer

des catalogue de plusieurs milliers de photo et de pouvoir faire une

syncro sur des services du type flickr.&nbsp;







Pour ma part, c’est le truc dont je ne me sers pas. Je gère tout à l’explorateur windows. Alors ok, je suis loin d’avoir à gérer autant de fichiers qu’un photographe pro, mais d’autres personnes bien plus intéressées au sujet que moi m’ont confiées qu’ils géraient tout à l’explorateur également. Question de goût et d’habitude je pense.



&nbsp;





skankhunt42 a écrit :



&nbsp;Il est vrai que adobe à fait un travail remarquable vis à vis de ses applis en terme de légèreté, sans avoir un pc de la mort qui tue.





Normal, il fallait que ça tourne sur mac <img data-src=" />


Le 17/12/2016 à 17h 57







Cashiderme a écrit :



Il serait temps qu’un concurent se reveille.





Ça dépend du produit :&nbsp; pour photoshop je ne vois pas de concurrent suffisamment sérieux pour l’utilisateur avancé.

Mais pour le developpement RAW, ce ne sont pas les alternatives qui manquent (DXO me vient en tête mais ce n’est pas le seul).

Après l’avantage de tous les produits Adobe, c’est la littérature/tuo dispo sur le net, ainsi que les plugins tiers (par exemple si tu veux utiliser la suite de filtre Google nik sous windows, c’est uniquement avec les produits Adobe).



&nbsp;



skankhunt42 a écrit :



Un bon geste de la part d’adobe ça serais de vendre à pas cher d’ancienne version pour des gens qui ne l’utilisent de façon sporadique.





Je plussoie, pour un amateur, avoir une (voire deux) versions de retard ne changerait pas grand chose à sa vie. Et pour l’utilisateur ayant un besoin récurrent, l’abonnement n’est pas dénué de sens. Ca ferait un bon compromis, IMO.


Le 15/12/2016 à 15h 51







Soltek a écrit :



Hé mais c’est pas cher ! <img data-src=" />





Attention, c’est le prix en sus de l’abonnement <img data-src=" />

(ce qui reste tout de même abordable)



Allez, hop réengagé pour 1 an !


Le 15/12/2016 à 15h 47

C’est pas glorieux, l’action d’Orange a été bien plus efficace <img data-src=" />

Le 14/12/2016 à 22h 28







kikoo26 a écrit :



Ça fait plusieurs commentaires que je vois mentionnant les VMs comme profitant des nombreux coeurs … vous faites quoi au juste dans ces VMs pour avoir besoin de nombreux coeurs ? La VM c’est juste un conteneur, ça n’a pas un pré-requis de X coeurs.

J’ai même fait tourner des VM sur mon Netbook, avec le foudroyant Intel Atom N270 : 1 coeur avec hyper-threading, et ç a se passait bien pour l’utilisation que j’en voulais.





Ce n’est pas forcement nécessaire pour faire de la VM, mais les performances profitent bien d’un grand nombre de core. Par exemples certaines personnes utilisent de multiple VM en simultanée pour héberger différents services et/ou simuler différents environnements.

&nbsp;





kikoo26 a écrit :



C’est de la sémantique, je parlais du procédé aboutissant à ces

“technologies”, tu parlais de l’objectif. Je suis d’accord pour dire que

l’objectif est différent, mais je maintiens que le procédé de base est

le même : réguler la fréquence par rapport à la chauffe/consommation.





&nbsp;Pardon, je n’avais pas compris ça sous cet angle <img data-src=" />

&nbsp;



&nbsp;


Le 14/12/2016 à 19h 11







kikoo26 a écrit :



C’était juste un petit troll gratuit <img data-src=" />

De mon point de vue le “XFR” et le Throttling c’est exactement la même chose : mesure de température et de conso pour réguler la fréquence.

Ça me sidère un peu que ce turbo sans limite arrive que maintenant, les capteurs existent déjà (dans les Intel et puces ARM en tout cas, j’ai jamais eu AMD mais je suppose qu’ils ont aussi le Throttling en protection) ils auraient pu mettre ça en place plus tôt quand même.





Du mien ce n’est pas vraiment la même chose :




  • Le throttling est un processus de protection, qui va iNpacter négativement les performances afin de sauvegarder le processeur.

  • Le tubo/XRF est un processus d’optimisation, qui va tenter de tirer la fréquence maximale de la puce, au delà de ce que le fondeur nous vend.



    Le problème de ce genre de turbo “sans limite”, c’est que les performances des puces ne sont plus équivalentes. Tu achète une performance minimales garanties : si tu as de la chance, tu as une bonne puce qui permet d’aller plus haut en fréquence. Si tu joue de malchance, tu as une puce récalcitrante qui refuse d’aller plus haut que le mini. Du coup lors des benchs par les journalistes, il faut faire attention au fréquences atteintes, les fondeurs pouvant trier des puces sur le volet pour afficher des plus gros résultats.

    &nbsp;



    Citan666 a écrit :



    &nbsp;

    À voir…

    Au-delà du simple confort de “X coeurs pour gérer Y applications” (on peut tabler sur navigateur + lecteur vidéo + client mail ou bureautique à minima), il me semble bien que pas mal d’applications grand public ont entamé les évolutions nécessaires pour profiter de multiples coeurs… De tête Firefox et Microsoft Office (Excel), je suppose que toutes les applis métier à grand succès type suite Adobe également, on a aussi les logiciels de compression et d’encodage audio/vidéo…



    Honnêtement, je n’ai pas de sources sérieuses pour appuyer mon hypothèse, mais je pense tout de même qu’on peut considérer que le multi-thread (au moins dual) est entré dans les usages grand public maintenant… ;)



    Après de là à dire que le grand public aurait de quoi exploiter 8 coeurs, il y a un pas que je n’ose franchir effectivement… <img data-src=" />

    Sauf si on intègre tous les professionnels dans le grand public, auquel cas je le franchis allègrement. ;)





    Oui, le dual est un minimum aujourd’hui, le quad est plutôt bien géré par les jeux vidéos et au delà, c’est déjà un bien plus confidentiel comme usage : calcul scientifique, traitement vidéo, usage de VM, c’est à peu près tout ce que je vois capable, aujourd’hui, de bénéficier de l’effet d’échelle au delà de 4 coeurs.


Le 14/12/2016 à 05h 08

Hé ben, à défaut d’avoir des produits sous le sapin, on peut dire que AMD a su monopoliser la scène médiatique en cette mi-decembre! Zen par ci, Vega par la, y’a plus qu’à avoir des vrais bench et des tarifs.

&nbsp;







Alucard63 a écrit :



Perso je m’en tape qu’ils battent Intel.




Si on pouvait avoir des CPU à la hauteur des Haswell/Skylake qui cassent les prix c'est tout ce que je demande.







Je suis aussi de cet avis, pas la peine de proposer le plus gros, mais avoir une gamme compétitive sur le milieu de gamme serait appréciable. Le seul soucis c’est que Zen à l’air de se destiner à ceux qui auraient besoin de performances multithread plus que monothread, ce qui n’est pas l’usage de la majorité du public.

&nbsp;





GrosBof a écrit :



Exact ! Mais quand on s’oriente vers une solution à multiplication de threads, ça cache clairement une grosse insuffisance de perf, il n’y a pas de doutes à avoir.



Alors du moins cher ? Ils n'auront pas le choix donc c'est forcément ce à quoi on va assister. A voir avec la perf/Watt maintenant si ça ne sabote pas le reste (mais en - peut-être - 14nm j'ai des sérieux doutes).







Le tout est de rester relativement raisonnable sur la conso sans que ça devienne débile (du moins sur desktop).

Je veux dire, c’est un équilibre à trouver entre prix performances de calcul et performances énergétique.

Vu le peu d’info qui ont filtré, cette conférence semble surtout être un moyen d’occuper l’espace médiatique et de hyper les gens avant Noël, probablement pour inciter les indécis à ne pas se précipiter à la concurrence pour avoir leur matos sous le sapin.

&nbsp;

&nbsp;





diagonalisation a écrit :



&nbsp;def d’un tarif compétitif :



&nbsp;&nbsp;&nbsp;&nbsp; le quad à 100 balles

&nbsp;&nbsp;&nbsp;&nbsp; l’exa à 150&nbsp;

&nbsp;&nbsp; &nbsp;&nbsp; l’octa à 200&nbsp;



&nbsp;si prix au dessus &nbsp; je les qualifie de fabriquant de disque dur&nbsp; <img data-src=" />





Faut pas pousser non plus, en plus de la fabrication, il y a toute la R&D à financer.

Les rumeurs (à prendre avec de grosse pincettes donc) parlent de 150\(/250\)/500$, ce qui semble plus réaliste.





kikoo26 a écrit :



Non, tout dépend du traitement que tu veux effectuer.





Exact, c’est la loi d’Amdahl, qui permet d’évaluer les gains en fonction du pourcentage des tâches qui sont parallélisables :)

&nbsp;





GrosBof a écrit :



Pour terminer : quand le produit explose le plafond, on hésite pas à balancer toutes les infos (cf la conf. Nvidia avec l’annonce de la 1070 et 1080), quand on a quedalle, on tricote, on fait des comparatifs douteux, et on s’aligne sur l’adversaire (cf AMD depuis des années maintenant…).



Et ce soir on a vu quedalle hormis une annonce de fréquence médiocrement intéressante. Je sens que les benchs vont pas être folichons…





Je suis assez d’accord, j’ai bien envie d’être optimiste, mais quand on cache les fps des jeux et la fréquence du 6900 (HFR parle de 3,5GHz sur les 8 cœurs, mais ça n’a pas l’air d’être confirmé par leurs confrères) et que les scenarii sont plutôt en faveur du multithread, ça laisse planer des doutes sur la performances pures. D’ailleurs les demo 4k sont plus un bon point pour Vega que Zen, la charge CPU n’augmentant pas autant que la charge GPU pour le 4k. Il reste aussi le prix comme variable d’ajustement mais j’ai un peu peur qu’AMD se retrouve dans la situation de Bulldozer à sa sortie : un placement tarifaire qui rendait les CPU intéressant que pour ceux qui avaient des besoins en multithread.



&nbsp;





typhoon006 a écrit :



j’ai pas compris, c’est quoi Ryzen ?&nbsp;





le nom des prochains CPU AMD jusque là connu sous le nom de leur architecture : Zen.

&nbsp;





kikoo26 a écrit :



L’overcloking dynamique, en fait, ce serait pas du Throttling sans le dire ? <img data-src=" />

(genre la fréquence nominale est 7GHz, et comme le CPU est trop chaud, la fréquence est en permanence ajustée vers le bas pour rester dans la limite de température).





Non, parce que le processeur tournera au minimum à la fréquence vendue (sauf problème dans le refroidissement). Je pense qu’il faut le voir comme un turbo (celui des GPU en fait) : tant que la conso et la temperature sont OK, on augmente la fréquence. Ca optimise l’enveloppe thermique et ça permet de profiter de la qualité defabrication de la puce. Pour tout le monde, même ceux qui n’ont aucune connaissance de la manipulation manuelle.

Aussi, un autre aspect auquel on pense moins, c’est pour les pros. En général, c’est la stabilité qui est recherchée (et puis aucune boite ne va s’amuser à OC à la main des dizaines de PC). Or là, AMD aura validé le comportement de la puce, et donc les pros pourront eux aussi bénéficier de ce gain de fréquence.


Le 14/12/2016 à 18h 51

N’empêche kudos à Lisa Su et ses équipes, qui doivent maintenir le navire en pleine tempête. Vu la fuite des cerveaux dont ils ont souffert et la position défavorable sur le marché, il n’était pas évident d’arriver jusque là (même avec le peu de détails que l’on a).

&nbsp;







fabcool a écrit :



Pour moi ça reste une grosse déception, je m’attendais à quelque chose de supérieur, et non pas équivalent…

Dommage… &nbsp;



&nbsp;

Vu la traversée du désert, le départ de la feuille blanche et le budget R&D, c’est limite déjà un miracle s’ils arrivent à égaler Intel en terme de performances (surtout single thread).

Pour rappel, Intel a toujours une avance sur le procédé de gravure (de plus en plus mince) et l’optimisation de son architecture. Là où il faut vraiment attendre AMD, c’est sur le rapport perf/prix.



&nbsp;





adarion29 a écrit :



Rysen n’était certainement pas le CPU le plus pertinent de la gamme, les rumeurs parlant d’une tarification de l’ordre de 500$, qui même si elle est bien moins élevée que celle du i7 6900k reste un produit destiné à un marché de niche (les férus de montage et d’encodage vidéo) .&nbsp;





Certes, mais vu qu’il n’y a aucun prix annoncé, il n’y aurait eu aucun intérêt à montrer un S5 dans ce genre d’évènement. Imagine qu’il soit en dessous du 6700k =&gt; pas d’eau la bouche, bonjour l’effet soufflet. Et ce même s’ils comptent le vendre deux fois moins cher.

Maintenant on montre que le plus gros CPU pourrait être similaire/supérieur au plus gros CPU concurrent =&gt; ah c’est intéressant. Et comme on se doute que le prix sera inférieur pour ce modèle, notre curiosité est attisée.

&nbsp;





TaigaIV a écrit :



Je préfère prendre des CPU plus costaud (je suis sur un i7 3820 OC à 4,3Ghz) et en changer moins souvent (en changeant d’autres éléments, dont la CG quand j’estime que c’est nécessaire ).





Oui mais justement, selon l’usage, un i7- 3820 n’est pas forcement plus performant que les gros CPU sur socket 115x. Pour la plupart des jeux vidéos, on ne note plus de gains au delà de 4 cores. Du coup pour cet usage, plus gros rime uniquement avec plus cher.

&nbsp;





OlivierJ a écrit :



A ma connaissance c’est l’inverse, les AMD ont des fréquences plus faibles à puissance égale, j’ai connu ça avec les Athlon à 1800 MHz qui concurrençaient les Intel à 2800 Mhz, d’ailleurs l’Athlon en question s’appelait “2800” commercialement.

Je préférerais des processeurs limités à 2 coeurs mais avec une très haute fréquence, parce que l’agrément (le côté “répondant”) d’un ordinateur dépend pas mal de sa capacité mono-tâche je trouve.





Ce n’est plus le cas depuis la fin de Netburst chez Intel (soit l’apparition du C2D) qui privilégiait la fréquence aux IPC, obligeant AMD a utiliser le “P-rating”, car alors fréquence était synonyme de performances.



&nbsp;





GrosBof a écrit :



Pour quelqu’un vraiment très fan d’AMD qui a besoin de conforter ses choix, effectivement, tes propos ont du sens ^^





On est tous d’accord que tout le monde y gagne si AMD revient dans la course : pour les fans d’AMD, ils pourront enfin avoir un CPU capable de rivaliser et pour les fans d’Intel, ils pourront probablement acheter leur CPU moins cher <img data-src=" />

&nbsp;





fullero a écrit :



Bon.

Apparemment c’ est ce que je craignais.

Ils veulent frimer avec un proc mais coté chipset ils restent derrière Intel qui distillent au compte goutte les innovations chipset pour segmenter le marché au max..

La démonstration de leur proc face au 6900k s’ est faite en double canal mémoire quand le 6900k dispose du fait de son chipset de la possibilité de communiquer en quadruple canal.

Donc on va pas tarder à voir d’ autres tests où ils vont se faire fesser par le chipset Intel.&nbsp;





Honnêtement, à l’époque où le quad-channel était apparu, les test n’avaient pas montré de révolution côté performances entre le dual et le quad (quelques % sur certaines tâches particulières).

&nbsp;Aujourd’hui, le chipset c’est surtout les ports d’E/S, et là AMD a indiqué gérer toutes les connectiques modernes. Reste à voir les débits des ports réseau USB etc, mais ce n’est pas le critère n°1 d’un choix de plateforme.

&nbsp;





YohAsAkUrA a écrit :



oui mais ça reste spéculatif. &nbsp;Avec des espoirs de doux rêveur qui n’a aucune manière de pouvoir faire quoi que se soit comme évaluation sur ce que peuvent être leur cpu en realité….





Bien sûr, mais rêver ne coute rien <img data-src=" />

D’ailleurs c’est le but de la présentation, c’est de vendre du rêve. Et puis l’ami Ghorghor a simplement exprimé que si jamais AMD proposait le produit qu’il annonce, ça lui suffirait pour aller voir chez les rouges. Il n’y avait rien d’affirmatif, juste un partage d’opinion personnelle. Tout comme on aurait pu dire il y a quelques mois “Si AMD propose les perfos d’une 980 pour le prix d’une 970, alors je laisse tomber les verts” <img data-src=" />


Le 14/12/2016 à 18h 27







Hugues1337 a écrit :



Son moteur bouge plus que bien dans le dernier Doom. Quand il s’agit de dév’ en OpenGL (qui est massivement présent sur mobile) il n’y a pas mieux. ;)





&nbsp;Carmack n’a pas travaillé directement dessus (du moins la version qui est dans le jeu), même si l’ID tech 6 semble être construit sur la base de ses travaux.


Le 14/12/2016 à 18h 20







Patos le fourbe a écrit :



Sur quel(s) critères se base le CSA pour s’estimer légitime à visionner une video en ligne (rapport à l’argument sur le régime des services de médias audiovisuels à la demande) ? Site hébergé en France, producteur français, langue française, autre ?



Parce que tout ça me semble plus que borderline en terme de domaine d’application…





Je me pose la même question.&nbsp;



&nbsp;



Grebz a écrit :



Moi c’est surtout la santé de M. Poulpe qui m’inquiète. Les invités, ils sont là pour une seule émission, ils picolent un peu et puis ils rentrent chez eux. Tandis que M. Poulpe présente l’émission et donc picole à chaque fois. C’est pas un coup à devenir alcoolique, ça ?



Je plaisante qu’à moitié, parce qu’il s’enfile quand même pas mal de verres (de vodka, je crois ?) à chaque émission, donc quand c’est régulier, même si c’est pour la déconne, ça finit par devenir addictif, non ?





Ca reste loin de la dose d’un étudiant supérieur <img data-src=" />

&nbsp;





knos a écrit :



La grande différence pour moi entre une chaine et YouTube. C’est que dans un cas le contenu est choisis par l’utilisateur. Dans l’autre il est subit et imposé par les chaînes. Et comme dit ici plus haut qu’il commence à réellement condamné Hanouna au lieu de juste faire les gros yeux toutes les semaines.





Tu as tout de même le droit de changer de chaine sur ton poste de TV. Là on peut dire que le contenu est imposé par la chaine Youtube (même si on a une chaine par thème, et un choix bien plus vaste).


Le 12/12/2016 à 18h 32

Une bonne nouvelle, qui devrait largement aider les développeurs (et donc les constructeurs, qui pourront mettre en avant plus de contenus compatibles).

Maintenant, reste à voir d’ici combien de temps cette API arrivera!

Le 12/12/2016 à 17h 11

Un gain de 10% sur une 460…on passe donc de 30 fps à 33fps en qualité moyenne sur un titre AAA récent! <img data-src=" />



&nbsp;

Cela faisait bien longtemps qu’il n’avait plus été question de la

possibilité de réactiver de manière effective des unités sur une carte

graphique afin d’en améliorer les performances.





Et à l’époque c’était sur la R9 290, pour la transformer en 290X. Et là ça valait vraiment le coup (surtout si on souhaitait chauffer son logement avec des GPU!)

&nbsp;







v1nce a écrit :



Ils pourraient pas fixer les caractéristiques physiquement ?

cela ferait un argument en moins pour ne pas libérer le code.





C’est parfois ce qu’ils font. Mais d’un autre côté, ça permet aussi aux bidouilleurs de libérer des unités et de choper de la performances gratos. Ça permet de se faire bien voir auprès de la communauté, sans ruiner le modèle économique. Aussi ça fait des étapes supplémentaires lors de la fabrication, ce qui a un coût.

&nbsp;





gogo77 a écrit :



mais je trouve ça bien de dénoncer ce genre de bridage artificiel qui n’a d’autre intérêt que de pousser les clients vers les modèles supérieures, plus chers.



Mais bon ce n’est ni la première fois ni la dernière qu’on voit ce genre de choses avec les cartes graphiques. C’est pas avec le peu de concurrence qui existe que ça va changer.





Ou bien on peut aussi le voir comme un moyen d’avoir un produit d’appel moins cher pour ceux qui ne cherchent pas la performance absolue. Comme ça a été dit plus haut, de nombreux véhicules voient leur puissance différer uniquement via une partie logicielle.

Même pour un produit non grand public (c’était un système de guidage inertiel), le client avait demandé une perfo inférieure à ce dont les capteurs étaient intrinsèquement capables. Du coup du bruit artificiel a été ajouté sur les signaux issus de ces derniers : le client a eu la performance demandées, et un prix plus abordable qu’une centrale full perf.

Le tout pour le consommateur, c’est d’avoir un rapport prix/performance acceptable. Et c’est bien ce que permet de ce genre d’astuces : ça permet au constructeur de jeter moins de puces. Et pas sûr que les clients soient prêt à payer plus cher pour une “465” avec toute les unités de calculs.


Le 10/12/2016 à 14h 20







LordZurp a écrit :



1.5M€ …

on va dire 3k€ par bécane, casque compris, parce qu’ils ont pas du être chiche pour que ça tourne bien

on rajoute 10k€ pour le piaf à verin et les rameurs

ça fait 1.450M€ pour la déco et les murs&nbsp;<img data-src=" />





3k€ par bécane casque compris, t’es léger. C’est à peu près ce qu’un particulier paierai en prenant une machine clé en main chez etailer. Pour un usage comme celui-ci,&nbsp; il faut rajouter des contrats de support/maintenance, et ça fait vite monter l’addition. N’oublie pas non plus les multiples écrans.

Mais effectivement, ça reste toujours une goutte dans l’océan comparé au loyer (ou achat) de 300m² en plein de Paris et le coût de la main d’œuvre. D’ailleurs, quand tu vois les photos, l’aménagement n’a pas du être gratos.



&nbsp;


Le 10/12/2016 à 13h 37







wykaaa a écrit :



L’IPV6 ce n’est pas qu’un “agrandissement” de l’IP. Les 128 bits ne servent pas qu’à l’IP. Il y a des infos pour la réservation de bande passante et d’autres choses encore.

https://www.fun-mooc.fr/c4x/MinesTelecom/04012/asset/sequence-2.pdf





Super, moi qui lisait les commentaires dans l’espoir d’en apprendre un peu plus sur le protocole IPV6! Bien joué<img data-src=" />

&nbsp;



fred42 a écrit :



J’avais tiqué comme toi sur cette formulation. Le “très haut débit” n’a rien à faire dans cette phrase.





Si c”était cela qui avait été écrit, il n’y aurait pas de soucis. L’IP V6 est le protocole du futur quel que soit le débit.





Je pense qu’il est fait allusion au THD, car en France, il semble se démocratiser avec l’arrivée des connexions THD.

En revanche, il s’agit désormais du protocole du présent, vu qu’il est exploitable <img data-src=" />


Le 09/12/2016 à 09h 38

Oui, je suis d’accord, c’est rageant quand t’as des jeux exclusifs intéressant sur des produits différents.



Aussi, au sujet des exclus, je ne sais pas à quel point il est compliqué pour les dev de supporter chaque casque. Existe-t-il une API capable d’apporter un maximum de transparence (un peu comme directX ou Vulkan&nbsp; pour le GPU) aux devs ? Je ne pense pas, et on pourrait reprocher aux constructeurs de ne pas s’être entendu sur le sujet.

Le 09/12/2016 à 09h 16

Le truc, c’est que quand tu propose une nouvelle plateforme, tes clients potentiels te disent “j’achèterai quand il y aura du contenu” alors que les producteurs de contenus te disent “je produirai dans du contenu quand il y aura suffisamment de clients”.

Du coup les exclus, ça permet aux fabricants d’apporter un minimum de contenu pour les clients. Et en général, ils offrent un coup de pouce financier aux studios tiers, ce qui diminue le risque pris.



Aujourd’hui, vu la base de client, ça oit être compliqué d’amortir un jeu de qualité uniquement dédié à la VR. Et les gens prêts à investir pas loin de 1000€ pour un tel système seront des clients exigeants, qui s’attendent à plus que du jeu indé pour leur produit (sans cracher sur le jeu indé qui peuvent être très intéressant)

Le 09/12/2016 à 08h 49

Je ne sais pas si publier des jeux exclusifs à la VR (pas forcement à un casque en particulier) est une bonne stratégie. J’ai bien l’impression que pour le moment, il s’agit plus de démo techniques que de “vrais jeux” avec une propriété intellectuelle solide.

Si je devais me mettre à la VR, c’est pour pouvoir profiter d’une meilleure expérience sur un jeu AAA. Mais les gros éditeurs ne semblent pas pressés de franchir le pas :/

&nbsp;

&nbsp;

Le 09/12/2016 à 03h 22

Pareil, la vSync Limite à 60fps, et ça fait du bien aux oreilles <img data-src=" />

Le 08/12/2016 à 22h 59

Pas de produit avant 2017.

Le 08/12/2016 à 18h 01

Pas mal le concept de limiteur de fps, combiné à un écran freesync, ça doit valoir le détour. A voir en pratique ce qu’il en est (à mon avis pour des jeux rapides comme Starcraft ça ne doit pas être très utile, mais pour des jeux plus zen, why not)

Le 08/12/2016 à 15h 31

Pour Ubisoft, ça a plutôt un goût de pâté Enough <img data-src=" />

Le 07/12/2016 à 22h 34

Certes. Il y a aura toujours quelques scènes plus gourmandes que les autres, ou des limites dans le moteur du jeu (je pense à Diablo 3 là) qui pourront mettre à la mal le compteur de FPS.

Après faut voir la qualité apportée pour le budget supplémentaire : pour ma part je vois pas trop la différence entre un MSAA 4x et un MSAA 16x en jeu, (mis à part la chute de FPS <img data-src=" /> )

D’ailleurs, vu le surcoût entre une 1070 et une 1080, il serait limite plus avantageux de payer un écran GSync pour palier à la chute de FPS <img data-src=" />

&nbsp;

&nbsp;

Le 07/12/2016 à 20h 40







xillibit a écrit :



A moins de vouloir faire du SLi ou jouer en 1440p, la RX 480 4Go est un bon choix aux alentours de 200€.

Avec la GTX 1060 tu peux oublier le SLI et surement aussi avec la GTX 1050





C’est vrai. Cependant, vu le bordel des systèmes multi GPU, je ne trouve pas ça illogique de le réserver au haut de gamme : s’il existe un produit mono GPU faisant aussi bien qu’un SLi, il vaut mieux prendre le produit mono GPU. nVidia force la main des clients, ce qui est moyen je te l’accorde, mais ça doit leur économiser pas mal de travail de validation et ne concerner qu’une faible proportion de leur clients.

&nbsp;





ndjpoye a écrit :



Là, j’ai un point de vue :)



Pour moi, t’oublies un critère : est ce que tu veut dépasser la résolution 1920 x 1080 ?

Au vue de tout les articles que j’ai vue, la 1060 6Go prend plus souvent ses distances (de la 480 8Go) dans les résolution supérieurs. Sinon, en 1920x1080, ça se resserre plus. Bon, ca varie beaucoup selon les sites (en partie à cause des réglages je pense et peut être des version de drivers).



Nb : Ayant passé 3 semaines à rechercher pour choisir entre 480 et 1060 j’avoue, j’ai eu du mal avec une affirmation posée comme ça, sans justification&nbsp;<img data-src=" /><img data-src=" />





C’est vrai, je me suis arrêté au full HD parce que c’était surtout la cible de ces produits : viser le full HD sans compromis. Pour du 1440p, à moins de jouer à des jeux lights type e-sport ou consentir à sacrifier la qualité graphique, j’irai plutôt voir la gamme du dessus, avec les GTX 1070.


Le 07/12/2016 à 18h 05

Merci pour ces infos!&nbsp;<img data-src=" />

Le 07/12/2016 à 18h 03

En regardant en diagonale sur un comparateur de prix, on aurait :

(c’est plutôt des prix d’appels sur certains modèles et/ou revendeurs, pas une moyenne)

&nbsp;

GTX 1050 Ti ~ 160€

GTX 1060 3 Go ~230€

GTX 1060 6Go ~280€



RX 470 ~ 180€

RX 480 4Go ~ 210€

RX 480 8Go ~250€





Les deux modèles de RX480 sont très proches en terme de performance, le modèle 4GO étant pénalisé par la fréquence moindre de sa vRAM. Mais on parle d’environ 2% de performances, soit rien du tout (face aux 40€ de différence). En full HD, 4Go sont pour le moment suffisant. A moins de vouloir faire du SLi ou jouer en 1440p, la RX 480 4Go est un bon choix aux alentours de 200€. Si un promo fait chuter une modèle 8Go vers les 200/210€, ça devient une très bonne affaire. Attention toutefois à l’efficacité énergétique qui est bien moins bon que chez les verts et au modèle de référence qui souffre d’un problème de design d’alimentation.

A noter qu’AMD un promis un nouveau stepping des puces polaris qui devrait améliorer les choses de ce côté, reste à voir quand et dans quelles proportions.

&nbsp;&nbsp;

En face, la GTX 1060 3Go offre, en moyenne, des performances égales des RX480 (ça dépendra des jeux, les cartes AMD ayant généralement un net avantage dans les jeux DX12/Vulkan cf iciet ).

Ses 3Go peuvent aussi se montrer limités pour jouer en full HD avec les curseurs à fond, en particulier les pack de textures très détaillés (d’où le choix probable de nVidia de proposer une puce castrée par rapport au modèle 6Go, afin d’écouler les puces défectueuse sans pour autant brider complètement la carte).



Du coup, entre une RX 480 4Go et une GTX 1060 3Go, le choix est assez ténu, une fois mis l’efficacité énergétique et la suite logicielle nVidia dans la balance.&nbsp;

Si tu arrive à trouver une RX480 8Go vers 200/210€,&nbsp; alors l’avantage est net en faveur de la carte AMD (car on s’affranchit de la limite de la vRAM). &nbsp;

Le 07/12/2016 à 16h 44

Disons qu’à environ 200€, c’est un bon deal prix/perfo.

C’est pile poil dans le trou de la concurrence, qui n’a rien à proposer entre la 1050 Ti et la 1060 3Go.



La RX 470 que l’on peut parfois trouver à 170€ en soldes est aussi un bon deal, le problème d’alimentation du modèle de référence de la RX 480 en moins.&nbsp;

Le 07/12/2016 à 16h 11







Tidus93 a écrit :



Tiens donc ? Pourtant mon PC boulot équipé d’une AMD FirePro dispose bien d’un logiciel en barre des tâches appelé “AMD Catalyst Control Center”.





Il a quel âge? Je ne suis pas torp le marché pro, mais si ta carte n’est pas dans cette liste, alors effectivement c’est encore le CCC (non pas le comité contre les chats) qui s’applique.









  • FirePro R5000

  • FirePro V5900

  • FirePro V7900

  • FirePro V7900 SDI

  • FirePro W600

  • FirePro W2100

  • FirePro W4100

  • FirePro W4300

  • FirePro W5000

  • FirePro W5000 DVI

  • FirePro W5100

  • FirePro W7000

  • FirePro W7100

  • FirePro W8000

  • FirePro W8100

  • FirePro W9000

  • FirePro W9100





    &nbsp;





    Incalex a écrit :



    L’encodeur software (CPU pur) à une longueur d’avance en terme de ratio poids/qualité.

    Mais uniquement sur ce domaine la. Pour du streaming, dans le cas ou on est limité en débit, c’est un argument de qualité, puisqu’a débit équivalent, le CPU donnera un meilleur rendu.

    En revanche et en jeu, si on veux le moins ressentir des baisses de performances, les encodeurs hardwares sont très utiles. Et pour faire du local record avec une bonne qualité aussi.



    Je reviens juste sur le “il faut encoder via CPU sur une machine tiers”.

    J’approuve totalement car c’est actuellement mon setup de stream. PC de jeu qui encode via QSV sans limite de débit, envoi en RTMP sur un 2 PC, serveur Linux, qui ré-encode ça via ffmpeg, sans accélération hardware.

    C’est le meilleur compromis pour avoir une bonne qualité de stream, et pas de pertes de performances coté PC de jeu.

    Mais ça demande 2 PCs, et savoir faire son serveur Linux (compiler son nginx-rtmp, ou pire vu que nginx-rtmp apprécie pas trop le 1440p60fps, trouver des solutions tierces)





    Moi je pensais plutôt à une carte d’acquisition HDMI, comme ça aucun iNpact sur le PC de jeu, et un seul encodage de bonne qualité! Mais d’un coup ça fait augmenter la note (2nd assez puissant, boitier d’acquisition, électricité) et ce n’est pas viable pour celui qui n’est pas pro/semi-pro.

    Simple curiosité, c’est quoi ton set-up ? Comment tu récupère le flux sur le PC d’encodage?

    &nbsp;





    ndjpoye a écrit :



    Why ?





    Je pense qu’il voulait dire “évitez les RX 480 8GO à PLUS de 200€”. <img data-src=" />


Le 07/12/2016 à 05h 23







matroska a écrit :



Merci du feedback ! J’ai encore une vieille CG sur un de mes poste, une 9800GTX mdr. Sinon il est vrai que les softwares nVidia que ce soit GeForce Experience ou bien même les pilotes sont plus aboutis qu’AMD et plus simples à mettre à jour, in-app update, propre et simple.



<img data-src=" />





Tout dépend de ce que tu appelles abouti, mais je pense qu’en terme de stabilité et d’interface, les pilotes AMD font désormais jeu égal avec les pilotes nVidia (et oui on peu les maj via l’interface)


Le 06/12/2016 à 22h 49







matroska a écrit :



Ça donne quoi les CG AMD de nos jours ? Je veux dire par rapport à nVidia ? J’aimerais changer et je me tâte à revenir chez eux.



😘





Ça dépend des gammes. Pour le moment, sur le bas et le milieu de gamme, les produits polaris peuvent tirer leur épingle du jeu sur le rapport perf/prix. Elles accusent un manque d’efficacité énergétiques face aux gammes Pascal toutefois. La partie logicielle de chez nVidia est aussi plus fournie, avec des outils comme shadowplay.

Sur le “haut du milieu de gamme”, tu peux peut être trouver des R9 Fury, des GPU d’ancienne génération qui ont vu leur prix cassé pour venir s’intercaler entre la GTX 1060 et la GTX 1070 (tant en terme de prix que de perfs).

Mais je ne te conseille pas ces produits, d’une part car l’efficacité énergétique est vraiment à la traine, et aussi parce que les 4Go de vRAM sont un peu léger de nos jours.


Le 06/12/2016 à 19h 56







Pas de Bol a écrit :



Pour les historiens, que s’est-il passé entre Q2 et Q4 2014 ?





Je dirai l’arrivée des GPU Maxwell chez les verts.

&nbsp;





Tidus93 a écrit :



(rien que le Catalyst Control Center, je ne veux plus en entendre parler).





Ça tombe bien il a disparu <img data-src=" />


Le 07/12/2016 à 13h 59

PC Master Case! <img data-src=" />



Sinon, c’est le premier article de Guillaume sur NXi ou j’ai raté un truc ?

Le 06/12/2016 à 16h 58







Cashiderme a écrit :



Je

suis loin d’etre pressée. J’attend que la définition d’écran

s’améliore, et que le form factor, comme le tarif, maigrissent.

Ou que le tout fasse plouf et qu’on en entende plus parler, qui sait.







&nbsp;Pareil, ce n’est pas tellement le prix qui me rebute (finalement un écran 4k de qualité est pas si éloigné en terme de tarif) mais bien l’expérience qui me semble encore perfectible (surtout en terme de contenus). J’aimerai tout de même avoir l’occasion de tester les bestioles, car pour avoir vu des écrans hémisphériques de simulateurs de pilotage, l’effet est saisissant <img data-src=" />



&nbsp;

Quelques exclusivités sont évidemment réservées à une plateforme ou à l’autre





L’histoire du patch permettant de rendre compatible des titres Occulus avec le Vive est-elle toujours d’actualité?





Pour maintenir un taux de rafraichissement à 90 Hz ou 120 Hz (via

l’ajout d’images intercalaires), les développeurs doivent en effet faire



quelques concessions, et cela se ressent nécessairement sur l'aspect      



visuel des jeux



&nbsp;

Concessions, ce n’est pas un euphémisme <img data-src=" />

&nbsp;