votre avatar

Charly32

est avec nous depuis le 28 août 2009 ❤️

3585 commentaires

Le 20/12/2015 à 13h 17







airfab a écrit :



Ha je ne sais pas, je fais du travail manuel <img data-src=" />





La branlette au bureau ça ne compte pas <img data-src=" />


Le 17/12/2015 à 11h 59







alexg57070 a écrit :



Comment sont mesurés les débits ?





Flux total envoyé par un opérateur/nombre d’abonnés Netflix de l’opérateur.

Dans tous les cas ça ne montre pas grand chose sur la capacité des connexions.


Le 16/12/2015 à 16h 29







Konrad a écrit :



C’est bien normal. Pourquoi l’utilisateur aurait-il le choix de rester sur une vieille version, alors que Microsoft offre gratuitement de migrer vers une version plus récente, plus moderne, mieux sécurisée, bref meilleure en tous points ?





Pour ma part je ne la fait pas car j’ai des licence W7/W8.1 boite (et donc transférable de machine en machine une nombre illimité de fois, tant qu’elles ne sont activées que sur une seule machine à la fois) et qu’une fois convertie en licence Windows 10, elle devient liée à la machine (via un hardware ID). (source)


Le 16/12/2015 à 08h 36

Les droits sur la licence Metal Gear appartiennent à Konami ou Kojima?

Le 14/12/2015 à 11h 13







keralan a écrit :



Moi elle m’intéresse.



C’est quoi le problème avec les gâchette ? Elles ne sont pas aisément accessibles ?





Ce sont plus des “palettes” que des gâchettes. Et comme peu de manettes en sont équipées (à ma connaissance le pad Microsft Elite et les manettes SCUF) , il faut s’y habituer.

&nbsp;


Le 13/12/2015 à 11h 03







durthu a écrit :



Les manettes SCUF ont l’air pas mal mais 150€ pour une manette <img data-src=" /> !!!

Après je ne joue que sur PC et j’ai investi dans un manette 360 en solde il y a un ou deux ans. Je ne m’en sers que pour les jeux de foot et de course auto.





Forcement le prix me rebute aussi…mais d’un côté c’est du cousu main (littéralement, les manettes sont montées et testé à la mimine) et de&nbsp; l’autre, c’est un périphérique que je vais garder au moins 10 ans. Face à un GPU qui va me couter 450€ et faire 3 ans c’est pas forcement l’élément le plus couteux du matos gaming.

Disons que cette manette serait un gros plaisir.

&nbsp;





Aces a écrit :



Ah oui les toutes premières manettes de la Ps3, une catastrophe…

Pour le tool, tu me donneras ça dès que tu l’auras retrouvé, là, j’ai DS3_tool qui fonctionne de façon étrange sur mon PC depuis la dernière mise à jour de Win10 (enfin les derniers correctifs de la 1011).







J’ai retrouvél’outil que j’utilise, dur de se rappeler de nom car…il n’en a pas vraiment <img data-src=" />


Le 11/12/2015 à 13h 37

Faut que je retrouve le nom de l’autre outil, je ne l’ai pas en tête.

Il me semble qu’il est moins complet, dans le sens où les réglages sont moins nombreux que sur DS3_Tool, mais pour wrapper les commandes xboite il fait très bien le travail. A noter, j’utilise en filaire, donc je ne sais pas ce qu’il en est du sans fil.



Sinon je parle bien d’une SIXAXIS et non d’une Dualshock 3, la manette sortie avec les toutes premières PS3, quand SONY était encore en procès avec la boite qui avait posé un brevet sur les manettes vibrantes <img data-src=" />

Le 11/12/2015 à 11h 51

Pour ma part j’hésite à passer carrément à une manette SCUF, qui offre certaines fonctionnalités bien sympathiques (palettes configurables, sticks de différentes tailles et formes, anti-grip, choix de la finition…). Quitte à investir dans un contrôleur, autant ne pas mégoter sur la qualité vu qu’on risque de la garder pendant plusieurs années.&nbsp; Le steam controllerme fait aussi de l’œil, et bien moins cher, mais son aspect playskool me rebute.

&nbsp;

&nbsp;







mitzubishi a écrit :



j’ai rien compris à la news, j utilise une manette xbox 360, mais cela revient au même, il y a un putin d adaptateur qu il faut en permanence brancher pour que la manette fonctionne en wifi. un truc en plus a connecter sur le pc. comme si on était pas deja envahi de cable. A quand le fonctionnement en wifi ou blutooth sans adaptateur?





Il me semble que les manettes de Xboite n’utilisent ni du BT ni du Wifi.



&nbsp;





Aces a écrit :



Mouais, je garde ma manette Ps3 sur WIN10 avec DS3_Tool.

Je n’arrive pas à m’y faire à la manette de la XBox.





Je suis aussi avec une mantte ps3, que je trouve inergonomique au possible (pour placer ses doigts sur les 4 gahettes, bonjour la galère). En comme c’est une SIXAXIS, pas de vibration :/

Enfin j’ai viré DS3_tool qui a tendance à tomber en marche au profit d’une autre outil.



&nbsp;





tazvld a écrit :



Enfin, je ne supporte pas le cable sur une souris, il entrave mon mouvement.





Les joueurs pro utilisent un espèce de levier pour faire “flotter” le fil.

Pour ma part je ne suis pas sujet à ce problème, j’ai une sensibilité suffisamment haute pour ne pas déplacer ma souris de plus que quelques centimètres (seul mon poignet bouge :) )


Le 11/12/2015 à 09h 39

Tu sera moins catégorique quand tu sera de nouveau quoté sur DTC <img data-src=" />

Le 11/12/2015 à 07h 34

C’est ce que je m’efforce de me dire lors de nos conversations&nbsp; <img data-src=" />

Le 10/12/2015 à 23h 32







Ellierys a écrit :



Bah Phishing, Keyloggers, liens vérolés, malwares, hack d’un autre service avec le même combo mail/mdp…





A part le malware/keylogger, le reste a tout de même peu de chance de toucher l’utilisateur un minimum averti décrit dans l’article.

&nbsp;


Le 10/12/2015 à 09h 03

En effet, j’avais zappé ce point!

Il y quelques temps je suis passé à un mot de passe par site, au moins pour les comptes sensibles (autant on me pirate mon compte NXi, je ne perdrai pas grand chose, autant mon compte steam…), sur la base du “la sécurité d’un mot de passe est égale à la sécurité du compte le moins sécurisé sur lequel il est employé”.





Par conte le phishing, c’est toujours efficace, mais impossible pour le pirate de cibler un joueur particulier.

Le 10/12/2015 à 08h 36



« Nous avons l’habitude de penser que si vous êtes assez malins&nbsp;au

sujet de la sécurité de cotre compte, vous êtes protégés. Il est facile

de partir du principe que les gens dont les comptes sont volés sont des

nouveaux ou des utilisateurs naïfs qui partagent leurs mots de passe ou

cliquent sur des liens douteux. Ce n’est tout simplement pas le cas » ajoute-t-il. «&nbsp;Ce ne sont pas les nouveaux et les naïfs qui sont touchés, ce sont les joueurs professionnels&nbsp;de CS:GO, des contributeurs de Reddit, des traders d’objets etc.&nbsp;et les pirates peuvent attendre des mois s’il le faut pour atteindre leur cible ».





Pourtant, à part avec un mot de passe type “123456”, j’ai du mal à imaginer comment on peut se faire pirater son compte…ou bien une grosse attaque de social engineering de ce type, mais là le problème serait plutôt du côté des procédures de Valve.

Le 09/12/2015 à 09h 32







Guinnness a écrit :



M’enfin dans le cas présent ça montre que les ingés de chez AMD sont quand même de sacrés blaireaux : l’affaire Asetek/Cooler Master traîne depuis plusieurs années en ayant rien de secret et eux ne trouvent rien de mieux à faire que d’équiper leur nouveau haut de gamme avec un dissipateur qui pose potentiellement problème.

C’est leur boulot de s’assurer que le choix des différents constituants ne posera aucun soucis en matière d’approvisionnement ou autre.





Yakafokon!

Personne à part les blaireaux susnommés ne sont capables&nbsp; de donner les bonnes raisons qui ont conduit à ce choix. Quand tu conçois un produit il y a d’autres considérations qu’une bataille juridique à prendre en compte.


Le 07/12/2015 à 16h 54







WereWindle a écrit :



Attendu que l’objectif est (souvent) “toujours plus de puissance”, est-ce possible de l’atteindre tout en chauffant/consommant moins ? (vraie question)





Oui, la réduction de la finesse de gravure et l’optimisation de l’architecture sont les deux moyens les plus usités pour augmenter le rapport perf calcul/dégagement calorifique.&nbsp; Dans le cas des GPU, le premier moyen est le boulot des fondeurs (GloFo, TSMC) le deuxième celui des concepteurs (nVidia, AMD).





Commentaire_supprime a écrit :



Quand je vois que les constructeurs d’alimentations sortent des machins avec la puissance de mon fer à repasser, j’ai des doutes…





On a tendance a surestimer la consommation de son PC. Une machine haut de gamme à base de i7 6700k/980Ti ne tirera pas plus de 500W en jeu. Les alimentations 1kW et plus sont dédiés aux quelques fous qui font du crossfire avec des R9 390X et un FX9550 OC à fond les ballons.





js2082 a écrit :



Ben, Intel et AMD arrivent bien à le faire avec leurs processeurs.

Pourquoi une telle chose deviendrait impossible sur une carte graphique?



Après, il y a aussi les “bridages” volontaires mis en place pour segmenter le marché (notamment avec la 380x d’AMD dont le bus est réduit, ou encore les unités de calculs ou de texturing faiblardes), et pour éviter que certains ne s’aperçoivent de la trop grande proximité de puissance des CG malgré leur différence de prix affolantes.&nbsp;





Bon déjà AMD dans la liste, sans l’intention de troller, voila quoi. <img data-src=" />

Ensuite, les perf de calcul sur un seul core des CPU a tendance à stagner depuis Ivy Bridge, au contraire des performances énergétiques. Plusieurs raisons à cela :




  • Intel a une longueur d’avance sur la gravure de semi-conducteurs

  • Intel joue des coudes pour entrer sur le marché des mobiles, soit des produits où l’efficacité énergétique prime devant la puissance de calcul brute.

  • Il y a finalement peut d’usage grand public impliquant une grosse charge CPU : le jeu vidéo et le traitement photo/video sont ceux auquel le plus grand nombre seront confrontés.

    &nbsp;

    Ce n’est pas le cas du marché GPU où :

  • AMD et nVidia se battent pour le haut de gamme (comprendre les joueurs, pour le grand public), l’entrée de gamme étant accaparé par les solutions intégrées d’Intel. Et donc elles vont se battre sur le terrain des performances, quitte à y laisser des watts.

  • Les jeux sont toujours de plus en plus exigeant d’un point de vue calculs graphiques : 120Hz, VR, hautes résolutions…bref il faut calculer toujours plus et plus vite.



    Aparté sur Tonga : oui le bus est “bridé” à 256bits, mais il faut garder à l’esprit que :

  • un bus de 384 bits impliquerait une quantité de mémoire de 3 ou 6Go. Le première, qui est un bon compromis, impliquerait de “perdre” sur le terrain marketing face aux cartes concurrentes qui proposent 4Go. La seconde quantité grèverait tellement le prix de la carte, qu’elle ne serait pas compétitive.

  • le regain de bande passante apporterait un gain de l’ordre de 10%, dans le meilleur des scénario. Alors certes, ça aurait légitimé l’existence de la carte dans certains cas, mais pas de quoi en faire un produit miracle non plus.

    &nbsp;

    Bref le compromis était piné d’avance pour AMD, et ce ne sont pas ces 128 bits d’écart sur le bus qui auraient pu les aider.


Le 08/12/2015 à 16h 09

Ils parlaient plutôt vis à vis du taux de pénétration des systèmes POSIX (pour rester large) sur le marché grand public : de mémoire ça représentait moins de 10%.

C’est toujours le même dilemme sinon :




  • développez des jeux sur la plateforme et elle deviendra populaire

  • on développera quand votre plateforme sera plus populaire.

Le 08/12/2015 à 15h 36







0xFlame a écrit :



je n’ai pas dit le contraire, et ce serait bien qu’ils aillent jusqu’au bout de l’idée en développant également sous UNIX, mais la j’en demande trop <img data-src=" />





Ils se sont exprimé il n’y a pas très longtemps à ce sujet, arguant que les estimations du marché est trop faible pour justifier un dev pour cet OS. Peut être ont-ils jugé qu’il en était de même pour OSX désormais (ce dont je doute) ou alors les choix techniques pour le rendu du jeu se fait via les API Microsoft (Direct 3D)


Le 08/12/2015 à 14h 12



alors qu’il s’attaque à des concurrents tels que Team Fortress 2,&nbsp;qui exploitent un tel modèle.



TF² a mis un petit peu de temps avant de passer f2p (D’ailleurs TF² n’incite pas vraiment aux micro-paiements je trouve). Blizzard a probablement envie de voir s’ils peuvent faire une sorte de mix entre “pay 2 play” traditionnel et trololo kikoo hats à 5€ pièce.



&nbsp;



Galoo a écrit :




Donc si Blibli pouvait balancer plus de clés en janvier et se lancer dans une beta aussi ouverte que l'était celle de HOTS ce serait cool (mais vu le modèle économique, c'est pas une évidence).





Au contraire, la beta devient alors une sorte de demo et permet de faire grandir “la hype” autour du titre et donner envie aux joueur de l’acheter. Diablo 3 avait adopté un comportement similaire, avec une open beta lancée le temps d’un WE pour officiellement réaliser un stress test (avec le succès que l’on connait tous <img data-src=" />)

&nbsp;

Toutefois, il faut que le jeu ait atteint une certaines maturité avant d’ouvrir en grand les vannes.

Pour HOTS, le jeu était resté très longtemps en alpha fermée, les vannes de la beta ayant été ouverte peu de temps avant le lancement du jeu.

Le 08/12/2015 à 08h 34



Une OPA sauce Bollo





<img data-src=" />



&nbsp;Bonjour l’ambiance quand un rachat se passe comme ça. Va motiver les salariés de la boite après.

Le 01/12/2015 à 12h 04

&nbsp;

La seconde modification concerne le bloc auteur qui est présent sous les

articles. Celui-ci intègre depuis quelques temps déjà des liens vers les réseaux sociaux de nos journalistes.





Ca dépend lesquels…suivez me regard (vers l’ouest, en terre du beurre salé et du blé noir)

<img data-src=" />

Le 30/11/2015 à 13h 46

Je n’ai pas trop suivi l’histoire au UK, mais dans n’importe quel pays, en cas de décision de justice, la firme est obligée de coopérer et de mettre tout les moyens techniques nécessaire pour fournir les données qu’elle possède.



Ici, il s’agissait de filer un accès “open bar” à une agence gouvernementale.

Le 27/11/2015 à 16h 23



et ceux des forums de Gamekult, avec ce fil de discussion&nbsp;devenu cultissime.





&nbsp;MER IL SON FOU!

Le 25/11/2015 à 16h 40

“Cet Australien s’est fait bannir de Facebook de nombreuses fois. La raison va vous surprendre!”

Le 25/11/2015 à 16h 03







Reznor26 a écrit :



Next INpact ? <img data-src=" />





“Coucou c’est nous!” <img data-src=" />

<img data-src=" />


Le 25/11/2015 à 15h 58







Reznor26 a écrit :



Tout sauf Vivendi.





Bouygues? <img data-src=" />


Le 25/11/2015 à 15h 26







John Shaft a écrit :



Certes,

mais la non-distinction territoire/population dans les éléments de

langage de la comm’ des opérateur/de l’Etat est irritante : en terme de

territoire, ils couvrent que dalle et apporter la fibre à tout le

territoire (et donc population) va prendre des années.





Comme bien souvent, les 80% premiers pourcents sont rapides à faire, et les 20 derniers prennent 99% du temps total.

Sinon quand il est dit “50% de la France en THD…”&nbsp; ça me parait non-ambigu d’un point de vue population/surface (vu que la fibre arrive à un point fixe). Dans le cas du mobile, où tu couvre une surface, il y a effectivement

ambiguïté, du fait de la non-homogénéité de la répartition de la

population sur le territoire.

Par contre pour la fibre, c’est&nbsp; ambigu sur “population/foyer”.



&nbsp;





John Shaft a écrit :



Alors que les gens dans des petits bled on en tout autant besoin que dans les grandes agglos (voir même plus) <img data-src=" />





Je croyais que la mamie du Cantal n’avait pas besoin d’un grosse connexion <img data-src=" />


Le 25/11/2015 à 13h 40







larkhon a écrit :



Quand on parle de 50% de la France c’est le territoire ou les français ?









Reguen a écrit :



La population. :)









John Shaft a écrit :



Donc 10% du territoire (au pifomètre)





Le débat est inutile pour du fixe : l’idéal est de couvrir 100% de la population (voire 100% des foyers).

Tandis que le mobile, l’idéal est de couvrir 100% du territoire (car la population est susceptible de se déplacer sur ce dernier).

D’ailleurs comment compter x% du territoire pour le fixe? Je peux emmener ma fibre sur la route? <img data-src=" />



&nbsp;





A-snowboard a écrit :



Gardez bien cet article au chaud. RDV en 2017





Vu que le câble est comptabilisé dans les offres THD, ça ne me parait pas déconnant comme objectif.


Le 25/11/2015 à 11h 32

TF1 a essayé de “faire de l’internet” comme elle “faisait de la télévision”.&nbsp;

&nbsp;

Le 25/11/2015 à 07h 22

Au contraire, l’importance est de taille : tout le savoir faire du coca reste aux USA. La base est bien plus que de la matière première, c’est toute la recette. De fait ils gardent la maitrise du produit et réduisent drastiquement leur coûts de de manutention. (Note que la base est strictement identique pour tous les pays, le goût différent provient des adjuvants utilisés par les embouteilleurs.)&nbsp; <img data-src=" />



Après je n’ai pas suivi le reste du débat, mais du coup, oui, il y a des usines Coca en France qui emploient des gens.

Le 24/11/2015 à 23h 23

Surtout au sujet de la licorne <img data-src=" />

Mais bon, je m’égare et je vais passer pour une tantouze.

Le 24/11/2015 à 15h 33







Network a écrit :



Cool, je vais acheter la licorne !

&nbsp;



Les licornes, ça troue l’cul! #PhatReference







Paladin_Fr a écrit :



Le coca est produit en France bizarrement.





Non, il est embouteillé en France. La “base” est fournie par Coca-Cola Cie, et c’est cette fameuse base dont la recette est gardée secrète.

En revanche, l’eau et l’édulcorant (sucre) est à la discrétion de l’embouteilleur. Par exemple le Coca est généralement sucré avec du sirop de maïs aux USA.


Le 23/11/2015 à 11h 18

Pour les jeux vidéos,&nbsp; -50% sur toute la boutique Heroes of the Stormdu 24 Novembre au 8 Décembre <img data-src=" />

Le 24/11/2015 à 16h 03







night57200 a écrit :



La R9 280X que j’ai achetée la semaine dernière a quand même un GPU qui date de 2012…

Le temps s’allonge un peu en hardware, en ce moment <img data-src=" />





2009 à 2015 = &gt; 6 ans

2012 à 2015 =&gt; 3 ans



Faut pas pousser le bouchons au delà des bornes des limites non plus <img data-src=" />

(D’autant plus que la série des 5xxx est encore supportée, ce n’est pas totalement abandonné non plus)


Le 24/11/2015 à 15h 26







zepompom a écrit :



Pour ma HD 5770, apparemment je peux avoir le driver Crimson mais seulement en beta :(



&nbsp;Ok elle est “vieille”, mais comparé à de “nouvelles” cartes qui ne sont qu’un renommage de cette série, c’est un peu dommage.





La 5770 date tout de même de 2009…les cartes renommées basées sur GCN 1.0 datent de fin 2011, soit trois ans plus récentes tout de même.

Et surtout jusqu’au HD 7xxx, les cartes étaient basée sur des architectures vectorielles, appelée VLIW. Cette architecture était très efficace pour traiter des paquets de commande (un vecteur), mais cela impliquait de réussir à les regrouper, ce qui était le travail du pilote. On peut comprendre que AMD n’assure que le strict minimum à ce niveau.



&nbsp;


Le 20/11/2015 à 14h 08

Pas sûr, il y a un petit effet “4k”&nbsp; et prochainement “VR” qui poussent aux efforts sur le (très) haut de gamme.

Mais on constate effectivement un ralentissement dans la course aux armes (à cause des difficultés sur les procédés de gravure?)&nbsp; et une orientation vers l’optimisation : G-Sync/Freesync pour améliorer la fluidité lorsque le framerate est un peu short et Mantle/DirectX 12&nbsp; pour permettre de libérer du CPU et les optimisation bas niveau par les devs.

Le 20/11/2015 à 12h 54







sans sucre a écrit :



franchement &nbsp;quoi joue amd ?



autant j’aprecis amd au point que je conseil des pc full amd pour les petit budget mais la franchement la amd je ne comprend pas leures strageie ?



ce que veulent les gens c’est de la veritable nouveaute a un tarif pas trop eleve afin de concurencer le monopole d’intel (cpu) et le rouleau compresseur nvidia pour les gpu&nbsp;





La stratégie est tributaire de la technique. A mon avis, il ne s’attendaient pas à ce que nVidia sorte une nouvelle archi aussi efficace avec le procédé de gravure actuel (Maxwell) et ils se sont plus focalisés sur la suite. Manque de chance, le 22nm a eu des déboires et il était plus rentable d’attendre directement le 16nm.



Après la véritable nouveauté le public s’en tape un peu (la HBM de la Fury c’est une véritable nouveauté par exemple), ils regarderont d’abord l’image du constructeur, le prix, les performances et la conso/dégagement calorifique.

&nbsp;

&nbsp;





mango a écrit :



Bonjour,

Moi, la seule chose que je vois. C’est qu’on essaie de faire du neuf avec du vieux. Chez Amd, ils n’ont pas froid aux yeux.

J’attends tranquillement la relève. En attendant, j’achète GeForce. Et pour une fois, les prix ne sont pas excessifs.





Je te rassure, même si c’est bien moins gros que ce que fait AMD en ce moment, les verts aussi renomment (ex la GTX770 qui est quasi une GTX 680 rebadgée). Carton rouge au deux fabricants pour ces pratiques <img data-src=" />


Le 19/11/2015 à 16h 20







Pepes003 a écrit :



+1 tefze1



La 380X tient autant de la 280X que ma Peugeot 407 tient de ma 406





&nbsp;<img data-src=" />



Parce que bon entre GCN 1.0 et GCN 1.2, c’est pas non plus la révolution : quelques points de performances, Freesync et le support de l’accélération audio dont j’ai oublié le nom et deux ou trois bricoles pas forcement visibles pour le public.


Le 20/11/2015 à 14h 08







Spidard a écrit :



Par contre, passer le chiffon a poussière entre les frisettes, la corvée :(





Le quoi? <img data-src=" />


Le 20/11/2015 à 11h 42

Veinard, le bloc optique de ma ps2 est en train de rendre l’âme. <img data-src=" />

Faudrait que je me renseigne pour le changer :/



N’empêche en la voyant en photo sur le header de l’article, son design me fait toujours autant rêver. C’était vraiment une sacrée réussite cette console <img data-src=" />

Le 19/11/2015 à 20h 58







feuille_de_lune a écrit :



peut être parce que l’essentiel du travail est en ville ? <img data-src=" />





Les gros sites industriels ou commercial sont généralement à l’écart des villes ou en passe de délocaliser. Du coup c’est à mi-chemin de la ville et de la campagne.

Après pour les vendeurs de téléphones portables ou les agences de voyages, je dis pas :°)


Le 19/11/2015 à 16h 31

Le débat n’est pas de savoir si les zones rurales sont attractives ou non, mais peut-être que si la France s’est fortement urbanisée depuis les 50 dernières années, ce n’est pas pour rien <img data-src=" />

Le 19/11/2015 à 16h 21

&nbsp;&nbsp;







mr-fox a écrit :



Il y a un calcul à faire… Dire “c’est normal qu’ils paient plus cher en campagne parce que les loyers sont moins chers, ça compense”, c’est un peu simpliste… Déployer la fibre en campagne coûte cher, c’est clair mais si les tarifs des abonnements sont trop chers, il y aura très peu d’abonnés et aucune chance d’amortir le réseau.

Que le tarif soit plus cher peut se comprendre, mais dans une certaine limite pour que l’offre reste attractive.

Il vaut mieux avoir 1000 abonnés à 35€/mois que 100 à 70€/mois…





Si 1000 abonnés à 35€ ne sont pas rentables, mieux vaut en avoir 0.

Si aucune chance d’amortir le réseau avec l’approche commerciale envisagée il faut en changer, par exemple :




  • On ne le déploie pas si on estime que ce n’est pas rentable

  • On considère que ça relève du service public et l’état prend en charge au moins une partie du coût du déploiement.


Le 19/11/2015 à 15h 50



« Les habitants et professionnels des zones rurales devraient payer plus cher leurs services qu’en zone urbaine » résument les deux organismes.





Considère-t-on qu’un réseau fibre est un service public?

Si ce n’est pas le cas, il n’y a rien de choquant&nbsp; à ce que l’accès au service soit différencié en fonction de la facilité d’accès.

Si je veux faire un Marseille&gt; Paris, ça va me couter plus cher que de faire un Melun&nbsp; Paris, et ça ne choquera personne.

Être citadin ou rural a ses avantages et inconvénients : le prix au m² d’un logement est généralement moins cher que le prix au

m² d’un logement en plein centre ville, ce qui peut compenser le

surcoût.



Après on peut opter pour une autre approche : le tarif hausse pour tout le monde. Un abonné rural sera moins rentable (voire déficitaire), mais ce sera compensé par d’autres abonnés, à la façon du pass navigo à tarif unique pour les transports d’ile de France.

Le 19/11/2015 à 13h 06



Jeu, Square et Match





Attends, t’as une actu qui parle de Tinder, Meetic et de bourse, et t’as pas trouvé mieux comme sous-titre?

Vivement que Don revienne sur le devant de la scène hi-tech tiens <img data-src=" />

Le 19/11/2015 à 09h 20







geekounet85 a écrit :



c’est une bonne chose de pas sortir un jeu tout bugué juste pour sortir un jeu avec 6 mois d’avance. ils ont compris que le bad buzz, c’est nocif sur le long terme.&nbsp;









ExIcarus a écrit :



En

grand fan de Deus Ex : Human revolution , je préfère attendre que le

dernier soit un petit bijou bien soigné plutôt qu’une version upgradée

du volet précédent sans saveur.&nbsp;



&nbsp;





Amnesiac a écrit :



Honnêtement,

je préfère qu’ils décalent plutôt qu’ils sortent une truc bâclé. Parce

que re-DL l’espace utilisé par le jeu en patch à chaque maj, c’est bon

quoi. :p



&nbsp; Le soucis c’est qu’un jeu en retard n’est pas forcement synonyme de jeu sans bug <img data-src=" />


Le 18/11/2015 à 15h 46



Elle est où Jade ?



Hinhinhinhinhinhinhinhin!



Commentaire sur la plastique de la dame dans 3…2…1…

Le 18/11/2015 à 09h 10

Complètement!

Le 17/11/2015 à 21h 01







d3st a écrit :









Link14 a écrit :









MuadJC a écrit :



Voici le témoignage dont je parlais plus tôt (en anglais), qui devrait vous donner une meilleure idée de ce qu’est vraiment un pilote graphique :)

(si l’iNpactien qui l’a posté originellement passe par ici, qu’il fasse signe que je puisse le créditer! <img data-src=" />)


Le 17/11/2015 à 16h 40







d3st a écrit :



Il n’y a que moi que ça choque que ce soit le constructeur qui optimise ses pilotes pour un jeu et pas le contraire ?

Je ne vois jamais une console se mettre à jour pour un jeu…





A chaque news on voit la même question arriver, à chaque news la communauté y répond de la même manière :&nbsp;

Sur PC, les archi GPU sont très différentes entre les fabricants et les générations.

Jusqu’à maintenant, la principale interface avec le GPU était l’API 3D, la plupart du temps DirectX (et plus exactement Direct3D).

Lorsque le dev veut faire faire un calcul 3D, il passe par des commandes de l’API. C’est ensuite le pilote graphique qui se charge de “traduire” la commande de l’API par le GPU. En fonction de la stratégie employée par les devs, les divers hack utilisés, des archis GPU, l’utilisation des programmes TWIMTBP/Never Settle, il y a 1000 et 1 façons de gratter des performances en priorisant certaines tâches ou en changeant le comportement bas niveau de certaines commandes.

Dans le cas de Direct3D ne pouvait être fait au niveau des devs, car l’API n’était pas assez “bas niveau”. Je parle au passé car c’est une des principales améliorations offerte par DirectX 12 : permettre au dev d’être plus proche du matériel, un peu comme sur console.





Aussi un Inpactien avait publié récemment un lien vers un forum anglais, où un membre expliquait avoir bossé sur le dev de pilotes chez nVidia, et qu’en gros, un pilote c’est un bordel sans nom, avec des exceptions pour chaque GPU et pour chaque jeu. J’essaierai de remettre la main dessus.



&nbsp;


Le 17/11/2015 à 17h 33



Fnatic promet de « redéfinir le matériel pour l’e-sport. Pas de

conneries marketing ou de fonctionnalités inutiles et chères, juste de

bons produits insprés par nos joueurs et notre expérience comme gamers

de classe mondiale »







Côté clavier, le Rush G1 est un modèle mécanique, sans fioritures, équipé d’interrupteurs Cherry MX





Alors que tout le monde sait que les switch Topre sont ce qui se fait de mieux à l’heure actuelle (le buckle ring du model M est un poil trop bruyant pour le grand public) <img data-src=" />