votre avatar

mononokehime

est avec nous depuis le 20 décembre 2005 ❤️

1098 commentaires

Le 26/06/2014 à 07h 37

Si la fibre pouvait passer par chez moi ça serait tellement bien, le soucis ce n’est pas tant le tarif, c’est surtout la capacité a l’amener chez l’usager, surtout a la campagne.

Le 25/06/2014 à 05h 59







Fuinril a écrit :



Se projeter 10 ou 50 ans n’a pas de sens…. les évolutions sont tellement rapides… Les domaines de recherche qui pourraient potentiellement révolutionner le secteur sont nombreux.



La techno aurait du sens aujourd’hui… si on est tous équipés d’ordinateurs quantiques invisibles à l’oeil nu elle en a beaucoup moins.







L’anticipation n’a rien d’une science exacte, je ne fais que déduire a partir d’une science qui existe déjà mais n’a pas atteint son paroxysme. Si entre temps on trouve beaucoup mieux et moins cher c’est tant mieux pour tout le monde.



Peut être que dans le futur nos jeux seront directement executé dans notre cerveau en contournant l’oeil pour être dans une réalité virtuel. bref on en sait rien.


Le 24/06/2014 à 14h 33







Fuinril a écrit :



Hmmm…. Plusieurs choses. Tu as regardé le prix de ces cartes ? La K340 est à 26500\( unité. Avec une carte c'est 4-24 utilisateurs en 720 à 30 fps....

Donc, de base, en admettant que le matériel nécessaire ne soit que ça (ce qui serait oublier tous les jeux fortement demandeur en CPU plus qu'en GPU mais passons), pour 2 millions d'utilisateurs (soit le nombre d'abonnés au PSN actuellement) , il y en aurait pour un peu moins de 4 milliards de dollar.



4 milliards.... juste pour le matériel.... enfin, non, juste pour les cartes graphiques ! derrière il faut payer le reste du matos, les locaux, la BP, les techniciens qui vont monter et entretenir tout ce bordel, faire de la com autour du service, les jeux, etc, etc...

Alors certes, si ils en commandaient 2 millions ils les auraient certainement moins cher, mais pas au point de rendre le projet viable économiquement.



Et ça c'est pour des cartes graphiques atrocement peu puissantes (la K340 est cadencé moins haut qu'une radeon R9). Il faudrait renouveler le parc tous les combien ? Pour combien de bénéf ? (nan parce que par dessus tout ça il faut aussi payer les éditeurs)







Ce n'est pas viable maintenant, mais dans 10 ans peut être que oui, et dans 50 ans on ne saura même plus ce que c'est que d'avoir une console de jeu a la maison. Disons que la, ça peut se comprendre qu'un jeu soit loué a 30\)
vu le prix d’une carte.


Le 24/06/2014 à 14h 19







Dr.Wily a écrit :



Si c’est déconnant. Le principe du jeu vidéo c’est l’interactivité, c’est un périphérique physique que tu achètes et qui affiche un contenu que tu peux contrôler. C’est le jeu, l’immédiateté. Le cloud gaming c’est l’illusion de l’interactivité, c’est de la vidéo. Pas du temps réel.



L’input d’un jeu vidéo arrive à la console qui elle même contrôle un écran de TV qui affichera une image calculée en temps réel. Ce n’est pas un input qui va parcourir des milliers de km et arriver dans une ferme de serveurs pour retourner ensuite une vidéo encodée qui correspond à l’input du joueur. Ça, ça se nomme de la vidéo interactive et c’est l’antinomie du jeu vidéo.









En fibre on arrive a avoir un ping inférieur a 10ms non ? que l’image soit calculé en temps réel par une console ou calculé en temps réel par un serveur a l’autre bout du monde, si le ping reste inférieur a 30 ou 40ms on ne sentira pas la différence en tant que joueur. La vidéo est encodé en temps réel pour etre renvoyé au joueur, Steam suit le même principe en local, pourquoi cela ne fonctionnerais t’il pas a distance ?


Le 24/06/2014 à 14h 13







Fuinril a écrit :



Ca sent le programme de test technique. Je ne conçois pas une boîte comme Sony faire une aussi grossière appréciations de tarifs et ils ne voudraient qu’un petit nombre d’utilisateurs qu’ils ne s’y prendraient pas autrement.









Je le redis à chaque news parlant de cloud gaming mais…. pourquoi se focaliser sur de faux problèmes de réseau ? Que ce ne soit pas éligible à tous à cause de la qualité du réseau de chacun n’empêcherait pas la mise en place d’un business plan viable.



Non, par contre j’ai une question concernant le cloud gaming : comment tu fais pour calculer simultanément plusieurs millions d’instances de rendu d’un jeu moderne ? Prenons, au hasard, watch_dogs…. où trouves tu les ressources nécessaire pour calculer l’affichage, l’IA, etc… pour les millions de joueurs qui sont potentiellement en cloud ? Les textures (entre autres) c’est certes mutualisable, mais tous les calculs sont uniques…



Admettons que Sony se paye le parc de machine nécessaire…. Watch_dogs ne fonctionnera pas éternellement, comment tu prévois le roulement ? Et combien de jeux ? Il faut prévoir une organisation pour chaque jeux qui sort sur le marché ?



Après seulement se pose le problème de la bande passante (ça coute cher) et du lag pour le client…. mais honnêtement : osef, sil il ne restait que ce problème je dirais l’avènement du cloud gaming imminent (pas forcément en France).





D’après moi - et ça vaut ce que ça vaut, c’est à dire rien - ce n’est jamais qu’un essai, un test à grande échelle d’une architecture qui n’est pas destiné à proposer du cloud gaming de titre AAA.







Au hasard avec ce genre de carte ?



http://www.nvidia.fr/object/cloud-gaming-gpu-boards-fr.html



Je ne dis pas que c’est la solution que je prefere, mais pour des raisons évidentes d’économie sur le long terme, ça sera surement une solution privilégié par les futurs constructeurs, et ça ne sera peut etre pas ni Microsoft, ni Sony, un lancement de console coute au bas mot 1 ou 2 milliards de dollars, une fois un tel système de cloud gaming mise en place il suffit régulièrement de changer les cartes comme on change les serveurs, la distribution s’en trouve simplifier et on peut virtuellement jouer partout sur n’importe quoi.



Se pose le problème du catalogue, mais de combien est la durée de vie d’un jeu a l’heure actuel ? 10h ? 20h ? 15 ans ? Si on parle d’un jeu en ligne comme Cod il y a régulièrement des fermetures de serveur. On suppose également qu’il y aura un fond de catalogue important pour tout le monde mais les joueurs changent, les jeux changent et finalement on en vient a jouer a un jeu comme si ce n’était plus qu’un film interactif sur lequel on passe une dizaine d’heures sans y revenir, moi le premier il est très rare que j’aille jusqu’au bout d’un jeu.



A voir donc qu’elle sera l’avenir de cette solution, mais avec la bonne offre au bon moment, il y a des chances que cela fonctionne.





Le 24/06/2014 à 13h 21







Dr.Wily a écrit :



Ce procédé est une hérésie pour le jeu vidéo. Vive la vidéo interactive… <img data-src=" />







Dans le fond le principe du Cloud gaming n’est pas déconnant, mais la technologie des réseaux est encore bien en dessous des promesses, car a moins d’avoir la fibre de bout en bout pour avoir un super débit et un lag réseau très peu important il est difficile de jouer dans de bonne condition avec le Cloud.

Et je suis persuadé que ça sera une solution tout a fait viable dans 10 ou 20 ans (en France en tout cas vu la lenteur de déploiement), les consoles tel qu’on les connait actuellement sont mortes. On assiste ici a un début assez timide avec évidement des tarifs prohibitif pour le moment mais qui risque de tomber très vite.


Le 24/06/2014 à 08h 51

Le système considère que gagner c’est déja de la triche, du coup…

Le 23/06/2014 à 13h 11







graam a écrit :



Dalvik n’interprète pas le code.



Dalvik utilise la compilation “Just in time”, le code exécuté est donc natif. Il doit être simplement préalablement compilé au premier chargement de la classe (temps de chargement plus long). Par contre il est effectivement “managé”, c’est à dire géré par la VM.



Quand tu parles “d’un projet de portage d’Android en code natif “, je suppose que tu veux parler d’un portage Android pour le compiler “ahead of time” et l’exécuter via des librairies dynamiques plutôt qu’une machine virtuelle. En gros du code non managé.



Qu’est-ce qui peut expliquer qu’une machine virtuelle soit plus lente ?





  • La compilation des classes implique un démarrage plus long



  • Une consommation mémoire plus grande: les objets dans une VM consomment généralement un peu plus de mémoire (dépend de l’implémentation de la VM), donc les appels au ramasse miette sont plus nombreux si la mémoire est restreinte.



  • Pas d’accès direct à la mémoire: pour des raisons de sécurité et de portabilité le code managé par la VM ne peut pas accéder directement à la mémoire, aux registres etc. Ces parties doivent être faites par du code non managé, ou par la VM (qui doit donc proposer une sorte d’interface).

    Or le code non managé étant compilé en dehors de la VM, les appels de fonction ne pourront pas être “inline”, et la transmission des paramètres est plutôt compliquée &gt;&gt;http://stackoverflow.com/questions/7699020/what-makes-jni-calls-slow.







    Il me semble que c’était un portage d’Android en C++ directement donc peut être que je me suis mal exprimé a ce sujet. Je ne retrouve plus la page et j’avais déjà l’impression a l’époque que le projet était au point mort. Pour les détails je laisse les spécialistes parler.

    Mais VM, interprétation, JIT ou autre procédé, il n’en reste pas moins que je trouve en général qu’Android est un système plus lent que les autres, a processeur égale si toutefois on peut faire une comparaison juste et équitable.


Le 23/06/2014 à 11h 26







athlon64 a écrit :



<img data-src=" /> Je me suis deja fait déglinguer (par ma faute je le reconnais <img data-src=" />)



Dis que Java et la VM ca pue et je t’accueille dans mon club <img data-src=" />







Il me semble avoir vu passer un projet de portage d’Android en code natif ou il était montré que le code natif était 10 fois plus rapide que le code interprété par Davlik, par contre cela pose un gros soucis pour les développeurs car il faudrait recompiler toutes les applications spécialement pour chaque téléphone.

Donc autant je comprend le choix du java pour des questions de portage, autant je désespère d’avoir un jour un OS rapide sur mobile a moins de sortir l’année prochaine un octocore 4ghz, ce que je commence a trouver ridicule.


Le 23/06/2014 à 05h 55

Je suis heureux de lire cette article, je passe a chaque fois pour un fou intégriste quand je dit qu’Android est lent et qu’il n’y a pas besoin de processeur a 2ghz sur mobile pour faire fonctionner l’app facebook ou instagram. Si Android passe en code natif, on devrait voir un gain substantiel en performance.

Le 19/06/2014 à 11h 05

Sur mon S4 je n’ai pas réussi a l’activer ! <img data-src=" /> je reste bloquer a la validation de mon téléphone, peut etre un soucis serveur de leur coté.

Le 19/06/2014 à 09h 54

Solde : moyen de vendre au prix normal des articles vendu 50% trop cher le reste de l’année. La plupart du temps du vieux stock des autres années non vendu dans les précédentes soldes.


Le 19/06/2014 à 06h 05







misterB a écrit :



Oui je pense que TON avis est universel et que les gens devraient tous penser comme toi <img data-src=" />







IL a le droit de détester et personne ne dit rien, j’ai le droit d’apprécier la marque, tout le monde perd la tete ?


Le 19/06/2014 à 06h 03







Lusheez a écrit :



C’est bien ça, oui, la raison m’échappe.



Même au niveau portable je trouve la marque horriblement cher pour ce que c’est. De l’arnaque. Mais c’est mon avis. Après si on veut bien m’expliquer pourquoi je devrais penser autrement, je veux bien. Parce qu’un MBP d’entrée de gamme, 13”, 1230€ je trouve ça plus que légèrement abusé. On peut avoir un bon écran et un bon trackpad pour moins cher… Surtout avec cette diagonale.







Haters gonna hate comme d’habitude.


Le 18/06/2014 à 14h 35







Lusheez a écrit :



Bah de toute façon les gens qui achètent du Apple regardent pas la config réellement si ?



..



Si ?



<img data-src=" />



Non, définitivement je ne comprendrais jamais l’intérêt des gens pour cette marque…







la c’est clairement abusé, je pense depuis très longtemps que la gamme iMac devrait disparaitre au profit du macmini et des macbook, charge au client d’acheter un moniteur de son choix. Meme un macmini standard est moins fermé que ça.



Quand a l’intérêt pour la marque, chacun voit bien ce qu’il veut voir, si ça marche depuis aussi longtemps, il y a peut être une raison qui t’échappes.


Le 18/06/2014 à 09h 23







Nyco87 a écrit :



Ce qui était prévu avec ce système était de pouvoir revendre tes jeux dématérialisés, le jeu suit ton compte pas ta console.



Il était aussi prévu d’amorcer une baisse de prix des jeux démat au delà des simples promos qui existent actuellement. Mais là on ne pourra pas le vérifier.







je m’aperçois que je me suis trompé dans ma formulation, si on change de plateforme, que devient le jeu ? Rien puisqu’on ne peut pas le revendre a moins de vendre le compte qui va avec. ça passe encore quand il s’agit de jeu a 5€, moins quand c’est 50 ou 70€.


Le 17/06/2014 à 11h 38







Nyco87 a écrit :



On lit ici et là toujours les même critiques sur les débuts de la X1 mais je te paris que c’est les même qui sont sous Steam qui a; au niveau des jeux, le même principe que ce qu’ils voulaient faire.







Je pensais que NXI ne ferait pas l’erreur mais je me suis trompé… <img data-src=" />







Sur Steam il y a des soldes, on peut avoir des jeux très peu cher, donc ça compense un peu le fait que les jeux soit avec DRM, sans compter que les jeux sont souvent multiplateforme et que si on change de PC on conserve ses jeux.



Sur Xbone, un jeu acheté en démat a 70€, il devient quoi quand on change de console ?



D’un autre coté la stratégie de la PS4 est beaucoup plus clair, meme si le principe n’est guère différent de la xone, la console est faite pour jouer et elle est vendu pour ça, meme s’il y a encore beaucoup a redire sur la qualité de la console également.





Le 13/06/2014 à 07h 26

Back in my day : je payais pour jouer en salle d’arcade, on y revient 30 ans plus tard.



Je souligne également un paradoxe, on paye pour avancer plus vite dans un jeu auquel on n’a pas le temps de jouer, au final a quoi ça sert d’y jouer ?



Vous avez 2 heures.

Le 13/06/2014 à 06h 20

No-life est une chaine pour les geek et c’est bien connu les geek veulent avoir tout gratuit, donc ne consomme rien et ne regarde pas la pub du tout, surtout si c’est une pub pour tampex entre deux clip de j-pop <img data-src=" />



D’autre part je ne suis pas sur qu’une diffusion sur le satellite améliore la situation, s’il n’y a pas assez de public sur les autres modes de diffusion, ce n’est pas sur le satellite qu’il va y’en avoir plus. Peut être que ça change en matière de répartition des revenus publicitaires je ne connais pas le principe.



Autre chose importante : on trouve parfois des émissions de bien meilleurs qualité sur Youtube et fait par des amateurs, comme le joueur du grenier ou AVGN sans avoir un abo, ça peut faire réfléchir.



Et je précise qu’il faut aussi avoir le temps de regarder la télé, par définition un geek ne regarde pas la télé, l’équation semble impossible a résoudre. (pas le geek qui passe son temps sur facebook hein,)


Le 12/06/2014 à 09h 26







killer63 a écrit :



quand free le décidera, ca viendra







Free ne fait aucun forfait uniquement data de mémoire et bouygues est bien placé la dessus (la preuve je capte) donc si Bouygues veut taper un grand coup, c’est le moment ! Par contre leur petit routeur 4G Huawei ne fonctionne pas super bien, vivement un vrai modem 4G, au hasard celui qui est proposé pour les abos pros.


Le 12/06/2014 à 09h 09

A quand la 4G en data illimité, ou alors a un débit correcte si limité ensuite. le forfait max est pour l’instant de 32go, encore un petit effort. (pitié je suis a la campagne sans ADSL <img data-src=" />)

Le 11/06/2014 à 14h 18







EMegamanu a écrit :



En fait, les DLC, ça surtout été un moyen de :





  • diffuser des addons (beaucoup) plus petits, pour le même prix

  • rendre payant des patches

  • monétiser ce que les utilisateurs appelaient des mods

  • nous faire payer de la publicité ingame.



    J’aime pas le XXI siècle.







    Et le plus fort, vendre des DLC déja présent sur le disque et/ou, juste après la sortie du jeu. Mais après tout si ça marche, pourquoi ne pas continuer dans cette voie.


Le 11/06/2014 à 13h 10







methos1435 a écrit :



Dans 5 ans le mac mini sera mort et enterré et Apple sera peut être passé sur du CPU ARM <img data-src=" />







Et j’apprend ailleurs que le HEVC sera bien supporté sur les macbook a partir du proc Haswell, mais effectivement pour le macmini ça me parait tendu, il vient de battre le record de non renouvellement par Apple, dommage car c’est un formidable petit PC a mettre sous la télé que je n’ai jamais réussi a remplacer par autre chose. Le mien accuse son age après 7 ans de bon et loyaux service et j’attendrais précisément ce genre d’annonce.


Le 11/06/2014 à 08h 51

Plus qu’a attendre un macmini Haswell avec support du HEVC par mac os donc. c’est a dire dans 5 ans quand le projet sera mature.


Le 11/06/2014 à 11h 15

Les VDM sont écrites sans fautes, déjà rien que ça c’est douteux.

Le 03/06/2014 à 12h 22







XMalek a écrit :



l’iphone 4s date de 2011 pas 2007, et sinon au pifometre Microsoft ?







le 4S de 2011 sera donc encore utilisable avec la iOS 8 jusqu’en 2015, 4 ans de support d’un OS mobile c’est tout de meme largement mieux que tout ce qui se fait sur d’autre plateforme ou la loi du marketing pousse aussi très fortement a changer de téléphone avant de changer d’OS.

Je vois même encore pas mal de gens avec un 3Gs en bonne forme, donc de ce point de vue la Apple n’a pas grand chose a se reprocher, un modèle par an permet évidement ce genre de chose versus 15 modèle par an et par marque pour la concurrence.


Le 03/06/2014 à 12h 17







darkjack a écrit :



Salut, je ne peux te répondre sur 10.10 mais sache que pour 10.9, en dessous de 4Go, c’est pas la peine; 8 c’est mieux. Il y a peu de chance qu’avec 10.10 cela change.

Très content de 10.9, nette amélioration des perfs, beaucoup de fichiers en cache dans la ram, ça accélère les choses + plein de bugs corrigés et meilleure compatibilité avec les partages SMB.

Si tu as 4go, passe déjà à 10.9 : de + en + de softs ne peuvent ou ne pourront s’installer sur 10.6 et apple a arrêté le support.

Par contre, avant upgrade de l’OS, vérifie bien :




  • la compatibilité de tes softs payants

  • la compatibilité des drivers de tes périphériques





    @+







    J’ai 4Go avec Maverick et je le vis plutôt bien sans subir de ralentissement bien au contraire, par contre ça aide énormément d’avoir un SSD a la place d’un disque classique.


Le 03/06/2014 à 12h 11







charon.G a écrit :



Plus généralement qu’apple ne cherchait pas à avoir des applications qui tournent sur tous les appareils(ce que je doute fortement à terme) et que les interfaces devaient rester totalement différentes.

En terme d’interface tu peux avoir un thème graphique commun et garder une ergonomie différente. C’est ce qu’a fait apple et ce que devrait faire Microsoft avec Windows 9.







Pourtant il y aurait tout de même un peu de place pour une petite puce A7 ou ultérieur sur un Mac, pas tant pour les applications, mais aussi pour les jeux ou il n’y aurait même plus besoin de sortir un jeu pour 2 OS qu’il faut souvent payer 2 fois.


Le 03/06/2014 à 12h 07







brazomyna a écrit :



C’est plutôt Apple qui suit Microsoft pour le coup.



Apple a pris le parti extrême au départ en scindant complètement les deux mondes et revient en arrière en essyant de les regrouper petit à petit.



Microsoft était parti sur le paradigme exactement opposé avec un OS et IHM unique il y a fort longtemps (10 ans, qui se rappelle des UMPC ?) ; il a pris le bouillon, mais a depuis beaucoup évolué et propose un environnement techniquement cohérent qui permet le développement unique des couches métier, et distinct dans la partie IHM seulement.



Au final depuis Win8, RT, Metro, Microsoft est plutôt en avance sur l’aspect “couche métier unifiée ; IHM distinctes”.







Windows est très en avance la dessus effectivement, si on utilise IE en mode tablette, on ne retrouve pas la meme chose en l’utilisant en mode bureau, et c’est la meme chose pour toutes les applications. la partie tactile est bien, mais la gestion du pavé tactile est largement en dessous de celle d’Apple, et on commence a voir que Microsoft va revenir au bon vieux menu démarrer plutôt que de passer systématiquement par les Tiles pour faire quelque chose, peut être que Windows a voulu aller trop vite alors qu’Apple va plutot dans le sens de proposer des évolutions au fur et a mesure et un nouvel OS complet par an, ce qui reste un exploit vu la complexité de la chose.


Le 27/05/2014 à 07h 22

Un mac ça dur au minimum 3 ans et ça se revend bien. Quel est l’intérêt de proposé une LOA si ce n’est le but évident de faire gagner de l’argent à la FNAC ? A moins d’être un fanatique de la nouveauté pour changer tout les ans…

Le 23/05/2014 à 11h 37







Ov3rSoul a écrit :



Je confirme, c’est la plaie, tant du côté expéditeur que destinataire (et dans ce dernier cas on peut rien y faire). J’ajoute le tgv en plus du métro…



Basculer en sms vert si le débit de données est insuffisant ne me paraît pas si compliqué à mettre en place <img data-src=" /> Avec une option à activer dans les réglages des messages pour ne pas faire ça automatiquement mais via pop-up ou autre, afin que les gens qui envoient depuis/vers l’étranger ne se prennent pas du hors forfait en passant de imessage à sms vert ;) Trop compliqué à implémenter pour les génies de chez apple, j’imagine <img data-src=" />

(j’espère que y’a pas de faille dans mon raisonnement <img data-src=" />)







l’option pour basculer en SMS quand le iMessage ne passe pas existe et ce n’est pas le problème.

Le problème c’est qu’en cas de passage sur un autre OS, le iMessage part et indique bien etre lu alors qu’il n’en est rien.



Personnellement je n’ai jamais eu de plainte de mes contactes en passant d’un OS a l’autre alors que je suis resté sur iPhone.



Le fait que le bug soit pris en compte alors qu’une class action n’est qu’une malheureuse coincidence <img data-src=" />


Le 22/05/2014 à 08h 23

Good. Jouer à de gros jeux sur mon MacBook va bientôt être possible.

Le 07/05/2014 à 13h 02

J’achète principalement des Bluray 3D, le seul problème ? Il n’y a pas beaucoup de film qui mérite seulement d’être acheté dans ce format et il sont souvent hors de prix.

De plus avant j’achetais des DVD aussi et surtout pour les bonus, maintenant il n’y a presque plus rien ou alors ce ne sont que des vidéo promo et un vague reportage sur le tournage déja passé a la télé, j’étais meme un grand fan des commentaires audio sur certains films. Aujourd’hui on n’a presque plus rien mais on paye plus cher pour avoir la version 3D, la version 2D, le DVD et la copie digital.



Bref a un moment donné quand on prend les gens pour des c* il ne faut pas s’étonner…

Le 04/05/2014 à 17h 17

Ah je me rappelle encore des programmes que je copiais a partir d’Amstrad 100% et que j’étais parfois obligé de corriger moi meme a cause des fautes de frappe, je n’ai pourtant jamais été capable de comprendre le C ou C++ par la suite ou la programmation objet en général.

Le 25/04/2014 à 15h 34

5” c’est vraiment ma limite pour un smartphone, après ça fait vraiment ridicule. Les rumeurs du futur iPhone 5,5” me font peur et je ne supporte pas android. Quand a Windows mobile il reste minoritaire et je n’y crois plus. bientôt la fin du smartphone ?

Le 10/04/2014 à 08h 49

un très bon jeu on reste dessus, les autres sont juste des mauvais jeux c’est tout.

Le 10/04/2014 à 06h 22

C’est tout de meme un grand aveux de faiblesse, juste après avoir voulu racheter SFR a prix d’or, Bouygues télécom veut maintenant se vendre car ils savent qu’avec 3 mastondonte devant eux, ils n’ont guère d’autre choix que de se vendre aux plus offrant le plus vite possible ou attendre d’être revendu une misère a Free.

Free n’a plus qu’a attendre tranquillement que le prix baisse pour racheter le réseau mobile de Bouygues (le réseau ADSL et Fibre ne leur sert a rien).

Le 09/04/2014 à 12h 12

la PS4 va etre bien dans 2 ou 3 ans avec un paquet de remake ou de bon jeu pas trop cher, enfin un bon lecteur bluray 3D (ou pas ?) et une petite version qui fait moins de bruit, donc comme la PS3 j’attendrais la version Slim.

Le 08/04/2014 à 12h 02

Je ne connait pas les détails mais si ça fait comme pour Rocksmith 2014, je lance le jeu sous Steam qui ensuite se connecte a Uplay a l’intérieur du jeu, connexion que je peux ensuite annuler (et heureusement car pas de connexion fixe chez moi actuellement) Je gagne donc des points ou je ne sais quoi sur les 2 plateformes en meme temps, il est vrai que cette multiplicité de connexion comment a devenir envahissant, je passe plus de temps a me connecter a mes comptes (entre le lancement de Steam puis de uplay) qu’a joué réellement.

Le 07/04/2014 à 13h 59

Configuration supportée : mon porte monnaie.

Le 05/04/2014 à 14h 26







methos1435 a écrit :



Ce chiffre tient il compte de l’entretien du réseau ? Du fait que les évolutions amènent à un remplacement assez régulier des infrastructures ? Du fait que dans les zones urbaines il est de plus en plus difficile juridiquement parlant d’installer une antenne pour étendre ou renforcer le réseau ? Du fait que les licences d’exploitation pour des fréquence au nombre limité sont exorbitantes ? Du fait que le monde du mobile ne se résume pas au simple réseau ? Que les employés liés à tout ça faut bien les payer ?



Bref, tout ramener au simple prix d’installation d’un réseau, perso, je trouve ça absurde… De toute façon (ce n’est que mon avis): continuons à payer tout moins chers et à devenir difficile pour le moindre euro, on en payera les conséquences plus tard.







Je crois avoir entendu quelque part que l’entretien d’une antenne tout compris était de 100 000€ par mois environ , je ne retrouve plus la source malheureusement.


Le 01/04/2014 à 05h 58

c’était la 50eme fois qu’il passait avec ses écouteurs a fond en dehors des oreilles et ça a finit par énerver les gens et le contrôleur qui passait par la.

Le 31/03/2014 à 07h 58

je ne m’imagine pas trop recevoir des notifications facebook pendant que je suis en plein dans une partir d’OR sur un jeu, et meme pour 2 milliard, rien ne nous garantie que le projet ne sera pas purement et simplement enterré par Facebook si jamais ça ne mène nulle part.

Le 28/03/2014 à 13h 04

Microsoft ne pouvait pas non plus ignorer éternellement la force de vente des iPad par rapport aux Surface et cie.

Le 25/03/2014 à 07h 50

la BD je suis fan et j’en lisais beaucoup quand j’étais plus jeune, essentiellement a la bibliothèque de mon quartier, je fais aussi quelques collections comme Akira et les X-Men intégrale acheté quand je peux, du coup un abonnement du type izneo m’intéresse meme si un iPad ou équivalent est un peu petit pour ce type de lecture. ça me permettrais de rattraper un bon paquet du truc que j’ai raté en 15 ans , surtout avec une BD par soir ça peut etre vite rentabiliser je pense.



Pour un gros lecteur, c’est tout bonnement impossible de tout acheter, a 14€ la BD en suivant une dizaine d’auteur, il faut avoir le budget et la place, la BD reste donc quoi qu’il arrive un luxe, pas un bien de consommation courante.

Le 24/03/2014 à 14h 54







Quiproquo a écrit :



Elles utilisent des dérivés de Windows, ce qui est sans doute ce qui rend possible l’utilisation de DirectX.







D’ailleurs le nom non officiel ne serait pas DirectXbox par hasard ?


Le 18/03/2014 à 15h 21







larkhon a écrit :



au moins maintenant on en a pour son argent avec ces ultrabooks: 1099€ pour du Full HD, une petite carte dédiée, un core i5. Reste au MBA son autonomie et l’exclusivité du processeur quelques mois avant les autres, mais la résolution commence à faire léger quand on voit tous les autres en Full HD et sachat que l’iPad connait mieux depuis deux ans. Peut-être est-ce une des clés de son autonomie…



Le fait d’avoir plein de variantes fait qu’il faut bien vérifier les specs de ce qu’on achète mais c’est pareil pour des PCs plus gros, combien de variantes de PC gamers, selon la CG, le CPU, les SSDs…







en tout cas je cherchait un petit PC portable pour jouer tranquillement et je pense que j’ai trouvé mon bonheur chez Asus, la 840M semble remplir son role de carte graphique meme pour de gros jeu et le fullHD en 13” permet également de ne pas trop faire attention a l’aliasing, bref que du bon.

reste avoir le prix demandé pour un core i5 et la 840M.


Le 18/03/2014 à 15h 02







Nhaps a écrit :



Vous pouvez arrêter de dire que Rogue Legacy est un rogue like ?

Franchement, c’est chiant.







Y’a Rogue dedans <img data-src=" />


Le 13/03/2014 à 14h 55







yAMiGoHaN a écrit :



Bah en fait c’est plus compliqué que ça. La dalle en elle-même n’est pas mauvaise du tout. Le problème au niveau de l’affichage viendrait d’un problème au niveau de la carte mère ou de la CG.



Les dalles c’est soit du AU Optronics, soit du Chi Mei. Chez nous ça provient de chez AUO donc ça va on a de la chance quelque part.



Après, je ne comprend pas pourquoi dans les tests ce problème n’est pas mentionné (surtout qu’apparemment tout le monde est touché), pourtant ça saute aux yeux, ça se voit direct, quand j’ai allumé le mien, je l’ai vu direct, sans chercher la petite bête ni plisser les yeux… Mais paraîtrait que ça dépend de la sensibilité de chacun… ou alors de la fréquence à laquelle on va voir son ophtalmo… Bref !



En tout cas, personne ne sait exactement d’où ça vient, Asus n’en parle pas et s’en fout complètement (du moins pour les références actuelles, ils font la sourde oreille), et faut espérer que ça bouge pour ces nouvelles références sinon ça va de nouveau râler sur les forums <img data-src=" />







ça me fait peur tout ça, car j’hésite en Asus et MSI, et je lis un peu partout que les MSI ne serait pas très fiable, surtout pour un prix équivalent, j’ai actuellement un petit Asus core i3 que mon épouse utilise et un macbook pro, et c’est vrai que niveau qualité d’écran on est a des années lumières entre les deux, rien qu’au niveau de la justesse des couleurs ou de la luminosité.



Dans l’idéal je préférerais une tour mais pas le choix pour plein de raison, je me contenterais d’un portable pour jouer mais surement pas une bête de course pour tout mettre a fond.


Le 08/03/2014 à 12h 15







baldodo a écrit :



mouarf ! 0.3 mm de différence.

Autant la pression plus faible je veux bien, mais une différence de course de 0.3mm ça me semble ridiculement imperceptible.







ça peut éventuellement jouer sur une frame de différence lorsqu’on appuie sur la touche comparé a un clavier normal, la course de la touche étant plus courte, l’ordre est envoyé plus tot, au final sur des milliers d’ordre donné sur un jeu ça peut faire la différence, en pratique c’est assez difficile a dire.