votre avatar

Strimy

est avec nous depuis le 8 octobre 2006 ❤️

1062 commentaires

Le 11/10/2013 à 11h 08







wagaf a écrit :



Non, pas du tout, on ne peut pas “bénéficier du privilège root plus facilement” sur Android mais par contre on peut cocher une case dans les options pour autoriser l’installation d’apps depuis d’autres sources que le Play Store.



En revanche sur WinRT il faut jailbreaker obligatoirement pour pouvoir le faire, ce qui là par contre pose un soucis de sécurité.,





Ca demande une manipulation particulière de l’utilisateur, c’est perdu à chaque redémarrage, et ca ne semble plus marcher avec 8.1. Je vois pas vraiment où est le soucis de sécurité…


Le 09/10/2013 à 08h 35







Chloroplaste a écrit :



Pourrais-tu développer ? ça m’intéresse.

Après je suis novice alors…





Si tu regardes l’adresse IP qui est donnée à ton mobile en 3G, c’est une adresse IP privée (genre 10.x.x.x). Ces adresses ne sont pas routables sur internet et doivent être traduites en IP publique.

Ca permet entre autre de mettre plusieurs personnes sur la même IP publique en faisant le lien entre l’IP privée et l’IP publique (en se basant sur les ports des connections ouvertes par l’appareil).



Le problème, c’est que les communications doivent forcément être initiées depuis l’adresse IP privée pour pouvoir traverser le NAT (sans quoi, il n’y pas de possibilités pour l’extérieur d’arriver jusqu’à l’IP privée). Ca empêche tout P2P entre deux utilisateurs mobiles, et ça limite très fortement l’utilisation P2P en général.





Le 09/10/2013 à 08h 04







zefling a écrit :



Tout les 6 mois c’est la fin de l’IPv4. Bon, je remarque j’ai me connecte à de plus en plus de site en IPv6.



Dont PC INpact… et son IP est à Hong-Kong ?





La fin de l’IPv4 concerne plus les pays en voie de développement que nous. Nos FAI ont déjà leurs blocs d’adresses IP.

Mais c’est pas pour rien que sur mobile, on se tape un NAT énorme qui empêche toute utilisation P2P.


Le 09/10/2013 à 07h 48







NeoSlaaV a écrit :



Les réglages du moteur physique sont en général intrinsèquement liés à l’expérience utilisateur (gameplay quoi), et ne sont généralement pas laissées aux desiderata des joueurs. Un exemple bête: si tu pouvais régler le pas de la simulation sur une vitesse suffisament lente, tu risquerais de tomber a travers le décor, ou de traverser les murs, car tu te seras déplacé trop rapidement pour qu’il y ait une collision entre toi et la surface (tu passes d’un coté de la surface à l’autre coté, sans passer par la casse je me mange le mur).



Seules les parties “eyecandy” sont réglables; typiquement des effets de particules, de billboarding, la densité d’une végétation autoinstanciée, les douilles d’un flingue, la quantité de particules utilisées dans un effet d’explosion,…





On parle pas de la physique nécessaire au jeu, mais de la physique “bonus” comme c’était le cas dans Crysis. Si tu baisses la physique au minimum, tu ne peux plus découper les arbres, défoncer les abris,… Ca change bien l’expérience de jeu (par exemple casser l’abris pour fuir ou attaquer), mais pas dans les proportions que tu cites.


Le 08/10/2013 à 15h 35







von-block a écrit :



Tout à fait d’accord, mais nomme moi un jeu qui te laisse choisir la qualité de la simulation physique ?



SI watch dogs le fait je dis bravo <img data-src=" />





Crysis est un exemple très marquant à ce niveau là puisqu’il change fondamentalement le gameplay. Avec les détails physiques au minimum, rien n’est destructible. En montant les détails, la destruction est de plus en plus réaliste.


Le 08/10/2013 à 14h 49







Crysalide a écrit :



Enfin le WebGL, c’est pas trop tôt. Les utilisateurs de IE vont pouvoir enfin découvrir l’animation WebGL de la chanteuse Ellie Goulding pour son titre Lights. C’était il y a 2 ans. <img data-src=" />





Malheureusement, non. Le support de WebGL n’est pas complet, et l’animation n’a pas tout les éléments affichées.







Bill2 a écrit :



Quelqu’un a testé la dernière IE11 preview sur Win7 64b ?



J’ai quelques soucis sur Google+ : il m’affiche tout le temps que je suis en mode “compatibilité”, sauf que ce mode n’existe plus avec IE11.

Du coup, y’a pas mal de trucs qui déconnent (exemple les notifications) alors que la dernière preview n’avait pas ce soucis.





Je n’utilise pas Google+, mais j’ai déjà eu cette info sur des services de Google avec la version finale de IE11 (Win 8.1). Le problème vient potentiellement de chez eux…


Le 08/10/2013 à 08h 42







schglurps a écrit :



En tant que développeur je pense comprendre ce qui a poussé MS à adopter une architecture client/serveur pour Skype. Sur Windows Phone, une appli ne peut tourner en arrière-plan que quelques secondes toutes les 15 minutes. Dans ces conditions, difficile de faire partie d’un maillage peer to peer… Sur les terminaux iOS, une application utilisant trop les ressources du système est purement et simplement tuée par ce dernier. Je ne sais pas comment ça se passe sur Android, mais je suis sûr que des contraintes similaires existent sur cette plate-forme.





Skype fonctionne en live sur Windows Phone. Tu reçois tes appels en direct si t’as une connexion data active (d’ailleurs, il n’est pas vraiment possible de couper Skype), et même chose sur iPhone il me semble.


Le 07/10/2013 à 09h 41







Niktareum a écrit :



WinRT ? tablette, toussa toussa…. ?





WinRT est présent sur Win 8


Le 04/10/2013 à 07h 44







boglob a écrit :



PAE, ça dit quelque chose ?





Ca change pas la limite à 4Go par process (moins tout le reste, donc 3Go max pour l’appli).


Le 03/10/2013 à 11h 30







nost4r a écrit :



Et si c’était pour avoir une meilleure qualité que sur console justement ?





J’ai surtout l’impression qu’ils oublient que la majorité des PC sont des portables. On a pas tous les moyens de s’acheter un PC portable et un fixe. Du coup, je n’ai que mon PC portable pour jouer, et ce n’est pas non plus un monstre en performances graphiques.



J’en ai limite presque rien à faire de devoir baisser les détails fortement pour avoir un rendu console, mais qu’ils nous laissent au moins l’avoir avec des performances normales.



M’enfin, comme déjà dit, j’attendrais qu’il sorte pour le tester et si ça me va, j’achèterais.





mrjay42 a écrit :



Oooooh Strimy ! Comme on se retrouve :)



#sorryForTheFlood





Ca faisait longtemps <img data-src=" />


Le 03/10/2013 à 11h 13

Donc un jeu que je téléchargerais à coup sûr. Déjà pour voir s’il vaut le coup niveau gameplay/scénario, et voir ce que ça donne sur mon PC.

Le 01/10/2013 à 17h 25







Dark-Jedi a écrit :



Question pour les experts … ils font comment pour passer 1 gbits par utilisateur quand l’équipement GPON est limité à 2,5 gbits pour 64 utilisateurs… ?!



Ca semble la bonne blague…



Et vous noterez bien dans l’annonce, qu’il y’a marqué jusqu’à donc pas du tout garantie, à l’inverse de l’offre fibre de free.





64, c’est le max. Mais en pratique, il n’y aurait pas plus de 20 utilisateurs par arbre et tous les utilisateurs ne consomment pas la bande passante en même temps.


Le 01/10/2013 à 14h 01







petru55 a écrit :



déja en cas de réinstallation du système retrouvé tous ses onglets et favoris il y a pas photo et IE est incapable de le faire





IE11 me synchronise tous mes favoris et onglets :)


Le 01/10/2013 à 12h 27







ldesnogu a écrit :



Les faits sont là : il suffit de regarder la vidéo. En l’état, ça me paraît pourri. Ca ne serait pas la première fois qu’Acer ferait de la m.rde, hein ? <img data-src=" />



Je vais attendre les modèles de Dell et d’autres fabricants.





Quel fait ? Qu’à un moment l’accéléromètre ait du mal à détecter le changement ? Wahou ! C’est forcément pourri et c’est que ca rame !

Nan, la vidéo ne montre rien du tout. Juste un petit défaut (qui au passage arrive très régulièrement avec tous les smartphones si on incline pas assez le téléphone).



Sur les performances, on a, en l’état aucun moyen de juger vu que la vidéo ne montre rien du tout. (à part que le type a du mal à cliquer correctement sur les petits boutons).


Le 01/10/2013 à 10h 16







ldesnogu a écrit :



Il y a des video, et franchement je ne suis pas convaincu par la fluidité



http://www.phonearena.com/news/Unannounced-Acer-Iconia-W4-tablet-appears-in-vide…



Entre le temps pour la prise en compte du changement d’orientation et les difficultés à fermer une fenêtre, y’a un souci.



Je vais attendre d’autres modèles.





La latence ne se produit que la première fois. La seconde fois ca passe bien. Pour fermer les fenêtres, ça ressemble plus à une difficulté pour pointer correctement. Quand ton doigt fait 2 fois la taille du bouton sur lequel tu veux cliquer, forcément tu dois t’y reprendre.

Rien ne laisse penser que cette tablette souffre de problèmes de performances. Les précédentes ayant un Atom s’en tirait correctement, et Bay Trail et 2 fois plus performant. Ca devrait en faire une tablette réactive.


Le 27/09/2013 à 08h 51







matroska a écrit :



Moi ce qui me tente effectivement c’est la ‘vraie” 4G, pas ce que l’on nous vend actuellement qui d’ailleurs n’est pas de la 4G, mais 3,9G ou LTE, moi je serais plutôt INtéressé par la LTE-A.



<img data-src=" />





La notation 4G a été acceptée pour la LTE de mémoire. Et techniquement, la LTE correspond bien à une nouvelle génération de réseau qui n’est plus basé sur les technologies GSM ou UMTS. Il n’y a plus de réseau “circuit switched” et tout est intégralement “packet switched” sur de l’IP.

Le passage du LTE au LTE Advanced ne demandera pas de gros changement. C’est un peu comparable au passage de la 3G au HSPA .







neo2006pf a écrit :



http://www.mmobile.ca/le-reseau-4g-arnaque-marketing/





Pas valable pour la France. Le réseau 4G en France est nécessairement du LTE.


Le 26/09/2013 à 15h 17







Punkenjoy a écrit :



De ma compréhension, les draw call (dessiné un objets) font en ce moment

Moteur du jeux -&gt; directX -&gt; Drivers -&gt; carte graphique



Avec Mantle, on élimine l’étape de directX qui ne parallélise pas les draw call. Certaine étapes préliminaire peuvent être multithreader, mais l’écriture des draw call se fait toujours en single thread.





Depuis DirectX 11, il est possible d’effectuer les Draw Calls sur des “Deferred Contexts”. Généralement, tu génères autant de ces contextes que t’as de threads de rendus, dans lesquels tu vas effectuer tes draw calls. Ca permet donc de les effectuer en parallèle.

En gros, ca permet de générer plusieurs listes de commandes de rendus. Une fois que tes commandes ont toutes été envoyées, il faut resynchroniser tout ça sur le contexte immédiat (ce qu’on faisait avant Dx11 en fait).



Dans leur histoire de draw calls, je comprends plutôt qu’il y a un overhead moins important. C’est à dire que pour un draw calls qui ne demande pas réellement de ressources GPU (en gros, ne rien afficher), il sera possible d’effectuer 9 fois plus d’appels. Ca peut être une solution pour éviter d’avoir à passer par du geometry Instancing par exemple :

En D3D, on utilise le GI pour afficher plein de fois la même géométrie

Avec Mantle, on fait autant de draw que d’instances de la géométrie



Le problème, c’est que ce sont pas généralement pas les draw calls qui sont couteux.

D’ailleurs, beaucoup vantent l’avantage d’OpenGL qui aurait un overhead moins important sur les draw calls que Direct3D. En pratique, c’est difficilement vérifiable.


Le 25/09/2013 à 07h 31







charon.G a écrit :



Je le répète il serait extrêmement simple pour les développeur de recompiler en win32 arm si Microsoft le proposait sur Windows RT mais ce n’est pas une bonne idée.





On peut d’ailleurs noter que quelques applis open source ont été recompilés pour Windows RT et fonctionne bien (avec le hack pour autoriser les applis non signées).


Le 24/09/2013 à 13h 04







Edtech a écrit :



Je déconseille les Vaio, c’est du jetable ! Ne compte pas réinstaller ou mettre à jour l’OS avec ces merdes !





Mon Vaio SA d’il y a 2 ans dit le contraire :)







hadoken a écrit :



Au cas où tu ne serais pas au courant, 512GB en SSD c’est entre 400 et 500 euros…





Ce n’est pas le cas. C’est plus proche des 300€, donc potentiellement encore moins pour MS. En plus de ça, c’est le passage de 256 à 512 qui coute 500€ (le passage de 64 à 512, c’est 900€ de plus. Donc 900€ pour un SSD de 512 Go et 8Go de RAM, c’est clairement trop cher.



J’en ai même du mal à croire qu’ils osent sortir la Pro avec 64 Go…



Seule la Surface 2 a un prix correct (et encore) mais je sens mal son évolution dans le temps. Avec le choix du Tegra 4, ils restent bloqué à un feature level de DirectX tout pourri (9_1)…

nVidia continue à faire des SoC toujours aussi pourri et MS continue de se fournir chez eux…


Le 24/09/2013 à 19h 18







Mme_Michu a écrit :



Sans faire une comparaison compléte, juste un seul truc peut faire une différence : le TRACKPAD



Ayant comparé le trackpad d’un zanbook et d’un MBA…la difference dans les manips et gestes est juste hallucinante..du coup soit Apple est vraiement très fort dans les trackpad et dans son intégration par rapoort à l’OS, soit les autres sont vraiment nuls et ne savent toujours pas faire des trackpad corrects.., ou windows ne les gèrent pas correctement , au choix





J’ai un Zenbook UX31 et le touchpad fonctionne parfaitement. En l’occurrence, le touchpad semble juste être une dalle capacitive 5 points. Les manipulations fonctionnent très bien, je n’ai jamais à m’y reprendre pour zoomer, scroller ou autre.

Les gestures sous Windows 8 fonctionnent bien pour afficher la charm bar, switcher d’applis, afficher l’app bar des applis metro,…

Bref, j’ai pas grand chose à critiquer à ce niveau là, d’autant plus qu’avec IE10 et IE11, la gestion du zoom est tout simplement parfaite.



Les trackpad de MBP ne m’ont pas paru exceptionnellement meilleure. L’intégration est plus poussée dans l’OS certes, mais Asus a fait un travail plus que correcte (sans casser des briques) à ce niveau là pour Windows 8 (bien que la plupart des features sont maintenant gérés par Win 8.1). La seule nouveauté d’Asus reste le scroll à 3 doigts qui fait un retour bureau si c’est vers le bas, un mode exposé si c’est vers le haut, et previous/next si c’est sur la gauche ou la droite.

Il n’y a rien pour 4 ou 5 doigts (qui sont pourtant bien détectés par Smart Gesture d’Asus).


Le 24/09/2013 à 10h 08







Winderly a écrit :



Bizarrement, il existe de rares exceptions où c’est l’inverse.





Ces cas concernent probablement une exploitation de fonctionnalités des GPU qui n’existaient pas à l’époque. M’enfin, ça concerne que les vieux jeux.

Autrement, s’il y a de meilleures perfs, c’est très souvent parce que le rendu se fait à moitié.


Le 24/09/2013 à 09h 01







Ashuura a écrit :



L’avantage d’avoir un OS spécifique tient dans l’allocation des ressources à mon avis.

Toutes les ressources sont exploitées uniquement pour du jeu, pas de consommation mémoire annexe inhérent à des logiciels s’exécutant en tâche de fond.





Avec des jeux qui sont pour beaucoup encore en 32 bits, ou qui n’utilise pas plus de 2Go, la RAM n’est clairement pas un facteur limitant quand tous les ordis ont 8Go.

Pareil pour le CPU où la moitié des cœurs se tournent les pouces dans les jeux.

Que je lance mes jeux avec mon Visual Studio en arrière plan ou pas, j’ai les mêmes performances dans mon jeu.

Avoir un OS spécifique n’aura qu’un impact quasi invisible.

Ce qui changer par contre, c’est d’avoir un matériel plus spécifique et avoir des jeux qui l’exploitent mieux en évitant les points bloquants et en exploitant les points forts de ce matériel comme on peut le faire sur console.


Le 24/09/2013 à 07h 55







Kanchelsis a écrit :



Notch n’a pas déboursé un centime pour la publicité de Minecraft, et pourtant, il en a vendu des millions… (bon, c’est un cas particulier, mais quand même)





Parce que Minecraft c’est un jeu AAA ?

Je ne critique pas Minecraft (j’y joue et je maintiens un serveur) mais tu ne peux pas comparer les couts en développements d’un jeu comme Minecraft de jeux bien plus évolués. Les scénarios, les modèls ultra réalistes, les textures HD, le moteur graphique, le moteur physique,… ce sont un tas d’éléments qui coutent très cher à réaliser.



Cette personne a bien raison de dire que le fossé va s’agrandir. Je me souviens d’une époque où je pouvais faire une map pour Half Life sans trop de difficultés parce que le niveau de détail était faible. Quand HL2 est sorti, j’ai nettement vu la différence entre ce que je pouvais faire et ce que des pros faisaient.

Il faut être réaliste. Aujourd’hui faire des jeux de qualités graphiques dans l’ère du temps, c’est de plus en plus cher. Les indés l’ont bien compris et tente dese différencier autrement parce qu’ils ne peuvent pas rivaliser avec des grands studios.

D’autres essaient quand même (je pense à Natural Selection 2) et ont des difficultés (pour le coup aussi bien sur la technique que sur le budget).


Le 23/09/2013 à 09h 31







alexandredenis a écrit :



La solution est pourtant assez simple : comme pour les mots de passe, il faut changer d’empreinte digitale tous les 6 mois <img data-src=" />





Tous les 6 mois, une entaille profonde/brulure sur le doigt <img data-src=" />


Le 20/09/2013 à 07h 44







Network a écrit :



Même pas besoin de logiciel tiers. Windows, Linux ou Mac OS le font très bien nativement.





Sauf pour les cartes Wifi <img data-src=" />


Le 19/09/2013 à 11h 13







flagos_ a écrit :



D’ailleurs merci MS et son implémentation foireuse du Do Not Track. Ces gros malins se sont crus intelligents en activant par défaut le bousin alors que c’est clairement spécifiée que ca ne doit pas l’être. Résultat des courses, que ce soit chrome ou firefox, plus personne ne respecte le do not track car MS l’a mal implémenté. Du coup, tout ce qui a été fait autour de cette techno est entièrement a jeter a cause de MS.



Merci MS de ne pas comprendre a quoi servent les standards et de continuer a nous pourrir la vie, même en 2013.





C’est bien d’être obnubilé par MS, mais t’aurais pas oublier qui est vraiment l’origine du problème ? Le Do Not Track ça reste ce que c’est, une simple info. T’en fais ce que tu veux après (et les publicitaires n’ont certainement pas besoin de MS pour en avoir rien à faire).


Le 19/09/2013 à 09h 21







Edtech a écrit :



Tu peux changer le user-agent via le panneau développeur (F12). Mais je trouve ça moins pratique qu’avant (saleté de bogue du forum qui me fait <img data-src=" />)





Mais ça ne change que le user agent. Avant, tu pouvais utiliser IE10 mais avec le moteur de rendu d’IE6.


Le 19/09/2013 à 09h 18







Bill2 a écrit :



Moi j’ai des soucis sur G+ : Google m’indiquer dans un gros encart rouge que j’utilise le mode de compatibilité, alors que ce n’est pas le cas, et impossible d’afficher les notifications en cliquant sur la cloche.



Quelqu’un a le même soucis ?



Sinon, l’impression de rapidité est vraiment bonne, même depuis la précédente preview.



A mon avis, pour le délai de sortie, ça sera mieux qu’IE10, car on est déjà à la 2e preview, alors que pour IE10, la preview était arrivée bien plus tard.





J’ai remarqué des comportements bizarres à ce niveau là. Avec IE10, il était facile de forcer le mode de rendu (Quirk, IE8, 9, 10) depuis les outils développeurs. Maintenant, j’ai l’impression qu’on a plus ce contrôle, et même l’icone permettant d’activer/désactiver le mode de compatibilité semble avoir disparue.


Le 19/09/2013 à 09h 49







juliusc a écrit :



Et pour les series HD4000 on aura le droit de passer a 8.1 ou pas?





Il y a déjà des drivers WDDM 1.3 pour les HD4000 qui fonctionnent parfaitement. Par contre, les HD3000 subissent de légers bugs graphiques sous 8.1, restent à espérer qu’Intel règle ça.


Le 18/09/2013 à 14h 42







Nerdebeu a écrit :



Entièrement d’accord, tout est activé par défaut, et à ceux qui en doutent, qu’ils aillent faire un tour dans le planificateur de tâches aux endroits suivants:



http://neosting.net/aide-tutoriel/windows-7-desactiver-spyware-espiongiciels.htm…



Ce qui était valable pour 7 l’est encore pour 8, avec en plus le cas IE.





On peut critiquer les paramètres par défaut, mais ce n’est pas une raison pour raconter n’importe quoi en disant que ce sont des spywares. Ca fait partie du programme d’amélioration de Microsoft dont le but est bien défini. Si tu ne l’as pas activé, ces tâches ne font rien du tout.

D’ailleurs dans la description de chacune “ If the user has not consented to participate in Windows CEIP, this task does not do anything.”

Au passage, ce genre de comportements est présent dans bien d’autres systèmes/logiciels que Windows.



EDIT : Burned <img data-src=" />


Le 14/09/2013 à 11h 38







charon.G a écrit :



C’est déjà arriver plusieurs fois à Microsoft <img data-src=" /> (certaines technos LongHorn par exemple)





XGL ? <img data-src=" />


Le 13/09/2013 à 13h 50







misterB a écrit :



Et 140g un 4S <img data-src=" /><img data-src=" /><img data-src=" />





Ca me fait toujours rire ceux qui pleurent sur le poids des smartphones. J’ai eu un 820 (un peu plus de 160g vu que j’avais la coque pour la recharge sans fil), et ca ne m’a jamais dérangé, à la limite tu le sens bien dans la main, mais on est encore loin de se casser le poignet <img data-src=" />

Alors le 140g d’un 4S, et encore moins les 132 d’un 5S…

A croire que certains ont des poignets en papier.


Le 13/09/2013 à 08h 18







Tehar a écrit :



Un mot de passe au bios demande d’ouvrir l’ordinateur et d’extraire la pile. Il n’y a à ma connaissance aucune difficulté, par contre on est d’accord qu’il faut un accès physique à la machine. Pour ce qui est du disque dur chiffré, je te dirais juste que cela dépend de ta méthode.





  • Disque dur chiffré directement constructeur (ce qu’on appelle désormais un disque dur chiffré), j’ai réellement un doute sur l’efficacité, puisque certains softs constructeurs te permettent de clean ce mot de passe.



  • Disque dur chiffré par un logiciel tiers (True Crypt and co) ou directement par le système d’exploitation à l’installation (je parle principalement de Linux). Personnellement jamais fait mais je sais qu’il existe, ayant eut un papier de l’université de Princeton (2008) sur le sujet.

    C’est la méthode la plus lourde, ne touchant plus l’informatique, mais l’électronique, mais pour un électrotechnicien confirmé, cela prend moins d’une heure.



    En bref c’est pour cela, que la protection physique des données, souvent délaissée, est depuis quelques années, remise en avant lors des cursus informatique à partir du BTS/IUT. On avait des entreprises avec une grosse sécurité réseau, mais par contre le local technique constamment ouvert…





    Bah oui, un chiffrement TrueCrypt/BitLocker en 1H. Sans la clé, t’en feras pas grand chose hein. Il n’y a bien que le cas où la clé est dans la TPM est que t’arrives à lire le contenu de la puce où tu pourras en faire quelque chose (TrueCrypt ne supporte pas les TPM d’ailleurs de mémoire) (et hors failles dans l’algo/backdoor/whatever).



    Tu peux être l’électrotechnicien que tu veux, t’arrives pas à lire le contenu du disque en clair.


Le 11/09/2013 à 14h 36







yunyun a écrit :



C’est moi où on a perdu la super nouveauté de l’iPhone 5 : une 5ème ligne d’icônes ?





Regarde le ratio de l’image, c’est un iPhone 4


Le 11/09/2013 à 14h 33

Je trouve le style beaucoup plus agréable. Depuis quasiment les débuts de l’iPhone, je trouvais l’interface repoussante, mais là, l’impression générale est vraiment meilleure.

L’ensemble est plus vivant et plus propre à la fois. Il n’y a finalement que les blur qui sont trop présent sur les parties transparentes que je trouve moyen.

Reste finalement l’ergonomie qui n’a pas l’air d’avoir bougée et que je trouve toujours étrange sur les iPhone.

Le 11/09/2013 à 07h 45







dam1605 a écrit :



Question bête, les deux cpus en question sont forcés d’avoir exactement le même jeu d’instructions ? quid des différentes extensions (neon par ex), le A7 est aussi équipé ?

Dans le cas contraire ca doit être un sacré bordel à gérer…





Jeu d’instruction identique entre le A7 et le A15 en effet <img data-src=" />


Le 10/09/2013 à 18h 27







mightmagic a écrit :



Aucun . Bf3 sera le premier.



Il faudra voir si dx11.1 apportera beaucoup d’optimisations. Dx10 devait en apporter de même et au final les écarts furent très faibles une fois les pilotes optimisés.





La différence de perfs entre Dx10 et Dx9 est loin d’être négligeable. Le problème vient avant tout du fait que les moteurs ont pour la plupart été porté à l’arrache sans prendre en considération les fonctionnalités de Dx10. J’étais d’ailleurs tombé sur une présentation liées au développement du FrostBite qui indiquait qu’ils avaient fait cette erreur à l’époque.

DirectX10 apporte plusieurs méthodes permettant d’augmenter l’efficacité du GPU, encore faut-il les exploiter, et penser le moteur différemment pour en tirer parti.

Le passage de Dx10 à Dx11 par contre n’a pas demandé de changements importants, juste le passage pas des contextes (Immediate ou Deferred) plutôt que de taper dans le “device” D3D directement afin d’apporter le support du multithreading (ou pas si on reste sur le context immédiat).


Le 10/09/2013 à 11h 32







curuba a écrit :



Les totaux du premier tableaux ne sont pas bons.

Désolé mais ça fait un peu amateurisme…



Orange est à 2087 supports 4G (et non 2026)

SFR est à 599 supports 4G (et non 479)

BT est bien à 439 supports 4G

Free… n’a pas bougé visiblement !





Je crois que c’est parce qu’un support 4G peut avoir les 2 fréquences supportées (et du coup une antenne 800 et une antenne 2600 ne compte que pour un support).


Le 09/09/2013 à 09h 51







Cacao a écrit :



Je chie littéralement sur la 4G. Excusez moi de l’expression vulgaire mais ça fait du bien de l’écrire.



Sans déconner, la H+ fonctionne déjà très bien pour l’utilisation sur un téléphone et même sur un ordinateur portable. J’ai juste peur de voir les investissements engagés dans le déploiement de cette foutue 4G alors que la plupart des villes de France ne sont toujours pas équipées en Fibre voir même en adsl de qualité (merci les “jusqu’à 20 MEGA” … et en fait t’en a 4 et encore) et que le réseau mobile français soit disant couvert à 99,9% ne l’est pas du tout dans certaines régions. Ne parlons même pas du réseau de données car quand on capte en EDGE tu peux te boire un café avant de charger une page et quand on capte en 3G on pète le champagne.



Franchement, se vanter de cette 4G, c’est juste honteux.



<img data-src=" />





Bah oui, restons avec des technologies obsolètes qu’on puisse bien pleurer dans les années à venir. Déjà qu’on est pas en avance en France sur la 4G, je trouve ça très bien qu’Orange déploie très rapidement son réseau.

Plus vite la 4G sera déployée, plus vite on pourra se débarrasser des anciennes technos et réutiliser les bandes 2G. Avec ce genre de migration, on pourra capter la 4G (ou ce qui suivra) là où on captait la 2G.

Pour le coup, j’espère bien qu’il se passera la même chose que pour la TNT : la coupure intégrale des services 2G remplacée par la 4G.



Mine de rien, la 4G c’est un tournant énorme dans la convergence des réseaux.


Le 08/09/2013 à 14h 46







tic tac a écrit :



Pareil pour mon 8910i (tant que le réseau 900 / 1800 est toujours fonctionnel).





Tant que la 2G sera active plutôt. Bouygues commence déjà à le réduire en passant à la 4G (réallocation des bandes) et il y a de grandes chances que le réseau 2G tombe petit à petit. Je vois mal les opérateurs maintenir pendant très longtemps 3 technologies en parallèles.


Le 06/09/2013 à 09h 07







psn00ps a écrit :



Avec une appli configurée correctement, ça passe. <img data-src=" />





Des fois <img data-src=" />

Ca dépend pas mal de la complexité des applis.


Le 06/09/2013 à 08h 19







psn00ps a écrit :



Quel est l’intérêt d’installer les anciens framework ? Les nouveaux permettent de lancer les binaires compilés pour les anciens. <img data-src=" />





.Net 4 n’est pas compatible .Net 3.5. Par contre le framework 3.5 supporte jusqu’aux applis .net 2.0.


Le 30/08/2013 à 13h 45







Citan666 a écrit :



Bonjour, merci pour l’info. Pourrais-tu nous préciser s’il s’agit bien d’un prix de gros, et si possible quelles sont tes sources ?





ark.intel.com Intel

C’est un prix indicatif recommandé. On peut surement le considérer comme le prix max, mais difficile de savoir combien il sera réellement acheté par MS.


Le 30/08/2013 à 13h 08

A titre indicatif, le CPU de la Surface Pro coute 225$ à lui tout seul (d’après ark, probablement un peu moins cher pour MS ?). Je pense pas que le A15 en coute le quart. Et il faut rajouter les composants annexes qui sont souvent présents dans le SoC des ARM.

Le 30/08/2013 à 09h 30







GuiJo a écrit :



Ceux qui sont drôles sont ceux qui refusent de réaliser que devant l’échec commercial de cette surface, le positionnement tarifaire doit évoluer.





M’enfin, y’a un gouffre entre dire que le prix était légèrement élevé et dire que la Surface ne vaut pas mieux qu’un PC à 400€…


Le 30/08/2013 à 13h 42

En y réflechissant, je me dis que j’ai mal vu les choses <img data-src=" />

Le réseau interne de l’opérateur peut très bien être Packet Switched en interne, mais la communication vers un autre opérateur doit se faire avec ce que la techno d’origine utilise (2G/3G), donc CS.



Il est vrai qu’en 2G la data et la voix ne peuvent pas être active en même temps. En 3G par contre, les deux réseaux sont bien dissociés (appel et data en parallèle possible), mais il me semble que la data reste tout de même sur un CS qui se connecte vers le réseau IP (un peu à la manière des modems analogique ?)

Le 30/08/2013 à 13h 18







Skeeder a écrit :



Les interconnexions des PCRF (ça sert à contrôler l’utilisation de ton forfait) en CS d’un pays à un autre sont un véritable casse-tête, à l’heure actuelle, on n’est pas capable de le faire en temps réel, c’est des facturation mois au mois, il faut des accords avec des opérateurs pour éviter les surfacturations etc.





Il me semblait que le CS n’était que la partie visible du réseau, c’est à dire ce que le téléphone utilise/reçoit, mais qu’en interne, il n’y a plus de circuit établi et que tout passe par des technos PS (pour ressortir sur un circuit de l’autre côté).

Ce n’est pas le cas du tout ? Ou ce n’est le cas que sur les réseaux fixes ? Ce qui m’étonnerait fortement (je vois mal les opérateurs utiliser des réseaux séparés pour le mobile et le fixe).


Le 30/08/2013 à 09h 28







canti a écrit :



tiens d’ailleur une question que je me posais: est ce que ton app est supprimé si tu ne paye pas tout les ans?



J’ai une app sur le store de MS ( un concourt pour gagner un lumia 800) et lorsque il a fallut payer le renouvellement j’ai pas fait l’effort de payer ( c’est mal tombé, c’est quand WP8 est arrivé et qu’il fallait que je recode mon app pour qu’elle continue a marcher avec le nouveau framework bla bla bla), et je pense que mon app est toujours sur le market





Tu pourras remarquer le prix pour accéder au store WP a baissé officiellement a 19$ ;)


Le 30/08/2013 à 08h 46







after_burner a écrit :



Je comprends pas ta remarque, tu penses que ailleurs chaque application est unique, et a une utilité supérieure à la moyenne?



Quel rapport avec les concours étudiants?





Je parle de ce que je connais. Régulièrement, Microsoft propose des concours aux étudiants dont le but est de développer des applis. Généralement, ça tourne à au moins 10 applications par étudiants.

Parmi ces application, j’en ai rarement vu de bonnes.

Ca génère un tas d’applications qui sont inutiles et polluent le store.


Le 30/08/2013 à 08h 37

Un gros problèmes sur Windows Phone est le nombre de concours étudiants qui demandent de développer des applications en masse, sans se soucier de la qualité. La plupart du temps, ce sont 15 applications identiques où juste 2-3 choses ont été modifiées, et dont la plupart ne servent à rien.