votre avatar

ErGo_404

est avec nous depuis le 16 mai 2005 ❤️

3044 commentaires

Le 07/04/2014 à 14h 47







fraoch a écrit :



C’est elle qui a fait l’interface modern UI ? Ca explique bien des choses <img data-src=" />





Un pauvre utilisateur a du lui dire qu’il bossait dans la toiture, elle a tout fait à base de tuiles du coup.

Elle lui a marouflé le bureau il n’a rien compris le pauvre.


Le 07/04/2014 à 12h 59







romjpn a écrit :



Selon les benchmarks, il est aussi puissant qu’un i7 920 ou 860, ou encore que les récents i3. Donc je pense pas qu’il y ait une aussi grande différence que ça. Au moins pas aussi grande que les CG pro/jeux. Enfin faudrait m’expliquer si il y a une aussi grande différence.







C’est pas forcément au niveau de la puissance de calcul brute, mais plutôt des instruction supportées. Mais ce n’est qu’une supposition je ne sais pas si les procs grand public sont si différents de ça. Je pensais juste que les procs “pros” étaient plus spécialisés pour applications “pros” justement, mais je ne sais pas si les jeux exploitent des instructions particulières qu’on ne retrouve que chez les procs grand public.


Le 07/04/2014 à 12h 11







EdDiE a écrit :



Bien sur, les 64bit c’est ce qu’il y a de plus répandu m’voyez ma bonne dame…

Pour le quad core encore, ok mais 64bit…



Pas besoin d’un 64bit pour enfoncer les PS4 et les Xone hein les gars, bref bye watch dog (à moins qu’ils jouent le timing pour le sortir sur 32bit, ça serait pas impossible)





Qui est encore sur un processeur 32 bits aujourd’hui?





romjpn a écrit :



Wah ! Même mon “vieux” Xeon de 2010 (W3540) est plus dans le recommandé mais entre le minimum et le recommandé. J’espère qu’il tiendra encore le choc une paire d’années au moins.





En même temps les Xéons ne sont pas forcément des processeurs grand public adaptés au jeu.


Le 07/04/2014 à 12h 08







FunnyD a écrit :



600-700-800-1000€ <img data-src=" /> Il y a pléthore de choix <img data-src=" />





Ben en fait le processeur est bien défini et la carte graphique aussi. Le reste ça dépend essentiellement du budget, on trouve des cartes mères à 70 comme à 500 euros. La Ram c’est pareil ça dépend de ce qu’on veut mettre dedans.

600 c’est peut être un peu optimiste remarque, mais bon, en fouillant bien…


Le 07/04/2014 à 11h 56







FunnyD a écrit :



Juste par curiosité, ca revient à combien une config recommandée?<img data-src=" />





600€ si on compte un bon SSD je pense.



EDIT: sans compter le boitier et les accessoires hein.


Le 07/04/2014 à 08h 04







Edtech a écrit :



Qui a osé dire que Nintendo exagérait à sortir une maj le jour de la mise en vente de la WiiU, maj qui apportait uniquement la compatibilité Wii ? Parce qu’au moins, on l’avait dès la sortie. Là, ça reste hypothétique chez les deux concurrents !





Sauf que cette compatibilité était annoncée avant la sortie de la Wii U, alors qu’elle n’était visiblement pas complète quand elle a été annoncée et que tu es obligé d’installer un énorme patch à la sortie pour l’avoir.

Sur XOne c’est différent, ils n’ont jamais annoncé que ça allait fonctionner, donc pas de fausses attentes.



Bon maintenant faut aussi relativiser, ça me choque pas que la console se mette à jour à l’installation, on le fait bien sur les PCs…


Le 04/04/2014 à 07h 12







lossendae a écrit :



Quand bien mis en œuvre, la 4k peut être plus impressionnante que la 3D, les détails et la profondeur de champs pouvant permettre un petit effet d’auto stéréoscopie saisissant.



Ceci étant dit, si tu aimes la 3D, la 4K ne peut qu’être bénéfique. Sur les TV en 3D passive, le gain est incommensurable.





Je n’ai jamais remarqué ça pour le premier point, mais je te crois sur parole.

Pour le second, c’est vrai, ça apporte un plus.



On finira par tous y passer à la 4K et ce n’est pas une mauvaise chose. Je trouve juste (et c’est un avis très personnel) que la 4K me donne moins envie à court terme que la 3D, même si dans les deux cas les contenus dispos sont quand même assez rares.


Le 03/04/2014 à 09h 35







lossendae a écrit :



Le 4k c’est au top, beaucoup lus impressionnant que la 3D (et permet la 3D ou encore le partage d’écran polarisé avec une qualité bien meilleure).





Bof. Pour avoir vu quelques démos à la fnac, ça apporte de la précision sur certaines images, certes, ça fera toujours “grand spectacle”, mais leurs démos tournent sur des TVs 50 ou 60” (voir plus), finalement assez grandes par rapport à ce que beaucoup ont à la maison.



Je ne vois pas trop d’inconvénients à y passer, mais ce n’est pas urgent.



Pour moi améliorer la 3D est par contre un point sur lequel les constructeurs et les cinéastes devraient travailler dur.


Le 03/04/2014 à 09h 31







chaps a écrit :



Autant pour certains films je peux entrevoir un intérêt à la 4K, autant pour un match de foot… Je suis dubitatif <img data-src=" />





La HD avait déjà apporté un gain pour les matchs. Un terrain est un endroit qui fourmille de détails, les joueurs, le terrain, et le public. C’est même presque plus important que pour un film où il y aura du flou de mouvement à peu près tout le temps.

Dans un match ce qui compte c’est la précision des images, donc la définition d’une part et la fréquence des images d’autre part.


Le 01/04/2014 à 06h 02







Tah82 a écrit :



Pourquoi râler ?

Ben pour l’instant c’est cool & hype les capteurs connectés dédiés à la santé. Notamment pour les diabétiques qui peuvent monitorer leur taux de glycémie en temps réel, en s’affranchissant en plus de la piqure traditionnelle (une petite révolution).

Mais le jour ou votre mutuelle santé augmentera de 0,5% votre cotisation mensuelle à chaque fois que vous mangez une bonne pizza bien grasse/fumer une clope/buvez une bière (les petits plaisirs de la vie quoi) parce qu’elle aura un accès direct à la db de Withings, ça sera beaucoup moins cool & hype.

Ça le sera plus du tout en fait.





C’est sûr que c’est une dérive possible (d’ailleurs beaucoup plus probable aux US qu’en France, car là bas les dérives de ce type existent déjà). Mais rien n’empêche de lutter contre ça, au lieu d’accepter avec fatalité que les mutuelles accèdent à ce genre d’infos.


Le 31/03/2014 à 15h 29







minette a écrit :



C’est quoi mieux vivre ? (vous avez 2 heures)

En quoi les balances ou les tensiomètres connectés(par exemple) vont-ils améliorer la santé de la population par rapport aux engins électroniques enregistreurs simples ?

Marcher 10000 pas par jour est-il souhaitable dans tous les cas ? Si c’était le cas, ne vaudrait-il pas mieux se bouger les fesses jusqu’aux interrupteurs plutôt que tout piloter à distance à ce moment-là ?

En quoi est-il utile pour un non sportif d’avoir un cardiofréquencemètre ?

Y a-t-il une quelconque preuve que le coaching rustique via bracelet/montre apporte quoi que ce soit à qui que ce soit ? Et même que ça n’ait pas des résultats contraires à ceux escomptés (par culpabilisation/objectifs non adaptés par exemple) ?

etc etc …



Je suis médecin, je suis avec intérêt les avancées technos, et pour l’instant il n’y a rien du tout d’abouti ou de probant dans le secteur de la santé pour le grand public. Et en ce qui concerne les applications imaginées pour le futur de l’internet des objets il n’y a pas grand chose non plus, que du gros marketing qui tâche.

C’est pas parce que tariq krim a dit dans Le Point que dans 15 ans y aura plus de médecin généraliste qu’on est obligé de le croire ^^

(par contre payer des impôts pour financer ces belles paroles mesurées et toute la mythologie startupienne qui va avec, ça c’est obligé par contre)



nb : Le cas est différent en ce qui concerne certaines applications pros (patients hospitalisés ou en rééducation par exemple)





Rendre plus ludique les différentes mesures pousse à faire lesdites mesures plus souvent. Rendre ces mesures “connectées” permet de donner des conseils automatisés et simples.

Ca ne remplace pas un médecin, ça pousse juste à améliorer son hygiène de vie (ce que les médecins doivent faire aussi, n’est-ce pas ?).

On n’en est qu’au début, mais il ne faut pas beaucoup d’imagination pour voir où ça pourrait mener.



A l’avenir les mesures seront plus poussées, pas seulement la tension/fréquence cardiaque, pas seulement le poids ou la masse graisseuse, mais effectivement la composition sanguine (par exemple ?). Ca permettra de faire du dépistage plus facilement, plus rapidement.



Et si ça peut éviter 99% des consultations de généralistes pour un rhume ou une gastro, ça fait autant d’argent en plus pour la Sécu. Je préfère encore que l’état paye des startups qui fournissent du boulot plutôt que des consultations inutiles qui aboutissent à la prescription de deux boites de doliprane.





Mais là on s’éloigne des ampoules connectées. Il y a des tonnes d’agencements d’appartements ou de maisons pour lesquels une télécommande est justifiée (ne serait-ce que si les interrupteurs ne sont pas connectées aux prises qui nous intéressent). Si cette télécommande peut être notre téléphone et non pas un appareil séparé, pourquoi pas.


Le 31/03/2014 à 13h 39

On peut commander de plus en plus de choses avec ses smartphones/tablettes, et c’est une bonne chose. Là ou on était super limités avant en termes de réorganisation des boutons et des lumières dans une pièce, on peut maintenant tout contrôler parfaitement. Un seul appareil (accroché à l’entrée d’une pièce ?) pourra piloter lumière, TV, NAS, musique, communications.



Bien entendu on ne fait que parler de confort là.









monpci a écrit :



en cherchant bien tu dois pouvoir trouver les wc intelligents qui analyse ce que tu lui fourni pour te donner un retour sur ton état de santé

et accessoirement te nettoiera a coup de jet d’eau





Analyser la santé est une bonne chose. C’est effectivement dans la santé que les “smartXXX” ont l’avenir le plus évident. Si ça peut pousser des gens à faire plus attention et à mieux vivre, pourquoi râler ?


Le 25/03/2014 à 10h 06







al_bebert a écrit :



compliquer de faire une démo ?



je sais pas le premier level par exemple ?





Oui.

Contrairement aux grosses consoles, ce sont avant tout de petits éditeurs qui développent sur Android et donc sur Ouya. Faire une démo ça prend du temps, de l’organisation, or sur mobile les jeux sont vites remplacés par des nouveautés et ce qui compte avant tout, c’est d’aller très vite dans le développement.

Je pense qu’ils ont raison d’enlever cette contrainte, mais qu’ils devraient proposer autre chose, à la Play Store : après achat tu as 15 minutes d’utilisation du soft pour te faire rembourser si tu n’aimes pas.







gogo77 a écrit :



Ça existe encore la Ouya ? Ils feraient mieux d’arrêter les frais et de passer à autre chose.



Même si dans l’idée je trouve ça sympa, ils ont une puissance de frappe bien trop faible pour réellement se faire une place et intéresser les studios. Ce n’est pas en enlevant cette contrainte qu’ils vont gagner leur amour. Ce qu’il leur faut c’est une garantie de gagner de l’argent.





Dès le début la plateforme était vouée à l’échec. Le marché du mobile évolue trop vite pour qu’on puisse fixer du hardware pendant une période suffisamment longue pour attirer les devs et les consommateurs. Faire un framework de jeu et éventuellement un système avec une manette bluetooth qui s’adapte à tous les téléphones aurait été plus pertinent, plus évolutif, et au final plus pratique pour tout le monde.


Le 24/03/2014 à 10h 00







Papa Panda a écrit :



Prometteur sur le papier !





à voir sur la pratique et la conso réelle de l’ensemble car le bluetooth est tout de même connu pour sa surconso (surtout dans le domaine des smartphones).



Ensuite, cela fait un peu comme la domotique, nous pourrons allumer la lampe ou autres quand nous voudrons depuis le canap’ sans à avoir à se lever pour un interrupteur.



Un peu comme si madame ,une fois que tu t’es callé, “chéri ,tu peux éteindre maintenant la lumière ! “.





Le bluetooth 4 (LE comme Low Energy) est capable de fonctionner avec un courant hyper faible (pour une quantité de données à transmettre faible également je suppose, comme c’est le cas ici). Tu te doutes bien que l’appareil n’est pas connecté en permanence à ton téléphone, il se connecte pour envoyer des commandes super légères. Le reste du temps tu peux couper le bluetooth.


Le 21/03/2014 à 15h 02







matroska a écrit :



Autant faire du 1920 x 1080 pixels à 30 ips que du 640 x480 pixels à 90 ips non ?



<img data-src=" />





Dépend de ce qu’on veut en faire mais c’est clair que vu la qualité de la caméra le 90ips va pas être super exploitable…


Le 21/03/2014 à 15h 00







flocoon a écrit :



Perso je ne sais pas si mes films sont en DTS-HD (DTS sûr mais comme je n’ai pas d’ampli qui gère de toute manière le pi “downgrade” en stéréo).



J’ai eu des problèmes pour des 1080p à gros bitrate et les solutions que j’ai du adopter c’est :




  • overclock pi à 900mhz

  • communication raspbmc nas en UDP au lieu de TCP, ce qui a bien baissé la conso cpu.



    Actuellement j’arrive à lire du 1080p gros bitrate avec son DTS et “ambilight” maison sans problème sur le pi.



    Edit: une piste pour optimiser le share NAS/PI via UDP http://lucatnt.com/2013/09/avoid-stuttering-streaming-from-nfs-shares-with-xbmc-…





    Effectivement ça règlera peut être le problème. Je sais que j’ai pas mal de films en DTS-HD, mais pas tous. Alors que la grosse majorité avait quand même du mal à être lus. Bon depuis j’ai acheté un câble hdmi de 10m et c’est mon PC fixe qui est branché à la TV avec XBMC. Ca marche forcément bien mieux <img data-src=" />

    Merci pour l’astuce de l’UDP en tous cas <img data-src=" />


Le 21/03/2014 à 08h 16







iosys a écrit :



C’est vraiment pour un usage ultra de chez ultra basique en fait. Lire un .mp4 bien formaté “syno - google” compliant, et encore… Quid des coupures Wifi quand ça change de canal ? De la portée ? Et des timeout ? Car un NAS Syno par defaut ça se met vite en veille. C’est vraiment pour regarder les lolcats de youtube, et pas grand chose d’autre. Et puis se taper un violent ecran lumineux du portable pour mettre en pause dans le noir, la larme.



Ce n’est pas une solution de home cinema…. Pour ça vive le cablage double prise giga dans tous les coins de la maison, et un bon switch LACP. Et une bonne jugeotte pour ne voir aucun câble, et merci le 180MB/s pour la sauvegarde des isos BR sur les X To du nas + La harmony à bouton pour commander tout ses appareils.







Et vive l’équipement à 2000 euros sans compter l’installation des câbles à travers la maison.



Evidemment avec un budget énorme on peut avoir mieux. M’enfin le chromecast est déjà pas mal pour 35 euros. N’oublies pas que la majorité des plateformes de location et de vente de films numérisés le fait au format mp4 ultra compressé (donc bitrate assez faible). Google n’a jamais voulu proposer une solution pour les pirates, ils voulaient avant tout une solution pour déporter un écran ou des actions, et ça fonctionne.



Le Chromecast permet de faire bien plus que diffuser de la vidéo, il ne manque que les applications qui l’utilisent correctement.

Nul doute qu’un chromecast 2 ou 3 lira sans problèmes la 4K avec bande son de ouf, quand les plateformes en proposeront.


Le 21/03/2014 à 08h 11







seboquoi a écrit :



Tu devrais réessayer…



Je ne lis que du Full HD sur mon Rpi sans saccades, sauf bande son DTS-HD bien lourde qui met la bête à genoux.





Bah voilà j’ai la réponse à ma question <img data-src=" />

La grande majorité de mes films a une bande son en DTS-HD.


Le 20/03/2014 à 17h 52







seboquoi a écrit :



Merci pour cet essai !



A approfondir concernant le bitrate alors parce qu’il est vrai qu’un Rpi sous Openelec, aussi frêle soit-il, peut encaisser sans broncher une vidéo qui cumule en audio+video 15mb de bitrate.



Le comparaison me semble pertinente car c’est aussi facile d’utilisation et que c’est quasiment au même prix.





Du temps ou j’avais essayé, les vidéos full hd chez moi étaient toujours saccadées sur un RPi en ethernet (avec un Nas syno justement derrière).

A moins qu’ils aient amélioré de manière vraiment significative les perfs depuis (mes tests datent d’il y a bien 89 mois), ce que tu dis m’étonne beaucoup.


Le 21/03/2014 à 08h 58







Jarodd a écrit :



J’ai dit le contraire ? Faudrait voir à ne pas interprêter ce que vous lisez.





Peux-tu expliciter ce que tu voulais dire avec ton message du coup ?

Pour moi tu critiquais le bien fondé de la décision et je ne vois pas d’autres interprétation.


Le 21/03/2014 à 08h 18







Jarodd a écrit :



Kerviel style : désormais la prison ne suffit pas, on préfère pourrir la personne en la privant de vie sociale.





Parce que publier des photos d’une personne nue (voir des vidéos de pr0n) sans son consentement, ce n’est pas essayer de pourrir sa vie (et pas que sociale) ?


Le 19/03/2014 à 08h 20







darkbeast a écrit :



Ouais enfin pour avoir tester bootcamp ça ne vaut pas un pc, certain soft tournent mal, donc pour un pro l’intérêt est limité, parce que ça ne va pas être mme michu qui va acheter un mac pro.





Quels softs ?

Bootcamp n’est qu’un ensemble de pilotes qui permettent de faire un dual boot, après tu es sur un OS Windows classique sur une machine plus que classique. Je suis curieux de savoir ce que ça change pour les applications de tourner sur Bootcamp (à part évidemment les apps bien spécifiques qui tentent de paramétrer le bootloader).


Le 18/03/2014 à 16h 18







djshotam a écrit :



Les émissions en clair… en replay… ceci est une révolution <img data-src=" />





Pas une révolution, mais sympathique. Surtout si ce sont les seuls à le proposer.


Le 05/03/2014 à 15h 16







Edtech a écrit :



Tu as joué à la Wii U ? (vraie question).



Beaucoup de gens ont une mauvaise opinion de la Wii U. Mais mets-leur un gamepad dans les mains (ils vont déjà te dire qu’ils sont surpris de la légèreté et de la qualité de la prise en main). Après tu leur montres quelques jeux, et t’es quasiment sûr qu’ils vont l’acheter dans les mois qui suivent.



Faut arrêter de se baser sur des articles de presse, des vidéos ou tout autre média et l’essayer.



Pour moi, la Wii U a le potentiel pour devenir la Super Nintendo du 21ème siècle ! Elle est suffisante graphiquement (franchement, à 4m, va voir les détails que les autres ajoutent, on est pas collé à l’écran comme sur PC !), très agréable au niveau prise en main et tous les jeux sont extrêmement fluides (primordial pour moi). Et les jeux ne ressemblent pas à ceux sur les autres plateformes.



A ceux qui parlaient du fait qu’on ne peut pas comparer le matériel, je souhaiterais ajouter que beaucoup de choses dépendent aussi de l’OS.



Exemple dans le domaine des smartphones : pour faire tourner WP, il faut une machine 4 fois moins puissante que pour Android pour un meilleur résultat !



Donc en plus des fortes différences matérielles, il y a la qualité de l’applicatif, des API, etc. Et évidemment, l’imagination des équipes de développement (défaut récurrent de la majorité des studios…).





<img data-src=" />



J’ai joué à la Wii U et aux nouvelles consoles Sony et MS … sur des stands d’essai.

La “légèreté du pad” pour moi c’est bien, c’est clair. Mais j’ai trouvé le pad totalement inutile et très “plastique” (limite toc). J’ai pas apprécié jouer avec, probablement parce que comme sur la Wii, la plupart des jeux ne sont pas franchement adaptés à ce nouveau modèle. Son coût déraisonnable à une époque ou on trouvait des X360 et PS3 deux fois moins chères avec un catalogue bien plus fourni m’ont vite fait comprendre que je pouvais m’en détourner. Sans compter l’abandon petit à petit des éditeurs. Au final il ne reste plus que Nintendo dessus, les éditeurs de jeux qui me plaisent préfèrent les nouvelles consoles.



J’ai beaucoup de plaisir à jouer avec un simple pad. Je trouve que la Wiimote était une bonne idée, mais qu’elle n’aurait pas dû être le pad principal. Ce n’est tout simplement pas adapté à tous les jeux. Tenir la Wiimote en mode manette n’est pas désagréable, mais c’est à des années-lumières du confort des pads des autres consoles.



Je vois la différence entre la nouvelle Xbox et l’ancienne niveau graphique. Je l’ai vu sur un stand de test. Et j’ai une télé assez grande, qui n’est pas à 4m de mon canap.

Quand je joue avec d’autres gens (ce qui est courant sur consoles ;-) ), c’est cool d’avoir plus de pixels pour l’écran splitté.

Pas la peine de prendre ta situation comme étant générale. Si tu joues sur une télé cathodique il y a effectivement des changes pour que tu n’y voies que du feu.



Perso je comprends les éditeurs qui se barrent, développer pour Nintendo c’est :

1 - une archi différente des autres

2 - L’obligation de prendre en compte des accessoires pas adaptés à tous les types de jeux

3 - Une difficulté supplémentaire pour adapter des jeux qui passent bien sur les next gen mais qui sont trop gourmands pour la Wii U.



Par contre je ne comprends pas Nintendo, c’est très simple pour eux de porter leurs jeux sur les autres consoles, c’est très simple pour eux de garder le super gameplay auquel ils nous ont habitués (on prenait du plaisir à jouer à Mario kart sur une manette plate sur SNES, on peut en prendre autant sur une manette de XOne).



Je trouve ça un peu trop facile de n’accuser que les devs pour les mauvais jeux sur consoles Nintendo. Nintendo pourrait aussi être plus attractif.


Le 04/03/2014 à 16h 22







Théo_Nath a écrit :



Jamais ! Ça c’est le genre de propos qui quand je les lis, me donne une furieuse envie de refaire élégamment le portrait à son auteur. Nintendo n’a aucune raison valable de faire une abomination pareille, surtout si c’est encore conforter la position de Sony et Microsoft qui en terme d’innovation sont à la ramasse (donner plus de puissances aux consoles alors qu’actuellement la qualité des graphismes est telle que les améliorer a peu d’influence sur la qualité d’un jeu, vraiment bof).



Je n’ai vraiment pas envie de revoir la catastrophe qu’il y a eu avec Sega.





Pour moi risque de disparaître complètement du monde du jeux vidéo est bien pire que de sortir leurs jeux sur d’autres consoles.

L’innovation dont tu parles, en fait tout le monde s’en fout. Passé l’effet Waouh sur la Wii et la DS Nintendo n’a jamais rien refait de génial. La Wii U est toute naze, leurs jeux sont toujours pareils, ils ne savent pas innover autant que tu le prétends.

Quitte à faire toujours les mêmes jeux (qui sont quand même sympas, hein), autant les rendre dispo sur des plateformes qui fonctionnent et qui sont techniquement à jour.

Mettre à jour le hardware a un impact, il y a plein de jeux ou le réalisme visuel est sympa. Ca ne veut pas dire que c’est indispensable pour avoir un bon jeu, mais c’est sympa d’avoir une console capable de faire de bons graphismes ET un bon gameplay. Là ou la Wii ne faisait que l’un des deux et la Wii U aucun.



PS : garde tes menaces pour toi. Tout le monde a le droit de donner son avis, et t’es pas un joueur qui compte plus que moi. J’aime bien Nintendo mais je n’aime pas leur stratégie. Chacun son truc. Suivre aveuglément sa communauté qui ne réfléchit pas du tout en terme de rentabilité est aussi stupide que suivre les actionnaires qui ne pensent qu’en termes de rentabilité.


Le 03/03/2014 à 14h 54







Danytime a écrit :



De plus les japonais préfèrent jouer sur console portable que sur console de salon, parce qu’ils ont pas de place dans leur petit chez eux.





Ca fait bien longtemps que Nintendo ne compte plus uniquement sur le marché Japonais pour gagner de la thune.







XMalek a écrit :



Alors pour information s’il y a plus de gens qui jouent sur téléphone il n’y en a pas beaucoup plus qui “investissent” pour jouer. Un très bon article sur ce sujet est paru sur gamasutra et rétabli pas mal ce point là.

Le marché des téléphones portables n’est actuellement valable que gràce à quelques baleines (personnes dépensant plus de 2000€ / an dans le marché téléphone portable).







Peut être mais le marché évolue quand même et si Nintendo ne se renouvelle pas ils disparaîtront purement et simplement.

Les téléphones portables ne sont pas le seul marché qu’ils peuvent viser. Je les verrais bien sortir un mario sur Xbox avec pourquoi pas des accessoires pour les jeux qui en ont besoin.


Le 03/03/2014 à 14h 37







FREDOM1989 a écrit :



Si il y a bien des gens qu’il ne faut pas écouter ce sont les “investisseurs”.



Sans ses consoles Nintendo est trop fragile, il leur faut un environement qu’il maitrisent.





D’un autre côté le marché évolue et les gens jouent de plus en plus sur téléphones portables e de moins en moins sur consoles.

Les consoles ont toujours profité à Nintendo mais ça ne veut pas dire que ça sera toujours le cas.



Je préfèrerais qu’ils sortent leurs jeux sur d’autres consoles et qu’on puisse ENFIN jouer à d’excellents jeux sur d’excellentes consoles.


Le 04/03/2014 à 16h 19







Vilainkrauko a écrit :



Plus sérieusement, mon samsung s3 mini a normalement une autonomie de 3-4 jours.



L’été dernier en savoie durant 3-4 jours l’autonomie était tombé a même pas 1 jour … puis est revenue à la normale.



Aucune explications <img data-src=" />





Si. Quand tu passes dans une zone mal couverte, ton téléphone augmente la puissance de son antenne pour mieux capter. Sur une journée ça fait beaucoup de différence si ton antenne consomme deux ou trois fois plus.



Et comme tu as dit Savoie … ben en fait ça dépend d’où tu étais en Savoie.



Et c’est la même chose pour le Wifi, s’il scanne en continu les réseaux ça peut consommer aussi mais ça ne change pas que tu sois en Savoie ou ailleurs.


Le 21/02/2014 à 15h 25







Adakite a écrit :



je ne suis sûr de bien comprendre l’histoire des terminaux actuels non compatibles. Les fabricants ne vont pas sortir des puces pour faire plaisir à Bouygues. Peut-on avoir plus de détails là ? La LTE existent ailleurs non, et donc les terminaux haut-de-gamme (iPhone, S4, Nexus 5) ne sont pas compatibles c’est ça ?!





La LTE-A est une norme différente de la LTE classique. Il faut donc une puce spécifique.

Pour l’instant il n’y a pas beaucoup de modèles compatibles, à ma connaissance seul le GS4 Advance (d’ou son nom ;-) ) l’est, et il est en exclu chez Orange.


Le 18/02/2014 à 08h 12







JohnCaffey a écrit :



[presque tr0ll]

Samsung & Co arrivent bien à fourguer des téléphones avec des batteries misérables à un prix exorbitant, alors pourquoi pas des montres ?

[/presque tr0ll]





Quand tu penses à la puissance embarquée dans une taille aussi petite, je ne suis pas sûr qu’on puisse dire que la batterie des téléphones est misérable.



De toutes façons pour les montres le problème vient de l’écran. Faire une montre connectée, c’est bien, mais a-t-elle besoin d’un écran couleur LCD ? Un petit écran e-ink (même en couleur, on sait en faire…) ne ferait-il pas l’affaire ?

Si on rajoute tous les capteurs embarqués et mine de rien la puissance nécessaire pour tout faire tourner, ça devient ridicule. Tout ça pour afficher un SMS ou répondre à un appel plus rapidement.


Le 18/02/2014 à 08h 09







Gigatoaster a écrit :



Désolé mais la plupart des gens victimes d’inondations habitent…en zone inondable.



Je préfère donner à des associations caritatives plutôt que me faire ponctionner.





+1, pourquoi ne pas taxer tous ceux qui décident de vivre dans une zone inondable ?


Le 07/02/2014 à 08h 35

Entre nous je préfère héberger mes données en France. Si en plus ils sont moins chers… tant mieux <img data-src=" />



Maintenant ça fait difficilement oublier les difficultés du service à ses débuts, ce qui ne laisse rien présager de bon pour le service actuel.

Le 06/02/2014 à 09h 27







DownThemAll a écrit :



Cette défiance de Samsung a l’égard de Google est quand même assez révélatrice…





Ils ont besoin de se différencier et c’est normal. Ils ne peuvent pas tenir la place de numéro 1 en utilisant l’interface classique et en changeant 3 couleurs et icônes comme le font certains constructeurs.


Le 06/02/2014 à 09h 26







Trollounet a écrit :



Il suffit d’installer Nova/Apex et donc de changer le launcher par défaut non ?



Si c’est juste un écran d’accueil…





Ce n’est pas un Home screen.

En fait ces tablettes ont le home screen standard chez Samsung.

Le mode “Magazine UX” apparaît lorsqu’on fait un swipe du bas de l’écran vers le haut lorsqu’on est sur le Home. Du coup je pense que quel que soit le Home, cette fonctionnalité doit être activée.

Ceci dit je ne vois pas en quoi c’est un problème puisque justement le Home est toujours disponible.


Le 04/02/2014 à 08h 22







hadoken a écrit :



Et donc ? YouTube est déjà bourré de pubs, et il n’y a qu’à demander pour faire supprimer les vidéos si l’uploader ne possède pas les droits. Du coup la suite du raisonnement c’est quoi ? YouTube payant ?





Peut être qu’ils pourraient négocier plus d’argent pour les vidéos youtubes.

Peut être que lorsqu’un mec poste une vidéo d’un concert, au lieu de la supprimer ils pourraient récupérer de l’argent dessus aussi.



Etc etc.


Le 31/01/2014 à 08h 31







choukky a écrit :



Pour un disque au format 3.5” sous un vide absolu, le couvercle supérieur du disque encaisserait une charge de l’ordre de 150 kg.

Un petit renforcement serait nécessaire, sans parler des problèmes d’étanchéité comme la souligné chaps. <img data-src=" />





Ah ok <img data-src=" />


Le 30/01/2014 à 14h 27







jeje07 a écrit :



si tu effaces des données par accident sur un disque dur, bon courage pour les récupérer. jamais rien pu récupérer depuis bien longtemps, depuis l’époque de easy recovery si je me souviens bien.



pour le raid, ce n’est pas une sauvegarde, aucun raid n’est une sauvegarde









ragoutoutou a écrit :



La tolérance de panne permet d’avoir un service à haute disponibilité, mais ne constitue pas une protection de type backup. Un fichier effacé par accident restera effacé en disque simple ou en raid 6… un backup permettra de le récupérer.







En même temps on parlait d’une résilience aux pannes de disque, pas d’une sécurité … contre l’utilisateur.


Le 30/01/2014 à 13h 35

Quitte à vouloir réduire les turbulences et le frottement, pourquoi ne pas mettre les disques sous vide <img data-src=" />



Concernant le prix je ne m’en fais pas, ils ont annoncé ces disques durs pour les serveurs. Si des versions grand public arrivent un jour, le prix sera plus bas.

Le 28/01/2014 à 16h 22







127.0.0.1 a écrit :



Je ne suis pas très fan de ce genre de fonction dédiée à un service privé/proprio. Un peu comme l’appareil photo avec le bouton “send to Facebook”.



L’ajout de protocoles standardisés (DLNA, Miracast , …) me parait plus pérenne pour ce genre d’appareil. Sans compter que, pour moi, ils devraient être agnostique au niveau de la source audio/video.





L’un n’empêche pas l’autre.

Tu peux avoir une bonne implémentation de DLNA, Miracast &co ET gérer les formats proprio pour les utilisateurs qui le souhaitent.

Le premier t’assure l’interopérabilité, le second t’assure (souvent) une bien meilleure intégration à tel ou tel service.



Typiquement j’utilise Spotify et j’en ai rien à carrer de comment ça marche, tant que ça marche. Sur le papier une solution plus ouverte (voire libre) serait mieux mais je suis pas prêt à abandonner un service pour si peu.

Les standards actuels ne sont pas parfaits et ne répondent pas nécessairement aux besoins spécifiques de telle ou telle application.


Le 21/01/2014 à 08h 23







Soltek a écrit :



Hm vu la “puissance” des CPU dans ces NAS il faudrait en infecter des millions pour gagner quelques Bitcoins <img data-src=" />



(J’aime bien la pub pour les NAS Thecus à droite de la news <img data-src=" />)





L’article parle de bitcoin mais ça pourrait aussi bien miner pour d’autres monnaies dont la difficulté est plus basse, ce qui pourrait rapporter plus d’argent.


Le 20/01/2014 à 15h 31

Ca ne me choque pas que l’Hadopi n’ait pas le droit de répondre à cette question. Ils ont beau avoir des informations, informations qui sont peut être publiques, ils n’ont pas pour autant forcément le droit de les divulguer.



En revanche ce qui m’étonne c’est la réponse du ministère de la Justice, j’aurais supposé qu’ils étaient dans l’obligatoire de publier les décisions de justice, au moins sur demande. Mais peut-être ne le sont-ils pas non plus et dans ce cas je ne vois pas où est le soucis, ils ne font qu’appliquer la loi.

Le 16/01/2014 à 08h 37







phileg a écrit :



Enfin, Joe Mobile n’est vraiment pas le plus fiable des opérateurs “seconde main”… même si l’offre est intéressante, quid de la fiabilité ?





Qu’appelles-tu fiabilité ?

Le site est très fonctionnel (et simple), le forfait se connecte à un réseau connu qui marche bien, où est le problème ?

Ta phrase est ambiguë, tu dis qu’il n’est pas fiable et tu demandes ensuite s’il l’est.


Le 16/01/2014 à 08h 35







Tornado_OLO a écrit :



Ce type d’abonnement illustre parfaitement que les forfaits “illimités” à 20€/mois sont inutiles.

Il suffit de correctement dimensionner son forfait pour au final payer 2 fois moins cher.

La majorité des utilisateurs de smartphone n’utilisent pas plus de 500mo / mois mais on leur refourgue des forfaits “illimité” sous caution de notre sacro-saint national “principe de précaution”.





Les forfaits illimités ne sont pas inutiles, ils sont juste parfois surdimensionnés comme tu le soulignes.

Les gens ont surtout mal au cul en se disant que pour à peine 5 euros de plus ils ont un forfait tout illimité alors qu’en étant raisonnable en effet tu peux t’en sortir pour moins cher que ça.

La grande force de Joe mobile est avant tout que tu peux adapter ton forfait à ton usage à chaque fois en quelques clics. Ca permet de commencer petit (ou grand), d’évaluer son usage et d’ajuster plus précisément par la suite.


Le 10/01/2014 à 14h 12

Je trouve que c’est encore bien trop cher, avec des routeurs qui ont 10000 fonctions souvent inutiles.

Ceci dit le point d’accès avec une entrée gigabit me fait de l’oeil, branché ça sur une box SFR en Gbps et pouf du wifi ultra rapide pour tout le monde dans la maison.

Reste qu’à 60 dollars (et donc 60 euros … ?), ça fait cher.

Le 09/01/2014 à 10h 48







_Makaveli_ a écrit :



Le fair use est appliqué et testé lors de l’arrivée sur le coeur de réseau, puisque c’est là qu’on a les infos techniques et commerciales.



Je prend personne de haut, mais quand je sais pas j’évite de sortir des énormités ; surtout que ces questions ont déjà été posées lors de l’arrivée de FM et de la fameuse “priorisation sur les antennes” alors que le bridage avait lieu sur les passerelles et sur le coeur de réseau de Free.





Si on peut diminuer le débit d’un abonné en fonction de ses infos commerciales pour le fair use, pourquoi ne pourrait-on pas le faire en fonction de l’abonnement qu’il a ? <img data-src=" />


Le 09/01/2014 à 10h 40







_Makaveli_ a écrit :



Explique moi techniquement comment tu priorises un certain type de forfait sur une antenne, alors que tu connais uniquement le forfait quand tu atteins le coeur de réseau.



Grandiose les fanboys ce matin !





Je t’ai dit que ça me paraîtrait logique mais que je n’en sais rien. Pas la peine de me traiter de fanboy (d’autant que je suis chez Sosh depuis quelques mois maintenant…).

Si tu as des infos techniques comme ça a l’air d’être le cas, dis le, mais ne prends pas tout le monde de haut comme si c’était évident que c’était impossible.



Maintenant que c’est dit j’aimerais bien que tu m’expliques comment fonctionne le fair use, qui est basé sur le principe de te donner une priorité plus faible si tu as déjà bien consommé ? J’y connais rien hein, mais ce que tu me dis n’a pas l’air de bien tenir la route.


Le 09/01/2014 à 10h 29







_Makaveli_ a écrit :



killer63 tu sais comment que le 4G est bridée chez Sosh ?



T’en as aucune idée, beau troll de fanboy.





On n’en sais rien et c’est bien là le problème. C’est complètement opaque, on te vend une techno sans savoir ce que tu auras vraiment derrière, qui est plus prioritaire que qui, etc.

A mon avis le débit chez Sosh n’est pas bridé mais les abonnés Soshs sont moins prioritaires que les abonnés Orange. Si une antenne commence à être saturée (ce qui ne manquera pas d’arriver en région parisienne) les abonnés Sosh se feront douiller.

Mais c’est hyper difficile à prouver et c’est peut être totalement faux.


Le 09/01/2014 à 10h 26







wrongillusion a écrit :



Je suis chez Sosh sur le forfait à 19,99euros/mois et mon mobile m’as toujours indiqué H+ en zone couverte par la H+ mais cela ne signifie pas y’avoir accès! <img data-src=" />

tu as eu combien en Mbs concrètement?







La H+ (ou HSPA+) c’est 21Mbps en maximum théorique.

Ce que les opérateurs vendent comme du “Dual Carrier” ou “H+”, c’est en fait du DC-H+, qui atteint les 42Mbps en maximum théorique (le double de la H+).

Ton mobile se connecte bien en H+ mais n’a pas accès au DCH+ et ses débits.



EDIT: pour mieux comprendrehttp://www.tomsguide.fr/actualite/Dual-Carrier-H-42-Mbit-s,18626.html


Le 09/01/2014 à 10h 05







maverick78 a écrit :



Ben pour le coup, je comprends leur stratégie : le réseau couvre quand même pas grand monde et la part de téléphone 4G reste quand même pas bien élevée. Du coup, ca reviendrait à passer tout le monde au H+, trop peu de gens pouvant bénéficier de la 4G.

Il m’est avis qu’ils passeront en H+ quand la 4G sera vraiment démocratisée (en antennes et en flotte mobile).





Oui mais la concurrence le fait, elle.


Le 09/01/2014 à 10h 02







Alain EtCo a écrit :



9 centimes * 12 = 1 €uros et 8 centimes….



Si certains parlent “d’escroquerie” d’appliquer une hausse de TVA de 1 €uros par ans….



Qu’est ce que ca doit être pour ce qui est vraiment une escroquerie….



Faut vous faire soigner les gars… Arrêtez de regarder la téloche (ça vous fera économiser le 1 €uros sur l’électricité) et commencez à réfléchir. Vous verrez, ça fait du bien des fois….





Ce n’est pas de l’escroquerie, c’est de la mesquinerie. Voilà, t’es content ?

Tu parles d’utiliser les grands mots et juste après tu conseilles de “se faire soigner” et de “commencer à réfléchir”. Pas la peine de prendre les gens de haut non plus, un peu d’humilité, ça fait du bien des fois…

Moi ça me fait chier de payer plus cher pour une augmentation minime de la TVA alors que je ne paye pas moins cher même quand il y a une baisse minime.