votre avatar Abonné

Wosgien

est avec nous depuis le 18 mars 2003 ❤️

3758 commentaires

Le 29/05/2014 à 19h 47







misterB a écrit :



il y a du lossless en AAC aussi <img data-src=" />





Pour l’iPod Touch 4, ça n’aide en rien, c’est la sortie casque qui est bizarre (du moins sur le mien). Lossless ou non, ça manque de punch, de présence et même certains instruments disparaissent, sauf à pousser le saigues dans l’égaliseur.

J’ai une meilleure écoute, en tout cas plus équilibrée et plus détaillée, sur mon téléphone Nokia (Asha 302).


Le 28/05/2014 à 16h 19







Nnexxus a écrit :



En fait c’est surtout le CPL qui pose problème, le 50Hz de base vu que tous nos grands-parents y sont exposés depuis qu’ils sont gosses je pense qu’on peut raisonnablement affirmer que c’est inoffensif.





Nos grands-parents n’ont pas été exposés au 50Hz au point où nos parents et nous-mêmes l’avons été, ni à la même période de la vie.



sante.gouv.fr République Française



Le plus grand danger presque reconnu réellement, c’est le radio réveil avec alim intégrée (proche de la tête).

Le 50Hz a lui aussi potentiellement des impacts.


Le 28/05/2014 à 16h 19

C’est un émetteur ou un récepteur miracast?

Le 27/05/2014 à 20h 14

La centrale d’alarme, c’est pour les gens qui sortent de chez eux à la base, pas pour les geeks qui hantent ce site, non?

Le 27/05/2014 à 20h 09







Malesendou a écrit :



Zotac fait du bon matos, a de bonnes idées mais c’est peu trop cher hélas.





500€ pour un Core i5 + carte dédiée dans un petit boitier…

Moi je trouve pas ça cher (mais je suis un vieux de la vieille maintenant, j’ai connu l’époque où j’ai vu les portables descendre sous les 1000€ et trouver qu’à ce prix là, c’était clairement un cran en-dessous des autres….)


Le 27/05/2014 à 11h 46

Bonne idée!



Comme cela, on pourra se faire pirater sa maison et même se la faire rançonner.

Le 24/05/2014 à 06h 14







Miles Prower a écrit :



les GPU mobiles sont largement capables de faire le rendu d’un bureau pour une fraction de cette consommation, il devrait quand même bien être possible de faire une sorte de mode “ultra low power” sur les cartes…





Mon Core i5 3470K + HD7750 + SSD et disque dur, c’est moins de 40W en idle (varie entre 25 et 35 environ) pour 110 en plein jeu et 130 en jeu + calcul.



Je trouve que c’est plutôt bien pour une config qui a toujours l’air d’en avoir sous le pied!



De plus, je peux activer un mode comme les portables où c’est le HD4000 qui prend le pas sur la radeon si je ne joue pas. Mais je n’arrive même pas à voir le gain à la prise.(c’est brouillé par les 10W d’écart lié aux activités disque)


Le 23/05/2014 à 11h 57

Moi je ne connais que VideoFutur, que j’apprécie car la box peut télécharger un film si le débit est trop mauvais.



Mes essais de VOD sur ordi ont vite tourné à l’échec, entre les films à la qualité vidéo catastrophique, ceux sans image et ceux qui n’ont jamais démarré (Video Futur, Canal play et filmotv).



Sans compter que je n’aime pas:





  • Squatter tout le débit ADSL pour un film: j’aime bien regarder un film pendant que l’ordi se met à jour par exemple, ou que je télécharge quelque chose.

  • Allumer l’ordi (30W) pour regarder un film via un cable qu’il faudrait payer 25€ car il devrait faire 10m, là où un appareil dédié consomme moins, est plus facile d’utilisation, ne monopolise pas un appareil qui est partagé…







    Je pense que Netflix a un réel avantage, c’est celui de passer par exemple par les consoles de jeux.



Le 22/05/2014 à 11h 49







jpaul a écrit :



Hors je ne vois absolument pas d’appareil qui consomme autant et que l’on pourrait vouloir piloter à distance.





Ben si, pour éteindre ton chargeur de téléphone portable qui est resté branché dans la cuisine alors que tu n’y es pas!



Ou le réfrigérateur, pour être sûr que la lampe est éteinte dedans quand tu n’es pas là.



Plus sérieusement, c’est pas mal pour un chauffage quand on n’a pas d’horaire.



Dans tous les cas, j’espère que cette prise est bien conçue: si elle consomme autant que l’appareil qu’elle doit éteindre, c’est un peu dommage.


Le 22/05/2014 à 10h 03







Groumfy a écrit :



C’est juste la mentalité du “on ne paye pas”…





Mentalité globalement universelle finalement.


Le 21/05/2014 à 16h 27

A l’époque du HTML5 avec stockage local, on devrait avoir le choix de pouvoir stocker ses infos personnelles uniquement dans le navigateur.

Bien sûr, les données ne navigueraient pas d’un poste à l’autre (ou alors on a activé la synchro,et je fais plus confiance à ebay pour la sécurité qu’à Mozilla en fait), mais pour un site comme ebay, même si on enchérit sur plusieur sposte,s on peut toujours finaliser un achat/vente sur un seul et même poste.

Le 21/05/2014 à 16h 25







atomusk a écrit :



Mais encore une fois ce n’est pas suffisant … rien de mieux que le hashé + salé …





Avec une bonne sauce et un peu de poivre, cuit saignant…


Le 19/05/2014 à 17h 03







FREDOM1989 a écrit :



Plus le temps passe moins les APU sont intéressant





Le concept est bon, puisqu’il permet de se mettre face à face avec Intel: tout le mond epeut se monter un PC Intel en utiliser le GPU intégré “pour commencer”, cela manquait côté AMD, surtout depuis qu’on peut jouer sur un GPU intel.







FREDOM1989 a écrit :



malheureusement la faiblesse des consoles actuel ne va pas aider à vendre de nouveaux GPU.





C’est une bonne remarque. Je pense que nous allons dans les cartes graphiques vers la même stagnation que dans les CPU: si vous avez une très bonne carte graphique d’il y a 4-5 ans, à part la conso (et le support des pilotes), rien ne pousse à la changer.


Le 17/05/2014 à 08h 00







tanguy_k a écrit :



Désolé mais voici une belle liste d’amalgames, de trucs incompris, de confusions et en plus mal rédigé.





Ouah, comme tu m’a mouché!



Ceci dit, amalgame est un bon mot pour décrire toutes les techno balbutiantes en cours d’étude autour du web, pour trouver le successeur ou le futur des applis web (et surtout: comment amener des jeux performants)



Quand tu écris: l’un n’empêche pas l’autre, soyons clair: si l’un commence à être nettement plus populaire, ou à afficher de meilleures performances ou avoir une super bibliothèque de développement, il marquera des points en notoriété.



Chaque organisme/marque, en poussant sa techno auprès des dev, espère capter une killer app. Ensuite, cela attirera peut-être les utilisateurs, et améliorera les parts de marché du navigateur, tout en forçant les autres à suivre et à se rendre compatible ou comparable.

Plus d’utilisateur du navigateur/OS peut mener à plus d’utilisateurs des services.



Sans compter que ce genre de techno pourrait être un cheval de troie pour contourner les app store (notamment ASM.js d’ailleurs, je ne suis pas sûr que PNacl soit accepté par Apple dans une version de Chrome).



En résumé: chacun prépare sa segmentation du web à sa sauce, pour essayer de le contrôler plus tard.


Le 16/05/2014 à 16h 23







illidanPowa a écrit :



<img data-src=" /> Bruce Willis est mort dans Armageddon<img data-src=" />





Ce film, c’est 4 enterrements et un mariage.


Le 16/05/2014 à 16h 22







tanguy_k a écrit :



asm.js (Mozilla) ne rend pas le code JavaScript existant plus rapide (ce que veut obtenir Apple avec LLVM).

asm.js est un sous-ensemble de JavaScript qui permet d’exécuter du code C/C++ plus rapidement dans le navigateur que si celui-ci avait été transpilé vers du code JavaScript classique. On écrit pas du code asm.js à la main (en tout cas c’est pas fait pour).

=&gt; donc rien à voir





Pas tout à fait vrai.



Le code ASM.JS est généré (ou alors on aime se faire mal), et Firefox l’identifie et l’optimise autrement. C’est pour cela que les codes asm.js sont si performant sous Firefox.



Mais ça reste du javascript pour que tous les navigateurs puissent l’exécuter.



Dans tous les cas, quelque soit le navigateur, il y a du JIT pour le javascript. Mais la guerre ne se passe plus trop sur le JIT, mais sur Javascript en lui-même:





  • Firefox pousse à compléter Javascript pour en faire des “sur-versions” qui sont moins souples (obligation de déclarer les variables par exemple en Ecmascript 1.5), ou qui ajoutent des fonctionnalités qui sont émulées en Javascript pur et optimisées sur leur moteur (exemple: instructions parallélisées sous Firefox nightly avec SIMD.js).

    Le code Javascript produit en ASM.js est quasi illisible, ce qui permet de mettre en avant leur solution pour distribuer des produits commerciaux sans distribuer le code source.

  • Google pousse PNacl, qui est le retour du bytecode: on compile pour une machine qui n’existe pas, le navigateur compile pour la machine sur laquelle il faut exécuter le code. Là aussi il y a de la LLVM. L’avantage est de ne pas distribuer le code source des programmes, ça plaît aux éditeurs. Ca revient aussi à pouvoir utiliser d’autres langages facilement, tout en bénéficiant du meilleur de la techno disponibles: vrai multithreading (pas top en Javascript), type de données plus “machine” (pas d’entier en Javascript, tout est en virgule flottante 64bits bien fatiguante pour les petites config), SIMD, …

  • Microsoft la joue plus soft, en créant un langage qui compile en Javascript mais est plus maintenable







    Apple sur ce sujet me semble arriver après la guerre, et n’a rien entamé pour la prochaine bataille…


Le 16/05/2014 à 07h 26







digital-jedi a écrit :



On peut très bien sauvegarder sur une clé USB en étant sous DOS… Faut juste avoir un PC avec un port USB. Moi, j’utilise DOS 6.22.





Il faut que ta CM émule un disque dur standard pour une clé USB. C’est normalement le cas, quoique ce soit parfois désactivé et même buggué (qui utilise des systèmes non PNP ou ne gérant pas l’USB aujourd’hui dans le grand public?)



Il ne faut pas que ta clé USB soit trop grande (pas plus de 2Go), ou qu’elle soit partitionnée. Et pas sûr que DOS soit capable d’utiliser une clé de plus de 4Go de toutes façons.



Tu ne peux pas la plugger à chaud. Tu peux la déplugger, mais tu ne peux pas en plugger une autre à la place! Sinon tu vas perdre la totalité des fichiers car DOS va bêtement recopier la FAT de l’ancienne clé sur la nouvelle -&gt; le contenu est là, mais tu ne sais pas où… (bug connu déjà à l’époque des disques extractibles)



Je donne 5 minutes à une personne habituée aux ordis récents pour flinguer ses données sous DOS ou mourrir de désespoir de devoir redémarrer l’ordi pour brancher une clé USB.



Remarque: j’imagine qu’il est possible en se débattant avec des pilotes SCSI sous DOS de se dépatouiller pour gérer le plug manuellement avec des commande de montage/démontage liées au pilote.

Ca paraît très compliqué maintenant, et nécessite de trouver une CM qui déclare à DOS les disques USB comme des disques SCSI et par comme des disques IDE + le bazar de config.sys pour les pilotes SCSI.


Le 12/05/2014 à 09h 09







DayWalker a écrit :



Ah oui, en effet, rien de très trippant…

A quand un réel saut technologique ? Des perfs qui font un réel bond ? Des cartes mères apportant quelque chose de vraiment nouveau ?





Tu dis toi-même que ton i7 n’est pas à la traîne. Pourquoi changer???







psychotik2k3 a écrit :



surtotu que leur exemple quand tu mets le rapid start ben ton cache va devoir gicler une bonne partie de ce qu’il contenait

et donc au redemarrage de ces application qui etaient en cache tu perds le benefice vu qu’il faut les recacher.sauf si tu prend un ssd plus gros (et dans ce cas ben tu mets ton OS dessus directement).





Pour avoir un cache SSD (64go) depuis 1 an 12, je préfère cette solution au disque SSD.



Car sauf à avoir un SSD très gros, tu ne peux pas tout mettre dessus. Le cache SSD ne met pas longtemps à apprendre.

En gros: le démarrage est toujours rapide (15s depuis un power on réel). Si je trie les photos de famille, les dernières chargées sont souvent en cache (ça se voit très bien au temps d’accès). Si je fais une compilation sous Visual Studio, les 2 premières sont lentes (sauf si je fais du dev tous les soirs), les suivantes sont très rapides.Si je joue régulièrement à un jeu, le chargement est accéléré. Si je lance un linux en VM, le 1er chargement est lent, les suivants très rapides.



Je trouve cette solution plus souple qu’un SSD dédié pour lequel il faut toujours réfléchir à la destination de tel logiciel et telle donnée. Je n’ai pas toujours les perfs d’un SSD, mais j’en suis proche le plus souvent.



Par contre, lors des mises à jour du BIOS, tu peux le perdre momentanément, et là tu vois comme ce cache est efficace.


Le 08/05/2014 à 08h 55







LE_MESS a écrit :



J’ai besoin de changer de CM (15 ans d’AMD Bordel !!! <img data-src=" />) par une intel … je fais quoi , j’attends la nouvel gamme ? ou je me rabat sur l’actuel…. Et niveau Proc, vaux mieux attendre les nouveau (Désolé j’ai jamais vraiment suivi l’actualité Intel, je suis plutôt Fanboy AMD ^^)





Même constat que la news: depuis 2 ans, si tu tapes dans le Core i5 correct ou Core i7, tu ne vois pas de grand changement de perf avec les gammes suivantes.



Pour la CM, il faut qu’elle supporte ton proc, après il n’y aura pas de nouveauté flagrante.



Je déconseille les chipset “H”, ils n’ont pas beaucoup de fonctionnalités. Moi j’adore avec un SSD en cache par exemple. Mon ordi de bureau démarre 4 fois plus vite que mon iPod.







Jaskier a écrit :



Mais oui, si tu avais les moyens, tu pouvais changer tous les 6 mois, tellement la différence de performances était importante. D’ailleurs, Microsoft n’y était pas pour rien, avec ses Windows absolument pas optimisés, et avec une architecture bancale car basée sur un noyau DOS en… 16 bits!





Non, le système marchait bien en 32bits (d’ailleurs on avait parfois 8Mo de RAM!), mais certains appels systèmes restaient en 16bits.



Et le problème majeur n’était pas 16 ou 32 bits, mais que tout fonctionnait au même niveau sans protection de mémoire: une appli pouvait écrire dans la mémoire de l’autre (par erreur ou intentionnellement). Cela permettait de continuer à utiliser les applis bugguées, parfois par le compilateur lui-même, mais a permis aussi de continuer à produire des applis bugguées un moment.


Le 07/05/2014 à 15h 36







kwak-kwak a écrit :



En bref, ceux qui ont acheté l’année dernière une plateforme 87/ 85 ont fait une excellente affaire, à 100MHz près il y a 0 obsolescence sur 1 an !





Même pour du H77: ma CM + CPU ont baissé de 10€ en tout (Core i5 3570k), le SSD et le disque ont fortement baissé, la mémoire fortement augmenté, résultat je paierais actuellement les mêmes pièces 20€ de moins (460 au lieu de 480).

Bien sûr, je pourrais avoir de nouvelles pièces un peu plus performantes pour le même prix, mais pas beaucoup.



Donc obsolescence proche de zéro. Ca stagne depuis un moment, c’est d’ailleurs ce qui m’a poussé à acheter.


Le 07/05/2014 à 12h 00







jeje07 a écrit :



et faut pas rêver, l’upscaling à ses limites.





Certes, mais déjà sur ma 32 pouces, le upscaling DVD fait que le bluray n’apporte pas grand chose.

Si je désactive le upscaling, c’est moche. Si je l’active, c’est classe. En bluray c’est plus classe, mais pas de beaucoup finalement, sauf sur des scènes fixes ou lentes. Du coup je n’ai acheté aucun bluray, le lecteur c’est juste parce que chez Videofutur certains films ne sont pas en DVD.



Alors le 4k… J’ai de la place pour un VP ou une plus grosse TV, mais c’est pas trop mon trip. Je préfère me payer une TV plus chère et plus petite, mais avec une image sans défaut, qui tient des années et consomme peu.



La TNT, je l’apprécie pour son mode de diffusion (j’ai une réception impécable), mais la roue de la fortune en 4K, je vois pas l’intérêt.

Mieux vaudrait avancer sur le radio numérique pour les consommateurs.Le support HEVC, c’est plus pour que des industriels Français aient du savoir faire à monnayer à l’étranger.


Le 06/05/2014 à 21h 36







2show7 a écrit :



La saturation est pareille pour les CD.





Je viens de m’acheter get a grip d’Aerosmith, après avoir revu Wayne’s world 2 en VOD illimité.



Quand aux DVD, avant j’en achetait à la pelle, maintenant je préfère les louer, ça fait plus de place pour autre chose sur les étagères.



Je crois que les gens en ont marre de posséder tant de choses. Avant quand on avait 10VHS on était content, maintenant on a 100DVD et on sature.



La musique, c’est pas pareil, mais j’ai 200CD dans le jukebox, et pas un que je n’écoute de temps à autre…


Le 02/05/2014 à 18h 34







js2082 a écrit :



Avoir un cerveau et du matos de base est largement suffisant.





Ce que tu es sérieux un Vendredi de pont…



J’ajouterais que finalement, les inventions les plus cruciales, celles à la base de tout, se sont faites dehors ou dans une caverne.


Le 02/05/2014 à 14h 37

Encore un mec qui réussi en faisant sont projet dans son garage. De deux choses l’une: soit les garages des américains sont très bien équipés, soit nous ratons tous totalement le potentiel créatif qu’il y a à réaliser un projet de nouvelle techno assis sur sa remorque, entre un pneu de vélo et les bidons d’huile de la voiture.

Le 02/05/2014 à 14h 44







WereWindle a écrit :



c’est possible sans les sources, ça ? (vraie question. ça me paraît surprenant)





Oui, en continantn à maintenir un firewall/antivirus maison. Ou, avec un rootkit. Ou en faisant des wrappers autour des DLL qu’on patche. Ou en éditant le code binaire. Ou en remplaçant des morceaux de Windows par de smorceaux de Wine. Ou en faisant un immense firewall national qui empêche les pirates extérieurs de se connecter aux poste des citoyens, tout en faisant en sorte que les citoyens se sentent en confiance sur Windows XP et le conserve, ce qui permet à l’état d’utiliser les failles en interne à la place des pirates…


Le 30/04/2014 à 10h 18







Sqlutsqvq a écrit :



“comble ses lacunes”.

S’améliore? imprimer sur le cloud est loin d’être une fonction vitale pour un tel logiciel … on produit rarement des documents via un ipad, c’est inconfortable on utilise plus l’ipad comme un support ou un outil pour une présentation.





Je ne suis pas d’accord. Avec l’arrivée d’Office sur iPad, cela devient possible de modifier des documents importants sur tablette. Cela pourrait être le tournant qui va enterrer les portables.



Rien n’empêche d’avoir un clavier sur iPad! Cela rend l’utilisation moins laborieuse pour de l’Office.



Et l’impression locale en Wifi est une fonctionnalité de base pour moi. L’impression cloud est trop aléatoire et trop lourde (envoi via l’ADSL ou la 3G, interprétation à distance du fichier par un autre logiciel, renvoi vers l’imprimante via l’ADSL/3G du document au format imprimable)


Le 29/04/2014 à 07h 45







Fart`InDa’Fridge a écrit :



Ah le jeu est aussi dispo sur droid ? Pas seulement iOS ?





Non, c’est seulement iOS pour le moment, et iPad only visiblement.


Le 28/04/2014 à 12h 10







jmanici a écrit :



le Windows “de base” (Home?) serait gratuit. Et probablement, il sera capable d’exécuter uniquement des applications WinRT.



et pour ceux qui veulent la compatibilité avec les applis Win32, soit payer une fois (comme Windows Anytime Upgrade) pour upgrader Windows vers l’édition Pro, soit payer un abonnement.





Assez d’accord sur l’objectif final.



Séparer WinRT/Win32 afin de favoriser le store.



Laisser les clients disposer d’un Win32 virtuel pour lancer les “anciennes” applis.

Donner accès à ce Windows virtuel depuis Android afin que les gens oublient Android pour leur bureau Windows et préparer la récupération des clients.



En fait, je pensait que Microsoft aurait proposé cela dès Windows 8 ou même WinRT (abonnement Azure pour les particuliers pour lancer les applis Win32 à distance)



Le 28/04/2014 à 07h 08

Le 1er smartphone basé sur RiscOS?

Le 24/04/2014 à 19h 54

J’ai craqué, promo carrefour toussa: le starter pack pour l’équivalent de 15€ (après remise immédiate et différée).



Et j’ai mon adresse pour les figurines un peu moins chères (pack de 3 à 12€)…



Quelqu’un a déjà jouée? La figurine est personnelle ou on peut la partager en famille?

Le 24/04/2014 à 11h 50







misterB a écrit :



Après pour 6£ (moitié moins cher qu’un BD) tu as accès a bcp de choses





C’est le choix versus la qualité.



C’est une question de préférence personnelle. Je continue à louer DVD et BluRay car la VOD a une qualité (chez moi - videofutur) sous le DVD. Notamment sur le son d’ailleurs. Et si la box est sympa, les lecteurs DVD sont toujours mieux ergonomiquement fait et plus rapides.

Et c’est plus fiable que le débit ADSL ici. Les jours d’orage j’ai des lags dans les films VOD.



Ceci dit, je loue peu de bluray car la qualité apportée n’est pas très perceptible chez moi (TV 32”), le son étant peu près pareil que les DVD. De plus, les bluray me posent parfois problème car j’ai une installation stéréo et parfois au démarrage seul les voies arrières sont restituées.


Le 22/04/2014 à 19h 35







Umbrella a écrit :



Perso, je suis prêt à mettre jusqu’à 15 € par mois sur un service comme celui-ci. À condition d’avoir une qualité vidéo HD ou Ultra-HD irréprochable digne d’un Blu-Ray, ainsi qu’un catalogue aussi complet que ce que l’on peut trouver sur Deezer pour la musique.





Bref, tu n’est pas prêt de l’avoir ton service!

La qualité Bluray, même le débit du Wifi G ne le tiend pas. Alors une connexion internet… Ca concernera 10000 personnes en France.



Ou alors tu t’abonnes à Video futur et tu loues des blu ray par la poste (en plus d’avoir une box à films vieillots ou ratés mais illimités).


Le 22/04/2014 à 11h 53







tazvld a écrit :



Je ne crois pas que ces consoles était doté d’un tampon d’entrée, la manette devait être directement “branché” aux unité de calcule, a chaque frame, les entrées était testé.





C’est plus ou moins le cas, ça fait un temps de réponse de l’ordre de 16ms.

Toutefois, dans ces vieilles consoles, le processeur chargé de l’affichage des sprites pouvait avoir sa propre latence et là je n’ai aucune estimation.



Il y a quelques années, un site français (hardware.fr je crois) avait montré que selon la chaîne souris/ordi/écran, le temps de latence pouvait monter à 160ms dans un FPS.



Par ailleurs, en analogique, tu étais sûr qu’un “pixel” sorti de la console était affiché immédiatement: à part quelques TV 100Hz (qui grâce à des mémoires spéciales préservait toutefois cette synchro), aucune TV ne mémorisait l’affichage.

De nos jours si tu ne désactives pas tous les effets de upscaling, flou ciné, contraste dynamique (basé sur la totalité de l’image en général, donc attendant la fin de l’image pour changer le contraste affiché), … de ta TV, tu ajoutes un décalage dans l’affichage (parfois de l’ordre de 1 ou 2 images soit 16 ou 32ms).



Sur un ordi, certains pilotes de joystick “adoucissent les mouvements”, souvent avec une moyenne de la valeur précédente -&gt; latence.



Actuellement, la vitesse des bus et du traitement des entrées, ne doit pas poser problème. peut-être les manettes en bluetooth posent problèmes, car il ne me semble pas que les périphériques d’entrée bluetooth soient très réactifs (exemples: certains clavier bluetooth “ratent” des touches).


Le 16/04/2014 à 17h 14







bobo38 a écrit :



La vache Intel Mobile Communications…<img data-src=" />





Un IMC de 156, c’est quand même dans l’obésité morbide.


Le 16/04/2014 à 17h 13











0rsa a écrit :



Et si j’ai cliqué, c’est qu’on parlait de BT mais forcément on retrouve un pub pour Free (qui est ici comparé à un forfait BT puisqu’il est dit qu’ils proposent 20Go de Fu - genre c’est du lourd - en faisant l’impasse sur les nombreux problèmes que connait ce FAI,





Je crois que sur ce site, on peut considérer que les lecteurs ont parfois pu lire à l’occasion que free avait des problèmes sur son réseau.



Et là, l’article indique bien que Free a 20Go de FU et Bouygues 16, voire 21 soit plus que free.



Je n’ai vraiment rien vu de choquant.



D’un autre côté, Free ou Bouygues, pour moi c’est pareil, vers chez moi on ne capte correctement que SFR. Et la 4G, c’est même pas en rêve: avec bouygues ou orange, il y a toujours un des interlocuteurs qui entend et l’autre non. Donc pour la data…







0rsa a écrit :



J’ai juste envie un peu de rager ce soir sur la politique de PCI à réclamer des sous à leurs abonnés





Oui, mais en payant ex-pci, tu as accès au mode incognito qui te permet d’économiser sur ton forfait data! Ah ah!


Le 16/04/2014 à 12h 52

Je plaide coupable!



Et ce sous-titre, il tape juste.

Le 14/04/2014 à 12h 44







neuronix a écrit :



La blague ! Donc en fait, les applications Android ne tournaient pas dans un sandbox pour garantir la sécurité, on vérifiait juste ce qu’ils déclaraient utiliser à l’installation.. et on s’étonne d’avoir des soucis <img data-src=" />





D’où tu déduis cela?


Le 11/04/2014 à 18h 54







nigol a écrit :



Sans vouloir faire du politiquement correct, je crois que c’est plutôt désobligeant pour les pays … “Non-développés”, “en voie de développement” ?

Avec des économies qui n’ont pas retrouvé le niveau de PIB d’avant 2008, et des inégalités croissantes, et une espérance de vie en baisse depuis 25 ans…

.





C’est de développer une économie sous anabolisant


Le 10/04/2014 à 20h 22







ldesnogu a écrit :



Bien sûr que non, mais si tu es constamment en flux tendu dans un marché dans lequel tu tentes de t’imposer, il faut être idiot de ne pas tout faire pour trouver tous les moyens d’augmenter la cadence de production.





Microsoft peu avoir plusieurs raison pour ne pas chercher à inonder le marché:





  • Si tu brades ton produit, tu brades ton image de marque. En restant un cran plus cher que la concurrence, tu donnes à ton produit un certain prestige, une certaine inaccessibilité, et le public le vénère

  • Si ton produit n’est pas tout à fait mûr, laisse tes partenaires et néanmoins concurrents essuyer les plâtres. Toi, avec ton produit inaccessible, tu es au-dessus de tout cela, et les défauts de ton produit (que les autres ont certainement) son peu visibles car peu diffusés. Un fois essouflés, tu peux écraser tes partenaires

  • Une migration trop brutale vers le hard mobiliserait trop de moyens, microsoft doit diffuser Windows 8 pour basculer sur un modèle d’app store chez les particuliers. Quand les apps génèreront suffisamment de cash flow, on reparlera de baisser les prix. Et dans ce cas, Microsoft ne fera jamais vraiment de hard finalement. Juste pour vendre du soft

  • Quand tous les clients monde voudront changer la batterie de leur surface pro, et qu’ils hurleront sur le prix exhorbitant, ils seront peu. Donc l’image de marque ne sera pas entaché (de trop)






Le 10/04/2014 à 20h 13







Guyom_P a écrit :



Ha pourtant j’aurai trouvé que cette comparaison avait plutôt lieu fin 90/ début 2000 avec les premiers chanceux à avoir l’internet illimité chez papa/maman et qui revendait sous le manteau à la sortie du lycée des cd-rom de jeux piratés.





En fait, ça a commencé avant, quand on avait internet dans les universités pour télécharger.







Guyom_P a écrit :



Et j’ai pas croisé beaucoup de gens se balladant avec un DD externe dans le sac ou la poche. Mais ce n’est que mon point de vue surement pas une généralité.





En y réfléchissant, autour de moi je vois des gens passer un disque dur pour le faire remplir. Ceux qui ne savent pas où télécharger, ceux qui ont peur d’Hadopi, ceux qui n’ont pas envie de passer leur temps à chercher une série sur internet… Beaucoup de non informaticiens en somme.

Ceux qui remplissent mettent souvent un player en plus sans installation (idéal pour placer un ransomware, pendant que les gens regardent les films on kidnappe leur données pénar…), connaissent les habitudes et le matos des gens et les conseillent, …



Le parallèle ne me choque pas quand on regarde les rôles de chacun, après, c’est sûr que ce n’est pas la même chose.



Toutefois, je continue à penser que le piratage de masse sert parfois à financer les groupe terroristes et la drogue. Un mec qui sait craquer une protection sait assez d’assembleur pour cacher de quoi espionner. Un gras dans un garage qui sait faire croire à Windows XP que son installation est “genuine” alors qu’il manque carrément des fichiers sait certainement comment ajouter son propre pilote/rootkit dans le système. Donc zéro confiance dans les logiciels piratés ou de source obscure (d’où j’installe peu de choses)


Le 08/04/2014 à 12h 12







le duc rouge a écrit :



Je ne comprends pas de quelle manière la barrette seule peut fonctionner …

je suis un peu déçu que les performances n’aient pas été revues légèrement à la hausse. Ou est le port ethernet sur la mainboard ? Si il n’y est plus c’est une régression par rapport au model B … Aura-on enfin du gigabit ?





Des modules de ce type sont assez courant pour du prototypage ou des petites séries. L’intérêt de ce format est de donner accès à toutes les broches GPIO du Broadcom, là où la Pi n’en fournissait que très peu.

Ce n’est pas une régression, c’est une autre carte pour un autre public.



Si tu veux du gigabit, de la RAM et de la patate il faudra allonger le blé en Juin pour récolter la minnowboard (il existe très peu de boards ARM en gigabit, même les dual core sont en 100).

http://www.minnowboard.org/meet-minnowboard-max/



Avec ça tu peux faire ta tablette Linux (bien mieux qu’avec un N2820), mais Windows ne tournera pas dessus.


Le 08/04/2014 à 07h 40







knos a écrit :



Mais pourquoi faire changer l’emplacement d’un arrêt de bus?





Parce qu’il est mal placé?

Parce qu’il ne correspond plus à la population?



Pourquoi le déplacement de l’arrêt du bus a été accepté: soit elle a le bras long la petite dame, soit elle avait des arguments qui avaient du sens.


Le 07/04/2014 à 08h 08







Jiyuu_Hashi a écrit :



Je suis non violent, donc uniquement le “point final” ^^;

J’adore le français, ainsi que le japonais, on peut jouer avec les mots ^^;





Je pense que l’on peux jouer sur les mots avec toutes les langues.

Mais il est plus difficile de jouer sur les mots à l’écrit, car les gens s’arrêtent sur le sens premier du mot sans jamais aller chercher un quelconque effet phonétique (malgré la prolifération de SMS).



Un pseudo comme Joraitapo dans un FPS n’est pas compris par tout le monde, malgré le fait que je l’ai piqué aux inconnus.



Et à l’écrit, jouer avec les homonymes passe pour des fautes d’orthographe.



Mais sans jeu de mot, je m’ennuierai beaucoup.



“Il est tétard” dit la grenouille est mon expression favorite pour coucher mes enfants (avec “Cétacé” dit la baleine).


Le 06/04/2014 à 07h 25







Jiyuu_Hashi a écrit :



C’est comme pour fois, foie, foi etc., tu as cou, coût, coup ^^;

Et là, tu parles de la nuque, donc du cou, et non du prix, donc du coût, du coup ^^;





Je serais lui, je rendrais coup pour coup, coup sur cou. Et vite, car il faut battre l’enfer tant qu’il est encore chaud.<img data-src=" />

De toute façon, ce qui compte, c’est de mettre le poing final.


Le 06/04/2014 à 07h 28







methos1435 a écrit :



On en reparle d’ici quelques années lorsque le secteur sera au bord de l’auto-suicide. (et sans aller jusqu’à 70 euros par mois, d’ailleurs tu sais tout aussi bien que moi que ce tarif inclue une part non négligeable pour le remboursement du téléphone, quoi qu’en dise les opérateurs).





Justement, j’ai plutôt l’impression que la baisse date du début des offres “sans mobile”.



Perso, je n’ai que des offres sans mobile, et c’est vrai que ces trois dernières années je suis passé de 15€/mois de mobile pour un forfait à 15€/mois de mobile pour 2 forfaits (en fait, 3, mais il y en a un qui ne compte ps, c’est le 0 minutes gratuites de neuf).



Soit un facture mensuelle sous les 50€/mois ADSL+téléphone, là où l’ADSL il y a 7 ans me coûtait 45€ par mois seul.


Le 04/04/2014 à 07h 20







Bylon a écrit :



Tant qu’ils continue à racketter sur le PC : çaylemal.





Je suis bien content de payer sur PC pour ne pas avoir de pub dans mes applis.







Bylon a écrit :



Et la deuxième observation est que cela est encore un mouvement (un de plus) incontrôlé. En effet, c’est bien gentil de faire l’O.S. gratuit (même à ce prix j’en veux pas de toute façon), mais quel est le modèle économique remplaçant l’unique modèle actuel de M$ : vendre de la licence.





Ben c’est basé sur le fait que en diffusant des appareils bas de gamme et limités sous Windows, les gens les achètent et remplissent leur appareil d’applis inutiles, mal fichues et ultra limitée, mais payante une broutille ou rapportant par la pub.

–&gt; bref, un modèle basé sur un store.



J’imagine que les règles de rémunération vont évoluer et qu’ils vont casser le fait qu’à 20000 téléchargements ils ne gagnet plus rien sur l’appli.


Le 03/04/2014 à 16h 10







sniperdc a écrit :



La diffusion via la TNT ou le Satellite ne nécessite pas une grosse bande passante.

Là pour un viewer tu as une connexion donc une bande passante.

Rajoute à ça MyTF1 Tablette, Smartphone, SmartTV, Box et PC.





J’imagine qu’il y a bien des moyens techniques d’aggréger les flux via le multicast.



Par exemple, en faisant patienter les gens au moins x secondes pour une pub, on peut en profiter pour trouver des créneaux de synchronisation avec d’autres clients.



Dans tous les cas, j’étais déjà outré que TF1 et M6 ne soient pas affichables via l’HDMI par iPod. Remarque: je n’en n’ai finalement jamais eu le besoin.



Ensuite, la qualité de la TV et du replay en général sur TV est passable, sans plus. Rien à voir avec les émissions hertziennes, surtout que TF1 et M6 sont en HD! Alors que craignent-ils? De constater qu’une mesure de leur audimat internet n’est pas le reflet de l’audimat officiel???


Le 01/04/2014 à 12h 05







A-snowboard a écrit :



Sur le fond je suis tout à fait d’accord avec toi, mais :





  • Avoir une prise en veille pour en couper 5 ou 6, ça deviens un peut plus INtéressant. Et au final avoir deux prises pour couper une douzaine d’appareil, ça deviens pas si négligeable que ça.





    Tout dépend effectivement des appareils.

    Exemple: mise en veille TV et DVD sony: 0,17W chacun (non mesurable avec mon appareil, il marque 0)

    Ordi portable branché, mais éteint avec batterie pleine: 2W.



    Tu as aussi les prises multiples “master/slave”: un appareil master allumé active les autres prises, une fois éteint les autres prises se coupent.

    Surconsommation: 2W, mais permet de couper l’imprimante si l’ordi est éteint (10W soit-disant éteinte).

    Attention, beaucoup de prises de ce type fonctionnent mal avec des ordis actuels, considérant que 25W de conso ne signifie pas que l’ordi est allumé -&gt; il faut lancer un Prime95 pour allumer l’imprimante, pas cool.







    A-snowboard a écrit :



  • Pour les appareils qui n’ont pas de veille, je veux bien, mais difficile de savoir à l’avance, et je ne vais pas changer expressément mon matériel pour en prendre sans veille (manquerais plus que ça)





    Un de mes principaux critères de choix, c’est la consommation de l’appareil et si possible la présence d’un vrai marche/arrêt.







    A-snowboard a écrit :



  • Le disjoncteur, j’y ai accès, c’est pas con. Par contre je ne sais pas si c’est bon à la longue de brancher et débrancher un fusible tous les jours… Vraie question.





    Et ne te trompe pas, c’est vraiment mauvais pour la santé de déconnecter tous les jours le frigo pendant quelques heures…


Le 01/04/2014 à 07h 18







A-snowboard a écrit :



Une idée ?





Tu n’as pas accès au disjoncteur?



Parce que piloter toutes les prises de l’appart avec des prises connectées qui SONT des appareils en veille pour éviter d’avoir des appareils en veille, ça n’apporte pas beaucoup.

Mieux vaut acheter des appareils qui n’ont pas de veille, et mettre les chargeurs sur une prise programmable.

Mettre en marche le mode “éco” sur la box pour diviser sa conso par deux.



S’il fallait mettre une commande quelque part, ce serait au niveau du disjoncteur.


Le 31/03/2014 à 07h 30







knos a écrit :



Oui mais faut être motivé pour tester 100 jeux si les 910 sont vraiment mauvais ou sans plus. Après ça a le mérite d’exister.





Quoi, tu n’as pas de smartphone? De tablette?



Dans tous les cas, ne jamais installer de jeu venant d’un site nommé “the pirate bay”. Ca doit être plein de backdoors :) .