votre avatar

Skeeder

est avec nous depuis le 18 mai 2007 ❤️

1356 commentaires

Le 16/04/2013 à 09h 25



Signalons en outre qu’un problème persiste sur les 8X de HTC. En effet, si l’utilisateur n’a pas mis à jour son smartphone vers le dernier firmware, le micro ne fonctionnera pas durant les appels.



C’est le cas aussi sur 8S <img data-src=" />

Le 16/04/2013 à 09h 24







raoudoudou a écrit :



Ça donne quoi l’été si tu le fais tourner à fond H24? <img data-src=" />



Pourquoi vouloir comparer, ce ne sont pas les mêmes usages…





Pourquoi tu ferais tourner à fond h.24 une carte graphique <img data-src=" />

De plus l’été dernier j’ai effectué 120h de Diablo III, GPU overclocké.



Ce sont les mêmes usages, c’est bien pour cela que je compare. <img data-src=" />


Le 16/04/2013 à 08h 17







olivier4 a écrit :



la ventilation dans les ordinateurs portables c’ets de la grosse merde a éviter a tout prix. c’est plus bruyant qu’un dissipateur énergétique ou bien un ventilo de grand diametre. sans oublier que au final ca ne refroidit rien de toute facon. au mieux ca permet juste de stabilier la température et les tensions d’alimentation.

or qu’st ce qu i lse passe en réalité. le programme a besoin de puissance de calcul alors il demande a la carte graphique ou au processeur de faire son travail au bout pour ca faut du voltage mais au bout d’un certain temps ca chauffe

alors il faut diminuer la tension du processeur au dépend des performances ou alors un moment on arrive a saturation et il y a surtension. pourquoi surtension? et bien le programme a esoin de calcul or le processeur chauffe et n’est pas capable de poursuivre le traitement s’il commence a trop chaufer (car si la temperature ets trop haute les performances sont moindres)

comme la ventilation n’est pas capable de refroidir le processeur, et bien on diminue la puissance de calcul et on se retrouve avec un processeur bridé ave des pics de puissance une alimentation et un systeme instable





Un smiley : <img data-src=" />

Un exemple tout con, j’ai rarement eu un GPU qui pouvait s’overclocker autant que ma Quadro FX1800 mobile : +50% en GPU/VRAM et +70% en shader. Le refroidissement sur un portable est excellent, et les composants sont triés sur le volet. Bon pour le coup, quand j’overclock la carte graphique, ça fait du bruit.

Je suppose que tu compare une tour haut de gamme, bien ventilée avec des 120 et 140mm, des dissipateurs de 1kg, et des alimentation certifiées 80+ Platinum avec un portable Acer à 300€ pour dire des âneries pareilles.

Un ordinateur portable est plus chers à performance égale par rapport à une tour, et à partir d’un certain niveau de performance ça n’existe qu’en tour, mais ça apporte des tas d’avantages, comme le fait d’être portable. <img data-src=" />



Au passage, l’i7 920 étant sorti en Nov/Dec 2008, au mieux il a 4 ans et des brouettes ;)



EDIT: et par rapport à l’évolutivité, je peux changer sur mon ordinateur portable: CPU, GPU, disque dur, disque optique, RAM et j’ai deux emplacements mPCIE pour des cartes externes ou un autre disque dur. En gros il n’y a que l’alimentation qui n’est pas évolutive, mais je peux la remplacer facilement (comme la batterie).


Le 15/04/2013 à 21h 41







flodousse a écrit :



Alors ca je demande a voir, sur un portable des que je lance un jeu ou un truc qui demande de la puissance, ca devient un avion.

Attention decollage ! <img data-src=" />





C’est un Dell Precision, le chassis est bien conçu, il fait rarement du bruit lorsqu’il est sur-élevé (dans mon cas il est “docké” donc nickel). Il a deux ans et la batterie tiens encore 7h (merci W8) au lieu des 7h30 d’origine (jamais eu de surchauffe apparemment). L’avantage c’est qu’il est souvent en full passif lorsque je fais du surf Internet, ma tour, j’avais 6*120mm à 5V qui faisait un flux d’air continu, et surtout les disques mécaniques, mais pour ces derniers la comparaison s’arrête là car la capacité par rapport au SSD n’est pas la même.


Le 15/04/2013 à 16h 25







deepinpact a écrit :



Pourquoi faire ?

C’est lourd et encombrant.

Ça fait du bruit et ça chauffe !

Ça consomme de l’électricité !



Et tout ça juste pour de l’internet, de la bureautique, des jeux flash en ligne, visionner des vidéos et écouter de la musique…







A moins d’être un gamer ou un professionnel et d’avoir besoin de puissance, ça n’a pas beaucoup de sens d’avoir une tour !!!







Et même dans ce cas. J’ai dis bye bye à ma tour moi. Bien que (légèrement) plus puissante que mon portable, j’ai préféré docker ce dernier, pour ne pas avoir 2 ordinateurs qui font la même chose. La tour a été convertie en serveur, et maintenant je me rends compte que mon ordinateur portable fait tout aussi bien (Core i5 dual core, Quadro FX, 8GB de RAM et SSD), avec des nuisances sonores bien inférieures (alors que ma tour était presque passive), et une consommation ridicule (80W en charge…).


Le 16/04/2013 à 08h 20







RaYz a écrit :



Attend je rêve ou le débit est limité et quand tu fais du hors forfait il passe en H+ ?





C’est une coquille je pense <img data-src=" />







yeti4 a écrit :



“, Bouygues Telecom propose un forfait Nomad avec 10 Go de 4G, contre 5 Go en H+ au maximum auparavant. Il vous en coûtera 44,90 € par mois sans engagement ou bien 39,90 € sur 24 mois. ”



salut

c’est le forfait qu’il faudrait (10 Go) pour ne pas l’épuiser en 10 jours, avec un tel débit (4 G), mais il reste TROP CHER ! <img data-src=" />





Je trouve ça très honnête, 5€/Go@75Mbps c’est un des meilleurs prix, au monde.


Le 15/04/2013 à 15h 25







Aloyse57 a écrit :



La montre connectée, j’ai l’impression que ça devient le projet «Guerre des étoiles». Le projet US bidon qui a mis a mal l’économie de l’URSS qui y a cru.

Apple a parti une rumeur et tout le monde embarque de peur de manquer le bateau encore une fois <img data-src=" />





Au final, ils sont en train de le sortir leur laser <img data-src=" />


Le 15/04/2013 à 15h 22

C’est une bonne nouvelle ça. L’application Metro que j’utilise le plus <img data-src=" />



(Ou tout simplement la seule que j’utilise avec la Météo <img data-src=" />)

Le 15/04/2013 à 12h 48







waveboreale a écrit :



Atteinte de la neutralité du net / Pratique anticoncurentiel vis à vis d’autres solutions cloud, c’est assez flou. Mais je veux pas dire de bêtises et te donne les articles qui en parle. Ok, ca date de novembre / décembre 2012.



http://www.numerama.com/magazine/24487-lionel-tardy-ump-s-attaque-au-cloud-d-ora…



http://www.numerama.com/magazine/24317-comment-orange-favorise-son-cloud-sans-vi…





Le premier lien -&gt; pas de rapport avec la neutralité du net. Plus sur l’interopérabilité. Moi je pense que là dessus il faut attendre que les solutions murissent avant de leur taper sur les doigts, de mon avis ils ont intérêt d’eux même que ces solutions soient interopérable… Bref un peu en avance de phase le Tardy.



Le deuxième lien, première phrase -&gt; “Sans violer la neutralité d’intranet (…)”.

Tout est dit, bienvenue dans les télécoms, où Internet et les réseaux ne sont pas un monde de bisounours, et quand on est exploitant on peut faire mieux que passer des tuyaux. Tout ceux qui font un peu de télécoms d’entreprise ne seront pas surpris.



Dans le fond tant mieux pour les utilisateurs Orange comme tu dis, Bouygues aurait du faire la même chose car sa méthode est plus critiquable du coup.


Le 15/04/2013 à 11h 59







waveboreale a écrit :



Cloud illimité chez pogoplug (5€/mois) signifie capacité de stockage illimité dans le cloud comparé au limitation de 20Go/50Go (inclus dans les offres Bouygues)



Trouvé dans les mentions de vente sur le site de Bouygues.



Cloud : service édité par Pogoplug, inscription sur votre Espace Client, décompté de votre enveloppe Internet.



Dommage que Bouygues n’ait pas suivi Orange sur ce coup là.

Mais en même temps chez Orange, le cloud est une solution maison ne recourant ni à Dropbox, Box, pogoplug etc… Et pour certains c’est une atteinte à la neutralité du net, lu sur d’autres forums…

(…)





Ah dommage effectivement, j’ai lu les offres trop vites ce matin <img data-src=" />

Que ce soit une solution maison, c’est bien normal si c’est hébergé sur leurs serveurs, et qu’ils veulent éviter les intermédiaire qui se font de la marge. Moi personnellement j’aurai bien plus confiance à Orange pour mes données personelles que Dropbox, Box ou Skydrive (sans box cryptor). L’atteinte à la neutralité du net, là je vois pas <img data-src=" />. C’est pas parce que ton espace de stockage est accessible depuis Internet que c’est Internet. En tant qu’utilisateur Orange, si c’est sur le réseau Orange, c’est dans ton WAN, Internet c’est pas le WAN, que t’es accès illimité à ton WAN, pourquoi pas, non? Exactement comme fait la FDN sur la boucle local avec des débits non-bridés (parce que ça leur coute rien de faire ça sur la boucle locale).


Le 15/04/2013 à 08h 31







WereWindle a écrit :



Je ne comprends pas le concept de Cloud Illimité… est-ce à dire que les échanges avec Pogoplug sont sortis de la consommation data ?





Oui c’est comme avec Orange et ses 50 Go. Le concept c’est que les 50 Go sont hébergés chez L’opérateur, donc lui ça lui coute beaucoup moins chers que si tu utilisais Dropbox ou Skydrive, il peut te proposer plus de capacité qu’eux car pas de frais d’interco.



Pour le coup ils ont bien joué la dessus Bouygues et Orange par rapport à SFR, c’est un service assez sympathique.


Le 15/04/2013 à 08h 35

Sous Windows Server 2012, le démarrage se fait directement sur le bureau <img data-src=" /> (mais y’a quand même un Start Screen pour faire office de menu démarrer).









abasourdix a écrit :



Sous w8 depuis 3 mois

Je me suis fait au start screen avec la recherche unifiée, que je trouve finalement assez pratique mais aucune application Metro ne me convient. Je ne vois pas l’interet du plein écran sur un grand écran, surtout pour des pages web optimisées pour du 1000px de large (cf pcinpact). Et à partir de 15”, je considère qu’on a besoin de rester en mode fenetré.

Plus que de démarer sur le bureau, je préfèrerais pouvoir rester sur le bureau une fois qu’on y est, et qu’ils intègrent la recherche unifiée sur le bureau.







Quand je veux “glander” je trouve les applis métro reposantes (surtout les actualités, quand même beaucoup mieux présentées que les sites d’informations). Mais globalement, on peut bien s’en passer.

Ce que je reproche, c’est comme tous le monde ici: le fait que la recherche ouvre le start screen est très agaçant, ils auraient du faire comme le Wi-Fi: un panneau latéral et on en parle plus!


Le 12/04/2013 à 09h 38

La réponse est : Oui pour tous les opérateurs dans le monde entier rien que pour la QoS. (Sinon ton réseau mobile data, je lui donne 500 utilisateurs et il flanche)



La vrai question serait plus: comment utilisent-ils le DPI? Et même plutôt à qui font-ils appel pour leurs solutions de DPI?



Les 3 derniers paragraphes de cette news montrent la méconnaissance profonde du monde des télécoms, et des moyens techniques qu’il y a derrière pour assurer que tous le monde puisse faire du Facebook sans que ton Skype saute toutes les 10 secondes.<img data-src=" />



Alors on va la faire simple:

Oui avec un ordinateur je peux récupérer des informations sur ce que font les gens. Oui il y a des ordinateurs qui gèrent le réseau. Non ces ordinateurs n’ont pas pour but d’espionner les gens.



Gmail lit vos mail pour votre boite prioritaire? Et bien la solution de DPI fait la même chose côté opérateur pour acheminer vos paquets. C’est plus efficace, voilà tout.

Le 11/04/2013 à 15h 32

Nickel, pile ce qu’il me fallait (à part les 2 ports COM)

Le 11/04/2013 à 15h 06







Tourner.lapache a écrit :



Il restera toujours le marché pro quand même : que ce soit sur les stations de travail ou pour faire du word, le minimum ce sera un écran, un clavier, une souris et une unité centrale… qu’elle soit sous forme de tablette, smartphone, PC portable ou Tour.



J’irais même jusqu’à dire que même pour les particuliers le besoin existera encore : dans le monde du jeu, je vois mal les gens jouer à des STR sur tablette par ex. (même si les STR peuvent très bien disparaitre)



Bref, plutôt que de dire que c’est fini, je dirais que le PC va redevenir un marché de niche, ce qu’il était au départ. Le marché grand publique sera composé de produits plus accessibles comme les tablettes, les consoles ou les smartphones.





C’est les deux dernières formes que je parlais de “Terminé”. Déjà la tour, j’en vois quasiment plus, même chez les Pros. Le Portable va y passer aussi, dans 10 ans peut être, mais sa PDM ne va faire que régresser. Au profit de tablettes ou de smartphone ou de iwatch ou je ne sais quoi.


Le 11/04/2013 à 14h 50







Fantassin a écrit :



Vite, Windows 9 pour redonner la confiance ! <img data-src=" />





Vu que les ventes d’Apple régressent autant que celles de Dell, il faudra plus qu’un système d’exploitation pour redonner confiance à ce marché.



A mon avis, comme dis plus haut, l’ordinateur tel qu’on la connu ces dernières décennies, c’est “terminé”.


Le 11/04/2013 à 13h 59







YohAsAkUrA a écrit :



ça me rapelle le topic sur un autre site concernant le HP Proliant micro server.

Certains controleurs marchent… d’autres pas… après y’a certaines valeurs plus sures que d’autres :)



Mais il y a fort a parier que si ça fait fureur, il y aura péclore de listes de compatibilité qui existeront ^^





Oui ça dépend à la fois du bon vouloir du fabriquant de CM, et du bon vouloir du fabriquant du contrôleur. Surtout sur le premier port graphique.


Le 11/04/2013 à 11h 47







YohAsAkUrA a écrit :



vraiment sympa comme carte mère… surtout que le port pci express 16x qui permet du coup de mettre en plus un controleur raid avec plein plein plein de disques :)





Attention, contrairement à ce qui est dit la plupart du temps, cela ne marche pas toujours.

J’en ai fait les frais avec une carte mère Gigabyte justement, j’ai voulu mettre une carte PCI-E 8x dans le Slot PCI-E 16x –&gt; pas reconnue.

J’ai mis la même carte dans un port PCI-E 16x d’une carte mère Asus -&gt; marche parfaitement.


Le 11/04/2013 à 13h 00







ldesnogu a écrit :



Tout ca est exact oui :) Mais l’optimisation de placement-routage et le tuning du process (les termes utilises pour ce que tu decris) n’affectent que la frequence, pas les performances par cycle du CPU.





Théoriquement ça affecte aussi les performances (j’ai en tête les latences d’accès mémoire), mais c’est sans doute marginal par rapport au gain de conso/fréquence.


Le 11/04/2013 à 12h 46







ldesnogu a écrit :



Le cache L1 n’a jamais bouge a ma connaissance, le VFP a toujours ete present. Apple n’a jamais touche au design de l’A9, aucun client n’a le droit de le faire.





En partie seulement…





Je parlais du L2.

Ah de souvenir tu peux choisir ton process de gravure non? Tu peux te payer une team pour l’améliorer comme l’a fait Apple (enfin c’est ce que j’avais lu à la sortie de l’iPhone 5). EDIT: en gros les portes logiques sont les mêmes, mais en les plaçant au mieux tu peux optimiser ton chip.


Le 11/04/2013 à 12h 41







ldesnogu a écrit :



Ha, l’A9 a evolue ? Tu peux m’en dire plus ? Fais gaffe y’a un piege <img data-src=" />





Oui, il y a eu pas mal de versions différentes, (fréquence, cache, nombre de coeurs), des versions sans NEON, d’autres avec, des versions sans VFP d’autres avec, des versions avec des placement d’unités logiques faits maison (genre Apple) etc.

Je suppose que le piège c’était avec les SoC basés sur l’A9. <img data-src=" />


Le 11/04/2013 à 11h 43







Alucard63 a écrit :



L’architecture de l’atom n’a pas bougé depuis des années.



La gravure change, les GPU changent, la fréquence change mais l’archi date de 2008.<img data-src=" />





Si quand même, là on parle d’une archi Atom avec de l’hyperthreading, double mémoire cache, contrôleur mémoire intégré avec bande passante quadruplée.

Pour l’instant on n’a que des tests sur des tablettes, mais ils donnent déjà le Clovertrail Z2760 1,8Ghz jusqu’à deux fois plus performant qu’un Tegra 3 à 1,4GHz. Dans pas mal de tests il met à mal le A6X.



Par rapport à Medfield, c’est plus que x2 en terme de performances <img data-src=" />



Bref, attendons les tests, mais ce Z2580 pourrait bien être sacrément performant, surtout sur son ratio perf/conso (grâce à la présence de deux coeurs seulement).







ldesnogu a écrit :



Cortex-A9 est sorti en 2008 comme l’Atom.





Je parlais de comparer un Atom de 2008 à un Clovertrail de 2013, le Cortex A9, comme le clovertrail a bien évolué en 3 ans ;)


Le 11/04/2013 à 08h 43







Alucard63 a écrit :



C’est pas si évident que ça en fait.



L’atom est quand même pas top, d’autres bench le prouvent( et là on compare juste à un dual A9 pas un quad ).



L’atom a maintenant une génération de retard sur les derniers CPU ARM.



L’année dernière il était pas trop largué( selon l’exercice ARM &gt; Atom ou Atom &gt; ARM ) mais cette année avec Krait et les Cortex A15 c’est mort.<img data-src=" />







Seulement l’Atom a changé de génération aussi… Tu compare un N450/570 avec un Clovertrail, je sais pas si c’est très rigoureux. Les deux premiers sont sortis il y a 3 ans !! Soit deux générations en moins que le Clovertrail du ZTE Geek.



EDIT: en plus c’est bien précisé dans tes tests “des performances meilleurs par rapport au vieillissant Atom N570”, tu m’étonne <img data-src=" />


Le 10/04/2013 à 21h 27







ldesnogu a écrit :



Non. Regarde ça :

http://browser.primatelabs.com/android-benchmarks

oublie pas de scroller 2 ou 3 pages avant de trouver un Atom <img data-src=" />

Et je ne vais pas parler des perfs GPU, là ça serait humiliant pour Intel.





Bench en mousse alors, le RAZRi était au dessus des SIII à l’époque. A mon avis ce sont des bench essayant de tirer parti des cores ARM, du coup sachant que Android est bien optimisé multi-coeur… <img data-src=" />

De plus niveau performance le Z2580 a un coeur en plus, donc deux unités logiques en plus, il devrait s’en sortir beaucoup mieux sur ces bench théoriques. ;)







spidermoon a écrit :



J’ai bien failli l’acheter, mais 16Go sans extension de mémoire, c’était vraiment trop peu. Et sans doute aussi que le suivi et l’ impossibilité de le rooter m’ont refroidi.

Avec un tel nom, j’espère que le ZTE, lui, sera pré-rooté et sans surcouche.





On pouvait facilement le rooter mettre la surcouche “Stock”, et utiliser le slot SD caché <img data-src=" />

Nan c’était une petite trouvaille ce tel, mais assez mal positionné (le tarif pas assez chers pour faire premium, pas assez bas pour faire low cost).


Le 10/04/2013 à 17h 16







ed a écrit :



Je ne sais pas, et personnellement, je ne tenterais pas l’expérience d’un de ces téléphones.





Pour avoir tester pendant 4 mois le Orange avec Intel Inside (enfin San Diego, sa version UK), sous ICS, les performances étaient bluffantes, au niveau d’un Galaxy S3 pour le web/appli et au niveau d’un Galaxy S2 pour les jeux (alors qu’à l’époque le Galaxy S2 était 2 fois plus chers).

Je n’ai eu qu’un seul jeu qui n’était pas compatible, tout le reste tournait au poil <img data-src=" />

Ici on a un processeur beaucoup plus rapide, je pense qu’il doit facilement se positionner dans le très haut de gamme niveau performances. <img data-src=" />


Le 11/04/2013 à 09h 49

Du coup, maintenant qu’on sait qu’il y a des promotions, il suffit de les attendre <img data-src=" />

Le 11/04/2013 à 08h 53







ErGo_404 a écrit :



Non mais ce genre d’écrans est fait pour bosser sur des images avec précision, pour de la retouche par exemple, ou pour avoir des couleurs précises. Si tu fais du downscaling l’image ne sera pas nécessairement moche, mais elle ne correspondra pas à ce que tu as en entrée et ça risque donc de fausser un peu ton travail, non ?





Quand tu downscale, tu ne perds pas en précision. Tu peux même en gagner dans certains cas, notamment sur ce cas précis:

Tu travail sur une photo en 36Mpixel, tu ne travail pas à 100% de l’image, mais à 66,7% car sinon tu n’as pas assez de recul. A priori c’est du downscale, donc pas de problème. En fait si, car Photoshop n’utilise pas un bon algo de downscale pour l’affichage de travail pour des questions de performances, et les outils que tu utilises sont à 100%. La technique c’est donc de faire le downscale à la fin, par l’écran. Tout sera à 66,7%, géré par l’écran (on peut supposer que ça soit propre, c’est de l’Eizo quand même), Photoshop lui travaillera à 100%.

C’est un des exemples que je trouve rapidemment. Il y en a sans doute d’autres (post-prod sur AE, où tu aurait besoin d’être en résolution native).

Dans tous les cas, un vrai 4K sera meilleur, c’est certain.


Le 10/04/2013 à 17h 09







GøldøRak a écrit :



Orange…



Cette fabuleuse filiale de FT, FT, (…)







Ah bon? <img data-src=" />



Sachant qu’en logique FAUX =&gt; tout ce qu’on veut; partir comme cela est fort dommage.







Chloroplaste a écrit :



Ah oui on rentre dans le technique là, effectivement <img data-src=" />





Pour faire simple: on va pas changer les antennes de si tôt. <img data-src=" />


Le 10/04/2013 à 14h 41







Chloroplaste a écrit :



D’ailleurs quelqu’un connaîtrait le débit maximal que peut supporter une antenne 4G ?

Ou dans l’autre sens, combien de connexions max simultanées sont possibles sur une antenne sans perte de d”ébit pour les users ?





Cela n’a pas beaucoup de sens comme question en fait. Je pense que tu voulais parler des e-Node Base, cela va dépendre de l’opérateur et de la bande passante qui lui ai permise, et surtout du chipset qu’il y a derrière.

A l’heure actuelle on peut facile mettre 500 utilisateurs par eNB en LTE, demain tu pourra en mettre plus, la limite est plus au niveau du temps de calcul requis que physique.

Cependant là où tu peux avoir un goulot d’étranglement, c’est la liaison eNB avec l’EPC (après le bloc antenne). Là c’est au loisir de l’opérateur, qui n’a pas intérêt à mettre le paquet tout de suite si c’est pour avoir 1 ou 2 utilisateurs par antennes.


Le 10/04/2013 à 16h 13







jb18v a écrit :



à mon avis non : le double bande permet d’avoir un réseau sur une fréquence moins encombrée, et ton récepteur se connectera à l’une au l’autre, pas les deux.. mais j’en suis pas certain.

Sinon pour agréger des signaux, on peut déjà le faire en Ethernet avec deux connexions internet de 2 FAIs distincts, pourquoi pas en wifi <img data-src=" />





Je suis entrain de me renseigner, ça s’appelle du multi-homing, mais j’ai pas l’impression que ça soit pour le grand public. En théorie tu pourrai combiner ton réseau ADSL+fibre+4G par exemple. L’intérêt pour une entreprise c’est en cas de coupure d’un des services, la connexion est simplement ralentie. Pour un particulier ça pourrait lui permettre d’avoir un meilleur débit, mais ça coute plus chers.


Le 10/04/2013 à 14h 43







bombo a écrit :



Oui mais je ne crois pas qu’il y ai beaucoup de récepteurs qui permettent d’activer les deux bandes en même temps.







Et si on a deux récepteurs? (par exemple le Wi-Fi n intégré du chipset + carte additionnelle Wi-Fiac en mPCIE)


Le 10/04/2013 à 14h 30







Khalev a écrit :



Si les deux sont capables de fonctionner à pleins potentiels indépendamment oui.





Ok. Je me demandais si c’était du vent le 1750Mbps affiché sur mon routeur. Techniquement donc, c’est faisable, faut juste avoir le matériel qui suit.


Le 10/04/2013 à 14h 23







jb18v a écrit :



<img data-src=" /> tu veux additionner les débits de deux version wifi différentes ? ça me semble pas trop possible





Bah si tu as deux bandes, une 2,4GHz et une 5GHz ?


Le 10/04/2013 à 14h 06

Tiens j’ai une question, sur un routeur Dual-Band 450Mbps+1300Mbps, est-il possible de faire une liaison à 1750Mbps si le récepteur est Dual-Band aussi?

Le 10/04/2013 à 13h 41







coucou_lo_coucou_paloma a écrit :



Il marche pourtant sur une autre ligne Bouygues 30M et une Free ADSL.





Oui, c’était plus pour tiquer par rapport au titre racoleur. Au fur et à mesure de l’article on penche pour la faute est à 90% Bouygues, à 70% le NAS.



La raison n’est pas très nébuleuse, cela parait clair que Bouygues n’a appliqué aucun quota, ni de limitation de débit. Du coup il reste un problème technique sur sa ligne, très spécial, ou un NAS problématique (au niveau hardware même, pourquoi pas), ou bien une configuration de NAS problématique.



Le problème technique sur la ligne, j’y crois moyen, car cela devrait impacter d’autres services. Le problème hardware sur un NAS, rare, mais déjà plus probable. Le problème de configuration, c’est du déjà vu.


Le 10/04/2013 à 13h 06

En conclusion le problème vient du NAS <img data-src=" />

Le 10/04/2013 à 12h 50







Woote a écrit :



Pas forcement, certes on est dans l’ère du “temps réel” mais tout est une question de disposition.



Rien n’empêche de diffuser la saison et que le dernière épisode soit en décalage etc..



Bref, il y a des tonnes de chose à faire et de la créativité à revendre avec un tel concept.





Y’a Defiance dans le même genre, seulement que les choix des spectateurs sont dans un jeux MMP TPS (Si, ça existe) qui se déroule en parallèle de la série.

Au départ le jeu devait avoir une influence direct sur la première saison, finalement ça le sera plus pour la deuxième.


Le 10/04/2013 à 10h 21







fumoffu a écrit :



facteur 10 au niveau du CA, du salaire des patrons, mais pas des employés de base…





Les employés de base ont le même boulot de base, le patron lui doit gérer 10x plus de CA. Entre les deux il y a différents niveau de responsabilité, plus t’as de la responsabilité plus tu touche de salaire en proportion etc. Rien de nouveau sous le soleil.

A tte, faut pas que je continue dans cette discution <img data-src=" />


Le 10/04/2013 à 10h 20







misterB a écrit :



Rien ne justifie un tel écart, les benef d’une boite vont aux dirigeant et actionnaires, rarement aux employés, c’est normal pour toi ça ?





Au risque de choquer certains, oui. L’explication est structurelle, pas idéologique.


Le 10/04/2013 à 10h 16







misterB a écrit :



Vivement que la loi suisse sur le plafonement des salaire fasse effet boule de neige







20k est la salaire moyen chez Orange, il gagne donc 75 fois plus que ça, illogique………

finances.orange.fr Orange





Je trouve pas ça illogique, il doit bien y avoir une trentaine de niveau de hiérarchie dans une boite comme celle-ci (c’est ça qui est pas top, soit dit en passant).





brazomyna a écrit :



Entre XN et Richard, on a un facteur 10 de différence de salaire. Une paille.



Et Richard a bon ton de confondre l’activité d’investisseur d’un côté, et de dirigeant salarié de l’autre: que je sache, Richard a pas mis 6 milliards d’euros dans le pot d’Orange de sa petite poche. En quoi il se permet de comparer la rémunération des dividendes avec son salaire ?



Pour le reste, franchement, 170k€ bruts annuels pour un poste de PDG d’une boite valorisée 9 milliards, c’est loin d’être délirant ; c’est même plutôt le contraire.





Entre Orange et Illiad, il y a un facteur 10 au niveau du chiffre d’affaire.


Le 10/04/2013 à 07h 57







patos a écrit :



Clair <img data-src=" /> Mais ta config consomme environ 100W pleine charge en supposant que tu aie une alimentation standard, et te coute donc 100€/an en jus. Si tu l’éteinds 75% du temps, tu économise 75€/an. Est-ce que tu changes un disque dur par an? Si la réponse est oui, arrête de le mettre en veille ^^ (Ca a été mon calcul, d’où le H24 et serveur web/mail à la maison maintenant)





Avec un démarrage de disque par jour, je ne pense pas user le disque au point de devoir en changer un par an. Niveau capacité j’ai pris large pour ne pas m’en soucier. Prochaine upgrade en 2015 si tout va bien. En plus moins de nuisance sonore, et moins de chauffe.

Pour le serveur web/mail, je planche plutôt sur un vielle ordinateur portable avec une clé-3G pour connexion de secours en cas de coupure de courant (comme ça , si ça coupe ça peut m’envoyer un mail pour me prévenir en cas d’absence, et je peux récupérer d’éventuels mails important avant l’arrêt du portable).

En tout cas merci pour le REX <img data-src=" />


Le 09/04/2013 à 22h 03







patos a écrit :



Achète une prise ampermétrique, regarde la conso sur 30mn quasi idle, 1W=1€ par an. Moi je suis à 65W en moyenne sur 24h (tv serveur etc…)





ça serait dommage d’acheter une prise ampermétrique pour voir si j’économise de l’argent <img data-src=" />

Je me base simplement sur les tests de ma carte mère + processeur, j’estime la conso RAM et la conso disque en idle avec d’autres tests. ça me donne un gros chiffre malheureusement (Core 2 Quad première génération, carte mère avec 2 southbridge, carte PCI-E pour le RAID disque, carte graphique etc.). c’est une erreur de casting, mais cela m’a permit de recycler une vieille config


Le 09/04/2013 à 20h 48







patos a écrit :



Par contre, un NAS qui gère la veille des disques durs te fera économiser genre 3W (soit 3€/an) mais te flinguera la vie du disque dur: les disques durs fonctionnent plus longtemps H24 qu’avec moultes démarrages.

(…)

PS: mon serveur possède un SSD 128Go pour l’OS & la partie mediacenter, et X disques durs pour les données et les machines virtuelles…





Je ne mets pas en veille les disques durs, je mets tout le PC en veille prolongée (donc économie d’environ 50W) lorsqu’il n’y a pas d’ordinateur allumé sur le réseau depuis 30min. Cela permet de démarrer 1 à 2 fois le NAS par jour (en rentrant du boulot, voir le matin), tout en économisant le soir et la journée plus de 50W (c’est une config type Core 2 Quad avec 9 disques, pas optimisée pour l’économie d’énergie …). Je dois économiser environ 50 à 70€ par an grâce à ça, ça me rembourse mon Crash Plan <img data-src=" />


Le 09/04/2013 à 16h 42







ErGo_404 a écrit :



Parce que ton NAS peut servir à d’autres machines qu’un ordinateur, tout simplement. Parce que tous les NAS ne sont pas capables de se réveiller quand une machine du réseau le demande, etc.

Ca n’empêche pas que le NAS soit en veille une bonne partie du temps (d’ailleurs les DD sont éteints et ça s’entend quand ils se rallument).





Ok donc pas vraiment un des cas que je risque de rencontrer. <img data-src=" />


Le 09/04/2013 à 16h 04







Chaft52 a écrit :



Des SSD dans un NAS ça peux devenir intéressant, dans mon CAS (futur)



j’aurais mon NAS Principal sur mon lieu de résidence et un deuxième NAS de BACKUP chez les parents, du coup les SSD peuvent être intéressant.



Consommation plus faible, moins de bruit. Changement le ventilo peux aussi être bénéfique.



Et puis pour sauvegardé on va dire 250Go sur 3To, un petit raid de 250Go peux suffire. Ce qui limite le cout quand même.



Maintenant niveau fiabilité, on va devoir encore attendre des SSD capable d’assurer des UPTIME beaucoup plus longs, genre mon NAS tourne H24 donc les heures de vol s’envolent vite.

Même s’il m’arrive de redémarrer le/les NAS des uptime de 30j j’y arrive facilement.





Pourquoi ton NAS tourne H24? (vraie question) Cela peut paraitre bête mais le miens est configuré de tel façon qu’il n’est allumé que si un ordinateur du réseau est allumé. J’utilise la veille hybride de WS2012 sur un SSD de 80Go, le réveil est donc instantané.


Le 09/04/2013 à 17h 39

Je comprend pas trop l’intérêt de supprimer son compte, surtout si ce n’est pas pour en ré-ouvrir un derrière. A un moment il faut gérer son identité numérique, mieux vaut avoir un compte sur les différentes plateformes, avec les bonnes règles de confidentialités, quitte à ne pas l’utiliser. N’avoir aucun compte c’est le risque que quelqu’un le fasse à votre place, pas terrible quoi. <img data-src=" />

Le 09/04/2013 à 15h 35

Tant mieux, ça va les pousser à faire de petits smartphone haut de gamme, adaptés à la taille de mes mains <img data-src=" />

Le 09/04/2013 à 11h 47







Khalev a écrit :



Tiens c’est marrant, tes touches ’D’, ‘P’ et ‘I’ sont inversée avec les touches ‘Q’, ‘O’ et ’S’. Tu devrais vérifier ça je pense.





Le DPI sert surtout à faire de la QoS, bizarrement on parle pas trop de cet usage, c’est plus vendeur de dire que ça sert à espionner les gens. Cela marche comme la boite prioritaire de Gmail, un ordinateur lis le flux, le classe et le route (par exemple il route un stream sur un CDN).



EDIT: et contrairement à ce que laisse croire le post ci-dessus, c’est très utilisé, surtout sur les réseaux mobiles.


Le 09/04/2013 à 09h 17



Par défaut, il n’existe aucun tri des informations, ni aucune priorité, sans parler de chemins spécifiques en fonction du type de données.



C’est bien pour cela qu’on faisait du DPI.

SDN c’est du DPI virtuel <img data-src=" />

Le 08/04/2013 à 16h 32

Faut aussi se dire que les clients qui prennent de la 4G sont les plus Geeks, donc ceux qui consomment le plus. Il est fort probable que cette moyenne vienne à diminuer dans les prochains mois. (Au profit de ceux qui préfère le côté instantané au côté volume).