Plus pratique, plus simple. Bref : “plus mieux !”. Pas besoin de se lever 36 fois, si on est beaucoup sur l’imprimante il faut y aller souvent sinon on peut saturer la mémoire (gros documents, ou le cas d’un traceur), etc.
Oo mais je comprends pas l’intérêt…. le NFC sur PC portable c’est uniquement pour le cas d’un pc sur lequel l’imprimante n’est pas configuré…. car le NFC porte à… au moins…. 5cm ! Donc il faudrait se trimballer son pc avec soi?
Et la mémoire on s’en tape, les vraies imprimantes ont des disques durs de plusieurs dizaines voire centaines de Go
Le
03/06/2013 à
19h
04
Drepanocytose a écrit :
Ah…
Bien cool pour comptabiliser les impressions de chacun et les limiter un peu…
Ca existe déjà, des systèmes où tu dois présenter ton badge de pointage à l’imprimante, sinon peau d’zob ^^
Oui enfin ça c’est la slide marketing qu’on te met dans la tronche. Si vraiment tu as peur des méchants condensateurs, tu as des composants de qualité aussi sur les modèles en 61 hein ;) Après on est d’accord que prendre le modèle le moins cher n’est pas forcément malin. Dépenser systématiquement 150 € ou plus sur une carte mère pour un usage basique, mais qui nécessite de la performance, ne l’est pas plus ;)
Je me suis tellement fait défoncer sur des cartes mères 61 et sur des chipsets Q que je n’y toucherais plus perso, mais ça ne regarde que moi " />
kypd a écrit :
Bon bin tout va bien j’utilise des carte à 45~60E " />
Veinard.
kypd a écrit :
Les modèles K (en Sandy/Ivy) en plus d’être débloqués en O/C sont aussi les seuls à proposer l’IGP plus performant (HD3000/4000) sur la gamme i5~i7 donc cela peu avoir un intérêt (et ça ne coute pratiquement rien de prendre le modèle K comparé au modèle classique)
Ca coute très cher: les “K” n’ont pas VT-d…. grrr merci intel… donc je chie sur les “K” ^^
kypd a écrit :
Les deux seuls SATA de la carte me permettent très bien de brancher un SSD+HDD et le reste se connecte en Externe (HDD en USB/eSATA, Lecteur Optique en USB), la carte son médiocre je m’en fiche je n’utilise que les sorties SPDIF donc le DAC est externalisé, le chipset Réseau est globalement toujours un Intel ou sinon un Realtek qui se valent (parfois un Atheros qui consomme un peu plus de CPU au pire…), la connectique Vidéo est avantageusement remplacé par une carte graphique dédié (sinon le triplet VGA/DVI/HDMI n’implique pas un gros surcout)
Chacun ses besoins, c’est sûr. En connectique, je pleure sur les cartes d’entrée de gamme :(
Le
03/06/2013 à
08h
03
David_L a écrit :
Pour le “k” oui, vu que tu ne profites pas de l’OC. Pour le reste, je ne vois pas le souci si tu as la connectique qui te convient.
Le fait que selon le tarif, les composants soient mis de meilleure manière et de meilleure qualité (cf les condensateurs par exemple…), que le bios/uefi soit plus abouti, mieux suivi, etc….
Je suis contre les carte mère mono-processeurs à 200€ (pour moi c’est 120€ max), mais je suis tout aussi contre celles à 80€, qui m’ont durement rendu mon économie…
Le
03/06/2013 à
07h
53
kypd a écrit :
Une carte mère Entrée de Gamme avec un processeur Haut de Gamme fait parfaitement sens !
Je n’utilise que ça : Gain de 80E à l’achat sur la carte mère qui permet largement de monter en gamme sur le processeur ou sur la carte graphique (H61 + i5 2500k + Radeon HD7870 = 400E)
La carte mère n’est devenue q’un vulgaire “câble” intelligent dans une config Gamer… Contrôleur Mémoire, Contrôleur PCI-E, IGP, et maintenant même VRM sont intégrés aux CPU la carte mère ne sert plus qu’à relier physiquement le CPU à la mémoire et au port PCI-E après il n’y a plus que les I/O gérés par le southbridge…
Coupler un h61 avec un 2600k, c’est profondément gâcher son argent. La carte mère est bien plus qu’un câblage intelligent, et c’est contrôlé par le bios…
Le
03/06/2013 à
04h
52
Tourner.lapache a écrit :
Assez étrange je trouve d’ailleurs. Chez certains on a un peu de gain coté conso et chez d’autres (HFR, guru3D), Haswell est pire ! Est-ce que ça viendrait du fait que HFR, par ex, n’utilise pas les modes C6/7 ?
Les C-States sont le prérequis obligés pour l’économie d’énergie…
Le
02/06/2013 à
19h
09
mantisis a écrit :
Je réfléchie en bon technophile " /> d’accord tu peut recycler ton “ancien” materiel informatique en faisant profiter quelqu’un autour de toi cependant, a l’origine tu aura acheté une piece donc pour intel que ton ancienne piece ai cramé ou que tu veuille simplement la remplacer et la léguer à quelqu’un d’autre, pour eux sa revient au meme point de vue chiffre d’affaire, tu aura toujours acheté une nouvelle piece. Avec le BGA c’est encore plus profitable pour eux car tu change tout (cm et proco) et quand on voit le nombre de personne qui sont prete à passer de ivy à haswell pour gagner quelque pourcent sur un bench … Imagine que ce serait la meme chose mais non plus entre deux architecture mais entre deux modeles de processeurs simplement :S sa reste cependant un simple scénario et j’espere que sa se finira pas comme sa autrement on risque de finir sur du SoC pour desktop " />
Je te rassure, je suis contre le BGA, tout simplement car une carte mère n’a pas son processeur et vice versa. Il y a des millions de combinaisons possibles, et chacune a son client (sauf une carte mère entry et un proc high, mais ça c’est de la logique ^^ ).
Le
02/06/2013 à
11h
45
mantisis a écrit :
Sans compter l’obsolescence programmé, pour le coup un nouveau modele de processeur et hop on doit tout virer " />
Ca ne regarde que moi, mais perso, quand ma config’ n’est plus suffisante, carte mere / proc / ram vont dans un “nouveau” pc qui aidera quelqu’un dans mon entourage.
La fiabilité du matos informatique acheté avec pertinence & utilisé / entretenu avec précaution, ça mets longtemps à cramer….
Le
02/06/2013 à
07h
57
orzerain a écrit :
Bon alors, quesque l’on achète aujourd’hui quand on a une config à base de 1156 et proc i5 750. Ivy ou haswell?
En fait depuis un i5 750, tu n’as pas grand intérêt… Tu le mets à genou ton i5?
Daweb a écrit :
@gavroche, ça fait bien longtemps que passer une génération de processeur à la suivante ne fait vraiment gagner que dans les benchs :)
De la perf, -> SSD et assez de Ram.
Ca me fait toujours rire les machines soit disant haut de gamme avec un Core I7 couplé à 4Go de ram grand max et un disque dur 5400Tr :)
Euh les technos aussi avancent, comme la virtualisation par exemple qui est de plus en plus performante avec les processeurs, grâce à l’amélioration des changements d’état de celui-ci.
Dexter Decker a écrit :
J’ai une bonne carte son en PCI, ai-je une chance de pouvoir la garder ? Il me faut un port PCI pour ma prochaine config, alors Ivy obligatoire ? " />
Ivy te conviendra très bien.
Zyami a écrit :
La question est de savoir maintenant si les IvyBridge vont significativement baisser de prix car à vrai dire, le chipset graphique, j’en ai rien à secouer pour ma part.
y’ a des sans (exemple le I5 3570P)
l’avoir permet de faire du double écran sans grever la carte graphique, ça fait une cg de dépannage, ça permet d’avoir une unité accélératrice de calcul en plus, etc…. pour moi, ne pas la prendre est du gachis
Ah noté aussi l’arrivée du déverrouillage par empreinte digitale en natif avec Blue..
A noter aussi que Vista, 7 & 8 se déverrouille parfaitement dès qu’on utilise les vrai pilotes et qu’on désinstalle les merdes de 99% de fabricants de PC (genre HP Fingerprint for protect tools).
(genre le pilote nommé Windows_WBF_TEK_4_3_100_0_Digital_Persona_FMA pour les HP Probook depuis 3 ou 4 ans)
WereWindle a écrit :
C’est l’impression qui ressort de mes presque 3H d’essai sur un portable arrivé en W8 : en gros, l’interface, on s’en cogne quand on tourne à base de raccourci clavier (windows+E, windows+R, windows+D, alt-tab, alt-f4, etc.).
Après parler de productivité et tout faire à la souris… pourquoi pas mais bof
Clair, le poweruser le seul changement que voit le poweruser, c’est la partie “recherche” qui utilise le plein écran mais qui fonctionne pareil qui Windows 7.
Par contre oui, le powermouseuser est perdu, mais bon hein…L’apprentissage reste quand même rapide…
Le
30/05/2013 à
10h
12
ed a écrit :
Non, justement sur 2012 ce n’est plus possible, une fois installé les services bureau à distance, si tu veux accéder à l’interface d’administration, tu dois obligatoirement ouvrir une session en étant membre d’un domaine.
Ah ok merci " />
nmartin a écrit :
Merci pour l’info l’ami. Et tu fais comment pour ouvrir un fichier ou un dossier ? Tu l’épingle sur le start screen aussi ? Tu perd un clic parce que l’on arrive pas sur le bureau.
Donc je résume :
Start screen :
application -> 1 clic
Dossier, fichiers -> 2 clic
Bureau :
1 clic.
Qui dit mieux ?
Windows+1 pour mes mails
Windows+2 pour Firefox
Windows+3 pour l’explorateur
Et je mets shift en plus quand je veux forcément une nouvelle fenêtre (c’est utile que pour l’explorateur)
Et je me fais pas chier à savoir où je suis, ça marche tout le temps.
Le
30/05/2013 à
09h
56
WilliamSauron a écrit :
L’important n’est pas trop qu’il démarre directement sur le bureau, l’important est qu’il reste dans ce mode en permanence une fois que je l’ai sélectionné. Quand je suis dans un traitement de texte pour taper quelque chose, il m’arrive de devoir ouvrir en même temps un e-mail ou une image pour m’y référer. Dans ce mode, hé bien je veux que l’application courrier ou Paint s’affiche en mode fenêtré, pas qu’on lance l’application Metro pleine page.
Par contre quand je suis en mode Metro, hé bien ça ne me dérange pas qu’il m’affiche les images dans l’application Metro, un menu Metro, un courrier Metro, un Media Player Metro.
Ca, ça doit être le mode de fonctionnement par défaut. Tout mécanisme qui passe d’un mode à l’autre de temps en temps en fonction de la vitesse du vent est enquiquinant à utiliser. C’est tout.
Oué, mais ça voudrait dire double association de fichier possible: Ouvrir & Ouvrir avec Metro. Je pense que c’est super compliqué à gérer….
ed a écrit :
C’est vrai, mais il faut aussi s’adapter à certains choix imposés par microsoft, comme l’impossibilité d’utiliser TSE en Workgroup.
Tu peux utiliser TSE avec des comptes locaux hein, il suffit juste d’installer le serveur de licence sur le même serveur que TSE et de le forcer à la main dans la console de configuration TSE. Enfin, c’est le cas en 2003, je n’ai pas retesté en 2012.
Encore te faut-il deux lignes d’arrivée différentes sinon en cas de coupure, phase qui saute sur le réseau, ou fusible qui saute tes deux alimentations ne servent à rien " />
Exactement: une ondulée + une direct 220 avec parasurtenseur.
Le
30/05/2013 à
07h
15
Latios a écrit :
Par curiosité, tu as combien d’espace de stockage disponible et combien de RAM sur la machine ? " />
C’était un test donc je ne l’ai plus (ouin :( ) mais y’avait 24*1To (12To utiles) et 32Go de ram et un Xeon E5 6 coeurs 2,4ghz (parce qu’au prix de la ram, on s’en tape " /> ).
Matboss a écrit :
Donc, pour la prod sur ce genre de boitier, il faut 2 disques de parité pour être tranquille.
C’est pour ça qu’on prends que des doubles alims en prod ^^
Le
29/05/2013 à
20h
03
piwi82 a écrit :
Wow! Du RAID10 logiciel avec 24 disques, faut vraiment avoir peur de rien.
Vu la charge que ça a l’air de générer, il doit y avoir un gros problème d’optimisation (ou alors c’est dû à la déduplication).
La déduplication, ça poutre des mamans ours, mais pas besoin de ça pour écrouler l’Atom: 500mo/s environ, le Xeon 6 cœurs tient à peine " />
Le
29/05/2013 à
14h
38
piwi82 a écrit :
Effondrer un Xeon 6 cores juste avec du stockage (RAID10 je suppose) ? C’est quoi le contrôleur RAID ?
Soft raid de raid 10 dédupliqué soumis à haut débit (ZFS pour 5 ou 6 millions de fichiers). Les disques sont déclarés unitairement, ce qui est mieux pour ZFS.
Le
29/05/2013 à
09h
42
piwi82 a écrit :
Si tu savais la tonne de choses qu’on peut faire tourner avec un Atom sous Linux, tu serais surpris.
J’effondre un Xeon 6 coeurs dédié au stockage sur 24 disques durs en raid miroir. Donc non, je ne serais pas surpris, je sais qu’au delà des 8 disques, les extenders sont juste une mauvaise idée.
Skeeder a écrit :
C’est que je me suis dis. Mais ça dépend de l’utilisation, si c’est pour utiliser un simple RAID matériel, sans chiffrement ça doit suffire amplement. Si c’est pour du ReFS sur une allocation fine avec chiffrement AES, l’atom peu vite s’étrangler " />
M’en fout, j’achète des disques auto-chiffrables (SED).
Le
29/05/2013 à
07h
52
Un atom double coeur pour 18 disques? Il ne faut s’en servir que pour du stockage pur….
Avec une vrai docking peut être mais ca n’a pas encore l’air prevue.
C’est mon seul reproche, le docking non prévu.
mais bon, j’ai 2 alims, un hub USB3 & un cable mini-DP -> HDMI -> DVI, donc je brancherais 3 câbles et c’est tout…
Et 10”, c’est parfait pour un second écran sous Windows en double écran (avec un 22 en principal)
Le
29/05/2013 à
20h
23
Lafisk a écrit :
Autant en général je suis plutôt d’accord avec cette affirmation, que la, pour le coup, pas tellement. Haswell va vachement augmenté l’autonomie des batteries et même si il faut attendre les premiers tests concrets, passer de 4-5h max d’autonomie à 8-9h (en théorie) c’est bien plus qu’appréciable et vu le peu d’attente d’ici la il est clairement plus sage d’attendre la fin de l’annéee la quand même.
Sur desktop, il vaut mieux attendre un peu avant la sortie de la nouvelle archi, histoire de profiter de la chute de prix, vu que l’apport en perf brute est minime, mais la pour haswell et la suivante l’attente des nouvelles archi est recommandée, l’apport en autonomie étant assez “énorme” et ça compte beaucoup pour les appareil mobile.
4-5h est pour moi suffisant donc j’accepte cela " /> . J’ai besoin de tester ce type de tablette pour le boulot en terme de performances et d’ergonomie, et pour une fois que c’est pas du Panasonic à 2500€, le jeu en vaut la chandelle " />
Le
29/05/2013 à
20h
01
ldesnogu a écrit :
Hum, ca n’est pas toi qui avais deja achete une tablette Windows 8 a base d’Atom ? Je confonds ptet…
Non, j’ai une MSI Wind 110 (AMD double cœur 1ghz) que j’ai effectivement passé sous 8.
La surface, c’est pour le boulot ^^
ldesnogu a écrit :
Je me demande toujours vraiment pourquoi payer si cher maintenant alors qu’on est a quelques semaines du lancement des tablettes Haswell. Ouai je suis en mode apprentissage de patience raisonnee en ce moment " />
En informatique, si tu attends en fonction des annonces tu ne dépenses jamais rien. Et Ivy est déjà une très bonne cuvée.
Le
29/05/2013 à
18h
01
CR_B7 a écrit :
Il n’y a pas moins cher … mais parce qu’il n’y a rien d’équivalent.
Le but des autres tablettes c’est de faire ce qui est léger, pas de l’édition vidéo.
Un peu ce qu’est surface RT.
La surface pro est sur un autre besoin (que je ne comprend pas trop), je ne vois pas quelles applications nécessitent un i5 et un ecran 10”.
Du coup je mettrai ça dans gadget pour personne fortunée
Un vrai pc + une tablette en un seul usage, et tu ne vois pas le besoin? Genre au boulot tu la connectes avec un vrai clavier/souris/écran & en balade bah tu te balade justement.
Sans compter qu’un seul cout de licence, un seul truc à maintenir, etc…
Désolé, ce n’est pas pour personne fortunée, c’est même très abordable pour ce que c’est… mais bon, vu que les gens ont une échelle de valeur toute niquée et qu’il faut tout le temps raler parce que c’est trop cher, bah vazy, rale…
Le
29/05/2013 à
15h
05
CR_B7 a écrit :
Le ne parle pas que de la ram, mais de la ‘double peine’ :
-6 mois de retard (du coup une tablette quasi depassé a sa sortie)
et … pas de 256Go ( alors que l’OS est a l’image des problèmes américains : obèse)
Je t’invite à trouver aujourd’hui, que ce soit par annonce ou en magasin, une tablette équivalente à tarif équivalent: core i5 uniquement. La seule alternative trouvée et le VAIO 11 Duo, qui est 400€ plus cher… (donc j’ai prix une surface en promo à la fnac)
jeje07 a écrit :
faut espérer qu’il y a aussi un outil pour pouvoir restaurer cette partition de sauvegarde si elle est sur une clé USB
" />
La clé USB elle-même, qui est du coup bootable.
Le
29/05/2013 à
14h
58
Lafisk a écrit :
Bidouiller android c’est super hype, dégager une partition de sauvegarde c’est la panique totale …
Y’a un outil fourni qui permet de mettre la partition de sauvegarde sur clé usb si je ne m’abuse. Enfin, je pourrais en être sûr quand la fnac m’aura livré " />
Le
29/05/2013 à
14h
35
Rappelons en effet que le modèle 64 Go n’offre en réalité que 29 Go d’espace libre.
Oui, c’est sur que la virtualisation change un peu la donne. Néanmoins, virtualisation ou pas, l’espace de stockage ne peut pas être multiplié. Et les demandes de puissance (cloud gaming) pourraient relancer la course à la puissance.
Ben figure-toi que si pour les fermes d’un serveur de même type avec la déduplication des disques durs virtuels :) après, pour les données, là c’est sur qu’il n’y a pas de miracles…
Le
28/05/2013 à
20h
48
RDeluxe a écrit :
Oui, j’ai bien pigé. Ce que je voulais dire c’est qu’à l’avenir le marché devrait se redresser et augmenter en volume. Les besoins serveurs devraient continuer à augmenter avec le temps (stockage dans le cloud porté par Google, calcul pour le cloud computing et le cloud gaming, etc).
Donc je m’en fais pas trop, il risque d’y avoir des débouchés intéressantes à ce niveau.
La virtualisation a fait beaucoup de mal au marché des serveurs mais du coup les serveurs sont plus costauds, avec moins d’unités.
J’en suis l’exemple même: 30 machines virtuelles tournent sur 4 serveurs bi proc, 2 baies disque & 4 switchs 10Gb, le tout pour la bagatelle de 100K€ (60% dell, 30% ibm, 10% vmware) et consomme moins de 3KW, à opposer aux 150W pièce de chacun des 30 serveurs en inactivité, et près de 500-700W en charge…
wrongillusion a écrit :
j’imagine même pas la conso cumulé de tous ses serveurs écoulés…
On est à -80% Watts pour +100% performance grâce à la virtualisation
Le
28/05/2013 à
13h
02
Ben je suis content d’avoir participé à ce petit peu (60K€) de résultat de Dell, vu la qualité du matos & du SAV, meilleur qu’HP je trouve.
Niveau conso, ça doit pas être si terrible : la voiture est légère et le moteur pas si gros. Je table sur un gros 18-20l en utilisation sport, et moins de 10l en utilisation route.
Ou pas, je suis déjà à 20l avec mon pauvre 1l6 en sport (merci les routes ardéchoises)
Hyper-V est un hyperviseur. C’est un niveau en dessous du kernel.
Je penses que tu veux parler plutôt de Virtual PC (ou de porter Hyper-V sous ARM).
Dans le cas de Windows 8, 2008 et 2012, Hyper-V “porte” la VM maitresse qui a accès à toutes les ressources de la machines. Les autres machines virtuelles sont exécutées avec un niveau de droits “normaux” quand la VM principale a des droits “élevés”. Du coup, la machine boot, fait booter Hyper-V qui lance la première VM qui sera celle qui gèrera Hyper-V, tout en étant exécutée à l’intérieur.
Hyper-V R3 est une des plus grosses améliorations de Windows 8 Pro, soit-dit entre nous.
Le
24/05/2013 à
13h
54
FunnyD a écrit :
Ah, et tu fais cela comment?
PS : vraie question question, cela m’interesse
PS2 : C’est quand même con de se justifier pour ne pas être pris pour un hater " />
Tu va dans C:\WINDOWS\SYSTEM32
Sur l’application SHUTDOWN, bouton droit, épingler à l’écran d’accueil.
Sur l’icône sur l’écran d’accueil, Bouton droit -> Emplacement du fichier
Renommer le raccourci avec “Redémarrage du poste”.
Tu recommences avec:
/S /T 10 /F –> Arrêt dans 10s
/A –> Annulation de l’arrêt (en cas de clic par erreur sur un des 2 autres)
avec SHUTDOWN, rien n’y personne n’empêchera l’arrêt ou le reboot du PC dans la minute qui suit. Même pas un fichier pas sauvegardé (qui sera perdu)
Edit: Burned by slow typing
Le
24/05/2013 à
13h
49
BlackKrystal a écrit :
La virtu d’un 2000 sur ma machine de bureau me donne des saccades au niveau du mulot X_x donc pour jouer, c’pas encore ça… Peut être que son prochain renouvellement changera quelque chose !
Prends une machine avec VT-x et VT-d, avec VMWare Workstation ça poutre ^^
Le
24/05/2013 à
11h
44
vampire7 a écrit :
disparition des jeux intégrés
Ils sont accessibles gratuitement sur le store ^^ (il fallait bien qu’ils y mettent quelque-chose là-bas " /> )
Le
24/05/2013 à
10h
40
BlackKrystal a écrit :
Et les gamers : combien de jeux pour plateforme x-(/Win32 ne seront jamais re-développés pour plateforme ARM/RT ? Notamment ceux de studios disparus ? (A tout hasard, la série C&C développée par Westwood, les jeux Bullfrog…)
Je ne sais pas si tu as testé la virtualisation, mais le couple x86/WinPro a de la ressource vu que tu peux même jouer aux jeux sous Win95……..
a part les jeux pour le xbox machin, pour guider win8 ca va etre similaire, juste la détection des mouvement qui est différente…
Kinect a une zone de captation énorme et en face, là où Leap a une zone de captation au dessus et courte.
De plus, Leap ne sait gérer que les doigts là où Kinect gère le squelette complet du corps, poussant jusqu’à la lecture labiale.
Le
23/05/2013 à
07h
28
Tohrnoriac a écrit :
face au Leap motion ca va donner quoi ? " />
C’est juste pas la même chose.
Le
23/05/2013 à
02h
59
sniperdc a écrit :
Vivement d’en savoir plus " />
J’ai comme l’impression que Windows 8 sera obligatoire " />
Oui, car vb2012 only non? Un peut comme wp8 en fait…
Il faut savoir que souvent, ce type de produit est fait pour les développeurs uniquement, et qu’ils ont des comptes MSDN/Technet et se foutent du prix de la licence Windows.
Moi je vois d’emblée une télécommande papier posée sur une table scannée par le Kinect…
Tu noircis beaucoup trop le tableau. Hors code noyau et optimisations de la mort, il n’y a que très peu de différences et du code bien écrit compilera et tournera sans problème sous arm.
“très peu de” = “beaucoup trop”.
Il faut déceler / tester / valider / etc… et tout ça prend du temps donc de l’argent.
Le x86-64 a de très fortes qualités pour les entreprises que n’a pas l’ARM, dont une est la constance.
Le
23/05/2013 à
02h
54
AMDFAN69 a écrit :
et s’il réussi à résister à l’effondrement des marges qui devrait se produire dans les prochaines années dans le domaine des serveurs puisque les AMR multicores arrivent…
Juste comme ça, tu sais combien de temps et d’argent il faut pour former une équipe de développement complète sur une architecture? Surtout que x86-64 possède la force d’une architecture stable et rétrocompatible, là où Arm se paye une énorme tare: faire du codage sous Arm sans abstraction, c’est tout simplement du suicide…. à chaque changement de puce.
On dira ce qu’on veut, sertir un coax c’était plus facile que de sertir un RJ45 !
Le mec qui s’est dit “tiens si on mélangeait les paires bleues et orange”, déjà il était bien attaqué. Mais celui qui a choisi de mettre du marron clair juste à côté du orange terne, lui c’est un pin de génie " />
Et tu ne t’es jamais dit qu’en 40 ans, le câble avait évolué et que par soucis de rétro compatibilité, ils ont du faire comme ça?
Le
22/05/2013 à
20h
22
nothanks a écrit :
Ouais mais en même y a pleins de nouvelles conneries à faire avec les technos d’aujourd’hui ou comment par exemple déco un nombre à trois chiffre de pc et tél ipbx sur une boucle locale fibre en faisant une boucle avec un des switchs avec un seul petit câble de brassage, je l’ai vu, c’est marrant comme tout en fait.
Bon pas pour ceux qui bossaient sur un server " />
J’ai acheté des petits switch au boulot et je peux pas faire ça. D’ailleurs depuis peu, je comprends vraiment la différence entre du matos pro >5k€ pièce et le reste: ça poutre des mamans ours (4x Dell powerconnect 24+4 10GbE)
Ce type de truc permet de brancher un tuner compatible hdmi cec pour que la Xbox le contrôle tout En ajoutant de l’incrustation à l’image. Ca permet d’ajouter un guide tv, des infos chaines, de la pub, et de la remontée d’audience ^^
En fait c’est génial pour eux cette limitation, ça veut dire que leur réseau ne sera JAMAIS saturé! En gros le réseau doit être dimensionné pour l’heure la plus chargée qu’ils puissent observer, s’ils disent “à cette heure” c’est max 50Mo par personne après c’est débit réduit, et le reste du temps c’est du best effort, ils ont un réseau qui sera potentiellement à 100% sur une période bien plus longue, et donc des investissements bien mieux rentabilisés.
C’est pas complètement stupide, ça évite qu’il y ait 3 guignols qui saturent tout le réseau et que les autres rament… Là l’utilisateur “occasionnel” est beaucoup plus avantagé. De plus la connexion n’est pas bloquée même après le seuil dépassé, et le fair use disparait au bout d’une heure.
Bien entendu il ne faut que ce soit appliqué que lorsque le réseau est engorgé, mais ça évite les abus en heure de pointe, et je trouve ça limite mieux que le fair-use mensuel. (bon après faut pas avoir besoin de télécharger un iso non plus " /> ) mais pour un usage normal et raisonnable je trouve ça pas si mal (si ça n’était pas agrémenté du fair use de seulement 1Go qui devient plutôt inutile).
Exact, surtout quand on sait comment fonctionne le fair-use d’Orange. Ce n’est qu’une histoire de priorisation de traffic. La limitation de débit n’intervient qu’en 3ième phase, après 2 ou 3 fois le fair-use consommé après la dépriorisation.
jinge a écrit :
La VoIP c’est 100kbps => 45Mo/heure… Comme par hasard! Tu utilises skype pendant 1heure, tu ne peux pas dl en même temps! Sinon ça ne laisse plus la place que pour ta conversation à la fin " />
17Kbps pour la VOIP SIP Hifi….avec un bon codec. (30Kbps pour les mauvais)
2729 commentaires
Microsoft dévoile les nouveautés de Windows 8.1 pour l’entreprise
03/06/2013
Le 03/06/2013 à 19h 31
Le 03/06/2013 à 19h 04
Haswell : les Core i5 et i7 4000 sont disponibles, à partir de 177,95 €
01/06/2013
Le 03/06/2013 à 09h 36
Le 03/06/2013 à 08h 03
Le 03/06/2013 à 07h 53
Le 03/06/2013 à 04h 52
Le 02/06/2013 à 19h 09
Le 02/06/2013 à 11h 45
Le 02/06/2013 à 07h 57
[Critique Geek] On peut ne pas aimer les voitures, mais kiffer Fast & Furious 6
01/06/2013
Le 01/06/2013 à 15h 29
Le « capharnaüm » des e-mails : des solutions existent, Gmail réagit enfin
01/06/2013
Le 01/06/2013 à 15h 24
Et vous, pour gérer correctement vos e-mails, quelle est votre solution ? N’hésitez pas à nous en faire part au sein de nos commentaires.
Sous Outlook, il y a les dossiers de recherche. C’est la voie royale pour le traitement efficace des mails….
Windows 8.1 : le retour du bouton Démarrer et du « boot-to-desktop »
30/05/2013
Le 30/05/2013 à 12h 02
Le 30/05/2013 à 10h 12
Le 30/05/2013 à 09h 56
NAS Synology DS1813+ : jusqu’à 18 disques durs et des débits de 350 Mo/s
29/05/2013
Le 30/05/2013 à 09h 34
Le 30/05/2013 à 07h 15
Le 29/05/2013 à 20h 03
Le 29/05/2013 à 14h 38
Le 29/05/2013 à 09h 42
Le 29/05/2013 à 07h 52
Un atom double coeur pour 18 disques? Il ne faut s’en servir que pour du stockage pur….
Microsoft officialise la version 256 Go de la Surface Pro au Japon
29/05/2013
Le 30/05/2013 à 07h 06
Le 29/05/2013 à 20h 23
Le 29/05/2013 à 20h 01
Le 29/05/2013 à 18h 01
Le 29/05/2013 à 15h 05
Le 29/05/2013 à 14h 58
Le 29/05/2013 à 14h 35
Rappelons en effet que le modèle 64 Go n’offre en réalité que 29 Go d’espace libre.
Sortie du carton, oui. Après nettoyage, non…
Le marché des serveurs souffre aussi, Dell surprend et rattrape IBM et HP
28/05/2013
Le 29/05/2013 à 05h 15
Le 28/05/2013 à 20h 48
Le 28/05/2013 à 13h 02
Ben je suis content d’avoir participé à ce petit peu (60K€) de résultat de Dell, vu la qualité du matos & du SAV, meilleur qu’HP je trouve.
GRID 2 : une édition collector à 125 000 £ avec une monoplace en bonus
24/05/2013
Le 25/05/2013 à 09h 50
Licenciée pour avoir surfé sur des sites X, elle obtient réparation
25/05/2013
Le 25/05/2013 à 09h 44
Windows 8.1 continue doucement de se révéler
24/05/2013
Le 24/05/2013 à 15h 45
Le 24/05/2013 à 15h 44
Le 24/05/2013 à 13h 54
Le 24/05/2013 à 13h 49
Le 24/05/2013 à 11h 44
Le 24/05/2013 à 10h 40
[MàJ] Le nouveau Kinect sera disponible pour les PC Windows en 2014
24/05/2013
Le 23/05/2013 à 08h 31
Le 23/05/2013 à 07h 28
Le 23/05/2013 à 02h 59
Ventes de processeurs : Qualcomm et Samsung surpassent AMD
22/05/2013
Le 23/05/2013 à 07h 23
Le 23/05/2013 à 02h 54
Les cadeaux des labos aux médecins seront publics sauf sur les moteurs
22/05/2013
Le 23/05/2013 à 03h 12
Il y a 40 ans naissait la première ébauche du protocole Ethernet
22/05/2013
Le 23/05/2013 à 01h 54
Le 22/05/2013 à 20h 22
Microsoft annonce la XBox One : tout ce qu’il faut savoir
21/05/2013
Le 22/05/2013 à 05h 17
Orange : le « Fair use » 4G à l’heure disparaîtra, quid des autres limitations ?
21/05/2013
Le 21/05/2013 à 09h 41
Galaxy Tab 3 de 10,1 pouces : un joli coup à venir pour Intel sur Android ?
20/05/2013
Le 20/05/2013 à 15h 58
Avec la 4G, Orange impose une nouvelle limitation : le « Fair use » à l’heure
20/05/2013
Le 20/05/2013 à 11h 03