votre avatar Abonné

Citan

est avec nous depuis le 17 mai 2005 ❤️

4446 commentaires

Le 12/09/2013 à 09h 58







Nnexxus a écrit :



A ceux qui disent qu’on peut jouer à plusieurs simultanément si on utilise deux jeux différents : relisez la niouze et la FAQ de Steam !



En l’état quand on prête un jeu, on ne peut PAS jouer à un autre jeu sans kicker celui à qui on a prêté (encore heureux qu’on ait priorité sur le “locataire” !). Donc c’est bien ce que je disais plus haut : je ne peux PAS jouer à TF2 pendant que ma femme joue au Skyrim que je lui ai prêté ! Ce qui serait tout à fait possible avec des jeux “boîte”.



Et à ceux qui disent qu’il suffit de prendre des versions boites : c’est malheureusement de moins en moins vrai ! Pour rester sur mon exemple : Skyrim, même en version boite, est Steamworks. Donc pas moyen d’y jouer sans le lier à un compte steam. Donc impossible d’y jouer à plusieurs, même au sein d’une même famille ! A moins de créer un compte steam “partagé” dans lequel on ne mettrait que Skyrim, mais ça va à l’encontre des conditions d’utilisation de Steam.



Donc en résumé c’est un pas dans la bonne direction, mais il reste un sacré chemin à parcourir avant d’avoir la même souplesse qu’un bon vieux jeu sans DRM.





Bon tu as raison, effectivement c’est bien ça dans la FAQ de Steam (d’ailleurs ça gueule bien sur les forums).

Ma foi, c’est dommage, l’avancée est bien moins considérable que je ne croyais. Le prêt “à l’ancienne” a donc encore quelque temps à vivre. M’enfin ça reste un premier pas dans le bon sens.



Même si du coup, cette limitation-ci j’ai du mal à y deviner une justification technique. En revanche, niveau commercial la raison est toute trouvée, Steam a confiance, mais pas trop non plus… <img data-src=" />


Le 12/09/2013 à 09h 04







Goghvan a écrit :



Le principe est bon, le seul soucis c’est que c’est toute la biblio qui est partagée hélas.



Exemple: un pote veut tester un jeu X, ok je lui prête, mais je veux jouer à un jeu Y, si le jeu Y est sur Steam, je ne pourrais pas y jouer (ou alors je vire le pote de sa partie)



C’est dommage quand même, pourquoi ne pas limité au jeu directement au lieu de faire la biblio <img data-src=" />





Je cite ton commentaire mais c’est l’ensemble des commentaires de ce type auquel je réponds, rien de personnel. <img data-src=" />

À tous qui disent “pourquoi la bibliothèque complète, du coup ça sert à rien”, je répondrai simplement :





  1. Ce système présente deux avantages énormes au système “loucedé” :




  • sécurité de son propre compte ;

  • possibilité pour l’emprunteur de profiter pleinement du côté “personnel” de Steam (téléchargement et updates, sauvegardes en cloud, achèvements, amis, workshop, etc…).






  1. Pourquoi crier au loup dès aujourd’hui ? Ne pouvez-vous imaginer que cette contrainte de “toute la biblio” résulte simplement de difficultés techniques, que l’équipe de Valve préfère résoudre plus tard pour que les joueurs profitent du prêt au plus tôt ?

    Essayez seulement d’imaginer, concrètement, ce que ça suppose comme opérations de gestion/vérifications de faire un système aussi fin…

    Sachant que ce type de problématique n’a sans doute jamais été inclus dans la conception originelle du profil utilisateur de Steam. Ce qui implique de toucher au coeur de Steam, sans casser la prod.



    Je veux dire, quand on voit l’historique de Valve, on constate qu’ils essayent d’équilibrer au mieux leur intérêt propre, celui des joueurs et celui des éditeurs.

    À mon avis donc, Valve a bien compris que nous voulons mieux contrôler le prêt, et ils en feront leur cheval de bataille pour une v2 du système de prêt, une fois qu’ils auront stabilisé et étudié les retours du système actuel.



    TL;DR; Venez pas demander l’omelette entière alors que la poule s’est enfin motivée à pondre le premier oeuf, ou vous casserez sa dynamique, pour au final mourir de faim. <img data-src=" />

    EDIT : Bande de Français râleurs (lapalissade) ! <img data-src=" /><img data-src=" />


Le 12/09/2013 à 08h 10







Spacewolf1 a écrit :



Sauf qu’ici c’est Steam qui copie Microsoft !!!

Y a 3 mois MS avait proposé quoi pour la One ???

Ah oui, partage de TOUS ses jeux (ici les jeux nécessitant une clé/compte tierce ne fonctionnent pas –&gt; tous les jeux Uplay & Co dehors) et on pouvait en profiter simultanément à 2.



Bref, quand c’est MS on gueule et on crie au scandale. Quand c’est Steam avec une système bien plus restrictif on crie au génie…







  1. Je suis sincèrement pas sûr que ce ne soit pas dans les cartons de Steam depuis un bon moment, et que MS en ait eu vent lorsque Steam allait contacter les différents éditeurs pour prendre la température.



  2. Tout le monde était bien content du système proposé par MS. Ce sur quoi les gens ont gueulé, c’était toute la merde d’à côté, connexion obligatoire permanente en tête. Si MS avait gardé juste ce concept de partage, tout le monde aurait applaudi des deux mains. Mais voilà, n’est pas Steam qui veut.



  3. Au delà de ça, en dépit des CGV de Steam aussi gerbantes que toutes les autres sur certains points, dans les faits Steam a toujours été réglo et à l’écoute de sa communauté, tout en proposant un soft solide. MS quant à lui se traîne un lourd passif de non-fiabilité logicielle et de pratiques commerciales sordides, notamment sur le respect de la vie privée. Ce qui participe aussi à la différence de réaction.





    Ghostounet43 a écrit :



    Je vois ça surtout pour les jeux en solo, un type achète le jeu en question, le finis, et le prête ensuite a chacun de ses amis qui se le font passer une fois le jeux finis.

    Ça risque pas de couper des ventes pour steam ?





    Cf mon com précédent. Pour certains jeux oui ça pourrait casser les ventes. Mais imagine rien que les RPG, genre un Skyrim, Deus Ex, Witcher, ou des jeux de gestion/stratégie (Civ5, Diplomacy, GalCiv, Europa Universalis) auxquels tu vas jouer des dizaines (centaines) d’heures… Quand bien même un de tes potes essayerait d’y jouer dès que t’y joues pas, il va arriver trop souvent que tu le coupes pour qu’il ne l’achète pas à terme…


Le 12/09/2013 à 08h 00

Excellent ! <img data-src=" /><img data-src=" />

Aucune des contraintes indiquées (limite de 10 machines, mec éjecté) ne me paraît déraisonnable. Au contraire, je pense qu’ils ont poussé au maximum les limites acceptables pour les éditeurs.

De toute manière sans ces limitations, cette fonctionnalité n’aurait jamais vu le jour il ne faut pas se leurrer.

C’est vraiment top, je vais enfin pouvoir “officiellement” prêter ma bibliothèque Steam.<img data-src=" />

En plus, comme déjà dit dans une précédente discussion sur le sujet, cela va générer une chance de vente bien supérieure qu’auparavant au final. Au delà du fait que ça peut économiser le budget d’une démo pour l’éditeur (la viralité va prendre le relais), on peut imaginer plusieurs hypothèses :




  • le Propriétaire vient d’acheter un jeu solo : il y joue quelques heures, le trouve super, le prête à un autre pote pour qu’il le teste. Sauf à avoir déjà terminé entre-temps, le proprio va forcément éjecter son pote après plusieurs heures pour finir son jeu. &gt;&gt;&gt; Frustration du pote (s’il a aimé) &gt;&gt;&gt; Motivation d’achat multipliée.

  • le proprio vient d’acheter un jeu multi : dans ces cas là, il est évident que le prêt jouera le rôle d’une démo, le proprio récupérant la main régulièrement &gt;&gt; Idem qu’au dessus.



    Même pour les anciens jeux, si leur principal intérêt est multi il y a de bonnes chances que le prêt ne change rien. Par ailleurs, étant vieux, il est probable qu’ils soient trouvables à bas prix.



    Au final, les seuls jeux qui àma pourraient être impactés négativement par cette fonctionnalité sont des jeux récents, uniquement solo, à très faible durée de vie.

    Ou plus généralement les jeux de qualité moyenne… <img data-src=" />



    Une fois de plus, Steam avance dans la bonne direction. GG Steam (s’ils voulaient bien ensuite revoir leurs CGV qui restent scandaleuses sur certains points, ce serait byzance<img data-src=" />).




    Erwane a écrit :

    En fait t’as compris de traviolle :) C’est justement pour pas donner ses accès à un ami qu’ils ont mis ça en place et c’est justement pour qu’un ami puisse jouir d’un jeu de ta bibliothèque et que tu puisse toi aussi utiliser ton propre compte steam pour jouer à ce que tu veux (sauf le jeu prêté).
    En gros ça fait tout ce que tu veux, sauf qu’il faut un compte steam par personne.




    Exactement. Et je trouve ça bien mieux pour tout le monde (pas de risque qu’un mec en qui t’avais confiance achètes avec tes crédits, te pourrisse ta liste d’amis ou te fasse bannir pour x raison).

    Même ce que je faisais actuellement, à savoir leur prêter le répertoire en mode offline, me plaisait pas trop (au final le risque est identique vu que le mdp est enregistré). Pour ça d’ailleurs que je l’ai prêté qu’à une personne. <img data-src=" />

Le 12/09/2013 à 09h 53







OlivierJ a écrit :



Vous êtes marrants, comme si la concurrence n’existait pas et n’était pas féroce entre les différents fabricants (je demande à voir s’ils font tant de bénéfices que ça après des dégâts importants, les chiffres sont disponibles), et surtout comme si l’offre et la demande ne conditionnaient pas les prix ; Ce n’est pas difficile de comprendre que si l’offre de RAM ou de disques diminue, vu que la demande ne cesse d’augmenter, les prix augmentent.

C’est d’ailleurs indiqué dans l’article : « Des analystes ont d’ailleurs estimé que pour chaque pourcent de production perdu par Hynix, les tarifs allaient augmenter de deux pourcents ».





C’est toi qui est marrant.

Certes la situation est différente car ce marché n’est pas en situation d’oligopole comme celui des disques durs. En revanche les fabricants de mémoire vive ont déjà été condamnés par le passé pour entente. Ce qui implique qu’ils auraient un bon motif de se mettre d’accord maintenant pour augmenter gravement les tarifs tous ensemble en mettant ça sur le compte de l’incendie…<img data-src=" />



EDIT : Sachant d’ailleurs que, hors incendie, les prix ont déjà recommencé à augmenter fortement de manière homogène chez tous les constructeurs, sans raison particulière, depuis 6 mois, après plus d’un an de plat tarifaire. Alors la bonne foi des constructeurs et la saine concurrence, permets-moi d’en douter…<img data-src=" />


Le 11/09/2013 à 08h 33







Tkzkzar a écrit :



C’est une bonne excuse pour augmenter les prix et les maintenir indéfiniment. Pour les disques durs, on s’est “habitué” à payer cher son To alors pourquoi redescendre au prix initial ?





Clair.

Sauf qu’à mon avis, nombreux sont les clients de matos informatique qui se sont fait déniaiser avec l’épisode des disques durs. Et attendront du coup tranquillement que le foutage de gueule crève dans l’oeuf.



Reste (malheureusement pour eux) tous ceux qui n’auront pas d’autre choix que de payer (remplacer une barrette qui a cramé, nouveaux équipements perso ou pro), et qui représentent peut-être un marché suffisant pour soutenir la politique des constructeurs.<img data-src=" />



Bref, serrons les fesses pendant un an…


Le 11/09/2013 à 08h 25







atomusk a écrit :



Allez encore une fois, c’est fini, on arrete de parler des perfs d’Android/Windows Phone sur cette news <img data-src=" />





Ahem, désolé Atomusk, j’ai réagi à un com’ de 10 pages plus tôt avant de voir celui-ci. :<img data-src=" />



Promis je laisse courir maintenant. <img data-src=" />


Le 10/09/2013 à 15h 44







Drepanocytose a écrit :



Bah oui nous on a du vrai matos, faut bien qu’il serve



Tu parles. C’est surtout que les consoleux se font plumer, pas le choix



Les consoleux se font plaisir à chaque fois qu’une console est pucée, t’inquiètes.





Je présentais le PCiste du point de vue de l’industriel hein, pas du mien… <img data-src=" />



EDIT : S’ils me prenaient comme référence ils seraient mal barrés, PayDay2 mis à part, ça fait des mois (des années ?) que j’ai pas payé un jeu plein pot le jour J. Mon prix moyen d’achat se situe sous la barre des 10 euros (voire des 5)… <img data-src=" />


Le 10/09/2013 à 15h 30







Spidard a écrit :



Pour cette série connue et a succès, ya pas de quoi les plaindre.

A 60€ pièce, il leur faudra 3.3M de copie pour être rentables. Au vu des ventes de GTA IV (25M de copies fin 2012), je ne m’en fait pas pour eux :)





Sauf que 60 euros pièce c’est le prix payé par le client en boutique, qui comprend TVA + marge revendeur a minima (j’oublie certainement des tas d’intermédiaires).



À la (très très grosse et pessimiste) louche, on pourrait tabler sur un revenu par pièce de 25 euros. Ce qui reste pas trop dur à couvrir (&lt;10 millions de copies)…



Quant au fait qu’il ne sorte pas sur PC, je le regrette autant que beaucoup d’autres, mais faut les comprendre. 1) On est exigeants 2) On est radins 3) On peut pirater si l’offre n’est pas assez attractive.



Un moment donné, faut plus s’étonner d’être la dernière roue du carrosse… <img data-src=" />


Le 04/09/2013 à 16h 01

Bon, petits rappels pour ceux qui se victimisent :




  1. Les limites de vitesse sont placées pour assurer le meilleur équilibre entre flux d’automobiles et sécurité des conducteurs.

    &gt;&gt;&gt; Quand on roule à &gt;20km/h par rapport à la limite de vitesse, d’une on constitue un comportement inhabituel pour les autres donc potentiellement dangereux (encore que, puisqu’on doit rester attentifs en permanence, normalement l’autre t’a reperé depuis un moment et adapte en fonction).

    Mais, plus important à mes yeux, on perturbe le flux optimal des voitures, autrement dit on aggrave le risque de créer un bouchon.



  2. Quand quelqu’un roule à une vitesse inférieure d’au moins 20km/h à la limite autorisée, sans qu’il y ait un quelconque problème de météo/route/monde pour le justifier, ça me gave autant que tout le monde. On est d’accord que c’est aussi un problème (spécialement sur les entrées d’autoroute).



  3. Il peut être tout à fait légitime de rester sur la voie du milieu pendant un moment : soit pour doubler une file de véhicules lents, soit tout simplement parce que c’est le meilleur moyen de conserver à la fois fluidité du trafic et distances de sécurité.

    En revanche, je ne suis pas sûr de moi mais il me semble qu’effectivement la voie de gauche ne doit jamais être squattée en permanence. À vérifier pour les connaisseurs (malheureusement pas le temps là je dois filer).



  4. Quand quelqu’un roule à 130 sur la voie de gauche parce qu’il est en train de doubler, vous n’avez aucune raison de le lui reprocher. Sauf cas extrême où sa vitesse différentielle avec la voiture qu’il double est &lt;5km/h (auquel cas il est lui-même en contravention avec le Code de la route).



  5. Je ne vais personnellement jamais m’exciter contre quelqu’un qui fait une pointe à 140 voire 150 pour me dépasser, parce qu’à 130 compteur, je fais 129 quand il fait 130 et ça le soûle (c’est illégal mais compréhensible, ça me va).

    Ceux qui tracent en permanence à 140, ça m’agace mais je tolère.

    Au-dessus, les mecs ne servent à rien, mis à part assouvir leur plaisir personnel au détriment des autres (cf point 1), surtout lorsque, bien trop souvent, ils freinent en brute avant les radars, parce ce sont des minables qui n’assument pas leur illégalité.



    Merci de votre attention. <img data-src=" />

Le 04/09/2013 à 10h 05







Drepanocytose a écrit :



AMHA ca c’est une hypothèse, et elle n’est pas forcement juste….

Ce sont surtout des gens qui aiment la vitesse et qui ont l’habitude de rouler comme ca… Pressés ou pas.





Tu noteras que j’ai bien précisé que c’était une hypothèse que je faisais, nous sommes d’accord il faudrait des études ou des stats pour les identifier (et les virer à coup de pied au cul <img data-src=" />).


Le 04/09/2013 à 09h 19







TontonLud a écrit :



difficilement faisable car sur 50 kilomètres on trouve toujours une aire de repos, une sortie d’autoroute, etc.





Critique tout à fait pertinente. Je pense que sa portée en est limitée néanmoins.

Ceux qu’on veut virer des routes, ce sont avant tout les connards (et je pèse mes mots) qui croient avoir de bonnes raisons pour foncer à &gt;150 sur les routes.



Dans la mesure où ce sont généralement des gens pressés, tu peux faire l’hypothèse que ces personnes ne s’arrêteront pas à une aire de repos ou ne prendront pas une sortie d’autoroute exprès pour faire baisser leur moyenne.<img data-src=" />


Le 04/09/2013 à 09h 14







Meallia a écrit :



je pense que le but des ces radars est de ne pas limite la zone à “5 minutes”.

C’est le soucis des radars classiques, tu ralenti sur 1 pauvre km et hop, tout blanc.



J’imagine le déploiement de ces trucs sur des tronçons d’au moins une 50aine de km.





Bien justement, dans une précédente news il parlaient d’écart entre le début et la fin de la zone de surveillance de quelques kilomètres.



Comme toi, je trouverais ça nettement plus efficace et plus équitable de mettre un écart de plusieurs dizaines de kilomètres, pour éviter de pénaliser les légers écarts de vitesse que peut commettre un conducteur normalement respectueux et diligent (genre ne pas freiner dans une descente pour ne pas gaspiller d’énergie, ou simplement dépassement de 5km/h pendant quelques secondes parce qu’on est concentré sur autre chose, que sais-je encore…).



Parce que dépasser la limite d’environ 5 Km/h sur 3km, ça peut arriver souvent pour de bonnes raisons. Sur 50km pleins, il y a clairement eu des pointes de vitesse déraisonnables ou une vitesse constante dépassant la limite.



EDIT : En tout cas, personnellement je trouve que ce serait le seul système de contrôle véritablement juste et donc acceptable par tous, tout en restant efficace.

Cela étant, je suis tout à fait d’accord avec les remarques des autres INpactiens sur le risque de transmission généralisée d’infos privées (entre le texte et les faits il y a parfois un monde), et les manques de l’implémentation technique actuelle.


Le 04/09/2013 à 12h 34







xianghua a écrit :



J’en ai pas l’utilité <img data-src=" />

Je fais mes procédures sur GLPI





T’inquiètes je m’en doute. C’est juste que la formulation pouvait se lire dans un sens marrant, du coup j’ai relevé pour le plaisir. <img data-src=" />


Le 03/09/2013 à 08h 41







xianghua a écrit :



Les gens s’en foutent bien de Word et Excel… excepté pour faire leur CV quand ils souhaitent changer/trouver de/un boulot.



Perso, bien que travaillant sur un PC, je ne l’utilise absolument jamais





J’ai rarement vu quelqu’un avouer avec autant de sérénité que c’est un gros branleur.<img data-src=" /> Bravo pour t’assumer à ce point ! <img data-src=" />



(Puisqu’il faut bien parler de la news, je dirais que ça n’a rien étonnant, les raisons de cette contraction ont été mille fois posées par les INpactiens dans les précédentes news du thème : meilleure longévité des pc, taux d’équipement global dans les pays proche de saturation, déplacement de l’attraction vers l’ultra-mobilité avec tablettes/smartphones, etc…).


Le 04/09/2013 à 12h 33







Zekk a écrit :



Pout tous les râleurs sur la connexion obligatoire (et c’est votre bon droit <img data-src=" />), je voulais juste savoir; sur D2, vous jouiez tous en solo?

Parce que pour moi, toutes mes connaissances qui jouaient à D2, on était tous en battlenet fermé, j’ai toujours trouvé que par essence le HnS est un jeu multijoueurs





Question pertinente ma foi. <img data-src=" />

Pour ma part, j’ai joué la grande majorité du temps en mode multijoueur online. À priori je ne devrais pas avoir de motif de chouiner… <img data-src=" /> Sauf que…




  1. Il m’est arrivé assez souvent de vouloir jouer ailleurs que chez moi, sans avoir de connexion internet (train/avion/hotel cheap ou en wifi limité/maison en cambrousse).

    Et là, j’étais baisé.

  2. Pouvoir jouer en mode LAN, ça peut aussi servir à bypasser ta liste d’amis officielle Blizzard, ce qui couvre un certain nombre de cas d’usages (même en mode distant).

  3. Ça aurait permis d’éviter cette p* de qualité réseau pourrave (bon j’exagère, ça fait 8 mois que je ne joue plus, ça doit aller maintenant) qui te faisait lagguer/planter à certaines heures.



    Pour ces raisons, et au-delà des choix de gameplay (que je respecte même si j’apprécie moyennement à titre perso), j’ai préféré Torchlight 2, qui lui ne m’a jamais fait faux bond. <img data-src=" />


Le 04/09/2013 à 09h 03

Blizzard : “Diablo 3 étant par essence un jeu multijoueur en ligne et conçu comme tel, il est impossible de fournir la possibilité de jouer en local…”

1 an plus tard… #OhWait! <img data-src=" /><img data-src=" />



On savait tous que c’était une pauvre excuse bidon pour masquer une implémentation pourrave (majorité de calculs sur serveur distant) uniquement destinée à (essayer de) “protéger” les hôtels des ventes en monnaie ingame et argent réel.



Mais là au moins c’est bien affiché, clairement.

Qu’ils ne viennent pas maintenant nous dire qu’il serait impossible, même aujourd’hui, de faire pareil sur PC. Il suffirait de faire comme à l’époque de Diablo 2, étanchéité totale entre des persos créés sur serveur officiel et des persos “locaux”.



‘Fin Bref… J’ai encouragé le modèle une fois sous pression des potes, on ne m’y reprendra plus.



EDIT : Ou peut-être ai-je mal compris la portée de la liberté offerte au joueur console (ce qui ne m’empêche pas de maintenir ma gueulante sur le multi par ailleurs). Est-il possible de jouer en mode offline ? Ou faut-il tout de même quoi qu’il arrive maintenir une connexion internet, que ce soit en solo, multi local ou multi online (<img data-src=" />) ?

EDIT2 : Bon bah déjà répondu par Ellierys. Ce qui prouve bien qu’ils ont réussi à déporter l’intégralité du jeu sur le client local. Donc je persiste et signe en appuyant bien fort. <img data-src=" /><img data-src=" />

Le 04/09/2013 à 08h 52







Btbw a écrit :



pcinpact tj plus loin dans la désinformation et le fanboyisme free … et vas y que je te mélange client prépayé et client forfait (c’est sur c’est le même ARPU), pas de différence pour free, c’est sur que si c’est 2 millions de forfait à 0€ on doit les compter de la même façon que les autres, etc etc …. enfin on est habitué ici ;)





Il est vrai que c’est un expert du fanboyisme et de la désinformation qui parle ici. Que signifie ton pseudo ? Bougues Telecom Benefitting Whiners? <img data-src=" />



Par ailleurs, les forfaits à 2 euros sont autant (plus ?) susceptibles de rapporter paradoxalement que les tout illimités donc bon… <img data-src=" />



Cela étant dit je rejoins les autres commentaires, la diffusion du bilan globale c’est sympa, mais il serait nettement plus intéressant de connaître le détail de l’ARPU. <img data-src=" />


Le 03/09/2013 à 17h 21

Bah, au hasard, le fait qu’il n’y ait que les MAJ système ?



Que la plupart desdites MAJ imposaient à l’époque quasiment chacune un redémarrage système (nette amélioration avec XP, désormais rare avec 7) ?



Que Windows te prenait par surprise en te mettant un popup de merde “il faut redémarrer, maintenant ou dans 5mn” avec option “si tu réponds pas je redémarre”, à l’antithèse d’un comportement intelligent (au hasard, t’as un traitement quelconque en cours) ?



Que Windows te prenait (et te prend encore) AUSSI par surprise en installant des MAJ alors que tu as demandé l’extinction du système, ce qui te contraint à attendre comme un con qu’il veuille bien terminer (génial quand t’as pas le temps ou quand tu veux économiser de la batterie) ?



Que Windows te prenait (et te prend encore) ENCORE par surprise en installant au démarrage du système, comportement éminemment pratique quand tu as besoin de démarrer rapidement pour choper/montrer une information ?



Que, dans tous ces cas de figure, Windows ne prend même pas la peine de te prévenir AVANT ?



Qu’il était impossible (ça l’est d’ailleurs toujours) d’interrompre ou de mettre en pause les MAJ ?



Que Windows ne fournissait (et ne fournit toujours pas) la moindre indication du temps nécessaire à l’accomplissement de sa besogne ?



Bref, quel que soit le bout par lequel tu le prends, ça a toujours été un calvaire. Il y a eu quelques améliorations depuis, mais on est encore TRÈÈÈÈS loin de la simplicité et de l’efficacité qu’offre Linux depuis de nombreuses années.<img data-src=" />



EDIT : D’ailleurs je te remercie de m’avoir posé la question. <img data-src=" /> Cela m’a permis de formaliser une des grosses frustrations (parmi d’autres) de mon expérience avec Windows. Et je soupçonne que d’autres INpactiens compatiront avec moi (j’ai au moins un collègue derrière moi qui approuve pleinement ^^).

Le 03/09/2013 à 12h 35







Bejarid a écrit :



Ce que je reproche le plus à smnr, c’est d’appeller ça des points techniques. Ce n’en sont pour la plupart pas.





Effectivement, tu as raison. Pour ma part je n’ai pas d’avis sur la plupart des points détaillés, si ce n’est sur la stabilité du système. Plus sur les fonctionnalités offertes à l’utilisateur. Et je me focalise sur le système grand public donc la sécurité “par défaut”, pas un système en entreprise où comme tu le soulignes la sécurité dépend à 80% de ce qu’en fait l’admin.



C’est pour cette raison qu’un retour sur ces points m’intéressait, ne connaissant pas. <img data-src=" />

Il n’y a que ton affirmation sur la sécurité de Windows qui serait intrinsèquement supérieure à Linux (ton point sur l’API et la politique de MAJ) que j’avoue ne pas croire, du moins pas sans étude sourcée. Ou alors c’était un système différent du grand public. Parce que les MAJ Windows, jusqu’à Windows 7, je n’ai absolument jamais vu plus pourri.





Bejarid a écrit :



La boué de sauvetage existe toujours, c’est le startscreen. Après son utilisation est peu intuitive, donc ça a perdu des gens (qui ont préférer crier que c’était pas possible plutot que de cherche comment : mes parents savent très bien se “sauver” sur leur tablette Win8, mais c’est vrai que j’ai du leur montrer comment).



Avec 8.1 c’est amélioré et devenu plus intuitif, maintenant, Microsoft a décidé qu’ils ne pouvaient attendre un an de plus pour sortir Win8, bon, c’est un choix. Qui a couter cher en terme d’image :p





Voilà. Choix que je regrette en tant que potentiel client, car avec la politique consistant à direct proposer 100% des nouveaux ordis sous le nouvel OS, j’ai du précipiter mon achat (même pas tant par peur de la nouvelle interface, mais plutôt pour la peur de payer les pots cassés niveau drivers, et le refus de tout l’enfermement qu’il y a désormais avec l’UEFI). Mais qu’ils ont probablement fait en connaissance de cause. <img data-src=" />


Le 03/09/2013 à 09h 56







Bejarid a écrit :



Sauf que MS a justement décider d’abandonner le menu démarrer car personne ne l’utilisait d’après sa collecte anonymisée (genre ils avaient que 7% d’utilisateurs qui l’utilisait plus d’une fois par semaine ou un truc du genre).



Hors maintenant, sous pression populaire (ou pas, car comme d’hab majorité silencieuse vs minorité bruyante) ils le remettent (ou du moins s’en rapproche).





Je me permets de déterrer un “vieux” com car ce point est intéressant, c’est un bel exemple de mauvaise conclusion à partir de bonnes statistiques.



Le menu démarrer, ou plutôt, le gros bouton en bas à gauche, est depuis vingt ans, pour tous les utilisateurs de système Windows, le point de repère, la bouée de sauvetage pour qui ne sait pas (plus) comment accéder à une application, un réglage, un document…

Le supprimer brutalement est un choix comme un autre, qui se défend. S’étonner en revanche que ça perde les utilisateurs relève de la bêtise crasse.



À plus forte raison quand la politique d’UI depuis les premiers Windows a consisté à enfermer au maximum l’utilisateur lambda (mis à part les raccourcis bureau et le fond d’écran, on peut rien changer) ce qui les incite au maximum à fixer strictement leurs usages au lieu de tester, bidouiller, personnaliser (et donc comprendre suffisamment les concepts sous-jacents de toute UI pour ne plus être totalement paumés quand on change ne serait-ce qu’un peu).



Ça revient à organiser une régate sur plusieurs jours par temps de pluie, en interdisant la boussole (ou autre équipement de navigation), et s’étonner ensuite que tous les bateaux se perdent en mer…<img data-src=" /><img data-src=" />


Le 03/09/2013 à 09h 26







smnr a écrit :



Pour des questions techniques :





  • distribution en environnement hétérogène rendue improductive,

  • absence/abandon de POSIX,

  • absence d’une véritable console/mode console,

  • absence de scripting ou plutôt scripting contraignant,

  • pas de chroot ou jails,

  • coût des licences,

  • absence de preuves du système ou passer à la caisse pour en prouver (soi-même) une partie (<img data-src=" />),

  • fiabilité, sûreté et sécurité qui trouent les poches, donc,

  • système et politique de màj,

  • absence de système d’installation des programmes,

  • api win32 (<img data-src=" />),

  • la base de registre (<img data-src=" /> <img data-src=" />),

  • orientation vers les vm et abandon progressif du natif,

  • technologies invasives,

  • … liste non exhaustive







    Pour des questions de philosophie



  • système non libre (cela peut devenir technique si MS venait à sombrer),

  • politiques trop agressives,

  • architecture hybrid kernel bâtarde (valable pour OSX également)







    Pour W8, j’ai des licences donc je l’ai mis pour tester un peu à la casa : j’aime bien l’interface pour lire les mail, actus et surfer, mais ça ne remplacera jamais mon mac <img data-src=" />









    Bejarid a écrit :



    Si je ne peux que rejoindre smnr sur les raisons philosophiques (on ne se penche pas assez dessus je pense), les raisons techniques sont, elles, fausses.



    C’est un tel ramassie de conneries que je ne prendrais pas la peine de le contredire, il a l’air tellement sur de lui… Parce que bon, suffit de tester ce qu’il raconte pour voir qu’il a tort hein, pas besoin d’être un expert en W8. Je sais pas comment il a testé le système chez lui, peut-être qu’il n’a testé que la preview dev d’il y a 2 ans, mais ça n’a rien à voir avec W8 RTM.





    Personnellement j’apprécierais un contre-argumentaire.

    D’autant que tu le traites de troll, mais au vu de ses différents commentaires, j’en ai compris qu’il n’a pas testé W8 de manière extensive, et que ses arguments techniques faisaient donc référence aux anciens Windows.



    Et dans ce cadre là (anciens Windows), les points dont je peux juger en vertu de ma propre expérience utilisateur (système de maj, base de registre, fiabilité, coût et limitation des licences pour ne citer que ça, je pourrais rajouter d’autres arguments), je les trouve pertinents. La réputation de merde de MS ne vient pas de nulle part hein. <img data-src=" />



    Après je comprends que tu réagisses pour assurer le distinguo entre la période historique de MS et la période récente (78) qui a vu de très nets progrès à tous les niveaux sur les Windows et prouve que MS a enfin pour objectif de proposer un OS de qualité. <img data-src=" />


Le 03/09/2013 à 17h 08







zefling a écrit :



<img data-src=" /> J’ai diverses activités web et un serveur web. La recherche d’infos m’amène à avoir plein de sites ouverts sur des contenus qui me sont nécessaire sur une courte période de temps.

Quand je fais de l’admin serveur le nombre d’onglets arrive souvent à doubler (ouais, j’y connais rien donc tuto et doc). En fait, le rangement en arbre des onglets est assez pratique pour ça et j’ai vite fait d’en ouvrir beaucoup. C’est d’ailleurs pour ça que sans les groupes : divers, dév, admin, etc. Ça serait assez vite de bordel.





Pareil pour moi, divers sujets à traiter en parallèle (dev web / droit / veille techno) sur lesquels je dois bien souvent chercher des infos, sans pouvoir cibler une poignée de sites de références. Sans compter les différents onglets utilisés juste pour débugguer/dev un site. Résultat, souvent dans les 150 onglets en pointe, dans les 40 en moyenne continue. <img data-src=" />



Le pire que j’aie fait de toute ma vie étant 999 pile poil, dont une bonne centaine vers des films de vacances en attente de rapatriement, une autre d’articles sur des sujets qui m’intéressent que je lisais petit à petit, plusieurs centaines de pages pour mes études sur l’environnement (domaine vaste où je connaissais rien), une petite cinquantaine d’offres d’emploi auxquelles répondre, quelques dizaines de news, et le solde dédié exclusivement aux sports se pratiquant à deux, ou plus si affinités…<img data-src=" /> (oui, j’avoue, en ce temps, j’abusais grave <img data-src=" />).



Notons tout de même que l’ensemble tenait bon sous un Firefox x, sur un Windows avec 8 Go (évidemment tous les onglets n’étaient pas en RAM). Ce qui pour un Windows est une performance plus qu’honorable (jamais eu de crash sous Linux).<img data-src=" />



C’était d’ailleurs évidemment pour le seul plaisir de l’exploit technique que je gardais tout, et non pas par flemme nonnon…<img data-src=" />



EDIT : Actuellement près de 2Go pour une soixantaine d’onglets actifs. À la décharge de Firefox, je n’ai que quelques extensions, mais toutes assez lourdes. Dont l’indispensable Tree Style Tabs.


Le 03/09/2013 à 13h 03







Drepanocytose a écrit :



+1. La pensée algébrique, en fait, plus généralement…



On peut l’inculquer sans l’appeler “algèbre”, mais c’est effectivement de ca qu’il s’agit.

Poser les données d’un problème, les rationaliser, raisonner sur l’inconnu, decoreller du réel immédiat pour mieux y replonger.



Et c’est d’ailleurs là, quand on rentre en mode de pensée algébrique, qu’une calculatrice ne sert plus à rien du tout.





Sauf que la capacité à abstraire et à raisonner n’est absolument pas réservée aux matières “scientifiques”. Les matières littéraires te demandent elles aussi de savoir prendre du recul par rapport à un “énoncé”, projeter et confronter des idées, pour construire une démonstration.



Pour ma part, j’ai trouvé au contraire l’enseignement des maths et de la physique très abêtissants au collège et lycée. Précisément parce que ce qu’on attendait de nous, c’était de considérer des principes comme acquis (même si on les capte pas) pour recracher des démonstrations basées dessus. Mais quasiment aucun de mes profs n’a jamais cherché à vérifier si nous avions compris l’essence du concept (seule ma prof de physique/chimie de terminale a vraiment cherché à nous enseigner les concepts, du coup c’était vraiment intéressant, et là ce sont mes carences personnelles qui m’ont limité).

Mon frère m’a dit que c’était heureusement différent dans les classes supérieures, mais perso du coup j’ai pas cherché plus loin.

Je le regrette aujourd’hui, car je vois au quotidien plein de situations où je sens que des connaissances en maths et/ou physique m’aideraient à avoir une idée plus précise de la situation ou du problème. Des trucs aussi cons que comparer des prix à la volée (surtout quand t’as pas le prix au kilo <img data-src=" />) au supermarché, comparer des contrats d’assurance/crédit, calculer des proportions pour la fabrication ou le choix d’un meuble (déménagement inside), etc…



Dans les faits, j’y arrive car ce n’est qu’une suite d’opérations simples, mais bien moins vite que beaucoup d’autres car ce ne sont pas des calculs naturels pour moi…



En biologie en revanche l’enseignement passait toujours par une expérimentation, et la recherche personnelle pour comprendre ce qui se passait. J’ai trouvé ça beaucoup plus intéressant.



Après, les affinités intrinsèques de chacun avec telle ou telle matière et son environnement (parents, profs) jouent aussi beaucoup.







Tirr Mohma a écrit :



Non, je n’exagère pas du tout. Ils sont venus me voir avec un exo de physique (lumière) avec une droite, l’équation de la droite forme y=l/k+m. Les données étaient l et m plus la courbe et il fallait trouver k. Sur les 12 qui sont venus me voir pas un seul n’a su comment faire.





Bah tiens, en voici un treizième devant tes yeux ébahis. <img data-src=" />


Le 03/09/2013 à 12h 48







metaphore54 a écrit :



Oui sur le coup, l’argument bidon. Heureusement que c’est sur PCI je n’imagine pas sur une chaine de grande écoute, intérêt de revoir la communication sur ce point.





C’est ce qui détermine la différence entre une adjoint au maire et une députée (quoique ce n’est pas toujours vrai…<img data-src=" />).


Le 03/09/2013 à 10h 07







EMegamanu a écrit :



Seconde moitié des années 90 désolé. ^^;

Par contre on avait des machines très archaïques avec lecteurs de cassettes qui trainaient dans les salles de classe. J’imagine que c’est ce dont tu me parles.



Au lycée on avait des PC plutôt récents, mais des logiciels tout aussi vieux et surtout pas très stables. Ce qui est drôle, un des logiciels du labo de SVT demandait à ce que l’établissement repaye la licence après un plantage. (Mais avec un pote on avait trouvé une solution, ce qui nous a fait passé pour des dieux auprès de la prof de SVT ^^;)



‘fin bref, on est d’accord sur le papier c’est une bonne idée. Reste à voir la qualité de ce qui sera acheté et comment les familles traiteront le matériel.





Personnellement je pense qu’en l’état actuel des choses, et au vu des initiatives précédentes, il serait plus sage de s’équiper en ordinateurs qui restent à demeure à l’école. Même si cela expose à d’autres problèmes historiques, le premier étant l’enfilade des écoles par des constructeurs flairant le filon, cf quelques commentaires au-dessus…



Je crois que le vrai fond du problème finalement, c’est qu’on manque juste de décideurs compétents à tous les niveaux… <img data-src=" /><img data-src=" />


Le 03/09/2013 à 10h 06







Elwyns a écrit :



Déjà en primaire pas souvenir d’utiliser une calculette autre qu’un truc basique à 5€ et ce à partir du CM1 et encore limite CM2 voire 6eme ( bon ça remonte à loin , mais vraiment pas souvenir d’utiliser la calculette en primaire )





Hey Elwyns, t’as réédité ton com’ pour supprimer tes infos sur les initiatives.<img data-src=" />

Tu parlais de tableau interactif, ça m’intéresse… C’est quoi, l’équivalent d’un tableau noir mais en mode tactile + stylet pour le prof ??



SInon, le coup de l’initiative des portables donnés aux élèves qui sont revendus sur eBay, ça craint un max, vraiment, ils mériteraient une bonne beigne ces mômes sérieusement quoi on bat des records en termes de foutage de gueule ! <img data-src=" />


Le 03/09/2013 à 10h 01







Elwyns a écrit :



Déjà en primaire pas souvenir d’utiliser une calculette autre qu’un truc basique à 5€ et ce à partir du CM1 et encore limite CM2 voire 6eme ( bon ça remonte à loin , mais vraiment pas souvenir d’utiliser la calculette en primaire )





Anéfé, d’autant moins en fait que l’un des objectifs du primaire est d’apprendre aux enfants à être confortables avec le calcul mental, y compris pour les multiplications et (horreur) les divisions.

Enfin, les exercices de calcul mental, c’était vrai à notre époque<img data-src=" /> ça ne fait peut-être plus partie de la méthodo aujourd’hui (ils ont bien viré la dictée, me semble-t-il, ce qui est déjà une énorme connerie…).


Le 03/09/2013 à 09h 51

J’ai beau aimer l’idée sur le principe qu’à terme on intègre les tablettes dans le système éducatif, son argumentaire présent ne me convainct pas…




  1. Sauf qu’ont été intégrés de façon abusive tout matériel informatique ou numérique franchissant les murs de l’école, sans faire de différence entre l’objectif et la destination même de l’outil. Belle phrase façon langue de bois pour poser un postulat fondateur. Sauf que je comprends même pas ce qu’elle a voulu dire.



  2. Remplacer la calculette par une tablette.




  • une calculette pour le primaire, aux dernières nouvelles c’était 20 euros max, pas 100.

  • une tablette qui va pas ruiner les yeux et un minimum durable, c’est plutôt dans les 200 euros.

  • surtout, elle admet elle même qu’en l’état, la tablette ne sera pas utilisée au-delà d’une simple calculatrice.

  • par ailleurs, en primaire, il me semble encore utile de privilégier les activités faisant travailler la coordination. Et l’écriture me semble pour cela un moyen bien plus efficace que le simple tactile (certes on pourrait écrire sur la tablette, mais à priori elle serait utilisée à travers des applis dédiées).

  • que dire encore du rôle de la CAF ? Équiper seulement les parents qui sont allocataires ? Mais alors quid des autres ? Et est-il vraiment pertinent de détourner ainsi une institution qui doit normalement aider à subvenir aux besoins primaires ?

  • enfin, et c’est l’essentiel, il n’existe à ma connaissance aujourd’hui que peu ou prou de ressources pédagogiques ou exercices pouvant tirer parti de la tablette. Outre le risque d’avoir des classes hétérogènes (une partie avec tablettes, l’autre sans), quel est l’intérêt ?



    En gros, on dépense la masse de sous pour s’équiper, et on laisse aux autres le soin de se démerder pour proposer une vraie démarche d’enseignement et de vrais contenus pour en tirer parti. Génial ! <img data-src=" />



    Il me semble que la démarche la plus cohérente part du sens inverse : on définit d’abord la place que l’on donne à la tablette en tant que support d’écucation, on créée les contenus qui vont avec et ensuite on diffuse largement. Du reste, sans même parler des pays étrangers, il me semble que des écoles françaises mènent des expérimentations de ce type. Mais je n’ai pas de source sous la main, si quelqu’un a un exemple…



    Quant au paragraphe sur le logiciel libre, je l’ai ressenti largement plus comme un argument glissé sous le tapis pour se donner une contenance que comme un aveu de profession de foi. Cela étant je le connais pas cette femme donc je me trompe peut-être.



    EDIT : J’ai bien aimé l’argument comme quoi ça ne changerait rien au “taux de distraction” de la classe. On voit bien qu’elle a jamais donné de cours ! <img data-src=" /> Ou l’argument comme quoi “ils ont tous un smartphone en CM2 donc autant aller encore plus loin”, on sent la grosse réflexion pédagogique… <img data-src=" />

Le 02/09/2013 à 14h 23







Tehar a écrit :



A mes heures perdues, j’achetes du matériels informatique sur des sites comme leboncoin, et c’est assez rare, mais cela m’arrive d’avoir des ordinateurs portables de moins de 4 ans, vendu une 40ene d’euros, car windows ne boot plus et qu’un simple fixmbr le corrige. Ces personnes sont pas plus betes que nous, c’est juste qu’elles ne connaissent pas le métier et qu’en se renseignant, le dépanneur lui fait un devis a 150 euros de reinstall…

Bref c’est partout pareil, du moment que tu n’es pas du métier, tu auras peu voir aucune chance d’avoir une utilisation raisonnable et raisonné, car à un moment tu vas devoir faire confiance à des gens dont c’est le métier.





Je suis complètement d’accord avec toi sur le fond, mais je trouve justement dommage d’une part qu’aucun travail de sensibilisation ne soit fait (notamment dans l’éducation), d’autre part qu’on laisse les constructeurs et éditeurs profiter de la situation.

Je ne suis pas d’accord sur ton dernier paragraphe, personnellement j’ai une utilisation généralement raisonnable et raisonnée, tout simplement parce que je me renseigne in extenso sur un outil avant de choisir quelle marque acheter.



Je tiens à préciser que ce n’est pas parce que je suis geek que je suis devenu désireux de comprendre et maîtriser ce que j’utilise, mais bien l’inverse.

Encore que, pour être honnête, je me la pète complètement, parce qu’il y a plein de trucs pour lesquels je devrais effectivement me lier complètement à la compétence supposée d’un “expert” (genre, la plomberie, l’électricité, la mécanique… Beaucoup de choses en fait…<img data-src=" />).



Mais bref, effectivement le problème de fond est que les gens consomment sans prendre de recul, et ça les industriels n’y sont pour rien (même si j’aimerais qu’ils arrêtent d’en profiter).


Le 02/09/2013 à 14h 15







MickeyFreeStyler a écrit :



Comme je l’ai dis plus haut, maintenir de la vieille techno coute cher à une société.





Ok sur le principe m’enfin… Si l’on met de côté MS qui a des responsabilités spécifiques découlant de sa situation de monopole…




  1. Les éditeurs logiciels peuvent très bien faire payer de manière mutualiser leurs clients pour combler le poids des bugfixes. Il suffit comme MS de proposer un contrat dédié. Par ailleurs, n’ayant qu’une interaction limitée avec le coeur du système, ils n’ont pas besoin de compétences trop spécifiques.

  2. Les constructeurs de matériel sont effectivement plus impactés, puisqu’ils doivent bien connaître le système cible pour construire des pilotes rigoureux. Ce que demande des compétences spécifiques et peut donc coûter cher.

    Cela étant dit, ils pourraient très bien (comme le font certains) libérer le code source pour s’appuyer sur la communauté, qui ne demande généralement que ça. Et même sans ça, quand tu vois le nombre de périphériques généralement vendus auparavant, le jeu en vaudrait la chandelle.



    C’est juste que comme déjà dit plus haut par d’autres, stopper de manière arbitraire le support permet de créer une chance de vente pour certains, une perte de clients pour d’autres. Les éditeurs/constructeurs considèrent que la première est toujours supérieure à la seconde, et pour l’instant le comportement des clients leur donne (malheureusement) raison…


Le 02/09/2013 à 13h 45







MickeyFreeStyler a écrit :



En même temps, çà ne rapporte pas grand chose au constructeur de maintenir des drivers pendant 10 ans.





En même temps, ça ne coûte pas grand chose au constructeur de maintenir des drivers pendant 10 ans… Du moins quand ils sont bien conçus, et relativement à un système lui aussi bien conçu…

Bon en fait t’as raison, sous Windows ça pose problème. <img data-src=" />



Tehar a écrit :



Heu je crois que vous oubliez un minimum le but d’une entreprise.




  1. Ton constructeur d’imprimante il est là pour te vendre des consommables et …. des imprimantes. Si ton imprimante actuelle ne fonctionne pas sur ton nouveau ordinateur windows 7. Tu acheteras une nouvelle imprimante et c’est ce que veus ton vendeur.



    Le cas de l’imprimante est vraiment intéréssant car quelque part, si Epson, Canon, Brother and co, ne veulent plus développer de pilotes pour une imprimante de plus de 2 ans, pour le nouvel OS, vous attendez que Microsoft, ce substitue aux constructeurs, en développant gratuitement un pilote et assurer un support sur un appareil leurs appartenant pas. C’est quand même étrange comme raisonnement.



    Moi pour éviter ca, c’est tout con. Tout constructeur qui ne fourni pas les sources de ces pilotes, c’est un constructeur que je boycotte.



    jmc_plus; tu as downgradé un windows 7 starter vers un XP. Tu aurais mit un vrai windows 7 à la place, cela aurait marché au moins aussi bien qu’avec XP.



    Le problème de ce genre d’expérience personnelle, c’est que tu oublie de dire que tu es passé d’un windows 7 starter, avec sous couche constructeur poussive, vers un windows XP clean sans rien en plus, pour ensuite en déduire du coup des résultats érronés.



    Une ferrari bloquée en 1ere sera toujours moins rapide qu’une 205 à fond, t’en déduira pas que la ferrari est une voiture de ville pour autant.



  2. Et là encore est ce de la responsabilité de microsoft, si Acer and co, mettent 2Go de conneries sur ton système, entre le control center, le logiciel de restauration, logiciels de mise a jour Acer ect?





  3. Tu as malheureusement raison, rien n’oblige encore un constructeur à assurer la pérennité des pilotes pendant une certaine durée. Ça fait partie des nombreux points sur lesquels il serait utile de légiférer.

  4. Si clairement les constructeurs portent la principale responsabilité, MS n’est pas tout blanc non plus à proposer des déclinaisons d’OS dans le seul but de dévaloriser le produit de manière totalement artificielle (genre 2Go max de RAM). Et ce sans que le consommateur soit forcément informé des limites exactes de ce qu’il achète. Mais bon, c’est là encore cohérent avec leurs conditions d’utilisation (OEM = attaché à la machine). Il est simplement dommage que ce type de considérations soit largement en dehors des préoccupations du grand public (n’y a-t-il vraiment que moi qui refuse en bloc un tel emprisonnement de la licence d’utilisation ?)…


Le 02/09/2013 à 13h 12

En même temps, on récolte ce qu’on sème, à avoir laissé une société construire une fortune sur des bouses infâmes, ce qui lui a donné de très mauvaises habitudes en terme de qualité produit.



D’ailleurs pas pour rien que Windows XP est aussi dominant, c’était le premier OS de Microsoft à peu près fiable pour tous…



Bref, les entreprises qui n’ont pas anticipé, tant pis pour elles. <img data-src=" />

Quant aux particuliers, de toute façon ça va leur passer largement au-dessus de la tête pour la plupart ces problématiques. Donc si on se fait tous plomber, ce sera en priorité par leur vecteur.



Ce qui me fait bien marrer quand même, c’est “les clients du support custom n’auront pas le droit de redistribuer”. C’est somme toute cohérent avec le reste de leur modèle (ça évite notamment de devoir faire un patch suffisamment solide pour être déployable sur l’ensemble du parc et pas juste sur la config précise du client) mais c’est vraiment une occasion manquée (surcompenser l’investissement nécessaire pour concevoir des vrais bugfixes, tout en les distribuant à tout le parc).



‘fin bref, MS est MS, on va pas changer une société vieille de 30 ans en un tournemain…

Et comme cela a déjà été souligné à maintes reprises, ils avaient quand même fait de gros efforts en étendant plusieurs fois le support donc bon, considérant leur culture et leur modèle ils ont été vraiment réglo…

Le 30/08/2013 à 15h 49







Pr. Thibault a écrit :



En gros tu es juriste et tu te permets de balancer des phrases du type “le tribunal de Brest, ce sont vraiment des ignares irresponsables (pour rester poli, et j’assume pleinement mes propos)” sans même avoir préalablement consulté le jugement ? Ca confirme ce que je pensais déjà, on donne la licence de droit à n’importe qui de nos jours… Heureusement que le concours de l’ENM est beaucoup plus sélectif et qu’on ne retrouve pas dans la magistrature, en principe, des gens qui, comme toi, ont des jugements à l’emporte-pièce voire des préjugés.





Je reconnais mon tort, pour une fois je me suis exprimé sur la foi de l’interview avant d’aller consulter le jugement, alors que je fais généralement l’inverse, cf mon historique de com’s (ça m’arrive de devoir bosser en quasi-continu parfois aussi). <img data-src=" /> Effectivement la décision du tribunal se comprend mieux.

Je ne répondrai pas sur le reste puisque tu fais exactement ce que tu me reproches de faire, à savoir du bon gros préjugé bidon. Au plaisir.


Le 30/08/2013 à 15h 45







Tim-timmy a écrit :



mais toujours pas de manère contraignante, on est d’accord… et qui peut évoluer assez rapidement :p



j’aime bien leur manière de tacler Brest sans les appeler des idiots congénitaux incompétents, mais en le pensant très fort, quand même … Mais attention au retour de bâton aussi





Hmm assez rapidement, tout dépend. Oui si une affaire similaire est portée devant la Cour de cassation. En revanche, dans le cas où peu ou prou d’affaires semblables seraient portées…




  • soit la Cour de Cassation casse (comme son nom l’indique) l’arrêt, et il faudra quand même attendre l’arrêt de la Cour de renvoi pour être bien sûr (en moyenne 4 ans).

  • soit il faut attendre que la prochaine affaire sur le sujet arrive aux yeux de la Cour (en moyenne 8 ans).



    C’est bien parce que c’est long et coûteux que bon nombre d’acteurs profitent de leur position pour faire des trucs louches, quitte à se faire rembarrer près de 10 ans plus tard, en attendant ils profitent…<img data-src=" />


Le 30/08/2013 à 14h 20







Tim-timmy a écrit :



oui, mais j’aimerais avoir des détails sur les jugements qui esiment l’injure n’est/était pas “manifestement illicite” en général … Un juriste/journaliste dans la salle ?





Ok j’avais mal compris ton interrogation. Je suis juriste de formation mais je touche peu à ces domaines dans mon taff donc je ne saurais te dire <img data-src=" /> (t’es vite paumé si tu suis pas la jurisprudence au fur et à mesure).


Le 30/08/2013 à 14h 11







Tim-timmy a écrit :



hey, tu rajoutes des trucs dans ma quote mais bon ..

mais pour moi, l’injure est quand même assez souvent manifeste, justement. Si je te traite de gros connard en rajoutant pas mal d’autres insultes ensuite, on sait à quoi s’en tenir en général. En effet ça peut dépendre du contexte, mais un cerveau correctement branché fait rapidement la différence, pas besoin d’être un crack judiciaire … C’est justement ce que le jugement dit, dans ce cas il n’y avait pas de doutes à avoir .. Et d’ailleurs le monsieur semble aller dans ce sens, la fille était parano et des internautes s’amusaient à en rajouter, mais on a laissé faire



Et je n’aime pas les gens qui disent “la jurisprudence dit clairement que”, comme si elle avait une réelle valeur contraignante en france .. c’est très relatif, tout ça



ps: la personne a été condamnée pénalement, et je n’ai pas vu parler de problèmes psychiatriques dans le jugement, donc bon, ça semble léger ça





Désolé, c’est juste parce que le quote dans le quote passe pas. Et ça me permettait de formuler l’interrogation que je croyais avoir comprise de ton post et d’y répondre, sans perdre les autres INpactiens. <img data-src=" />





Tim-timmy a écrit :



ce qu’ils ont fait .. et ils ont été condamnés :p



Et oui, elle me met mal à l’aise son interview, car il semble dire qu’il connaissait personnellement bien le dossier, et qu’ils ont volontairement décidé de tout laisser…. tout en reconnaissant que ça dépassait largement les bornes …





Il y a un peu de ça. En même temps, t’aurais fait quoi à sa place ? Pouvait-il se prévaloir d’un quelconque fondement légal pour couper le sifflet aux internautes avant que l’auteure du blog ne dérape ? Sachant qu’il est totalement tiers à leur relation, ça me paraît tendu.



EDIT : Pour ta remarque sur jurisprudence, il y a jurisprudence et jurisprudence. Une décision qui émane d’un TGI, ça ne vaut potentiellement rien. Cour d’Appel, pas trop ça sauf si décision vraiment solide sur l’argumentaire et très peu de décisions sur le thème.

Une décision de Cour de Cassation en revanche, sauf si c’est clairement une décision d’espèce, quant bien même elle n’aurait pas une valeur inscrite dans le marbre, elle sera clairement prise en compte par l’ensemble du monde juridique dans leurs raisonnements futurs. C’est là l’essentiel.


Le 30/08/2013 à 13h 51







Tim-timmy a écrit :



Que signifie le passage : “la jurisprudence ayant jusqu’à ce jour clairement écarté la diffamation et l’injure de la notion de contenu manifestement illicite” ?





Signifie simplement que la diffamation et l’injure sont des notions trop contextuelles pour être appréciées de manière suffisamment précise et objective par l’hébergeur. Elles sont donc exclues de la notion de contenu manifestement illicite, pour lequel l’hébergeur est soumis à l’obligation de retirer au plus tôt ledit contenu (voire dénoncer, je sais pas ?).


Le 30/08/2013 à 13h 47







Parkkatt a écrit :



TL;DR <img data-src=" />







Celle qui s’est fait accuser de publier des contenus potentiellement illicites ne faisait que réagir puérilement à des agressions caractérisées d’internautes.



Ne voyant là aucun contenu répondant à la notion de “manifestement illicite” posée par le Conseil Constitutionnel, nous avons donc décidé d’appliquer la loi en restant neutre, dans l’attente d’un éventuel jugement.



Le Tribunal a introduit de son propre chef une nouvelle notion de “certainement illicite”, pour nous reprocher de ne pas avoir à notre initiative retiré le contenu litigieux.



Selon nous, cette approche est mauvaise, non seulement dans ce cas précis où le contexte est ignoré, mais parce qu’elle va faire courir une incertitude forte sur les hébergeurs si elle est maintenue.

Ce qui conduirait mathématiquement à de l’auto-censure, menant potentiellement à museler des lanceurs d’alerte légitimes.

D’ailleurs, ce tribunal n’en est pas à sa première conn*, puisqu’il avait condamné l’éditeur du livre de Madame Franchon qui dénonçait les ravages du Mediator (suite sans doute à action de l’industriel). Décision qui s’est fait méchamment et logiquement retailler par la Cour d’Appel.





Fin du résumé et conclusion personnelle : le tribunal de Brest, ce sont vraiment des ignares irresponsables (pour rester poli, et j’assume pleinement mes propos).


Le 30/08/2013 à 14h 09

En tout cas, Reggie Fils-Aimé confirme que c’est prévu pour les très jeunes enfants.

Nous aurons donc droit à toute une génération d’enfants aux muscles supérieurs surdéveloppés. Merci Nintendo pour prendre soin de l’éducation intellectuelle ET physique de nos enfants ! <img data-src=" /><img data-src=" />

Le 30/08/2013 à 13h 38







Strimy a écrit :



A titre indicatif, le CPU de la Surface Pro coute 225\( à lui tout seul (d'après ark, probablement un peu moins cher pour MS ?). Je pense pas que le A15 en coute le quart. Et il faut rajouter les composants annexes qui sont souvent présents dans le SoC des ARM.





Bonjour, merci pour l'info. Pourrais-tu nous préciser s'il s'agit bien d'un prix de gros, et si possible quelles sont tes sources ?





Aloyse57 a écrit :



Oui beaucoup. Et si ils pouvaient en trouver des encore moins chers utilisables, ils ne se gêneraient pas.

Même discours avec les tablettes : pourquoi payer \)
900 pour une Surface Pro quand il existe de Androîd à $199 (et moins)

Ne pas oublier : généralement, ceux qui décident de l’achat des appareils ne sont pas ceux qui les utilisent.





Une putain de règle d’or qui rend la vie bien infâme à des millions d’employés.<img data-src=" />


Le 30/08/2013 à 12h 48







thelodger a écrit :



Reste surtout le fait que le Core i5 est incomparable à l’ARM de la Nexus. Pour l’avoir à disposition (la N10), en termes de finitions, de qualité de fabrication, de performance et même d’utilité, on est loin de ce que j’ai pu entrevoir à la FNAC sur la surface pro. Et l’écran provoque une autonomie bien plus faible qu’annoncé (8h et pas 10, même si c’est mieux que la surface) sans avoir réellement d’intérêt en dehors de la lecture : les apps sont généralement pas compatible avec une telle résolution, et le benchmark Epic Citadel en FullHD (moins que la résolution native de la tablette donc) tourne à 10-20FPS !! Donc pas assez puissante pour assumer la résolution !





Dis donc c’est intéressant ces infos là ! Bizarrement pas indiqué sur la plaquette du Play Store ! <img data-src=" />

Ils font la même qu’avec le Nouvel Ipad quoi. C’est d’autant plus con que j’ai le sentiment que la majorité du public se satisferait d’une définition Full HD sur du 10 pouces…

‘Fin bon, je me sens pas trop concerné. J’attends toujours une tablette format A4 pour lire des partoches et des bd, voire même un e-reader de cette taille (Sony est sur le coup). Et si en plus (en cas de tablette) on peut y installer un linux, mon bonheur sera complet.<img data-src=" />





Tolor a écrit :



Tu penses vraiment que les pro ont des PC à 400€?





Tu serais surpris de connaître la stratégie d’équipement informatique de certaines boîtes…<img data-src=" /><img data-src=" /> Même si celles auxquelles je pense ne représentent pas (en tout cas j’espère pour leurs employés) la majorité.


Le 30/08/2013 à 12h 17







Skeeder a écrit :



Dans ce cas là le produit ne te concerne pas. Pour le boulot, si je voyage en seconde, alors c’est le wagon spécial avec prise (l’agence interne qui s’occupe des déplacements les connait), dans les lounges business je n’ai jamais eu de problèmes de prise, et pour le coup t’y as accès même si tu voyage en éco, il suffit de voyager régulièrement. Dans ma voiture j’ai un chargeur (j’ai même une prise 220V 140W), dans les sales de conférences, si y’a une table, y’a une prise, sinon c’est que t’y reste moins de 3h.

Nan franchement, je suis le premier à pester contre l’autonomie de mon ordinateur portable du boulot (2h, youpie), mais c’est parce que à chaque fois j’oublie le chargeur où je le met pas car ça prend trop de place…



EDIT: pour une utilisation personnelle, et confortable, par contre l’autonomie est hyper importante. Mon PC portable personnel, c’est 7h-8h d’autonomie, et c’est un vrai plus (Malgré le poids de la 9 cellules).





Effectivement, je recherche un produit utilisable par le commun des gens qui travaillent. <img data-src=" />

Plus sérieusement, tant mieux pour toi si tu bosses dans une entreprise qui 1) planifie sérieusement les déplacements 2) fait appel à un presta efficace.

La réalité pour beaucoup de gens c’est le déplacement planifié &lt;7 jours avant, en mode économie max, où on te prend le premier billet qui vient sur les places qui restent.

En fait ton propos illustre très bien ce que je souligne : cette tablette te rend extrêmement dépendant de ton environnement. Tant mieux pour toi si ça marche, mais je t’assure que ce n’est malheureusement pas le cas de beaucoup (je ne citerai pas de nom, mais j’ai des témoignages d’une demi-douzaine de boîtes différentes. Une seule gère de manière professionnelle ce genre de questions).



C’est pour ça que cette tablette est mal perçue.

Si on la voit comme un PC, hormis le côté stylet tactile utile pour une minorité, l’équipement et le confort font pâle figure par rapport à un portable.

Si on la voit comme une tablette, l’autonomie fait pâle figure comparée aux autres produits.



D’où la conclusion logique de la plupart des gens ici, et que tu partages d’ailleurs puisque tu as bien cherché avant de t’équiper semble-t-il : pour ceux qui ont un besoin précis de tablette + stylet + environnement MS dans écran 10 pouces, ce produit est compétitif par rapport à l’ensemble de l’offre. Enlève un facteur et ça le fait plus. <img data-src=" />


Le 30/08/2013 à 10h 03







marquis a écrit :



Oui, mes critères ?



Un stylet ne peut pas être utilisé par un Pro ? Ce n’est pas pour utiliser Paint hein !!!!



La Surface n’est pas en plastique.



Développe, parce que pas besoin d’un i5 pour faire tourner Office ????



Supprimons tous les PCs si je prends ton raisonnement.



Le produit est rempli de défauts et suscite l’incompréhension, je suis tout à fait d’accord mais on parle d’un produit utilisable comme PC avec tous les logiciels que cela comprend.





Ce qui est pour le moment un argument très fort, mais qui peine à contrebalancer le reste. Mais c’est sûr que dans un cadre professionnel, les écosystèmes logiciels Android ou Apple c’est pas la joie…<img data-src=" />

D’ailleurs bien pour ça que Microsoft a encore largement de quoi s’installer, en dépit de débuts laborieux…


Le 30/08/2013 à 10h 00







DDReaper a écrit :



sauf que la nexus 10 est subventioné par google et couterait plus cher si elle était lancé chez un concurent, qu’elle a un processeur arm et non un processeur intel (et je pense qu’il y a facilement une différence d’au moins 150$ entre les deux), qu’elle n’a pas 64/128go de ssd mais 16go d’emmc, pas la même quantité de ram non plus, elle est loin de proposé la finition de la surface pro, elle n’a pas de dalle compatible wacom (stylet),.

Finalement tu compare un macbook air (la surface pro) et un ipad (la nexus) et tu t’attend à ce qu’ils soient au même prix.

par rapport à tes edit, encore une fois oui je suis d’accord qu’elle aurai du être moins cher d’entrée de jeu mais proposé une surface pro 128go à 699€ aurait déjà été ultra compétitif.

de même la surface RT aurait du inclure un clavier et être vendu au maximum 399€ à sa sortie.

J’aime également beaucoup le concept de la transformer mais elle n’avais pas de stylet et était encore plus cher que la surface pro.





J’ai réagi uniquement sur ces deux points, je n’ai pas poussé la comparaison justement parce que je ne connaissais pas précisément les deux hardwares. Puisque tu as la gentillesse de les amener, je voudrais rebondir :




  • le SSD de 128, ça coûte déjà plus grand chose pour le grand public, alors pour les assembleurs ça doit pas être trop énorme (même si très nettement plus cher nous sommes d’accord).

  • pour la finition je n’ai pas d’avis, ne connaissant ni l’une ni l’autre.

  • le processeur, 150$ de différence, j’aimerais bien avoir une source.

  • oui la Nexus est subventionnée par Google, mais la PRO est subventionnée par MS puisqu’ils la construisent. Entre nous eux aussi ont les moyens.

    Par ailleurs, lorsque tu vois les tablettes non Nexus en Full HD, elles sont aux alentours de 500 euros maintenant (je parle pas des modèles chinois à bas prix dont la finition n’est pas comparable).

  • reste la dalle compatible stylet qui au-delà du coût est un véritable différentiateur.

  • ainsi que l’écosystème logiciel.


Le 30/08/2013 à 09h 44







DDReaper a écrit :



toi il te faut une surface RT quoi <img data-src=" />



je suis d’accord pour dire que la surface pro n’a pas assez d’autonomie (c’est pour ca que j’ai pris une batterie externe).

mais ca ne sert à rien de faire croire que pour cette raison cette machine ne vaudrait pas plus de 400€. Je suis d’accord pour dire que le prix de lancement était trop élevé selon moi.

Sinon j’utilise une surface pro comme seul et unique machine depuis un mois maintenant et je vais très bien :)

il vaut mieux tester avant de juger.



Pour mon utilisation, il n’y avait que la surface pro de disponible et la lenovo Helix, malheureusement celle ci est 2 à 3x plus cher que la surface pro..





Je suis d’accord avec toi sur le principe. Cela dit, pour mon cas personnel étant déjà dans un cadre de grande mobilité, je sais déjà que ça ne me convient pas, du fait de l’autonomie dérisoire et de la taille de l’écran (et de manière plus marginale des perfs), qui ne me permettraient pas de travailler dans de bonnes conditions toute la journée, vu le nombre de fenêtres et les kilos de texte avec lesquels je jongle.

Mon seul regret avec mon portable en revanche est qu’effectivement, pour consulter du contenu dans les transports en commun, t’oublies (entre l’absence de mode portrait auto et l’espace nécessaire pour déplier la bête…).<img data-src=" />



EDIT : Anéfé, je viens de faire la recherche pour le Lenovo… C’est sûr qu’à ce prix (ils sont fous !), la Pro est largement compétitive. <img data-src=" />

Personnellement j’attends beaucoup du Transformer d’Asus (pas la tablette base Android + dock, mais le PC base WIndows qui se sépare). Reste que le prix risque de faire très mal là aussi…<img data-src=" />



EDIT2 : Dans l’absolu, en effet, la Pro vaut plus que 400 euros. Dans les faits, vu l’état du marché et les défauts de la tablette, ils ont intérêt à être ‘achement agressifs s’ils veulent créer une dynamique. En plus MS, c’est ce qu’ils savent faire de mieux, arroser le marché en puisant dans leur réserve pour se faire une place, le temps de construire une offre qui tient vraiment la route (cf le marché jeux vidéo avec le gouffre de la première Xbox).


Le 30/08/2013 à 09h 39







DDReaper a écrit :



<img data-src=" />

les news MS sur pc inpact c’est toujours aussi drole 350€ pour une machine avec un écran 1080p et un core i5 <img data-src=" />







  1. Ce serait bien d’apprendre à lire. J’ai dit “350 de moins” et non pas 200, soit 780 - 350 = 420 (tu me pardonneras pour l’euro j’aime bien arrondir).

  2. À ma connaissance, les Nexus 10 de Google ont un écran largement supérieur au 1080p, pour un tarif qui n’a rien à voir. Reste le coût de l’i5, sur lequel je ne me prononcerai pas, n’ayant pas la moindre idée du coût de production ou des tarifs de vente en gros aux constructeurs pour les pc classiques.

    J’ose néanmoins avoir le préjugé que ça ne justifie pas un tel tarif.<img data-src=" />


Le 30/08/2013 à 09h 30







Skeeder a écrit :



En tant que très nomade, ce n’est pas vraiment comme ça qu’il faut voir le potentiel de la tablette type Surface Pro. 1) C’est hyper chiant de se trimbaler avec son PC portable, tout le monde te le dira (même un 13”).




  1. Le but c’est d’avoir quelque chose d’hyper compact (10”) qu’on peut docker pour une utilisation bureau, et utiliser sans trop de difficulté en réunion/déplacement.

    L’autonomie n’est pas trop trop un critère (bien qu’appréciable), 3) pour les déplacements y’a systématiquement des prises dans les trains, et les trajets en avion sont toujours raisonnablement courts (3-4h max), et y’a des prises pour recharger dans les lounges business dans les aéroports.

    Maintenant le problème c’est le poids, j’étais à deux doigts d’en acheter une, je l’ai soulevée en magasin -&gt; ouch!





  2. Critère complètement subjectif. Je te trouverai autant de personnes qui t’expliqueront qu’elles n’ont aucun problème à trimballer un portable, à fortiori de 13 pouces. À plus forte raison quand il s’agit d’un ultraportable type MBA. La taille ne compte pas (de 10 à 14 pouces, ça rentre dans aucune poche, mais dans n’importe quelle sacoche ou sac à dos), seul compte le poids. Et les pc ont fait de gros progrès sur ce point. Même si l’on doit pour ça payer le prix fort.



  3. On est bien d’accord que c’est la tendance de fond, c’est ma conclusion. Ça s’illustre d’ailleurs par les concepts hybrides type Asus, le smartphone qui fait PC de Canonical, l’environnement KDE qui prévoit une interface par périphérique, Windows 8 ou Unity qui veulent au contraire une seule interface pour tout gouverner, etc… Il n’empêche que le produit dont on parle ici est (très) loin de remplir le contrat.



  4. ARCHI-FAUX. D’abord parce que non, il n’y a pas de prises dans tous les trains, encore moins en seconde (oui, la plupart des gens que je connais, dans le cadre pro autant que perso, voyagent en seconde). Ensuite tu n’as pas forcément le temps d’utiliser les prises des lounges business, ou elles sont toutes prises, ou tu n’y as pas accès (idem, beaucoup voyagent en éco, c’est la crise ma pauv’ Lucette). Bref, tu ne peux pas compter dessus de manière fiable. Enfin parce que tu esquives aussi tous les petits à-côtés (voiture, prise de note dans grande salle de conférence, transports en commun) ou tu es livré à ta seule batterie.



    Rappel : pourquoi les netbooks ont marché ? Parce que c’était compact ET autonome, ce qui fait que les gens ont toléré la faible performance.

    Pourquoi Apple a violemment percé sur les portables ? Parce qu’avant même les MBA qui a apporté la légèreté et la compacité, leurs portables mettaient une race à n’importe quel concurrent pc.

    Pourquoi la GameGear s’est pris une méga baffe par rapport à la GameBoy, en dépit d’avantages techniques et d’une ludothèque honorable ? Autonomie pourrie.

    Quel est aujourd’hui le critère qui revient quasi-systématiquement dans les critères de choix d’un équipement portable (pc, tablette, mobile) ? L’AUTONOMIE.



    Concevoir un équipement destiné à la mobilité, et louper l’autonomie c’est n’avoir strictement rien compris. Dans dix ans ce sera sans doute différent, parce qu’alors absolument tous les transports auront intégré cette problématique, et ce ne sera plus une option “luxe” mais un critère préalable à l’adoption par les usagers.

    Aujourd’hui on en est encore très loin.


Le 30/08/2013 à 08h 46







GuiJo a écrit :



Encore 200 € et on arrivera à un prix attractif <img data-src=" />









DDReaper a écrit :



on parle du modèle pro pas du RT hein ;)





Bah oui il parle bien du modèle PRO, et je plussoie complètement. Je dirais même 350 euros en moins vu la réputation d’autonomie déplorable de cet outil.



xanax_now a écrit :



La seule utilisation pertinente vue les caractéristiques de cette pro c’est justement une utilisation pro : sur un bureau, toujours avec son alim branchée et utilisable en réunion sans branchement. Et encore, en déplacement on serait vite embeté.





Ouais, donc c’est pas pour une utilisation pro au final…




  1. Tu fais partie de ceux qui bossent dans leur coin, sans bouger &gt; pc fixe + performant et - cher.

  2. Tu fais partie de ceux qui bougent au sein de leur boîte (réunion) : intérêt potentiel mais limité (autant fournir direct un portable, encore une fois moins cher et plus performant).

  3. Tu fais partie de ceux qui bougent beaucoup (déplacements) : tablette hors-jeu direct ne serait-ce que pour l’autonomie.



    Comme tu dis, une tablette 2x ou 3x plus autonome, pour un poids max ~1Kg, là ça aura un intérêt.



    EDIT : En fait je ne peux même pas donner un potentiel à cette tablette, j’avais oublié la taille de l’écran.

    10 pouces, passer sa journée de travail dessus c’est ingérable, beaucoup trop petit. Ou alors faut prévoir l’écran secondaire à demeure pour chaque employé ce qui là aussi réduit largement le rapport qualité / prix. Même si par ailleurs la tendance actuelle est qu’on en arrive là d’ici quelques années (terminal petit/léger avec apps et données, périphériques “locaux” sur lesquels on se branche).


Le 30/08/2013 à 08h 55







bingo.crepuscule a écrit :



En même temps, fallait pas attendre grand chose d’Electronics Arts, qui n’a d’art plus que le nom…



Cette boite est devenue une gigantesque pompe à fric, ayant racheté énormément de gros studios et licences phares, du coup les joueurs achètent même s’il est fait de la merde, et ainsi EA peut continuer sa politique de merde, en saccageant les bonnes licences sur l’autel de leur croissance financière.



Mais bon, dans le fond, si les gens, en connaissance de cause, sont assez bêtes pour continuer d’acheter malgré une politique commerciale déplorable, pourquoi ils se priveraient, chez EA ?



On commence même à en voir certains faire l’apologie d’Origin sur PcInpact, de la pub gratuite… (Sans doute pour se conforter eux même dans leurs choix, plus que parce qu’ils ont quelque chose à y gagner…)





+1000.

D’ailleurs, je suis bien content d’avoir eu assez de force pour privilégier mes convictions au détriment de ma tentation de joueur (= ne pas avoir craqué pour le Origin Bundle et contribué au succès de l’opération, même si ça ne rapportait rien directement à EA).



Il faut toutefois leur reconnaître une qualité : ils restent constants dans leur ligne de conduite, droits dans leurs bottes et dans le des joueurs.



Comme MS, ils sont trop gros pour pouvoir réellement disparaître, mais ce serait déjà bien qu’ils s’écroulent pour redevenir un acteur parmi d’autres. Cela étant vu leur force marketing et le manque de recul de beaucoup de joueurs, j’y crois moyen…<img data-src=" />