votre avatar

sr17

est avec nous depuis le 26 décembre 2005 ❤️

4322 commentaires

Le 20/12/2013 à 06h 22







HarmattanBlow a écrit :



De toute façon peu importe, n’importe quelle société ayant deux dévs est assez grosse pour être éventuellement concernée par ce prêt. Donc lire qu’on ne prête qu’aux riches ça a vraiment de quoi faire sourire devant tant d’ignorance. Le second commentaire de sr17 est éloquent : toutes les entreprises sont trop riches pour bénéficier d’aides, il faut les donner à des chômeurs dans leurs garages







Pour avoir connu quelques créateurs dans le secteur du logiciel, je peux affirmer que les budgets des premiers projets sont très loin de ce que tu évoque.



Et au risque de me répéter, si c’est pour donner l’argent du contribuable à des entreprises qui sont déjà bien capables de s’auto financer, je ne vois du tout l’intérêt.



Par contre, l’état n’oublie jamais de faire payer leurs charges aux petits créateurs. Il est donc dommage qu’ils soient toujours les éternels oubliés d’un grand nombre d’aides sectorielles.



Dans ce pays, trop d’aides sont distribuées à des entreprises de grande taille au détriment des petits entrepreneurs.





Assertion fausse, la majorité des entreprises ont très vite levé du capital, y compris les Facebook & co. Et, de toute façon, c’est au moment de quitter le garage que ce genre de projet a besoin de capital. S’ils comptent rester dans le garage ils ont besoin de chômage ou de RSA parce qu’on ne fait pas une levée de capital pour se verser un salaire mais pour embaucher ou acquérir.





Moi je juge les résultats. Et ils sont sans appel.



C’est bien les USA qui ont créé et fait prospérer les entreprises qui dominent aujourd’hui la nouvelle économie.



Et les français, ils sont ou ? La France, elle est archi dominée dans tous les domaines.



Un pays qui perd systématiquement et dont l’industrie s’est retrouvée ravagée en moins d’une décennie devrait savoir se remettre en question. Mais non, en France, on continue avec le même cap : droit dans le mur.



Pourtant, c’est un secret de polichinelle qu’en France l’état prends tout l’argent des entreprises et du contribuable et qu’il le redistribue de manière très médiocre.



Le 19/12/2013 à 23h 05







HarmattanBlow a écrit :



100k c’est le coût annuel de deux développeurs juniors (tout compris : charges patronales, immo, chauffage, etc). Alors si pour toi un crédit correspondant à deux années de travail-homme est trop faramineux, qu’est-ce que est digne d’être financé ? Un couple de roumains peignant des cendriers sur le bord de l’A6 ? Le retraité qui fait trois travaux de jardinage pour arrondir les fins de mois ?



Ou alors tu t’imagines que dans les petits studios les salariés travaillent gratos ?







Oui et bien justement, c’est assez courant chez les indépendants de voir des créateurs vivre de bouts de chandelle pendant des mois pour monter leurs projets. Et souvent avec des budgets bien moindre que 100k. C’est précisément à ce type de projet que quelques aides feraient le plus grand bien.



Alors oui, ça me donne envie de vomir de voir que dans ce pays on continue de distribuer l’argent à ceux qui en ont le moins besoin.



En France, on oublie que toutes les grandes aventures industrielles ont souvent commencé par des types qui se galéraient dans leur garage.







Le 19/12/2013 à 17h 41



proposant de revoir ce seuil afin de l’abaisser à 100 000 euros





Dites moi que c’est une blague.



Cela montre bien que dans ce pays, les petits n’ont qu’un seul droit : raquer pour engraisser les gros industriels.



En toute logique, les aides devraient s’adresser avant tout aux acteurs les plus petits et fragiles pour les aider à grandir et à passer des caps difficiles.



Mais non, dans ce pays on aide d’abord ceux qui sont déjà riches.



Et après on se plaint qu’il y a un chômage de masse.


Le 20/12/2013 à 00h 40







A-snowboard a écrit :





Ce n’est pas non plus un pc dédié au traitement de texte pour ma grand-mère si je m’abuse.







Aujourd’hui, toutes les consoles, tous les ordinateurs (même le mac) sont basés sur des hardware de PC.



Donc autant qu’il n’y ait pas de limitations et qu’on puisse s’en servir éventuellement comme un PC si un jour on veut le recycler.



C’est cela l’avantage de cette steam machine, c’est qu’a priori rien n’empêcherait de la recycler en machine de traitement de texte ou de surf pour grand mère.









Le 19/12/2013 à 23h 38







A-snowboard a écrit :



Disons qu’il y a une petite différence entre faire en fonction du logement ou tu LOUE et un logement dont tu as carte blanche pour occuper l’espace…

On a pas tous les mêmes possibilités d’aménagements.



Après je suis d’accord avec toi. Des fois il faut juste chercher… Et surtout ranger son bordel ! <img data-src=" />





Sinon pour la multiplication des appareils, on fait aussi en fonction de ses besoins.

Un mac et une console n’ont pas la même fonction qu’un PC.

J’ai nullement envie d’un PC, je suis très content de mon mac.

Donc si je veux une fonction jeu. Pourquoi prendre une tour ?







C’est certain que vivre en location limite les possibilités d’aménagement. Mais comme tu dit, en cherchant, cela n’empêche pas de trouver des solutions. Et souvent, ce n’est pas aussi compliqué qu’on pourrait le croire.



Sinon, tu pose une problématique très interessante : Est ce qu’une console, un mac et un PC assurent des fonctions différentes ?



Pour y répondre, il ne faut pas oublier qu’a la base de tous ces appareils, il y a… un ordinateur. Soit grosso modo les mêmes technos déclinées de façon légèrement différente.



Pour peu qu’on dispose d’un ordinateur qui dispose de la puissance adéquate, ne peut t’il pas les remplacer tous ? Et ainsi permettre en même temps de belles économies et du meilleur matériel. Pour ma part, j’ai donc un PC puissant qui assure à la fois la fonction d’ordinateur et de console. Et il assure cette fonction bien mieux qu’une console (moins puissante qu’un ordi) ou qu’un ordinateur de moyenne gamme.



Après, tu me dira qu’il y a une problématique de lieu : Tu n’a pas forcément envie de mettre ton ordinateur dans le salon, mais tu peut avoir envie de jouer sur ton canapé.



Quoi qu’il en soit, les solutions matérielles du PC du futur sont à l’étude. Elles permettront au PC d’afficher et de jouer de manière déportée sur le téléviseur familial.









Le 19/12/2013 à 21h 45







DahoodG4 a écrit :



C’est un proto, allo ?

Stop speculer.



Rien n’interdit d’utiliser des composants pour mobile, a part les CG peu puissantes, pour le moment.

On pourrait avoir des boitiers encore plus petits au final.







Oui, mais l’utilisation de composants pour mobiles suppose de terribles inconvénients en contrepartie.



C’est ce que j’essaye d’expliquer. Plus c’est petit, plus il y a de contraintes techniques, moins c’est puissant, moins les pièces sont standards, plus c’est problématique à dépanner et à upgrader.



D’ou au final la question que je pose : est ce que ça vaut vraiment le coup de faire des petites machines ? Tout ça juste pour gagner un peu d’espace dans un grand salon ?



Vaut t’il mieux se prendre la tête à trouver une place pour sa tour dans son salon une fois pour toute ? Ou bien s’emmerder à mort à chaque panne d’un composant ?



Personnellement j’ai fait mon choix….



Le 19/12/2013 à 21h 30







Elwyns a écrit :



pour le coup de la steam machine ça peut être vrai, mais c’pas parcque c’est plus petit que c’est plus sujets aux pannes.. les ventilos dans les racks super micro font quoi 2cm , et ils sont conçu pour fonctionner h24 et tomberont surement pas en panne ! et le bruit n’est pas si énorme ( bon ok flux d’air au top , bon débit et moins de chauffe )







Hélas, si.



Et je sais de quoi je parles, des ventilos, j’en ai remplacé beaucoup.



Regarde simplement sur du vieux matos. Tu verra que des 40 ou des 60 en panne, c’est super courant. Des 80, ça arrive parfois avec le temps, mais c’est déjà plus rare. Les 120, c’est encore plus rare.



Et c’est assez facile à comprendre quand on sait que pour un même débit un petit ventilo doit tourner plus vite, que les paliers sont plus petits, etc…



Quand aux ventilos qui équipent les serveurs, ce sont des modèles professionnels. Il suffit de les regarder : Souvent plus larges, ils ne sont pas vraiment comparables à ce qu’on trouve dans les machines courantes.



Alors oui, ça se trouve parfois. Suffit de voir les Sanyo Denki qui équipaient les ventirad intel. Mais comme on le sait, dans le mainstream on trouve beaucoup de matos de qualité moyenne.



Sinon question bruit, la encore c’est pas comparable. Petit ventilo = vitesse de rotation élevée = beaucoup de bruit. Dans un datacenter on s’en fout, pas dans un salon.



Un ventilo de 120mm à 900 tours/min ne s’entends pratiquement pas. Et pourtant, il assure un meilleur flux d’air qu’un 40mm à 6000 tours/min qui fera autant de bruit qu’un sèche cheveux.



Le 19/12/2013 à 21h 08







TZDZ a écrit :



C’est une blague ? Vous donnez vraiment des leçons aux gens en vous basant sur ce genre d’éléments ? Vous pensez vraiment que la majorité des joueurs ciblés disposent d’un salon de 120m² ?



J’imagine que j’ai dû rater le second degré, auquel cas mon message s’adresse à sr17.







Oui, à mon avis t’as raté le second degré. Cela dit, on comprends ce qu’il veut dire.





Je vais vous faire une révélation : il y a plein de gens, par exemple étudiants, qui vivent dans des logements de 9 à 30m² (dans mon cas c’était 30m² à deux) et qui sont locataires, alors vos super solutions d’architectes-je-suis-trop-fort-les-gens-sont-trop-cons je fais des trous au plafond, comment dire… sont à côté de la plaque ?





Justement, les architectes sont des professionnels du travail de l’espace.



Ils sont capables de t’optimiser l’espace d’une façon incroyable. Et donc de te faire gagner de l’espace utile.



Un 30m2 bien aménagé peut te donner autant de confort et d’espace utile qu’un 120 mal utilisé.



C’est facile à comprendre quand on sait que la plupart des gens ne savent pas utiliser le volume.



Mais même sans prétendre égaler des professionnels qui ont fait des années d’étude, il est possible à tout un chacun de mieux utiliser son espace juste en se posant quelques questions et en sortant des idées reçues.





Puis alors j’adore les gens qui expliquent aux autres ce dont ils ont besoin car ils sont trop bêtes pour le savoir eux-même.





Donc être intelligent, cela signifie savoir forcément tout sur tout et n’avoir rien à apprendre de personne ?



Il y a quantité de choses que nous ignorons. Nous sommes tous des idiots sans aucune exception. Et ceux qui sont intelligents, c’est ceux qui l’ont compris <img data-src=" />.









Le 19/12/2013 à 20h 32







Labsyb a écrit :



Tout à fait d’accord. Le manque de jugeote des gens me sidère.



Il suffit généralement de doubler les murs des pièces par des coursives techniques qui permettent de placer les éléments abjects visuellement tel ces affreuses tours (coursive d’un mètre 50 de largeur suffisent pour pouvoir circuler au besoin tout le tour de la pièce lors de l’installation des éléments à cacher).



Avec un réseau de ventilation vers l’extérieur et une bonne climatisation, idéalement des armoires serveurs, on assure une esthétique et une efficacité maximale dans la partie à vivre. Ensuite on équipe les murs côté intérieur de la pièce de points de sortie discrets pour les cables et de prises d’accès direct pour la connectique qui le permet.



Dans une salon de taille standard/moyenne, on va dire 120 mètres carrés (ce qui n’est pas très grand mais dans des villes comme Paris il est parfois difficile de trouver plus grand), l’espace intérieur restant après aménagement de la coursive technique est suffisant et on gagne considérablement en confort et cosmétique.



Au besoin on peut y fourrer sa belle mère ou sa femme quand elle devient trop casse couille et mette la clim à fond pour calmer ses ardeurs.







<img data-src=" />



Merci, ça m’a bien fait rire en ce jour un peu morose <img data-src=" />



Sinon, en matière de design d’intérieur, il y a la tendance “ancienne génération” qui voit la technologie comme une intruse et cherche absolument a la cacher.



Et il y la nouvelle génération qui est née avec et qui assume de la mettre en valeur.



Sinon, j’ai toujours été frappé de la différence entre les gens “lambda” qui se prennent souvent la tête pour leur intérieur et ne reproduisent finalement que des gros clichés et les vrais professionnels comme des architectes ou les stylistes d’intérieur qui sont capables au contraire de beaucoup plus de créativité et de liberté.



Quoi ? vous n’osez pas suspendre votre tour au milieu du salon ?



Pourtant, certains stylistes ont déjà osés y suspendre des baignoires <img data-src=" />



Alors quoi, en matière de design, arrêtez les clichés, lâchez vous, quoi…



Le 19/12/2013 à 19h 51







mkton a écrit :



Juste un exemple de l’interêt :

Dans mon cas, j’ai trois manettes PS3 qui fonctionnent nickel, je suis censé les jeter pour la PS4 et en racheter 3 (3x65€) ? Tandis que le driver du pad ps3 sera tôt ou tard dans les repos Steam.

C’est pour ce genre de raisons que les consoles m’énervent, pour autant elles sont bien plus conviviales à l’usage que mon PC et son bureau…







Moi je suis convaincu que SteamOS va changer la donne et opérer le tant annoncé rapprochement PC/consoles.

C’est une solution ouverte, extensible… et basé sur Debian! :p







Et oui, a y bien regarder, la console c’est une perte de temps et d’argent.



Certes, sur le PC il faut passer par l’OS classique pour lancer son jeu. Mais au moins on peu jouer au clavier/souris et les jeux sont moins chers.



Sinon, j’ai toujours mon pad XBox 360 que j’ai acheté pour mon PC il y a quelques années. Et vu qu’il fonctionne encore bien, il va encore peut être me durer un paquet d’années. Et il fonctionne aussi sous Linux.



Après, le problème c’est qu’il y a des jeux pour lesquels les pads sont bien adapté. Et d’autres pour lequel ça ne l’est pas.



Est ce que le pad de steam permettra de jouer dans son canapé à des jeux conçus pour le clavier et la souris ? Même si je suis un peu sceptique, par principe je ne jugerait pas avant de l’avoir testé.


Le 19/12/2013 à 18h 41







loser a écrit :



Heu, comment dire…? tu as vécu dans une grotte ces 12 derniers mois?



Les Steam Machines, c’est fait pour être mis dans le salon, et branché sur la télé, une console quoi. On comprend donc aisément qu’un boîtier logeable est plus adapté pour cette utilisation.







Ce n’est pas parce que tu est dans un salon que les lois de la physique changent.



Si tu réfléchit bien, tu comprendra que même dans un salon il y a largement la place pour carrer une machine dans un boitier moyen tour classique.



L’avantage est évident : meilleure ventilation, composants plus standards, beaucoup moins de bruit grâce à des plus gros ventirads et des ventilateurs plus gros et qui tournent moins vite.





Le 19/12/2013 à 18h 36







A-snowboard a écrit :



Sr17 : bon ton calcul de volume est quand même bancal. Le volume au milieu de la pièce à 2m de hauteur est pas trop utilisé tant qu’on ne sera pas faire de la lévitation…







Tu n’imagine pas tout ce qu’un architecte saurait faire de cet espace.

Et je connaît quelqu’un qui avait fixé son PC au plafond sur un support soutenu par des tiges filetées.



Mais sans aller jusque la, ce que je voulais dire, c’est qu’en France les appartements sont rarement si petits qu’il n’y ait pas d’énormes volumes utilisables.



C’est simplement que les gens ne savent pas les utiliser.



J’ajouterais que même posé sur une table, ce qui importe c’est l’emprise sur la table.





Sinon pour la taille, à la base c’est pc pc vu comme une console. Donc sous la Tv ou même ailleurs si on veut.





Typiquement, le meuble télé fermé est une catastrophe en terme de ventilation.



Mais si on dispose d’un meuble, avec les écrans plats, il est souvent assez facile de placer le PC derrière. Et la, même un énorme maxi tour passe très bien.





On a pas tous la même notion de place. Une tout ça reste une tour : c’est gros et on a pas toujours la place.





Alors si tu pense qu’il n’y a pas la place, j’ai envie de te dire : cherche mieux.



Tu verra qu’il y a quantité de place pour celui qui sait la voir et l’utiliser.



Il y a des revues d’architecture qui te donneront quantité d’idées.



Si nous étions au japon ou l’on trouve des appartements de 4m2 je serais d’accord pour dire que la taille du PC importe. Mais en France, même dans un petit studio, il y a quantité de place pour carrer même le plus énorme des PC.





Par exemple avoir un Mac mini + cette bécane côté à côté serais pas mal et tu garde le reste de la place pour ranger tes affaires dans un appart de 35m2…





Justement, c’est en multipliant les appareils qui pourraient assurer la même fonction que tu va finir pas perdre de la place(et de l’argent). Sans compter qu’a multiplier les solutions de compromis, tu n’aura jamais l’idéal en terme de puissance et de technique, c’est à dire une bonne bécanne “full power” bien refroidie.


Le 19/12/2013 à 17h 57

On ne peut que saluer l’effort d’intégration.



Mais cela étant dit, quel intéret d’acheter un engin aussi petit par rapport à un PC classique ?



Moins de place pour les flux d’air.



Ventilateurs plus petits donc plus bruyants et plus sujets à panne.



Composants qui semblent standards (c’est un bon point) mais quand même plus difficiles à trouver (et avec moins de choix et de moins bons prix) que de l’ATX.



On sait que malheureusement faire petit, c’est le passage obligé pour vendre : par sa grande ignorance, le grand public a souvent des critères d’achat qui sont très mauvais.



Si cela n’avait pas d’inconvénients techniques, faire petit serait bien. Mais les lois de la physique étant ce qu’elles sont, plus un appareil est petit, plus cela pose des problèmes pour le refroidir efficacement et pour effectuer la maintenance en cas de panne.



Et que dire des gens qui prétendent que c’est un gain de place utile. Divisez simplement le volume d’une pièce par celui d’un PC même énorme, vous verrez que c’est un critère proprement ridicule.



Mais tout cela étant dit, il faut bien dire que la logique d’un tel appareil est quand même 1000 fois meilleure qu’une console.

Le 18/12/2013 à 23h 54







Citan666 a écrit :



Bah écoutes, ça me semble du bon sens, mais ça n’a pas l’air le cas de tous. Je t’invite donc à prendre contact avec mon patron pour lui expliquer, lui qui s’échine à laisser tous ses employés (sachant que c’est censé être une boîte d’édition logicielle) travailler avec des écrans 15 pouces et des pc portables 1315 pouces dont la plupart datent de 2008… <img data-src=" />



EDIT : Au-delà de mon cas particulier, d’une entreprise qui a normalement la trésorerie nécessaire pour couvrir ce type d’investissement (&gt;100 personnes), pour la plupart des PME normales (c-a-d hors secteurs hyper-juteux type promoteur immobilier/archi) ça revient à choisir entre la bécane ou le salaire d’un employé. Je vous laisse deviner ce qu’il va privilégier… Rappelons qu’une bonne partie (majorité ?) de pme comprend au maximum 30 employés… Il faudrait que je retrouve les chiffres, mais pas maintenant, dodo… <img data-src=" /> :bye:







En même temps, ce n’est pas un bon calcul de lésiner sur le confort de travail parce que cela influe sur la productivité.



Et quand on sait ce qui coûte le plus cher dans une entreprise, ce n’est pas le matériel, c’est les salaires et les charges sociales. Et de très loin.



Donc, mauvais calcul.


Le 18/12/2013 à 18h 22







jb18v a écrit :



c’est surtout une super copie du connecteur 30 broches <img data-src=" />







Il est surtout probable que ce genre de connecteur n’est pas du tout spécifique à une marque. C’est certainement une référence plus ou moins standard chez un(ou plusieurs) géants de la connectique. Avant que l’USB ne se généralise, on trouvait des connecteurs de ce type (mais pas forcément avec le même nombre de broches)sur tous les smartphones. Et ce, bien avant qu’Apple ne se mette sur le marché du mobile et de la tablette.



Le 17/12/2013 à 01h 34







razcrambl3r a écrit :



Je deteste les “grosse touches”, ce que je recherche : le diNovo, qui a malheureusement rendu l’âme à la suite d’un accident mettant en cause une bière et une main maladroite <img data-src=" />



Après, je ne voit pas ce que ça change un clavier mécanique en faite, peut-être que je pourrais m’y faire <img data-src=" />







Tu veux dire les touches à course longue ?


Le 16/12/2013 à 23h 44







linkin623 a écrit :



117€ un clavier, j’avoue que les constructeurs ont trouvé un truc pour refaire de la marge sur un périphérique aussi basique…







Justement, ce n’est pas un clavier basique. C’est un clavier mécanique. Et ils ne sont jamais donnés ceux la.



Bref, on ne peut pas comparer ce genre de produit avec du clavier basique à 5€. Ce n’est pas du tout le même toucher <img data-src=" />


Le 16/12/2013 à 17h 36



Autrement dit, il s’agit d’offrir aux citoyens souhaitant effectuer ces démarches par email la possibilité de le faire





L’ennui, c’est que l’email utilise un protocole assez obsolète qui n’assure pas que le destinataire a bien reçu sa correspondance. Et de fait, il arrive plus souvent qu’on ne pense qu’un email se perde en chemin.



Bref, le système n’a pas été conçu pour assurer le niveau de fiabilité pour faire des choses aussi importantes.

Le 15/12/2013 à 18h 04







lysbleu a écrit :



Je suis dubitatif quant à la pertinence du critère, mais 3 pour linux et 2 pour W8 sauf qu’on perds du temps parce qu’il faut rester un instant avec la souris au bon endroit pour que le menu apparaissent donc légèrement plus lent pour W8 je dirais <img data-src=" />.



Sinon tous les soft qui ne sont pas interfacés avec les utilisateurs, s’ils sont bien fait ça ne rajoute du travail qu’aux informaticiens, et pour les autres ça devrait être à peu près équivalent s’ils ont été bien pensé.







Pour Linux, il faut compter avec le fait qu’il y a de nombreux environnements graphiques disponibles. Et beaucoup de personnalisation possibles pour chaque environnement.



Sur certains environnements, le bouton d’extinction est accessible en un seul clic.


Le 15/12/2013 à 17h 59







aureus a écrit :



Personne ne dit le contraire maintenant toi t’en a l’air certain vu qu’apparemment t’as eu un retour de 15k users.



Et l’administration ne se limite pas à open office, y’a des dizaines de soft interne.



Et pour la x-ieme fois faut arrêter de se victimiser, j’ai jamais dit qu’il y aurait forcement une perte de productivité ou un gain ou rien du tout, maintenant c’est un paramètre important à prendre en compte et un retour des principales intéressées seraient intéressant.



Enfin bon si pour toi l’administration c’est juste des mecs qu’écrivent des documents et qu’envoient des mails..







Un retour des principaux intéressés ? Pourquoi pas. Sauf qu’il ne t’apprendra pas forcément ce que tu souhaites.



Cela serait par contre un bon indicateur sur la qualité du travail effectué et l’accompagnement des utilisateurs.



Quelques question que je t’invite à te poser :



La productivité sur un logiciels métier dépends t’elle vraiment du système d’exploitation utilisé ? N’est t’elle pas plutôt tributaire du talent et des compétences de ceux qui les écrivent ?



Vu qu’actuellement la tendance est à l’utilisation du navigateur web pour servir d’interface a des logiciels de type “administratif”, comment pourrait t’on trouver une variation significative en fonction du système d’exploitation ?



Posons évidement le fait qu’on compare des Os qui ont un niveau de fonctionnement correct dans leurs interfaces et des navigateur web de qualité.


Le 14/12/2013 à 20h 38







malock a écrit :



Ah non non ! Si la tâche que tu faisais en 10 minutes, il te faut maintenant une heure MAIS que les 50 minutes du coût supplémentaire sont dilués dans les gains financiers dû au changement d’écosystème logiciel, alors non… il n’y a pas de problème.



Pour la satisfaction de l’utilisateur/visiteur, là, par contre…



Je comprends donc bien l’idée, mais il faut aussi intégrer dans le calcul le gain potentiel apporté lors d’une migration vers un système. Puis revoir un peu les ordres de grandeur pour les exemples : faut pas déconner, il y a pas une marche si importante entre du proprio/libre pour que les tâches les plus simples réalisées par une administration prennent 500% de temps de réalisation en plus dans la poire…







Ni même la moindre raison pour qu’il y ait le moindre pourcent.



Il y a toujours eu des polémiques sur le fait de savoir quelle suite était la plus puissante. Mais c’est toujours des polémiques sur des usages avancés. La plupart des usages en entreprise se contentent de fonctionnalités assez basiques que toutes les suites bureautique possèdent.



Et qu’on ne me raconte pas qu’une secrétaire mets plus de quelques heures pour apprendre à taper un courrier sur une autre suite bureautique.



Quand aux utilisateurs, je pourrais aussi vous parler de ceux qui râlent quand ils sont habitées à Open-office et doivent se servir de Ms-Office.



Le 14/12/2013 à 18h 55







aureus a écrit :



Changer de logiciel affecte la productivité des utilisateurs, plus ou moins, en bien ou en mal, qu’il soit libre ou pas.



Alors quand tu change d’OS + de soft, c’est évident que ca l’affectera. Après plus ou moins je sais pas. Ca se trouve, ca c’est amélioré, ca se trouve non, mais quoi qu’il arrive ca a eu une influence.







Ca c’est certain, mais c’est juste un effet transitoire. On peut dire qu’il s’intègre dans les coûts de migration.



Pour le changement d’OS, cela n’affecte pas significativement les utilisateurs : ils retrouvent très vite comment lancer leurs logiciels. Par contre, pour les logiciels en eux même, c’est plus long.



Le 14/12/2013 à 18h 11







aureus a écrit :



Manque tout de même un gros point dans l’histoire, le retour des utilisateurs et sur leurs productivités.







Je n’ai jamais entendu dire que les logiciels libres affecteraient la productivité en tant que tel, c’est à dire après avoir dépassé la période d’adaptation.



Personne n’est idiot non plus. Cela fait des années que tout le monde attends pour être certains que ces logiciels soient suffisamment matures.



Le 14/12/2013 à 17h 44







tic tac a écrit :



Plus que le fait qu’il est possible et rentable de migrer/adapter/former 15000 postes et autant d’utilisateurs vers un autre OS (IBM et Red Hat en sont aussi capable et MS techniquement capable aussi de faire migrer Munich dans l’autre sens :) le plus INtéressant à mon avis, serait de connaître les motivations, les reflexions et tout le cheminement décisionnel d’un tel choix.



L’argent et les économies réalisées ne semblent pas être la raison principale.

Leur décision date de 2003 mais leur réflexion sur ce projet a du commencer quelques années plus tôt … bien avant Prism, Snowden et toute la problématique sécuritaire d’aujourd hui et Linux n’était pas encore vraiment ce que l’on connait de lui aujourd hui.



Et là, début 2000 une des plus grandes villes d’Allemagne réputée conservatrice et bourgeoise décide de fonctionner à contre courant d’un modèle de fonctionnement economique et technique au nom de son indépendance …



Je serais vraiment curieux de connaître les arguments d’un tel choix, les débats contradictoires sur le sujet au conseil communal et ce qui a été dit aux sociétes concernées ou aux détracteurs durant toute les années de mise en route du projet.



Plus que leur distribution linux maison, c’est toute la genèse du projet et les moyens/arguments pour y arriver qui est INtéressante si certains voulaient tenter la même chose.







L’argent n’est peut être pas la principale motivation à court terme. Comme l’ont dit certains, le coût d’une migration absorbant sur le moment une bonne partie des économies réalisées.



Il n’empêche que :







  • A long terme l’économie réalisée sera quand même très importante.

  • Pour le même argent dépensé, l’économie locale travaille plus avec le libre. C’est un argument que nous devrions considérer plus souvent dans la question.












Le 14/12/2013 à 00h 40







Maxouille-la-fripouille a écrit :



Ecouter les anciens c’est bien gentil mais à un moment il faut savoir avancer et bousculer les habitudes, car les anciens sont la population typique qui n’aime pas le changement et qui si on les laissait faire ne changeraient rien.







Oui, mais la on ne parle pas de vieux papys technophobes.



En informatique ceux qui sont devenus “les anciens” de ce domaine, c’est d’abord des gens qui ont connu tellement de changements que ce n’est vraiment pas cela qui leur fera peur.



Ces gens sont également capables de te dire si tu n’innove pas assez.



Par contre, avec le temps, ils ont souvent appris à faire la différence entre les bons changements et les erreurs de direction.



Quand tu crée quelque chose de nouveau, l’avis des anciens est primordial parce que c’est eux qui vont te dire si tu tiens une vraie innovation ou si tu ne fait que revisiter des paradigmes anciens qui ont été abandonnés pour de justes raisons. Ils vont te dire également si la façon dont tu introduit tes nouveaux concepts est la bonne. En gros, si ta “recette de cuisine” est bien équilibrée.



Et puis, le côté “on innove et on fonce sans regarder”, c’est bon pour une petite startup. Parfois ça fonctionne, parfois non. Mais pour un acteur aussi important que Microsoft, ce genre de méthode peut s’avérer fortement contre productif. A faire cela, ils n’ont rien à gagner et tout à perdre.


Le 14/12/2013 à 00h 19







Akoirioriko a écrit :



Dans l’absolu il importe peu de savoir si cela est une erreur ou non, le fait est que c’est la vision que Microsoft a de son écosystème logiciel et qu’il applique.

Je donnais juste des pistes pour l’appliquer de manière plus douce pour l’utilisateur (et les rétropédalages successifs de Microsoft en la matière semble aller dans ce sens).



Sinon de mon point de vue il est idiot de vouloir homogénéiser ou unifier à tout prix des interfaces pour différents appareils avec lesquels on interagit de manière totalement différente suivant leur type (tactile vs périphériques de saisie/pointage) et ceci quitte à les rendre inadaptées à certains supports ou usages suite à une régression de leur ergonomie.







Il est certain qu’une application plus “douce” et de manière optionnelle aurait permis d’éviter un rejet tout en obtenant de précieux retours permettant de comprendre les limites de la nouvelle proposition.



Par contre, ce “ratage” pourrait bien s’avérer très néfaste pour le futur de Microsoft. Un acteur en situation de monopole dont les choix sont aussi lourds de conséquences pour l’industrie ne pouvait pas se permettre d’imposer comme cela des choix aussi controversés sans en subir les conséquences par la suite.



Et les conséquences pourraient venir du fait d’avoir créé un début de défiance vis à vis de Windows au plus mauvais moment, c’est à dire précisément quand d’autres acteurs peuvent commencer à lorgner sur ce marché après avoir remporté la bataille sur le marché mobile.





Le 13/12/2013 à 21h 44







Akoirioriko a écrit :



De mon point de vue la transition a été trop brutale.

On ne peut pas balayer des habitudes vieilles de presque 20 ans instantanément. Windows 8 aurait dû être l’édition de Windows qui laisse le choix.

L’utilisateur aurait eu la possibilité de personnaliser l’interface comme il l’entend de sorte à pouvoir dans un premier temps conserver un environnement qui lui est familier puis dans un second temps progressivement ajouter des éléments nouveaux qui finiront par être imposés et en retirer des anciens voués à disparaître afin d’aboutir à l’interface de Windows telle qu’on la connait aujourd’hui et finalement s’y accoutumer.

C’est à la prochaine version majeure de Windows que ces changements auraient dus être imposés d’office selon moi, une fois fois que les utilisateurs auraient eu la possibilité de s’y habituer après quelques années d’apprentissage libre.



Oh et Metro est un immondice sans nom.







Et si l’erreur n’était pas simplement d’imposer des choix à l’utilisateur plutôt que de lui proposer un maximum de choix possibles pour qu’il puisse choisir ce qui lui convient. Et ce, aujourd’hui mais aussi demain.



Si les paradigmes de Windows 8 ne conviennent pas a votre usage, ils ne conviendront pas mieux demain sous prétexte qu’on l’appellera Windows 9.



L’erreur n’est t’il pas finalement de vouloir imposer la même interface à des millions de gens qui ont potentiellement des usages très différents ?





Le 13/12/2013 à 18h 45







j-c_32 a écrit :



Le gros problème de Gnome3 / Gnome-shell, ce n’est pas le DE en lui-même, mais la façon stupide dont se sont comportés les distributions (et également la stupidité de certains utilisateurs).



Le fait d’explorer une nouvelle direction est une bonne chose:




  • la voie “à la gnome2” était déjà très explorée, et LXDE, Xfce et d’autres faisaient tout aussi bien avec des bases mieux conçues pour ça.

  • la nouvelle direction ne convient pas à tout le monde, mais elle convient à certain et mérite certainement d’être expérimentée. (il existe des contre-arguments à tout les arguments qui prétendent que c’est un mauvais choix)



    Les problèmes sont plutôt:

  • les distributions ont supposées qu’un utilisateur de Gnome2 va forcément aimer Gnome3, et a donc envoyé les utilisateurs de Gnome2 vers Gnome3 plutôt que les envoyer sur un autre DE.

  • les utilisateurs de gnome2 qui ont dit: “moi, j’aime bien Gnome2 parce que A, B et C. Donc, forcément, c’est que Gnome2 = A, B et C et Gnome3 se doit de respecter ça”.

  • les utilisateurs de gnome2 qui ont dit: “Pendant des années j’ai dit que Gnome2 était le meilleur. En faisant ça, j’ai dit que les autres étaient merdiques. Maintenant, Gnome3 prend une direction que j’aime moins, mais je ne peux pas aller ailleurs, parce que les autres sont mes ennemis”



    En ce qui concerne Windows, la difficulté d’utiliser un autre DE complique les choses et fait que MS doit assumer les critiques s’il impose à tous un DE qui ne convient qu’à certains.







    Tiens, pour une fois je suis à peu près d’accord avec une bonne partie de ce que tu dit.



    Mais d’un autre côté, le problème pour ceux qui aimaient Gnome 2, c’est quand même que Gnome 3 a mis fin au développement de l’environnement qu’ils aimaient.






Le 13/12/2013 à 18h 27







youri_1er a écrit :



La logique dangereuse c’est d’avoir conçu des logiciels sans sauvegarde!



Ce n’est pas à l’utilisateur de perdre du temps mais bien à l’informatique de lui en faire gagner, hors aujourd’hui on va droit dans le mur avec une informatique qui deviens une contrainte plus qu’une aide!



Je bénis les tablettes pour le communs des utilisateurs, il n’y a rien à faire dessus pour que tout fonctionne, les logiciels s’installent d’un clic et sans risque (ou presque).

Tout est bien contrôlé pour que l’utilisateur ne se pose pas de question et que cela l’amène le plus vite possible vers ce qu’il cherche, ou lui réponde le plus rapidement que ça ne peu pas se faire ou que ça n’existe pas!



L’informatique ne doit être complexe que pour ceux qui crée les logiciels, ceux qui les utilisent ne devraient jamais se poser de question complexe sur l’utilisation, le but à atteindre leur donne déjà assez de mal comme ça!







Je comprends bien ce que tu dit, mais je ne suis pas du tout d’accord.



Je répète ce que j’ai dit et qui est le fruit d’une longue expérience d’informaticien : A infantiliser les utilisateurs, tu ne fera jamais que déplacer les problèmes tout en les rendant plus grave et en augmentant les difficultés des utilisateurs à long terme.



Je me souviens de l’informatique des années 80. Pour se servir d’un ordinateur il fallait tout apprendre : programmer, le fonctionnement de la machine, la notion de fichier et de stockage, brancher les périphériques, sauvegarder, etc…

Mais en quelques semaines, la plupart des gens (y compris le bon père de famille) avait compris l’essentiel. Et cette génération la n’a jamais eu de soucis.



Il suffit de constater que la génération actuelle, celle qui subit “l’informatique simple” passe son temps à galérer. Oh oui, au déballage de l’appareil tout se passe bien, mais au premier problème imprévu, ils sont paumés de chez paumés.



Quoi que tu en dises, il y aura toujours un moment ou il faudra se poser des questions. Un ordinateur qui sauvegarde automatiquement ? Ce n’est pas nouveau. Et crois moi que certains ont eu de très mauvaises surprises.

Si l’utilisateur n’a pas la capacité de se demander ou et comment se fait la sauvegarde automatique il peut s’apercevoir que l’ordinateur sauvegardait sur un second disque dur qui était dans l’ordinateur qui était dans le local qui as brûlé.

Et même pour la sauvegarde dans le cloud, tout n’est pas simple. Par exemple, pour une sauvegarde simple, un virus peut aussi endommager les sauvegardes.

Bref, c’est un domaine très compliqué ou il faut avoir la connaissance pour déterminer en fonction du volume de données, de leur importance, de leur confidentialité quels sont les moyens à mettre en oeuvre pour la sauvegarde.









Le 12/12/2013 à 23h 50







Chamaloxxx a écrit :



Ben oui… C’est valable partout. Tu n’a jamais été chez un gugusse qui s’était acheté un systeme 5.1 et dont l’intégralité des enceintes est rangé en vrac sous la télé ?

Ou chez un autre dont la box TV est branchée en Peritel sur une télé HD ?



Le monde “moderne” est bigrement compliqué, c’est d’ailleurs grâce à ça qu’Apple a fait son beurre.







Mouaip… Sauf qu’en informatique il a été décrété une fois pour toute par Microsoft que les ordinateurs devaient s’apprendre, que ça devait être difficile et compliqué, et ça a généré une population toute nouvelle : les geeks.



Et ça aurait pu continuer longtemps si Apple n’avait pas réussi avec son IOS a foutre le bordel chez les geeks et Microsofts : un truc ultra simple qui répond à LA LOGIQUE et pas à d’obscurs trucs-machins que seuls des tordus peuvent comprendre.



Tu es sur Windows, tu veux jeter un programme, si tu n’y connais rien tu imagines NATURELLEMENT que poser l’icone dans la poubelle détruit le programme. Mais non, rien à voir. Et là commence le chemin de croix.



Par contre sur Ipad/Iphone, quand tu jettes l’icone, ça jette le programme. C’est logique, ça répond au sens commun. L’apprentissage n’est ni laborieux ni illogique.



Donc un minimum, à mon goût serait que la machine ne nécessite pas d’apprendre plus que de raison, et s’adapte aux utilisateurs.







Ce n’est malheureusement pas aussi simple.



Dans la vie rien n’est tout noir ou tout blanc. Rien n’est jamais gratuit. La simplification apporte de bonnes choses mais aussi des effets secondaires très néfastes si on pousse à l’extrême.



A trop vouloir simplifier un environnement, on finit aussi par lui faire perdre de la puissance et de possibilités. C’est inéluctable.



A force de faire croire aux gens qu’il n’y a plus besoin d’apprendre le fonctionnement des choses, on reporte finalement les graves difficultés pour plus tard. Au point que parfois les inconvénients de ne pas apprendre surpassent très largement les avantages.



Quand vous rencontrerez des gens qui ont perdu des années de travail faute d’avoir appris l’importance de la sauvegarde, vous comprendrez que c’est une logique dangereuse.



Parfois il ne faudrait pas oublier que l’ordinateur est l’objet le plus complexe que l’homme ait jamais inventé. Les pièges y sont nombreux. Un minimum d’apprentissage est le seul moyen de les éviter. Ne pas apprendre, c’est reporter et amplifier les difficultés.



A noter que personnellement je ne suis pas un ayatolah du trop compliqué ou du trop simple. Tout est affaire de juste milieu.


Le 12/12/2013 à 23h 38







arno53 a écrit :



On est forcement obliger de s’adapter à l’interface : pour un neophyte, le clic droit n’est pas intuitif, il sait pas qu’il peut le faire et ce que ca va faire … D’ailleurs les applis WinRT utilise différemment le clic droit par rapport a celle du bureau..



Apres comme je le disait plus haut, l’interface Modern UI est surtout pensé pour une utilisation tactile et sur ce point le fenêtrage aurait été horrible …



Vu la direction prise par Ms je pense qu’il vont revenir en arrière sur leur “One interface” … C’était nécessaire pour lancé Windows RT, mais maintenant ils ont l’air de vouloir orienté WinRT aussi vers le desktop et pour ca on aura besoin d’applis pensé pour et seulement pour le clavier/souris. On peut donc imaginé la encore 2 environnement :





  • si aucune souris / trackpad n’est détecté l’applis WinRT est lancé avec une interface tactile et avec du tilling.

  • si le système détecte une souris (ou si l’utilisateur modifie un paramètre), l’applis se lance dans une interface plus riche et avec un systèmes qui aident à l’arrangement des fenêtres (par exemple dans un premier temps un tilling sans chevauchement et l’utilisateur creer ensuite lui meme son chevauchement … Un peu comme le 5050 de Win7 enfaite … Le systeme ne fait pas chevaucher mais l’utilisateur créer manuellement le chevauchement ..).



    Mais Microsoft n’a jamais dis que la souris disparaitrait au contraire :



    Ils ont juste été pressé par le succes d’iOS et d’Android … Il fallait faire un choix :



  • sortir un truc orienté tactile et s’appuyer sur le la ventes liée du PC pour tenté les développeurs même si cette interface n’était pas des plus adaptés. Et rectifier les choses avec des MaJ annuels qui rapprocheront les API mais différencieront les interfaces pour tenir compte des spécificités des form factor.



  • attendre encore quelques années que l’environnement WinRT puisse remplacé Win32 et qu’il soit le même sur smartphone aussi, qu’office soit re-écrit sur WinRT et sortir une version simplement tablette et une autre simplement PC (et donc des devs PC qui ne font pas grossir le store tablette et vis versa) …



    Ils ont choisis la première option quitte à ce que le marché PC faiblisse un peu (mais en même temps la fin du support de Windows 7 pour 2020 leur laisse le temps d’être prêt pour la prochaine grosse migration des entreprises) mais au moins ils étaient là sur le marché en pleine croissance que sont les smartphones et les tablettes…







    Effectivement, c’est sans doute le succès rapide de concurrents qui les a poussé à la faute.



    Mais ce n’est pas un hasard. C’est aussi de leur faute s’ils n’ont pas vu a temps le potentiel du mobile et laissé stagner leur OS PocketPC pendant des années.


Le 12/12/2013 à 21h 42







arno53 a écrit :



Modern UI comme on le connait actuellement disparaitra assez rapidement des PC enfaite … Il ne sera là que sur tablette.







Une des plus graves erreurs a certainement été de vouloir traiter par les mêmes paradigmes l’écran d’un téléphone et celui d’une station de travail.



Un peu comme si je vous disais qu’avec le même véhicule vous irez courir un grand prix de Formule 1 et déménager des meubles. Il est évident que le véhicule en question ne sera jamais performant dans aucun cas.



Une autre erreur de raisonnement gravissime a été de penser que le tactile allait rapidement avoir raison des souris sur desktop. C’est vraiment dommage qu’ils soient passé si facilement à côté du détail qui tue : le tactile est très loin de la précision d’une souris et on voit mal une secrétaire ou un comptable perdre un temps certain à chaque fois qu’il faut pointer un chiffre ou sélectionner un texte.



Le plus amusant dans l’affaire, c’est qu’on pourrait se moquer de Microsoft, mais dans le monde du libre, plusieurs interfaces ont suivi ces paradigmes sans vraiment réfléchir et finalement un peu de la même façon cavalière en balayant toutes les critiques d’un revers de main.


Le 12/12/2013 à 21h 30







arno53 a écrit :



Ouais enfin le principe des fenêtres qui se chevauche ou qui laissent des trou permettant de voir le fond d’ecran du bureau a aussi montrer ses limites …







Sauf que les fenêtres ont aussi d’énormes avantages. Particulièrement quand on travaille avec pas mal de documents. Et souvent, le chevauchement est aussi très utile. Les “trous” ne sont pas forcément un inconvénient dans ce contexte.



La encore, les fenêtres sans chevauchement, cela n’a rien de nouveau. Cela existait à une époque.



“Le 9 décembre 1987, Microsoft lance Windows 2.0 avec des icônes sur le Bureau et une mémoire étendue. La prise en charge des graphismes étant améliorée, il est désormais possible d’avoir des fenêtres qui se chevauchent…”



windows.microsoft.com MicrosoftCe qu’on nous présente comme une grande nouveauté un jour et qui a perduré pendant plus de 20 ans serait finalement une monstrueuse erreur ?



Dans l’histoire, il y a forcément l’un des deux qui s’est trompé.





Perso l’interface parfaite surait une barre des taches visible en permanence comme sur Win7 et un tilling dynamique qui decoupe verticalement mais aussi horizontalement.





Il y a du vrai la dedans. Je me suis souvent demandé pourquoi Windows n’intégrait pas plus de systèmes qui aident à l’arrangement des fenêtres.



C’est la qu’on comprends que la bonne démarche aurait été plutôt de chercher à améliorer l’interface existante au lieu de faire table rase de manière aussi radicale. <img data-src=" />





Comme ca tu as l’avantage des fenêtres (la tailles en largeur et en hauteur que tu veux) sans ses inconvénients : plus de chevauchement et la place alloué au dessus d’une application serait directement alloué a une autre …





Concernant le chevauchement, l’idéal, c’est de ne pas en avoir quand on le désire et ne pas et d’en avoir si on le désire.



L’interface parfaite, c’est celle qui s’adapte au besoin de l’utilisateur, pas celle qui demande à l’utilisateur de s’adapter.



En lisant ce topic, je vois beaucoup de commentaires disant “pourtant, j’ai reussi à m’y adapter”. C’est déjà le signe d’une mauvaise façon de voir. Une bonne interface, cela s’impose naturellement sans que l’utilisateur se rappelle avoir du “s’adapter”.



Par le passé, les changements ont été bien plus grands que les jeunes d’aujourd’hui n’en connaîtront probablement jamais durant toute leur vie. Mais même en passant du “DOS” à un environnement graphique je n’ai jamais eu l’impression de “devoir m’adapter”.



Une bonne interface est comme un gant qui vient épouser votre main. S’il ne le fait pas naturellement, c’est qu’il n’est pas bien coupé.


Le 12/12/2013 à 19h 27







arno53 a écrit :



Ca tombe bien Windows 8 est toujours multi-taches et on peut afficher plusieurs applis en meme temps …











burroz a écrit :



il y a w8.1 avec la possibilité de démarrer l’ordi sur l’interface bureaux

Et le clic droit sur le signe Windows en bas a gauche sur le bureau permet d’avoir les fonctionnalité de démarrer de Windows 7.

Le truc qui m’éclate c’est le fait que les gens râlent du changement graphique mais râlent aussi de ne pas voir d’évolutions graphique.



Personnellement, je pense que Microsoft a pris un gros risque avec Windows 8 car cela demandait une nouvelle utilisation et on ne peut pas prévoir les problèmes d’ergonomie avec un tel changement donc le 8 était un test et le 8.1 la version finale.

Concernant du multitache de pouvoir scinder l’écran en deux parties est excellent surtout pour bosser et utiliser xbox music, Skype, ou autre sur les 13 de l’écran.







Sauf que tout cela est loin d’être ergonomique à l’usage sur un desktop.



Et l’écran scindé était aussi une vieille solution du passé (utilisée sur amiga par exemple). Solution transitoire et non idéale que l’évolution a enterrée quand les développeurs ont pleinement optimisé les paradigmes d’un environnement multitâche.



Beaucoup de choses ont déjà été testées en matière d’interface. Parfois certains pensent innover alors qu’il ne font que revisiter des chemins déjà empruntés… et abandonnés.



Étudier l’histoire de l’informatique, c’est comprendre pourquoi certaines solutions se sont imposées par leur supériorité. Cela évite de refaire des erreurs qui ont déjà été commises.



Prendre des risques, c’est bien. Mais l’informatique, ce sont des millions de gens qui travaillent avec toute la journée avec. Et forcément, ils ne sont pas heureux quand les solutions proposées ne sont pas optimales.



Ne serait t’il pas plus sage pour une entreprise de la taille de Microsoft de valider ce genre de choix à petite échelle ? C’est pourtant ce que font tous les professionnels dans d’autres métiers. Et c’est le tort de Microsoft de ne pas avoir procédé de la sorte.



Visiblement, une petite minorité a imposé ses choix radicaux contre vents et marrées sans écouter personne, c’est pourquoi ils en payent logiquement aujourd’hui la responsabilité.







Bejarid a écrit :



Oui, mais il ne sait pas remplacer le cerveau des personne apparament, 2 ans plus tard sr17 est toujours aussi idiot :(







sr17 est peut être idiot, mais il a reçu une éducation qui lui permet de respecter ses interlocuteurs dans la discussion.



Et le fait que l’évolution des choses lui donne presque systématiquement raison démontre qui as tort et qui as raison. Cela se passe de tout commentaire. <img data-src=" />



Je vous souhaite d’ailleurs de comprendre un jour l’intérêt de ne pas mépriser l’expérience et d’écouter les anciens. Cela vous évitera peut être un jour de briser bêtement votre carrière comme l’ont fait l’équipe à l’origine des erreurs de Windows 8 <img data-src=" />













Le 12/12/2013 à 17h 45







Shyfer a écrit :



A mon avis, s’ils empêchent le fenêtrage des applis WinRT, c’est justement pour permettre le développement de celles-ci.

Imaginez, ils annoncent WinRT, nouveaux api, possibilité de faire des applications fenêtrées comme aujourd’hui etc… Quel est l’avantage par rapport à Win32 ? Aucun, car ces applis ne tournent que sous Windows 8.

Par contre ici on force WinRT pour l’utilisation du tactile principalement, et en mode ModernUI. ModernUI passe ici comme un nouvel environnement pour le consommateur moyen et le geek anti-Microsoft (oui, car Windows 8 reste Windows 7 ++ , + une interface dégueulasse n’est-ce pas).

Donc nouvel environnement = nouvelles opportunités

Alors en conclusion on a simplement : ModernUI = incitation à l’utilisation des nouveaux API, et préparation des funérailles de Win32







En même temps, les applications non fenêtrées, c’est un retour aux paradigmes du début des années 80 ou les OS n’étaient pas multitâches.



Ca peut encore passer sur un téléphone ou l’écran est petit ou sur une tablette ou il n’est pas facile de manipuler des fenêtres avec ses gros doigts.



Mais sur un poste de travail ultra moderne du 21ième siècle, ça fait juste tâche…



L’échec était couru d’avance et à l’époque, je l’avais prédit.


Le 13/12/2013 à 18h 05







lateo a écrit :



Boarf, un linux aux p’tits oignons avec tout ce qu’il faut tient sur 8Go…







Certes, mais il faut aussi disposer d’un peu de place pour travailler. La c’est clairement trop limitatif.







lionnel a écrit :



Pareil dans le 13, avec en bonus un bios customisé et un soft bizarre entre le MBR et l’OS. Ca n’a pas empêché nombre de petits malins de contourner le bouzin de diverses manières.







Certes, mais il existe aussi des bootloader qui utilisent le chiffrement et qui sont pratiquement incrackables. D’autres qui ne sont pas des bios/uefi modifiés mais carrément pas des trucs standards qui ne peuvent pas booter autre chose qu’un os spécifiquement conçu. Mais bon, pour l’instant on ne sait pas vraiment de quoi cette machine est équipée, donc c’est trop tôt pour se faire une idée.





C’est exactement ce qui s’est passé après 3 ou 4 années scolaires avec le système précédent: le CG a commencé à DONNER à tout les élèves de 4eme des pc portables “normaux” sans le moindre soft dedans. C’était moins coûteux de refiler des machines neuves chaque année que d’assurer la maintenance hard comme soft de pc en “prêt”. Sauf que va assurer des cours avec des pc complètement héteroclytes, ou machin aura Ms office 2000, un autre ooo, le 3eme un ofice xp mal cracké, le cancre du fond aura planté son système… En gros inutilisable en cours.





C’est la ou l’on constate qu’il y a encore des progrès à faire question culture de l’informatique dans notre pays.

Déjà primo, ils feraient mieux de mettre Linux pour éviter tous les problèmes de virus/malwares. Secundo, la première chose qu’on devrait leur apprendre c’est d’installer/réinstaller. Tertio, les logiciels libres ce n’est pas fait pour les chiens, ils sont gratuits et tout le monde peut avoir la dernière version. Avec les logiciels propriétaires, c’est nettement plus compliqué.





Rien n’interdit de proposer d’un éditeur de texte avancé ou un IDE sous ChromeOs,





Ce qui fait l’intérêt et la puissance d’un ordinateur, c’est les énormes possibilités dont il dispose en terme d’usage. Essayer de déterminer ce qui “suffira” aux utilisateurs mène toujours à des erreurs. Jamais aucun informaticien n’a su prévoir ce dont ses utilisateurs auront vraiment besoin.

Je ne comprends d’ailleurs pas l’intéret de vouloir le faire alors qu’il existe d’excellents OS généralistes. Par exemple Linux qui dispose de milliers de logiciels libres gratuitement accessibles en un clic.

Dans ces conditions, pourquoi s’embêter avec un OS limité ?





à la différence d’un minitel qui n’a aucune capacité matérielle.





Contrairement aux croyances, le minitel était bien à la base un véritable ordinateur muni d’un microprocesseur. Son logiciel était simplement bridé.

Avec quelques francs de plus pour avoir un peu plus de RAM, il aurait pu devenir l’ordinateur national. Peut être que cela aurait changé l’avenir de notre pays en prenant une avance sur nos voisins.



Mais voila, dans un bureau il y a des gens qui ont déterminé ce qui est censé suffire au bon peuple.



Les gens comme moi qui sont assez vieux pour avoir vécu ce genre d’erreur savent pourquoi il ne faut pas les répéter.





Le plus dur est surtout de trouver un équilibre entre l’homogénéité du parc nécessaire aux cours et les possibilités d’utilisation “personnelle”. Ca aucun os ne peut le faire à lui seul, bien que certains soient plus adaptés que d’autres.





Et pourtant, il suffirait d’un simple CD bootable d’ubuntu pour avoir une homogeneité parfaite et résoudre tous les problèmes.



En matière d’ordinateur, il y a également des petits ordinateurs comme le Raspberry PI auquel il suffit de changer la SD Card pour restaurer l’environnement.











Le 13/12/2013 à 17h 15







atomusk a écrit :



C’est un débat qui va bien au delà des chromebook … tu peux filer à chaque élève un vrai PC sous Windows/Linux/OSX, sans un minimum de support, de sécurité pour s’assurer que le poste ne sera pas vérolé/détourné, il finira au placard.



Balancer du hardware en se disant “voilà travail terminé, on va en faire des génies” c’est ridicule.



Maintenant un Chromebook est largement suffisant pour faire de l’initiation au développement, et accessoirement du développement web par exemple.







Que l’école commence par apprendre aux gens des choses utiles, par exemple à réinstaller leur config quand c’est planté. Apprendre à se servir vraiment de l’informatique, c’est d’abord apprendre ce genre de chose pour être autonome. C’est super important pour les gens qui vont bosser dans des TPE ou il n’y aura pas d’admins.



Enfin, le but n’est pas de faire de tout le monde un génie, mais de ne pas brider le potentiel de la petite minorité de génies en puissance. Parce que cette petite minorité est vitale pour la survie économique de la grande masse.



Le 12/12/2013 à 00h 25







lionnel a écrit :



dPour une utilisation en millieu scolaire c’est au contraire un gros avantage. Plus on gére de choses “coté serveur”, moins on a à se soucier de la sécurité ou de la configuration coté client, par ex pour une utilisation en cours.



Je me souviens trés bien du bordel qu’etait la première génération de portables prêtés aux collégiens des bouches du rhone: une usine à gaz pour tenter de “sécuriser” le système, et des admins qui passaient leur temps à traquer les failles.

Vu le bordel déployé, je n’ose pas imaginer le coût de l’ensemble.



Avec un un Chromebook et si l’os est adapté aux usages scolaires, il est bien plus facile d’éviter nombre de problèmes du genre en ne laissant qu’un accès minimal à l’utilisateur, du moins sur le temps scolaire







C’est certain que pour les administrateurs, plus les utilisateurs sont limités, mieux les admins peuvent dormir tranquillement.



Mais a vouloir distribuer des sortes de minitels aux jeunes des écoles au lieu d’un ordinateur non limité, ne risque t’on pas de s’apercevoir dans 15 ans qu’on aura tué dans l’oeuf tout nos petits génies potentiels en programmation ?



Limiter, c’est toujours prendre le risque de niveler par le bas. Et le plus embêtant quand on touche à l’éducation, c’est que les conséquences sont à long terme. Donc c’est quasiment impossible à rattraper.



Il faut bien prendre conscience que ce que nous donnons à un jeune peut changer son destin. C’est pour cela que les choix en matière d’enseignement doivent être murement réfléchis.


Le 11/12/2013 à 23h 38







lysbleu a écrit :



À moins que je dise des bêtises, on n’est pas obligé d’utiliser chromeOS.







Comme nous le fait remarquer luxian, la capacité du disque intégré est trop faible. C’est bien trop peu pour utiliser un OS classique.



De plus, techniquement il faudrait encore s’assurer que la machine disposerait bien d’un UEFI standard.



Bref, autant choisir d’emblée un portable classique.



S’il était vendu à 150\( ça aurait pu valoir le coup de chercher à bidouiller. Mais à 300\), certainement pas.



Le 11/12/2013 à 21h 26







renaud07 a écrit :



Et pour 30€ de plus on a un vrai netbook ou on peux installer ce qu’on veux :http://www.darty.com/nav/achat/informatique/ordinateur_portable-portable/portabl…



Franchement entre le chromebook et le toshiba y’a pas photo c’est le toshiba qui l’emporte <img data-src=" />



Je ne comprends pas quel intérêt peu avoir ce genre de machine <img data-src=" /> surtout qu’en plus faut mettre toutes ses données chez google, perso ça me donne pas du tout envie d’en acheter un.







C’est clair.



Pourquoi prendre un ordinateur limité quand on peut avoir au même prix un produit qui offre beaucoup plus de possibilités ?



Non, moi je ne comprends pas.



Le 11/12/2013 à 22h 43







Konrad a écrit :



Mais qui sommes-nous pour décider ce que les gens devraient faire ou non ?







N’inversons pas les choses. Le but, c’est bien que les gens aient la possibilité de faire ce qu’ils veulent. Pas l’inverse.



Ce n’est pas parce qu’une majorité de gens ne choisit pas son OS qu’il faut pour autant considérer que ce choix devrait forcément s’imposer à tous.



Démocratie ne doit pas signifier pour autant dictature de la majorité.



Le 11/12/2013 à 22h 35







Konrad a écrit :





À partir du moment où un ordinateur portable embarque un processeur x86 et un disque dur (ou SSD), c’est un PC et il est concerné par la vente liée.







A partir du moment ou un appareil embarque les éléments constitutifs d’un ordinateur, c’est à dire d’abord un processeur (pas forcément x86) il devrait pouvoir être muni d’un “bootloader” ouvert et de la possibilité d’être acheté sans OS si quelqu’un le désire.



Et si quelqu’un vous réponds que ça ne sers à rien, je vous dirais que c’est une simple question de bon sens économique pour préserver la libre concurrence.



Si demain quelqu’un (un français par exemple) veut créer un nouvel OS, il faut d’abord que les conditions du marché lui permettent d’avoir une chance d’exister pour qu’il puisse convaincre d’éventuels investisseurs.



Donc passer ce type de loi, c’est une question de bon sens économique.


Le 11/12/2013 à 22h 24



Les promesses n’engagent que ceux qui y croient.





Ouais, c’est ce qu’on dit.



Mais il y a quand même des limites à ne pas dépasser. Passé un certain stade, le peuple finit quand même par s’en apercevoir et s’en émouvoir franchement.



Et une fois ce cap passé, il s’en rappelle définitivement malgré les gesticulations.



Je pense que non seulement Hollande ne sera pas réélu, mais que le PS n’accédera plus jamais au pouvoir et finira par disparaîtra en tant que parti.



Finalement, ça ne sera pas plus mal. Le PS est empêtré dans des lutes internes depuis la mort de Mitterand. Ils n’ont jamais vraiment travaillé sur les idées de gauche modernes qui auraient vraiment permis de se remettre en phase avec les problèmes du monde actuel.



Cette impasse idéologique les a conduit à devoir renoncer en pratique à l’application d’une politique de gauche, ce qui a conduit au suicide actuel ou ils se discréditent totalement en menant une politique plus proche de la droite conservatrice que de la gauche progressiste.



C’est comme un aveu cinglant du fait qu’ils n’ont plus d’idées concrètes à proposer pour le futur, ce qui les écartera définitivement du pouvoir.



Hélas pour nous, ce qui suivra ne sera peut être pas glorieux. La France risque de s’inférer dans les années qui viennent dans les mauvaises solutions, les petites haines et les conservatismes qui nous éloigneront encore plus des véritables solutions.

Le 11/12/2013 à 20h 26







NiCr a écrit :



La nourriture qui coûte de plus en plus cher ? Tu as des données à me fournir ?

Que les prix augmentent (l’inflation) c’est normal. Mais en terme de proportion des revenus, on est passés de 40% dépensés chaque mois pour se nourrir à environ 25%. Et ce n’est pas mois qui le dit mais l’INSEE :http://www.insee.fr/fr/ffc/docs_ffc/ref/CONSO09c.PDF







En plus de le constater personnellement, tous mes voisins, amis et parents me confirment la même chose : la nourriture, c’est de plus en plus cher.



Quand aux statistiques, c’est toujours un sujet qu’il faut prendre avec prudence car ce sont toujours des simulations théoriques qui aboutissent à des moyennes. On ne peut pas raisonner sur ces chiffres sans connaître le détail de leur calcul et surtout les données qui ont été intégrées.



Sinon, l’évolution des chiffres est aussi à prendre avec des pincettes car les situation sociétales ne sont pas comparables dans le temps.



Par exemple, si on prends pour référence la période l’avant mécanisation, la nourriture coutait effectivement cher. Mais 60% de la population était employée au champs, donc avait un emploi et de quoi se nourrir. Le logement coutait en proportion beaucoup moins cher.



Mais dans une période de chômage massif, quand des gens n’ont plus d’emploi, donc plus de salaire, le prix de la nourriture peut représenter une charge considérable. Sans compter le prix de l’habitat devenu hors de prix en l’espace de quelques décénnies.



Le 11/12/2013 à 19h 30







NiCr a écrit :



Le loyer ? Il y a les HLM et les APL.

L’électricité ? Il y a les TPN.

Le téléphone ? Je suppose que c’est pour trouver du travail que tu as besoin du téléphone ? Avec du prépayé tu dois t’en sortir pour moins de 20€/mois. Et puis chez Pole Emploi tu peux utiliser gratuitement leurs lignes.



Ce qui laisse facilement 100€/mois pour manger.



Et tu devrais relire mes commentaires car je n’ai jamais remis en cause le socialisme ou le principe de solidarité. Je dis juste que les gens devraient vivre selon leurs moyens et tout le monde s’en porterait mieux. Le low-cost n’existerait pas, et tous les problèmes qu’il implique non plus.







Vu le cout de la vie et des loyers actuellement, c’est absolument irréaliste.



Les HLM ? Même ceux qui ont un emploi correctement payé mettent des années à en obtenir un.



Manger pour 100€ par mois ? Ca fait à peine plus de 3€ par jour. En plus de ne rien manger (et le peu que tu mangera sera de la merde), en quelques mois tu aura complètement bousillé ta santé (carrences, cholesterol, etc…). Rapidement, tu ne sera plus bon à rien.



Comme beaucoup de gens, tu as l’impression que les exclus ont droit à pleins de trucs gratuits. Mais il faut voir à quel prix. Un jour un SDF que j’avais hébergé pour l’aider m’a expliqué comment il avait du passer une après midi pour faire 15 bornes à pied dans le froid avec une rage de dents pour obtenir juste un pauvre tube de cachets.



Bref, entre la théorie et la pratique, il y a un monde.



Aujourd’hui, nous parlons d’un monde ou l’on ne PEUT plus donner un travail à tous. Et tout le monde a pourtant le même droit de vivre dignement.



Une bonne raison de considérer la question, c’est de comprendre que même si vous pensez avoir un bon job et un bon salaire, vous devez savoir que vous avez des chances non négligeable de finir un jour au RSA. De plus en plus, les entreprises profitent d’une telle abondance de demandeurs d’emploi qu’ils n’ont plus besoin de s’encombrer avec les vieux.



Et tout porte à croire que cela ne fera qu’empirer.


Le 10/12/2013 à 23h 13







Mihashi a écrit :



La France n’a jamais été condamnée pour ça <img data-src=" />.

Les trois opérateurs, oui, une fois en 2005.







Tout à fait d’accord. C’est complètement stupide d’accuser une entreprise de faire perdre des emplois dans les entreprises concurrentes, parce qu’elle est plus productive…



Le principe/objectif de l’industrialisation c’est d’augmenter la productivité par travailleur.

Le problème est qu’on a atteint un stade où un travailleur produit plus que ce qu’il consomme, d’où du chômage…

Sans compter qu’on importe plus que l’on exporte, du coup on fait travailler à l’étranger plutôt qu’ici.



Il n’y a pas 36 mille solutions, il faut inverser ou au moins équilibrer la balance commerciale (en rajoutant des taxes à l’importation, en réindustrialisant, …). Et accepter que tout le monde n’a pas besoin de travailler pour satisfaire tous nos besoins.







Tout à fait.



Le pire c’est qu’un grand nombre d’économistes ont écrit la dessus depuis très très longtemps. Même des fondateurs de la cybernétique avaient prédits que le système économique devrait être adapté impérativement sans quoi nous aboutirions à une catastrophe économique et une montée massive du chômage.



Mais le problème semble plutôt de devoir changer les mentalités qui ont été forgés par les paradigmes du passé. Sans compter les hommes politiques qui ont bien compris que les idées périmées pouvaient au moins servir encore leur petite ambition personnelle en s’érigeant en héros défenseurs des valeurs du travail et grands pourfendeurs des fainéants.



Le 10/12/2013 à 22h 54







metaphore54 a écrit :



Et ? il faudra des gens pour entretenir, surveiller ces robots, il en faudra aussi pour les concevoir et les construire. C’est de la destruction créatrice, certes dans certains domaines il n’y aura plu ou presque plu de travail mais il y en aura de nouveaux dans d’autres domaines.







Il faut très peu de gens pour entretenir et surveiller les robots. Ce sont des machines industrielles très solides et durables. Le travail est contrôlé ensuite par un système numérique et automatique. Et les énormes progrès de l’informatique permettront de mettre dorénavant des machines la ou il était naguère difficile de le faire ou de contrôler ce qu’il était difficile de contrôler.



De fait, le danger, c’est que la situation aboutit justement à un blocage du processus de destruction créatrice.



Pour expliquer en deux mots, il y a un problème depuis que la production des biens strictement indispensable ne représente plus qu’un faible pourcentage de la population. Et ce problème est d’apparition récente dans l’histoire industrielle. L’entrepreneur a de tous temps cherché à ne vouloir payer que le salaire qui correspond au minimum vital. Or ce minimum vital ne permet pas le développement de l’industrie non indispensable( Voir les réflexions d’Henry Ford sur le sujet). Mais comme l’industrie qui produit les biens indispensable représente une part toujours plus réduite de l’économie grâce à la mécanisation, il y a donc destruction de plus en plus grande et une création de plus en plus réduite. D’ou un chômage de plus en plus massif qui finira en guerre si rien n’est changé.



Le problème est décrit de longue date par les économistes qui s’en sont préoccupés. Et les solutions, pour peu qu’on se donne la peine de lire ont déjà été pensées.



Ajoutons qu’un deuxième phénomène vient aggraver la situation : la limite énergétique qui est de fait une limitation tangible et infranchissable à la croissance. Le problème c’est qu’un ouvrier consomme bien plus d’énergie qu’il n’en produit. Et tout le problème de la production du futur se résume à cela.



Comme dit plus haut par certains, la solution du revenu citoyen n’est ni nouvelle ni sortie du chapeau d’utopistes du parti communiste. C’est le fruit du travail de nombreux économistes, penseurs et industriels. Ce sont aujourd’hui les néo libéraux qui portent cette idée parce qu’ils ont très bien compris que c’était le seul moyen de sauver le libéralisme (et accessoirement d’éviter peut être des guerres).


Le 10/12/2013 à 18h 21

Ce débat montre bien que les politiques raisonnent avec des idées dépassées.



Préserver l’emploi au détriment de la compétitivité des services, c’est aussi une excellente façon d’aller droit dans le mur.



Le futur, c’est la robotisation et l’inéluctable destruction massive des emplois. Il faut un système qui peut gérer cela sans créer de drame social faute de quoi nous raterons le tournant du futur. Beaucoup d’économistes modernes s’intéressent au revenu citoyen.



Montebourg montera t’il au créneau à chaque fois qu’une usine licencie pour robotiser ? Et 5 ans après tout le monde ira pleurer que l’usine fermera parce qu’elle n’est plus compétitive ?



En ce qui concerne la téléphonie, il y a également à la base des choix idéologiques idiots : l’erreur fondamentale, c’était de soumettre les réseaux à la concurrence privée alors que les fréquences radio représentent une ressource rare. On pourrait rendre un meilleur service aux français tout en étant moins chers en mutualisant les émetteurs. N’est t’il pas idiot d’avoir un émetteur par opérateur dans une zone peu dense ? Tout cela multiplie les coûts qui sont payés par les consommateurs finaux.










Le 09/12/2013 à 19h 25







Maxouille-la-fripouille a écrit :



A peine + cher? Tu rigoles?? Faut arrêter avec ça! c’était valable y’a 15 ans en arrière mais aujourd’hui c’est plus le cas! Et venir dire qu’une tour Antec c’est super beau, heu… Franchement, ok c’est sobre et tout, mais ça reste un rectangle ressemblant aux PC d’il y’a 1520 ans en arrière, y’a rien de design! <img data-src=" />







Oui, le matos d’assemblage est un peu plus cher, mais c’est souvent aussi parce qu’il est d’une gamme plus élevée. Par exemple, il suffit de regarder l’alimentation des machines vendues “toutes faites” dans les supermarché pour comprendre qu’ils mettent juste le strict nécessaire. Pareil pour la carte graphique, la carte mère et bien d’autres composants.

Enfin, concernant le design, c’est bien le plus grand avantage de la machine d’assemblage. Tu n’aime pas Antec ? Et bien choisit celui qui te plaira parmi les milliers de modèles disponibles sur le marché.





Et puis faut arrêter aussi de transposer vos utilisations et façons de faire de geeks à la majorité des gens! Vous ne représentez RIEN dans la population, ça faut bien vous le mettre en tête! Les gens lambdas ont une utilisation et une philosophie différente concernant l’informatique, mais ça vous ne l’avez pas encore compris. <img data-src=" />





La seule philosophie du grand public, c’est de se faire entuber par méconnaissance. Le grand public, c’est le pigeon par excellence qui achète d’abord ce qui est dans l’intérêt du vendeur et du fabricant. Il croit décider de lui même mais il est en réalité complètement dirigé par les grandes modes véhiculées par les média qui sont orchestrées par les grandes agences de communication.



Le geek achète au contraire en connaissance de cause de l’excellent matériel. Comme tout les connaisseurs, il sait ce qui est bon. Et son matériel est de fait beaucoup plus polyvalent, durable, évolutif et dépannable.



Ce matériel n’est pas différent dans son usage, donc il convient très bien à n’importe qui. Pas besoin d’être un geek pour l’utiliser, ce n’est pas plus compliqué à l’usage. C’est juste qu’il est de meilleure qualité, plus durable et aussi plus économique à long terme.

















Le 08/12/2013 à 20h 44







elpetio a écrit :



T’es donc triplement pigeonné avec le tout en un sur pc:



le service apres vente sert quasiment à rien

la garantie sur ce genre de matériel est en général tres faible aux alentours de

2 ans

ca ne se répare pas de toute facon, ca se jette ou ca se change





Si la configuration que tu as n’es pas optimisé pour ton usage ; tu l’es fait pigeonné trois fois

d’une parce que tu as payé plus cher pour rien

de deux parce que ta configuration n’est pas adapté

de trois tu ne peux rien changer

de quatre tu ne peux pas demander un remboursement d’un matériel que tu as acheté, tu ne peux pa aller voir l’assembléur a coté de chez toi en espérant qu’il change une piece deffectueuse gratuitement



Et pire que tout sur pc que tu sois pro ou novice , ca ne changera rien , parce qu’avec un pc tu auras toujours les memes emmerdes au quotiden , c’est a dire que tu ne gagnes rien a l’usage mais pire que cela, des futurs emmerdes avec ton banquier a la fin du mois s’il faut changer tout le matos a cause par exemple d’une entrée usb , d’une webcam qui déconne







C’est assez bien résumé.



L’ordinateur “tout en un” présente d’énormes inconvénients et très peu d’avantages.



L’argument du léger gain de place souvent évoqué parait complètement dérisoire face aux autres inconvénients.



Et en premier lieu, le moindre composant en panne, l’ensemble pars à la poubelle. Et contrairement au portable, il n’y a même pas l’avantage de la mobilité pour le contrebalancer.



Mais attendons de voir si ça se vendra toujours quand les gens, habitués à leur petit réparateur de quartier se verront répondre “non, ça c’est poubelle, je répare pas, monsieur. Achetez un fixe la prochaine fois”.



Quand on connaît les problèmes de recyclage du matériel informatique, c’est un non sens absolu qui sera probablement sans lendemain compte tenue des normes écologiques qui ne manqueront pas de devenir de plus en plus sévères dans le futur.