votre avatar

Konrad

est avec nous depuis le 3 août 2010 ❤️

4337 commentaires

Le 29/06/2015 à 21h 00







merphémort a écrit :



Le jour ou Linux progressera de 100% en 12 mois dans des pays comme l’Inde+Pakistan, la Russie+Ukraine, ou le Brésil tu reviendras faire le malin hein, tu oublies un peu vite que les projections pour les Lumia c’est 50 millions vendus en seule 1 année pour atteindre environ 130150 millions de base installée à fin 2015!!







C’est ce que je dis : ces pays-là font bouger les parts de marché de Windows Phone de 0,1 ou 0,2%, et toi tu y vois une progression colossale. Tu viens nous parler de 15% de parts de marché, je ne sais pas où tu as vu ça, l’année dernière tu affirmais sans sourciller que WP atteindrait les 20% après les fêtes de Noël… Mais non, Windows Phone ça reste 3% au niveau mondial hein…



Parce que sinon moi aussi je pourrais être dans le déni, c’est facile regarde :

Linux desktop = 6,3% à Cuba ! et 3,70% au Venezuela ! Et même la France c’est 1,73%, soit au-dessus de la moyenne mondiale ! C’est sûr ça va décoller !!



Sauf que non, personne ne croira que Linux desktop va décoller. C’est la même chose avec Windows Phone : ça fait 15 ans que Microsoft essaye de faire percer Windows sur les téléphones, et 15 ans qu’ils échouent. Si c’était leur seule activité ça fait bien longtemps qu’ils auraient coulé.









merphémort a écrit :



et d’ailleurs tu balances que de sbullshits aussi : android est plus proche des 70% qu des 80







PC World : Android a représenté 81,5% des ventes en 2014.



Selon IDC la part d’Android est estimée à 78% au Q1 2015.



C’est donc bien plus proche des 80% que des 70… <img data-src=" />









merphémort a écrit :



des faits et des preuves c’est ma devise …







Ah oui des faits inventés et des chiffres traficotés, telle est ta devise <img data-src=" />









merphémort a écrit :



Ah les attaques Ad Hominem c’est tellement pratique







LOL ! Je ne te connaissais pas autant de vocabulaire, c’est une expression que tu as apprise parce que les modos te reprochaient de faire des attaques ad hominem ? Quel bel effort de mimétisme : tu reproches aux autres ce que tu fais toi-même <img data-src=" />


Le 29/06/2015 à 15h 16







Oryzon a écrit :



Bon Merphémort a un discours agressif sur la forme, mais sur le fond il a raison : sur PC/portable Windows est le seul OS grand public et ça restera le cas que SteamOS connaisse son petit succès ou qu’il se gaufre lamentablement. Les Mac n’ont jamais décollé et pourtant Apple est quasi seul sur certains créneaux porteur du marché (portable premium) et part de 810% de pdm. Valve a aussi lancé Steam en grande pompe sur Mac, et cela n’a pas fait bougé grand chose.



A la place de Valve j’arrêterai le délire et je préparerai une version Steam à mettre dans le Store de Win10.

Et pour les Steam Machine une version packagée de Win10 pour les partenaires : lancement rapide de Steam Big Picture, Kodi, VLC…







Steam ne va pas arrêter son « délire », pour une raison bien simple : ils ont peur de la concurrence du Store de Windows, justement.



Steam est déjà un Store en quelque sorte, qui vend des jeux vidéos. Avec l’intégration d’un Store directement dans Windows, qu’est-ce qui empêchera les éditeurs à terme de proposer leurs jeux directement dans le Windows Store, sans passer par Steam ? Et là, adieu la petite commission que se fait Valve sur la vente de chaque jeu.



Le but de Valve est de diversifier son offre. Leur stratégie ne vise pas Linux sur le desktop en particulier, on sait que c’est une niche (environ 1% des utilisateurs). Leur stratégie, c’est de proposer leur propre plate-forme, indépendante des Stores de Windows et de Mac : c’est le but des Steam Machines, basées sur GNU/Linux. Les avantages d’une console (pas à se soucier de l’installation, configuration…) et les avantages du PC (mêmes catalogue de jeux, possibilité de modifier la config…).


Le 29/06/2015 à 08h 50







merphémort a écrit :



Non les Windows Phone gagnent rien du tout, c’est pas avec +0,1% par ci ou plus 0,2% par là que ça change quoi que ce soit, Android sur la plupart des sites statistiques est encore au-delà des 80% même, donc arrête un peu sérieux!!

y en a pas un qui a réussi à bouger ne serait-ce qu’un peu en plusieurs années l’hégémonie Android, et même les nouvelles propositions comme Windows Phone 8 font aussi un flop, c’est bien la preuve que les gens se posent aucune question au moment de renouveler leur smartphone et renquillent encore et toujours vers Android!!







Tout à fait d’accord avec ça ! <img data-src=" />


Le 28/06/2015 à 18h 56







Cedrix a écrit :





  1. Je ne vois toujours pas ton rapport entre Android et Linux, désolé… PORTER un jeu en Java n’a pas de sens, si il est en Java, il est déjà portable.







    Le rapport, c’est que des studios qui développaient exclusivement pour Windows/DirectX, se sont mis à développer pour d’autres plates-formes parce qu’elles sont devenues majoritaires devant le PC : à savoir les smartphones et tablettes sous iOS et sous Android.



    Donc certes, tous les studios n’en sont pas au stade de développer nativement pour Linux, mais ils ont déjà fait un pas vers le multi-plateforme, et ça, c’est une bonne chose.





    Je ne répond même pas à merphemort qui n’a encore pas compris mon commentaire et qui part sur ses grands chevaux HS comme d’hab… Comme dit le proverbe : peu importe la distance qu’on fait avec un âne, il ne deviendra pas un cheval de course. <img data-src=" />


Le 28/06/2015 à 15h 16







Cedrix a écrit :



Qu’est ce que Android peut apporter à SteamOS ? L’un utilise Linux mais se sert surtout de Java pour faire tourner ses applis. Et je ne vois pas encore de jeu AAA sortir sur Java only.







Oui, d’où ma phrase :

« Certes tous les jeux ne peuvent pas être portés sur ce genre de plate-forme, mais c’est un marché non négligeable qui a poussé pas mal de studios à considérer Linux aussi. »









Cedrix a écrit :



Ce troll. Côté Sécurité, Linux et Windows c’est chou-vert et vert-chou.



Pour la réactivité, c’est subjectif.







Ah oui alors que toi tu ne trolles pas du tout en disant ça, quelle objectivité exemplaire… <img data-src=" />


Le 28/06/2015 à 10h 53







merphémort a écrit :



A chaque fois que cela a été essayé, notamment pour le méga fail des tout premiers Netbooks, les gens se sont surtout aperçu que c’est bien Windows qu’ils voulaient, et d’ailleurs ça n ‘a pas beaucoup changé depuis… sinon bien ta vie dans la 4ème dimension où tout est possible même l’inimaginable?…







C’est beau de ré-écrire l’histoire… Les premiers Netbooks n’ont pas du tout été un mega-fail, ils se sont très bien vendus. C’est d’ailleurs ce succès qui a fait réagir Microsoft : devant l’incapacité de Windows Vista de tourner sur ces petites machines, ils ont signé des alliances avec les constructeurs pour que Windows XP soit pré-installé sur les Netbooks vendus en magasins. Résultat des courses les Netbooks sous Linux ont disparu de la circulation.



Donc encore une fois les gens n’ont pas eu le choix : merci la vente liée.



Tu pourrais te renseigner un minimum au lieu de ré-inventer l’histoire hein, même l’article Wikipedia est plus précis que toi :



« In contrast to earlier, largely failed attempts to establish mini computers as a new class of mainstream personal computing devices built around comparatively expensive platforms requiring proprietary software applications or imposing severe usability limitations, the recent success of netbooks can also be attributed to the fact that PC technology has now matured enough to allow truly cost optimized implementations with enough performance to suit the needs of a majority of PC users. This is illustrated by the fact that typical system performance of a netbook is on the level of a mainstream PC in 2001, at around one quarter of the cost. While this performance level suffices for most of the user needs, it caused an increased interest in resource-efficient applications such as Google’s Chrome, and forced Microsoft to extend availability of Windows XP to secure market share. »



S’il y a un fail ici, c’est Microsoft qui n’avait pas du tout vu venir le succès des Netbooks, et a bricolé un truc avec Windows XP pour sécuriser ses parts de marché. Alors que Vista était sur la rampe de lancement et tout… Quelle vision !


Le 28/06/2015 à 10h 33







merphémort a écrit :



Sauf qu’on va continuer à douter de tes chiffres surtout que tu es pas foutu de te rendre compte tout seul de tes immenses incohérences intellectuelles hein :




  • soit tu pars du principe que 1% c’est la pdm de Linux dans le monde et donc ça fait environ 20 millions d’utilisateurs sous Linux PC

  • soit tu pars du principe qu’il y a 80 millions d’utilisateurs de Linux dans le monde et donc que la pdm de linux serait donc de 4,5% au lieu de 1%



    alors autant avec toi on s’attend à ce que tu sois bien prêt à raconter une bêtise de fanboy de plus, ça t’a jamais empêché de dormir ou de t’assumer devant une glace après tout, et on voyait venir gros comme une maison que tu aurais choisi plutôt la 2ème solution et tu sais seulement à quel point on en aurait bien rigolé hein… mais là franchement je sais pas moi, respecte toi un peu et essaye enfin de réaliser les énormités que tu racontes à longueur de journée et décide-toi quoi : où c’est 1% ou c’est disons 5% pour arrondir si àa t’amuse, mais ça peut surement pas être les 2 quoi







    Ce serait bien que tu te calmes, que tu lises posément les messages des autres, et que tu arrêtes de te transformer en diable de Tasmanie qui crache partout dès que tu vois le mot « Linux »… Oui je sais je demande l’impossible… <img data-src=" />



    Le but de mon message était de dire : quelle que soit la méthodologie employée, on peut dire qu’il y a plusieurs dizaines de millions d’utilisateurs de GNU/Linux sur le desktop dans le monde.



    Les méthodes ne sont pas suffisamment précises sur le nombre d’utilisateurs d’ordinateurs dans le monde. Tout ce qu’on a ce sont des statistiques à travers les visites des sites Web. Sachant que tous les ordinateurs du monde ne sont pas connectés au Net, que tous ne vont pas sur le Web, et que tous ne visitent pas les mêmes sites, dire qu’il y a environ 1,8 milliards d’utilisateurs desktop c’est déjà une estimation à la louche. Ça peut très bien être 2 milliards, personne ne peut donner d’estimation parfaite.



    Du coup c’est la même chose pour le nombre d’utilisateurs de GNU/Linux sur desktop : on ne peut pas le connaître de façon précise. On ne peut pas dire précisément si c’est 20 millions, 50 millions, ou 80 millions. Mais tous les chiffres s’accordent sur l’ordre de grandeur : « plusieurs dizaines de millions ». Tu sais ce que ça veut dire, un ordre de grandeur ?? Ça veut dire que ce n’est pas 1 million d’utilisateurs, et ce n’est sans doute pas 100 millions non plus. C’est quelque chose entre les deux, mais on ne peut pas avoir de chiffre précis.



    Ça y est, toi comprendre ? <img data-src=" />


Le 27/06/2015 à 14h 15







ar7awn a écrit :



en desktop ? source ?







D’après ces statistiques il y a environ 1,8 milliards d’utilisateurs d’ordinateurs sur la planète. Vu que Linux représente environ 1% de ces utilisateurs, ça fait quelques dizaines de millions.



Par ailleurs, selon l’outil de statistiques LinuxCounter, le nombre d’utilisateurs actifs de GNU/Linux se situe autour de 80 millions, ce qui est du même ordre de grandeur que l’estimation précédente.



Donc tu as eu raison de douter de mes chiffres, ce n’est pas « quelques millions », mais « quelques dizaines de millions ». <img data-src=" />


Le 27/06/2015 à 11h 33







Polonel a écrit :



Quand bien même la sauce prendrait auprès des éditeurs pour sortir davantage de jeux sur SteamOS, cela ne fera pas de GNU/Linux un OS prêt pour le desktop pour autant.







Scoop : GNU/Linux est prêt pour le desktop depuis plusieurs années maintenant, et plusieurs millions de personnes l’utilisent que ce soit chez eux ou au boulot. En revanche les utilisateurs restent en effet minoritaires (environ 1% des utilisateurs desktop). Les raisons en sont multiples, mais le fait que GNU/Linux ne serait « pas prêt pour le desktop » ne fait pas partie de ces raisons <img data-src=" />


Le 26/06/2015 à 16h 21







ErGo_404 a écrit :



Des années… si elle prend un jour.



 Le problème de Linux, c’est pas tellement le développement, car en général les moteurs sont multiplateformes, et ça ne prend pas forcément beaucoup de temps de faire un portage Linux. Le problème, c’est surtout le test et le support, ça pour le coup ça prend du temps et de l’argent et les gros éditeurs ne le feront pas tant qu’il n’y aura pas une bonne base de joueurs. Mais le soucis, c’est que porter les jeux indépendants ne suffira probablement pas pour attirer cette base de joueurs…

 



Quand tu regardes les macs, qui ont pourtant une bonne base d’utilisateurs, la mayonnaise n’a pas pris alors que c’était le candidat idéal…







C’est pour ça que je pense que ça va prendre du temps. Les éditeurs ne seront intéressés que s’il y a une base de joueurs suffisante, et les joueurs ne seront intéressés que s’il y a suffisamment de jeux. C’est le serpent qui se mord la queue…



Je pense que tu es réducteur en disant « porter des jeux indés ne suffira pas ». C’est vrai qu’il y a pas mal de jeux indés et qu’ils ont en quelque sorte ouvert la voie, mais aujourd’hui il y a pas mal de gros titres portés sous Linux, comme Civ V et Beyond Earth, The Witcher 2 et 3, etc. Tous ces gros jeux ont du potentiel pour attirer les joueurs.



Je pense que Valve a raison, le meilleur moyen de faire percer cette plate-forme ce ne sera sans doute pas à travers les PC (Linux sur le desktop est minoritaire), mais via des consoles. Je pense que les Steam Machine peuvent être un bon vecteur : avec une console il n’y a pas à galérer pour installer l’OS, il y a de grosses entreprises pour pousser cette console (Valve et les constructeurs), ce qui va rassurer à la fois les développeurs et les joueurs.



Il y a un autre marché, non négligeable lui, qui peut aussi pousser les studios à développer leurs jeux pour Linux : le marché des smartphones et tablettes, dominé par Linux (Android). Certes tous les jeux ne peuvent pas être portés sur ce genre de plate-forme, mais c’est un marché non négligeable qui a poussé pas mal de studios à considérer Linux aussi. Pas mal de jeux sont aujourd’hui dispo pour Windows, Mac, Android, iOS…



Quant à Mac, il faut admettre que le ticket d’entrée est quand même assez cher, et que les Mac n’ont jamais été des machines de gamer. Une console de jeux, c’est typiquement pour les gamers.


Le 26/06/2015 à 15h 56







math67 a écrit :



C’est plutot flatteur. Un système bien conçu performant, et optimisé n’a pas besoin de grosses ressources pour des tâches basiques. ^^







Ayanami ! <img data-src=" /> <img data-src=" /> <img data-src=" />


Le 26/06/2015 à 15h 54







Wapaca a écrit :



Il ne manque plus que le marketing derrière les steams machines et steam OS, pour l’instant les seuls fois où j’en ai entendu parlé c’est sur NXI et steam :/







+1 Valve devrait faire une campagne de pubs pour les Steam Machines (éventuellement de concert avec les constructeurs)


Le 26/06/2015 à 15h 39







-Stephane- a écrit :



C’est déjà en train d’arriver.

Valve finance le développement des drivers libres Vulkan à destination des chips Intel.

De plus en plus de jeux sont annoncés sur Linux, le nouveau Batman, le prochain X-com 2, Project Cars, etc …







Oui je sais, j’ai moi-même acheté pas mal de jeux sur Steam pour y jouer sous Linux.



Mais il faut reconnaître qu’on n’en est pas encore au stade où tous les jeux (y compris les AAA) sortent sous Linux… Un gamer ne retrouvera pas tous ses jeux s’il passe sous Linux aujourd’hui.



Ça prendra du temps, mais j’y crois.



Merci pour l’info sur Vulkan, je ne savais pas <img data-src=" />


Le 26/06/2015 à 15h 27

J’attends avec une certaine impatience que toute la situation se débloque autour du jeu sous Linux : que des éditeurs sortent leur jeu sous Linux, que les constructeurs améliorent leurs drivers, et pourquoi pas que Valve contribuent à des projets libres pour améliorer les perfs sur les Steambox… Tout cela pourrait enclencher un cercle vertueux : de plus en plus de joueurs sous Linux, un marché de plus en plus important, des éditeurs qui sortiraient de plus en plus de jeux…



Mais cela prendra sans doute encore des années avant que la mayonnaise ne prenne vraiment.











fullsun a écrit :



ils confirment en utilisant debian que c’est pour les vieux PC (qu’il faut reconvertir en HTPC) pour jouer sur la TV avec les performance de la plus récente machine.







Si dans ta tête Debian = vieux PC, alors tu connais très mal cette distribution…


Le 29/06/2015 à 18h 39







DDReaper a écrit :



Un smartphone est-il considéré comme un ordinateur ? une tablette ?







Je ne sais pas ce que la loi dit là-dessus, mais je pense que les smartphones/tablettes sont très distinctes d’un ordinateur.



Ce qu’on appelle « ordinateur » ou PC répond à certains critères :





  • le matériel répond à des standards : architecture x86 ou ARM, connexions SATA, USB, etc.

  • le matériel peut être branché/débranché, changé (par ex. on peut changer le CPU, la RAM, changer ou ajouter des disques durs, etc.)

  • le système d’exploitation peut être installé de façon réversible sur le disque dur ; il peut aussi être ré-installé.



    En revanche les smartphones et tablettes se rapprochent davantage des systèmes embarqués :



  • le matériel répond à des standards différents des PC (architecture ARM, différents SoC ARM qui ne sont pas forcément compatibles d’un smartphone à l’autre, etc.)

  • les composants ne peuvent quasiment pas être changé ni ajoutés (à part une carte SD)

  • le système d’exploitation est sur une mémoire morte (EEPROM), donc difficile à désinstaller ou à ré-installer (nécessité de flasher la mémoire, risque de « briquer » l’appareil) ;

  • le système d’exploitation est optimisé pour le SoC de l’appareil ; il est difficile de remplacer l’OS prévu pour l’appareil par un autre OS (par ex. remplacer Android par Windows Phone ou inversement).



    Donc, à mon sens, sur les smartphones/tablettes c’est idiot de demander à séparer l’OS et le matériel. ils ont été conçus pour fonctionner ensemble avec un tel niveau d’intégration, qu’on peut considérer que els deux sont indissociables. Ce n’est en revanche pas vrai pour les PC, machines qui sont justement conçues pour fonctionner de façon standard avec plusieurs OS, pour être bidouillées, etc.


Le 29/06/2015 à 17h 08







Jarodd a écrit :



La métaphore serait plutôt que tu veux telle brique de jus de fruit, mais sans le jus de fruit qu’elle contient (tu voudrais mettre le tien).

 

Ce qui est plutôt étrange puisque tu peux le mettre dans un autre contenant, alors qu’il est plus compliqué d’avoir un autre matériel







Arrêtez de regarder Kaamelott les gars, vous êtes aussi doués que Perceval en métaphores…


Le 29/06/2015 à 15h 26







Maelstrom a écrit :



Et moi je voudrais un iPhone 6 avec Windows Phone 8.1 au lieu d’iOS dessus !







Bravo de comparer des choses qui ne sont pas comparables, tu n’apportes rien au débat, merci de ton intervention <img data-src=" />


Le 29/06/2015 à 15h 25







methos1435 a écrit :



Au final la Michu continuera d’acheter son PC avec une licence Windows…. Penser que la vente liée est le problème qui empêche à Linux de démocratiser sur les PC grand public c’est ce mettre un doigt dans l’oeil…







Croire que la lutte contre la vente liée est un truc de barbu pour faire augmenter les parts de marché de Linux, ça, c’est se mettre un doigt dans l’œil (avec un œ ligaturé).



Les principales victimes de la vente liée, ce sont les Michu, justement, les utilisateurs de Windows. Quand leur ordinateur ne fonctionne plus, tout part à la poubelle, et ils rachètent un combo PC + Windows. On ne doute pas que toutes ces licences jetées à la poubelle, c’est très lucratif pour Microsoft. Mais pas très économique pour les utilisateurs de Windows.



S’ils étaient conscients qu’ils avaient acheté deux produits, peut-être qu’une partie d’entre eux commencerait à se dire : « mon vieil ordinateur ne fonctionne plus, mais je peux peut-être garder Windows et le ré-utiliser sur mon nouvel ordinateur ? »…


Le 29/06/2015 à 15h 05







GannoN a écrit :



Tant qu’il existe des alternative, je ne trouve pas cela choquant.  On acheté un tout, tu fait avec ou tu en prend un autre.  C’est pas comme si il n’avais d’alternative.  Tu peut monté toi même ton PC et installé l’os que tu souhaite. Il existe aussi des PC pré-monté sans OS. 

 

Demain j’achète un PC monté, J’ai déjà un disque dur, je pourrait aussi ne le faire remboursé ?  Et un autre aura déjà l’alim… Bref sa serrait le bordel. Je ne vous pas pourquoi l’OS aurai ce statue particulier alors qu’il est aussi indispensable que le matériels.

 

Par-contre mettre le tarif des différents logiciels pré-installé ne peut pas faire de mal.







Ça tombe bien, c’est le principal enjeu de la lutte contre la vente liée : que le prix du matériel soit séparé du prix des logiciels pré-installés (OS, antivirus, suite bureautique…), et que les deux soient affichés clairement sur l’étiquette en magasin, et sur la facture lors d’un achat. Pour que le consommateur soit bien informé qu’il achète deux produits ensemble.









ultramahcin a écrit :



Si l’Europe ne veut plus de Windows c’est tant mieux, mais qu’ils proposent une solution viable pour le consommateur lambda.



Pourquoi pas du Linux, avec toutes les applis multimédias pré-installé… Du bon gros plug & play en somme.

Et avant qu’on me dise que ça n’arrivera jamais, faut pas oublié les parlementaires viennent d’apprendre que la monture de Crosoft est bourré de backdoor ^^







Attention à ne pas tout confondre.



Le but n’est pas de virer Windows, ni de vendre des ordinateurs nus sans système d’exploitation, ni de se mettre à vendre uniquement des PC avec Linux hein…



Le but est avant tout que l’acheteur soit informé qu’il achète deux produits ensemble : le matériel, et les logiciels pré-installés. Ce qu’il faut, c’est que le prix de ces deux produits soit affiché distinctement sur la facture.



Si l’utilisateur accepte d’acheter les deux, alors tant mieux, ça ne change rien pour lui : il trouvera toujours des PC avec Windows pré-installé dans les rayons. La seule différence c’est que sur sa facture il verra “PC = X € + Windows et logiciels = Y €”.



Et si l’utilisateur n’accepte pas d’acheter les logiciels avec le matériel, alors il aurait le droit de se les faire rembourser, selon le tarif qui serait écrit noir sur blanc sur la facture.



Le jour où on en sera vraiment là on aura fait un grand pas en avant.


Le 29/06/2015 à 13h 50

It’s about time !



Ce qui est intolérable dans cette affaire, c’est que Sony aurait dû rembourser cet acheteur après qu’il a refusé le CLUF. J’ai acheté un portable Asus l’année dernière et ils m’ont remboursé les logiciels dont je ne voulais pas sans broncher.



Il est temps que l’Europe adopte des règles claires et homogènes vis-à-vis de la vente liée.

Le 29/06/2015 à 09h 29







dematbreizh a écrit :



Non.



Il suffit de lire les articles de Nxi pour savoir qu’il a été clairement dit que tu te retrouveras avec une version non activée.







Comment oses-tu, pauvre impie !

CrowTown Merphémort ne lit pas les articles ni les messages des autres.



Il ne fait que prêcher la Bonne Parole.


Le 29/06/2015 à 08h 35







lolomatic a écrit :



Donc pour reprendre la fin de ton post : tu nous reproches de rester sur nos certitudes, mais le seul qui semble en avoir une coriace et inébranlable ici, c’est bien toi en maintenant que MS est le seul à (je cite) “continuer de maintenir entièrement tous les rouages d’un OS de la tête aux pieds”.







OK c’était peut-être caricatural comme affirmation. Mais il me paraît évident que les tâches ne sont pas du tout, mais du tout réparties de la même façon du côté de Microsoft, et du côté d’une distribution GNU/Linux par exemple. Le niveau de modularisation, de partage des tâches, n’est pas du tout le même, ça saute aux yeux.



Tu peux pinailler et dire que Microsoft a parfois collaboré avec telle ou telle entreprise, et donc qu’ils ne sont pas « tout seuls » à strictement parler. Il n’empêche que c’est resté marginal, en comparaison de ce qui s’est fait du côté d’Apple ou des distributions GNU/Linux.



Quant aux coûts exacts, tu as raison il faudrait un travail d’une toute autre ampleur. Mais je reste persuadé que les coûts liés au développement de Windows qui pèsent sur les épaules de Microsoft, sont plus élevés que les coûts de développement qui pèsent sur les épaules de Apple, ou d’une entreprise comme Fedora ou Canonical.


Le 28/06/2015 à 10h 20

J’aime bien, on me demande d’argumenter, de donner des sources. Donc je donne des sources, avec des méthodologies bien expliquées et tout.



Votre réponse : « ouais non j’y crois pas trop, et puis la méthode me parait pas fiable, c’est pas pertinent… » Et vous ne justifiez rien, vous ne donnez pas de source, vous ne proposez pas d’autre méthode… En gros si j’avance quelque chose il faut que j’aie des sources en béton, mais vous vous n’avez rien à justifier.



C’est bien les gars, merci de votre cohérence, un plaisir de discuter avec vous <img data-src=" /> Restez donc sur vos certitudes, c’est bien plus confortable.

Le 27/06/2015 à 16h 27







Gobs a écrit :



Je crois que tu te focalises trop sur l’OS. Contrairement à toi et malgré une belle argumentation de ta part, je ne pense pas que le cout de développement de L’OS soit si important que ça, c’est d’ailleurs, avec Office, sa plus grosse vache à lait







Je crois que tu confonds le coût de développement, et les revenus liés aux ventes. Windows et Office sont les plus grosses vaches à lait : ça veut dire que la vente (liée) de licences rapporte à Microsoft oui, il n’y a aucun doute là-dessus. Ça ne dit en revanche pas grand chose sur ce que ça leur coûte.







Gobs a écrit :



… l’os évolue par petites touches, de plus cette société est constituée essentiellement de développeurs qui bossent sur différents produits toute l’année, Microsoft Offre à ses partenaires une myriade de formations et services, fait des supers promos quand on sait quand acheter (pour une entreprise) et fait de très grosses marges sur ses logiciels. Si je ne m’abuse on parle de plus de 70% de marge. Mais Microsoft a d’autres activités, R&D, matériel …







J’adore ton argumentation qui ignore complètement la structure interne de chez Microsoft. Genre un développeur qui bosse sur le noyau NT, une fois Windows sorti, va se mettre à bosser sur MS-Office, ou à développer du matériel. Mais bien sûr.



Faisons les maths :



« We have about 35 feature teams in the Windows 8 organization. Each feature team has anywhere from 25-40 developers, plus test and program management, all working together. »

Source



35 équipes de 25 à 40 personnes = 875 à 1400 développeurs pour Windows 8.



Salaire d’un ingénieur Microsoft : 100 000 $/an.



Ce qui nous donne une estimation d’environ 100 million de $ par an, rien qu’en comptant les salaires des ingénieurs (le marketing rentre pour une part on négligeable des dépenses, mais passons).



À côté de cela, en 2008 il a été estimé que le coût de développement d’une distribution GNU/Linux complète (Fedora) était d’environ 10 milliards de dollars. Fedora a été créée en 2003, mais admettons que ces coûts incluent tous les développements de logiciels libres depuis 1992 (année de création du noyau Linux) : ça donne une moyenne de 625 millions de dollars par an (10 milliards sur la durée 1992-2008). Un tel coût est clairement élevé pour une compagnie seule, et Fedora n’est possible que parce que les coûts ont été répartis en différentes composantes (noyau, shell, environnement…) et entre différentes entreprises : Red Hat, Intel, AMD, etc.



Je te laisse faire les maths : si Microsoft dépense 100 millions de dollars par an en développement pour Windows, et que les distributions GNU/Linux disposent d’environ 6 fois ces moyens, qu’est-ce qui arrivera à terme ? Fatalement Microsoft va finir par avancer moins vite que la concurrence : ils ne vont plus avancer que par « petites touches » comme tu dis. Quand on voit le retard monstrueux qu’ils se sont pris sur toutes les plates-formes ARM (smartphones et tablettes), dont ils sont quasiment absents… Certaines choses avancent déjà par petites touches en effet !


Le 27/06/2015 à 11h 41

D’ailleurs j’ajouterais que c’est le modèle qu’ont repris d’autres sociétés pour concevoir leurs OS, à différents niveaux :





  • Google s’est basé sur GNU/Linux pour créer Android/Linux, ainsi que Chrome OS ;



  • Amazon s’est basé sur Android pour créer son propre fork, FireOS ;



  • Mozilla s’est basé sur GNU/Linux pour créer FirefoxOS ;



  • Valve s’est basé sur GNU/Linux pour créer SteamOS pour ses consoles ;



    etc. etc.



    Aujourd’hui il est très facile de se baser sur des OS existants et de les personnaliser pour créer le sien. Certains ne font quasiment que copier/coller un OS existant (par ex. Amazon qui a forké Android), d’autres ont véritablement créé un nouvel OS avec ses spécificités, et largement contribué au développement des outils qu’ils ont utilisé (par ex. Google en développant Android, qui a grandement contribué au noyau Linux, au support des plates-formes ARM, etc.). Apple est dans ce dernier cas, en utilisant et en contribuant à UNIX et à des outils GNU (avec CUPS par ex.), et en les personnalisant pour faire leur propre OS.



    Non vraiment, aujourd’hui continuer de maintenir entièrement tous les rouages d’un OS de la tête aux pieds, il n’y a que Microsoft qui fait encore ça.

Le 27/06/2015 à 10h 49







lolomatic a écrit :



Bon, déjà, le noyau de Windows NT a été conçu conjointement avec IBM, même si l’immense majorité du taf revien(drai)t à MS.

Mais revenons sur ton argumentation visant à tenter de justifier le prix de l’OS, car ayant été développé  de A à Z chez MS.

Tu oublies une chose très importante : OS est différent de noyau.







Oui je sais merci… <img data-src=" />



Je ne cherche absolument pas à « justifier » le prix de Windows, je cherche juste à l’expliquer. Pour moi, concevoir un OS est une tâche ardue, complexe, très coûteuse, et Microsoft est la seule boîte à assurer seule le développement d’un OS.



Si on prend les différentes couches d’un OS, en simplifiant :



(1) Noyau

(2) Shell

(3) Pilotes matériels génériques

(4) Certification des pilotes matériels spécifiques constructeurs

(5) Serveur graphique

(6) Environnement de bureau

(7) Applications haut-niveau



Microsoft est la seule boîte qui assure toutes ces tâches, en assurant les coûts à elle toute seule, du noyau (NT) aux applications haut-niveau (Internet Explorer, lecteur multimedia, MS-Office…), en passant par le shell, les certifications (WHQL), et ainsi de suite. C’est ça qui, à mon sens, explique le coût exorbitant du développement de Windows, que Microsoft répercute sur le prix de la licence.



Apple bénéficie du travail des autres sur les points 1 à 5 dans Mac OS X : Noyau Mach, programmes GNU (bash, Emacs, awk, grep, cron, etc.), serveur graphique X.org… Ils participent parfois à ces projets, mais n’ont pas à en assumer le coût à eux tout seuls, donc ça coûte clairement moins cher que s’ils devaient assurer tout ça entièrement. Les seules couches dont ils ont à assurer entièrement le coût, ce sont les couches supérieures : environnement de bureau, applications haut-niveau (Safari…). Donc ça coûte moins cher en développement.



Tu as raison en disant que les coûts de développement ne sont pas répercutés de la même manière chez Apple, Microsoft et Google. Mais je pense que la différence en coûts de développements est assez considérable. Je pense qu’aujourd’hui un OS est devenu quelque chose de tellement complexe, qu’en termes de coûts ça a davantage de sens de séparer le travail, plutôt que de persister à vouloir tout faire soi-même. Je pense que les coûts de développement de Windows ne feront qu’augmenter, et qu’à terme il deviendra de plus en plus difficile pour Microsoft d’assurer ces coûts à elle seule. Je pense que le modèle d’Apple (utiliser une base UNIX et la personnaliser) est bien plus pérenne.


Le 26/06/2015 à 14h 06







atomusk a écrit :



il y a quelques temps j’avais souvenir que les remboursement tablaient dans les 80€

 

 Apres j’ai pas trop suivi les débats <img data-src=" />







J’aurais largement préféré, mais soit le prix des licences OEM a baissé, soit le constructeur ne m’a pas tout dit <img data-src=" />


Le 26/06/2015 à 13h 56







atomusk a écrit :



Mais passer à 50€ impose aussi que les ventes en OEM (là où MS se fait du beurre) ne peuvent plus être à 100€…







Où as-tu vu que Windows OEM valait 100 € ? Sur le dernier PC portable que j’ai acheté le remboursement de Windows 8.1 ne m’a rapporté que 40 €… Ça veut dire que le constructeur a récupéré la licence Windows tout en me faisant quand même payer 60 € ? <img data-src=" />


Le 26/06/2015 à 11h 56







Ricard a écrit :



Ben, OsX est pas cher ? Tu crois que tu ne le payes pas quand tu achètes un simple PC avec une pomme sur le couvercle deux fois plus cher qu’un matos équivalent ?

 

Mais au moins, Apple fourni l’Os avec le matos.







Attention, j’ai juste dit que ça devait leur coûter moins cher à développer. Après, à quel prix ils vendent leur matos et quelles marges ils se font dessus, c’est une autre histoire…



Une fois que tu as acheté un Mac les mises à jour de Mac OS sont gratuites, c’est donc qu’ils ne se faisaient pas beaucoup de beurre en vendant leurs mises à jour d’OS. Ce n’est pas l’OS en lui-même qui est rentable, contrairement au modèle de Microsoft.


Le 26/06/2015 à 08h 47







Mme_Michu a écrit :



Mouais !!!! Depuis que Windows existe tu vas nous faire croire que ce travail de base sur le noyau n’est toujours pas rentabilisé ?







Ben non. Un noyau ce n’est pas quelque chose d’immuable qu’on prend au début et qui ne bouge plus pendant 30 ans après.



« Depuis que Windows existe » : déjà les premiers Windows étaient basés sur MS-DOS, donc le noyau n’était pas du tout le même.



Ensuite le noyau NT a été développé dans les Windows NT, avant d’être intégré dans Windows XP, le premier Windows grand public à utiliser le noyau NT. Windows XP est sorti en 2002. Depuis le noyau NT a beaucoup évolué et changé, il en est à sa version 7, et ce sera la version 10 avec Windows 10.



Donc oui, le noyau NT représente un coût de développement, et non, il n’est pas « rentabilisé ». Il représente un coût certain, parmi tant d’autres dans le développement de Windows.



Après, je n’ai pas dit que Apple ne déboursait rien pour Mac OS hein… Je dis juste qu’utiliser une base UNIX ou Linux existante, ça coûte moins cher que de tout développer soi-même. À mon avis ça a bien plus de sens d’utiliser une base existante et de répartir les coûts de développement, plutôt que d’assurer tout le développement d’un OS de A à Z. Un OS est devenu quelque chose d’extrêmement complexe, sur plusieurs niveaux, et ça va devenir de plus en plus difficile pour une entreprise d’assurer seule les coûts de développement de tout un OS. Mais ce n’est que mon avis…


Le 26/06/2015 à 08h 25







Ricard a écrit :



119 et 199… J’ai toujours du mal à comprendre pourquoi c’est toujours aussi cher…







Sans doute parce que Microsoft est la seule entreprise dans le monde à assurer entièrement seule le développement de leur OS. Ce sont les seuls à ne pas utiliser de base UNIX-like, mais à tout développer de A à Z, du noyau (NT) jusqu’aux applications haut-niveau. Ça représente un coût faramineux, et ça explique le coût de la licence.



Chez Apple ils ont pris un noyau Mach et une base UNIX/BSD, ils bénéficient donc des développements de ces composants sans que ça ne leur coûte rien, et ils ne développent que les applis haut-niveau par-dessus (environnement de bureau, navigateur…). Ça représente un coût de développement moindre, c’est d’ailleurs sans doute pour cela qu’ils peuvent se permettre de filer les nouvelles versions de Mac OS gratuitement à leurs utilisateurs.


Le 26/06/2015 à 08h 17

Haa, je me souviens encore de ce qu’on me disait en début d’année…



« Windows est voué à devenir gratuit, Microsoft recentre ses activités sur les services et sur le Cloud, Windows va devenir un service comme les autres, blablabla… »



<img data-src=" />



J’avais bien dit que Windows représente encore 25% des revenus de Microsoft, comment pourraient-ils se séparer d’une telle rentrée d’argent de façon aussi radicale ? Les services, bien qu’ils rapportent effectivement de plus en plus, sont loin de compenser une telle somme. Mais bien sûr on m’avait rétorqué que je n’avais rien compris…



« Windows 10 sera gratuit pour tout le monde, même ceux qui ont une version pirate de Windows 7 ou 8 ! »

Ah non en fait, il faudra bien avoir une version légale sinon ça donne un Windows 10 pas légal…



« Mais Windows 10 sera gratuit pour tous ceux qui ont essayé la version beta ! »

Ah, non plus en fait…



« Mais ce qui est sûr c’est que le prix de Windows 10 sera petit, puisque Microsoft mise tout sur les services ! »

Ah, ben non, il sera à 135 € pour l’édition familiale de base, soit plus cher que Windows 7 ou 8 à leur sortie…



Mais bien sûr les experts en retournement de veste vont nous expliquer qu’un tel prix est normal, parce que Windows 10 est un investissement sur le long terme, c’est soi-disant la dernière version de Windows, etc. etc.

Le 25/06/2015 à 11h 17







brazomyna a écrit :



Les partitions ont peu d’intérêt pour moi étant donné que pour moi les partitions ont deux utilités potentielles:

 




  • séparer l’OS des données pour pouvoir réinstaller facilement ; je m’en fous, les données sont déjà répliquées en de multiples endroits chez moi et quand je veux réinstaller, tout récupérer de mon pseudo NAS est un jeu d’enfant avec rsync.



  • avoir plusieurs OS: ça fait un bout de temps que j’ai laisser tombé les multiboots et compagnie. Les rares fois où je dois sortir de ma distrib linux (typiquement pour des tests de compatibilité avec des OS tiers), j’ai les  VM qui vont bien.







    Troisième utilité : séparer le /home du reste du système, de sorte que si un utilisateur sature le /home ça n’empêche pas l’OS de fonctionner <img data-src=" /> Il y a d’autres solutions à ça (mise en place de quotas, etc.) mais séparer les partitions système et /home reste le plus simple.



    Pour ma part j’ai installé l’OS sur un SSD de 128 Go, et le /home sur un disque dur de 1 To. Ça permet d’avoir en même temps la rapidité d’un SSD (sans pour autant payer une blinde pour un gros SSD), et la grosse capacité d’un disque dur (sans pour autant avoir un système qui se traîne). Un bon compromis je trouve <img data-src=" />


Le 24/06/2015 à 13h 45







TexMex a écrit :



Doucement Google prend encore plus de contrôle. C’est subtile et la plupart ne voient rien. Le sucre, le sel et l’eau; on a pas inventé mieux depuis 2000 ans.







Google prend le contrôle en aspirant les données des utilisateurs, en les utilisant pour servir de la pub, en liant ses services…



Pas en contribuant au noyau Linux.



Tu mélanges tout là, vraiment…


Le 24/06/2015 à 12h 24







TexMex a écrit :



Non, leur coeur de métier c’est la recherche (moteur), et marketing/pub. Relis leurs résultats financiers. Google Search, Gmail et Youtube, Google AdWords, bref la pub: c’est 80~90% de leur revenus.







Mais t’as lu mon commentaire ou tu écris juste pour cracher sur Google ?



Les OS n’étaient pas leur cœur de métier au départ, mais aujourd’hui Google est bel et bien un développeur d’OS avec Android et Chrome OS, tous deux basés sur Linux. Donc ça n’a rien d’illogique ni de suspicieux qu’ils participent au développement de Linux.



Après il se trouve qu’ils ne vendent pas ces OS mais en font des vecteurs de leurs services (recherche, publicité…). Ils ne vendent pas Android, ils ne vendent pas ChromeOS, donc normal que ça n’apparaisse pas dans leurs résultats financiers… <img data-src=" />


Le 24/06/2015 à 10h 29







TexMex a écrit :



Google n’est pas un “faiseur” de programme ou d’OS en premier lieu. C’est un vendeur de recherche et d’information (C’est dans son CA). Pour RedHat, Cannonical, et Microsoft, c’est leur cœur de métier (à la base). Quand on regarde cela sous cet angle avec deux catégories, je fais toujours pas confiance a Google.

 

 De plus ce genre de chose est potentiellement pénalisante (ou dangereux). Ces contributeurs produisent ce qui les arrange pour leur business. J’y vois pas de mal quand c’est le coeur de métier et que le souhait est de satisfaire l’utilisateur final.  Pas certain que dans le cas de Google ce soit un deal qui arrange les utilisateurs finaux en premier lieu.







En premier lieu non, mais aujourd’hui Google est bel et bien un développeur d’OS avec Android et Chrome OS, tous deux basés sur Linux.



Google a déjà apporté beaucoup de contributions au noyau Linux avec le développement d’Android. Au départ ils ont fait leur propre fork du noyau pour faire leurs développements spécifiques, puis à terme leurs modifs ont été intégrées dans la branche principale de Linux, et pas mal de machines basées sur ARM en profitent (dont les Raspberry Pi par exemple).



Là c’est pareil pour le chiffrement ext4 : ils l’implémentent avant tout pour leurs besoins, pour le chiffrement dans Android, mais au final tout le monde pourra en profiter, y compris ceux qui n’ont rien à voir avec Android (par ex. si tu utilises du ext4 sur ton PC de bureau).



Bref je ne trouve pas ça déconnant que Google contribue au noyau, et ça ne profite pas qu’à eux, ça profite aussi à d’autres. Je n’approuve pas tout ce qu’ils font loin de là, je ne défends pas le cliché « Google = gentil », mais il ne faut pas tomber non plus dans l’autre cliché extrême « Google = Evil ». Tout n’est pas blanc ou noir… Google fait des trucs bien, et des trucs mauvais pour les utilisateurs. Les contributions à Linux font partie des trucs bien.


Le 24/06/2015 à 09h 36







TexMex a écrit :



Si j’étais toi je me méfierai. Google ne fait rien qui ne lui rapporte pas. Le gratos façon Google n’est qu’une illusion.







Quand Red Hat, Canonical, Microsoft, ou d’autres entreprises contribuent à des logiciels libres, ce n’est pas non plus pour la beauté du geste. C’est parce que ça leur rapporte quelque chose. Sur ce terrain-là, Google n’est ni meilleur ni pire que les autres. Si tu te méfie de Google parce qu’ils contribuent à du code libre, alors méfie-toi aussi des autres entreprises qui contribuent…


Le 24/06/2015 à 08h 05







Quant à la prochaine mouture, estampillée 4.2, on sait désormais qu’elle pourra supporter les mises à jour de firmwares pour la norme UEFI 2.5 ou ultérieure.





Ah ça va être sympa ça comme fonctionnalité !

Le 23/06/2015 à 21h 38

Une bonne recommandation, j’espère que ça sera suivi dans la pratique <img data-src=" />

Le 23/06/2015 à 11h 22







Tolor a écrit :



Ce n’est plus le cas dans Windows 10

https://www.thurrott.com/windows/windows-10/4260/windows-10-drops-reliance-on-mi…











Tolor a écrit :



Si on, sait, cf le lien que j’ai donné, et manque de chance, c’est l’inverse, c’est beaucoup moins encouragé que dans Windows 88.1









« Yes, the link to skip out on the Microsoft account is still tiny and hard to read. But you only have to skip one screen, not two ».



Je suis convaincu <img data-src=" />


Le 23/06/2015 à 09h 36







JR_Ewing a écrit :



Par contre, que Google y ai accès là ça te pose aucun problème, hein! <img data-src=" /> Ca m’agace ce 2 poids 2 mesures!







Heu, perso je n’ai pas lu ça dans son message, tu déduis ça d’où que ça ne lui pose pas de problème ?

Moi perso les deux me posent problème…









JR_Ewing a écrit :



Tu n’est pas obligé d’avoir un compte en ligne pour utiliser W8/W8.1 ou W10 sur un ordi local, faut arrêter de raconter n’importe quoi!







Je n’ai rien dit sur Windows 8 ou 8.1, si tu as lu mon message. Bien que sur ces OS l’authentification par compte en ligne soit fortement encouragée.



Sous Windows 10, il est désormais bel et bien obligatoire de s’authentifier avec un compte Insider pour continuer à recevoir les mises à jour, comme l’explique le lien que j’ai donné. Pour la version finale de Windows 10 ? On ne sait pas, l’avenir nous le dira… Mais à l’instar de Windows 8 et 8.1, on peut s’attendre au moins à ce que ce soit fortement encouragé.


Le 23/06/2015 à 09h 33







Tolor a écrit :



L’obigation, c’est uniquement quand tu fais partie du programme insiders, tu dois avoir un compte comme identifié dans le programme Insider (mais tu peux utiliser un compte local à côté.



Si tu n’est pas dans ce programme, il n’y a aucune obligation.







Pour l’instant…



Il n’empêche qu’aujourd’hui Windows incite à s’authentifier avec un compte en ligne, pour synchroniser toute la session et les documents de l’utilisateur. Oui on peut passer outre et utiliser un compte local, oui ça se désactive dans les paramètres… Mais par défaut c’est bien le compte en ligne qui est mis en avant et encouragé à l’installation. L’immense majorité des Michu ne vont même pas se poser de question et rentrer leur adresse email bien gentiment, comme on leur demande. Je dis juste que je trouve ça dommage, et qu’on peut effectivement se poser des questions sur la confidentialité de ses données comme le disait freechelmi.



Et répondre « c’est pas mieux chez le voisin », ça ne justifie rien et ça ne résout pas le problème.


Le 23/06/2015 à 08h 52







127.0.0.1 a écrit :



Des problèmes de confidentialité plus graves que Google qui active un mouchard audio sur chrome et chromium ?







Quelqu’un d’autre commet un délit, donc j’ai le droit de commettre un délit ? <img data-src=" />



« Ouais mais Google fait pas mieux », ça ne justifie rien du tout…



Pour ma part je les mets un peu tous dans le même panier : Microsoft, Apple, Google, et même Facebook, Amazon… À partir du moment où mes données sont chez eux, je ne sais pas ce qui leur arrive. Être obligé d’avoir un compte en ligne pour s’identifier sur son ordinateur local, je ne vois pas ça d’un bon œil perso…


Le 23/06/2015 à 08h 45







Okki a écrit :



On peut plus ou moins installer n’importe quel environnement sur n’importe quelle distro (exception faite d’Unity, dont Canonical patch les différentes bibliothèques sous-jacentes dans tous les sens), mais ça n’en fera pas une bonne intégration pour autant.







Justement c’est pour ça que je fais le distinguo entre les versions proposées « officiellement », et l’installation d’un environnement a posteriori. Comme tu le dis toutes les distribs proposent tous les environnements dans leurs dépôts (ou presque), mais ça ne veut pas dire que l’intégration sera bonne. En revanche en général quand l’éditeur propose un environnement dans une image ISO, l’intégration est bonne.



Chez moi, j’utilise Mint Debian Edition avec KDE sur mon PC de bureau, Mint MATE sur mon PC portable, les deux sont très bien intégrés et ne m’ont posé aucun souci. Au boulot j’ai installé Ubuntu (seule ISO dispo au boulot…) sur laquelle j’ai installé ensuite KDE, et là j’en ai chié un peu plus pour avoir une bonne intégration <img data-src=" /> (à coups de lxappearence et compagnie). Donc je suis d’accord que pour utiliser Ubuntu on a intérêt à aimer Unity, sinon ça peut être galère d’installer un autre environnement de bureau.



Ubuntu Gnome n’est pas officiellement supportée par Canonical, donc ça ne m’étonne pas que l’intégration soit foireuse. En fait je pense que Canonical fait tout pour obliger ses utilisateurs à utiliser Unity, du coup c’est la galère si on veut installer un autre DE. C’est d’ailleurs une des raisons qui m’ont fait quitter Ubuntu chez moi : autant j’adorais cette distribution à ses débuts, autant je ne peux pas piffrer Unity. Je préfère largement les DE plus « classiques » comme MATE ou KDE (question de goûts personnels).


Le 23/06/2015 à 08h 17







Okki a écrit :



Mint c’est avant tout Cinnamon. C’est l’environnement de bureau qu’ils développent et sur lequel ils se concentrent. Un peu comme pour les spins de Fedora, je ne vois pas trop l’intérêt d’utiliser un environnement tiers sur une distro qui développe sa propre solution.



Pour moi, Fedora restera GNOME, Mint restera Cinnamon, Ubuntu restera Unity, elementaryOS restera Pantheon, et ainsi de suite.



Donc oui, on peut installer Pantheon ou Unity sous Arch, mais à mon avis, il n’y aura clairement pas le même niveau d’intégration, et sûrement tout plein de nouveaux bugs à prévoir, dont le projet en amont n’aura que faire.







Bof, je ne vois pas trop pourquoi tu dis ça.



Linux Mint est bien fourni en cinq versions, sur leur site officiel : Cinnamon (Gnome 3 customisé), MATE (fork de Gnome 2), KDE, XFCE, et Debian Edition. Je ne vois pas pourquoi une ISO serait plus « officielle » ou mieux intégrée que les autres.



Fedora c’est pareil : ils proposent bien, officiellement, une ISO Gnome et une ISO KDE. Donc les deux sont bien des versions « officielles », offrant un bon niveau d’intégration. Mageia aussi propose une ISO KDE et une ISO Gnome.



Avec Ubuntu c’est différent puisque Canonical ne la propose officiellement qu’avec Unity. Il existe bien d’autres variances (Kubuntu, Xubuntu…) mais officiellement non supportées par Canonical. Donc je suis d’accord que Ubuntu, c’est Unity. Les autres environnements (MATE, KDE…) sont bien disponibles dans les dépôts, mais Canonical n’assure pas leur intégration, leur installation peut être hasardeuse et il vaut mieux savoir ce que l’on fait.


Le 22/06/2015 à 09h 44







ErGo_404 a écrit :



C’est un modèle inévitable (à chaque point de divergence il y a un type qui fait un fork), mais regrettable.



L’esprit Linux/Gnu, c’est l’esprit de travail en collaboration et de partage. Ca aurait été cool que ça se reflète dans les développements.

Je trouve ça débile que chacun refasse son propre installeur, son propre support de l’UEFI, son propre panneau de configuration, alors qu’il y a globalement tellement de points d’amélioration à faire qui ne sont pas du tout spécifiques à telle ou telle distribution.







Il y a plusieurs raisons qui expliquent cela, à mon sens.



Déjà quand tu parles de « points d’amélioration qui ne sont pas spécifiques à une distribution », la plupart du temps il s’agit de développements qui ne sont pas assurés par les distributions, justement. Par exemple il y a des choses à améliorer dans KDE ? C’est l’équipe de KDE qui s’en charge, et non pas les mainteneurs de Mageia ou Ubuntu. Le rôle d’une distribution, c’est d’empaqueter les logiciels produits par différents groupes de développeurs pour en faire un tout cohérent. Ce n’est pas leur rôle de s’immiscer dans le développement de tel ou tel composant particulier (même si dans beaucoup de cas, les développeurs de distributions peuvent aussi assurer le développement d’un code particulier -je dis juste que ce n’est pas le rôle premier d’une distribution). Donc sur un projet, un composant, il y a bel et bien une équipe de développeurs qui collaborent entre eux ; mais ensuite chaque distribution va intégrer ce travail différemment, et il n’y a aucune raison particulière pour que toutes les distributions intègrent tout ça de la même manière.



Ensuite, derrière les principales grosses distributions il y a des entreprises qui doivent faire leur beurre (Red Hat, Ubuntu…). Le but d’une telle entreprise est justement de se démarquer, de proposer ses propres solutions pour sortir du lot et répondre aux attentes de ses clients. Cela n’empêche pas les développeurs de différentes distributions de collaborer et de mettre leur code à disposition quand il y a un besoin général à couvrir (développements dans le noyau Linux, sécurité/pare feu/sandboxes, etc.).


Le 22/06/2015 à 08h 26







eres a écrit :



N’étant pas très au fait des distributions Desktop, qu’est ce Mageia peut apporter part rapport à des comme Ubuntu, Centos, Fedora…?

J’ai par moment l’impression d’une dispersion des énergies sans trop en comprendre l’enjeu.







Dispersion des énergies ? Allez, une analogie bagnolesque gratuite (et probablement bidon) : « pourquoi y a-t-il différents constructeurs de voitures, alors qu’ils pourraient tous fabriquer la même ? Qu’est-ce que ça apporte ? Ça donne l’impression qu’ils dispersent leur énergie »…

Cette analogie marche aussi avec les machines à café, Nespresso VS Senseo VS percolateur etc. Ça fait des débats sans fin et généralement plutôt stériles, puisqu’il n’y a pas de « meilleur absolu » : le choix d’une voiture (ou d’une cafetière) est avant tout un choix personnel, qui dépend des goûts de chacun.



Ben dis-toi que c’est la même chose dans le monde des distributions GNU/Linux.



Ubuntu : derrière c’est la société Canonical, qui vend des services sur ses versions serveur. Ubuntu est livrée de base avec un environnement de bureau développé spécialement pour elle : Unity. On aime ou on n’aime pas.



Fedora : c’est le dérivé « grand public » de la distribution Red Hat. La société Red Hat édite la distribution du même nom, et vend du service dessus aux entreprises. Fedora est livrée avec l’environnement Gnome par défaut, mais il en existe des versions avec différents environnements (KDE, XFCE…)



Mageia : c’est une distribution communautaire. Entendre par là qu’il n’y a pas d’entreprise derrière, mais des développeurs indépendants qui font leur distribution à leur sauce. Par défaut elle utilise KDE comme environnement de bureau.



Comme tu le vois, chaque distribution utilise à peu près les mêmes éléments de base (noyau Linux, logiciels GNU…), mais peut les intégrer de façons différentes. Chaque distribution propose par défaut un environnement différent, des dépôts différents, des logiciels pré-installés différents… Cela laisse davantage de choix à l’utilisateur. Chacun trouvera une distribution qui lui plaît, adaptée à ses besoins, etc.



Si tu es un novice en matière de Linux et que tout ce choix te laisse pantois, mais que tu es quand même curieux et que tu veux tester : commence par une distribution simple. Je te conseillerais Linux Mint (avec l’environnement KDE, proche de Windows, ou bien avec l’environnement MATE, très léger et rapide) ; ou bien Mageia (qui a l’environnement KDE aussi).


Le 20/06/2015 à 20h 12







SolykZ a écrit :



Ça se défend. Mais à mon sens c’est plutôt le boulot du développeur que de faire en sorte que sa page fonctionne pour les utilisateurs finaux, après tout c’est son objectif de base, non ?



A force de permissivité, de hacks en tous genres, etc, t’as vu dans quelle situation on s’est retrouvés avec IE ? Chaque version avait ses feuilles de style, contenant leurs propres hacks, etc. Quel bordel. Ensuite il faut repartir avec un nouveau navigateur pour faire table rase parce que c’est plus facile.







Tout à fait, c’est le but du développeur de faire en sorte que ça marche. Aujourd’hui, tout développeur devrait respecter les standards W3C. Mais il y a des tas de cas où des sites Web ne les respectent pas.



Il y a le développeur du dimanche, qui fait son petit site dans son coin sans bien connaître les standards, et qui ne teste son site qu’avec un seul navigateur (celui qu’il utilise chez lui).



Il y a le développeur professionnel, qui avait été mandaté en 2000 par une entreprise pour créer un site Web. Sauf que depuis il a vogué vers d’autres horizons, et l’entreprise n’a jamais mis à jour le site Web.



Etc. etc.



Quand il va sur le Web, l’utilisateur ne connaît pas les détails de la conception du site Web. Tout ce qu’il veut c’est que le site Web s’affiche, même si le site est pourri, vieux, qu’il ne respecte pas les standards… Si le site pourri s’affiche dans le navigateur X, mais que le navigateur Y ne l’affiche pas en disant « non c’est pas standard je n’affiche pas », tu crois que l’utilisateur final va préférer quel navigateur ?


Le 20/06/2015 à 09h 42







SolykZ a écrit :



Features ? Closed source ? Hacks ? T’es mignon de me troller parce que j’ai omis une négation dans une phrase, quand les tiennes sont incapables de se cantonner à une seule langue. :)



Essaie d’écrire du PHP en mettant des crochets au lieu de parenthèses pour passer des paramètres à tes fonctions. Ça aussi, c’est étendre les possibilités, après tout, non ? Vois ensuite la gueule que tire ton “compilo”. Et le mal que les autres développeurs auront à relire ton fichu code.



A l’inverse du français, qui se veut naturellement souple et assez riche que pour être compris même par n’importe quel énergumène au cerveau étriqué, un langage de programmation nécessite des standards, car l’ordinateur qui va l’interpréter n’a pas notre faculté d’analyse et d’adaptation face à une instruction manquant de rigueur.







On peut en débattre, mais je ne trouve pas ça incohérent que le navigateur, qui se situe du côté utilisateur, soit permissif, et essaye d’afficher la page même si elle contient des erreurs. Le but du navigateur n’est pas de remettre les dév Web à leur place, mais de faire en sorte que « ça marche » pour l’utilisateur final.



De même que certains compilateurs vont laisser passer certaines instructions qui ne sont pas tout à fait standard, pour faire en sorte que « ça marche » quand même. Dans les deux cas c’est permissif, dans une certaine limite, ça ne permet pas de faire n’importe quoi non plus. Beaucoup de « hacks permissifs » sont là pour assurer la compatibilité avec des choses qui étaient communément admises avant, mais qui ne sont plus utilisées ou ont été enlevées du standard. C’est là tout le dilemme des programmeurs : faut-il faire une interprétation stricte, quitte à couper brutalement la compatibilité avec les codes passés ? Ou faut-il au contraire être permissif ?


Le 19/06/2015 à 11h 46



Mais on soulignera que même si la transparence a augmenté de manière significative, il n’est pas question de refuser les demandes faites par les forces de l’ordre ou agences de renseignement dès lors qu’elles sont accompagnées d’un mandat ou d’un ordre de tribunal.





Le problème n’a jamais été là : si la justice fait son travail, et ordonne d’avoir accès à certaines informations bien ciblées (sur un individu par exemple), ces entreprises ne peuvent que s’y plier. Pour ma part je considère ça comme un fonctionnement normal.



Ce qui n’est pas normal en revanche, c’est que des agences gouvernementales aient un accès illimité à nos données, sans mandat ni rien, au travers des réseaux téléphoniques, en exploitant des backdoors, ou en ayant accès directement aux bases de données des Clouds des différentes entreprises. Une telle collecte massive et non justifiée des données de tout le monde, ce n’est pas du tout un fonctionnement normal, et on ne peut plus appeler ça de la « justice ».