votre avatar

Konrad

est avec nous depuis le 3 août 2010 ❤️

4337 commentaires

Le 03/02/2014 à 12h 24







TRUCide a écrit :



Je ne veux pas troubler l’ordre public mais je ne comprends pas l’intérêt de linux. A chaque fois que j’essaye une distrib´, il y a plus d’inconvénient que d’avantage et quand je viens de Windows, je me sens bien limité. J’entends souvent l’argument “c’est libre” qui me semble en mousse pour un utilisateur lambda/grand public. Ce que je constate c’est toujours cet loterie matérielle avec des bugs en tout genre et la nécessité de souvent passer par la case terminal, il y a aussi l’infériorité d’application par rapport à Windows. Le manque de Photoshop me chagrine beaucoup par exemple. Et il n’y a pas IE la référence des navigateurs internet.

De plus quand je vois ces screens de mageia, j’ai l’impression de voir un PC de la période soviétique. Ça aide pas le publique.



Avant de me faire crucifier par une horde de barbus déchaînés quelqu’un peut m’éclairer sur l’intérêt de Linux ? Merci.





La meilleure réponse est sans doute : Linux n’est pas adapté à tes besoins, Windows est mieux adapté à tes besoins, donc reste sous Windows.


Le 03/02/2014 à 08h 02

Les chatons c’est sacré, IRL comme sur Internet <img data-src=" />

Le 31/01/2014 à 09h 48







raoudoudou a écrit :



Non, bien sûr, mais c’est parce que ces disques n’ont eu qu’une utilisation de stockage qu’ils n’ont pas été soumis au stress <img data-src=" />



Pas de P2P dessus, uniquement des lectures séquentielles de gros fichiers, peu d’écritures et écritures souvent définitives à des fins d’archivage. Le seul stress qu’ils ont pu avoir, c’est quand je faisais des recherches de fichiers, ce qui est très rare. Et bien entendu, aucune défragmentation, aucun service à la con qui gratte dessus dans mon dos (merci Linux). Pour ceux en USB, c’était du backup à la semaine, donc pas violent.





Sauf qu’il n’y a aucun lien entre la charge de travail d’un disque dur et sa durée de vie, d’après l’expérience de Google.


Le 30/01/2014 à 19h 07







TaigaIV a écrit :



Je comprend la validité du processus pour la normalisation des unités. Je pense qu’utiliser autre chose que les *io est une tromperie de commercial.





Pourquoi une tromperie ? 1 Mo fait bien 1 000 000 octets, il n’y a pas de tromperie… Je comprends bien que ça arrange les fabricants de disques durs d’écrire «4 To» plutôt que «3,86 Tio», le chiffre est plus gros, ça fait plaisir aux commerciaux. Mais techniquement les deux sont corrects, il n’y a pas de tromperie.



Encore une fois la seule tromperie c’est si le système d’exploitation affiche «3,6 To» : là on a l’impression de s’être fait avoir, que 400 Go ont disparu et que le fabricant de disque nous a trompé. Alors qu’en réalité c’est l’OS qui se trompe.



Mais c’est vrai que ça serait bien d’utiliser les mêmes unités partout. Écrire «700 Mo» sur un CD est tout aussi incorrect : il faudrait écrire «700 Mio». Là pour le coup ce sont les fabricants qui se trompent. Pour leur défense le CD a été inventé bien avant la standardisation (qui date de 1998), à une époque où il était courant d’utiliser «1 ko = 1024 o», et où le Mio n’existait pas.



Le fait que différents supports utilisent différentes unités, et en plus les écrivent de façon incorrecte, contribue à la confusion.









TaigaIV a écrit :



Au passage dans l’article wikipedia on retrouve 4 KB mais pas 4KiB, ni 4kB pas plus que 4kiB (mais j’essaierai tout de même de me rappeler que je ne dois pas mettre de majuscule).





Wikipedia n’a pas toujours raison. Utiliser un K majuscule est inkorrect <img data-src=" />


Le 30/01/2014 à 18h 26







Pc_user a écrit :



C’est 6 TB hein…. pas 6 To

Pareil pour les HD en 4 Tb… ça ne fait pas 4To… mais plutôt 3,6To environ d’utiles…soit 400go qui passent à la trappe





Plusieurs réponses ont déjà été données au-dessus mais je résume :



6 TB = 6 tera-bytes (écriture anglaise, ne pas confondre bytes et bits)

6 To = 6 tera-octets (écriture française)

C’est strictement identique : 6 TB = 6 To.



Ensuite un disque dur de 4 To fait bien 4 To, c’est-à-dire 4 000 000 000 000 octets.

Ça équivaut aussi à 3,638 Tio (tébi-octets).



Le problème c’est ton système d’exploitation qui affiche «3,6 To», ce qui est faux. Il devrait afficher soit «4 To» soit «3,6 Tio».


Le 30/01/2014 à 18h 19







TaigaIV a écrit :



Donc 4Ko = 4000o, ça va pas être très pratique pour l’advanced format.





Oui

4 ko = 4000 o

4 kio = 4096 o

(et on n’utilise jamais de K majuscule avec une unité : kilomètres s’abrège km et non Km, kilogramme kg et non Kg)



Dans l’Advanced Format le terme «4k» ou «4K» fait bien référence à une structure de 4096 o.


Le 30/01/2014 à 16h 42







TBirdTheYuri a écrit :



Avant tout le monde utilisait l’unité “Go” en comptage binaire. Mais quand les constructeurs de DD otn vu qu’ils pouvaient gonfler la capacité affichée en employant le comptage décimal, ils s’y sont précipités.





C’est surtout que dans toutes les sciences le système international utilise les préfixes kilo-, mega-, giga- etc. pour désigner 1000, un million, un milliard, etc. Par exemple 1 km = 1000 m, 1 kbar = 1000 bars, 1 MW = un million de watts.



Donc en 1998 l’IEC a décidé qu’il devait en être de même en électronique / informatique, sans quoi ça mettrait la pagaille. Donc 1 ko = 1000 octets, 1 Mo = 1 million d’octets, etc.



Dans le même temps l’IEC a effectivement proposé de nouveaux préfixes pour le comptage en puissance de 2 : 1 kio (kibi-octet) = 1024 octets, 1 Mio = 1024 kio, etc.



Donc techniquement les constructeurs de disques durs sont dans le vrai : un disque d’1 To contient bien mille milliards d’octets. En puissances de 2 ça équivaut à 931 Gio (gibi-octets).



La confusion vient surtout de certains système d’exploitation qui ne respectent pas la norme IEC, et affichent «931 Go» au lieu de «931 Gio». <img data-src=" />


Le 30/01/2014 à 15h 06







matroska a écrit :



Et s’il y a une fuite un jour c’est pas hyper dangereux quand même !



Comment foutre le feu chez toi avec un disque dur !



Suffit que tu fumes une clope au même moment !



Booooooum !





Tu dois confondre avec l’hydrogène. L’helium n’est pas inflammable.



En revanche l’helium est connu pour diffuser très facilement dans les métaux, créant ainsi de petites poches et rendant le métal fragile, plus facile à casser… Si le phénomène est important cela pourrait avoir des conséquences sur la durée de vie des composants (en particulier le moteur) à l’intérieur du disque dur. Je me demande s’ils ont fait ce genre de tests sur le long terme… Sinon on le saura dans quelques années quand ces disques durs péteront les uns après les autres :/


Le 30/01/2014 à 13h 25

De l’helium dans le disque dur ? <img data-src=" />



Si on met des mp3 dessus les chanteurs se retrouvent avec une voix plus aiguë ? <img data-src=" />

Le 31/01/2014 à 08h 48

Jeux uniquement pour Windows, je passe mon chemin.

Le 29/01/2014 à 19h 25







SFX-ZeuS a écrit :



Moi ça me rappel les chataignes que l’on se prenait en débranchant notre cable ^^’ et les parties de jeu plantés car y’a un gars qui s’en va <img data-src=" />





Ah oui en BNC un être vous manque et tout le réseau est dépeuplé <img data-src=" />


Le 29/01/2014 à 17h 09







Marc4444 a écrit :



Manque un port BNC quand même…





Haaaa ça me rappelle des vieux souvenirs des premières LAN… <img data-src=" />


Le 29/01/2014 à 13h 04







darth21 a écrit :



122 modèles mais ya pas le choix … d’accord ….<img data-src=" />





C’est normal : trop de choix tue le choix.



<img data-src=" />


Le 29/01/2014 à 12h 16



«Nous aimons donner à nos clients l’option de choisir l’ordinateur qui leur convient ». Une étrange remarque quand on sait que les demandes de machines sous Linux ne sont pas prises en compte.



C’est vrai que dire «nous aimons donner le choix» ça fait très faux-cul… La vraie raison est sans doute que les demandes de PC sous Linux ne sont pas aussi nombreuses que pour Windows 7. De plus HP a déjà vendu du Windows 7 donc c’est facile d’en re-proposer, alors qu’ils n’ont jamais eu de véritables offres Linux.

Le 27/01/2014 à 16h 46

4G : jusqu’à 300 Mb/s soit environ 37 Mo/s



Donc 5 Go peuvent être utilisés en 2 min 14 s. dans des conditions optimales <img data-src=" />



Sinon le mode modem interdit, c’est tellement an 2000 <img data-src=" />

Le 27/01/2014 à 16h 38







zefling a écrit :



Au tout cas, au prochain téléphone, peu de chance que je change d’Os : les applications ne sont pas multiplate-formes. C’est encore pire que sur bureau, on est encore plus enfermé.





Ne pas oublier que ce n’est pas la faute des OS, mais des développeurs d’applis : s’ils ne développent que pour iPhone par exemple, ça ne sera pas dispo sur Android ni Windows Phone, et inversement.



Aux développeurs de rendre leurs programmes disponibles sur plusieurs plates-formes (aussi valable sur ordinateur de bureau) <img data-src=" />


Le 23/01/2014 à 20h 53







Khalev a écrit :



En fait leur recherche d’image ne sert à rien niveau protection. Il ferait mieux de trouver un système d’“énigmes” à résoudre (du genre : 2 pommes + 2 canards, ça fait combien de canard à l’orange?)





Heu ça fait 2 canards aux pommes donc zéro canard à l’orange ?



Damn même moi je ne suis pas sûr de la réponse <img data-src=" />



Signé : Konrad à l’orange


Le 22/01/2014 à 17h 19







FrenchPig a écrit :



Je mets la référence





Vache merci je connaissais pas <img data-src=" />


Le 22/01/2014 à 16h 41







matroska a écrit :



En même temps “Steam” ça signifie “Vapeur” ou “Buée” en Anglais !



Mais je pense que c’était ça que tu insinuais ?





<img data-src=" />


Le 22/01/2014 à 16h 35

Steam est dans le brouillard ? <img data-src=" />

Le 22/01/2014 à 16h 09







maestro321 a écrit :



Error: divided by zéro…





Ben quoi il travaillera à 100% sur sa fondation et à 20% à aider Microsoft <img data-src=" />


Le 22/01/2014 à 11h 35







charon.G a écrit :



On sait tres peu de choses pour le moment. A part qu’il devrait y avoir une version par type d’appareil. Et que l’ergonomie tactile ne serait plus imposé partout(sur pc en particulier)

Pour le menu démarrer il doit revenir sous une autre forme. Mais on ne sait pas quand. Certains disent que ce serait dans le windows 8 update 1, d’autres sur 9.



Sur 9 on sait aussi que ce serait un os unifié mais avec des interfaces différentes.



Je te conseille de lire ceci, ça explique pas mal de choses. Surtout le premier lien de paul thurrott qui explique ce qui s’est passé en coulisse.

source1

source2

source3





Merci pour la réponse et les liens <img data-src=" />


Le 22/01/2014 à 09h 54







charon.G a écrit :



Windows 8 est fiable et rapide mais Modern UI sur PC est une plaie. Tu verras qu’il existe des gens plus modérés que toi sur le sujet.

Par contre j’accueille Windows 9 comme une délivrance je ne me voyais pas me faire imposer une interface full screen sur pc à long terme.





Cela m’amène à poser quelques questions par curiosité (désolé si ça a déjà été traité ailleurs) : que sait-on de Windows 9, en particulier les changements par rapport à Windows 8 ? L’interface ModernUI disparaîtra, ou deviendra optionnelle ? Retour du menu démarrer ? La session utilisateur sera-t-elle liée au Cloud de Microsoft, ou est-ce que ça sera aussi optionnel ?


Le 21/01/2014 à 16h 03







CR_B7 a écrit :



Regarde juste la durée des support “long life” linux, c’est entre la moitié et le quart de la durée d’une windows





Wikipedia me dit que la durée moyenne du support de Windows (y compris les versions Server) est de 10 ans, avec l’exception notable de Windows XP qui a été supporté pendant 12 ans.



Comme dit par d’autres intervenants, certains éditeurs proposent du support étendu de Linux pendant 10 ans ou plus, par exemple Red Hat.



Donc égalité, balle au centre.


Le 21/01/2014 à 15h 18







lossendae a écrit :



Je t’apprend vraiment que windows embedded est plus utilisé que Linux ?

T’as vraiment besoin de chiffre ?

Tu ne sais pas qu’un “spécialiste” systeme embarqué Linux coûte plus cher qu’un techos Windows ?



<img data-src=" />



Je n’ai pas de chiffre, donc prend le pour une affirmation gratuite. Je dois être un pro Windows vendu à la cause d’MS. <img data-src=" />





Je n’ai pas trouvé beaucoup de chiffres (j’imagine que les parts de marché des systèmes embarqués est plus difficile à évaluer que celles des OS utilisés pour aller sur le Web) mais j’ai trouvé cette étude de marché.



Ça date de 2013 donc pas si vieux, et ça montre que Windows Embedded n’est pas le plus utilisé. De loin les entreprises utilisent des solutions “custom” (ce qui ne dit rien sur le type d’OS), suivi d’Android, Ubuntu, FreeRTOS et ensuite Windows Embedded en 5e position.



Donc oui, si tu m’affirmes que Windows Embedded est plus utilisé que Linux tu m’apprends quelque chose, et j’aimerais voir des chiffres concrets pour le montrer.


Le 21/01/2014 à 14h 05







ExIcarus a écrit :



Je comprends ton point de vue , mais je ne pense pas que cela soit d’une part moins couteux ( Il faut bien payer quelqu’un pour développer un logiciel qui s’adapte au besoin) mais également aussi robuste (on a beau en penser ce qu’on veut , XP n’est pas une passoire comme certains aimeraient le faire croire)



Le mieux est souvent l’ennemie du bien . Imagine toi que le cout de développement d’un tel logiciel sera forcément répercuté sur les utilisateurs des DBA/GBA sans compter les failles éventuelles (ce qui impliquerait aussi de faire des audits , etc… )





Tout à fait d’accord, sur des appareils aussi sensibles que des distributeurs de billets on ne va pas s’amuser à réinstaller juste pour le plaisir.



Mais c’est justement cela que les banques devront faire : réinstaller parce que le support du système arrive à terme. Comme je le disais dans un précédent commentaire les banques n’ont pas le contrôle du système, ni de quand doit se passer la migration. Ils y sont contraints, même si ce système remplit encore très bien son office. Cela leur impose de migrer toutes les machines à un moment donné. Et avec cette migration, le portage des applications qui vont avec. Pour moi c’est la preuve que ledit système était un mauvais choix.



L’argument de sécurité, failles etc. n’est que secondaire puisque ces machines ne sont reliées qu’à un réseau dédié, l’attaque par connexion réseau est donc très limitée (la preuve les “hacks” de distributeurs sont souvent matériels, avec des faux lecteurs de cartes ou avec des clés USB). Pour moi l’argument c’est vraiment celui de la migration sur lequel les banques n’ont aucun contrôle.


Le 21/01/2014 à 12h 33







befa508 a écrit :



le support de Linux Vx s’arrête dès la sortie de linux Vx+1.

Tant que le libre n’aura pas compris cela, Microsoft pourra dormir tranquille.





C’est faux.



Peut-être que la fondation Linux n’offre plus elle-même de support une fois passée à la version Vx+1, mais il existe des distributions (Red Hat, Debian…) qui continuent à supporter la version Vx pendant plusieurs années (en y portant les patches critiques). Et même quand ce support est abandonné il est possible de le continuer soi-même (ou en sous-traitant) puisque les sources sont ouvertes.


Le 21/01/2014 à 12h 30







lossendae a écrit :



Raison de plus.

Qui dit rareté, dit coût de maintenance plus élevé.





Je comprends, c’est d’ailleurs sans doute parce qu’il est très répandu et beaucoup plus facile à maintenir que Windows Embedded est le premier choix pour équiper les télévisions intelligentes, les voitures, les box Internet…



Oh wait…



Si Linux est utilisé sur de nombreux systèmes embarqués, il y a une raison. As-tu au moins un chiffre, une étude pour affirmer qu’il y aurait un coût de maintenance plus élevé ? Ou c’est juste une affirmation gratuite ?…


Le 21/01/2014 à 12h 12







lossendae a écrit :



Patcher soi même ? Les banques, comme tous le monde, sous traite.

Eng ardant ça en tête, remet les coûts de maintenance en perspective sur un systeme Open Source, selon les besoins, même au compte goutte.



On parle pas de changer un paramètre dans Apache là.





Comme je le disais, de nombreux systèmes embarqués fonctionnent avec un système qui n’est jamais (ou extrêmement rarement) mis à jour (GPS, voitures, télévisions, smartphones…). Des bornes de distribution pourraient très bien fonctionner pendant des années sans mise à jour, en ne patchant que lorsqu’une faille pose un risque réel.



Je ne suis pas non plus en train de dire qu’il faut installer Ubuntu sur les bornes et l’updater tous les jours…


Le 21/01/2014 à 11h 48







CR_B7 a écrit :



Pourquoi mettre un linux/unix, si ça n’apporte rien ?

Je pense qu’il passerons sous le linux le jour ou linux aura un atout décisif, mais la c’est pas le cas.





Je vois au moins un atout décisif : contrôler quand doit se passer la migration.



Les banques ont choisi Windows XP pour leurs distributeurs, et maintenant avec l’arrêt du support elles se retrouvent dos au mur et obligées de migrer. Elles ne contrôlent pas leur calendrier de migration : quand la migration doit être faite, quand la dépense doit être faite. Elles dépendent entièrement de Microsoft.



Avec un système dédié Open Source les solutions sont autrement plus flexibles, il est possible soit de suivre les mises à jour proposées par un éditeur, soit de patcher soi-même au compte-goutte selon les besoins (backports)… Contrôle de la migration, contrôle des coûts de migration.


Le 21/01/2014 à 10h 28







brice.wernet a écrit :



Parce que Windows XP couvre le besoin?

Parce que c’est beaucoup moins cher (tu connais le prix de la licence VMS???)

Parce que XP a été maintenu tel quel jusque maintenant?

Parce que Windows XP n’est PAS une passoire totale depuis un bon moment: la complexité de mise en oeuvre des failles de sécurité va croissant, nécessite l’utilisation de certaines fonctionnalités assez particulières dans des circonstances particulières qu’un hacker peut tenter de reproduire sur un site verreux, mais pas sur une appli totalement figée comme l’affichage des pompes à essence.

Il faut reconnaitre que quand Microsoft corriger 10 failles sur Windows, le composant d’affichage des images, Office, sous Linux tu as 40 correctifs pour CUPS, X, le kernel, la librairie XYZ, …

Sous Ubuntu, il n’y avait pas une semaine sans des correctifs dans tous les sens, certains ayant même cassés des applis.



Et de toutes façons, tu crois vraiment qu’on met à jour les pompes à essence et les distributeurs automatiques?





Dire que Windows XP est sécurisé grâce aux patches, et dans le même temps dire que les bornes ne sont pas mises à jour… Grand écart spotted.



Sinon entre parenthèses, il faut savoir que beaucoup de logiciels libres sont développés avec la philosophie «release early, release often» : distribuer tôt (donc dès qu’une fonctionnalité est ajoutée, modifiée, ou dès qu’un patch est produit), distribuer souvent (donc potentiellement tous les jours). Bien sûr cela veut dire qu’il risque d’y avoir des bugs lors de l’introduction de nouvelles fonctionnalités, mais ça veut dire aussi qu’elles seront corrigées rapidement (pas besoin d’attendre 6 mois pour la release suivante). Il est possible de suivre la cadence de développement imposée par le développeur, ou bien de se baser sur des versions dites «stables» ou bien éprouvées (ce que fait Debian Stable par exemple). Selon les besoins il est aussi possible de backporter uniquement les patches qui sont nécessaires. Bref dire que les mises à jour sous Linux sont là trop souvent ou foutent le boxon, c’est peut-être vrai dans certaines distributions qui font les mauvais choix, mais c’est loin d’être une généralité, et surtout il existe des solutions pour ne pas avoir ces inconvénients.


Le 21/01/2014 à 09h 56

Je n’ai jamais compris pourquoi les distributeurs de billets (donc bornes interactives, écran tactile, pas de clavier ni souris, un seul logiciel qui tourne) étaient équipées d’un OS pour ordinateur de bureau (Windows XP ou autre)… Dans le genre «pas adapté» ça se pose là.

Le 22/01/2014 à 09h 50







petogo a écrit :



Les choix techniques dans les grosse sociétés sont souvent fait au mépris de tout ce qui n’est pas windows. Et ça ce n’est meme pas la faute direct X, beaucoup de jeux avec OpenGL ne tourne que sur windows, voir mac alors que le marché du gaming sur mac et linux sont équivalent (moins de machine mais plus gros panier moyen et plus de joueur).

On peut prendre l’exemple de league of legend dévloppé avec directX, réecrit totalement en openGL et qui est disponible uniquement sur mac et windows.



Il y a aussi beaucoup de politique derrière ça, les attouts de windows c’est Office et les jeux, il y a un sacré lobying de la part de M$ pour l’utilisation de ses techno





Tout à fait ce n’est pas tellement un problème de faisabilité ou pas, mais surtout de politique éditoriale. Je pense que les éditeurs de jeux vidéos ne s’intéressent pas au panier moyen, mais aux revenus totaux qu’ils peuvent espérer obtenir d’une plate-forme. Linux est négligeable sur les ordinateurs de bureau (1à 2%), donc revenus pas intéressants, conclusion ils ne voient pas l’intérêt de sortir les jeux sur cette plate-forme.



C’est pour cela que la stratégie de Steam est très osée. Cela pourrait, sur le long terme, augmenter les parts de marché de Linux sur le desktop et chez les gamers, et donc amener d’autres éditeurs à s’intéresser à ce marché. En d’autres termes je crois que Steam est en train d’initier un cercle vertueux pour le jeu sous Linux. :)


Le 21/01/2014 à 22h 22







Xaelias a écrit :



Techniquement c’est déjà faisable non? Après on a encore des progrès à faire vis à vis des drivers graphiques par exemple. Mais des jeux qui fonctionnent sous Linux/Windows/Mac, c’est pas utopique.



Et si du point de vue technique, tu parles de trucs style système de fichier, manière dont la mémoire est gérée, ou encore la manière de distribuer le temps de calcul entre les processus, ou encore la gestion des droits utilisateurs etc. etc., ça n’a jamais vraiment empêché les jeux de fonctionner sous Linux si?



Il n’y a que deux choses qui empêchent (empêchaient, empêcheront encore un moment) les jeux de tourner sous Linux: des drivers perfectibles, des logiciels non-interroperables. Non? (j’affirme pas grand chose, je pose des question en vrai ^^)



[EDIT] En vrai l’OS a plus grand chose à faire dans l’histoire. OpenGL ça fonctionne sous les 3 OS dont on parlait au-dessus. Après c’est un problème de compétence et de volonté :-)





Dans la pratique beaucoup de jeux ont montré que le jeu sous Linux est possible : des gros éditeurs (Quake, Doom, Unreal, Neverwinter Night, et plus récemment des jeux Valve comme Half-Life 2, Left 4 Dead 2, Portal…), des développeurs indépendants (je conseille fortement Oil Rush, Trine 1 et 2, FEZ, Torchlight…), voir par exemple cette page Wikipedia.



Après il faut reconnaître que la grande majorité des jeux AAA sont développés avec Direct X, et cela les confine à un environnement Windows. Mais tu as raison, si les jeux sont pensés pour être multi-plateforme dès le départ (donc développés avec OpenGL et des moteurs compatibles avec les 3 OS) alors ils peuvent être interopérables.



Le problème des drivers sous Linux est de moins en moins vrai. Les pilotes graphiques se sont largement améliorés, les pilotes nVidia par exemple ont des perfs égales à Windows. Les manettes de jeux, joysticks etc. sont reconnus sous Linux, idem pour le son (enceintes 5.1, micro, webcam…). Bref il reste encore du matériel mal reconnu, le plus souvent à cause du fabricant qui ne fournit pas de pilote pour Linux.



Sinon pour le point de vue technique je voulais simplement dire que les mêmes bibliothèques ne sont pas disponibles sous les trois OS, ce qui oblige à des développements spécifiques. Par exemple tu ne peux pas utiliser le même code pour produire un son sous Windows et sous Linux, il faut adapter à chaque OS. Mais comme je le disais beaucoup de jeux l’ont déjà fait, donc c’est tout à fait possible. :)


Le 21/01/2014 à 22h 07







Xaelias a écrit :



Ce que je voulais dire, c’est que pour se créer un début d’avenir dans le monde vidéoludique, Linux ne s’est-il pas simplement juste énormément rapproché de Windows?





Comme je le disais, d’un point de vue technique ça reste très différent : il ne suffit pas de compiler le même code sous Windows et sous Linux pour que ça marche. Les API ne sont pas les mêmes : Direct X sous Windows, OpenGL, Pulse Audio et compagnie sous Linux.



Par contre du point de vue de l’utilisateur, installer et jouer à des jeux devient de plus en plus transparent. Steam fonctionne comme sous Windows, permet d’installer et de jouer à des jeux comme sous Windows. Mais il faut que ces jeux aient été portés pour tourner nativement sous Linux, tous les jeux ne fonctionnent pas.


Le 21/01/2014 à 22h 05







Xaelias a écrit :



En même temps le linux de l’époque est inifiniment plus éloigné du windows de l’époque que ça ne l’est aujourd’hui non?





D’un point de vue technique ils sont toujours autant éloignés l’un de l’autre.



Du point de vue de ce qu’il est possible de faire, ça s’est nettement amélioré des deux côtés. On peut rêver d’un monde où les logiciels seront entièrement interopérables, et pourront tourner sous Windows, MacOS et Linux de la même manière…







tot0che a écrit :



Je suis tombé la dessus tout à l’heure.

Ca à l’air récent, et prometteur :

http://korben.info/transformez-votre-raspberry-pi-ou-telephone-android-en-steam-…





Intéressant en effet, merci pour le lien <img data-src=" />


Le 20/01/2014 à 19h 12







ar7awn a écrit :



qui a dit ça?



je dit juste que seven n’a plus que 6 ans de support et que les entreprises achetant un desktop sur w7 maintenant vont se plaindre plutôt que de mettre en cause leur incompétence a la fin de ce support.





Les entreprises auraient tort de s’équiper en Windows 8 ou 8.1.



Autant attendre Windows 9 prévu pour l’an prochain <img data-src=" />


Le 20/01/2014 à 18h 24



Les mêmes demandes sont faites pour Linux et le fabricant n’entend rien…



Rho ce troll dans le sous-titre <img data-src=" />



Pour Windows 7 HP ne propose rien de nouveau, il propose juste ce qui existait déjà avant.



Pour Linux, demande populaire ou pas, HP n’en a jamais proposé de façon convaincante donc ça ne risque pas de «revenir»…

Le 19/01/2014 à 19h 27







freechelmi a écrit :



Tu voulait dire LXDE au lieu de lightDM, non? je crois aussi que LXDE reste la meilleure solution pour 512-1 Go de RAM , mais est ce assez conviviable pour l’habitué de XP ? Je ne crois pas encore.





Oui je me suis emmêlé les pinceaux, LightDM est un gestionnaire de session…



LXDE est plus léger que KDE ou Gnome, c’est d’ailleurs lui qui est utilisé sur Raspbian par exemple, mais il existe des gestionnaires de fenêtres encore plus légers comme Fluxbox ou IceWM. D’après mes derniers tests ce dernier utilise moins de 16 Mo de RAM.


Le 18/01/2014 à 18h 05







freechelmi a écrit :



certains GNU/linux tourneront assez mal avec 512 Mo de RAM, j’ai meme envie de dire, la plupart des navigateurs auront du mal avec si peu de mémoire, à part peut être dans un environnement Android.





C’est sûr qu’un ordinateur avec 512 Mo de RAM aura du mal à faire tourner Firefox sous KDE ou Gnome…



Mais il existe des solutions beaucoup plus adaptées. Il faut privilégier les environnements légers (LightDM, Fluxbox…) et les logiciels légers (par ex. le navigateur Midori). À titre d’exemple, voir Raspbian (dérivé de Debian) qui tournait déjà très bien sur les premiers Raspberry Pi avec 256 Mo de RAM.


Le 18/01/2014 à 13h 55







kikoo25 a écrit :



Je ne parle pas de mettre à jour le système, mais de mettre à jour les logiciels sans mettre à jour le système. Quelqu’un ici est capable de faire tourner le dernier Fx et le dernier LibO, sur, disons, Ubuntu 8.x? (sans compiler soi-même)





Deux personnes t’ont répondu au-dessus, moi et ff9098 : comme sous Windows, il est possible de télécharger les binaires (de Firefox, de LibreOffice…) et de les copier quelque part : dans le /home/ dans le /opt/ ou dans le /usr/local/bin/ selon tes préférences.







kikoo25 a écrit :



Des trucs faux comme quoi il est très facile de faire tourner la dernière version de n’importe quel logiciel sur une distrib vieille de 3-4 ans





Oui, c’est faux.


Le 18/01/2014 à 13h 24







kikoo25 a écrit :



Sauf que dans Windows, c’est ni crade ni pas recommandé



C’est vrai que se traîner avec un vieux machin n’a pas un intérêt particulier… en dehors du fameux “if it works don’t fix it”. Une MAJ système, surtout un dist-upgrade, est toujours chronophage et bien souvent aléatoire. Je ne compte plus le nombre d’install Linux (aussi bien Fedora qu’Ubuntu ou quelques autres) qui ont rendu l’âme lors d’une MAJ majeure. Pour faire le bricolos système ça va bien, mais pour un power user qui cherche à être productif, c’est juste un gros no way. En comparaison, Windows je ne le met à jour que quand je changede machine. Enorme gain de temps, qui vaut bien le prix de la license…





Merci d’arrêter le FUD.





  1. «C’est crade, pas recommandé» : cette affirmation n’engage que ff9098. Je pense qu’il voulait dire qu’un paquet ou binaire installé manuellement n’est pas pris en charge par le gestionnaire de paquets, et donc (entre autres) qu’il ne sera pas mis à jour automatiquement. Exactement comme sous Windows finalement, donc ce n’est ni plus crade ni moins crade.



  2. «If it works don’t fix it» : tu peux aussi garder la même distribution GNU/Linux, et n’en changer (ou réinstaller) que quand tu changes de machine, comme sous Windows. Par exemple j’ai installé un PC GNU/Linux pour mes parents il y a 3-4 ans, ils ne mettent pas la distrib à jour et ne s’en plaignent pas. Leurs besoins ne changent pas, pourquoi s’embêter à mettre à jour le système…



  3. Le temps pris par une mise à jour de distribution dépend du nombre de paquets installés et du débit de ta connexion Internet. L’année dernière j’ai mis à jour mon Netbook en moins d’une heure. Comparé à un changement de version de Windows je ne trouve pas ça particulièrement «chronophage»…



  4. Je ne sais pas comment tu te débrouilles pour mettre à jour tes distribs, mais personnellement j’ai mis à jour pas mal de PC sous Debian, Ubuntu et Mandriva/Mageia, je n’ai jamais rencontré de cas où la mise à jour faisait tout planter. Et même s’il faut tout réinstaller, il y a des outils qui permettent de réinstaller exactement les mêmes paquets qu’avant (aptoncd par exemple). Du coup une réinstallation prend beaucoup moins de temps que sous Windows.



  5. Si tu n’aimes pas le système de mises à jour majeures, il existe des distributions fonctionnant en «rolling release», càd que les mises à jour se font en continu, sans grosse mise à jour majeure. Je me considère comme un power user, j’ai besoin d’être productif : voilà 3 ans que je tourne sur une Debian testing, jamais eu de problème de mise à jour, jamais besoin de réinstaller. Et vu que mon système est installé sur un RAID 1 je compte bien ne jamais avoir à réinstaller. En comparaison pour moi c’est plutôt Windows qui est un gros no-way.



  6. Si tu préfères Windows c’est ton choix, mais merci de ne pas répandre des trucs faux sur les autres systèmes.


Le 18/01/2014 à 09h 34







kikoo25 a écrit :



Oui mais généralement la fête s’arrête assez vite avec des problèmes de versions de dépendances incompatibles… Sans parler du fait qu’il est généralement nécessaire de jongler avec les dépôts (soyons réalistes, on va pas tout compiler soi-même…), et là aussi dès quelques dépôts on arrive vite dans des conflits de dépendances…. Rien qu’installer VLC et faire cohabiter ses codecs avec ceux du lecteur natif est presque mission impossible dans OpenSUSE (soit l’un soit l’autre marche, rarement les 2 à la fois!!).

Sinon bon courage pour installer le dernier Fx + LibO + VLC (par exemple) sur un Linux aussi vieux que Windows XP…





Sans devoir tout compiler soi-même, il est possible de faire la même chose que sous Windows : télécharger des binaires statiques qui embarquent les bibliothèques dont ils ont besoin.



Sinon il est effectivement possible de compiler soi-même.



Autre possibilité : créer un environnement chroot et y mettre les bibliothèques dont on a besoin, dans la version dont on a besoin.



Bref on n’est pas «obligé de mettre tout le système à jour» comme tu le disais. Ce n’est pas toujours en double-cliquant comme sous Windows, mais c’est possible.



Mais sous GNU/Linux je ne vois pas l’intérêt de garder un système qui n’est pas à jour. Si c’est pour une raison de support du matériel, il suffit de garder une version du noyau qui supporte le matériel, le reste du système et des logiciels peut être mis à jour. Si c’est un logiciel particulier qui a besoin de versions particulières de certaines bibliothèques, il vaut mieux mettre à jour le système et garder un chroot (dans lequel les versions de bibliothèques n’évoluent pas) pour faire marcher le logiciel récalcitrant.


Le 18/01/2014 à 08h 50







kikoo25 a écrit :



C’est ça la force de Windows par rapport à Linux: pour avoir le dernier Firefox tu n’es pas obligé de mettre tout le système à jour…





Sous Linux non plus…


Le 17/01/2014 à 12h 35







Winderly a écrit :



“l’anti-malware ne peut… en aucun cas corriger cette faille”





<img data-src=" />


Le 17/01/2014 à 12h 02

Davantage qu’un antivirus, j’imagine que c’est surtout un bon pare-feu qui est nécessaire.









calahan59 a écrit :



Au risque de passer pour naïf, je comprends pas les mecs qui passent leurs journées à concevoir des malwares, virus, trojan et autres saloperies. Concrètement ça rapporte du blé ? Ils se font des battle entre eux genre “hé regarde Michel j’ai infecté 1 millions de pc en Chine” “ Ouah trop fort Jean-Luc, total respect !”





Les botnets peuvent servir à envoyer du spam, et oui les spammeurs sont payés pour spammer. Sinon des botnets peuvent aussi servir à faire des attaques DoS, brute force, etc.


Le 17/01/2014 à 15h 36







CUlater a écrit :



Apple l’a breveté <img data-src=" />





L’iNus ? <img data-src=" />


Le 17/01/2014 à 11h 28







sioowan a écrit :



On m’a toujours dit que l’argent était le nerf de la guerre.

Et pourtant il ne me semble avoir jamais vu le coût de toutes les licences dans l’administration versus le coût du libre avec les changements à faire.

Cela devrait être bien plus concret que de simples supputations du bien fondé de l’une ou l’autre solution.





Je pense que dans le cas des administrations publiques, l’argent est important (argent public, ce sont nos impôts, toussa…), mais ce n’est pas le seul facteur.



Pour caricaturer : est-il acceptable que l’État dépende d’une entreprise privée pour pouvoir ouvrir ses propres documents ? Et qu’il ne puisse pas changer de fournisseur, qu’il soit obligé de racheter des licences à la même entreprise ad vitam eternam ?…


Le 17/01/2014 à 11h 23







lateo a écrit :



Aucune loi ne leur interdit de faire du proprio non plus.

Il y a de la place pour tout le monde.





Justement, en l’état des choses je ne pense pas qu’il y ait de la place pour tout le monde et c’est bien là le problème.



Si (et c’est un gros “si”) les documents étaient enregistrés dans un format ouvert, alors oui il y aurait véritablement de la place pour tout le monde : logiciels libres ou propriétaires, il y aurait une véritable concurrence, de véritables appels d’offre, des vraies comparaisons non biaisées et des choix de stratégie à court ou long terme.



Aujourd’hui c’est loin d’être le cas parce que les éditeurs de logiciels propriétaires verrouillent la plupart du temps le marché avec des formats de fichiers fermés.



Je pense qu’en favorisant le libre c’est surtout ça qui est visé : migrer vers des formats de fichiers ouverts, se libérer des formats fermés.


Le 17/01/2014 à 08h 40







Sideroxylon a écrit :



Je ne comprends toujours pas pourquoi on oppose libre et propriétaire.



Tu as un besoin, un budget et tu choisis ce qui colle le mieux.



Le but n’est pas de payer le moins cher possible, mais bien d’avoir un produit qui corresponde aux attentes des utilisateurs.





À mon sens le problème des administrations publiques est surtout un problème de formats de fichiers fermés. Mais c’est souvent lié au fait d’utiliser des solutions propriétaires.



Pour prendre l’exemple le plus simple et le plus évident : si une administration travaille avec MS-Office et enregistre tous ses documents en .doc, .xsl et compagnie depuis plus de 20 ans, alors le besoin devient «un logiciel capable de lire nos documents». Or, seul MS-Office peut garantir cela puisque le format est fermé*. Aucun concurrent ne peut développer de logiciel, l’administration est condamnée à racheter des licences MS-Office. Pire : l’administration n’est pas maître de ses documents puisqu’elle dépend d’un éditeur de logiciels bien précis pour pouvoir les lire. Bien sûr c’est un exemple bidon, mais le raisonnement est transposable à tous les logiciels propriétaires utilisés. Ça implique aussi que les appels d’offre sont biaisés puisqu’une seule entreprise peut répondre aux besoins.



La plupart des logiciels libres utilisent des formats ouverts. Cela signifie 1) que plusieurs entreprises peuvent développer des logiciels concurrents pour lire le même format ; 2) que l’administration a un vrai contrôle sur ses documents, qu’elle ne dépend pas d’un éditeur tiers pour les lire ; et 3) qu’il y a une véritable mise en concurrence et donc de vrais appels d’offre.



Quand on dit «propriétaire VS libre» j’ai l’impression que beaucoup de gens comprennent «favoriser une entreprise plutôt qu’une autre». Ce n’est pas le cas. Il s’agit de favoriser un modèle de développement (l’Open Source) plutôt qu’un autre. La différence est fondamentale.





* Bon OK en réalité Microsoft a ouvert son format OOXML depuis quelques années, mais c’était pour donner un exemple simple, et c’est loin d’être le cas de tous les formats propriétaires.