Il y a un boitier externe pour ca. D’ailleurs, pour la prochaine version, il y aura un boitier externe pour l’écran, un boitier externe pour la souris, un boitier externe pour le clavier, et ce sera une révolution. On va appeler ca une détour.
Clair.
Parfois je me demande combien de temps (et de valises) il faudrait à un utilisateur de portable pour emballer le plat de nouilles de câbles et de périphériques externes qui s’étalent sur sa table. " />
Moi, au moins, tout est bien rangé dans ma tour. Quand je veux la transporter, tout est déjà dedans… " />
C’est la ou tu te trompe… Le moteur “ultime” c’est celui qui pourra être le plus polyvalent “de base” et ensuite les studios pourront l’améliorer à leur guise. Par exemple dans gta tu à un bmx, tu peut juste sauter et faire des rotation. Je pense qu’il est possible de faire un vrai jeux de bmx la dessus. GTA est un fps, je pense qu’avec un peu de boulot il est largement possible de faire au moins aussi bien qu’un csgo, ou qu’un call of duty. GTA est un bon jeu de voiture et il est posssible avec quelques modifs de le transformer en un vrai jeu de voiture.
Derrière tu à l’unreal engine, unity, frosbite, ect… Dit toi juste un truc, bf1, nfs et fifa tournent sur le même moteur, et il est clairement possible d’avoir un jeu qui comporte ses 3 aspect…
Pendant ce temps la tu regarde le moteur de valve, je te jure que tu rigole. Ils ne sont même pas capable de faire une voiture potable avec une physique potable tout en ayant des performances potable…
Ce n’est pas aussi simple.
Il est intellectuellement séduisant de penser que l’idéal serait l’outil qui peut servir à tout.
Sauf que dans la réalité, c’est juste un biais connu de l’esprit humain. La simplicité attire. La complexité fait fuir.
Mais la polyvalence n’est pas toujours l’idéal. Les outils qui sont les plus performants sont le plus souvent ceux qui sont spécialisés. Aucun mécano sérieux ne vous échangera son énorme caisse à outil contre un couteau suisse.
Pour prendre une autre comparaison “bagnolesque”, imaginez si l’on voulait faire un véhicule capable de courir un grand prix de F1… ET qui soit AUSSI capable de déménager 40m3 de meubles. Il est facile de comprendre qu’il est impossible de produire un véhicule qui soit performant simultanément dans chacun de ces deux usages.
Et avant que vous ne sortiez des objections, c’est tout autant valable en programmation.
Quand il s’agit d’optimiser, restreindre les cas de figure possible, c’est un avantage énorme.
A l’époque ou les ordinateurs avaient peu de puissance, on écrivait un moteur pour chaque jeu. Et ce n’était pas un hasard. Les moteurs “généralistes” on existé depuis l’Amiga. Mais personne ne s’en servait pour écrire de vrais jeux.
Aujourd’hui, les ordinateurs ont de la puissance… a gaspiller. Et le développement d’un moteur coûte cher.
Si demain half life 3 sort il est clair qu’ils ne pourront jamais développer un aspect “mobile / ouvert” car leur moteur est trop à chier.
C’est réducteur.
Qu’un moteur de FPS n’ait pas été écrit pour faire des MMORPG ne permet pas de dire pour autant que ce serait mauvais.
Un tournevis, ça ne plante pas des clous, ce n’est pas “à chier” pour autant.
Quand à savoir si Valve investira dans un moteur adapté à faire un monde ouvert, ce n’est pas certain.
Avec Steam, ils ont un peu changé de métier…
Après tout dépend ou tu met le curseur sur l’apellation fps, et si je veut vraiment pinailler un fps peut très bien intégrer autre chose que du simple tir à la première personne, et autre chose que de simple couloir… Tu regarde half life 2, les maps sont petites, blindées de temps de chargement et la voiture est à la limite de la blague… Si tu regarde l4d2 tu te rend compte que les maps sont petites, qu’il y à aussi des temps de chargement, et que le jeu est loin d’être beau. Les mecs ils en sont encore à projeter les ombres sur les textures puis les réenregistrer la ou sur d’autre moteur c’est 100% dynamique avec 500% de perfs en plus. Récement ils ont mis à jours sur csgo la map nuke, c’est “beau” mais c’est vraiment moche en comparaison des perfs…
L’approche consistant à tout précharger dans la mémoire de la carte graphique, c’est typique d’un FPS rapide. Ca évite de créer du “stuttering” en cours de jeu.
A l’inverse, dans un MMORPG, quelques micro saccades de temps à autres sont préférables à des interruptions qui cassent l’immersion.
Réalisez qu’il n’y a pas d’approche parfaite. L’idéal, c’est de faire le choix qui convient bien au type de jeu.
Pour le reste, il ne faut pas oublier qu’indépendamment du moteur, Half Life 2 date de 2004, les cartes graphiques avaient typiquement 128Mo de mémoire vidéo, des processeurs monocoeur et un lien AGP qui saturait vite. D’ou des contraintes…
Et l’évolution des techniques de rendu ne sont pas qu’un problème de moteur, ce sont les cartes graphiques et les API qui ont évolué.
Certes dans HL2 les véhicules n’était pas top, mais les phases en jeep ou aéroglisseur servaient de transition plus qu’autre chose.
Pour le reste, je note que HL2 reste un bon jeu malgré son age. Et désolé, mais si on veut comparer des jeux récents et anciens, franchement ce n’est pas toujours à l’avantage des plus récents.
Franchement, dans GTA V, les “jolis reflets” de l’éclairage dynamique n’arriveront jamais à me faire oublier que San Andreas (que j’ai adoré) était bien meilleur en terme d’histoire, de gameplay et de physique des véhicules.
J’ai été déçu par GTA V à un tel point que je n’achèterais probablement pas GTA 6.
Désolé, mais un jeu, ce n’est pas juste des beaux graphismes, c’est même le truc le plus accessoire du monde.
Et croyez vous sincèrement que les graphismes “photoréalistes” d’un Battlefield ou d’un Call of Duty les rendent forcément supérieur à leurs ancêtres ?
Si c’est le cas, vous devriez essayer un jeu comme UT2004 pour comprendre à quel point c’était meilleur avant. Netcode, gameplay, vitesse du moteur, physique des véhicules, fun des véhicules, intérêts des “modes” de jeu. Même les tricheurs étaient moins bêtes avant…
Le
13/02/2017 à
13h
40
skankhunt42 a écrit :
Le gros soucis avec les jv c’est qu’a la base c’est pour les gamins et les gamins ne dépensent pas leur propre argent mais celui de leur parent… Des adultes refuseraient de payer le online, de voir des jeux surnotés sur la plupart des sites, sans parler des youtubeurs qui sont en majorités des gros vendus.
D’ailleurs valve ne sort quasiment plus de jeux, ils préfèrent exploitier jusqu’a la mort le système de micro transaction pour vendre des chapeau et des gants. D’un autre côté faire un “bon jeu” coute énormément d’argent et surtout nécessité une technologie qui évolue sans cesse.
Je pense que Valve est en ce moment au pied du mur car leur moteur est incapable de faire autre chose qu’un petit fps sans envergure ou au mieux un rts… Quand tu voit la beauté et la diversité d’un gta 5 qui en plus est vraiment bien optimisé tu te dis que c’est chaud pour valve.
J’imagine que si gta avait été fait avec le moteur source, ça serai une map de 1km² max avec des voitures à roue carrées, le tout tournant à 15 fps " />
GTA 5, c’est le tout premier GTA dont j’ai regretté l’achat.
Pour le reste, les moteurs pour FPS ne sont pas conçus pour faire un GTA et c’est normal.
Pas que pour Free en fait. C’est juste intolérable.
Au passage, Pole emploi, en plus d’envoyer le mot de passe par email limite sa taille à 12 caractères…
En même temps, vu l’utilité de Pole emploi, qui voudrait piquer un compte ? " />
Le
10/02/2017 à
00h
21
Le recevoir par email sur simple demande a beau être un « drame » en terme de sécurité, il a l’avantage d’être rapide
En même temps, il faut parfois relativiser le “drame” dans la pratique. Un système d’authentification ne signifie pas toujours qu’il y a quelque chose de critique derrière.
J’ai un S4 depuis… 3 ans ++. Hors de question d’acheter un nouveau téléphone tous les 6-12 mois. Donc oui, il est vulnérable. Eh bien tant pis.
Le seul truc que je change c’est une nouvelle batterie.
600 boules par an en plus des impôts et de tout le reste, j’ai pas les moyens.
Et les Cyanotrucbidules c’est pas pour moi, j’ai autre chose à faire.
Je trouve lamentable qu’il ne soit pas possible d’upgrader un téléphone. J’ai un PC de 5 piges qui tourne sous Win 10 Pro. Je ne parle même pas des distribs Linux.
Qui peut le plus peut le moins. Alors pourquoi Google et/ou les constructeurs font barrage ?
En fait, c’est un peu un mélange de tout.
Pas de bios standard, pas de standard de compatibilité, du matériel très fermé et non documenté.
Cela aboutit logiquement à de grosses difficultés pour assurer la mise à jour le logiciel sur le long terme. Cela nuit également à la création d’Os alternatifs.
Au final, les constructeurs se complaisent dans la situation vu que cela fait vendre des nouveaux appareils.
Je rejoint ton point de vue sur le fait que ce n’est pas un modèle viable. Déjà parce que la sécurité(et donc les mises à jour à long terme) va devenir un problème essentiel pour des appareils qui sont amenés à détenir toujours plus de données personnelles vitales.
Comment je vois le futur ? Sans doute un retour du standard PC et des processeurs x86.
Parce que c’est le seul modèle déjà fonctionnel et validé qui est en mesure d’apporter une solution rapide aux problèmes actuels des smartphones.
Ceux qui ont cru à une “ère post PC” se trompent. Le PC, c’est le travail des industriels sur la compatibilité et l’interopérabilité pendant plus de 30 ans. Beaucoup n’ont pas réalisé que les smartphones, c’est juste du bricolage qui nous ramène 30 ans en arrière avec tous les problèmes qui en découlent…
yep, les investisseurs ont tellement confiance que la boite risque de se faire éjecter de la bourse " />
En l’occurrence, on parle de confiance dans la dette, là, grosso modo " />
La bourse, ce n’est pas “les investisseurs”, c’est une catégorie bien spécifique d’investisseurs qui attendent un rendement défini, des risques mesurés et une bonne lisibilité des perspectives.
En phase d’amorçage ou de restructuration, les entreprises travaillent avec des investisseurs plus “proches” de l’entreprise.
Donc tout cela est assez logique.
(Et Mad Catz vend du hardware assez basique, ça ne ressemble pas à une start up…)
Tu sous estime le niveau de technologie nécessaire à la création de ce type de produits, sachant que leurs produits sont loin d’être basique et qu’en informatique même des produits basiques demandent un bon niveau de technologie.
Et d’ailleurs contrairement aux idée reçues, une startup n’implique pas forcément de la haute technologie. Nombre de startup ne produisent que des concepts purement commerciaux.
Le
07/02/2017 à
21h
04
WereWindle a écrit :
justement, c’est en cela que la directrice financière me fait penser à un joueur en pleine déveine : elle croit dur comme fer que la boite va se refaire alors que les chiffre passés n’indiquent rien en ce sens (le côté intangible dont tu parles).
Je ne porte aucune espèce de jugement là-dessus.
En revanche, l’argument “la banque nous a toujours soutenu jusque là” (et implicitement : elle le fera toujours) me donne une impression de fuite en avant.
C’est un fait : plus tu investis dans un projet ou le soutiens plus ça te coutera cher (en fric, en tripes, en espoir, etc.) de l’abandonner. Il n’empêche qu’à un moment ou à un autre la banque dira stop " /> (dans le même trip, voir le film Revolver de Guy Ritchie, qui illustre bien cette idée)
En résumé : c’est ‘beau’ (et rassurant, d’une certaine manière) qu’elle y croie mais ça repose sur un espoir ténu (dans ce cas précis)
Le problème, c’est que ce n’est pas dans les chiffres passé qu’on peut lire les potentialités d’une entreprise.
Certaines entreprises ont perdu de l’argent pendant des années avant de devenir très rentables. C’est même très souvent le cas dans les startup.
Mais c’est mal connaitre les investisseurs que de croire qu’ils investiraient à corps perdu pendant des années.
Leur confiance en pareil cas repose toujours sur une contrepartie tangible, en pratique un travail colossal, convaincant et pertinent pour améliorer la situation. Dans ce genre de situation, l’investisseur a de bonnes raisons de supposer que ça finira par payer.
La confiance sur la relation qu’ils ont avec leurs investisseurs repose peut être simplement sur le fait qu’ils connaissent mieux l’état de cette relation que des tiers extérieurs qui sont condamnés à faire des suppositions.
Le
07/02/2017 à
20h
24
WereWindle a écrit :
croire qu’une banque te soutiendra tout le temps en dépit de tes résultats merdiques, c’est encore plus dingue, de mon point de vue.
Il est évident qu’un investisseur se fixe toujours une limite.
Mais il ne faut pas perdre de vue que lâcher l’affaire, ça implique de perdre sa mise…
Oui, il faut de la prise de risque qui est nécessaire à l’innovation voire au succès, on est d’accord mais un poil de lien avec le réel (du genre ton produit ne plait pas suffisamment pour que tu puisses un jour te refaire) ça me semble important aussi.
Sauf que faire un produit qui plait du premier coup, de nos jours, ce n’est pas trivial.
Bien souvent, c’est en analysant les raisons d’un échec qu’un entrepreneur comprends ce qu’il faut faire et ne pas faire.
(Après, à quel point on doit arriver avant de considérer que c’est foutu, c’est à chacun d’en juger, je crois)
Les investisseur ont leurs règles pour estimer jusqu’à combien il peuvent mettre par rapport a leurs estimations de rentabilité potentielles.
Mais il y a forcément une part d’intangible sur le fait de savoir s’ils croient dans tel produit et dans tel entrepreneur.
Le
07/02/2017 à
19h
33
WereWindle a écrit :
ça ressemble tellement au discours d’un joueur qui espère se refaire à la prochaine main " />
Ce n’est pas comparable, c’est même tout l’inverse.
Statistiquement, plus un joueur de casino va jouer, plus ses chances de perdre augmentent.
A l’inverse, plus un entrepreneur va jouer, plus son expérience augmentera et donc ses chances de gagner.
Et il faut garder à l’esprit que l’entreprise sans prise de risque, ça n’existe pas…
le côté rigolo, c’est que ce sont principalement les USA ont promu la mondialisation " />
…
Du moins tant que ça les arrangeait…
Ou plutôt que cela arrangeait les classes économiquement dominantes de ce pays.
Parce que finalement, tant que tu as un bon salaire, payer les produits moins cher, c’est tout bénef.
Pour ceux qui sont au chômage parce qu’on fabrique tout ailleurs, c’est forcément moins sympa.
L’élection de Trump a montré que le peuple de base en avait mare de se faire abuser.
Avoir des millions de chômeurs pour que le gosse de riche puisse continuer d’acheter ses baskets pas cher dans le tiers monde, ça ne pourra pas durer éternellement.
Le
07/02/2017 à
22h
28
WereWindle a écrit :
Dans le désordre :
c’est très exactement cette demande qui râle contre ce décret " />
Justement, les mecs concernés ne sont pas “à bas coût”, ils sont payés aussi bien que s’ils étaient Américains.
Cela n’est pas aussi simple.
Le simple fait de disposer de plus de candidats potentiels diminue mécaniquement les salaires d’un point de vue global.
Un marché fonctionne sur le principe de l’offre et de la demande. Augmenter le nombre d’un côté ou de l’autre influe inéluctablement sur les cours. C’est la base de tout système commercial.
Quand bien même tu offrirait exactement les mêmes salaires qu’aux américains(ce qui reste à prouver), tu fait quand même baisser les cours en élargissant les potentialités d’embauche.
Ces pays ne sont à bas coût qu’aussi longtemps que tu n’en sors pas (dit autrement : tu y montes une usines et tu emploies les locaux). Et ce n’est pas tant le “moindre coût” que le meilleur retour sur investissement
Contrairement aux idées reçues, faire venir le travailleur du pays à “bas cout” sur ton sol n’évite pas pour autant les logiques de dumping social et de distorsion de concurrence.
On pourrait penser naïvement que cela empêche le taux de change des monnaies d’intervenir. En fait, quand on regarde mieux en détail, cela n’est que partiellement vrai…
Du point de vue (très résumé et donc imparfait) “la somme des intérêts individuels fait l’intérêt général”, si. Perso, je n’y adhère pas mais j’en comprends la ‘logique’
Objectivement, l’intérêt des grandes multinationales et de leurs quelques employés les mieux payés ne sont pas représentatifs de la somme des intérêts individuels de la masse des citoyens d’un pays.
100% d’accord mais il est difficile de justifier à un individu qu’il doit se ‘sacrifier’ pour espérer améliorer le sort de son pays (lequel peut être en guerre, sous embargo, corrompu et népotiste au dernier point, etc.) sans aucune certitude d’en profiter lui-même. On a ‘vendu’ au monde entier l’idée selon laquelle la valeur de chaque individu influe sur son propre destin pour peu qu’il s’y investisse suffisamment. (suffit de voir, rien qu’ici, le nombre de com’ à base de “j’en profite pas donc je vois pas pourquoi je devrais payer pour” dès qu’on parle service public, redevance ou éducation… Je ne dit pas que NxI contient une pensée dominante ni même représentative mais ça donne un ordre d’idée)
Je suis d’accord avec la notion de réfugié et l’accueil provisoire des populations menacées par les guerres.
Et en même temps, il faut prendre garde à ne pas tirer prétexte de la situation de ces pays pour pour piller leur potentiel intellectuel : les personnes qui ont le plus grand potentiel économique sont souvent les premières à pouvoir partir. Reste souvent les gens de base qui n’ont pas d’autre moyen que de subir…
Du point de vue de ‘l’intérêt général’ des pays concernés, le décret anti-immigration de Trump est par conséquent humaniste en cela qu’il décourage la fuite des cerveaux (je suppose que tu vois le trous béants dans cette proposition)
Pour ma part, je ne vois aucunement les propositions de Trump comme étant parfaites, ni forcément pertinentes, ni même bien faites… et encore moins réfléchies. Loin s’en faudrait.
Mais il ne faut pas être naïf, les multinationales ne défendent pas l’humanité, juste leurs purs intérêts économiques.
Le
07/02/2017 à
20h
46
ungars a écrit :
…
Quant à la présence d’indispensables talents étrangers parmi les migrants de ces pays, faut quand même pas pousser. …
Et d’ailleurs, à bien y réfléchir, cela n’a pas de sens.
S’il ne s’agissait comme ils le prétendent que d’une poignée de talent à très haut potentiel, ils organiseraient sans aucun problème leur travail à distance.
Le vrai but, c’est d’essayer de discréditer Trump dans son propre camp pour le pousser à infléchir ses velléités de mesures protectionnistes et anti mondialisation.
Ceux qui ont fait fortune grâce à la mondialisation feront tout pour empêcher la démondialisation.
Réalisons d’emblée que ces grandes entreprises de la silicon valey ont pris trop de pouvoir politique.
Le
07/02/2017 à
20h
38
WereWindle a écrit :
admettons, du coup les mecs à pas cher c’était qui ? (210 000 $ de salaire annuel en moyenne, la Silicon Valley - 300K si on inclue Zuckerberg qui a fait pété la moyenne. circa 2013)
Que les salaires soient élevé signifie qu’il y a de la demande.
Mais tu peux y répondre aussi bien en formant des américains qu’en faisant venir des gens de pays à bas cout.
Les grandes sociétés choisissent logiquement la voie du moindre cout pour elles.
Mais leurs choix ne font pas forcément l’intéret de la nation ni celle de ses citoyens.
Pas plus que celui des pays d’origine qui se retrouvent privé d’éléments talentueux alors qu’elles ont payé chèrement leur formation.
Le
07/02/2017 à
20h
02
WereWindle a écrit :
je n’ai pas cette prétention " /> (mais j’en ai plein d’autres parce qu’on est sur internet " />
on est d’accord sur ce point. Ma remarque initiale se référait au fait de prendre l’exemple d’immigrés clandestins (Mexicains ou Syriens… j’m’en fiche un peu) alors que les entreprises mentionnées dans l’article font référence aux “profils à haut potentiel” ce qui n’implique aucune inférence quant à leur origine ni à la légalité de leur présence sur le territoire US.
Tu doit te tromper de personne parce que je n’ai JAMAIS évoqué de tels exemples.
Mais qu’il s’agisse de profils à haut potentiel ou non ne change absolument rien à l’affaire. Ce sont les mêmes lois de marché qui s’appliquent.
Les employeurs appliquent exactement les mêmes recettes pour faire baisser les tarifs en augmentant la concurrence par la diversification des possibilités d’approvisionnement.
Et pour les employeurs, l’origine a bien une importance. Mais pas pour les raisons que vous pourriez imaginer. D’un point de vue financier, un employé provenant d’un pays dont la monnaie est faible est financièrement bien plus intéressant. Simple question de taux de change des monnaies…
Le
07/02/2017 à
19h
52
fred42 a écrit :
Tu as lu ce que tu commentes ? Tu crois vraiment que les “meilleurs talents mondiaux”, ça se paye au rabais ?
C’est toute la magie de la finance.
Grâce aux différences énormes de cours des monnaies entre les pays, tu peux arriver à payer une personne bien plus que le salaire moyen de son pays tout en payant substantiellement moins cher que l’employé d’un pays à “monnaie fort” a niveau de compétences égal.
Ajoutons qu’il ne faut pas croire sur parole ce que ces entreprises racontent. L’alibis des “meilleurs talents mondiaux” sers à justifier un dumping massif sur l’employé moyen.
Le
07/02/2017 à
19h
10
WereWindle a écrit :
je ne dis pas que ce qu’on écrit a une quelconque importance (ça se saurait, je pense) mais ça a quelque chose d’insultant, cela étant " />
Personnellement, je ne le ressent pas comme ça.
Quand on exprime un avis, sa justesse n’est pas proportionnel a son originalité.
Le nombre de personnes partageant le même avis, c’est aussi une information en soi… quand bien même le nombre ne fait pas toujours la pertinence.
Le
07/02/2017 à
17h
49
WereWindle a écrit :
ce moment gênant où quelqu’un en com #195 sort un argument déjà débunké en com #2 " />
Considération totalement futile et sans intérêt " />
D’ailleurs, bien au contraire, ça fait grand plaisir de constater que le bon sens est partagé.
Le
07/02/2017 à
16h
33
« Cette instabilité et ce doute rendront bien plus difficile et coûteux le recrutement des meilleurs talents mondiaux par les entreprises américaines, et les entravent sur le marché mondial »
Mince, ils ne vont plus pouvoir faire leurs emplettes de main d’oeuvre à pas cher. Ils vont devoir donner du boulot aux américains, payer le vrai prix du travail et cesser de faire du dumping social. Quel drame… " />
Il reste le Banglasdesh, les Philippines, l’Indonésie… Ils font une sorte de Monopoly de l’exploitation.
" />
Jusqu’au jour ou le peuple occidental en aura ras le bol du chômage, de la précarité et de l’exclusion sociale.
On parle beaucoup du terrorisme, mais le chômage, c’est 20000 morts par an selon les estimations basses et rien qu’en France.
Le
07/02/2017 à
16h
25
zouzou a écrit :
Toutes ces fabrications seront essentiellement pour les marchés extérieurs aux US.
Pour ne pas fâcher Trump, ils vont tous devoir faire fabriquer des itrucs dans des usines aux US et ils vendrons les iphones, disons 5000$ aux US." />
De toute manière, c’est inéluctable.
Que l’occident fasse du protectionnisme ou non, ils payeront ces gadgets de plus en plus cher.
Et surtout, il y a un moment ou l’on ne pourra pas laisser des millions de gens au chômage au motif que certains veulent payer leur smartphone moins cher.
D’un côté, il va bien falloir un jour abandonner le 32 bits depuis le temps qu’on se le traîne. Comme l’IPv4…
De l’autre, c’est vrai qu’une part non négligeable du parc mondial est sous 32 bits… Comme dit plus haut, certaines distros, comme Debian, vont continuer à supporter le 32 bits pendant un bon bout de temps à l’attention de ce public. À voir donc à la longue…
Etant donné que les industriels produisent encore des millions de processeurs 8 bits, je doute fortement que l’arrêt de production des processeurs 32 bits soit pour demain, ni même pour après demain.
Un processeur 64 bits demande plus de transistors, plus d’énergie, plus de mémoire, des bus plus large. Tout cela induit des inconvénients.
Tout est question d’usage. Il y a des situations ou le 64 bit présente un intérêt majeur et indispensable. Mais il existe aussi des situations ou le 32 bits demeurera longtemps la solution la plus adaptée.
Le
07/02/2017 à
15h
08
Gilbert_Gosseyn a écrit :
Même la RaspBerry Pi3 B est en 64bits (4 cores), c’est dire …
Sur le papier, oui.
Mais en pratique, avec la quantité de RAM qui est déjà limite en 32 bits et une bande passante mémoire qui n’est peut être pas suffisante, il est probable qu’il vaudra mieux éviter ce mode.
Le
07/02/2017 à
14h
58
yvan a écrit :
Ils vont vraiment sur le net avec des P4/K7 en 2017 ?
Dans l’absolu pour le l’irc ou du ftp ça fait le job mais bon… tails c’est pour le surf surtout je pense.
Oui.
Tu serais surpris du nombre de personnes qui vont sur le web tous les jours avec un Pentium 4 en France.
Et j’en connait personnellement, ce sont généralement des personnes âgées.
Linux est d’ailleurs la seule alternative viable aujourd’hui pour ces machines qui étaient originellement sous Windows XP.
Le
06/02/2017 à
16h
54
catseye a écrit :
C’est loin d’être aussi simple que ça …
Un ‘move’ 32bits (x86) ou 64 bits (x86_64) prend le même temps d’exécution CPU, en RAM c’est une autre histoire.
Mais entre le mode 32 bits et 64 bits d’un même CPU, il y a plus de registres disponibles en 64 bits, donc en général il y a un gain de vitesse associé (si on sait compiler du code correctement).
Les données en 64 bits sont très pénalisantes du point de vue des accès à la RAM.
Mais les processeurs modernes ont une bande passante mémoire adaptée.
Ce n’était pas forcément le cas des premiers processeurs supportant le mode 64 bits.
Mais les cas récents n’ont pas pour autant complètement disparu. Par exemple, le processeur du Raspberry P 3 peut supporter le mode 64 bits. Mais il est probable que compte tenue de la faible quantité de RAM et de sa bande passante mémoire limitée, le mode 32 bit est certainement plus adapté.
Par contre une appli qui gère des données 64 bits sur un CPU 32 bits est lourdement pénalisée, mais très peu d’applications font du 64 bits sur une archi 32 bits en multiplexant les data, en général ils roulent plein pot nativement sur une archi 64 bits, et donc ont tous les bénèfs (plus de RAM et plus efficace).
La problématique peut effectivement dépendre du type de programme.
Mais l’usage du 64 bits augmente de fait la taille des pointeurs.
Le
06/02/2017 à
15h
48
RRMX a écrit :
On parle de Tails, une distro qui n’est pas du tout grand public, et non pas de “linux”
Debian, Ubuntu, Fedora, etc continue le support 32 bits. Debian supporte meme des architectures antidéluviennes, je serais étonnés qu’ils abandonnent le 32bit avant tres longtemps.
Google te permettra de constater par toi même que l’abandon du 32 bits est bien un mouvement en passe de généralisation dans le monde Linux.
Au moins une des distribution majeures que tu as cité semble devoir abandonner les versions 32 bits dans un proche avenir alors que d’autres font visiblement face à de forts débats internes dont il est difficile de prévoir l’évolution à moyen terme.
Le
06/02/2017 à
14h
45
fred42 a écrit :
Et pourtant Ricardet yvan, 2 sur 50 comm, ce n’est pas négligeable, surtout que ce n’est pas la peine d’en rajouter, une fois que c’est mentionné.
De manière factuelle, de nombreuses distro vont abandonner le 32 bits.
Et certains mentionnent qu’un nombre croissant de logiciels abandonnent son support.
Cela montre que la prise de conscience des dangers de cet abandon prématuré est loin d’être suffisante.
Dit autrement, il faut qu’un maximum de monde monte au créneau.
Le
06/02/2017 à
14h
33
Hipparchia a écrit :
…Et les EEPC je ne vois plus personne sortir les leurs du placard (cadence famélique et monocore).
Je ne suis pas d’accord.
Sous Linux, les netbook sont très utilisables et très pratiques.
Bien sûr, c’est à comprendre dans le cadre d’une utilisation mobile pour lesquels ces machines sont conçues… et idéales du fait de leur faible poids et de leur forte autonomie.
Les portables ne sont pas fait pour remplacer un poste fixe.
vampire7 a écrit :
+1
Pratiquement tout ce que je compile est plus rapide en 64 bits, même quand la plupart des opérations se font sur 32 bits ou moins. Le code prends moins d’instructions car il y a beaucoup moins besoin de sauvegarder les variables dans la pile (et du coup, même l’exécutable est parfois plus petit en 64 bits).
Sans compter que tous les CPU x86-64 ayant aussi le SSE2, ça ajoute de nombreuses optimisations possibles.
Attention, il faut tenir compte du fait que les systèmes récents ont une bande passante mémoire très importante qui rendent l’impact négatif du 64 bits négligeable.
Mais il existe encore de nos jours des systèmes comme celui du Raspberry PI 3 sur lequel l’usage du 64 bits pourrait s’avérer contre productif dans certains cas.
Le
06/02/2017 à
14h
10
Nous pouvons constater que beaucoup de distribution Linux parlent d’abandonner les versions 32 bits.
De fait, il est vrai que dans nos pays, les processeurs ne supportant pas le 64 bits se font plus rares, même s’il y a quand même beaucoup de machines pas si vieilles qui ne le supportent pas.
Mais je suis surpris que personne ne mentionne le cas des pays émergents ou il est courant de voir des machines plus anciennes comme des Pentium 4 ou des Athlon K7.
Et même dans nos pays, nous pouvons constater que bon nombre de ces machines sont encore utilisées par des personnes désargentées.
Au final, je pense sincèrement que l’abandon du 32 bits est vraiment prématuré. C’est particulièrement vrai quand on connait la façon dont Linux est souvent mis en avant pour son rôle social.
Quand je constate le mal que Microsoft a eu à maintenir WP sous perfusion malgré une grosse campagne publicitaire et de nombreuses opérations commerciales, clairement, de nos jours ce n’est plus une question de gros sous.
Perso je me rappelle à l’époque où j’avais pris mon iPhone 3GS que tous les “spécialistes” disaient qu’Android ça marche pas parce qu’il n’y a pas d’applis.
Sauf qu’il a percé à une époque où l’iPhone était quasi tout seul sur son segment et avait un mode de distribution + un placement tarifaire qui limitait la cible, là où Android a cartonné sur l’entrée de gamme. C’est même ce que ses détracteurs disaient “bah Android c’est que pour du pas cher”.
Depuis, les constructeurs sous Android vendent tout autant de la merde sur-estimée qu’Apple.
Côté Microsoft, ils ont complètement foiré le virage du Mobile et du Web (mais heureusement pour eux, ils ont attrapé à temps le train du Cloud et de l’IA) résultant qu’ils sont devenus en un rien de temps des outsiders dans le secteur. Malgré des grosses campagnes, un rachat d’un constructeur lui-même has-been, et plein d’opé-comm, que dalle. WP est un échec commercial total et n’intéresse personne.
Par contre comment ont-ils imposé Windows 10 ? Hop, migration forcée via le parc très conséquent sur PC.
Comment Google a un imposé son brouteur ? Hop, install forcée en mode virus + messages anxiogènes sur ses services en ligne si on utilise un autre navigateur.
Accessoirement, Google renie l’existence même de toute concurrence en incitant par exemple sur WP à passer par les applications plutôt que le Web (qui est en mode Google 2002 sous WP avec Edge par exemple)… Appli qui n’existent pas sur le système en question.
La thune seule, ça ne marche plus. Ce qui marche aujourd’hui, c’est de profiter de sa position dominante une fois établie et d’avoir assez de réserves pour mettre sous perfusion un produit porté par un autre qui cartonne. Et si ce produit marche pas, couper la perf et passer à autre chose.
Le problème de Microsoft, c’est qu’ils ont commis l’énorme erreur de se laisser distancer en laissant une concurrence très bien dotée en moyens financiers s’installer.
Il est évident que face à cet armada, le logiciel libre aux moyens limités, n’a aucune chance.
En fait, ce n’est pas totalement exact. Il existe bien une petite chance d’y parvenir, mais cela suppose de tirer partie des limitations des Os mobiles actuels. Quand deux acteurs ont des moyens, c’est celui qui est déjà installé qui gagne.
L’énorme point faible des Os mobiles actuels, c’est que ce ne sont pas de véritables Os. On ne peut pas faire tourner tous les langages, toutes les technologies. Ce sont en fait des OS “minitel” limités à quelques technologies restreintes. Et cela limite énormément leurs possibilités.
Ce point faible est bien l’énorme défaut de la cuirasse sur lequel le libre pourrait attaquer. Et c’est quasiment le seul.
Mais pour l’instant, les rares initiatives libres commettent l’erreur de vouloir attaquer le propriétaire avec des Os qui ont quasiment les mêmes limitations. Donc aucune chance de remporter la bataille…
Le
04/02/2017 à
01h
16
127.0.0.1 a écrit :
Se diversifier c’est bien, mais il faut avoir les moyens de ses ambitions.
Construire (enfin, assembler) un OS complet, ca demande de sacrées ressources.
Même une boite spécialisée dans le domaine comme Microsoft ne réussit pas a percer dans le monde de la téléphonie ou de l’embarqué. Même une boite puissante comme Google ne réussit pas a percer dans le monde du PC.
Pourquoi ne pas d’abord consolider sa position dans les applis internet ? Un reboot de firefox, façon “egde” de Ms ? Une reprise de thunderbird ? Des apps locales pour réseaux sociaux (client twitter / FB) ?
A moins que Mozilla pense que les apps locales, c’est fini… Auquel cas, passer sur des apps webs ? Des services cloud ?
Franchement, sortir un OS complet, c’était ambitieux.
Le problème, c’est que Firefox Os proposait une vision trop limitative (un seul langage) pour susciter l’enthousiasme.
Certes, le monde propriétaire réussit bien avec des Os dont la vision est tout aussi étriquée, mais la différence, c’est qu’ils ont ont les brouzoufs pour les imposer aux consommateurs…ce qui oblige les développeurs à bosser dessus.
Ce que beaucoup n’ont pas encore compris, c’est que l’Os mobile qui pourra réussir dans le libre, c’est celui qui ne s’inspirera pas des concepts limités des Os mobiles propriétaires.
ces gens ne connaissent plus rien du monde libre, et pour cause : il n’y a aucun smartphone ouvert (je ne peux dire libre tant le matériel est fermé), et quand bien même il y en aurait, ce ne serait pas assez “brillant” auprès des copains…
le fait qu’une bonne partie de ces gens utilisent de l’apple (android c’est pour les sans-dents), rend la chose encore plus difficile, car il n’y a pas plus fermé que cet OS
En conclusion : ces gens vivent dans un autre monde, où le logiciel libre n’existe pas. Lobotomisés par les firmes, ils n’ont même plus la curiosité d’aller se renseigner, et de toute façon ils s’en foutent : ça rapporte plus d’être copain avec Gates que d’être copain avec Stallmann…
Pour aller au bout de ma pensée : la grande majorité de ces gens sont des incompétents informatiques notoires, incapables de saisir au bond les économies pourtant réelles que le libre apporte aujourd’hui. Ils se tapent de savoir si leurs décisions sont logiques ou non : il ne faut surtout pas se mettre M. Gates et ses petits copains à dos, de peur de les froisser et…
C’est clair.
Je partage ton avis sur le fait que la situation est dramatique.
La FSF embraye sur Replicant, mais je crains que ça ne soit bien tard.
Et surtout, je pense que le choix de cet Os est une erreur.
Le
01/02/2017 à
10h
10
briaeros007 a écrit :
sr17 a écrit :
>De nombreuses distributions sont en pratique très réticentes à donner
des clé d’accès aux éditeurs. Elles préfèrent que cela passe par leurs
propres “packageurs”.
Tu peux me rappeller c’est qui “leurs propres packageurs” ?
C’est pas le quidam moyen, bénévole qui plus est, qui a dit “je m’occupe de tel paquet” par hasard ?
Les communautés n’ont pas de “salariés”, n’ont pas de “propre packageurs”. Elles ont une communautés.
L’éditeur veut faire partie de la communauté ? ça ne pose pas de soucis, il suffit d’en faire partie , et pas juste de considéré que parce qu’on est un éditeur qui gagne des sous, les bénévoles lui doivent allégeance.
Sauf que non, en pratique il ne suffit pas qu’un éditeur fasse son propre paquet pour obtenir de manière simple et rapide la possibilité de le publier dans les dépôts.
La réalité, c’est que la majorité des distributions Linux ne donnent ces clés qu’a des personnes qu’elles connaissent bien. Pour le reste, elles préfèrent que cela passe par un packageur parce que ça les rassure du point de vue de la sécurité.
Oh mais c’est très simple : ils veulent que ça aille vite, il suffit d’écouter ce que disent les gens sur les ML quand ils disent “il faut corriger ça et ça”.
Visiblement, vous avez du mal à comprendre que pour la plupart des sociétés du monde de l’édition professionnelle, ce n’est PAS POSSIBLE financièrement d’attendre des semaines, voir des mois pour que leur logiciel soit publié.
Donc si la communauté Linux ne prends pas conscience du problème pour trouver des solutions pour améliorer la situation, soit Linux restera cantonné a un marché confidentiel, soit il sera détourné par de grandes sociétés qui sauront mieux comprendre les réalités du marchés(comme cela s’est malheureusement produit avec Android).
Les éditeurs ne sont pas les seuls à vouloir un système de distribution plus réactif. Les utilisateurs d’aujourd’hui exigent de recevoir des mises à jour fonctionnelles et des corrections de bugs de manière régulière, simple et le tout avec un système qui reste lui très stable.
La grande différence entre les stores propriétaires et libres, c’est que l’un laisse passer des putains de malware
C’est très facile de critiquer quand on travaille avec un nombre de logiciels relativement faible sur un operating système qui n’intéresse pas encore réellement les très gros producteurs de malwares.
En comparaison, le nombre de logiciels dans le store Android est incroyablement plus élevé que celui de la plus grande distribution Linux existante.
Les distributions Linux vont de quelques milliers de paquets a quelques dizaines de milliers de paquets. Android et l’Apple store dépassent largement le million.
De toute évidence, la majorité des distribution Linux ont une organisation qui fonctionne à peu près bien tant que Linux reste un produit de niche, mais elles ne seront pas adaptées à un marché de masse avec des milliers d’éditeurs et des millions de logiciels.
On voit déjà l’anarchie se profiler avec des éditeurs qui publient leur softs sur leur propre dépot. Tu disait plus haut que tu recommandait cette solution qui selon toi n’est pas mauvaise.
Sauf que… comme cela les éditeurs pourront intégrer tous les malwares qu’ils voudront sans aucun contrôle. Et il n’y aura même pas le moindre système de signalement centralisé pour les arrêter.
Enfin, je trouve dommage de devoir expliquer un truc aussi trivial que le fait que les éditeurs veulent un store centralisé pour des raisons de visibilité des softs. On peut s’en passer, mais cela coute beaucoup plus cher en communication, ce qui est impensable.
et des logiciels d’une qualité variable, mais rarement très bonne, pendant que l’autre essaie d’avoir des logiciels d’une bonne qualité et cohérent
Et de quel droit quelqu’un déciderait arbitrairement à ma place ce qui est un logiciel de qualité ou même un logiciel utile ?
Par exemple, il y a des logiciels qui sont indispensables à 5%(voir moins) des gens mais dont 95% ne voient absolument pas l’intéret.
Ensuite, des logiciels naissants peuvent manquer encore de finition, mais ils méritent parfois d’être diffusés pour attirer des contributeurs.
…et qui ne casse pas les autres logiciels.
Les programmeurs naissent aussi avec un cerveau.
Formulaire d’inscription ? LOL. On parle de communauté de bénévoles de geeks. Pas de l’assemblée à la gloire de la bureaucratie. C’est pas comme ça que ça marche, et ça montres bien que tu parles de choses que tu ne connais pas.
Justement, ça résume complètement le problème.
Jusqu’à maintenant les distributions Linux sont fait par(et pour) une petite communauté de geeks bénévoles qui se tapent dans le dos.
C’est très sympa et il n’y a rien à redire. Mais si demain Linux aspire à devenir autre chose qu’un Os de niche, cela implique d’être en mesure de gérer les besoins de distribution de logiciel de toutes les entreprises du monde.
Linux est peut être prêt pour le grand public sur le plan technique, mais les organisations qui font les distributions ne sont de toutes évidence pas prêtes pour répondre aux problématiques de marché qui sont primordiales sur le mass market.
Le marché, c’est bête et méchant, ou tu réponds à ses problèmes, ou ils prennent autre chose.
Ca fait 4 ans que j’ai demandé au store d’android de pouvoir avoir la licence des logiciels téléchargés et trié… Ben j’ai jamais eu de réponse. Oh j’ai bein un formulaire de contact , mais bizarrement aucun délai " />
C’est totalement lamentable, mais il faut réaliser que, hélas, la plupart des gens et des éditeurs s’en foutent.
Ils pourraient déjà commencer à faire des packages propres et à les proposer. Intégrer les dépots centraux se fera facilement comme ça, quand ils auront montré qu’ils savent faire des paquets correctement et surtout le maintenir suivant les != versions.
Les programmeurs ne naissent pas idiots.
Et puisque visiblement ils sont bien capables de faire les paquets pour les store propriétaires, cela n’a pas de sens de supposer qu’ils ne pourraient pas le faire sur Linux.
Cette suspicion des distributions envers ceux qui écrivent les logiciels n’est pas nouvelle, mais cela n’a aucun sens. D’autant qu’il existe d’excellents outils (Lintian par exemple) qui savent vérifier qu’un paquet est conforme et propre de manière totalement automatique.
De plus, l’un des défaut de Linux, c’est qu’une bonne partie des problèmes constatés sur des logiciels découlent du fait que des packageurs s’occupent de problèmes qui seraient beaucoup mieux traités par les programmeurs eux même. Parce que c’est quand même ceux qui écrivent les softs qui les connaissent le mieux.
Bizarrement ceux qui le font, ont accès aux dépots sans problèmes.
Ceux qui ne le font pas n’ont pas accès au dépots, mais viennent pleurer comme quoi l’accès est difficile (comprendre qu’on ne fait pas le taff à leur place).
Au risque de me répéter, être prêt à faire son paquet n’aboutit pas pour autant à obtenir facilement un droit d’accès.
Certains l’ont effectivement obtenu, mais la démarche est le plus souvent compliquée et longue.
Si vous pensez que les entreprises le feront, et cela pour chaque distribution Linux, c’est que vous rêvez.
Dans le libre, il y a beaucoup de gens qui travaillent dans des entreprises, et qui sont pas plus cons que toi ou que moi.
Ce n’est pas une question d’intelligence mais de métier.
Il ne suffit pas d’être employé pour avoir conscience des détails qui conditionnent la rentabilité des entreprises.
Par contre ils ont aucun mal à comprendre quand une entreprise refuse de payer un salarié en pensant qu’un bénévole va faire son taff à sa place. Et ça , forcément, ça n’aide pas pour gagner des points.
Comme tu peux l’observer, elles font leur propre dépots, ce n’est donc pas le problème.
Euh … Et en quoi un store propriétaire ferait mieux ?
L’un attend qu’un type package une version d’un logiciel avec une correction de bug. L’autre attend qu’un type package une version d’un logiciel avec une correction de bug. Le store ne va pas le faire à ta place.
L’auteur d’un logiciel est le mieux placé pour réaliser une bonne intégration des son logiciel.
Il est le mieux placé pour assurer une réactivité optimale dans la correction des bugs et pour assurer un support compétent.
Le packaging ne fait qu’introduire une tierce personne qui n’a de fait pas une aussi bonne connaissance des logiciels que ses auteurs.
Et ces conseils sony … utiliser des distributions qui ont aussi des repo. (archlinux repose sur des repos …).
Un dépot d’utilisateurs, ça ne réponds pas au problème.
Il faut à minima un système en mesure de certifier qu’un soft publié provient bien de son éditeur officiel.
De plus, Archlinux est une distribution pour les connaisseurs. Cela implique que quel que soient ses qualité, le fait qu’elle est beaucoup trop éloigné du grand public fait qu’elle n’a pas moindre intéret pour les éditeur.
Oh mais le multi lib existe déjà. Mais tu te vantes “programmeur du libre”, et il n’y a rien qui te choque dans ta proposition ?
Tu fais comment l’édition des liens dans ta proposition dis moi ? ld devine tout seule la bonne version ?
quid de la cohérence des données statiques ?
(1) Tu trouvera facilement la réponse en étudiant le manuel de ld.
(2) Ubuntu avec ses Snaps montre une autre façon de répondra au problème.
(3) L’auteur d’un logiciel la personne de loin la mieux placé pour résoudre les problèmes de dépendances de son logiciel. Les distribution Linux ne semblent pas encore l’avoir compris.
Dis la personne qui commence en expliquant que les stores propriétaires c’est trop top mega cool, et que linux est complètement en retard.
C’est la ou je vois que tu ne comprends pas du tout de quoi je parle.
Depuis quand un libriste pourrait trouver un dépot propriétaire top mega cool ?
Ce que j’ai dit, c’est que les dépots propriétaires ont su donner à leur stores la réactivité et la simplicité qui sont indispensables aux acteurs professionnels.
Applique donc à toi même ce que tu demandes aux autres alors !
Et propose donc une nouvelle façon de faire qui correspond à ta vision.
You want it, you code it. La je te vois juste cracher sur les choses, mais rien faire d’autre
C’est une vision bien tranchée et peu nuancée, tu est certainement jeune.
Dans ma vie, j’ai beaucoup passé de temps à défendre Linux, mais dans la vie, il n’existe rien de parfait. Défendre l’indéfendable n’est pas positif, la critique constructive est un moteur de progrès.
Tu apprendra avec le temps que certains problèmes ne peuvent pas se traiter comme tu le dit ci dessus.
Résoudre un problème d’envergure ne se fait jamais tout seul, cela passe obligatoirement par un travail collectif et des étapes.
La première étape, c’est la prise de conscience collective du problème. C’est l’étape la plus importante qui débloque les autres.
La seconde, c’est de cerner tous les tenants et aboutissants du problème, les obstacles, les différents angles de vision.
La troisième, c’est la recherche de solutions concrètes aux obstacles.
Enfin, seulement la dernière étape c’est de les mettre en oeuvre.
Sur ce, j’ai suffisament fait d’effort pour expliquer mon opinion. Par expérience, il ne sers à rien de discuter avec ceux qui ne veulent garder leur avis.
Je te souhaite donc une bonne continuation.
Le
30/01/2017 à
21h
47
OlivierJ a écrit :
Un commentaire comme j’aime en lire " /> .
(NB : “est t’il” -> “est-il”, le 2e “t” est inutile, et puis le “ t’ ” ne s’utilise que comme un “tu” ou “te” abrégé)
J’apprécie tes efforts pour m’aider à améliorer mon orthographe, je ferais attention à cela, c’est promis. " />
Le
30/01/2017 à
21h
37
briaeros007 a écrit :
Euh c’est moi ou tu fais des grandes phrases mais tu n’y connais rien ?
Non mais franchement
> Linux doivent impérativement combler ce retard.
Ceux qui ont créé les dépots et l’automatisation des instals et des updates, c’est android ? C’est windows ? …
Non c’est les distribs linux.
10 avant même que MS commence à signer ses drivers, on avait déjà des dépots, signé, TOUS les paquets signés, mis à jour de façon automatique, avec des outils de gestions des fichiers de conf , etc…
Android et consort n’ont fait que copier l’idée (et bien mal. La capacité des stores est 10 fois inférieur à ce qu’offre les dépots “linux”).
Pendant des années, voir des décennies, le libre avait une avance écrasante sur le sujet.
Et nous sommes bien d’accord que les éditeurs du monde du logiciel privateur n’ont fait que copier la majorité des idées.
Mais au passage, ils ont réussi à faire mieux sur certains points. Et malheureusement certains de ces des points sont absolument capitaux pour les entreprises.
L’accès aux dépots que tu nommes “central” est libre depuis fort longtemps. La seule condition étant
1°) respecter les dépots (tu va pas mettre dans main de debian des logiciels proprio. Tu as non-free pour ça)
2°) d’assurer le paquetage de leur logiciel (devenir “mainteneur” du paquet).
Sauf qu’en pratique ça ne fonctionne pas aussi simplement que tu le penses. De nombreuses distributions sont en pratique très réticentes à donner des clé d’accès aux éditeurs. Elles préfèrent que cela passe par leurs propres “packageurs”.
Tu pourra t’en convaincre en comparant les procédures. Sur un store propriétaire, tu as une procédure bien définie pour obtenir un accès en un temps relativement déterminé. Dans le libre, on te recommande de soumettre ton programme (avec un temps indéfini à la clé, ce qui est impensable pour les entreprises).
Fatalement, quand l’éditeur veut que la communauté fasse son taff et refuse de packager son outil et de le suivre, tu dis que c’est la faute de linux et certainement pas de l’éditeur …
Et bien vas y, trouve des formulaires d’inscription, le détail d’une procédure réelle (pas juste théorique) et surtout les délais concrèts pour s’inscrire et obtenir un accès sur les dépots Linux pour quelques distributions courantes. Tu verra que ce n’est pas aussi simple et trivial que tu l’imagine.
Maintenant, tu va sur un store propriétaire, tu fait la même chose et tu compare.
Tu verra que quand on connait un peu le sujet, c’est infiniment plus simple et rapide pour un éditeur dans le monde propriétaire que dans le libre.
En tant que libriste convaincu, je ne peut pas accepter de trouver cela normal. Et je ne comprends pas qu’il y ait des gens pour défendre ce système qui est loin de l’ouverture auquel on pourrait s’attendre.
Si les sociétés se retrouvent obligées de mettre en place leur propre dépôts malgré les énormes inconvénients de cette solution, ce n’est logiquement pas parce qu’elles refusent de packager leurs programmes. C’est parce qu’intégrer les dépots centraux est trop compliqué / trop long / trop chronophage.
C’est d’autant plus vrai qu’il y a de multiples distributions et que le problème se répète pour chacune d’elle.
Dans le libre, il y a beaucoup de volontaires qui ont du mal à comprendre que contrairement à eux, les entreprises ont des impératifs de délai vitaux et qu’elles ont autre chose à foutre que de courir après leur bon vouloir.
Pour rsyslog et postgresql, le problème est n peu différent car il y a la notion de stabilité, ce qui fait que les distribs apporte des versions plus anciennes mais bien testés/validés. Et comme il y a pas mal de nouveautés, d’où de nouveaux dépots pour permettre à ceux qui savent ce qu’ils font de récupérer la dernière version.
Malheureusement, la notion de ancien=stable/validé n’est pas toujours la panacée universelle en informatique car la correction de certains bugs passe souvent inéluctablement par des versions plus récentes.
Le problème sur Linux, c’est que l’installation de versions plus récentes est possible, mais les solutions pour y parvenir sont très loin de l’idéal.
Une fonctionnalité que l’on commence à voir apparaître sur certains modules propriétaires, c’est la possibilité de choisir la version que l’on désire en un clic. A vous de voir si vous préférez la version stable, une version plus récente ou la dernière bêta.
Et ne me parlez pas de certaines distro qui ont plusieurs dépots avec différents niveaux de maturité car cela n’est pas cela que l’on demande. L’objectif à atteindre, c’est de pouvoir choisir facilement et pour chaque logiciel la version PRECISE que l’on désire. Voire même la possibilité d’installer plusieurs versions d’un logiciel simultanément.
Bref, tu accuses linux de faire ce qu’ils font déjà depuis 20 ans, et tu prends comme exemple des copieurs qui n’offre que quelques unes des fonctionnalitées.
Cela fait des années que je suis utilisateur et programmeur du libre, mais ce qui est parfois pénible dans ce milieu, c’est l’allergie aux critiques justifiées.
C’est une perte de temps monstre en discussions inutiles.
Ah, j’oubliais :
Euh, lol ? Tu publie comment un paquet correctif lorsque tu n’as pas le code source ? Tu corrieg en asm ?
Et 1 dépots , ou 40 dépots même combat. Tu sais qu’actuellement je dois avoir 3 dépots sur ma machine, et je met tout à jour en meme temps ? C’est le principe de l’informatique : automatiser.
Au contraire, techniquement c’est plutôt simple.
Déjà, sur la très grande majorité des dépot linux, tout pars de paquets source. Et les binaires sont compilés par les serveurs de la distribution.
Mais admettons le scénario catastrophe qui serait le passage d’un virus binaire dans un blob inclus dans le source. Donc un virus dont on ne dispose pas du source.
A partir du moment ou le binaire litigieux est identifié et ses actions tracées, nul besoin de disposer de la source. Il suffit de créer un paquet du même nom avec un numéro de version supérieure et qui contiendra simplement un programme de désinfection chargé d’effacer les fichier litigieux du système.
Faut vraiment que vous arrêtiez de penser que les “stores” c’est nouveau et que c’est le meilleur modèle, parce que clairement ça ne l’ait pas. C’est un subset du modèles de dépots linux (deb, rpm , whatever), et un subset seulement.
Il faut vraiment que vous arrêtiez de croire que le monde est manichéen et que tout serait forcément bon d’un côté et mauvais de l’autre.
Apprenez que dans la vie, ce sont ceux qui ont un minimum de regard critique qui font progresser les choses.
Penser que tout est parfait conduit à se reposer sur ses lauriers, ce qui aboutit inéluctablement a se faire dépasser.
Le
30/01/2017 à
06h
25
briaeros007 a écrit :
allez, pour nourrir le troll :
l’articulation entre les éditeurs et les distrib très loin d’être optimale ?
Tu veux dire comme rsyslog ? qui présente des dépots spécifiques pour chacune des distribs majeur pour leur dernière versions ? (Au passage, la boite qui gère rsyslog … ce n’est absolument pas son coeur de métier, mais un moment ils ont eu besoin de le faire et ils font un boulot top. leur coeur de métier sur le consulting/ dev spécialisé pour les clients…).
Ou comme postgresql qui offre la même chose (dépot spécifique avec les toutes dernières versions disponible…)
Ou encore sogo ? (j’ai eu à faire avec leur support. Super réactif. Le type nous a sortie une version corrigeant un bug … dans l’heure… Dans le dépot : on a plus eu qu’à faire aptitude update pour faire le test et valider la correction :) C’est pas qui te ferais ça. Tu remontes un bug/régression dans le système d’install . Réponse “Ne faites plus comme ça.”.).
Et c’est pas des multinationales dont je te parle.
Bref , avec des éditeurs qui savent travailler correctement, ça marche franchement top linux.
Avec des éditeurs qui en sont rester au setup.exe qui lance un java qui va décompresser un zip qui va relancer un java qui va lancer 15 msi dont tu n’a pas besoin, pour juste copier trois pauvres fichiers dans program files…
C’est sur que linux ne peut pas lutter " />
Ce n’est pas une bonne solution.
Au passage, Non, Windows n’en est plus au Setup.exe. Il y a un Store intégré et plusieurs store comme Steam.
D’abord, quand une distribution possède un dépôt central, soyons réalistes, la très grande majorité des gens n’iront jamais voir ailleurs. Personne ne veut perdre la simplicité pour aller vers la complexité…
Ensuite, sur le plan de la sécurité, une multitude de dépôts dispersés, ça n’est jamais une bonne idée.
Accorder sa confiance à un dépôt trouvé sur le web n’est pas trivial. On ne peut pas dire aux débutants “allez y, ajoutez des dépôts que vous trouverez, vous ne risquez rien”. On peut le faire à la rigueur pour quelques éditeurs connus. Mais d’une manière générale, c’est plutôt une mauvaise habitude à déconseiller.
L’avantage d’un dépôt centralisé, c’est qu’il repose sur le concept d’identité vérifiée par un tiers de confiance indépendant de l’éditeur.
Un dépôt centralisé permet de tracer les publications de manière indépendante de l’éditeur. En cas de problème, l’identification des personnes par des signatures numériques personnelles permet d’engager leur responsabilité pénale avec toutes les preuves à l’appui, ce qui est dissuasif.
Si quelqu’un détecte un malware ou une faille de sécurité, un dépôt centralisé peut réagir. Il est en mesure de prendre rapidement des mesures correctives d’urgence (publier un paquet correctif), mais aussi informer les utilisateurs.
Enfin, sécuriser des serveurs, c’est un job à part entière. En dehors des grands éditeurs, tout le monde n’a pas forcément le savoir faire et les ressources pour y parvenir. Un dépôt centralisé diminue la surface d’attaque, d’autant que les signatures permettant d’authentifier ses paquets sont intégrées aux distributions à la base, ce qui réduit les risques de corruption des dépots.
Et si des éditeurs publient des paquets sur leurs dépots, la logique voudrait qu’on les incite à les publier dans le dépôt central. Les dépots propriétaires y sont déjà, les distributions Linux doivent impérativement combler ce retard.
Chacun est libre de penser ce qu’il veut sur le sujet, mais ceci est mon avis.
Le
28/01/2017 à
22h
57
OlivierJ a écrit :
A part faire se faire plaisir avec ta remarque fausse, c’est quoi l’intérêt de ce genre de phrase ?
Les députés sont soumis à certaines contraintes, y compris vis à vis de l’Assemblée (pour toucher l’intégralité des indemnités parlementaires la présence est requise à un certain nombre de moments).
Tu crois que quelqu’un devient député avec la mentalité d’un élève qui a envie de sécher les cours ?
Le genre de propos que tu tiens montre plus une certaine mesquinerie qu’une connaissance du sujet.
Alors, encore une fois répétons les choses (je pense que sur NXI c’est un travail permanent, lutter contre la méconnaissance et les clichés), et pourtant j’ai déjà commenté sur cette actualité dans les pages précédentes " /> :
Et j’ai d’autres articles de gens qui connaissent le sujet.
Un parlementaire n’est justement pas payé à siéger à l’assemblée comme un employé de bureau, le boulot est un peu plus varié et complexe.
Je suis totalement d’accord avec toi sur le fait que la qualité du travail d’un député ne pourra jamais se résumer au nombre d’heures passées à chauffer un siège dans un lieu donné. C’est d’ailleurs le cas de toutes les professions intellectuelles ou l’on traite des sujets complexes.
Un écrivain vous dira qu’on est plus productif dans une pièce calme au fond de sa maison que dans une salle pleine de bruit.
Mais en ces temps de tensions sur le marché du travail, est t’il étonnant que les élus soient à leur tour victime comme tout le monde de cette espèce de suspicion généralisée ?
Regardons combien de politiciens ont utilisé les arguments faciles en exploitant les petites haines et en attisant les suspicions de bas étage. Les uns ont créé la légende du RMIste assisté qui profiterait de tout sans rien faire. Du chômeur qui profiterait des allocations sans chercher de travail. Les autres celles du patron aux poches débordantes d’argent qui se gaverait en licenciant ses employés. On pourrait citer par dizaines les nombreux clichés stigmatisant qui ont été employés par les uns ou les autres pour donner de la force à leur discours politique.
Tout cela a fini par engendrer un climat de suspicion généralisée. Le peuple fait maintenant la chasse a ceux qu’ils perçoivent à tort ou a raison comme des profiteurs. On appelle cela un retour de boomerang.
Mais pour ma part, je pense que même si dans la période actuelle, on peut faire des reproches légitimes aux politiques, il ne faut pas oublier que les chasses aux sorcières n’ont jamais rien donné de bon.
Ce n’était pas une question de confort de vie mais plutôt de chance de survie.
On vit effectivement un peu plus longtemps en occident, mais la qualité de vie est très discutable : stress, pollution, environnement qui n’a rien à voir.
Le
31/01/2017 à
00h
05
M_Michu a écrit :
C’est clair qu’il y avait peu de chance de les voir autant s’offusquer sur le sort des Soudanais et autres Somaliens. ^^
Ils se mobilisent car ça touchent leurs ingénieurs et scientifiques, mais finalement ça profite à beaucoup de monde et fait bouger les lignes.
La réalité, c’est que la mondialisation avantage fortement la minorité la mieux formée et payée. A l’opposée, elle réduit à l’esclavage les classes populaires.
Donc on comprends assez facilement quel intérêt motive chaque classe sociale. Et cela semble se vérifier dans la pratique.
D’ailleurs, il est facile de comprendre que si les pays industrialisés attirent les élites des pays émergents, ces derniers ne se développeront jamais.
Le
30/01/2017 à
23h
42
WereWindle a écrit :
Je comprends ton argument mais, à ce moment, on place la ‘ligne’ où et comment avant de considérer qu’un immigré devient un local ?
Une limite de temps ? Alors il suffit d’attendre pour que le problème ne se pose plus (plus en ces termes là en tout cas).
Un immigré devient un local de manière définitive et irrévocable à partir du moment ou on lui accorde la nationalité française.
Après, il existe des situations moins simples. On peut considérer que humainement parlant, un immigré qui aurait travaillé plusieurs années devrait pouvoir être naturalisé. Mais si on sanctionnait réellement les employeurs qui font travailler des clandestins, ces cas de figure complexes n’existeraient pas.
Une ‘utilité’ ? Il faut se poser la même question pour les improductifs y compris déjà sur place (clochards, handicapés ‘lourds’, étudiants en lettres (" />, je précise au cas où).
Pour moi, un humain est un humain. L’utilité n’est pas ce qui définit un humain.
Nous avons les machines pour cela.
Selon certains, le problème n’est pas local, dans cette optique-là : on est d’ores et déjà trop nombreux sur Terre.
Ce qui est réellement le cas.
Par une autre approche, avec le changement progressif du rapport de force économique (par conséquent, quel coin du monde va attirer à lui les ressources et richesses), combiné avec le changement climatique probable, ils se pourraient bien que ce soient nous qui devenions des migrants, à terme…
Tout à fait.
Mais si aucun pays au monde ne combat la surpopulation et les problèmes économiques, les inévitables migrations causées par les catastrophes ou les guerres seront de plus en plus difficile.
Discutable compte tenu de la tendance démographique (vieillissement de la population notamment mais seulement entre autres facteurs).
Les courbes démographiques ne montrent pas de chute aussi massive que l’augmentation de population qui s’est faite en 50 ans.
Le problème du logement est principalement économique (au sens le plus large de ce mot)
Sauf que les entreprises qui font venir les immigrés ne payent pas pour cela. Soit elles laissent à la collectivité le soin de payer le vrai prix de logements, soit elles les logent dans des préfabriqués sur les chantiers.
Et quand après quelques années de travail dur, ils ont des séquelles physiques, soit c’est la sécu qui paye, soit on les renvoie sans soins dans leur pays.
On privatise les profits, on mutualise les pertes et on casse de l’humain sur l’autel du profit.
Par ailleurs, ils se peut qu’ils trouvent ton tas de bois plus confortable que le tas de cendres ou de verre pilé dont ils jouissaient avant de bouger.
J’ai connu des gens qui ont vécu leur jeunesse dans des huttes en terre et qui ne partagent pas cet avis. Faut cesser de croire qu’on vit mieux ici qu’ailleurs. Ce n’est pas vrai.
Le
30/01/2017 à
23h
24
picatrix a écrit :
ça commence comme ça et puis ça finit en remake de projet X " />
Les bûches, c’est pas l’idéal…
Le
30/01/2017 à
23h
19
M_Michu a écrit :
C’était clair qu’il y’aurait levé de boucliers des entreprises de la Silicon Valley et des grandes universités.
…
Soit tous les riches qui sont les gagnants de la mondialisation et dont la seule préoccupation, c’est d’avoir le dernier gadget ou leur petit confort au meilleur prix et qui se foutent pas mal que ça puisse être fabriqué dans de mauvaises conditions sociales dans des pays emergents.
Ils se foutent aussi pas mal qu’une bonne partie des la population de leur pays soit au chômage ou exploités pour que leur gadgets coûtent moins cher.
La vraie réalité de la mondialisation, c’est ça.
Et quand les peuples sont pas contents, ils s’offusquent…
Le
30/01/2017 à
23h
12
Drepanocytose a écrit :
On parle des etats unis, la.
17 fois la france en surface, 6 ou 7 fois sa population…
La densite, aux us, c’est pas un argument.
Et d’ailleurs, si c’est un insien ou un paki qui emigre, le souci de densité est resolu dans le bon sens.
Vous oubliez que la surface n’est pas tout. Il y a beaucoup de zones peu hospitalières aux USA.
Après, je suis d’accord que la densité est sans doute un problème moins criant que chez nous. Il n’empêche que le problème de dumping économique demeure.
Le vote trump et le vote FN ont la même cause : des gens de base qui ne veulent plus être privés d’emploi pendant que les entreprises font venir des gens payés moins cher.
Le
30/01/2017 à
22h
59
WereWindle a écrit :
…
À cela près que l’immigration (économique ou autre) n’a jamais représenté des “millions de personnes”
Pas d’accord, sur le long terme, cela représente effectivement des millions de personnes.
(sauf à considérer qu’un enfant d’immigré intégré - plus ou moins - est lui-même un immigré… par conséquent nous sommes absolument tous des immigrés quel que soit le pays considéré et il est impossible d’être “de souche” à part dans les bassins d’apparition de notre famille biologique, Ethiopie en gros… et même là, c’était des immigrés homo erectus…) et est plutôt stable dans le temps, sauf besoin exceptionnel comme une saignée dans la population par une guerre ou une épidémie.
Oui, clairement, a des degrés divers nous sommes tous des immigrés. Le Français de souche, ça n’existe pas (et encore heureux).
Donc le débat n’est pas l’origine des personnes ni de leurs enfants.
Le vrai débat, c’est de savoir à quel moment nous sommes trop nombreux sur une surface donnée et compte tenue d’une économie donnée et des capacités de la terre à nourrir les habitants qui s’y trouvent.
C’est encore plus vrai dans une économie ou la robotisation a déjà fait disparaître le besoin de main d’oeuvre.
Réalisons que ça n’a pas de sens de faire venir encore des gens alors que nous n’avons pas suffisamment de travail ni de logements pour ceux qui sont déjà ici.
C’est un peu comme de faire venir des invités dans sa maison pour les faire dormir sur le tas de bois dans la cave.
Le
30/01/2017 à
22h
43
Drepanocytose a écrit :
Ca c’est pas un argument…
D’abord parce qu’un migrant a aussi une empreinte ecologique qd il est dans son pays.
Bon alors, moins qu’un ricain de base, c’est vrai. Mais en meme temps, les gens integrés dans les pays développés font moins d’enfants, ce qui peut compenser…
Non, du point de vue écologique, la densité de population sur une zone particulière est aussi une donnée importante.
Plus la densité est importante, plus il est difficile de respecter l’environnement.
Voyagez un peu en France, vous verrez qu’il existe très peu de zones sauvages.
D’un point de vue écologique, on est déjà trop nombreux en France.
Le
30/01/2017 à
22h
15
misterB a écrit :
Soyons plus efficace, un test ADN et si il y a la moindre trace étrangère on les vire " />
Avec ça il n’y aura plus de chômage " />
Et pour cause, on virerait tout le monde " />
Le
30/01/2017 à
22h
13
De tous les temps, l’immigration a toujours été une source inépuisable de dumping social pour faire baisser les prétentions salariales. Et il n’est pas étonnant que les plus grande société capitalistes aient toujours été de fervents partisans de cela.
Mais c’est un débat difficile à mener tant le débat est rendu volontairement confus par des gens qui sèment la confusion volontaire entre le racisme/xénophobie et le fait de vouloir limiter l’immigration pour des raisons totalement différentes.
Ne parlons pas des clichés totalement ridicules qui associent tout contrôle de l’immigration ou protectionnisme à de l’isolationnisme. Mais la propagande à base de mots clichés et péjoratifs (isolationnisme, assistanat) sont devenu une constante de la propagande visant à empêcher tout débat et toute réflexion.
Pour ma part, je considère que l’apport de cultures différentes et d’un patrimoine génétique différent est très profitable et enrichissant pour notre nation. La consanguinité, qu’elle soit génétique ou culturelle n’a jamais été une bonne chose.
Quand aux “français de souche” qui s’attribuent les mérites de leurs ancêtres depuis clovis sont juste ridicules. Parce que le mérite, ça ne s’hérite pas.
Mais d’un autre côté, un peu de bon sens suffit pour comprendre qu’on ne peut continuer à faire venir des millions de migrants économiques dans un pays en proie au chômage et dont la population est déjà visiblement trop importante en terme d’empreinte écologique.
Et comme l’immigration zero n’existera jamais, je pense que l’on doit limiter l’immigration à des problème humains (réfugiés, regroupement) et mettre fin à toute immigration économique.
La misère moins terrible au soleil soit, pour le froid pas pour quand tu crèves la dalle. Et je continuerais à maintenir qu’on est tout de même bien mieux loti en France que dans un pays tiers mondistes
Je pense que nous serons d’accord pour dire que la misère, ça n’est bien nulle part.
Mais ce que je voulais dire, c’est que le SDF qui est mort de froid dans la rue en France, ça lui fait une belle jambe d’être mort dans un pays ou tu est soit disant mieux loti.
Il faut se méfier des apparences, la solidarité n’est pas toujours le point fort des habitants des pays les plus riches.
Quand aux pays nordistes…que dire sinon que ce sont tous des pays européens et le Canada, pour la Russie c’est une autre histoire, mais ce sont tous des pays du G20 encore heureux qu’ils aient la protection sociale la plus forte, c’est le contraire qui serait honteux!
En attendant, il y a toujours des SDF qui meurent dans la rue en France. Et pas de statistique pour comparer avec d’autres pays.
On peut toujours dire qu’il y a des pays qui sont pire que la France, mais il faut prendre garde à cette façon de voir parce que c’est une forme d’indifférence… et l’indifférence mène à l’acceptation d’une société toujours plus inégalitaire.
Quand on parle de pauvreté, on devrait toujours penser que l’on peut mieux faire.
Le
29/01/2017 à
08h
35
lanoux a écrit :
Si il y avait plus d1 millions de sdf à Paris comme c’est le cas à rio ça se saurait et se verrait. Chez nous on a qd même un minimum d’infrastructures faut qd même pas deconner on est ni rio ni sao paolo ou alors on habite pas le même pays!
Comparer les chiffres, c’est bien.
Mais comparez les températures l’hiver à Rio et à paris. Et vous comprendrez pourquoi le nombre ne suffit pas à résumer la question.
Ce n’est d’ailleurs pas un hasard si les pays nordiques ont les systèmes de protection sociaux les plus évolués.
J’ai un ami qui a vécu sa jeunesse dans un pays émergent dans une hutte en terre. Il vous expliquerait pourquoi comparer la notion de pauvreté et de bonheur entre différents pays n’est pas aussi simple que vous pourriez le penser.
Que valent quelques exclusivités devant les avantages du PC ?
Même si on m’offrait la console, je préférerais toujours profiter des jeux sur PC pour pouvoir y jouer au clavier/souris et avec un hardware digne de ce nom.
Parce que jouer à des FPS au pad, c’est vraiment pas top.
DoWnR a écrit :
C’est plus ‘dredi " />
Une console c’est moins compliqué à utiliser et maintenir,
Franchement, depuis l’avènement des plateformes comme Steam, c’est plutôt une légende urbaine.
et c’est moins cher à l’achat et même moins cher tout court si on ne joue pas beaucoup et qu’on achète que des AAA day-1.
Non.
Cf plus bas.
Et faut pas revenir avec des PC à 400-500 EUR qui sont tout autant limite niveau hardware que les consoles, mais dont les jeux ne bénéficient pas des optimisations faites sur consoles grâce à l’homogénéité de leur HW,
Vu que de nos jours, ça serait une hérésie de se passer d’un PC, acheter un console signifie forcément rajouter le prix de la console à celui du PC. Et pour le prix d’une console et d’un mauvais PC, tu as le prix d’un bon PC.
Et l’homogénéité du hardware des console est certes un avantage, mais la différence de puissance avec un vrai PC de jeu est telle que cela ne tient pas.
et ne pas non plus omettre volontairement de compter le clavier/souris/gamepad et la licence de l’OS dans le prix du PC.
Sauf qu’il ne faut pas oublier qu’un PC, c’est modulaire et qu’il est possible de garder des éléments sur plusieurs config, ce qui permet de substantielles économies dans le temps. " />
Il faut ajouter à cela que les jeux sont souvent moins cher sur PC.
4322 commentaires
Razer Blade de 14″ : Core i7-7700HQ et dalle 4K UHD en option, dès 2 149,99 euros
14/02/2017
Le 14/02/2017 à 15h 02
Steam veut faciliter la publication de jeux en abandonnant Greenlight
13/02/2017
Le 14/02/2017 à 14h 43
Le 13/02/2017 à 13h 40
Mot de passe en clair dans un email, SSLv3 : EBP s’explique
09/02/2017
Le 10/02/2017 à 06h 01
Le 10/02/2017 à 00h 21
Le recevoir par email sur simple demande a beau être un « drame » en terme de sécurité, il a l’avantage d’être rapide
En même temps, il faut parfois relativiser le “drame” dans la pratique. Un système d’authentification ne signifie pas toujours qu’il y a quelque chose de critique derrière.
Fragmentation d’Android : peu de changement, Nougat sur 1,2 % des terminaux
08/02/2017
Le 08/02/2017 à 15h 29
Mad Catz accumule de nouvelles pertes et risque sa place en bourse
07/02/2017
Le 07/02/2017 à 23h 51
Le 07/02/2017 à 21h 04
Le 07/02/2017 à 20h 24
Le 07/02/2017 à 19h 33
127 poids lourds du numérique attaquent le décret anti-immigration de Trump
07/02/2017
Le 07/02/2017 à 22h 43
Le 07/02/2017 à 22h 28
Le 07/02/2017 à 20h 46
Le 07/02/2017 à 20h 38
Le 07/02/2017 à 20h 02
Le 07/02/2017 à 19h 52
Le 07/02/2017 à 19h 10
Le 07/02/2017 à 17h 49
Le 07/02/2017 à 16h 33
« Cette instabilité et ce doute rendront bien plus difficile et coûteux le recrutement des meilleurs talents mondiaux par les entreprises américaines, et les entravent sur le marché mondial »
Mince, ils ne vont plus pouvoir faire leurs emplettes de main d’oeuvre à pas cher. Ils vont devoir donner du boulot aux américains, payer le vrai prix du travail et cesser de faire du dumping social. Quel drame… " />
Apple obtient le feu vert pour sa première usine en Inde
07/02/2017
Le 07/02/2017 à 16h 28
Le 07/02/2017 à 16h 25
Tails Linux 3.0 réclamera un processeur 64 bits
06/02/2017
Le 07/02/2017 à 15h 25
Le 07/02/2017 à 15h 08
Le 07/02/2017 à 14h 58
Le 06/02/2017 à 16h 54
Le 06/02/2017 à 15h 48
Le 06/02/2017 à 14h 45
Le 06/02/2017 à 14h 33
Le 06/02/2017 à 14h 10
Nous pouvons constater que beaucoup de distribution Linux parlent d’abandonner les versions 32 bits.
De fait, il est vrai que dans nos pays, les processeurs ne supportant pas le 64 bits se font plus rares, même s’il y a quand même beaucoup de machines pas si vieilles qui ne le supportent pas.
Mais je suis surpris que personne ne mentionne le cas des pays émergents ou il est courant de voir des machines plus anciennes comme des Pentium 4 ou des Athlon K7.
Et même dans nos pays, nous pouvons constater que bon nombre de ces machines sont encore utilisées par des personnes désargentées.
Au final, je pense sincèrement que l’abandon du 32 bits est vraiment prématuré. C’est particulièrement vrai quand on connait la façon dont Linux est souvent mis en avant pour son rôle social.
Mozilla dissout son équipe dédiée aux objets connectés
03/02/2017
Le 04/02/2017 à 23h 40
Le 04/02/2017 à 01h 16
Les inquiétudes de Sergio Coronado, « seul député » à encore utiliser du libre à l’Assemblée
27/01/2017
Le 01/02/2017 à 10h 25
Le 01/02/2017 à 10h 10
Le 30/01/2017 à 21h 47
Le 30/01/2017 à 21h 37
Le 30/01/2017 à 06h 25
Le 28/01/2017 à 22h 57
La Silicon Valley se ligue contre le décret anti-immigration de Donald Trump
30/01/2017
Le 31/01/2017 à 00h 22
Le 31/01/2017 à 00h 05
Le 30/01/2017 à 23h 42
Le 30/01/2017 à 23h 24
Le 30/01/2017 à 23h 19
Le 30/01/2017 à 23h 12
Le 30/01/2017 à 22h 59
Le 30/01/2017 à 22h 43
Le 30/01/2017 à 22h 15
Le 30/01/2017 à 22h 13
De tous les temps, l’immigration a toujours été une source inépuisable de dumping social pour faire baisser les prétentions salariales. Et il n’est pas étonnant que les plus grande société capitalistes aient toujours été de fervents partisans de cela.
Mais c’est un débat difficile à mener tant le débat est rendu volontairement confus par des gens qui sèment la confusion volontaire entre le racisme/xénophobie et le fait de vouloir limiter l’immigration pour des raisons totalement différentes.
Ne parlons pas des clichés totalement ridicules qui associent tout contrôle de l’immigration ou protectionnisme à de l’isolationnisme. Mais la propagande à base de mots clichés et péjoratifs (isolationnisme, assistanat) sont devenu une constante de la propagande visant à empêcher tout débat et toute réflexion.
Pour ma part, je considère que l’apport de cultures différentes et d’un patrimoine génétique différent est très profitable et enrichissant pour notre nation. La consanguinité, qu’elle soit génétique ou culturelle n’a jamais été une bonne chose.
Quand aux “français de souche” qui s’attribuent les mérites de leurs ancêtres depuis clovis sont juste ridicules. Parce que le mérite, ça ne s’hérite pas.
Mais d’un autre côté, un peu de bon sens suffit pour comprendre qu’on ne peut continuer à faire venir des millions de migrants économiques dans un pays en proie au chômage et dont la population est déjà visiblement trop importante en terme d’empreinte écologique.
Et comme l’immigration zero n’existera jamais, je pense que l’on doit limiter l’immigration à des problème humains (réfugiés, regroupement) et mettre fin à toute immigration économique.
Ps: Non, je ne voterais pas pour le FN.
Démocratie participative : les (nombreuses) propositions de Benoît Hamon
27/01/2017
Le 30/01/2017 à 08h 13
Le 29/01/2017 à 08h 35
Nintendo Switch : le prix descend à 299 euros, parfois avec des bonus
27/01/2017
Le 28/01/2017 à 23h 59