Les USA assurent mal mais il me semble que beaucoup de boîtes de devs ont des package très intéressants, c’est à dire qui incluent les assurances santé voir la retraite….
Je pense que certains vont s’amuser quand ils partiront en retraite. A travailler 6 mois par ci, 3 mois par la à l’autre bout du monde.
Déjà que ceux qui ont bossé 100% en France c’est une galère sans nom.
Mais c’est le salaire moyen (la somme de tous les salaires divisés par le nombre de salaires). Pour évaluer un niveau de vie, il vaut mieux utiliser le salaire médian (50% des salaires sont en dessous, 50% au dessus). Par exemple, si un milliardaire part se domicilier au Burkina Faso, ça fera automatiquement exploser le salaire moyen, mais pas le salaire médian.
En France, les salaires nets moyens (2100€/mois) et médians (1700€/mois) sont assez proches, mais au Mexique c’est le grand écart: salaire moyen de 12000\(/an, mais salaire médian de 20% du salaire moyen, soit juste 2400\)/an.
Le salaire annoncé de 2400$/an, est faible (on comprend qu’ils se soient barrés), mais pas délirant pour le Mexique.
Le salaire du pays, c’est une chose. Mais ce qu’il faut considérer, c’est la quantité d’argent que le studio à gagné avec ce jeu qui a été quand même un beau succès commercial.
Même si les employés n’étaient pas actionnaires, à partir du moment ou ils se sont surinvestis et qu’ils ont multiplié les heures supplémentaires non payées, c’est normal qu’ils veuillent leur part du gâteau.
Je suis persuadé qu’il y a plein d’emplois à Paris payés au smic. Je me demande comment font ces gens.
Il y a différents cas de figure.
Par exemple, le jeune hébergé par popa moman.
Ou l’exemple du couple ou l’un des deux gagne beaucoup plus. Mais en cas de séparation, c’est dramatique pour celui qui est au smic.
Ou alors la collocation à 7 ou 8 dans un petit appartement.
Dans la plupart des cas, ce sont des situations malsaines parce qu’a long terme les gens sont dans une impasse. Ils ne pourront pas fonder une famille. Et pour ceux qui le feraient, a la moindre anicroche, ça tournera très mal.
Le SMIC est une belle arnaque. Un minimum de bon sens voudrait qu’un salaire minimum tienne compte du prix d’un logement décent dans la zone concernée.
Petit message au passage aux entrepreneurs assistés qui se plaignent de pas trouver de smicards en région parisienne : allez vous acheter un cerveau. Quand on paye un salaire vivable, on trouve du monde.
Le
04/10/2016 à
13h
49
vince120 a écrit :
Arrêtez de donner des millions aux stars sur les chaines publiques qui sont là depuis des dizaines d’années !
Pour réduire le budget, limitez les salaires des présentateurs au smic et proposez en priorité ces postes aux écoles publiques de journalisme et communication pour qui l’obtention de stages est si difficile !
Vous aurez des points positifs :
on n’aura plus les vieux croulants à l’antenne
les étudiants en stage seront motivés et donneront tout pour se faire remarquer en début de carrière
le service public gagnerait une vocation supplémentaire d’accompagnement des jeunes
un peu de renouvellement dans les programmes pourrait permettre le renouvellement des spectateurs (avant qu’ils ne se barrent tous sur youtube)
Bonne idée de mettre plus de jeunes.
Mais pourquoi faudrait t’il qu’un jeune soit forcément payé au smic ? A Paris, on ne vit pas avec un SMIC.
Le
04/10/2016 à
13h
44
En fait, ce genre de taxe est un impôt masqué. Et la France est championne dans ce genre de sport.
L’avantage de l’imposition masquée, c’est que le contribuable de base ignore totalement combien l’état lui prends au total.
Et inversement : le gros problème lors de la monté en version d’un OS est certes la compatibilité applicative mais aussi matérielle : quid des imprimantes ? multi fonction ? et autres sorties fin 2010 / 2011 qui ne dispose pas de pilotes compatibles avec Windows 8 / 8.1 / 10 : poubelle ?
Tu peux retirer le “je pense”, AMD ont clairement dit qu’ils ne prévoient pas de supporter les GPU pré-GCN.
Ils resteront avec le pilote kernel radeon.
Ce qui est surtout dérangeant du-coup c’est qu’OpenGL est limité à 4.1 avec le pilote r600. Et les développeurs qui travaillaient sur r600 s’occupent actuellement du pilote RADV, donc ça ne risque pas de bouger.
Tu as besoin d’OpenGL 4.2 + pour ton utilisation ?
Car si OpenGL 4.1 te suffit, je ne vois pas où est le problème, le pilote libre fonctionne plutôt bien (plus performant et plus stable que catalyst), il y a juste le support d’OpenGL qui est incomplet.
Prendre une carte Nvidia d’occasion n’est pas forcement une bonne idée, le pilote nouveau n’est pas mieux (c’est même encore pire) et le pilote propriétaire de Nvidia est serte performant, mais il n’est toujours pas compatible avec Wayland / Mir et la situation ne se semble pas s’améliorer (tapes sur google “nvidia stream vs wayland gbm controversy”)
Plus performant, faut le dire vite. Les pilotes libres restent clairement en retrait des Catalysts qui déjà n’étaient pas des foudres de guerre.
C’est même tellement simple qu’on se demande comment il n’y ont pas pensé plus tôt !
C’est vrai quoi, faire maintenant créer le contenu PAR les joueurs, et en plus les faire payer pour ça, c’est une p*tain d’idée de génie !
Je prédis que dans quelques années, on sortira des jeux tellement personnalisables que les joueurs en arriveront à créer l’équivalent des DLC actuels, et que pour en profiter on leur demandera carrément de passer à la caisse.
Les entreprises auraient tort de ne pas profiter de l’aboutissement de l’évolution humaine : L’homo consommatorus pigeonnus moutonnus.
Notre civilisation finira de toute façon par crever sous les tonnes de merdouilles en plastiques inutiles qu’elle génère au détriment de l’utile.
Oui, effectivement, nous avons trois salles info de 18 places pour 750 élèves. Ça peut paraître énorme, mais elles sont occupées en permanence par les TPE, l’EMC (éducation morale et civique), les langues, les arts plastiques, etc. alors qu’il en faudrait une consacrée exclusivement… à l’informatique (ICN, algorithmique, maths…) ! Bilan : les profs de maths-info n’y vont pas souvent, et utilisent le vidéo-projecteur en classe !
Logiquement, on ne fera rien de bien avec l’informatique tant que chaque élève n’aura pas le sien. Avoir le sien fait une énorme différence.
Gaspiller le peu de capital que la France peut encore investir pour des tablettes, c’est une erreur stratégique totale.
Et non seulement nous aurions du investir dans des ordinateurs, mais nous aurions du profiter de commandes en très grande quantité pour faire réaliser des machines adaptées à l’environnement scolaire et capables de durer, c’est à dire durcies pour résister au transport dans un cartable et aux inévitables chahuts.
Que fera t’on quand les tablettes fragiles et coûteuses reviendront cassées. Qui payera l’addition ?
Le
01/10/2016 à
23h
24
x689thanatos a écrit :
" />
C’est un des problèmes.
Et aucun plan de refondation ou numérique ne le prend en compte.
Meme si mon plus gros regret pour avoir eu des cours à domicile, c’était de cotoyer un prof passionné qui es à meme d’expliquer le pourquoi du comment, cela ne prenait pas beaucoup de temps, et rendait les choses bien plus faciles à appréhender (au final plus de réussite). Mais cela sous entendait également que ce prof disposait de culture dans son domaine et qu’il n’était pas dans un schéma de transmettre du brut.
D’ailleurs, je me souviens toujours de ses cours …17 ans après.
Apprendre pour comprendre plutôt que apprendre bêtement par cœur :(
Tout à fait.
Et nous avons tous en mémoire cette toute petite minorité de profs passionnés et talentueux qui nous a transmis beaucoup.
Voila pourquoi la vidéo sera une évolution positive.
Plutôt que de servir aux élèves une majorité de cours d’un niveau moyen, voir médiocres, on leur servira des cours excellents car triés sur le volet et réalisés par des professeurs passionnés qui se concentrent pleinement à leur art plutôt qu’a s’user au quotidien.
Et s’il reste une minorité de profs, ils pourront justement servir à faire de l’individualisation plutôt qu’a répéter les mêmes cours à longueur de journée.
Réalisons que la seule chose qui provoque un blocage dans les esprits, c’est le fait qu’on mettra des gens au chômage.
Mais si le chômage est perçu comme un problème aujourd’hui, c’est parce que notre vision est dépassée.
Un nombre croissant d’économistes et d’hommes politiques parlent d’un revenu citoyen pour faire face au changement sociétal sans précédent que représentent les millions d’hommes et de femmes qui perdront leur emploi dans les années à venir grâce au progrès technologique.
Le
01/10/2016 à
22h
51
x689thanatos a écrit :
Ca ne fonctionne que si les élèves ne bloquent pas sur un ou des points.
Meme si c’es déjà le cas parfois avec certains profs (un élève qui demande plus de travail es fatalement un mauvais élève).
Ou alors il s’agit de cours enregistrés pour les éleves ne pouvant venir, déjà en place dans certaines écoles spécialisées.
Mais ca ne remplace pas la présence (ou alors il faudrait se farcir un faq ^^‘).
D’abord, réalisons que l’essentiel d’un cours au collège/lycée est passé à copier un cours au tableau. Et c’est bien un cours préparé à l’avance que le professeur inscrit au tableau.
Ensuite, nous ne sommes plus à l’époque ou seul le prof était en mesure de répondre aux questions d’un élève.
L’internet fournit aujourd’hui une très abondante documentation sur tous les sujets. Il est facile d’y trouver absolument toutes les réponses aux questions qu’un élève pourrait se poser.
De plus, l’internet peut répondre aux questions 24h/24 et 7j/7 et pas seulement 2 minutes après le cours…
Enfin, dans ce système, il est facile d’accéder à différentes vidéo d’un même cours donnés par des profs différents.
C’es toute la différence entre publique et privé.
Le privé si ça ne fonctionne pas, ça fini par couler quand il n’y a plus de fonds (ou qu’ils l’ont touché).
Le publique… ca continu de tourner, même si ça ne fonctionne pas bien. (ou pas).
Effectivement, le problème du public, c’est qu’il peut continuer longtemps à laisser perdurer des logiques dépassées alors que le privé subit la dure concurrence et doit évoluer ou mourir.
Cela étant dit, je ne suis pas non plus un adepte du tout privé car le privé a également d’énormes limites. Par exemple, le privé ne peut répondre aux besoins collectifs dont la rentabilisation se fait sur le long terme et à l’échelle collective.
Le
01/10/2016 à
22h
31
darth21 a écrit :
Je ne m’étendrait pas sur la validité ou de la pertinence de ton argumentation, mais on est au moins d’accord sur un point : l’enseignement va continuer à évoluer, tout comme c’est déjà le cas (et pas toujours pour du bon …)
En revanche ton idéal du cours parfait (après sélection) qui permettrait de dispenser le savoir au plus grand nombre, c’est voué à l’échec sans avoir besoin de l’essayer, pour une raison que tu évoques toi même : impossible d’individualiser, et ce qui convient au plus grand nombre n’est jamais ce qui convient à tous.
Dire que l’école individualiserait les cours, c’est du fantasme, pas la réalité.
La vraie réalité de l’école, c’est que le prof copie un cours au tableau. Et il y a ceux qui se démerdent pour suivre et qui iront loin. Et les autres qu’on enverra plus ou moins rapidement dans des filières poubelles.
L’éducation nationale est une machine à faire de la sélection, la place à l’individualisation est très réduite.
Ce n’est pas parce que les MOOC sont à la mode sur internet en ce moment que c’est un bon modèle, ni que c’est transposable dans l’éducation nationale. Il y a d’ailleurs bien d’autres problèmes à régler avant ça …
Il y a quelques années, beaucoup disaient que l’Internet était une mode qui passerait.
Est ce que ce modèle est transposable à l’éducation nationale ? La vraie question, c’est de savoir si l’éducation nationale est seulement en mesure d’évoluer, quel que soit la direction.
Dans le cas contraire, il se produira a grande échelle ce que l’on commence à observer. Les enfants des classes les plus favorisées auront accès aux dernières méthodes d’enseignement.
Pendant ce temps, les méthodes toujours plus dépassées de l’école publique élargiront toujours plus la fracture sociale…
Le
01/10/2016 à
21h
33
darth21 a écrit :
On pourrait même en faire une émission de téléréalité avec ton idée.
Désolé mais ce que tu dis est absurde. Ta vision de l’enseignement est pour le moins étrange et fausse …
Toutes les révolutions que l’humanité ont connu ont paru étranges et fausses a certains en leur temps. C’est une constante de l’évolution.
Il fut un temps ou l’idée d’enseigner à lire et à écrire au peuple paraissait incongru…
Le
01/10/2016 à
21h
18
damien_spirale a écrit :
ah le privé qui note mieux ?
aussi efficace et objective que les les agences de notations financières ?
Passez donc votre chemin, nous ne sommes pas vendredi.
Si un jour tu monte une entreprise, tu verra que quand tu payera les gens avec ton argent, tu sera autrement plus exigeant que ce qui est pratiqué dans le public.
Quand on parle d’agence de notation, on parle forcément de grandes entreprises. Et les grandes entreprises n’ont souvent rien à envier au public. Ce n’est pas de ces entreprises que viens le progrès, le changement et l’innovation.
Le
01/10/2016 à
21h
09
serpolet a écrit :
Tu te fais beaucoup d’illusion sur le privé… Dans ma ville, le lycée privé (confessionnel) a dû changer de nom tellement sa réputation était mauvaise, le lycée public dans lequel j’enseigne (sans que cela en soit la cause, rassure-toi sur mon état mental) avait 2 ou 3 fois plus de demandes que de places en 2de…
Les profs du privé, qui étaient pour certains d’entre eux des personnalités de la ville, enseignaient n’importe comment, tout en étant, j’imagine, très bien notés ! On est dans le privé, non ? Entre gens bien !
Quand je dit “le privé”, je n’entends pas “lycée privé”, mais secteur privé.
Le lycée privé se place sur un marché de concurrence locale. Les contraintes d’un contrat de travail classique et d’un vivier limité rendent impossible de faire de la sélection.
Pour les cours en vidéo, la concurrence est nationale, voire internationale(par langue). Dans ce contexte de concurrence, la sélection des profs revêt une importance vitale. Mais l’internet rends le nombre de candidats professeurs virtuellement illimité. Et les contrats précaires “freelance” rendent la sélection très facile.
Le
01/10/2016 à
20h
53
serpolet a écrit :
Tu as raison (pour une fois " />), je me suis mal exprimé en écrivant tablette = TO7.
Je voulais dire que l’erreur de la tablette rappelait l’erreur du calamiteux plan “informatique pour tous”.
Je comprends.
Cela dit, le “plan informatique pour tous” n’a pas été aussi calamiteux qu’on le dit compte tenu du faible investissement consenti(quelques machines par établissement).
A l’époque, il s’agissait principalement de démystifier l’informatique et d’éveiller la curiosité pour susciter des vocations. Et le but fut atteint.
Le problème, c’est surtout que ses résultats ont été inégaux. Dans les établissements ou il y avait des profs impliqués, ça fonctionnait très bien.
La mauvaise réputation est venue de quelques cas d’établissements ou l’on a retrouvé quelques années plus tard les MO5 jamais déballé dans des placards. Et le monde n’a retenu que cela…
Le
01/10/2016 à
20h
40
Z-os a écrit :
Cela voudrait dire que les élèves soient autonomes… Au collège et au lycée, " />
Un bon prof c’est celui qui s’adapte à son auditoire.
Mais la réalité, c’est qu’avec 30 élèves dans une classe, la personnalisation est une utopie.
C’est bien pour cette raison que l’école laisse beaucoup de gens sur le côté de la route.
Je pense que le couple vidéo + informatique est bien plus à même de s’adapter à des vitesses d’apprentissages et des capacités différentes que les cours de l’école classique.
Quand à l’autonomie, je pense sincèrement que l’école n’est pas une bonne formation pour rendre les gens autonomes. C’est même tout l’inverse.
Le
01/10/2016 à
20h
35
serpolet a écrit :
En général, la note pédagogique augmente avec l’âge… Je n’en dis pas plus…
En même temps, c’est logique.
Maintenant, si on considère que cette note n’est pas fiable, on peut imaginer d’autres moyens.
Ne vous faites pas d’illusions, si dans le public on ne sait pas évaluer les profs, dans le privé, on sait le faire.
Le
01/10/2016 à
20h
29
serpolet a écrit :
Si ça marche, pourquoi pas ? Mais lesdits cours existent déjà sur la Khan Academy, sur le CNED, etc. alors les lycéens devraient se désinscrire en masse, non ?
Non, pas forcément.
Comme tous les grands changements qui supposent une modification d’habitude, ça se popularise doucement… mais sûrement.
Et je ne sais toujours pas ce qu’est un “excellent prof”… un mauvais, oui !
C’est déjà un bon début.
Mais il faut se rappeler qu’on sait bien évaluer le niveau des élèves. C’est un critère tangible…
En tout cas, pour revenir au sujet de l’article, tablette = TO7, c’est tout.
Le TO7 était un ordinateur, c’est programmable, c’est un outil de création.
La tablette est un outil de consommation comme un minitel. Les contenus de la tablette ne sont pas faits avec des tablettes mais avec des ordinateurs.
Donc un élève qui aura reçu une tablette sera privé d’outil de création. Il faut appeler un chat un chat : C’est une perte de chance…
Si on veut être efficace, c’est effectivement liseuse + salle informatique.
On a pas les moyens de payer une tablette et un ordinateur aux élèves. C’est soit l’un, soit l’autre car leur coût est équivalent.
On sait depuis très longtemps qu’un passage en “salle informatique” ne sers à rien si les élèves n’ont pas d’ordinateurs chez eux.
Le
01/10/2016 à
20h
16
darth21 a écrit :
“il suffit de…” " />
si c’était aussi simple que d’avoir un bon cours, ça se saurait " />
Ce n’est pas aussi compliqué que tu l’imagine.
D’abord, il faut savoir que l’éducation nationale note déjà la qualité pédagogique des profs.
Parmi les profs les mieux notés, on pourrait organiser une compétition. On peut imaginer des sélections “in vivo”. Une classe de 100 elèves, un cours. On mesure ensuite ce que les élèves ont compris à la sortie.
Ensuite on organise des sélections nationales sur le même mode.
Et le meilleur prof, celui dont le cours sera retenu gagne beaucoup d’argent sur les royalties et deviens une star.
Et pour résumer grossièrement, les autres iront pointer à pôle emploi…
Et si ce n’est pas le secteur public qui s’y colle, c’est le privé qui le fera pour l’argent.
Le
01/10/2016 à
19h
44
x689thanatos a écrit :
Idem, j’ai bien peur que les choix soient plus pour le paraître face aux autres pays (dont certains reviennent pourtant en partie du numérique).
Mecano, tu penses que ceux qui pondent les programmes, plans numériques, budgets, etc etc y voient des êtres humains plutôt que des chiffres (profs ET élèves) ?
Déjà lorsque l’on voit les plannings de la semaine et par jours… Alors qu’il à été démontré que rester attentif une journée entière n’es pas possible.
En parallèle et en tant qu’ancien élevé (comme tout le monde ^^‘), c’est bien gentil de se soucier des profs, mais il faut prendre aussi un autre problème (que l’on retrouves dans beaucoup de professions) , je veux être prof, mais pas parce que j’aime vraiment ce boulot.
Bon, cela a peux etre bien changé mais “de mon temps”, il y en avait un sacré paquet la plus par opportunité ou par intérêt de situation/pécunier que par amour de la profession.
Oui, je suis franchement amer car la qualité des cours s’en ressentait énormément.
Et pour le dernier point…
Si la personne a du mal dans son travail/environnement, ce n’es pas un arrêt qui va arranger quoi que ce soit.
Apres pour avoir bossé dans tout un tas de boites (privé)… Conditions de travail… Ahem, ça passe assez mal d’entendre ça.
Rassure toi, je pense que l’avenir changera beaucoup.
Parce qu’il suffit de filmer le cours d’un excellent prof pour le diffuser à tout le pays.
Il va y avoir du chômage dans la profession. Mais les cours vont gagner en qualité.
Le
01/10/2016 à
19h
39
Finalement, la décentralisation n’a abouti qu’a un éparpillement des investissements et a créer des disparités entre les français.
Par contre, le manque de stratégie au niveau national est préoccupant.
Comment peut t’on oser distribuer des tablettes alors que ce ne sont pas des outils de création ?
Notre pays à besoin de dénicher des talents, pas de niveler par le bas avec des outils limitatifs.
A l’ère du numérique je doute qu’il n’existe pas un moyen de savoir si oui ou non, tu regardes effectivement les chaines….
une chose qui m’a tjrs. étonnée, c’est QUAND ils annoncent fièrement (par exemple)
“le journal de 20H. a fait 25 millions d’audience” !
COMMENT peuvent-ils en être SI sûrs ?
C’est simple, ils ont un échantillon de personnes qui sont ont consenti à installer un boitier mouchard. A partir des statistiques faits sur cet échantillon, ils extrapolent à l’ensemble de la population.
Le
29/09/2016 à
21h
08
Fuinril a écrit :
Bien sûr ! Sans oublier que beaucoup de sociétés commerciales (IBM, Google, Apple et Microsoft au premier plan) contribuent énormément.
N’empêche que ce sont des modèles gratuits, sans contrepartie d’aucune sorte pour les utilisateurs…. Et que l’intégralité de l’informatique moderne est basée dessus !
Ces gens le font parce qu’ils y trouvent un intérêt (du dev à la retraite qui s’ennuie à l’idéaliste pur et dur en passant par les grosses sociétés commerciales qui utilisent tout ou partie des fonctionnalités et qui sont obligées de le modifier pour le rendre plus - robuste, souple, sécurisé, performant, évolutifs (rayer les mentions inutiles)… Et qui sont aussi obligées de partager leurs modifications de par la licence) .
En tous cas ce n’est pas par intérêt financier !
Bien souvent, si. Dans le libre il y a beaucoup plus d’intérêt financier qu’on ne croit, même si celui ci est indirect.
Mais il ne faut pas tomber dans l’extrémisme de penser qu’il serait mal de vivre de son métier.
Ce qui est mal, c’est les dérives que peut engendrer l’appât du gain combiné au l’immense pouvoir du logiciel.
Le modèle du logiciel libre est meilleur, justement parce qu’il limite les dérives potentielles.
Le
28/09/2016 à
18h
29
gavroche69 a écrit :
….
Et si il y avait réellement autant de gens qui ne regardent jamais la TV que de gens qui prétendent ne jamais la regarder il y a longtemps que ce média serait mort et enterré or à par quelques chaînes privées en difficulté (comme C+) la TV se porte plutôt bien et ça c’est une réalité.
Pour ma part, je regarde de moins en moins la télé et de plus en plus les productions étrangères qu’on peut visionner en offre légale. Sans les productions de contenu “amateur” qu’on peut trouver sur youtube.
Faudrait juste arrêter un peu l’hypocrisie et arrêter aussi de confondre la TV diffuseur d’images avec la TV productrice de programmes.
Si tu regardes sur ton PC ou ton smartphone un programme produit par la TV ben tu regardes la TV (productrice) , tout simplement…
Quand on voit l’état de la production française de nos jours malgré le fait que la France a largement utilisé l’argent du contribuable pour financer la production, il y a de quoi être scandalisé.
A de rares exceptions, à chaque fois que je regarde un film français ou une série française, c’est d’une nullité absolue. On est à des années lumières de la qualité du cinéma français d’il y a 30 ans.
Pour résumer un film français d’aujourd’hui, c’est simple. Des blagues à 2 balles sans la moindre recherche, des scénario plats sans aucun travail. Des acteurs moyens qui se prennent pour des dieux.
Sans parler des nuisances que produisent tout ces tournages. Il y a des quartiers en région parisienne ou plusieurs fois par an, des sociétés viennent “privatiser” une grande partie du stationnement d’un quartier dans le plus profond mépris des habitants qui se galèrent pendant des jours. Et cela, avec la complaisance totale des pouvoirs publics. Une logistique incroyable, un coût faramineux, tout ça juste pour tourner quelques scènes d’un film ou d’une série.
Non, je ne veux plus que l’on prenne mon argent pour me forcer à financer la production d’un secteur qui entretient la médiocrité et ne fait strictement aucun effort pour produire de la qualité.
Les films et séries américaines ont du succès parce qu’eux ils travaillent. Nous, en France, on entretient la médiocrité de la production à coup de subventions et de redevances. Et l’on voit le résultat.
Le
28/09/2016 à
16h
58
Fuinril a écrit :
OK.
C’est quoi la contrepartie de Linux ? De postfix ? De exim ? d’apache ? de nginx ? de php ? de memcache ?de ton navigateur ? Des 50 libs JS qui existent en opensource ? de iptables ? de ….
(je vais arrêter parce que j’ai de quoi remplir mon écran)
Attention aux légendes, les programmeurs du libre ne vivent pas d’amour et d’eau fraiche.
Il y a de nombreux cas de figure dans le libre.
Bien sûr, il y a des programmeurs qui font de petites choses sur leur temps libre. Des étudiants, retraités ou le modèle “faire du logiciel propriétaire la journée et du libre la nuit”.
Mais les plus gros projets payent leurs programmeurs et ont besoin d’argent. La vente de services et certifications est un modèle courant.
Il serait peut être temps que nos dirigeants s’intéressent à l’impact de l’informatique sur notre balance du commerce extérieur.
Franchement, on se demande ce qu’attendent les autorités pour interdire aux constructeurs de mettre des puces sur les cartouches ou de multiplier les brevets dessus.
Rien que le fait d’avoir un dispositif pour détecter si la cartouche est “authentique” devrait être totalement interdit.
Le problème n’est pas tant le principe de la subvention que le fait qu’elle soit toujours et systématiquement versée aux seuls membres d’une “caste d’élite” autoproclamée de la culture, un cercle très fermé dans lequel on ne rentre que si on fait parti des amis/relations proches d’une poignée de familles qui tiennent historiquement le cinéma Français dans leurs pognes depuis plusieurs décennies, c’est a la limite de la consanguinité ce milieu. (c’est encore pire que chez les politiques, c’est dire)
Du coup alors que dans la théorie une bonne partie de ces aides sont prévues pour aider des jeunes à percer en fait quand un jeune réalisateur indépendant veux produire un truc original, ou qu’un nouvel acteur prometteur veux percer, s’ils ne font pas partie de la caste des maîtres ils se font systématiquement barrer la route pour ne surtout pas faire d’ombre aux copains en place ce qui débouche sur la vacuité intersidérale du cinéma Français actuel dans lequel ne peuvent s’exprimer qu’une poignée de wanabe réalisateurs avec plus de prétention/arrogance que de talent et des acteurs à l’avenant … " /> (c’est le même problème que dans la musique où les financements pour aider les jeunes talents finissent en fait dans les poches des Johnny (Walker " />), Sardou, ou Goldman … " /> )
C’est très bien résumé.
Et malheureusement, il y a de nombreux exemples comparables dans le système français.
Plutôt que de verser des aides sectorielles qui créent des rentes nuisibles, on ferait mieux de créer un revenu citoyen pour tout le monde. Cela aiderait directement les jeunes créateurs prêts à vivre de peu pendant quelques années pour travailler sur leur oeuvre.
Le
29/09/2016 à
18h
23
C’est le scandale du cinéma français subventionné qui aboutit à gaspiller notre argent pour encourager la production au kilomètre de navets immondes vite faits, mal faits.
Il y a 30 ans, notre industrie du cinéma était l’une des plus brillante. Aujourd’hui, c’est devenu une grande machine à fric qui ne se préoccupe plus réellement du spectateur.
Il est urgent de cesser de subventionner le cinéma si l’on veut que ce domaine ait un futur en France.
Normalement un bound check ne nécessite pas d’accès mémoire supplémentaire et ne pose pas de problème de branche. Je ne vois pas pourquoi il devrait faire perdre des dizaines de cycles.
Pour réaliser un bouncheck, le CPU doit forcément disposer d’une information de borne. Et il n’y a pas de magie, celle ci viens forcément de quelque part.
Même si c’est codé en dur dans le programme en LM… ça viens aussi de la mémoire et il faut donc bien un accès mémoire pour l’obtenir(ainsi que pour les instructions proprement dite).
Mais je comprendre ce que tu as voulu dire. Quand la borne est connue à la compilation, ça peut être intégré dans le code, ce qui est un moindre mal en terme d’accès mémoire. Mais dans le cas contraire, il faut bien aller chercher l’information quelque part et c’est le genre d’accès qui fait mal. Et l’on ne peut quand même pas dire que dans un programme il soit possible ou optimal de fixer en dur la taille de toutes les zones avec lesquelles le programme devra travailler.
Je ne nie pas que le bound checking peut avoir en effet un impact sur certains cas particuliers. Mais dans la très grande majorité des cas l’impact est négligeable voire nul s’ils peuvent être éliminés.
Encore faut t’ils qu’ils puissent être éliminés. Qui dit optimisations poussées dit bien souvent stratégies d’accès mémoires sophistiquées basées sur des calculs d’adresse, des structures complexes. L’optimiseur ne pourra rien déduire sur les adresses d’accès, donc ne pourra pas éliminer le bound checking. Encore une fois, on ne peut pas résumer un programme à des cas particuliers simples.
Quand au débat sur le nombre de cas de figure qui prennent un gros ralentissement avec le bound checking, c’est juste un très mauvais débat. En informatique, tous les algo (ou presque), toutes les stratégies d’accès mémoire ont leur utilité à un moment ou un autre.
L’optimisation, c’est justement l’art de rendre optimal des cas particuliers, parce que les performances d’un programme peuvent dépendre d’un cas particulier. Si c’est l’algo dont tu as absolument besoin pour ton programme qui n’est pas optimal avec le bound checking, ça te fera une belle jambe de savoir que tu est dans “un cas particulier”. En informatique, selon la loi de Murphy il y a des cas particuliers tous les jours et particulièrement dans l’endroit le plus critique du programme que tu est en train d’écrire. " />
Pour conclure, je dirais que cela fait des décennies que les deux écoles s’affrontent. Ce n’est pas demain que le débat cessera…
Le
29/09/2016 à
20h
20
zefling a écrit :
En même temps, l’exemple du JV n’est peut être pas le bon, vu qu’une très grosse partie c’est la CG et de ce côté là, j’ai pas franchement l’impression qu’il y ait un ralentissement, surtout vu les besoins à venir en 4K puis 8K. Par contre, niveau processeur, pour pas mal de chose, les besoins sont loin d’être aussi important.
Non, c’est une idée reçue totalement fausse.
L’usage du processeur touche le plus souvent au coeur du jeu lui même et il n’est pas facile de faire “varier la qualité” comme pour les graphismes. Et comme les éditeurs sont obligés de tenir compte des machines modestes, ceux qui ont une machine puissante peuvent avoir l’impression que ce n’est pas le facteur limitant.
Mais entre un moteur de jeu qui est écrit en C# ou Java et un autre qui est écrit en C/C++, on voit nettement la différence.
Uther a écrit :
On en a déjà parlé sur d’autre sujets : tu surestimes énormément le coût du bound checking. Ce qui coûte beaucoup en performance dans les langages managés c’est plutôt le typage dynamique, le GC, et autres mécanismes lourds qui imposent un runtime.
A priori WebAssembly évite tout ça. Et même pour le bound checking, l’optimiseur est capable de détecter et de supprimer les bound checks inutiles.
Non, je ne surestime pas du tout le cout du bound checking. Et sincèrement, je pense que tu devrait en discuter avec des programmeurs spécialistes de l’optimisation.
D’abord, les accès mémoire, c’est la bête noire des ordinateurs modernes. Un processeur peut se tourner les pouces pendant des dizaines de cycles pour un simple “cache miss”. Et sur certains algo, le bound checking ça coûte cher.
L’optimisation dont tu parles, elle n’est possible que sur des cas très simple ou le compilateur peut déterminer précisément l’intervalle d’accès.
Bien sûr, avec de la programmation courante qui va au plus facile et qui gaspille l’essentiel de la puissance dans l’usage immodéré des balayages simples de tableaux, tu peux avoir l’illusion que cela fonctionne aussi bien avec du bound checking que sans.
Mais sur un programme extrêmement optimisé, on fait usage de structures beaucoup plus variées et complexes et d’algorithmes beaucoup plus sophistiqués. Et c’est sur ce genre de programmation que le vrai cout du bound checking apparaît clairement.
Le
28/09/2016 à
21h
49
zefling a écrit :
Je vois pas trop le rapport avec la loi de moore qui parle du doublement de nombres de transistors double tous les 2 ans. Puis c’est le coût qui va l’arrêter, ça devient trop cher chercher à faire toujours plus fin :http://www.silicon.fr/fin-loi-de-moore-debut-incertitude-139238.html
Si les machines avaient pu continuer à gagner en puissance de traitement autant qu’avant, elles auraient pu effacer rapidement la différence.
Par exemple, un jeu vidéo conçu en C/C++ pour les architectures actuelles aurait pu tourner à la même vitesse sur l’architecture suivante malgré l’ajout de bound checking.
Malheureusement, avec l’évolution actuelle des machines, il faudrait attendre bien trop longtemps.
Le
28/09/2016 à
19h
42
Uther a écrit :
Vu que la technologie n’est pas encore finalisée loin de là, c’est difficile de dire précisément quelles seront les performances. Vu qu’il s’agit d’un bytecode qui vise bien plus bas niveau que pour le Java, il y a moyen que les résultats soient largement assez bon pour que ça soit acceptable.
Pour moi si on arrive a être dans l’ordre de -20% par rapport au natif sans cas particuliers bloquants, la perte est tout a fait dans l’ordre de l’acceptable. Après tout les développeurs grand public arrivent déjà a vivre avec des écarts bien supérieurs à ça en matière de performance des machines qu’ils supportent.
Pour ce qui est de l’acceptation, il faut quand même voir qu’il est soutenu par tous les principaux fabriquants de navigateurs. En fait il n’y a pas de technologie récente qui ait fait autant l’unanimité avant même de s’être montré réellement.
Le but du WebAssembly est justement a terme que tous les langages puissent compiler vers lui, donc non ça ne met techniquement pas de langages de coté.
Après on reste encore dans la théorie c’est vrai, Il y a plein de points sur lesquels on n’est pas encore fixé. C’est bien pour ça que je parlais de “trop tôt”.
Pour les progrès, ne rêvez pas trop. Les problématiques de bas niveau des langages sont bien connues depuis des décennies. Il y a une armée de gens qui ont bossé la dessus.
Les pertes de performances, elles sont causées principalement par le bound checking. Pour faire simple, il n’y a pas de solution technique pour éviter la perte de performance dans ce contexte.
Que les principaux éditeurs de navigateurs soient d’accord, c’est bien. Mais ceux qu’il faudra convaincre, c’est les créateurs de logiciels.
Croyez le ou non, on n’écrit pas un logiciel à haute performance en C/C++ pour se retrouver avec les performances de Java.
En tout cas, pas en ce moment avec la loi de moore qui s’essouffle…
Le
28/09/2016 à
19h
28
TheKillerOfComputer a écrit :
Mais ne pas se diversifier, c’est la mort assurée à moyen-terme. D’accord c’est une fondation et non une entreprise, mais quand on voit à quel point Chrome a gagné en terrain, on ne peut pas ne pas envisager une éventuelle mort de Firefox non plus. Se recentrer dessus peut permettre de maintenir sa place… ou ne rien changer, et là avoir d’autres projets en main est une bonne chose.
Mais bon... Au final, Thunderbird, Hello, Firefox OS... Ça fait beaucoup d'abandons. Mozilla se meurt lentement et sûrement, et on n'aura bientôt plus que les outils Google.
La diversification, c’est à double tranchant.
Quand on disperse ses moyens, on risque aussi d’aboutir a plusieurs produits dont aucun n’est assez bon pour être compétitif. Et ça, c’est la mort assurée.
Ensuite, rien ne dit que les projets de diversification auraient été meilleur que le créneau du navigateur.
Si Chrome a réussi à tailler des croupières a Firefox, c’est en partie parce qu’il a réussi à une époque à le dépasser largement sur le plan des performances.
Nous sommes dans un monde ou il n’y a plus de place pour les second.
Le recentrage sur coeur de métier est un classique de la gestion d’entreprise.
Le
28/09/2016 à
16h
50
Excellente décision de la part de Firefox qui peut maintenant mieux se concentrer sur son corps de métier sans se disperser.
Uther a écrit :
Justement c’était le but avec Firefox OS. Pousser les application basées sur les technologies Web qui seraient facilement portables sur tous les OS. Malheureusement c’était a la fois trop tôt et trop tard :
- Trop tôt car il aurait fallu que WebAssembly et qu’un WebVulkan soient parfaitement opérationnel pour espérer avoir des performances correctes pour les applications comme les jeux.
- Trop tard car Android et iOS étaient déjà incontournables.
Même avec un WebAssembly on perds énormément de puissance par rapport au natif.
Le monde commercial a les moyens d’imposer aux programmeurs des langages qu’ils n’aiment pas, des technologies médiocres. Mais dans le libre, personne ne suivra un Os qui n’est pas multi-langages et/ou dont les principes ne font pas l’unanimité.
Et il y a une bonne raison à cela : Le monde du logiciel libre capitalise beaucoup plus que le logiciel privateur sur la base de code mise en commun pour compenser sa moindre puissance financière.
Dans le libre, il est évident qu’il est totalement impossible de jeter aux orties des décennies de programmation pour repartir de rien.
La meilleure chance pour le mobile libre ? C’est Linux lui même avec des applications natives. Economie de mémoire, meilleures performances. Véritable logithèque sérieuse déjà existante. Convergence avec le desktop. Elle est la l’innovation de rupture…
La jurisprudence en terme de dommages-intérêts est de rembourser les pertes causées par la malveillance ; les juges n’avaient pas d’autre choix que de condamner Kerviel à rembourser les pertes.
Parler de malversation est un peu fort dans la mesure ou le but de l’opération était de générer des profits pour la banque et non pour lui même.
Il me semble plus juste de parler de dérive professionnelle ou de faute professionnelle.
Dans ce cadre, la responsabilité n’est pas forcément aussi binaire.
Parce que dans un contexte professionnel ou l’on met la pression aux employés pour qu’ils obtiennent des résultats, il n’est pas rare de voir des gens péter les plombs et faire n’importe quoi.
J’oubliais en effet le throttling qu’ont probablement tous les CPU grand public de nos jours (voire pro) ; ça a dû être ajouté à l’époque où un CPU pouvait cramer déjà sans ventirad (on voyait des vidéos au début des années 2000), il y a eu aussi le Pentium 4 avec ses variantes à plus de 100 W (130 pour le max ? " />). Avec ventirad aucune idée du risque, mais sur un processeur qui approche les 100 W on pige que ça puisse bien chauffer, surtout sur un petit volume.
Oui, il y avait bien des modèles à 130w. Et justement, ce n’est pas un hasard si le throthling date du pentium 4. Mais les pentium 3 plantaient déjà sans cramer.
Les très vieux Athlon d’AMD par contre pouvaient vraiment cramer. L’incendie est théoriquement possible, mais pas pour autant garanti : comme on le voit sur les images plus bas, le CPU crame, mais comme il n’y a rien de combustible à proximité, ça ne prends pas feu pour autant.
YouTubeEt encore, c’est à condition de perdre totalement le dissipateur, dans le cas d’une simple panne du ventilo, c’est beaucoup moins grave, la surface de dissipation restant très grande.
Le
23/09/2016 à
17h
37
Tiens, pour ceux qui veulent vraiment se faire peur. Regardez ce qui existe dans certains pays…
Pourtant les datacenters sont construits avec du matériel professionnel, et sont bardés de détecteurs de fumée et d’incendie (chaleur).
Un datacenter concentre une quantité colossale de matériel électronique. Et le moindre incident peut signifier de grosses pertes financières.
Imagine les pertes cumulées de milliers de sites de vente en ligne pour seulement quelques heures d’interruption, tu comprendra pourquoi les datacenter sont blindées de sécurité.
Un ventilateur de CPU qui tombe en panne sur un PC grand public, ça peut selon l’overclocking faire au minimum fumer le matériel.
Pas du tout. Et les ventilateurs de CPU en panne, j’en ai vu beaucoup.
Un CPU qui surchauffe va partir en “throttling”, ce qui signifie qu’il va ralentir automatiquement. Cela n’évite pas forcément les dommages au circuit si on insiste, mais cela évite le risque d’incendie.
Même à l’époque ou les CPU n’avaient pas ce genre de dispositif, la taille des radiateur était suffisante pour que la ventilation passive évite le risque d’ignition.
L’Overclocking ? Les PC “grand public” n’ont pas cette capacité la de nos jours. Il faut acheter du matos spécialisé.
Et même avec l’overclocking : parmi les “kamikazes” les plus imprudent qu’il m’ait été donné de rencontrer (et il y a du lourd…) aucun n’a réussi à mettre le feu à sa tour. J’ai déjà vu des carte mères qui n’étaient pas belles à voir. Mais griller c’est une chose, prendre feu c’en est une autre : les cartes sont bourrées de produits pour éviter l’incendie.
Bien sûr, cela ne signifie pas pour autant que cela n’arrive jamais. Mais en pratique c’est rare…
Pour trouver des produits électroniques dangereux et capables de prendre feu ou de vous électrocuter, il faut se tourner vers la contrefaçon ou l’import chinois sauvage. La, il faut vraiment faire très attention " />
Le
23/09/2016 à
16h
39
Séphi a écrit :
Une électronique correctement conçue coute cher.
On n’est pas dans l’exemple d’une imprimante ou un écran vendu le moins cher possible au grand public….
Contrairement aux idées reçues, on observe aujourd’hui une certaine décorrélation entre la qualité de conception et le prix des produits.
Par exemple, on trouve parfois des condensateurs de marque Rubycon réputés d’excellente qualité dans des imprimantes vendues peu cher et des composants de merde dans des écrans hors de prix.
Il serait naturel de penser que les produits les moins chers sont les moins étudiés. En pratique, c’est plutôt l’inverse. Ce sont les produits les plus vendus qui sont les plus étudiés et maîtrisés parce qu’en cas de panne sous garantie, le constructeur perdrait gros.
D’une manière générale, tous les produits électroniques mis sur le marché sont très étudiés(en dehors de l’import chinois sauvage). Les produits électronique qui prennent feu, c’est vraiment très rare. Même après des décennies d’utilisation. Il y a des protections et pas qu’un peu : Les fabricants ne sont pas fous.
Le
23/09/2016 à
16h
11
OlivierJ a écrit :
“Le phénomène de obsolescence programmé est nouveau” : non mais “LOL”, le concept a plusieurs décennies, alors le “mal compris dans sa mise en oeuvre”, tu prends les gens pour des bêtas.
Le fait qu’il s’agisse d’un concept ancien n’empêche pas sa généralisation récente.
La raison pour laquelle il est encore mal compris, c’est que nos écoles produisent essentiellement des profils ultra spécialisés qui ont une mauvaise vision globale et sont mal placés pour comprendre des problématiques qui sont interdisciplinaires.
C’est beau de vouloir étudier, encore faut t’il être savoir quoi chercher. Et quand on ne regarde pas au bon endroit, il n’est pas étonnant de ne rien trouver.
Tu t’entête un peu comme Windows qui cherche à imposer son phone win10 (mais dans le sens inverse). Il faut encore un peu attendre, maintenant, c’est voir si Android va s’imposer sur PC.
L’autre Linux qui pourra s’imposer (mint ou ubuntu) devra avoir les reins solides et des capitaux pour imposer l’un de leur os, un don ou un abonnement comme sur NXI, n’est-ce pas du soutien ? (plus un os est soutenu, plus des investisseurs viendront)
Le problème, c’est qu’on aboutit de plus en plus à un système ou ce n’est plus les qualités d’un produit qui emportent le choix du consommateur, mais la quantité d’argent dont disposent les entreprises pour faire sa promotion et le buzz.
Et malheureusement pour tout ceux qui voient le web comme une liberté, l’internet moderne est beaucoup plus vulnérable à la transformation des capitaux en popularité que ne l’était le système d’information traditionnel.
Notre problème en tant que Français, c’est que les plus grandes sociétés ne sont pas ici.
Dit autrement, si nous ne faisons rien, notre futur économique sera sombre.
A la question de savoir si Linux emergera malgré l’absence d’une société très richement doté en capitaux pour tenter de l’imposer, je dirais qu’il existe d’autres voies.
De nombreux pays ont d’ores et déjà compris qu’il allait de leur intérêt économique de pousser le developpement de Linux.
Le
27/09/2016 à
22h
06
Konrad a écrit :
Juste pour nuancer : ce n’est pas la vente liée qui est interdite aux commerçants. La vente liée est tout à fait légale, et utilisée dans de nombreux domaines.
Ce qui est interdit, c’est la vente forcée : si deux produits sont vendus ensemble (par ex. smartphone + forfait), et qu’il est impossible de les acheter séparément, alors c’est illégal.
À partir du moment où il est établi que Windows est un produit à part, alors forcer le consommateur à acheter Windows avec un PC constitue bien une vente forcée (car il est impossible d’acheter le PC seul). C’est cela qui est illégal sur le principe.
Je note que tu fait cette distinction.
Le seul produit fini qui soit commercialisé auprès du grand public, c’est le smartphone (ou la tablette) avec OS. Et cela constitue bien UN SEUL produit. Seul ce produit-là (appareil+OS) se trouve dans le commerce. On ne peut donc pas parler de vente liée, puisqu’ils ne sont pas proposés séparément à la vente auprès du public.
Pour ma part, je ne suis pas d’accord sur le principe.
Le smartphone est techniquement un ordinateur au même titre qu’un PC. D’ailleurs, pour beaucoup d’utilisateurs, ils tends à le remplacer.
Le fait que l’Os d’un smartphone ne soit pas vendu séparément ne change rien au fait qu’on impose son payement au consommateur sans possibilité de choix alternatif ou de libre concurrence. (Au passage, précisons que même un Os “gratuit” peut supposer payement indirect).
Le
27/09/2016 à
18h
29
trekker92 a écrit :
quand t’es entouré d’étudiantes en RH et que leur cegid ou autre tourne pas sous nux..
Donc, cela ne concerne que des usages spécifiques.
Le fait de garder des postes sous Windows pour certains usages spécifiques n’empêche pas une entreprise de passer sous Linux.
Vrai, en partie : pour une minorité d’utilsiateurs ayant du bon sens, elles s’y feront rapidement. La majorité d’autres sont encore un peu paumées avec leur windows habituel sur certaines procédures rares, changer catégoriquement le systeme va les perdre à jamais. Je te parle ici du gros segment de celles qu’ont pas le meme ordi a la maison ou qu’elles utilisent moins de cinq heures par semaine.
Et quand c’est Windows qui change, elles font quoi ces personnes ?
Parce qu’entre Windows 7 et Windows 8, il y a eu de sacré changements qui ont été imposés à l’utilisateur.
De la même manière quand Microsoft a décidé de passer à l’interface à rubans, le changement à été majeur.
Linux permet au contraire de garder bien plus longtemps l’environnement qu’on préfère car personne ne décidera à votre place que vous devez changer vos habitudes.
faux, ils peuvent avoir certains besoins identiques, mais aucun utilisateur n’a completement les memes besoins d’un autre
C’est bien pour cela que Linux fait mieux que Windows en proposant plusieurs environnements.
bon courage pour proposer une alternative à photoshop, avid, ou autres logiciels semi-pro utilsiés par des particuliers.
Je suis passé de Photoshop à Gimp en usage pro. Alors si un particulier me dit que son usage nécessite absolument Photoshop, alors la, franchement je me marre.
D’ailleurs, la plupart du temps, les particuliers n’ont pas les moyens d’acheter tous ces softs pro. Ils blindent leurs PC de logiciels piratés avec pleins de malwares (parce que téléchargés n’importe ou). Tout ça pour n’utiliser que 5% de leurs fonctionnalités et être dans l’illégalité. Une illégalité qui leur fera prendre de très gros risques le jour ou ils voudront se mettre à leur compte. " />
Donc oui, pour les particuliers, il y a largement de quoi faire avec la logithèque libre. Entre Gimp, Krita, Kdenlive, Openshot et autres, il faut être de mauvaise foi pour dire que le besoin du particulier dépasse ce que proposent ces softs.
sous slitaz, bon courage. Sous fedora, sans gnome/KDE, bon courage également.
Logiquement, un débutant n’ira pas s’aventurer en dehors des distributions et environnements courants.
bon courage avec les .ppchose fournis par certains fabricants (lexmark, canon, epson) on a déjà dit que seul hp était réglo la dessus.
L’une des premières règles qui tombe sous le sens quand on passe à Linux, c’est de choisir du matériel réputé compatible. Moi je n’aime pas être embêté, j’achète ce qui va bien.
Avant HP, j’avais du Canon. Et le driver libre me donnait satisfaction.
Même en dehors de HP, de nombreuses imprimantes sont supportés en standard sans devoir installer quoi que ce soit parce que les drivers sont déjà intégrés dans les distributions.
seulement pour les informaticiens, les autres appréhendent mal parce qu’ils aiment pas ce qu’ils connaissent pas (ex: word vs libreoffice..)
Ce qui signifie que former des gens à un produit propriétaire revient à créer une dépendance qui perdurera longtemps dans le temps. Avec les conséquences que cela implique a long terme sur notre balance du commerce extérieur.
Nos élus devraient donc réfléchir un peu plus avant de former les collégiens à Office et de laisser vendre des machines préinstallées sous Windows sans aucune possibilité de choix.
certes, mais les 300 maj mensuelles de fedora, ca fait un an et demi que je les fais plus. Trop chiant.
Franchement, tu est bien le seul.
Parce qu’entre le système de mise à jour de Windows et ceux de Linux, franchement, il n’y a pas photo.
Quand je doit attendre qu’un Windows 10 finisse ses mises à jour, ça me gonfle.
Grace à sa capacité à remplacer des fichiers a chaud, Linux peut se mettre à jour pendant que la machine fonctionne, ce qui me fait gagner un temps monstrueux.
windows10 devait pas simplifier tout ca? Je dev pas windows moi..
Le problème, c’est que le monde du logiciel propriétaire n’est pas unifiable aussi facilement que le monde du libre.
En distribuant librement les logiciels et les sources, le monde du logiciel libre à permis de simplifier de manière drastique la distribution.
C’est la raison pour laquelle la distribution de logiciels est unifiée et simplifiée depuis très longtemps dans le monde du logiciel libre mais que cela reste un voeux pieu dans le monde du logiciel propriétaire.
Demander aux gros éditeurs de renoncer à leurs systèmes de licence et d’abonnement, leurs systèmes anti piratages et la segmentation marketing de leurs offres, je leur souhaite bon courage.
c’pas nosu qui décidons, on explique pourquoi la CJUE est allée dans cette décision.
Pour ma part, je pense que cette décision est passée à côté de considérations importantes.
L’intérêt du public, c’est aussi qu’il existe une concurrence.
bah ils ouvrent pas de fenetres intempestives au démarrage (sauf av, ok d’accord)
Un crapware peut fonctionner et ralentir la machine sans pour autant ouvrir de fenêtre.
jsuis pas vendeur chez auchan/carrefour/leclerc. Mais ils poursuivront leurs méthodes puisque fonctionnelles.
bah c’est comme les aides, faut bien décourager les gens pour faire des économies. C’est pas moral, c’est économique.
D’ou le fait qu’il existe des lois pour forcer le monde du commerce à respecter certains intérêts du consommateur.
Et comme le dit Konrad, on se demande bien pourquoi dans l’informatique on devrait accepter la vente liée alors qu’on l’interdit aux commerçants dans tous les autres domaines.
Le
26/09/2016 à
19h
22
JoePike a écrit :
Ah ben vous allez avoir de pb avec vos voitures
Les mecs de chez Renault et Nissan n’ont pas choisi le libre
Si tu veux mon avis, je dirais que sur ce coup la, ils ont vraiment intérêt à assurer à mort s’ils ne veulent pas que ça se retourne contre l’image du logiciel propriétaire.
Parce qu’une voiture, ça n’est pas un PC ni une tablette, ça coûte beaucoup plus cher et les gens s’attendent logiquement à ce que cela dure beaucoup plus longtemps.
Que penseraient les gens qui achèteraient une voiture d’occasion de 10 ans d’age (ça reste jeune pour une voiture) si les services associés à tout ces gadgets n’étaient plus fonctionnels ou compatibles ce jour la ?
Espérons pour eux qu’ils ont bien prévu de faire fonctionner ces services au moins 20 ans. Dans la cas contraire, ça fera d’excellents arguments pour le logiciel libre.
Le
26/09/2016 à
17h
07
trekker92 a écrit :
Okay, remarque juste, mais qui n’englobe pas tout le contexte économique :
certes, la librairie d’outils est enrichie, mais le ssoft proprio t’en fais quoi? ca tourne sous windows, quitte à payer, la prod en a besoin
La grande majorité des utilisateurs, même dans un contexte professionnel n’utilisent que les logiciels de base(navigateur, suite bureautique) et seulement 10% des fonctionnalités de ces softs. Donc pour la majorité des gens, l’argument ne tient pas.
Même s’il existe encore des cas ou le besoin de logiciels spécifiques n’existant pas encore sous Linux peut obliger à conserver un Windows, c’est plutôt l’exception.
l’adaptation à linux? t’as pas oublié l’énorme partie de formation pour tous les utilisateurs, notamment les plus déboussolés qui vont mettre au moins un an à appréhender le nouveau systeme?
Absolument pas.
Trouver le menu pour lancer les logiciels demande tout au plus quelques minutes. Et apprendre à se servir de l’explorateur de fichiers qui est assez similaire à Windows ne demande guère plus.
En pratique, les utilisateurs que j’ai passé sur Linux étaient parfaitement à l’aise au bout de quelques heures.
Bien entendu, je parle d’un cas ou les conditions d’accès sont similaires à Windows, c’est à dire que l’utilisateur reçoit une machine préinstallée.
, aucun gestionnaire de bureau (kde, gnome, lxde) ne fonctionne pareil,
Ce qui permet objectivement une meilleure adaptation aux goûts et besoins des utilisateurs. Linux propose des environnements spécialisés pour chaque besoin.
Par exemple, le professionnel n’a pas les même besoin que l’utilisateur débutant occasionnel.
Il y a même ce qu’il faut pour les utilisateurs qui veulent quelque chose qui se rapproche de Windows.
Préférer l’absence de choix de l’environnement sur les Os propriétaires me fait penser à ceux qui vantaient le système soviétique à une époque en prétendant que nos magasins proposaient trop de choix.
et les imprimantes? c’est juste la grosse cata sous linux
pire encore de l’isntaller du premier coup… en usb… en réseau, en wifi? t’oublies, c’est pour ca que j’ai toujours un windows en parallele : une imprimante sous nux, c’est mini deux heures d’installation quand tout est maché par le fabricant, sous windows en quinze minutes c’est plié t’imprime :
Ah bon ?
C’est vraiment si compliqué d’aller dans la section “imprimantes” de l’administration et de cliquer sur “ajouter” ?
Même dans les cas ou il faut installer un driver, comme pour les imprimantes HP, j’ai du mettre 10 minutes à tout casser pour une imprimante réseau fonctionnant en Wifi.
l’environnement pro nécessite fiabilité et rapidité, n’oublie pas, en plus d’une compatibilité énorme avec les applications propriétaire windows-only.
Honnêtement, je ne comprends pas comment on peut affirmer cela.
Parce que justement, en environnement pro, on a gagné un temps monstrueux avec Linux.
Rien que le gestionnaire de paquet fait gagner un temps monstrueux au quotidien dans l’installation et la mise à jour de l’Os ET des logiciels.
L’absence de licences à gérer et d’activations à faire, c’est aussi beaucoup de temps gagné et de prises de tête en moins.
Et cela sans compter le fait que les logiciels propriétaires font perdre un temps monstrueux à l’achat : En plus de payer, on doit se perdre dans les méandres des segmentations marketing de chaque éditeur. Quel version de Windows ? Quel version de tel ou tel soft pour quel prix ?
A l’inverse, les logiciels libres sont gratuits ET “full options” en standard. Pas de prise de tête, pas de temps perdu à éplucher les docs commerciales des éditeurs pour comprendre les différences entre la version X et la version Y du même logiciel.
Avec les logiciels libres, pas de galère en cas de réinstallation ou de changement de matos.
sauf que ces logiciels crapware, comme tu dis, sont bien souvent très décoratifs et ont un role en arriere plan majeur : les utilisateurs s’en foutent et les lancent jamais, et sont fournis gratos avec l’ordi==> importance vraiment minime.
Parce que tous les crapwares attendent sagement qu’on les lance ?
c’est une super solution… tu penses pas qu’on y aurait pensé avant? jsuis bete! j’ai du renvoyer mon ordi chez toshiba pour un petit détail que t’oublies :
le remboursement du logiciel est à la discretion du fabricant, qui certifiera auprès de microsoft que la bete est désisntallé : ceci ne peut etre fait que dans un environnement professionnel, certifié par un technicien de base (qui n’est pas le client).
donc le truc à distance, ca marche pour 90% de l’idée, mais les 10% restants de vérification/validation (sinon ca encourage la fraude) empeche simplement la procédure de se dérouler.
Alors si je comprends bien, pour installer un logiciel, le payer et l’activer, on peut tout faire en ligne, ça va, il n’y a pas de risque de fraude ?
Par contre, le contraire, c’est pas possible ?
Pourtant, un grand vendeur de logiciels comme Steam propose bien la possibilité de se faire rembourser des logiciels achetés.
tu veux un avis tiers? Chez toshiba, on m’a soufflé qu’ils avaient pensé à cette procédure, mais qu’ils s’etaient fait tapés sur les doigts par MS car au début ils vérifiaient pas physiquement si le disque dur du pc était bien formaté… donc pas de preuve, ils auraient très facilement pu se bouffer des procès.. pour une licence à $40.
Ah le monde du commerce.
Quand il s’agit de vendre, comme par miracle tout est simple.
Mais pour se faire rembourser, comme par hasard, c’est toujours compliqué.
Le
25/09/2016 à
20h
17
Haemy a écrit :
Il faut se mettre à la places du commerçant aussi, vous choisissez quoi entre:
1 être payé pour préinstaller un os stable qui fonctionne à 100% avec tout les logiciels propriétaires/libre.
2 Perdre de l’argent pour préinstaller un os qui ne contient aucun logiciel propriétaire, pas de concurrent libre viable ou peu et qui est utilisé par 3% d’utilisateurs. peut planter n’importe quand et nécessite des connaissances quand c’est le cas.
Ceux qui veulent bidouiller installeront quand même linux, les autres, mac.
Les choses changeront quand les mainteneurs de distributions s’allieront et feront un kickstarter potentiel au lieu de faire 42 mille fork dans leurs coins qui n’apporte pas à grand chose si ce n’est des modifications visuels.
Oh le beau troll.
Linux est pourtant réputé être un os d’une grande fiabilité. Pas étonnant pour un Os utilisé majoritairement par des Pro.
Au passage, une machine préinstallée signifie que tout le travail d’installation des drivers, la certification de compatibilité des composants avec l’Os et le contrôle de stabilité sont fait en amont par le constructeur.
Windows jouit de conditions idéales tandis que Linux essaye de gérer le plus difficile : installation en seconde monte, sur machine non certifiées et réalisées par des amateurs.
Quand aux logiciels libres que tu qualifie de “pas de concurrence viable”, tu fera le calcul de combien il faut débourser en logiciels propriétaires pour faire l’équivalent de ce que permet aujourd’hui la logithèque libre de Linux : ça se passe de commentaire.
Le
25/09/2016 à
18h
54
trekker92 a écrit :
c’est pas nous qui défendons la vente forcée, c’est la cjue
ce que je défend :
le caractere identique de la vente liée par rapport au matériel : d’un point de vue GP, tata alouette elle veut l’ordi ET windows parce que sinon elle saura/voudra pas faire.
le caractère impossible du choix en magasin : trop de logistique, trop de changements sur la chaine fabrication > distribution : l’investissement pour trois geeks ne sera pas rentable, ils le feront jamais, de leur coté je comprend tres bien qu’ils s’opposent a l’idée
Pourtant, un simple code d’activation suffirait à rendre Windows optionnel sans créer de logistique supplémentaire.
On peut imaginer de nombreux systèmes différents pour ne pas devoir intervenir sur les machines.
…
et enfin, c’est pas les geeks qui décident, mais le GP qui veut son windows coute que coute..
Il est évident que l’intérêt même du grand public n’est pas qu’un seul produit règne en maître.
Économiquement parlant, l’absence de concurrence, c’est le mal.
La position de la France et la décision de la CJUE “dans l’intéret du public” sont donc discutables.
4322 commentaires
Kerbal Space Program perd neuf cadres de son équipe de développement
05/10/2016
Le 05/10/2016 à 14h 00
Le 05/10/2016 à 13h 47
Taxe Copé sur les opérateurs : 1,5 milliard d’euros collectés entre 2009 et 2015
04/10/2016
Le 04/10/2016 à 17h 18
Le 04/10/2016 à 13h 49
Le 04/10/2016 à 13h 44
En fait, ce genre de taxe est un impôt masqué. Et la France est championne dans ce genre de sport.
L’avantage de l’imposition masquée, c’est que le contribuable de base ignore totalement combien l’état lui prends au total.
Microsoft arrêtera la vente de licences Windows 7 et 8.1 le 31 octobre
04/10/2016
Le 04/10/2016 à 13h 56
Le noyau Linux 4.8 disponible, nouveaux pilotes et sécurité au programme
03/10/2016
Le 03/10/2016 à 17h 28
Activision va vendre des Skylanders imprimés en 3D avec Imaginators
03/10/2016
Le 03/10/2016 à 17h 26
Le gouvernement veut dématérialiser les demandes de RSA
03/10/2016
Le 03/10/2016 à 16h 46
École : 191 millions d’euros pour le plan numérique en 2017
01/10/2016
Le 02/10/2016 à 16h 58
Le 01/10/2016 à 23h 24
Le 01/10/2016 à 22h 51
Le 01/10/2016 à 22h 31
Le 01/10/2016 à 21h 33
Le 01/10/2016 à 21h 18
Le 01/10/2016 à 21h 09
Le 01/10/2016 à 20h 53
Le 01/10/2016 à 20h 40
Le 01/10/2016 à 20h 35
Le 01/10/2016 à 20h 29
Le 01/10/2016 à 20h 16
Le 01/10/2016 à 19h 44
Le 01/10/2016 à 19h 39
Finalement, la décentralisation n’a abouti qu’a un éparpillement des investissements et a créer des disparités entre les français.
Par contre, le manque de stratégie au niveau national est préoccupant.
Comment peut t’on oser distribuer des tablettes alors que ce ne sont pas des outils de création ?
Notre pays à besoin de dénicher des talents, pas de niveler par le bas avec des outils limitatifs.
La redevance TV sera de 139 euros en 2017
28/09/2016
Le 01/10/2016 à 18h 10
Le 29/09/2016 à 21h 08
Le 28/09/2016 à 18h 29
Le 28/09/2016 à 16h 58
#Replay : avions électriques, golems et traducteurs automatiques
30/09/2016
Le 01/10/2016 à 06h 54
… Pourtant, cela ne risque pas d’arriver demain. …
IMHO, je pense que cela prends beaucoup plus de travail aux professionnels qu’on ne l’imagine.
Parce que ça aide énormément celui qui a un niveau faible à moyen dans une langue.
Même dans le domaine pro, on se contente souvent de traductions passables mais compréhensibles.
HP et les cartouches non-officielles : des imprimantes bloquées, une mise à jour arrive
30/09/2016
Le 30/09/2016 à 23h 44
Il serait peut être temps que nos dirigeants s’intéressent à l’impact de l’informatique sur notre balance du commerce extérieur.
Franchement, on se demande ce qu’attendent les autorités pour interdire aux constructeurs de mettre des puces sur les cartouches ou de multiplier les brevets dessus.
Rien que le fait d’avoir un dispositif pour détecter si la cartouche est “authentique” devrait être totalement interdit.
Les ressources affectées au cinéma et à l’audiovisuel trainées devant la CJUE
29/09/2016
Le 30/09/2016 à 19h 07
Le 29/09/2016 à 18h 23
C’est le scandale du cinéma français subventionné qui aboutit à gaspiller notre argent pour encourager la production au kilomètre de navets immondes vite faits, mal faits.
Il y a 30 ans, notre industrie du cinéma était l’une des plus brillante. Aujourd’hui, c’est devenu une grande machine à fric qui ne se préoccupe plus réellement du spectateur.
Il est urgent de cesser de subventionner le cinéma si l’on veut que ce domaine ait un futur en France.
Mozilla abandonne définitivement Firefox OS
28/09/2016
Le 30/09/2016 à 01h 47
Le 29/09/2016 à 20h 20
Le 28/09/2016 à 21h 49
Le 28/09/2016 à 19h 42
Le 28/09/2016 à 19h 28
Le 28/09/2016 à 16h 50
Excellente décision de la part de Firefox qui peut maintenant mieux se concentrer sur son corps de métier sans se disperser.
Le gouvernement veut interdire les collectes de dons pour le paiement des contraventions
29/09/2016
Le 29/09/2016 à 19h 33
Plus d’un an de retard pour le rapport gouvernemental sur l’obsolescence programmée
23/09/2016
Le 28/09/2016 à 17h 10
Le 23/09/2016 à 17h 37
Tiens, pour ceux qui veulent vraiment se faire peur. Regardez ce qui existe dans certains pays…
http://johnnyvagabond.com/travel-tips/survive-suicide-shower/
Le 23/09/2016 à 17h 31
Le 23/09/2016 à 16h 39
Le 23/09/2016 à 16h 11
Comment la France a défendu la vente liée PC et OS devant la justice européenne
23/09/2016
Le 27/09/2016 à 22h 19
Le 27/09/2016 à 22h 06
Le 27/09/2016 à 18h 29
Le 26/09/2016 à 19h 22
Le 26/09/2016 à 17h 07
Le 25/09/2016 à 20h 17
Le 25/09/2016 à 18h 54