votre avatar

sr17

est avec nous depuis le 26 décembre 2005 ❤️

4322 commentaires

Le 11/02/2014 à 18h 35







lordnapalm a écrit :



On l’achète en connaissance de cause, et cela leur permet de développer le jeu.







Le risque, c’est la généralisation. Et de fait, la disparition de tout choix pour le consommateur. A la clé, juste un recul de ses droits. Sans compter le lot d’abus que ce système engendrera.



Il y a d’autres moyens de financer un produit qui sont plus sains pour le consommateur.





Tu payes un soutien à la boite (pas à l’éditeur justement, mais à une boite), et en échange, si tout se passe bien, tu auras un produit fini moins cher





Honnêtement, je n’ai pas réellement l’impression que cela soit réellement le cas. A part une courte période ou les jeux sont vendus chers à leur sortie, la majorité des jeux finis sont vendus à un prix inférieurs à la plupart des “early access” que l’on peut trouver.





(pareillement, le beta test n’est pas obligatoire, tu peux aussi attendre une version avancée avant de lancer le jeu).





Donc je paye pour un produit auquel je ne jouerais que dans plusieurs mois ?



Logiquement, si je finance, je suis un investisseur, donc j’attends qu’on me donne des actions en échange de mes ronds et du risque que je prends.



Sans compter que ce modèle représente un risque important pour l’acheteur : celui de ne pas pouvoir réellement juger de la qualité finale du jeu. Et donc de payer pour un produit qui sera peut être mauvais.



Au final, cela favorisera les projets en carton, les projets de com au détriment de ceux qui ont de vraies idées et des compétences.





Si tu ne veux pas participer à ça, tu peux attendre la sortie, ils ne te forcent pas à acheter le jeu pas fini.





Personnellement, je n’achèterais aucun de ces jeux tant qu’ils ne seront pas finis. Et pas simplement pour des raisons morales, mais aussi parce que c’est la seule façon de profiter d’une expérience de jeu de qualité.





Quand je joue à rust je n’ai pas vraiment l’impression de “travailler”, faut pas déconner non plus (le testeur pro ne choisit pas forcément ses jeux, et quand il doit tester barbie chez les poneys 4 sur DS et vérifier qu’il n’y a pas de fautes d’orthographe dans les dialogues, c’est surement moins fun). Au final le beta test fait par des volontaires sera mieux fait que par des pros qui font ça pour manger.





Il n’empêche qu’au final tu fournit un travail. Et que des pros vont se retrouver au chômage. Les seuls à qui cela profitera, ce sont les actionnaires.

Enfin, si on devait supprimer tous les jobs qui ne sont pas funs, on mettrait au chômage 90% de la population.



Sinon, je ne pense pas que des volontaires testerons mieux que des pros : la réalité de ce qu’est un test pro, contrairement à un joueur volontaire, un pro teste également tous les schémas de jeu et les actions qui ne sont pas fun. C’est un job spécialisé pour lequel les gens sont formés.





Alors oui c’est le début, et comme les free to play avec les pay to win, il y aura surement de grosses déceptions avec des jeux ratés ou qui ne sortiront pas. Ca remettra de l’ordre et on en reviendra au but principal: soutenir financièrement un projet qui te plait, avec les risques que ça comporte.





Soyons logiques, si la communauté finance et participe au travail, le jeu devrait devenir un logiciel libre. Sinon, c’est qu’il y a quelque chose qui cloche.





Enfin, les maisons avec les entreprises qui ont déposé le bilan en plein milieu de la construction, ça existe, et malheureusement pour les propriétaires, ce n’était pas 15-20$.





Et oui, entreprendre c’est risquer. Mais on peut aussi gagner beaucoup d’argent.



Un investisseur qui participe à une aventure prends également sa part de risque… et dispose normalement en retour d’une certaine part de bénéfices.



Si la communauté finance et participe, le jeu devrait logiquement devenir un logiciel libre.


Le 11/02/2014 à 17h 40







RaYz a écrit :



Doucement avec l’analogie de la voiture quand même. Un bien culturel de ce type et un moyen de locomotion c’est quand même pas du tout pareil (contexte, réglementation, sécurité, matériel…)

Early access c’est juste un pari comme un autre. Suffit juste que le consommateur soit bien au courant et comprenne les risques.







Bien culturel ou pas, un produit doit sortir uniquement quand il est terminé. Sinon, c’est la porte ouverte à tous les abus.



Rappelons quand même qu’un client n’a pas à jouer les bêta testeurs ni le financier alors qu’il n’est intéressé ni aux ventes, ni a l’actionnariat.



S’il suffit de marquer “early access” dans un coin pour s’affranchir de toute obligation légale, ça va rapidement se généraliser. Et c’est justement cela qu’il faut éviter.



La seule exception que je veux bien tolérer, c’est pour les vrais indépendants : les gars seuls, les toutes petites équipes, les étudiants. Bref, des gens qui n’ont pas un accès facile à du financement. Cela doit être l’exception, pas la règle.



Mais qu’un studio de taille relativement conséquente mange à ce râtelier la, quel qu’en soient les raisons, ça me dérange.



Laisser le client faire le bêta test représente quand même une économie importante pour le studio : une économie de main d’oeuvre et de salariés qu’ils n’auront pas à payer. Le souci, comme certains le disent plus haut, c’est que ça bousille l’expérience de jeu de l’acheteur. Quand on paye, c’est pour profiter du produit, pas pour travailler gratos.


Le 11/02/2014 à 16h 52







juks77 a écrit :



tous les jeux aujourd’hui sortent en early access, suffit de voir bf4 ou cod, ce n’est qu’une question de position assumée ou non <img data-src=" />







Il y a des boites qui finissent relativement bien leurs jeux dès le départ, d’autres qui ne les finissent jamais complètement malgré de grosses ventes.



Au consommateur de ne pas se laisser faire.







Fuinril a écrit :





Et quand même… la plupart des jeux qui sortent sont quand même bien finis…. que ce soit des AAA ou des indés







Jusqu’à maintenant, oui. Mais les mauvaises habitudes peuvent se généraliser plus rapidement qu’on ne pense si le consommateur accepte.



Le 11/02/2014 à 16h 15

Pour ma part, je pense que la vente d’un produit qui n’est pas fini est un abus manifeste envers le consommateur.



A quand une voiture vendue en alpha ? A quand une maison dont la toiture fuit pendant 5 ans ?



La réalité, c’est qu’un produit doit être fini et pleinement fonctionnel avant d’être vendu.



Bien sûr, je suis conscient que certaines entreprises n’ont pas les moyens de financer les années de développement que peut durer la création d’un jeu vidéo.



Alors, je veux bien être tolérant quand il s’agit d’une très petite entreprise, de vrais indépendants, c’est à dire une petite équipe d’associés ne dépassant pas(plus ou moins) 5 personnes.



Pour les entreprises plus importantes, c’est au financier de prendre des risques. Pas au consommateur.

Le 11/02/2014 à 16h 40







Grumlyz a écrit :



Logique, et la tendance va s’accentuer.

Les premiers acheteurs d’une tablette se rendent compte de l’arnaque.

Comme cette collègue ce matin qui se plaignait que la tablette de sa fille ne charge plus, alors qu’elle n’a même pas un an. Ça a été difficile de lui faire comprendre qu’il ne fallait pas en attendre plus d’une tablette premier prix.







Oui, passé l’effet de mode, les gens seront globalement déçus des faibles possibilités offertes par les tablettes. Il se rendront compte des problématiques d’obsolescence programmées (batterie non remplaçable) qui ne touchent malheureusement pas que l’entrée de gamme. Parce que même une bonne batterie de marque dure rarement plus de 2 ou 3 ans. Et encore, si bien traitée.



Quand au PC, c’était normal qu’il subisse une baisse un jour après des années de croissance ininterrompue. La crise et la fin de la loi de moore sont passés par la.



Le manque de concurrence sur le marché des processeur fait qu’Intel s’est reposé sur ses lauriers. Faute d’innovation majeure, le marché est maintenant saturé : 3 générations de processeurs (Sandy Bridge, Ivy Bridge et Haswell) qui n’apportent qu’un gain très modeste par rapport à la précédente. Les processeurs à 8 coeurs qui auraient logiquement du arriver sur le marché grand publique depuis un bon moment ne sont pas la.



Mais globalement, le PC est un produit indispensable et j’avais bien prédit que ce marché ne déclinerait pas outre mesure.


Le 10/02/2014 à 18h 27







Tirr Mohma a écrit :



450w avec une config musclée c’est juste.







Une vraie config musclée aurait de toute façon besoin d’un boîtier plus grand, d’un format de carte mère plus grand et d’une ventilation adéquate.



Bref, le mini ITX, c’est beau tant qu’on se contente de configs modestes ou moyennes.



450 watts, si l’alimentation est bien dimensionnée, c’est largement suffisant pour supporter ce qu’on peut mettre dans un tel boîtier.


Le 10/02/2014 à 18h 08

Un smartphone sous Ubuntu ? Super.



Cela dit, il reste à vérifier que leur implémentation évite en pratique ce qu’on reproche aux systèmes Android.


Le 10/02/2014 à 17h 52







lionnel a écrit :



Pas du tout d’accord avec toi. Ce raisonnement était peut etre valable il y a 5 ou 6 ans, à l’époque ou les feature phones dominaient le marché. Malgré les efforts des constructeurs, la plupart des fonctions hors téléphonie relevaient du gadget tant elles étaient limitées.

La situation a bien changé avec la montée en puissance des smartphones qui ont très largement étendu les usages possibles et le confort. Pour ce qui est des usages avancés, et de la “passion” comme tu dit, jette un oeil à la fréquentation de XDA et le degré d’implication de certains membres.







Quelques passionnés pour des millions d’utilisateurs, ça ne va pas très loin.



Et pour cause, question usage avancés, on ne peut pas en faire grand chose.



Materiels non documentés, non ouverts, drivers propriétaires. Bootloaders spécifiques, trop nombreux modèles de SOC rendant le reverse engineering de fait impossible.



Bref, le peu qui est possible demande une perte de temps infinie.



A l’inverse, une plateforme plus ouverte comme le Raspberry pi permet de très nombreux usages avancés avec une relative facilité. Il suffit de constater toute la créativité autour de cet appareil pour comprendre ce qu’on rate avec les smartphones par la faute des constructeurs.



Le 09/02/2014 à 19h 04







burroz a écrit :



Combien il couterait ton téléphone made in Europe?

Très chère.







Non, pas réellement.



Il existe en Europe des usines mécanisées capables de tenir des couts compétitifs.



Voir l’exemple du Raspberry pi dont la production à été rapatriée en Europe malgré son prix très faible.



D’autre part, la définition par l’état et la commande en grande quantité sera susceptible de faire diminuer le cout dans une proportion intéressante.





Donc, est-ce que le marché actuel de la téléphonie suit pas une logique de mode…





Justement, l’idée est de faire disparaître la composante “mode” qui n’apporte rien à part une surconsommation inutile.



Pas de secret, si nous voulons survivre, il faudra limiter à l’avenir nos déficit commerciaux.





et de la demande constante de programme nécessitant de plus en plus de ressource comme l’ordinateur a une époque.





La encore, non.



Comme le montre l’exemple des consoles de jeu, il est possible de garder un cycle de vie relativement long sans que cela ne pose de problèmes.



L’évolution, elle se fera lors des cycles de renouvellement.





S’il te plait tu peux me donner ta définition d’un “ objet de passion.”

Car c’est la première fois que je lie sa.





Un objet de passion, c’est un objet capable de susciter le rêve.


Le 09/02/2014 à 18h 20

Il se vends quantité de mobiles en France. C’est un objet utile, mais pas un objet de passion. Un peu comme une machine à laver ou une réfrigérateur.



Même les smartphones, parce qu’ils sont beaucoup trop bridés ne favorisent pas les usages avancés ni la passion.



Les téléphones sont également un symbole du produit jetable. Une logique qui est le fruit du passé et économiquement périmée.



Il serait d’ailleurs temps que les pouvoirs publics se penchent sur l’impact de l’achat de mobiles sur notre balance commerciale.



J’attends des pouvoirs publics qu’ils mettent en chantier un smartphone national avec les caractéristiques suivantes : Ouvert, facilement réparable, évolutif par modules, OS Linux dérivé de debian facilement upgradable, support de la technologie NFC. Cycle de vie de 8 ans. Nombreuses E/S sur la carte afin de pouvoir recycler l’électronique pour d’autres usages en fin de vie du produit. Fabrication française ou européenne dans la mesure du possible.












Le 08/02/2014 à 20h 00

Pour ceux qui pensent que la suprématie de l’inde sur le plan informatique est due au hasard, sachez qu’il n’en est rien.



C’est un plan mené par Rajiv Gandhi dans les années 80 qui a fait de l’inde un leader dans le domaine informatique.



Je me souviens qu’il était venu à la télévision française pour expliquer ce qu’il faisait. Il avait dans sa main un microprocesseur et avait déclaré “ceci est l’avenir de mon pays”.



Que croyez vous que firent nos très grandes élites françaises en voyant cela ? Rien, ou si peu.



Chez nous, le “plan informatique pour tous” fut un énorme échec. On se contenta d’envoyer quelques machines aux établissements scolaires. Mais faute de programme d’enseignement et surtout, de formation des enseignants, tout cela est resté dans les placards. De nombreuses machines ont même été retrouvées non déballées.



Si vous vous demandez pourquoi nous sommes dans la merde sur le plan économique, vous avez la réponse.

Le 06/02/2014 à 22h 09







Flo_1 a écrit :



Les dirigeant de l’UE estiment que le modèle de la concurrence est le plus avantageux pour les consommateurs. Or la concurrence n’est pas le laisser-faire. Le laisser-faire a des conséquences comme des ententes (entre opérateurs par exemple) ou des abus de position dominante. Tu ne peux pas dire « je ne vois pas de problèmes à ce qu’ils s’entendent sur les prix, ils font ce qu’ils veulent » (marché non-contestable toussa…).



Le commission doit donc fixer des règles pour avoir une « vraie » concurrence bénéfique au consommateur (car on est censé être en démocratie, des lois faites par les citoyens pour les citoyens).



Après, on est pas obligé d’être d’accord avec cette vision des choses.







Oui, mais on oublie de dire aux consommateurs que ce sont d’abord eux, en tant que salariés qui seront mis en concurrence. <img data-src=" />


Le 06/02/2014 à 21h 08

Nous voyons tout l’intérêt pour un pays de pouvoir contrôler sa monnaie.



L’Euro est pour nous un lourd handicap.

Le 06/02/2014 à 20h 24



Half-Life 2 Enhancement Mod : si Black Mesa ne vous a pas suffi





Je ne comprendrait jamais les motivations des gens qui contribuent bénévolement à des jeux non libres.





Parmi les bizarreries du jour, Blockade 3D tient sans aucun doute sa place. Le principe du jeu est assez difficile à définir, puisque d’un côté, les captures d’écran montrent un clone de Minecraft dans lequel on peut miner divers matériaux pour réaliser des constructions, tandis que d’autres montrent un gameplay typé FPS.





Il serait plus juste de parler de “genre voxel”.



Le terme “clone de minecraft” est impropre dans la mesure ou infiniminer, le jeu dont est inspiré Minecraft comprenait déjà la collecte de ressources. C’est un peu comme si l’on qualifiait Battlefield de “clone de doom”.



N’oublions pas que le genre voxel n’est pas né avec Minecraft. Il me parait important et juste de rendre justice aux prédécesseurs dont les idées ont été reprises(et qui ont gagné nettement moins d’argent).



Maintenant, je partage l’idée que c’est assez curieux de voir steam intégrer ce jeu. Les FPS voxels sont déjà sur-représentés sur steam et le jeu en question ne semble pas briller par son originalité. Même le titre semble s’inspirer d’un autre jeu Voxel (Blockade runner pour ne pas le citer).

Le 05/02/2014 à 19h 38







Fuinril a écrit :



Mouais. Faut pas oublier non plus que Carmack faisait partie de l’équipe dirigeante d’ID qui est passé du stade de “créateur de génie” au stade “studio pourri” en quelques années. Je dis pas qu’il en assume l’entière responsabilité mais il a très certainement ses parts.



Carmack c’est un dev de génie, je serais par contre nettement plus mesuré quant à ses talents de gestionnaire et de lisibilité du marché….







En même temps, avec des gestionnaires, il ne s’inventerait jamais rien.



Un gestionnaire et un créateur, ce sont deux profils bien différents.



Le créateur se lève le matin pour inventer quelque chose de fabuleux, le gestionnaire, lui ne cherche qu’a minimiser les risques pour maximiser les profits à court terme.



En général, ça se passe ainsi : Le créateur fait naître des entreprises. Le gestionnaire les exploitera jusqu’à ce qu’elles meurent par manque d’innovation.


Le 04/02/2014 à 21h 14







brazomyna a écrit :



Le dispensable d’hier est devenu l’indispensable d’aujourd’hui.



Personne ne pourrais se passer d’eau courante et d’électricité, alors que c’était un luxe il y a moins d’un siècle, réservé aux foyers les plus aisés et inaccessible pour le pékin moyen.



Et un siècle, c’était hier. c’est la période où dont on parlait justement un peu avant, quand on abordait la notion de changement d’ère économique et notamment le déclin de l’agriculture.







Soit bien peu de choses en comparaison de ce que la mécanisation/robotisation/informatisation ont fait perdre.



Rien que l’agriculture, c’était plus de 60% de la population française. Ils sont maintenant moins de 2%. Ca fait un paquet de millions d’emplois en moins.



Une usine du début du siècle, même mécanisée était pleine d’hommes. La même usine moderne est pleine de machine avec seulement quelques hommes qui surveillent.



De nombreuses inventions modernes ont supprimé quantité d’emplois sans qu’on le réalise : Cela va du distributeur de billet aux afficheurs de prix électroniques dans les supermarchés.



Les logiciels sur ordinateur ont supprimé quantité d’emplois de bureau, allant de gens chargés de faire les calculs jusqu’à ceux dont le travail était de s’occuper de fichiers papiers.



Ensuite, la meilleure preuve du problème, c’est le nombre de chômeurs actuels dans tous les pays du monde.



Cette montée du chômage avait été prédite par ceux qui ont étudié l’économie de l’automatisation. Et en premier lieu par des fondateurs de la cybernétique.



Le problème, c’est que les écoles enseignent encore aujourd’hui des dogmes économiques, certes très intéressants, mais qui datent d’une époque ou la mécanisation n’était pas encore partie intégrante de l’économie.



Le 04/02/2014 à 01h 32







brazomyna a écrit :



@sr17, ça fait plaisir de voir un avis un peu pondéré.



Un point néanmoins, abordé deux fois:





Tu fais l’erreur de n’aborder l’emploi que sous sa seule composante relative à l’industrie.

C’est pour moi une erreur à notre époque, celle d’un monde (au minimum) tertiaire: c’est l’immatériel (connaissance, service, information) qui porte la valeur ajoutée, la croissance et prend le pas sur l’industrie et qui est le futur de l’économie, donc des emplois.



L’industrie se fait doucement enterrer … comme elle a enterré l’agriculture à partir du moment où on s’est trouvé les moyens de produire en masse à des coûts faibles.







Inventer de nouveaux produits et services pour compenser l’augmentation de la productivité, c’était (pensait t’on) la solution qui résoudrait tout.



Mais par définition, les produits et services nouveaux s’éloignent toujours plus de l’indispensable, ce qui rends cette nouvelle activité très fragile devant les fluctuations économiques.



Les consommateurs se passent du superflu dès que leurs moyens viennent à manquer et même dès lors qu’ils ont peur du lendemain. Et parfois même par simple mentalité, préférant laisser l’argent à la banque que d’acheter de l’inutile.



Mais surtout, nous n’avons pas appliqué la bonne politique pour favoriser le développement de cette économie.



Henry Ford avait compris que pour que les gens achètent ses automobile (qui par définition étaient des biens non indispensable), il était impératif de… leur donner le pouvoir d’achat nécéssaire. Et c’est ainsi qu’il a convaincu les industriels de l’époque… d’augmenter les salaires.



Mais aujourd’hui que fait t’on ? Exactement l’inverse.



Parce que tous les pays font la course à la compétitivité et cherchent à comprimer les salaires au strict minimum.



Le problème c’est que des gens qui ne consomment que le strict minimum ne feront pas subsister cette fameuse économie du produit ou service non indispensable.



Mais comme l’économie de l’indispensable ne représente plus qu’une très petite proportion des travailleurs, nous assistons à une montée inexorable et massive du chômage.



Plus globalement nous nous dirigeons vers un effondrement généralisé de l’économie mondiale.



L’ennui, c’est que certains de nos dirigeants, ne comprenant rien à l’économie pensent qu’il suffit de copier un modèle qui affiche de bons chiffres, omettant de se demander si cela fonctionnera encore si tout les pays appliquent la même recette.





















Le 02/02/2014 à 22h 42







Gilles.T a écrit :



Ben voyons. L’industrie allemande, elle aime la monnaie forte. Mais l’industrie française, non. Pourquoi ? C’est magique. Ça sent surtout la bonne excuse facile pour reporter encore et toujours la faute sur les autres (ce bon vieux réflexe xénophobe…) et ne surtout pas remettre en cause le système français.







Il faut arrêter de vouloir coller de la xénophobie partout.



Le problème n’est rien d’autre qu’économique et historique.



Suite à certains problèmes économiques passés, l’Allemagne a adopté une politique monétaire de stabilité après la guerre de 40. Cette politique à favorisé un cours élevé.



Leur industrie s’est adaptée à la situation en se spécialisant sur une niche de produits de gamme haute, seul type de produit susceptible de se vendre malgré un prix de vente non compétitif.



A l’inverse, les industries françaises et italiennes dont les monnaies avaient historiquement un cours de valeur moyenne sont plutôt spécialisées sur l’entrée et le moyenne gamme.

Contrairement au haut de gamme, les produits d’entrée et de moyenne gamme ne peuvent pas continuer de s’exporter si les cours de monnaie leur enlève toute compétitivité.



A l’extrême, une économie comme celle de la Grèce (pays que je connait très bien) qui vit du tourisme et de l’agriculture et dont le système est très corrompu ne pouvait pas survivre bien longtemps avec une monnaie forte alors que son Drachme d’avant l’Euro était très faible.





Pris séparément, chacun de ses faits se voit ignoré sous prétexte que “c’est pas si simple” et “si tu dis ça c’estde la manipulation”. Quand on montre que d’autres pays s’en sortent bien en faisant l’inverse, il y a également toujours une bonne excuse pour ne pas étudier le système, refuser de considérer de potentiels changements. La Suisse trop petite, l’Allemagne modèle de précarité (alors que les Allemands sont plus riches que les Français, même pour les couches lesp lus pauvres), les pays nord-européen on sait pas, mais on ignore cordialement leur système, parce que c’est trop compliqué. On peut continuer longtemps comme ça. A chaque fois, zéro argument, juste des excuses et de grandes affirmations vides de faits..





L’ennui, c’est que ça n’est pas aussi simple de copier un modèle.



(1) D’abord parce qu’il n’est pas si évident que ces pays soient réellement sur la bonne voie.



Les chiffres et la réalité sociale sont deux choses très différentes, mais surtout, parce que des pays très tournés vers l’exportation et qui tirent leurs bons chiffres des déficits des pays voisins se préparent forcément des lendemains difficiles.

Pour ces raisons, j’éviterais de croire que le modèle Allemand ou Chinois sont des bons exemples. Attendez de voir ce qu’il en sera dans 10 ans.



(2) Parce qu’il n’y a pas forcément le marché pour.



Vendre des Mercedes ça marche.



Alors la solution, c’est que tous les pays d’Europe produisent des voitures de ce type ?



Le problème c’est que la taille de ce marché n’est évidement pas suffisant pour cela et que plus personne n’en tirerait de bénéfices.



(3) Parce qu’on ne change pas du jour au lendemain la façon dont les produits d’une origine sont perçus.



Par exemple, l’industrie automobile Française a déjà tenté de se positionner sur le créneau des produits de haut de gamme. Tout les connaisseurs savent que certaines de nos voitures ont été techniquement et qualitativement bien meilleures que la concurrence. Mais le marché ne les a hélas pas perçues comme tel.



A l’inverse, certains produits Allemands sont objectivement médiocres, mais leurs acheteurs sont psychologiquement persuadés d’avoir acheté de la qualité.



(4) Parce qu’un modèle de niche n’est pas forcément généralisable.



C’est l’exemple type du petit pays paradis fiscal à côté d’un pays plus grand. Le grand pays peut t’il vraiment copier ce modèle ?





Quelle inflation ? Elle est toujours restée à des niveaux normaux. Et encore heureux, merci aux Allemands, parce que l’inflation c’est juste l’appauvrissement du peuple. Ils l’ont bien compris, eux, ils ont expérimenté la République de Weimar. Ils savent ce que ça donne d’imprimer de la monnaie pour tenter de résoudre tous les problèmes, comme si c’était magique.





Ce n’est ni aussi simple, ni aussi manichéen.



Et l’on ne peut pas prendre des exemples extrêmes pour démontrer que quelque chose est bon ou mauvais.



Exemple, j’ai mangé 5 kilos de chocolats, je suis affreusement malade : le chocolat c’est du poison.



On ne peut pas déduire non plus que l’opposé d’un mal est forcément un bien.



Penser que l’hyper stabilité monétaire serait forcément mieux que l’hyper inflation de la République de Weimar revient à dire : J’ai fait une indigestion, donc dorénavant je ne mangerais plus rien du tout.





Les USA le testent depuis quelques années : on imprime à fond pour maintenir l’Etat à flot et créer un semblant de croissance artificielle, mais la situation des gens ne cesse de se dégrader. Le Japon aussi, croyait que ça allait magiquement relancer le moteur, et finalement ça a aggravé encore les problèmes économiques en faisant exploser le coût des importations pendant que les exportations continuaient de baisser.





La raison pour laquelle la situation des gens se dégrade, c’est que :



(1) Les USA font marcher la planche à billet mais cet argent est donné aux marchés financiers et non aux gens. Il accroit donc les inégalités.



(2) Les usines de plus en plus mécanisées ont besoin de moins en moins de main d’oeuvre.



(3) L’économie financière a pris le pas sur l’économie réelle d’une façon outrageusement disproportionnée alors qu’elle n’est pas productrice de valeur ajoutée.



(4) Les états sont incapables de se réformer et produisent de moins en moins de valeur ajoutée utile au citoyen.





Mais l’inflation restera toujours le petit péché mignon des keynesiens qui croient pouvoir tout régler avec des politiques monétaires accommodantes alors que ça n’a jamais marché.





L’inflation est juste un outil parmi d’autres. Comme n’importe quel outil il faut savoir l’utiliser à bon escient, en user sans en abuser.



S’interdire l’utilisation d’un outil, c’est du dogmatisme.



Et pour ma part, je pense qu’on ne pourra pas se passer des idées de Keynes dans le futur pour la bonne raison que la robotisation et l’informatisation réduit tous les jour le besoin d’utilisation de l’homme.



Le risque, c’est d’avoir des industries très performantes qui produisent de très bons chiffres et de l’autre des inégalités sociales toujours plus grandes. Avec au final un écroulement économique causé par un écroulement de la demande.



Dans ce contexte, il est évident qu’il faudra soutenir la demande et l’égalité sociale.

Soutenir l’offre, c’est une vision à courte vue qui peut éventuellement marcher à court terme pour un pays. Et quand tout le monde le fera, tout s’écroulera faute de consommateurs.


Le 02/02/2014 à 20h 06







ActionFighter a écrit :



On est d’accord, ce que je voulais dire avec la phrase que tu as quoté, c’est dès le début de l’euro, la politique monétaire a été favorable à l’Allemagne, ne serait-ce que par le taux de change, et par la gestion de l’inflation.







Tout à fait aussi.



Mais cela va plus loin encore, les conditions de gestion de l’Euro sont calquées sur celle du Deutchmark, ce qui aboutit à une monnaie à valeur forte qui est très favorable à l’économie Allemande par rapport au type de biens qu’ils produisent.



A l’inverse, les pays comme la France ou l’Italie dont la production ne peut pas s’accommoder de cette monnaie trop forte tendent logiquement à péricliter.



Comme il est évident que la situation ne pourra pas durer, la question n’est pas de savoir si la zone Euro va éclater, mais quand.



Ce sera probablement dès que les agences de notation vont commencer à sérieusement dégrader l’Allemagne.



Un scénario possible qui conduirait au maintient d’une partie de la zone Euro serait la sortie de l’Allemagne de l’Euro, ce qui ferait plonger la monnaie et redonnerait mécaniquement de la compétitivité aux pays restants.


Le 02/02/2014 à 19h 56







Patch a écrit :



même pas. ils pratiquent juste du dumping social avec des salariés à bas coût, c’est tout.

et “grâce” à ca, ils coulent tous leurs partenaires commerciaux… ce qui aboutira à leur propre suicide à terme, puisqu’ils ne pourront plus commercer avec personne.







Tout à fait.



Ce qui est amusant, c’est de voir la fascination de nos politiques pour le modèle Allemand alors que c’est précisément ce qui ruine l’économie européenne.



Le 02/02/2014 à 19h 42







Drepanocytose a écrit :



J’aime beaucoup les commentaires qui disent en filigrane “nous les pauvres petits gars de bonne volonté qui voulons entreprendre, on nous met des bâtons dans les roues. Entre le méchant état qui nous vampirise, les méchants salariés qui nous prennent pour des viandards et les vilains médias qui nous décrivent comme des monstres, bah au final on n’entreprend pas. Oin oin”



Vous voulez entreprendre ? Vous vous sortez les doigts et vous affrontez l’adversité.

Pas besoin d’aller chercher un coupable pour justifier que c’est dur, pas besoin de chercher des coupables pour justifier que peu de gens sautent le pas….



Des gens fainéants en CDI qui ne veulent pas bouger et qui se complaisent dans le salariat, je lis…. Mais dans quel monde vit-on ?

Déjà le CDI ca commence à devenir une denrée très rare : redescendez un peu sur terre dans le vraie vie, les mecs….Pas mal de gens ont déjà beaucoup de difficultés à joindre les deux bouts, et vous voudriez qu’en plus ils prennent d’autres risques qui pourraient les ruiner totalement, juste parce que ca ferait plaisir à votre idéologie économique…. Sérieusement, quoi…



J’aime PCI et ses coms parce qu’on y trouve de tout, et pas mal de gens avec un “niveau socioculturel” élevé, donc ca donne de bons débats.. Mais le corollaire de ca, c’est que vous vous enfermez dans votre tour d’airain et que vous perdez la base de vue….







Tu m’expliquera pourquoi un patron intelligent irait entreprendre dans un pays qui rajoute quantité de difficultés et de risques ?



Monter une entreprise, ce n’est pas simplement se “sortir les doigts du cul”, mais aussi jouer son patrimoine, sa santé, son couple et son avenir.



Quand au salarié qui as du mal à joindre les deux bouts, rassure toi, je ne trouve pas cela normal. Mais tu semble ignorer que c’est aussi l’angoisse permanente de la plupart des entrepreneurs.



Et si le CDI commence à devenir une denrée rare, c’est parce que le nombre d’entreprises diminuant, le nombre de chômeurs augmentant, le rapport de l’offre et de la demande est devenu très défavorable pour les demandeurs d’emploi. Quand on envoie 20 chomeurs pour un seul poste, c’est le patron qui dicte ses conditions.



Donc on peut continuer comme ça à faire diminuer le nombre d’entreprises. Le résultat, on le voit : des millions de chômeurs.



Comme je l’ai dit, le seul qui ne se sors pas les doigts du cul dans l’affaire, c’est l’état. Contrairement aux entrepreneurs et aux salariés, l’état ne prends aucun risque, ne fait aucun effort réel.

















Le 01/02/2014 à 23h 18







Qruby a écrit :



Mais c’est un cercle vicieux : moins tu positive, moins tu donne une bonne image, moins y’a à positiver.



Les américains sont très forts dans l’autres sens : toujours content au moindre truc inutile, toujours accueillant à bras ouverts la nouveauté même si elle n’apporte rien, du coup niveau image ça donne l’impression que tout est rose.



C’est du performatif, voilà tout.







Oui, en même temps, le positivisme anglo-saxon enseigné à coup de méthode coué dans les écoles de commerce, c’est limite agaçant.



Et surtout, compte tenue des réalités de notre système, la meilleure qualité ici, c’est plutôt le réalisme.


Le 01/02/2014 à 19h 02

Tout ce que nos politiques savent produire, c’est juste de la communication : des labels et des pactes, des moulinets de bras qui déplacent du vent. En pratique, tout cela cache un énorme vide en terme d’actions concrètement utiles sur le plan économique.



D’ailleurs, les labels, ce n’est pas nouveau… ça fait même des années qu’on en produit. Et ça ne donne absolument rien.



Les startups n’ont pas besoin de ces dispositifs à la con qui engendrent principalement une perte de temps et d’argent colossale en démarches administratives inutiles. Tout ce cinéma ne sers qu’a justifier le travail des fonctionnaires qui animent ce grand cirque.



Ce dont les startups ont besoin, c’est des conditions favorables pour leur développement. C’est pourtant simple, mais la France se refuse éternellement à leur donner cela.



Un exemple simple, dans les premiers mois d’une startup, il est courant de voir du personnel se passer de salaire. Dans une startup, tout le monde prends des risques. Le seul qui n’en prends pas, c’est l’état qui exige quand même le payement des charges sociales quand bien même des gens ne sont pas rémunérés. Vous ne gagnez pas d’argent, mais l’état, lui veut quand même en gagner sur votre dos.



Rien que ce genre de détail crée une énorme différence de chance de réussite avec d’autres pays.



Donc messieurs les politiques, quand donc cesserez vous de nous prendre tous pour des cons. Vos mesures sont des caches misères. Et pendant ce temps, on continue de racketer ceux qui innovent et entreprennent au lieu de taxer ceux qui gagnent réellement de l’argent.



D’ailleurs, par définition, une vraie startup est totalement inlabélisable. D’abord parce qu’il est totalement utopique de croire qu’un comité puisse arriver déterminer ce qui représente une innovation. Regardez simplement les plus beaux succès de la nouvelle économie américaine. Au départ, personne n’y croyait.



D’ailleurs, tout le monde sait pertinemment depuis des années que ces labels et ces dispositifs font juste les choux gras des suceurs de primes. Des gens qui présentent bien, savent manier les dossiers, faire de la communication. Ils brassent du vent et vivent quelques années sur la crédulité des investisseurs en ne produisant strictement rien.



Mais bon, en France on ne change pas une méthode qui perds…

Le 03/02/2014 à 20h 26







Lafisk a écrit :



il y a toujours eu deux bureau. pour ce qui est des actionnaires, l’action MS est stable … donc je vois pas trop de quoi tu parles.



D’ailleurs, comme je le disais plus haut, beaucoup sont revenus de leurs discours negatifs sur windows 8, et ce dernier n’a jamais ete destine pour les pros, sur fixe bien sur, ils les ciblent a travers les tablettes par contre et leur pub est correcte car en tant que telle elle peuvent tout a ait server.



comme je l’ai precise, le fait que les entreprise n’y switch pas massivement est pas un mauvais signe, c’est surtout le signe que les DSI ne sont pas aussi bete qu’on veut bien nous le faire croire, il n’y a pas toujours de raions valable de switcher de facon automatique. Les entreprises ont bien vue que ca leur apporterait rien alors ils n’ont pas switcher, c’est tout. de la a dire que les entreprises ce sentient delaissees… c’aller vite en besognes







Tu ne mesure pas les conséquences psychologique de l’affaire.



Quand les clients commencent à réfléchir, c’est toujours TRES mauvais pour les affaires d’une entreprise <img data-src=" />



Parce que c’est souvent à ce genre d’occasion que les clients refont un point sur le marché… et les solutions concurrentes.



Quand aux actionnaires, il ne faut pas me raconter à moi que le PDG et une partie de l’équipe ont sauté parce qu’on était super content d’eux.



Le cours de bourse à court terme, c’est un truc qui se contrôle avec de la communication.


Le 03/02/2014 à 19h 07







Maxouille-la-fripouille a écrit :



….

Sauf que si ils avaient mis cette interface QUE sur tablette, vu que iOS et Android étaient déjà super bien implanté MS n’aurait jamais percé car les gens n’auraient pas connu cette interface. En la mettant aussi sur la version PC, ça permet de la faire connaitre au grand public, de faire développer des applis dessus et une fois que les gens y seront habitués les inciter à acheter des tablettes sous Windows car ils connaitront déjà vu qu’ils l’ont sur PC. C’est très malin de la part de MS sur le long terme! <img data-src=" />



Après, je dis pas que l’interface de Win 8 est parfaite! elle reste très perfectible et à besoin d’amélioration, c’est vrai. Néanmoins depuis Win 8.1 il y’a eu pas mal d’améliorations d’apportées et la plupart des gros défauts de Win 8 ont été corrigés.







Je comprends l’idée de cette stratégie.



Mais d’un autre côté, elle a mécontenté beaucoup de gens, dont les professionnels qui apprécieront encore moins l’idée qu’on ait oublié leurs besoins pour un simple coup marketing. Cela renforce le sentiment que le grand public est désormais l’unique préoccupation de Microsoft.



Et que dire des conséquences sur les ventes de PC et les résultats des constructeurs. Même si ce n’est pas l’unique raison, cela a certainement contribué à la baisse des ventes de PC.



Embêter ses propres utilisateurs n’a jamais été une bonne stratégie sur le long terme. Cela fait toujours progresser la concurrence.



Car n’oublions pas qu’en face il y a le spectre de Linux. Un Linux qui fait encore peut être sourire quelques non connaisseurs mais qui est extrêmement bien implanté dans le monde pro des serveurs et qui arrive réellement à maturité pour le desktop. Un Linux qui progresse inexorablement sur tous les segments du marché et qui est déjà la base de l’OS dominant sur mobile.



Et surtout, un Linux qui offre surtout de multiples choix de bureaux adaptables pour tous les usages.



De multiples bureaux, c’est précisément ce qu’aurait du faire Microsoft. Et c’est précisément qu’ils feront en définitive.



S’ils avaient commercialisé d’emblée W8 avec deux bureaux, cela aurait fait connaître tout en évitant toute cette mauvaise polémique.



Et si on se retourne vers le passé, c’est exactement ce que Microsoft avait fait avec Windows XP qui disposait de la possibilité de revenir à la sobriété de l’interface de Windows 2000.



En tout cas, les actionnaires de Microsoft ont pris les mesures qui s’imposent et ne semblent pas considérer que c’était une bonne stratégie. Et ils ont raison.


Le 02/02/2014 à 20h 46







Maxouille-la-fripouille a écrit :



T’as raison! MS aurait dû sortir un remplaçant de Win 7 avec quelques évolutions mais en restant dans la même lignée, comme ça ils auraient définitivement loupé le marché des tablettes et PC tactiles au profil d’Android, et tout ça pour quoi? contenter quelques geeks incapables de s’adapter au moindre changement d’interface. Super ta solution! <img data-src=" />







Non, ce qu’ils auraient du faire, c’est proposer leur nouvelle interface uniquement sur tablette ou au moins laisser la possibilité de choisir.



Et ton constat est faux : Il ne s’agit pas d’un problème d’adaptation au changement, mais simplement d’avoir proposé une interface qui n’est pas adaptée pour un poste de travail.



Et le problème ne concerne pas seulement “quelques geeks”, mais des millions d’entreprises et leurs travailleurs pour qui le desktop est un outil de travail qui se doit d’être performant et ergonomique.


Le 31/01/2014 à 23h 49







arno53 a écrit :



Au final sur PC ils leur restaient Windows 7 notamment pour les pro et puis de toute façons la marché du PC est morose …. C’est du coté des tablettes que la perspective de croissance est la plus grande il était normal que le rouleau compresseur qu’est Windows PC et ses développeurs C#/xaml servent a faire murir le store Windows.







Les pros savent aussi qu’un jour, on est bien obligé de migrer vers une version plus récente.



Jusqu’alors, la plupart des entreprises avaient une excellente confiance en Microsoft et ne demandaient pas vraiment ce qu’ils prendraient comme Os dans quelques années. La plupart des responsables ne voulaient même pas se demander s’il pouvait exister autre chose que Windows.



L’affaire de Windows 8 est catastrophique sur un plan psychologique dans le sens ou pendant plusieurs mois, des responsables se sont demandés (même si c’est dans un coin de la tête) ce qu’il adviendrait si Windows devenait si mal adapté aux besoins de l’entreprise qu’il faudrait penser à des alternatives.



Du coup, cela a commencé mine de rien à ouvrir les esprit des décideurs à étudier d’autres solutions potentielles.



Et ça, c’est une très grave erreur. Surtout au moment ou Windows se retrouve attaqué de tous côtés.





Le 31/01/2014 à 22h 54







Lafisk a écrit :



tu parles de changement qui date d’une époque où l’informatique restait tout de même plus confidentiel et cela n’a pas empêché les grognements, rappelles toi de la souris ou même ceux qui ose encore aujourd’hui dire que des lignes de commandes c’est plus productif etc … Les changements n’ont jamais été bien accueillis et a part 3.1 et 95, ou le grand public n utilisait pas massivement l’outil informatique depuis on a pas eu de changement d’ui aussi important ça date donc quand le dernier gros changement







Je ne me rappelle pas d’avoir entendu de grognements à cette époque. Tout juste quelques appréhensions compréhensibles qui laissaient la place à un grand enthousiasme une fois le pas franchi. A l’époque, le couple Windows/Office, c’était une vraie révolution.

En fait, ceux qui grognaient vraiment, c’est ceux qui bossaient dans des entreprises qui étaient encore sous DOS (Le PC était très en retard) alors que leur ordinateur familial avait déjà une souris et une interface graphique.



Quand à ceux qui ont affirmé que la ligne de commande restait plus efficace pour certains usages, l’avenir ne leur a t’il pas donné raison ? Il faut réaliser qu’après tout ce temps, si la ligne de commande à survécu dans les usages professionnels, ce n’est pas simplement par nostalgie.



Sinon, il faut se souvenir que l’informatique est sortie de la confidentialité vers le milieu des années 80, soit à l’époque ou tous les hypermarchés se sont mis à en vendre en masse.



A l’époque du passage du DOS vers Windows, beaucoup d’entreprises étaient déjà équipées.


Le 31/01/2014 à 20h 30







Lafisk a écrit :



En même temps ya jamais eu de changement aussi profond sur Windows







L’histoire de l’informatique à connu de nombreux changements radicaux.



Le plus connu d’entre eux à été le passage aux interfaces de type caractères “DOS” à des interfaces graphiques.



Pourquoi à cette occasion, les utilisateurs ont t’ils très bien accueilli ce changement ?



Concernant Windows, on peut dire que le passage de windows 3.1 à Windows 95 a été l’occasion d’un changement important au niveau de l’interface. Globalement la encore bien accueilli par les utilisateurs.



Quand la nouveauté apporte de bons changements, elle est plutôt bien accueillie par les utilisateurs.



Après, c’est vrai que Microsoft n’est pas trop coutumier du changement. Et poussé par Apple, ils ont sans doute eu peur de se faire dépasser.



Mais une entreprise qui innove doit être structurée en interne pour éviter que les fausses bonnes idées ne franchissent la porte du service R&D. C’est précisément ce que savait bien faire Steve Jobs et qui manque encore à Microsoft.













Le 31/01/2014 à 20h 17







arno53 a écrit :



Le problème pour MS c’est qu’ils avaient besoin de se lancer sur la marché de la mobilité (tablette) avec des apps moderne et sécurisé (sandbox & co comme sur Android par exemple).

Or si tu laisse le choix au utilisateur PC de ne pas installé Modern UI et les apps WinRT, les devs d’app n’aurait pu visé que le marché des tablette Windows qui était inexistant au lancement de Windows 8 … Autant dire que le store WinRT n’aurait jamais atteint le stade de la boucle vertueuse nécessaire à un produit intiment lié à un store applicatif.



Avec cette stratégie plus que risqué qu’est l’interface Modern UI imposé, MS a pu proposé au dev de toucher le marché tablette et PC (grâce a la vente liée). Le store WinRT a aujourd’hui la plupart des grandes Apps dispo chez les concurrents permettant au marché des tablette Windows d’etre en relatif autonomie.



On voit clairement maintenant avec Update 1 et Windows 9 que MS compte bien démarqué l’interface PC de l’interface Tablette vu que ce dernier est déjà relativement mature du point de vue ergonomique et applicatif…. Il ne manque que quelques apps dont office RT (projet Gemini) et un coup de pouce marketing pour que ces tablettes prennent leur envole. Windows 9 sur tablette risque d’être extrêmement proche de Windows 8 au final …



Maintenant leur objectif est de capitalisé sur les applications WinRT pour les proposé dans une interface PC en totale transparence avec les apps Win32 afin de faire progressivement migré ces vielles apps Win32 vers le nouveau modèle.



Ca été une stratégie dangereuse et pouvant être perçu comme un manque de respect envers le PC-user mais sur le long termes c’était plus que nécessaire … Grâce a ca on a aujourd’hui un portage en cours de VLC vers WinRT et des applis comme Adobe Reader, Facebook/Twitter/Skype etc sandboxé et accéléré matériellement sur PC (là ou des techno commes WPF n’ont pas su prendre chez les grands developpeurs).







Quand on est assis sur un monopole de millions de clients qui sont globalement satisfaits de vos produits, n’est ce pas une grave erreur de mener une stratégie qui risque d’amener le doute dans l’esprit de cette énorme base acquise ?



N’était ce pas prendre le risque de faire progresser d’un pas de plus les challengers ?









Le 31/01/2014 à 19h 44







MickeyFreeStyler a écrit :



Ah ces fameux gens réfractaires au changement, toute une histoire.<img data-src=" />







J’ai beaucoup entendu l’argument de la peur du changement concernant Windows 8.



Pourtant, je ne me rappelle pas avoir connu pareille réaction négative d’utilisateurs en plusieurs décennies de changement.



D’ailleurs, je n’ai jamais connu d’utilisateurs qui grogne plus de quelques minutes devant un nouvel OS quand les changements apportent une expérience utilisateur meilleure que la précédente.



Bref, c’est plutôt le signe d’une erreur de direction qu’un problème de peur du changement.



Le 03/02/2014 à 19h 52







PanozPublishingTeam a écrit :



Fausse bonne idée, je ne suis pas forcément d’accord même si je partage le “fonctionne jamais très bien”.



Après tout, le web est responsive par nature et ce sont juste les designers qui se sont tournés vers le “pixel perfect” entre-temps, donc le RWD est juste un retour aux sources, qui est d’ailleurs aussi une réponse à l’échec des sites mobiles – de plus en plus mal-aimés par les utilisateurs et certains géants du web – en passant.



Dans les faits, ça ne fonctionne jamais très bien mais dans une grande partie des cas, faut quand même avouer que c’est une conséquence de la mauvaise exécution du concept RWD… Par exemple les mecs qui pensent en tailles d’écrans ou appareils plutôt qu’en se basant sur le design même du site (erreur commune, combat perdu d’avance) ou ceux qui n’adoptent pas une démarche d’amélioration progressive.



De fait, plus qu’une fausse bonne idée, c’est un concept qui a subi une hype de familles alors qu’il naissait à peine, qu’il n’a pas pu se développer naturellement. Du coup, étant un concept vague, les mauvaises exécutions se sont enchaînées vu qu’il fallait à tout prix faire du RWD – on se lance dedans et on verra bien comment faire une fois qu’on aura le truc à gérer en plein dev. Je ne plaisante malheureusement pas, ai vu plusieurs fois la chose arriver… <img data-src=" />







Le web est responsive par nature ? Certes.



Du moins, c’était l’idée théorique au départ. En pratique, cela s’est toujours révélé compliqué et sujet aux problèmes.



Il faut dire que l’idée du HTML était de présenter des documents textuels scientifiques, pas de faire des maquettes à la présentation complexe.



Et même si le W3C a fait évoluer les concepts (notamment avec CSS), il y a toujours un énorme fossé entre la théorie et la pratique.



En pratique, le responsive fonctionne assez bien, à condition de ne pas trop lui demander. S’adapter à différentes tailles de polices et de taille d’écran dans une certaine mesure, c’est raisonnable.



Le problème avec le mobile, c’est que l’architecture de la page et la structure du contenu peuvent être amenés à changer de manière totalement radicale, à tel point qu’on se retrouve avec deux pages qui n’ont plus grand chose en commun. Même les contenus (images, etc) peuvent être différents.



Dans ce cas de figure, utiliser le responsive design revient à utiliser la solution la plus compliquée techniquement… et donc celle qui est la plus sujette à dysfonctionner.



Le problème, c’est avec les webmaster qui croient dur comme fer à la théorie qu’on leur a enseigné et que l’on a rendu amoureux de la belle harmonie mathématique apportée par le Responsive Design. Ils suivent ce qui leur parait être la solution la plus élégante quitte à se faire des noeuds au cerveau… et des sites qui déconnent.



Sans compter la mode qui donne l’image auprès des copains (ouah, je fait du responsive, je suis un roxor, regardez…).



Le problème c’est qu’être amoureux d’une solution technique est la pire erreur possible en informatique. C’est enseigné en programmation, mais les webmasters n’ont pas souvent ce niveau.



Car il ne faut pas perdre de vue que le point PRINCIPAL c’est que le site DOIT fonctionner CHEZ L’INTERNAUTE.



A voir le nombre de site web qui déconnent sur mobile (ou qui rament au point d’être inutilisables, ce qui est quasiment pareil), le moins qu’on puisse dire, c’est que les créateurs de site échouent lamentablement.



Donc, gardez à l’esprit que la solution la plus simple est souvent la meilleure et presque toujours la plus performante.



Oubliez toutes les théories qui vous paraissent élégantes et commencez par récapituler les impératifs les plus importants d’un site internet :



(1) Ca doit bien fonctionner.

(2) Ca doit être agréable à naviguer pour l’internaute.

(3) Ca doit faire passer l’information pour laquelle c’est conçu.



Ensuite seulement, choisissez la technologie la plus appropriée pour y arriver. Gardez toujours à l’esprit que la simplicité est ce qui fonctionne le mieux.



Le 03/02/2014 à 19h 17







127.0.0.1 a écrit :



Quitte a faire un second site web “spécial mobile”, autant faire directement une appli “spéciale mobile”. L’appli ca se trouve facilement sur le Store du mobile, ca se met a jour tout seul, ca s’installe sous forme d’icone sur l’écran, ca gère les notifications et les spécificités du mobile et surtout… surtout… l’appli c’est l’élément indispensable pour être présent dans le monde mobile.



Le web c’est trop has-been a l’époque du terminal mobile.







La, tu as donné les points positifs, maintenant, donne moi les points négatifs <img data-src=" />



Après, on pèse le tout pour voir si c’est vraiment une si bonne idée.


Le 02/02/2014 à 01h 16







127.0.0.1 a écrit :



Parce que ca va plus vite de développer from-scratch une application pour appareil nomade full-screen tactile 5-10”, plutot que de bidouiller le site web qu’on a mis des années à mettre au point pour fonctionner sur tous les navigateurs desktop/laptop.



Après, on peut toujours viser le “responsive design”. Mais dans les faits, ca va plus vite de choisir la solution adaptée au problème plutot que de partir en quête de la solution universelle.







Depuis quand développer une application serait plus simple et plus rapide que de faire un simple site web en HTML ?



Ensuite, il y a bien plus simple et adapté que le “responsive design” (qui est en réalité une fausse bonne idée : compliqué à mettre au point et ne fonctionne jamais très bien), c’est le site mobile. En gros, tu redirige les mobiles sur un sous domaine avec une maquette spécifique pour les mobiles. C’est du grand classique depuis longtemps.





Le 31/01/2014 à 23h 57







Corendiel a écrit :



Si tu veux démonter ton PC l’affichage du guide sur une tablette est surement un scénario fréquent.







Certes, mais toutes les tablettes sont capables d’afficher une page web.



Le 31/01/2014 à 20h 50

Quel intéret de pousser les gens à installer des applications au lieu de faire des sites web bien fichus ?



Et puis, n’est ce pas une très mauvaise habitude que de banaliser l’installation d’applications sur demande d’un site ?


Le 01/02/2014 à 20h 02







divide a écrit :



Pour avoir suivis (coté dev) l’évolution d’OpenGL depuis 2000, le nombre de calculs et d’algos qui sont déportables du CPU vers le GPU est de plus en plus impressionnant, et cette évolution des standards à diminué d’autant le nombre de drawcalls CPU, les GPU étant de plus en plus autonomes. Donc si tu en arrive au point que le nombre de draw calls est si important dans la charge CPU, c’est qu’il y a vraiment un truc mal branlé dans ton code à la base (comprendre: tu n’as pas su tirer partie au mieux des possibilités de DX/OGL en terme de fonctionnalité, ou tu dois franchement revoir tes passes de rendu).

Par exemple à l’époque d’OpenGL 1.4, il fallait envoyer manuellement tous les sommets d’une sphères en les reliant entre eux (et autant de drawcalls donc), aujourd’hui il suffit juste de demander au GPU de créer une sphère (geometry shader). Pareil pour l’éclairage géré par les shaders, les rendus sur plusieurs targets simultanéments, etc, etc.







Tout cela est bien joli en théorie.



Mais en pratique, il y a toujours un moment ou l’on ne peut pas remplacer les draw calls.



Les optimisations, il y a toujours des limitations. Il faut des objets identiques, ou des objets dont la géométrie peut être calculée, ou des objets qui ont des textures identiques, etc, etc…



En fait, la plupart des optimisations possibles sont juste prévues pour résoudre des cas de figure bien classiques.



Donc si tu vise l’utilisation de techniques classiques pour faire un jeu bien stéréotypé, tout va bien. Sinon, le cauchemar commence…



Des que tu sors un peu des sentiers battus, tu réalise à quel point tout est mal foutu et plein de limitations.



D’ailleurs, je pense que les gains de Mantle se passent de commentaire et montrent bien la perte engendrée par les API.



Le fait même d’un tel gain dans un cas de figure classique laisse présager tout ce qu’on peut en attendre dans d’autres cas de figure.





Pour moi coté développeur le facteur limitant c’est clairement la complexité de développement. L’optimisation, ya 10 chemins différents pour y arriver, mais apprendre la spécificité de l’architecture de tel GPU de telle génération sur telle plateforme, et refaire 6 fois de manière différentes le même algorithme (avec logiquement 6 fois plus de temps de dev et de debug), c’est une perte de temps qui aurait pu être investie dans la recherche d’un algo plus performant.

C’est comme si on revenait à l’écriture de programmes illisibles en assembleur, avec du code spécifique pour Intel/AMD, au lieu d’écrire un code lisible et unique en C++.





Certes, descendre à bas niveau présente des inconvénients en terme de complexité.

Mais cela peut simplifier aussi les choses dans certains cas de figure.



Mais surtout, il n’y a pas d’autre moyen si l’on veut vraiment tirer partie de l’intégralité de la puissance du matériel.



La question, c’est de savoir si un jour les fabricants de GPU seront capables de standardiser leur hardware pour qu’on puisse tirer partie de toute la puissance sans écrire 50 versions différentes.





Bah la génération et le rendu d’un terrain c’est typiquement un truc qui peut être déporté entièrement sur GPU, pour peu qu’il ai les bons geometry/vertex/pixel shader un terrain hyper complexe peut se faire en moins de 10 draw calls…





Oui, dans certains cas de figure. Si par terrain, on entends un truc complexe mais classique fait à partir de heightmaps ou de formules avec tesselation, les GPU savent très bien faire.



Ce genre de cas peut paraitre complexe, il est en réalité très classique et assez bien optimisé par les API.



Les problèmes, c’est quand tu veux faire des choses qui ne sont pas classiques. Les API ne sont pas du tout faites pour, ni optimisées pour et donc deviennent au final des barrières à la créativité.







Le 01/02/2014 à 18h 15







yeagermach1 a écrit :



Ils disent vouloir la mettre libre (enfin que n’importe qui puisse l’utiliser via argent). Le truc marrant, c’est que CUDA du concurrent est aussi “libre” mais AMD a refusé d’y passer.



La meilleur solution, c’est MS qui améliore son DX (comme ca les deux seront obligé de suivre). Cette solution marche aussi avec OpenGL. La pire, NVIDIA développe son propre Mantle. Et les devs se retrouvent a devoir coder : un DX/Open pour les vieilles cartes, un mantle pour les cartes AMD, un mantle-like pour les cartes nvidia …







L’ennui, c’est que plus on veut attaquer un hardware à bas niveau, plus on est tributaire des différences techniques entre les constructeurs, plus il est difficile de mettre tout le monde d’accord sur un standard.



Mais tu peux être certain que s’il y a quelque chose qui est standardisable, ça finira par être intégré aux grandes API.


Le 01/02/2014 à 18h 05







divide a écrit :



A mon avis NVIDIA s’en fout, dans la mesure où les devs vont pas se faire chier à coder du Mantle (dont le code est spécifique à chaque vendeur GPU, chaque génération de GPU et chaque plateforme ..!) pour gagner 15% de perf, alors qu’en remaniant un peu son code DX ou OGL on peut facilement soi-même réduire le nombre de drawcalls (si c’est vraiment un facteur limitant..). Ya plein de techniques pour ça dans les 2 APIs, et surtout un seul code DX ou OGL est universel pour toutes les combinaisons de GPU/Plateforme (surtout avec OGL).

En fait NVIDIA a déjà donné sa réponse, c’est proposer plus d’outils utiles aux développeurs (entre autre via le nouveau SDK Gameworks).







Justement non.



Il y aura toujours des cas ou l’on ne pourra pas réduire le nombre de “drawcall”. Et les techniques visant à les réduire coûtent aussi de la puissance CPU, ce qui est dans certains cas le facteur limitant.



Je suis surpris de lire beaucoup de commentaires sarcastiques ou de gens qui doutent de la voie prise par AMD avec Mantle, y compris dans la presse.



Pourtant, d’un point de vue technique, il est évident que les API de haut niveau sont devenu un énorme facteur limitant. Et c’est encore plus vrai quand on s’éloigne des techniques de rendu standard.



D’ailleurs, c’est déjà beau de voir des gains de 30 à 40% sur un jeu classique pour lesquels les API standard sont faites. Mais on peut certainement s’atteindre à des gains beaucoup plus importants avec certaines techniques novatrices de rendu de terrain.



Donc oui, l’approche d’AMD est non seulement pertinente, mais c’est également une avancée indispensable.







SuperMot a écrit :



Donc si ont résume :





  • Incopatible par les nvidia

  • incopatible avec les anciennes ati

  • En concurance avec directx et donc MS



    Good luck AMD <img data-src=" />







    Toutes les innovations peuvent se décrire ainsi.



    Mais il ne faut pas oublier que Mantle a certainement été conçu pour l’univers des consoles sur lequel AMD est ultra dominant et que les éditeurs réutiliseront le code écrit pour la version PS4.




Le 29/01/2014 à 22h 33







luxian a écrit :



ben … moi j’aimerai surtout compact, sans ventilateur et avec un lecteur de bluray, 4 cores mini et 16 Go de ram et un raid 0 de SSD (en msata pour faire compact).

Après tout, hormis pour les joueurs, les PC sont assez puissants pour quasiment tout, par contre ils manquent de réactivité encore.



Un truc posé sur le bureau qui se fait oublier sous un gros tas de papier posé dessus … ou s’il est pas trop épais (6 cm) : sous le pied de l’écran.



Ah si … j’ajoute à la lettre à papa nawel : pas de petite diode allumée … pour pouvoir le laissé allumé la nuit.







Donc, si je comprends bien, tu voudrait un PC puissant qui n’as pas besoin de refroidir, sans ventilation, le tout dans un espace ultra compact. Avec possibilité de l’enfouir sous une tonne de papier.



Je crains malheureusement que seul un sorcier chevronné pourra t’aider à dépasser ces ennuyeuses lois de la physique.



A moins bien entendu que tu puisse accepter un très léger inconvénient, à savoir que ton PC mette le feu à ton logement de temps à autres.











Le 28/01/2014 à 20h 48







matroska a écrit :



Exactement ! Sauf la fin, la dernière phrase, j’en ai vraiment ras-le-bol d’entendre ça, STOP ! Et de toutes ces personnes qui en jouent…



Sinon je pense que l’on a la le nerf dentaire du problème.



<img data-src=" />







Au contraire, je pense qu’il est réellement important de le mentionner. C’est une référence relativement récente, dans notre propre histoire qui prouve avec force documents et témoignages ce qu’est l’oppression et comment elle peut arriver brutalement.



Avec un peu de chance, certains ont peut être encore un grand père ou une grand mère qui peut leur raconter.



C’est également une bonne référence qui démontre comment la démocratie d’un pays(Allemagne) a pu basculer suite à de simples problèmes économiques.



C’est également un exemple qui montre comment tout un système (le notre) a pu se mettre du jour au lendemain au service de l’application de terribles lois contre ses propres citoyens.



On peut également poursuivre l’étude par l’Allemagne de l’est de l’après guerre pour comprendre la terreur d’une société de surveillance. La police politique, la terrible atmosphère de suspicion, les écoutes à grande échelle, les petites délations malveillantes entre voisins…



Donc voila pourquoi cette période de l’histoire est une excellente base d’étude pour comprendre pourquoi nous ne devrions jamais nous laisser surveiller.


Le 28/01/2014 à 20h 09







ludo0851 a écrit :



Plaignez vous, Plaignez vous!



Heureusement que les US sont là pour nous surveiller car avec un président en mode “j’te conte fleurette” la France partirai à vau-l’eau, c’est ce que ferai un parent pour son enfant

Et si on n’a rien à se reprocher on s’en fout d’être surveillé







Sans doute la plus grave erreur de raisonnement que l’on puisse entendre.



Pour comprendre, il suffit d’ouvrir un livre d’histoire.



Qu’est ce que la démocratie ? C’est le pouvoir au mains du peuple.



La surveillance prive simplement le peuple de son pouvoir de rébellion et de contestation.



Cela fait, les dirigeants n’ont plus peur du peuple et deviennent rapidement des dictateurs qui peuvent passer n’importe quel loi sans craindre la contestation.



Vous croyez sincèrement n’avoir rien à craindre de la surveillance au motif que vous n’avez rien à vous reprocher ?



Et si les lois changent et deviennent iniques et qu’on ne peut pas si opposer parce qu’on est tous surveillés, qui sait si demain vous n’aurez toujours rien à vous reprocher :http://www.ifecosse.org.uk/IMG/pdf/Matin_Brun_texte.pdf



Qui sait, si simplement ces propos anodins que vous écrivez aujourd’hui dans un forum ne seront pas utilisé un jour pour vous mettre en prison ? Vous pensez être tranquille parce que les lois d’aujourd’hui ne le permettent pas, mais que savez vous des lois de demain ?



Tout cela n’est pas de la science fiction, c’est le quotidient de dizaines de pays tombés dans la dictature sur cette terre.



Rappelons nous toujours des heures sombres de l’histoire pour que jamais elles ne se répètent.



Le 28/01/2014 à 19h 54

Tant que les gens ne seront pas sérieusement formés à l’informatique et qu’ils ne comprendront pas ses dangers, il sera extrêmement dangereux de mettre entre leurs mains quoi que ce soit qui contient un microprocesseur.



La disparition de la vie privée, c’est la disparition de toute liberté.



N’oublions pas les leçons de l’histoire ni le temps ou notre propre état collaborait avec l’allemagne nazie.

Le 27/01/2014 à 22h 29







SebGF a écrit :





  1. Les PC portables sont aussi concernés par cette interface, et eux ont des écrans plus petits. L’évolution du marché nous a montré combien le portable a beaucoup été préféré à la tour classique pour faire du Desktop. (que ce soit dans le home ou le pro)

    Les écrans desktop classiques n’ont pas beaucoup bougé en moyenne ces dernières années, les constructeurs préférant se focaliser sur les écrans de tablettes. Les écrans de grande taille ou de résolution supérieure au 1920x1080 standard du moment sont encore assez coûteux.

    Si à l’époque où Unity a été mise en place pour le netbook l’idée de gagner de la place sur l’écran était bonne, je vois pas en quoi elle n’est plus pertinente maintenant qu’elle est passée sur le desktop classique.





    1. La taille des icônes se modifie aisément. La barre peut même disparaître pour gagner encore plus de place.

      Le fait que le launcher soit à base d’icône permet de l’utiliser sur écran tactile… C’est un plus, comme pour Windows 7.

      Utiliser Unity sur un device full tactile, à mes yeux, c’est impossible. Ou alors l’écran passera son temps à se faire bouffer par le clavier virtuel vu qu’on en a beaucoup besoin dedans pour exploiter le moteur de recherche du menu principal.



    2. On gagne de la hauteur sur des écrans qui s’étirent verticalement. Vieux débat du 16/(9|10) contre le 43 et de sa pertinence dans le desktop type bureautique… Faut bien que les interfaces s’y adaptent, non ?

      Avec la généralisation du 169, pour moi c’est une évolution logique que les contrôles et menus arrivent sur les côtés, ça fait gagner de la hauteur.







      Y’a encore beaucoup de sites qui fonctionnent verticalement plutôt que s’étirer sur la largeur de l’écran ne serait-ce que du côté de la presse en ligne.

      N’empêche qu’on aura toujours plus d’espace disponible en largeur qu’en hauteur. Et si la barre latérale peut se masquer, je ne vois pas en quoi elle gêne au final.



      Après comme j’ai dit dans mon premier message, je n’arrive pas à utiliser cette interface sur mon PC perso là où sur le pro ça ne me dérange pas. Elle manque de possibilité d’être personnalisé et j’éprouve certains manques dessus que je n’ai jamais su retrouver pour le moment.

      Pour ça que je suis content de voir MATE, environnement que j’utilise à ce jour, arriver dans les dépôts officiels pour la 14.04LTS.







      (1) Sur un écran de netbook, il y a moins d’espace : quel intéret d’occuper plus de place avec de grandes icones ?



      (1b) La barre d’unity est t’elle aussi pratique et puissante que l’étaient les barres de l’ancien desktop Gnome 2 ?



      (2) Avec un logiciel libre, on peut toujours dire que tout est modifiable et/ou paramétrable. Mais combien de gens le feront ? N’est ce pas aussi au programmeur de proposer d’emblée la meilleure expérience “out of the box” sur chaque type d’appareil ?



      (2b) Tu dit que Unity n’est pas réellement adapté au tactile. N’est t’on pas finalement arrivé à ce dont parlent les propos de l’article, c’est à dire qu’a vouloir unifier, on arrive à quelque chose qui n’est ni complètement mauvais, ni vraiment très bon ?



      (3) Était-ce vraiment une nécessité de s’y adapter sur desktop ?



      (3b) N’y avait t’il pas aussi de meilleures idées pour ré-implémenter la barre des tâches verticalement ? La façon de l’implémenter dans unity est t’elle idéale ?



      (4) C’est une excellente nouvelle de voir arriver Mate dans les dépôts officiels. Mais je suis peiné de voir autant de grands spécialistes de l’interface s’être mépris sur leur capacité à concevoir l’idéal pour l’utilisateur.





Le 26/01/2014 à 19h 50







SebGF a écrit :



Je le redis : Unity Desktop et Unity Mobile (celle d’Ubuntu Touch) sont autant identiques que le Desktop classique de Windows et le Star Screen.



Unity a été développée à la base pour les Netbook avec comme volonté de gagner de l’espace d’affichage. Elle a depuis évolué un peu mais garde les mêmes principes. Mis à part le launcher d’applications sur le côté (qui est similaire à la barre des tâches de WIndows 7 au final) je vois pas trop en quoi c’est une interface mobile…

A l’époque, Canonical n’avait pas encore de vues sur le mobile à ma connaissance, l’interface étant sorti en 2010 (introduite avec la déclinaison Ubuntu 10.10 pour Netbook justement, elle a été instaurée en standard à partir de la 11.04), année de l’iPad pour les tablettes. A l’époque où tout le monde disait “oh, un gros iPhone sous stéroïdes, ça marchera jamais”.

Parce qu’à cette époque, les netbooks étaient encore en vogue avant de se faire zigouiller par les tablettes.



Donc je le redis : Canonical n’a pas fait l’erreur d’unifier les interfaces mobiles et desktop. Elle a fait deux interfaces différentes justement pour les deux environnements, basées sur le même moteur.







En quoi le fait de vouloir gagner de l’espace est t’il pertinent sur l’immense (et toujours plus grand) écran d’un desktop ?



En quoi le fait d’utiliser de grandes icones est pertinent avec une souris bien plus précise que le doigt ?



En quoi le fait de supprimer la barre des tâches fait t’il gagner quoi que ce soit sur un desktop ?



Le 26/01/2014 à 19h 02







SebGF a écrit :



Canonical n’a pas commis cette erreur. Unity est née à l’origine pour la version Netbook d’Ubuntu avec comme objectif d’économiser un maximum d’espace sur l’écran (qui était réduit sur ces appareils).

L’erreur de Canonical c’est d’avoir sorti Unity un peu vite si bien que l’interface était encore limitée et peu mature.

Avec le temps, elle a quand même gagné en pertinence et stabilité. Après, ça reste une interface en cours de développement qui sort des classiques auxquelles nous ont habitué les autres Window Managers.



Unity Desktop et Unity Mobile n’ont quasi rien à voir.



J’ai toujours trouvé la desktop perfectible et incompatible avec mon usage perso (là où sur mon PC pro étonnamment, elle ne me dérange pas) et pour ça je suis content que MATE soit passé en dépôt officiel pour la 14.04.

Entre Unity et Gnome 3, perso je préfère la première.

La version mobile d’Unity est tout simplement excellente pour le peu que j’ai pu en tester dans l’émulateur Ubuntu Touch.



Raison pour laquelle j’ai hâte de voir les smartphones sous Ubuntu Touch pour jouer avec le mode Convergence, et en espérant ne pas avoir un OS bridé à mort comme les autres du marché.







Soyons clair, l’erreur avec Ubuntu et Windows 8 c’est simplement d’avoir voulu unifier les interfaces mobile et desktop, ce qui n’est optimal ni pour l’une, ni pour l’autre. C’était une vision purement idéologique qui manquait grandement de pragmatisme.



Et l’erreur s’est bien confirmée en être une exactement comme je l’avais prédit.



Après, qu’Unity ait potentiellement de belles qualités pour les périphériques tactiles et puisse devenir une belle réussite, je n’en doute pas un instant. C’est juste qu’il faut proposer la bonne interface pour chaque type d’appareil.


Le 25/01/2014 à 22h 16







pithiviers a écrit :



Faudrait pas tout généraliser non plus. Tout le monde ne réagit pas de la même façon.

Quand je suis passé de Windows au Mac, je n’ai eu aucune difficulté d’adaptations. Au contraire, j’ai trouvé le fonctionnement d’OS X bien plus logique et intuitif que Windows. Pour quelque détails, je suis passé par des fora, mais la plus grosse part du fonctionnement d’OS X m’est venu intuitivement.

Et maintenant quand je dois utiliser Windows au boulot, ça me gonfle vite car je trouve le fonctionnement pénible.



Par contre, pour ce qui est de Linux, j’en ai un tel mauvais souvenir, que je me refuse d’y remettre les pieds.







Linux, c’est comme la bonne gastronomie.



Pas le plus facile à trouver dans la première boutique en bas de chez soi.



Pas encore le plus facile à utiliser au premier jour (car rarement vendu préconfiguré sur les machines du commerce.)



Mais il y a des utilisateurs qui cherchent le meilleur et le plus puissant, d’autres qui ne veulent pas se compliquer la vie.



Chacun sa philosophie.


Le 27/01/2014 à 21h 08







Vellou a écrit :



Bah vaut mieux eviter de se prendre pour intellectuel dans ce cas, car ce n’etait pas non plus le corollaire de mes propos. <img data-src=" />

Tu peux tomber juste en interpretant subjectivement des propos, mais visiblement la t’es tombe a cote de la plaque.



Je precise quand meme, pour que tu comprennes bien ou je voulais en venir, que je parle de la pression sociale en general, qui n’a rien a voir avec une pression des DRH ou assimiles.

Cette pression est negative pour ceux qui n’y arrivent pas (depression, alcool, suicide) et positive pour ce que j’appelle “ceux qui en veulent” (motivation, estime de soi).



De mon avis, tu tires une generalite sur une culture que tu avoues ne pas connaitre.

C’est quand meme fort de cafe. <img data-src=" />







Beaucoup de mépris et d’agressivité dans ta réponse.



Je crains qu’a ne vouloir à tout prix contredire, tu ne soit passé à côté du sens de mes propos et des vraies question qu’ils soulèvent.



Et cela n’a rien a voir avec un pays en particulier, ni avec une culture en particulier.



Le 26/01/2014 à 18h 23







Vellou a écrit :



Tu tires une conclusion d’un propos que tu extrapoles : ce n’est pas du tout ce que je voulais dire, et ce n’est pas non plus le reflet de la societe coreenne.







Certes, je ne fait qu’extrapoler ce qui est le corollaire logique du propos. Mais sincèrement je ne pourrais pas parler de la corée, vu que je ne connait pas du tout ce pays.







razcrambl3r a écrit :



Mais non !! C’est comme ça que le monde devrait être !! “Quant aux plus de 50 ans, cadres compris, ils sont ardemment invités à démissionner, car ils coûtent trop cher.”







Ils coûtent trop cher, sont moins productifs et n’ont plus la niaque de quelqu’un de plus jeune.



Il n’empêche que c’est une vision à courte vue. Dans une société, on est toujours obligé de payer pour que tout le monde vive.



A moins de vouloir se résoudre à un monde sans aucune valeur morale. Sauf que d’un point de vue économique, c’est idiot : un chômeur, c’est toujours un consommateur de moins. Et moins de consommateurs, ça fait diminuer l’activité.



Et à quoi bon se faire une bonne place à 30 ans, si c’est pour finir sa vie à 45 ?



Le 25/01/2014 à 20h 32







Vellou a écrit :



Tu etais ou par ? Et tu y es reste combien de temps ? <img data-src=" />



Il y a une forte pression sociale a la maison, au boulot, avec les amis, mais ca a des bons cotes autant que des mauvais. Bons pour ceux qui “en veulent” principalement.







J’adore ce genre de logique qui préfigure une triste réalité : Un age a partir duquel les gens partent à la poubelle.



Je n’ai jamais connu personne chez qui la “méga niaque”, durait toute la vie.



Et toute direction des ressources humaines compétente le sait.