votre avatar

sr17

est avec nous depuis le 26 décembre 2005 ❤️

4322 commentaires

Le 26/04/2013 à 22h 08

Les pouvoirs publics ne devraient pas laisser les FAI dépenser de l’argent français dans des technologies intermédiaires qui sont déjà complètement dépassées.



Il est évident qu’a partir de maintenant, l’intelligence, c’est d’arrêter le cuivre et d’investir chaque euro dans la fibre.



C’est le jeu de la concurrence qui pousse les FAI à développer ces technologies intermédiaires.



Mais pour notre nation et sur le long terme, c’est juste de l’argent jeté par les fenêtres.



D’autant que le cuivre coute de l’argent. Les lignes se dégradent et demandent de l’entretien.



Dans les années qui vont suivre, on réalisera qu’Internet aura une telle importance économique que toutes les zones qui n’ont pas le très haut débit seront fortement handicapés en terme d’activité économique.



Que fera t’on ? Comme pour l’eau et l’électricité, nous serons obligé de tout câbler.



Nous regretterons alors que tant d’argent ait été dépensé dans des technologies dépassées.




Le 26/04/2013 à 19h 37







Rozgann a écrit :



Canonical n’est pas le premier à vouloir faire de la convergence. Wayland a été pensé dès le départ pour pouvoir être utilisé aussi bien sur ordinateur que sur smartphone. La plupart des développeurs Wayland sont employés par Intel, pour l’utiliser d’abord sur MeeGo puis sur Tizen, des OS pour smartphones, tout en étant le remplaçant de Xorg sur ordinateur de bureau… Jolla, dans le cadre du développement de Sailfish, son OS pour smartphone, l’a même rendu compatible avec les pilotes graphiques Android récemment. Je suis curieux de connaitre les besoins spécifiques de Canonical par rapport à ces autres acteurs, sur une brique aussi élémentaire que le serveur graphique.







Et pourtant, il doit bien y avoir une raison pour laquelle les développeurs de Canonical ont décidé d’investir du temps dans un nouveau système.



Un serveur graphique est une brique logicielle primordiale pour les performances de l’ensemble des applications. Une petite différence d’architecture peut tout changer.



C’est bien un domaine ou je dirais que si un développeur pense avoir de meilleures idées, tant mieux qu’il le fasse.



Après tout, ça fera toujours du code libre de plus dans lequel le monde pourra choisir ce qui lui plait le mieux…



Le 26/04/2013 à 19h 30







zozolebo a écrit :



Euuuh parle pour toi ! Tout le monde attend de voir Wayland plutôt. MIR vient seulement rajouter de la fragmentation et foutre un peu plus le bordel dans le monde Linux, pour au final refaire exactement la même chose que Wayland, en moins bien.



Les développeurs les plus réputés du kernel ont bien insisté sur le fait que les développeurs de Canonical étaient en train de réinventer la roue car ils sont trop mauvais pour comprendre comment fonctionne Wayland :



http://linuxfr.org/news/mir-un-serveur-d-affichage-de-trop







En même temps, je comprends aussi les développeurs de Canonical. Ce n’est pas une question d’être bon ou d’être mauvais, c’est juste qu’il est parfois préférable d’avoir la pleine maîtrise de toutes les couches pour obtenir précisément ce que l’on veut et avec le niveau de qualité que l’on veut et les fonctionnalités que l’on veut.



Parfois, a force de ne pas vouloir réinventer la roue, c’est comme cela qu’on tombe dans la médiocrité et que de nombreux logiciels pâtissent de la mauvaise qualité ou de l’inadaptation d’une couche sous-jacente.



Et passer des mois à essayer de convaincre des développeurs tiers qu’il faut implémenter telle ou telle fonctionnalité ou résoudre tel ou tel problème, cela peut être une immense perte de temps.



Oui, ne pas réinventer la roue est une bonne chose, mais c’est aussi parfois une bonne chose d’appliquer la logique inverse. Respectons ceux qui le font parce que c’est parfois la bonne façon de produire des logiciels brillants.



Parfois aussi la compétition est une bonne chose, donc que le meilleur gagne…







Le 25/04/2013 à 16h 14







yeagermach1 a écrit :



On peut te sortir 10 000 exemples dans l’autre sens hein. Exemple ne fait pas loi, loin de la.



En plus si il y a un lecteur SD, il y a de forte chance que le tel soit plus épais que la version sans.



Mon propos n’est pas de dire que c’est impossible, juste que l’on peut pas vouloir un certain nombre de choses d’un coté et de l’autre vouloir des choses contradictoires. Aujourd’hui le consommateur veut pas payer cher mais veut le haut de gamme. Cela se fait avec des concessions que le consommateur ne veut pas faire …



Vouloir garantir une repartion pendant 10 ans, cela implique de stocker l’ensemble des pieces neccesaires pendant 10 ans ou d’etre en moyen de les refaire fabriquer. Et si on prend l’exemple du tel, je vois pas dans 10 ans, Nvidia relancer une fournée de Tegra 3 ou le constructeur gardait des stocks importants de ce proc pendant la même durée. Surtout quand on voit dans les études que la durée de vie avant renouvellement d’un tel est de 2 ans et des poussières (merci les forfaits tels avec mobile pour cela).







Pas d’accord,



Certains téléphones bien construits sont encore très utilisés plus de 12 ans après leur sortie. Par exemple, les nokia 3310. On trouve facilement des pièces pour les réparer.

C’est le cas également des bonnes automobiles qui sont encore réparables 30 ans après leur fabrication.



Il y a différentes façons de régler le problème des pièces détachées. C’est un problème bien connu sur le plan industriel.



-Soit on provisionne un certain nombre de pièces détachées au départ.

-Soit on augmente la standardisation pour pouvoir rendre possible le remplacement d’une pièce ancienne par une pièce plus récente.



Par exemple, une carte graphique qui tombe en panne sur un ordinateur plusieurs années après n’est que rarement remplacée par un modèle identique, mais le plus souvent par un modèle plus récent, mais compatible.



Dans la majorité des cas, le bénéfice pour le consommateur d’avoir des appareils réparables est grand et excède largement le coût engendré.



D’ailleurs, il faut réaliser qu’a l’heure d’aujourd’hui nous ne payons pas le vrai prix des appareils électroniques à cause du biais des monnaies. Mais cela ne perdurera pas éternellement.



Le 25/04/2013 à 15h 55







odin77 a écrit :



Si c’est un véritable problème écologique, lutter contre “l’obsolescence programmée” est un mensonge. Il vaut mieux faire des lois pour améliorer le recyclage et instaurer des processus de fabrication plus “propre”.







Le recyclage n’est jamais parfait. Et les industriels s’arrangeront toujours pour trouver un endroit sur la planète ou ils peuvent polluer en dehors des règles.



Mais le problème écologique n’est pas la première motivation qui doit nous pousser à lutter contre l’obsolescence programmée.



La première raison, c’est que le perpétuel rachat des mêmes objets nous empêche d’en acheter d’autres. Donc c’est une logique qui nous appauvrit et fait baisser notre niveau de vie.



Et même si l’on désire changer nos objets souvent, le fait qu’ils aient une durée de vie importante leur donnera plus de valeur à la revente d’occasion. Cela fera plus d’argent pour acheter le nouveau modèle.



Le 24/04/2013 à 21h 13







domFreedom a écrit :





Un smartphone de 3 ans, hormis la durée de vie de sa batterie qui peut grandement s’atténuer (et qui peut dans la plupart des cas se remplacer), ce qui pêche, c’est la quantité de mémoire et la puissance de calcul embarquées.

Les nouvelles versions d’OS et d’applis fonctionnent de moins en moins bien dessus, et le sentiment que l’on éprouve, en utilisation quotidienne, ne pousse pas à le conserver jusqu’à la fin de sa vie “électronique”…







Et selon toi, si les constructeurs mettent juste ce qu’il faut de mémoire, c’est juste un hasard ?



Ce qui provoque de forts ralentissements avec de nouveaux logiciels et OS, c’est plus souvent le manque de mémoire que de puissance de calcul. C’est un problème classique déjà bien connu sur les PC.



Un peu de mémoire supplémentaires sur les appareils leur permettraient de durer bien plus longtemps pour un surcoût raisonnable à l’achat. La encore, tous les techniciens qui connaissent l’exemple du PC savent que de mettre de la RAM permet de prolonger parfois beaucoup la vie d’un ordinateur.



De plus, je ne connaît pas d’exemples de logiciels bien programmés qui deviennent inutilisable en l’espace de seulement 3 ans sur un hardware donné. La encore, il y aurait beaucoup à en dire.





Pour les TV, ce sera plus le support de futurs nouveaux standards de définition ou d’affichage écran qui pousseront à leur remplacement.





Tiens, c’est amusant parce qu’on est quand même resté presque 50 ans avec les mêmes normes TV et maintenant, il faudrait qu’on change tous les 6 mois.



Suis-je le seul à penser qu’il y a un problème ?





Hors condos qui claquent, quid de la perte de qualité de la dalle, si la TV avait une durée de vie de ses composants de 1520 ans comme les TV cathodiques ?





Les dalles ne perdent pas aussi vite en qualité.















Le 24/04/2013 à 20h 47







hansi a écrit :



Du vent. Tout gouvernement confondu, on a toujours la vente liée, cette obsolescence logicielle programmée, visant à tenir le client en laisse dans un système de dépendance au fournisseur.



Quand à vouloir contrôler le matériel, qu’ils commencent déjà à obliger la publication des codes sources de nos drivers.



Et oui : si le composant est programmé pour tomber en panne après 1 an, alors que le consommable est encore plein à 99%, voilà déjà un point qu’il serait facile à mettre en évidence.



Une loi en Europe pour obliger les fabricants à publier ces sources, ce n’est pas la mer à boire, et ça ôterait déjà 50% du problème.







Tu touche du doigt un problème majeur.



Et oui, sans code source, impossible de vérifier si un constructeur n’a pas programmé un appareil pour tomber en panne. Donc oui, il faudrait obliger à publier les codes sources.



Mais il faut en plus pouvoir vérifier que c’est bien ce code source qui as été compilé et utilisé en tant que firmware pour l’appareil. Cela signifie que l’ensemble doit être ouvert et documenté.



Sinon ?



Et bien sinon, c’est quasiment sans risque pour un constructeur d’introduire des pannes programmées. Parce que personne ne sera jamais vraiment en mesure de vérifier que ce n’est pas le cas.



Pragmatiquement parlant, ce que l’on ne peut contrôler ne peut être interdit et ce qui ne peut être interdit est de fait autorisé et devient pratique courante.



De fait, les techniciens savent qu’il y a déjà des dérives. Et si l’on ne prends pas les mesures nécessaires pour luter contre ces dérives, elles vont s’amplifier avec le temps.





Le 24/04/2013 à 20h 30







odin77 a écrit :



Quand tu auras compris que les verts veulent la décroissance, tu as déjà compris où ils veulent en venir avec leurs lois à la con.







Personnellement, je ne suis pas du tout écolo, mais il est évident que sur le plan économique, la durabilité des biens influe sur le niveau de vie.



Je ne vois pas l’intéret de produire toujours plus d’objets si c’est pour les détruire toujours plus vite.





Le 24/04/2013 à 19h 26







Aloyse57 a écrit :



Et pour les bagnoles ont fait quoi ? Si elles durent 10 ans, on dit que ce sont des poubelles polluantes. Si elles ne tiennent que 10 ans ce sont des taudis. Faudrait savoir <img data-src=" />







Tout le problème est de savoir raison garder.



Est ce qu’une voiture de 10 ans d’age pollue vraiment plus qu’une automobile récente ? La réponse est non.



D’autant que de détruire une automobile et en produire une nouvelle engendre une empreinte écologique non négligeable, un coût énergétique certain et un déficit évident pour notre balance commerciale.



Le problème date d’il y a 20 ans parce qu’il y a eu de grandes avancées en la matière avec le pot catalytique, la généralisation de l’injection électronique et la suppression de l’essence plombée.



Mais depuis, il y a surtout beaucoup de “green washing”…



D’autant que le plus gros problème de pollution que nous avons actuellement n’est pas lié aux véhicules anciens, mais au fait que les véhicules diesel ont été et continuent à être favorisés par la fiscalité des carburants en France.



Le 24/04/2013 à 18h 17







yeagermach1 a écrit :



Faut savoir ce que l’on veut aussi. Faire un truc de 10mm d’épaisseur, cela impose certaines contraintes techniques. Et souvent c’est juste plus simple de coller que de mettre des vis. Pareil pour la dissipation de la chaleur par exemple.







Pas du tout d’accord.



Les vis, c’est très simple, ça prends très peu de place. Et c’est moins compliqué à la fabrication que le collage.



Il suffit de voir ce qu’on fait avec des vis en horlogerie (même en bas de gamme) pour comprendre qu’il n’y a pas de vraie justification technique.



D’ailleurs, il suffit de constater que les produits difficiles à démonter, ce n’est pas vraiment une question de taille, mais plutôt de mentalité de l’entreprise qui les produit.





On veut a la fois le beurre, l’argent du beurre et la cremiere. Oui un fabricant est capable de faire un produit qui dure 10 ans, mais cela va etre cher





La encore, pas du tout d’accord.



Le constat du problème de l’obsolescence programmée viens du fait qu’un certain nombre de techniciens qualifiés ont compris que le problème ne viens pas tellement de la réduction du coût de fabrication mais plutôt de la volonté de réduire artificiellement la durée des produits.



Dit autrement, dans beaucoup de cas, faire des appareils significativement plus durables n’imposerait pas un cout significativement supérieur pour la bonne et simple raisons que leurs fabricants sont obligés de faire quelque chose pour qu’ils durent moins longtemps.



C’est pour cela que les stratégies visant à créer de l’obsolescence programmée sont très nuisibles pour la société parce qu’elles conduisent à gaspiller de la valeur ajoutée.





et le consomateur va se plaindre au bout de 2 ans voir moins qu’il a pas la derniere fonction a la mode et que c’est un scandale vu le prix qu’il a payé.





Ce qui est scandaleux, c’est surtout de devoir payer un appareil complet quand une mise à jour logicielle aurait suffi. Et même s’il faut payer pour ce travail, cela coûtera toujours moins cher au consommateur que de devoir payer pour le logiciel ET le matériel.





Il y a qu’a voir avec les decodeurs TNT qui faisaient pas HD et/ou ceux qui avaient une memoire super petite (mais parfaitement suffisante au moment ou c’est sortie) qui ne permettait pas de recuperer les nouvelles chaines de tele quand il y en a eu de nouvelles.





Mettre des mémoires tout juste suffisante, cela fait partie des stratégies d’obsolescence programmées. Un composant mémoire plus gros n’impose pas un surcoût très significatif et permet d’augmenter significativement la durée de vie.



C’est un exemple qui démontre une des conclusions auquel les techniciens sont arrivés : on estime que dans beaucoup de produits, un surcoût de 10 ou 20% aboutirait à doubler ou tripler leur durée de vie, voir plus.



Quand aux normes, c’est aux pouvoirs publics de bien les planifier : Pourquoi ne pas avoir attendu la norme HD pour la TNT ? Si on laisse faire les fabricants, il y aura bientôt une nouvelle norme télé tous les 6 mois.



Limitons les changement de norme télé, cela sera bien suffisant et nous réduirons la consommation d’appareils électronique de manière drastique.





Le 24/04/2013 à 16h 39







CR_B7 a écrit :



Cette loi ne s’applique pas qu’au made in france, mais au vendu en france donc l’amélioration de nos produit n’est clairement pas un but.







Certes, mais il ne faut pas oublier que le marché français est le premier marché pour la plupart de nos industriels. Commencer par être plus exigeants sur ce que nous attendons d’eux chez nous, c’est un pas important vers une réputation de “Qualité Française”.





Et quand je vois ce qui est jeté et qui marche encore je pense que c’est pas une loi qu’il faut au consommateur francais mais une baisse de son pouvoir d’achat pour qu’il se remette a reflechir.



Ça hurle l’obsolescence programmé tout en voulant changer de téléphone et de pc tout les 18mois.



Le plus gros probleme c’est qu’une loi ca sert a rien mais c’est vite pondu, et un changement de mentalité c’est utile mais long.





Tout à fait.



Mais il faut bien commencer quelque part.



Même si on sait que cette loi aurait d’abord une valeur symbolique, ce serait un pas important pour faire comprendre aux gens ce qui est mauvais pour eux.



C’est aussi une arme dans les mains des associations de consommateurs qui pourraient éventuellement faire interdire à la vente les smartphones indémontables intégrant une batterie scellée dans l’appareil.





Le pire étant je trouve l’automobile ou il y a 3ans on donnait des primes a tout va pour jeter des voitures tout a fait convenables, je crois que l’état lui même deviens schizophrène.





Économiquement parlant, c’était complètement idiot. Acheter des voitures dont nous n’avions pas besoin avec l’argent de nos impôts tout en détruisant des voitures qui avaient un potentiel d’usage encore très élevé, quand on connaît la valeur ajoutée qu’il faut apporter pour produire une automobile, c’est peut être bien le gaspillage du siècle.



Mais bon, cela fait partie des “mesures de la facilité” dont nos politiques ont usé et abusé pendant 30 ans pour aboutir à une france en état de quasi faillite.



Le 24/04/2013 à 16h 28







IAmNotANumber a écrit :



Non mais déjà un truc qui serait bien serait surtout d’imposer aux industriels que les appareil soient DEMONTABLES, tout simplement <img data-src=" />



Réparer un écran LCD me prend 10 minutes diagnostic de panne compris et une paire de condos - quoique mon record soit sur un Hanns-G où il m’a fallu en remplacer 8 <img data-src=" /> - mais le démonter sans le péter je peux y passer deux heures !







On ne compte plus les fabricants d’appareils électroniques qui rendent leurs appareils indémontables. C’est évidement une stratégie manifeste pour compliquer la tâche des réparateurs et rendre les appareils économiquement irréparables. Et pour en rajouter une couche, des consommables comme les batteries ne sont plus amovibles, ce qui limite de facto la durée de vie des produits.



Mais voila, tant que le politique, mais aussi la presse et les consommateurs seront complaisants avec ça, on ne pourra rien faire.



Combien de sites web s’empressent de “newser” sur les nouveaux produits, mais ne parlent JAMAIS des difficultés de réparations de ces derniers ?



Tant que nous serons complaisants avec cela, ce que nous acceptons en réalité, c’est de voir partir en fumée une bonne partie de notre pouvoir d’achat.


Le 24/04/2013 à 16h 12



augmenter la garantie de deux à cinq ans, c’est un renchérissement de 20 % du prix, ce qui serait malvenu en ces temps de crise





Au contraire.



Car ce renchérissement du prix de seulement 20% aurait pour contrepartie une augmentation très significative de la durée de vie des produits, ce qui représente un gain absolument colossal à l’échelle de la nation en relativement peu de temps.



A qui profite un produit de mauvaise qualité qui tombe en panne rapidement ? Certainement pas aux ménages modestes qui les auront achetés.



Sur le plan industriel, nous aurions également beaucoup à y gagner en poussant nos propres industriels à augmenter significativement la qualité des produits, ce qui serait un pari gagnant sur le marché international.



Ce serait une bonne façon de redorer réellement la réputation de nos produits et de mieux nous positionner par rapport aux allemands.








Le 24/04/2013 à 18h 49







ldesnogu a écrit :



Tu compares des choses qui n’ont rien a voir au final. Un SoC de tablette/smartphone c’est 20 a 30 dollars. Y’a pas beaucoup de CPU de PC a ce prix la.







Excellente conclusion.



Nous en revenons donc exactement à ce que je disais dans mon premier post : avec des tablettes vendues souvent a des prix équivalents à celui de vrais PC, il y a de quoi se faire de belles marges parce que leur coeur coute moins cher <img data-src=" />.


Le 24/04/2013 à 17h 33







ldesnogu a écrit :



Lopocompris.



A surface de silicium equivalente, les marges d’Intel sont infiniment plus elevees.







A surface de silicium équivalente, c’est très difficile de le savoir.



Bien sûr, compte tenue de leurs énormes volumes de production, il est tout de même vraisemblable qu’ils arrivent à en tirer une économie d’échelle.



Mais il ne faut pas oublier ce que coûte la R&D dans ce domaine. C’est ce qui as poussé de nombreux fabricants à aller vers le modèle Fabless qui permet aux fondeurs de se spécialiser et d’augmenter leurs volumes de productions.



Maintenant, ce que je voulais dire dans mon message, c’est que si on compare un PC et une tablette au même prix, il y a plus de transistors dans le PC que dans la tablette.







Le 24/04/2013 à 14h 44

Oui, il y a de belles marges sur l’ARM : faibles surfaces de silicium et prix de vente élevés pour les tablettes. De quoi faire de beaux profits.

Le 23/04/2013 à 15h 18

Il est évident que dans un contexte professionnel ou il y a quantité de texte à saisir, une tablette tactile ferait perdre beaucoup de temps et donc d’argent aux entreprises. L’interface tactile est trop imprécise et ne peut en aucun cas rivaliser avec le couple clavier souris en terme de productivité.



La tablette tactile est un bon produit pour surfer ou regarder des vidéo assis sur son canapé, c’est comme une sorte de minitel. Mais au delà, on tomberait dans des usages inadaptés.



Quand aux netbooks, les revendeurs sont extrêmement demandeurs parce que les clients continuent d’en acheter en quantité. Peu chers, légers, pas encombrants et dotés d’une excellente autonomie, ces machines sont très pratiques en usage nomade.

Le 22/04/2013 à 17h 03

Personnellement, j’ai bien aimé le ton décalé de SR3, mais cela n’excuse pas le fait que le scénario n’était vraiment pas assez travaillé, que le feeling des véhicules est beaucoup trop “arcade” et le gameplay général est loin du niveau de mafia ou de GTA.



Dans l’ensemble, c’est un jeu qui ne m’a pas laissé une bonne impression.

Le 22/04/2013 à 16h 56

S’ils font cela, c’en est fini de l’économie numérique en France.



Les gros ? Ils délocaliseront leurs services hors d’Europe.



Et comme d’habitude, la taxe reposera sur tous les petits acteurs qui seront bien pénalisés.



Voila tout ce que la France est capable de faire : tout taxer jusqu’à ce que plus rien ne bouge.



Tous les industriels vous le diront : la France est un pays de Losers qui n’a qu’un seul avenir : la faillite.

Le 21/04/2013 à 15h 25







Ricard a écrit :



Y a pas que ça. Quand tu vois la surface pro à 1000\( sans clavier, sans office dessus, t'arrives à 1300\) pour un écran ridicule… Je vois pas où est le “pro” là-dedans. Du marketing hasardeux, doublé d’une mauvaise foi pénible, le tout en temps de crise. Le PC a encore de très beaux jours devant lui.







Surtout que pour ce prix la, tu as un très beau PC.



Mais c’est un grand classique du marketing de faire un produit hors de prix pour essayer de donner une image haut de gamme.



Mais il y a des limites à toute stratégie et surtout, à ce que le consommateur est prêt à accepter comme prix pour un produit qui est perçu comme étant plus limité qu’un vrai PC.



C’est ce qui me fait dire que les constructeurs en reviendrons : la tablette ne sera jamais un produit haut de gamme. Cela sera d’autant plus vrai quand la mode passera et que les gens verrons cela comme un consommable courant.



Et puis, Apple avec ses iPads peut jouer sur le côté “hype” parce que c’est l’image qu’ils cultivent depuis des décennies. Mais Microsoft n’a pas l’image ni le savoir faire pour venir chasser du jour au lendemain sur les terres d’Apple.





Le 21/04/2013 à 15h 09







methos1435 a écrit :



Le marché des tablettes évoluerait en parallèle de celui du PC ça ne me gènerait pas. Mais ce n’est pas le cas. L’un est en train de bouffer l’autre. Et désolé mais perso j’ai pas envie de subir uniquement parce certains ont des besoins plus limités que d’autres …





Et pour info Intel n’a plus de licence ARM. Ils ont revendu ya déja des années.







T’inquiète pas, les fabricants vont en revenir très vite du discours “prenez un produit limité parce que ça vous suffit”.



Parce qu’a long terme, ce n’est pas cela qui tirera leurs marges vers le haut.



Passé la mode actuelle, ils changeront vite leur fusil d’épaule.



Le 20/04/2013 à 15h 40

Comme on dit, les arbres ne grimpent jamais jusqu’au ciel.



Après des années de hausse ininterrompue, il est logique que le marché des PC subisse la crise comme les autres.



Mais quelle industrie ne souffre pas de nos jours ? Même les voitures allemandes souffrent



Le marché du PC subit également la fin de la loi de moore et la concentration de certains acteurs avec pour conséquence le fait que certains fabricants de pièces n’innovent plus autant que par le passé.



Mais certains vont un peu vite à dire que ce marché est mort. Nous en reviendrons simplement au niveau du marché d’il y a quelques années.



Est ce que les tablettes et smartphones rendront le PC plus cher ? C’est possible. Mais l’inverse est également possible dans la mesure ou toutes ces technologies partagent à la base la même R&D. Et les technologies permettant d’améliorer le rapport Performances/Consommation profitent également aux gros PC.



L’exemple même de cela, c’est le Raspberry PI. C’est bien un Personnal Computer à un prix jamais vu auparavant. Et le coeur de ce bidule est un SOC qui était bien destiné à l’origine aux tablettes/smartphones.



C’est la ou il faut réaliser que les smartphones et tablettes sont juste des ordinateurs sans clavier et avec un OS simplifié.


Le 20/04/2013 à 16h 00



« il faut arrêter de penser qu’innovation rime avec pertes »





Je ne suis pas du tout d’accord.



Et il ne suffit pas de brandir des exemples aussi particuliers que Minecraft pour prouver quoi que ce soit.



Quand on lance une équipe sur un jeu classique, on sait à peu près ce qu’on obtiendra à l’arrivée et comment le public recevra le jeu.



Lancer une équipe sur un projet innovant, c’est n’être assuré de rien :



-Trouveront t’ils seulement des concepts innovants et intéressants ?

-Ces nouveaux concepts seront t’ils appréciés du public ?

-Le buzz autour du produit prendra t’il ou pas ?



Et force est de constater que dans les produits innovants, les échecs sont extrêmement nombreux. Parce que c’est facile de se tromper.



Ce qu’on bon businessman va regarder avant d’investir, ce n’est pas seulement s’il y a des gens qui réussissent, mais plutôt le rapport argent investi / réussites.



Parce qu’en matière de capital risque, la vérité bête et méchante, c’est que les réussites doivent arriver à compenser les nombreux échecs.

Le 19/04/2013 à 19h 40







lossendae a écrit :



Si ça l’est, mais tu ne t’en rend pas (plus ?) compte.

Tout comme appréhendé un langage orienté objet.







Est ce que c’est vraiment un avantage de faire l’impasse sur le typage dans la mesure ou cela sera source de grandes difficultés par la suite ?



En informatique, remettre au lendemain l’apprentissage des notions primordiales, c’est comme un boomerang qui vous reviens dans la figure.


Le 18/04/2013 à 20h 11







visidio a écrit :



a rien. C’est le joujou hype du moment, t’es geek il t’en faut un, le buzz autour de ce PC miniaturisé qui peut a peine faire tourner quake 3 sans ramer est colossal, mais l’interet de lui faire faire autre chose atteint des sommets de possesion obligatoire qui echappent au commun des mortels, c’est geek faut pas chercher.





comme le dirait jerome bonaldi,



“strictement inutiile, donc rigoureusement indispensable”







Je ne suis pas d’accord, le RPI n’est clairement pas à classer dans cette catégorie d’objet. C’est tout sauf un objet hype et inutile…



Du fait de son faible cout et de sa grande polyvalence, cet objet peut avoir un immense intéret pour les écoles, les centres de formations, les pays en voie de développement, les familles modestes, etc…



Mais le RPI est un objet différent de ce que le commerce vends.



La très grande majorité des objets qu’on nous vends dans le commerce sont des objets fabriqués pour viser une fonction très précise et un public précis.



A l’inverse, un objet comme le Raspberry pi est un objet générique, c’est à dire qu’il est apte à de très nombreux usages. A vous de l’utiliser pour ce qui est utile pour vous.



Parce qu’un ordinateur, c’est à la base un objet générique sans fonction particulière



Mais les gens sont tellement habitués à ce que le vendeur leur dise exactement à quoi il faut utiliser les choses, pour arriver au final… à acheter plusieurs fois le même objet bridé à des fonctions différentes.



Ajoutons que le RPI est un modèle abordable d’ordinateur complet à basse consommation et faible puissance. Et beaucoup de passionnés en achètent un simplement pour expérimenter tout ce qu’on peut faire avec ça.



Le 18/04/2013 à 19h 35







luxian a écrit :



A quel prix le NUC déjà ?



On parle de 50 euros environ là … pas 250.





Encore l’éternel problèmes des gros techos.

Ils pensent à leur nombril élitiste. Si Linux a eu un tel problème pour décoller, c’est à cause de ça je rappelle.

Depuis qu’il y a enfin des distros qui pensent au Connard d’Utilisateur Inculte, ça va mieux …







Combien de temps faudra t’il expliquer que pour utiliser un ordinateur, c’est comme pour tout objet complexe : il faut accepter d’apprendre et de se former.



Sinon ? Et bien sinon l’utilisateur s’expose à de graves problèmes à moyen ou long terme.



Personne ne songerait à utiliser certaines machines industrielles pourtant bien plus simples sans formation. Mais le grand public ne voit pas l’ordinateur comme un objet potentiellement dangereux. Il a tort…



Le problème, c’est les services marketing qui pour mieux vendre des ordinateurs à madame michu va essayer de lui faire croire à tout prix que c’est simple. Mais c’est pour faire leur intéret financier, pas celui des gens.

Après, que vous perdiez des mois de boulot parce que personne ne vous a appris les bonnes règles d’utilisation, ce n’est plus leur problème.



Sinon, concernant le raspberry pi, j’ai été impressionné par la simplicité de configuration de Raspbian. C’est vraiment très loin d’être un objet ésotérique.

On retrouve un peu la simplicité des ordinateurs d’antan ou l’on bootait a partir d’une disquette. Et si la disquette avait un problème, on pouvait booter avec une autre.



Mais sinon, pour ceux qui veulent plus de puissance, on trouve des carte mères avec proco x86 intégré en Mini ITX pour 50€.

Bien sûr, faut rajouter quelques trucs avec. Et au final, c’est quand même plus couteux que le PI, mais sans être aussi cher que le NUC d’intel.


Le 15/04/2013 à 22h 36







jethro a écrit :



<img data-src=" />

Rien ne remplace une mécanique. Rien

C’est simple à expliquer, il faut en avoir une au poignet pour comprendre. <img data-src=" />







C’est ce que je dit, tu aimes ça pour la belle mécanique.



Mais il faut aimer payer cher pour un objet qui fonctionnellement parlant n’est pas aussi pratique qu’une bonne montré électronique à quelques dizaines d’euros.



Avoir une belle montre, c’est comme de posséder une œuvre d’art. Mais tu ne la mettra pas pour aller faire du sport…



Le 15/04/2013 à 20h 33







Tolor a écrit :



Une montre, c’est mécanique non de dieu!!! <img data-src=" />







Non



Une montre, c’était mécanique <img data-src=" />



Parce qu’aucune montre mécanique ne peut prétendre à rivaliser avec la précision d’un “mouvement” électronique.



Alors oui, on peut aimer l’aspect “belle mécanique” d’une belle pièce.



Mais question objet fonctionnel, la montre mécanique n’a plus aucun intéret.



Parce qu’aujourd’hui, on sait faire des montres très précises et peu chères.


Le 14/04/2013 à 15h 35







pithiviers a écrit :



De la mauvaise foi gerbante comme d’habitude de la part de ce membre.

Sur tablette, on a aussi des jeux comme ça:youtube.com YouTubeou comme çayoutube.com YouTubeEt ce sont loin d’être des exceptions.







Sauf que vu la faible résolution d’une vidéo youtube, ça ne permet pas de faire des comparaisons très justes.



Parce qu’ en regardant juste les fiches techniques des circuits, tu verra qu’il existe un énorme gouffre entre une bonne carte graphique de PC et le circuit graphique d’une tablette.



Et je ne parle même pas du fait que l’interface tactile ne vaut absolument rien pour le jeu face au combo clavier-souris. Ca sers à quoi d’avoir des jeux qui essayent d’en mettre plein la vue si le gameplay ne suit pas à cause de l’interface ?



Pour ma part, je dirais que les jeux qui valent le coup sur plateforme mobile se comptent sur les doigts d’une main. et la plupart ne sont pas des jeux qui se la pètent question graphisme.



Le 14/04/2013 à 15h 28







SebGF a écrit :



Intel a beau être partial et défendre son gagne pain (ce qui est logique et tout à leur honneur), mais ils ont raison sur le contenu du message : la tablette tactile ne peut pas se substituer au desktop, elle ne peut que le compléter en le rendant mobile.



Pour moi, les tablettes ce sont des outils de communication et consultation de contenu avec une possibilité rapide de le modifier. Mais ce ne sont pas des outils de production réelle, ils ne sont pas aussi malléables que le PC et sont limités du point de vue système.



Mais hélas, pour le moment, tout le monde se branle sur la tablette en disant que c’est l’avenir, que ça va remplacer nos gros vieux PC pourris et bruyants, gnagnagna et gnagnagna. Mais dans la réalité… Voilà quoi.

Perso si demain on me retire mon PC au boulot et qu’on me donne ce truc de 10” collé à un écran et clavier pour faire genre c’est pareil, ben je perd 90% de mon activité vu qu’aucun des logiciels que j’utilise ne fonctionnera dessus ou alors n’a d’interface fonctionnelle en tactile (déjà qu’en desktop certains le sont à peine <img data-src=" />).







C’est clair, je ne vois pas une secrétaire rentrer ses textes sur une tablette avec un clavier virtuel et sans souris. Même si dans l’absolu, c’est possible, la productivité en souffrirait tellement que les entreprises n’y songeront même pas.



Et même les particuliers, une fois l’effet “mode” passé, ils comprendront qu’une bonne tablette, ça vaut le prix d’un PC correct mais ça fait moins de choses.



Les constructeurs vont aussi en revenir. Comme avec les netbooks, une fois l’effet mode passé, les prix s’effondreront et leurs marges avec.





Le 13/04/2013 à 16h 37

Il faudra que je teste, mais à lire ce qu’il s’en dit, je n’ai pas l’impression que ce jeu apporte vraiment quelque chose par rapport à un bon Unreal Tournament 2004 (qui était et reste le meilleur de la série).

Le 12/04/2013 à 15h 53







arobase40 a écrit :





C’est également ce qui se passe également avec les smartphones et les tablettes sous ARM face au PC, et surtout avec la nouvelle génération de SOC ARM 64 bits en cours !!!







Non, ces processeurs sont encore très loin de ceux d’un bon PC.



Il serait parfaitement possible de créer des ARM beaucoup plus performants, mais ils seraient impossibles à embarquer sur un périphérique mobile pour des raisons de dissipation thermique et de consommation.





Le grand public est tellement exigeant qu’il adopte ne masse les smartphones et les tablettes au point de mettre en danger le marché des PC traditionnels : éh oui, on est en plein dans la news…





Sincèrement, je ne le crois pas. Et pour la bonne et simple raison que toutes ces technologies dérivent des mêmes investissements en R&D.



Il ne faut pas se leurrer, il y aura toujours un marché pour le PC. Et même si les tablettes se vendent bien, le marché de l’ordinateur personnel restera très supérieur à ce qu’il était il y a 30 ans.



Une baisse des ventes en temps de crise après des décennies de hausse signifie t’elle la fin d’un marché ? Si c’était le cas, il faudrait songer à fermer l’ensemble de l’industrie.





Parce qu’en réalité le marché des PC de Gamers n’est qu’un marché de niche. CQFD





Mais un marché de niche qui contient la majorité des prescripteurs et des créateurs. Sans compter les joueurs les plus fortunés.



L’influence et la rentabilité d’un marché ne se définit pas uniquement en terme de nombre.





Ouais, j’imagine que tu as du prendre de très mauvaises habitudes, et qu’il doit te sembler inimaginable de travailler autrement…





Je ne crois pas que la productivité qu’apporte un grand écran et un PC puissant soit juste “une mauvaise habitude”.





L’optimisation doit être un concept inconnu à tes yeux…





Un logiciel optimisé profite encore mieux d’une bécane puissante.



L’optimisation ne remplace pas la puissance, elle permet surtout d’en tirer la quintessence.



Et la quintessence d’un hardware de PC puissant sera toujours supérieur à ce qu’on peut tirer d’un hardware mobile anémique.





C’est sans pour cela que le GS4 avec ton quad ou octo-cores avec sa puissance monumentale n’a besoin que d’une batterie plus petite qu’une carte de crédit en permettant une autonomie 6 à 10 fois supérieure que celle de mon PC portable qui elle a la taille d’un gros pavé !!!





Sauf qu’on ne compare pas la puissance d’un ordinateur juste en comptant le nombre de coeurs sur la fiche du vendeur. En l’occurrence, il suffit de compiler un simple benchmark pour comprendre qu’on ne parle pas du tout de la même chose. Un CPU de smartphone n’est pas comparable à un CPU desktop. Il n’est pas architecturé avec les mêmes impératifs.



D’autant que si on peut embarquer une puissance donnée sur un smartphone et une tablette, cela signifie qu’avec les contraintes techniques moins fortes d’un PC, on peut en embarquer 10 fois plus.



Ce qu’il faut comprendre, c’est que les contraintes techniques sur une tablette ou un smartphone limiteront toujours la puissance par rapport à un PC. Ce dernier représentera donc toujours l’option la plus performante (et de très loin), ce qui assurera de facto sa survie.


Le 11/04/2013 à 19h 07







arobase40 a écrit :



<img data-src=" />



<img data-src=" />



L’hôpital qui se fout de la charité… ^^



Ce qui coute le plus cher dans les smartphones et les tablettes, c’est la partie téléphonie et les différents sensors.



De plus, quand tu vois de nos jours une tablette qui fait du 4k à un prix de combien déjà : 300400 € ???



Trouve moi un seul PC ayant cette résolution et dis moi à quel prix tu le trouves : si tu en trouves (en Laptop)… ^^



Les PC n’arriveront jamais à s’aligner sur le prix des tablettes !!!







Grave erreur de raisonnement.



Pourquoi ?



Simplement parce qu’a la base, l’ordinateur personnel et la tablette partagent une chose en commun : un coeur d’ordinateur.



Donc si je suis ton raisonnement disant que ce qui coute le plus cher, c’est la partie téléphonie et les sensors, on les enlève, on rajoute un clavier et on dispose… d’un ordinateur personnel moins cher qu’une tablette.



Ce qui fait qu’un PC coute plus cher qu’une tablette, c’est simplement parce que le coeur est plus puissant, l’écran plus grand, etc.





Le 11/04/2013 à 18h 58







arobase40 a écrit :



Tu vois les choses par le petit bout de la lorgnette… ^^



Pour le très grand publique : la tablette suffit largement à son besoin.







Le très grand public est beaucoup plus exigeant qu’on ne le croit.



Et le gamin, quand ira chez des potes qui ont un gros PC et qui lui diront : “ta tablette c’est de la merde” tu verra ce qu’il demandera à noël <img data-src=" />





De plus, celle-ci va continuer à progresser et monter en puissance avec des prix toujours maintenus.



Donc il sera plus facile d’acheter plusieurs tablettes que plusieurs PC…





Pas forcément.



Parce que le prix est une question de puissance, pas de forme.





Tu es encore du genre à prendre une maxi tour pour faire du courrier ou pour écrire une thèse ??? <img data-src=" />





Quand il s’agit de faire de la mise en page avec des formules, des images, des graphiques, un bon PC avec un bon écran n’est jamais de trop. Et je ne parle pas de la vidéo que beaucoup d’étudiants utilisent dans leurs projets.



Et crois moi que quand on travaille avec un ordinateur, on comprends très vite qu’on ne rentre pas du texte à longueur de journée avec un écran tactile.



Bref, faut pas comparer des outils de travail sérieux avec des jouets.





Sauf que les consoles n’avaient un seul usage : le jeu !



Ce qui n’est pas le cas des tablettes qui, à terme, seront murs pour faire tourner les jeux les plus gourmands.





Tu ne doit pas y connaître grand chose techniquement pour dire cela.



Les tablettes seront TOUJOURS limitées techniquement par rapport a un PC dans une grande tour.



Pour deux raisons essentielles :



(1) La dissipation thermique : Seuls des composants allégés et basse consommation peuvent être intégrés dans une tablette. Les composants les plus puissants du moment n’ont jamais existé que pour PC desktop. Et cela ne changera JAMAIS parce qu’on ne peut pas changer les lois de la physique. Le small form factor impose des limites qu’on ne pourra pas dépasser.



(2) L’autonomie : Les composants puissants consomment beaucoup, ce qui pose le problème des batteries. Plus de batteries = plus lourd. Et il faudrait des batteries monumentales pour alimenter l’équivalent d’un gros PC. Bref, seul un PC branché sur secteur peut embarquer les composants les plus puissants.



Une fois ces éléments connus, on sait que les jeux les plus beaux et les plus gourmands tourneront toujours sur… des PC et que les tablettes se contenteront toujours de déclinaisons (très) allégées.



Et donc, il y aura toujours des gens pour désirer de bons PC, parce que ce sera toujours le TOP.





Le 11/04/2013 à 18h 45







Lafisk a écrit :



Pas d’accord, sur tablette hybrides tu fais très bien tout cela excepté le jeu vidéos.







Le grand public a fini par désavouer les netbooks a cause de leur manque de puissance. Je ne pense pas qu’ils aimeront qu’on leur remette le couvert avec des ARM encore moins puissants.



D’ailleurs, ou est le succès des tablettes sous Windows qu’on nous prédisait ?





Les consoles ont un public bien plus larges aujourd’hui que les PC, seuls quelque genre résistent encore, la prochaine génération de console risque bien de prendre encore plus de part, surtout si par exemple pour les MMO ils finissent par dire “sur consoles clavier obligatoire pour les MMO”





Honnêtement, il y a une raison toute simple au fait que certains n’achèteront jamais de console : ils payent déjà pour un PC.



Et celui ci est la plupart du temps bien plus puissant qu’une console.





De plus, dans ton exemple l’ado qui voudra jouer aux jeu vidéo, ben il aura sûrement une console car papa veut pas acheter un PC bien plus onéreux pour cela.





Il y a aussi beaucoup de parents qui se disent qu’avec un PC, leur ado ne fera pas QUE jouer.



De plus, une console, c’est plutôt onéreux. Parce que les jeux sont très chers.



Au final, les consoles sont de plus en plus des PC bridés. Logiquement, elles ne pourront pas avoir un avantage au niveau du prix.





Le 11/04/2013 à 18h 37







Lafisk a écrit :



Compare les bénéfices générés par les plus gros titre sur consoles et sur pc … tu devrait revoir ta définition de bien présent. Je dis pas que c’est mort, mais les consoles ont clairement un public bien large, jeune qui commence à avoir l’idée ancrée en tête que jv = consoles.







Et quand ils voudront jouer à de vrais jeux, pas juste des trucs casuals, ils achèteront un PC <img data-src=" />



Quand ils en auront mare de jouer à des FPS avec des pads, ils achèteront un PC.



Quand ils voudront profiter des développement “mods” communautaires autours des jeux, ils achèteront un PC.



Et quand ils voudront un matos vraiment puissant capable de grandes performances en haute résolution, ils achèteront un PC.



Les joueurs PC et console, ce n’est pas la même population.



J’ajouterais qu’une des raisons pour lesquelles la console n’a jamais réussi à tuer le personnal computer pour les jeux, c’est qu’une bonne partie des nouveaux concepts de gameplay naissent sur PC.



Parce que la console étant fermée, elle ne permet aucune créativité.


Le 11/04/2013 à 15h 32







ExoDarkness a écrit :



Rien à ajouter non plus mais je tenais à le dire <img data-src=" />







Dans les années 80, on disait aussi qu’une console serait suffisante pour l’ado qui ne cherche qu’a jouer.



30 ans après, les ordinateurs personnels sont toujours la et toujours bien présent dans le secteur du jeu vidéo.



Le 11/04/2013 à 15h 28







Drepanocytose a écrit :



Ils le savent bien eux-mêmes, ce sont quand même les plus concernés.



C’est pour ca qu’ils se diversifient tous aujourd’hui (enfin : qu’ils essayent) , aussi bien Apple, Google, MS…







Ils se diversifient parce qu’ils ont tous compris que les OS et les logiciels, ça ne sera plus rentable dans un très proche avenir. Parce que les logiciels libres s’imposent doucement, sûrement, mais inéluctablement.



Elles savent que les parts de marché ne veulent pas dire grand chose : Comme on l’a vu avec les navigateurs web, elles peuvent basculer très rapidement. Les logiciels libres sont maintenant suffisamment matures pour faire peser une menace imminente.


Le 11/04/2013 à 15h 20







Lafisk a écrit :



euh ça dépend pour qui hein, pour une grande partie des utilisateurs lambda cela suffit amplement … ma mère ne ce sert plus que de la tablette et à complêtement délaissé son laptop ou son desktop …



N’importe quel utilisateur aux besoins simples peut tout à fait utiliser n’importe quel tablette à la place de son PC.









Aponhcet a écrit :



Pour l’ado ou l’utilisateur lamba qui va sur facebook, regarde des series et joue a candycrush ca sera emplement suffisant…







Pas d’accord, même pour le très grand public, la tablette c’est très limité.



Parce qu’il y aura bien un moment ou papa voudra faire des courriers, que l’ado voudra jouer a de vrais jeux vidéo ou que l’étudiant voudra taper sa thèse. Ils se rendront très vite compte des limites des tablettes.



Dans l’histoire de l’informatique, on a souvent prédit que des produits bridés et destinés au grand public tueraient les ordinateurs. Cela n’est jamais arrivé.



Même les consoles n’ont jamais tué le jeu vidéo sur ordinateur personnel.







RDeluxe a écrit :





Exactement. Le phénomène netbook il y a quelques années avait créé un problème similaire, tuant les ventes de pc portable (“pourquoi je dépenserais 200€ de plus ? Ma machine à 300€ fait tout !”). On a pu constater le destin des netbooks.



Les tablettes ne subiront certainement pas un tel sort, mais quand on verra arriver des tablettes de 13 pouces avec un clavier détachable on aura finalement plus à faire à des laptop qu’à des tablettes.







Tout à fait.



De nombreuses personnes qui ont acheté des netbook “parce que c’était la mode” en sont revenues parce que c’était trop limité. Et le marché s’est effondré.



Le grand public est parfaitement capable d’acheter n’importe quoi parce qu’il est mal informé et très influençable. Et particulièrement de produits qui ne correspondent pas à ses besoins.



Mais gare au retour de bâton…


Le 11/04/2013 à 15h 04

Ces accords me font penser aux monstres dans les films d’horreur.



Quand on en tue un, non seulement il bouge encore, mais en plus, il a déjà fait pleins de petits.

Le 10/04/2013 à 16h 53







TheFelin a écrit :



Compare ce qui est comparable… Tssss tu regardais des vidéos HD sur ton ordinateur il y a 30 ans?







Non, mais on s’en passait très bien.







Le 10/04/2013 à 15h 46







TheFelin a écrit :



Pas de soucis pour moi, avec Free et son blocage je ne peu pas faire un numéro surtaxé et ça c’est le petit plus qui me fait resté chez free. A quand ce blocage sur le forfait 2€ Niel, sors toi un peu les doigts au lieu de nous faire chier avec la 4G alors qu’avec du H+ je dépasse jamais les 100k/s….







On devrait vous faire faire un stage avec des ordinateurs personnels d’il y a 30 ans avec leurs unités de stockage à cassette aux débits bien anémiques histoire de vous apprendre à apprécier à sa juste valeur ce débit de 100k par seconde.


Le 10/04/2013 à 15h 35



Les parlementaires considèrent qu’il « n’est pas normal que ces appels téléphoniques soient surtaxés et payés par le consommateur ». Ils font en effet valoir que les entreprises concernées « amortissent ces installations dans leur comptabilité et récupèrent la TVA ».





Je ne suis pas sûr que ces députés aient bien compris la signification de ces notions.



Primo, l’amortissement ne signifie absolument pas que l’entreprise ne paye pas les sommes.



Secundo, la TVA ne peut être récupérée que sur les achats. Mais (en schématisant) cette récupération correspond simplement à de l’argent que l’entreprise avait avancé et qui doit lui être rendu parce qu’elle n’a pas à payer de taxe sur cette partie. Donc la encore, l’entreprise ne gagne absolument pas d’argent.



Quand aux services publics qui facturent des services alors qu’ils sont déjà rémunérés pour les assurer, c’est tout simplement une honte. Mais cela ne m’étonne pas du tout des “services publics” français.



Enfin, pour finir, j’ajouterais que même si les numéros surtaxés sont parfois utilisés à mauvais escient, il existe également beaucoup d’utilisations qui sont bonnes, par exemple dans le cadre de micro-payements. Leur interdiction pourrait avoir comme effet de faire disparaître certaines activités ou certains services.

Le 10/04/2013 à 16h 15







overdrives a écrit :



Ça n’était pas le cas avec les IGP de carte mère, je doute que je soit le cas avec les IGP de CPU.

Mais même si c’était le cas, quasi toutes les cartes graphiques ont 3 sorties, donc c’est inutile.







Dans la pratique, c’est un peu plus compliqué que cela.



Mais bon, on sait que les gens ont du mal à comprendre qu’il peut y avoir beaucoup de complexité alors que le principe général le parait simple à comprendre.


Le 08/04/2013 à 16h 14







tmtisfree a écrit :



Le seul problème est l’évaluation des services rendus. En pratique, on considère a priori que c’est toujours le cas au motif que si cela ne l’était pas, on n’aurait pas développé initialement ces services. Avec un tel raisonnement circulaire, il n’y a plus besoin de justification à quoi que ce soit.







Justement, si nous partons du principe qu’un service rendu par l’état devrait faire l’objet d’une évaluation d’utilité à priori, mais aussi à posteriori, nous avançons dans le bon sens.



Aujourd’hui, ce qui rends cette évaluation difficile, voir impossible, c’est la peur de la perte d’emploi qui conduit à la création de lobbys qui font pression pour que rien ne change à l’existant afin que personne ne perde son poste. Tant qu’on ne réglera pas le problème de la peur de la perte d’emploi, on ne pourra pas faire évoluer notre système.







On peut aussi démontrer le contraire : que ces infrastructure peuvent toutes être produites par des agents économiques distincts quand elles sont rentables.

Dans les cas où les études prévisionnelles montrent qu’elles ne sont pas rentables (càd que la perte de valeur agrégée temporellement est toujours positive), alors le fait de mutualiser le coût de ces infrastructures n’équivaut qu’à mutualiser ses futures pertes, càd d’appauvrir tout le monde in fine. Ce n’est pas un plan pérenne.





Non, car ce qui n’est pas rentable directement peut l’être indirectement.



Un service peut parfaitement être déficitaire en lui même mais favoriser la création de biens et services. Il serait donc rentable au final, mais uniquement si l’on considère l’économie globale du pays.



Or, le souci de toute entreprises privée, c’est que la comptabilisation de la valeur ne peut s’effectuer que dans le cadre de sa propre comptabilité alors que toute action publique peut être évaluée de manière plus globale.







  • Milton Friedman, 1978. Tax Limitation, Inflation & the Role of Government.





    Globalement, il a parfaitement raison. Mais dans la réalité, les choses ne sont pas complètement manichéennes et les pays qui ont abondé vers le “tout privé” ont vite réalisé que cela produisait aussi de très graves inconvénients.



    La conclusion, c’est que le système qui se rapprocherait de l’idéal, c’est un système avec un bon équilibre entre public et privé.



    Maintenant, si on prends l’exemple de la France, je pense que notre système public aurait besoin d’une très sérieuse restructuration.


Le 08/04/2013 à 16h 03







metaphore54 a écrit :



Il est aussi dit que pour lutter contre ça, la diminution du nombre d’heure de travail mais une augmentation du nombre d’année de travail n’est pas idiot (le partage du travail). Après tout ce qui est dit est théorique et comme tout ce qui est théorique peut très bien se révéler faux en pratique.







Oui, le partage du travail fait partie des recettes applicables à cette nouvelle économie. C’est même une nécessité absolue.



Hélas, la course à la compétitivité actuelle pousse les dirigeants à faire l’inverse, c’est à dire à favoriser le sur-travail d’une petite minorité tout en créant de l’exclusion sociale à grande échelle.



Il est évident qu’un tel système ne pourra plus fonctionner très longtemps.



Le 08/04/2013 à 15h 58







tmtisfree a écrit :



La mécanisation et l’automatisation libèrent l’Homme de ses tâches les plus ingrates, les plus fatigantes, les plus ‘animales’. Le temps et les moyens libérés par ce progrès lui permettent de les consacrer à des fins plus valorisantes et qui sont en définitive sociétalement bénéfiques parce qu’individuellement choisies.







Personne ne dit le contraire.



Le problème, c’est que le système de partage actuel n’y est pas adapté et qu’il faudra le changer.



Parce que dans le cas contraire, seule une minorité de personnes très qualifiées auront du travail, les autres seront exclues du système. Et donc de fait, le système va se gripper faute de consommateurs.





Il y a toujours quelqu’un de plus qualifié pour veiller au bon fonctionnement, maintenir, entretenir et mettre a jour les chaînes de process entièrement automatisés. La recherche en IA n’en est pas encore au point que les machines puissent déterminer de manière autonome leurs propres besoins.

Si on pousse le raisonnement en arrière le plus loin possible, on s’aperçoit que le travail n’existe que parce que les éléments à combiner pour satisfaire les besoins humains primaires nécessitent un schéma et de la force (donc de l’énergie). Si on considère que le schéma (fourni par l’ingéniosité humaine) n’est pas limitatif, l’énergie qui reste à fournir ne dépend aussi que de l’ingéniosité humaine. Résultat : quand l’énergie n’est pas limitative (ce qui est le cas en pratique), la seule limite reste l’imagination et le travail n’est qu’un artefact des limites du schéma qu’on nous impose.

Même dans son contexte, cette affirmation n’est pas assez spécifique pour pouvoir y répondre sans en écrire 10 pages.





Certes, mais nous revenons toujours au même problème : pour que cette économie moderne fonctionne, il faut que la demande ne soit pas limitée artificiellement aux produits de première nécessité pour la majeure partie de la population.



Or, la guerre économique actuelle pousse de nombreux pays (dont l’Allemagne) à faire pression à la baisse sur les salaires, ce qui entraîne une limitation effective de la consommation des produits et services non primaires.



Le 07/04/2013 à 21h 35







pithiviers a écrit :



Raisonnement absurde.

Il faudra toujours des gens pour concevoir (c’est à dire du bureau d’étude aux gens qui les installent) les robots et les chaines de productions, les entretenir, les réparer et vendre, entretenir, réparer ce que ces robots auront produits.







Oui, mais cela représentera une toute petite minorité de gens.



Et plus on poussera des entreprises à la compétitivité, plus elles produiront de biens avec moins de gens.



Regarde une usine du début du siècle et une usine moderne et tu verra l’énorme différence.



Bien sûr, on pourrait toujours créer de nouveaux besoin, mais comme l’avait compris henry ford, on ne peut le faire que dans la mesure ou il existe un système qui produit une demande solvable. Et c’est ce qu’il avait reussi par le fait qu’il avait convaincu les industriels de l’époque d’augmenter les salaires pour que les gens puissent acheter ses voitures.



Essayez seulement d’inventer de nouveaux produits et services non strictement indispensable dans un pays ou les gens ont déjà du mal à payer le strict nécessaire, vous comprendrez le problème.



Mais le problème nouveau, c’est que désormais, la production n’aura besoin que d’une minorité de gens : Tout le monde ne pourra plus travailler.



Mais si ces exclus du monde du travail qui seront de plus en plus nombreux ne consomment plus, le système de production s’écroulera.





Même si j’applaudis la réussite de la Chine, je ne pense pas que copier son modèle économique soit la solution à nos problèmes. Parce que si on réfléchie bien, c’est ce que tu proposes.





Non, c’est un modèle périmé base sur la main d’œuvre humaine massive. Et qui plus est complètement antagoniste donc non généralisable.



Il faut un nouveau modèle économique. Parce que le problème est nouveau, aucun modèle du passé ne peut convenir.



C’est parce qu’ils ne peuvent appliquer des recettes du passé que nos politiques sont perdus.



Mais comme je l’ai dit, il est étonnant que l’on ne trouve pas ces solutions alors que de nombreux économistes ont écrit depuis longtemps sur ce sujet.



Le 07/04/2013 à 21h 12







tmtisfree a écrit :



Économiquement, un fonctionnaire ne produit rien, il est donc une charge nette.







C’est une vision un peu extrémiste ça.



Si tant est que le service produit par le fonctionnaire est utile, sa fonction produit une valeur ajoutée. Le seul problème, c’est d’éviter le développement des services étatiques inutiles, voir nuisibles.



On peut même démontrer que le public peut produire un avantage économique majeur par des infrastructures qui avantagent indirectement les entreprises : de bons réseaux de transport, de fourniture d’énergie, de communication, etc. Mais certaines infrastructures qui ne sont pas directement rentables ne peuvent être gérées correctement par le privé.



L’exemple même, c’est le fibrage du pays pour qu’un accès internet performant soit possible partout. Pour les industries, c’est nécessaire et c’est un avantage économique majeur. Mais pour les opérateurs privés, ce n’est pas directement rentable de fibrer tout le territoire. Conclusion : seul le public peut assurer l’investissement sur des projets rentables pour le pays, mais pas directement pour les entreprises qui assureront leur gestion.



Le public, c’est bon, mais à condition de s’en servir de la bonne manière.



J’ajouterais que la multiplication des fonctionnaires et des services inutiles est le résultat de la crispation autour de l’emploi qui disparaît. Quand on cessera d’appliquer des recettes du passé, ce problème disparaîtra de lui même.


Le 07/04/2013 à 20h 59







tmtisfree a écrit :



Le fordisme a depuis longtemps été supplanté comme doctrine économique. Ce que les gens ne comprennent pas, c’est que la solution n’est pas qu’on leur donne plus d’argent, mais qu’on arrête déjà de leur spolier par la force ce qu’on leur donne en rémunération de leur travail. De plus, quand les économistes mainstream et les politiciens qui les nourrissent comprendront que ce n’est pas la consommation qui tire une économie, mais la production de biens et services, on aura déjà fait un énorme pas en avant.







Et pourtant, l’automatisation produit d’abord une crise de la demande et non pas de l’offre.



Poussons le raisonnement jusqu’au bout, imaginons que les usines produisent tout sans aucune intervention humaine (ce qui est pas loin d’être vrai pour certaines usines ultra modernes). Plus personne n’a de salaire, les usines produisent mais plus personne n’a d’argent pour acheter.



Donc il y a un moment, si on ne modifie pas le cycle économique pour tenir compte de l’évolution, l’économie va se gripper. Et de nombreux économistes ont déjà écrit sur le sujet.