votre avatar

sr17

est avec nous depuis le 26 décembre 2005 ❤️

4322 commentaires

Le 23/09/2016 à 15h 28







Séphi a écrit :



Et dans ton imprimante, qui te dit que le soft n’est pas là pour limiter l’usage de l’imprimante justement pour éviter que la mécanique ou l’électronique ne pète ou ne prenne feu, infligeant beaucoup plus de dégâts au consommateur qu’un simple “oh lala mon imprimante n’imprime plus…”



C’est aussi ça essayer de voir plus loin que le bout de son nez.

Mais le problème reste toujours le même, le consommateur voit que son produit ne marche plus, c’est tout.







Du grand n’importe quoi, vraiment.



Une électronique correctement conçue, ça ne prends pas feu, même après plusieurs décennies.









Le 22/09/2016 à 17h 06

Ah le “merveilleux” monde du logiciel propriétaire…



Ses clé de licences, ses activations, ses prises de tête quand on veut changer une partie du matériel.



Ceux qui sont passé dans le monde du logiciel libre ont oublié tout ces désagréments et croyez moi, c’est un vrai bonheur.




Le 22/09/2016 à 16h 59







frikakwa a écrit :



Je confirme… C720P aussi à la maison et on est mis au ban pour une question foutu kernel! <img data-src=" />







Moi je ne prends que des PC standard. Au moins on peut toujours installer un Linux récent.


Le 21/09/2016 à 17h 37







Mithrill a écrit :



Il suffit de lire la news pour comprendre qu’il n’était pas de bonne foi, CQFD.







Moi je dit que nous ne devrions jamais juger quiconque avec aussi peu d’éléments. <img data-src=" />



Il faut des éléments factuels pour se forger une opinion. Il n’y a que les juges qui peuvent les obtenir….


Le 21/09/2016 à 14h 36







Commentaire_supprime a écrit :



Je connais, j’ai pété ma première Mandrake en installant des tar.gz au lieu d’employer le gestionnaire de paquets, le bouquin d’explications que j’avais avec n’étant pas clair sur l’emploi du gestionnaire de paquets… Et c’est de lire les mérites d’apt-get ici qui m’a convaincu de passer sous Ubuntu moins d’un an plus tard.



C’est ce que je dis à ceux à qui je propose Linux avant tout chose : c’est pas Windows, la logique n’a rien à voir, vous ne pourrez pas utiliser les logiciels que vous avez sous Win (hors logiciels libres comme VLC ou Libreoffice), vous devrez adopter des logiciels spécifiques à Linux à la place, et toutes les installations de logiciels passent par le gestionnaire de paquets/logiciels suivant les époques. Après, les gens l’acceptent ou pas, mais ils sont prévenus.







Moi, ce que je conseille pour ceux qui veulent passer à Linux, c’est :



(1) De s’habituer d’abord à utiliser les logiciels libres (Libre Office, Gimp, etc…) sous Windows.



(2) De faire le bilan de leur matériel pour détecter tout ce qui ne serait pas compatible Linux pour le remplacer.



(3) D’installer un dual boot Linux/Windows plutôt que de supprimer totalement Windows.



Ensuite le passage à Linux n’est plus qu’une simple formalité.


Le 20/09/2016 à 17h 48







levieuxtoby a écrit :



Merci pour cette réponse.

Et est-ce que parmi les besoins ‘power user’ que tu cites, y’en a qui ne correspondent pas à une activité professionnelle ou semi-professionnelle ?

Le sens de la remarque c’est de dire que y’a une part de faux procès qu’on voit souvent (et j’inclue pas les linuxiens de cette conversation dedans) qui serait qu’on abandonnerait ces power users quand on s’ouvrirait au grand public, alors que pour moi, d’une part s’adapter en priorité à des besoins très pointus j’ai du mal à comprendre, et d’autre part cette possibilité d’ajustement très précis ne disparait pas (cf. remarque de sr17).







Et pourtant, un logiciel qui est spécialisé pour le très grand public et un logiciel à destination des pro ne sont pas du tout élaborés de la même manière.



Pendant longtemps, il a existé des logiciels et des Os qui recherchaient une juste millieu, c’est à dire de convenir autant qu’il pouvait le faire a un maximum de monde.



Mais le monde commercial a décidé d’accentuer la spécialisation vers le grand public avec les tablettes et smartphones. Le clivage devient inévitable…


Le 20/09/2016 à 17h 11







Cedrix a écrit :



Dire que ce n’est pas aussi simple, c’est se mettre des barrières pour avancer. ;-)



Perso, je suis un grand adepte de la méthodo LEAN d’Eric Ries. :-)







Bien au contraire.



C’est en étant lucide sur la réalité et la complexité des choses qu’on évite de se prendre les barrières en plein dans la tronche.



Le 20/09/2016 à 16h 59







levieuxtoby a écrit :



À ceux qui ont testé plus de distribs que moi, y’a pas un genre de logique du qui peut le plus peut le moins sur linux ?







Dans le monde du libre, un produit trop exclusif ne fonctionnerait pas.



Donc la plupart des distributions sont très polyvalentes, mêmes celles orientées “débutant”.



Après, le “qui peut le plus peut le moins” implique plus de connaissances de la part de l’utilisateur.



Cela explique que les distributions pour “power users” ne sont pas forcément recommandables pour des débutants.





Est-ce que vous avez des exemples concrets de distribs qui pourraient convenir à un grand public mais sur lesquels le power user ne pourrait absolument rien faire ?





On pourrait citer le cas d’Android même si ce n’est pas une distribution Linux au sens habituel.



C’est basé sur un noyau Linux et les power users sont complètement oubliés.



Le 20/09/2016 à 16h 36







Konrad a écrit :



En fait je crois qu’on a à faire à des personnes qui considèrent que Linux devrait suivre le modèle de Windows.



Leur croyance : il n’y a qu’un seul Windows pour tout le monde, qui répond à tous les besoins, et dont tout le monde est content. Linux devrait être pareil : une seule distribution qui répond aux besoins de tout le monde. Cf notamment commentaire #10 (les suivants sont un peu dans la même veine pour moi).









Ce que les gens ne réalisent pas, c’est que le principe de spécialisation implique qu’il est impossible de couvrir de manière optimale tous les besoins avec le même produit.



Pour donner une analogie “bagnolesque”, un bon camion de déménagement ne sera jamais une bonne formule 1. Les deux ont besoin d’être spécialisés pour atteindre l’optimal de leur fonction.



Le polymorphisme des solutions libres est ce qui leur permet au final d’atteindre une bien plus grande polyvalence que les solutions propriétaires.



Par exemple, Windows ou MacOs n’offrent qu’un unique environnement de bureau. Et tout le monde s’y adapte tant bien que mal.



Linux offre une pléthore d’environnements que l’on pourra choisir en fonction de son niveau, de ses goûts et de ses besoins.



Avec Linux, le power user et le débutant pourront avoir des environnements adaptés à leurs besoins.


Le 20/09/2016 à 16h 19







Cedrix a écrit :



Ce n’est pas moi qui me plaint que Linux n’est pas adopté par le grand public. Qui est plus nombreux ? Les power-users ou les Mme Michu ? :-)



Si j’avais une stratégie commerciale, lesquels je viserais tu penses ? Et avec quel type de produit ?







Attention aux visions simplistes, c’est beaucoup plus compliqué que vous ne l’imaginez.



Il ne suffit pas de faire un produit “grand public” pour toucher le grand public.



Toucher le grand public, ça demande d’investir une montagne d’argent en marketing, publicité, commercial.



Sans cet investissement, aucun canal de distribution n’ouvrira ses portes.



Le monde du logiciel libre n’a pas cet argent contrairement aux multinationales du logiciel propriétaire.



Dans le libre, ceux qui font connaitre le produit, ce sont les power users (Logique de “prescripteurs” en jargon marketing).



Et le problème, c’est que les power users ne veulent pas d’un produit fait uniquement pour les noobs.



Le monde commercial peut se permettre de faire des produits uniquement adaptés à la cible en oubliant les autres.



Mais faire la même chose dans le monde du logiciel libre, ça ne fonctionne pas du tout.


Le 19/09/2016 à 23h 26







fred_gaou a écrit :



Caricature! C’est qui les hommes sages, ceux qui n’écoutent aucun retour et prennent seuls les décisions basées sur leur propre petites conceptions, intérêts et croyances?







C’est une idée reçue.



Un bon développeur sait que si sa vision ne satisfait pas ses utilisateurs, son projet finira enterré par d’autres.



Mais il sait aussi qu’écouter tout le monde est le meilleur moyen d’aboutir a de la merde.



Tout est question de juste milieu.



Pour ceux qui en douteraient, il vous suffit d’observer ce que donne la culture “faite pour plaire au plus grand nombre” pour comprendre ou mène cette voie.



Les meilleures oeuvres ont toujours été celles d’un artiste qui exprime sa conviction et son talent sans forcément se préoccuper de plaire au plus grand nombre.



A vous d’utiliser ce qui vous plait et de laisser le reste.





Ils forkent, ils forkent, d’où le bordel et les retours à ce sujet de plein d’utilisateurs, des éditeurs et dev qui n’envisagent même pas de commencer un projet de portage d’une app win32 sur linux vu le “merdier”, comme tu dis, vu que chaque distrib à sa petite gestion de packet perso, environnement, etc. pffffiouuuu. Tu m’étonnes qu’ils n’ont pas envie. D’où la situation actuelle.



La cohérence, je l’évoque, une ligne directrice qui fondent la naissance d’une distrib est une cohérence et non lubies du moment voulues par des personnes qui n’y connaissent rien. Caricature encore et toujours.



Il est évident que la voix de dev et d’éditeur aurait plus de poids. C’est quand même eux qui travailleraient dessus et produiraient les outils pour le public. Pour cela ils ont besoin de stabilité et des standards qui tiennent dans le temps. Au départ, il faudrait donc un brainstroming de dev mettant en place leurs besoins et le meilleurs moyen de créer un environnement à la fois léger, souple et standardisé pour simplifier au mieux leur boulot. Le retour de la communauté que tu sembles tant déprécier, c’est important pour remonter les bugs, les améliorations, des trucs auxquels tu n’aurais pas pensés et qui font “eureka” quand tu les lis.



“Bref, ne changeons-rien, linux comme c’est, c’est parfait, liberté, tout ça… Si ça ne marche c’est de la faute des méchants Microsoft, etc. parce que si on mettait un ubuntu sur les ordi à carrouf, d’abord, bin les gens y verrait comme c’est la lumière et linux serait les 1er de Le MoNde entiEr.” <img data-src=" />





Ce que certains voient comme un “bordel”, c’est juste la vraie démocratie.



Pour ceux qui aiment la démocratie, désole de vous apprendre que la démocratie qui découle de la décision du plus grand nombre n’est qu’une dictature de la majorité.



Si 51% des utilisateurs ont un besoin donné et que les 49 autres pourcent ont un besoin différent, le projet soit disant “démocratique” ne fera qu’imposer un choix inadapté à la minorité.



Dans le “monde du bordel” que tu dénonce, il se créera deux projets. Ou bien autant de projets qu’il existe de besoins différents et de façon différentes de voir les choses.



C’est cela la vrai diversité. C’est cela la vraie culture.



Tous les utilisateurs n’ont pas les mêmes besoins.



Et tant pis pour ceux qui rêvent d’un monde simpliste de la facilité ou l’effort intellectuel de faire un choix leur serait épargné. Car nous savons ou mène ce monde la…


Le 19/09/2016 à 20h 34







fred_gaou a écrit :



Temps durant lequel Linux est toujours aussi confidentiel en tant qu’ OS quotidien et principal chez les particuliers. Je rêve d’une distrib qui reparte de quasi zéro, qui rassemble en fonctionnant comme une démocratie dont le but serait d’instorer des standards et des outils en fonction des besoins des dev et utilisateurs. Un système de features request en ligne avec système de votes et commentaires pour les prioriser. Bref, une distrib généraliste et polyvalente qui au final repondrait aux besoins de la majorité. C’est peut-être ce genre de distrib qui à terme aurait des chances de faire boule de neige.







La démocratie, c’est une belle idée mais ce n’est pas non plus la recette magique pour tout.



Par exemple, le fait d’être nombreux à avoir tort ne donne pas pour autant raison.



Pour ma part, je pense qu’un projet sera meilleur s’il est dirigé par quelques hommes sages que par une armée de kiloolol.



Et si d’autres pensent avoir une meilleure vision, qu’ils forkent.



Mieux vaut avoir plusieurs projets concurrents qui apportent chacun leur propre vision qu’un espèce de merdier unique sans aucune cohérence parce qu’il suit toutes les lubies du moment voulues par des personnes qui n’y connaissent rien.


Le 19/09/2016 à 18h 21







Okki a écrit :





Red Hat t’a écouté, et ils peuvent désormais utiliser Flatpak <img data-src=" />







C’est une bonne chose de voir apparaître de tels outils. Malheureusement, ça ne concerne que la problématique technique, ça ne règle pas le problème principal qui est l’accès aux dépôts des distributions.



Les éditeurs ont absolument besoin d’être dans les dépot d’un OS pour des raisons de visibilité. Publier dans son coin et faire connaitre une appli sans l’aide d’un store, ça coûte beaucoup trop cher.


Le 19/09/2016 à 17h 54







Cedrix a écrit :



Konrad et sr17, parfois vous n’avez pas l’impression de dire invariablement la même chose sur chaque news ?



Le consommateur, il veut que ça marche. Et donc la vente liée c’est mal mais personne ne préinstalle de Linux… Donc il ne va pas choisir autre chose.



Lancez donc votre business Linux, ça peut marcher !







C’est une vision naïve.



D’abord, le consommateur ne recherche pas Linux ou Windows, il rentre dans un hypermarché et en ressort avec ce qu’il y trouve. Et s’il y trouve du Windows, il ressort avec du Windows.



Pour le reste, c’est compliqué (et trop long) d’expliquer à des profanes comment le monde du commerce fonctionne : canaux de distribution, grandes marques et leurs accords, mass marketing. Tout cela décide en amont de ce qui sera présent dans les points de vente.



Pour ceux qui pensent qu’ils suffit de monter sa boite pour vendre quelque chose, vous rêvez. C’est beaucoup plus compliqué que vous ne l’imaginez.


Le 19/09/2016 à 17h 05









Konrad a écrit :



Oui, c’est vrai aussi. Si les applications les plus utilisées (jeux vidéos, MS-Office, Photoshop, etc.) étaient disponibles en version Linux, ça aiderait beaucoup.



Mais il faut bien comprendre que cet aspect là n’est pas du tout dans les mains de la communauté Linux. Comme il s’agit de logiciels propriétaires, le portage revient entièrement à leurs éditeurs respectifs : les développeurs des distribs Linux ne peuvent rien faire.



Certains éditeurs ont déjà sauté le pas (notamment Valve et d’autres éditeurs du côté des jeux vidéos), mais d’autres se cachent encore derrière l’argument « Linux desktop a 1% de parts de marché alors ça ne nous rapportera rien de porter nos applis ».







Si, il y a des choses que le monde Linux peut faire pour améliorer la situation.



Par exemple, faire en sorte qu’un éditeur ne soit pas obligé d’attende des mois le bon vouloir d’un volontaire pour publier une application ou une mise à jour dans les dépôts.



Malheureusement, le monde du libre est encore trop orienté amateur et volontariat. Il y a une révolution culturelle à mener pour convenir aux besoins des éditeurs commerciaux.





Le 19/09/2016 à 15h 58







levieuxtoby a écrit :



Sans remettre en cause cette raison, il me semble que l’écosystème d’applications joue aussi beaucoup non ? Il y a un effet d’entraînement qui aurait lieu s’il y avait moins de vente liée, mais pas que.







Justement, comparons.



Un bonne distribution Linux propose des dizaines de milliers de logiciels gratuits et de qualité qui s’installent d’un seul clic.



Sérieusement, connait-tu un seul Os propriétaire qui propose l’équivalent ?


Le 19/09/2016 à 15h 21







BTCKnight a écrit :



C’est “un peu” débile, je trouve, que les développeurs se dispersent à essayer de pondre et de mettre à jour un million (ou presque) de distros différentes de Linux.

C’est la principale tare de Linux et ce qui l’empêche (jusqu’à maintenant) de s’imposer sur le desktop (et ce qui rebute certaines initiatives commerciales et fait fuire les éditeurs de softs).

Je trouve qu’on devrait s’occuper et utiliser les 4 ou 5 premières distros (tout au plus) et boycotter les autres (Darwin avait raison).

J’imagine que tout le monde ne sera pas d’accord avec moi… mais c’est aussi parce-que vous ne parvenez pas à vous mettre à la place d’un débutant… lorsqu’un débutant veut utiliser Windows, il utilise Windows 10 et c’est tout… il n’y a pas des centaines de versions différentes de Windows pour installer sur un PC de base.

Pourtant je ne suis pas le seul à le penser, il vous suffit de taper “too many linux distributions” sur Google pour le vérifier…







Non, la raison qui empêche Linux de s’imposer sur desktop, c’est que les machines sont vendues préinstallées avec Windows sans que le consommateur puisse faire facilement un autre choix.



A une époque, internet explorer avait 98% de PDM parce qu’il venait préinstallé. Ca s’est écroulé le jour ou l’Europe à imposé à Microsoft un écran de choix permettant de choisir entre plusieurs navigateurs.



Donc les choses changeront quand le politique aura l’intelligence de comprendre qu’une hégémonie planétaire d’un seul acteur est mauvais pour tout le monde.



Quand à Linux, ce que tu vois comme une faiblesse est au contraire sa plus grande force. Pas d’hégémonie dans le monde Linux, c’est ce qui pousse à l’excellence et permet une diversité adaptée à tous les usages.



C’est justement cette caractéristique qui fait que Linux ne reproduira pas les erreurs de Windows.



La difficulté de choix pour les débutants ? En pratique elle n’existe pas car il existe une distribution plus connue que les autres qui est le choix de la plupart des débutants.


Le 17/09/2016 à 14h 48







KP2 a écrit :



Ca a beau etre des smartphones haut de gamme, ca reste des trucs “a pas cher” à coté des montres et des boitiers industriels qui utilisent ce genre de joint…

Et puis, il y a surement des contraintes specifiques aux produits embarquant de l’electronique et des batteries au lithium. J’ai du mal a imaginer qu’Apple n’a pas étudié cette solution…







On trouve des étanchéités par joint toriques dans des Casio à 40€ et qui sont étanches 50 ou 100m.



J’imagine qu’Apple doit avoir ses raisons, mais la colle est une solution technique que je n’aime pas.











Le 16/09/2016 à 14h 08







AlphaBeta a écrit :



finalement la grande innovation, c’est un bout de ruban adhésif pour limiter les éclaboussures !







Un tel choix technique sur des smartphones haut de gamme, sincèrement j’ai du mal à comprendre.



Pour l’étanchéité, les fabricants de montres et de boîtiers industriels utilisent des joints toriques en nitrile depuis des lustres.



C’est une solution performante qui est plus simple et plus “propre” que la colle. Cela permet également un démontage facile.


Le 16/09/2016 à 15h 51







sioowan a écrit :



Mon Saitek a plus de 10 ans et fonctionne toujours aussi bien.

Je ne fais que de la simu avec.

Et mon G25 à près de 7 ans.

Faut prendre soin de son matériel.



Mon Amiga qui a 30 ans fonctionne toujours, ainsi que les disquettes :)







Enfin, il faut le dire vite….



Tous les Amiga qui avaient une horloge interne avec la batterie sont normalement HS à l’heure actuelle, l’acide de la batterie CD-NI ayant rongé les PCB…


Le 15/09/2016 à 16h 45







Anakior a écrit :



Ionic 2 utilise Angular 2 aussi.



J’ai utilisé le 1 et la transition vers le 2 est difficile forcément. C’est comme passer de Symfony 1.4 à 2. Il y a énormément de changement qu’il faut appréhender.



Mais TypeScript amène beaucoup de chose intéressante pour peine qu’on s’y penche un peu plus de 5min. Google a fait un guide d’ailleurs pour aider&#160https://angular.io/styleguide







Ce n’est pas un problème.



Les informaticiens d’aujourd’hui sont plus performants que les anciens en plus d’être moins chers.



Grace au nouveau firmware “Esclave 2.0” implanté durant leur formation, ils se mettent à niveau sur leur temps libre et même la nuit s’il le faut. <img data-src=" />



Ils disposent même d’une fonction caché méconnue. Si on l’active avec la bonne procédure, ils peuvent même nettoyer le sol et récurer les chiottes.


Le 14/09/2016 à 19h 43







tmtisfree a écrit :



L’économie actuelle (étatiquement dirigée) n’est effectivement pas une économie naturelle. Donc qu’elle périclite est tout à fait logique et normal.



Les agents économiques gèrent leur business de manière la plus optimale possible (relativement parlant) et ils savent tout cela mieux que les guignols d’en haut qui font semblant de comprendre avec des informations qu’ils n’ont pas, ou trop globales. Merci d’adresser tes considérations à ces tocards pour qu’ils nous laissent nous adapter à un monde dynamique plutôt que de vouloir préserver les rentes de leurs futurs votants.







La question que je me suis toujours posée, c’est de savoir si en réalité les capitalistes veulent vraiment du libéralisme.



Pour un capitaliste, l’optimum économique ça peut parfaitement être un bon gros pays socialiste avec un état mamouth qui pousse les travailleurs dans les usines à coup de baillonnettes pour un salaire de misère, une couchette et un bol de riz.



Quand à ton économie économie naturelle, si elle pouvait exister, je suis persuadé que les capitalistes seraient bien les premiers à tout faire pour la détruire. Globalement, ils préfèrent les pays ou la classe politique mène le peuple ou ça les arrange…



D’ailleurs, contrairement aux idées reçues, les pays qui ont la diarrhée réglementaire, ça ne les dérangent pas trop. Ils font même assez souvent du lobbying pour pousser de nouvelles normes. Plus de norme, ça veut dire moins de concurrence de petits acteurs. Et surtout, quand une norme change, c’est un excellent moyen de faire de l’argent. Les gens n’imaginent pas ce qu’une simple norme peut engendrer…



En fait, les capitalistes aiment le libéralisme, mais uniquement les jours ou ça les arrange. <img data-src=" />





Ce serait un moindre mal. Le système français fait aussi tout pour éviter la création de nombreux emplois à forte rentabilité (le profit c’est le mal).





Il y a du vrai, mais cela n’est pas le pire.



Ceux qui veulent faire du pognon aujourd’hui, ils ne se cassent pas tellement la tête. Ils font fabriquer des merdouilles en chine pour 1$, ils revendent 100€ ici et ils font disparaître le gros de la marge par une société écran dans un paradis fiscal. Ensuite ils profitent de leur argent dans les pays ou c’est le moins cher.



Pourquoi voudrait-tu que des investisseurs gaspillent leur argent et prennent des risques pour créer de la forte valeur ajoutée ici alors qu’il est bien plus simple et surtout moins risqué de s’enrichir en profitant des cours des monnaies et autres jeux de passe-passe financiers permis par la mondialisation ?


Le 14/09/2016 à 16h 53







LaBUSE a écrit :



Avec les évolutions de la technologie, a moyen termes ne resteront que les créateurs des robot et ceux qui les programmes tous le reste les robots seront capable de le faire. Quand tu vois l’IA d’ibm watson qui est a 2 doigts de remplacer les médecins il y a de quoi s’inquiéter.







Sincèrement, je crois que beaucoup de gens ne réalisent pas du tout le nombre d’emplois qui vont disparaître dans les années à venir.



D’ailleurs, ils ne réalisent même pas le nombre effarant d’emplois qui ont déjà disparu et ne font pas la relation avec le chômage.



Il y a 30 ans, les usines étaient pleines d’hommes, maintenant elles sont pleines de machines.



Avant, dans une banque ou une poste, c’était pleins de guichets. Maintenant, on fait tout avec sa carte, le distributeur, voir par internet et il n’y a plus que 2 gugus pour tenir une agence.





Le 14/09/2016 à 16h 38







tmtisfree a écrit :



Cf mon commentaire précédent. Je ne vois pas de différence fondamentale par rapport à maintenant. Les machines ne remplacent que les activités faiblement productives et/ou ne demandant pas d’intelligence. Les machines intelligentes n’existent pas car si elles existaient elles n’auraient pas besoin de nous. La peur de l’automatisation est juste un nouveau marronnier exploités à des fins purement politiciennes : il suffit d’observer que ce sont encore que les mêmes tocards (politiciens et économistes) qui en parlent pour confirmer l’impression de déjà-vécu.







Désolé de te décevoir, mais les machines ont désormais une intelligence suffisante sur le plan théorique pour produire avec très peu d’humain tout ce qui correspond aux besoins de base, c’est à dire tous les produits que l’on est forcé de consommer.



La seule zone d’activité restante pour l’humain est dans le superflu.



Or la concurrence économique mondiale pousse toutes les nations à vouloir maximiser leur production et diminuer au maximum la consommation de leur population.



Il est évident qu’une telle économie va droit dans le mur…





L’économie se résume à 1 (micro-)événement : tu as qq chose à vendre qui m’intéresse, et je te l’échange/achète volontairement valeur pour valeur contre qq chose qui m’intéresse. La résultante (le marché) fait que nous sommes mutuellement plus riches tous les 2. Tout le reste n’est qu’une question d’échelle.





Très juste.



Sauf que pour que cela fonctionne, encore faut t’il des acheteurs qui ont de l’argent.



En laissant se développer le chômage de masse et la précarité, soit des millions de consommateurs qui n’ont même plus les moyens de s’acheter le nécessaire, on va vers une mort économique inéluctable.



Dans l’histoire de l’économie, il y a eu au moins un entrepreneur (Henry Ford) qui avait compris que pour vendre des produits superflu, il fallait augmenter les salaires. Soit tout l’inverse de ce qu’on fait aujourd’hui…





Ces emplois existent ailleurs : quand on fait tout pour les détruire, il ne faut pas s’étonner qu’ils disparaissent.





Certes, l’inefficacité du système français a accéléré la disparition des petits emplois à faible rentabilité.



Mais c’est quand même bien le cours des monnaies qui fait qu’il est plus rentable d’acheter un nouveau bien que de payer la maintenance de l’ancien.



D’ailleurs, tout cela n’est qu’une partie du problème.



Le vrai problème, c’est qu’il n’existe aucun pays dans lequel l’économie fonctionne bien actuellement. Aucun pays ou les gens sont heureux.



Je connait des Allemands qui sont pliés de rire quand ils voient nos politicards encenser l’Allemagne.





Il n’y a pas de vrais pauvres dans les stats de l’INSEE (à 𝜺 près).





Tiens, c’est amusant ça. <img data-src=" />





Un bon marxiste te répondrait qu’il ne peut y avoir de lutte des classes sans classes, doù la nécessité de les entretenir pour faire perdurer la clique au pouvoir (gauche-droite même combat). Mme S. Veil a proposé l’abolition des partis politiques : pour une fois qu’un politicien a une bonne idée, elle n’a étrangement pas été retenue…





Tout cela n’est que le fruit de l’économie de marché.



Tout part du problème que les gens doivent trouver à tout prix des activités pour vivre.



Donc ils créent un besoin pour vendre quelque chose.



C’est donc bien le besoin de gagner sa vie qui pousse nombre d’humain dans la création d’activités inutiles, voir nuisibles.


Le 14/09/2016 à 15h 35







tmtisfree a écrit :



Non, cela revient juste à augmenter la dose d’aspirine pour traiter le cancer (français et de la sociale-démocratie en général) : la restriction de liberté.







Le problème, c’est que tu semble considérer de manière dogmatique que toute forme d’idée assimilable à du socialisme c’est le diable.



Aujourd’hui, la restriction de liberté de beaucoup de gens découle directement du fait de la raréfaction du travail. Nous sommes dans un cas ou le marché dysfonctionne parce qu’il y a un déséquilibre.



Et paradoxalement, l’idée du revenu citoyen est certainement l’une des idée les plus libérale et les moins socialiste pour résoudre ce problème.



Sans revenu citoyen, nous allons assurément vers un système complètement socialisant ou des fonctionnaires vont diriger effectivement la vie de millions de chômeurs qui devront faire tout ce qu’on leur demande pour avoir leur “susucre”.


Le 14/09/2016 à 14h 49







Ricard a écrit :



Exact. C’est aussi la fin d’une main d’oeuvre bon marché qui pourra enfin dire merde à son employeur. Le chômage élevé est bon pour les entreprises, quand les chômeurs se battent entre eux pour gagner 3 cacahuètes à la fin du mois.







Oui, c’est triste de voir resurgir des conditions d’un autre temps dans l’indifférence générale…



Et le pire, c’est que tout cela n’est même pas efficace sur le plan économique.



Avec un gouvernement chinois qui manœuvre pour maintenir sa monnaie basse, un français, aussi acharné soit t’il, ne sera jamais compétitif.



Et quand on voit les plans de robotisation des grandes multinationale, on sait que même le chinois surexploité et les enfants qui travaillent dans des caves n’arrivent plus à tenir la comparaison économique avec ces nouveaux “esclaves” mécaniques.


Le 14/09/2016 à 14h 37







Ami-Kuns a écrit :



Tu ma mal compris, une partie de cet rdb serait d’office prélever pour venir en soutien à l’assurance maladie, et à l’assurance chômage, pas que ces 2 assurances finance le rdb. Un genre de csg.







A ce moment la, autant utiliser l’émission monétaire continue.



Parce que tout prélèvement suppose une gestion et une chasse aux fraudeurs. Et ça coute si cher qu’au final…certains impôts font juste vivre l’administration qui les prélève…









Le 14/09/2016 à 14h 10







Ami-Kuns a écrit :



Donc le revenu de base devrait être divisé en au moins 2 partie, la partie que l’on touche vraiment en espèce sonnante et trébuchante, et une 2éme qui servirait à financer les besoins imprévus du chômage et de la maladie, et avec un panel de service à la carte optionnel en fonction de celui qui en à besoin : retraite complémentaire , étude , …..







Pour le chômage, on le supprime complètement : le revenu citoyen en tient lieu.



Pour la maladie, les soins doivent devenir totalement gratuit. On doit trouver d’autres moyens de limiter les excès. Par exemple avec des medecins payés au forfait et non à l’acte.



Pour la retraite : suppression totale, le revenu citoyen en tient lieu.



Les études : chacun dispose d’un certain nombre de “points”. Et le stock se renouvelle avec le temps.


Le 14/09/2016 à 13h 29







squallbreizh a écrit :



/hs on

Asimov? Ok “Robbie” a été publié en 1940, mais bon 4 ans c’est pas énorme comme différence.

/hs off







Et même d’autres qui l’ont pensé bien avant, par exemple Jules Verne avait imaginé une ville automatisée.



Le problème de l’automatisation, c’est qu’il ne suffit pas de lire un livre pour comprendre.



L’automatisation modifie des réflexes de pensées qui existent depuis des millénaires.



Il est extrêmement difficile de modifier des réflexes qui nous sont transmis par la culture depuis le plus jeune âge et qui touchent à la conception du bien et du mal.



Ce changement sera certainement l’un des plus difficile que l’humanité devra affronter.



Ceux qui sortent de l’école aujourd’hui ne sont pas encore formés dans cette logique…


Le 14/09/2016 à 13h 09







LaBUSE a écrit :



Le collectivisme est un échec tout comme l’auto régulation des marchés, c’est marrant de voir les croyants s’affronter.







En fait, tout le monde à un peu tort et raison à la fois.



Ce qu’il faut comprendre c’est que le système idéal sera toujours un mélange complexe d’idées.







serpolet a écrit :



Le problème avec cette fausse bonne idée, c’est que beaucoup se contenteront des 750€ pour “vivoter” (ou pire/mieux : argent de poche en vivant chez les parents), sans souscrire à une assurance maladie et/ou une complémentaire.

Et le jour où, inévitablement, ils auront une problème, ne serait-ce que de dents, il faudra bien les prendre en charge, et parfois trop tardivement… Et là, ça va coûter très cher…







Tout à fait.



Il faut que le revenu citoyen soit vivable à long terme, sinon on créera une bombe sociale à retardement.



Il faut donc que la santé soit totalement prise en charge. Il faut à tout prix éviter à tout prix les inégalités la dessus.



Mais surtout, pour la santé, il faut une vraie politique préventive.



Ce qu’on a jamais compris en France, c’est que le curatif, ça coûte très cher.


Le 14/09/2016 à 12h 58







tmtisfree a écrit :



1/ Les économistes (sérieux) ont déjà répondu dans le passé à la question lors de la mécanisation : - W.H. Hutt, 1936. Economists and the Public







Désolé, non.



C’est assez facile de comprendre qu’en 1936 on ne pouvait pas imaginer la machine intelligente et encore moins ses conséquences.



Au passage, personne ne peut définir ce qu’est un économiste sérieux pour la simple raison que l’économie est constituée d’une infinité de micro-phénomènes ayant des grandes conséquences.



Il faut une très grande polyvalence pour comprendre l’économie. Et les écoles ne savent tout simplement pas fabriquer ce genre de personne.





Cette peur n’est qu’une nouvelle manifestation de la crédulité du péquin moyen désinformé par la machine de propagande du système qu’il contribue à perpétuer.





Ca tombe bien, le revenu citoyen n’est pas une idée du système.



Aujourd’hui, ce que le système prône, c’est de faire accepter la précarité aux gens.



On envoie les gens chercher des emploi qui n’existent pas en leur faisant croire que c’est de leur faute s’ils sont au chômage.





2/ Nous n’avons plus de pauvres ! Leur existence n’est qu’une illusion statistiquement entretenue (voir 1/).





Bien au contraire. Nous sommes façe à une précarisation galopante.



Mais la ghétoisation de la pauvreté ainsi que la stratification des couches sociales font que ceux qui se trouvent dans des environnements “favorisés” méconnaissent complètement la situation.



Le 14/09/2016 à 12h 12







tmtisfree a écrit :



Ah ces paléo-marxistes !



Il est vrai que la gestion collectiviste de quoi que ce soit a toujours abouti à moins de quoi que ce soit puis à plus rien de quoi que ce soit (cf Venezuela pour un exemple en cours).



Mais non encore réveillés de leurs échecs successifs dans tout ce qu’ils ont ruinés, ils veulent remettre une couche de gestion centralisée en exploitant les faiblesses humaines et la pauvreté relative qu’ils entretiennent partout où leur démangeaison d’ingénierie sociale forcée n’a pas encore produit les ruines escomptées.



Il est pourtant facile de voir que si le marché immobilier ne fait quasiment plus son office, c’est déjà grâce à eux et la technostructure à leurs bottes : obligations, interdictions, normes, permis, autorisations, réglementations, bureaucratisation, etc en tous genre l’ont déjà si fossilisé que, selon eux, seule leur divine intervention va pouvoir solutionner les problèmes qu’ils ont si vaillamment contribué à créer lors de leurs précédentes et divines interventions.





  • Karl Popper







    L’inflation normative n’est que le triste résultat d’un excès de fonctionnaires dont il faut bien occuper les journées.



    L’excès de fonctionnaire découle directement du fait que nos dirigeants cherchent désespérément des moyens de résorber le chômage.



    Repenser l’économie en réduisant le besoin de travailler pour vivre peut aider à résoudre beaucoup plus de problèmes qu’on ne pourrait l’imaginer…












Le 14/09/2016 à 11h 47







fred42 a écrit :



Cette étude ne prend pas majoritairement le budget de l’État comme source de financement mais aussi (surtout) les revenus de la Sécurité sociale (3 branches maladie, famille et vieillesse) (en mettant seulement de côté les ADL) et aussi l’assurance chômage).









Au sujet de la sécu, il faut soulever le fait que le monde du travail est responsable directement ou indirectement de beaucoup plus de problèmes de santé qu’on ne le pense.



L’obsession et le stress du travail conduit la plupart des gens à négliger complètement leur corps et leur santé jusqu’à un age ou les dégâts sont irréversibles.



Le fait que les dépenses de santé explosent est totalement logique.


Le 14/09/2016 à 11h 36







tmtisfree a écrit :



Le risque le plus probable est la précarisation d’une frange non négligeable de la population à qui on aura fait croire (une fois encore) qu’ils n’ont pas/plus besoin de travailler. Ce montant de 750 € ne couvre pas tous les autres aides sociales (en cas de substitution, qui ne se fera donc évidemment pas) : aucune augmentation de la consommation à attendre ici (les relances keynésiennes sont toujours des échecs). Qui va croire que le budget de l’État diminuera un jour, sauf quand Bruxelles nous l’imposera avec des sanctions saignantes ? Cette proposition n’est qu’un leurre politique.



Comme indiqué, c’est une étude « socialiste » : TOUT est envisageable quand ce sont les autres qui paient au final.



Confronté au mur de la réalité qu’est la valeur de toute chose, le plus facile est encore de la nier. Ou de voler. Dans les 2 cas, le travail n’est plus la solution légitime au problème de la survie. Mais la morale n’existe plus non plus. Drôle de société qu’on essaie de nous vendre.







Par curiosité, as tu déjà visité une usine moderne ?



Comme je te l’ai déjà dit, tes idées sur l’économie datent d’un autre temps parce qu’elles ne prennent pas en compte le fait qu’aujourd’hui, c’est la machine qui travaille et non plus l’homme. Et les progrès des machines vont encore accentuer cela.



Partant de la, oui, il est tout à fait possible de travailler beaucoup moins. C’est même une réalité de fait déjà établie.



Les problèmes économiques actuels ne sont finalement que la conséquence de l’attitude de ceux qui nient la réalité et maintienne un système économie obsolète et inadapté.



Dans la réalité, nos pays n’ont jamais été aussi riches et n’ont jamais autant produit.



Si l’on se fie à notre niveau de richesse théorique et à l’augmentation de la production de valeur du 20 ième siècle, nous ne devrions pas avoir de pauvres.


Le 14/09/2016 à 11h 14







cygnusx a écrit :



je l’ai bien précisé sauf que pour financer ce revenu il faut bien taxer une population soit tu augmente la TVA soit l’impot sur les sociétés soit sur les menages







Pas nécessairement, tu peux aussi faire de la création monétaire continue.



C’est d’ailleurs un secret de polichinelle que beaucoup d’économies y sont déjà.



Le seul problème actuellement, c’est que faute d’un revenu citoyen, cela ne fait qu’accentuer les inégalités sociales.


Le 14/09/2016 à 11h 08







cygnusx a écrit :



C’est une trés bonne idée … sauf qu’il  faut avoir le budget pour. Globalement on va devoir taxer les classes moyennes plus que le revenu de base qu’on leur apporte ca va pas forcément leur plaire.



Si on commençait par investir avant de dépenser







C’est malheureusement une idée reçue totalement fausse.



Dans une économie, ce n’est pas la quantité d’argent qui influe sur ce qu’on peut partager, mais principalement ce que l’on produit. L’argent n’est qu’une abstraction servant à répartir la valeur produit.



Le problème actuellement n’est pas au niveau de la production. Dans l’histoire de l’humanité, l’homme n’a jamais été aussi productif.



Le problème, c’est que les machines et l’automatisation ont réduit les besoins en main d’oeuvre humaine à tel point que le système de répartition par le travail ne peut plus fonctionner.



L’économie menace de se gripper pour la simple raison qu’une part toujours plus grande des consommateurs sont éjectés du système.


Le 13/09/2016 à 17h 42

Pourquoi ce cadeau ?





LaBUSE a écrit :



Je suis pour aussi, aucun pays européens n’est assez costaud pour se maintenir dans le gratin mondial les puissances qui montent ont un potentiel et des marges de croissances bcp trop important. Barrosso a fait un mal incroyable a l’Europe il s’est couché devant l’Allemagne, la France et le R-U chacun en ayant profité pour des intérêt a court termes bloquant toutes intégrations.







Croire que nous serions forcément plus forts en étant nombreux est une vision naïve.



En pratique, c’est exactement le contraire qui se produit. Irrémédiablement divisés, incapables de la moindre stratégie, nous sommes justes devenus des proies faciles.



L’Europe est juste le plus grand collectif de losers jamais créé. Et pour faire simple, il n’y a pas la moindre chance pour que cela change.



Réveillez vous et regardez autour de vous. Tout ce que vous achetez, tout ce que vous adulez est conçu et fabriqué hors d’Europe.



Depuis la création de l’Euro, la France à perdu une quantité effarante d’industries et d’usines….



Enfin, réalisez que dans la mondialisation, il n’y a pas de pays gagnant.



Avoir de bons chiffre sur le plan économique n’empêche absolument pas d’avoir une population malheureuse et exploitée…


Le 17/08/2016 à 01h 21







AlphaBeta a écrit :



Perso, je n’interdirais pas…. mais je ferais payer à Niantic chaque implémentation de pokestop et autres arènes….

utilisation abusive et à vue mercantile de biens publics !

Ce produit ne rapporte rien à l’Europe car tout est dématérialisé : Japon et US s’engraissent sur notre dos.

Par exemple il est illégal de réaliser des cartes postales sans l’accord de la collectivité locale…. et ben la pareil !







Ils en ont rien à foutre. Ils rayeront simplement la France des pays de distribution des jeux.



Par contre, ce sont nos petits éditeurs qui seront emmerdés quand ils voudront développer leur jeux basés sur la réalité augmentée.



La France est devenue un enfer réglementaire. Et ça ne fait qu’empirer…





Le 17/08/2016 à 01h 10







med58 a écrit :



Plusieurs dizaines de pays soulèvent un problème  avec ce jeu. C’est pas en niant ce fait que vous ferez avancer le “schmilblick”, bien au contraire…







Un problème ? Quel problème ?



Un jeu que des millions de joueurs utilisent et que l’on critique pour quelques incidents ?



Est ce que l’on critique les concert ou les manifestations sportives ? Parce que la, des accidents, il y en a aussi <img data-src=" /> Sauf que personne n’en parle parce que c’est habituel.



Dispose t’on seulement de statistiques et d’études pour affirmer que ces activités vidéo-ludique d’un nouveau genre constitueraient un trouble parce que le taux d’accident serait supérieur à la moyenne des activités de loisir ?



Rappelons que statistiquement, la première maladie qui tue, c’est les problèmes cardiovasculaires. Et les premiers à en mourir sont ceux qui ne sortent pas de chez eux… par principe de précaution.


Le 13/08/2016 à 20h 04







Melaure a écrit :



Mon 500 et mon 1200 tournent toujours, comme CPC 6128 et mon TI-99/4A ;)







Si ce n’est déjà fait, fait gaffe aux batteries d’horloge interne (500, sur l’extension RAM) et aux condos(1200). Ca coule avec le temps et ça détruit les cartes.


Le 11/08/2016 à 18h 08







JeuxF a écrit :



Voici d’autres jeux Amiga pour les fans :&#160http://www.jeuxclic.com/search.php?q=amiga

Rick Dangerous reste l’un des plus “impossible” du lot :&#160http://www.jeuxclic.com/jeux.php?id=5491







En fait, Rick Dangerous n’est pas très dur une fois qu’on sait ou passer. Il y a une logique, souvent le chemin le plus évident est celui qui est piégé.


Le 10/08/2016 à 19h 50







FRANCKYIV a écrit :



&gt;Enfin bref tout. Il y avait juste besoin d’augmenter

&gt;les fréquences et les capacités et de laisser les

&gt;logiciels devenir plus matures. A la place on a eu un

&gt;PC imposé et on est revenu 10 ans en arrière.



Lorsque j’avais un Atari 1024 Stf et que j’ai du évoluer, j’ai longtemps hésiter entre le Falcon et un PC.



Finalement, j’avais pris un PC (386 DX 33Mhz si mes souvenirs sont bons).



Quand j’ai vu le premier jeu dessus avec des graphismes dégueu, j’étais dégouté … <img data-src=" />







Le 386, c’était encore un peu tôt…







Le 10/08/2016 à 10h 35







FRANCKYIV a écrit :



L’Amiga pouvait gérer un synthétiseur via câble MIDI ?



Ah ben nan je suis con … <img data-src=" />







Ben… en fait, si <img data-src=" />



Le Midi, ce n’était qu’une réincarnation d’une interface série. Et l’Amiga avait ce qu’il fallait au niveau du hardware pour gérer ça.



Le reste n’était que l’affaire d’une interface et d’un cable avec quelques composants peu coûteux.



Je n’ai d’ailleurs jamais compris pourquoi les STistes voyaient cela comme une supériorité d’avoir ces pauvres prises din qui ne servaient à rien en pratique étant donné que la plupart d’entre eux ne possédaient pas le moindre périphérique Midi et qu’en dehors des softs de MAO, toute la logithèque des ST était conçue pour se contenter du pauvre circuit son de base.



Ben oui, parce qu’a l’époque, un expandeur ou un synthé Midi, ça n’était pas vraiment donné.


Le 10/08/2016 à 10h 22







TexMex a écrit :



Je parle surtout de pédagogie et de structuration de l’esprit. Le syndrome “porte fermée; bah heu”, se retrouvait moins chez les STiste que les Amigaleux (non péjoratif). Aux contact des deux pendant pas mal d’années, j’ai pu me forger un avis serein sur le thème. 



Pour la difficulté; une fois qu’un malin avait fait un truc intéressant. Soit il le refilait aux autres soit il se faisait copier. Je le sais bien, je faisais partie des copiés avec deux trois autres zouaves. Donc au final dans ces communautés réduites mais peuplées d’individus performant avec un debugger, ça finissait souvent en “rip”. On foutait même des stigmates dans le code pour signer la chose. Le gars malin va le voir et le re-coder à sa manière l’autre ne se prendra pas la tête.  Donc oui il y avait une difficulté mais plutôt centrée sur les fers de lance. Le reste se déroulait comme une traînée de poudre. Un mec qui connait machin qui connait machin qui a un debugger…







Quel que soit la machine, il y a toujours eu une minorité qui se creuse les méninges et une majorité qui ne fait que reprendre et se la jouer. L’Amiga, machine à succès réputée à l’époque a bien sûr attiré beaucoup de rigolos qui voulaient “avoir la plus grosse”.



Mais pour ceux qui s’intéressaient vraiment aux choses, ça n’avait pas grande importance. La machine était intéressante et c’est tout ce qui comptait.





Accordons nous sur ce qu’est la performance. Si tu parles de fréquence ok. Si c’est d’efficacité; pas d’accord.



 L’ASM x86 est une vulgaire bouse par rapport au 68k plus courant de l’époque. Je pourrai même partir en chandelle comme Merv dans Matrix quand il parle de “sampler les langages” tellement c’est une horreur. D’où l’avènement de langages de plus haut niveau qu’on aurait pas vraiment regardé autrement que par véritable nécessité.





Je crois que tout ceux qui ont connu la programmation en assembleur sur 680x0 sont d’accord la dessus : L’assembleur x86, c’est vraiment très très moche. Et encore, je reste poli.



Je partage ton opinion sur le fait que ce microprocesseur a éloigné les gens de la programmation en langage machine. Avec pour conséquence des générations de programmeurs qui ne comprennent plus ce qu’est un ordinateur.





A fréquence inférieure on pouvait faire des choses plus rapides car tout simplement le code était plus efficace. Avoir des registres ça aide pas mal. Et très franchement un PC de l’époque était clairement à la ramasse par rapport à un ST (ou TT) ou un AMIGA (pire avec un Amiga 2.5K; 3K; 4K). C’était juste risible de payer 2 à 5 fois plus cher pour un truc moins performant.





Sur le plan technique, oui.



Le problème, c’est que les Amiga et les ST traînaient une réputation de machine de jeu. Dans le haut de gamme, ça se vendait relativement peu. Et encore moins dans les entreprises classiques.



Les Amiga et ST haut de gamme n’avaient d’utilisateurs que dans des secteurs de niche. Même s’ils y ont brillé, ça ne faisait pas un marché rentable.



Atari et Commodore se sont fait la guerre sur le gros du marché qui les faisaient vivre. Sans compter d’autres comme Amstrad. Partant de la, ils n’avait plus de quoi investir suffisamment dans la R&D. Leur mort n’était qu’une question de temps.





Avec des disquettes 5-14 en plus… trop de la balle…





Pour ma part, j’ai toujours préféré le 5 14 même sur Amiga. Et cela pour une raison simple, ça fonctionnait beaucoup mieux. Beaucoup plus fiable à densité égale.



Si on suit le discours commercial, les 3 12 auraient du être plus fiable. Sauf qu’en pratique ça n’a jamais été le cas. Ce format était une arnaque…



Le pire, ça a été le 3 12 sur PC en haute densité. Fiabilité absolument déplorable. Même avec de bonnes disquettes et des lecteurs neufs de bonne marque.





C’est que beaucoup de monde n’a pas vu l’astuce. Une fréquence supérieure ne veut pas dire une efficacité supérieure.  Et c’est pour cela qu’Intel/IBM se sont lancé dans une course folle à la fréquence. Il n’avaient tout simplement pas le choix. Je pense que le pivot a été au lancement du 486 Dx2-66. C’est là ou cela a changé.





Oui, la fréquence a beaucoup joué sur le plan marketing.



Le Dx2-66 fut effectivement le point de basculement, beaucoup ont abandonné l’Amiga à ce moment.



Le truc c’est qu’après, les x86 sont montés très vite en puissance : pentium, pentium 2… en quelques années, les x86 ont fini par vraiment “cracher” au niveau puissance brute alors que Motorola n’a plus vraiment développé les 68k.



Mais il ne faut pas non plus oublier la montée en puissance des capacités graphiques du PC…





Pour la bureautique on avait des solutions tout à fait acceptables (Ex: Calamus). Ou encore des solutions sur MAC (hé oui). En fait on avait tout ce qu’il fallait avant que le PC ne sorte. Base de donnée, graphisme, Rendu 3D (POV), acquisition vidéo, scanners, des trucs via RS-232 (the holy one). Enfin bref tout. Il y avait juste besoin d’augmenter les fréquences et les capacités et de laisser les logiciels devenir plus matures. A la place on a eu un PC imposé et on est revenu 10 ans en arrière.





Enfin, la suite office, c’était quand même un autre monde par rapport aux softs bureautique de l’Amiga. Et ça a certainement beaucoup compté aussi pour le succès du PC.

Sur le plan du graphisme et du rendu 3D, l’amiga avait une logithèque décente, mais pas sur la CAO pro.



Mais il est vrai que le PC a effectivement apporté de très gros retours en arrière. Les programmeurs Amiga ont switché par pragmatisme, pas par plaisir.





C’est ce qui motive mon opinion sur l’arrosage. Ça n’aurait pas décemment pu passer sans une grosse facilitation.





En fait, Bill Gates a expliqué le succès du PC dans l’un de ses livres.



En fait, le PC était sans doute l’un des pires ordinateurs du marché.



Mais c’était un ordinateur ouvert. Et de ce fait, il a attiré quantité de fabricants qui avaient un marché pour faire de l’argent en corrigeant ses faiblesses.



Tout cela a créé naturellement une immense force commerciale…



Même IBM était surpris du phénomène sur un produit auquel ils ne croyaient pas vraiment au départ.





Dommage que les deux constructeurs s’y soient pris trop tard (ex: Falcon 030) pour réagir.





Pour survivre, il aurait fallu que les deux constructeurs investissent bien plus que ça et sortent des puces accélératrices 3d comme les fabricants de console.



Ce n’est ni l’Atari Falcon, ni les Amiga basés sur le chipset AGA qui pouvaient sauver la mise. Malgré leurs qualités, ils ne correspondaient plus au besoin du marché.





Avec ces machines, aborder l’assembleur pouvait se faire avec des gosses (on en était à l’époque). Aujourd’hui sur PC; vaut mieux passer par le Basic, après on verra. Ca en dit long a mes yeux.





Oui, il fut une époque ou programmer en assembleur était quelque chose de relativement accessible.



Le PC a éloigné les gens du fonctionnement du coeur de la machine et donc de la compréhension de ce qu’est un ordinateur.



Mais on peut aussi dire que les ST et Amiga avaient déjà amorcé le phénomène, ils étaient moins proche de la machine que les 8 bits qui les avaient précédé.



Pour ma part, je pense que malgré le fait que les machines ont gagné en complexité, ce n’est pas une fatalité.



Mais aujourd’hui, la tendance au retour à une programmation bas niveau plus accessible semble devoir revenir, même si c’est encore timide.


Le 09/08/2016 à 22h 25







TexMex a écrit :



Certes mais tu oublies un truc super important. Même si l’Amiga préfigurait un peu le futur. Il faut bien le reconnaître, un coder ST lui il savait c’était quoi un pixel ou un sample. Le fait que le travail ne soit pas mâché par des sous unités était quelque chose de pédagogiquement plus intéressant. Cela forçait a faire ses routines pour machin ou machine. On a beau dire, ca forge le caractère.







En tant que programmeur, je ne partage pas cet avis.



Certes, outrepasser les limitations du ST, par exemple pour faire de l’overscan ou du sample avait un côté “dépassement” de soi et bidouille.



Mais ce côté existait tout autant du côté de l’Amiga. La différence, c’est qu’il était utilisé pour aller plus loin dans les performances, pas pour se battre avec les limitations de matériel mal fichu.



Enfin, il ne faut pas confondre des bidouilles chiantes et malpropres avec des exploit technique. Par exemple, le fait d’utiliser plusieurs convertisseurs pourris pour jouer un sample faute d’avoir un seul convertisseur N/A potable est plus une bidouille malpropre qu’un véritable exploit technique.



Est ce que les custom chip de l’Amiga prémâchaient le travail ? La encore, ce n’est pas mon avis. Par exemple, le fameux Blitter était plus rapide que le CPU, mais sa programmation était bien plus complexe que celle d’un CPU.



En aucun cas la programmation de l’Amiga ne faisait disparaître des notions de pixel ou autre notion de bas niveau pour la simple raison que ses custom chip ne s’utilisaient pas par l’intermédiaire de fonctions de haut niveau prémâchant le travail mais bien par une programmation de bas niveau qui demandait de bien comprendre tout ce qui se passait et comment cela fonctionnait.





La machine Amiga était mieux pour le “eye candy”, mais je donnerai la palme aux coders ST si on devait en donner une. J’en ai vu plus d’un ne pas savoir comment faire sans l’aide du Blitter.





Beaucoup de codeurs Amiga étaient d’anciens codeurs ST.



Question difficulté, c’était plutôt l’inverse. Il suffit de regarder la doc du blitter de l’Amiga pour voir tout ce qu’il faut comprendre juste pour faire un simple transfert de base. <img data-src=" />



Utiliser a fond les custom chips et savoir combiner leurs fonctionnalités demandait d’étudier bien plus de choses que le simple fonctionnement d’un CPU.





Mais bon tout ça; n’a pas empêché les 3 gros grippe-sous (Intel M$ IBM) de tuer le marché en achetant les magasins comme les politiques. Mais c’est une autre histoire.





Objectivement, il y a des raisons.



Intel a su gagner la course au pur rapport performance/prix du CPU.



Et cela à un moment critique, celui ou la 3D mappée émergente a donné d’un coup une importance énorme au CPU, les circuits prenant en charge la 3D n’étant pas encore popularisés.



Sur le plan bureautique, les logiciels Microsoft étaient assez révolutionnaires pour l’époque.


Le 09/08/2016 à 20h 05







Takoon a écrit :



Mouais… avec le temps, je reconnais m’être amusé sur Alien Breed et Project X de Team 17. Mais je n’irais pas plus loin. Le ST vaincra ! <img data-src=" />



  Le ST était supérieur en 3D (Epic, Midwinter, Hunter etc) de quelques poils de cul en FPS, mais supérieur. Seul le chip audio de l'Amiga était plus sympa et puis l'OS multitâches, aussi. On pouvait formatter une disquette et faire autre chose. Classe...:fumer:









C’est une plaisanterie ?



Il suffit d’avoir connu le détail des deux hardware pour savoir que celui de l’Amiga n’avait rien à voir.



Sur ST, l’affichage, c’était un simple bloc de pixels de 32k brut de fonderie. Sur amiga, tout était programmable ligne par ligne avec un processeur dédié (Le copper) qui pouvait faire des choses très sophistiquées : Overscan, changements de palettes, interruptions, scrolling. Le tout de manière propre, compatible et sans utiliser le CPU.

Ne parlons pas des modes spéciaux HAM et EHB qui permettaient des images avec une palette bien plus étendue.



L’amiga avait un accélérateur de tracé d’affichage matériel (blitter) sur toute la gamme depuis ses débuts.



Le ST avait des bizarreries qui laissaient à penser que son hardware n’avait pas été conçu à la base pour une machine 1632 bits : la plupart des registres matériels étaient en 8 bits, ce qui demandait plusieurs accès pour les valeurs dépassant les 8 bits.



Concernant le son, le ST disposait d’un vieux circuit qui ne rivalisait même pas avec le SID du C64 ni même avec le Pokey de l’atari 8 bits. L’amiga détruisait complètement le ST grâce à son circuit PCM capable de manipuler les samples à des fréquences variables.

Plus tard, le STE a tenté de faire illusion en apportant une ébauche de son PCM, mais son circuit à fréquence fixe n’était pas adapté à la musique, il permettait juste de jouer des sample à fréquence fixe.



Sur le plan du contrôleur de disquettes, la encore l’Amiga écrasait le ST grâce à un circuit d’une grande souplesse qui pouvait lire la plupart des formats tout en stockant plus de données. L’amiga pouvait lire les données d’une disquette ST mais l’inverse n’était pas vrai.



Si on devait lui trouver de maigres atouts par rapport à l’amiga, on pourrait citer une fréquence processeur un poil plus élevée : Celle de l’amiga ayant été choisi pour son synchronisme avec les circuits d’affichage.



Un autre atout du ST tenait à la structure de sa mémoire vidéo qui convenait mieux à la 3D mappée. Mais c’est un avantage qui ne s’est jamais vraiment révélé dans la mesure ou il y a eu peu d’usages de ce type, la puissance CPU étant de toute manière insuffisante. A noter que cette structure de mémoire vidéo était aussi un inconvénient dans les jeux plus classiques ou les “plans” de l’amiga étaient un énorme atout.



Sur le plan de l’OS, ça n’avait aussi rien à voir. Celui de l’amiga était très en avance sur son temps.



Bref, comparer l’Amiga au ST, c’est comparer une Rolls avec une familiale de série.



Sur le plan technique, le ST était une machine peu travaillée qui s’arrêtait au strict nécessaire pour afficher des caractéristiques de façade.



A noter un anecdote amusante : sur le plan technique, l’Amiga n’était pas le descendant du C64, mais celui des Atari 8 bits <img data-src=" />


Le 09/08/2016 à 19h 24







ThomasBrz a écrit :



Quel discrimination pour les moins de 20ans tous ça parce que nous on a grandi avec des vrais jeux 3d, des scénarios et autre et pas vous bande de vieux jaloux….







Sauf que les jeux 3D, on a connu aussi <img data-src=" />



Mais bon, l’Amiga, c’était déjà plus le bon temps. La plupart des jeux Amiga et ST, c’était déjà de la production de masse, de la merde en barre.



Le vrai bon temps du jeu, c’était l’époque des premières bornes d’arcades, des jeux de poche Game & Watch et des consoles et ordinateurs 8 bits. Il y avait une créativité qu’on a plus revu par la suite.


Le 12/08/2016 à 18h 58

Les prétextes invoqués sont une fois de plus ridicules, dangereux et montrent toute l’incompétence de nos dirigeants en matière de nouvelles technologies.



Quand on veut jouer aux échecs, il faut toujours prévoir les coups d’après.



Pensez vous sincèrement qu’interdire le chiffrement sera suffisant pour que les terroristes se mettent pour autant à échanger en clair ? N’importe qui doué d’un minimum d’intelligence peu prévoir qu’ils ne seront pas idiots à ce point.



Et n’importe quel spécialiste vous dira qu’il existe de très nombreuses façon de chiffrer. Par exemple, on peut superposer un chiffrement à n’importe quel image, bande son ou vidéo sans qu’il soit possible techniquement de faire la différence avec un bruit de fond aléatoire.



Sinon, rappelons au passage que le chiffrement est nécessaire au quotidien :





  • Pour nos entreprises qui se protègent de l’espionnage industriel. Interdire le chiffrement mettrait directement en danger notre industrie.



  • Pour protéger toutes sortes de communications du hacking. Par exemple, tout ceux qui administrent des serveurs sur le web.



  • Pour protéger les opposants politiques et journalistes dans les dictatures (oui, quand c’est chez les autres, ça ne dérange pas nos élus, lol).



    Au passage, pour ceux qui voudraient justifier cela sur la base des quelques morts causés par le terrorisme, n’oubliez pas de comparer avec les dizaines de millions de morts qu’ont engendré les dictatures.



    Et pour gagner mon point Godwin, je rappellerais comment Hitler a exploité l’argument du terrorisme pour détruire la démocratie : Nous ne devrions jamais oublier cela…

Le 10/08/2016 à 10h 53







after_burner a écrit :



L’accord n’était pas exclusif aux dernières nouvelles. Il offrent un avantage qui va certainement éliminer de fait d’autre solutions, car aucuns intérêts de partir sur plusieurs solutions dans ce cas.



Ensuite les remarques sur l’enfermement ,n’ont pas lieux d’être de mon point de vue. On ne “s’enferme” pas forcément quand on utilise une solution microsoft et on ne deviens pas un incapable qui ne peut pas s’adapter à autre chose.

Parce qu’à en lire certains, c’est ce qui se passe irrémédiablement qu’on on touche un outils MS.

Ou alors il faut dire que les gens s’habituent à ce qu’il connaissent et que ces remarques seraient valables avec d’autre logiciel…



Les préférences entre en compte sur ce plan, et ce n’est pas l’objet de la plainte.



Enfin à partir d’un certains stade de formations, les élèves, je pense, doivent être formés aux outils utilisés sur le marché du travail, ça peut être dès le lycée ou à l’université, mais au bout d’un moment, une méconnaissance de ces outils leur portera préjudice, donc certains choix doivent être fait en conséquence.







Le problème, c’est que le marché du travail achète ses outils en fonction de la formation qu’ont reçu les gens.



Donc au final, avec ce genre de raisonnement, on restera éternellement prisonnier du jeu de l’oeuf et de la poule.



Et c’est justement parce que les logiciels tendent à créer des dépendances que les logiciels libres sont si importants : en pratique ils n’appartiennent à personne, ce qui solutionne de fait beaucoup de problèmes.


Le 09/08/2016 à 21h 01







pcrwr a écrit :



plus de 404 !



et bien moi je suis plutôt d’accord avec l’accord avec MS. la plupart des entreprises ont une solution MS,







Pour la bonne et simple raison que les entreprises prennent les produits sur lesquels les étudiants sont formés. C’est le serpent qui se mords la queue.



En formant les étudiants sur des produits MS, on crée une dépendance à long terme à des produits payants et non libres.



En formant nos étudiants sur des produits libres, nous permettrons une plus grande adoption par les entreprises, ce qui leur permettra de substantielles économies.





je trouve cohérent que les étudiants apprennent cette solution plutôt que du libre.





Je ne partage pas ce point de vue.



Du point de vue de nos intérêts financiers, ce n’est pas du tout cohérent.





après concernant le sujet, si effectivement cela s’est fait sans qu’il y ait appel d’offre, c’est une autre histoire. mais je vois difficilement les autres acteurs pouvoir s’aligner sur l’offre MS en fournissant tout gratuitement (soft, formation, cloud…)





Une entreprise privée n’est pas une association caritative. S’ils fournissent quelque chose gratuitement, c’est parce qu’ils savent qu’ils récupéreront largement leur investissement par la suite.



Faire le bon calcul, c’est faire comme Microsoft, c’est à dire faire le calcul sur le long terme.



Il est évident que l’intérêt du pays, c’est d’aller vers les logiciels libres.



Et ce n’est pas qu’une question de prix, les logiciels libres ont également des avantages fonctionnels, comme par exemple de pouvoir être modifiés pour mieux s’adapter à nos besoins.