votre avatar

sr17

est avec nous depuis le 26 décembre 2005 ❤️

4322 commentaires

Le 21/10/2015 à 19h 30







legurt a écrit :



parce que ce sont les pauvres qui fraudent ????? tes propos sont injurieux vis à vis des pauvres.

justement pour protéger ces pauvres,il faut une communication maximale afin de sauvegarder la sécu.







Quand on voit le prix d’un loyer à paris, comment croire qu’une personne seule puisse survivre avec un simple RSA alors que des smicards en couple ont déjà le plus grand mal à joindre les deux bouts ?



Les politiques savent cela. Mais ils ont besoin de faire baisser les chiffres pour masquer leur incompétence.







DotNerk a écrit :



Peu importe qui fraude au final puisque le fait est qu’avec la fraude, et le manque à gagner, on en arrive à réduire certains bienfaits de notre système (déremboursement, passage de 1 à 2€ de sa poche lors des consultations si j’ai bien tout suivi…). Je ne dis pas qu’on y arriverait pas dans tous les cas puisqu’il faut toujours plus d’argent qui rentre, mais le process aurait peut-être été “moins” rapide.



Après, tant que l’on continuera à mettre en place des usines à gaz en s’imaginant que tout le monde il est beau, tout le monde il est gentil… Les mêmes causes produisant les mêmes effets <img data-src=" />







Je trouve amusant que les politiques aient reussi à vous berner à ce point, c’est à dire à vous faire croire que la faillite du système serait causée par des fraudeurs…


Le 21/10/2015 à 19h 19







Guiguiolive a écrit :



C’est pas tant une question de jardinier milliardaire.

Ce n’est pas parce qu’il est jardinier qu’il a le droit de frauder.



Le systeme de protection sociale francais est fait pour aider ceux qui ont besoin a un moment donné, pas pour doubler le salaire de fraudeurs qui volent de l’argent qui pourrait aller a quelqu’un qui en a vraiment besoin.



C’est marrant cette fronde de certaines personnes quand on parle de lutte contre la fraude, sous pretexte que finalement, ce ne sont que les “pauvres” qui fraudent et donc qui sont visés…



Ceux qui subissent le plus la fraude, c’est bien les pauvres. Quand les medicaments sont deremboursés parce que ca coute trop cher, c’est les pauvres qui subissent. Quand les aides sont diminuées parce qu’il faut faire des economies, c’est les pauvres qui touchent moins.



Les riches s’en foutent pas mal, ils ont des mutuelles qui payent tout, et ne touchent pas les aides de l’état.



Que le fraudeur soit riche ou pauvre, la severité doit etre la meme, il en va de l’equilibre et de la justice du modele social: si on veut continuer a pouvoir vivre dans un pays ou chacun participe a l’assurance sociale de tous, il faut empecher ceux qui ne respectent pas les regles, qui doivent s’appliquer a tous, de frauder.







Sauf que la, nous parlons d’un glissement vers la surveillance généralisée du moindre fait et geste des individus par le biais de l’immense quantité de données relevés par les appareils informatiques et brassées par les prestataires privés du Web.



En agrégeant toutes ces données, on peut quasiment reconstituer le moindre de vos faits et gestes et tout savoir sur vos fréquentations. Même le roman 1984 n’allait pas jusque la….



Il y a un truc magique : quand on agite le cliché du méchant fraudeur qui vit des allocs sans travailler, le cerveau d’une bonne partie des français s’arrête de fonctionner. On peut leur vendre absolument n’importe quoi. Un peu comme avec le coup des terroristes et des pédophiles.


Le 20/10/2015 à 02h 08







SebGF a écrit :



La conception des iMacs doit aider à diminuer la conso électrique, la chaleur, et le bruit j’imagine ?







Le simple fait d’empiler des composants dans un espace compact ne diminue pas en soi la consommation.



Pour diminuer la consommation, il faut utiliser des composants spéciaux, des alim à fort rendement (Par exemple, une seasonic platinum) et de bonnes optimisations du firmware.



Mais si c’est ta priorité, tu peux très bien le faire aussi dans un PC monté dans une tour en choisissant les composants adéquats.



Quand à la chaleur, en règle générale, les machines qui sont en boitier “tour” dissipent plus facilement les calories que les portables.



Et cela n’est pas un hasard, plus d’espace, ça permet de mettre de gros dissipateurs et de gros ventilateurs.



C’est un problème de lois de la physique : Le gros refroidisseur à caloducs que j’ai dans mon PC ne pourrait jamais rentrer dans une machine “tout en un” ou dans un portable.





Après il faut de tout pour faire un monde, Apple se place sur ce secteur et cherche à se positionner en “haut de gamme” par ce moyen couplé au positionnement tarifaire.

L’exemple de la Veyron était surtout pour dire : à quoi ça sert de faire une caisse qui monde à 450km/h et qui coûte une fortune pour qu’elle ne puisse jamais servir à son plein potentiel ? (à part prendre des circuits privés ou faire bloquer une route en ligne droite des USA, c’est impossible de la pousser à fond)

Ils ont fait ça pour le défi technique et l’image. D’une certaine manière, Apple fait de même.





Profitons en…. les limitations de vitesses n’existent pas encore en informatique.



Pour ma part, en haut de gamme, je vois un ordinateur avec un gros processeur, une grosse carte graphique, une grosse alimentation et des dissipateurs surdimensionnés, le tout dans un grand boitier bien ventilé.



Et le tout monté de façon pratique pour pouvoir changer ce que tu veux facilement pour évoluer de manière simple. Que ce soit pour mettre à jour sa carte graphique, le coeur de machine, ou l’écran.



Et au passage, un tel PC ça monte très bien à fond <img data-src=" />


Le 18/10/2015 à 22h 32







SebGF a écrit :



Je dirais le même que quand Bugatti a conçu une voiture de série (donc avec des essuie glace, la clim, un autoradio, etc) qui peut monter à 420km/h et coûte 1.5 millions d’euros.







La Bugatti Veyron apporte des performances exceptionnelles. Ca c’est un avantage concret…







manu0086 a écrit :



En quoi est-ce du doigt mouillé d’affirmer qu’un assemblage soudé est moins soumis à risque qu’un assemblage avec de nombreuses connectiques ?







Une soudure, ça n’est pas pour autant indestructible, surtout depuis que les normes ont interdit d’y mettre du plomb.



Pour avoir réparé des appareils soumis à forte vibration comme des lave linges, j’ai plus souvent refait des soudures sur les cartes que remplacé des connecteurs.



Quand la connectique est de qualité suffisante, ça ne lâche jamais.



Depuis 20 ans que j’ai des PC, je n’ai jamais eu le moindre problème.



D’ailleurs, au passage, la RAM et le processeur, sont juste des connecteurs parmi d’autres.





Les connectiques peuvent être de très bonnes qualité, ça n’empêchera jamais la poussière de s’y loger,





La poussière, bien avant de poser un des problèmes avec la connectique, elle saturera les radiateurs.



Et c’est réellement appréciable de pouvoir démonter facilement pour les nettoyer. <img data-src=" />





les vibrations





La connectique des PC est très bien conçue. Je n’ai jamais vu de problème causées par des vibrations, même sur le très long terme.





de les maltraiter (sans parler des utilisateurs qui viennent foutre leurs mains dedans et trifouiller)





Lol, c’est MON ordinateur, je le paye, j’y fait ce que je veux.



Celui qui veut me vendre un ordinateur que je peux pas démonter “pour mon bien”, il peut se lever tôt le matin <img data-src=" />


Le 18/10/2015 à 17h 42







SebGF a écrit :



Quand je parle de gain de place, c’est à l’intérieur du bousin. Ils veulent faire des machines desktop avec les mêmes guides de conception que les PC portables ultra légers. Va en voir un en expo à la Fnac et tu comprendras.







Justement, il faut se demander quel est l’intérêt d’une conception de type PC portable pour un appareil qui n’a pas vocation à être déplacé. Parce que cette façon de concevoir n’apporte pas que des avantages : pièces non standard, difficultés de démontages, ventilation plus difficile.







manu0086 a écrit :



En l’occurence, quand on achète Apple, on achète en connaissance de cause donc je ne vois pas le problème… surtout quand on sait que t’as moins de chance de tomber en panne que sur un pc classique…







As tu des chiffres pour l’affirmer ?



Et puis, c’est quoi un PC classique ?





Et oui dans les bonnes grosses tours, t’as plus de chances de griller qq chose car la connectique n’est pas soudée, que ça vibre, que ça bouge…





En pratique, c’est bien étudié, ça ne pose pas de problème.





En 10 ans d’Apple, je n’ai grillé qu’un disque dur… (ordi allumé 24h/24), dans les tours, j’ai du griller (jamais en même temps) une carte mère, une alim, barrette RAM, bref, y’a pas de comparaison possible.





Tous les connaisseurs te diront que griller autant de composants sur un PC est complètement anormal.



Cela viens typiquement d’une mauvaise alimentation(surtensions qui endommagent les composants) ou d’une ventilation mal conçue(surchauffe = taux de panne qui s’envole).



Acheter un PC ne dispense pas pour autant de se préoccuper de la qualité.





C’est cool que cela soit réparable “facilement”, c’est encore mieux quand ça ne tombe pas en panne…

.





Je suis totalement d’accord.



Pour ma part, en 10 ans, pas la moindre panne sur 5 machines allumées en quasi permanence.



Et mes anciennes machines ont toutes dépassées les 10 ans de fonctionnement. L’une d’entre elle (un pentium I) utilisée comme routeur/firewall a fait presque 15 ans de fonctionnement 2424 et fonctionnait encore au jour de son remplacement.



Mais ce n’est pas non plus un hasard. Il va sans dire que je choisit de manière pointilleuse du matériel de très bonne qualité et surtout que je l’assemble moi même dans les règles de l’art.


Le 17/10/2015 à 12h 23







SebGF a écrit :



Les iMacs sont des PC portables intégrés à un écran, c’est pas compliqué.

Pour faire un truc super fin, qui fait pas de bruit, avec du gain de place de partout, etc, il faut faire des concessions…







Quel intérêt de faire cela pour une machine fixe ?



Parce que raisonnablement, un PC modulaire ne prends pas tellement de place.





Et je ne pense pas que la cible d’Apple soit les bricolos qui cherchent à réparer tout eux même.



Donc à mon avis, ils s’en branlent de se taper une note à moins l’infini en terme de capacité à réparer leur truc.





Ce n’est pas parce que les utilisateurs ne le font pas par eux même que c’est pour autant inutile…



Comme pour leur voiture, leur frigo et leur lave linge, la plupart des gens font intervenir un pro.



Le temps de démontage se retrouve logiquement dans les factures. <img data-src=" />













Le 16/10/2015 à 15h 04







manu0086 a écrit :



Sauf que 95% des utilisateurs finaux n’ont jamais ouvert leur boitier… donc bon être réparable, c’est vraiment pas la priorité des consommateurs. 

Il n’y a que pour l’upgrade qu’il y a un intérêt. Sinon on demanderai la même chose pour les tv et tout autre appareil électronique…







S’ils n’ouvrent pas leurs appareils, ils les font en revanche réparer.



La difficulté de démontage et de réparation influe sur le prix de ces prestations.





Et oui, que cela vous attriste ou non, les “tours” massives d’ordinateurs sont vouées à disparaitre et leur upgrade avec.





Non, car c’est la forme d’ordinateur qui permet de mettre le plus de puissance. Le tout avec une maintenance facile.



Il y aura toujours une clientèle pour ça…



Rien que les joueurs et une partie des entreprises…


Le 16/10/2015 à 10h 26

Franchement, je ne suis pas prêt de laisser tomber ma tour PC assemblée avec passion…

Le 19/10/2015 à 13h 48







Zergy a écrit :



J’ai déjà une manette de XBoxOne pour mon PC, vous pensez que ça vaut le coup de changer ?







Si tu veux mon avis, la réponse est non.



La manette de steam est un hybride entre le pad et la souris dont l’intérêt est de permettre de mieux jouer dans un salon, dans son canapé à des jeux prévus pour le clavier et la souris.



C’est un produit fait pour permettre à steam d’être utilisable dans un salon, donc de concurrencer les consoles classiques.



Dans une situation de jeu classique, devant un PC, étant donné que tu dispose déjà d’un clavier-souris et d’un bon pad, c’est à dire les meilleures interfaces existantes, l’intérêt me parait plutôt limité.


Le 19/10/2015 à 13h 29







kgersen a écrit :



un peu curieux comme article… se focaliser sur un défaut mineur lié a une plateforme qui n’est pas la cible principale du produit…



Qu’on signale ce probleme dans un article complet présentant le produit ok mais faire juste un article pour ca… c’est du négativisme/clickbaiting . L’auteur a une dent contre Valve ou est un peu trop ‘Apple fanboy’ ?







En même temps, vu que Steam est proposé sous MacOs, il n’est pas tout à fait illogique de s’attendre à ce que ces produits soient compatibles. C’est d’autant plus vrai quand le manque d’information sur la fiche peut le laisser penser.



Et un acheteur, c’est un acheteur, qu’il soit dans la cible ou non…


Le 19/10/2015 à 11h 57







yl a écrit :



Je ne pense pas que titiller l’égo soit un critère pertinent depuis pas mal d’années. Ce qui motive ceux qui cherchent, c’est la valeur de la cible qui est fonction du nombre d’utilisateurs et des usages.







Et bien justement, du fait de la rareté d’OpenBSD, c’est un bon moyen d’être tranquille. La majorité des hackers ne se concentrent évidement pas la dessus.



Après, pour celui qui a de vrais secrets (enreprise, état, etc) à protéger, je pense que ça ne sera pas suffisant.


Le 19/10/2015 à 11h 19







Lyaume a écrit :



Quelqu’un pourrait m’expliquer ce qu’apporte OpenBSD ou FreeBSD par rapport à une autre distribution?

J’ai eu beau chercher, je n’ai pas trouvé dans quel contexte ce genre de distribution est utilisée. A ceci prêt qu’elles ont l’air d’être relativement sûre.



Merci d’avance.







Dans l’équipe d’OpenBSD, il y a Theo de Raadt <img data-src=" />


Le 19/10/2015 à 11h 08







linkin623 a écrit :



L’allocation dynamique de ressources est plus efficace.



Mais le système proposé par Sprint est plus “malin” qu’un bête bridage du débit passé une certaine limite. Ca demande plus de ressources interne, mais ça permet aux gros usagers d’utiliser une antenne à fond quand personne ne s’en sert (genre passé 1h de matin).



C’est pas bête, car l’antenne est toujours là, et autant l’utiliser que de laisser un usager à quelques ko/s pendant que le reste des fréquences se tournent le pouces.







Non, je ne trouve pas cela intelligent du tout.



Ce n’est pas parce qu’un utilisateur profite du web tard le soir sans nuire à personne qu’il doit pour autant être bridé quand il consulte ses emails dans les transports en commun.







Spidard a écrit :



Ca permet également a celui qui a un besoin ponctuel se pas se retrouver jeté pour cause d’antenne saturée car squattée par des utilisateurs intensifs. C’est un principe d’équité / de proportionnalité que j’approuve.







Non, le principe d’équité, c’est qu’en cas de congestion, tout le monde a droit aux même nombre de paquets.



Si on veut réellement donner des priorités, alors il serait plus intelligent d’analyser une courte période de temps glissante très courte (14 d’heure) et d’accorder la priorité à ceux qui ont le moins consommé.



Est ce vraiment intelligent de brider pendant un mois quelqu’un qui aura du télécharger un gros fichier le soir quand ça n’emmerde personne ? Bien sûr que non…



Ne laissons pas les commerciaux des FAI nous découper le web en tranches payantes et marketées avec des règles d’une complexité inouie qui rendront la comparaison des offres impossible.


Le 15/10/2015 à 16h 44

Pour ceux qui se demandent à quoi ça sers, il y a des boites qui détruisent du matériel informatique quant il doit sortir du patrimoine des entreprises.



C’est absolument lamentable, mais tellement typique d’une société moderne qui croit qu’on peut gaspiller de la valeur impunément.


Le 15/10/2015 à 16h 34



les nouveautés sont au minimum 20% moins chères que leur version papier





Vu les économies monumentales que permet le format numérique, le prix des ebooks est juste délirant.



Qu’on ne me sorte pas qu’il faut préserver les libraires. Ils disparaîtront de toute manière.




Le 15/10/2015 à 08h 45







altazon a écrit :



Aujourd’hui ça parait incohérent, car la technologie n’est pas encore assez aboutie. Mais il faut voir à 20 ou 30 ans, quand les problèmes de chauffe et de batteries seront derrières nous, et qu’un PC portable de plus de 10mm d’épaisseur sera une aberration.



C’est dans la logique des choses, il faut en passer par des produits moyens pour atteindre un jour un produit satisfaisant.



Par exemple le Macbook 12 pouces qui n’a aucun port est pour moi une aberration. Mais pourtant je ne peux m’empêcher de croire que c’est l’avenir.







Aujourd’hui, la mode c’est de faire des appareils fins… parce qu’avant ils étaient épais.



Il y a deux solutions dans l’avenir. Soit les faire encore plus fins que fins, au risque de les rendre fragiles.



L’autre solution, c’est de repartir sur des appareils qui en imposent.













Le 13/10/2015 à 22h 12



la France se place à l’antépénultième position





Une âme charitable pourrait t’elle me traduire ça dans un langage compréhensible, par exemple en c++ ?

Le 12/10/2015 à 23h 37

Autre souci de taille : le passage d’un article en premium réduit drastiquement le nombre de personnes qui peuvent les commenter.



Or, les commentaires représentent un contenu à haute valeur informative qui apporte au moins autant que les contenus des articles et les complètent souvent utilement.



Les contenu plus travaillé des articles premium voient donc leur valeur amoindries par un manque de participation communautaire aux commentaires.



Quelque part, dans un Web moderne qui devient ultra participatif et tire partie de cela, le modèle premium a un petit côté anachronique.

Le 12/10/2015 à 22h 46







David_L a écrit :



Vu le temps que nous prend l’analyse des rapports de l’ARCEP, oui ça va un passage en Premium, surtout qu’on assure un suivi assez constant de ces questions. Mais je comprend que ça n’intéresse pas tout le monde. Tout comme certains qui regardent avec attention les telco pourraient ne rien à faire d’un article sur Visual Studio par exemple (comme on le fait de manière récurrente).



Notre problématique est de réussir à suivre un large nombre de sujets, mais d’être assez précis pour apporter une plus-value. Ce n’est pas toujours simple, cela créé parfois des frustrations chez certains, mais plus il y a d’abonnés à nous soutenir, mieux on pourra y arriver <img data-src=" />







Est ce que le temps passé est le seul critère pour décider qu’un article doit être réservé en premium ?



Par exemple, certains articles qui ont par nature une dimension politique perdent complètement leur retentissement médiatique s’ils ne touchent qu’un public restreint. C’est dommage et peut être un mauvais calcul.



Sinon, pour ma part, je ne me suis jamais abonné par manque d’intérêt pour les thématiques abordées dans les contenus premium.



Par exemple, sur le contenu premium du jour “En difficulté, Nolife cherche des solutions et mise sur son offre de SVOD Noco”, le titre me suffit. Je n’éprouve pas spécialement l’envie de lire le développement…



Cela dit, je suis peut être en dehors de votre cible de marché.


Le 12/10/2015 à 22h 10







eglyn a écrit :



Ca arrivera je pense lorsque les smartphone auront atteint leur vitesse de croisière au niveau hardware, quand sensiblement les perf PC égaleront les perf smartphone.







Ne rêvez pas. Les smartphones ne seront JAMAIS aussi puissants que des PC desktop. Et donc, ne les remplaceront jamais.



Sur un smartphone, les contraintes de consommation et de dissipation thermiques imposent de limiter drastiquement le nombre de transistors… et donc fatalement la puissance.



Un smartphone ne peut dépasser quelques watts, un PC peut atteindre plusieurs centaines de watts. Ca laisse une idée de la différence de puissance.



Bref, on peut espérer beaucoup du progrès, mais certainement pas qu’il outrepasse les lois de la physique.



Le 09/10/2015 à 21h 11







quicky_2000 a écrit :



Bon visiblement c est un dialogue de sourd.

 Tu as tes certitudes







Je pourrais en dire autant <img data-src=" />





et tu persistes a comparer le monde du PC ou tous les composants s achètent séparément  avec le monde des SoC ou tous les composant sont fondus dans la même puce et customises ce qui entraine des problématiques différentes.





Tu affirmes que cela change quelque chose. Mais la encore, l’exemple du PC démontre tout le contraire.



Parce qu’il existe aussi des PC sous forme de SOC…



D’un point de vue matériel, le PC d’aujourd’hui n’a plus rien à voir avec le PC d’origine qui était composé d’une très grande quantité de circuits séparés.



Tous ces circuits qui étaient auparavant séparés se sont vu progressivement fondus dans des puces plus grandes. Même le GPU finit par être intégré. Tout cela pour aboutir à un PC sous forme de SOC.



Qu’est ce que ça change d’un point de vue logiciel ? Et bien strictement rien.



Quel que soit son niveau d’intégration des puces, le PC est toujours resté un PC qui maintient la compatibilité avec les autres PC.



Et cela reste même valable pour un PC de type SOC.





Ce dont je suis sur c est que je travaille sur a la conception de SoC tous les jours

et si on pouvait faire quelque chose d aussi “simple” et “modulaire” que dans le monde PC on réduirait carrément nos temps de conception et nos couts.





Je dirais plutôt que certains fabricants de SOC se sont fourvoyés en croyant naïvement qu’il serait avantageux de s’affranchir des contraintes de compatibilité et de céder à la facilité de faire table rase à chaque nouveau produit.



Mais c’est une fausse bonne idée qui se traduit logiquement par des coûts cachés et du travail inutile.



Cela n’est bien évidement pas adapté a une logique de support de longue durée.



A terme, je ne serais pas surpris qu’Intel (et/ou AMD) profitent des défauts des SOC pour venir faire le ménage…





Si c était faisable facilement la boite le ferait déjà pour reverser plus de dividendes aux actionnaires





Je pense que les actionnaires n’ont absolument aucune raison d’être mécontents de cette logique de vente en volume et de renouvellement permanent. Tant que l’argent rentre, ils n’ont aucune raison de se plaindre.



Mais je doute que cette logique soit tenable à long terme.



D’une part, il n’est pas certain que le consommateur continuera d’accepter de consacrer des sommes importantes à des appareils non évolutifs, donc à l’usage limités dans le temps.



Des appareils non évolutifs qui ne reçoivent pas de mise à jour de sécurité pendant une partie de leur durée de vie effective, cela pose un problème de sécurité à grande échelle. Des normes et/ou des pressions de la part des opérateurs télécom finiront fatalement par arriver.



Pour les pays occidentaux, les gadgets électroniques représentent une source d’importation importante et par la même une source de déséquilibre de la balance commerciale. La encore, il est probable que des lois et des normes finiront par apparaître pour forcer l’allongement de la durée de vie des produits.


Le 08/10/2015 à 14h 50







quicky_2000 a écrit :



Oui c est bien la toute la difference et cela explique la difference d architecture entre les deux mondes







C’était très différent il y a quelques années, ça ne l’est plus tant que ça maintenant.



Parce qu’avec le nombre de transistors qui explose, la notion de performance par watt est devenue presque aussi importante dans un gros PC. Et ce n’est pas parce que le besoin d’IPC plus élevé conduit à des choix légèrement différents que pour autant, le degré d’optimisation serait moindre.



D’ailleurs, dans le mobile, on veut de plus en plus de performances, donc dans le temps, les deux logiques tendent à se rejoindre.





C est vrai mais c est masque par le driver donc l OS ne le voit pas





Par définition, tout ce qui est périphérique est géré par des drivers. Un Os ne gère directement que le processeur et la mémoire. Et encore, dans certains micro noyaux, la mémoire peut être gérée par un driver.





C est bien pour cela que je precisais que dans un PC tu as un gros processeur central alors que tu en as une multitude dans un SoC de smartphone qui interagissent tous entre eux.





Sur PC aussi, quantité de composants qui intègrent des microcontrôleurs et un firmware. Ce n’est pas tellement spécifique.

 



Le dernier soc sur lequel j ai travaille il y avait par exemple deja:

un processeur ARM rien que pour la PRCMU ( unite de gestion des clocks et du power ) avec son propre firmware.

un processeur ARM pour une unite dediee a la lecture de support proprios cryptes, avec son propre firmware

un processeur pour la partie audio





Et sur PC, tu as aussi des composants qui intègrent un microcontrôleur et un firmware. Les contrôleurs de tension numériques, les DSP des circuits son, des circuits wifi, etc, etc…



Est ce que c’est source de complexité ? Bien sûr que non.



Qu’est ce qui est plus dur à programmer ? Un circuit dont il faut gérer toutes la moindre subtilité à coup d’écriture dans une foultitude de registres ? Ou un circuit qui intègre un firmware qui est déjà une sorte de driver et qui va communiquer avec des commandes de haut niveau ?



Par exemple, quand on s’amuse à parler à un GPS, c’est quand même plus simple de lui envoyer des commandes et de récupérer des coordonnées toutes calculées que de gérer son (complexe) fonctionnement interne.



Tout cela n’a rien d’exceptionnel et ce fonctionnement se retrouve aussi sur PC et dans toute l’architecture informatique.



On retrouvait déjà ce fonctionnement il y a plus de 30 ans dans certains ordinateurs familiaux. Avec des périphériques qui intégraient un vrai microprocesseur, un firmware et qui communiquaient avec le processeur central par le biais d’une liaison de données.

 



des processeurs dans les IPs VP9, H365

 

toutes les IPs securites etc

 + l application processor.

 Il faut voir que le soft qui tourne sur l application processor doit orchestrer tout ca ( demarrage des IPs, chargement des firmwares, interactions avec les IPs ) sachant qu en plus d un SoC a l autre tu peux avoir les meme IPs mais des mappings memoires complements differents donc le soft est tres specialise en fonction de l architecture du SoC.





Parce que c’est typiquement le genre de problématique qui doit être gérée au démarrage par un bios/uefi et non par l’OS.



Quand l’Os démarre, le bios doit initialiser le chipset et les principaux circuits et transmettre à l’OS des informations sur la cartographie mémoire, énumérer les circuits présents, etc … une couche d’abstraction matérielle doit permettre de manipuler les principales fonctions avant d’installer un driver, voir même en le remplaçant.



Il y a quelques années, Intel avait écrit de très bons documents sur le concept de driver indépendant de l’Os.



A quoi servent les progrès de l’informatique si certains les ignorent ?





En plus de ca l espace ROM ou stocker le soft est tres restreint donc il n embarque que le strict necessaire pour faire tourner le soc contrairement a un Linux Desktop ou un windows qui sont livres avec des tonnes de drivers qui leur permettent de gerer tous les matos et c est compile avec les options aux petites oignons pour que ca tienne dans la memoire.





En même temps, un bon linux avec tous les drivers, ça tient dans à peine 4 gig. Les téléphones mobiles d’aujourd’hui intègrent largement assez de mémoire flash.



Idem pour la RAM, un Linux pas particulièrement optimisé tourne parfaitement avec ce que proposent les smartphones actuels. Et même avec bien moins (1Go sur un netbook, ça tourne et même avec les 512ko d’un RPI).





Comparer un proc intel avec un SoC c est comme comparer un proc Intel avec un PC complet a la configuration figee

Et non d un SoC a l autre d un meme fabricant l architecture interne peut enormement changer avec tous les impacts que ca implique sur le soft. c est pas gratuit du tout un changement d architecture. A chaque fois il faut tout reverifier. La verif et la valid d un soc c est un enorme boulot compare a celle d une IP





D’un PC à l’autre, d’un chipset à l’autre, beaucoup de choses peuvent changer. C’est juste que sur un PC, il y a eu un travail pour que malgré les différences cela reste compatible.





Super comparaison. Le SoC d un RPI a 30euros ca n a rien a voir avec celui d un smartphone…

Rien qu au niveau spec t as 250 pages contre plus de 6000 sur celui sur lequel j ai travaille il y a un an ( je parle seulement de la spec Soc a cela tu rajoutes  les specs IPs )… la tu as seulement qq registres a configurer





Ce SOC n’a pas été conçu pour le RPI. Et tout démontre qu’il est plutôt issu des technologies mobiles.



Le SOC du RPI est de toute évidence un modèle dépassé. Ce qui n’empêche pas le PI d’être plus polyvalent qu’un smartphone et de faire tourner parfaitement Linux.



Au passage, à quoi sers de fabriquer des SOC dernier cri, s’ils sont aussi limités dans ce qu’ils peuvent faire tourner ?



Et la doc de tous les composants PC représente aussi un volume impressionnant. Ce qui ne l’empêche pas d’avoir droit à plusieurs Os…

 



et Raspberry Pi on est a 3 modeles avec 2 socs seulements donc heureusement qu il y a un suivi…





En même temps, c’est un bon rythme de renouvellement…

 



Rien que chez Samsung regarde le nombre de models differents qui sortent chaque annee.





Un constructeur de PC sors quantité de produits. Sauf qu’ils sont tous compatibles…



Ce n’est pas un miracle. Dans le monde PC, tout le monde travaille pour cela. Il y a de standard et des règles.

 



Je m en rappelle pour mon Galaxy S2 il y avait 2 socs differents + ceux avec NFC et les ROMs n etaient pas compatibles entre elles…





Oui, je me rappelle de détail.





Bref pour resumer tu compares deux mondes qui se ressemblent du point de vue utilisateurs mais qui ne se ressemblent pas du tout sous le capot et qui, comme la souligne un commentaire precedent, n ont pas du tout la meme maturite.

 

Peut etre que le temps passant il y aura une normalisation et une convergence comme dans le monde PC mais je pense que ca prendra du temps





Je ne suis pas sûr que ce soit une question de maturité.



J’ai connu les premiers smartphones il y a presque 15 ans. Au début, j’était tolérant, je pensait que cela allait évoluer.



Et bien pas du tout, avec le temps, ça n’a fait que régresser, devenir toujours plus fermé.



De l’autre côté, un ordinateur comme le PC est né il y a plus de 30 ans. Et les paradigmes qui permettent la compatibilité étaient déjà présents au départ.



Conclusion, je doute que le temps seul y fasse quelque chose.

 



Ceci dit c est aussi a cause de toutes ces choses que j ai bcp de mal a croire dans le projet Ara, un smartphone modulaire ca a d enormes implications sur les interactions entre les composants. Apres si ca marche ca pourrait peut etre permettre d avoir qq chose comme le monde du PC avec des composants interoperables…





J’ignore si ce projet débouchera sur quelque chose. Si c’est le cas, tant mieux.


Le 08/10/2015 à 10h 23







quicky_2000 a écrit :



Pour voir ou se situe l optimisation compare le rapport perf/watt de ton ordi d il y a qq annees avec ton smartphone.







De nos jours, c’est aussi le cas des PC desktop.



Sur mobile, l’enjeu c’est de consommer peu, sur PC, de tirer le maximum de puissance de calcul avec une enveloppe énergétique donnée.





Niveau archi un PC c est un gros proc central + qq periph (GPU + carte son) alors qu soc de smartphone c est mini 30 processeurs specialises qui se repartissent les taches





Sauf que ce n’est pas aussi simple.



Déjà, dans un PC, il y a un bon paquet de circuits et pas juste les quelques circuits principaux (CPU, GPU, Chipset, etc) que tout le monde connait.



Parce que la carte graphique ou la carte mère ne sont pas composés que d’un seul circuit intégré.



Enfin, ce n’est pas le nombre de circuits qui font la complexité d’une plateforme. Mais la complexité de leur fonction et de leur interaction.



Par exemple, un circuit du genre accéléromètre branché sur un bus I2C, c’est relativement simple à gérer. Mais ce n’est pas le cas d’un GPU.



Donc pour évaluer la complexité d’une plateforme, il ne suffit pas juste de compter les circuits.





L effort de suivi c est une chose de le faire pour un soc dans le cas du RPI mais le faire pour toute la gamme de produit d un fabricant de smartphone vu le nombre de modeles qu ils sortent chaque annee c est autre chose…surtout que certains modeles sortent avec plusieurs socs differents





Sur le marché PC, il existe des milliers de modèles de PC qui ont chacun leur combinaison de composants. Il est aussi très fréquent de voir des changements de composants pour un modèle d’ordinateur donné.



Intel dispose d’une gamme de dizaines de processeurs différents. Et il en va de même pour chaque fabricant de circuit, que ce soit des GPU, des circuits son, réseau, chipsets, etc…



Et les modèles évoluent et changent assez régulièrement.



Et pourtant, les systèmes d’exploitation gèrent tout cela et les fabricants du monde PC assurent un suivi dans le temps.



En comparaison, le nombre de fabricants “principaux” de SOC est plutôt limité. Et de la même façon qu’on dira qu’un modèle de processeur intel a d’énormes similitudes avec un autre processeur intel, c’est aussi le cas des SOC de téléphones mobiles d’un même fabricant.



Par exemple, le Raspberri PI a évolué en passant du BCM2835 au BCM2836. Beaucoup de différences au niveau performances, mais pas tellement au niveau compatibilité.





Tout ceci etant dit je pense qu il y a aussi un interet commercial a ne pas proposer de mises a jour.

Perso je prefererai un smartphone qui dure avec des MAJ sur plusieurs annees





Je préférerais aussi, quitte à le payer un peu plus cher.



Avec un peu plus d’ouverture et la possibilité d’installer un vrai Os (Linux) et donc de vraies applications(comme sur un Raspberry pi), les téléphones pourraient aussi se montrer bien plus puissants….



J’aimerais pouvoir passer avec le même téléphone d’Android à Windows (ou l’inverse) et pourquoi pas à ios.



La vente liée de l’OS et du téléphone n’a pas plus lieu d’être sur mobile que sur un PC classique.


Le 07/10/2015 à 18h 15







Aricko a écrit :



D’après ce que j’ai compris, le coeur est compilé autour du matériel et donc ne peut pas être mis à jour comme un Windows (pour des soucis de sécurité, d’optimisation et de place, très probablement), mais je peux me tromper :)



Du coup, on est dépendant des constructeurs…



… et du coup, les parts de marché dépendent surtout du renouvellement des smartphones/tablettes par les clients.



J’ai une Asus TF300 en 4.2.2 (de souvenir) qui ne bougera probablement plus jamais et un Moto G 4G qui restera probablement en 5.1.







Pour ma part, je ne trouve pas ces explications plausibles sur un plan technique.



D’abord, le coeur d’Android est à la base un simple noyau Linux qui viens du monde PC. Il n’a pas été conçu “spécialement” pour les téléphones.



Le fait de compiler un noyau Linux et de le paramétrer pour l’optimiser un peu pour un appareil donné n’a rien d’exceptionnel. C’est une façon de faire courante qu’on trouve aussi sur certaines distro Linux PC.



Les interfaces des smartphones sont relativement simples comparées à celles d’un PC. Peut t’on vraiment parler d’exploits d’optimisation ?



Compte tenue de l’énorme puissance que les smartphone modernes embarquent (plusieurs coeur, fréquence supérieure au Ghz, circuit vidéo dédié, puces de décompression vidéo, etc…), soit une puissance supérieure aux PC d’il y a quelques années, je ne vois pas un résultat qui démontrerait une optimisation exceptionnelle. Regardez ce que les programmeurs tiraient d’un Amiga à 7mhz à une époque…



Le fait que le matériel est différent d’un téléphone à l’autre serait t’il une raison valable ? Pourtant c’est aussi le cas des PC depuis la nuit des temps. Les drivers sont faits pour cela. Encore faut t’il qu’il y ait du suivi (ou de l’ouverture de specs).



L’exemple du Raspberry PI dont le coeur est un SOC de mobile/tablette d’il y a quelques années démontre également que l’évolution est possible avec un peu d’ouverture et de suivi.



L’explication la plus crédible ne serait t’elle pas simplement que commercialement parlant, cela arrange les fabricants de téléphone et de SOC de faire des appareils qui ne puissent pas s’upgrader et qui se remplacent par millions à chaque nouvelle version des Os ?


Le 07/10/2015 à 16h 08

Pour ma part, tant qu’il n’y aura pas d’amélioration dans les durées de support des appareils, je n’achèterais plus ces bidules coûteux.



Je veux des appareils qui peuvent accepter une nouvelle version de l’Os pendant au moins 10 ans.



Qu’on ne me dise pas que c’est impossible puisque ça l’est bien pour les PC classiques. Ces derniers peuvent recevoir n’importe quel Os et j’attends de même d’un téléphone.



Techniquement, les téléphones sont de simples ordinateurs. On peut y appliquer exactement les mêmes principes techniques.



Un bios/uefi standard et un petit effort de la part des fabricants de SOC pour le support des drivers dans le temps et on y sera.

Le 07/10/2015 à 16h 44







hurd a écrit :



C’est un peu grossier comme vision.







Pas tant que ça.



L’argent est une abstraction qui permet de représenter la valeur et le temps.



Et l’argent n’est pas lié spécialement au capitalisme : l’argent existe aussi dans les pays socialistes.



Les seules sociétés qui se passent d’argent, c’est le modèle du petit village relativement autarcique.





D’un autre côté dans une société comme la notre ou le travail salarié et rémunéré recule, la question du status de tout ce pan du travail que la société capitaliste ne veut pas vraiment rémunéré (associations, travail ménagers,etc… ) risque de se poser un moment ou à un autre.





Clairement.



C’est d’autant plus vrai que cette économie non marchande produit de la valeur ajoutée. Et pas qu’un peu.



Contrairement d’ailleurs au fait d’envoyer une armée de chômeur à la recherche d’un travail qui n’existe pas, ce qui consomme des ressources et ne produit rien.





Quoi que les gens veulent de toute manière, s’il n’existe plus de travail acceptable disponible pour la société, les personnes vont de toute manière travailler pour s’occuper. Et participer à ce genre d’initiative en est un exemple.





C’est clair.



Le problème c’est qu’il faudra toujours payer son loyer, sa nourriture.



Donc il faudrait effectivement donner de l’argent en contrepartie de cela.



Cela pourrait prendre la forme d’un revenu citoyen ou d’aides.





On peut biensûr trouver cela insupportable en bon capitaliste et faire tout pour que ces personnes se soumette à une sorte d’esclavage (seul moyen pour eux d’avoir un travail “acceptable” pour la société ), mais jusqu’à présent, les gens qui sont pour diverses raisons en marge de la “population active” (sic) travaille et pourrait tout aussi bien participer à ce genre de projet. C’est d’ailleurs très probablement le cas déjà en parti.





Tout à fait.



Le problème de la société capitaliste actuelle, c’est qu’elle ne considère la production de valeur ajoutée qu’a partir du moment ou cette dernière rapporte de l’argent.

Mais ce qui est important pour la richesse d’un pays, ce n’est pas l’argent (qui est juste une abstraction) mais bien la production de valeur ajoutée. Le reste n’est qu’affaire de juste répartition.



Et la production de valeur ajoutée, ce n’est pas forcément matériel. Cela peut être aussi bien d’aider des personnes âgées que d’écrire des logiciels libres ou de réparer un chauffage.



Concrètement tout ce qui apporte quelque chose de positif dans le monde.



L’un des gros problème actuel, c’est que le monde est entré dans une sorte de compétition économique ou les hommes tiennent lieu de matière sacrifiable au lieu de se placer dans une logique de coopération et de développement mutuel.



L’économie actuelle va devoir changer. Car même les pays “gagnants” ont une pauvreté galopante et ne rendent pas leur peuple heureux.


Le 06/10/2015 à 22h 59







zefling a écrit :



De ne dis pas le contraire, il y a de projet qui manque d’argent, mais il y en a beaucoup qui manque aussi de mains. Le temps c’est de l’argent, dans une logique purement capitaliste et je ne pense pas que ta vie se résume à de l’argent.







Cela n’a rien à voir avec le capitalisme. C’est juste de l’économie.



L’argent est une abstraction équivalente au temps.



Bien sûr, la vie ne se résume pas à l’argent… mais les programmeurs ne vivent pas non plus d’amour et d’eau fraîche.



Tu citait plus haut Wikipedia. Ils nous rappellent de temps à autre qu’ils ont aussi besoin d’argent.



Quand il s’agit de trouver de trouver des volontaires à plein temps, c’est quasiment impossible. Parce qu’il faut un minimum d’argent pour se loger, se nourir, se soigner.



Dans tout gros projet, il est inévitable d’avoir un minimum de personnes à plein temps.



Voila pourquoi l’argent est incontournable, même dans le libre.



Cela n’empêche pas, bien évidement qu’ils peuvent avoir aussi besoin de contributions en temps mais aussi et surtout de passionnés.



Car tout l’argent du monde n’achète pas la passion.


Le 06/10/2015 à 20h 32







zefling a écrit :



Pour certains projets, ce n’est pas l’argent qui est recherché, mais des mains et du temps comme Wikipédia ou OSM. Le problème, c’est que les personnes prêtent à donner un peu de temps ne sont pas bien nombreuses, préférant critiquer plutôt l’améliorer, alors qu’ils l’utilisent tous les jours sans rien payer.



Je ne suis pas un gros contributeur, mais quand je vois une erreur que je peux la corriger, je le fais ou je la signale. Et ça m’exaspère quand je vois des gens me dire qu’ils ont vu une petite bourde sur Wikipédia et quand je le demande ce qu’ils ont fait, on me dit toujours : « rien ». Ça les aurait tués de prendre 2 minutes pour la corriger !!







Sauf qu’il ne faut jamais oublier que le temps et l’argent, c’est équivalent.



Avec le temps, tu peux faire de l’argent : Conversion temps-&gt;argent.



Avec l’argent, tu peux acheter du temps : Conversion argent-&gt;temps.



D’autre part, le bénévolat, c’est très bien, mais il y a des limites. Dans bien des cas, il faut quand même un minimum d’argent pour assurer la survie des quelques personnes à plein temps qui vont gérer le noyau principal et l’organisation.


Le 06/10/2015 à 19h 20







joma74fr a écrit :



“Effectivement Framasoft veut peut-être seulement aider les gens qui veulent se séparer de Google, mais quand même, je maintiens que la campagne “dégooglisons internent” avec l’image d’astérix c’est… puéril.”



<img data-src=" /> merci pour cette phrase même si je ne dirais pas que l’image du Village Gaulois soit puéril, c’est seulement de la com’ ou de la publicité qui vaut bien toute la com’ de Google à propos des Google Glass ou à propos de la Google Car par exemples.





En tout cas, j’imagine que ta réaction est peut-être due aux nombreux libristes qui ont une vision philosophique et politique du logiciel libre (marxisme, auto-gestion et autres théories économiques). Heureusement, des sociétés commerciales comme Google, Mozilla, Canonical et même Microsoft utilisent du logiciel libre dans leurs programmes ou dans leurs services et font des bénéfices avec, sinon le logiciel libre n’existerait pas. “Free software” ne veut pas dire “logiciel gratuit” et “logiciel libre” doit se comprendre en opposition à “logiciel propriétaire” (protégé par des brevets).







Je pense que cette vision la est malheureusement mal comprise, particulièrement par le grand public. Et d’ailleurs souvent rapprochée à tort d’idéaux marxistes.



Cela s’explique par le fait que le logiciel libre est constitué à la base d’informaticiens qui voient beaucoup plus loin que le gars lambda en matière de compréhension des conséquences de l’usage de l’informatique.



Quand l’utilisateur de base s’arrête à une vision à court terme de ce qu’ils trouvent pratique, d’autres voient leur intérêt à long terme.



C’est un peu comme tous ces gens qui trouvent pratique de manger tous les midi de la malbouffe trop grasse, salée et sucrée. Ils pourront en reparler quand ils vieilliront…



Reste qu’effectivement, le logiciel libre est souvent confondu avec “logiciel gratuit” alors que ce n’est pas réellement le but. Un logiciel libre peut d’ailleurs parfaitement être payant. Le fait qu’il soit gratuit en pratique est plus une conséquence indirecte. Mais dans l’esprit, les utilisateurs devraient considérer qu’ils doivent contribuer car les auteurs du libre ont aussi besoin de manger.


Le 05/10/2015 à 20h 12







ActionFighter a écrit :



Une inflation peut aussi avoir lieu si la monnaie est dévaluée, et je ne vois pas de porte de sortie qui permette de l’éviter, surtout qu’elle pourrait être à la fois bénéfique si l’inflation est limitée car la monnaie correspondrait plus à l production française, ou catastrophique si l’inflation n’est pas maîtrisée.

De même, on peut penser que la valeur de la production en France change si l’on en vient à un tel système, provoquant inflation ou déflation, au choix selon les biens et services.



Personnellement, je n’arrive pas encore bien à voir toutes les conséquences sur le plan monétaire et par extension économique.







En ce qui concerne la dévaluation monétaire, elle me parait inéluctable. Elle arrivera de toute façon tôt ou tard quel que soit le scénario qu’on choisira.



En ce qui concerne la production française, rien ne prouve qu’elle serait moindre.



Et cela pour une raison simple, c’est que la machine a modifié une composante importante de règles économiques.



Ce qui limitait naguère les économies était le nombre de bras.



Avec des usines automatisées qui emploient peu d’hommes le facteur limitant est la matière première et l’énergie.



Aujourd’hui, s’il y a des chômeurs, c’est parce que l’industrie française n’a plus besoin de tout ces bras.



Pour le reste, dans les chiffres nous sommes un pays riche avec une bonne production. Le problème, c’est uniquement les inégalités sociales, donc un problème de répartition.


Le 05/10/2015 à 19h 42







Bejarid a écrit :



C’est exactement le problème qui, à mon avis, mène ton analyse à aggraver le problème et non le résoudre. Car oui, il faut analyser les statistiques, on est evidemment d’accord, sauf qu’a mon avis cette première étape n’est quasi jamais bien faite, donc l’analyse est foutu d’avance.

 

Pourquoi est-ce que 30 (moi je dirais plutot 40) ans de politique économique et d’emploi ont échoué ?

 

Tu penses que c’est parce qu’on a pas assez essayé de solutions. Ou qu’on les a mal essayé. Ou qu’on a essayé les mauvaises. Volontairement, ou non, peu m’importe. J’ai bon ?







Les statistiques, il y a quand même un sacré paquet de monde qui les étudient.



D’autant que le problème n’est pas limité à notre petit pays.



Même les pays qu’on nous présente comme de bons élèves ont dans la réalité un énorme problème de pauvreté… malgré de bons chiffres économiques.



Alors si avec tout ce monde qui cherche, personne ne trouve, c’est qu’il est évident que la vraie réalité économique n’est plus en phase avec les modèles habituels.



Si les solutions habituelles sont inefficaces, c’est parce que quelque chose à changé.



Demandons nous ce qui a substantiellement changé…





Moi je pense que c’est parce qu’on a pas assez analysé la situation, qu’on y met trop d’affet et pas assez de raison, et que les solutions successives qu’on a essayé de se sont annulés mutuellement, on n’a tout simplement pas agit sur la bonne cible.





Le problème, c’est que la raison, c’est très subjectif.



Il est facile de savoir ce qui est raisonnable dans une situation habituelle. Beaucoup moins dans une situation qui ne l’est pas.



Si tu est passager d’un navire, il ne te paraîtra pas raisonnable de te jeter à l’eau, particulièrement si elle est glacée.



Imaginons maintenant que le navire heurte un iceberg, comme ce qui est arrivé au Titanic.



Certains ont pensé qu’il était plus raisonnable de rester sur le navire, d’autant qu’il était réputé insubmersible et que l’eau était glacée.



Quand on connait la suite, il est facile de dire qu’ils ont eu tort.



Pourtant, sur le moment, la bonne décision n’était sans doute pas si évidente.



L’analyse des catastrophes est riche d’enseignement. On y apprends que la bonne décision n’est pas toujours celle qui parait évidente et raisonnable au premier abord.



Dans une situation inhabituelle, ce que l’on croit être raisonnable peut être notre pire ennemi.





On peut continuer longtemps à essayer, mais même avec toute la bonne volonté du monde, si on a pas de bonnes bases et de bonnes méthodes, on a un taux d’echec extrêment élevé. C’est vrai dans les projets informatiques, c’est tout aussi vrai dans les projets de sociétés.





Que ce soit en informatique ou en économie, s’il suffisait de choisir des gens “qui appliquent la bonne méthode”, il n’y aurait jamais de mauvais projets et l’économie tournerait comme sur des roulettes.



Le problème c’est que personne ne peut réellement certifier qu’une méthode est bien “la bonne méthode”.



Pire, une méthode que l’on peut croire bonne peut révéler ses limites dans d’autres circonstances.



Tout le problème, c’est justement que ceux qui nous dirigent ont reçu des formations et des méthodes. Ces méthodes ont bien sûr été enseignées parce qu’elles fonctionnaient.



Mais aujourd’hui, les temps ont changé, l’économie à changé, les méthodes habituelles doivent être revues pour correspondre à la réalité.



Et c’est justement parce que ceux qui nous dirigent appliquent des méthodes qu’ils sont incapables de trouver des solutions qui s’adaptent à la réalité de la situation.


Le 05/10/2015 à 16h 33







abitbool a écrit :



Pour ajouter ma pierre à l’édifice…

 

Sur les destructions d’emplois : le plus gros problème c’est que les économies faites par l’automatisation, la robotisation, etc… qui permettent de gagner des emplois vont exclusivement ou presque dans la poche des actionnaires ! Et donc chez des personnes qui ne vont pas les dépenser rapidement dans le circuit, ce qui créerait des emplois ailleurs…

 



Concernant la mise en place d’une allocation pour tous à 1 500€, ce n’est pas un risque de fortes augmentation du cout de la vie ?







En substance, non…



Le risque d’inflation survient(grosso modo) quand on augmente le salaire de la masse.



Etant donner que fournir des moyens d’existence aux non travailleur ne changera pas cela, le risque d’inflation ne devrait pas être à craindre.



A noter d’ailleurs, qu’on peut parfois observer des effets inflationnistes quand les salaires sont trop bas.



Par exemple, des salaires trop bas peuvent conduire des familles à s’entasser en collocation dans des appartements, ce qui occasionne… une hausse des loyers. Les familles qui veulent loger seules n’en ont alors plus les moyens.


Le 05/10/2015 à 16h 08







Bejarid a écrit :



L’économie n’est pas un domaine que la science a su modélisé, là dessus, je suis tout à fait d’accord, tu en as cité des causes. Mais quand après tu me parles de prédictions qui se vérifie, là je ne peut être d’accord avec cette contradiction. Qui vérifie les prédictions ? Les mêmes économistes politiciens qui les ont proposé. On peut faire dire ce qu’on veut aux chiffres si on a pas une véritable approche scientifique !







Les prédictions qui se sont réalisées, c’est l’émergence d’un chômage incompressible et massif accompagnant le développement de la mécanisation/automatisation/robotisation.



Tout cela suit une logique assez simple à comprendre.

 



Pour être plus clair, remplaçons “economistes scientifiques” par “statisticiens économique”. C’est à dire  le CNRS, l’OSCE, etc. Des gens qui vont prendre des données, travailler dessus pendant 6 mois minimum (mais parfois plus d’un an, car comme tu l’as dit, l’économie c’est compliqué). Hors, ces gens on les écoute rarement, et pour cause, ils arrivent des mois après la bataille !





Les statistiques, c’est un outil.



Il ne faut jamais oublier que c’est l’interprétation qui leur donne un sens.



Enfin, elles donnent seulement un cliché d’une situation, mais elle ne fournissent pas pour autant le moyen d’y remédier.





A force de vouloir avancer trop vite, on avance à l’aveugle. Quand on expérimente, il ne faut pas vouloir avoir le résultat dès l’expérimentation fini (voir, comme on peut le voir dans quasi tous les journaux, avant ! WTF ?!). Seul les charlatans vont pouvoir donner ce résultat. Pareil pour les prédictions, qui sont confirmées n’importe comment, sans aucune étude, et pour cause, quasi aucune donnée sur le sujet n’aura été rassemblé…





Il y a toujours un risque à agir. Et encore plus à agir de façon rapide.



Mais cela est parfaitement justifié quand l’inaction ou le retard à l’action représente un risque bien plus grand encore.



Il y a aujourd’hui des millions d’exclus qui sont en train de passer à côté de leur vie. Et même, certains en meurent…



D’autre part, l’économie souffre, le développement de l’industrie moderne est freinée par la pression sociale. 



Notre pays s’endette jour après jour. Et notre marge de manœuvre ne cesse de se réduire.



Si nous voulons des certitudes avant d’agir, la seule que nous récolterons, c’est la certitude de s’être trompé.





Donc oui aux expérimentation, mais à une échelle limité, une durée limité, puis scientifiquement analysé. Les faux analystes qu’on voit passer à la télé ou dans les journaux ne sont que des diseurs de bonne aventure qui ne se sont penché que quelques heures sur des données très parcelaires.





Malheureusement, je crains fort qu’une expérimentation limitée ne soit entachée de nombreux biais.



Le premier d’entre eux, c’est la force de l’habitude. Ceux a qui l’on a dicté leurs tâches quotidienne depuis leur enfance peuvent mettre un certain temps avant d’adopter une attitude créatrice en l’absence de contrainte.



Un autre biais, c’est la conscience du caractère limité de l’expérience.



Au fond, de quoi a t’on peur au juste ?



Que certains ne travaillent pas ?



Mais c’est déjà ce qui se passe depuis longtemps !





A nous d’accepter le temps que prennent ces études… Car non, la patience n’est pas de l’immobilisme. Ni de l’excès de prudence. C’est une vertue nécessaire à tout traitement scientifique. Sans elle, on a n’importe quoi, et on tourne en rond car forcément, on va tirer dans un sens, puis dans l’autre…





C’est bien pour cela que la science n’a pas tellement sa place dans le management.



Si dans une entreprise, on attendait 10 ans qu’une armée de professeur nimbus se mettent d’accord par principe de précaution, la seule chose qu’on obtiendrait, c’est des entreprises en faillite.



Ce que les scientifiques ne réalisent pas, c’est qu’en économie, le temps, ça se paye d’une manière ou d’une autre.



Pendant qu’un dirigeant tergiverse, les concurrents prennent les bonnes décisions.





Le temps de la macro économie se compte en année. Vouloir la faire rentrer dans des journaux quotidiens (ou même mensuel), c’est demander à ce qu’on nous mentent.





Cela fait 30 ans que le chômage structurel et incompressible augmente année après année.



Faut t’il encore continuer d’attendre ?



Les réflexions sur le revenu citoyen ne sortent pas du chapeau et ne sont pas nouvelles. Elles ont commencé à partir du moment ou l’homme a commencé à percevoir un futur ou la machine pourrait assurer des tâches à la place de l’homme. Ils ont aussi imaginé des solutions.



Mais nous pouvons aussi continuer d’attendre d’avoir une guerre civile, une économie ruinée et nos enfants à la rue…


Le 05/10/2015 à 00h 42







Bejarid a écrit :



Personne ne sait quelles sont les idées adaptées. On peut tenter des choses, mais si quelqu’un dit qu’il SAIT que ses idées sont les bonnes, sans avoir de résultats concluants à présenter, il est idiot et dangereux. Les Econoclastes et autres Hétéroclastes dont ont entend tant parler sont de ce genre. Des bogdanoffs de l’économie en somme.



Si seulement les “économistes politiques” pouvaient retourner à leur role (proposer des idées à essayer) plutot que d’essayer de piquer celui des “economistes scientifiques” (donner les conclusions chiffrées d’une expérimentation) on pourrait commencer à avancer.

 

 Mais ça, ça semble tellement compliqué à expliquer… Et quand je vois comment Usul entretien le flou sur cette question, je suis pas sur que ça va s’arranger :/







L’économie n’a jamais été un domaine ou la science est vraiment à l’aise. Trop de micro facteurs, trop d’interactions complexes, trop de liens avec la sociologie et la psychologie humaine.



Bref, si la science suffisait à résoudre les problèmes économiques, ça se saurait depuis longtemps.



Sinon, il faut prendre garde à une idée reçue, celle de penser que le changement représenterait forcément un risque et que l’immobilisme serait la voie de la sécurité.



Les problèmes engendrés par la production automatisée sont étudiés par des économistes, industriels, et philosophes depuis bien plus longtemps que beaucoup l’imaginent.



Les prédictions sont la et les faits semblent leur donner raison.



Le fait est que nos pays ne sont pas en déficit de production ni de richesses. C’est donc plus un problème de répartition que de production.



Après, je suis d’accord avec toi que personne ne peut prétendre savoir exactement ce que sera le système idéal de demain.



Mais l’excès de prudence et la logique de l’immobilisme ne nous apprendront rien de plus.



On dit souvent qu’en matière d’entreprise, ceux qui n’acceptent pas le risque de commettre des erreurs n’apprendront jamais rien et n’arriveront à rien.


Le 04/10/2015 à 20h 37







zefling a écrit :



Puis ça ne fonctionnera que si la population est éduquée et actuellement, ce que fait l’enseignement est de pire en pire. Je connais une prof qui me dit que si elle avait un enfant, elles ne le mettent dans une école privée hors contrat… C’est dire ce qu’elle pense du niveau d’enseignement actuel. D’ailleurs, je me demande quel sera le niveau des enfants qu’on retrouvera dans 10-15 ans dans le monde « actif ».







L’école doit changer.



Actuellement, c’est une machine à faire de la sélection qui casse une majorité de gens pour ne tirer vers le haut qu’une petite élite minoritaire.



Aujourd’hui, la majorité des cours comportent peu d’interaction.



Et dans ces conditions, de bonnes vidéo en ligne pourraient faire mieux…


Le 04/10/2015 à 19h 32







Niktareum a écrit :



..




  1. systeme qui n’a de sens que si il est mondial, car Friot (et les autres) ne condamne pas le “capitalisme” franco francais, il a une vision mondiale du probleme et de sa resolution.









    Mettre en place un tel changement au niveau mondial est impossible.



    Le seul moyen, c’est d’abord de le mettre en place à petite échelle… et ensuite les autres pays suivront.



    La difficulté, c’est que dans un contexte de guerre économique mondiale, ce serait l’échec assuré.



    Un minimum de protectionnisme sera indispensable.



    Tout le jeu serait de convaincre rapidement d’autres pays de faire de même afin de pouvoir former un groupe d’échange économique.


Le 04/10/2015 à 19h 13







Bejarid a écrit :



Quand un, ou les, parties dominants font de la merde, un, ou plusieurs, autres parties rentrent dans la dance et essayent de prendre leur place. C’est exactement ce qu’essaye de faire le FN en france, ou ce qu’a fait Siryza en Grèce. Ils profitent des erreurs des parties existants (de droite en france, de gauche en grèce) et ils auraient tort de ne pas le faire.

 

 Après, le monde, ni même le pays, ne change pour autant, c’est juste les gens qui changent, on l’a bien vu en Grèce :)







Siryza, on a vu ce qu’ils ont fait : Un peu de cinéma pour la forme. Pour finalement se coucher bien sagement devant la troïka.



Quand au FN, même s’ils ont apporté quelques réflexions au débat, je ne vois pas chez eux de vision économique moderne.



Au fond, pour tous ces partis, c’est très facile de manier la soupe contestataire tant qu’ils n’ont pas le pouvoir. Parce que promettre ne coûte rien.



Mais seule une vraie vision d’avenir et un vrai plan pourrait donner l’assurance qu’ils peuvent mener à bien ce qu’ils promettent.



Et pour l’instant, question parti Français, je n’en vois pas un seul qui se positionne sur des idées économiques adaptées aux problèmes du 21ième siècle.


Le 04/10/2015 à 17h 52







Bejarid a écrit :



Bien entendu, et c’est bien pour ça qu’il y a souvent deux grands parties qui s’affrontent, l’un poussant dans un sens, et l’autre dans l’autre, afin d’avoir des lignes mouvantes epousants au mieux les besoins.







Le problème, c’est quand les deux ou trois partis dominants ont à peu près les mêmes idées dépassées.





Tout ceux qui viennent dire qu’un bon vieux partie unique (communiste ou nationalite) serait mieux sont des fous.





Clairement.



Car il est évident que les bonne solutions sont souvent le fruit du débat engendré par l’opposition.

 



De même pour ceux qui pensent que l’humanité est prête pour un gouvernement mondiale unique. J’espère qu’un jour ça sera le cas (et les peuples se rapprochants, ça devrait arriver si on crève pas tous avant), mais à l’heure actuelle, ça ferait énormément de mal…





Hélas, j’ai bien peur qu’un gouvernement mondial unique ne finisse inéluctablement par être une sorte de dictature mondiale qui ne fasse en pratique qu’imposer une utopie unique et catastrophique… sans parler du risque de corruption qu’un tel pouvoir ne peut qu’attiser.



Comme je crois à la diversité des partis et des idées, je pense que les pays doivent conserver leur autonomie. Chacun étant libre d’expérimenter des solutions. Celles qui fonctionnent le mieux pouvant servir d’inspiration aux autres.



Mais cela implique aussi que l’économie mondiale unique sans aucun protectionnisme ne pourra jamais fonctionner.


Le 04/10/2015 à 17h 31







Bejarid a écrit :





 Un système instable et inefficase comme le capitalisme est bien plus adapté aux défauts humains que la perfection communiste. Ca diminue l’INpact des erreurs inhérentes à notre nature, sans totalement bloquer les avancées.







Malheureusement, il semble que le capitalisme ait au moins autant de défauts que le communisme et finisse lui aussi par engendrer inéluctablement un effondrement et de nombreuses victimes.



En réalité, on peut dire qu’il y a de bonnes idées partout. Mais ce qui ne fonctionne pas, c’est de pousser un système à l’extrême.



Un système, c’est comme une recette de cuisine. Pour faire un plat reussi, il faut éviter de saturer de sel, de poivre ou de chocolat. Il faut trouver le bon mix d’ingrédient et la bonne préparation.



Un bon système, c’est d’abord un bon équilibre en fonction de la situation et de l’époque.


Le 04/10/2015 à 17h 14







ActionFighter a écrit :



Un bel exemple, les petits africains ne consomment pas de chocolat, mais travaillent pour que celui que l’on consomme soit moins cher à produire…







En fait, paradoxalement, c’est ce que la mondialisation tends à imposer à tous les pays du monde.



Travaillez, produisez, serrez vous la ceinture. Mais surtout, ne consommez rien…



Après, c’est le cercle vicieux. Il faut être toujours plus compétitif pour vendre à un consommateur toujours plus pauvre.



Pas difficile de comprendre que ce système va vers l’effondrement…



Comme je l’ai dit plus haut en parlant d’Henry Ford, il fut un temps ou même le patronat comprenait très bien que c’est ce qu’il fallait à tout prix éviter.







Le 04/10/2015 à 16h 52







Ami-Kuns a écrit :



Sans un changement de mentalité à l’échelle planétaire, la possibilité de réussite est extrêmement faible.

J’ai l’impression que pour cela se produise, on devra passer par la case grosse catastrophe (de quel sorte? aucune idée).







Sans doute une grande dépression comme en 1929.



L’économie mondiale vit sous perfusion depuis trop longtemps, la catastrophe arrivera, ce n’est qu’une question de temps.



L’ennui, c’est que chaque pays agit selon son intérêt à court terme, oubliant qu’il fait partie d’une économie globale.



C’est ainsi que la méthode allemande(ou chinoise) consistant à appauvrir les travailleurs afin de les pousser à produire sans consommer est érigée en exemple.



On oublie que si tous les pays du monde produisent sans consommer, c’est l’effondrement assuré. Et nous y allons tout droit…



Comme tu le suggère, il n’y a quasiment aucune chance de faire changer quoi que ce soit à l’échelle mondiale.



La solution passera sans doute par une forme de deconnection partielle : une forme de protectionnisme envers les pays qui n’iront pas dans le bon sens.



A ceux qui objecteront que le protectionnisme a de graves inconvénients, je répondrait qu’il vaut toujours mieux un petit canot de sauvetage qui flotte qu’un grand paquebot qui coule.


Le 04/10/2015 à 16h 27







seb2411 a écrit :



Bof des infos que j’avais lu ils ne suppriment pas vraiment d’emploi tu as plutôt un transfert vers de nouveaux boulots.







En partie seulement. En vérité, c’est très loin de compenser…



Et le redoutable inconvénient d’une telle économie, c’est que créer des nouvelles activités implique de s’éloigner toujours plus de l’indispensable.



Malheureusement, cela implique une économie très sensibles aux variations de pouvoir d’achat. Si les consommateurs n’ont pas d’argent, ils peuvent se passer de consommer un nombre impressionnant de produits.



Or, la spirale de pression sociale engendrée par la mondialisation tends à faire baisser les salaires partout. Avec le risque évident à la clé d’un repli sur les besoins de première nécessité. A la clé, une spirale menant vers un effondrement mondial.



Comme l’avaient compris certains patrons comme Henry Ford, une économie de biens non primordiaux nécessite d’augmenter les salaires. A son époque, la voiture était un bien subalterne. Son business était conditionné à l’existence d’un pouvoir d’achat dépassant l’indispensable.



Le revenu citoyen est un moyen simple pour résoudre bon nombre de problèmes :



(1) Supprimer la fracture grandissante entre les travailleurs et non travailleurs dans un monde ou le plein emploi ne reviendra plus.



(2) Soutenir la production de biens et services et permettre le développement de biens et services non indispensables.



(3) Simplifier le système administratif et son maquis d’aides et allocations.



(4) Supprimer les crispations sociales autour de la notion d’emploi. Pour que l’économie se modernise, c’est à dire aille vers l’automatisation et la robotisation, il faut que les gens acceptent de perdre leur emploi. Cela n’est logiquement possible que si on garantit la survie de l’individu.



(5) Redonner de l’importance à l’activité non marchande. Le fait qu’elle n’est pas comptée dans le PIB tend à faire oublier son importance. Pourtant, cette activité a une importance primordiale et apporte beaucoup en terme de bien être social.


Le 04/10/2015 à 01h 51







127.0.0.1 a écrit :



Le documentaire d’Usul m’a bien fait rire… J’adore cet humour très pince sans-rire et second degré sur les thèses fantaisistes des communistes.

du pur LIDD !! <img data-src=" />







L’idée d’un revenu citoyen n’est pas spécialement une thèse d’origine communiste.



C’est plutôt une idée néo libérale. (Mais si ça peut plaire aussi aux communistes, tant mieux).



Avec un chômage qui explose et des machines qui suppriment toujours plus d’emplois, je ne qualifierais pas trop vite ces idées de fantaisistes.



Nombre de penseurs ont prédit que la mécanisation entraînerait tôt ou tard la nécessité d’une adaptation de règles économiques.


Le 04/10/2015 à 17h 00







SebGF a écrit :



Dans le cas d’Ubuntu, elle demande un reboot quand on commence à toucher au noyau (logique puisqu’il faut bien pouvoir le recharger). Tout le reste, le composant est redémarré vu qu’il s’agit d’un ensemble de modules pouvant être chargés et déchargés. C’est là tout l’intérêt d’un noyau modulaire, et c’est pas pour rien que celui de Windows a migré vers cette architecture.

Côté pas trop chiant, le rappel de reboot n’est qu’une fois par jour, laissant laaaargement le temps de finir ce qu’on a à faire et ensuite arrêter le PC.



Concernant les MàJ de Linux à proprement parler, la fonctionnalité sans reboot ne serait faite que pour la nécessité de patcher le noyau à chaud j’ai cru comprendre, ça ne s’appliquerait pas en cas de nouvelle version de Linux.







Plus encore que l’aspect technique (et le fait de devoir rebooter ou pas), ce qui différencie la mise à jour de Linux, c’est que l’expérience utilisateur est bien meilleure.



-La machine reste utilisable pendant les mises à jour.

-L’installation des paquets est très rapide.

-Tous les paquets s’installent en une seule fois.

-Les reboot sont rares. Jamais de multiples reboot, même dans le cas d’installation d’un système neuf.

-Par défaut, l’utilisateur choisit le moment qui l’arrange.


Le 02/10/2015 à 16h 45







Snakeseater a écrit :



Les commentaires nextinpact sur les news Crosoft, encore et toujours les mêmes depuis des années…

 Et les habituels linuxens qui ramènent leur science sur les news a chaque fois avec le même baratin “linux c’est plusss cool et plusss mieux et c’est mon choix” mais qui postent quand même sur ce genre de news pour troll.

 

 J’ai plus posté depuis un petit temps sur ce genre de news, mais il y a des choses qui ne changeront jamais : le niveau intellectuel de certains ici.







En même temps, le but des commentaires n’est pas juste d’applaudir. C’est aussi un excellent moyen de comparer les produits du marché sur le point évoqué.



Et force est de constater que le système de mise à jour de Windows ne brille pas vraiment à côté de ce que propose le monde libre.



Les gestionnaires de paquets Linux sont à la fois plus rapides, permettent une mise à jour en live, prennent en charge la mise à jour de l’ensemble des softs du système… et surtout laissent à l’utilisateur le choix du moment ou ils préfèrent appliquer les mises à jour.



Pour ma part, je pense que cela fait longtemps que Microsoft aurait du améliorer le système de mise à jour de Windows car il ne donne pas une bonne expérience utilisateur.


Le 03/10/2015 à 19h 14







Bylon a écrit :



J’aime bien la dernière phrase de l’article :

 

 … sont tenus de fournir : “ (…) ainsi que les codes sources de ces logiciels”

 

 Et l’armée elle va faire comment pour se conformer à la loi avec son Open Bar M$ ?..

 

 N’importe quoi comme d’habitude.







Il me semble que Microsoft permet aux états de vérifier le code source de ses logiciels.



Mais la vraie question, c’est de savoir si la France dispose réellement d’un personnel suffisant pour les vérifier. Vu l’ampleur de la tâche, il est peu probable que ce soit le cas.



C’est une des raisons pour laquelle des petits pays comme la France ont intérêt à adopter des logiciels libres. Un code source publique, c’est plus de personnes pouvant vérifier.



La sécurité des logiciels pourrait même faire l’objet d’étude dans les universités et écoles d’informatique dans le monde entier. Par exemple, à charge pour chaque étudiant d’étudier une portion de code et de s’assurer argument à l’appui qu’elle est sûre.


Le 02/10/2015 à 16h 30



Manuel Valls va dévoiler une stratégie nationale pour la sécurité du numérique





Faut t’il craindre le pire ?



Au passage, la paranoïa française sur les nouvelles technologies nous porte lourdement atteinte sur le plan économique.



Par exemple, la mauvaise couverture internet des lieux de vacances à cause des règles françaises qui rendent très compliqué(et très cher) le fait de partager une connexion internet.



Nos élus ne réalisent pas qu’Internet devient rapidement indispensable. Et que la couverture des lieux de vacances fait désormais partie des critères des touristes (ce qui m’a été confirmé par des professionnels).

Le 02/10/2015 à 17h 11

Tout système d’exploitation a des failles….



Mais ce qui est impératif, c’est qu’une fois une faille découverte, elle puisse être corrigée dans les plus brefs délais sur tous les appareils en circulation.



Sur Android, c’est ce qui ne va pas.



D’abord parce que les mises à jour sont au bon vouloir des constructeurs d’appareils. Et ils ne se foulent pas, que ce soit d’un point de vue réactivité ou de la durée de prise en charge.



Le bon modèle pour les smartphones, c’est de suivre la logique du PC : un appareil qui peut recevoir l’installation de n’importe quel Os et dont les mises à jour ne dépendent pas des fabricants.


Le 01/10/2015 à 17h 55







127.0.0.1 a écrit :



LibreOffice par défaut sur Raspberry Pi c’est aussi indispensable que Photoshop par défaut sur iWatch.





(c’est mon avis, et je le partage)







Pas d’accord.



D’abord, c’est parfaitement utilisable.



Ensuite, parce qu’il vaut toujours mieux utiliser les mêmes outils que sur desktop quand c’est possible.



Le 01/10/2015 à 17h 40







colonelc4 a écrit :



+1, on a beau cracher sur MS, ces deux produits n’ont pas d’égale <img data-src=" /> …pas la peine de me sortir les solutions concurrentes que je connais déjà (OpenLdap..etc).







Personne n’a prétendu que Microsoft n’avait pas de bons produits.



Simplement, le libre offre une souplesse et une dimension communautaire que le propriétaire ne permet pas.



Une fois qu’on a découvert les vrais avantages du libre, revenir en arrière est impossible.