votre avatar

sr17

est avec nous depuis le 26 décembre 2005 ❤️

4322 commentaires

Le 19/01/2018 à 13h 08



Fin 2016, un rapport sénatorial préconisait par exemple de faire passer à quatre ans la durée de la garantie légale de conformité pour les téléphones portables (contre deux ans aujourd’hui), et d’imposer un dispositif de réversibilité des mises à jour.





Il faudrait également dissuader certaines méthodes de construction qui compliquent le démontage des appareils et le remplacement d’éléments.



On pourrait créer un nouveau taux de TVA à 150% pour les appareils qui ne respectent pas ces règles.

Le 19/01/2018 à 13h 05







skankhunt42 a écrit :



Si tu avais lu tu aurais vu que j’ai fait le dépoussiérage moi même. Mais pour la petite histoire, après avoir finis j’ai proposer de le faire sur le pc de mes parents ils on refusés… Pourtant je te raconte pas comment le pc rame, environ 1 minutes pour lancer firefox… Ils ont légèrement surélevés pour que ça ventile mieux mais bon vu que la machine à 6 ans… Si la semaine prochaine le pc claque je les aurais prévenu, déja 4 fois que je propose un nettoyage. Mais comme c’est très complexe, ils ne veulent pas car il y à une faible chance pour foirer le truc et mettre la machine à la poubelle.







On devrait imposer aux fabricants de prévoir une trappe sur les ordinateurs portables pour l’accès au ventilateur.



Les poussières qui sont aspirées avec l’air par le ventilateur s’accumulent à l’entrée du radiateur. En fonction de l’environnement, il suffit parfois de quelques mois pour l’obstruer.



Alors que ce nettoyage est de l’ordre de la maintenance courante, il est manifeste que les fabricants ne font rien pour le faciliter car il faut souvent démonter tout l’appareil.


Le 18/01/2018 à 15h 04







wanou2 a écrit :



Les comptes ne sont pas publié parce que l’entreprise ne les communique pas. Il y a des dizaines de milliers d’entreprises qui ne communiquent pas leur compte pour ne pas devoir s’expliquer :




  • aux salariés

  • aux fournisseurs

  • aux clients

    - …

     

    Franchement c’est loin d’être rare et l’amende est loin d’être dissuasive (1500€ puis 3000€ en cas de récidive) alors pour un groupe qui fait 17Mds de CA (donné sur leur site internet)







    Cela est véridique.



    Sauf qu’il ne faut pas oublier qu’une entreprise ne déclare pas seulement résultats au greffe, mais doit AUSSI les déclarer au fisc. Et aucune tolérance à l’oubli dans ce cas.



    fr.wikipedia.org Wikipedia


Le 18/01/2018 à 14h 41







trOmAtism a écrit :



80% des vaches sont inséminées artificiellement.

Afin que toutes les vaches d’un élevage aient leurs chaleurs en même temps (pour éviter de devoir faire venir l’inséminateur plusieurs fois), on leur administre des hormones.On commences la traie dès la production de lait. Puis après : séparation du vœux à sa naissance.  Traite 23 fois par jours.  Et rebelote, hormones, inséminées artificiellement, traie, naissance, traie, hormones, insé etc etc. Toute sa vie. Si tu me dis que c’est pas horrible….







Pas cool, pas naturel et pas bon pour la qualité des produits et la santé du consommateur, on est d’accord.



Sauf que c’est très facile de nourrir une minorité fortunée avec des aliments bio-cool hors de prix, beaucoup moins de nourrir notre population qui n’a cessé d’augmenter après la seconde guerre mondiale.



Parce que dans le même temps, la surface de notre pays (et donc de terres cultivables) n’a pas augmenté…





Tu connais une espèce qui bois du lait après son sevrage? Aucune.

Lait de vache pour les voeux, pas pour les humains.



Sauf que dans la nature, il n’est justement pas rare de trouver des espèces qui sont les seules à se nourrir d’un aliment particulier.



Cela fait partie de la diversité de la nature et ne devrait pas aboutir à des conclusions hâtives.



Du lait, cela fait bien longtemps que l’homme en boit.





Sinon, une étude  havard :http://naturalsociety.com/harvard-scientists-urge-stop-drinking-milk/ et un autre article :http://www.hygienenaturelle-alimentation.com/article-les-effets-nefastes-du-lait…





En parlant d’études, on oublie qu’il n’est pas rare de trouver des études contradictoires sur un sujet précis. C’est ce qui permet de démonter à peu près n’importe quel argumentaire sur n’importe quel sujet.



Beaucoup de gens tendent à confondre études et vérité scientifique.



Par exemple, on sait que l’homme qui a perdu l’habitude de consommer du lait pendant très longtemps va perdre la capacité à digérer le lactose et donc mal tolérer le lait. Et même à la base, cette capacité à conserver une bonne digestion du lait peut varier selon la génétique.



Donc au final, selon le lieu et les habitudes, on pourrait aboutir à des résultats très différents.



Mais aussi, il se trouve que les méthodes traditionnelles de transformation du lait en produits laitiers aboutissent à faire disparaître le lactose par l’intermédiaire des bactéries lactiques.


Le 18/01/2018 à 11h 59







wanou2 a écrit :



J’achète principalement en grande surface et hormis une fois en 2008 je n’ai jamais eu aucun problème non plus. La sécurité alimentaire en France est quand même plutôt assuré que ce soit en artisanal ou en industriel.



Le problème de l’industriel c’est que les volumes sont énormes. Une salmonelle dans les 100 fromages d’un producteur local va provoquer quelques gastros. Alors que la salmonelle présente dans 100.000 fromages d’une unité de production industrielle va provoquer 1.000 fois plus de gastros. Dans un cas, c’est un accident isolé dans l’autre c’est un “scandale alimentaire”.



Surtout que la salmonelle est juste partout vraiment partout. J’ai entendu l’autre matin à la radio un médecin qui expliquait que ce qui était arrivé était grave mais qu’il fallait tout de même relativiser car au moins un quart des gastros non virales étaient dues à la salmonelle et que 70% de la population (en France) aura eu à subir dans sa vie une infection à la salmonelle. Mais bébé + maladie + complot du grand capital = scandale.







Sauf que cela n’a pas de sens de comparer un fromage avec un lait pour bébé. Ces deux types de produits ne suivent pas les mêmes exigences de sécurité.



Pour un fromage traditionnel, on accepte en France qu’il ne soit pas stérilisé pour conserver son gout (et on a bien raison). Mais de nombreux fromages français sont interdits de vente dans beaucoup de pays du monde (et je plains ces pays).



A l’inverse, quand on parle d’aliments pour bébé, on privilégie l’exigence de sécurité du fait de la fragilité des nourrissons.


Le 18/01/2018 à 07h 18







wanou2 a écrit :



Il y a aussi de la merde en circuit court, d’ailleurs j’ai tendance à penser que plus on avance plus c’est merdique et plus c’est cher.

Autant je suis convaincu par la vente directe autant cette mode du circuit court me laisse un petit goût amer…

Ça me fait penser à un producteur de yaourt vers chez moi :

En vente directe 1,7€ les 4 yaourt

En supermarché qu’il livre lui même environ 1,9€

En marché bio/locavore il vend 2€

En association (type soutien du monde paysan) 2,5€

C’est les mêmes, c’est juste que chaque filière à des coûts différents. Les exemples sont duplicables pour le fromager, le cultivateur de salade, le producteur de jambon, … après tout les supermarchés n’ont pas cette fibre “locale” mais dans les campagnes les franchisés sont souvent des entrepreneurs locaux inscrit dans leur développement du territoire local et la population à également plus facilement accès aux produits en vente directe.







Et oui, c’est logique.



Un petit commerçant est obligé de marger beaucoup plus qu’un hypermarché pour espérer survivre.



La vente directe supprime un intermédiaire, donc un niveau de marge(du moins en partie), donc logiquement moins cher.



Les associations se servent des ventes pour financer leurs actions, ce qui implique logiquement de vendre les produits assez cher.


Le 16/01/2018 à 16h 13

Et si l’état français arrêtait de vouloir tout taxer.



Le pire, c’est que toutes ces micro taxes ne sont absolument pas rentables.



Entre les frais de perception, les coûts de contrôle et les effets indirects sur l’économie, cela coûte plus cher que cela rapporte.

Le 15/01/2018 à 18h 11

La sagesse, ça serait plutôt d’interdire totalement le commerce de données personnelles.



Qui nous protégera de cette menace sur notre vie privée ?

Le 14/01/2018 à 18h 55







brazomyna a écrit :



non, il veut un disque le monsieur.



S’il veut j’ai un vrai disque, pas un truc de tapette. Il fait 420Mo, en IDE.



Il doit être plus âgé que quelques lecteurs ici bas <img data-src=" />







Les disque durs, c’était pour les riches…



Un vrai support de stockage populaire dans les années 80 :



http://www.le-grenier-informatique.fr/pages/la-collection-d-objets/les-lecteurs-…



Les 8 bits, c’était tout une époque. <img data-src=" />


Le 13/01/2018 à 01h 24



Ne dites plus Smartphone ou Ordiphone, mais Mobile multifonction.





Et si on appelait un chat un chat ? Tous ces appareils sont des ordinateurs, ni plus, ni moins.



Qu’ils soient mobiles, fixes, avec ou sans clavier, ce sont techniquement des ordinateurs.



Parce qu’emporter avec soi une bassine n’en fera jamais un violon même si vous marchez longtemps, la mobilité ne change pas la nature des objets.



Ne tombons pas dans le piège du marketing des multinationales qui ont des raisons purement marketing de créer des différences fictives alors que techniquement il n’y en a pas.

Le 12/01/2018 à 18h 45







PercevalIO a écrit :



C’est vrai que Day of The Tentacle m’a beaucoup perturbé dans ma jeunesse. Aujourd’hui je veux dominer le monde et voyager dans le temps dans des chrono WC :-)



Punaise, c’était le bon temps… Ce jeu, Indiana Jones and The Fate of Atlantis, Duke Nukem 3d, le premier Warcraft, Professeur Tim… Plein de jeux différents, tous publics, plein de fun, plein d’imagination… Hélas on fera pas ça aujourd’hui avec COD ou Fifa… Je ne verrai que Minecraft, et quelques jeux indés, et pas tant que c’est perturbant pour le cerveau aujourd’hui, c’est juste que c’est des jeux à prérogative totalement commerciale, aucun respect du joueur… :‘(







Hélas, il faut bien avouer que le monde du jeu vidéo est actuellement en panne. Les productions industrielles récentes sont à quelques rares exceptions très peu intéressantes.



Et surtout, depuis quelques années, on voit apparaître dans les jeux (principalement dans ceux qui sont gratuits) une forme évidente de manipulation mentale basés sur le hacking des circuits de la récompense du cerveau pour faire payer les gens.


Le 12/01/2018 à 17h 28



Dans sa dernière émission, BiTS d’Arte tente de tordre le cou à l’idée reçue selon laquelle les jeux vidéo détournent leurs pratiquants de la lecture, voire qu’ils y perdent goût face à ce divertissement. Des débuts du jeu d’aventure en mode textuel aux créations plus actuelles, l’équipe revient sur l’importance de l’écrit dans l’expérience vidéoludique.





Si l’on devait compter tous les maux dont on a accusé le jeu vidéo, il y aurait de quoi en écrire des romans.



Comme souvent, il y a des personnes qui critiquent une culture parce qu’elles ne la connaissent pas et ne la comprennent pas.

Le 03/01/2018 à 12h 59







The Lootrophile a écrit :



C’est la question que je me pose depuis hier :)

Paradoxalement, ça pourrait aussi être une bonne nouvelle pour Intel. :) tous leurs processeurs vendus depuis 10 ans qui perdent 5-30% de puissance du jour au lendemain, ça représente une formidable opportunité pour forcer les DSI à renouveler leur materiel ! Trop dommage pour eux que AMD soit sorti de sa torpeur il y a un an avec Epyc et Ryzen, ça pourrait aider un peu à rabattre les cartes en matière de parts de marché. Tout ceci sans parler des architectures “scalable” qui vont se mettre à consommer beaucoup plus qu’avant du jour au lendemain, et ce qui va accroitre la demande en CPU…







A moins qu’Intel ne soit obligé d’indemniser les consommateurs et les entreprises. Qui dit défaut dit possibilité d’indemnisation.



Surtout qu’il sera facile de prouver que ce défaut était préexistant(vice caché) sans le moindre doute possible, ce qui permet en France de dépasser les délais de garantie.



Bref, je sens venir la class action dans de nombreux pays du monde…


Le 03/01/2018 à 12h 49







dematbreizh a écrit :



Euh, ça n’impacte que le noyau Linux… pas de risque de changement dans la plupart des entreprises!







Non, ça impacte tous les OS. C’est une faille matérielle.



C’est juste que les informations sont divulguées plus rapidement dans les milieux du logiciel libre.


Le 03/01/2018 à 12h 56







latlanh a écrit :



Moi je veux quelque chose de stable avec un store fourni qui résiste a l’eau , au sable etc. Que mon appareil tienne plus de 3 ans avec des mise à jours sans que j’ai a prendre du temps pour le bidouiller!

Comme dab, chaque personne a ses attente d’un telephone. Je vois pas de pb la dessus! du coup a quoi bon critiquer(pas toi mais les coms d’avant) car il faut 20 min plutot que 10 sec pour changer la batterie !^^







Sauf que ces 20 minutes de main d’oeuvre spécialisées ne sont pas gratuites.



Remplacer la batterie sur un smartphone scellé, ça se facture souvent entre 60 et 80€. Et pour préserver l’étanchéité, il faut trouver quelqu’un qui bosse bien.



Sur mon smartphone, on peut changer la batterie pour 10€.



Je pense que les fabricants de smartphone doivent garder le principe d’étanchéité, mais changer de système. Les joints toriques, c’est mieux et c’est éprouvé depuis longtemps…


Le 02/01/2018 à 16h 20







latlanh a écrit :



je ne répondais que vis à vis du smartphone cité! et je ne voulais pas trop troll sur le design du téléphone, le coté plastique de ceux avec batterie amovible (pour la majorité) ni le manque d’application des WP.







Pour ma part, le logo qu’il y a sur l’appareil m’indiffère. Ce qui m’intéresse, ce sont les possibilités.



Je veux bien d’un smartphone avec batterie amovible qui ne soit pas “plastoc” qui ait des applications dans le store et qui permette d’installer ce qu’on veut en dehors du store.



Et pendant qu’on y est, je veux aussi pouvoir installer un véritable OS pour les personnes qui veulent vraiment faire quelque chose de leur téléphone.


Le 02/01/2018 à 16h 10







RuMaRoCO a écrit :



Vous avez en grande partie raison mais il vous manque quand même des éléments.

Chez Windows (depuis DOS 3 de mémoire) , il y a toujours eu un mécanisme de mémoire virtuelle via un espace disque dédié.

 Donc oui la nature du disque dure influence bien la rapidité de traitement d’un ordinateur. 

 

 A part à avoir une très grande quantité de mémoire vive et à volontairement mettre à zéro la taille de ce fichier système spécifique, votre démonstration reste élégante mais incomplète.







Par définition, le principe de la mémoire virtuelle implique d’associer un fichier à toute zone mémoire réservée afin de pouvoir y décharger le contenu de ces zones mémoire en cas de pénurie de RAM physique.



Cela n’implique absolument pas que les données vont forcément transiter par le système de fichier ni même qu’elles y soient forcément écrite un jour. Et heureusement car même avec un SSD rapide cela serait extrêmement pénalisant pour les performances et la durée de vie du support (Sur un ordinateur moderne, la RAM brasse plusieurs dizaines de GO par seconde).



En augmentant la RAM au niveau nécessaire, on évite justement que l’OS ne sont contraint d’utiliser les mécanismes de déchargement de blocs de la mémoire virtuelle qui sont extrèmement pénalisants pour les performances.



Mieux, en augmentant la RAM au delà du niveau nécessaire, on profite d’un second mécanisme qui est l’utilisation de la RAM inutilisée comme cache accélérateur pour le stockage.


Le 02/01/2018 à 14h 01







latlanh a écrit :



Ouai et l’Indice de protection du coup?







Parce que selon vous, on ne sait pas faire du matériel étanche avec une batterie amovible ?



Si vous cherchez, vous constaterez qu’il existe quantité d’appareils électroniques à vocation sportive ou industrielle qui permettent cela depuis belle lurette.


Le 02/01/2018 à 13h 40







mood8 a écrit :



En gros je ne suis d’accord avec rien du tout concernant ton argumentation, le facteur le plus bridant d’un ordinateur à l’heure actuelle c’est bien le stockage, il suffit de passer d’un dd à plateau à un ssd pour le constater. Le core 2 duo de mon père tourne 5x plus vite que le I5 de debut d’année avec son bon gros vieux disque 5400 t/minutes sous windows 10 de ma belle mère.







Techniquement parlant vos affirmations sont fausses.



Et cela pour une raison simple : Un processeur exécute les programmes à partir de la RAM, pas a partir du SSD.



Une fois les programmes chargés en mémoire, le SSD n’accélère pas les logiciels. Et la plupart des programmes font peu usage de la mémoire de masse une fois chargés.



Mais un ordinateur muni d’un disque dur lent donnera une impression de lenteur puisqu’il faudra patienter au chargement de l’Os et des programmes, ce que tout utilisateur ne manquera pas de remarquer.



Et c’est cette impression subjective qui trompe, parce que la réalité, c’est qu’une fois chargé, un programme s’exécutera tout aussi rapidement que sur un système équipé d’un SSD très rapide.



Si d’aventure vous constatez qu’un SSD apporte un effet notable sur la rapidité des applications, c’est un cas de figure typique d’une machine sous dotée en RAM.







La ram c’est utile pour certaines application mais vu la vitesse de lecture d’un SSD et l’utilisation du swap avec celui ci, tu ne t’en appercois meme pas quand t’es dans le rouge. Je prefere avoir 4go de ram et un SSD que 16 go et un dd 5400T/mn pour une utilisation classique.





La encore, c’est faux.



La RAM n’est pas utile “pour certaines applications”, mais pour toutes : un programme ne s’éxecute qu’a partir de la RAM. Pour traiter des données, un ordinateur doit les charger en RAM. Sur un ordinateur, la RAM sers à tout…



Et surtout, la RAM est incroyablement plus rapide qu’un SSD.



Question latence, l’accès au SSD demande un nombre de cycles très important : Contrairement à la RAM qui fait partie du coeur du système, le SSD n’est qu’un périphérique externe accessible par le biais d’une longue chaîne de contrôleurs.



Remplacer de la RAM par de la Flash est une mauvaise idée d’un point de vue des performances. Mais aussi parce que contrairement à la RAM qui est quasiment inusable, une cellule de mémoire flash s’use très rapidement.



Il faut savoir également que la RAM accélère le stockage : les Os modernes savent utiliser la RAM non utilisée comme cache, ce qui permet pour les programmes qui font beaucoup appel au stockage de masquer la lenteur d’un disque dur et même d’être encore plus rapide qu’un SSD une fois les données les plus utilisées mises en cache.









Les smartphone ne servent a rien du tout? Envoyé des mails depuis chez ton medecin, regarder une video youtube sur le changement d’un filtre à diesel dans ton garage, utiliser google map pour prédire le meilleur chemin en evitant le traffic, gerer ton agenda par rapport à toutes tes activités. Faire une photo 360 degrés de ton environnement. Reconnaitre la musique qui passe à coté de toi.





Sauf que ces usages découlent uniquement du fait qu’un smartphone est mobile.



Comparé à un ordinateur, un smartphone permet seulement 5% des usages de l’informatique, soit vraiment pas grand chose.



La faute, non pas au matériel, mais aux Os et programmes qui sont le plus souvent conçus pour convenir au plus petit dénominateur commun de la population.





Alors d’accord pour faire un rapport de stage ou developper ce n’est pas la meilleur solution pour le reste…





C’est simple, quand on parle de vrais usages, un smartphone n’est l’idéal pour aucun travail. Il n’y a pas réellement de “vrais” logiciels sérieux sur ces gadgets.



Pourtant, un smartphone est sur le plan matériel bien plus puissant qu’un PC d’il y a quelques années.



Mais avec un OS et des programmes limités, le smartphone n’est qu’un jouet.



Tout le monde peut constater que les gens n’en font quasiment rien d’utile. C’est de l’informatique “pour perdre son temps”.



Et surtout, ce que personne ne dit tout haut, c’est que 90% de la motivation d’achat, c’est pour le représentatif…





Pour l’instant, il n’y a pas de technologies pretent a remplacer les lithiums, on a vu ce que donnait une plus grosse batterie sur le galaxy note 7. De plus on se dirige vers un tel le moins encombrant avec le plus gros ecran possible, raison de transport et d’efficacité.



Bien sur qu’un iphone 8 ou X ramera un jour, d’ailleurs la preuve on a le scandale des 6S partout en ce moment.



Regarde la technologie que google a integré sur son pixel 2 : une puce dediée à l’ia pour le traitement des photos par exemple pour raison de retrocompatibilité, sur les smartphones non equipés ca serait emulé de maniere software donc ca rame…





Le texte auquel tu réponds la n’était pas le mien. Erreur de quote de ma part…



J’ai d’ailleurs répondu à ce texte juste après.



Je n’ai absolument aucun doute sur le fait qu’on arrivera toujours à faire ramer n’importe quoi.



C’est tellement plus difficile d’optimiser que le contraire…


Le 01/01/2018 à 14h 03

(Désolé pour le vautrage, oubli de quotes sur ton texte à la fin de mon précédent post).









skankhunt42 a écrit :



C’est clair que la finesse je trouve ça un peu con, c’est maintenant tellement fin que le capteur photo deviens une protubérance, il vaudrais mieux des téléphones plus épais avec des batteries plus grosse. Par contre ils seraient beaucoup plus lourd.







Par le passé, il m’est arrivé souvent d’acheter des kit “batterie étendue” qui étaient livrés avec une coque arrière spécifique.



Non seulement le poids augmenté ne gênait pas, mais la prise en main était meilleure.





Mais bon je pense que de toute façon cette conversation n’aura plus vraiment lieu d’être quand le standard en terme de puissance de smartphone sera le haut de gamme d’il y à 2 ans. Je doute qu’un s7 / iphone 8 / 9 puisse ramer un jours.





Bah, si on se fie au passé, ils rameront inéluctablement un jour…





Concernant les batteries c’est pareil, je pense que le besoin dans le monde est devenu tellement important que la technologie va changer. Il y à d’ailleurs des prototype de batterie de quelques mm d’épaisseur que l’ont peut plier, percer… Dans le futur la coque du smartphone sera la batterie :p





Vu comment certains traitent la coque de leur smartphone, j’ai un peu peur pour eux <img data-src=" />


Le 01/01/2018 à 13h 44







skankhunt42 a écrit :



Non c’était du 800*600 en 72 dpi. Photoshop 3 ne permettait même pas d’annuler plus d’une fois.







Je ne me rappelle pas d’avoir eu ce problème sur mon Pentium 200 avec 128Mo de RAM.



De toute manière, il n’y a pas 36 solutions, soit tu manquait de RAM, soit le CPU était un peu limite pour traiter le flux audio en temps réel quand sa puissance était partagée entre plusieurs tâches.



La carte son utilisée pouvait aussi avoir une part de responsabilité. C’était un choix critique en ce temps la : Fallait du Creative Labs, sinon rien.





C’était pour moi la limite avec le fait de ne rien pouvoir faire avec comme les tout premier smartphones.





Si on est honnête, les derniers smartphones ne servent à rien non plus. Ce sont des ordinateurs ou l’on ne peut pas vraiment faire quoi que ce soit de sérieux.





C’est surtout une question de prix…





Ce qui est vrai. C’est coup double pour les fabricants.



Mais le consommateur y est aussi pour quelque chose. Tant qu’il ne sera pas conscient de ce qu’il lui faut pour un minimum de durabilité…





Je part du principe qu’un pc ne peut pas vraiment tourner avec moins de 4go de ram et que le confort est vraiment la à partir de 8, le reste c’est du bonus. A une certaines époque il fallait lacher une fortune pour avoir 4go et 2go était vraiment un luxe.





Je me souviens d’une époque ou les machines avaient quelques ko de RAM. 64 ko, c’était du luxe…



A la fin des années 80, les Amiga et ST étaient parfaitement à l’aise avec 2mo de RAM (de base ils étaient vendus avec 512ko ou 1Mo). On se disait qu’avec 8mo ce serait le pérou et que dans le futur on ne manquerait jamais de RAM.



Depuis, la quantité de RAM a grimpée d’un facteur supérieur à 1000 mais on est toujours devant le même problème.



Au final, quel que soit l’époque, on n’a jamais été à l’aise avec la quantité de RAM que les fabricants de machine vendent de base avec les machines.





Sur smartphone c’est un peu la même chose sauf que effectivement ils ne sont pas extensibles. Mais d’un côté les pc ne l’ont jamais été vu les différent type de ram, edo, ddr, sdr, ect…





Les différents types de RAM n’ont jamais été un problème. Il suffit juste de mettre la bonne. En pratique, les PC desktop extensibles ont toujours permis de monter au moins à 4x la quantité de RAM vendue en moyenne sur les PC grand publics.



La possibilité d’étendre la RAM est paradoxalement le facteur qui joue le plus sur la durée de vie d’une machine.





T’a aussi le stockage qui entre en jeux, les ssd ont vraiment changés la donnes la dessus.





Pour ma part, je préfère investir dans beaucoup de RAM(32 Go aujourd’hui). Le SSD accélère un peu les temps de chargement de l’Os et des logiciels. Mais sur une journée, cela joue finalement assez peu(mais après, ça peut dépendre de l’usage). La RAM permet en revanche de travailler vraiment à l’aise.

 



C’est clair que la finesse je trouve ça un peu con, c’est maintenant tellement fin que le capteur photo deviens une protubérance, il vaudrais mieux des téléphones plus épais avec des batteries plus grosse. Par contre ils seraient beaucoup plus lourd.



Mais bon je pense que de toute façon cette conversation n’aura plus vraiment lieu d’être quand le standard en terme de puissance de smartphone sera le haut de gamme d’il y à 2 ans. Je doute qu’un s7 / iphone 8 / 9 puisse ramer un jours.



Concernant les batteries c’est pareil, je pense que le besoin dans le monde est devenu tellement important que la technologie va changer. Il y à d’ailleurs des prototype de batterie de quelques mm d’épaisseur que l’ont peut plier, percer… Dans le futur la coque du smartphone sera la batterie :p


Le 31/12/2017 à 20h 39







skankhunt42 a écrit :



Mon premier pc c’était un pentium 120mhz et quand j’utilisais toshop j’avais régulièrement des coupures ou distortion sur winamp. J’aurais du mal à me souvenir de la dernière fois que j’ai eu ce genre de problème sur ma machine. Toshop + un rendu video + de la musique + un jeu + un téléchargement et toujours pas de lag au niveau de l’interface.







Sauf que c’est tout à fait normal.



Il suffit de regarder la quantité de mémoire que représente une simple page A4 de graphisme Bitmap (sous Photoshop) et la quantité de RAM disponibles sur les machines grand public de cette époque pour comprendre que les capacités mémoire étaient encore trop justes pour faire du Photoshop sur des images en 300 Dpi.



Le problème venait simplement du fait que ton système tombait en condition d’épuisement de la mémoire physique et devait utiliser utiliser le mécanisme de la mémoire virtuel pour libérer de la mémoire physique, ce qui interrompait brièvement l’ensemble des programmes.



Il est évident qu’un ordinateur de la fin des années 80 ne pouvait pas éditer une photo A4 en 300 Dpi, ce qui ne l’empêchait pas de proposer une GUI fluide en utilisation courante.





Sur les smartphone c’est le même délire, maintenant il est quasiment impossible d’en faire ramer un alors qu’il y à quelques années c’était possible. La moralité de l’histoire est que sur ce genre de produit il ne sert à rien de mettre beaucoup d’argent dedans tant que le stade de la fluidité avec quelques programme de lancé n’est pas atteint car une ou deux mise à jours et c’est dans le cul.





Bah, la ficelle est la même depuis très longtemps.



Les machines sont livrées avec juste ce qu’il faut de RAM à l’instant T.



Quelque temps plus tard, un nouveau système est diffusé qui occupe un peu plus de RAM (que ce soit pour des bonnes raisons ou pas). Et la machine se met à utiliser la mémoire virtuelle, ce qui provoque des ralentissements intenses.



Sur PC, on connait la solution depuis des lustres : Bien doter une station de travail en RAM la fait durer longtemps.



Mais les smartphones et les tablettes ne sont pas du tout extensibles.



Plus ça va, moins les ordinateurs sont extensibles.



Certains me diront : Mais c’est pas possible de mettre un slot d’extension dans des smartphones super fin.



Et la, je répondrait : au fait, ça sers à quoi qu’ils soient aussi fin ? C’est ridicule, ça ne tient même plus correctement dans la main et ça résiste de plus en plus mal au pliage et il faut souvent rajouter une coque.


Le 31/12/2017 à 19h 19







OlivierJ a écrit :



Oui, mais comme je l’ai écrit juste en-dessous et que tu as cité en plus :

« Ça n’est pas de l’obsolescence programmée, c’est du “dimensionnement” de pièces pour assurer le bon fonctionnement pour la grande majorité dans une durée visée. »







Il va de soi que ces connaissances ne sont pas enseignées aux ingénieurs dans le but de faire de l’obsolescence programmée, mais bien dans l’idée de faire de meilleurs produits correctement dimensionnés pour tenir les contraintes de l’usage prévu pendant la durée de vie prévisible du produit.



Sauf que ces connaissances peuvent parfaitement être détournées vers d’autres buts moins louables comme celui de dimensionner des pièces pour casser après une certaine durée.





Vu certains commentaires ici, ce qui serait de notoriété publique c’est qu’il n’y a plus de qualité et que c’était mieux avant, quand personne ne se souciait de l’argent (&lt;- marrant ce mythe).





Bien sûr, dit comme ça, cela paraîtrait totalement caricatural.



Pourtant, on ne peut quand même pas nier que le monde industriel a changé et que les techniques utilisées de nos jours pour faire du profit ont gagné quelques crans en sophistication et en cynisme…





J’ai tendance à le penser aussi, le marché étant relativement global et les méthodes de fabrication communes, avec des composants standardisés souvent issus des mêmes usines.

Il reste tout de même la qualité de conception, le contrôle qualité (y compris 2 ans ou 5 ans après, quand c’est bien fait), qui peut distinguer 2 milieu de gamme, sans parler des exigences de marge (et un nouveau venu peut vouloir les réduire à presque rien par exemple).





Oui, tout à fait.



Il y a des différences de qualité notables entre les produits de constructeurs différents.



Et comme la qualité est moins corrélée avec le prix que par le passé, cela rends la difficulté de choix d’autant plus complexe.





Possible mais il n’y a guère de recette miracle à la fiabilité.





Oui, la fiabilité absolue n’existe pas.



C’est d’ailleurs pour cette raison que la réparabilité est aussi d’une importance capitale.



Une voiture comme la 2cv était en réalité assez moyennement fiable. Mais elle compensait par une réparabilité importante.





Pas que ce que tu dises soit faux, mais moi j’insistais sur le fait qu’on ne peut pas avoir une courbe de fiabilité qui ressemble à ce qu’on veut, en général c’est une exponentielle décroissante (si je ne dis pas de bêtise) ; donc on ne peut pas avoir le cas « 95 % fonctionnent à 5 ans et seulement 30 % à 7 ans ».





A moins d’utiliser du logiciel, il est difficile d’empêcher ce phénomène. Même si une pièce était bien calibrée pour casser après une durée très précise, tout le monde ne se sers pas des appareils de la même façon, ce qui conduit fatalement à des pannes étalées dans le temps.



Mais ce n’est pas forcément un problème. Le but, ce n’est pas que tous les appareils tombent en panne en même temps, mais qu’un certain nombre d’utilisateurs changent d’appareil dans un laps de temps donné.





Pourtant l’article, comme d’autres du même genre, se base sur le concret et pas sur la théorie, et sont écrits par des ingénieurs.





Moi je vois des exemples non représentatifs, des conclusions hâtives et des analyses qui manquent de pragmatisme de terrain.



Concernant les ingénieurs, la plupart sont d’excellents théoriciens. Mais il y a des sujets ou il ne suffit pas de raisonner et de calculer. La difficulté, c’est plutôt de savoir quoi calculer et sur quoi raisonner.



Bref, c’est un sujet qui demande d’avoir aussi des connaissances pratiques en plus des connaissances théorique. Sauf cas particulier, les ingénieurs n’ont pas cette double compétence.



Sur ce genre du sujet, je verrais mieux des BTS formés en alternance après un bac pro et quelques années d’entreprise sur de la maintenance.





Dans les cas que tu cites, ce sont justement des pièces bon marché pas difficiles à remplacer.





Tout à fait.



Mais comme je l’ai dit, dans la pratique la plupart des pannes ne concernent pas des pièces coûteuses.



C’est la ou les stratégies des fabricants consistant à rendre le démontage complexe ou à rendre certaines pièces solidaires ne sont pas anodines.





Mais tu cites des exemples, sur des productions énormes.





Oui, j’ai cité des exemples très courants et très représentatifs.





Moi je peux même citer le cas d’un lave-linge Miele qui a eu sa cuve fracturée (ou genre, l’axe avait un problème) au bout de seulement 12-13 ans, rendant quasi inintéressante une réparation. C’était la mienne, bouhouhouuuu… (achetée environ 900 E en 2002 je crois).





Cet exemple aurait mérité une investigation pour comprendre précisément la cause du problème et comprendre pourquoi la réparation n’était pas rentable. Pour moi, une bonne conception implique que les pièces soient suffisamment modulaires(séparables en petits ensembles) ou réparables afin de ne jamais rendre la réparation non rentable.



Il m’est arrivé de flinguer un arbre sur une machine dans cette gamme de prix. Mais c’était entièrement de ma faute, j’avais tardé à changer des roulements HS, ce qui a détruit les portées de l’arbre et la bague en bronze qui fait l’étanchéité avec le joint tournant. La réparation fut néanmoins possible car la pièce de rechange valait moins de 100€.



Et justement, un paramètre que l’on oublie souvent de regarder, c’est le prix des pièces détachées en fonction des marques.





Alors que tous ceux que je connais qui ont des Miele, c’est increvable (30 ans celle de mes parents je crois).





La plupart des gens ont tendance à raisonner par marque. Il y a certes une logique, mais il faut quand même oublier cette façon de faire.



Ce qu’il faut, c’est raisonner uniquement par modèle. Parce que chaque modèle de chaque marque est unique.



Quand j’achète un lave linge, maintenant je ne regarde plus simplement la marque et le prix, mais je vais éplucher les manuels de service pour voir les détails de conception et la facilité de maintenance. Je regarde aussi le prix et la disponibilité des pièces. Le tout évidement pour le modèle particulier que je vise et pas un autre.


Le 31/12/2017 à 14h 19







skankhunt42 a écrit :



A tu testé une réinstallation des systèmes ? Après d’un côté je trouve ça clairement abusé qu’un quad 1ghz n’arrive même pas à afficher un clavier de manière fluide mais il est clair que c’était prévisible car il y à toute une génération de smartphone / tablette / portable qui même day one étaient à la limite de l’utilisable.



Depuis 4 ans j’aurais tendance à dire que hors batterie même dans dix ans ça tournera encore. C’était aussi le cas de l’informatique ou les pc à l’époque de windows Xp étaient eux aussi, limites. D’ailleurs sur windows c’est même l’effet inverse qui ce produit ou 10 est moins gourmand et mieux optimisé que 7.







Si on regarde dans le passé, on avait des interfaces utilisateur fluides avec un processeur à seulement… 8mhz.



Mais ma bonne dame, vous comprenez, grâce à la technologie moderne, il faut un supercalculateur pour afficher 3 boutons à l’écran. <img data-src=" />


Le 31/12/2017 à 14h 01







2show7 a écrit :



Il font tous pareil, j’ai une bête tablette quad core à 1 Ghz et Android 4.2.2 elle rame à mort, lamentable (tu touche l’écran pour une action, il réagit après un laps de temps trop long). Mon smarphone quad core à 1.3 ghz et android 4.2.2 fonctionne encore relativement bien(c’est limite). Bon ce n’est pas la même marque. Mais ce n’est pas normal d’avoir une telle différence pour ce que j’en fais. Je voulais me servir de la tablette comme liseuse. c’est pire que de marcher dans la boue







Le smartphone de ma femme viens de recevoir une MAJ constructeur vers Android 7. Elle a tout de suite noté une baisse de la réactivité.



Le mien qui est du même constructeur et qui est juste de la série d’avant (caractéristiques légèrement inférieures et moins de mémoire) n’a pas reçu de MAJ constructeur vers Android 7. J’ai installé Android 7 par le biais d’une ROM Android 7 communautaire : pas de baisse de réactivité.



Ne croyant pas au père noël, j’en tire les conclusions logiques qui s’imposent…



Comment remédier à cela ? Comprendre que les smartphones sont des ordinateurs. Et comme sur tout ordinateur, il faut pouvoir facilement installer l’Os générique de son choix et non pas seulement la ROM spécifique fournie par le constructeur pour chaque appareil. On doit absolument séparer le fournisseur de l’appareil et le fournisseur de l’OS.



Pour arriver à cela, il faut contraindre les constructeurs à adopter des normes de compatibilité, a publier des spécifications techniques et à intégrer des couches d’abstraction matérielle comme le fait le PC avec les BIOS/UEFI.


Le 30/12/2017 à 19h 42







OlivierJ a écrit :



Oui mais ça se verra. <img data-src=" />







Bien au contraire, il n’y a aucune raison que cela soit visible.



Pour que cela soit visible, il faudrait le faire d’une manière très simpliste.



Mais le logiciel permet de faire très facilement des choses relativement sophistiquées. Avec du logiciel, on pourrait s’amuser à simuler le comportement statistique d’une panne naturelle. Et cela sans trop d’efforts. Mais bien sûr en beaucoup mieux contrôlé qu’une panne mécanique , histoire d’éviter tout risque de panne précoce.





Tu fais une hypothèse un peu absurde et irréaliste.





C’est une hypothèse, mais pourquoi serait t’elle absurde ?



(1) Sur le plan technique, c’est très facile.



(2) C’est quasiment sans risque de se faire prendre parce qu’impossible à prouver : pas prouvable = pas pris.



(3) La seule barrière est d’ordre moral : autant dire inexistante.





On parle d’appareils qui ont des pannes le plus souvent mécaniques ou électriques.





Non, cela dépends. Même sur un lave linge, on trouve quantités de pannes électroniques.



Mais la encore, si l’on va plus loin dans l’imagination, le logiciel permet de faire plus qu’on ne le pense.



En étant un peu astucieux, il n’est pas impossible de causer des pannes mécaniques ou électriques avec le logiciel d’un firmware sur certains appareils.



Sachez que les circuits de pilotage moderne sont parfois sophistiqués et offrent souvent des possibilités de contrôle logiciel avancé.



Pour donner quelques exemples concrets, un PC moderne est bourré de régulateurs de tension, dont certains sont numériques et programmables. Survolter un composant pour le détruire rapidement est totalement possible.



Prenons l’exemple d’une automobile qui dispose d’une injection et d’un allumage électronique. La encore, avec certains paramètres, il est possible d’endommager un moteur.





Par ailleurs j’ai beaucoup de mal à croire qu’une telle malveillance ne finisse pas par filtrer, c’est un scoop énorme (aussi bien pour un journaliste que pour un concurrent).





Connaissant la nature humaine, je serais moins optimiste.



Si on regarde l’affaire de tricherie à la pollution des constructeurs automobile, il a fallu un temps certain pour que l’affaire émerge… alors même que c’est tout à fait mesurable.



L’ennui, c’est que les tricheries potentielles que j’évoque sont incommensurablement plus difficiles à déceler et à prouver.



Et qui dit quasiment impossible à débusquer dit quasiment sans risque.



Dit autrement, il ne reste plus que la “morale” des industriels comme ultime barrière.



Ce qui se passera dans la vraie vie, c’est que si on continue d’accepter que le logiciel ne puisse pas faire l’objet de contrôles, les industriels feront tout ce qui va les arranger…





Pourquoi pas, mais jusqu’à présent ce n’est pas ce qui pose un souci de fiabilité mécanique.





Certes, mais de nos jours logiciel et matériel fonctionnent de concert. De nombreux appareils sont munis d’un calculateur. S’il ne fonctionne plus, la mécanique deviens juste un tas de ferraille inerte.



Dans certains cas, des interventions sur la mécanique sont tributaires du logiciel. Sur certains voitures modernes, quand tu veux purger les freins, tu as besoin de la “malette” pour que le calculateur ouvre les valves adéquates dans le bloc ABS.



Sans le logiciel libre, nous allons tout droit vers une DRMisation sur l’intervention mécanique.


Le 29/12/2017 à 16h 20







OlivierJ a écrit :



…Il n’y a aucune technique qui permet de faire tenir 99 % du matériel pendant 5 ans et ensuite qu’ils tombent massivement en panne peu après.







Détrompe toi, avec seulement quelques lignes de code dans le firmware d’un appareil et un circuit horloge à bas prix, n’importe quel programmeur spécialiste de l’embarqué sera en mesure de mettre en panne des millions d’appareils avec une précision d’une fraction de seconde. Et même de créer une dispersion aléatoire pour éviter les soupçons à partir d’une date donnée après la fin de la garantie.

Et surtout, avec les protections anti-lecture sophistiquées des micro contrôleurs modernes, bien malin celui qui pourrait prouver quoi que ce soit.



C’est pourquoi on en reviendra toujours au même problème, la seule solution est d’exiger que tous les microcontrôleurs de tous les appareils contiennent exclusivement du code libre, ouvert et contrôlable par tous.


Le 29/12/2017 à 15h 53







OlivierJ a écrit :



Les ingénieurs que je connais n’ont pas eu d’enseignement de cette “technique” (encore heureux).







L’étude de la fatigue des matériaux et des phénomènes d’usure fait partie de l’enseignement des ingénieurs depuis belle lurette…



J’ai encore les cours d’école d’ingénieur de mon père pour en attester.





Ça n’est pas de l’obsolescence programmée, c’est du “dimensionnement” de pièces pour assurer le bon fonctionnement pour la grande majorité dans une durée visée.

Ce dimensionnement n’est pas le même dans le bas de gamme que dans le haut de gamme, et Miele par exemple ne calcule sûrement pas pour une durée de 5 ans.





Sauf qu’il faut vraiment se méfier des idées reçues “de notoriété publique” d’un autre temps. Ce qui était vrai par le passé ne l’est plus forcément aujourd’hui.



A l’exception de l’ultra bas de gamme, les qualités de conception et les durées de vie tendent à être relativement similaire. Le plus fiabilisé est même souvent plutôt le millieu de gamme…



Bien sûr, il reste encore des exceptions et quelques fabricants de niche “hors catégorie” qui proposent des produits fiables et chers.



Mais contrairement à une idée reçue, payer très cher pour un produit fiable n’est pas une fatalité. Il suffit souvent de bien choisir et de connaitre quelques astuces.





C’est totalement débile comme affirmation.

L’usure est fonction de phénomènes physiques dont on connaît la décroissance. Il n’y a aucune technique qui permet de faire tenir 99 % du matériel pendant 5 ans et ensuite qu’ils tombent massivement en panne peu après.





La dessus, tu as parfaitement raison. Il faudrait un travail collosal pour calibrer avec une précision suffisante la durée de vie de chaque pièce compte tenue de la variabilité des paramètres d’usage et des aléas de fabrication. Sur l’ensemble des pièces, cela créerait surtout de l’incertitude et un potentiel manque de fiabilité précoce sous garantie.



Mais c’est en démontant des produits que l’on comprends ce qui est pratiqué dans l’électroménager. La majeur partie des pièces des produits moderne est d’excellente qualité et fiable.



L’obsolescence programmée, ce n’est pas du tout d’envoyer à la poubelle un appareil qui serait usé de partout. C’est même tout le contraire.









Je me sens obligé de citer une partie d’un article bien documenté sur la question (https://www.drgoulu.com/2013/05/01/lobsolescence-est-elle-programmee-2/ )



« Voici maintenant quelques arguments qui me font penser que l’obsolescence programmée est en grande partie un mythe:



1- En plus de 20 ans d’expérience d’ingénieur R&D dans plusieurs entreprises, on ne m’a jamais demandé de limiter la durée de vie d’un produit, et je n’ai jamais entendu un collègue mentionner une telle directive. Mais j’admets que parfois, autour de la machine à café, on s’est demandés si le fait que d’anciens produits étaient “trop bons” ne limitaient pas les ventes actuelles.

2- Certains sites prétendent que les produits sont conçus avec un composant qui en limite la durée de vie en flanchant systématiquement après un certain temps. A mon avis, si c’était volontaire, ce serait idiot car on aurait pu économiser sur le coût des autres composants. On se retrouve avec un produit cher, et la défaillance systématique du même composant risque de donner une mauvaise image du produit, voire de la marque.

3- D’autres prétendent que les produits sont fabriqués de manière à ce que ce soit chaque fois un autre composant qui défaille. Quiconque a vu une usine de production moderne ne peut que sourire : il est techniquement irréaliste de produire en série des pièces différentes les unes des autres de manière contrôlée. Le fait que ce soit des pièces différentes qui cèdent indique que le produit a été bien conçu, avec des composants ayant environ la même durée de vie.

4- Donc oui, je le reconnais, les produits sont conçus pour une certaine durée de fonctionnement. J’ai même reçu un cours là dessus, donné par un ancien ingénieur de Bolex, entreprise qui fai(sai)t de remarquables caméras dont je reparlerai plus bas.. Mais ce n’est pas de l’obsolescence programmée au sens strict parce que:




  • la durée de vie perçue par le consommateur est souvent très différente de la durée de fonctionnement réelle *.

  • * le prix de revient du produit dépend fortement de la durée de fonctionnement prévue. Un moteur qui tourne 1000 heures ou 10’000 n’ont pas du tout le même prix.

    5- Or un nouveau produit, c’est très souvent une cible marketing définie par un prix. Il s’ensuit que la durée de vie, la réparabilité, la garantie etc. sont des conséquences du prix. Exemple spectaculaire: la Swatch. Or je note que l’argument du prix apparaît très rarement dans le “débat” sur l’obsolescence programmée. Et si l’obsolescence était une conséquence de l’apparition de produits bon marché plutôt qu’une cause ?



    Voici quelques expériences personnelles pour illustrer ces différents arguments: […]»





    Malheureusement, un argumentaire qui parait construit en apparence ne fait pas pour autant une vérité.



    Une bonne expérience de la réparation permet de démonter facilement ces arguments.



    Dans la vraie vie, on constate qu’un produit qui pars à la poubelle est très rarement victime de ses composants principaux les plus couteux (qui selon lui justifierait que la fiabilité couterait forcément cher).



    Des moteurs qui pètent sur des lave linges ? Franchement, j’en rigole encore…



    C’est bien plus souvent le triac à 10cents, les charbons à quelques euros. Ou les roulements de la cuve.



    Oh mais c’est pas de bol ma bonne dame, le roulement ne coute que quelques euros, (même du roulement SKF renforcé). Mais depuis quelques années, les constructeurs ont décidé de thermosouder la plupart des cuves. Au lieu d’un roulement à quelques euros, il faut acheter une ensemble à 400€.



    Oh et puis la carte éléctronique de puissance qui a pété, pas de bol pour vous, elle n’est plus dispo chez le constructeur. Et hop, une machine de moins de 10ans à 850€ (pas de l’entrée de gamme) qui va partir à la poubelle (cas réellement constaté).



    Si vous voulez trouver de l’obsolescence programmée, il faut juste demander à une réparateur qui vous aidera à regarder au bon endroit.


Le 29/12/2017 à 12h 59







IhazHedont a écrit :



Sauf qu’il est devenu normal de considérer l’absence d’IP 6768 comme une tare pour un téléphone moderne.

Personnellemment je n’aurai pu imaginer qu’un argument marketing aussi bidon fonctionnerait, mais je me suis bien trompé.







Mais la colle n’est pas la seule solution connue pour obtenir une étanchéité.



Dans l’industrie on utilise plutôt des boîtiers étanches qui utilisent le bon vieux principe du couvercle avec un joint plaqué par de la visserie.



Quelques exemples d’utilisation de ce principe : Les montres, les disque durs, les calculateurs des automobiles, etc…


Le 29/12/2017 à 12h 21



De plus, la capacité d’une batterie à fournir rapidement de l’énergie peut diminuer. Pour qu’un téléphone fonctionne correctement, les composants électroniques doivent pouvoir obtenir instantanément de l’énergie de la batterie.





Certes, personne ne niera qu’une batterie qui est complètement au bout du rouleau peut voir sa résistance interne augmenter.



Mais la bonne approche aurait été d’informer l’utilisateur qu’il pouvait retrouver les pleines capacités de son appareil en remplaçant simplement la batterie et de lui laisser le choix final de l’activation de ce mode dégradé. Devant l’ignorance des causes, un utilisateur lambda pourrait facilement en conclure qu’il faut remplacer le smartphone.



Omission volontaire ou simple bévue ? La justice ne sera probablement jamais en mesure de trouver des éléments pour faire la différence, ce qui rends de fait toute condamnation impossible…



La loi sur l’obsolescence programmée est une belle idée. Mais prouver une intentionnalité sera toujours par définition totalement impraticable.



La meilleure seule solution, c’est d’exiger des logiciels libres car ils permettent facilement à tout ceux qui ont les compétences de surveiller ce que font les constructeurs. Avec des appareils qui vont quasiment gérer notre vie, ceux qui pensent que les logiciels libre ne sont pas une nécéssité se trompent.



Il faut également des normes sur la réparabilité pour interdire certaines pratiques de construction d’appareils. Par exemple, une batterie doit être facilement remplaçable sans demander d’outils spécifiques (à moins qu’ils ne soient fournis avec l’appareil) ni de procédure complexe (chauffage ou collage…).



N’oublions pas que tout ces appareils ne sont pas fabriqués en France. L’importation de ces millions de gadgets électronique pèse sur notre balance commerciale. Nous aurions tout intéret à nous montrer beaucoup plus exigeants avec les fabricants.

Le 02/01/2018 à 21h 38







fred42 a écrit :



Le neuromarketing, ça fait savant et scientifique, mais c’est encore loin d’être prouvé.







Que ça ne soit pas prouvé ne les empêche pas du tout de fonctionner. <img data-src=" />



Par essence, les sciences humaines traitent de phénomènes très complexes qui seront toujours difficiles à modéliser et à prouver…



Par définition, dans ces domaines, la controverse est omniprésente, il faut avoir la formation adaptée pour travailler avec ça.


Le 02/01/2018 à 17h 46







darkweizer a écrit :



Et il suffit de dire NON ! C’est les parents qui décident et qui achètent, pas le contraire. Ils peuvent faire les caprices qu’ils veulent, crier tant qu’ils veulent, quand c’est non, c’est non. Et à force, ils ne tentent plus. Car ils savent. Si on craque à chaque fois, c’est normal qu’ils demandent. Ils ne sont pas bêtes !







Cela parait évident, mais c’est incroyable de voir le nombre de parents qui ne comprennent pas un truc aussi basique.



Ils craquent en ne voyant que la paix qu’ils obtiennent à court terme. Ils ne pigent pas qu’ils ont mis le doigt dans un engrenage infernal qui leur vaudra de vivre un enfer par la suite.



J’ajouterais que non seulement il faut savoir rester ferme, mais qu’en plus, il est bon de leur expliquer les raisons du refus. Ils comprendront que c’est pour leur bien.


Le 27/12/2017 à 18h 55







Sylvounet a écrit :



Je n’ai jamais compris pourquoi l’Etat était à la fois capable de nous filer un numéro de sécu unique en étant en même temps incapable de nous attribuer un espace numérique unique (via une adresse mail “officielle”) au travers duquel tous les échanges avec les service d’Etat se feraient.

Le projet de de monservicepublic n’a pas beaucoup progressé ces dernières années…

Le numérique dans le service public, à part pour les impôts (on se demande pourquoi tiens), ça n’avance pas des masses…







Si on menait une informatisation des services publics dans les règles de l’art, on supprimerait au bas mot l’activité de 80% des fonctionnaires.



Partant de la, il est facile de comprendre pourquoi ça mettra plusieurs siècles <img data-src=" />


Le 27/12/2017 à 18h 41

Il faut tirer la sonnette d’alarme d’urgence…



Techniquement parlant, le grand public n’a pas actuellement à son usage de moyen de notification électronique qui possède la fiabilité nécessaire pour remplacer la lettre recommandée.



Par exemple, le système de l’email ne comporte aucune garantie de bonne réception. Et de fait, la perte d’emails arrive plus fréquemment qu’on ne pense.



Cela est encore aggravé par le fait que la plupart des messageries sont équipées de filtre anti spam bourrées d’heuristiques(= non fiable) qui rendent totalement impossible le fait d’assurer qu’un email vital a bien été reçu et lu par son destinataire.

Le 25/12/2017 à 17h 11







2show7 a écrit :



Je ne développerai pas, je finirai par reprendre mon C64 et chipoter avec (<img data-src=" /> je n’ai jamais accroché à autre chose) <img data-src=" /><img data-src=" />







Mais ce n’est pas du tout étonnant.



Quand bien même ces systèmes avaient les limites de leur époque, ils rendaient la programmation bien plus accessibles que les systèmes d’aujourd’hui.



Et si l’on suit l’évolution des biens de consommation, l’ordinateur n’est pas le seul objet ou les industriels ont tout fait pour compliquer la vie de ceux qui voudraient soulever le capot…


Le 25/12/2017 à 16h 52







skankhunt42 a écrit :



L’informatique n’est qu’un outil comme un marteau… Actuellement tous le monde à un très bon marteau mais la plupart ne veulent pas s’en servir pour construire des meubles mais pour écraser des fourmis. 99% des gens ne sont pas créatif et s’en cognent complètement de l’être.







En fait, c’est le paradigme de l’informatique actuelle qui tends à considérer les utilisateurs comme des légumes qui n’aspirent à rien.



Mais c’est une idée reçue. Pour ceux qui ont connu l’informatique d’un autre temps, il est évident que l’on fait fausse route.



Et justement, a force de considérer les utilisateurs comme des enfants et de leur donner des outils limités, ils tendent à le devenir réellement et de plus en plus, ce qui aboutit à un cercle vicieux dans l’infantilisation. Et au final vers une informatique qui ne sers à rien et n’est plus qu’une perte de temps.



La majorité des gens aspirent à plus de créativité que vous ne l’imaginez. Mais logiquement ils ne peuvent pas aspirer à ce qui a été placé hors de leur portée par les systèmes et les logiciels qu’on leur vends et les connaissances que l’on veut bien leur donner.





Un enfant de 5 ans n’a rien à faire 5h par jours derrière un écran et avec un bon prof en 2h par semaine tu en apprendra bien plus. Après c’est aussi une question d’argent, quand tu est riche tu à autre chose à faire qu’être derrière un écran.





Sincèrement, je pense que l’on peut faire beaucoup mieux avec un écran et des bons contenus interractifs que le fait de rester bêtement assis toute la journée sans bouger sur une chaise à écouter un enseignant (souvent médiocre) faire son “one man show”.



Question nocivité, il faut avoir à l’esprit qu’il n’existe pas d’activité qui ne soit pas mauvaise quand elle est pratiquée à l’éxcès.



Quand à l’image du riche totalement oisif “parce qu’il peut se le permettre”, c’est oublier que l’inactivité est une chose très pénible.





Boaf… Quand tu vois tout ce qu’il faut savoir faire pour ouvrir une pauvre fenêtre “hello world” je me demande vraiment qui contrôle qui.





Le problème est la.



Ceux qui conçoivent les systèmes ne font absolument rien pour simplifier l’utilisation de la programmation pour la rendre accessible au public.



Ces 20 dernières années, ils ont surtout fait le contraire, ce qui a abouti à éloigner le public de la programmation et donc du vrai potentiel utile de l’informatique.



La encore, ceux qui ont connu un autre temps savent que ce n’est pas une fatalité.





Qu’a la fin tu finis invariablement par te tourner sur des framework pour accélérer les choses et c’est eux qui te contrôleront.





Ce qu’il faut se demander, c’est la raison de l’apparition de frameworks.



La plupart du temps, c’est pour encapsuler la misère de choses assez mal fichues au niveau des systèmes.





Exemple con avec la dernière fois que j’ai fais du “code” pour faire communiquer mon téléphone avec un arduino en bluetooth :



. Utiliser un truc “kikou” clickodrome qui te permet d’avoir un truc plus ou moins fonctionnel en 2h sans jamais avoir codé ce qui te permet de passer à autre chose

. Utiliser le kit de dev officiel ou en deux heure tu est content si tu arrive à ouvrir une fenêtre pour avoir un hello world. Et encore ça c’est au mieux au pire tu sera encore à chercher comment installer correctement le kit pour pouvoir émuler un téléphone.



Pour conclure, autant je trouve con que les trucs “kikou” ne possèdent pas tel ou tel fonction qui te brideront car pas possible de les rajouter comme empêcher ton tel d’entrer en veille, autant je trouve ça encore plus con que certaines étapes soient toujours autant complexe sur de la programmation “officielle” comme stocker / écrire / afficher une valeur alors que basiquement c’est le truc que tu utilisera le plus.





Les problèmes que tu décrit sont une illustration directe de ce que je dénonce.



Les Os pour téléphone sont le meilleur exemple d’Os conçus pour être utilisés facilement, mais dont la programmation n’est pas à la portée du non professionnel.



Et comme tu le souligne, les outils “clickodrome-kikou” ne sont une solution à rien. Ce qu’il faut, c’est un système dont la programmation est simple, accessible et puissante.


Le 24/12/2017 à 12h 15







David_L a écrit :



Je crois que tu n’as pas compris qu’on était d’accord <img data-src=" />







Et bien tu me rassure <img data-src=" />



Joyeux noël à tous.


Le 22/12/2017 à 21h 25



Et si demain, nous devenions tous développeurs ? Une utopie qui semble séduire certains, bien qu’elle n’ait pas vraiment de sens





Alors manifestement, vous n’avez pas trouvé le sens et les arguments de ce point de vue…



Pour résumer, il y a deux visions de l’informatique complètement différente.



D’un côté une informatique qui vends l’utopie de la facilité mais qui n’aboutit qu’a vous infantiliser et vous manipuler, vous prendre votre temps, votre argent et vos données personnelles pour un résultat créatif absolument insignifiant. Il faut réaliser que cette informatique est complètement improductive tant elle réduit le potentiel créatif des gens. C’est un gaspillage de temps et d’argent gigantesque. Une machine à faire perdre votre temps de vie et votre argent.



Au passage, savez vous que la tendance chez les personnes importantes de la silicon valley est de tenir leurs enfants à l’écart de… leurs propres produits. Ne croyez surtout pas que ce soit un hasard.



De l’autre côté, il existe une toute autre vision de l’informatique. Elle demande un peu d’apprentissage mais apporte en contrepartie une puissance formidable et une capacité créative bien plus importante. Avec cette informatique, c’est vous qui êtes au commandes… et pas le contraire. Une informatique qui ne cherche pas à vous manipuler : C’est vous qui maîtrisez l’usage de votre temps de cerveau et de vos données pour votre profit… pas celui des autres.



Je conçoit qu’il soit (hélas) difficile, voir impossible pour les jeunes(et même une majorité de moins jeunes) de comprendre de quoi je parle dans la mesure ou ils n’ont jamais rien connu d’autre que le paradigme dominant actuel.



Un paradigme qui n’est d’ailleurs pas nouveau. On peut situer le début de son émergence vers le milieu des années 80. Depuis, il s’est développé crescendo.



Pour comprendre, il faut avoir connu un autre age de l’informatique grand public. Un temps ou l’on parlait de programmation dans les émissions pour les jeunes du mercredi après midi. Un temps ou les livres de programmation s’alignaient par palettes entières jusque dans les super marchés de province.



L’ennui, c’est qu’il n’est pas si simple de “reprendre le contrôle” dans la mesure ou les systèmes actuels sont l’aboutissement d’un long chemin pour éloigner l’utilisateur des leviers de contrôle. La programmation y a été rendu difficile et pas du tout à la portée du public.



Bref, il ne suffira pas juste de “se mettre tous à la programmation”. La réalité, c’est qu’il faudra rien de moins que revoir toute la logique de l’informatique actuelle pour que cela devienne réalité.

Le 21/12/2017 à 14h 55







OB a écrit :



Le problème c’est que le gouvernement regarde les chiffres.



Et quand on fait la corrélation, on s’aperçoit de la chose suivante:



Lorsqu’on met en place du FTTH sur une zone:

 

* Dont le débit ADSL est compris entre 0 et 3Mbps =&gt; plus de 70% d’abonnés changent dès la 1ère année , pour aller prendre du FTTH, et ce quelque soit l’opérateur qui propose ce FTTH



* Dont le débit ADSL est compris entre 3 et 8Mbps =&gt; il n’y a déjà plus que 30% d’abonnés qui changent.



* Plus de 8Mbps =&gt; Moins de 10%, en pratique, prennent du FTTH dans ce cas-là.



Il ne faut pas oublier que si on est sur NextInpact donc une population “plutôt geek”, la réalité du terrain , ce sont des vieux et des quadra. Et non, faut pas croire, les ado sont pas forcément décisionnaires dans un foyer :-)



D’autre part, beaucoup de gens ont “peur” du FTTH, pour plusieurs raison:



 * Il faut faire des travaux dans le logement - par des techniciens payés au lance-pierre , avec des histoires terribles sur les raccordements foirés. Et si c’est une location, c”est encore plus compliqué . Et si c’est un appart dans une copro, c’est encore 2x plus compliqué. Ca décourage tous les gens modérément intéressés.



 * Bien souvent, ça implique de changer d’opérateur , pour un qu’on a quitté en mode “rageux” (Orange, bien souvent, SFR parfois). Free est très très peu présent en FTTH, ils font confiance à leur fanboys pour ne _pas_ changer tant qu’ils n’arrivent pas sur une zone…. du coup, ya pas d’intérêt à trop investir.

 

* Soyons honnête, en dehors des opérations spéciale les prix mensuels en FTTH sont un peu plus chers. Pour quelqu’un qui utilise de temps en temps Internet (parfois sans même s’en rendre compte, comme par ex via la box TV et pour qui ça marche en ADSL), la simple résistance au changement est très très très importante.

 

* Les FAI ont pas mal tiré sur la corde en terme de variation d’offre , mais aussi d’arnaques à peine voilé ces dernières années . Du coup, il y a tout le temps le sentiment diffus mais persistant de “se faire arnaquer” , ou “que ce sera plus intéressant si on attends encore un peu”. L’ADSL “jusqu’a 20mbps” qui stagne à 3 quand t’est chez toi a fait bcp de mal à la crédibilité des FAI … les gens comprennent pas forcément qu’en FTTH, justement , il n’y a pas cette incertitude.



* Les pouvoirs publics et une société privé (dont le nom commence par S et fini par R) ont aussi pas mal brouillé le message en désignant par “Fibre” des technologies comme le câble coax ou même…. les NRA-MED



Je pense que tout ça contribue pas mal au plan de comm’ du gouvernement sur les débits.







Si nos politiciens gèrent vraiment les choses avec le raisonnement que tu décrit, on comprends mieux pourquoi l’économie du pays est dans la mouise. Ca se voit que ces gens n’ont jamais géré une entreprise.



D’un point de vue économique, la multiplication des technologies ne fait qu’induire des coûts inutiles qui seront de toute façon payés par le consommateur en bout de chaîne et donc pèseront sur l’économie et notre compétitivité.



C’est un peu comme cette utopie de la concurrence qui aboutit à multiplier par 4 le nombre d’antennes GSM tout en faisant croire au consommateur naïf que ça serait bon pour lui.


Le 15/12/2017 à 22h 19







skankhunt42 a écrit :





J’avoue que j’ai trouvé ça très pratique avec mon client la dernière fois, envoyer 700mo de donnée en moins de 20 secondes pour qu’ensuite il télécharge tout ça en aussi 20 secondes. Mais après ça reste des cas particulier je pense.









Les usages de l’informatique évoluent, de nombreux métiers travaillent avec des fichiers de plus en plus volumineux.



Et surtout, n’oubliez pas que l’on parle des infrastructures de demain. Il faut les penser pour les usages de demain, pas ceux d’aujourd’hui.



Quand on parle d’équiper les gens pour 2020 ou 2022, il faut comprendre que ça durera au moins 10 ou 15 ans parce qu’un investissement doit être rentabilisé.



Donc ça veut dire qu’en 2035, il y a des gens qui se traîneront encore avec du 8 meg, voir moins…



A mon humble opinion, nos décideurs sont en train de faire un très mauvais calcul…


Le 15/12/2017 à 22h 04







skankhunt42 a écrit :





Après ont pourrais imaginer un système un peu plus intelligent ou on pourrais choisir la source d’une mise à jours pour un jeu ou autre, stocker ça sur un media externe et hop installation en rentrant. Tu va sur le site officiel, tu télécharge les fichier sans devoir installer un launcher à la con &gt; clef usb &gt; hop.



Netflix et compagnie, obligation d’avoir un système de download avec controle à distance et programmation de l’heure.



Juste si l’ont commençais par économiser la bande passante il y aurais pas besoin d’avoir d’aussi grosse connexion. Et je te raconte pas quand le 4k sera démocratisé, ça sera quoi, 10mo la page web ?



En plus tout ce gachis pollue énormément.







Le problème, c’est que développer le bas débit n’est pas forcément un bon calcul.



Pour développer le “8mb”, on va devoir claquer de l’argent en équipements et pour rénover des lignes cuivre.



Beaucoup de lignes cuivres sont vétustes, hors d’age et corrodées. Elles demandent un entretien plus coûteux qu’on ne l’imagine.



Et quand on parle de 8mb, je parie qu’au final ça sera purement théorique et qu’en pratique, de nombreux abonnés finiront avec du 512k pour de nombreuses raisons.



Pour réduire la facture à payer à court terme, on risque de dépenser plus au final. Tout ça pour un service de qualité médiocre.



Moi je pense au contraire qu’il faut investir massivement dans la fibre dès maintenant et partout. L’investissement est conséquent, mais sur le long terme, on fera des économies. Et surtout, il ne faut pas oublier que des infrastructures de qualité, ça apporte un retour sur investissement : C’est un critère qui est important pour les entreprises. Et dans un proche avenir, une mauvaise couverture internet pourrait bien devenir rédhibitoire.


Le 15/12/2017 à 16h 49

J’ajouterais pour ceux qui ne comprennent pas l’importance d’internet que notre pays se RUINE actuellement pour importer le pétrole qui sers à déplacer des millions de français tous les matins.



L’importation de pétrole pèse TRES lourdement sur notre balance commerciale. Sans compter la fabrication d’automobiles…



Développer le télétravail, c’est une vraie nécessité. Aussi bien pour réduire notre facture énergétique que pour redonner du travail en province, ce qui réduira le problème de concentration des populations dans les grandes villes.



Ce qui est dommage, c’est de constater que nos politiciens n’ont aucune vision stratégique à moyen terme alors qu’ils sont grassement payés pour faire ce travail.

Le 15/12/2017 à 16h 40







Nozalys a écrit :



Soit, c’est vrai. Mais encore une fois il ne faut pas faire des généralités à partir de cas particuliers. Tu donne 8 Mbps à chaque Français, et tu impose le télétravail à tout le monde. Ce débit suffira pour une large majorité des travaux. Si tu manipules des gros fichiers en télétravail, c’est souvent des opération à distance, tu ne déporte que l’IHM.

Il y a forcément des cas précis pour lesquels une bande passante faible rend impossible le télétravail, c’est évident. Tout comme on peut trouver plein de cas précis ou une connexion FTTH de 300 Mbps ne suffira pas.







Désolé, mais non. Vous n’avez visiblement aucune idée de la façon dont les gens télé-travaillent.



Il suffit d’avoir a faire quelques aller retour d’un travail dans la journée et ça se traduira par des temps d’attente qui seront impactant économiquement parlant.



Cela sans compter que certains employeurs peuvent demander une liaison par webcam.



Sans compter le fait que 8mb, ça signifie qu’on va encore claquer du pognon dans le cuivre (qui coute cher à entretenir) plutôt que dans la fibre.





Il faut aussi déployer des choses raisonnables, utiles à la majorité





De nombreuses zones en province sont complètement sinistrés sur le plan économique.



Internet n’est pas simplement utile, c’est indispensable.



Pas d’internet = pas d’entreprises.



Ca sera encore plus criant dans quelques années…


Le 15/12/2017 à 16h 35







Nozalys a écrit :



Encore une fois, parler de 8 Mbps en 2017 c’est bel et bien du haut débit : ça te permet d’utiliser la majorité des services web en tout confort. Tu trouveras toujours des services ou des besoins ponctuels où tu aurais besoin de +, mais c’est pas le sujet.









Sauf qu’on ne parle pas de 8Mb aujourd’hui, mais … pour demain en 2020.


Le 15/12/2017 à 16h 29







Nozalys a écrit :



Quoi ? Allô, vous vivez où les gars ? Dans le centre d’une grande ville déjà fibrée ? Vos 100 Mbps ne vous suffisent pas ou quoi ?



On parle de couverture du territoire là, donc forcément on parle des zones où il n’y a toujours rien aujourd’hui, ou pas grand chose.



8 Mbps ça suffit à tout le monde, si tous les foyers avaient ce débit ça serait déjà incroyable ! Ça permet de surfer sur 4 machines différentes et de regarder une chaîne de TV en flux HD simultanément.



Faudrait peut-être penser à tous ceux (nombreux) qui n’ont que 3 Mbps, 2 Mbps, voire 1 Mbps, voire même 512 kbps, et qui payent comme vous, entre 30 et 40 euros par mois sous prétexte que c’est de l’ADSL et que tous les FAI vendent à un tarif unique… Avec 2 Mbps et la tronche des sites d’aujourd’hui, c’est à peine suffisant pour surfer fluidement…



Pour revenir à l’article, c’est toujours pareil : “tout va changer”, mais en fait rien ne va changer. On parle de “plans”, de “prévision de déploiement”, de “stratégie” (wouah le beau moooot), on fait des jolies infographies creuses et sans intérêt, et on reporte les dates à plus tard, longtemps plus tard. Typiquement, on reporte au quinquennat suivant comme ça, hop, pas d’emmerde si on ne réalise rien. J’y crois plus à leur charabia.







C’est l’erreur de ne voir dans l’informatique qu’un simple loisir.



Aujourd’hui, il y a de plus en plus de gens qui travaillent avec l’informatique. Et quand il faut envoyer ou recevoir des fichiers, les débits ça compte.



Oui, parce qu’en province aussi il y a des gens qui aimeraient avoir du boulot…


Le 20/12/2017 à 13h 46







AlphaBeta a écrit :



Bienvenue dans le monde merveilleux des GAFA….

Amazon perd beaucoup d’argent sur les marchés hors US…. mais leur but n’est pas d’en gagner… du moins pas encore… leur but est de détruire par la force brutale et avec le soutien de la planche à billets US tous les concurrents non Américains !

10 millions c’est rien ! Il faut revoir les peines pour les aligner sur l les chiffres d’affaires de ces boites







En fait, c’est toute la stratégie des USA que certains dénoncent depuis des années.



Ils font marcher la planche à billet à donf pour acheter toute la propriété intellectuelle et acquérir les meilleurs positions de marché afin de mettre leurs entreprises en position dominante.



Après, on sait que dans un système capitaliste, les positions de marché ainsi verrouillées par des entreprises devenues si grosses qu’elles en seront totalement indéboulonnables engendreront des rentes pour des décennies, voir des siècles…



Nous sommes dans un jeu que nous ne pouvons pas gagner. La sortie de la “mondialisation” et le retour au protectionnisme est une nécessité si nous voulons donner un avenir à nos enfants.


Le 19/12/2017 à 14h 26







sncgte a écrit :



Peut être qu’ils ont une politique dur avec leur vendeurs du marketplaces, oui ok, mais au moins le consommateur que je suis, enfin le con qui paie, bah il à au moins une vraie protection, contrairement à d’autres site internet ou si tu ne reçois pas ton colis, ils te demandent de prouver que tu n’à rien reçus,

 la bonne blague, et ça fini par une procédure au tribunal de proximité pour avoir un remboursement temps bien que mal sans passer devant le juge car ils auraient au bout du compte été condamnés, mais tu est remboursé  au bout de 6 / 8mois.



la au moins c’est réactif et ils ont un vrai SAV qui ne prend pas les cons qui paient  cleints, pour des jambons.

Perso je sais que si je commande chez amazon, j’ai une vraie couverture et un SAV digne de ce nom, ailleurs bien souvent c’est comme jouer à la roulette russe, tu c’est jamais si tu vas te faire enfler ou pas.







Je commande régulièrement sur le web depuis des années et je ne me suis encore jamais fait “enfler”. La plupart des vendeurs sont plutôt sérieux dans l’ensemble, y compris en dehors des grandes plateformes.



Et en tant que client, je suis sensible aussi aux considérations sociétales d’une prestation. Par exemple, je ne vois pas la nécessité qu’un fournisseur me réponde le week-end.


Le 18/12/2017 à 16h 42

Encore un effet délétère de cette stupide mondialisation qui engendre une concentration des acteurs sans précédent et des méga compagnies aux pouvoirs toujours plus importants qui écrasent complètement le marché.



Hélas, vu la puissance des lobbys qui poussent cette utopie mondialiste, la catastrophe est inévitable.

Le 19/12/2017 à 17h 06

Peut être que certains n’en comprennent plus vraiment le sens, mais le fait d’offrir des cadeaux part d’une idée importante pour ne pas dire primordiale.



Offrir un cadeau dans les règles de l’art implique de se demander qui est la personne, ce qu’elle aime, ce qui lui ferait plaisir. En un mot, la comprendre et quelque part apprendre à respecter ses goûts, ses différences et ses envies.



Ce qui est important, c’est moins la valeur du cadeau que les conséquences positives de la démarche…



On peut accuser le système commercial d’avoir perverti le sens des fêtes à leur avantage, mais c’est bien la société toute entière qui est responsable d’avoir oublié d’enseigner le vrai sens des choses de la vie.


Le 13/12/2017 à 18h 15

Combien de temps faudra t’il pour que l’humanité réalise qu’il est vital d’interdire purement et simplement la collecte et le commerce de données personnelle.



Sanctuariser la vie personnelle est primordial, dans le cas contraire, nous irons vers des troubles sociétaux majeurs.



J’espère qu’un jour nous réaliserons qu’ils faut apprendre à dire non face à des multinationales d’envergure mondiale.