votre avatar

sr17

est avec nous depuis le 26 décembre 2005 ❤️

4322 commentaires

Le 13/08/2015 à 22h 26

De nombreux experts avaient prévenu du risque d’escalade.



L’abus d’espionnage et de surveillance aboutissant inévitablement à une surenchère dans le chiffrement fort.



Mais comme d’habitude dans le monde de l’informatique, ceux qui prennent les décisions ne sont pas ceux qui savent.


Le 11/08/2015 à 14h 42







hurd a écrit :



Le but du logiciel libre, c’est d’offrir la liberté, le logiciel libre n’a jamais signifier quelconque neutralité vis à vis de ceux qui n’ont que faire des valeurs qu’il défend.



Le logiciels libre vit depuis longtemps mal grès une relative méconnaissance du public, s’il arrive à atteindre le reste du monde tant mieux, sinon tan pis.



Personnellement je préfère convaincre quelques personnes du bien fondée du logiciel libre, plutôt qu’une entreprise x déverse du logiciel libre chez monsieur tout le monde à la façon d’android.







Ce raisonnement peut devenir dangereux pour le logiciel libre.



Les fabricants de machines évoluent vers toujours plus de fermeture.



Si le monde du logiciel libre ne passe pas à la vitesse supérieure, ils n’auront bientôt plus de machines pour faire tourner leurs logiciels.



Le 09/08/2015 à 21h 10







ludo0851 a écrit :



Je dirais “Très Cher”, sans avoir une idée précise du coup sauf que diffuser une série américaine ça coûte moins cher que des émissions maisons ou a minima “Made in France”.



Mais ce que je voulais dire - en grossissant le trait je le reconnais - c’est que pour TF1 (ou toute autre chaine), le coût de la diffusion d’une pub c’est pas grand chose, notamment par rapport aux coûts de production de programmes frais. Dans l’absolu, ça ne revient surement pas 50000€ à TF1 de diffuser 30” de pub.



Après on en revient au débat modèle de financement par la pub. Mais c’est “surprenant” que Coca, Danone et cie (i.e. : les requins industriels) acceptent encore de sur-payer une prestation de ce type. Comme quoi les chaines tiennent aussi pas mal les annonceurs par les cs en leur offrant leur plus bel espace de visibilité qu’ils paient donc à prix d’or. Et comme de l’autre coté les annonceurs font vivre les chaines….Cette interdépendance doit quand même être source de belles magouilles . (?)





EDIT @cemoileena : oui, les chaines concentrent sur les écrans pub une grande partie du financement de tous leurs frais généraux







Ce n’est effectivement pas le fait de diffuser une pub pendant 30” qui coûte vraiment de l’argent. Ce qui coûte, c’est l’émission qui est autour de la pub et qui amène x millions de téléspectateurs à regarder ladite pub. La pub finance l’émission et l’émission apporte les spectateurs pour regarder la pub.



Si les annonceurs avaient d’autre moyens plus rentable de toucher x millions de personnes, ils iraient ailleurs.



D’ailleurs, le web est clairement une source de concurrence pour les média traditionnels.


Le 08/08/2015 à 16h 29







ludo0851 a écrit :



Si tu regarde les pdf accessibles par le lien qu’a donné Seb GF, tu as les tarifs jours par jour er par écran et en en-tête du tableau il est bien écrit “En Brut - Hors taxes en Euros des spots dans les ECRANS DE TF1 (Format 30”)”



Donc oui c’est bien 43000€/30” , sur un écran de pub de 7” ca fait qd même 602000€ ; c’est bien payé pour juste mettre une bande dans un lecteur et appuyer sur le bouton play







Pas si simple…



Avez vous seulement conscience de combien ça coûte de fabriquer une heure d’émission TV ?


Le 09/08/2015 à 20h 59



Windows 10 Mobile : le Bridge pour iOS est désormais open source





Il vaudrait mieux éviter d’utiliser le terme “Open Source” qui est un terme(très) ambigu.



L’information intéressante, c’est de savoir si un logiciel est propriétaire ou libre.



Le terme Open Source ne fait pas la distinction. Open source n’est pas synonyme de logiciel libre.



En l’occurrence, la licence utilisée est bien une licence libre.



C’est quand même dommage de passer à côté d’un titre mêlant les mots Microsoft et logiciel libre.

Le 05/08/2015 à 22h 14







Konrad a écrit :



….

Un SoC qui fait tourner une VM, c’est beaucoup, beaucoup moins complexe et ça demande beaucoup moins de fonctionnalités qu’un PC, même un PC d’il y a 10 ans.







En matière d’optimisation, ça n’est vraiment pas la panacée.



Un environnement logiciel “natif” serait bien plus performant.





Les smartphones ont été conçus sur le même principe que les anciens feature phones, qui tournaient sous Symbian ou autre : c’est du matériel embarqué, et donc le hardware et l’OS sont conçus et optimisés pour aller ensemble.





C’était aussi principe des micro ordinateurs des années 70.



Le PC en tant que plateforme ouverte, standard et multi-marque a toujours été saluée comme un progrès par rapport au passé, c’est à dire à l’appareil propriétaire fermé.



Ceux qui ont vécu ce passé comprennent de quoi je parle.



Et les smartphones et tablettes, c’est juste un retour vers le passé…



Au passage, ce qu’on appelle l’“embarqué” est une notion floue . Sur le plan technique, un smartphone est bien plus proche d’un petite ordinateur portable que d’un calculateur de freinage ABS.



Le coeur d’un smartphone est bien plus proche de l’ordinateur classique que du microcontrôleur.





J’ai du mal à croire que TOUS les constructeurs se satisfont d’OS mal optimisés, alors qu’en standardisant ils y gagneraient tous (en autonomie, en performances…).





Ceux qui pensent que les smartphones sont optimisés devraient regarder ce qu’on faisait sur les ordinateurs il y a 25 ans avec seulement une poignée de mhz.



Au sujet de l’intérêt des standards, Bill Gates avait beaucoup écrit sur le sujet et expliquait bien ce que le standard PC a apporté au marché, aux entreprises et au consommateur.



Par définition, plus il y a réutilisation de travail partagé, plus on évite le travail inutile, plus le travail effectué est utile et plus les coûts baissent pour le consommateur.





Le noyau Linux supporte effectivement de plus en plus de SoC ARM (surtout depuis Linux 3.7), mais justement, on voit de grandes différence entre les deux plates-formes :





  • quand on dit que « Linux supporte x86 », ça veut dire que ça supporte aussi bien un vieux Pentium qu’un Core i7 ou un Xeon, aussi bien les CPU d’Intel que ceux d’AMD, sur tous les form factors (desktop, laptop). Linux a tout le bagage x86 nécessaire. Tu peux prendre un disque dur de laptop équipé de Core i7, et le brancher dans un PC de bureau équipé d’un AMD K-6, ça bootera et ça sera pleinement fonctionnel, quelle que soit la distribution (Fedora, Ubuntu, Arch…). La compatibilité est totale grâce au standard x86.



  • quand on dit « Linux supporte ARM », ben… C’est le bordel (Linus Torvalds l’a d’ailleurs dit : « Gaa guys, this whole ARM thing is a pain in the ass »). Il faut développer des pilotes pour arm6, arm7, arm8, Cortex,





    Personne ne contredira Linus sur le fait que le monde ARM, c’est le bordel. Mais ce n’est pas lié au CPU lui même (d’ailleurs, ce n’est pas cela qu’il voulait dire).



    Si on parle du CPU, le x86 est beaucoup moins “standard” que certains l’imaginent. Et surtout, beaucoup plus compliqué qu’on pourrait le croire.



    Il suffit de voir tous les modèles différents qu’Intel met sur le marché actuellement et sur lesquels ils font un découpage marketing sur les fonctionnalités, les instructions supportées, etc.

    Ajoute à cela les processeurs AMD et VIA….



    Ajoute à la listes tous les processeurs du passé. Avec pour certains des particularités, des bogues, des instructions spécifiques.



    Mais le pire, c’est quand on veut optimiser, c’est la ou les vrais problèmes commencent.



    Les différences entre le fonctionnement interne des différents processeurs x86 est un vrai cauchemar…



    Une optimisation qui fonctionne bien sur un processeur x86 donné peut être contre productive sur un autre.





    … C’est un peu plus compliqué que d’ajouter “ARCH=arm” à la compilation, encore une fois parce qu’il n’existe pas UN SEUL standard “arm”, mais PLUSIEURS SoC ARM conçus par différents constructeurs, embarquant différents chips audio, réseau (WiFi, téléphonie, Bluetooth…), vidéo (affichage tactile, caméra…), etc.





    C’est exactement la même chose sur PC…



    Euh… en fait, non, c’est même bien pire.



    Parce que dans le monde ARM, les quelques grands fabricants de SOC ne sont pas si nombreux. Ca ne fait pas tant de modèles différents.



    Sur le marché PC, ce sont des dizaines de milliers de modèles de PC différents qui sortent chaque année. Même l’assembleur du coin de la rue peut faire sa petite recette.



    Un modèle de PC peut embarquer des chips audio, réseau, vidéo, etc venant d’une myriade de constructeurs différents…



    La différence tient surtout dans le fait que le PC est organisé techniquement pour gérer au mieux ces différences. Ce n’est pas le cas des plateformes ARM…



    Et les fabricants de SOC ont le culte du secret. La plupart ne documentent rien….





    Quand on parle de SoC ARM il ne faut pas voir que les smartphones : certes les smartphones sont un marché important, mais les SoC ARM existent aussi dans tout un tas d’autres appareils : smartTV, voitures, bornes diverses…





    Il y a une notion qui est super importante à comprendre.



    Quel que soit la forme de la boite, quel que soit son usage, ce qu’il y a dedans à la base, c’est toujours la même chose : un ordinateur relativement classique.





    Et quand un constructeur conçoit un système Linux pour son appareil, il n’inclut pas TOUS les pilotes de tous les SoC ARM possibles, il n’inclut que ceux dont il a besoin. Il prend un noyau Linux, le débarrasse de tous les drivers dont il n’a pas besoin, afin d’avoir un noyau le plus léger et optimisé possible. Du coup si tu prenais une Flash d’un smartphone et que tu la branchais dans un autre, ça ne fonctionnerait pas (contrairement au même exemple en x86). Si tu prends une ROM Android et que tu essayes de l’installer sur un Windows Phone, ça ne fonctionnera pas. Si tu prends Raspbian (conçu pour Raspberry Pi) et que tu essayes de l’installer sur une tablette ou un smartphone, ça ne fonctionnera pas… La compatibilité n’est pas possible, à moins de modifier la ROM pour y inclure les pilotes qui vont bien. Si tu multiplies les pilotes inclus dans toutes les ROM Android (ou Windows Phone), les ROM seront plus volumineuses, le système prendra davantage de place en mémoire, et il y a fort à parier qu’il sera aussi plus lent.





    Non. Le système ne sera pas plus lent.



    Linux, c’est un système de noyau modulaire. Ne sont chargés en mémoire que les modules qui sont effectivement utilisés. Les autres restent sur le disque (ou la flash). Ils ne ralentissent donc pas le système.

    Et même avec l’ensemble de ses pilotes, Linux ne pèse pas bien lourd sur le disque.

    Windows fonctionne un peu de la même manière. Avec en plus la capacité de charger des pilotes par le web.



    Ce qui permet à windows de fonctionner sur x86, c’est le bios/uefi qui propose une interface générique qui permet au système de booter avec des pilotes génériques. Et ensuite dans un second temps de rechercher les pilotes appropriés.



    Les bios/uefi ont également des fonctions permettant de gérer l’économie d’énergie, la détection des périphériques et bien d’autres fonctions utiles.



    Sur smartphone, il n’y a pas de bios, l’OS doit être packagé d’emblée avec les bons drivers. D’un point de vue conceptuel, c’est le passé. C’est catastrophiquement mauvais.





    Mais bon, peut-être que tu as raison et qu’un jour les constructeurs se mettront d’accord autour d’un unique SoC standard…





    En fait, ce n’est pas tellement le fait qu’un Soc devrait être standard, mais qu’il dispose de mécanismes permettant aux Os de gérer les différences. Par exemple, un bios avec une interface logicielle standard, ça aide beaucoup.





    Personnellement je n’y crois pas, car même si on met de côté les guéguerres commerciales, chaque appareil a ses propres besoins spécifiques : une smartTV a besoin de connecteur IR et pas de réseau 4G ; un smartphone n’a pas besoin d’IR mais a besoin de réseau 4G, WiFi, Bluetooth ; les smartphones haut et bas de gamme n’emploient pas les mêmes SoC car ce ne sont pas les mêmes besoins (puissance et fonctionnalités VS économe en énergie et bas coûtes) ; une voiture n’a pas besoin de WiFi mais de Bluetooth, et doit communiquer avec différents composants de l’habitacle, etc. Chaque constructeur choisira donc un type de SoC ARM avec ses propres extensions (et donc ses propres drivers) de manière à optimiser l’appareil pour couvrir UN besoin, et juste celui-là. J’ai vraiment du mal à voir comment tous ces différents constructeurs pourraient s’accorder à unifier ARM en une seule plate-forme standardisée…





    Le PC dispose aussi de gammes et de nombreux modèles différents pour couvrir différents besoins et fonctionnalités.



    Techniquement, ce n’est pas le fait de connecter un circuit bluetooth à ton ordinateur qui change son architecture. Dans l’architecture d’un ordinateur, il y a la notion de coeur et la notion de périphériques. Que les périphériques soient intégrés sur la même puce ou pas, ça ne change rien.



    Avec le même coeur d’ordinateur, tu peux obtenir des appareils très différents juste en modifiant les périphériques qui sont connectés dessus. L’exemple, c’est le Raspberry Pi qui utilise un Soc destiné (a la base) aux smartphones pour en faire un ordinateur généraliste.





    Mais bon peut-être que ça va se standardiser à l’avenir, je sais bien que c’est possible techniquement, mais je ne vois pas comment, vu l’état du marché et les besoins… Comme on dit, wait & see…





    Effectivement, le problème n’est pas technique.



    Pour comprendre comment cela pourrait arriver, je pense que l’histoire du PC est riche d’enseignement.



    A l’époque, on est passé d’un marché de machine propriétaires à un marché d’ordinateurs standard.



    Comme on dit, souvent l’histoire se répète pour les mêmes raisons.


Le 04/08/2015 à 21h 07







wagaf a écrit :



L’architecture interne des puces ARM n’est plus qu’un soucis mineur depuis les derniers noyaux Linux qui peuvent s’y adapter facilement.







Tout à fait.

 

Au passage, du noyau Linux sur de l’Arm, ça fait longtemps que ça existe.



heureusement pour Android, d’ailleurs.





Le problème du support est surtout lié aux drivers graphiques, radio, camera etc etc. Ce problème est le même que sur PC et persistera même avec une standardisation des puces.





Le problème n’est en effet pas vraiment différent du PC.



Le vrai souci avec Android, c’est que les fabricants de matos on donné dans le logiciel fermé sur une base d’Os libre.



Sauf que rien que d’avoir des drivers propriétaires, c’est un problème. Et cela parce que Linux n’est pas conçu pour travailler avec ça.



Visiblement, tout est fait dans Linux pour que la base de travail soit la source et non le binaire.





Il s’agit aussi de la surcouche logicielle du constructeur/opérateur qu’il faut “rebaser” sur la dernières versions d’Android.





Ce qu’ils font de toute manière… ne fut ce que pour sortir de nouveaux modèles.



Après, rien ne les force à pondre des surcouches. La plupart des gens s’en passent très bien…


Le 04/08/2015 à 19h 30







Konrad a écrit :



Il y a les deux : il y a des différences techniques (architecture RISC vs CISC), et des différences commerciales, notamment le fait que la société ARM ne fabrique pas de CPU, mais vend des licences d’exploitation techniques. Les différents constructeurs (Samsung, etc.) sont ceux qui construisent leurs SoC ARM, spécifiques à chaque constructeur.







Non



Pour un os, que l’architecture soit RISC ou CISC ne fait aucune différence. La plupart du code étant écrit en langage évolué, c’est le compilateur qui gère l’essentiel des différences.



Si on avait affaire à de vraies différences d’architecture comme par exemple passer d’une architecture de Von Neuman à une architecture Hardvard, on pourrait parler de vraies différences. Mais entre un x86 et un ARM, absolument pas.



Une vraie distribution GNU/Linux tourne très bien sur un ARM. Et la recompilation de la majorité des logiciels est assez triviale.



Les SOC ne sont pas différents de ce qui se faisait par le passé en assemblant des composants sur une carte pour faire un ordinateur. La seule différence, c’est qu’on les assemble à la conception pour être gravés sur une même puce.





Si les smartphones n’ont pas d’équivalent du BIOS/UEFI c’est parce que ça ralentirait le boot : c’est plus efficace que la ROM à booter soit intégrée au SoC. Les équivalents du BIOS, du boot laoder, du kernel, l’init, tout cela est intégré dans la même ROM pour un accès plus rapide. Extraits des bouts pour mettre ça sur une autre puce, et tu perds en performances.





Sauf que d’un point de vue technique, c’est juste archi faux.



Je vous engage à étudier l’architecture d’un ordinateur pour comprendre comment cela fonctionne avant d’essayer de raisonner la dessus.



Enfin, concernant les Bios/UEFI, ils n’ajoutent que peu de temps au boot. D’ailleurs, le temps que met l’Os à booter n’est pas très important dans la mesure ou sur un smartphone, (sauf si la ROM est complètement boguée) on ne reboote que rarement.





Bref pas sûr que ce soit vraiment souhaitable que tout cela se standardise : j’ai vraiment l’impression qu’on y perdrait niveau perfs.





Et si c’était le contraire ?



Et si le temps perdu par les programmeurs à gérer des appareils non standard était mieux employé… à optimiser.



Dans l’industrie, les standard n’existent pas pour rien. Ils font gagner du temps, de l’optimisation et aboutissent à de meilleurs produits.



Parfois il faut se méfier des idées reçues…


Le 04/08/2015 à 17h 27







Konrad a écrit :



À mon avis ça n’arrivera pas.



Le x86 s’est harmonisé à cause du besoin d’une architecture standard et de CPU « à tout faire », que ce soit du calcul intensif, de la gestion de périphériques, etc. Sur PC le moteur a toujours été de maximiser les fonctionnalités, la consommation électrique n’étant qu’une problématique secondaire.



Au contraire les architectures ARM se veulent les plus économes possibles (normal c’est pour de l’embarqué), et pour cela elles embarquent le moins d’instructions possible. Même le FPU est optionnel. Chaque appareil ARM n’embarque donc que le strict nécessaire, uniquement les instructions dont il a besoin. Chaque constructeur décide quoi embarquer, sous quelle forme, et conçoit et optimise les pilotes nécessaires pour l’OS voulu. C’est bien là tout l’intérêt de l’embarqué : le hardware est optimisé et juste suffisant pour ce qu’il doit faire, et l’OS et les pilotes sont optimisés pour ce hardware-là et pas un autre. C’est bien pour cela que les OS ne sont pas interchangeables sur smartphones ou tablettes (ou difficilement, ou avec des pertes de perfs).



Chercher à « harmoniser » l’ARM afin de pouvoir installer n’importe quel OS ou n’importe quel pilote, ça tuerait tout l’intérêt du truc, puisque ça donnerait des appareils davantage énergivores, moins performants, avec des batteries qui dureraient moins longtemps… Évidemment que les constructeurs ne le veulent pas. Les consommateurs non plus d’ailleurs.







Je ne suis pas du tout d’accord.



Les plateformes ARM ne sont pas différentes des PC en terme de variations.



Rappelons que sur les processeurs PC, le jeu d’instruction peut aussi varier d’un modèle de processeur à l’autre, d’une gamme à l’autre, d’une génération à l’autre. Sans parler du reste du matériel. Le marché Pc, ce sont des milliers de composants différents, de matériel différents.



Quand à l’économie d’énergie, elle utilise principalement des mécanismes bien connus dont la plupart sont également utilisés sur PC. La plus grande différence étant le nombre de transistors.



La vraie différence entre les PC et smartphone, c’est que les PC intègrent des mécanismes de standardisation de l’interface logiciel/matériel. Par exemple, les bios/uefi.

C’est grâce à ces mécanismes qu’on peut arriver à booter le même Os sur des PC aussi différents qu’un Pentium de 1995 et un core i7 sorti 20 ans plus tard.



Ce n’est pas le cas des smartphones/tablettes. C’est donc une régression technique.



L’erreur, c’est de chercher des raisons techniques la ou il faut chercher des raisons commerciales.





À mon avis ça n’arrivera pas.





Si, cela va forcément arriver.



Et pour une raison simple. Avec le modèle actuel, le support à long terme des appareils coûterait trop cher aux constructeurs.



Et ce n’est qu’une question de temps avant que ce support à long terme ne soit demandé, ne fut ce que pour des raisons de sécurité des réseaux/données.


Le 05/08/2015 à 16h 45



…Comme d’habitude, certains y trouveront une interface familière, et d’autres reprochent à la suite de ne pas moderniser ses contrôles.





N’étant pas du tout convaincu par les interfaces “à rubans” de Microsoft, je ne vois pas du tout l’intérêt de les copier.



Cela étant dit, pour ceux qui sont habitués à Ms Office, cela impose un changement d’habitude.



Mais réalisons que les logiciels libres n’ont pas vocation à être des “clones” gratuits des logiciels propriétaires. Ce sont des logiciels qui doivent avoir leur identité propre.



La vraie solution, ce n’est pas de copier les logiciels propriétaires, c’est de se demander pourquoi dans les écoles, les jeunes sont formés à des logiciels qui ne sont pas libres.

Le 05/08/2015 à 16h 29

En France, tout est bon pour prélever de l’argent.



Les taxes s’accumulent depuis des décennies… avec pour résultat une économie tuée et des millions de chômeurs



Ce qui est inacceptable dans cette taxe/redevance “copie privée”, c’est que l’on taxe les outils de travail de l’ensemble des français.



Un peu comme si les cuisiniers taxaient les cahiers des écoliers sous prétexte qu’on peut y recopier des recettes de cuisine.



Notez que les outils high tech utilisés par les jeunes semblent avoir la préférence en matière de taxation.



De plus, cette redevance n’apporte aucune solution au problème du piratge. Non content de payer des sommes importantes, les français n’ont en échange aucun droit de télécharger.

Le 03/08/2015 à 16h 33

Le fait de ne plus pouvoir percevoir de payements par CB est une condamnation à mort pure et simple pour ce site.



Je trouve étonnant que la justice n’en ait pas tenu compte.



De la même manière qu’il existe un droit au compte, on devrait instaurer la possibilité de faire designer un prestataire de payement par le biais d’une procédure auprès de la banque de France.



En ce qui concerne paypal et compte tenue de leur position prédominante, ils ne devraient pas pouvoir refuser leurs prestations. Tout le moins tant que la justice n’a pas décidé explicitement du contraire.



Au lieu de passer des lois paranoïaques, nos élus devraient se pencher sur ces questions primordiales de régulation du commerce de la nouvelle économie.



Si nous laissons les prestataires de payement fixer les règles, les pays dominants nous imposeront à la fois leurs intérêts et leur vision de la morale.

Le 01/08/2015 à 14h 47

Avec toutes les lois sécuritaires qui sont passé en France, c’est seulement maintenant qu’on les autorise à répondre à des attaques ?



J’avoue que j’en tombe sur le cul.



La gestion des priorités dans ce pays, c’est vraiment n’importe quoi.




Le 30/07/2015 à 15h 45







fr0d0n a écrit :



Le problème majeur pour moi réside dans la difficulté à faire tourner mes jeux sur linux. Et j’ai pas le temps (ou pas forcément envie de le prendre, je le concède) de chercher. Et comme mon PC me sert principalement pour jouer …

 

Même si il est vrai que la dernière fois que j’ai essayé commence à remonter (en 2012 je dirais, sur ubuntu). Faudrait ptete que je retente tiens !







C’est vrai que pour les jeux, la plateforme la mieux fournie, ça reste Windows même si du côté de Linux l’offre s’étoffe de jour en jour.



Pour ma part, mon PC me sers principalement à travailler. Et Linux est la plateforme parfaite pour cela.



Mais il n’est pas scabreux d’avoir un dual boot pour bénéficier du meilleur des deux mondes.


Le 30/07/2015 à 15h 20







astrotouf a écrit :



Windows 7 est ma dernière version de Windows chez moi. J’ai décidé de vendre mon PC pour passer à MacOS (D’ailleurs je vends mon PC ICIsi ça vous branche <img data-src=" />)

 

 Pour le bureau, on reste sous Windows 7 pour le moment. Je pense que le passage à WIN 10 se fera lorsque le support de win 7 sera terminé (On est encore sous ie9 au bureau donc vraiment à la traîne…))







Sérieux, tu vends ça pour un mac ?



A mon avis, tu va être bien déçu…


Le 30/07/2015 à 15h 08

Quand je vois la prise de tête avec les histoires de licence et d’activation pour la mise à jour vers Windows 10, je ne peux que me féliciter d’être passé à GNU/Linux depuis longtemps.



Avec les logiciels libre, on découvre un monde de simplicité. Pas besoin de clé, pas besoin d’activation. Pas de prise de tête avec les licences. Pas besoin de téléphoner pour quémander la réactivation d’un produit (qu’on a pourtant payé) en cas de changement de matos…



Comme on dit, il y a mieux que les logiciels propriétaires… mais c’est moins cher.

Le 28/07/2015 à 20h 08







Mithrill a écrit :



Ce cas de figure est inquiétant, ça risque de jeter le trouble cette faille… bon bah les FAI n’ont pas qu’à imposer une mise à jour forcée redémarrant chaque tél Android… si c’est possible ? Coup dur pour cet OS.







Vu la quantité énormes de modèles de téléphone différents, je doute que cela soit humainement possible.



Un coup dur pour Android ? Sans l’ombre d’un doute.



Le problème, c’est qu’il était totalement prévisible.



Trop de matériel différent. Mais surtout, du matériel beaucoup trop fermé pour être pris en charge d’une manière centralisée comme sur une distribution Linux pour PC.



Tout cela a abouti à une fragmentation ingérable.



Ce modèle n’est pas viable.


Le 28/07/2015 à 17h 39

Depuis plusieurs années je m’inquiète de cette bombe à retardement que constituent la pléthore d’appareils qui ne sont plus maintenus par leurs fabricants.



Tout appareil qui connecté sur l’internet et qui n’est plus mis à jour est un danger potentiel pour ses utilisateurs et pour le réseau tout entier.



C’est un problème évident de sécurité à l’échelle mondiale, ce qui implique que des mesures devraient être prises.



Ceux qui savent qu’un smartphone est (techniquement parlant) un ordinateur se demanderont pourquoi n’importe quel PC peut recevoir de nouveaux Os pendant des années… et pas les smartphones.



La première évidence qui saute aux yeux, c’est l’absence de couche bios/uefi standard qui permettrait de booter et d’installer un Os de façon standardisé. Cette absence constitue de manière évidente une régression majeure.



La seconde, c’est le support dans le temps très limité des composants par certains fabricants.



Ces problèmes doivent faire l’objet d’une régulation dans l’intérêt de tous.



Tout appareil grand public non muni d’un bios standardisé et de mécanismes permettant de changer d’Os doit être interdit à la vente.



Tout fabricant de composant doit être astreint à un suivi de compatibilité des drivers pendant au moins 10 ans.

Le 27/07/2015 à 15h 59







Lyzz a écrit :



Quand c’est du droit d’auteur pour une “blague” ça réagit au quart de tour, par contre pour le harcèlement et les discours haineux on peut toujours attendre. <img data-src=" />







Ce n’est pas tellement étonnant dans un monde ou les intérêts financiers sont devenus mieux protégés que les droits de l’homme….


Le 26/07/2015 à 14h 28







philanthropos a écrit :





Je t’invite à te renseigner sur le cout de lancement d’un Satellite de Télécom’ ainsi que le cout de raccordement d’un client à plusieurs km de son NRA …

C’est pas pour rien qu’ils sont laissés en plan en attente de la couverture FO/VDSL/Sat totale d’ici 2022.









Le fait d’avoir des millions de familles et des centaines de milliers d’entreprises non raccordées au web, ça aura des conséquences financières majeures sur notre économie.



Il ne faut pas compter uniquement ce que l’internet nous coûte, mais également ce qu’il nous rapporte dans le cadre de la compétition économique mondiale.





La question n’est pas là, je reformule plus amplement alors.



Je suis dans un village clairement paumé dans la Marne et j’ai du VDSL 2. J’ai plutôt de la chance à mon niveau d’ailleurs. Et ayant été technicien d’appel Orange (pour les professionnels, je précise d’entrée) je sais aussi Ô combien certaines personnes peuvent avoir des lignes ultra pourrie <img data-src=" />



Cependant, à un moment il faut prendre son mal en patience et comprendre que vu la configuration du territoire on ne peut pas raccorder chaque péquin dans son habitation paumée à une ligne qui lui offre un débit minimum (par minimum j’entends du 1Mbits de nos jours).



Après c’est au choix des Communes & Conseils Généraux d’axer le développement de la FO et/ou du VDSL/ADSL sur certaines zones ou pas. Et tu comprendra aisément qu’il est nettement plus intéressant sur le long terme de dépenser de l’argent pour fibrer des villes/communes et/ou déployer un peu de VDSL là où c’est possible plutôt que de rénover des lignes de 6 km en pleine cambrousse.



Alors évidement c’est plutôt con pour celui qui est, justement, en pleine cambrousse et qui n’arrive même pas à attraper une synchronisation sur du 56k, mais … c’est ainsi. Même si les moyens étaient là il serait impossible d’offrir un débit correct à tout le monde en peu de temps.



Il reste 7 ans avant d’arriver à la fin du plan THD pour tous. Et ces 7 années de déploiement de FO/VDSL/autres suffiront, je pense, à respecter le-dit plan.





L’ennui, c’est que du temps, il n’y en a pas. Tout retard est lourd de conséquences économiques et sociales.



Les jeunes qui n’auront pas eu internet dans leur adolescence seront des générations sacrifiées.



Les régions qui n’ont pas une bonne couverture internet vont prendre un retard économique majeur.



Et je te rejoint sur le fait que cela n’a pas de sens mettre de l’argent dans de vieilles lignes cuivre et des technologies obsolètes. Dans quelques années, le débit comptera, la fibre doit donc être privilégiée.


Le 25/07/2015 à 18h 24







philanthropos a écrit :



Ce n’est pas le rôle intrinsèque de NordNet que de proposer des offres dédiées à ce genre d’usages, surtout vu le ping/débit offert par le Sat’. Si le type a son DVD/BR GTA V, tant mieux pour lui ; mais dans le cas contraire il attendra le temps qu’il faudra et/ou bousillera son fair-use.



S’il veut pouvoir DL à tors et à travers, la FO/VDSL2 sont là pour ça. Et s’il n’est pas éligibilité soit il déménage soit il attends, c’est aussi simple que ça. Y’a aucun débat.







Non, c’est juste qu’ils gueulent parce qu’ils n’ont pas un débit digne d’une FO, et qu’ils se rendent pas compte que ce n’est pas tout à fait le même prix pour fibrer la maison de Gérard paumée au fin fond de l’Ardèche dans un ville de 500 âmes que l’immeuble classique en plein centre de Paris.







Si tous les provinciaux déménagent dans les villes pour avoir internet, ne penses tu pas que ça posera quelques soucis ?



Le 25/07/2015 à 12h 40







Drepanocytose a écrit :



Il y a encore beaucoup de monde, notamment…. partout dans le monde en fait, qui n’ont pas accès à l’eau potable, à la liberté et à une nourriture décente.

Ca c’est une vraie honte en 2015.



C’est dommage en 2015, oui ; mais une honte, il faut arrêter un peu…..









Internet, ça n’est pas juste un loisir.



Pour ceux qui ne l’ont pas, leurs gosses ont toutes les chances de devenir les exclus de demain.



Au passage, le fait de traiter les problèmes d’inégalité en France est important quand bien même il y a des gens qui ont des problèmes pire dans le monde.


Le 24/07/2015 à 15h 32

Si la France n’y prends pas garde, les difficultés d’accès à internet vont créer une énorme fracture numérique entre les villes et la campagne.



Et cela se traduira par un gouffre dans les chances de réussite.


Le 25/07/2015 à 15h 42







mirandir a écrit :



Tu décris la grande partie de la population là, pas seulement les politiques.







C’est malheureusement vrai.



Un des problème de la France, c’est que la majeure partie des électeurs sont des vieux.



Le 25/07/2015 à 12h 28







Chre a écrit :



J’en suis malade : flicage généralisé de la population, dans l’indifférence générale et l’approbation du CC. Tout est dit.

 

 En tout cas, un très, très grand merci à NxI en général et Marc Rees en particulier pour le travail de suivi, investigation, analyse. Next Inpact est l’un des rares médias à avoir suivi ce dossier de bout en bout, avec des analyses précises et percutantes.

 



Et maintenant, résistance ! (Ceci dit, je n’ai pas attendu le vote officiel de la loi renseignement pour préserver mon intimité numérique).







Je crois aussi que l’indifférence de la population tient beaucoup à leur ignorance.



Une armée de noobs qui utilisent l’informatique sans rien y comprendre, ça ne pouvait rien donner de bon.



Ne parlons même pas des politiques qui sont pour la plupart (trop) agés et ont une attitude complètement réactionnaire vis à vis des nouvelles technologies (Fliquez moi ces trucs de djeun’z qui respectent rien…) en plus de ne rien y comprendre.



Le 24/07/2015 à 19h 55







-DTL- a écrit :



La Stasi pratiquait la torture… je pense qu’avant d’en arriver là il y a de la marge.







Justement, le problème c’est bien de voir cette marge se réduire.



Loi après loi, on voit le mouvement à long terme se dessiner.



Même si le mouvement est lent, il n’en est pas moins inexorable.


Le 24/07/2015 à 18h 42







-DTL- a écrit :



Un fichage de l’intégralité des individus passant sur le territoire français digne de la Stasi mais de manière plus discrète et moins violente car mme michu sans s’en rendre compte donnera elle même les informations sur internet.







Moins violente aujourd’hui. Mais qu’en sera t’il demain ?



Les livres d’histoire nous enseignent qu’a partir du moment ou il y a rupture d’équilibre des pouvoirs entre le peuple et la classe dominante, les abus seront inéluctables.



Tout ces systèmes de fichage et de surveillance vont inéluctablement amoindrir le pouvoir du peuple.


Le 24/07/2015 à 15h 15







HarmattanBlow a écrit :



a) Ce n’est pas une question de personnes : les français s’en branlent, il n’y a qu’à voir la totale absence de mobilisation dans l’opinion, voire le soutien franc à la surveillance de masse parce que le terrorisme leur fout la trouille à ces cons.



b) Ce n’est pas la France, c’est tout l’occident. Et le reste est encore pire.



c) J’en ai plein le cul des gens qui viennent nous servir “pays de merde”, voire “F. rance” comme dans un récent message. Cette francophobie ambiante est pathétique. Arrêtez-vous de vous cracher vous-mêmes à la gueule en permanence, les anglais et les allemands le font déjà suffisamment pour vous et ce n’est pas comme si le reste du monde était plus enviable que la France, loin s’en faut.







Tu as raison de dire que le problème, ce sont tout ces gens qui ont peur.



Le vrai problème, c’est qu’ils n’ont pas peur des vrais dangers.



Quelques terroristes isolés suffisent à leur donner une peur bleue.



Mais une dictature avec surveillance technologique, ça ne leur fait pas du tout peur.



Il serait urgent de leur faire étudier l’histoire de l’Allemagne de l’est. Et de leur faire comprendre que la technologie décuple la menace.



Ce que la stasi d’allemagne de l’est aurait rêvé de faire, c’est à dire de pouvoir surveiller le moindre fait et geste de n’importe quel citoyen, nous pourrons le faire grâce à la technologie.



L’évolution législative montre que nous y allons tout droit…



Si les citoyens n’ont pas peur de ça, c’est qu’ils n’ont pas la moindre intelligence.



Enfin, personnellement je suis particulièrement déçu de la France. Et cela parce que nous ne sommes pas n’importe quel pays. La France est un symbole du point de vue des libertés. Nous venons de détruire cela…


Le 23/07/2015 à 21h 46







SebGF a écrit :



Sur ma propre expérience, je dirais qu’elles ont un bon rapport durée de vie/prix.

Après c’est comme toujours, le risque de tomber sur un produit de mauvaise qualité… Comme ce qui semble t’être arrivé.



Par contre oui, elles sont super polluantes (et il faut faire très attention à la casse car bourré de saloperies), c’est le même problème que les voitures électriques ou hybrides. A l’utilisation ça tue moins de bébés phoques ou d’ours polaires, mais à la fabrication et au recyclage, c’est un carnage à cause des batteries notamment (minage dans différents coins du globe, acheminement des composants…).



Mais comme c’est moins visible, on s’en fout, et on fait comme d’hab : déportons le problème ailleurs là où ça ne nous gêne pas <img data-src=" />







Ca dépends de ce qu’on considère être une durée acceptable.



Parce qu’il ne faut pas oublier qu’un tube fluo classique dure au moins 10 ans sans aucun problème.



Et il n’est pas plus cher qu’une lampe fluocompact.



Sinon, je dirais que pour l’instant, je suis plutôt content de mes ampoules led.



Le 23/07/2015 à 21h 28







achernar a écrit :



Ce qui est “drôle”, c’est qu’au vu du rendement et si il y avait un bon recyclage derrière, il est écologiquement meilleur d’avoir un frigo moderne et le changer tous les 5 ans que de garder un vieux frigo des années 80 …







Au moins, dans les années 80, les circuits n’étaient pas remplis avec du gaz inflammable.



A ta place, pour un frigo moderne, j’éviterais vraiment les produits douteux.



Le 23/07/2015 à 15h 43







R404a a écrit :



J’ai peut être zappé, mais, c’est rétro machin truc (trouve pu le mot :s) parsque mes 2 tv lcd vont bientôt arriver à la date fatidique (si ça fait comme ma précédente tv à tube, qui avait laché au bout de 3 ans (un condo mort, 1.50€ de pièce, 100€ de MO, ça a tenue 1 an et re hs, et la déchèterie direct), et comme je suis mazo j’ai repris la même marque :s

 

autre produit qui lui à une durée de vie ultra limitée , les ampoules, ça va marcher aussi (surtout depuis les ampoules basses conso qui coute la peau de miches en plus).

 

 Et comment prouver qu’on a bien à faire à de l’obsolescence programmée (pour tout produit), faut faire venir un expert et porter plainte…?







Le mieux, c’est de contacter une association de consommateurs pour éviter de commettre des erreurs.



A propos des ampoules “basse conso”, je conseillerais de les remplacer par :



* De véritables tubes néon avec un bon balast électronique.



* Des ampoules led de qualité (certaines s’avèrent très fiable).



Concernant les ampoules led, je vous recommande d’utiliser des luminaires avec une bonne ventilation au niveau du culot. C’est particulièrement vrai avec les fortes puissance.


Le 23/07/2015 à 15h 20







brice.wernet a écrit :



1- tu n’a pas de bol et tu as eu le mauvais numéro

2- l’obsolescence programmée, c’est seulement si tu peux prouver que la panne est voulue/calculée/déclenchée par le fabricant ET qu’il n’y a pas de réparation possible.



Ce délit va être très difficile voire impossible à démontrer.







Après, ça dépends aussi comment les juges interpréteront le texte.



Par exemple, devant un cas de lave linge dont les roulements cèdent en seulement 2 ans et dont la cuve est scellée(ce qui le rends économiquement irréparable), les juges pourraient estimer que le faisceau d’indice est suffisant pour conclure à l’obsolescence programmée.



Ce texte sera certainement difficile à exploiter, mais il va commencer à créer un début d’insécurité juridique pour les fabricants.


Le 22/07/2015 à 22h 27







Se7en474 a écrit :



Pour les ampoules on fait comment ?

 Plus d’obsolescence programmée -&gt; ampoule qui dure des dizaines d’années -&gt; faillite des fabricants d’ampoule -&gt; plus de lumière <img data-src=" />







C’est simple, quand la saturation du marché est atteinte, l’entreprise réduit sa voilure.



Elle peut également investir une partie de ses profits dans l’innovation ou dans d’autres secteurs.


Le 22/07/2015 à 19h 54







Patch a écrit :



Je ne connaissais pas ce pb sur les Taudi, mais ca ne m’étonne absolument pas… :/



Clio 3 de 2006 ici. Ancienne voiture d’auto-école (qui a du coup pris cher pendant 1 an et 50k km). 200k km aujourd’hui. Zéro panne.

Idem avec la Megane 3 (250k km quand il l’a revendue, il a même eu un CT parfaitement vierge) et la Grand Modus (170k km quand elle a été brûlée) d’un pote.

Tous les constructeurs ne font pas aussi bien… <img data-src=" />







La fiabilité concernant les voitures, j’aurais tendance à dire qu’il ne faut pas du tout raisonner par marque, mais vraiment au cas par cas, c’est à dire sur un modèle précis avec une motorisation donnée.



Quand aux “réputations” des constructeurs, qu’elles soient bonne ou mauvaise, il y a parfois un fond de vérité à la base, mais cela peut très bien refléter une situation passée qui n’est plus forcément d’actualité.



Par contre, je trouve que les Français ont tendance à surestimer les voitures allemandes et à passer à côté des belles réussites de notre industrie.



Le 22/07/2015 à 16h 21







ginuis a écrit :



Sauf que le modèle économique de ces vendeurs là fonctionnent ainsi plus le client paye sur le long terme plus l’entreprise est capable de faire du prévisionnel juste et de se rassurer sur son avenir. En faite la technologie marketing et prévisionniste poussent de plus en plus sur des facteurs de risques extrêmement faible. En effet tlm chosira la stratégie qui garantit le succès.







On ne saurait reprocher aux entreprises de faire ce qui est le mieux pour leurs performances économiques.



Le problème viens des politiques qui ne font pas leur travail de régulation dans les domaines technologiques.



La régulation a pour but de faire en sorte que l’intérêt des entreprises aille dans le sens du progrès humain et de l’intérêt de l’homme.





En reprenant ton point de vue il serait louable que de récompenser ou limiter la taxations des produits qui sont développés pour limités la consommation. Un ensemble de règle qui prouve que le produit rentre dans ce genre de rente.



Je suis certains que ça peut fonctionner.





C’est effectivement une idée intéressante.


Le 22/07/2015 à 15h 52







ginuis a écrit :



Oui je suis bien d’accord sur le point de la minorité dans le cas ou c’est payé cash et c’est bien pour cela que la plupart de ceux qui n’ont pas les moyens procèdent avec l’option d’achat ou les abonnements téléphoniques renouvelé pour obtenir l’objet convoité. La note est du coup moins salé et après on arrive à être endetté parce qu’on a 50 factures / mois à 20 euros.







Logiquement, il faudrait interdire les forfaits qui incluent un téléphone dont le prix est noyé dans l’abonnement.



On se plaint que le pays est endetté et que notre balance commerciale se porte mal.



Mais on ne fait strictement rien pour réduire la surconsommation artificielle d’objets importés.



D’un point de vue gestion du pays, on peut mieux faire…


Le 22/07/2015 à 15h 35







ginuis a écrit :



Bah de toute façon ces histoires d’obsolescence. Les industriels qui veulent capter le marcher du durable on cas sortir des produits durable plus chère et garantit 10 ans. Si ce marché existe…



Et je pense qu’ajourd’hui il est mort pour certains objets.



Qui veut un iphone qui dure 10 ans ? même s’il fonctionne comme au premier jour ? Quid de l’évolution des outils et technologies autour (3G-4G-5G). Le client lambda craquera avant que l’objet soit osbolete car il sait qu’il peut avoir mieux (marketing oblige…)



Par ailleurs pour une machine à laver, un frigo. C’est effectivement un point qui mérite d’être soulevé.







Ceux qui veulent toujours la dernière techno, c’est une minorité d’urbains qui gagnent bien leur vie.



La plupart des gens se contentent très bien de moins.



Un téléphone d’excellente qualité fonctionne encore très bien malgré ses 10 ans d’age. Et la 2G est encore bien couverte…



Que les gens décident de changer à un moment parce que la technologie évolue, c’est naturel.



Mais ce qu’il faut éviter, c’est que les constructeurs n’accentuent ce phénomène par d’autres moyens que de la véritable innovation.


Le 22/07/2015 à 15h 14







Kujathemas a écrit :



Comme vous dites, avant qu’on puisse prouver que c’est de l’obsolescence programmée… On va avoir le droit à la réplique toute faite “mais c’est vous l’utilisateur qui l’avez maltraité !”. Pis même si ça passe, vu les lobbys, jamais ils se feront condamnés.







Oui, ils trouveront toujours un prétexte pour semer le doute. Au pire, l’erreur de conception d’un ingénieur ou la réduction des coûts de production.







Arcy a écrit :



Bien cool le délit d’obsolescence programmée mais pour lancer ça, il faut se baser sur quoi ?

Les statistiques ? Une fouille judiciaire de l’usine situé on ne sait où ?









En tout cas hors d’atteinte de la justice française.


Le 22/07/2015 à 14h 33







jimmy_36 a écrit :



Vu le nombre de truc indémontable : cf l’iphone pour remplacer la batterie, il va y avoir du boulot.







Les Français achèteraient d’autres produits.


Le 22/07/2015 à 14h 25







devyg a écrit :



De toute façon, ça se terminerait comment ensuite pour du matériel : une class action avec des mois de procédures pour prouver que c’est volontaire et pas un “défaut” de conception <img data-src=" />

Est-ce que les OS sont compris dans cette loi ? Ça veut dire qu’ils pourraient être obligés de prouver leurs efforts d’optimisation ? Dans le monde réel, quelle blague.







Le problème de cette loi sur l’obsolescence programmée, c’est que cela suppose de prouver une intention.



En pratique, c’est impossible.



Si on veut réellement lutter contre l’obsolescence programmée, on doit lutter contre les éléments qui la concrétisent.



Par exemple, interdire les appareils difficiles à démonter, les visses anti démontage. Imposer la fourniture de pièces détachées à tarif encadré pendant une durée imposée.

Imposer la fourniture de documentation de réparation.

Enfin, imposer aux appareils munis d’un processeur (smartphone, tablette, etc..) un bootloader ouvert permetant d’installer un Os libre. Dans le cas contraire, imposer 10 ans de mises à jour de l’Os fourni sur la machine.


Le 22/07/2015 à 16h 36







a.nonymous a écrit :



Je vis dans une commune de la banlieue parisienne  de 52 000 habitants où une association de quartier à lancer il y a quelques années un forum citoyen qui est fréquenté par environ 400 personnes, essentiellement des personnes engagées au niveau politique et associatif….

 

Pour la majorité municipale en place, ce forum à tous les vices et officiellement elle n’en suit pas les discussions…

 

Cependant, force est de constaté que tous les désordres évoqués sur ce forum sont soit solutionnés assez rapidement soit évoqués pour être justifiés en langage politicien dans le bulletin municipal officiel…

 

Je suis donc personnellement convaincu que les élus manquent souvent de “remontées terrains” car les employés territoriaux font filtres  pour ne pas mettre en avant leurs faiblesses..



 Dès lors, une application de signalement de ce type ne me parait pas dénouée d’utilité…







Certes, cela peut s’avérer utile.



Mais vu la pente dangereuse qu’est en train de prendre notre pays en matière de libertés, je prends le parie qu’avec le temps, ça deviendra subrepticement des outils de délation et de surveillance.


Le 22/07/2015 à 14h 16

J’avais prédit qu’Hadopi aboutirait à une perte commerciale importante pour notre pays.



J’en ai la confirmation.



Après avoir discuté avec des responsables d’un hébergement touristique, j’ai pu avoir confirmation de ce que je redoutait : notre merveilleux système complique singulièrement l’établissement de Hotspot Wifi dans les hotels, campings et restaurants.



Au lieu d’ouvrir simplement sa box, il faut passer par des solutions spécialisées qui sont couteuses et bridées.



D’après eux, l’absence de couverture internet de qualité ferait fuir les touristes.



Tout cela pour protéger des grandes multinationales du contenu qui sont essentiellement américaines…






Le 21/07/2015 à 19h 58







Polux008 a écrit :



Encore un moyen à la con pour pomper du pognon.

Je ne comprend pas trop leur truc, ils voudraient taxer le fait qu’une personne puisse utiliser une imprimante 3D pour reproduire un objet en 3D (une figurine par exemple) et l’imprimer en 3D par la suite ? Ils sont sérieux ?

 Les différentes étape pour arriver à une reproduction correcte de l’original serait tellement long que je ne suis pas sur que ce soit vraiment la motivation d’achat d’une imprimante 3D (surtout vu le prix pour une machine correcte).

 Perso j’ai une Ultimaker 2 qui me sert à faire des prototypes, créer des objets et réparer des objets dans la maison, et à la vu des différents forums que je consulte c’est dans cette optique que tout les gens achètent une imprimante 3D.

 Peut être que dans quelques années il sera possible d’avoir une machine qui scan et qui imprime en couleur avec une précision telle qu’on aura effectivement des répliques identique d’objets, mais actuellement ce n’est pas le cas.







Tout à fait.



Il est ridicule de vouloir taxer les imprimantes 3D pour une soit disant capacité de reproduction qu’elles n’ont absolument pas.



D’abord, réalisons qu’elles n’ont pas de scanner 3D. Et ensuite, il faudrait un travail très important pour rendre un scan 3D imprimable (il y a de nombreuses contraintes…).



Tout cela est ridicule.



Le 21/07/2015 à 18h 33







jethro a écrit :



C’est vraiment mon sentiment

Basé sur mon expérience et celle de mon beauf.

 

J’ai utilisé une imprimante 3D quelques temps,  plus exactement celle de mon beauf.



Passé l’engouement du début, on fini par tourner en rond

OK on peut imprimer une pièce cassée après avoir passé des heures pour la modéliser.

OK on peut imprimer des minions ou des figurines SW en monochrome pour les gamins…



Même mon beauf, Geek 3eme Dan, l’a rangée sur l’étagère de la cave.

 

Je ne dis pas que cela n’as pas d’usage pour le grand public.

Je dis simplement que cela restera un marché de niche et volatile.







Pour comprendre le véritable intérêt de l’imprimante 3D, il faut apprendre à créer.



Et surtout, bien apprendre à maîtriser les logiciels de CAO.



Après, on se demande vraiment comment on a pu vivre sans une imprimante 3D.



Mais il est normal que ce ne soit pas une démarche évidente vu que les esprits créatifs sont endormis par des années de consommation.


Le 20/07/2015 à 21h 14







Jarodd a écrit :



Le ministère de la Taxe et des Ayants droits <img data-src=" />







Au passage, c’est amusant de voir un gouvernement socialiste défendre à ce point les capitalistes.


Le 20/07/2015 à 18h 58







Patch a écrit :



Pas de riches mais de gens qui avaient pas mal de sous. 23k francs un Mac, 10k l’Atari 520ST en 1985 (qui était le micro le moins cher ou presque), ce n’étaient pas un ouvrier qui pouvait se payer ca…







Non.



Il y avait bien moins cher.



Du 8 bits chez commodore ou atari aux alentours de 1500 fr.



Et même à moins de 500 balles pour un ZX81.



A cette époque, beaucoup de gens en avaient. Et pas que des gens fortunés…



Quand à l’Atari ST à 10000 frs aux alentours de 85, c’était le prix d’introduction de la nouvelle gamme 1632 bits. Le prix à rapidement dégringolé…


Le 20/07/2015 à 14h 54

Il parait évident que l’état défend l’ancienne économie contre la nouvelle.



Taxer les nouveaux moyens de production de manière à les handicaper et ainsi retarder leur émergence.



Les conséquences sur l’innovation et l’avenir du pays seront malheureusement funestes.



Car les imprimantes 3D et l’automatisation de la production sont les seuls moyen de relocaliser la production de biens en France.



Enfin, ceux qui demandent des protections contre la copie sont ceux qui n’innovent pas.



Les industries modernes qui créent de l’innovation permanente se moquent des copieurs. Ils ont toujours un temps d’avance, une innovation d’avance. Et c’est ainsi qu’ils gardent leur leadership.


Le 21/07/2015 à 17h 46







js2082 a écrit :





 Comparaison bagnolesque: c’est comme si ta voiture tombait en panne en raison d’une tache sur le siège du conducteur. Le genre de truc qui n’a aucun lien, aucun rapport….







Au passage, il est courant qu’une voiture parte à la casse à cause de la défaillance d’une pièce minuscule à 50 centimes.



Un défaut dans le métal d’un maillon d’une chaîne de distribution, dans la capsule thermique d’un calorstat, voir une simple goutte d’eau dans la pompe à injection…. c’est suffisant pour causer pour des milliers d’euros de réparation.


Le 21/07/2015 à 17h 32







raphke a écrit :



Décidément c’est de plus en plus “chouette” le monde des pc, smartphones, tablettes, …

 

 En exagérant à peine c’est le tonneau des Danaïdes ! “pas un jour” sans des problèmes pour Flash, pour (open)ssl, windows, un navigateur quelconque, mots de passe/données personnelles/… volées, … :/







Ce qu’on a oublié de vous enseigner à l’école, c’est que c’est tout à fait normal.



C’est un problème qui découle de la complexité…



Pas un Os, pas un logiciel ne peut prétendre y échapper.



Ce qui est important ? C’est surtout que les failles soient comblées rapidement.



Le 20/07/2015 à 16h 17







philanthropos a écrit :



Aucun rapport, merci <img data-src=" />



Je ne contredit pas l’intérêt du libre, bien au contraire j’en suis un défenseur (qu’il soit gratuit ou non, les gens ont le droit de bouffer). On parlait spécifiquement d’exemples de marchés de niche ultra-spécialisés où avoir un OS que des Ingénieurs peuvent modifier est capital.







Justement, l’intérêt de pouvoir modifier les logiciels n’est pas limité a des secteurs de niche.



Le web a permis l’émergence d’une nouvelle logique collaborative ou tous les utilisateurs qui ont l’envie et les compétences contribuent à améliorer les logiciels qu’ils utilisent.



Et du coup, même ceux qui n’ont pas de compétences en programmation en profitent.



La logique propriétaire ne permet pas cela.





Cependant, quand tu me parles de système d’activation, c’est un peu hors sujet. Microsoft étant une entreprise qui vend des logiciels, un système d’activation est logique ^^ enfin c’est le cas de tous les logiciels payants de toute manière.





Je ne suis pas sûr que cela soit vraiment si logique.



D’abord, ça n’a pas toujours existé. C’est une tendance plutôt récente dans l’histoire du logiciel.



Ensuite, ceux qui sont emmerdés, c’est justement… ceux qui payent.



Ceux qui ne payent pas, soit parce qu’ils installent Linux, soit parce qu’ils ont utilisent des “cracks” n’ont pas ces soucis.



Donc je ne trouve pas cela logique.





Et, à ma connaissance, les soucis d’activation de Windows ne sont pas spécialement légion, sauf en cas de changement trop important de matériel, mais même dans ce cas des procédures simples et efficaces sont mise en place pour rapidement régler le soucis (activation tel grilled by Niktareum).





Justement, quand on multiplie le temps passé par tous les logiciels d’une config, ça prends un temps considérable.



Et surtout, c’est le jour ou un élément matériel vous lâche dans l’urgence qu’on comprend bien l’ineptie de ces systèmes.



Avec Linux, on prends juste le disque dur, on le met dans une autre machine et ça repart….





Et on a vu Microsoft faire de bon choix ces dernière années, gageons qu’ils évoluerons dans le bon sens, enfin j’espère.





Microsoft évolue effectivement dans le bon sens même s’il est évident que la route est encore longue.



Cela dit, il est évident qu’une entreprise de cette taille ne peut pas changer de business model d’un coup.



Mais le nouveau PDG semble être un homme intelligent.





Sinon vis-à-vis des parts de marchés, nous rebalancer systématiquement le sujet Internet Explorer <img data-src=" /> …

C’est pas tout à fait la même chose qu’un OS complet AMHA. Advienne que pourra pour les platerformes Linux sur le grand public et la majorité des parcs pro’, mais comme l’a bien précisé malgré lui l’autre commentaire, ça va faire plusieurs décennies que Linux est là et il reste cantonné à des marchés très spécialisé (matériel embarqué, serveur, etc.).

Et le monopole de Microsoft n’est surement pas la seule raison à ça ;)





Alors, si on veut parler d’Os, on peut évoquer la chute de Windows Mobile.



Dire que Linux existe depuis 30 ans, c’est oublier qu’un embryon de noyau ne fait pas un Os.



Et surtout, c’est oublier aussi qu’un Os n’est rien sans écosystème.



Une distribution Linux moderne, ce n’est pas seulement un noyau. C’est un système complet et des dizaines de milliers de logiciels libres de bonne qualité.



Il est logique que tout cela ait demandé beaucoup temps pour parvenir à maturité…





Pour terminer on va pas se lancer dans un débat pour/contre entre Windows & Linux, y’a beaucoup à dire et c’est clairement trop sujet à troll sur ce genre de forums <img data-src=" />





Et c’est triste pour ceux qui perdent leur temps à ça.



Parce qu’Il y a tellement de choses intéressantes à dire.