votre avatar

sr17

est avec nous depuis le 26 décembre 2005 ❤️

4322 commentaires

Le 23/01/2016 à 23h 31







DEATH a écrit :



Le vinyle.



Comme ça certains comprendrons peut être enfin que le vinyle a peut être un meilleurs son, pour certains, à l’oreille (et surtout psychologiquement…), mais niveau fidélité, techniquement, réellement, en dehors de toute autre considération (notamment nostalgique…) c’est zéro pointé, pire qu’un MP3.







Oui, le vinyle était techniquement très mauvais. D’autant plus qu’un disque vinyle se dégrade très rapidement…



Mais au fond, le problème est sans doute comparable au jeu vidéo ou le photoréalisme devient une fin en soi, les éditeurs oubliant juste au passage de faire des bons jeux.



Le problème du CD, c’est les ingénieurs qui ont fait un peu n’importe quoi avec le sampling, se reposant sur le réalisme en oubliant de travailler pour faire quelque chose qui ait de la personnalité.



A se demander aussi si certaines formes de musiques ne passeraient pas mieux à l’oreille quand le son est légèrement dégradé. Un son hyper précis, c’est un peu comme la télévision HD qui fait maintenant apparaître le moindre grain de peau des acteurs…



Ca me rappelle un peu aussi toute la première période de la musique samplée qui n’avait ni le charme des instruments classique, ni la personnalité des vrais instruments électroniques.


Le 23/01/2016 à 22h 36







lionnel a écrit :



Connaissant assez bien l’électronique de la SL1200, je pense qu’il y a des 2: un peu de soucis d’approvisionnement et beaucoup de manque de rentabilité



Ce qui posait problème, c’était les circuits intégrés spéciaux utilisés pour le contrôle du moteur, qui sont restés les mêmes depuis 72. La non-compatibilité ROHS a du peser lourd dans la balance

Remplacer ces CI nécessite de revoir complément le schéma électronique, ce qui n’était sûrement pas rentable au début des années 2000, lorsque tout les DJ sont passés au CD et que nombre de labels ont cessé de sortir des vinyles





Maintenant qu le vinyle revient à la mode (que ce soit en écoute hifi ou en mix via un soft type serato DJ), il est envisageable de ressortir un nouveau modèle, qui n’utilisera pas le même design mécanique ou électronique







Construire un asservissement moteur précis n’est pas un problème très complexe avec la puissance des microcontrôleurs actuels, mais effectivement, ça demande une nouvelle conception, donc de réinvestir, ce qui n’était probablement pas rentable.



Il n’empêche que pour ma part, je n’ai jamais bien compris l’engouement pour le vinyle. Certes, beaucoup de CD ont souffert de traitements discutables de la part des ingénieurs son, ce qui est probablement la vraie raison pour laquelle les amateurs ont perçu une dégradation.



Le problème en réalité, c’est que beaucoup d’audiophiles n’y connaissent pas grand chose en matière de technique, c’est pourquoi c’est un milieu ou il se raconte a peu près tout et n’importe quoi dans un sens comme dans l’autre.



A propos du MP3, je dirais que ça dépends surtout du style de musique qu’on écoute. Par exemple, sur de la chip music, c’est réellement perceptible.


Le 23/01/2016 à 22h 00







fgirardey a écrit :



Dans tous les benchmarks, Chakra explose tous les autres moteur JavaScript, y compris V8.



Le fait que Microsoft rende un Chakra compatible avec l’API de Node.js est exceptionnel, cela va d’autant plus renforcer cette technologie.







Bof…



A mon humble opinion, on oublie un peu vite que Node.js est basé sur un concept de gestion asynchrone dont les avantages et inconvénients sont loin de faire l’unanimité (voir les discussions de vrais spécialistes sur les forums et newsgroups).



Mais ça fera le temps d’une mode parce qu’au fond, la plupart des programmeurs n’ont pas le temps de creuser ce genre de question de manière suffisamment approfondie et qu’ils sautent sur une techo juste parce que le copain d’a coté le fait.



Pour ma part, je dirais que les moteurs d’exécution performants de Javascript sont un peu le rideau de fumée qui masque les erreurs conceptuelles de cette technologie et leurs limites. Ces erreurs apparaîtront clairement dans quelques années quand des moteurs plus performants apparaîtront sur d’autres technologies et que les serveurs massivement multi-coeurs vont se multiplier.


Le 23/01/2016 à 21h 05







essa a écrit :



sauf que la majorité des portables sont verrouillé et ne peuvent recevoir que les maj constructeurs inexistantes…







Le moins que l’on puisse dire, c’est que les smartphones ne sont pas conçus pour recevoir des Os tiers.



Un téléphone devrait être comme un PC, c’est a dire pourvu d’un Bios et prévus pour accueillir n’importe quel Os.



Il n’y a aucune raison valable qu’un smartphone soit lié à un Os précis.



Nos élus passent leur temps à réglementer tout et n’importe quoi. Mais dans le domaine de la technologie, c’est la foire au grand n’importe quoi : les constructeurs font tout ce qu’ils veulent sans que la moindre réglementation n’intervienne pour limiter les pratiques qui sont nuisibles pour le consommateur.


Le 23/01/2016 à 01h 41







psn00ps a écrit :



Le “problème du noyau Linux” n’existe pas.

Les pilotes peuvent être closed source dans les ROM constructeur.

Android reste ouvert.







Un peu de lecture : document pdf



Je cite :





il existe des modules Linux diffusés sous forme binaire, mais, en toute rigueur,

ils ne devraient pas exister. Si l’on se place du coté des fabricants de matériel, il est cependant clair

que la GPL est une contrainte forte, puisqu’il n’est théoriquement pas possible de placer des

informations non diffusables (relevant de la propriété intellectuelle) dans l’espace du noyau. C’est la

raison pour laquelle il existe une certaine tolérance vis­à­vis de ces écarts et qu’il est techniquement

possible d’utiliser un module binaire.

Nous verrons plus loin que le module binaire est intimement lié à la version du noyau. De ce fait, un

module binaire pourra être utilisé uniquement dans l’environnement de noyau ayant servi à sa

génération, ce qui représente une contrainte non négligeable.





Mais je veux bien croire que tout le monde ne perçoit pas immédiatement les conséquences de ce “petit détail”.


Le 22/01/2016 à 22h 15

Changer de téléphone tous les 18 mois n’est pas un modèle acceptable, ni pour les consommateurs, ni pour la balance commerciale de nos pays, ni d’un point de vue écologique.



Cela fait des années que j’affirme haut et fort que le modèle de développement des smartphones qui consiste à customiser une rom par modèle d’appareil n’est pas viable : beaucoup trop de travail pour gérer les mises à jour. Les faits me donnent raison.



Tant que posséder un smartphone était hype, les gens acceptaient d’en changer souvent en consacrant des sommes importantes. Avec la banalisation, le consommateur voudra les voir durer plus longtemps tout en dépensant moins. Ils exigeront en outre que l’appareil reste toujours a jour sur le plan fonctionnel.



Pourtant, la solution est tellement simple et déjà mise au point depuis belle lurette sur les ordinateurs de type PC.



Pour faire simple, il s’agit de combiner une couche d’abstraction matérielle contenue dans le bios/uefi et concernant les Os, un modèle de driver suffisamment indépendant de la version de l’Os.



Mais le fond du problème viens également du noyau Linux. Cet Os porte étendard du mouvement libre n’a pas du tout été conçu pour les drivers “closed source”. L’industrie du SOC ne voulant pas jouer le jeu de l’ouverture, le monde Android va se retrouver confronté à un gros problème. Les fabricants devront ouvrir ou périr, dans le cas contraire, c’est toute la galaxie Android qui sera menacée par la concurrence.

Le 22/01/2016 à 22h 32







nocrack21 a écrit :



Roh lala, sa part dans tous les sens la !!

Avant de dire forker ici migrer la bas, vous feriez bien de considerer ces point.

Les devs sont la pour faire … du dev. Si il faut migrer a chaque fois que y’a ine nouvelle fonctionalite qu’ils veulent ils ne sont pas arrives.

Et forker, encore plus une blague ! Pourquoi un dev Node.js (juste un example) voudrais arreter de coder pour node.js juste pour creer la copie d’un outil qu’il utilise ? 

C’est avec tous ces raisonnement que c’est toujours le bodel avec l’open source. Et apres les gens se pleignent que les projet s’egarent a forker a tout va (Ubuntu vous avez dit ?) et se plaigne tout pareil. Il fait arreter la skisophrenie !

Et comme la lettre le dit, c’est pas qu’ils veulent pas s’investir, la communaute aurai ete prete a aider, si c’etait open source…

C’est bien plus inteligent de faire ce qu’ils ont fait, c-a-d de faire pression en rendant la chose “publique” car sa fait mauvaise presse pour github. D’autant plus que github doit une bonne partie de sa renommee a ces meme projet open source. C’est la meilleur pub (gratuite qui plus est) qu’ils peuvent avoir. Et ces projet le savent.



Moi je dirais juste enfin de l’open source intelligement gere !







Il va de soi qu’avant de forker, il est intelligent de faire comprendre aux développeurs quand une fonctionnalité manquante pose un gros problème. Donc en soi, cette lettre n’est pas une mauvaise idée.



Mais cela ne signifie pas pour autant que les choses soient simple. Des fonctionnalités nécessaires à des gros projets peuvent également rendre l’usage de la plateforme plus compliquée pour les plus petits qui n’en auraient que faire. Souvent, les développeurs sont confrontés à des choix cornéliens pour contenter tout le monde. Et il arrive que ça ne soit pas une bonne idée que de s’acharner à vouloir le faire.



Parfois, le fork est le reflet direct de deux communautés qui n’ont pas les mêmes aspirations. Le fork est alors bénéfique. Au final, le “bordel” souvent décrié dans le monde du libre n’est qu’apparent. Les fork porteurs d’une innovation survivent et apportent le progrès. Ceux qui n’ont pas d’autre raison d’être que l’égo de certains développeurs meurent.



Cette division du marché est également une bonne chose pour éviter l’hégémonie d’un seul et unique acteur (hégémonie qui finira toujours par poser des problèmes).


Le 21/01/2016 à 20h 12







Obidoub a écrit :



Ouais, mais si on écoute tout le monde et qu’on ajoute des fonctionnalités à tout va, on se retrouve avec un logiciel dont on ne sait plus vraiment à quoi il sert. Exemple : wordpress… d’autant que ceux qui protestent ne sont pas ceux qui vont devoir maintenir ce code supplémentaire.







Tout à fait.



Personnellement, je suis contre ceux qui considèrent que dans le libre, il y aurait un droit à exiger que des auteurs ajoutent des fonctionnalités contre leur volonté.



Beaucoup confondent logiciels libres et logiciels communautaires. Y compris dans les milieux libristes.



Cette idée que la communauté devrait tout diriger est contre productive et n’a rien à voir avec les buts du logiciel libre.



Ceux qui ne sont pas content de la vision des auteurs d’un logiciel libre ont parfaitement le droit de forker (c’est ce que garantit le libre), mais pas d’imposer leurs vues aux auteurs d’un logiciel : Libre =//= dictature communautaire.



Un logiciel de qualité restera toujours lié aux bons choix d’un auteur ou d’une équipe. Vouloir absolument tout intégrer parce qu’il y a des gens qui le demandent n’abouti qu’a dégrader la qualité.



Evidemment, cela n’empêche nullement d’écouter sa communauté parce que c’est une excellente source d’idées. Mais il faut savoir garder l’esprit critique pour garder les orientations qu’un projet s’est fixé.


Le 22/01/2016 à 20h 25







nicky66 a écrit :



et quel pourcentage doit-on reverser?



parce qu’une photo lucrative, c’est pas une simple reproduction de l’objet présent dans le cadre, c’est aussi une oeuvre, alors quel pourcentage représente la composition et la mise en lumière par rapport à la sculpture publiquement visible qui s’y trouve? 



 et pour aller plus loin, comme la tour eiffel de jour, la moindre maison en préfabriquée n’est-elle pas une “oeuvre architecturale” en un sens ? en somme on n’aurait plus le droit de photographier professionnellement le moindre cadre extérieur un tant soit peu urbanisé, quelle usine à gaz :|







C’est à peu près la seule chose pour laquelle nos élus sont doués.



Enfin, je dit ça, ils sont aussi très doués pour fabriquer du chômage de masse.


Le 21/01/2016 à 20h 43

Le problème des DOM/TOM, c’est que c’est censé être français, mais les réglementations y sont parfois tellement différentes que faire du business peut s’y révéler compliqué.



Il faut donc souligner l’importance d’aligner le maximum de choses avec la métropole afin de faciliter les échanges.



Dans ce cadre d’unification, il me semble que le fait de permettre le roaming est un gros avantage. Rien que le fait que le touriste français puisse utiliser son abonnement, c’est un confort qu’il serait idiot de vouloir enlever.



Bien sûr, on sait que le fait d’équiper ces zones en systèmes de communications peut coûter cher, mais c’est le même problème dans les campagnes françaises.



Si l’on considère qu’on doit mutualiser la dépense pour équiper l’ensemble des territoires français, on se demande pourquoi les DOM/TOM devraient faire exception.

Le 21/01/2016 à 20h 27







Haemy a écrit :



Le libre est un choix, le propriétaire aura toujours le dessus tout simplement parce qu’il y a du pognon et que c’est pas le libre qui fait vivre.







C’est une vision naïve. <img data-src=" />



Contrairement aux idées reçues, l’absence de revenu par la vente directe de licences n’implique pas pour autant l’absence d’argent.



Les “business models” sont simplement différents.



L’exemple qu’on peut donner, c’est Linux qui as quasiment tué tous les unix propriétaires qui étaient vendus très chers.



Contrairement à la légende urbaine, ceux qui font Linux ne sont pas juste des volontaires qui bossent dans un garage mais principalement des programmeurs bien payés par les plus grands industriels.



On pourrait d’ailleurs ajouter qu’une grande partie de la puissance du libre viens du fait de la mise en commun du code, ce qui permet de belles économies de moyens par rapport au monde propriétaire.


Le 21/01/2016 à 19h 54







xandre a écrit :



Vu ce que font les personnels comme documents informatiques, LibreOffice est aussi suffisant pour le personnel “moyen” des entreprises et organismes publics. Ils ne se servent au mieux que de 15% des fonctions de LibreOffice (et je suis généreux dans le %).

J’ai personnellement constitué un dossier VAE (niveau Licence Pro Informatique) avec table des matières, rappels en bas de pages, et autre méta document rassemblant une foultitude de documents indépendants. Le tout sous LibreOffice Writer.

Et ma présentation orale sur diaporama a été faite sous Impress.

Les jurés étaient des profs universitaires et des professionnels.

Ils n’ont strictement rien trouvé à redire sur mes documents informatiques.

LibreOffice fait donc un boulot au moins universitaire. Une exigence largement supérieure à ce que le péquin, en privé ou au boulot, a besoin de faire.

Donc lire que LibreOffice n’est pas taillé pour une utilisation pro, j’affirme que les personnes affirmant celà ne savent pas de quoi elles parlent.

De plus dans les référentiels d’enseignement de la bureautique constituant les cours d’informatiques niveau lycée, il est indiqué de faire en sorte que les apprenants maitrisent les bases d’un traitement de texte et d’un tableur… Pas de maitriser Word et Excel !!!

Ces bases, ces principes et mécaniques, si le prof a bien fait son taf, s’appliquent donc sur n’importe quelle suite bureautique. Les fondamentaux sont les mêmes sous LibreOffice et sous MS Office !

Et j’affirme donc que LibreOffice est aussi taillé pour l’enseignement.







Totalement d’accord parce que dans la vraie vie, 99% des gens n’utilisent même pas 10% des possibilités des suites bureautiques, même en entreprise.



Et ceux qui se vantent de pousser les suites bureautique dans leurs derniers retranchement sont complètement à côté de la plaque parce que passé un certain point, il existe des outils informatiques bien plus performants que les suites bureautique.



Exemples :



Calculs très complexes faits avec un tableur : Apprenez la programmation, c’est 1000 fois plus puissant et rapide.



Données gérées avec un tableur : Apprenez à utiliser une vraie base de données, question puissance, ça n’a rien à voir.



Documents complexes faits avec un traitement de texte : apprenez à vous servir d’un logiciel de PAO.



Et l’on peut multiplier ce genre d’exemple à l’infini…


Le 21/01/2016 à 19h 34







jinge a écrit :



A mon avis c’est normal. Effectivement à égalité complète le libre devrait peut être être préféré, mais sinon il n’y a aps de raison de préférer le libre si un autre rend un meilleur service.

Après les formats de fichiers, il vaut effectivement mieux qu’ils soient soit ouverts soit standards afin que l’appel d’offres suivant puisse avoir lieu sans tout révolutionner…



Ou alors… Il faut préférer le libre, à condition qu’il soit enrichi par ces mêmes administrations. S’il n’y a pas de participation, l’intérêt est nul.







Au contraire, nous avons de nombreuses raisons de préférer le libre et les avantages sont réellement indéniables et concrets.



-Le logiciel libre est supérieur par le simple fait qu’il est adaptable et modifiable à volonté pour s’adapter à tous les besoins.

-Pas de licence à payer année après année. Sur le long terme, le logiciel propriétaire représente des sommes considérables.

-C’est notre intérêt d’un point de vue stratégique car l’hégémonie américaine sur le logiciel n’est pas dans l’intérêt Français ni Européen. De nombreux pays au monde l’ont déjà bien compris, mais pas nos élus.





Le 21/01/2016 à 20h 01







Gundar a écrit :



Bah et puis si youtube est accessible gratuitement chez un opérateur X, daily motion et vimeo seraient en droit de se sentir lésés. Sans parler de services émergents pas forcement en position de négocier du tout ce genre de faveurs.







Tout à fait.



La logique voudrait qu’on interdise cette pratique.


Le 21/01/2016 à 19h 25

Comme d’habitude en France, on pond des réglementations qui sont de véritables usines à gaz qui avantagent les très grandes entreprises étrangères au détriment de nos petites PME.

Le 20/01/2016 à 21h 51







Jarodd a écrit :



Et c’est bien pour cela qu’il faut rester mesuré pour être crédible. Dénoncer, oui, en argumentant et en restant la tête froide (au risque de passer pour des excités sans raisonnement aux yeux de ceux qu’on pointe du doigt, et surtout aux yeux de ceux qu’on essaye de convaincre du danger). Pleurnicher qu’on fait pareil (ou pire) que la Chine, la Corée du Nord, ou toute autre dictature ou ces mêmes critiques sont synonymes de mort certaine, non.







Je suis d’accord.



Beaucoup anticipent sans doute le fait qu’en prenant certaines mesures, nous prenons un chemin qui peut mener à une dictature comparable dans un certain temps. Mais il est évident que de comparer la France d’aujourd’hui à la Chine ne parlera pas aux gens pour la bonne raison que tout le monde sait que c’est (heureusement) inexact.


Le 20/01/2016 à 19h 00







Jarodd a écrit :



Merci pour la leçon de morale. J’ai lu Matin brun.







Si tu l’as lu, tant mieux. Un conseil de lecture n’est pas une leçon de morale. C’est plus simple de donner des références qui expliquent le concept beaucoup mieux que moi.





En retour je t’invite à lire la fable « Le garçon qui criait au loup ». Car à force de dire qu’on est comme la Chine, le jour où on y sera vraiment, plus personne n’écoutera, lassé d’entendre des comparaisons foireuses.

On peut critiquer (sur le fond tu as raison), mais il faut aussi rester mesuré, et dénoncer sans tomber dans le dramatique.





Sauf que le jour ou nous y serons vraiment, il sera justement trop tard pour en discuter. C’est exactement ce qu’explique “matin brun”. Et c’est aussi ce qu’on retient des leçons de l’histoire.



Ce qu’explique bien ce livre, c’est qu’un risque de basculement vers la dictature ne se concrétise pas le jour ou des lois “explicitement abusives” sont promulguées, mais en réalité bien avant.


Le 20/01/2016 à 16h 47







Jarodd a écrit :



Exact. D’ailleurs vu que tu critiques le gouvernement, tu peux t’attendre à recevoir une jolie douille dans la nuque. N’est-ce pas ?







Faut t’il vraiment attendre d’en arriver la pour s’émouvoir des glissement insidieux des libertés individuelles ?



Réalisons que si un jour la mesure dont tu parle venait à être promulguée, ça sera peut être un peu tard pour faire entendre sa voix.



Et d’ailleurs, rien ne garantit que ce qu’on dit aujourd’hui ici (et qui peut être capté par les fameuses boites noires) ne sera jamais utilisé un jour à notre encontre. Ce qui est légal aujourd’hui ne sera peut être plus légal demain.



Je t’engage à lire “matin brun” (ou l’histoire de la guerre de 40) pour comprendre qu’a partir du moment ou les libertés individuelles s’effritent, les loi “rétroactives” pour traquer les opposants sont vraiment à redouter.


Le 20/01/2016 à 15h 25

Ah oui, la France, ce petit pays qui se la pétait avec les droits de l’homme, donnait des leçons au monde entier et qui abandonne maintenant tout ses beaux principes juste à cause d’une petite poignée de terroristes.



Pitoyable.

Le 20/01/2016 à 19h 27



Un danger public exceptionnel pour l’existence de la nation





J’ai beau chercher, je ne vois pas comment une poignée de terroristes pourraient menacer l’existence d’une nation de 60 millions de personnes.



Je crois que si mon grand père était encore vivant, lui qui a connu de vraies guerres, il nous traiterait de poltrons.


Le 20/01/2016 à 16h 27



Les machines connectées passent leurs commandes toutes seules





Le côté pratique de ces fonction pourrait cacher un vrai but insidieux : rendre moins visible le coût des consommables pour le consommateur, la commande étant passée et payée sans intervention.



Quand on passe une commande manuelle, on réalise à chaque fois le prix des consommables, ce qui invite à chaque fois à réfléchir à son usage, au type de machine utilisée, etc…


Le 20/01/2016 à 16h 24







DayWalker a écrit :



Super, et quand tu “coupes” la lessive avec du vinaigre, elle part en sucette en sur-estimant la lessive ?







T’est censé être un bon consommateur qui fait uniquement ce qui est prévu.


Le 20/01/2016 à 16h 15



… recommande d’un choisir un avec « 12 caractères de type différent (majuscules, minuscules, chiffres, caractères spéciaux) n’ayant aucun lien avec vous (nom, date de naissance…) et ne figurant pas dans le dictionnaire ».





Je sais que c’est un conseil très souvent entendu et il est excellent. Mais j’ai remarqué que beaucoup d’utilisateurs ont des difficultés avec les subtilités du clavier. Donc je ne suis pas persuadé que le fait de mixer la casse et des caractères spéciaux soit forcément la meilleure alternative pour pousser les gens à sécuriser leurs mots de passe.



On pourrait aussi recommander de se contenter d’un mix de caractères standard et de chiffres, mais en allongeant le mot de passe. Par exemple passer de 12 à 15 caractères pour compenser, ce qui revient à peu près au même ordre de grandeur en terme de possibilités.

Le 20/01/2016 à 15h 57







bompi a écrit :



Le problème est qu’avoir un mot de passe sophistiqué pour chaque connexion différente et les mémoriser sans coffre-fort (1Password, StickyPassword, Dashlane etc.) n’est rapidement plus tenable.

Donc l’ANSSI est bien gentille mais ses conseils sont inapplicables in fine.







Plutôt que d’utiliser des logiciels et des services, faites vous une simple liste avec n’importe quel éditeur standard ou mieux, avec une base de données.



Et pour tous les mots de passe très importants (banque, etc…), faite une liste papier, ne les laissez pas sur un ordinateur.


Le 20/01/2016 à 15h 33







youri_1er a écrit :



Oui je l’utilisais il ya quelques années, mais aujourd’hui il n’est plus nécessaire car le networkmanager fait très bien le travail (de base peut-être).



Dans tous les cas et quelque soit l’outils, tan que certains drivers n’existerons as (ou seront trop mauvais pour être exploité sereinement) il y aura toujours des soucis de wifi sous linux.

Je suis étonné qu’en 2016 on puisse encore se payer une machine qui ne boot pas sur une Debian/ubuntu en fonctionnant sans problèmes de compatibilité.



On parle souvent des drivers graphiques mais aujourd’hui il est plus que rare que ce soit eux qui empêchent la machine de fonctionner lors de l’install, par contre les drivers WIFI, BT, les touches clavier de luminosité et les “petit” truc à coté qui pourrissent bien la vie sont toujours mal supporté.







Pas sur les bonnes machines.



Pour ceux qui veulent du Linux, il faut juste choisir une machine réputée compatible et c’est à peu près tout.



Le problème sur les portables, c’est que même certains grands constructeurs n’hésitent pas à râcler les fond de tiroirs pour mettre des circuits exotiques (probablement moins chers) plutôt que de mettre des modèles standard et bien supportés.


Le 20/01/2016 à 02h 57







catseye a écrit :



Je sais pas si t’es au courant mais les compagnies chinoises se torchent avec ta GPL, autant qu’avec les brevets … les européennes et américaines tout autant. En plus c’est contournable sans aucun problème. Tu fais un device avec le soft en ROM non flashable et c’est terminé.







Une ROM non flashable ne serait pas compatible avec la licence GPL v3 puisque les conditions requises ne peuvent pas être respectées.



Non respect des conditions de la licence = distribution de logiciel sans licence valide = contrefaçon = possibilité pour les auteurs de faire détruire les produits et réclamer des dommages et intérêts.



Quand aux boites chinoises qui se torchent le cul avec les licences, qu’elles en profitent bien tant que c’est possible.



Vu les conditions économiques, le jeu est en train de se durcir. Dans un futur pas si lointain, tout prétexte pourrait être bon pour faire du protectionnisme.







cislo a écrit :



….

Un utilisateur lambda a déjà du mal a savoir ce qu’est un navigateur tu le vois rooter son téléphone ou installer replicant?

..







Clairement, c’est construit pour que changer d’os ne soit pas facile, voir risqué.



Un respect de la concurrence en matière d’Os implique que les appareils doivent être indépendants des Os comme les ordinateurs.



Cela doit être inscrit dans la loi, ainsi que l’obligation pour les fabricants de fournir les docs aux concepteurs d’Os.


Le 20/01/2016 à 01h 18

De toute façon, ne vous en faites pas : si cette jurisprudence passe, les ayant droits seront bien les premiers à en subir les conséquences (et à venir pleurer après).



Si demain tout le monde à une peur bleue de mettre des liens vers les “précieux contenus” que les ayant droits publient par eux même sur des plateforme comme youtube (ou autre), les conséquences seront dévastatrices pour eux.



Pas de lien = pas de buzz = pas de médiatisation = pas de ventes = tant pis pour eux = bonus pour la culture libre.



Allez y messieurs les ayant droit, cadenassez bien vos contenus histoire que personne n’y accède plus jamais <img data-src=" />

Le 19/01/2016 à 23h 37







zefling a écrit :



On pourrait dire ça de plus de la moitié de langage existant qui finissent par s’industrialiser.







Non.



Un langage qui pendant des années n’avait même pas un cache d’opcode en standard, ça faisait quand même bien tache au 21ième siècle. Même les bons BASIC des années 80 permettaient de sauvegarder et de recharger un programme sous forme d’opcodes.



Il serait bon de réaliser que certains langages ne font même pas l’effort d’implémenter des optimisations évidentes et triviales connues depuis des décennies. Des millions de programmeurs les utilisent sans jamais regarder ce qu’il y a sous le capot.





Tu ne sais même pas comment je bosses, ni la taille de ma bosse, ni le type de base que j’utilise et tu donnes des conseils. Je trouve ça assez prétentieux de ta parts.





Échanger des conseils, c’est la base pour progresser. Et ça sera toujours vrai quelque soit ton niveau, ton expérience ou la taille de la boite ou tu travaille.



Même après plusieurs décennies de métier on se rends compte que l’on progresse toujours…. grâce aux autres.



Au passage, je n’ai pas mis en doute tes compétences, je parlais de ce qu’on peut tous constater dans les projets, en particulier les projets PHP. C’est facilement compréhensible en observant les orientations du langage.





Dans la vrai vie on a pas tous le temps apprendre l’assembleur pour faire des scripts.





Pourquoi penser qu’un langage efficient serait forcément de l’assembleur ou forcément compliqué ?



En informatique comme partout, il faut se méfier de la voie de la facilité. Déjà parce que c’est la voie d’une qualité médiocre, mais aussi parce qu’en regardant mieux le problème, le gain en facilité est souvent discutable in fine.



L’exemple, c’est les variables non typées. On croit gagner du temps au départ, mais en fait, on en perds beaucoup par la suite. Sans tomber dans les extrêmes, il faut se méfier de la fausse facilité.



Mais surtout, il n’y a pas d’excuse à ce qu’un langage moderne n’offre pas en standard un vrai mode compilé et des structures de langage performantes.





Oui, mais souvent, c’est des milli-secondes, donc tout le monde s’en fout.





C’est bien plus compliqué que ça.



Un morceau de code mal optimisé peut coûter de quelques fractions de % à des milliers de % par rapport à un code optimal suivant le cas.



Mais surtout, quand on accumule les couches, on accumule ces manque d’optimisations qui peuvent dans certains cas se multiplier pour représenter des différences énormes.





Par exemple, j’ai fais un truc qui résous un sodoku pas optimisé, qui fait tout ce qui est possible, sauf que j’ai un résultat en 0,2 s (pour les plus complexes). Quel est l’intérêt ai-je à optimiser ? Je ne compte pas en résoudre de milliers à la suite.





Personne ne prétends que l’on doit forcément tout optimiser à mort. Il faut faire preuve d’intelligence, pas de manichéisme.



Mais c’est aussi une question d’habitude et de rigueur. Prendre l’habitude d’utiliser des outils efficients et d’optimiser, c’est apprendre à le faire pour tout et partout. Le problème c’est que l’inverse est aussi vrai.



Le vrai but au final, c’est d’éviter de se retrouver avec de langages de script mal optimisés qui ont été créés sur un coin de table et qui finissent utilisés pour écrire des Os. Ou des bibliothèques plus ou moins bien écrites et qui finissent par être utilisées par des milliers de programmeurs.



Bien sûr, il est évident qu’on ne peut pas blâmer les informaticiens dans le cadre de leur travail qui la plupart du temps se voient imposer aussi bien les outils que les délais. Le tout étant imposé par un marché qui impose un prix comprimé.





Le 19/01/2016 à 00h 19







zefling a écrit :



Tu parles du PHP 5.0 ou du PHP 7.0 ? Il y a une différence monumentale entre ces deux versions en terme de perf. D’ailleurs, même PHP 5.6,







PHP 7 ne fait que supprimer des inepties techniques qui n’auraient jamais du exister. C’est mieux, mais ça n’en fera pas un langage rapide pour autant.





les perfs que je vois pas trop le problème, quand je vois mes temps de calculs, c’est la base de données qui ralenti généralement le temps global.





Parce que l’utilisation d’une base de données SQL “lourde” pour stocker la moindre petite données est une mauvaise habitude qui s’est généralisée.



Malheureusement, des langages comme PHP sont aussi responsable de cet état de fait car ils poussent vers ce modèle de programmation.





Et si tu veux améliorer les bilans énergétique de l’humanité, il faut aussi arrêter : Excel, Python, ruby, et… tout ce qui est script ou macro, mais aussi le templating, les parseurs, les logs, etc. et tout passer par du binaire compilé.





A mon gout, les “petits langages de script inefficients” se sont un peu trop multipliés ces derniers temps. Et surtout, ils sortent systématiquement de leur petit rôle pour servir à faire de vraies applications de prod.



Quand aux tableurs, ils sont aussi une énorme source de problèmes en entreprise parce que leur usage aboutit à des programmes inefficients et mal structurés.



Le plus amusant dans tout ça, c’est que les gens pensent se simplifier la vie et gagner du temps avec leurs 500 mauvais outils, tout ça parce qu’ils ont peur d’en apprendre un bon (je simplifie, mais c’est l’idée).





Si tu savais le nombre de calcul « inutile » qu’il y a dans une appli juste pour gagner du temps lors de son écriture.





En même temps, ça serait très dur de l’ignorer étant donné que bien souvent ça se voit comme le nez au milieu de la figure, même sans lire le code.


Le 17/01/2016 à 00h 44







brazomyna a écrit :



Lol, JS qui engendre la multiplication des centrales nucléaires <img data-src=" />







En attendant, c’est bien la réalité.



Chaque cycle processeur a un cout en énergie.



Le web et ses millions de serveurs et clients représentent une énergie importante et en constante augmentation.



Les objets connectés vont augmenter encore cet impact. Parce que la différence sur des petits processeurs est encore plus grande : la différence du nombre de transistors pour faire tourner de l’assembleur simple et du javascript est absolument colossale.





D’ailleurs, c’est bien connu que les iPhones (avec un framework basé sur un dérivé du C) ont une autonomie 10 fois plus importante que les Android (et son méchant Java) à batterie égale.





Le fait qu’une meilleure optimisation aboutisse à un gain d’énergie est une évidence technique.



Mais dans la pratique d’un appareil, d’autres paramètres interviennent.



Par exemple, a consommation équivalente, sur un appareil plus optimisé, on peut aussi décider de faire meilleur usage du capital énergétique pour une meilleure réactivité et une meilleure expérience utilisateur.





Tu devrais postuler chez Apple, ils adorent les techno-marketeux de ta trempe <img data-src=" />





Je te laisse te moquer, je me contenterais d’avoir raison <img data-src=" />


Le 17/01/2016 à 00h 07







brazomyna a écrit :



C’est donc ça ton contre-argument: si on n’est pas d’accord c’est parce qu’on se “sent visé” ?




Ca va chercher loin dis-donc ...









Et pourtant, mes critiques n’ont jamais porté sur les programmeurs mais juste sur des technologies.



Penser qu’une mauvaise technologie impliquerait forcément de mauvais programmeurs, ce n’a jamais été le sens de mes paroles. Donc ne les interprétez pas ainsi.



               





L’overhead d’une telle solution est déjà faible au regard de la pluissance dispo.





C’est malheureusement une pure idée reçue qui se colporte depuis trop longtemps.



Et le résultat, c’est qu’a force de raisonner comme ça, on a accumulé les errements année après année pour aboutir au final à bouffer une puissance démentielle et dégrader l’expérience utilisateur.





Et elle a en plus le bon goût d’être une valeur constante, qui se réduit donc en proportion au gré de l’augmentation exponentielle de la puissance disponible.





Moquons nous de la puissance utilisée, utilisons toujours plus de couches pour programmer vite, de toute façon les ordinateurs de l’an prochain auront doublé de puissance et ça ne se verra plus.



Le seul problème, c’est que ça fait déjà un petit moment que la puissance n’augmente plus comme auparavant et que le mur commence à se rapprocher…





Tu fais surtout silence sur la quantité à peu près incalculable de travail économisé grâce à ce genre de solutions -certes sub-optimales au niveau des perfs mais- incomparativement meilleures en terme d’efficience de développement. C’est autant de projets qui ont pu être menés à bien plus rapidement, avec moins de coûts (au sens large), ou même qui ont tout simplement ont été rendu viables, et ont donc pu voir le jour.





Sauf que l’on peut regretter que la réduction des coûts soit la seule obsession dans l’informatique actuelle et particulièrement dans le monde du web.



Produire rapidement de la merde à bas coût en oubliant que l’utilisateur final est tout à fait sensible au confort d’utilisation des services (et que les critères SEO commencent à l’intégrer) commence à perdre sérieusement de la pertinence.



Mais ce n’est pas le programmeur qu’il faut incriminer mais le marché et l’incompétence des donneur d’ordres qui ont fait du prix le principal critère de choix en informatique.





C’est typiquement l’histoire de la genèse du PHP: un langage super pas efficient en terme de perfs (longtemps des années lumières derrière le JS, d’ailleurs). Bref une “merde absolue” dans ton référentiel étriqué qui prend en compte le seul critère des performances. Pourtant personne aujourd’hui n’osera nier à quel point il a permis de faire exploser les développements web, baisser leurs coûts, et donc enrichir l’offre de services comparé aux CGI qui existaient déjà depuis bien longtemps.





PHP est effectivement une merde absolue sur le plan de l’efficience.



Je suis pourtant d’accord avec toi que ce langage n’a pas apporté que du mauvais. D’ailleurs on peut le dire de beaucoup les langages.



Mais ils serait temps de réaliser que tout ce qui est bon dans PHP pourrait être repris dans un langage bien meilleur. Le bilan énergétique de l’humanité en serait amélioré.





Autre exemple concret: dans mon monde pro, un homme-jour c’est entre 1.0 et 1.5k€. Un serveur  plus puissant c’est 3-5k€, les projets ce sont grand minimum des centaines d’homme jour. Faisons un calcul trivial: pour un projet de 1000 MD, le plus efficient pour moi serait selon toi une solution technique qui sera (soyons fous) 30% plus efficiente niveau perf (soit -5k€), mais demanderait (soyons sympas) 10% d’homme.jour en plus (soit +100k€) ?





Sauf que s’il suffisait simplement de mettre un serveur un peu plus puissant pour absorber le manque d’optimisation, ça se saurait.



Parce que tout ces gens qui ont décrété que l’optimisation c’est un truc d’un autre age et qui l’ont fait tout au long de la chaine, depuis le serveur web en passant par le langage serveur, le langage côté client, les frameworks, tout cela est malheureusement cumulatif… et finit par coûter lourd.



D’ailleurs, le fait que l’expérience utilisateur se retrouve aussi fortement impactée sur un aussi grand nombre de sites web est bien la preuve de l’échec de cette logique.



Et je ne parle même pas des grand services Web tels que Google ou Facebook ou cela fait longtemps qu’ils ont bien réalisé le problème que pose ces technologies mal optimisées et qu’ils travaillent pour améliorer la question. Quand on a des millions de serveurs, le manque d’optimisation, ça se traduit directement par une perte financière récurrente qu’il faut payer tous les mois…





Le 16/01/2016 à 21h 34







tanguy_k a écrit :



Ouai mais en local, un site web par definition passe par le reseau, rien que ca ca change bcp de choses.







Etudie la question, tu comprendra que le réseau n’y est pour rien dans la majorité des sites web qui rament.



Il y a même des sites qui permettent d’analyser finement la question.



D’ailleurs, je suis sur un connexion à 100Mb/s et c’est encore plus rageant de voir toute cette lenteur. Sur un smartphone, c’est encore plus insoutenable.





JS est un langage interprete et comparativement aux autres langages du meme type (Python, Ruby, PHP) il est plus rapide.





Félicitation, utiliser un langage un peu plus rapide que ce qui se fait de pire devrait nous rassurer.



Mais javascript n’est pas le seul responsable du problème. Le rapport mal fichu avec le DOM et les multiples framework “pour encapsuler le caca” participent grandement au problème.





Au sujet des frameworks, rien de specifique a JS, il y a en pour tous les langages (Rails, .NET, Django, Laravel, Qt, MFC, Boost, Delphi…).





Sauf que les framework n’ont pas la même incidence suivant le langage. Dans des langages comme Javacript ou PHP ou tout autre langage non compilé, le cout de l’abstraction est très élevé.





“Deconnecter les programmeurs des realites” ? Vite revenons aux char * et aux malloc, au Fortran ou mieux a l’asm 68000…





Un programmeur qui n’a pas appris le fonctionnement a bas niveau ne programmera jamais correctement un langage de haut niveau.



C’était vrai par le passé, ça l’est toujours aujourd’hui et ça le sera toujours demain.

 



Rien de deconnant a ca. Les objets connectes (comprendre a Internet) utilisent logiquement les technos web. Et le langage du web c’est JS. Ca aurait ete du Ruby, du PHP ou du Python ca serait meme ete plus lent que JS.





Sauf que Js n’est qu’un simple langage de script utilisé dans un navigateur.



Toutes les couches réseau, soit le fondement de l’internet, elles sont écrites en C.



D’ailleurs, l’idéal pour les objets connectés n’est pas de se connecter directement au web, mais d’utiliser un intermédiaire, ce qui leur permet d’utiliser des protocoles bien plus simples et des types de liaison plus adaptés.





T’aurais prefere qu’ils mettent du Fortran ?





Et pourquoi pas du Cobol, pendant que tu y est ?



L’idéal pour programmer des objets connectés, c’est l’assembleur ou à la rigueur le C.



Et quand on parle du C, ce n’est pas une préférence de langage, c’est juste que c’est un langage adapté parce qu’il a été conçu pour ça.





T’as raison, c’etait mieux avant, y’avait absolument pas de logique mercantile. Et les devs avaient tous une barbe parceque c’etait des hommes, des vrais, maintenant c’est tous des puceaux.





Visiblement tu n’as pas compris. Alors je vais le rééxpliquer.



En informatique, aucun langage n’est équivalent. Chaque langage a été conçu avec un but et un objectif donné.



Le langage Javascript n’a pas été conçu pour écrire du code de bas niveau.



Le langage C a été conçu pour écrire du code de bas niveau.



La logique mercantile, c’est de dire qu’on va faire un produit qui va se programmer en Javascript pour la mauvaise raison qu’il y a un marché de xxxx millions de programmeurs front end qui pourront le faire sans effort et que ça facilitera la vente des objets.



Sauf que voila, c’est ce genre de logique qui nous éloigne progressivement de l’idéal technique et aboutit précisément à faire de la merde.



Et c’est d’autant plus vrai que cette mauvaise logique est cummulative et qu’au bout d’un certain temps, le résultat devient catastrophique.



Pour l’instant, vous ne voyez peut être pas encore le problème, mais le cout énergétique de l’internet commence déjà à devenir prohibitif.



Quand les objets connectés vont commencer à sortir du cadre du gadget hype et du jouet pour geek, le problème de la consommation va rapidement devenir un sujet de préoccupation majeur.


Le 16/01/2016 à 20h 42







brazomyna a écrit :



Bien sûr, c’est bien connu: le monde est divisé en deux catégories: les ‘bons’ qui font du low level et écrivent quelques ligbes d’asm chaque matin en se rasant, et les autres, les médiocres, qui font du managé, pas par choix raisonné mais juste parce qu’ils ne doivent pas avoir suffisamment d’intelligence pour arriver à la cheville des bons.







Ce n’est pas parce qu’on critique un langage ou un environnement que les programmeurs qui l’utilisent doivent pour autant se sentir visé.



Je crois que tous les programmeurs dans leur vie ont un jour programmé avec des trucs pas terrible.



Et ce n’est pas parce que je l’ai aussi fait que pour autant je vais trouver ça bien.





A ce jeu, moi j’ai un autre système de catégorisation: les bons qui comprennent que le génie logiciel c’est une affaire de compromis pour des paramètres multiples et divers (et que la perf est un paramètre parmi tant d’autre, et très rarement le facteur critique) ; et les autres, ceux remplis de certitudes dans leur monde tout noir ou tout blanc.





Sauf qu’a force d’accumuler les mauvais compromis année après année tout en se moquant des performances, on a fini par aboutir à un bouzin infâme qui bouffe toute la puissance et détruit l’expérience utilisateur.



Voila à quoi ça mène de faire des compromis…


Le 15/01/2016 à 21h 40







Folgore a écrit :



Heureusement que JQuery existe, c’est tellement une plaie manipuler le DOM et compagnie en JS Vanilla…



Apres ce genre d’avis “Une partie des développeurs estime en effet qu’il ne sert plus à rien puisque toutes les opérations effectuées peuvent très bien se faire en JavaScript directement.” c’est quand même peu ridicule… ce genre de propos viens de développeurs qui doivent encore travailler a l’age de pierre, probablement portant un teeshirt “vive linux”, ne jurent que par VIM et le terminal… bref qui sont tres conservateurs d’idéologies tels que performances blablabla, code natif blablabla… En 2016, on a des CPU a 10 cœurs et des smartphones plus puissants qu’une nintendo wii <img data-src=" />







Etant donné le nombre effarant de sites qui rament et qui m’énervent à longueur de journée, y compris sur un desktop bien puissant, je pense qu’il y a vraiment des coup de pied au cul qui se perdent.



Sérieusement les gars, je faisais des trucs plus fluide il y a 30 ans sur des ordinateurs 8 bits…



Si on m’avait dit à l’époque que les programmeurs deviendraient si mauvais qu’avec l’équivalent d’un supercalculateur de l’époque, on ne parviendrait même plus à afficher une simple page de texte de façon fluide, j’aurais trouvé cela déprimant.



Non seulement le langage Javascript est un langage lent, inefficace ou l’abstraction a un coût CPU élevé. Mais le fait d’y rajouter des framework par dessus ne fait qu’achever le malade tout en finissant de déconnecter les programmeurs des réalités qu’ils manipulent et de les pousser à écrire n’importe quoi sans comprendre ce qu’ils font.



Mais le pire est que ce système catastrophique prends maintenant des allures d’infection zombie. Certains en font maintenant des Os, des systèmes pour IHM.



On trouve même des gens pour vouloir mettre du Javascript dans des objets connectés, comme si la consommation énergétique de l’humanité n’était pas un problème écologique suffisamment sérieux et qu’on pouvait se permettre de multiplier par million des objets basés sur des techniques monstrueusement inefficaces sur le plan énergétique pour la simple raison bassement commerciale qu’il existe quantité de programmeurs qui ne maîtrisent que ça.



Mais au fond, exploiter la médiocrité sera toujours plus rémunérateur que de promouvoir l’excellence. C’est un triste exemple qui montre ou la logique mercantile qui bouffe notre civilisation nous mène…


Le 19/01/2016 à 16h 36

Il existe un jeu vidéo libre qui permet l’apprentissage de la programmation avec des voxels, ça s’appelle Blackvoxel et c’est sous licence GNU GPL. Au passage, c’est bien plus puissant que ComputerCraft et il y a même un mode pour apprendre l’assembleur.




Le 18/01/2016 à 23h 56

En attendant, ce serait bien qu’ils réalisent que beaucoup de français n’ont pas accès à internet, notamment dans les campagnes, mais pas uniquement.

Le 18/01/2016 à 21h 43

La réalité, c’est qu’ils ont raison.



Pole emploi devrait être complètement remplacé par un simple service web et toutes ces agences inutiles doivent être fermées.



Faire déplacer des millions de chômeurs pour des rendez vous inutiles, parce qu’en réalité, il n’y a pas d’emplois à leur donner, c’est juste du gaspillage de temps, d’argent, mais aussi de carburants importés qui pèsent sur notre balance commerciale.


Le 18/01/2016 à 23h 54







renaud07 a écrit :



Pour moi la solution est simple : une méga plateforme qui regroupe tous les majors (ensuite chacun fait ses calculs pour savoir ce qui lui revient), avec musique et films/séries disponible rapidement après la sortie ciné/diff TV (disons 1 ou 2 mois) en VF/VOST pour 15 à 20€ par mois. Et la fin de la RCP sur les supports.



Sur les sommes récoltées la SACEM & co reinjecte 20-25% dans les manifs culturelles comme d’habitude.



Je suis sûr qu’ils serait plus gagnant que maintenant et sans faire chier le con-sommateur.







En fait, c’est amusant, mais plus on observe ce qui se passe, plus on se rends compte que le marché se dirige tout droit vers une forme de licence globale, que le politique l’ait décidé ou non.



Le 18/01/2016 à 22h 16

Il n’est pas étonnant que monsieur Tardy ait des idées intelligentes concernant ces sujets puisque c’est un informaticien.



L’ineptie en France, c’est que les décisions concernant les nouvelles technologies sont généralement prises par des personnes qui n’y connaissent absolument rien. Et c’est malheureusement le cas dans beaucoup de domaines.

Le 18/01/2016 à 22h 07

C’est à ce genre de texte qu’on réalise qu’une bonne partie de nos élus sont trop âgés pour comprendre les réalités du monde d’aujourd’hui et de demain.



Il faut que ces personnes acceptent de quitter le pouvoir car ils nuisent gravement aux intérêts du pays.








Le 17/01/2016 à 20h 47







Exception a écrit :



Cool on va tous en faire des développeurs.







Non, le but c’est de permettre aux gens d’avoir un outil utile de plus dans leurs bagages, comme les maths ou les langues.

On ne peut pas construire une société future basée sur l’automatisation avec une population qui n’y comprends rien.





Ce n’est pas comme s’il y avait du chômage en informatique déjà aujourd’hui (contrairement à ce qu’on laisse croire il n’y a pas le plein emploi en france dans l’informatique, bien au contraire, seuls les “consultants” ont un job, les simples développeurs en ont de moins en moins, tout est délocalisé en Asie et en Inde, donc quand ces petits seront grands, le développement sera déjà un métier éteint en france).





Ce sont les syndicats patronaux qui font croire cela de manière à garder le marché déséquilibré à leur avantage.



Mais le résultat, c’est qu’il y a des programmeurs qui quittent le métier par camions entiers. L’investissement en formation est une lourde perte sèche pour le pays.



Rien ne sers de former des programmeurs si c’est pour les voir quitter le métier quelques années après.



Et il n’y a pas de secret, il y a du chômage absolument partout contrairement aux inepties que racontent certains.



Le marché de l’emploi est pris en tenaille entre la mondialisation qui délocalise les emplois et la mécanisation qui les supprime à la source.


Le 17/01/2016 à 19h 37







Yutani a écrit :



moi c’est python qu’on me propose le plus souvent







Jamais compris l’intérêt de ce langage dont la syntaxe est bien trop éloignée des standard et qui n’est pas particulièrement rapide.



Mais bon, c’est essentiellement poussé par le monde éducatif. Ils ont toujours mis un point d’honneur à enseigner des langages que les informaticiens n’utilisent pas.







zefling a écrit :



Perso, je le trouve très orienté comme site. J’ai testé plein de trucs, et 1 fois sur 2 c’est C# qui m’est proposé.







Il n’y a pas énormément de langages qui sont pratiqués de manière courante actuellement. C# étant meilleur que Java, le choix se comprends bien.



Bien sûr, on pourrait objecter que dans chaque catégorie, plusieurs choix seraient souvent possible et que certaines propositions tiennent un peu du cliché.



Je n’ai pas trop compris pourquoi le site suggère qu’un jeu “indépendant” serait mieux en C# et un AAA en C/C++…


Le 15/01/2016 à 01h 21

Tiens, il reste quelques posts dans ce thread <img data-src=" />

Le 14/01/2016 à 21h 31







SebGF a écrit :



Je ne le pense pas à tort car tout ceci est du vécu.



Les décisions politiques, ça existe aussi dans le privé. Et généralement un décisionnaire, ça ne voit pas plus loin que le bout du chèque qu’il signe et la décision ne sera pas faite selon le “c’est adapté à notre besoin” mais selon le “c’est pas cher on prend”.

Résultat, tu imposes ça à l’utilisateur.

Il se prend un max de régression.

Tu défonces l’image du logiciel libre dans la tête des gens.



C’est pas compliqué, demande à n’importe qui d’utiliser LibreOffice ils vont te dire “ça marche pas avec mes docs Word c’est nul”.







De toute façon, les newbies, a partir du moment ou tu change leurs habitudes, ils gueulent.



Et 6 mois après ils ne jurent plus que par ça.



Pour libre Office, ça ne se passe pas différemment. J’ai vu le même utilisateurs gueuler sur libre office lors de la migration et quelques mois après gueuler sur office lors d’une utilisation ponctuelle.



Et les problèmes de décideurs qui ne regardent que le prix et se moquent de la qualité, on trouve cela aussi bien dans le libre que dans le propriétaire.





Avec le public qui jettent l’argent par certaines fenêtres et cloisonne soigneusement celles qui auraient peut-être un peu plus de besoin, j’ai des ENORMES DOUTES qu’il y ait des décisions politiques raisonnées (antinomique). Si déjà le privé qui est à la recherche du moindre coût fait de la merde…





Aujourd’hui, le public fait tout et n’importe quoi, nous sommes d’accord. Mais si vous voyagez un jour dans des pays ou les infrastructures sont totalement privées, vous comprendrez que ce n’est pas la panacée du tout.

Les jeunes ne le savent peut être pas, mais à l’époque de la planification, beaucoup de décisions judicieuses ont fait la richesse de notre pays. Et le privé n’aurait jamais pu faire cela.



Le problème actuellement, c’est que la classe politique n’est plus dans le coup, leur décisions sont complètement à côté de la plaque et il n’y a plus de planification car ils gèrent le pays au jour le jour sans la moindre vision d’avenir.



Une grande partie des problèmes viens d’une classe politique et de donneurs d’ordre dont la vision est dépassée.



Alors devant cela, on entends certains penser que la solution, ça serait de supprimer l’état. Moi je dit qu’il faut des gens plus intelligents pour gérer le pays. Et dans notre pays, ça ne manque pas…





Pourtant il y a des formats standards pour ça de nos jours, qui fonctionnent bien sur les deux.





Oui, pour des formats relativement simples. Pour les formats complexes, je n’ai jamais vu en pratique un exemple de compatibilité parfaite.





Est-ce la faute de Microsoft ? Ils ne sont pas responsables de ce que les utilisateurs ont fait avec leurs produits.

Est-ce la faute de LibreOffice ? Ils ne sont pas responsables du fait que les anciens formats de fichier Office étaient du binaire imbitable.





C’est une très longue histoire. Au dela du problème technique, il est évident que Microsoft n’a pas du tout intérêt à favoriser la compatibilité avec LibreOffice.





Les formats de fichiers peuvent toujours être interopérables, ce n’est pas une utopie ou quoique ce soit. Il suffit juste que ceux-ci soient documentés.





Sauf que ça, c’est la belle théorie et qu’il suffit d’ouvrir les yeux pour comprendre qu’en pratique ça ne se passe jamais comme ça.



Et je connait bien le sujet pour avoir écrit une quantité certaine de code pour décoder des formats de données.



En pratique, deux programmeurs différents n’interpréteront jamais de manière 100% identique la même documentation. C’est particulièrement vrai dès qu’un format n’est plus trivial. Pour comprendre, il suffit de lire une spec de format un peu complexe pour voir toutes les questions qu’on se pose parfois.



Ajoutons que deux logiciels différents ne sont jamais architecturés de la même façon, n’ont jamais à 100% les mêmes fonctionnalités. Donc même avec un programmeur parfait et une doc parfaite, il peut s’avérer impossible de charger des données relatives à quelque chose qui n’est pas dans les fonctionnalités. (Exemple : charger un fichier PSD sous Gimp. )



Et je ne parle même pas des bugs d’un logiciel ou d’un autre. Tous les programmeurs qui ont eu un jour à se demander pourquoi une toolkit graphique donnée ne chargeait pas les jpeg de tel ou tel appareil photo numérique me comprendront.





Il est rare quand des logiciels quels qu’ils soient utilisent le même format de fichier, c’est un peu le boulot des middlewares type ESB/EAI justement de faire en sorte que l’application B sache interpréter les données de l’application A.

Ceci est valable pour les progiciels et applications diverses qui s’échangent des données.





Enfin, ça il faut le dire vite.



Regarde ou nous en sommes après des années de web : les navigateurs n’arrivent toujours pas à décoder exactement de la même façon les pages web alors que c’est un des format les plus répandu et les mieux documenté.



Au final, il tends à se produire la chose suivante : le navigateur qui prends l’ascendant tends à devenir le standard.



Le code est donc bien le standard de fait dans la réalité alors que la documentation du format n’est que le standard dans la théorie.



En informatique comme partout, il faut faire la différence entre théorie et réalité. C’est évidement plus facile à faire en vieillissant que quand on est jeune.





Pour les applications bureautique, ça demande une migration de tous leurs fichiers qui implique des coûts non négligeables dans la balance… Et quand le choix du logiciel cible a été fait parce que la politique a dit qu’il faut privilégier tel choix, les coûts explosent.





Tout le monde sait qu’une migration, c’est long et compliqué. On en sait tous quelque chose pour en avoir organisé. Mais quand on migre vers le libre, on sait que sur le moyen ou long terme, les économies et l’indépendance gagnée compenseront largement le coût de la migration.



Pour un pays comme la France, le choix est d’importance. Et ce choix est binaire. Dans les écoles, soit on continue de former les élèves à Office, soit on choisit LibreOffice. Il n’y a pas de demi mesure.





Pour sortir de la bureautique, dans le domaine du progiciel je peux donner un exemple très simple.

Des utilisateurs qui avaient une application sur AS400, application faiblement maintenue car dev cobol, vieux cons morts et enterrés, pas maintenable, etc etc etc.

Le projet de migration part sur un remplacement par une interface Web pour garder la notion de terminal/client comme sur AS400, le tout porté par de la solution libre (du Linux, du Tomcat, du Postgres, etc).

Ca marche du tonnerre.

Sauf que sur le ressenti utilisateur c’était de la merde, pourquoi ? Parce que le temps que l’IHM affiche une page, sur un AS400 tu as fait 15 opérations tellement ils étaient habitués (“tu vois je tape ça, F12, tab tab A tab Z tab 45 entrée” t’as le temps de rien voir).

Donc si forcément ils ont apprécié le fait que la nouvelle interface leur apportait beaucoup de souplesse pour le geste métier et des fonctionnalités qu’ils ne savaient pas faire avant, ils ont regretté la réactivité de l’ancienne.

Résultat, le parallèle est vite arrivé dans la tête des utilisateurs : “c’est trop lent les trucs libres”.





C’est réellement un bel exemple qui mériterait d’être encadré tellement il me parait symptomatique des maux de l’informatique moderne.



Malgré des ordinateurs modernes beaucoup plus rapide que les anciens, des réseaux qui dépotent et des serveurs qui sont devenus des monstres, on arrive presque systématiquement à pondre des applications qui sont beaucoup plus lentes et moins ergonomiques que les anciennes. Ca me rappel le remplacement des anciens distributeurs de billet automatique par les nouveaux a la fin des années 80 et des files d’attente que cela a généré.



La faute, c’est une informatique moderne tournée vers le low cost. Des programmeurs qui sont formés pour bosser vite, pas pour optimiser ou soigner l’ergonomie. Et un style de programmation qui consiste à empiler les framework et les couches d’abstraction plutôt que de maîtriser le fonctionnement à bas niveau.

Et cela sans compter la nouvelle mode qui consiste à tout faire avec un navigateur web qui n’a pas été fait pour ça à la base.



D’ailleurs, qu’est ce qui les aurait empêché de refaire l’application en utilisant un émulateur de terminal ? Sur le plan technique, rien ne l’aurait interdit. Sauf que sur le plan commercial, ça ne se serait jamais vendu.. Imagine un instant le commercial qui débarque avec ses “belles” impressions de maquettes d’application montrant juste un terminal tout noir avec du listing au lieu d’avoir des belles images qui pètent, des animations waouh. Soit tout un tas de conneries inutiles mais qui font vendre.



Comme dit la blague, il ne faut pas prendre les gens pour des cons, mais il ne faut pas oublier qu’ils le sont. C’est particulièrement vrai avec les donneurs d’ordre. Il est bien plus facile de leur fourguer ce qui colle à leurs clichés que de tenter vainement de leur proposer ce l’idéal qu’ils sont incapables de percevoir.



Alors oui, devant une catastrophe, il faut toujours un coupable. Et l’on ne peut pas en vouloir à des newbies d’accuser le mauvais coupable.



Mais soyons logiques, si l’on estime qu’il ne faut jamais passer au logiciel libre sous prétexte qu’aujourd’hui dans l’informatique, on fait souvent n’importe quoi, ça veut dire que personne n’utilisera jamais de logiciels libres.





Bref, tu ne peux pas pousser une idéologie, il faut du concret, de l’accompagnement, et de l’éducation.

Et ça, c’est pas une décision politique qui saura le faire.





En même temps, quand il y a un problème en informatique, si on laisse la secrétaire faire l’analyse à coup de ragots devant la machine à café au lieu d’appeler un expert chevronné ou qu’on fait réaliser un logiciel sans même avoir fait étudier les problèmes de migration par des informaticiens expérimentés, c’est que les donneurs d’ordre sont des nazes qui méritent ce qui leur arrive.



Beaucoup de donneurs d’ordre pensent que de se passer d’experts pendant la phase de définition d’un projet va leur faire gagner de l’argent. On ne va pas non plus pleurer sur le fait qu’ils se ramassent.



J’ai vu de mes yeux un grand groupe français confier des cahier des charges à des stagiaires. A ce niveau de connerie, même le meilleur informaticien du monde devra se lever très tôt pour sauver les projets.



Les logiciels libres ont bien des qualités que tous les informaticiens professionnels reconnaissent, mais ils ne sauveront pas le monde du manque de culture informatique des donneurs d’ordre et de la pingrerie des entreprises.





Plutôt qu’imposer le logiciel libre dans les administrations qui n’en ont rien à foutre, il faut le faire dans l’éducation nationale pour éviter que les gosses croient qu’il n’existe qu’un seul truc.

Et ceci permet ensuite de construire les choix de chacun, car il ne faut pas oublier que le libre, c’est aussi la liberté d’en avoir rien à foutre.





Le problème, c’est que si on le fait dans l’éducation, on est obligé de le faire dans l’administration.



Si on forme les élèves à LibreOffice et qu’on utilise office dans l’administration, ça voudrait dire qu’on devra leur redonner une formation supplémentaire.



Vouloir évite d’imposer, je reconnait que c’est une idée louable. Mais dans la pratique, ne pas faire un choix sera très difficile, si ce n’est impossible.



De fait, dans certains domaines comme l’éducation, on est bien obligé de faire des choix. Soit on choisit le libre, soit on choisit le propriétaire. Pour l’instant on impose le propriétaire. Et même si le libre reviendra toujours à imposer un choix, ce choix évitera au moins un certain nombre de travers.



Le 13/01/2016 à 22h 18







Mihashi a écrit :



Dans l’environnement logiciel actuel, non.

Mais je rêve d’un monde ou le logiciel propriétaire serait un peu considéré comme l’esclavagisme l’est actuellement.







Oui, on peut espérer qu’un jour ce sera le cas de la même façon qu’une bonne partie du monde a fini par réaliser que la démocratie était meilleure que la dictature.



Et même si l’interopérabilité parfaite est impossible, on peut constater que le logiciel libre se rapproche le plus de ce qu’on fait de mieux.



Il suffit de constater par exemple combien de système de fichiers différents sont supportés par Linux et combien le sont par Windows. Cela se passe de commentaire. Et l’on peut multiplier ce genre d’exemple à l’infini.



De fait, le monde libre a toujours fait le maximum pour les promouvoir. On ne peut pas en dire autant du monde du logiciel propriétaire.


Le 13/01/2016 à 22h 10







SebGF a écrit :



Pluzun.



Je ne veux pas qu’on priorise les logiciels libres parce qu’ils sont des logiciels libres. La discrimination positive, on le dit et on le répète, c’est de la connerie en barre.









Je pense qu’au contraire on doit favoriser les logiciels libres pour la raison qu’ils sont des logiciels libres.



La liberté d’un logiciel, c’est une dimension politique. (Mais pas seulement, il y aussi d’énormes répercussions pratiques et fonctionnelles).



Beaucoup de gens pensent à tort que la dimension politique n’est pas pertinent dans le choix dans logiciel.



Pourtant, les choix d’ordre politique concernant les logiciels ont bien des répercussions sur notre pays, notamment sur son indépendance.



Et une assemblée nationale qui est remplie des politiciens a bien pour but de prendre des décisions d’ordre politique.



Le 14/01/2016 à 00h 59







joma74fr a écrit :



Le but de la concurrence par les infrastructures est de faire en sorte que la couverture du réseau se construise le plus rapidement possible.



Ceci dit, je pense personnellement que la concurrence par les infrastructures est une hérésie en matière d’économies d’échelle et de concurrence des services numériques. Et, effectivement, l’Etat en profite pour louer à des exploitants privés un spectre d’ondes qui, dans l’absolu, n’appartiennent à personne (l’Etat pourrait se mettre à louer l’air qu’on respire ou à louer la chaleur du Soleil).







La concurrence n’a effectivement aucun sens quand on parle de réseaux parce que cela aboutit simplement à multiplier les réseaux et leur coût de manière totalement inutile.



Imaginez simplement que dans une zone peu dense, on se retrouve à installer autant d’émetteurs qu’il y a de concurrents. C’est simplement du gaspillage que le consommateur paye. Et autant de fréquences gaspillées qui pourraient servir à de meilleurs débits.



Un seul réseau possédé par l’état, fiable et bien maillé, c’est la voie du moindre coût et de la meilleure efficacité.



Si la France a des réseaux électriques efficaces et un réseau de voies ferrées bien desservi par rapport à des pays qui pratiquent le “tout privé”, c’est grâce à cela.



L’ennui, c’est qu’actuellement, l’état français est géré par des gens qui n’ont ni intelligence ni vision.


Le 14/01/2016 à 00h 49







Bidulbuk a écrit :



Les ventes de carte-mère ont baissé de 21% en 2015. 



http://www.digitimes.com/news/a20151229PD212.html







Sauf que ça, ce n’est pas un hasard : les constructeurs poussent fortement vers le portable et le all-in-one.



On peut imaginer que la durabilité exceptionnelle des bonnes machines d’assemblage ainsi que leur capacité à être réparé n’est pas tellement pour leur plaire.



Les passionnés ainsi que les vrais joueurs ne se feront pas avoir, c’est pourquoi il existera toujours un marché pour le matos d’assemblage. Mais en attendant, dans le grand public…





Le 13/01/2016 à 23h 18







Bylon a écrit :



En quoi est-ce un troll ? <img data-src=" />



Je vois qu’Apple tire très bien son épingle du jeu, et pas que dans le marché du smartphone, et ce malgré les prix “haut de gamme”… si ce n’étaient pas des bonnes machines avec un soft à la hauteur, je pense que les ventes auraient baissé depuis longtemps. L’effet de mode ça marche un moment mais ça finit par s’essouffler s’il n’y a pas du répondant derrière. Donc les chiffres montrent quand même bien qu’il y a un modèle qui monte et le reste qui baisse… et je ne vois donc pas bien en quoi ce serait un troll puisque c’est appuyé par les ventes.







Sauf qu’Apple se contente d’occuper des marché de niche.



Cela peut certes s’avérer très rentable, mais c’est à double tranchant sur le long terme.



 



Sérieusement, Windows Spyware 10 n’allait évidemment pas faire vendre de PC vu que les “bons” chiffres de M$ viennent précisément qu’il est pour le moment poussé par un gros nagware (source :  http://www.theregister.co.uk/2016/01/12/microsofts_get_windows_10_nagware_is_showing_signs_of_sentience/ ) et que, comme le dit l’article, c’est de la migration sans changement de machines.



Donc les “prévisionnistes” qui imaginaient une remontée en tablant sur un réveil de Redmond ne sont pas vraiment visionnaires !..





Microsoft change simplement de modèle et évolue vers les services.



Mais logiquement, ça ne contribue pas au renouvellement des PC comme le faisait chaque sortie d’un nouveau Windows par le passé.


Le 13/01/2016 à 22h 50

Je m’amuse de voir des gens chercher des raisons aux baisses de vente de PC et d’en tirer des conclusions aussi hâtives que d’annoncer la fin du PC.



D’abord, quelques faits :



-Depuis le début des années 90 jusqu’au millieu des années 2000, l’évolution de la puissance des PC a été absolument foudroyante. Au contraire, l’évolution de la puissance des PC depuis l’année 2007 est absolument ridicule. La loi de moore a bel et bien pris fin.

-Après une époque ou le taux d’équipement des ménage augmentait sensiblement, le marché est arrivé clairement à saturation depuis un bon moment.

-Un PC muni d’un processeur de type Core 2 Quad sorti il y a 8 ans convient encore très bien, y compris à des usages de type jeu vidéo.

-Sur l’offre grand public, les processeurs intel sont bloqués à 4 coeurs depuis de nombreuses années. Les processeurs ayant plus de coeur arrivent très timidement. On sent bien l’absence de concurrence sur ce marché qui aboutit naturellement à diminuer le besoin de renouvellement.

-Les tablettes et smartphones attaquent le marché PC sur le secteur des utilisateurs limités, c’est à dire l’utilisateur qui se contente de regarder des vidéo, de surfer et d’utiliser les réseaux sociaux.

-La crise économique touchant le monde entier a logiquement poussé les ménage à limiter le taux de renouvellement.



Le PC n’a pas vocation à disparaître car il est irremplaçable. Mais comme l’ont dit certains plus haut, l’industrie informatique est simplement en train de sortir de sa phase de développement rapide pour rentrer dans une phase de renouvellement plus lent, comme l’électroménager classique.



L’erreur d’analyse la plus courante, c’est de penser que d’autres devices comme les tablettes pourraient prendre la relève du PC. Etant donné que les tablettes ne sont que des ordinateurs, c’est une erreur totale. Basées sur les mêmes technologies que le PC, elles n’évolueront pas plus vite.

Le fait est que les tablettes sortent déjà de l’effet nouveauté et que pour les constructeurs, les marges sont très basses.



Reste Apple qui gagne de l’argent parce qu’ils ont été les seuls à choisir une niche de marché bien particulière. Mais dans un monde plein de concurrence, les recettes qui marchent ne fonctionnent qu’un temps.