votre avatar

sr17

est avec nous depuis le 26 décembre 2005 ❤️

4322 commentaires

Le 05/02/2016 à 00h 23







Konrad a écrit :



Ben ouais et je vais te sortir le même argument que toi sur l’autre news : « oui mais Linux c’est 1,74% du desktop mondial, ça représente plusieurs dizaines de millions de gens !! À Cuba ça atteint presque 10%, et chez moi c’est même 100%, alors c’est dire si ça fait du monde hein !!! » <img data-src=" />



Au-delà des discussions autour des parts de marché (tout le monde voit les mêmes pdm mais n’en tire pas les mêmes conclusions <img data-src=" /> ), ce qui me gêne davantage c’est quand un éditeur annonce qu’il va développer pour une plate-forme, et que plusieurs mois plus tard il dit « ah finalement non ». Bonjour la cohérence… Dommage.







En même temps, il n’est pas certain que ce genre de jeu très grand public et pas libre soit vraiment plébiscité sur le marché Linux.









Le 04/02/2016 à 23h 09







serwol a écrit :



Encore une bonne chose pour dévaloriser les métiers de l’informatique et du dev en France… Déjà que les postes sont de plus en plus payés au lance pierre, là ça va clairement être la fête…



C’est quoi le message qu’ils veulent faire passer en fait ? En gros n’importe quel glandeur de banlieue qui fout rien de sa vie peut devenir dev en 3 mois ? Et bien ça promet, ça va redorer l’image des dev auprès des recruteurs et des entreprises…







Vous savez, ça ne sera pas la première fois qu’on voit du dumping sur le marché de l’informatique.



Comme d’habitude, tout ce qu’ils vont gagner, c’est une hécatombe de véritables professionnels qui vont changer de métier ou se tirer ailleurs. C’est l’éternel problème du marché informatique qui passe régulièrement d’un extrême à l’autre entre dumping et manque de compétences pointues.



Et quand ils n’auront plus que leur armée de “stagiaires professionnels” formés en 3 mois… et personne pour régler les vrais problèmes. Et bien comme d’habitude on va se marrer…et gagner des brousoufs.


Le 03/02/2016 à 22h 46







saladiste a écrit :



Si on crée un langage qui se positionne dans le même segment que le C++, on va juste réinventer le C++.







Des langages qui visent d’autres segments, il y en a une foultitude… et c’est en augmentation constante…



Le segment du C/C++ est le seul segment ou le même langage domine depuis aussi longtemps. Et ça n’est visiblement pas prêt de changer.





Les gens à qui le C++ pose problème ont en général des lacunes en théorie informatique et algorithmique, car on peut très bien faire de la POO en C struct obj; obj_alloc(struct obj); obj_init(struct obj, args); ret_t obj_method(obj*, args); etc….



Globalement, la programmation générique en C++ manque encore de souplesse et de puissance et donne un arrière gout de “beta” prometteuse et puissante, mais mal finie…



Et d’une manière générale, beaucoup de spécialistes du C reprochent aux mécanismes du C++ de faire trop de choses dans le dos du programmeur et de laisser trop de liberté au compilateur d’implémenter des choses de manière peu standardisée. Il est vrai que l’esprit du C aurait pu être mieux respecté.

Tout cela sans compter la norme qui n’évolue pas toujours dans le bon sens (voir la déprecation du mot clé “inline”).



Ma conclusions personnelle, c’est que C++ est un langage fabuleux, indispensable et sans concurrence. Mais le concept dispose encore d’une marge de progression non négligeable…



Dommage que tous les créateurs de langages se battent aujourd’hui pour la palme du langage le plus facile, sécurisé, infantilisant et peu performant.


Le 03/02/2016 à 01h 11







TheDidouille a écrit :



j’aime pas que l’on site le “C/C++” pour parler du C++. Le C++ pose des centaines de problèmes que le C n’a pas, de plus avec les nouvelles norme du C++ il devient quasiment impossible d’appeler du code compiler avec un ancien compilateur C.



 Le C++ est acceptable si tu n’en utilises qu’un sous ensemble (pas de template, éviter le RTTI …). Combien de code ne fonctionne plus parce que tu as juste changé le niveau du compilateur…







La partie C++ a toujours soulevé des grands débats. Et à juste titre IMHO.



Et tous les bons programmeurs sont conscients qu’il faut faire un usage avisé des fonctionnalités de C++ suivant le contexte visé.



Mais cela ne signifie pas pour autant que tout soit à jeter dans C++ ni qu’il faille parler de C et de C++ de manière dissociée (C++ supporte les fonctionnalités de C).



D’ailleurs, depuis le temps que tout le monde critique C++, je note personne n’a été fichu de pondre quelque chose de mieux.

Une pléthore de langages sont apparus, mais rien qui soit en mesure de se positionner en vrai concurrent de C/C++. D’ailleurs, ce n’est pas Go avec son bound checking et son ramasse miette qui pourra prétendre à lui faire de l’ombre.


Le 03/02/2016 à 00h 23







Pazns a écrit :



Merci de ne pas me faire dire ce que je n’ai pas dit :-)

Je suis toujours ravi d’entendre des trucs à propos de Go, mais il faut quand même qu’un tel article ait un intérêt. Ici c’est assez limité, franchement, pour se retrouver dans la ligne éditoriale de NextINpact, vis à vis de ce à quoi on est habitué.

Ceci dit, ce n’est pas la première fois que je sens une certaine orientation dans des articles sur des technos ; je le comprends tout à fait (on a tous des centres d’intérêts, les rédacteurs aussi), cependant j’ai bien le droit de le faire remarquer.



Vous ne vous servez peut-être pas de PHP, mais quand même, faire un article sur cette “mise à jour” de Go aussi long ou presque que la mise à jour majeure PHP7, réellement importante dans l’industrie du web, et de l’informatique en générale à cause de l’utilisation massive de PHP, je trouve ça un peu costaud.

Le jour où Go aura également une màj majeure, je serai ravi de lire un article, peu importe sa longueur.

J’ai pris l’exemple de PHP car il m’avait marqué, mais c’est valable avec d’autres articles dans le coin, j’imagine.

Si on me demande le souci selon moi, je répondrais que l’article sur PHP était trop court. Pas que celui-ci sur Go est trop long.







Je suis d’accord avec toi.



La base d’utilisateurs de ce langage GO doit être relativement faible à l’heure actuelle.





Le 02/02/2016 à 15h 44







brazomyna a écrit :



Dans son cas, c’est surtout la question d’accepter la diversité des points de vue, des besoins et des centres d’intérêts qui pose manifestement problème…







Pour ma part, je trouve également que c’est intéressant de parler de choses diverses et variées.



D’un autre côté j’aurais aimé un peu plus de recul dans l’article.



Parce que tous les connaisseurs tiqueront sur la comparaison avec le C d’un langage qui utilise le boundchecking et une gestion mémoire par ramasse miettes alors même que ces fonctionnalités font justement partie des points de clivage fort entre le C et d’autres langages tels que C#.


Le 01/02/2016 à 23h 25







gokudomatic a écrit :



Mais c’est là qu’apparaît un paradoxe. Avec un code pragmatique mais sale, tu obtiens une certaine performance. Avec un code académique et lisible, il est possible que tu voies une amélioration possible dans le principe de l’algorithme. Et vu que c’est lisible et propre, la modification peut se faire facilement. Et du coup, il se peut que tu puisses grandement améliorer les performances. Avec un code sale, par contre, vu que c’est peu lisible, c’est aussi difficile de voir un problème dans l’algorithme, et aussi de faire une modification. Du coup, tu es un peu bloqué dans tes choix initiaux.



Maintenant, la différence entre le sale code et le code bas niveau, c’est que le code bas niveau peut être bien pensé. Mais il reste tout aussi peu lisible et coûteux à maintenir/modifier. Tu tombes donc un peu dans la même impasse.







D’une manière générale, quand on écrit du code de bas niveau, c’est parce qu’on écrit un logiciel (ou une portion de code) ou les performances s’avèrent importantes… et que le gain(qui peut s’avérer colossal dans certains cas) en vaut la chandelle.



Mais il va de soi qu’il faut soigneusement étudier l’algorithme au préalable pour être raisonnablement sûr d’avoir épuisé toutes les possibilités de ce côté la.



En pratique il est rare d’utiliser ce style de programmation pour un programme dans son ensemble. D’où l’utilité de langages qui permettent aussi bien de faire du bas niveau que de l’abstraction.


Le 01/02/2016 à 22h 57







lothoaheur a écrit :



Dans mon cas, et la plupart des personnes en physique des hautes énergies, je n’ai pas de formation en programmation poussée. Tout au plus des cours de modélisation numérique. 80% de ce que je connais en C++ je l’ai assimilé en tâtonnant.







En même temps, ce n’est pas une mauvais école même si cela prends du temps.





Et dans cette situation, bien utiliser le C++ est une illusion ! Ça demande plusieurs années de formation et travail !





Il n’y a pas de secret, la programmation, c’est un métier. Et il y a beaucoup de choses à savoir car l’ordinateur est un objet très complexe.



C/C++ est un langage qui est conçu pour donner un maximum de puissance et de contrôle. Mais en contrepartie, il demande plus de connaissances sur le fonctionnement des ordinateurs que d’autres langages. Du moins en apparence, car en réalité, ces connaissances sont également requises pour coder correctement dans n’importe quel langage.



Paradoxalement, un bon moyen de comprendre plus rapidement le C/C++ c’est de faire du langage machine.





Parfois pour simplement implémenter un effet dans la simu sur laquelle je bosse, je passe plusieurs jours à me battre pour avoir le résultat attendu. Au prix de manip sales qui rendent mon code brouillon et moins performant.





Logiquement, vous devriez payer au moins un informaticien, soit pour faire le travail, soit pour vous former et vous enseigner le savoir faire adéquat.



Prenez n’importe quel métier, mettez y quelqu’un qui ne connait pas, vous obtiendrez (au moins au début) un travail perfectible.



On dirait que lorsqu’il s’agit d’informatique, dans l’esprit des gens, un débutant devrait être en mesure savoir tout faire.





Ensuite les problèmes de compilation (plus précisément de linkage <img data-src=" /> ) ça devient vite galère quand tu utilises des libs qui dépendent d’une autre libs et celles qui appellent du fortran … tu deviens vite fou !





Quel que soit le langage utilisé, tu rencontrera des difficultés quand les dépendances sont nombreuses et variées et qu’il faut mixer les langages.



Certains langages modernes peuvent donner l’impression de simplifier la gestion des dépendances, mais cela n’est vrai qu’en apparence, c’est à dire jusqu’au jour ou tu aura un problème et que tu sera encore plus dans la mouise parce que la facilité signifie que tu maîtrisera encore moins les problèmes.





Donc oui, dans ce cas précis, le gain en simplicité du Go compense largement son manque de perf





C’est toujours l’éternel débat en informatique. Est ce qu’on préfère un langage simple ou un langage performant.



Et la vraie réponse est : tout dépends des usages.


Le 01/02/2016 à 14h 58







lothoaheur a écrit :



Un langage simple à prendre en main mais avec des perfs proches du C je prends direct ! Dans le domaine scientifique c’est carrément un plus!



Je passe pas mal de temps à coder, dont une simulation axée sur les performances et je m’arrache souvent les cheveux en C++. Ce langage devient vite ultra complexe dès que l’on s’attarde à “bien coder” et à chercher les performances, sans compter les casse-tête qu’on a à la compilation !







C’est une plaisanterie ?



C/C++ est certainement l’un des langages qui permet de garder un style de programmation le plus propre quand on veut un minimum de performances. Comparativement à d’autres langages, il minimise grandement le coût de l’abstraction.



Quand à la compilation, il n’y a rien de spécialement compliqué en C/C++. Mais comme tout langage, le C/C++ a ses spécificités et son style qui doit être appris et compris.



Pour le reste, quand on veut des performances, on est toujours obligé de sortir des styles de programmation “académiques”. Et cela n’a rien à voir avec le langage de programmation utilisé.



Le “bien coder” appris dans les écoles n’est pas orienté performances…





Un langage qui associerait simplicité et flexibilité de Python avec les performances du C me simplifierait tellement la vie pour ma thèse … Il manque juste les libraries scientifiques au Go …





En même temps, il ne faut pas rêver. Pour avoir des performances, il faut taper à bas niveau. Tout le contraire de ce qu’un langage “simplifié” permet…


Le 30/01/2016 à 20h 56

C’est hallucinant de voir le nombre de gens qui tirent des conclusions complètement erronées d’une telle news. C’est pourquoi je pense que dans un tel article, le contexte devrait être mieux expliqué pour le profane. Parce qu’un non informaticien n’a aucune chance de se faire une idée valable.



D’abord, parlons d’un paradoxe : quand on découvre des failles dans un logiciel dont le code est autant scruté, c’est bien parce qu’il y a des personnes qui ont travaillé très dur à cela. C’est plutôt un signe de sérieux et de bonne santé.









Moff Tigriss a écrit :



Il y a un truc très con aussi : OpenSSL a longtemps manqué d’argent, et n’a jamais eu les moyens de nettoyer son code, ni de le réécrire. Alors qu’OpenSSL est utilisé depuis longtemps par la très grosse majorité du web. Après la faille HeartBleed, les géants du net se sont enfin réveillés. Mais OpenSSL est basé sur un code ancien et complexe….







Jusqu’à l’hyper médiatisation de cette faille, ce composant n’avait pas tellement fait parler de lui. Depuis, de grands acteurs y ont consacré des moyens. D’ou paradoxalement le fait qu’on y découvre de nouvelles failles. Ce qui est encore une fois plutôt bon signe.







YesWeekEnd a écrit :



Ça se saurait si le fermé / propriétaire était mieux loti pour la sécu préventive et curative par rapport à l’open source.







Clairement.



D’ailleurs, comme bien souvent dans le libre, la rapidité avec laquelle la faille est corrigée est exemplaire.







Exception a écrit :



Et après il y en a encore pour vanter l’ “open”, ce monde de bandes d’amateurs baba-cool de l’informatique, par rapport au monde certes “fermé et propriétaire” mais qui est composé de professionels, avec les moyens qu’il faut, et qui d’ailleurs n’expose pas son code source donc cache ses failles éventuelles aux pirates.







D’abord, contrairement à une idée reçue, la plupart des programmeurs du libre sont des pro, c’est à dire des informaticiens chevronnés et expérimentés. Et bien souvent, ils sont aussi payés par une entreprise pour faire ce travail.



Et ce que le monde du libre peut compter d’ “Amateur” qui font cela pour le plaisir apporte aussi énormément dans la mesure ou leur vision est justement détachée des contraintes de productivité et de planing qui ne sont pas toujours bonnes pour la qualité.


Le 30/01/2016 à 01h 20







Lafisk a écrit :





Malheureusement, ce n’est pas du tout ce que j’avais en tete, meme si sur le fond je suis d’accord la aussi.



Je pensais plus au fait que le jour ou cette singularité arrivera, nous n’aurons pas d’autre choix que de la reconnaitre comme une nouvelle forme de vie. Je parle d’une veritable IA et c’est pas des trucs comme les lois d’azimov qui vont empecher qu’elle voudra prendre son independance.







Tout à fait.





En cela les IA, sans etre aussi sophistiquée que celle dont je parle juste au dessus, pourront nous aider, l’automatisation du travail fera en sorte qu’un jour nous n’auront plus besoin de travailler et nous devrons revoir notre modele economique qui est lui deja bien a l’agonie depuis longtemps





Je dirais même que cela fait longtemps que le modèle économique aurait du être revu. Le chômage actuel n’est pas le fruit du hasard.





(je suis honnetement surpris que le monde ce laisse mené a la baguette, par 1% de la popuplation, comme il le fait depuis si longtemps et surtout aujourd’hui)





Oui, c’est étonnant, mais pas autant qu’on pourrait le penser.



Le problème, c’est que malgré la modernité, l’homme conserve la culture moyenâgeuse du temps de la terre qui se travaillait à la main : il faut se lever tôt, travailler dur pour obtenir, gagner le droit d’exister.



Ces idées obsolètes sont un terrain idéal pour les esclavagistes modernes qui tirent parti du déséquilibre croissant entre l’offre et la demande sur le marché de l’emploi.


Le 28/01/2016 à 20h 40







Lafisk a écrit :



Ce n’est pas parce qu’il y a de la marge que le “debat” doit etre remis a demain … bien que de mon avis debattre autant que;on veut, on peut mais cela ne changera rien au résultat final …







Je suis d’accord, d’autant que certains problèmes posés par la technologie vis à vis de l’humanité sont déjà une réalité tangible.



Comme tu le souligne, le problème, c’est qu’il y a bien peu de chance d’y changer grand chose dans le monde actuel. Un monde gouverné essentiellement par les intérêts financiers.



Tout ce que l’on peut souhaiter, c’est que la vision humaine évolue. Et qui sait, avec les problèmes actuels, le monde retrouvera peut être une vision plus saine dans les décennies à venir. C’est en tout cas ce que l’on peut souhaiter.


Le 27/01/2016 à 17h 31







wince a écrit :



et on vas en faire quoi de ces “neurones” ? si c est pour les utiliser encore plus mal que les notres le monde s en vas dechoir a vitesses grand V !!! armement,guerre cyber,cryptage decryptages robotique..bref on vas donner naissance a des Monstres dont on aura plus capacité a reguler ni controler car elle n auront plus de limites et meme si on leur met des “limites” ou des lois de ne pas s en prendre aux humains elles auront toujours un piratain pour en detourner le sens et donc les neurones auront appris d elle meme a detourner ces protections et ensuite meme a detourner les commandes exterieur “nous” pour ne plus pouvoir les contoller … bref un genre de skynet 



on a deja du mal avec nous qui avons une conscience et une moral imaginez des machines …SCIENCE SANS CONSCIENCE !!

EINSTEIN A LUI MEME APPRIS DE SA FORMULE EMC2 EN DEVENANT LE PLUS FAROUCHE DÉFENSEURS DE LA PAIX …MAIS VOILA LE MAL ETAIS DEJA LA ET BOUM HIROSHIMA ETC ETC 



PS: ne me parler pas de génétique soignante du cancer etc …ca créera encore plus de problèmes ..car cela ne sera pas fait pour la paix l altruisme ou l emancipation de l humain …bref comme Pandore nous ouvrons des voies qui ne seront plus reffermable a moins d aller au bout du bout de la folie du mental egotique et donc la







Tu devrais faire un peu d’IA, tu verra qu’avant que ces trucs ne deviennent une menace pour l’humanité, il y a encore de la marge. Parce que “intelligence artificielle”, il faut le dire vraiment très vite. En pratique, c’est tellement limité qu’on a pas encore réussi à en faire grand chose. (Et pourtant, les réseaux de neurones, c’est vraiment pas nouveau.)



Cela dit, un jour, ça pourrait devenir vrai, mais ce n’est pas encore pour aujourd’hui.



Reste que je suis d’accord sur ta réflexion sur les technologies. Dans sa fuite en avant vers la technologie et l’argent, l’humanité risque de finir très mal.


Le 27/01/2016 à 14h 14

Au passage, ceux qui font encore la confusion entre Open Source et Logiciel Libre, c’est le moment d’utiliser l’ami Google <img data-src=" />


Le 27/01/2016 à 14h 12







pentest a écrit :



Microsoft sent le vent tourner contre lui. IL fera tout et n’importe quoi pour ne pas disparaitre dans les souvenirs et l’histoire du monde.



Pauvre microsoft, ce virus de l’informatique,  s’accrocher autant a la vie …



Adieu et sans regrets.







En même temps, l’essor du logiciel libre est assez récent et ce nouveau modèle impose des changements radicaux qui ne sont pas évidents à intégrer du jour au lendemain par des entreprises aussi grandes que Microsoft.



Aucun PDG n’aurait d’ailleurs pu amorcer un virage vers le libre à l’époque ou leurs logiciels dominaient le monde de l’informatique. Les actionnaires n’auraient pas suivi.



Même si le chemin entre Microsoft et le libre est encore long, on ne peut que saluer la vitesse impressionnante avec laquelle cette entreprise évolue sous l’impulsion de son nouveau PDG.



Et ne crachons pas dans la soupe, un logiciel libre est un logiciel libre. Et s’il est estampillé Microsoft, tant mieux. C’est plutôt un signe de bonne augure.





Le 30/01/2016 à 00h 59







MacGuiPro a écrit :



….

Vu l’origine des modifications du code de Linux (&gt;75% américain), je me permet de considérer cet OS comme étant sous l’hégémonie américaine, et donc incompatible avec la notion d’indépendance française ou européenne.







Il y a plusieurs questions à se poser vis à vis de tels chiffres.



La première, c’est de savoir si c’est réellement important dans la mesure ou les licences libres ne génèrent pas du tout les mêmes effets bloquants que les logiciels propriétaires. Un contributeur est américain ? Et alors… tant mieux… puisqu’il bosse aussi pour nous…



La seconde, c’est de se demander pourquoi nos industries européennes sont à ce point en retard sur Linux.



Si tu veux mon avis, ce n’est pas en se trompant de direction et en allant vers une voie sans issue que l’on confortera l’indépendance française. Si nous sommes dans la merde, c’est parce que pendant des années, nous avons investi l’argent du contribuable de manière peu utile.



La vraie dépendance actuelle, c’est le matériel qui n’est ni libre, ni ouvert ainsi que tout ceux qui utilisent encore des logiciels propriétaires.


Le 30/01/2016 à 00h 50







MacGuiPro a écrit :



Je ne suis pas sûr que le coût du développement d’un OS “à minima utilisable” soit plus cher que le coût d’une centrale nucléaire.







C’est quoi un Os à minima utilisable ? Un Os sans couches réseau, sans aucun support matériel, sans gestion des protocoles, sans logithèque ?



Et oui, le cout d’un Os aux standard d’aujourd’hui c’est bien plus que celui d’une centrale nucléaire : Années après années, le code s’accumule pour former une véritable cathédrale. Du fait de sa nature immatérielle, le monde du logiciel peut facilement accumuler plus de valeur avec le temps que toutes les créations physiques jamais réalisées par l’homme. Dans le temps, cela tendra à s’accumuler toujours plus.





Que ça soit moins rentable que d’acheter des licences et du support (Windows, Linux, et à plus forte raison OSX vu les coûts d’Apple <img data-src=" />), ça c’est acquis.





Pour Linux, nous disposons en France des compétences nécessaires pour n’avoir à payer ni licences, ni support.





Mais nous avons des gens qui travaillent sur des noyaux industriels de dizaines de milliers de lignes de code, voire de centaines de milliers,





Jette un coup d’oeil au nombre de lignes de code d’un noyau comme Linux, tu comprendra que ce n’est pas du tout la même chose. Et encore, on ne parle que du noyau…



Au passage, des noyaux, il en existe des centaines sur le marché. Mais il y a une différence entre un “petit” noyau dédié pour des applications embarquées et un noyau généraliste capable d’assurer un grand nombre de tâches à haut niveau.





qui ont des compatibilités avec des programmes tiers, bref, tout ce qui fait un OS, mais avec des capacités que la plupart des Linux n’ont pas (sûreté de fonctionnement poussée, cadencement par le temps strict,…). J’ai pu travailler dans des laboratoires qui développaient de tels OS, et c’est à mon sens tout à fait utilisable pour créer une base technologique en France.





Pour avoir beaucoup étudié le fonctionnement des Os et des noyaux, je peux t’assurer que ce n’est pas aussi simple que cela. Un noyau temps réel n’est pas mieux dans l’absolu qu’un autre qui ne l’est pas. Ce n’est juste pas le même usage.

Quand à la sécurité de fonctionnement, le noyau n’est pas seul responsable du problème.

Il y a également des problèmes conceptuels. Par exemple, un micro noyau constitués de serveurs isolés les uns des autres est fondamentalement plus sûr qu’un noyau monolithique. Sauf qu’au niveau des performances, on perds beaucoup trop dans les context switch. Voir l’échec de Hurd, mais également tous les travaux autour de L4.





Après restent les problématiques de tout ce qui fait un OS “user friendly”, l’IHM, les drivers,… Rien n’empêche de faire un wrapper pour des drivers Linux (un genre de WINE pour driver), ce qui demande un peu de travail, mais n’est pas hors de portée de notre industrie du logiciel.





A bas niveau, les choses ne sont pas aussi simple qu’a haut niveau ou l’on ponds des couches d’abstraction pour résoudre les problèmes de compatibilité. Ce n’est pas fondamentalement impossible, c’est juste que tu va y laisser tellement de performances que tout le monde se moquera de ton os asthmatique.



Et si au fond, tout ces efforts c’est juste pour aboutir à un noyau “compatible linux”, on ne fera que conforter l’hégémonie de Linux.





Bref, oui Linux, OSX, Windows ont des années de développement derrière eux, et c’est impossible pour un pays comme la France de les rattraper de but en blanc (en gros, sortir un French OS à la FNAC qui se vende mieux que Windows -même le 10 <img data-src=" />-, c’est hors de question). Par contre, faire un projet basé sur des bases franco-françaises, fonctionnant sur une portion du hardware (pourquoi pas un µcontrôleur ARM pour commencer, avant de passer à un CPU 100% français), à mon sens c’est jouable. C’est chaud, mais c’est jouable. Et ça va demander la concertation de beaucoup de labos et d’industries (avec toutes les inefficacités que ça implique).





Si au final on dépense des dizaines de milliards d’euros juste pour pondre un truc moins bien que Linux et que personne ne voudra utiliser, les américains se foutront juste de notre gueule. Et ils apprécieront l’avantage que notre échec leur apportera…

Nous endetter pour financer un truc inutile serait un véritable cadeau pour la concurrence.



Qu’il y ait une part importante de contribution américaine dans le noyau Linux est t’il vraiment un si grand inconvénient pour nous ? Il faut réaliser que c’est également un avantage puisque nous récupérons gratuitement une puissance de travail énorme que nous ne pourrions jamais payer.


Le 30/01/2016 à 00h 11







MacGuiPro a écrit :



Sinon mettons l’Europe à contribution. Si la France n’arrive pas à développer un OS un tant soit peu utilisable (faut-il rappeler que nous l’avons fait dans les années 80 avec des boîtes comme Thomson ou Goupil).







Sauf que dans les années 80, un Os n’avait vraiment rien à voir avec ceux d’aujourd’hui. Mais à l’époque, on aurait bien pu réussir. Nos machines nationales ont malheureusement pâti de mauvais choix.





On n’est vraiment pas obligé de faire un noyau aussi gros et complexe que le noyau UNIX. Déjà, si on limite le hardware exploité on limite de facto les drivers (rien n’empêche d’ouvrir le noyau à l’ajout d’autres drivers si une éventuelle communauté le désire).





Ce qui le rendra de facto inutilisable s’il ne supporte quasiment aucun matériel existant.





Pour moi (et c’est mon opinion), rendre les armes et se lancer dans le développement de Linux c’est abandonner toute idée d’indépendance vis-à-vis des grands fournisseurs de matériel (qui l’ont bien compris en investissant dans le libre, ils ne font pas ça pour la beauté du geste, même s’ils le disent).





Non, le vrai problème par rapport aux grands fabricants de matériel, ce n’est pas qu’ils supportent Linux, c’est que nous ne sommes pas capables de produire l’équivalent. Pour lutter contre cela, ce n’est pas dans Os qu’il faut perdre notre argent…





C’est à ce sens que je trouve Linux particulièrement dangereux pour l’innovation. En acceptant un noyau unique, on se prive des options exotiques (et parfois viables) qu’on pouvait développer. Si on bride nos industries à “faire juste des apports à un système existant”, on est condamnés à moyen terme au bon vouloir de quelques grosses entreprises (dont les GAFAIM qui n’attendent que ça, mais pas que).





En informatique, réinventer la roue est comme partout une perte de temps et d’argent.



Pour rappel, Linux est loin d’être le seul noyau existant dans le libre.





Vu l’origine des modifications du code de Linux (&gt;75% américain), je me permet de considérer cet OS comme étant sous l’hégémonie américaine, et donc incompatible avec la notion d’indépendance française ou européenne.





Sauf que le libre ne fabrique pas de l’hégémonie.



Et si d’aventure la France créait un noyau qui ait un succès mondial, on se retrouverait certainement dans la même situation pour la simple raison que les américains sont plus nombreux que les Français.


Le 28/01/2016 à 21h 58







MacGuiPro a écrit :



Je ne parle pas de verrouiller, je suis pour l’utilisation de formats d’échange ouverts. Je ne parle pas de réinventer internet, il y a des standards (HTML, CSS,…) qui existent et qui doivent être utilisés. Pareil pour les documents (OOXML,…).



Et je n’en ai rien à faire que le péquin moyen n’ait pas envie d’acheter cet ordinateur hypothétique. Si le peuple le veut, tant mieux, sinon il reste avec ses machines GAFAIM. Que je sache les ordinateurs occidentaux se vendent (et même bien) en Chine, c’est juste qu’il existe une alternative indigène. Et c’est cette alternative que je veux créer. Ca demandera une bonne intervention de l’état (la Chine le fait, c’est certes communiste comme régime, mais ça n’est pas non plus la Corée du Nord).



Et la France est la 5 ou 6ème nation (selon les comptages) au monde. On a pu développer des sous-marins nucléaires, des centrales, des avions,… Pourquoi on serait infoutus de faire un peu de logiciel ? On a des centres de recherche pas si mauvais (INRIA, CEA,…), qui ont des compétences fortes en hardware et software. Alors, oui, si on concentre un peu ces forces on a une puissance de frappe, certes inférieure aux GAFAIM, mais respectable.



Je comprends bien que la tâche est ardue (écrire même un semblant de Windows 95 c’est pas facile), mais à mon sens elle est nécessaire. Après je me trompe peut-être, mais tu n’as pas non plus la vérité absolue sur ce que peut faire ou non la France.







Sauf que vous semblez ne pas réaliser qu’un Os et sa logithèque, cela coûte bien plus cher à créer qu’une flotte de sous marin nucléaires. Ce que vous appellez “un peu de logiciel”, c’est une catédrale de code qui comptes des millions de ligne et qui est le fruit d’un nombre impressionnant de personnes qui travaillent depuis un nombre considérable d’années.



Certains n’imaginent pas le nombre effarant d’années-homme qu’il y a dans un Linux et sa logithèque. Et surtout, la somme colossale qu’il faudrait aligner pour créer l’équivalent.



Nous avons d’excellents spécialistes à l’INRIA, au CNRS et au CEA, mais ce n’est pas quelques spécialistes aussi compétents soient t’ils qui suffiront à une tâche aussi colossale.


Le 28/01/2016 à 21h 16







MacGuiPro a écrit :



C’est marrant, mais les processeurs Longsoon marchent plutôt bien, s’exportent même. Alors oui, par rapport à Intel ils sont à la ramasse, mais c’est la preuve que quand un pays veut, il peut s’en donner les moyens. Un peu de protectionnisme (au hasard, on s’accapare le marché des administrations de force) est possible.



Pour moi si la France met le budget elle peut sortir quelque chose de pas mal, et qui remplisse un job, à savoir laisser les traitements informatiques de base de l’administration à du matériel et logiciel français.





Après je diverge sur l’origine du logiciel (où pour moi il est important de faire confiance aux talents français pour sortir du moule et créer quelque chose de nouveau plutôt que d’adapter une nouvelle fois un logiciel existant. On a des chercheurs capables en France), d’où une partie du débat.







Et je ne vois vraiment pas en quoi vouloir faire un OS national est similaire à ce qui va tuer Microsoft et Intel (d’ailleurs, qu’est-ce qui va les tuer et les remplacer ? Le Open Hardware et Linux ?  Je suis curieux de comprendre <img data-src=" />).



Créer un Os français n’est pertinent que si c’est une façon de pousser vers l’utilisation de Linux.



Le problème, c’est que si nous réalisons VRAIMENT un nouvel Os français de A à Z, nous serons les seuls à y consacrer des ressources. Il sera impossible d’y mettre assez d’argent pour atteindre seulement le niveau de Linux et Bsd.



Avec la logique du libre, ce sont tous les pays du monde qui mettent en commun leurs ressources de développement. Et Il est tout simplement impossible de luter contre une telle puissance de travail. Les unix propriétaires y ont déjà succombé. Et même Windows ne pourra pas luter éternellement.



L’enjeu pour la France, c’est bien de se diriger vers Linux et son modèle de développement international, communautaire et neutre. Et pourquoi pas impulser un mouvement similaire pour le matériel afin de contrer l’hégémonie des deux grandes entreprises américaines sur le matériel des ordinateurs personnels.



Le 28/01/2016 à 00h 40







TexMex a écrit :



Heu… tu mets pas du Blender et de l’OpenCL comme ça non plus. Le support des cartes AMD n’est pas optimum pour plusieurs raisons.  Si tu veux exploiter ton matériel à fond; il y a encore du chemin. Pour le bureau 2D ça ira, mais bon, c’est moins ça pour AMD ces derniers temps. Nvidia supporte mieux ces cartes sur Linux en ce moment. Avant AMD tenait le haut du pavé maintenant c’est Nvidia. Demain???







Clairement, le support des cartes AMD sous Linux est moins bon que celui de NVIDIA.



Mais il n’empêche que ça fonctionne assez correctement pour s’en servir à longueur de journée. Et ça fait quand même beaucoup plus que de la simple 2D.



En 3D, ça fonctionne aussi même si la vitesse reste en deçà des possibilités de la carte. Des softs de CAO tournent correctement, même avec les drivers libres.



Le 27/01/2016 à 17h 25







trekker92 a écrit :





ils ont surtout pas le devoir d’apprendre a installer des logiciels, ce sont des utilisateurs, ils veulent du qui-marche tout-cuit.









Ben justement, le “plug and play” sous Linux fonctionne vraiment très bien.



La seule condition c’est de choisir du matos compatible. Une petite vérif sur le web avant achat, ça change VRAIMENT tout.



C’est LE réflexe que les gens doivent apprendre pour Linux.


Le 27/01/2016 à 17h 22







yl a écrit :





Pour les drivers, il n’y a bien que les cartes graphiques qui en posent encore. …







En pratique, même pas.



Même l’AMD qui est assez décrié sous nux, j’ai pas de gros soucis, même avec un bi écran.



Le 27/01/2016 à 17h 19







trekker92 a écrit :





bon courage pour installer une webcam à l’endroit (cf toshiba/hp) sous nux;.. et j’imagine meme pas pour les imprimantes usb… good luck really, les impr sous nux c’est la cata.

ya une entité publique qu’a annulé sa migration à cause de ca







Chez moi, les Webcam sous Linux, je branche et ça marche. Pas même besoin d’un quelconque driver.



Et les imprimantes, à partir du moment ou tu choisit un modèle compatible, ça fonctionne aussi les doigts dans le nez, même en réseau.



D’ailleurs, que ça soit pour le dernier Windows ou pour Linux, la clé, c’est toujours de choisir du matos compatible.



Le 27/01/2016 à 17h 11







MacGuiPro a écrit :



OK, donc on reste avec du logiciel américain. Si c’est pour faire un n-ième fork de Linux, effectivement, pas d’intérêt de dépenser nos impôts là-dedans. <img data-src=" />







On ne peut pas parler de logiciel américain.



Quand bien même les américains ont une contribution importante, le libre, c’est le fruit de développeurs du monde entier.



Quand bien même ce sera une distribution Linux de plus, elle aura des intérets spécifiques pour nous français tout en officialisant le choix du libre, c’est à dire d’aller vers un modèle moins dépendant des USA et plus international.



Car justement, notre intéret de petit pays, c’est de pousser vers la voie d’un os mondialement mutualisé et non sous la coupe d’un unique pays dominateur.





Pour le processeur je suis d’accord, mais pour moi matériel + logiciel ça serait l’idéal. Pas besoin de faire beaucoup (la Chine arrive bien à sortir des ordis à moins d’1 GHz), tout comme on n’a pas besoin d’un OS qui fasse des tas de choses en 3D pour l’administration. Je pense qu’il n’est pas encore trop tard pour repartir sur des bases saines, mais nettes (i.e. : Pas un Linux, mais un OS POSIX from scratch).





Quel intérêt de faire un Os quand il y a d’excellents noyaux libres disponibles : Linux, Bsd, Hurd…



Cela n’aurait d’intérêt effectif que si au niveau recherche quelqu’un aurait l’idée d’un meilleur concept.



Mais il faut garder à l’idée qu’on ne fera jamais un Os complet. Parce qu’un os, ce n’est pas juste un noyau…



D’ailleurs à propos de la 3D, tous les gestionnaires de fenêtrage moderne en ont besoin…


Le 27/01/2016 à 16h 59







trekker92 a écrit :





en soit linux sur papier c’est bien. Mais répandu à grande échelle courage, déjà pour moi qui me suis imposé nux partout depuis trois ans sur quelques machines, résoudre les anomalies est un travail a plein temps, nécessitant obligatoirement des ressources externes (forums, mails) pour parvenir à parfois les régler.









Et si tu commençait par acheter des machines certifiées pour Linux…


Le 27/01/2016 à 16h 49







MacGuiPro a écrit :



Jusqu’ici je n’avais pas parlé de propriétaire ou libre. Maintenant à mon sens repartir sur du Linux ça n’avance pas l’indépendance du pays (pour les raisons que j’ai évoquées plus haut).







Je ne suis pas d’accord parce qu’objectivement, le fait d’avoir une licence libre est un gros progrès pour notre indépendance. Peu importe de savoir qui a développé un logiciel libre, on peut le forker quand on veut et pas de licence à payer…





Faire du libre pourquoi pas, mais avant tout faire du français, donc différent de ce qu’on trouve sur le marché actuellement. On a suffisamment d’universitaires, chercheurs et industriels dans l’embarqué pour réussir à faire mieux qu’adapter un OS américain. Un peu d’envergure que diable.



Ca va coûter cher, certes, mais le jeu en vaut probablement la chandelle.





Non, le jeu n’en vaudra pas la chandelle. Créer un Os n’est pas trivial : On a 99% de chance de ne pas faire mieux que réinventer la roue et dans le cas contraire, au moins 95% de chances de se vautrer. Il n’y a d’interet à créer quelque chose que si on a l’idée de mieux.



Et il faut être réaliste, ni la France, ni aucun pays du monde n’aurait aujourd’hui les moyens de développer un Os et sa logithèque.



D’ailleurs, pour quel intérêt ? La licence d’un soft est aujourd’hui bien plus importante que son origine.



De toute façon, avec le libre, le développement a vocation à devenir de plus en plus international, donc à devenir neutre. C’est le modèle qu’il faut pousser en avant : un logiciel qui est fait par tout le monde mais qui n’appartient à personne et ne donne du contrôle sur les autres à personne.



Par contre, il serait bien plus intéressant d’investir de l’argent pour créer un Microprocesseur Français.


Le 27/01/2016 à 16h 30







MacGuiPro a écrit :



Le tout est de savoir envers quoi les dépendances vont être créées. Si c’est pour faire un Windows à la Française, bien propriétaire, les seules dépendances seront envers les entreprises (françaises, on peut l’espérer) et/ou les services de l’état en charge de cet OS.



Personnellement ça ne me dérange pas que l’administration française ait une dépendance à un OS français et à des services de l’état.







Pourquoi un Os français serait t’il forcément propriétaire ? qui as parlé de faire un Os propriétaire ?



D’abord, ce serait suicidaire de faire du propriétaire quand tout le monde se met au libre.



Et de toute façon, nous n’en aurions même pas les moyens : Rien que l’équivalent de Linux ou Windows demanderait d’investir des milliards d’euros… que nous n’avons pas. Et cela sans compter le prix immense (des dizaines de milliards d’euros) qu’il faudrait investir pour créer une logithèque.



Ajoutons que ce n’est pas le tout de faire un Os, encore faut t’il trouver des ressources en compétences et une base de logiciels, ce qui n’est aujourd’hui possible qu’autour des axes Windows et Linux.



Donc un Os français, ça sera forcément… Linux


Le 27/01/2016 à 16h 26







catseye a écrit :



C’est ce que font des milliers d’entreprises rentables .. comme quoi ça doit pas être une si grosse connerie.

Ensuite si philosophiquement ou techniquement tu as des besoins non rencontrés par les outils Microsoft, Oracle, Adobe ou autre … bha tu regardes ailleurs ce qu’il se fait ou tu le fais toi même, et tu calcules ton ROI, c’est un raisonnement identique dans toutes les entreprises (y compris administrations/gouvernements) …







Bof, dans les grands groupes, c’est souvent l’endroit ou les gens réfléchissent le moins.



Ou plutôt si, ils réfléchissent, mais principalement à leur petite carrière personnelle.



Dans ce cadre, mieux vaut choisir la solution la plus connu parce qu’on risquera moins les critiques quand ça va merder.



Le 27/01/2016 à 16h 20







MacGuiPro a écrit :



C’est en effet logique. On peut le déplorer (ce qui est mon cas), mais les faits sont là.







On peut effectivement déplorer toute hégémonie d’un pays sur les autres car ce n’est jamais l’idéal pour l’équilibre mondial.



Et aujourd’hui, nous avons juste deux choix. Soit de choisir le propriétaire qui renforcera les dépendances, soit de choisir le libre qui les réduira.







Le 27/01/2016 à 15h 07







MacGuiPro a écrit :



Tu as vu qui participe au noyau ? 75% d’entreprises, et hormis Red Hat, il n’y a pas beaucoup de non américaines dans le lot. Ah ben Red Hat est américain, donc en gros plus de 70% de code américain dans Linux.







Ce qui est un peu logique vu l’avance de leur industrie informatique.


Le 27/01/2016 à 15h 03







eliumnick a écrit :



C’est bon MacGuiPro, on a compris que tu étais anti américain. Au passage, change ton pseudo pake il nuit gravement à la crédibilité de tes propos.







Même si ton post ne s’adressait pas à moi, je te répondrait qu’il ne faut pas confondre antiaméricanisme et défense de nos intérêt nationaux.



Antiaméricanisme = être contre toute personne qui serait américaine.



Défendre les intérêts de notre pays = réaliser que les USA sont nos concurrents sur le plan économique et géostratégique. Cela n’empêche nullement d’être ami avec des américains.



Le 27/01/2016 à 14h 58







MacGuiPro a écrit :



Pareil, sauf pour le côté Linux, ça serait encore mieux de ne pas être indépendant de cet OS en majorité développé aux USA (et pire, à un pourcentage non négligeable par les GAFAIM <img data-src=" />).







Au passage, sachez que les français sont assez bien représentés dans la création de logiciels libres <img data-src=" />



Mais l’avantage du logiciel libre, c’est que par sa nature intrinsèque, il limite radicalement la création de dépendance.



Donc au fond, avec le libre c’est beaucoup moins important de savoir qui développe quoi.



C’est bien pour cette raison qu’un pays comme la France (qui n’a pas les mêmes resources qu’un continent comme les USA) a tout intérêt à aller vers le logiciel libre parce que le ration indépendance/moyens est bien meilleur.









Le 27/01/2016 à 14h 45



coté grand public, les parts de marchés d’Ubuntu et Fedora (les distrib Linux les plus populaires sur PC) sont déjà ridicules face à Windows et Mac Os





Les PDM de Linux dans le grand public sont déjà moins ridicules dans les pays ou l’état a fait le choix de recommander son usage. Une “distribution nationale”, même si elle n’est pas utilisée par tous est déjà un acte symbolique très fort.



Cela étant dit, je ne trouve pas pertinent de parler de parts de marché ridicules dans un domaine comme l’informatique ou les changements sont plus souvent brutaux que progressifs.



C’est un domaine ou les grands empires peuvent s’effondrer en seulement quelques mois.

Le 27/01/2016 à 14h 37

C’est amusant de voir tant de gens sur le web trouver l’idée que l’idée qu’un Os français serait risible. Par contre, le fait d’utiliser tous les jours un Os américain ne semble pas tellement les émouvoir.



Comme si le fait de n’avoir absolument aucune ambition était la seule chose qu’ils imaginent pour l’avenir de leur pays.



D’ailleurs, personne ne semble réfléchir aux concepts importants qui pourraient être portés par ce concept d’Os français et c’est bien dommage.



J’y vois personnellement un certain nombre de points positifs :



-Basé vraisemblablement sur Linux, un Os français serait un bon moyen d’entériner le choix du logiciel libre. Se débarrasser de la dépendance aux logiciels propriétaires est un intérêt stratégique évident pour un petit pays comme la France.



-Bien plus qu’un simple coup de tampon, ce pourrait être un Os certifié par nos institutions de contrôle afin de luter contre l’espionnage industriel.



-Une seule distribution Linux à gérer aussi bien pour l’éducation nationale que pour l’administration et les grandes entreprises françaises, cela apporterait une simplification pour le support technique et la maintenance.



Seul impératif, c’est que le travail soit de qualité et qu’il soit respectueux du droit des personnes : pas d’intégration de mouchards ou de backdoors “pour votre sécurité et votre bien”…

Le 29/01/2016 à 21h 13

On pourrait trouver cela bien d’un point de vue sécurité et vie privée, mais il faut rappeler que le HTTPS n’est pas gratuit, tant du point de vue ressources serveur que du point de vue client. La consommation d’énergie du web va encore augmenter alors que c’est déjà un problème.

Le 28/01/2016 à 20h 50



une « marchandisation du corps féminin » qui « dévalorise grandement les femmes, les transformant en biens que l’on jette une fois consommés ».





Si l’on veut réellement luter contre cela, il faut d’abord s’attaquer aux problèmes économiques qui poussent des milliers de femmes à se prostituer faute de trouver d’autres moyens de subsistances.


Le 26/01/2016 à 02h 52







OlivierJ a écrit :



C’est le dilemme usuel du preneur de son, c’était déjà le cas en analogique : le réglage des niveaux pour avoir un certain optimum.

Ce qui est bien avec le CD, c’est qu’on a suffisamment de marge pour ne pas être autant obsédé par le fait de “coller” au plus près du niveau max. Comme je l’ai déjà dit, avec 12 bits (et toujours 44 kHz) on atteint déjà une excellente qualité et une dynamique (ou rapport S/B) pas du tout ridicule (72 dB), on dépasse le vinyle pour le coup :) . Sur un CD de la 9e symphonie, je parie même que lors des pianissimos, on se retrouve avec des valeurs sur à peine 8 bits, et ça reste tout à fait écoutable.







Que ce soit écoutable, certes. Mais aujourd’hui, on peut faire mieux facilement, pourquoi s’en priver ?





J’ai lu dans un article qui expliquait les différentes méthodes de dithering, que même avec un bon dithering et 1 ou 2 bits on arrivait déjà à reproduire un signal tout à fait reconnaissable.





Avec un seul bit et une bonne maitrise du PWM, on peut théoriquement atteindre une qualité excellente. Mais au prix d’une fréquence d’échantillonnage qui deviendrait extrêmement élevée.



Pour le dithering, c’est le genre de technique dont le résultat peut varier en fonction des composants en aval (filtres de sortie, etc). Et surtout, pourquoi s’emmerder à ça quand on peut avoir aujourd’hui du vrai 24 bits à 192khz sur une galette de taille équivalente à un CD ? Et le tout avec une correction d’erreur performante qui garantit vraiment l’absence totale de toute altération tant que le gamin ne joue pas au frisbee avec…





Alors en effet, si on est obsédé par le fait de “coller” au plus près du maximum, on peut enregistrer en plus de 16 bits pour ne pas perdre en qualité en utilisant un traitement numérique pour avoir les niveaux max collés près du max sur 16 bits. Mais c’est pas vraiment utile.





Il fut une époque ou l’on a choisi 16 bits et 44khz parce que c’est ce que la technique permettait à peine a ce moment la. Aujourd’hui, on peut techniquement faire beaucoup mieux. Donc pourquoi s’embêter…







On a déjà dit ici que certaines personnes entendent un peu les sons à plus de 20 kHz (jusqu’où, je ne sais pas, déjà 25 ça serait beau vu les pentes d’audition en montant en fréquence). Sauf que 1) il y a très peu d’énergie dans ces bandes de fréquences et 2) nos oreilles les entendent très atténuées et 3) les différents maillons de la chaîne de reproduction ont aussi tendance à amoindrir ces fréquences, qu’on ne souhaite pas reproduire (aucune utilité).





Vrai.



Mais entendre peu ne signifie pas pour autant absence totale de perception. Le cerveau pourrait également y être très sensible chez l’audiophile, un peu comme en photographie ou le piqué de l’image peut s’avérer important pour l’oeil exercé la ou la plupart des gens ne perçoivent rien.





Tu as déjà vu les courbes d’iso-audition de l’oreille humaine ? Même si c’est une moyenne, ça indique pas mal de choses.

Oui, mais ce sont des moyennes. On pourrait prendre l’exemple du sport, quand on compare les performances de la moyenne des gens avec des pratiquants entraînés.



Par exemple, un champion dans le domaine des arts martiaux est capable de lire des micro mouvements corporels qui trahissent le mouvement à venir d’un partenaire alors que 99,99% des gens ne les percevraient absolument pas.



             





Ça tu sais que c’est du pipeau (le rendu à 44 et à 96 kHz).





Non, ça n’est pas du pipeau puisque les limites du 44 sont à seulement 22khz…





Et que vient faire le MHz ici ?





J’expliquais simplement que certains circuits générateurs de son en sont capables. Bien sûr, à ce niveau, ce n’est pas très utile.





À moins de s’amuser à générer des fréquences autour de 20 kHz avec un haut niveau sonore (afin qu’on les entende), c’est impossible en pratique. En tous cas c’est tout à fait artificiel.





La chip music est précisément une musique d’origine artificielle. Les circuits électroniques n’ont aucun mal à générer des fréquences élevées à un niveau assez important. Et même quand on génère dans le domaine audible, comme c’est assez souvent du signal carré, ça fait tout pleins des belles harmoniques a des fréquences assez élevées.


Le 26/01/2016 à 01h 18







OlivierJ a écrit :



….

J’ai déjà dit ici qu’on n’avait pas besoin des 16 bits d’un CD (12 ou 14 seraient déjà pas mal du tout pour beaucoup d’usages), quoiqu’il en soit les caractéristiques d’un CD (à savoir les 44 kHz et les 16 bits) permettent de reproduire le son avec une finesse qui dépasse les capacités de l’oreille.







Euh…12 bits, ça veut dire 8 bits à faible volume. <img data-src=" />



Tout ceux qui ont touché à de la musique sur Amiga savent ce que ça veut dire un sampling à ce niveau de précision, même en utilisant le maximum de la résolution : Il faudrait être complètement sourd pour ne pas entendre l’aliasing distorsion qui est absolument énorme à ce niveau de précision.



Le 26/01/2016 à 00h 52







Noscarius a écrit :



J’ai pas beaucoup de recul matheux sur le traitement d’un signal, mais assez pour comprendre le principe de l’échantillonage et l’appliquer en Voip. Numériser un signal réduit l’infinité de mesures faisables en fréquence et niveau en fonction de la fréquence d’échantillonage et de la quantization. On a forcément une approximation du signal original. De toute façon j’irai faire un tour sur la chaine yt de jipihorn pour me rafraichir la mémoire <img data-src=" />







Sauf qu’il y a quand même un niveau ou la précision est telle que ce n’est plus perceptible, même pour un alien.



Mais c’est sûr qu’en VOIP, les contraintes de bande passante étant prépondérantes, on s’accommode d’un niveau de dégradation très important.



Le 26/01/2016 à 00h 24







OlivierJ a écrit :



Tout à fait (pour tout ton commentaire), d’ailleurs même de dépasser les 16 bits est en pratique impossible à entendre, la norme CD ayant été choisie pour dépasser les capacités de l’oreille humaine, pour la reproduction de musique même exigeante.



J’ai cru comprendre que les lecteurs CD qui suréchantillonnent en 4x pour la conversion (la norme pour un lecteur hifi - même non onéreux - depuis la fin des années 80) se contentaient de 14 bits car les 2 bits de poids faible n’ont pas d’influence à cause du 4 x (correspondant à 2 bits).







Ce qui est amusant dans le monde de la musique, c’est que c’est symptomatiques des maux de notre société et de l’opposition entre science théorique et pratique de terrain.



D’un côté des mélomanes qui ont l’oreille mais se perdent parfois dans des considérations nébuleuses et psychosomatiques. De l’autre des personnes qui ont des connaissances scientifiques mais posent souvent des conclusions prématurées sans vraiment connaitre les détails.



Pour avoir pratiqué le sampling et travaillé sur de la programmation impliquant du son numérique, je peux dire que les choses sont beaucoup moins simples en pratique que certains le pensent.



Par exemple, le son numérisé avec 16 bits par échantillon, ce n’est vrai que lorsque l’amplitude du signal atteint 100% de l’échelle, ce qui n’est jamais le cas en pratique. Sur des passages à faible volume, on peut parfaitement tomber à 12 bits, voir moins.



D’ou le dilemme de toute personne qui a un jour mixé du son numérique : Je maximise le volume pour une meilleure qualité… au risque d’écrêter. Ou alors je minimise le volume, mais je perds significativement en qualité. Ou alors je me fais pas chier et j’applique une compression dynamique… avec les conséquences que l’on connait.



La méthode 1 est la meilleure mais elle nécessite du doigté, de la patience, de l’oreille et pour tout dire une prise de risque. Faites un jour une prise de son en 16 bits, vous comprendrez le problème. La méthode 3 est celle utilisée sur beaucoup de CD du commerce.



Conclusion : un passage à 24 bits serait la solution évidente à ces problèmes.



Concernant la fréquence d’échantillonnage, à un peu plus de 44khz, la science nous dit que la limite des fréquences qui peuvent être restituées est à 22khz. C’est théoriquement suffisant, mais le débat existe toujours sur le fait que des personnes pourraient éventuellement percevoir des fréquences supérieures.

Pour ma part, quand j’écoute de la chip music, je perçois une différence entre un rendu à 44 et à 96khz ainsi qu’entre le 44 et la sortie direct d’un chip sonore (qui pour rappel sont parfois capables de monter à des fréquences qui dépassent le Mhz (sans compter les harmoniques).


Le 25/01/2016 à 03h 28







divide a écrit :



La fréquence de Nyquist est certes un cas particulier, ou seule une phase de 90270 degrées est correctement restitué, mais tout ce qui est en dessous de Nyquist peut se reconstruire avec les infos de phase complètes.

Une FFT ne donne pas les infos de phase pour le DC (fréquence 0) ni pour Nyquist, mais pour tout le reste aucun problème.



Quand à faire “beaucoup mieux” avec du 24bits/192bits, ça dépend dans quel contexte tu te place.

Dans le contexte d’analyses scientifiques du signal, ou de chaine de postproduction destructrice oui ça limite la casse, mais dans le cadre d’une écoute humaine la différence est techniquement imperceptible.







Le 24bits/192k est indéniablement excessif sur le plan technique.



Mais quand on touche à l’art, aller bien plus loin que le nécessaire est toujours le prix à payer pour prétendre à une forme de perfection… et faire taire les polémiques.



Le 16bit/44k est bien trop proche des limites pour ne pas susciter de débat.





En admettant qu’il y ai des humains qui perçoivent au delà de 20K (pas encore vu d’étude qui mette ça clairement en évidence), si c’est avec une atténuation de 20dB ou pire par rapport aux autres fréquences ça n’a pas grand intérêt :)

Déjà en observant un spectrogramme lambda (film, musique, …) on s’aperçoit que toutes les fréquences au dessus de 10-15K sont très faible puissance, et de plus en plus faibles au fur et à mesure qu’on monte en fréquence. Donc percevoir avec -20dB un signal qui est déjà à -30dB par rapport au reste du signal, il reste vraiment plus grand chose à percevoir :)





Certes, mais c’est une vision technique. Derrière l’oreille, il y a un cerveau avec sa perception particulière et bien mal comprise par la technique.

Rien ne dit que le cerveau d’un audiophile ne se concentre pas justement sur des petits détails, des nuances, des fréquences spécifiques, des fréquences à l’amplitude très faibles.



Quand aux études, il faut parfois supposer qu’on ne sait pas encore tout sur tout.





Un exemple concret, j’ai ouvert Stay de la BO d’Interstellar (qui est assez chargé en fréquences sur la fin), j’ai selectionné (en blanc) les fréquences au dessus de 12K… Bah… Il reste pas grand chose, -30dB par rapport au reste: http://i.imgur.com/RXPFAaS.png

Donc autant dire qu’au dessus de 20K ce serait encore plus infinitésimal, surtout si la perception humaine est elle aussi négligeable dans cette gamme.





La chip music est capable de monter bien plus haut en fréquence. Et pour les basses, un ami qui était fan de basses qui déchirent les woofer ne jurait que par la musique informatique (et il a bien fini par les déchirer…lol).


Le 24/01/2016 à 22h 26







divide a écrit :



Ne le prend pas personnellement, mais tu n’as pas compris vraiment les fondements mathématiques de l’échantillonnage numérique :)

Pour travailler tous les jours sur du traitement spectral numérique, je peux t’affirmer qu’un échantillonnage à 44k est PARFAITEMENT capable de restituer une sinusoide de 22K… Et même de la mélanger tout aussi parfaitement avec un sin de 21K, 20K, etc.

Bref avec 44K tu restitue parfaitement toutes les fréquences (fréquence =sin) en dessous de 22K.







Regarde à quoi ressemble une sinusoïde a 22k échantillonnée à 44k, particulièrement si elle est déphasée par rapport à la fréquence d’échantillonnage, tu comprendra que ce n’est pas aussi simple.



Bien sûr, cela ne signifie pas pour autant que le CD soit mauvais par rapport au vinyle ou la cassette. Juste qu’on peut faire beaucoup mieux avec du 24bits/192k.





Hors l’oreille humaine n’entend aucune fréquence au dessus de 20K (c’est un chiffre absolu, aucun test scientifique n’a pu mettre en évidence des perceptions auditives au dela, en dehors de trèd jeunes enfants, ou alors avec une atténuation tellement forte que la perception est negligeable) donc il ne sert strictement à rien de restituer des freqs supérieures à 20K.





Contrairement à une idée reçue, beaucoup de gens entendent encore passé 20khz.





Ceux qui pretendent entendre du 24K devraient préciser avec quelle atténuation par rapport à du 1K…





L’oreille y est moins sensible. Mais cela ne veut pas dire pour autant qu’on ne l’entends pas.



Toute la difficulté c’est bien de définir la limite a partir de laquelle cela n’a plus d’importance. Et cela restera toujours subjectif.





Un signal triangulaire ou carré est constitué de nombreuses frequences (sin) , mais si elles vont au dessus de 20K elles ne sont pas perçues quel que soit le cas de figure. La sinusoide est l’unité de base en fréquence.





La chip music qui est souvent faite de sons basés sur des signaux carrés est un style de musique très exigeant avec le matériel. Mathématiquement parlant, ce n’est pas du tout un hasard…


Le 26/01/2016 à 02h 24







brazomyna a écrit :



ça marche pas pareil non plus sur un windows et un winMo, et ça n’émeut personne.



Pire, la version est planquée dans un endroit auquel on accède différemment selon les versions desktop de windows, alors que chez debian ça n’a pas bougé d’un iota depuis que le monde (debian) est monde. <img data-src=" />



Quant à l’apt-get comparé à win update (ses 12 reboots, son postpone de 4h maxi, ….) … comment dire… non …. allez, fini de répondre aux trolls. je vais au dodo.







Carrément.



Entre les deux systèmes, c’est vraiment le jour et la nuit.



Le 25/01/2016 à 22h 38







Cedrix a écrit :



C’est juste dommage que ça marche jamais pareil pour toutes les distrib’ Linux. <img data-src=" />







En même temps, l’unification forcée, ça aboutit surtout à imposer des mauvais trucs.


Le 25/01/2016 à 23h 36







bogomips a écrit :



Du coup “aptitude” changera moins les habitudes :P







Aptitude ?



Tu parle de ce machin qui te désinstalle la moitié de ton système, Serveur x et kernel compris quand il est mal luné ?


Le 25/01/2016 à 12h 10







EricB a écrit :



Utilisateur perso de TB depuis le début (&gt; 15 ans!), je trouve cette initiative très intéressante.

Bcp d entreprises préfèrent toutefois Outlook, non pas pour le côté client, mais pour la gestion des serveurs Exchange intégrés à ActiveDirectory (et il y a même celles qui imposent encore l horrible Lotus Notes à leur employés pour “mieux” gérer Domino). Qu avez vous mis en place côté serveur avec Melanie?



Mais en fait, l aspect principal, c est bien le support. Microsoft garantie 10 ans de support. Red Hat et d autre le font aussi, mais ne maitrisent pas tous les logiciels distribués.

Pour en revenir à Thunderbird, qd la fondation Firefox dit que ce n est plus une prio et menace de le laisser tomber à moyen terme, cela ne fait pas une bonne pub pour l utiliser en entreprise!







Sauf qu’en pratique je n’ai encore jamais vu un logiciel libre de grande ampleur qui soit abandonné avec un grand nombre d’utilisateur laissés sur le carreau. Il y aura toujours quelqu’un pour le reprendre, voir lui donner un nouveau départ…



Par contre, dans le propriétaire, quand un éditeur décide que tel soft, c’est terminé parce que ça n’est plus assez rentable, tu peux pleurer. Particulièrement si ta version n’est plus compatible avec le prochain Windows.





Enfin, libre != gratuit! D ailleurs, les entreprises préfèrent bien souvent PAYER pour justement avoir ce fameux contrat de responsabilité sur le support!





Sauf que c’est encore mieux d’avoir les sources et des communautés actives que de dépendre du bon vouloir d’un support.


Le 24/01/2016 à 20h 59







psn00ps a écrit :



Joli pdf, mais en attendant ils existent.







Et oui, ils existent.



Mais puisque tu ne peux pas recompiler ces modules, comment fais tu pour upgrader ton kernel ?


Le 24/01/2016 à 20h 29







Drepanocytose a écrit :



Pas faux dans l’absolu.



Mais encore une fois, on dédouane ce brave “consommateur”, qui est pourtant largement partie prenante dans l’affaire.

Perso moi quand j’achète un truc qui dépasse les 100 boules, je passe du temps avant pour me renseigner dessus correctement. Et c’est pas une question de pognon, j’ai suffisamment de moyens pour acheter en aveugle si je le voulais et pour ne pas regretter le pognon investi si je me trompe dans mes choix.

C’est une question de principe : l’acte de consommation a des conséquences, on est responsables en tant que consommateur.



Le consommateur ne veut pas d’une chose qui est nuisible pour lui ? Simple : qu’il se renseigne avant, et ne l’achète pas, le cas échéant.

S’il continue d’engraisser des gens qu’il estime délétères pour lui, qu’il ne vienne pas pleurer.



Etre protégé par la reglementation, c’est bien. Se protéger soi même par un peu de jugeotte et un travail de recherche en mode curieux, c’est mieux.

Ne pas s’étonner si, en ouvrant ses mains au ciel en espérant qu’il en tombe spontanément qqch de bien sans effort, il n’en tombe en fait que de la fiente en retour.







Je suis totalement d’accord avec toi.



Mais justement, le problème c’est que les industriels ont mis au point une vraie machine à déresponsabiliser le consommateur. Le discours marketing l’attire lentement mais sûrement dans une voie de la facilité qui le prive insidieusement de la capacité de comprendre et donc de choisir. Ne parlons pas des techniques marketing pour remplacer les arguments de vente par de la “coolitude”.



Force est de constater que le consommateur de base n’est pas du tout en mesure de se défendre face à des experts en stratégie marketing qui savent bien manipuler les esprits.



Face à cela, il y a deux réponses possibles. Soit la formation des consommateurs, soit la réglementation du marché.

La formation des consommateurs est sans aucun doute la meilleure voie possible sur le long terme. Mais la mise en place serait très longue et le temps nécessaire pour constater ses effets bien plus encore.



La réglementation est relativement efficace à court terme, mais ce n’est pas une solution miracle car le consommateur est toujours déresponsabilisé, ce qui n’aboutit à long terme qu’a déplacer le problème.



Pour ma part, je pense qu’une bonne réponse serait un mélange équilibré des deux.


Le 24/01/2016 à 01h 17







brazomyna a écrit :



un peu comme php.



Ça avait l’air sympa kikoolol au début, mais ça n’a été qu’une mode bien vite enterrée parce que ça n’avait pas les perfs d’un bon algo en ASM écrit par un vrai développeur (qui en avait dans le pantalon, lui).



Heureusement qu’il y a des gens avec ta hauteur de vue pour nous remettre un peu de perspective dans tout ça.







J’adore ton humour <img data-src=" />



Mais avec le temps, on comprends que chaque époque de l’informatique a eu ses langages à la modes que beaucoup de programmeur ont pu croire immortels sur le moment.



Qui se souvient aujourd’hui de Cobol, DBase, Turbo Pascal ou même Delphi ?