votre avatar

HarmattanBlow

est avec nous depuis le 21 juin 2007 ❤️

5048 commentaires

Le 04/06/2015 à 12h 03







lysbleu a écrit :



Les portages Square Enix sur PC sont de qualité, avec du suivi, ou c’est juste “histoire de” ?





Ils font du boulot propre : pas de crashes, bonnes performances, gestion correcte des contrôles (configuration, instructions en jeu, etc), options spécifiques à la plateforme, etc.



Bon, par contre les graphismes et le taux de rafraîchissement sont inchangés, et la focale reste aussi celle d’origine ce qui peut être un peu nauséeux. Le PC reste (encore ?) pour eux une plateforme de seconde vie.


Le 01/06/2015 à 12h 07







Patch a écrit :



heu non ils ont commencé à en parler très peu de temps après l’attentat. ca a pris un peu plus de temps parce qu’il faut bien mettre qque chose dedans pour éviter de faire voter une feuille blanche… ce qui aurait peu d’intérêt.





Et ils étaient encore sous le coup de l’émotion des mois plus tard ? Dis donc !



Et de toute façon le pire avait été fait avant ça, avec la LPM 2013.



Le 01/06/2015 à 12h 02







thorspark a écrit :



Le patriot act, tout comme notre fameuse “loi renseignement” a été un loi faite “à chaud” et sous le coup de l’émotion.





Non, le “patriot act” a été voté des années après le 119, tout comme nos propres lois ont été votées des mois après l’attentat de Charlie Hebdo.



Ces gens savaient parfaitement ce qu’il faisait. Au mieux beaucoup ont voté avec leurs pieds, se contentant de jouer les godillots qui obéissent sagement, comme d’habitude.



On est en campagne et le sens actuel du vent pousse à modérer un peu tout ça mais pas trop. Mais les infrastructures ne vont pas être supprimées, les budgets ne vont pas être réduits, et tout va donc continuer sans grand changement, légalement, à peu près, ou pas du tout.



Et dans quelques années, une fois le public habitué à cette surveillance de masse, il sera temps de reprendre l’escalade.


Le 29/05/2015 à 21h 05







merphémort a écrit :



je sais pas si tu as des besoin spécifiques pour utiliser TB mais en dehors de ça faut arrêter avec les références des années 2000 hein, tu pourras toujours essayer 1 semaine ou 2 le nouvel Outlook qui gèrera aussi bien tes contacts et ton calendrier en tandem, permettra d’utiliser le moteur de Word directement à la composition des mails, en plus de proposer une nouvelle plateforme de plugins ouverte aux dévs tiers





Et il gère plusieurs boîtes mails simultanément sans avoir besoin de jongler ?

Sans envoyer aucune donnée à MS ?

Avec support pour le chiffrement ?

Et il permet de forcer les emails en mode texte (plutôt que html - on ne fait pas mieux comme porte d’entrée pour les virus) ?

Et d’envoyer les emails en mode texte (osef du formatage) ?

Et son UI est taillée pour des boîtes contenant 50 messages plutôt que 5 ?

Imap, Pop3 & co ?



J’ai souvent cherché une alternative à Thunderbird. Sans succès.


Le 29/05/2015 à 18h 16







merphémort a écrit :



moins normalement, en plus le driver AMD fournit en interne par Windows 10 devrait assurer un regain de stabilité <img data-src=" />





Merci à toi ! <img data-src=" />


Le 29/05/2015 à 16h 42

J’ai un membre de ma famille sur W7 et dont la une vieille bécane plante lorsque le GPU chauffe trop (un vieil AMD). W10 est-il plus ou moins exigeant svp ?

Le 29/05/2015 à 16h 51

J’ai pas compris : la photo, c’est pour question pour un champion ?

Le 28/05/2015 à 15h 45

Désolé, je ne trouve plus le lien pour vous soumettre une correction donc je le fais ici





tout ce qui se se qui rapporte

Le 26/05/2015 à 18h 27







Mr.Nox a écrit :



De ce que j’ai rapidement lu, ce serait un assistant pour les pros. Il reprendrai certaines fonctions de Cortana seulement mais y mélanger au un assistant puissant en matière de gestion d’agenda. Vu que NXI ne relaie pas les rumeurs, autant demander.





Je pense que ça va rapidement aller beaucoup plus loin.



Je pense que plusieurs dévs spécialisés dans le RAD à grands coups de CRUD et de formulaires ont du souci à se faire, parce qu’il ne faudra pas longtemps avant que la bestiole sache traiter directement, à partir d’un simple schéma de données, une requête comme “change l’adresse de Mr Dupont de Roubaix puis montre-moi tous les achats qu’il a effectués depuis 2012 sur un graphique en barres”.



Je suis convaincu qu’ils y sont pratiquement, comme beaucoup d’autres.


Le 26/05/2015 à 17h 30

Je me félicite que la gauche poursuive sa mutation intellectuelle en en venant désormais à considérer les chômeurs comme des sous-hommes n’ayant plus droit à la moindre vie privée et devant être soumis à l’inquisition.



J’ai hâte qu’après cela on en vienne à contrôler les heures auxquelles ils se lèvent via les nouveaux compteurs EDF, leurs trajets via leurs téléphones afin de s’assurer qu’ils ne partent jamais en week-end ou en vacances, et leurs recherches Internet pour s’assurer qu’ils ne font pas un usage privé de leur connexion pendant les heures de recherche d’emploi.



Après les récents virages libéral et sécuritaire, il ne leur manque plus qu’à embaucher un spécialiste des blagues racistes façon Guéant. Pendant ce temps le FN se prépare à abandonner son dénigrement de notre Grand Projet Européen (*), et ainsi on pourra faire la grande union nationale UMP-PS-FN en 2017.





(*) dont tout le monde sait que les pourfendeurs sont ceux qui veulent revenir aux Heures Les Plus Sombres de Notre Histoire.

Le 26/05/2015 à 10h 26







Mme_Michu a écrit :



Fait d’abord le quart du centième de  ce qu’il a fait avec NeXT et on en reparlera.





Next ? Ce gros flop commercial qu’il a tenté pour prouver qu’il n’était pas responsable du gros flop commercial d’Apple, qui venait de le virer ? Et qui s’est planté précisément parce qu’il a fait les mêmes conneries que chez Apple ?



La seule raison pour laquelle on a entendu parler de Next, c’est parce qu’il y avait le gourou Jobs a sa tête et que les journalistes adoraient le gourou Jobs.





Je rappelle qu’il a été foutu dehors chez Apple et il a créé NeXT et Pixar en partant d’absolument rien.



Non il n’a pas fondé Pixar. Il n’a pas non plus racheté Pixar. Il n’a pas non plus dirigé Pixar (ou seulement à la fin). Il en revanche investi de l’argent dans Pixar, qui en a ensuite perdu pendant des années après avoir tenté un peu tout et n’importe quoi. La légende de Jobs fondateur et dirigeant de Pixar vient du fait que Pixar et Jobs ont mis Jobs en avant car le gourou attirait les journalistes.



Mais Pixar a été sauvé grâce à certains de ses employés qui travaillent depuis vingt ans, bien avant l’arrivée de Jobs, sur le rêve de pouvoir produire des films d’animation. Et ils constituaient une toute petit division chez Pixar et leur succès fut inattendu de tous. Jobs, lui, s’était plutôt concentré sur l’utilisation de leurs technos dans le monde médical et autres, ce qui l’a obligé à passer dix ans à renflouer les caisses sans vrai perspective d’avenir ni stratégie.



Jobs a dilapidé son pognon parce qu’il ne voulait pas avouer un échec de plus et il a eu un coup de bol grâce à ses employés.



Et enfin il n’est pas parti de rien avec Next et Pixar, il avait un gros paquet de pognon en quittant Apple.


Le 26/05/2015 à 10h 00







illidanPowa a écrit :



ce mec fait Apple, sans lui, Apple n’est plus (bien plus que SJ qui n’était qu’un super commercial).





Steve Jobs était surtout excellent pour organiser son culte de la personnalité et s’approprier le mérite des autres.


Le 26/05/2015 à 10h 01



le papier serait le premier consommable de bureau avec 70 à 85 kilos consommés par an et par salarié



<img data-src=" />









  • Roger, tu as pensé à imprimer tes 500g aujourd’hui ?!

  • Heu…

  • Alors retournes-y vite, et que je ne t’y reprenne plus ! Tiens, voilà une clé USB avec les vingt dernières éditions du Journal Officiel, fais chauffer la machine sinon on va nous sucrer le budget.

Le 25/05/2015 à 10h 35







Drepanocytose a écrit :



De mon côté j’ai pensé comme vous au début, ca a été difficile de switcher mais j’ai persevéré.

Aujourd’hui plus possible de retourner en arrière : ca doit être une question d”habitude, je pense.





J’utilise une suite bureautique quelques fois par an, je n’ai donc jamais le temps de prendre des habitudes ni de m’investir.



J’ai passé dix ans avec Office et j’ai toujours tout fait naturellement sans vraiment rencontrer de difficulté.

Ça fait cinq à dix ans que j’utilise OOO et LO, et je peste à chaque usage.







Drepanocytose a écrit :



Oui, ca manque cruellement de couleurs froides, de style ModernUI, d’icones faites avec Paint, de majuscules dans les menus et de fausse transparence.





Modern UI est moche.

Tellement moche qu’il n’y a que OOO pour être plus moche.







Drepanocytose a écrit :



Dans le domaine de la mode, ca ne gène pas grand monde d’avoir des cycles de retour en arrière de 25 à 30 ans (mode années 90 en ce moment)…





Purée, je me vois mal remettre mes t-shirts ac-dc.

Sur ce je vous laisse, no no… no no no no… no no no no… no no no no limit.



Parce que les 90’s c’étaient aussi de grands paroliers.


Le 22/05/2015 à 12h 58

L’important quand on est un rebelle qui crache au visage du politiquement correct, c’est d’avoir une bonne plâtrée d’avocats pour défendre la valeur de sa marque en censurant les médias.

Le 21/05/2015 à 11h 40







js2082 a écrit :



Dire que tout le monde peut comprendre les sciences serait donc présomptueux et arrogant…<img data-src=" />





Non, clamer que si les autres ne partagent pas ton avis c’est parce que ce sont des abrutis pas foutus de comprendre des équations du second degré, ça, c’est présomptueux et arrogant.


Le 21/05/2015 à 10h 58







js2082 a écrit :



Pourtant, il suffit de pas grand chose pour comprendre les différentes sciences concernées: un peu de concentration et de volonté (mais quand la mauvaise foi suit, c’est dur de tenter de faire comprendre les choses)





Nous sommes jeudi et je me suis déjà bouffé sept articles de recherche, dont la moitié plâtrés de petits symboles incongrus relatifs à la théorie des types et au pi-calcul.



Et accessoirement je peux aussi te calculer le tenseur métrique d’un espace de Minkowski autour d’un corps massif, ou l’intervalle de confiance d’un médicament ou d’un toxique en biologie, ou te détailler le fonctionnement du système monétaire international.



Leçon du jour : ne sois pas si présomptueux et arrogant.


Le 20/05/2015 à 22h 05







js2082 a écrit :



L’argent achète tout, y a pas de miracles.

Ce n’est qu’une question de moyen donc.





Outre que l’assertion est ridicule (pour l’essentiel tu ne peux pas acheter la santé, la beauté, l’intelligence, l’amitié ou l’amour par exemple - une bonne portion du plus important), il a été démontré que passé un certain niveau de rémunération les employés deviennent de moins en moins productifs et engagés au fur et à mesure que tu les augmentes.



Autrement dit si tu ne parviens pas à motiver tes employés et obtenir d’eux ce que tu veux via les facteurs non-financiers, utiliser le levier d’une rémunération accrue ne fera qu’empirer le problème. Et comme ce n’est pas en employant deux femmes que tu feras un bébé en cinq mois…







Ami-Kuns a écrit :



Malgré tout les avancées technologiques, on à l’impression que l’humanité galère plus qu’avant pour envoyé quelqu’un dans l’espace.





C’est surtout qu’elle ne voit pas trop l’intérêt de dépenser des dizaines de milliards pour envoyer des humains là où dépenser des dizaines de millions permet d’envoyer des robots tout aussi efficaces.


Le 20/05/2015 à 19h 49







js2082 a écrit :



Ça n’a rien d’exceptionnel. Envoyer des satellites dans l’espace, ça fait 60 ans que ça se fait. En faire revenir des hommes, ça fait 50 ans qu’on le fait. (…)

Ce n’est plus un exploit depuis longtemps. Ça ne se limite désormais qu’à une question de moyens, de personnel et de temps alloués. Les techniques et connaissances utilisées n’ont que peu évolué depuis le temps. (…)

Tu sais, la balistique est une discipline qui n’a rien d’extraordinaire. Faut juste prendre le temps de s’y intéresser.





Et bla bla bla.



Soit une fusée réussit son coup, soit elle explose. Pas de coup d’essai. Essaie un peu de t’imaginer ce que représente le fait de coordonner les efforts de milliers d’êtres humains dans la réalisation d’un appareil qu’on ne construira qu’en quelques dizaines d’exemplaires sur plusieurs décennies, avec plusieurs variantes et cycles technologiques, le tout sans aucune erreur admissible. Essaie un peu de te mettre à la place du type qui doit gérer tout cela ou de celui qui livre le logiciel de calcul de trajectoire ou de celui qui certifie la conformité de la valve : si un seul d’entre eux rate son coup, des milliards partent en fumée. Certes il y a des redondances mais elles ne sont jamais suffisamment nombreuses ni si rassurantes. Il y a dans le monde des types qui se relèvent la nuit en se demandant si une de leurs erreurs va tuer quelqu’un.



Non ce n’est pas qu’une question de moyens. Une entreprise aussi vaste et complexe représente à chaque fois un grand succès. Très éloigné du fait de te livrer à pauvre calcul balistique sur un coin de table (exercice toutefois un peu plus délicat lorsqu’il implique des calculs sur plusieurs années avec catapultage autour de corps se déplaçant à des vitesses extrêmes et dont on doit anticiper la position avec précision).



Certes les choses sont plus rodées aujourd’hui qu’il y a des décennies. Mais non ça n’est pas aussi simple que d’assembler un bus et les moyens ne suffisent pas : il faut surtout entretenir une culture particulière chez les équipes, nouer des liens industriels qui s’étaleront sur plusieurs décennies et savoir attirer des gens talentueux, minutieux et consciencieux. L’argent seul n’achète pas cela.





Quant aux satellites, pour la NASA, je ne sais pas, mais nombres de satellites envoyés sont aujourd’hui commerciaux, commandés par des sociétés de télécommunications, de services, de TV, téléphonie, … Et même par des entreprises de distribution. (Savais-tu que Wallmart disposait de ses propes satellites?)



Walmart ne conçoit pas ses satellites ni ne les expédie. Ils les achètent. Et ils les font lancer par les russes ou les européens, pas par la NASA, ou rarement.



Quand j’ai dit que 80 à 90% des revenus de la NASA venaient du gouvernement, ce n’était pas un chiffre en l’air.





Dernier point: les ententes sont souvent horizontales. Elles peuvent être aussi verticales. Les conflits d’intérêts entre Etats et entreprises sont très courants, et vu les sommes brassées pour l’espace, nul doute qu’il a du y en avoir.



Mais il y a aussi des centaines d’autres raisons que les dessous de tables pour justifier ces prix ! Initialement l’industrie spatiale était une entreprise extrêmement risquée, avec de grands risques financiers et la nécessité d’avoir des sous-traitants viables sur plusieurs décennies. C’est pour cette raison que la NASA a opté pour des contrats “cost-plus” (on couvre toutes vos dépenses quel qu’en soit le montant, plus tel montant fixe pour vos profits).



Certes aujourd’hui ça empêche la baisse des coûts. Mais sans cela peut-être qu’aucune fusée ricaine n’aurait jamais décollé. Et c’est peut-être encore nécessaire, avec certains ajustements, pour de futurs projets ambitieux qu’une approche purement orientée coûts et profits ne parviendrait pas à satisfaire.



Et accessoirement le but premier des USA est d’avoir une armée puissante, pas d’avoir l’armée le meilleur marché possible. L’industrie militaire est clairement subventionnée par les USA. Et il y a de bonnes raisons à cela.



Y a t-il de la corruption ? Sans doute. Est-ce le facteur dominant ? Probablement pas.


Le 20/05/2015 à 18h 12







js2082 a écrit :



Il n’y a pas tant d’exploit, de prouesse que ça, il y a juste des moyens et du temps qui ont été mis dedans.





Ben oui, tiens, envoyer des humains dans une coque de métal de trois mètres de diamètre sur un satellite à des centaines de milliers de kilomètres puis les faire revenir, le tout sans les tuer à aucun moment, c’est trop facile. “Juste une question de moyens” parce que de toute façon on sait bien que ce ne sont que des parasites gouvernementaux et les ingénieurs des incapables de fonctionnaires.

<img data-src=" />





Mais pas tant que ça. Suffit de voir les avancées de SpaceX pour s’apercevoir que les programmes étatiques sont quand même bien en retard, à la traine.

On sent une certaine volonté de trainer les pieds, de ne pas trop se fouler et de se reposer sur ses lauriers et de  facturer un max aux entreprises voulant utiliser des satellites.



Vu que 90% des satellites lancés par la NASA sont gouvernementaux, tu m’étonne que ces parasites du gouvernement cherchent à plomber leur budget, sans doute parce qu’ils aiment taxer ! Ben tiens. Allez Michel, ressers moi un Ricard.





On est ici exactement dans la même position qu’un partage de marché par une oligopole contente de s’engraisser à souhait.



Le marché était ouvert et il y a avait trois à cinq acteurs d’autant de pays différents, dont deux rivaux notoires tenant le spatial pour stratégique. Quel oligopole !



Non, l’oligopole était ailleurs. D’après Musk c’était au niveau des sous-traitants, de Boeing à toutes les PME du secteur militaire américain. Musk a déclaré avoir soigneusement évité tous ces sous-traitants et leurs prix astronomiques, et avoir tout fait en interne : des moteurs aux valves en passant par l’électronique.



Je ne sais pas s’il en va de même en Europe mais notons que l’aérospatial ricain n’a jamais été très compétitif sur le marché privé.





Par contre, je suis fortement surpris par la taille de l’engin.

De 37m de long sur 24m d’envergure (environ), on passe à 8 m de long pour une envergure de 4.5 m, ça rétrécit fortement…

 On sent bien la diminution du budget alloué à la NASA, là.



Rien à voir. D’ailleurs l’ESA, elle, dépend à 80% des contrats privés, contrairement à la NASA, et le phénomène est le même pour eux.



C’est en fait le seconde raison derrière les coûts de SpaceX : le téléphone portable ! Les générations actuelles de lanceurs ont été conçues dans les années 80-90, à l’époque où les satellites devenaient de plus en plus gros. Le boom des technos mobiles (batteries, communication, efficacité énergétique) et renouvelables (panneaux solaires) a changé cela et les satellites deviennent de plus en plus petits. Donc les anciens lanceurs ne sont plus compétitifs. Par ailleurs il me semble qu’on vise désormais des orbites plus basses mais je ne sais pas pourquoi.



Les futurs lanceurs publics avaient dores et déjà prévus de lancer des satellites plus petits avant que le nom SpaceX soit seulement déposé.


Le 20/05/2015 à 17h 41







Spacewolf1 a écrit :



Pas vraiment… Bourane, la navette spatiale russe, le faisait déjà en 1988 (y a plus de 25 ans !!! ).





Non, ça c’est un drone spatial : sans pilote. D’où le “autonome”. C’est ça la nouveauté.



Bourane était l’équivalent de la défunte navette spatiale américaine, elle aussi réutilisable. Et la navette ricaine vola bien avant Bourane.


Le 20/05/2015 à 16h 28







francois-battail a écrit :



À vrai dire moi non plus ! Le besoin est né parce que j’avais besoin de fiabilité et que malloc() / free() ne me convenaient pas et comme l’outil est permissif, l’implémentation était facile.





Il parlait du fait d’enregistrer le code de nettoyage dans une file à appeler à la fin de la méthode. Si tu t’en sers également pour les allocations alors c’est ce qu’on appelle une région.



Les régions sont assez courantes, en particulier tous les moteurs de jeux vidéos les utilisent pour les allocations temporaires au cours d’une image, justement pour éviter malloc. Une allocation se résume dès lors, en substance, à une simple addition la plupart du temps, et à la fin de l’image on fait simplement repartir le pointeur depuis le début.



Cela dit en général on ne les utilise pas pour le nettoyage en fin de méthode, on privilégie plutôt d’autres techniques dans des langages plus élevés (try finally / RAII). Mais j’ai déjà vu ça une fois justement dans un moteur de JV, pour enregistrer depuis les sous-fonctions des callbacks à exécuter à la fin de l’image.


Le 20/05/2015 à 10h 55







white_tentacle a écrit :



C’est une légende urbaine et une négation de la genèse de C++ que de dire ça. En fait, Stroustrup a conçu le langage C++ pour l’écriture d’un système d’exploitation.





Ce n’est pas une légende urbaine : quand tu réalises un appel de méthode virtuelle, que tu lèves une exception ou que tu utilises les RTTI tu demandes implicitement au processeur de lire une zone mémoire distante, généralement située dans une autre page mémoire.



En mode utilisateur ça ne pose pas de problème : si la page en question n’est pas chargée dans la mémoire le noyau intercepte la faute de page et procède au chargement. Mais il ne peut pas en faire de même pour son propre code, tout doit être chargé explicitement, ce qui ne sera pas forcément le cas lors de la réponse à un IRQ. Et là c’est le BSOD.



Donc, oui, tu peux utiliser le C++ si en substance tu n’utilises pas ce qui le différencie du C.









francois-battail a écrit :



Quand tu as une volumétrie monstrueuse (vraiment monstrueuse), quand des portions de code sont exécutées des centaines de milliard de fois, que gratter 100ns à un endroit se traduit par un gain de 10 minutes au total, j’ai plutôt tendance à penser que choisir autre chose que le C (et l’assembleur) relèverait du dogmatisme (ou de la religion d’ailleurs).





Faire du procédural en C++ donne exactement le même résultat. Et rien n’interdit de mixer de l’assembleur. Ce n’est pas un pêché (pour rester dans la métaphore religieuse) !



L’essentiel c’est quand même que pour toutes les parties de ton code où tu n’as pas à gratter sur les performances tu pourras bénéficier des avantages du C++ par rapport au C.



Mais bon, la formulation était sans doute abusive. D’ailleurs je vois au moins une bonne raison d’utiliser le C plutôt que le C++ : les plateformes dénuées de compilo C++.







Herbefol a écrit :



Pas vraiment, la loi de Moore a toujours cours à l’heure actuelle et devrait survivre encore quelques années. Elle ne porte pas sur la vitesse d’horloge des processeurs mais sur le nombre de transistors qu’ils contiennent et de ce côté là, ça continue toujours d’augmenter à toute vitesse. :p





Ces dernières années le nombre de transistors n’a doublé que tous les 3 ans environ. Tout comme la consommation électrique en pointe (joules par opération) qui elle aussi a souvent suivi la loi de Moore et a bien ralenti.



C’est fini.


Le 20/05/2015 à 10h 02







sr17 a écrit :



Mais au fond, peut être aussi que beaucoup de programmeurs C/C++ ne cherchent justement pas à élever le niveau d’abstraction parce qu’ils se servent surtout de ce langage comme d’un langage de bas niveau. Ils ne veulent pas plus d’abstraction, mais moins d’abstraction et plus de contrôle.





C’est une remarque intéressante à laquelle je réfléchirai.



Mais peut-être qu’il leur faut simplement des abstractions prévisibles et vérifiables, comme le modèle objet qu’ils utilisent à longueur de journée. Plus simplement je pense que c’est un problème d’expérience utilisateur (l’utilisateur étant le programmeur) plutôt que d’abstraction.





L’exemple, c’est le noyau Linux qui est écrit en c. Demandez à Linus ce qu’il pense de c++, vous ne serez pas déçu du voyage…



Je ne suis pas sûr que ce soit une bonne référence. ;)



Cela dit le C++ n’est pas fait pour travailler en mode kernel, il faut quelque chose de très primitif du fait de l’absence de mémoire virtuelle et du risque de page fault. A à ce niveau je ne vois que le C.



Cela dit le code en mode kernel devrait être le plus petit possible et pour tout le reste je ne vois vraiment aucune raison d’utiliser le C à part la religion.





En même temps, dans ce langage, quand on l’exploite pour ses performances, on privilégie souvent une gestion fine et personnalisée de la mémoire. Cela peut aboutir à des gains de performances importants, donc des choses qu’on cherche à maîtriser.



Comme je l’ai expliqué dans mon précédent message, je ne voulais pas dire que le langage devrait gérer la mémoire.


Le 20/05/2015 à 08h 10







francois-battail a écrit :



Permets-moi de disconvenir respectueusement. La gestion de la mémoire c’est mon problème





Il y a quiproquo, je ne dis pas que le langage doit la gérer automatiquement (*), simplement qu’il devrait offrir des sémantiques standard pour ça.



() A vrai dire je pense qu’un bon langage devrait gérer automatiquement les 90% de cas triviaux et nous laisser gérer le reste sans restriction. Par exemple Actor& signifierait pointeur brut ou comptage de référence au choix du compilateur (avec tooltip indiquant la solution retenue), Actor^ indiquerait une référence faible et Actor serait une gestion manuelle.





Que ce genre de choses puissent être utiles pour certains types d’application et augmentent la productivité et la fiabilité, pourquoi pas. Mais généraliser et prétendre que c’est la bonne façon de faire et qu’elle est universelle, non. J’ai besoin d’être au plus près de la machine, de savoir ce qu’il va se passer au niveau des pipelines, des caches, l’anticipation des sauts.



Et nous sommes d’accord là-dessus.


Le 20/05/2015 à 06h 45







lysbleu a écrit :



Ce dont tu me parles, c’est d’élégance et oui, la programmation fonctionnelle est plus élégante que la programmation objet, ce depuis 1958.





Au passage : ce n’est pas une question de prog fonctionnelle contre objet (Rust est un langage objet), mais de les faire travailler ensemble. Le C++ se voulait multiparadigme (voir le document de propagande nommé C++ FAQ), car c’est LA bonne décision.



Mais il ne l’est plus en ne supportant que les paradigmes objets et procédural. Support ridicule du paradigme fonctionnel (les lambdas ne suffisent pas, il faudrait entre autres des itérateurs standalone et non pas appariés, des futurs, etc), pas de support des paradigmes événementiel, réactif, inductif, grammatical, par contrainte, etc.



Un bon langage moderne doit offrir des paradigmes adaptés aux différents modes cognitifs humains. Moins de code, moins de bogues.







sr17 a écrit :



C’est peu de dire que les Templates ne sont pas la chose la plus heureuse que le C++ ait apporté.



En même temps, je ne suis pas totalement convaincu que les autres langages aient la solution ultime.



Par exemple, j’aime assez l’idée de la méta programmation pour répondre à certains problèmes.





Je suis d’accord pour dire que la métaprogrammation est indispensable, et j’attends de tout langage moderne qu’il propose une solution efficace à ce problème (plutôt basé sur des manipulations de l’AST cela dit, et des attributs lorsque cela s’applique de classe/méthode).



Mais des choses comme la gestion de la mémoire devraient relever d’une prise en charge directe par le langage plutôt que par des templates. Tout simplement parce que ça prolifère partout dans le code.


Le 19/05/2015 à 20h 18







lysbleu a écrit :



Le gain en efficacité de codage est minime.





Oui, passer de 50 lignes à 3 c’est minime, de deux heures de code à une minute, de deux nouveaux bugs à zéro, c’est un détail.



Non je ne te parle ni d’élégance ni de programmation fonctionnelle. Je te parle d’avoir un langage qui a identifié des constructions nous permettant d’exprimer directement notre besoin afin que le compilateur l’implémente lui-même aussi efficacement que possible.



* Le pattern matching répond au besoin courant de reconnaissance de motifs parmi une structure de données

* Les continuations de listes (linq) répondent au besoin courant de filtrer, trier et transformer les données reçues

* Les types anonymes répondent au besoin courant de structurer un code local en objets via des PODS dont on a besoin à un niveau très local, souvent au sein d’une simple méthode.

* Et aussi au besoin de spécifier des codes spécifiques. Par exemple la fonction getMoney peut retourner integer | deadPeople | timeout. Tu ne veux pas créer un type spécifique, tu veux simplement renvoyer ces codes et que tout le monde puisse le voir en consultant la signature de la méthode.





Une boucle, c’est 5s à taper.



Bien sûr que non.



Reprends l’exemple que j’ai donné et qui m’a pris trente secondes à taper, il te faudra cinq à dix minutes pour écrire tes boucles en utilisant des lambdas, cinq à dix minutes pour écrire tes tests (inutiles avec le version linq car déjà au niveau des spécifications), et dix minutes pour déboguer puisque tu auras introduit une erreur. Et le jour où tu devras relire il te faudra quinze minutes pour comprendre ce que fait ce pavé indigeste.



Chronomètre-toi au quotidien, tu auras des surprises.







Pour la dernière phrase, je persiste, car le C++ est moderne, et se modernise d’autant plus à chaque nouvelle révision tout en conservant son paradigme objet, qui se justifie.



Un langage “moderne” âgé de cinquante ans dont les littéraux sont en ASCII et dont le modèle de compilation est extrêmement lent car conçu avec les contraintes d’être compilable avec moins de 32ko de RAM.



Et on est encore jeune à cent ans - tout est dans la tête. Ben tiens.









TexMex a écrit :



Bin en fait j’en parlais dans un sens large.  Plus tu te rapproches de la machine mieux c’est de savoir l’avance et accessoirement de le rendre statique





Non, tu as une conception erronée de l’inférence de types dans un langage statique.



Dans un langage comme Rust toi seul crée les types (sauf exception) et en général tu spécifies explicitement le type de chaque membre. Le compilateur ne fait qu’inférer les usages et tu peux passer ta souris sur un identifiant pour en voir le type dans ton IDE en mode édition - qui porte le nom que tu as choisi.

:)



Et il n’y a aucun surcoût possible à l’exécution. Au contraire : les types des arguments des méthodes sont plus spécifiques que ceux tu aurais écrit et il y a donc moins d’appels virtuels.



Cela veut aussi dire que le compilateur détecte les erreurs. Il ne va pas générer un membre “ogranisme” ni te permettre d’assigner un réel à un champ déclaré comme entier.





Tu comparais avec Luajit mais il y a deux grosses différences :

a) Luajit doit manuellement créer des types. Pas Rust. En Rust tu crées les types



b) Lua reste de nature dynamique parce que tu peux créer des membres à l’exécution via des chaînes générées à l’exécution. Et le halting problem empêche donc de connaître à la compilation tous les noms des membres qui pourraient être générées par les accès via une chaîne de caractères (ex : myTable[prefix + i]). Et cela veut aussi dire que chaque type généré doit conserver une interface dynamique puisque certains appels ne seront résolus qu’à l’exécution.



Je hais les langages dynamiques mais un langage statique avec inférence, ce n’est que du bonheur (je n’utilise l’inférence que pour les variables locales et les constructions génériques imbuvables). Il n’y a aucun inconvénient par rapport à un typage conventionnel - sauf à la rigueur si tu tombes sur un mauvais code écrit sans aucune mention de types, là c’est lourd.


Le 19/05/2015 à 17h 11







brokensoul a écrit :



avec des lambdas et la std, c’est trivial





C’était déjà trivial avant ça, le problème c’est que c’est verbeux. Moins depuis l’introduction les lambdas, mais c’est toujours verbeux, la faute à la gestion manuelle de la mémoire qui fait obstacle aux modèles fonctionnels et à l’interface des itérateurs.



Aujourd’hui ta solution reposera sur la création d’une liste puis sa mutation. Et elle fera cinq fois plus de caractères. Et pour ces raisons en C++ on optera plutôt pour des boucles. Dommage : un programmeur passe pourtant des heures par semaine à écrire ce genre de boucles.







  • compilation &gt; super rapide avec clang, sinon un petit ccache est bien efficace. Pas un problème en pratique



    Déni de réalité. Va dire ça aux grands noms de l’industrie qui exposent à la cppcon les efforts qu’ils doivent déployer pour garder le temps de compilation sous contrôle et le pourquoi des modules.





  • inférence de type &gt; jette un oeil sur c++ d’après 1995, tu as le droit de te renseigner sur ce que tu commentes. “auto”, c’est pour la poubelle ?



    • gestion mémoire ‘semi automatisée’ : la gestion des pointeurs est quand même super simple maintenant, et ca te donne des gains en perfs dont d’autres langages peuvent encore rêver



      (…)Maintenant si tu dis que tel ou tel langage super exotique fait ‘évidemment’ beaucoup mieux, reste :

    • à le prouver



      J’ai déjà répondu à cela dans ce fil, je t’invite à cliquer sur mon nom pour voir mes messages récents si cela t’intéresse.






  • la plupart de tes critiques sur du code trop verbeux concerne les templates. Tu as le droit de ne pas les utiliser..



    Le problème ne réside pas dans les templates, le problème réside dans le fait de devoir avoir recours à des templates pour émuler des comportements qui sont bien mieux pris en charge autrement par d’autres langages. Ces langages ont pourtant des équivalents aux templates.





    (reste) à avoir un écosystème qui le rend utilisable (l’inconvénient de partir de zéro, on ne gagne pas à tous les coups)



    J’ai moi-même dénoncé les limites de la solution Rust à l’heure actuelle.


Le 19/05/2015 à 15h 16







lysbleu a écrit :



substitutions de chaîne, le pattern matching : Présent en C++ de manière standard, donc je ne vois pas de quoi il parle lorsqu’il sous-entend que c’est inexistant en C++.

Type algébrique : je ne vois pas ce qui empêche de le faire en C++.





Voici un exemple de type algébrique couplé à du pattern matching (qui, non, n’est pas présent en C++).



enum expr = Number | Addition(x, y) | Mutliplication (x,y)



def factoriseEquation(expr) match expr



 case Addition(Multiplication(a, x), Multiplication(b, x)) =&gt; Multiplication(x, Addition(a, b))   

case \_ =&gt; expr





Amuse-toi à écrire ça en C++. Et pas seulement un pauvre bidouillage, quelque chose qui pourrait comme ici servir de fondation à quelque chose de plus vaste. ;)



NB : l’indentation a été virée par PCI/NXI, désolé.





Linq : Apparemment c’est spécifique VS / C#, donc effectivement je ne connais pas.



Linq ou les continuations de listes dans bien d’autres langages (list continuations) permettent par exemple d’écrire :



// Parmi les étudiants ayant assisté à 90% des cours on retient les 20 avec la meilleure note moyenne

var étudiantsSélectionnés = étudiants



  where présenceAuCours &gt; 90    

order by notes.Average()

take 20





Amuse-toi à écrire ça en C++.





types structurels anonymes



Besoin de faire une requête SQL pour ne récupérer que deux pauvres champs de la ligne ? Dans certains langages tu peux écrire :



var rows = select (name, address) from table where age &gt; 50   





Un type anonyme est alors créé avec deux champs name et address. Tout ça est inféré à la compilation et intellisense pourra compléter.



Amuse-toi à écrire ça en C++. Pardon à faire tourner ton outil de génération de code ORM après avoir cliqué sur des boutons pour lui dire que tu as besoin de faire telle requête.





cela consiste à remettre en cause la crédibilité de l’adversaire en ignorant totalement ses arguments, ce que je n’ai pas fait.



“Pour le reste, ce n’est pas très clair de quoi tu veux parler (…) Bref, tu ne sais pas de quoi tu parles.”.


Le 19/05/2015 à 14h 26







white_tentacle a écrit :



C’est tout le problème de faire face à un standard établi. Si Rust et C++ avaient le même niveau de maturité / développement, en ce qui me concerne le choix serait vite fait et en faveur de Rust : les quelques avantages de C++ ne se justifient pas face à la sûreté de Rust.





C’est vite dit mais par exemple dans le JV un rapport de performances du simple au double ça veut dire laisser ton super modèle d’illumination de côté et rester sur les technos de la génération PS2-PS3.


Le 19/05/2015 à 14h 18







white_tentacle a écrit :



Rust est fait pour être un compromis entre sûreté, performance, facilité d’écrire du code. Donc quelque soit un aspect, tu trouveras à critiquer : c’est le principe d’un compromis.





Et personne ne veut de compromis, c’est bien là le problème. L’industrie du JV et d’autres ne veulent pas d’un langage deux fois plus lent et MS et d’autres ne veulent pas d’un langage un peu plus sûr pour leurs OS.



Quant au C++ il ne fait pas de compromis : il ne s’encombre pas de la sécurité, il lui crache au visage. Ce qui est une démarche acceptable dans bien des cas. Son seul problème c’est qu’il est vieux et improductif, et qu’on peut quand même faire plus vérifiable sans empiéter sur les perfs.





C’est nettement mieux que tout ce qu’on nous a vendu comme alternatives à C++ pour l’instant…



Je suis bien d’accord. Mais pour l’heure ça ne suffit pas encore. Mais comme je l’ai dit plus tôt, ce langage a le potentiel pour devenir un remplaçant au C++ avec un autre compilateur. Malheureusement cet avenir n’est pas compatible avec les objectifs actuels de Mozilla pour ce langage, qui font passer la sécurité d’abord.


Le 19/05/2015 à 14h 14







lysbleu a écrit :



Une gestion mémoire semi-automatisée ? Avec les shared_ptr, elle est totalement automatique.





Bien sûr que non :

Tu dois écrire shared_ptr partout au lieu de Actor (ou Actor en D).



* Si jamais tu as un cycle dans ton graphe, ton shared_ptr va créer une fuite mémoire. Or le compilateur est incapable de détecter pour toi cette fuite et rien n’est fait pour t’aider à la détecter.



* Tu ne vas pas écrire partout shared_ptr pour des raisons de perfs, tu vas continuer à considérer systématiquement comment ta variable sera utilisée et choisir un unique_ptr, un shared_ptr, un weak_ptr, un pointeur, une référence ou une allocation in-situ. Puis tu vas décider de définir ou non la constante de compilation spécifiant l’utilisation d’un compteur non-atomique, sachant que ça a toutes les chances de te rentrer dedans à l’avenir. Autant de choses que le compilateur pourraient faire pour toi.



Ce n’est pas ce que j’appelle complètement automatisé !





Des itérateurs de 50 caractères ? “auto” : 4 lettres.



Et personne n’utilise auto. Pourquoi ? Tout simplement parce que le putain de modèle de compilation de C++ rend extrêmement difficile son analyse, ce qui fait que tous les putains d’outils sont pourris et qu’aucun putain d’IDE n’est foutu de t’afficher correctement une putain de tooltip par-dessus “auto” pour te dire quel est le vrai type de cette putain de variable. En 2015 !



Quand je code dans un langage moderne avec un IDE fonctionnel j’utilise l’inférence de types a tout bout de champ. Quand je code en C++ je n’utilise jamais “auto” parce que sur les dix plus gros IDE du marché il n’y en a aucun qui soit bon avec le C++ (seul celui de QT fait un bon boulot décent sur l’analyse).





Pour le reste, ce n’est pas très clair de quoi tu veux parler, mais je suis sûr que le C++ le fait très bien. Bref, tu ne sais pas de quoi tu parles.



<img data-src=" />


Le 19/05/2015 à 14h 00







white_tentacle a écrit :



Ça tombe bien c’est exactement le credo de rust :).





Non, et la preuve en est que le compilateur standard n’autorise pas la désactivation des vérifications des indices des tableaux, et que pendant longtemps le langage n’a pas supporté les modèles à base de mémoire partagée.



Rust a été fait pour être vérifiable par le compilateur. Pas pour être rapide. Ce sont deux besoins différents, irréconciliables une partie non-négligeable du temps). Le fait qu’on ait utilisé C++ pour ces deux besoins a été une erreur, il faut deux langages.



Rust pourrait devenir un langage performant mais ce n’est pas l’intention de Mozilla. Par ailleurs je doute que ceux qui ont besoin de performances soient prêts à se farcir les fourches caudines du langage. Enfin je ne pense pas qu’il soit assez sécurisé pour devenir le nouveau langage système de référence.



Difficile de savoir quel sera l’avenir de Rust.


Le 19/05/2015 à 13h 52







brokensoul a écrit :



c++ une plaie ? Qu’est-ce qu’il ne faut pas entendre :) c’est plus vraiment ce qu’on apprenait à l’école, avec des malloc et free dans tous les sens hein. Faut regarder du code moderne, c’est _beau_ ! (ok, si on commence à templater ca pique un peu les yeux)





Beau ?! Le C++ “moderne” ?! Qu’est-ce qu’il ne faut pas entendre ! Désolé mais cette phrase prouve que tu n’as pas fait l’effort d’aller voir ailleurs.



Non une gestion mémoire semi-automatisée avec des annotations de vingt caractères n’est PAS beau. Non ces itérateurs de cinquante caractères dont l’interface empêchent l’écriture d’un beau code ne sont pas beaux. Surtout pas à l’heure où les langages modernes, eux, font tous ça avec zéro caractères et adoptent les substitutions de chaîne, le pattern matching, les types algrébriques, linq et les continuations de listes, l’inférence de types, les types structurels anonymes, etc. Le tout avec des compilations instantanées parce que le modèle de compilation n’a plus à être compilable avec 32ko de mémoire.



Quand j’entends “C++ moderne” j’entends un politicien souffrant d’Alzheimer raconter à ses électeurs qu’on est encore jeune à cent ans. Ben voyons !



Le C++ est une horreur. Un anachronisme encore nécessaire pour un moment, dont les remplaçants tardent à émerger, mais un anachronisme toxique aussi moderne que Cobol. Et beaucoup de grands noms de l’industrie qui codent en C++ en sont convaincus, voire par exemple le célèbre diaporama Sweeney expliquant de quel langage l’industrie du JV aurait besoin aujourd’hui. Et je ne parle même pas du monde des OS où tout le monde s’acharne à bâtir un remplaçant vu l’inadaptation pure et simple d’un langage aussi invérifiable que le C++ à l’écriture d’un OS.



Arrêtez de prendre la défense de ce langage. Scandalisez-vous plutôt qu’en 2015 il n’y ait pas encore de vraie alternative pour la prog bas-niveau / haute performance / portable.


Le 19/05/2015 à 12h 12







Khalev a écrit :



Un benchmark datant des alentours du 24 avril (donc ça a pu s’amélioré depuis):

http://www.viva64.com/media/images/content/b/0324_Criticizing-Rust-Language-Why-…





A terme il n’y a aucune raison pour que Rust soit plus lent que le C++ : ses abstractions ont un coût nul par rapport à ce qu’écrirait un dév C++ : toute la question de la gestion mémoire est résolue à la compilation.



Bon, pour l’instant cela dit le compilateur conserve certains sécurités à l’exécution (boundaries checks par exemple), du fait de l’orientation sécurité de ce langage, mais on trouvera bien des compilateurs pour les désactiver à l’avenir.









brokensoul a écrit :



intéressé, un peu curieux de voir à quel point c’est rapide et sûr. C++ c’est quand même bien amélioré question rapidité de codage avec les derniers /11 et /14, mais j’imagine bien qu’il est possible de faire mieux. Un peu surpris qu’il soit possible de faire aussi rapide que c++ sans jouer avec les pointeurs, j’attends des benchmarks :) (quelqu’un a testé ?)





Le principe sous-jacent du système de types de Rust est de générer un code de gestion de la mémoire aussi efficace que celui que tu aurais pu écrire manuellement.









TexMex a écrit :



C’est quand même utile pour un compilateur de savoir si tu traite du nombre et / ou autre chose.

Mais tant qu’on aura pas de vrais solution d’accompagnement (Tu sélectionnes tes 10 lignes et tu les tagges “integer”) et pas seulement un editeur de texte, bin voila.





Les types sont inférés à la compilation. Le compilateur sait parfaitement qu’il traite des entiers parce qu’à un moment tu lui as fourni une entrée qui, elle, était typée comme entier, et tout le reste a été inféré correctement.









Oryzon a écrit :



ça ressemble fortement à ce qu’à présenter MS il y a quelques temps…





Au niveau système MS travaille sur deux approches, l’une ressemblant un peu à Rust pour la sécurité de la concurrence (mais avec de grosses différences quand même, chercher Joe Duffy et M#), l’autre basée sur des spécifications (spec#).









brazomyna a écrit :



Et ce problème de perf en est de moins en moins un:



 - l'impact de ce genre de pratique sur la charge CPU est constant       

- la puissance dispo des CPU augmente régulièrement







La puissance séquentielle des CPU n’augmente plus ou quasiment plus depuis dix ans, et le ralentissement s’accélère.



Quant à la taxe elle a toujours était proportionnellement constant : n% hier, n% demain. Elle restera toujours inacceptable pour de nombreux usages et elle va le devenir de plus en plus dans un monde à la puissance CPU finie.









brice.wernet a écrit :



Les langages managés ont l’avantage énorme de permettre des choses comme le déploiement sur architectures hétérogènes, la génération de code à la volée, l’envoi de données et de morceaux de programme à d’autres process/ordis.

Il leur manque en général les SIMD/la vectorisation, ce qui est dommage.





Question de priorités. Mais le nouveau compilo C# supporte la vectorisation et JS va bientôt gagner ça dans ses standards.


Le 20/05/2015 à 15h 14







pentest a écrit :



Tu veux savoir quel etait le programme musical ?



Flute a bec, mozart, et gratte papier, pour donner un apercu,  je n’ai pas le document sur moi pour etre plus explicite. Comment veux-tu tenir une classe d’une vingtaine d’éleves avec ca !





Justement, c’est ce que j’avais connu (et dont je n’ai pas un souvenir formidable même si ça a été au final une parenthèse bienvenue avec une famille éloignée de la musique), donc j’aimerais savoir quel serait pour toi l’enseignement musical idéal dans l’heure hebdomadaire prévue à cet effet.


Le 20/05/2015 à 14h 24







pentest a écrit :



Ma derniere experience remonte a il ya 5 ans, depuis je n’enseigne plus dans le public. Le systeme scolaire était dans un état catastrophique et son fonctionnement a l’ere de la préhistoire. J’ai eu a cette époque entre les main le programme musical de l’éducation nationale , c’était tout simplement une honte.

 



   Aujourd'hui je continue dans le privé a offrir mes connaissances musicales car c'est une passion et j'ai la liberté de construire un programme qui est en adéquation avec notre temps.







Je ne connais absolument rien au sujet et si tu veux bien nous en dire plus ça m’intéresse.


Le 20/05/2015 à 14h 22







ActionFighter a écrit :



Ah on doit se droguer maintenant pour réussir sa vie ? <img data-src=" />





La vie est faîte d’expériences. <img data-src=" />







ActionFighter a écrit :



Il y a des méthodes pédagogiques standard. A l’EN, tu n’enseignes pas ce que tu veux comme tu le veux.





Disons que si tu insistes pour faire intervenir Faurisson sur la Shoah, Mme Irma sur l’évolution et Copé sur l’économie, tout en prônant l’auto-éducation dès la primaire, tu risques de n’être qu’à 80% de la paie à 58 ans.



Mais bon, ils veilleront quand même à te faire grimper les échelons les deux dernières années.


Le 20/05/2015 à 13h 40







ActionFighter a écrit :



Félicitation, manque plus que la Rolex avant 50 ans et t’auras pleinement réussi ta vie <img data-src=" />





Non, d’après Irma, ma conseillère en développement personnel, j’aurai réussi ma vie quand j’aurai réussi à ouvrir le chakra omega qui régit les lignes telluriques de mon âme afin de rejoindre la vulve de la Terre-mère.



Bon, cela dit, je me méfie un peu parce que je ne suis pas sûr qu’une gonzesse qui vit dans une caravane et dont les enfants mineurs travaillent tous dans l’entreprise familiale de recyclage soit bien positionnée pour parler de réussite. Mais il paraît qu’elle conseille certains ministres.


Le 20/05/2015 à 13h 17







ActionFighter a écrit :



Personnellement, je voulais être pilote de chasse parce que je trouvais ça trop cool, et pourtant, j’en suis très loin maintenant <img data-src=" />





Moi je voulais être inventeur, et aujourd’hui mon métier est d’inventer des trucs. <img data-src=" />


Le 20/05/2015 à 12h 17







jb18v a écrit :



22 à 26h ? <img data-src=" />



on avait facile 30 ou 32h de mon temps.. <img data-src=" />





Au collège ? Je ne pense pas. Je ne suis plus tout jeune et je n’ai pas de tels souvenirs. Au lycée en revanche je faisais 35h avant l’heure.







puis technologie ou arts plastique,s franchement, zou ! corbeille !<img data-src=" />



Grande idée. Et dans le même genre on pourrait transformer leurs bureaux en chaîne de montage et ils se rendraient utiles pendant qu’ils écoutent le prof en français. Et de toute façon qui a besoin du français à l’heure des correcteurs automatiques ? Autant leur faire poser des ferrets pour Nike.


Le 20/05/2015 à 12h 11







ActionFighter a écrit :



Ça ne me paraît pas mal dans l’idée. Reste à voir le plus gros souci : les moyens.



J’écoutais l’autre jour une émission sur France Culture qui parlait justement des enseignements pluridisciplinaires, et ce qu’il en ressortait, c’est que déjà, ce sont des projets qui mettent bien plus de temps qu’un cours “normal” à préparer, que dans certains établissements, on manque déjà d’enseignants, et que certains se retrouvent à enseigner ou animer sur ce genre de projets alors qu’ils ne connaissent pas la matière.



Donc ce sera bien, mais uniquement si l’on y met les moyens. Et là, j’ai des doutes.





Je te rejoins et j’ajoute que je trouve ça très gadget. Je sais bien que les notions de travail en équipe sont à la mode, que vu de haut ça peut paraître attrayant d’offrir une continuité mais en pratique je ne suis pas sûr que faire bouffer aux gamins du Cid à toutes les sauces (la pièce en français, les maures en histoires, un site sur le cid en enseignement numérique) soit intéressant ou soit l’urgence du moment.





J’ai plutôt tendance à penser qu’on devrait s’attaquer au fait que l’enseignement français consiste en un gavage pas du tout efficace pour aiguiser la réflexion et l’esprit critique (comme le prouve pisa, et c’est vrai pour les bons gamins comme pour les mauvais, qui tous rabâchent sans réfléchir), et que si les français sont nuls en langues étrangères ça ne doit pas être à cause d’un gêne circonscrit à l’hexagone mais plutôt des différences pédagogiques avec nos voisins.



Dans le même genre, je ne suis pas sûr qu’un gamin qui veuille devenir médecin ait grand intérêt à faire du sport en plus sous prétexte que ça relève du corps, santé bien-être.





Mais bon… Au moins je pense que l’autonomie donnée aux établissements et la modularisation des cours sont une bonne chose (impliquer les personnels accroît en général leur efficacité et les laisser aborder les thèmes qui les passionnent a davantage de chances de produire des cours passionnants), et ça a le mérite d’être plus ambitieux que tout ce qui a été fait ces vingt dernières années - même si je doute que ça change grand chose.


Le 19/05/2015 à 11h 00







Eleminator a écrit :



Justement, c’est là que je ne suis pas. En quoi le HDR va améliorer ça ?

Le passage en 10 bits va clairement atténuer le problème, mais le HDR ?



Pour moi le HDR c’est au niveau captation de l’image. Une fois l’image enregistrée, je vois pas ce que vient faire l’HDR, surtout que les constructeurs parlent du fait qu’il soit “supporté”. Soit c’est du bullshit marketing, soit c’est un postprocess à la con. Ou alors je veux bien une explication.





Mais le HDR c’est justement le passage en 10 bits par canal.



Cela dit, oui, pour les photos et les films il faudra effectivement qu’ils soient capturés en 10 bits ou plus (c’est déjà souvent le cas), sinon le rééchantillonage du 8 à 10 bits ne sera qu’une bête interpolation au bénéfice limité (mais non-nul si l’on prend en compte les pixels voisins et d’une façon intelligente).



Par contre tout ce qui est synthétisé (rendu 3D et 2D) en bénéficiera très rapidement. D’ailleurs ça fait plus de dix ans que les jeux font déjà un rendu en 16 bits (“HDR”) avant de faire une conversion finale non-linéaire en 8 bits pour prendre en compte le fait que l’œil humain a une perception non-linéaire et adaptative (très significatif dans une scène ensoleillée où l’on voit des parties presque saturées). Le passage en 10 bits sera gratuit.









Loeff a écrit :



C’est plus l’encodage sur 10bits que l’HDR qui va permettre de beaux dégradés. On parle aussi de 12bits depuis longtemps, mais ils ont décidé que ces BR UHD seraient 10bits, certainement afin de garder un argument pour les futurs BR 3D UHD plus tard, voir pour la 8K…





Oui, 10 bits c’est un peu décevant : le bénéfice n’est pas énorme avec seulement quatre fois plus de nuances. L’oeil humain perçoit jusqu’à 16 bits de nuances.


Le 19/05/2015 à 10h 07







Loeff a écrit :



Et en soi, l’HDR va apporter quoi ? Une meilleure dynamique?





Voici un dégradé du gris clair au noir.



Comme tu peux le noter on y distingue des bandes. Ce n’est pas un artefact de la compression, c’est bien une limite inhérente aux 8 bits par canal qui ne permettent que 256 nuances sur une longueur de 1980 pixels.



Ces bandes seraient beaucoup plus visibles dans un dégradé sombre-noir, là où notre vision est la plus précise. Un dégradé de 0x404040 à 0x000000 donnerait des bandes de 30 pixels de large.



Le HDR apporte davantage de nuances et avec une image encodée en 10 bits par canal l’effet serait moins ou pas visible du tout.


Le 19/05/2015 à 10h 02







gavroche69 a écrit :



La 4K, 8K, 16K et plus ça va permettre aux gens de se coller à 50, 25, 5 cm de leur TV 70” pour qu’ils aient la joie de voir qu’on ne voit pas les pixels !!





La 4k sur TV ne sert à rien, à moins d’avoir un écran très grand que l’on voit de très près (genre écran de 2m à 3m de distance).



En revanche sur desktop le texte est beaucoup plus net et lisible en 4k. En 1920*1080 l’AA niveau de gris est toujours trop moisi tandis que l’AA subpixel rendering façon MS donne cet espèce de grésillement coloré autour du texte. Peu perceptible consciemment mais dérangeant pour le cerveau.



Accessoirement le 4k est plus sensé pour un moniteur 24” à 50cm des yeux que pour une télé 50” à 3m. Ça se voit sur un jeu même si ce n’est pas très important.


Le 19/05/2015 à 09h 50

Sérieusement ? On vend encore des films sur de petites galettes enfermées dans des boîtes en 2015 ?!



A ce train-là 2025 sera l’année du retour du VHS, après le retour du vinyle.

Le 18/05/2015 à 09h 44







Tourner.lapache a écrit :



Oui enfin à une image par seconde, ce que j’ai fait avec un APN bas de gamme sur des grandes durées (3h) ça marche pas mal au final niveau fluidité.





Mais ta caméra était fixe. Tu ne la portais pas sur le front en regardant un coup à gauche, un coup à droite, en levant les yeux au ciel après ça, en sautant ici, en dérapant là.


Le 18/05/2015 à 09h 22







merphémort a écrit :



mais bon on en reparle dès qu’on pourra jouer en 4K sur le web hein, ne retiens pas ton souffle dès maintenant quand même





Mais c’est en train d’arriver très vite : avec la standardisation de asm.js et l’arrivée du support de SIMD et de la mémoire partagée dans les prochains standards il n’y aura très bientôt plus aucune différence sur les perfs côté CPU. On parle de 2015-2017.



Après ça il ne restera plus qu’à remplacer webgl par un équivalent à Vulkan (webgl 23 sont en développement), et à introduire un mécanisme d’installation des applis / gestion du cache pour chaque site web de façon à gérer les jeux nécessitant 50 Go d’installation dans le cache du navigateur.


Le 18/05/2015 à 08h 36







merphémort a écrit :



Linux vaincra le jour où linux n’aura plus aucune importance donc?!?





C’est bien ça. <img data-src=" />

(il fallait lire “le choix de l’OS n’aura plus aucune importance” si c’est ce qui t’a posé problème)


Le 18/05/2015 à 08h 33







gokudomatic a écrit :



Donc oui, ça vaut le coup d’attendre un an.





Quel sens stratégique ! J’ai besoin d’un PDG à cinq millions par an, envoie-mon vite ton CV !