votre avatar

sr17

est avec nous depuis le 26 décembre 2005 ❤️

4322 commentaires

Le 26/02/2016 à 17h 25







saladiste a écrit :



Pas seulement, quand je reprends un code vieux de plus de 6 mois, j’avoue avoir un peu de mal, si en plus j’oublie de le documenter, autant le réécrire…







C’est très vrai…. et plus on avance en age, plus on oublie vite.



Mais le problème dépends aussi du langage. Par exemple, en C/C++, même avec du code qui n’est pas spécialement documenté, on arrive à comprendre sans trop d’effort ce qu’on avait écrit plusieurs années auparavant.







goldbergg a écrit :



Bin, pour qui code tous seul dans son coin pour sa pomme, certe il fera bien se qu’il veut, mais dans une entreprise il y a (normalement) des convention, convention qui peuvent être d’utiliser la JSDocpar exemple.



 Et je parle d’entreprise, mais tous bon dev devrais faire attention a sa façon de coder si il veut produire un code de qualité et je trouve sa moyen d’accuser le langage quand c’est le dev qui code comme un porc…







En général, les problème arrivent surtout quand on doit reprendre le code d’une autre entreprise.



Dans la pratique beaucoup d’entreprises ne veulent pas qu’un concurrent puisse reprendre facilement leur code. Elles feront tout pour qu’il soit le moins lisible et le moins documenté possible. Inutile de dire qu’un langage comme Javascript leur facilite énormément la tâche.





Aprés je vois pas pourquoi tu parle du compilo, que les variable sois typé dynamiquement n’empêche pas qu’elle sois belle et bien typé des qu’une valeur leurs est attribué.





Oui, bien sûr qu’elles sont typées a partir du moment ou on les utilise. Mais le typage dynamique est géré à l’exécution(et non à la compilation), ce qui est très lourd. C’est une question de traitement interne.



Par exemple, voila comme un langage à typage dynamique(PHP) stocke ses variables :



http://blog.ircmaxell.com/2012/03/phps-source-code-for-php-developers_21.html



Non seulement cela prends beaucoup de place en mémoire, c’est lourd à gérer, mais en plus, à chaque utilisation de la variable, le langage doit effectuer des tests pour savoir comment il devra traiter cette variable (en fonction de son type réel).



Les petits malins répondront qu’un excellent compilateur (comme le sont les dernières machines d’exécution Javascript) serait en mesure d’optimiser cela en déduisant le type à la compilation pour le transformer en typage statique.



Hélas, dans la pratique, hormis les cas simple (exemple : variable assignée localement par une constante), il extrêmement difficile d’être certain à 100% du type d’une variable au stade de la compilation. C’est ce genre de détail qui rends l’optimisation d’un langage tel que Javascript particulièrement difficile.



Et si encore c’était la seule difficulté, mais il y a bien d’autres difficultés comme par exemple l’orientation prototype du modèle objet.





Le 25/02/2016 à 19h 32







goldbergg a écrit :



L’inférence de type (qui dans bien des cas améliore grandement la lisibilité) ne permet pas non plus de connaitre le type d’une variable déclaré et pourtant on est dans le cas de typage fort.







L’inférence de type a effectivement des limites.





Et rien n’empêche de  mètre un commentaire sur le type a chaque déclaration:

 var maChaine;//String 

 var maDate;//Date





Certes, mais qui le fera ?



Et quitte à donner des types, autant que cela puisse aider aussi le compilateur à optimiser et repérer les erreurs.

 



voir a appliquer une valeur par défaut des la déclaration:

var maChaine =“”; (maChaine est de type String)

var maFunc =new LaFunc(); (maFunc est de type LaFunc)

(mais bon se cas là peut être problématique)



Et pour les function : function Addition(a/number/, b /number/){}

 

Bref, vue que dans les bonne pratique, “une varriable == un usage == un type”, en appliquant certain convention on peut facilement avoir une code lisible et maintenable et surtout sans avoir a passé par une surcouche comme TS.





Sauf que c’est beaucoup moins lisible que dans un langage fortement typé.



Et comme dit plus haut, le problème, c’est que ces indications n’aident pas le compilateur.



Et quand bien même tu décidera toi de coder ainsi, le problème de la documentation d’un code se pose surtout quand on reprends le code des autres.


Le 25/02/2016 à 19h 24







megabigbug a écrit :



Je n’ai pas compris le problème avec le == du c++ peux-tu développer ?

C’est parce qu’il n’était pas assez “intelligent” ?







Disons qu’avant la généralisation de la syntaxe du C, la plupart des langages utilisaient le “=” comme opérateur de comparaison. Le choix du C d’utiliser le “==” comme opérateur de comparaison paraissait alors totalement incongru autant que source d’erreur(les compilateurs de l’époque étaient beaucoup moins prévenants).



Mais (sans rentrer dans les détails) ce choix avait aussi de gros avantages, c’est pourquoi il a perduré.



Et sinon c’était encore un bon moyen pour les informaticiens de faire chier les mathématiciens…





Le 25/02/2016 à 19h 14







CryoGen a écrit :



Tu n’as pas tout à fait tort. Celà dit, pour vivre moi même au Mali, le principal problème n’est absolument pas la puissance mais le débit, puis la mémoire.

Je ne veux pas faire de généralité mais voilà pour mon expérience :)







Le problème du débit et de la mémoire sont aussi et directement lié a la façon dont les pages web sont conçues.



Concernant les machines, si je me base sur les données de cette page, je conclu que le salaire mensuel au mali serait à peu près de l’ordre de 55\(.



Même si mon raisonnement est peut être naïf (je ne demande qu'a apprendre), je pense qu'il est plus facile d'informatiser ces pays en utilisant cela :https://www.adafruit.com/products/2885 qu'un mac book pro à 2000\)
….





C’est vrai que les framework js deviennent “gros” mais les images design/contenu et surtout les pubs sont bien plus néfastes que l’exécution du JS en réalité. D’autant plus vrai à l’époque du Flash.





Justement, le problème c’est qu’a cause du manque d’optimisation de l’ensemble navigateur-langage, il faut beaucoup de puissance pour des effets relativement minables. Et HTML 5 n’est pas plus rapide que Flash, c’est même plutôt le contraire.


Le 25/02/2016 à 18h 56







Tamadadoo a écrit :



C’est sûr, c’est tellement merdique JS et spécifiquement NodeJS, que les sociétés qui forme la foundation ne sont que des inconnus.https://nodejs.org/en/foundation/members/

http://www.ecma-international.org/memento/members.htm

http://apmblog.dynatrace.com/2015/04/09/node-js-is-hitting-the-big-time-in-enter…

(mention spéciale à la citation de Kiran prasad)







Si l’on devait faire la liste de tous les standard médiocres qui ont été poussé par de très grandes sociétés dans l’histoire de l’informatique, on n’en finirait plus.



J’ai d’ailleurs un exemple très célèbre : le PC.



Je pourrais d’ailleurs te recommander la lecture d’ouvrages écrits par des gens très célèbres qui t’expliqueront mieux que moi pourquoi le monde commercial se moque éperdument de la qualité technique.

  



Et la V8 engine, qui appartient à Google, n’est pas du tout optimisée , ils s’en foutent en fait, de la performance, chez Google. Et s’il te plait arrête de parler de difficulté de compilation, c’est juste ridicule, notamment depuis 2010 et Crankshaft.





Personne n’a prétendu que la V8 engine n’est pas optimisée. Elle l’est certainement autant qu’elle peut l’être.



C’est juste qu’il y a des programmeurs qui croient dans une illusion : le grand mythe du compilateur magique.



Le mythe du compilateur magique, c’est le fait de croire que l’on peut écrire dans n’importe quel langage et que des compilateurs “magique”, “optimisés” et surtout “écrits par des grandes entreprises très célèbres” pourront optimiser de manière magique, parfaite et égale quel que soit le langage utilisé.



Mais tout ceux qui connaissent bien les langages de programmation savent que cela n’est pas vrai.



Cela s’explique d’ailleurs très simplement. Moins un langage est précis sur ce qu’un compilateur doit faire, moins le compilateur peut appliquer d’optimisations.



Une idée reçue fortement répandue, c’est de croire qu’un compilateur pourrait tout déduire. Ce n’est malheureusement pas vrai.



Même dans un langage fortement typé comme C/C++, les spécialistes de l’optimisation savent tout l’importance de certains mot clés pour produire un code optimal.





Non mais concrètement tu proposes quoi ? Que la somme considérable de projets et d’efforts autour de JS soit abandonnée du jour au lendemain au profit d’un hypothétique new player qui écraserait tout, d’un coup de baguette magique.





Non, tu as raison, c’est beaucoup mieux de perdre son temps et ses efforts à rustiner année après année un langage qui traînera éternellement ses tares de jeunesse…



Quand tu aura mon age, tu comprendra qu’a s’obstiner à vouloir construire des cathédrales sur un mauvais terrain, on ne fait qu’augmenter de manière inéluctable la quantité de travail qui devra être jetée.





Tu as quoi dans tes tiroirs, pour le web comme pour le mobile, comme langage de scripting client-side permettant de s’interfacer facilement avec http-html-dom-css et qui a une facilité naturelle avec le JSON, sans marshalling ?





Si j’ai bien compris, parce que tu ne vois rien qui soit susceptible de remplacer Javascript en moins d’un quart d’heure, l’humanité devrait se traîner ce boulet pendant 50 ans ?





Et l’idée de NodeJS, l’idée du JS coté serveur, c’était simplement la réalisation que l’efficacité de la V8, couplé à la puissance de la programmation fonctionnelle, dés lors multithreadée, avait du sens coté serveur/réseau, avec un moteur I/O basé events . Et le marché leur a bien rendu, cette idée tient la route et les “big fish” la sponsorise.





Et biens honnêtement, je pense que tu devrais étudier mieux le fonctionnement de NodeJS. <img data-src=" />



Tu comprendrait d’ailleurs que son fonctionnement n’est pas une “feature”, mais découle irrémédiablement de la fonction que ce langage avait dans un navigateur.



Cette façon de fonctionner avait un sens dans le cadre de la gestion d’événement d’une page web au sein d’une boucle d’affichage monothreadée. Mais en dehors de son cadre initial, le concept est pour le moins controversé…



Et parce que le débat est complexe et dépassera le cadre de ces commentaires, je t’engage à étudier les débats de spécialistes que l’on trouve sur le web à ce sujet. Tu comprendra mieux pourquoi les concepts qu’utilise NodeJS ne font pas l’unanimité.



Et sur un autre plan, celui de la maintenabilité, je suis persuadé que tant que vous utiliserez ce système pour des exemples simples (genre 100 lignes de code), vous ne comprendrez pas les vrais problèmes. Quand vous verrez à quoi ressemble un vrai projet industriel de plusieurs centaines de milliers de lignes de code, vous comprendrez ce que les vieux programmeurs vous disent.


Le 24/02/2016 à 22h 18







megabigbug a écrit :



Je suis bien sûr au courant pour le ===, mais qu’ils aient été obligé d’ajouter un nouvel opérateur pour corriger les incohérences de l’opérateur de base montre bien que le langage a été mal pensé à l’origine.



Vous allez me dire que le comportement du == était fait pour faciliter certains développements mais au final c’est un choix initial pourri qui cause plus de mal que de bien.









Dire qu’a une époque, le C/C++ était lourdement critiqué (à juste titre, il faut le dire) pour son usage du “==”.



Quoique capillotractée en tant que notation, le triple égal “===” n’est pas le pire qu’on peut voir dans un langage. D’ailleurs PHP fait également usage de cette notation (mais bon, PHP n’est pas une référence…).


Le 24/02/2016 à 20h 52







Tamadadoo a écrit :



+1000 , pas mieux

même si les ajouts de ES6 (notamment les “classes” … avec des guillemets car plutôt une pirouette syntaxique )

https://developer.mozilla.org/fr/docs/Web/JavaScript/Reference/Classes

me laissent un peu dubitatif.

Enfin … la communauté a parlé …  “Tu l’as voulu tu l’a eu”



Pour revenir sur notre petit contentieux (vloz,sr17,harmatanblow, moi )

Somme toute c’est l’éternel débat de “chacun sa vérité”, en rapport à son contexte ou ses influences.

Ainsi chacun peut considérer que l’autre s’est fait brainwashé par l’un ou l’autre gourou, ou philosophie d’entreprise, ou paradigme tout puissant.  

On atteindra pas l’ultime vérité aujourd’hui. :-)







Pour ma part, j’ai tendance à penser que la vérité simple et unique n’existe pas. C’est précisément pour cette raison qu’il est intéressant d’échanger des points de vue.





@sr17 : Et le paradigme et les galaxies interminables de sous-projet de java ? à comparer avec l’effort nodejs ?





Bien que Java ait quelques qualités qui manquent à Javascript, ce langage et son framework possèdent de nombreuses tares. Et bien souvent, on constate que cela donne des projets bordéliques.



Même s’il faut reconnaître que c’est un langage plus efficient que Javascript, je pense qu’il ne faudrait pas reprendre ce modèle tel quel.





En matière d’IT, nier que cette vérité est toujours fonction d’évolutions et d’expérimentation, c’est un peu nier le vent. Dans ces évolutions/expérimentations, il y aura des buzz , bons et moins bons.

ça devrait étonner qui que les technologies du web, et des apps mobiles, se cherchent encore ?

Et puis c’est la dynamique du marché que de vouloir être de ceux qui apportent les bonnes réponses.





Peut être justement qu’elles se chercheraient beaucoup moins si on acceptait de jeter à la poubelle les pis-aller fabriqués sur un coin de table a une époque pour servir des buts modestes afin de reconcevoir en partant de zéro des choses efficientes avec ce que l’expérience de la science informatique peut imaginer de de mieux.



Mais aujourd’hui, il y a cette espèce de logique commerciale omniprésente qui tends à prolonger la vie de tout ce qui est médiocre. Le raisonnement commercial est simple et se base sur le nombre d’utilisateur.



Quelque chose qui est merdique mais qui est utilisé tends à devenir encore plus merdique et encore plus utilisé. C’est un peu comme l’entropie de l’univers.


Le 24/02/2016 à 20h 34







brazomyna a écrit :



Globalement, oui.




  Ca n'empêche pas que certaines parties dudit langage sont basés sur des choix malheureux (genre l'objet global), et le livre de Douglas Crockford l'explique incroyablement bien: JS a de formidables atouts et quelques ratés, mais il suffit de ne pas utiliser les 'ratés' et on a en main quelque chose d'extrêmement puissant.       

 

Parmi ces choix malheureux on a justement certains bouts de concept de classes qui sont là alors que JS c'est censé être du 'ptotoype based' (opérateur new, ...). Et ce qui génère la majorité des critiques de ceux qui jugent un peu vite JS: ce sont en général des gens qui viennent avec leur bagage de connaissances en 'class-based OO' (typiquement C++, Java, C#, etc...), croient (parce que les specs du langages le laissent croire) qu'ils vont réappliquer leur préceptes déjà connus au JS (je fait des types, j'hérite, ...), voient que ça pose tout un tas de soucis, et en concluent que le JS est merdique parce qu'il ne fait pas bien du 'class-based OO'.






  En fait, le JS est 'prototype-based' ; ça se résume en 9 mots: on n'hérite pas des types, mais des instances.     





Quand on a appris et intégré ça, qu’on a désappris un peu certains de ses vieux réflexes de dév. Java/C++/wtf qui ne doivent pas s’appliquer ici (même si le langage le permettrait ou pourrait le laisser penser), on comprend enfin sa vraie philosophie et ensuite (et seulement) on accède à tout le potentiel du langage et ses atouts.







Non, les problèmes de Javascript ne sont pas seulement une question d’apprentissage.



D’une part, il y a un problème d’efficience. Un langage typé dynamiquement et orienté prototype, on ne sait pas le compiler efficacement.



D’autre part, il y a un problème de maintenabilité. Le typage fort, c’est aussi une manière de documenter un logiciel.



Le 24/02/2016 à 20h 20







CryoGen a écrit :



Oui enfin les développement lourd en javascript coté client ne concernent que très rarement les sites web publics et encore dans ce cas là c’est une erreur de choix effectivement.







Aujourd’hui, de plus en plus de sites web utilisent une palanquée de frameworks.



Soit on considère que ce n’est pas un mal : Mais dans ce cas, il faut être logique et comprendre que certains langages diminuent le cout de l’abstraction beaucoup mieux que d’autres. Si on veut augmenter le niveau d’abstraction, il faut abandonner Javascript.



Soit on considère que c’est un mal et l’on apprends a faire un usage raisonné.



Mais il n’empêche qu’il existe quand même des cas ou la programmation côté client peut apporter un très gros plus, voir se révéler indispensable. Et il y existe de très gros logiciels programmés côté client.



J’ai vu des choses fabuleuses écrites en Javascript qui ont du être jetées parce que c’était devenu simplement impossible à reprendre et à maintenir.





Ceux qui n’ont pas les moyens d’avoir la puissance nécessaire, non de toutes manières pas internet non plus… Et enfin sous prétexte que des gens vivent plus mal que nous, le JS devient une merde ?





Internet se répand dans les pays pauvres. Mais ils n’ont pas pour autant les moyens de se payer le dernier PC ou le dernier mac pour pouvoir surfer sur nos pages ultra lourdes.



Et le pire, c’est que c’est aussi le cas de beaucoup de nos concitoyens.



Beaucoup de webmasters n’imaginent pas à quel point leur pages web pondues sur le dernier mac avec un grand écran et testées sur le dernier smartphone haut de gamme peuvent exaspérer l’internaute de base avec son matériel modeste.



Face à ce problème, tu as deux possibilités.



Soit de faire des pages plus légères, de réduire les effets dynamiques, etc…



Soit d’améliorer le browser (et son langage) pour les remplacer par des outils plus performants permettant un meilleur usage de la puissance disponible.


Le 24/02/2016 à 19h 43







yellowiscool a écrit :



J’ai étudié l’histoire des langages de programmation, la compilation, leur fonctionnement interne. Merci de m’expliquer quelles sont les erreurs à ne pas commetre, et de me dire quel est le langage qui répond aux problèmes pour lesquels JavaScript est actuellement utilisé.







Pour résumer simplement, typage dynamique et langage orienté prototype, ce n’est pas compilable de manière efficiente.



Partant de la, et sachant que c’est aussi un inconvénient majeur en terme de maintenabilité, le reste est facile à déduire.





Sinon mon CPU coûte peut-être plus cher que le revenu annuel de beaucoup d’humains, mais c’est mon outil de travail, et ramené à mon niveau de vie et à mon coût horaire, il vaut mieux en avoir 25 (horizontal scaling, la loi de moore on s’en fout) au lieu que je perde mon temps à gérer manuellement des problèmes réglés depuis des dizaines d’années avec les langages à haut niveau.





Ce raisonnement n’est valable que pour les petit projets.



Dès qu’un projet devient important, le coût des serveurs économisé dépasse largement le salaire du programmeur.



Et même pour les petits projets, on commence à ne plus se moquer du temps de réponse à cause des critères SEO. Sur le marché, on voit de plus en plus de demandes pour des gens qui savent optimiser.



Le second problème, c’est que cette logique n’est pas applicable côté client. Tu ne va pas pouvoir afficher un bandeau sur ton site “pour surfer sur ce site, merci d’acheter un supercalculateur”. Et vu comment certains sites ont tendance à ramer…





Est-ce que ton débat, c’est bas-niveau vs haut-niveau ?





Non.



La programmation bas niveau et haut niveau ont leurs usages bien délimités.



Le débat, c’est d’utiliser des langages efficaces pour la programmation de haut niveau.


Le 23/02/2016 à 23h 05







megabigbug a écrit :



Je me suis mal exprimé mais en disant “vrais langages de programmation” au pluriel je sous entendais qu’on va pouvoir programmer avec des langages compilés en webassembly. Pas qu’on allait programmer en webassembly directement ce qui serait pour le coup assez pénible.




Et par "vrais" langages je voulais bien sûr parler de langages qui ne sont pas transcompilés dans un langage pourri comme javascript où      

 0  ==  '' est égale à vrai.









C’est clair. Parce que compiler du C/C++ en javascript, la je crois qu’on touche le fond…


Le 23/02/2016 à 22h 33







saladiste a écrit :



Euh l’assembleur est le langage de programmation le plus facile qui existe.







Clairement.



Au pire, ça peut être fastidieux au quotidien ou si l’on veut faire des choses complexes. C’est pour cela qu’on a inventé les langages de haut niveau.



Mais l’assembleur, a la base ça n’est vraiment pas compliqué.


Le 23/02/2016 à 21h 10







gokudomatic a écrit :



Quand on recommande l’assembleur comme vrai langage, c’est qu’on est un gros élitiste qui aime bien se compliquer la vie pour se vanter.







Toi, tu n’as pas compris. <img data-src=" />



Personne n’a jamais recommandé l’assembleur pour programmer tous les jours sauf cas particulier de certaines branches de l’embarqué.



L’assembleur, c’est juste un truc qu’il est utile d’apprendre pour mieux comprends les mécanismes d’un langage évolué. Et par ce moyen, d’améliorer sa compréhension du fonctionnement des langages, des outils de programmation et des machines…. pour au final mieux programmer.



Et c’est justement très utile pour appréhender ce débat sur les problèmes d’optimisation posés par certains langages.



Sinon, pour le côté élitiste, je trouve cela très surfait. L’assembleur est plus simple à comprendre que certains ne l’imaginent.



Et au passage, cela fait toujours partie du programme dans les bonnes écoles d’informatique.


Le 23/02/2016 à 20h 48







yellowiscool a écrit :



Tout dépend du problème. Mais JavaScript a du succès pour de nombreuses

raisons, et plus uniquement parce que c’était le seul langage supporté

cotés navigateur web à une époque.







La vérité, c’est que Javascript est un petit langage de script qui a été écrit sur un coin de table. La seule raison pour laquelle il est utilisé, c’est parce qu’il s’est retrouvé intégré aux navigateurs.



Et la seule raison pour laquelle des programmeurs ont été formés à ce langage, c’est parce qu’il n’y avait pas le choix, les navigateurs imposant de fait ce langage.





C’est quoi un vrai langage de programmation? Qu’est-ce qui distingue un vrai

langage de programmation d’un faux langage de programmation ?





Je t’engage à étudier l’histoire des langages ainsi que leur fonctionnement interne pour comprendre qu’il y a des erreurs à ne pas commettre.



Ceux qui veulent réinventer la roue sans tenir compte de l’état de l’art d’un domaine sont juste condamnés à répéter les erreurs…





Les VMs JavaScript (V8, SpiderMonkey, Chakra) savent très bien travailler avec ça, et sont plutôt performantes.





Non



Il faut cesser de croire au mythe du compilateur magique.



La vérité, c’est qu’il y a énormément de choses que même le meilleur compilateur du monde ne sait pas détecter et optimiser correctement si le programmeur ne l’y aide pas.



Étudiez la compilation des langages et vous le comprendrez…





Ça consomme plus de CPU et plus de RAM qu’un algo en C, C++, Ada, Go…, mais on s’en fout complètement, dans le pire des cas “l’auto-scaling” du Cloud prestataire va couter moins cher qu’un bon développeur.





Et on voit le résultat d’années d’empilement de couches écrites par des programmeurs qui se moquent de la notion de performances. Parce que c’est malheureusement cumulatif…



Peut être ne réalisez vous pas que la moitié de l’humanité n’a pas les moyens de se payer les terminaux qu’il faudrait pour surfer sur ces pages web ultra lourdes, sans compter les serveurs pour leur propres services.



Parce que le CPU que vous avez dans votre ordinateur coûte plus cher que le salaire annuel de beaucoup d’humains.



Mais c’est votre droit d’aller dans le mur et on vous souhaite bonne chance avec la fin de la loi de moore…





En attendant avec NodeJS je fais des services qui travaillent  sur des flux, le tout  en 100 lignes, et ça scale horizontalement par défaut. C’est peut-être une erreur, mais je crois qu’on est nombreux à la faire.





Etre nombreux à avoir tort ne donne pas pour autant raison.



La facilité pratique peut être le sucre qui cache l’amertume d’une erreur conceptuelle fondamentale.



Chaque époque a vu sa mode dans laquelle se sont rués les jeunes programmeurs d’une génération.



Mais à long terme, les erreurs d’une mode éphémère ne perdurent jamais.



Chaque génération de programmeur finit par en payer le prix…


Le 23/02/2016 à 19h 56







gokudomatic a écrit :



Un vrai langage de programmation est horriblement compliqué à utiliser, très proche de la machine, qui n’offre aucune protection ni avertissement en cas d’erreur grave, et où il faut réinventer la pierre pour réinventer la roue. Le vrai langage de programmation n’est pas un outil pour faire des programmes, car le langage est déjà un but en soi (programmer pour programmer). Tout est fait pour qu’il soit inaccessible au commun des mortels.







Ou pas…



Le 23/02/2016 à 19h 07







Patch a écrit :



Ah, c’est pas le cas? <img data-src=" />







Bien sûr que si <img data-src=" />


Le 23/02/2016 à 19h 00







Tamadadoo a écrit :



@HarmattanBlow 13:50 Euh, et sinon ça va la hargne, serait pas temps d’arrêter le café ?



En effet, Chez JetBrains, ils savent bien faire les choses, j’ai d’ailleurs ma licence PhpStorm (webstorm +php)



Je n’ignore rien du tout, je ne partais simplement pas dans le développement d’un argumentaire car c’était pas mon propos.

Je

vous donne raison sur une chose, mon propos faisait lui-même la

démonstration d’une certaine suffisance en stigmatisant celle de mes

“adversaires” .  



Et non je ne suis pas conscient des problèmes

du typage dynamiques, j’ai appris à faire du vélo sans les roulettes,







Mais visiblement tu ne semble pas conscient des problèmes que cela pose aussi bien techniquement(les compilateurs ne savent pas bien optimiser ça) que d’un point de vue maintenabilité du code.





alors non j’ai pas trop de soucis. (ceci est une pique gratuite)

Je sais me servir convenablement

et sans abus du prototypage, et sans limite du pattern module,  je sais

avoir recours à un ensemble plutôt solide d’outils pas pourri du tout (mon

IDE, mocha, l’écosystème et la structure mise en avant par

nodejs et son packager npm, sails, ember, …)

Je ne pense pas qu’une bonne code convention va sans un

minimum de commentaires surtout en entrée de définitions

d’objets/modules/fonctions

 

Le fait est , c’est vrai, que JS est moins

facile d’accès qu’il ne semble de prime abord. Il vient comme une flopée de pelotes de laine dans une grande boite et c’est très vite facile de faire un gros spaghetti en croyant qu’on sait tricoter. A contrario d’autres langages plébiscités par les “typeurs” viennent plus souvent avec une norme et des conventions plus stricte, ne serait-ce que par les écosystèmes qui leur sont presque indissociables (.Net, J2SE/J2EE/Spring …  )

 Pour commencer à le maitriser soit on

s’enferme dans le confort de  librairies (Jquery) ou de framework

en vogue (angular, ember) soit on décide de comprendre les rouages (cf

le bouquin du mec qui a pondu jquery et dont la seconde édition

reviendra sur les les changements de ES6+) .





Malheureusement, on trouvera toujours plus de stagiaires qui font n’importe quoi que de bons programmeurs qui maîtrisent leur métier.



Un dérivé de la loi de murphy prédit que quand un langage permet de faire facilement n’importe quoi, c’est presque toujours ce qui arrivera.





Je dois l’avouer je préfère un langage en mouvement (ça bouillonne dans la galaxie nodejs et puis ES6+) qu’être sur des rails.





On appelle cela la mode.



L’inconvénient d’utiliser une technologie juste parce qu’il y a du buzz autour, c’est le risque de passer à côté des vraies questions essentielles.



Par exemple, de vous demander si le paradigme sur lequel repose nodejs ne serait pas une erreur fondamentale.



Un bon conseil de vieil informaticien : à votre place, je consulterais les discussions et débats de spécialistes en comprenant bien ce que chacun dit avant d’investir beaucoup de temps dans quelque chose.


Le 23/02/2016 à 16h 25







HarmattanBlow a écrit :



En ce qui me concerne tu as tout à fait raison : ces technos sont souvent bancales.



Malheureusement elles foisonnent pour répondre à des besoins bien réels et ne pas les utiliser est encore pire.







Tout à fait.



Mais on ne peut que déplorer que ce foisonnement ne soit finalement une énorme division des efforts qui n’aboutit qu’a une myriade de concepts médiocres pondus sur un coin de table plutôt qu’a quelques idées un peu travaillées.



Mais comme tu le souligne, il n’est malheureusement pas possible pour l’instant de se passer de ces technologie parce qu’elles sont imposées (browser = pas le choix du langage). La difficulté, c’est d’expliquer aux jeunes qu’il faut les utiliser de manière propre, raisonnée et à bon escient.







yellowiscool a écrit :



Quel est ton langage performant, unifié, bien pensé dès le départ ? Ça serait bien aussi qu’il soit sécurisé, facile à déployer, facile à apprendre et à maintenir, ou tout simplement parfait ?







Penses tu sincèrement qu’il soit très difficile de trouver mieux que Javascript (et ses dérivés…) ?


Le 23/02/2016 à 15h 23

Ce qui me fait bien marrer dans la période actuelle, c’est cette prolifération des langages. Tout le monde veut faire le sien. Ca grouille de partout comme des champignons.



Et si encore c’était pour faire de bonnes choses. Malheureusement, tous ces langages sont aussi imparfaits, peu performants et mal fichus.



Quand je vois un site web moderne, je suis plié de rire. Des kilos de CSS, de montagnes de frameworks empilés… juste pour quelques images et bouts de texte. Parfois des animations minables.



Et c’est tellement lourd qu’il faut une puissance CPU démente juste pour afficher une simple page de texte.



Avec une machine dotée d’un petit CPU et de faibles ressources en RAM, il est impossible de surfer convenablement sur cet “internet pour les riches”…



Je prévoit d’avance que quelques uns vont se marrer en lisant mon post en pensant que je suis un vieux con.



Mais je prédit que vous rigolerez moins dans quelques années quand vous devrez apprendre votre 256ième langage de script bidon qui-viens-de-sortir juste pour faire des trucs minables et coller à la mode du moment.



Vous comprendrez alors l’intérêt d’un langage performant, unifié, bien pensé dès le départ et qui ne change pas toutes les 3 semaines.

Le 25/02/2016 à 20h 22







Oppofans.fr a écrit :



Et comme je l’ai dit précédemment, il y a davantage de contacts dans VOOC : peut-être passent-ils de la puissance (en divisant le courant ?).







On peut effectivement diviser le courant dans la connectique en utilisant plus de broches ou en utilisant des contacts ayant une section ou une surface de contact supérieur. Cela n’est pas difficile quand on utilise son propre connecteur, c’est plus compliqué pour ceux qui utilisent une connectique standard (USB). Mais il y a des astuces comme le fait d’augmenter la tension, ce qui diminue l’intensité à puissance égale (il faut que le périphérique soit prévu pour).



Par contre, on ne peut pas diviser le courant au niveau des élément des accumulateurs : que l’on charge en série ou par élément, le courant qui passe dans chaque élément ne change pas. Mais on contrôle mieux la charge quand on le fait par élément.





En combien de temps les contacts peuvent s’oxyder ?  En tout cas depuis 2 ans mon appareil (et sa batterie) se portent toujours aussi bien.





Le temps n’est qu’un facteur parmi d’autres.



L’oxydation dépends aussi des conditions d’humidité, des polluants atmosphériques et du traitement de surface de la connectique.



Il peut suffire d’une goutte d’eau (ou pire, de sueur) pour oxyder un connecteur.



La saleté peut jouer un rôle similaire.



Donc pour ce qui est de la durée, les choses peuvent varier fortement.



Les électroniciens connaissent bien le problème et utilisent des produits du type KF-F2 pour nettoyer régulièrement les contacts qui sont fortement sollicités.


Le 24/02/2016 à 21h 26







psn00ps a écrit :



<img data-src=" />

 

Blague à part, la spécification USB Power Delivery autorise jusqu’à 60W sur les connecteurs micro.

(100W pour les Standard)







Certes, mais c’est au prix de l’augmentation de la tension d’alimentation.



Et passer 3A sur d’aussi petit contacts, je les trouve bien optimistes.



Bien sûr, neuf, ça fonctionnera. Mais avec le temps et l’oxydation/encrassement qui augmentera fatalement la résistance…





Le 24/02/2016 à 00h 01







psn00ps a écrit :



Je suis amateur de modélisme, et les pauvres petites batteries ne se chargent pas en 15 minutes. <img data-src=" />







Clairement.



Ce que je voulais dire, c’est que le fait de recharger par cellule, c’est un principe trivial connu depuis longtemps. Et les avantages sont effectifs, indéniables et bien connus.



Mais il va de soi que cela ne suffit pas à expliquer une charge aussi rapide. Dans le cas contraire, ça fait longtemps que tout le monde le saurait.


Le 23/02/2016 à 19h 46







Oppofans.fr a écrit :



Je ne sais pas exactement ce qu’est “une simple charge rapide contrôlée par élément”.



Si c’est de charger en parallèle les différentes cellules des batteries alors c’est l’un des principes du VOOC effectivement.

Est-ce simple ? Si c’était le cas ça existerait depuis longtemps et ça serait plus répandu.

Est-ce révolutionnaire ? Aucune idée mais pour une techno vieille de 2 ans elle reste encore meilleure (plus rapide avec moins d’échauffement) que des technos plus récentes (QuickCharge 2 et 3 en particulier).



PS : mon lien était erroné, voici le bon :http://www.androidauthority.com/fast-charging-standards-compared-669624/



Enjoy !







La charge par élément un principe connu et utilisé depuis très longtemps. Demande aux adeptes du modélisme.



C’est aussi ce que font tous les bons chargeurs d’accus NIMH dans le commerce depuis belle lurette.



Mais pour le principe, charger plus vite reviendra toujours à celui d’une charge rapide, à savoir de balancer plus d’ampères/heure dans un élément.



Donc ça demanderait un peu plus d’explications techniques.


Le 23/02/2016 à 17h 38







Oppofans.fr a écrit :



Le VOOC est très différent d’un QuickCharge qui “gave” la batterie en la faisant chauffer.



Mon Find7 (et il n’est pas le seul) n’a été chargé qu’avec VOOC depuis bientôt 2 ans et sa batterie se porte toujours bien.



Un bon article comparatif des technologies de charge rapide :http://www.androidauthority.com/galaxy-s7-or-lg-g5-poll-675772/

 

Et une explication du VOOC sur mon blog :https://wp.me/p5LwSI-1y



Enjoy !







Ca ressemble juste à une simple charge rapide contrôlée par élément. Qu’y a t’il de révolutionnaire ?





Le 25/02/2016 à 17h 08







Exception a écrit :



C’est normal que ça prenne du retard, Minecraft est à la base développé par des développeurs amateurs qui n’ont pas beaucoup de compétences, c’est pour ça qu’ils ont fait quelque chose d’extrêmement basic niveau design et gameplay. L’excuse du concept est toute trouvée, mais c’est juste que ce ne sont pas des bons.







Beau résumé de tous les préjugés qu’on peut trouver sur ce jeu.



Le 24/02/2016 à 18h 53







kervern a écrit :



pas du tout, on a même l’impression de s’être fait légérement enflée par MS !

mod non compatible, en gros la version w10 et PE c’est un désert, et c’est vrai que minecraft une fois t’en a fait le tour si t as pas les mod et bien tu met tout de coté ! quand au texture pareil me semble ! au dela de l’optimisation exceptionnel sur W10 passé votre chemin sauf si MS change de cap ! serveur au faite non ce n’est pas compatible juste comp entre PE et W10, sinon java reste compatible qu’avec java !







La communauté aurait du écouter les libristes. Faire des mods sur du logiciel propriétaire, c’était pas une bonne idée. <img data-src=" />


Le 25/02/2016 à 17h 01







ActionFighter a écrit :



Ah le service civique… Cette belle mesure de gauche qui permet à l’administration et aux associations d’utilité publique financées par l’état d’avoir des employés à prix cassé… <img data-src=" />







Et de ne plus avoir à payer pour des prestataires qui vont du coup devoir licencier.



C’est beau comment on organise le cassage en règle du marché de l’emploi en France.



Le 25/02/2016 à 16h 54







sirius35 a écrit :



C’est ce que je dit… Pas de justice pour les victimes….



Pour les hors la loi ça foisonne…. Remise de peine pour bonne conduite (sic), peine aménagé, etc…. Bref la loi est aux petits soins de ceux qui la bafouent…. Ceux qui la respectent n’ont que leurs yeux pour pleurer…







Et ça ne te viens même pas à l’esprit que les remises de peines pour bonne conduite ont une utilité ?



Et à ton avis, le juge ne saurait même pas que la peine qu’il donne sera réduite et n’en tiendrait pas compte dans son calcul ?



C’est beau les raisonnements simplistes…





Une année j’ai eu ma voiture fracturée sur le parking de ma residence… Remboursement partiel de l’assurance (pas de bris de glace… Morte tordue….) car franchise…. Bref 160€ pour ma pomme….



Lorsque j’entends dans les fait divers (rien que de dire ça… ) “…connus des services se police…”… Ça me hérisse le poil….





Pour ma part, cela m’est arrivé aussi. C’est certes désagréable (et coûteux) mais il n’y a pas mort d’homme, ce ne sont que des biens matériels. Et ce n’est pas pour cela que j’en ai tiré des conclusions simplistes.



Regarde le pourcentage de chômage dans les banlieues, tu comprendra peut être la cause principale de la délinquance.


Le 25/02/2016 à 00h 18



Alors que les yeux de tous sont tournés vers Barcelone pour guetter la sortie du moindre smartphone…





C’est amusant, il fut une époque fort lointaine ou la sortie d’un nouvel ordinateur était un événement qui faisait rêver.



Mais aujourd’hui, la sortie d’un nouveau smartphone, c’est un événement qui déchaîne les foules autant que… la sortie d’un nouveau lave linge ou d’un nouveau frigo.



Il y a bien quelques fanboys apple qui veulent encore y croire avec leurs sacs de couchage devant les apple store avant la sortie d’un iPhone, mais pour combien de temps ?

Le 24/02/2016 à 23h 52







Ph11 a écrit :





Payer le moins d’impôts possible, tout le monde le fait s’il en a l’opportunité.

Ce qui serait anormal, c’est de ne pas le faire. De plus, ça rendrait les politiques d’incitations fiscales, de taxes sur l’énergie, le carbone, le tabac, le soda, etc  injustifiables.







On pourrait ne pas voir cela comme un problème, sauf qu’en attendant, ce sont les PME qui payent…





Le 24/02/2016 à 21h 06







Ph11 a écrit :



Comme bien des États, non ?



C’est ce que Rueff appelait le privilège impérial, du fait que le système monétaire international soit basé sur le dollar (censé être indexé sur l’or)

Le dollar étant la monnaie de réserve, les USA produisent de la monnaie comme un produit d’exportation, permettant d’importer des biens tangibles en échange de papier tout frais sortis des rotatives. Ce que ne peut pas faire un autre pays.







D’ou leur empressement à imposer au monde par le biais de traités un système de propriété intellectuelle qui englobe le plus de choses possibles.



De cette manière, avec leur argent sorti du néant, ils achètent toute la propriété intellectuelle possible… et se payent ainsi un futur de rentiers… ou les autres nations seront juste des esclaves.



Dire qu’en France il y a des imbéciles qui pensent qu’on s’en sortira en travaillant et en faisant la chasse aux chômeurs alors que tout se joue en réalité par le jeu des monnaies et des accords internationaux.


Le 24/02/2016 à 21h 01







Fuinril a écrit :



Tu parles des mêmes PME d’informatique françaises qui ont cru voir l’Eldorado en Inde au début des années 2000 ?







Et tu penses que les multinationales l’ont moins fait ?



Dans la pratique, les petits projets n’ont jamais été vraiment rentables en offshore.



La encore, les PME font mieux que les multinationales : ce sont bien les entreprises qui délocalisent le moins.



Le 24/02/2016 à 19h 03

Ah les grandes multinationales, la presse française passe son temps à parler d’eux, à relayer la moindre anecdote. Leurs produits font les gros titres sans qu’ils n’aient à débourser le moindre centime.



Mais qui paye les charges pour votre santé ? votre retraite ? l’éducation de vos enfants ?



Qui ne délocalise pas le travail et ne pratique pas l’optimisation fiscale ?



Et oui, ce sont toutes ces PME françaises dont la presse ne parle jamais….



Je trouve cela injuste, pas vous ?

Le 24/02/2016 à 22h 30







Elwyns a écrit :



en même temps t’as pas le droit d’être en état d’ébriété sur la voie publique .



Alors si il veut sortir il doit théoriquement attendre de décanter .



Cependant dans un restaurant , j’vais pas m’tirer à cause d’un mec qui vapote avec une odeur de cana à coté de moi . c’est lui qui arrête de vapoter .. après tout c’est pas sensé être un passage pour arrêter totalement de fumer ?  non car encore foutre de la nicotine, et continuer le geste , c’est juste aucun self control







Vu le nombre de décérébrés qui rentrent chez eux les soir de week end en gueulant dans les rues, je crois qu’il faut réaliser que ça ne sers pas à grand chose de faire des loi.



Les loi ne remplaceront jamais correctement les neurones qui manque et le savoir vivre absent chez certains de nos concitoyens.





Le 23/02/2016 à 16h 56

Tiens, après avoir hésité à promouvoir des standard libres, ils se rendent compte que les systèmes propriétaires fermés, ça pose des problèmes et que c’est source de dépenses indirectes (pas d’intéropérabilité = remplacement prématuré).

Le 23/02/2016 à 16h 41







eglyn a écrit :



Pour les applis, on ne peut pas installer n’importe quelle appli dispo sur une Ubuntu desktop ?

C’est dommage, c’est le seul intérêt que j’y voyais <img data-src=" />







Pour ma part, je pense que tant que personne ne trouvera moyen de proposer cela, Linux ne prendra pas sur les mobiles.



Le monde du logiciel libre compense son manque de moyens par la mise en commun du code et l’accumulation au cours du temps.



Il n’y a tout simplement pas de financement suffisant pour porter les applis sur un Os incompatible.



Tant que personne ne comprendra cela…


Le 23/02/2016 à 16h 32







meyrand018 a écrit :



Le nerf de la guerre ce n’est pas que l’argent, mais surtout les applis !







S’il n’y a pas un moyen de faire tourner les applis natives de Linux, ça ne marchera pas.



Pour le prix, je ne suis pas d’accord. Dans cette gamme de prix, c’est un peu trop élitiste.


Le 23/02/2016 à 16h 09







TofVW a écrit :



Certes, mais si tu ne fais pas confiance aux éditeurs qui ferment une appli dans les mêmes conditions que Qik aujourd’hui, tu ne dois pas faire confiance à grand monde. <img data-src=" /> Pas plus à Microsoft qu’à Apple ou Google, donc.



PS: je tiens à relativiser le mot “confiance” dans ce cas précis. <img data-src=" />







C’est bien pour cela qu’il y a des gens qui préfèrent les logiciels libres.



Tout ce qui est libre, on peut continuer à l’utiliser et le maintenir quand bien même l’éditeur laisse tomber.


Le 22/02/2016 à 21h 49







trekker92 a écrit :



ca c’est très simple, tu vas t’en rendre compte à l’isntallation.

et l’intégrité complète ne m’interesse guère : j’ai déjà réussi quelques installs linux de livecd rayés dont une partie etait illisible.



je considère que par défaut dans 99,99% du temps le site met à disposition des outils intègres et vérifiés par l’éditeur, et que la rentabilité vérification=/=infection est infimement trop faible pour demander trente secondes de vérification à chaque fois :

ce n’est pas rentable, surtout que l’éditeur de la distrib a alerté ses utilisateurs.



C’est comme aller sur un parking et vérifier si chaque voiture est accidentée, le taux d’éléments positifs est tellement proche de zéro que t’as une perte de temps phénoménale.



Si on devait finir par vérifier l’image à chaque fois, on deviendrait Inspecteur de l’Intégrité du Numérique Francais (en passant par la case ENA/intérieur hein)



Donc non, pas pour moi, pas assez rentable.

amusez-vous.







Le problème, c’est que les conséquences d’un malware peuvent s’avérer graves parce que ceux qui les écrivent ne le font logiquement pas pour rien.



Il peut voler le mot de passe d’accès au site de ta banque, ton numéro de CB lors d’un achat en ligne.



Il peut décider un beau matin de chiffrer ton disque dur pour te demander une rançon par la suite.



Il peut permettre l’utilisation de ta machine comme un proxy pour réaliser des opérations frauduleuses sur le web.



Et pleins d’autres joyeusetés….



Bref, chacun voit midi à sa porte, mais a mon humble opinion, ça mérite quand même d’y passer quelques secondes de vérification avant de réinstaller sa machine.





je considère que par défaut dans 99,99% du temps le site met à disposition des outils intègres et vérifiés par l’éditeur





Justement, dans le cas d’une distribution Linux, ce n’est pas toujours sur le site “de l’éditeur” que tu télécharges.



Ce n’est pas parce que tu cliques sur le site de l’éditeur que pour autant tu télécharges sur le site de l’éditeur.



Il n’est pas rare que le lien de téléchargement d’une distribution te dirige aléatoirement sur l’un des nombreux miroirs qui se sont portés volontaires pour fournir gratuitement de la bande passante.



Selon les distributions Linux, ce n’est donc pas forcément sous le contrôle direct de l’éditeur.



Personnellement, ça m’est déjà arrivé plusieurs fois de tomber sur des signatures qui ne correspondent pas (même si cela ne veut pas dire que la cause est forcément frauduleuse).


Le 22/02/2016 à 18h 33







Candl3 a écrit :



Il y aura toujours des linuxiens totalement dans le déni le plus total et sélectionneront toujours les infos qui les arrangent seulement.







Faux.



Pour un Linuxien, n’importe quel dépôt est suspect jusqu’à ce que la signature ait prouvé le contraire.



C’est une règle de survie primordiale dans l’univers du libre ou les dépôts sont rarement centralisés.


Le 22/02/2016 à 17h 57







Ricard a écrit :



Il a dit légère.







Mate est relativement léger.



Même s’il n’est pas le champion en terme de légèreté, il a l’avantage d’être très ergonomique et bien fini.



Le 22/02/2016 à 17h 54







WereWindle a écrit :



c’est clair ! mais, soyons honnêtes, levez la main ceux qui le font systématiquement ?

garde le bras baissé



Dans tous les cas, saluons la réactivité de l’équipe <img data-src=" />

(la question du “pourquoi pas d’action alors qu’ils ont des noms ?” fait un peu trop dit ou pas assez… Nadella, Cook et Stallman, moi j’dis <img data-src=" /> mais évidemment on nous cache tout, on nous dit rien)



Question subsidiaire : on a une idée du nombre de DL durant la mauvaise période ?







Pour ma part, je vérifie TOUJOURS les signatures.



C’est VRAIMENT très important.







trekker92 a écrit :



jamais fait, et je le ferai probablement jamais



j’estime que c’est pas dans mon role, que la distribution doit vérifier d’elle meme l’intégrité des données mises à disposition du public et de faire un disclaimer en cas de pépin.



Ici Mint a plutot bien réagit dans son role d’éditeur.







Et bien tu as tort.



Il faut comprendre un truc important, c’est que la plupart des distributions Linux confient le téléchargement, non pas à un site central, mais à une myriade de miroirs extérieurs.



Il est facile de comprendre pourquoi c’est très difficile de s’assurer de la sécurité de chaque serveur de cet ensemble de serveurs disséminés qui sont administrés par des personnes différentes.



Et c’est pour cela que la signature est primordiale.


Le 22/02/2016 à 18h 12



Le juge en charge du dossier a quoi qu’il en soit ordonné la destruction des DVD et du matériel saisis – ordinateurs, téléphones…





J’espère qu’ils n’ont pas oublié de brûler la maison et de bombarder le quartier <img data-src=" />



Sérieusement, quel est intérêt de détruire des ordinateurs ?

Le 22/02/2016 à 18h 04







Ph11 a écrit :



De la prison… pour avoir vendu des DVD…

Et pourquoi pas la peine de mort de lui et de toute sa famille ?







Évitons de donner des idées aux “ayant droit”.<img data-src=" />





« au motif que les atteintes à la propriété intellectuelle contribueraient au financement du terrorisme »



Le terrorisme, l’argument universelle de tous les c*ns liberticides…





Oui, c’est amusant de voir comment le terrorisme est exploité par des lobbys pour justifier des intérêts purement financiers.


Le 22/02/2016 à 15h 51







SebGF a écrit :



C’est vrai qu’un petit peu de chauvinisme ne fait pas de mal de temps en temps.







Tout à fait.



Si nous voulons avoir le moindre avenir industriel, il faudra que les français se serrent les coudes pour assurer la promotion de NOS produits qui donneront à NOS enfants un futur décent.



Il est évident que si nous sommes béat d’admiration devant les produits des autres et que nous avons honte de nos productions, la guerre économique est perdue d’avance. La vassalisation économique sera l’issu inéluctable et l’avenir de nos enfants sera sombre.



Pour avoir connu un autre temps, je suis choqué du défaitisme actuel.







Exception a écrit :



Les startups françaises font fabriquer en Asie.

Leurs bénefs ne vont qu’à une poignée de jeunes riches sortis des grandes écoles qui de toute façon étaient déjà à la base des privilégiés.

Pour le peuple, ça ne change rien.







C’est malheureusement le cas le plus courant, mais il y a toujours de notables exceptions.



Et malheureusement, ces exceptions ont tendance à péricliter faute d’une couverture médiatique suffisante pour focaliser l’attention sur eux et apporter les capitaux nécessaires.



Par exemple, il a des gens qui ont essayé de faire un processeur français… mais tout le monde est focalisé sur les productions d’Intel, AMD et ARM…



Autre exemple, la conduite automatisée. Des startup françaises travaillent dessus, certaines ont déjà des produits. Mais nous n’entendons parler dans la presse que de Google…


Le 21/02/2016 à 18h 45







Elwyns a écrit :



Archos est pas une sorte de filiale Chinoise maintenant ? avec Alcatel , y a quoi encore de français .. même Wiko ça ne l’est plus vraiment quoi







C’est une excellente question qui pose le problème de savoir ce qu’est un produit français.



Car une entreprise française ne signifie pas forcément automatiquement que le produit est fabriqué et/ou élaboré en France.



Il est malheureusement évident qu’avec le niveau de sinistre actuel de notre industrie, il serait totalement illusoire d’espérer voir aujourd’hui un produit électronique complexe qui soit 100% fabriqué en France.



Il faut cependant souligner que même si une entreprise ne réalise qu’une partie du produit, que c’est toujours mieux que rien du tout. Il serait justement intéressant d’avoir des reportages sur les entreprises française pour savoir quelle partie des produits sont réellement faites en France.



Mais il faut surtout réaliser que l’échosystème français ne se limite pas aux quelques grandes entreprises les plus connues.



Il existe une pléthore de petites startups en France qui pourraient parfaitement créer l’échosystème de demain pour des produits français.



Mais la médiatisation est une condition primordiale pour que ces entreprises trouvent des investisseur et puissent avoir un futur…



Voila pourquoi il est important de ne pas laisser les grandes multinationales accaparer toute l’attention des média.


Le 21/02/2016 à 17h 52







David_L a écrit :



On fait pas mal de papier, sur pas mal de monde, parfois français, d’autres non. On évite de se dire “bon de quel français on va pouvoir parler cette semaine” le projet et le produit étant plutôt ce qui nous motive en général. Tout le reste, c’est surtout une question de temps et de moyens :)







Et pourquoi pas ?



Aujourd’hui, la moindre anecdote sur un produit Apple,Google ou Microsoft fait le tour du monde en quelques heures. Et tout le monde trouve ça normal.



Si personne dans la presse ne se décide à parler avec fierté de ce qu’on fait en France, qui le fera ?



Si les français eux même ne font pas la promotion de leurs produits nationaux, je vois mal quel avenir nous pouvons avoir…


Le 21/02/2016 à 21h 06

En même temps, la flexibilité d’un écran peut signifier une bien meilleure résistance aux chocs.



Même si cela n’est pas très utile par ailleurs, ce serait déjà une très belle avancée.




Le 21/02/2016 à 20h 53







darkbeast a écrit :



ha bon il transplante de la bouillie ?? drôle de medecin







D’après ce qu’il m’a dit, on trouverait beaucoup de motards en état de mort cérébrale alors que beaucoup d’organes sont encore exploitables.



Il semblerait qu’en voiture, la tête étant mieux protégée, quand il y a mort, c’est qu’il y a beaucoup de lésions un peu partout.


Le 21/02/2016 à 19h 03







darkbeast a écrit :



ouais je les attends les flics pour rattraper ça







Pourquoi vouloir les rattraper ?



Un pote médecin m’avait confié que les motards alimentaient bien les banques de dons d’organes.