votre avatar

sr17

est avec nous depuis le 26 décembre 2005 ❤️

4322 commentaires

Le 09/03/2016 à 21h 10







Mr.Nox a écrit :





Microsoft etait autant au bord du naufrage que peut l’être Google ou Apple.







Microsoft était bien au bord du naufrage. De fait, son business model était complètement obsolète et menacé par de gros acteurs.


Le 09/03/2016 à 20h 50







jinge a écrit :



Eclipse??? autant Notepad++ je l’utilise depuis des années, autant Eclipse je trouvais ça pas vraiment pratique comparé à Visual Studio…







Pour ma part, après quelques années d’usage d’Eclipse, j’ai été amené à réutiliser Visual Studio et franchement, je préfère de loin Eclipse.







Le 09/03/2016 à 20h 44







gokudomatic a écrit :



J’ai pas bien compris la news. Est-ce que ça veut dire que Microsoft reconnait enfin à nouveau la suprématie de java?







J’espère bien que non.



C# a quand même beaucoup plus de qualités que Java.


Le 09/03/2016 à 20h 59







olahaye74 a écrit :



Les API ont leur importance. Par exemple, pas d’application messagerie vocale visuelle sans androïd 4. À l’époque ça bien fait ch…. les utilisateurs de téléphones qui n’avaient que les versions précédentes.



Idem aujourd’hui, si tu achète une voiture avec android car/car play, bah sans android-5, point de salut.



Et il y a plein d’autres exemples qi on cherche un peu où tu achète un équippement, et en licant la doc, raté, c’est la version suivante qui a toutes les fonctionalités et qui ne te laisse qu’un mode basique de compatibilité dans le meilleur des cas pour les versions précédentes.







En tant que programmeur, s’il y a une API que je n’aime pas du tout, c’est bien celle d’Android.


Le 08/03/2016 à 22h 56







Konrad a écrit :



Et ce serait bien que tu comprennes que :





  1. il existe des distributions où les dernières versions des logiciels sont dispo en quelques jours (elles ont déjà été citées plusieurs fois, marre de me répéter, tant pis si tu ne les connais pas ou ne veux pas les essayer).







    Je les connait fort bien.



    Mais je rappelle que le sujet du topic, c’est Debian.



    Donc pour ceux qui se demandent encore pourquoi on parle de Debian, apprenez à lire les titres.





  2. tu dis que plusieurs mois c’est problématique dans le libre, mais par contre ça ne te pose aucun problème que ça prenne du temps ou que ça ne soit pas dispo dans les stores propriétaires, tu leur trouves des excuses :« c’est un investissement énorme », « les éditeurs font parfois des choix ». Ben voyons, parce que dans le libre ça ne coûte rien, ça se fait d’un claquement de doigt, et les éditeurs ne peuvent pas faire de choix. Désolé mais je trouve le parti pris un peu gros.





    Sauf que tu compare des choses qui n’ont rien à voir.



    Le délai qu’un éditeur met à pondre un soft est une chose.



    Le délai qu’un store met à le publier à partir du moment ou l’éditeur le rends disponible, c’est autre chose.



    Et ce n’est ni comparable, ni la même chose.





  3. prétendre que « dans le libre » (expression qui ne veut rien dire vu que toutes les distrib n’ont pas la même politique de mise à jour), il faut attendre plusieurs mois avant qu’un logiciel ne soit disponible, c’est du troll, ni plus ni moins. Il a été dit plusieurs fois qu’il existait des distributions où ce n’est pas le cas. Mais tu persistes quand même, tu fais des généralités en ignorant tout ce qui existe.





    Donc on peut prétendre que les voitures ne polluent pas sous prétexte qu’une minorité du parc roule à l’électrique ?



    D’autant que de présenter les distro “rolling releases” comme si c’était LA solution miracle, c’est la encore un signe de manque de compréhension du problème.



    A l’heure actuel, le projet le plus intéressant IMHO n’est pas une rolling release, mais celui d’une distro classique qui visera à combiner le meilleur des deux mondes, c’est à dire une distro classique à base stable avec la possibilité d’installer plus simplement des logiciels avec moins de soucis de dépendances.





    Pour tout te dire, je suis moi-même développeur d’un petit logiciel libre (petit et pas très connu mais bref). C’est un soft que j’ai développé avant tout pour moi, pour l’utiliser moi-même et me faciliter la vie. Puis je me suis dit que ça pouvait être utile à d’autres alors je l’ai publié sous licence libre. Note qu’en faisant cela je ne me suis pas engagé à répondre aux exigences de tout le monde hein !





    C’est un bon début.



    Mais quand tu aura mon age, que tu aura écrit un certain nombre de logiciels libres dont certains utilisés par des milliers de personnes dans le monde, tu comprendra les raisons de ce que j’écrit.





    Alors, si quelqu’un vient me voir en me disant : « j’aurais besoin de telle fonctionnalité, est-ce que c’est possible ? » ou bien « voilà une contribution que je propose », je les écouterai avec attention, et je coderai moi-même les fonctionnalités si je les estime utiles (et si j’ai le temps). C’est ainsi que des gens m’ont remonté des bugs, que j’ai corrigé ; qu’ils ont contribué en m’envoyant du code, que j’ai incorporé dans mon projet ; bref des contributions vraiment utiles et constructives, tu vois.



    Par contre si un gus comme toi vient me voir en disant : « ton soft est dépassé et ne correspond plus aux besoins de personne, il est obsolète, il faudrait que tu fasses comme ci et comme ça », il y a des chances que je l’envoie chier bien comme il faut. Ce soft me correspond, et correspond à pas mal d’utilisateurs, et c’est tout ce qui compte. Pour les autres, si ça ne répond pas à leurs besoins alors qu’ils aillent voir ailleurs ou qu’ils développent leur propre truc, je n’ai pas de leçon à recevoir d’eux. Je ne prétends pas que mon code est parfait ; mais pour autant je n’ai pas à accepter qu’un inconnu qui ne s’est jamais investi dans le projet me démonte et me traite de dinosaure obsolète. Les critiques c’est bien quand c’est construit, utile et que ça permet d’améliorer les choses ; par contre les critiques gratuites et sans fondement on s’en passera bien merci.





    Si tu veux un bon conseil d’un vieux développeur qui as plusieurs décennies de métier, si un client ou un utilisateur viens te dire que ton soft est dépassé ou à côté des besoins et qu’il te fait l’honneur de prendre sur son temps personnel pour te donner un minimum de raison pour comprendre, quand bien même son commentaire te défrisera le poil, tu serais bien avisé de l’écouter et d’y réfléchir.



    Pour ma part, cela m’est arrivé par le passé. Et même si sur le moment c’est extrêmement désagréable à entendre, c’est parfois ce qui a sauvé un projet d’aller s’écraser tout droit dans le mur…



    Avec le recul, on réalise combien ces critiques désagréables sont une chance qui permet de progresser.





    Alors bien sûr, loin de moi l’idée de comparer mon petit bout de code avec une cathédrale aussi imposante que Debian, mais je ne pense pas trop me tromper en disant qu’à peu de chose près, les contributeurs de Debian doivent penser la même chose des gens comme toi. Pas content de Debian ? Ben vas-y fais comme les développeurs d’Ubuntu : fais un fork et modifie-le à ta sauce, rien ne t’en empêche.





    Ce n’est pas l’envie qui me manque.



    Mais il n’y a que 24 heures dans une journée et j’ai déjà plus que mes propres projets à gérer.



    A un moment si l’on veut faire du travail de qualité, on ne peut pas tout faire.



    Ceci dit, si dans quelques années il n’y avait toujours rien de satisfaisant, je ne résisterais probablement pas à l’envie d’y travailler.





    En attendant tu n’as rien payé, tu n’es pas un client, tu n’es pas un contributeur, tu n’as jamais envoyé de rapport de bug ou de feature request aux développeurs, tu ne proposes même pas de solution concrète sur le papier. Bref tes commentaires ne servent à rien. Tu ne construis rien, tu n’aides en rien à résoudre les soi-disant problèmes que tu dénonces.





    Il arrive que de faire des suppositions soit une grave erreur.



    J’ai donné des années de travail au monde du logiciel libre. Pour information, j’écrivais déjà des logiciels libres quand certains ici n’étaient pas nés.



    Quand tu aura fait du chemin, tu comprendra mon agacement à certains sujets.





    Tout ce que tu fais, c’est te plaindre en attendant que d’autres fassent le travail que tu demandes. « Il faut faire ceci », « ça devrait être comme ça », « je trouve que », « il faut que les autres comprennent »… Et toi tu restes les bras croisés. Belle mentalité vraiment…





    En même temps, en tant que programmeur je dit qu’heureusement qu’il y a des gens qui viennent nous donner des idées sur ce qu’ils imaginent, sur la façon dont ils perçoivent les choses, sur ce qu’ils aiment ou n’aiment pas.



    Avec l’expérience, tu comprendra que les meilleures amis du programmeur ne sont pas ceux qui vous disent les paroles agréables que vous avez envie d’entendre, mais plutôt les grincheux qui osent mettre le doigt la ou ça fait mal.


Le 08/03/2016 à 19h 12







Commentaire_supprime a écrit :



<img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" />



Causalité n’est pas corrélation.



Cela démontre qu’il y a de la place pour des distros qui ont une logique différente des distros classiques (spécialisation, espacement des mises à jour…).



Les distros classiques n’ont pas la prétention de répondre à tous les besoins, d’autres s’en chargent à leur place.







Il est logique de voir certaines distributions se spécialiser dans une niche.



Mais êtes vous certain de vraiment connaitre le but de Debian ?



Je cites Wikipedia “le but a toujours été d’obtenir un système universel, c’est-à-dire utilisable aussi bien sur un serveur que sur un ordinateur de bureau, un ordinateur portable, voire un smartphone (ordiphone).”.



Je peux vous donner quelques liens qui montrent que ce système est présenté par Debian et par d’autres comme “le système d’exploitation universel.” :



google.fr Google



https://2015.capitoledulibre.org/programme/presentation/136/



Donc non, le but de Debian n’est pas juste d’être une bonne distribution serveur. Le but de Debian, c’est bien d’être une distribution libre ET adaptée à tous les usages.



Est t’il vraiment si déplacé de demander à un système d’exploitation qui aspire à un usage populaire ce qui est maintenant quasiment la norme sur la plupart des systèmes d’exploitation de monsieur tout le monde ?


Le 07/03/2016 à 23h 52







Konrad a écrit :



Tu as essayé Arch ?…







Ouaip.





Et sinon tu n’es pas au courant qu’il y a aussi des délais sur les Stores propriétaires que tu sembles si prompt à encenser ? Par exemple la dernière version de Skype, ou de MS-Office, est disponible sur Android puis sur iOS (ou l’inverse ça dépend des versions), parfois plusieurs semaines avant d’arriver sur Windows Phone ? <img data-src=" />





Sauf qu’il faut faire la différence entre des délais qui sont le fait de l’éditeur et ceux qui découlent du système de distribution.



Dans le développement, il est assez rare que des portages sur différentes plateformes soient terminées en même temps.





Sans compter les logiciels qui n’existent pas du tout sur certains Stores ??





Faire un soft pour chaque plateforme suppose un investissement énorme. Les éditeurs font parfois des choix.





Alors ils sont où tes Stores propriétaires parfaits et qui suivent au fil du rasoir les dernières versions ?



J’ai l’impression que sur le proprio non plus tu n’es pas objectif hein… <img data-src=" />





Un store ne peut quand même pas publier un soft avant que l’éditeur ne le lui donne.



Mais ce serait bien que dans le libre, on comprenne que mettre plusieurs mois entre le moment ou l’éditeur sors un soft et le moment ou l’utilisateur le recoit, ce n’est vraiment pas terrible.


Le 07/03/2016 à 23h 10







Konrad a écrit :



Je parlais des solutions possibles pour quelqu’un qui s’entête à utiliser Debian Stable et qui voudrait quand même avoir la dernière version d’un logiciel. Effectivement, pour arriver à cela il faut passer du temps à s’emmerder à bricoler… SOUS DEBIAN STABLE.







Bah, essaye Unstable et Testing, tu verra comme tout ceux qui ont essayé que ce n’est pas non plus l’idéal.



L’idéal, ce n’est pas de devoir choisir entre un système ou tout est dépassé ou un autre ou tout est vert.



Il faudrait pouvoir choisir facilement.





Tu es au courant que Debian n’est pas la seule distrib GNU/Linux ? Il en existe d’autres tu sais ? Sous Ubuntu ou Mint par exemple, pas besoin de s’emmerder : tu as tous les derniers logiciels à jour, pas besoin d’utiliser de solutions compliquées hein…





Sauf que Ubuntu et Mint, c’est aussi des logiciels dépassés, même si c’est dans une moindre mesure.





D’un autre côté, sur Ubuntu ou Mint, les dépôts installent la dernière version des softs. On dispose des dernières nouveautés sorties. Et tout cela se met à jour tout seul, les doigts dans le nez.





Sauf que non, ce n’est pas la dernière version des softs.





Du coup je ne vois vraiment pas où tu as un problème, et pourquoi tu persistes à dire que « Linux a un modèle dépassé »… <img data-src=" />





C’est simple, dans le monde propriétaire, c’est l’éditeur qui s’occupe de packager et de publier. Donc dès qu’il a fini une version, il publie le paquet et les utilisateurs reçoivent dans la foulée. Et la publication d’un nouveau soft ne prends pas plus que que quelques jours.



Dans le libre, tu as un éditeur qui sors un logiciel et publie les sources sur son site. Il faut parfois des mois, voir des années avant qu’un mainteneur d’une distribution le repère et décide de l’intégrer. Ensuite, il faut qu’un mainteneur ait le temps de suivre pour repérer les mises à jour et les intégrer. Et comme ces volontaires sont particulièrement surchargés, ça peut donner des décalages importants.

Ensuite, comme le mainteneur n’est pas le programmeur ni forcément un utilisateur régulier du soft, il ne sait pas toujours quelles sont les versions stables et celles qui déstabilisent le soft parce qu’elles intègrent des nouveautés.



C’est facile de comprendre qu’il faut raccourcir le chemin entre l’éditeur et l’utilisateur…





Moi je dis qu’il faut que tu arrêtes de confondre « Debian » et « Linux ». Apparemment c’est pas gagné.





Ce problème touche le monde Linux en général, mais Debian en particulier.





Il faut avoir le courage de voir que c’est le cas depuis longtemps dans la plupart des distributions, à commencer par Ubuntu ou Mint, dont tu sembles ignorer l’existence.





Ubuntu et Mint apportent effectivement leur valeur ajoutée sur la base d’un travail sur Debian Testing. Ce qui démontre tout à fait mes propos sur le fait que les utilisateurs veulent quelque chose qui est plus à jour avec un minimum de stabilité.

Mais il faut réaliser que c’est un pis aller. Les logiciels ne sont toujours pas vraiment à jour.





Pourtant tu passes ton temps à troller et à raconter n’importe quoi depuis plusieurs pages, en croyant que le modèle suivi par Debian est une généralité dans « le monde libre » (expression qui ne veut rien dire), et en disant que ce modèle est dépassé et obsolète… <img data-src=" />





Ah ouais ?



Donc tu va pouvoir me donner le nom des distributions qui font aussi bien que les stores propriétaires.



Même sur les rolling releases, les softs ne sont pas tous mis à jour rapidement…


Le 07/03/2016 à 22h 44







Commentaire_supprime a écrit :



En plus d’ignorer lourdement le fait que des distro rolling release, ça existe. Arch linux, Manjaro, connaît pas ?







Et bien justement, le fait que ça bouge énormément du côté de ces distributions qui montent comme c’est pas permis en ce moment, ça démontre totalement ce que je dit : les utilisateurs ressentent des manques avec les distributions classiques.



C’est bien le signe évident que certaines distributions classiques sont dépassées.


Le 07/03/2016 à 22h 00







Konrad a écrit :



Pourtant tu ne sembles pas du tout accepter la façon de faire de Debian.







Tu ne semble pas comprendre le rôle du débat.





C’est justement ce que tout le monde dit depuis le début : Debian n’a pas pour vocation à être adaptée pour TOUS les usages <img data-src=" />





Ce qu’il ne faut pas entendre.





Debian est adaptée à CERTAINS usages. Si ça ne correspond pas à tes usages alors utilise autre chose ! Pourquoi tu t’entêtes autant ?





Qui c’est qui s’entête ?





Non mais là tu es complètement ridicule.



Encore une fois Debian n’est pas pensée comme une distribution 100% desktop, ni 100% pour les gamers !! Il y a des distribution bien mieux adaptées pour ça.



Quant à Ubuntu ou Mint, elles proposent des jeux dans leurs dépôts, et ces jeux sont mis à jour indépendamment de la distrib hein. Pas besoin d’attendre 6 mois pour mettre les mises à jour logicielles.



Là tu montres juste que tu ne connais rien à la distribution de logiciels sous GNU/Linux… <img data-src=" />





Ce qui démontre complètement ce que je dit.



Mais vu que depuis le départ, tu cherches uniquement à contredire, je n’attends pas que tu fasse l’effort de comprendre.





Ah bon Linux veut remplacer Windows ? Mais quelle est donc l’entreprise derrière Debian, qui s’est mis en tête de vouloir « remplacer Windows » ? <img data-src=" />



Que Canonical veuille concurrencer Windows avec Ubuntu je peux comprendre, mais Debian ? Tu crois vraiment que ce qui motive les développeurs et les contributeurs de Debian, c’est de concurrencer Windows ?? <img data-src=" />

On nage en plein délire là… Vraiment tes arguments volent de plus en plus bas <img data-src=" />





Je n’ai pas de temps à perdre avec du troll.


Le 07/03/2016 à 21h 16







Konrad a écrit :



+1 il y a TOUJOURS des alternatives.



Un paquet n’est pas dispo ou trop vieux dans Debian Stable ? On peut :





  • aller voir dans les backports ;

  • utiliser les dépôts Testing ou Unstable uniquement pour le paquet incriminé ;

  • ajouter un dépôt extérieur ;

  • télécharger le .deb si l’éditeur le met à disposition ;

  • compiler soi-même…







    Sauf que c’est loin d’être simple en plus de ne pas toujours marcher très bien, et il faut quand même réaliser honnêtement que pour arriver à cela, la plupart des utilisateurs de Linux passent leur temps à s’emmerder et à bricoler…



    De l’autre côté, sur les Os propriétaires, les stores installent la dernière version des softs. On dispose des dernières nouveautés sorties. Et tout cela se met à jour toute seul, les doigts dans le nez.



    Moi je dit qu’il n’y a aucune raison pour que Linux se contente de faire moins bien.



    Il faut avoir le courage de dire que sur Linux, certaines logiques sont dépassées et que cela doit évoluer d’urgence.





    Si ces solutions ne satisfont toujours pas, alors on peut installer Debian Testing, ou Ubuntu, ou Mint, ou autre chose… C’est aussi simple que ça.





    Non, ce n’est pas aussi simple.



    Si chacune des solutions que tu évoques peut répondre un peu mieux au besoin d’avoir des logiciels plus à jour, aucune ne règle réellement le problème de manière satisfaisante et élégante.



    Parce qu’au fond, tout ce que tu cites repose sur le même système de gestion de paquets, les mêmes sources et les mêmes logiques. Et c’est à ce niveau qu’il y a des choses dépassées.





    Le problème ce n’est pas Debian Stable et sa façon de faire. Le problème, c’est quand on a des exigences particulières : il faut rechercher la solution la mieux adaptée à ses besoins, et non pas se plaindre que telle ou telle distrib ne répond pas à ses petits besoins particuliers.





    Justement, si tu analyse un peu le problème en profondeur, tu comprendra d’ou viennent les causes.



    Ce n’est d’ailleurs pas pour rien qu’Ubuntu met au point son propre système de paquet avec probablement l’intention à terme de se débarrasser du système de paquets Debian et d’avoir leur propre source.





    Pour ma part j’utilise Debian Stable sur mon serveur et je trouve qu’elle est parfaite pour ça : pas besoin des derniers paquets, pas besoin du Cloud… J’ai avant tout besoin de stabilité et d’uptime, pas de mises à jours à répétition qui me fait rebooter tous les 4 matins, bref Debian Stable est parfaite pour mon serveur.





    C’est sûr que sur serveur, c’est beaucoup plus adapté.



    Cela dit, on est quand même obligé d’installer à la main un certain nombre de choses.

    La aussi, pour certains softs c’est indispensable d’avoir des versions à jour. Et après, c’est galère de gérer les mises à jour à la main.



    Donc la aussi, je dirais que même si c’est bien, on pourrait toujours mieux faire.





    En revanche je trouve que Debian Stable n’est pas adaptée pour mon PC de bureau, pour exactement les mêmes raisons : les mises à jour et les dernières versions des logiciels ne sont pas dispo, ce qui est gênant pour une utilisation bureautique. Du coup j’utilise autre chose ! Il faut être logique. Je ne vais pas demander à Debian d’être à la fois stable et minimaliste pour mon serveur, et en même temps de me servir toutes les dernières mises à jour de tous les logiciels pour mon desktop, c’est complètement incompatible !





    Puisque le monde propriétaire y arrive, on ne peut pas poser le constat que ce serait impossible.



    Il faut réaliser qu’il y a quantité de choses concrètes qui peuvent être faite pour améliorer les choses et se rapprocher de l’idéal dont beaucoup de Linuxiens rêvent.



    Et cet idéal, c’est de pouvoir combiner de manière plus souple dans un système des logiciels qui changent peu souvent et des logiciels récents. Et au niveau distribution, d’avoir rapidement TOUS les logiciels qui sortent.



    Mais pour cela, Linux doit évoluer techniquement, la manière doit les logiciels sont packagés doit évoluer, la façon dont les distributions collaborent avec les programmeurs et les éditeurs en amont doit changer.



    Le problème est moins une question de technique que de mentalités à changer.





    Il faut d’abord considérer ses besoins, et ENSUITE choisir une distribution capable de répondre à ses besoins -d’ailleurs il y en a souvent plusieurs, après tout dépend des goûts de chacun. Faire l’inverse (choisir une distribution et ensuite se plaindre qu’elle ne convient pas), c’est complètement stupide et contre-productif pour tout le monde.





    Il faut réaliser un truc important sur la façon dont fonctionne le monde libre, c’est que la plupart des distributions du monde Linux ne sont que des meta distributions qui en fait s’alimentent en paquets sur l’une des deux grandes sources existantes.



    Pourquoi est ce que je parles de Debian ? C’est parce que Debian n’est pas juste une distribution comme les autres : C’est LA source de paquets la plus utilisée du monde libre. Et c’est la que les choses doivent évoluer.



    Et quand un problème viens d’une logique dépassée à la base, toutes les distributions qui en découlement le subissent plus ou moins.





    Du côté des OS propriétaires tu n’as pas le choix : si Windows ne te convient pas alors tu n’as pas de Windows-like alternatif, pas de fork de Windows. Idem si OS X ne te convient pas, il n’y a pas d’alternative qui lui ressemble. Mais dans les distributions GNU/Linux, si Debian ne te convient pas alors il y a largement le choix quand même… <img data-src=" />





    Certes, on peut toujours dire que si un truc ne convient pas, un autre le fera.



    Mais il faut réaliser que si les acteurs comme Debian qui pensent vraiment de “libre” perdent complètement le leadership, alors le futur du monde Linux sera peut être géré par d’autres acteurs dont les décisions pourraient nous plaire beaucoup moins.



    Si le monde libre ne se bouge pas, l’exemple d’Android pourrait bien se répéter sur desktop.


Le 07/03/2016 à 19h 26







ActionFighter a écrit :



En quoi ce serait lié au libre ? Des éditeurs proprios totalement à la ramasse pour ce qui est de l’intégration des dernières versions de leurs composants, il y en a plein. C’est simplement une question de taille d’organisation.







Sauf que dans le monde propriétaire, tu n’attends pas des mois ou des années pour avoir le dernier logiciel, le dernier jeu vidéo ou la dernière version de ton utilitaire favori. Les “stores” propriétaire te délivrent la dernière version de manière instantanée.



A l’heure ou Linux veut prétendre à sortir de son marché de niche, il serait bon de réaliser qu’il y a des inconvénients qui sont réellement rédhibitoires.



Imaginez par exemple un grand éditeur de jeux vidéo qui va sortir son jeu au mois de novembre. Manque de bol, Debian est déjà “freezé”, va falloir attendre 2 ans <img data-src=" />

Et pour Ubuntu, il va falloir attendre quelques mois. <img data-src=" />



Est ce que vous croyez sincèrement que c’est possible dans une économie de marché ?



Il est facile de comprendre que Linux ne pourra pas prétendre à remplacer Windows tant que certaines tares rédhibitoires ne changeront pas.





Et même lorsque cette intégration se fait rapidement et avec sérieux, il y a parfois des régressions. Et c’est justement ça que Debian essaie d’éviter. Debian est faite pour être stable, pas pour avoir la dernière version de tel paquet, et c’est ce que ses utilisateurs lui demande. Et même si elle n’est pas faite à la base pour ça, il y a les backports.





Justement, le problème de la stabilité, c’est que dans certains cas, c’est le fait d’avoir le dernier composant qui peut résoudre les problèmes.

Et les backports n’apportent qu’une solution très imparfaite.





Maintenant, si les décisions et cette manière de fonctionner ne te plaît pas, le monde du libre est vaste.





Sauf que ce n’est pas en raisonnant ainsi que Linux fera de l’ombre aux Os propriétaires.


Le 07/03/2016 à 18h 59







Commentaire_supprime a écrit :



Je passe sur Sr 17 et son argument de l’homme de paille (“si tu dis pas que Debian c’est mal, tu est un mouton sectaire” digne de feu Merphémort) pour simplement rappeler un fait simple : dans le libre, tu as le choix, et tu fais ce qu’il te plaît. Tout ce qu’on te demande, c’est d’assumer tes choix.







Je n’ai jamais dit cela.



Et non, je n’ai jamais dit(ni pensé) que ceux qui ne disent pas de mal de Debian seraient pour autant des moutons sectaires.



J’ai le plus grand respect pour le point de vue des autres quand bien même je ne le partage pas.



Mais j’entends que les autres fassent de même et respectent mon droit a avoir une opinion différente de la leur.





En ce qui me concerne, pour mes goûts à moi, et de façon totalement subjective, j’aime le combo Fedora + Cinnamon. De temps à autre, je me fais rappeler que Cinnamon a été développé sur Mint, et que Fedora, c’est Gnome à la base, et que si je veux Cinnamon, faut que j’aille sur Mint.



Inutile de dire que j’emmerde profondément ceux qui tiennent ce genre de discours. Je ne les empêche pas de rester sur Gnome 3 avec Fedora ou de prendre Mate pour Mint. Qu’ils me foutent la paix avec mon Fedora/Cinnamon qui me plaît beaucoup.





Et ce n’est pas moi qui te dira le contraire.





Pareil pour Debian, qui a pour devise “le changement, c’est pas tout le temps, et pas pour un oui ou pour un non”. Si on aime une distro qui ne fait pas table rase du passé tous les six mois, avec les problèmes que cela peut engendrer, Debian est ce qu’il faut. Je compte me monter un serveur maison en NFS, qui n’aura pas à avoir un OS top niveau en permanence, et Debian stable me convient très bien pour cette tâche.



En informatique, il y a une devise que j’aime bien : “if it’s not broken, don’t fix it”. Si une Debian Stable fonctionne à merveille et rend entière satisfaction au mainteneur de la bécane sur laquelle elle tourne, pourquoi la remplacer ? Nombre d’entreprise ont toujours des mainframes ou des middleframes genre AS/400 datant des années 1990 et tournant sous Cobol ou AS/400 OS avec lesquels elles font très bien leur boulot, pourquoi leur demander de foutre tout ça à la benne au non du culte de la changeouille permanente ?





On connait bien l’intérêt de cette logique la, mais l’ennui, c’est qu’elle n’est pas idéale pour tout.



Autant ce que tu dit est vrai pour des composants qui évoluent très peu et qu’on va éviter de modifier trop souvent parce qu’au fond, ça n’apporte rien à part de risquer d’introduire des bugs.



Autant pour certains logiciels ou outils, c’est totalement intenable parce que les formats évoluent, les normes évoluent et parce que les versions récentes apportent des solutions à quantités de soucis et problèmes.



Le 07/03/2016 à 01h 27







Konrad a écrit :



Discours marketing ? Je dis juste que Debian convient à sa communauté. Les utilisateurs de Debian en sont contents. Par définition s’ils n’en étaient pas contents ils ne seraient pas utilisateurs de Debian, ou alors ils feraient remonter leurs requêtes pour changer les choses.







C’est une vision assez naïve et simpliste des choses. La réalité est malheureusement plus complexe.





Debian est « stable » dans le sens où, pendant toute la durée du support, elle ne va pas sauter de version majeure sur un logiciel. Le but est d’éviter les interruptions de services liés à des problèmes de dépendances, de fichiers de conf qui changent de format (exemple : Apache 2.4), et ainsi de suite. Seules les mises à jour de sécurité sont backportées afin de garantir une bonne fiabilité (autrement dit tu as beau avoir une vieille version, les failles sont quand même bouchées). C’est la façon de faire de Debian (du moins pour sa version Stable), tout le monde le sait, ça n’est pas une surprise. Si tu veux les dernières versions de tous tes logiciels, alors n’utilise pas Debian Stable, c’est aussi simple que ça.





Je m’excuse d’avoir oublié de remplir le formulaire N°8564bis tamponné en 3 exemplaires pour obtenir l’autorisation de penser librement que c’est un modèle dépassé et surtout, pour utiliser mon clavier pour exprimer ma pensée <img data-src=" />



Et non, les branches Unstable et Testing ne correspondent pas non plus à ce que j’attends.





Le but est d’éviter les interruptions de services liés à des problèmes de dépendances, de fichiers de conf qui changent de format (exemple : Apache 2.4),





Ne posez jamais l’idée reçue que quelque chose serait impossible…



Ce n’est pas les solutions qui manquent pour gérer ce genre de souci.



De deux choses l’une :



Soit on est capable d’écrire un programme qui sera capable de traduire sans erreur un format de fichier de conf vers l’autre et l’on peut appliquer la mise à jour automatiquement.



Soit il n’est pas possible d’en être suffisamment sûr et il faut simplement conditionner cette mise à jour à l’approbation de l’utilisateur en lui laissant le choix de continuer pendant un certain temps sur la branche précédente et gérer quand ça lui conviendra la mise à jour vers la version suivante avec toutes les indications nécessaires (doc, lien vers forum, etc).



Mais il faut prendre conscience qu’une grande partie des problèmes de ce genre viens du fait que dans le libre, contrairement au monde propriétaire, on n’incite pas le programmeur à gérer lui même ces problèmes.



Le monde libre commet l’erreur de reporter ce problème sur une tierce personne qui est celui qui s’occupe de la phase de packaging. Or les volontaires qui s’en occupent n’ont pas la même connaissance du logiciel que les programmeurs. Et ils n’ont le plus souvent pas le temps matériel de résoudre ce genre de problème.



Mais ce serait certainement trop compliqué pour une discussion de forum d’expliquer toutes les raisons culturelles qui aboutissent à cela. La encore, il faut bien connaitre le monde du libre en général et la culture de Debian en particulier. Pour comprendre il faut sortir de ce genre de discussion passionnée pour prendre un peu de recul.





Si Debian ne te convient pas, alors j’imagine que tu ne l’utilises pas. Si tu ne fais pas partie des utilisateurs, ni des contributeurs, ni de la communauté Debian, je ne comprends pas pourquoi tu te plains du fonctionnement de Debian.





Donc j’imagines qu’a partir du moment ou tu utilises quelque chose, tu t’interdit toute forme de critique ?



Connait tu le proverbe “qui aime bien châtie bien” ?



S’abstenir de critiquer est simplement une mauvaise attitude pour la simple raison que la critique est le moteur de toute amélioration.



De la même façon, faire la chasse aux critiques qui sont justifiées et méritées est extrêmement contre productif.





Tu dis que la communauté n’est pas écoutée, ou que Debian ne correspond plus à sa communauté. C’est quoi pour toi la « communauté Debian » : les gens qui n’utilisent pas Debian, mais qui aimeraient bien qu’elle change ? Ben non désolé ce n’est pas comme ça que ça marche…





Pour toi, une distribution comme Debian(ou autre) est faite par ceux qui l’utilisent.



Sauf que ta vision de ce qu’est une communauté est une vision idéalisée et théorique qui ne correspond pas du tout à la réalité.



La réalité, c’est que toute distribution, tout logiciel est faite par un petit nombre de connaisseurs et utilisée par un grand nombre d’utilisateurs.



Dans la vraie réalité, la très grande majorité des utilisateurs ne remonteront jamais la moindre avis. C’est encore plus vrai s’ils rencontrent des personnes qui s’amusent à faire la “chasse aux critiques”.



Tout informaticien d’expérience te dira à quel point il est facile de passer à côté de l’évolution des besoins et de s’enfermer dans son petit monde. Le cimetière des logiciels est rempli d’exemples qui le démontrent.





Moi par exemple je n’utilise pas Fedora pour des raisons qui me sont propres. Pourtant je ne vais pas aller cracher sur cette communauté en disant que ce qu’ils font est à côté de la plaque et ne convient à personne. Le jour où Debian ne me conviendra plus, alors j’utiliserai autre chose, mais pour autant je ne leur cracherai pas dessus en disant « Debian ne me convient plus, donc c’est de la merde ».





Sauf que je n’ai jamais qualifié Debian de “merde”. Merci de ne pas m’attribuer des propos que je n’ai jamais tenu ni de déformer des propos qui sont nuancés et argumentés.



Au passage, si tu conçoit le libre comme une secte ou il ne faudrait jamais rien critiquer, ce n’est pas ma conception personnelle.



Le fait d’avoir le plus grand respect pour Debian et ce que cette distribution historique a apporté au libre ne doit certainement pas exclure le droit de faire des critiques saines et constructives.





Tu dis que « les besoins (des utilisateurs) ont changé » : ben très bien, il existe des distributions qui suivent les dernières avancées et qui savent répondre aux besoins des utilisateurs. C’est le cas d’Ubuntu par exemple, ou de Linux Mint, qui sont toutes deux très populaires. Je dirais même que c’est la raison même d’exister de ces distributions : Debian ne convenait plus à certains alors ils ont fait un fork, Ubuntu. Ubuntu ne suffisait pas à certains, alors ils ont créé Mint. Debian n’a jamais prétendu suivre la mode ni offrir les derniers trucs, je ne vois pas pourquoi tu t’attendrais à ce que ça soit le cas aujourd’hui. C’est un peu comme si tu disais qu’aujourd’hui tu as besoin de te déplacer loin donc il te faut une voiture ou le train, et donc tu blâmes le vendeur de vélo de ne pas savoir répondre à tes besoins. Si tu as des besoins précis, il existe des distributions qui répondent déjà à ces besoins ; tu ne peux pas exiger que TOUTES les distributions suivent la mode ou répondent exactement à tous tes besoins, ça n’a pas de sens…





Personne n’a dit le contraire. Je n’ai fait qu’expliquer certaines de ces raisons.



J’ajoutes que tu as tort de prendre pour une mode ce qui est une lourde tendance de fond qui ne fera que s’accentuer dans les années à venir.



Le monde propriétaire a pris une sacré avance par rapport au monde libre sur ce coup la, jouer l’autruche n’est pas du tout une bonne idée. Ce n’est un cadeau pour personne.





En résumé : Debian ne te convient pas, tu utilises autre chose, très bien c’est ton choix, tu as tes propres raisons. Mais ne prends pas ton cas pour une généralité. Tous tes arguments sont à base de « moi je », « mon utilisation », « j’ai ce problème », « je trouve que », « pour ma part » : manifestement c’est très subjectif, aie l’honnêteté de le reconnaître. Tes arguments concernent TON utilisation, TES besoins, ça n’a rien d’objectif ni d’universel. Arrête de faire comme si TES raisons devaient être les raisons de tout le monde.





Ca tombe mal parce que j’ai bien bien écrit noir sur blanc dans mes posts que c’était juste mon opinion personnelle. Et je le réaffirme pour ceux qui ne savent pas lire.



C’est un bon exemple qui montre qu’il faut au moins lire ce qu’écrit une personne avant de lui tomber sur le râble juste parce qu’elle ose critiquer quelque chose…





Dis-toi que le jour où la façon de faire de Debian sera dépassée et obsolète, elle perdra ses utilisateurs et disparaîtra, c’est aussi simple que ça.

En attendant cette façon de faire plaît à une certaine communauté, je ne vois vraiment pas en quoi c’est pertinent et utile de les pointer du doigt comme tu le fais.





A mon humble avis, tu te trompes lourdement en pensant que cela plait aux utilisateurs.



Dans le monde propriétaire, un développeur est capable de publier un nouveau logiciel et de le rendre accessible à tous en quelques jours et une mise à jour vers une version récente en quelques minutes. Mais bien sûr, ce serait quelque chose dont personne ne veut <img data-src=" />



Mieux, certains logiciels propriétaires (exemple : minecraft), non content de se mettre à jour en temps réel proposent maintenant un menu ou tu peux choisir exactement la version que tu veux parmi toutes les versions du logiciel ayant existé.



De l’autre côté, le monde libre affiche des délais faramineux qui se comptent en mois, voir en années, aussi bien pour intégrer des nouveaux softs que pour intégrer les dernières versions.



Libre à certains de se raconter des histoires et de croire qu’un inconvénient majeur serait en réalité une “feature” désirée par les utilisateurs.



J’ajoute que pour ma part, je ne souhaite nullement que Debian perde des utilisateurs. Mais il faut quand même réaliser que cette distribution est à la base d’énormément d’autres distributions et que si Debian n’évolue pas rapidement, c’est autant de distributions qui n’évolueront pas.



Certes, Ubuntu semble avoir un plan d’évolution, mais cela peut aboutir sur l’inconvénient d’accentuer encore le leadership de cette distribution.





Oh et au passage, je n’ai jamais affirmé que Debian était la distribution la plus stable de la planète hein… Des distros comme Red Hat ou Fedora sont tout à fait aussi stables et robustes que Debian, je n’ai aucun doute là-dessus.





Donc tu est d’accord pour tordre le cou à cette vieille légende urbaine qui fait croire que des logiciels dépassés serait le seul et le meilleur moyen d’obtenir une bonne stabilité ?





Mais chacune de ces distribs vise des choses différentes, et « différentes » ça ne veut pas dire que ce que fait l’autre est forcément « moins bien ». On peut faire quelque chose de différent tout en respectant les choix des autres…





L’idée de liberté, c’est aussi que chacun a le droit d’avoir son avis et de l’exprimer.



Aimer le logiciel libre ne veut pas dire pour autant qu’il ne faut avoir d’avis critique que lorsqu’on parle de Microsoft, Apple ou Google.



Pour ma part, je pense que taire ses opinions, ce n’est pas du tout respecter les autres.


Le 06/03/2016 à 00h 10







Konrad a écrit :



Encore une fois, tout dépend de ce que tu cherches. Je te rappelle que Debian est une distribution entièrement communautaire, donc c’est difficile de l’accuser de ne pas écouter la communauté. Debian est bien adaptée à SA communauté, car elle est adaptée PAR sa communauté.







Je te serais vraiment reconnaissant de m’épargner des kilomètres de discours marketing.



Et justement, il faut les connaitre un peu les Debianeux pour comprendre le problème.



Ce que tu appelle un “fonctionnement communautaire” est en réalité basé sur une petite communauté de volontaires qui se connaissent bien et depuis très (trop ?) longtemps. Leurs compétences ne font aucun doute, mais le problème c’est que (IMHO) ils ne suivent pas vraiment l’évolution du monde qui les entoure.



Entre les années 90 et aujourd’hui, la communauté des utilisateurs a changé, les besoins ont changé, les modes de distribution ont changé. Et surtout, tout s’est accéléré dans le libre de façon exponentielle. L’internet et les réseaux sociaux ont accéléré le temps d’une façon inouïe.



Dans les années 90, au temps ou il fallait se procurer des CD, mettre quelques mois ou années pour intégrer un logiciel ou une mise à jour n’était pas primordial.



Mais aujourd’hui, les “stores” propriétaires permettent de publier des logiciels et leur mise à jour en quelques heures. A l’heure du Buzz et des réseaux sociaux, c’est devenu primordial. Et cela aussi bien pour les utilisateurs que pour les créateurs de logiciels.



Pour ma part, je pense qu’un décalage qui se compte en mois, voir en années entre le programmeur et l’utilisateur, c’est un modèle obsolète et désuet pour la plupart des gens et même pour les pro. Et certaines distributions travaillent pour changer les choses plus que d’autres.


Le 05/03/2016 à 22h 56







Konrad a écrit :



Je me permets de revenir là-dessus : il faut quand même rappeler que les gens qui ont initié le mouvement des logiciels libres (notamment Stallman) étaient aussi des pros, des développeurs…



Beaucoup de gens qui ont développé des logiciels libres SONT des pros, que ça soit Open Office (descendant de Sun StarOffice), Firefox (héritier de Netscape), Blender (qui est devenu un logiciel libre après des années en tant que solution propriétaire), les UNIX/BSD (Ken Thompson c’était pas un étudiant dans son garage), et bien sûr le noyau Linux auquel de grosses entreprises contribuent depuis les années 1990 (Intel, etc.).



Bref c’est entièrement faux de croire que les logiciels libres c’étaient des amateurs dans leurs garages il y a plus de 10 ans, et majoritairement des entreprises aujourd’hui. Il y a TOUJOURS eu des entreprises et des professionnels qui ont contribué ou utilisé des logiciels libres, de même qu’il y a TOUJOURS eu des projets communautaires, depuis que le logiciel libre existe.



Pour les pros il y a des solutions adaptées, par ex. Red Hat avec son support, ou bien les solutions proposées par Linagora.



Pour les particuliers il y a aussi largement le choix.



Bref il ne faut pas faire d’amalgame et croire que soudainement, aujourd’hui le logiciel libre n’intéresse que les pros. Ça intéresse entre autres les pros, mais aussi des particuliers, et c’est bien qu’il y ait des solutions pour tout le monde.







Il ne faut pas confondre les distributions Linux avec les créateurs des logiciels libres et avec l’ensemble du mouvement libre.



Pour une grande partie des logiciels, les distributions Linux ne font que de les packager.



Le 04/03/2016 à 23h 17







sylvere a écrit :



c’est exactement pour ça qu’il y a les backports:

http://backports.debian.org/changes/jessie-backports.html



D’ailleurs freecad est dans la liste des packets backportés vers stable.







Hélas, ils se sont basés sur la version stable de Freecad qui malheureusement est déjà dépassée.



Comme tous les logiciels libres qui sont encore un peu immatures, il faut suivre la communauté de ce logiciel et être un utilisateur régulier pour comprendre quels sont les bonnes versions (et plugins) qu’il faut intégrer.



Cela va faire un bon moment que je tourne sur une version 0.16 que je me suis compilée moi même a partir des sources, qui est stable comme un roc et me pose beaucoup moins de soucis que la version stable. J’ai également utilisé la dernière version du moteur géométrique.



Cet exemple (qui n’est pas isolé, j’ai souvent le problème) montre que la capacité de proposer des logiciels à jour et de dialoguer avec les communautés d’utilisateurs est maintenant le nerf de la guerre pour une distribution Linux.



J’ajoute que le modèle des backports ne me convainc pas dans la mesure ou j’attends d’une distribution qu’elle me propose d’emblée le meilleur choix en terme de maturité/fonctionnalité.



Debian était une bonne distribution à une époque et elle l’est toujours. Mais pour Linux, l’époque des gus dans un garage est finie. Le monde des logiciels libres à changé, il bouge désormais de plus en plus vite. Et les utilisateurs sont désormais des pro qui ont des exigences en rapport.



Pour ma part, j’attends désormais d’une distribution Linux qu’elle intègre avec un maximum de réactivité les dernières versions ainsi que les derniers logiciels sortis.


Le 04/03/2016 à 20h 52







Meewan a écrit :



Pour du serveur ça tourne sur des machines très petites (bien que ce soit pas la distrib la plus légère qui soit)



Pour te donner une idée debian en graphique (version ARM) tournait sur le premier raspberry pi (arm 700MHz 256Mo/ram) avant la sortie de raspbian (qui n’est qu’une debian optimisé pour ce matériel)



A priori si tu as plus de 512Mo de RAM et un processeur décent (genre un pentium 4 mais au moins un core2duo serait mieux) ça devrait tourner sans problème (pas forcement hyper vite mais ça tourne).



Par contre debian stable est vraiment pas fait pour des postes desktop vue que les logiciels qui y sont présent sont très vieux (ils privilégient la stabilité a la nouveauté).



Pour du desktop léger j’aurais tendance a plutôt prendre du Manjaro XFCE ou si tu veut jouer (et pleurer) tu peux prendre une arch sur laquelle tu mets l’environnement de bureau qui te plaît (sur une machine peu puissante je te conseil XFCE ou openbox ou lxqt)



edit : burned by Alucard63







Moi je trouve que c’est un peu une légende. Parce qu’ancienne version d’un logiciel ne garantit pas forcément une meilleure stabilité.



Je pourrais donner l’exemple de logiciels comme Freecad ou les anciennes versions sont vraiment boguées et peu utilisables. Les versions récentes sont bien meilleures.



Malheureusement, c’est souvent comme ça pour tous les logiciels récents qui s’améliorent rapidement.



Pour moi, la façon de procéder de Debian n’est pas l’idéal.


Le 08/03/2016 à 18h 46







FrancoisA a écrit :



Franchement, vous êtes naïfs !

Le but est de concurrencer le serveur MySQL (qui est open-source et leader sous Linux dans la plateforme LAMP).

Microsoft avait commencé par attaquer cette plateforme en inventant WAMP, maintenant il invente LASP ! (Le S pour SQL Server) !







Logiquement, je ne vois pas SQL Server arriver à concurrencer MySQL s’il n’apporte pas au moins quelques avantages.


Le 08/03/2016 à 18h 38



un utilisateur lambda peut-il vraiment participer à ce genre de votes, s’il ne connaît pas suffisamment le fonctionnement du protocole, ni ce qui est bon pour lui ?





C’est tout le problème de la démocratie.



La démocratie peut également devenir une dictature de la majorité si on se base uniquement sur le nombre.



Par exemple, si 51% des habitants pensent qu’on devrait exterminer les chômeurs (ou tout autre minorité), doit t’on pour autant appliquer leur décision sous prétexte qu’elle est “démocratique” ?



Pour moi, la réponse est non.



Georges Orwell donne un bon exemple dans “la ferme des animaux” montrant qu’une démocratie qui est le fait de moutons incultes sers finalement la dictature de ceux qui leur dictent ce qu’ils doivent penser.

Le 08/03/2016 à 00h 40







brokensoul a écrit :



Pas besoin de spécifier de temps de vie en c++, c’est plus lisible et plus rapide à programmer, même si ça se fait au prix de la fiabilité. Rust est objectivement plus compliqué de ce point de vue, une simple structure qui stocke des pointeurs est pénible à écrire.

La comparaison avec Go vient de la jeunesse des langages de mon côté, des petits écosystèmes et des usages pas encore bien définis. Je travaille principalement en c++ et python, les deux ont des points forts très clairs, rust n’en est pas là. Les langages n’arrivent pas dans le vide, plein de gens savent faire du python et veulent du plus rapide par exemple, ils vont naturellement considérer java, go, rust ou c++.  En quoi est-ce que Rust est vraiment bon, c’est quoi la “killler app ?” Sûr OK, c’est un peu court. Pas vraiment plus concis que c++11, moins naturellement concurrent que Go, c’est une comparaison qui en vaut une autre, utiliser un “language système” est rarement un prérequis.







Clairement.



Si tu veux mon avis, c’est la mode. Chacun veut sortir son langage.



Mais comme on dit, pendant qu’ils se battront, le vrai roi va continuer de régner.



Parce que c’est pas demain la veille que ceux qui écrivent des systèmes et des gros logiciels vont changer de langage.


Le 08/03/2016 à 00h 36

Je vois que beaucoup de gens comparent Rust et C/C++.



Sauf que comme beaucoup de langages, la philosophie de Rust est de rendre plus facile certaines choses. Cela peut avoir un avantage… mais ce n’est pas la même philosophie.



Quand est ce que les gens comprendront que ce qui fait l’intéret de C/C++, ce n’est pas les aides à la conduite, mais justement la possibilité de s’en passer.

Le 06/03/2016 à 07h 03







goldbergg a écrit :



Ok, autant pour moi si je me suis fourvoyer.







Tu est pardonné. L’important est d’échanger des points de vue.



Et il n’y a pas d’obligation d’être d’accord.





Pour les problématique de temps réel, c’est avant tous une question de besoin, faire de l’IoT ne signifie pas forcement faire de l’embarqué avec se besoin de faire du temps réel (on est pas forcement à la milliseconde prés, ni même a la seconde).





C’est vrai. Tous les usages de l’embarqué et de l’IoT ne nécessitent pas du temps réel.



Mais dans les projets matériels, les problèmes de timing ne sont jamais tapis bien loin. Au moindre oubli ou évolution dans le projet, on peut très vite se retrouver embêté.



C’est pour cette raison que dans ce domaine un langage comme le C/C++ simplifie la vie. Parce que c’est un langages à très large spectre qui peut aussi bien descendre à très bas niveau (voir mixer de l’assembleur), mais également monter à haut niveau. C’est également un des rare langage à pouvoir s’interfacer avec presque tout et à disposer d’une quantité astronomique de bibliothèques disponibles pour faire presque n’importe quoi.





D’ailleurs l’OS a lui seul rend le temps réel compliqué.





Les Os font souvent mauvais ménage avec le temps réel. Et pour jouer de manière ultime avec les timings, il vaut mieux éviter les processeurs sophistiqués dont les timings sont peu prédictibles.



Il y a différentes manières de résoudre le problème avec les OS. On peut effectivement s’en passer sur certaines cartes. Mais on peut aussi combiner une carte avec un Os comme le RPI avec des petits microcontrôleurs qui vont gérer les aspects plus temps réel. C’est un schéma intéressant dans les cas ou l’on veut combiner les avantages des deux logiques.





Dans mon cas, les boitier seront placé chez différent  client pour faire de la collecte de donnée (via des capteurs comme des balance et/ ou un mini serveur utilisant les socket pour faire des requête sur le réseaux local), l’expédition des donnée vers un serveur central se fera seulement une a deux fois par jour, donc on est pas à la seconde prés.





Si le problème est principalement d’envoyer des données sur le réseau, ça se fait assez simplement en C/C++, il y a des bibliothèques pour cela.



Et même sans OS sur un arduino, on trouve moyen de communiquer sur le réseau.





Aprés moi aussi je trouve débile l’utilisation de JS pour faire de l’IoT (et un peux tous en général en faite), c’était plus pour l’exemple que l’on peut réutiliser certain langage pour faire autre chose que se que l’on fait habituellement avec.





Effectivement, on peut le faire bien que ce ne soit pas l’idéal.



Mais comme il y a des millions de programmeurs javascript, il était inéluctable que des gens voient un marché à prendre.





Mais quand on regarde IoT.js qui utilise le moteur jerryscript, on vois quand même que sa n’est pas une veille V8 qui est utilisé, mais qu’il y a un travail poussé d’optimisation pour que sa consomme trois fois rien.





Mais il faut cependant rester réaliste sur ce qu’on peut en tirer face à des outils mieux adaptés.



Prendre l’outil le plus puissant et adapté pour un problème donné, c’est la meilleure façon de se simplifier la vie.


Le 04/03/2016 à 00h 04







MrPCB a écrit :



Moi je vois cette solution (Raspberry + Win IoT) comme une plateforme de prototypage.

 

Je ne comprend pas ce point de vue élitiste qui consiste à rabaisser sans cesse les languages de haut niveau.

Le but ici n’est pas la performance mais le fait de pouvoir prototyper rapidement/facilement.







Ce n’est pas une question d’élitisme. Les langages de programmation, c’est comme les outils d’un bricoleur : ils ont chacun leur utilité et leur fonction. Il faut en avoir conscience.



Et même pour du prototype, utiliser n’importe quoi en croyant se simplifier la vie n’est pas toujours une bonne idée. Par exemple, avec Javascript, vous allez juste vous arracher les cheveux à la moindre problématique de timing. En C, c’est beaucoup plus facile. Et en assembleur, on peut tout gérer d’une manière très fine.



Il ne faut pas faire l’erreur de ceux qui pensent se simplifier la vie en utilisant un tableur à la place d’une base de données.



Cela dit, c’est vrai qu’aujourd’hui, tout le monde veut se lancer dans l’IoT. J’ai vu des gars qui pensaient avoir trouvé l’idée du siècle… en pilotant une lampe. Alors au fond, ça n’a pas tellement d’importante.


Le 03/03/2016 à 23h 38







goldbergg a écrit :



Tu (malgré le vouvoiement je me permets le “tu”) donne ton opinion en laissant sous-entendre que les autres (en l’occurrence moi) fait de la merde avec de mauvaises habitudes, alors que tu ne sais rien du tous de ce sur lequel je travaille, sympa comme aptitude….







Imaginer des sous entendus qui n’existent pas, c’est la meilleure façon de voir le mal partout et de se tromper lourdement sur les propos des gens.



En déformant le sens de mes propos, vous m’attribuez des pensées que je n’ai jamais eu.



Réalisez que les nuances, ça existe. Et je n’ai jamais dit de quiconque qu’il ferait de la “merde”.



Comprenez que dans la vie, personne ne possède la connaissance universelle. C’est en écoutant les remarques d’autrui que l’on s’améliore.





Bref, deux choses:

 

-Faire de l’IoT ne signifie pas forcément coder le fonctionnement de microcontrôleurs, certains composants (en ce qui me concerne des capteurs) possède déjà des pilotes et il est tout à fait possible d’appeler du code non managé (par exemple codé en C) en c# via des wrappers, donc rien n’empêche de mixer les deux langages pour jouir des avantages des deux.





Sauf que :



-Cet empilement de couches gaspille énormément de puissance et de mémoire. Cela suppose pour fonctionner des machines d’une certaine puissance. Le raspberry PI est déjà un monstre. Il consomme beaucoup d’énergie et il coûte cher. Deux problèmes primordiaux pour des projets industriels dans l’IoT.



-Le fait d’empiler les couches (Drivers, wrapper, etc) pose de gros soucis pour gérer les phénomènes temps réel.



-Si on doit attendre qu’il y ait des drivers pour gérer chaque petit composants électronique, on ne va pas très loin.



-Je n’ai pas sorti l’exemple du PIC pour rien. Demandez vous ce qu’on utilise vraiment dans les vrais projets pro qui visent déjà un certain volume avec de vrais objectifs de performance et de rentabilité.





-Un langage c’est un langage point. Inutile de traiter les autres de profane pour faire croire qu’il ignore tous (très intelligent comme comportement, sa donne une telle crédibilité…)

 Comment va-t-il être utilisé ?(interprété à la volée, pré-compilé, compilé) ça c’est une autre histoire, et ça n’empêche pas que le langage reste le même (seul les Api peuvent changer).





Non.



Chaque langage de programmation dispose de caractéristiques intrinsèques qui ont des implications non négligeables sur leurs aptitudes, leur utilisation et leur implémentation.



Ce n’est pas pour rien qu’il existe différent langages et qu’ils sont utilisés en fonction des domaines.



En informatique, les problèmes surviennent quand la logique commerciale pousse l’extension d’un outil en dehors de ses domaines d’aptitudes.



Mettre du javascript pour faire de l’IoT, c’est un peu comme d’utiliser un tableur à la place d’une base de données.



Il y a une logique commerciale qui pousse à la facilité à court terme… mais c’est uniquement pour servir ses propres intérêts. A vous de comprendre ou est le votre.





Ms la prouvé récemment avec .Net Native (du c# compilé)





Le C# est fondamentalement un bon langage. Bien meilleur que Javascript, bien plus apte à être compilé efficacement.



Mais c’est un langage conçu pour les applications courantes (boundchecking, ramasse miette), pas un langage conçu et optimisé pour faire du bas niveau comme le C++ ou l’assembleur.





et quand je vois des projets comme IoT.js, Cylon.js et nodebots qui sont en vrais JS, on voit bien que l’on peut faire de l’IoT avec des langages hauts niveaux comme le JS.





Oui, on peut faire…. mais à quel prix et avec quels inconvénients. <img data-src=" />



Mêmes remarques que plus haut, on ne peut faire tourner du Js que sur des machines d’une certaine puissance… qui supposent un certain cout et une certaine consommation.



MAIS…. le plus gros problème de Javascript, c’est qu’il est VRAIMENT très mauvais pour gérer des problématiques temps réel et de bas niveau : Vous croyez que ça va vraiment vous simplifier la vie ? Je vous souhaite bonne chance <img data-src=" />



Le fait que le marché offre des réponses à toutes les demandes possible ne signifie pas qu’elles soient techniquement pertinentes. Aujourd’hui, tout le monde veut se lancer dans l’IoT et ils ont bien raison d’en profiter <img data-src=" />



Le 03/03/2016 à 01h 06







goldbergg a écrit :



Ha j’adore ceux qui débarque comme sa avec leurs “vérité ultime” et qui vienne critiqué se que fond les autre alors qu’ils ne savent absolument rien de se qu’ils font ni des problématique auquel ils doivent répondre…







Comme tout le monde ici, je ne fais que donner mon humble opinion.



Est t’il vraiment besoin de préciser que si elle ne vous plait pas, vous êtes parfaitement libre de penser (et de dire) le contraire.



Il ne faut jamais prendre une discussion comme un affront personnel.





Comme je l’ai dit précédemment utiliser une solution Linux aurais été très problématique d’autant plus qu’on utilise des techno MS sans équivalent, donc on aurait été en plus obligé de réinventer la roue pour Linux (et de passer plusieurs mois, pour un truc qui existe déjà en c#)…





Evidemment, je ne présume pas d’un cas particulier ou il peut arriver qu’un outil ait des fonctionnalités qui facilitent certaines choses par rapport à d’autres.



Mais d’une manière générale, si dans l’embarqué on utilise surtout le C et l’assembleur, c’est parce que ce sont les langages les plus adaptés. Le C permet à la fois la programmation de haut niveau et un bon contrôle à bas niveau.





Et encore une fois, c’est bien d’avoir des idée toute faite sur les inconvénient des langages haut niveaux, mais visiblement t’as oublié quelque chapitre en cours de route sur la façon d’avoir des haute performance en C# (et autre language de haut niveaux) ;)





Avez vous seulement conscience que les langages ont des différences et que ces différences les rendent plus ou moins approprié à tel ou tel usage ?



Je vous engage donc à étudier les différence de fonctionnement entre C#, Java, javascript, C/C++ et du langage machine.



Ensuite, je vais vous donner (au hasard) cela :http://www.microchip.com/wwwproducts/en/PIC12F675



J’attends que vous m’expliquiez comment vous allez faire pour le programmer avec du C#.





Même en JS on peut avoire des haute performance avec asm.js





D’abord, asm.js, c’est du javascript sans être du javascript. La différence n’est pas facile à expliquer aux profanes(en gros, on utilise un sous ensemble du langage), mais ce n’est pas un simple détail : ce n’est pas de la programmation javascript.



Et ensuite, non, ça ne permet justement pas de hautes performances parce qu’on perds de manière significative par rapport à un programme compilé nativement.


Le 01/03/2016 à 21h 26







Poppu78 a écrit :



Mouais…

Je dois être un peu biaisé, vu que quand les Netbooks sont sortis je n’en voyais déjà pas l’utilité, ayant toujours eu horreur des écrans “taille game boy”. Mais il est vrai que j’ai connu quelques aficionados qui m’assuraient que c’était génial, sans jamais m’avoir convaincu.







Ah ces jeunes.



Dire qu’il fut un temps ou tout le monde encensait l’écran de 9” du Macintosh… qui était pourtant plus petit que celui d’un netbook.



L’intéret des netbook, c’est qu’ils sont petits, légers, peu couteux, munis d’un clavier. Une fois repliés, ils sont relativement résistants.



Quand il est possible, le choix Desktop + Netbook est plus intéressant qu’un ordinateur portable lourd qui restera toujours moins confortable qu’un vrai desktop et beaucoup plus lourd qu’un netbook.


Le 01/03/2016 à 20h 27







Ler van keeg a écrit :



C’est surtout que je ne comprends absolument pas en quoi ça étonne les gens.



Depuis l’ère Windows Vista, la sortie d’un nouveau Windows ne bouleverse plus tout et niveau matériel il n’y a plus de grands bonds technologiques, en tout cas pour le grand public (passer de 4 à 8 cœurs ou de 8 à 16Go de RAM ça change pas grand chose), donc l’achat d’un nouveau PC ne se fait plus tous les 2 ou 3 ans.



Le marché arrive à une certaine maturité, c’est tout, ce n’est ni la faute de Windows, ni le grand remplacement des PCs par les périphériques mobiles… Et vu que les gens changent de smartphone tous les 2 ans, c’est là que les gens mettent l’argent, plutôt que dans le PC qui marche toujours aussi bien au bout de 5 ans.

Et cette tendance commence à se voir pour les smartphones aussi maintenant.







Effectivement, comme tu le souligne, le marché du PC est arrivé à maturité et à saturation.



Mais le manque de concurrence sur le marché des processeurs y est aussi pour beaucoup : Cela fait presque 10 ans que les processeurs quadri coeurs sont apparus sur le marché grand public. Et 10 ans après, les processeurs à 8 coeurs ne sont toujours pas démocratisés.



Et de l’autre côté, les éditeurs de logiciels et jeux sont obligés de tenir compte du parc existant. On ne peut pas exploiter des processeurs à 8 coeurs s’ils ne représentent pas une certaine partie du marché.







Le 01/03/2016 à 20h 06

Pour ma part, je ne vois pas l’intérêt de Windows sur un Raspberry PI alors que Linux fournit déjà un environnement bien plus complet et totalement libre.









goldbergg a écrit :



Voila, le véritable intérêt c’est de pouvoir dev avec les outils MS (Visual Studio, C#, …), dans ma boite (ou l’on dev principalement en C#), on s’intéresse de prêt a Windows 10 IoT pour porté certaine appli vers cette plateforme affin que sa tourne sur des boitier connecté.







La force de l’habitude est parfois mauvaise conseillère…



Sous Linux, il y a d’excellents outils de développement, une multitude de langages et de très bons environnements de développement.



Mais IMHO, l’erreur, c’est de penser qu’on pourrait faire de l’IoT juste avec langages de haut niveau. J’en connait qui vont rapidement déchanter dès que vous aurez le moindre circuit à piloter avec un timing temps réel.







lunehurlante34 a écrit :



C’est pas parce que Open office est gratuit pour toi, qu’elle l’est aussi pour l’administration/entreprise! C’est valable pour la plupart des freewares!







Le problème, c’est que tu confonds complètement freewares et logiciels libres.



Aucune licence de logiciel libre ne peut stipuler que la liberté de redistribution et d’utilisation se limiterait aux seuls particuliers.


Le 04/03/2016 à 23h 54







Slash a écrit :



La mise à jour vers Windows 10 n’était pas gratuite par hasard, MS à changé son modèle économique et se rapproche de celui de Google ou Apple avec Android et iOS, pour l’instant Windows est payant, le jour où la “mayonnaise” aura pris pour MS alors il sera gratuit c’est certain, mais ce sera une plateforme ultra fermée.

 

Toutes les approches MS sont basées là dessus: unification des systèmes Desktop/Mobile/Console, maj gratuite de Win10, refonte du windows store, DX12 exclusif à Windows 10, maj forcées et “bacclées”, le plus étonnant c’est que peu ont capté à quel petit jeu MS était en train de jouer, Tim fait partie des trop rares à avoir compris cela (ou qui a assez de c.. pour s’y opposer).



Le plus amusant dans tout ça c’est que ce modèle de distribution et monétarisé a pour inspiration Linux (plus particulièrement les nombreux gestionnaires de dépot des distros).







De manière amusante, je pense que c’est vrai. Le dépôt Linux est probablement ce qui as inspiré les stores.



Mais la différence notable, c’est qu’une distribution Linux permet d’ajouter facilement d’autres dépôts ou d’installer des paquets qui ne proviennent pas d’un dépôt. Il n’y a rien qui soit verrouillé…



Cela étant dit, il est vrai que le modèle du dépôt centralisé a apporté en lui même de nombreux problèmes, que ce soit dans le libre ou le propriétaire.



Et le fait d’être dans le logiciel libre ne suffit pas forcément à résoudre tous les problèmes que posent les stores centralisés.



Par exemple, les conditions pour intégrer un logiciel dans le dépôt de certaines distributions Linux ne sont pas toujours très claires dans la pratique…


Le 04/03/2016 à 20h 25

Logiquement, ce genre de pratique aurait du être interdite depuis longtemps.



Pour ceux qui se réveillent maintenant, rappelez vous que cela fait des années que tout le monde l’accepte de la part d’Apple sur les iPhone et iPad, mais également depuis bien plus longtemps encore sur les consoles de jeux.



Il était prévisible qu’en l’absence de réaction des pouvoirs publics, ce modèle allait tendre à se généraliser.



Vous achetez un appareil, on vous impose un magasin d’application : c’est juste une forme de vente liée.



Pire, c’est aussi une entrave à la liberté de commerce pour les éditeurs.



Que font nos députés qui d’habitude sont pourtant si prompts à légiférer sur tout et n’importe quoi ?



Continuons à ne rien faire et ces logiques s’étendront à d’autres types de biens et de services.

Le 04/03/2016 à 01h 04







Patch a écrit :



En plus d’être moche, ca ne veut surtout absolument rien dire…







Parce que tu connait beaucoup de gens qui parlent le grec ancien ?



Pour la plupart des gens “normaux”, les mots sont des mots qui ne veulent rien dire d’autre que le sens qu’on leur accorde.



Qu’est ce qui est le plus moche ? Faire une petite exception à la linguistique ou créer plusieurs unités qui foutent le bordel ?



Et dire que pendant ce temps, ça ne dérange personne qu’il y ait plein d’exceptions et bizarreries dans la grammaire de toutes les langues…


Le 04/03/2016 à 00h 49







lysbleu a écrit :



kilo, ça vient du grec et ça veut dire mille. Le grec est antérieur à l’informatique, de quelques milliers d’années. Et mille, en base 2, ça fait mille. Donc non, kilo ça veut dire mille, et c’est officialisé depuis 1795.







Certes, mais il faut réaliser que ce pinaillage linguistique n’avait pas grande importance.



Il était bien plus intelligent de tolérer une petite exception à l’histoire de la linguistique que de créer plusieurs unités qui apportent une énorme confusion et que la plupart des gens n’utiliseront JAMAIS correctement.



C’est assez facile de constater que 17 ans après la réforme de l’IEC, c’est une vraie catastrophe : Je vous met au défi de trouver une seule boutique en ligne qui affiche correctement les unités.



C’est pour ça qu’en tant qu’informaticien, je demande aux linguistes, aux physiciens et aux mathématiciens de se mêler de leurs oignons. Et c’est valable aussi pour les politicards…



Est ce que moi je m’amuse à venir leur imposer un hexi-ampère en hexadécimal ?


Le 03/03/2016 à 06h 48







poshu a écrit :



Ça parait moche, mais ça parait faux surtout. Tu confonds ko et kio

Edit : grilled









Z-os a écrit :



Ah non 1024 octets c’est un kibioctet (kio). :-)







Non, non et non.



Un ordinateur, ça compte en base 2.



Le Kilo octet, le vrai c’est 1024 octets comme on l’a toujours enseigné en informatique pendant des décennies ainsi que dans le journal officiel français :



http://www.marche-public.fr/Marches-publics/Textes/Definition/Definition-informa…



Et les kibi trucs, ça n’existe pas…. parce qu’en informatique, on n’a pas besoin de 36 unités pour foutre le bordel.



Leurs nouvelles unités de 1999 sous le lobbying des physiciens et mathématiciens, l’IEC peut attendre longtemps qu’on la reconnaisse <img data-src=" />


Le 02/03/2016 à 22h 51







Patch a écrit :



“Encrypté”… Cet anglicisme ultra-moche quand même.







En même temps, si on devait regarder tout ce qui parait moche en informatique.



Par exemple, les Ko de 1024 octets, ça parrait peut être moche, mais c’est quand même beaucoup mieux.


Le 02/03/2016 à 22h 44



contourner la sécurité de ses propres produits rabotera sérieusement la confiance de la clientèle.





C’est une évidence…



Imaginez tous les cadres dans des entreprises européennes ou chinoises qui ont des iPhones et qui pourraient craindre l’espionnage industriel si d’aventure la protection pouvait être cassée.



Les révélations de Snowden ont changé le monde. Désormais, aucun acteur ne peut plus vendre à l’international s’il ne peut démontrer qu’il garantit la sécurité de ses produits vis à vis des gouvernements et de leurs tentatives d’espionnage industriel.



C’est malheureusement une notion que les gouvernements (et nos chers députés français) ont encore du mal à intégrer…

Le 02/03/2016 à 22h 34







Konrad a écrit :



En fait tout dépend de quelle version de « Debian » on parle : là j’imagine que l’auteur de l’article a voulu parler de Debian Stable, qui vise une stabilité à toute épreuve quitte à proposer des versions assez vieilles de certains composants.



Sinon c’est sûr que dans les dépôts Testing ou Unstable on trouve des versions bien plus récentes.







Pour moi ce modèle n’est pas bon.



Savoir s’il vaut mieux une ancienne version ou la toute dernière dépends fortement des logiciels, de besoins. Ca ne peut se décider pour un système entier.



C’est la ou le nouveau système de packaging d’ubuntu pourrait apporter un vrai plus.



Mais aussi, les distributions Linux devraient se montrer plus proches des développeurs des applications qui connaissent bien quelles versions sont stables et quelles versions le sont moins parce qu’elles introduisent des nouvelles features.



Le 02/03/2016 à 21h 03







hansi a écrit :



“Cette dernière a d’ailleurs la préférence de ceux qui regrettent le « bon vieux temps » de GNOME 2”



Avant de prendre les usagers de MATE pour des grabataires, essayez donc de coller une Unity sur une vieille config : ça va se trainer - il y a une chance sur deux qu’Unity ne démarre même pas (pas assez de ressources) !



Outre sa légèreté, MATE est un modèle de simplicité pour un débutant, bien loin des délires du tactile qu’on veut absolument nous imposer sur desktop. J’ai pu le constater maintes fois : même des débutants complets en informatique (et je parle bien de gens qui n’y connaisse -strictement- rien) arrivent à s’y retrouver en quelque minutes. Je ne connais aucun autre GUI actuel qui peut prétendre à une prise en main aussi rapide, pour ne pas dire innée.



Enfin, MATE est facilement modulable, ce qui là encore un sacré avantage pour des gens qui veulent utiliser leur machine sans se prendre la tête dans les décorations de fenêtres et autres options de geeks ; les gens  veulent juste un espace de travail fonctionnel et agréable au quotidien.



Bref, on n’est pas au “bon vieux temps” de Gnome2, mais bien dans la recherche d’une efficacité au quotidien, sans se prendre le chou, et qui fait tout le charme de cet environnement. Merci encore à l’équipe Mint de l’avoir compris.







Clairement.



C’est toujours agaçant de voir des gens poser l’idée reçue que ce qui est nouveau serait toujours forcément mieux. Comme si ceux qui refusent cette mode d’interface “Smartphone Staïle” ne se trouvaient que dans les maisons de retraite…



Dans l’évolution des choses, il y a toujours un moment ou l’on atteint une quasi perfection. Et ensuite, au lieu de s’améliorer, les choses se dégradent au fil des modes et des lubies…



Les programmeurs se sentent toujours obligés de créer quelque chose de nouveau pour vivre. C’est la dérive d’un système ou l’on ne survit que lorsque l’on crée de la nouveauté. Quitte au bout d’un moment à faire de la nouveauté pour de la nouveauté…



Windows à suivi le même chemin : sa meilleure mouture du point de vue interface graphique fut certainement Windows 2000. Tout ce qui s’est fait par la suite n’a fait que dégrader lentement mais sûrement l’ergonomie.



D’ou les réticences à l’évolution de beaucoup d’utilisateurs. Les histoires d’habitude ont bon dos pour excuser des interfaces moins productives et moins efficaces que les précédentes…



Sur Linux, Gnome 2 est certainement ce qui s’est fait de mieux du point de vue efficacité et ergonomie.



Et au passage, Mate n’est plus Gnome 2 puisque l’interface a été portée vers GTK3 au prix d’un énorme travail.



Mate n’est pas une résurgence du passé, mais un Fork activement développé qui suit son propre chemin.


Le 02/03/2016 à 20h 35







tiret a écrit :



Justement ils veulent passer à autre chose que du .deb pour mettre ça en place au moins en partie (cherche Ubuntu Snappy de mémoire).



Par contre ça risque d’alourdir méchamment le système leur truc.







Personnellement, je ne suis pas certain que ce soit réellement une bonne idée. Mais au fond, tout dépends comment ça sera utilisé. Si c’est utilisé pour gérer l’exception, ça peut apporter un plus. Mais si on se retrouve avec une logithèque qui utilise 15 versions différentes d’une même bibliothèque, ça finira comme sur Windows…



D’une manière générale, je pense qu’Ubuntu prends un peu trop de risque avec des innovations qui pourraient s’avérer à double tranchant.



Mais comme on dit, qui vivra verra. Au pire, on pourra toujours aller voir ailleurs.



Le 02/03/2016 à 21h 39







Tatsu-Kan a écrit :



Je viens de regarder l’histoire de la remise lors de l’achat de packs.

Déjà ça ne fonctionne que sur le valve complete pack… Je n’ai trouvé aucun autre pack sur lequel ça fonctionne.



Du coup, ça sent la fonctionnalité qui dépend du bon vouloir de l’éditeur qui nous enfume déjà avec les doublons payés mais non délivrés…

Rendant inutile cette “fonctionnalité”.



Dommage.







Il est évident que Steam ne peut faire des promotions sans l’accord des éditeurs.



Ce n’est que le début, laissons le temps aux éditeurs de s’adapter.



C’est d’ailleurs dans leur intérêt : Quand les gens possèdent déjà plusieurs jeux d’un pack, cela freine l’achat de ces packs promotionnels. Mieux vaut gagner un peu moins que ne pas gagner du tout.


Le 02/03/2016 à 21h 35







Bejarid a écrit :



J’adore les gens qui disent que ça sert à rien, alors qu’ils y a moult études confirmant que ça sert. Et pas qu’un peu. Et c’est même écrit dans l’article.



En fait, vous n’êtes pas ici pour vous informer, vous n’êtes ici que pour râler n’est-ce pas?







Sauf qu’un avantage doit toujours être mis en balance avec les inconvénients <img data-src=" />



En l’occurrence le fait que c’est un perturbateur des rythmes biologiques.


Le 02/03/2016 à 21h 25



Revenir sur cette réforme relèverait toutefois du parcours du combattant, dans la mesure où celle-ci est aujourd’hui encadrée par une directive européenne « sans dérogation possible » et d’une durée « indéterminée ».





Encore une belle preuve que l’Europe n’est qu’une gigantesque machine à fabriquer de l’immobilisme et du conservatisme.



A l’heure ou l’évolution technologique et la robotisation va demander une agilité énorme pour adapter la société et l’économie à de nouveaux paradigmes, cette Europe pachydermique tombe vraiment très mal.



Et cela sans compter que les idées qui ont servies de base à sa création semblent partir du seul principe de mettre en concurrence les hommes, pas d’augmenter leur niveau de vie.

Le 01/03/2016 à 20h 47







AlphaBeta a écrit :



Il n’est pas question d’imposer des backdoors mais lorsqu’un juge exige le déchiffrement, après tous les recours démocratiques possibles, il est normal qu’Apple obéisse

Il y a une vraie confusion entre les backdoors et le déchiffrement unitaire…. et Apple et les autres gafa jouent intelligemment avec l’inconscient collectif !

La méthode de ces députés est la bonne…. tu refuses ? Enorme amende, tu continues ? Interdiction de vente sur le sol Français….. on ne mourra pas de l’absence d’Apple sur notre sol, bien au contraire, ce sera un vrai levier d’innovation et d’emploi !

Il faut casser ces gafa (et autres Microsoft, IBM, etc.) avant qu’il ne soit trop tard ! Ces gens se prennent pour des chefs d’états dématérialisés, demain ils vont battre monnaie (blockchain, lois, etc.)







L’ennui, c’est que toutes les lois et les juges du monde n’ont pas le pouvoir d’obtenir… l’impossible.



Un chiffrement fort, même le meilleur spécialiste du monde n’est pas en mesure de le déchiffrer.



Et ce n’est pas parce qu’une entreprise est le constructeur d’un appareil qu’elle dispose pour autant des clés permettant de déchiffrer.



Mais cette évidence (pour le technicien) n’est pas évidente pour les non initiés qui ont en tête tous les clichés archi faux que les films hollywoodiens distillent dans l’esprit du public au sujet de l’informatique.



Cette affaire est un bon exemple qui montre pourquoi l’usage de l’informatique sans compréhension de son fonctionnement devient un vrai problème de société.



Comment des élus qui n’y comprennent rien pourraient prendre des décisions avisées ?


Le 01/03/2016 à 18h 58

Il est amusant de constater qu’avant de proposer des loi, ces élus ne prennent même pas le temps de consulter des spécialistes.



Parce qu’ils imaginent naïvement que l’opérateur disposerait forcément des clés permettant de déchiffrer. Ils ne savent visiblement même pas ce qu’est le chiffrement RSA.



Quand à inclure dans les appareils et services français des “backdoors” et des clés de déchiffrement “spécial état”, ils ne se posent même pas la question du risque que cela entraîne un boycott de nos produits et services.



Vous seriez une entreprise étrangère, achèteriez vous un service français ou l’état français a la possibilité d’avoir accès aux données pour faire de l’espionnage industriel ?



Ce qui est prévisible, c’est qu’a cause de leurs lois iniques, les services d’hébergement migreront hors de France. Certains fournisseurs français l’ont d’ailleurs déjà annoncé…



Mais quand il n’y a plus de travail en France à cause de décennies de mauvaises décisions politiques, nos élus trouvent le moyen d’accuser le petit peuple qui soit disant ne voudrait pas travailler.

Le 01/03/2016 à 19h 04

Il est amusant de constater à quel point les attentats terroristes sont une véritable aubaine pour un certain nombre de lobbys.



A quand le rétablissement de la peine de mort pour avoir copié un DVD ?


Le 29/02/2016 à 20h 49







esboss a écrit :



C’est possible d’installer Android dessus ? <img data-src=" />







Pourquoi vouloir installer un Os limité qui est fait avec du Java alors que le Raspberry Pi supporte un VRAI système d’exploitation permettant un champ d’utilisation bien plus vaste, c’est à dire l’accès à toute la logithèque bureautique complète, tous les langages de programmation, de vrais jeux vidéo(Supporte Opengl), etc…

















Le 29/02/2016 à 20h 00







NSACloudBackup a écrit :



J’ai dit ce qu’il me fallait dans mon commentaire.

Et à part le processeur il n’y a aucune différence entre le b+ et le 2 (c’est un fait). Le 3 se distingue tout de même par son support de technos sans fils ce qui simplifiera certaines choses (notamment concernant la gestions des pilotes propriétaires misérables de certaines clé wifi - plus besoin d’en acheter).



Je comprend que le Raspberry s’adresse à un publique qui se contente de peu de chose mais maintenant que le marché à montré que des produit ARM étaient demandé on a toujours rien, en 2016, coté matériel plus poussé (format mini ITX par exemple). J’adore le RPi mais il montre ses limites dans des usages serveurs qui ne nécessites pourtant pas de puissance du fait des manques énoncés dans mon commentaire.



Par exemple pour faire un NAS, un serveur miroir, un SAN ISCSI ou un serveur de sauvegarde avec un RPi c’est mort : pas de RAID possible (non le RAID USB n’est pas une solution, c’est juste une farce), pas de gigabit (pour charger 10 Go faut pas être pressé, d’autant plus que ce n’est même pas du vrai 100mbps).







Il faut réaliser qu’on ne peut pas tout avoir.



Le Raspberry PI n’a pas été conçu dans l’optique de faire un serveur NAS. C’est un produit destiné à la base au monde de l’éducation pour faire du desktop léger.



Pour l’usage que tu vises, tu trouvera des cartes mères x86 Mini ITX qui sont beaucoup plus appropriées et performantes.



Comprenez que si le Raspberry Pi intégrait tout ce que certains demandent, il perdrait à la fois sa faible consommation, son faible prix et sa petite taille : Il n’aurait alors plus vraiment d’intérêt.


Le 29/02/2016 à 19h 49







warenbe a écrit :



J’hésite à passer commande… j’ai peur de la dissipation de chaleur

surtout si je le met dans un boitier… :/

et je suis pas sur que les boitiers soient conçus pour y ajouter un radiateur

au pire ajouter un petit ventilo, je m’en fous du bruit…







Tu peux percer des trous de 5mm dans ton boitier pour améliorer la dissipation de chaleur.



Mais il est vrai que beaucoup de boitiers proposés sont trop fermés, même pour le Pi 2.



De toute manière, il y aura certainement une sonde de température interne.







Kodomaster a écrit :



Lui faut-il toujours une alimentation externe pour pouvoir lui brancher un disque dur ?

(je me suis arrêté au Raspberry 1)







En pratique, je te répondrait par l’affirmative.



Sur le papier, il n’est pas impossible d’alimenter le PI de manière suffisante pour s’en passer. Mais déjà avec le PI2, quand on le pousse à fond, beaucoup d’alims/cables ne suivent plus.





Le 27/02/2016 à 17h 35







Oppofans.fr a écrit :



Merci pour les informations, c’est toujours sympa d’apprendre des choses.

 



La température augmente très peu lors de la charge (3°C environ d’après l’article que j’ai posté) donc je ne sais pas quelle est la méthode employée (et je n’ai pas les compétences pour l’expliquer).



Les batteries sont spécifiques et intègrent également davantage de connecteurs. J’ai des notions plutôt basiques en électricité (je suis plutôt mécanicien ^_^) mais pour moi un montage en série divise le courant. Donc si mon chargeur délivre 4.5A et que j’alimente 3 cellules de batteries en parallèle elle ne voient chacune “que” 1.5A ; alors qu’elles verraient 4.5A si elles étaient en série, ce qui est le cas sur des batteries standards il me semble (d’où la tendance à augmenter la tension de charge pour “gaver” les cellules).



Enjoy !







Justement, ça ne fonctionne pas comme cela. En série, les intensités “vues” par les batteries ne s’additionnent pas. En série, c’est le même courant qui traverse l’ensemble des batteries.



Donc pour une recharge en série à 1.5A, tu aura 1x1.5A.

Et pour une charge par élément séparé, ça fera 3x1.5A (1.5 par circuit de charge).



Mais comme le souligne Guinnness, sur smartphone, c’est le plus souvent des batteries qui n’ont qu’une seule cellule.



Sinon, il y a un excellent moyen de stocker plus d’énergie par unité de temps dans une batterie…. c’est d’augmenter sa capacité (ainsi que celle du chargeur et du régulateur de charge).



Le 26/02/2016 à 19h 18

Créer une entreprise, c’est très facile, même en France. C’est la suite qui est plus compliqué.



Un bon conseil, quel que soit le pays du monde, ne vous amusez pas à créer quoi que ce soit sans savoir précisément ce que vous faites.