votre avatar

sr17

est avec nous depuis le 26 décembre 2005 ❤️

4322 commentaires

Le 10/04/2014 à 21h 20







Ler van keeg a écrit :



Si un jeu demande réflexion, il n’explosera pas les ventes (à moins d’avoir un assistant tout le long), s’il faut y jouer plus de 10minutes il n’explosera pas les ventes, s’il n’est pas relié à Facebook pour faire ch*er tous tes contacts avec tes scores tout en te demandant de jouer il n’explosera pas les ventes etc.



C’est triste, c’est la société de consommation moderne et voilà. Dommage.







Tellement bien résumé.



Et oui, le constat est triste. Les éditeurs font de la merde sans intéret.



Mais le plus triste, c’est que la raison pour laquelle ils le font, c’est que le grand public ne veut bien accorder son intéret qu’a ça.



Et le phénomène n’est pas limité au logiciel : a bien y regarder, tous les biens de consommation sont touchés. Je ne parle même pas de la nourriture.



Alors devant ces consommateurs idiots et fiers de l’être (par facilité, soit dit en passant), tu te dit qu’ils méritent largement leur sort : se faire entuber par le système commercial du matin au soir et de long en large. Et au final vivre malheureux pendant que d’autres s’enrichissent sur leur dos.



Après tout, l’humanité récolte l’esclavagisme qu’elle a bien voulu se construire.


Le 10/04/2014 à 20h 53







Misesboy a écrit :



J’ai d’autre propositions :

1/ que l’état cesse de s’occuper d’économie

2/ Que l’état baisse les impôts d’au point 10 points de PIB en faisant uniquement des économies (pas d’impôts nouveau)

3/ Que l’état supprime 50% de toute la réglementation. Je suis gentil, 90% des lois et règlements sont non seulement inutile mais nuisible à l’immense majorité des français.

4/ Que l’état garantisse pour une longue durée la stabilité fiscale et réglementaire. l’objectif de tout gouvernement devrait être de TOUT faire pour éviter de créer de nouvelle loi ou règlement.

5/ Que l’état s’occupe réellement de ses fonctions régaliennes, police, justice, armée et leur donne les moyens ainsi que les objectifs dont ces corps ont besoin. La simplification réglementaires sus cité leur facilitera d’ailleurs beaucoup la tâches.



Le numérique et tous les secteurs économique se porteront immédiatement beaucoup mieux







Je suis d’accord sur beaucoup de points et particulièrement sur la suppression de cet immonde maquis réglementaire qui étouffe notre économie.



Mais cela étant dit, il ne faut pas négliger pour autant la puissance que peut avoir une certaine forme de planification étatique bien utilisée.



Le General De Gaulle a su bien utiliser cela en son temps pour faire de la France une des premières économies du monde.



Sans stratégie économique et industrielle, un pays n’a pas d’avenir. Il faut également réaliser que la logique de marché n’est pas une baguette magique : elle a de gros avantages, mais également de sérieuses limites. L’horizon du privé se limite à ce qui est directement rentable pour celui qui investit.



Le tort de la France est sans doute d’avoir abandonné la logique de planification tout autant que d’avoir manqué d’ambition dans les secteurs technologiques.



Et aujourd’hui, nous sommes trop “endommagés” économiquement pour ne compter que sur le seul développement de l’économie de marché.



Nous avons grand besoin de gens comme ce monsieur qui semble avoir des réflexions intelligentes et clairvoyantes sur les enjeux du monde numérique.


Le 10/04/2014 à 20h 46







psn00ps a écrit :



« Initier une réflexion sur l’usage des crypto monnaies ». « Pourquoi ne pas utiliser les monnaies de type Bitcoin, Litecoin,… pour le micropaiement sans friction (don, culture, échange gré à gré) et la création de chambres de compensations (conversion vers l’économie réelle) qui ferait de la France l’un des pays pionniers et leaders du secteur avec de nouvelles opportunités de revenus » se demande Tariq Krim.



Comprendre : comment taxer le gâteau, parce que c’est nous les frères qui rapent tout.

taxe sur la non-valeur ajoutée. <img data-src=" />







Pas faux, mais en même temps, n’y aura t’il pas un juste milieu à trouver entre trop de taxes et absence de taxe ?



Préfère t’on les initiatives de pays comme la russie (interdiction) ou les USA (règles dissuasives) ?



Étudier comment la France pourrait tirer avantage économique de ces monnaies par rapport aux autres pays me parait de loin la démarche la plus intelligente.


Le 10/04/2014 à 20h 36

Comme d’habitude en France, quand quelqu’un a de bonnes idées, on trouve toujours moyen de le critiquer vertement.



Et bien sûr, des critiques non argumentées ou finalement très peu dans le genre “a quoi bon faire ceci ou cela”.



Mais peut être que tout le monde ici n’est pas capable de saisir leur vraie portée ni l’importance que peut avoir les actions de l’état en matière d’impulsion.



Pour ma part, je trouve nombre de ces propositions excellentes et loin d’être banales.



Après, certains ont raison de dire qu’on serait encore très loin de ce qu’il faudrait faire. Mais si on commence à taper sur la moindre initiative, on est pas sorti de l’auberge.



La première chose à changer en France, c’est sans doute cet espèce de conservatisme des esprits qui fait que rien d’innovant n’est possible.


Le 10/04/2014 à 20h 05







hadoken a écrit :



ah là là là, jamais autant eu de quotes sur un de mes messages depuis fort longtemps <img data-src=" />



L’idée initiale était simplement de mettre en évidence que le code open source n’est pas la silver bullet qui permet d’avoir du code meilleur, vu que les processes de relecture de code ne sont souvent qu’une illusion sur le fait que l’on puisse s’assurer par soi-même que nos logiciels n’ont ni de bugs, ni de backdoors.







Non, ce n’est pas une illusion. Pour que des gens puissent vérifier le code, il faut que le code source soit disponible. Mais le fait que ce soit un avantage majeur ne garantit pas pour autant d’obtenir un code parfait.





Dans le cas d’OpenSSL, très peu de personnes au final sont contributeurs actifs du projet, et mis à part eux pas grand monde n’a les compétences / le temps / la motivation par aller faire de la reclecture de code.





La, tu poses un vrai problème.



La question est bien de savoir si les ressources dont un projet dispose sont à la hauteur de son importance en matière de sécurité.



Je pense que le futur sera d’organiser des sources de financement et de contrôle par le biais des pays pour améliorer ces projets d’utilité publique.



Car il est bien évident que les enjeux de sécurité sont stratégiques pour les pays eux même. Une seule entreprise ou un groupe limité de personnes ne pourront y répondre.





Cà pose aussi la question de la confiance (parfois aveugle) que l’on a dans certaines briques logicielles, FOSS ou proprio.





En même temps, il est aussi plus facile de sécuriser convenablement une brique de sécurité centrale que des dizaines. Chaque logique a ses avantages et inconvénients.





Pour ce qui est du FOSS d’ailleurs et puisqu’on en est à rectifier les mauvaises interprétation, je ne suis pas du tout un anti-libre. Je travaille avec du proprio principalement (univers .Net), mais :




  1. je suis totalement pour davantage d’open source dans le .Net (Mono, Moonlight, et maintenant Xamarin grâce à Miguel De Icaza notamment)





    La réalité montre que cette logique ne mène à rien. Mono sera toujours à la traîne par rapport aux produits Microsoft.



    Et la question de la liberté d’un code se complique de la question des brevets dont le problème est qu’il est difficile d’évaluer facilement la menace potentielle sans éplucher des milliers de brevets par des compétences spécialisées… ce qui revient de fait extrêmement cher.





  2. bien évidemment même avec du proprio on intègre régulièrement de l’open source. Et encore une fois “intégration” est totalement différent de “vol” ou “profiter” ; intégrer = respecter scrupuleusement les licences (i.e. par exemple acheter une licence pour avoir le même binaire d’un code FOSS mais qui ne soit plus soumis à la GPL car non intégrable sinon), et participer dans la mesure du possible à l’amélioration des produits.





    C’est paradoxalement l’une des source de financement des entreprises qui font du logiciel libre. Ce qui explique le succès de la licence GPL qui est plus rentable pour les entreprises qui font du logiciel libre que la licence BSD.





    Il faut juste avoir les yeux ouverts sur ce qu’est réellement le libre, et notamment sur le fait que la relecture du code anti-bugs/backdoors est davantage une promesse théorique que quelque chose de concret effectué sur les tous les projets (imaginez bien que ce ne soit pas le cas sur un truc aussi important qu’OpenSSL, alors sur les autres….).





    Peut t’on conclure que la présence de failles suppose que le code n’est ni relu, ni vérifié ?



    Si la faille a été débusquée, c’est bien parce que quelqu’un l’a trouvée et donc que quelqu’un a vérifié le code.



    Et vous me direz que cette faille était présente depuis un certain temps. C’est juste que la complexité de tels projets fait qu’une telle faille peut échapper pendant un certain temps, même a des dizaines de relecteurs.



    Mais pas éternellement non plus, ce qui prouve bien l’intérêt de la logique.


Le 10/04/2014 à 18h 29







jrbleboss a écrit :



Ça reste quand même à des années lumières d’une faille qui permet de l’exécution de code.







De nos jours, il est plus facile de provoquer une exécution de code avec PHP qu’avec C++.



Et voila pourquoi : En PHP il existe la commande eval() dont beaucoup de programmes font usage et qui permet d’exécuter un code à partir de données. Si un hacker arrive à modifier les données qui vont à la commande eval, ils peuvent exécuter le code de leur choix.



En C++ en revanche, on ne peut pas executer aussi facilement des données. S’il était possible par le passé de profiter d’un dépassement de mémoire tampon pour tenter d’injecter du code, c’est beaucoup plus difficile aujourd’hui avec les protections NX Bit et ASLR.



L’exécution native a beaucoup amélioré sa sécurité avec le temps et je pense que beaucoup de programmeurs n’en prennent pas conscience.





<img data-src=" />





La dessus, sincèrement je suis très sérieux. Il n’est pas très compliqué d’éviter les pointeurs en C++ ou de les restreindre à des classes manipulatrices. C’est une simple question de style de programmation.



Penses tu qu’un gars qui as fait une école de programmation ne sait pas faire cela ?





Je ne doute pas que tu sois un programmeur de génie, mais mon propos est général. J’ai plaisir à utiliser du C/C++ tout autant que du C#/Python/Haskell, mais il ne faut pas se mentir, tout le monde fait des erreurs et certains langages en permettent beaucoup plus que d’autres, c’est indéniable.





En même temps, c’est toujours très facile de limiter les problèmes en diminuant les possibilités. C’est un peu comme si on ne mettait plus de moteur dans les voitures pour empêcher les accidents.



En C++, on peut très bien programmer sans utiliser de pointeurs (ou en restreignant leur usage à des fonctions précises et contrôlées).



Y avait t’il vraiment besoin d’inventer des langage pour enlever des possibilités ?



Et concernant d’autres langages de programmation qui apportent des paradigmes différents, ils apportent évidement leur intéret et pourront être choisi en fonction des besoins d’un projet.





Je suis absolument d’accord. Je pense néanmoins, qu’il y a énormément de code qui n’a aucune valeur à être en C et pourrait être dans un langage plus sûr. Sûr dans le sens où une manipulation mémoire directe en C n’est souvent pas justifiable.





Je suis globalement d’accord. Mais par expérience, je sais qu’ il n’est pas toujours possible de prévoir à l’avance les besoins d’un programme.



C’est pourquoi les outils polyvalents évitent aussi parfois beaucoup de soucis : qui peut le plus, peut le moins. Un projet utilisant un langage polyvalent ne se retrouvera jamais bloqué par une limitation.



Par contre, je ne suis pas d’accord de qualifier C/C++ de langage “non sûr” dans la mesure ou il est parfaitement possible d’utiliser un style de programmation sécurisé en C/C++.



Faut t’il vraiment traiter les programmeurs comme des toutous auquel on met une espèce de laisse pour les forcer à utiliser un style de programmation précis ?





Outre le niveau de compétence, il me semble qu’aujourd’hui, on n’utilise pas assez les outils qui sont à notre disposition. Un langage comme Ada ou Haskell ont des compilateurs qui vérifient des contraintes beaucoup plus poussées qu’en C/C++/C#/Java. Pourquoi ce priver de cela ? Parce qu’on est trop des roxxors du code et on n’en a pas besoin ? <img data-src=" />





J’ai toujours pensé que la diversité des langages informatiques était positive parce que chaque langage apporte ses forces et faiblesses.



C’est pourquoi je suis contre la logique de certains éditeurs qui vont vers la tendance à restreindre des plateformes à un seul langage ou à un type de langage (langages managés par exemple).



Pour autant, il ne faut pas oublier les raisons du succès de C/C++ qui tient à la polyvalence inégalée de ce langage dont les énormes possibilités permettent de remplacer une palanquée de langage et d’outils.



Ce langage a d’aillerus beaucoup évolué depuis ses débuts : formalisation beaucoup plus poussée et vérifications plus pointilleuses pour éviter justement les erreurs bêtes (certains se souviennent du C d’il y a 25 ans qui ne vérifiait à peu près rien). Et récemment, ajout de certaines possibilités venues des langages fonctionnels.



Évidement, je suis d’accord avec toi qu’il existe des langages qui apportent des avantages particuliers. Mais ils ont aussi le plus souvent d’autres inconvénients qui limitent leur utilisation à des besoins précis. C’est particulièrement le cas des langages fonctionnels.





J’ai jamais dit que cela allait tout régler. C’est juste qu’il y a beaucoup de cas où utiliser du C ne se justifie plus aujourd’hui.





Tous les logiciels n’ont pas besoin des l’ensemble des possibilités de C++. Et le choix d’un langage optimal sera toujours fonction du projet.



Pour autant, je trouve amusant de choisir un langage pour la raison qu’il vous interdit d’utiliser certaines possibilités.



Comme si les programmeurs étaient devenus si bêtes au point de ne pouvoir se fixer des règles eux même et choisir un style de programmation sécurisé sur un outil polyvalent.





On a jamais le beurre et l’argent du beurre. Il ne faut pas rêver. Ce n’est pas pour rien que les trains, avions, fusées, missiles, etc… ne sont pas codés en C, mais principalement en Ada.





De tous les langages, C/C++ est certainement celui qui est le mieux parvenu à concilier des exigences différentes et contradictoires. Et d’avoir réussi l’exploit de concilier de la programmation de couches basses comme de la programmation pour les couches hautes.



Tu peux intégrer de l’assembleur directement dans ton code tout autant qu’utiliser un style de programmation sécurisé. Ce langage est le couteau suisse de la programmation.



On peut vouloir utiliser des outils moins puissants. Mais la question qu’il faut se poser est : pourquoi ?



Pour ma part, j’ai toujours choisi un outil en fonction des possibilités qu’il m’offre, pas de celles qu’ils m’enlève.





Et dans pas mal de cas, je sacrifierais volontiers 10% de performances et la garantie de ne pas avoir d’erreurs aussi bêtes.





En utilisant le style de programmation qui va bien, tu n’aura jamais aucun problèmes de dépassement de mémoire tampon.



Il est évident que même un bon programmeur peut faire des erreurs. Mais s’il a choisi un style de programmation adapté, elles ne passeront pas.





Oui, tout autant qu’en assembleur tu peux faire la même chose qu’en C++.

La différence c’est 100x fois plus de chance d’avoir des bugs, un temps de développement bien plus long, etc…





En même temps, l’assembleur reste absolument irremplaçable dans certains cas de figure.



La encore, C/C++ est le langage qui permet le mieux cette intégration.


Le 09/04/2014 à 22h 13







Freud a écrit :



Je ne suis pas d’accord avec ça.



L’expérience et l’histoire montrent que peu importe que le source soit disponible ou non, on trouve toujours plus de failles dans les logiciels les plus utilisés.



Exemple tout bête, IE6 ou Flash, tous les deux fermés, et pourtant plein de failles trouvées par des gens uniquement en utilisant le disassembly. Pourquoi? Simplement parce que ça se vend très cher, ou ça rapporte beaucoup d’argent à l’exploitation.



Il suffit de voir les bug bounty programs : le nombre de failles rapportées est proportionnel à la popularité des softs, en gros. L’aspect code source dispo ou non ne semble pas influer.



Personnellement, ayant écrit des outils d’analyse statique et dynamique de code, j’ai trouvé quelques failles, mais uniquement dans des softs open-source. L’analyse sur du code compilé est plus complexe à mettre en oeuvre (mais c’est dans les tuyaux en ce qui me concerne).



Aujourd’hui, il me reste 3 failles critiques à rapporter : une dans le kernel linux, une dans firefox, et une dans java (découverte à partir de la JVM compilée). Donc 2 open source, 1 closed source (mais open depuis), mais tous très utilisés : c’est ça le point commun.







Tu dit toi même qu’il est plus difficile de travailler avec un logiciel dont le code source n’est pas disponible.



Et si je conviens que les outils d’analyse complètent fort utilement l’analyse humaine, il ne faut pas oublier qu’ils ne peuvent pas pour autant la remplacer.



Enfin, pour un programmeur d’outil d’analyse, l’enjeu est de repérer toutes les failles qu’il lui sera possible de détecter. Mais pour un programmeur de logiciels et ses utilisateurs, l’enjeu est de les trouver toutes.



Pour un humain, quel est le plus rapide à lire ? La sortie d’un code source ou celle d’un désassembleur ? Tu conviendra que la réponse est évidente.



Et le fait est que Java est beaucoup plus facile à décompiler que C++, c’est donc un mauvais exemple pour parler de la difficulté de trouver des failles dans le code “closed source”.



Le fait qu’un logiciel très utilisé soit également plus étudié sur le plan de la sécurité me parait aussi assez logique.



Donc je pense que globalement nous ne sommes pas en désaccord.


Le 09/04/2014 à 21h 38







herbeapipe a écrit :



Pour un compte yahoo sur lequel je ne me suis pas connecté depuis un moment, il ne faut donc pas que j’y aille pour le moment, ou faut il que j’aille changer le mot de passe justement ?



J’ai un peu de mal là ^^



Merci :)







Tant que tu n’as pas l’info disant que le problème est solutionné chez eux, il est prudent de ne pas t’y connecter.



Une fois le problème solutionné, tu pourra t’y connecter et changer ton mot de passe afin de parer au cas ou la faille aurait pu être exploitée par le passé.


Le 09/04/2014 à 21h 30







dam1605 a écrit :



Fallait pas le prendre mal, je soulignais juste que les système était vulnérables bien avant que la faille soit rendue publique.



Sinon je suis plutôt d’accord avec toi <img data-src=" />







Pas de souci, c’était surtout l’occasion d’expliquer le pourquoi du comment.


Le 09/04/2014 à 21h 25







Commentaire_supprime a écrit :



<img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" />



TOUT est vulnérable RIEN n’est bullet-proof, peu importe la licence.



Le libre, c’est faire un pari sur la réactivité de la communauté en cas de pépin.



Le proprio, c’est faire un pari sur le professionnalisme du détenteur des droits sur le code en cas de pépin.



Après, à vous de voir. Le reste n’est que troll de bas étage.







La question n’est au contraire pas du tout un troll. C’est bien un problème sérieux dont les enjeux sont majeurs.



Quand un unique module de code finit par servir de porte de sécurité à de nombreux ordinateurs et services dans le monde, il est évident que les conséquences d’un problème peuvent être absolument critiques, aussi bien pour des individus que des entreprises ou même des états.



La vraie question qui se pose est la suivante : est ce que la responsabilité de la sécurité d’un tel module ne devient pas un enjeu beaucoup trop lourd pour reposer sur un faible nombre d’individus, une seule entreprise ou un seul état ?



A partir du moment ou l’on pose la conclusion logique que de tels enjeux ne peuvent être solutionnés que par un nombre d’équipes importantes et multi nationales pour garantir les intérêts de tous, on pose également la conclusion qu’il serait difficile de travailler autrement que dans une logique de logiciel libre.


Le 09/04/2014 à 20h 35







jrbleboss a écrit :



Personne n’a dit que toutes les failles allaient disparaitre <img data-src=" />

Se débarrasser des failles liées à la mémoire est déjà un grand pas.







Je n’ai pas dit le contraire, mais simplement fait remarquer que ce n’était pas une question de langage.





Certes, mais elles sont aussi bien plus critiques.





Pas nécessairement.



Une faille dans un programme écrit en PHP peut parfaitement permettre à un pirate d’accéder à toutes les données critiques d’un site.





Oui, mais à compétences égales, un code managé contiendra moins d’erreurs que du C.





Non, ça c’est une idée reçue.



En C++, obtenir la même sécurité qu’un Java ou en C# est simple comme bonjour : il suffit de passer par des classes qui manipulent la mémoire.



Le problème de la compétence, c’est plutôt la tentation de certaines entreprises d’employer des gens qui n’ont pas le minimum requis en matière de sécurité informatique.





Pourquoi implementer quelque chose que des gens infiniments plus compétents que nous ont déjà fait ?





D’abord parce que les langages managés ne sont pas la solution universelle. Ils posent d’autres types de problèmes.



Ensuite parce qu’un “bound checking” est probablement la chose la plus triviale qu’on puisse imaginer en programmation.



Si un programmeur (même débutant) ne maîtrise pas cela, c’est qu’il doit changer de métier.



Il y a un moment ou il faudrait que la profession cesse d’utiliser des gens qui n’ont pas le strict minimum en terme de bagage technique en croyant qu’il existe un langage miracle qui va tout régler.





C’est surtout qu’il faut adopter un modèle hybride: du C/C++ où la performance est critique, du C#/Java/Haskell/whatever pour tout le reste.





C’est une vision des choses. Mais elle se heurte à quelques écueils : Un programme peut avoir en même temps besoin de performances d’un côté et de sécurité de l’autre. D’ou l’intérêt d’un langage capable de mixer les deux logique.



D’ou mon commentaire pour faire remarquer que contrairement aux idées reçues, un langage comme C++ est parfaitement capable de faire ce que font les langages managés. L’inverse n’est en revanche pas vrai.


Le 09/04/2014 à 19h 37







dam1605 a écrit :



Techniquement comme la faille est là depuis deux ans, quelqu’un peut s’en servir sur les machines INpactées depuis ce moment…







Les professionnels de la sécurité te diront que sur tous les OS existants, il existe des failles dormantes et exploitables que personne n’a encore découvert.



Et il se peut aussi que certaines soient connues d’un petit nombre de personnes avec toutes les conséquences que cela pourrait supposer.



Etant donné l’importance de la sécurité informatique (parce que nous confions maintenant toute notre vie aux ordinateurs), cela pourrait bien devenir LE problème du siècle.



La question qu’il faut se poser c’est : qu’est ce qu’on peut y faire.



Parce que oui, nous pouvons y faire quelque chose. Mais il faudra y consacrer de très lourds moyens.



Pour garantir que la sécurité sera indépendante d’un état, seul les logiciels libres seront adéquats.



Mais il faudra aussi que les états prennent aussi conscience que ce n’est pas suffisant et qu’il sera nécessaire d’y consacrer des moyens.





Le 09/04/2014 à 18h 35







240-185 a écrit :



La FSF



Et ils se défaussent en disant que le bug a été corrigé grâce à l’ouverture du code, tout en passant en silence le fait qu’il a quand même fallu deux ans pour le découvrir : http://www.fsf.org/news/free-software-foundation-statement-on-heartbleed-vulnerability







Sincèrement, je pense que tu n’as rien compris.



Commençons donc par casser une idée reçue largement véhiculée par le marketing : Non, l’ordinateur n’est pas un objet simple. C’est même l’objet le plus complexe jamais inventé par l’homme.



Dans tous les programmes, il y a des failles. Qu’ils soient libre ou propriétaire ne change rien au fait que les programmeurs en produisent.



La cause des failles dans les programmes, c’est principalement la très grande complexité des logiciels ET la nature humaine des programmeurs qui les écrivent.



La différence qu’offre le libre, c’est qu’il permet à tous de lire le code et de rechercher des failles. C’est un avantage réel et incontestable.



Mais cela signifie t’il pour autant l’absence de failles ? Bien sûr que non. Et jamais personne n’a prétendu cela.



Mais plus il y aura de gens qui liront les codes sources, plus vite les failles seront trouvées et éliminées.



C’est la ou se trouve le paradoxe.



Tout le monde sait que le logiciel libre et le seul moyen d’assurer l’indépendance du système d’exploitation des états parce qu’il rends plus facile la découverte de failles. Et donc complique leur introduction volontaire.



Mais pour que cela fonctionne de la manière la plus parfaite possible, il faudrait que les états consentent à y consacrer des ressources suffisantes pour vérifier le code et contribuer à sa sécurité.



Ce qui n’est malheureusement pas encore le cas.



Nous voyons très bien d’ou viens le problème en observant le mauvais exemple de la France qui prends un monstrueux retard à se mettre aux logiciels libres.



Le 09/04/2014 à 18h 03







charon.G a écrit :



les buffer overflow c’est la très grande majorité des failles et ce n’est pas possible avec un langage managé…







Sur le web, les menaces les plus courantes viennent des failles de sites codés en PHP…. qui est pourtant un langage de type managé.



Les exploitations réussies de buffer overflow sur des programmes écrits en C/CC++ sont en pratique beaucoup plus rares.



La cause la plus courante de problèmes de sécurité n’est donc pas le langage de programmation utilisée, mais plutôt la compétence et le niveau des programmeurs.



Laisser penser que l’outil (en l’occurence le langage) pourrait remplacer la compétence, c’est prendre une mauvaise direction.



D’ailleurs rappelons que tous les langages permettent le “bound checking” , y compris C/C++. Il suffit d’accéder à la mémoire uniquement au travers de classes et de fonctions qui l’imposent . Ce qui est relativement simple à écrire.



Donc, a quoi bon utiliser un langage “managé”, juste pour avoir une fonctionnalité implémentable dans tous les langages ?



Ce qui m’amène à une tout autre conclusion : quantité de programmes sont anciens ou codés avec des paradigmes de programmations anciens qui datent du temps ou le web n’existait pas encore.



Parfois même ils utilisent encore des anciennes fonctions du type strcpy() dont les problèmes sont connus.



Ils devraient donc être réécrits avec de nouvelles règles.


Le 10/04/2014 à 16h 15







lateo a écrit :



Boarf, un NAS domestique commercial offre une bonne intégration, du raid natif, une faible conso électrique… pour pas cher.

Difficile de faire aussi bien avec le home made <img data-src=" />



édit : Typiquement, mon syno est up h24 alors que mon poweredge2900 n’est up que quelques heures par trimestre. Pourtant le 2900 a 8 baies raid5, bi-xeon et pas mal de ram ; rien à voir avec la config poussive de mon pauvre ds411j.









Hey Joe a écrit :



Franchement, sauf envie de bricoler, récupération de matériel qui autrement aurait servir à rien ou besoin très spécifique, je ne vois pas l’intérêt d’un NAS fait maison.



J’en ai assemblé deux avec des pièces de récupération avant de me payer un QNAP 4 disques durs. Je préfère mon QNAP pour les raisons que tu avances.









TBirdTheYuri a écrit :



Idem pour moi, trop casse-noisette à maintenir en service mon NAS home-made, et surtout trop gourmand en énergie et en volume occupé, en plus d’être bruyant.

Depuis que j’ai acheté mes Syno je n’ai plus de place perdue, j’ai réduit de 20% ma facture EDF et le silence est de retour <img data-src=" />







J’avoue ne pas comprendre vos arguments.



(1) Consommation : Vous dites qu’un Nas homemade consommerait forcément plus. Pourquoi pensez vous cela ? Si vous récupérez une vieille carte mère Pentium 4, c’est évident. Mais pas si vous achetez une carte mère récente à base d’Atom ou de Celeron : et vous pourrez encore gagner en consommation en les sous voltant. Que pensez vous qu’on trouve dans un Nas tout fait ?



(2) Récupération de matériel : Rien ne vous y oblige. Le matériel neuf, c’est bien aussi et ça consomme moins. Et pour le prix d’un NAS du commerce, il y a de quoi faire. Mais il peut être interessant également de récupérer un boitier ou une bonne alim.



(3) Maintenance : Faire votre propre nas avec des pièces standard apporte l’avantage évident de pouvoir vous procurer des pièces détachées très simplement et surtout très rapidement. C’est la raison majeure qui m’a fait adopter ce type de solution.



(4) Temps de montage : Soyons sérieux, ce type de machine ne demande pas plus de quelques minutes à assembler. Une fois cela fait, je n’y consacre plus aucun temps pendant des années. Certains considèrent que le fait de ne pas “bricoler” serait un avantage. Sauf que faire soi même augmente énormément la maitrise que l’on a sur un produit, ce qui se traduit par un avantage évident et majeur.



(5) Espace occupé. C’est le seul point ou il semble difficile de faire aussi bien que les produits du commerce. Mais est ce réellement important ? Comparez le volume d’un petit boitier de PC à celui d’une pièce. Et cela d’autant plus que l’appareil n’a pas besoin d’être à côté de votre machine. Sans compter que espace est synonyme de bonne ventilation.



(6) Bruit : Aucune raison que votre nas homemade fasse plus de bruit qu’un produit du commerce si vous règlez correctement la vitesse de vos ventilos. Souvent, les disques durs sont bien plus bruyants que les ventilos.



(7) Services : Une bonne distribution Linux offre une pléthore de services possibles. Vous me rétorquerez qu’il faut savoir les installer. En réalité, c’est assez simple et on trouve tous les tutos nécessaires. L’avantage, c’est qu’après vous maîtriserez, ce qui sera très utile en cas de problème. L’autre avantage, c’est que vous retrouverez toujours les mêmes services(qui se configureront toujours de la même façon) même si vous changez de marque de matos.



(8) Sécurité : Les bonnes distro Linux sont patchées quotidiennement. Et une simple commande suffit à le faire. Elle peut même être automatisée.


Le 09/04/2014 à 21h 04



Les NAS sont également touchés, les fabricants planchent sur une mise à jour





Moi je n’ai eu qu’une commande à taper pour mettre le mien à jour.



C’est tout l’avantage de construire son propre Nas et de l’équiper avec un Linux standard.



Et ce n’est ni compliqué, ni cher : Il n’y a que des avantages.


Le 09/04/2014 à 20h 58







Chloroplaste a écrit :



Ma copine utilise Aol mail qui est toujours vulnérable à l’heure actuelle. Toutefois, elle se connecte toujours via le même PC sans avoir besoin de remettre ses identifiants.

Est-elle tout de même concernée ?







Par mesure de sécurité, change de copine. <img data-src=" />


Le 08/04/2014 à 21h 40







ceric35 a écrit :



Absolument aucun algo n’est asic resistant. Au mieux ils sont asic hostile pour un moment.







A mon avis, tu t’avances un peu trop sur ce coup la.



Pourquoi ? Simplement parce qu’il existe quantité d’algorithmes qui demandent trop de diversité fonctionnelle et de mémoire pour que la création d’un Asic apporte un gain notable.



Par exemple, amusons nous à imaginer un asic capable de compiler du C++. Pas impossible, certes. Sauf qu’il aurait certainement une architecture proche de celle d’un processeur généraliste. Ce qui demanderait un investissement déjà très conséquent pour les égaler. Et les gains seraient certainement insuffisants pour rentabiliser l’Asic.



D’ailleurs, il faut réaliser que le Scrypt a déjà réduit la rentabilité des asics par rapport au SHA 256.



Mais au fond, a t’on réellement besoin d’avoir un algorithme absolument Asic résistant à 100% ?



Il suffit simplement aux développeurs d’une monnaie de poser le fait qu’un changement d’algorithme sera forcé dès le jour ou un asic viendra sur le marché pour la miner. Quand bien même le nouvel algo ne serait pas non plus complètement Asic résistant, ces derniers étant peu souples, cela suffirait à les éliminer.



Et cette simple menace suffirait à dissuader le moindre investissement dans la création d’asics. Personne n’investira dans un produit qui risque d’être inutilisable en très peu de temps.























Le 08/04/2014 à 17h 43

Le vrai problème de Dogecoin et Litecoin c’est que ces monnaies sont restées en scrypt, un algo qui n’est pas asic resistant.


Le 06/04/2014 à 23h 17







psn00ps a écrit :



Rends moi acceptable le minage de bitcoin / doge. <img data-src=" />

So Harou !







La mauvaise nouvelle, c’est que tout cela a déjà été optimisé à mort par d’excellents programmeurs.



Cela dit, en cherchant par ci, par la, on trouve des “kernels” encore mieux optimisés.


Le 05/04/2014 à 20h 45



Ton innocent jeu peut être utilisé pour miner des bitcoins





C’est également possible avec un langage managé.



La menace en la matière ne viens pas seulement des ordinateurs piratés, mais aussi potentiellement des éditeurs de logiciels eux même.


Le 05/04/2014 à 20h 31







HarmattanBlow a écrit :



Premièrement rien n’est “sans aucun lien avec les problématiques de sécurité” : tout code disposant de droits peut être subverti. Ton innocent jeu peut être utilisé pour miner des bitcoins, pour te soutirer ta monnaie virtuelle pour les revendre à d’autres joueurs (jeu en ligne), pour télécharger et installer un malware sur la machine, pour espionner ton navigateur et récupérer tes identifiants, etc. Et puis on ne compte pas le nb d’applis critiques en termes de sécurité encore codées en C/C++ aujourd’hui sans que ce soit nécessaire.







En même temps, ne surestime t’on pas les problèmes de sécurité liés au code natif ?



Sachant que :



(1) Les tâches sont isolées les unes des autres. Sur un système bien conçu, les logiciels n’ont pas latitude d’installer des malwares ni d’espionner les autres applications. C’est encore plus vrai quand on utilise des dispositifs de sécurité du type “apparmor” avec des profils qui n’autorisent pas un logiciel à faire des choses inhabituelles par rapport à leurs fonctionnalités.



(2) Il y a dorénavant des mécanismes de protection au niveau des processeurs qui interdisent l’exécution des données. Ce simple fait ruine de nombreuses stratégie d’attaque contre le code natif.



(3) La plupart des problèmes de sécurité en C étaient liées à l’utilisation d’anciennes fonctions (Genre strcpy) non bornées qui favorisaient les débordement de mémoire tampon. L’utilisation de fonctions modernes impliquant un bornage mémoire apporte exactement la même sécurité que dans un code managé.



(4) Contrairement à une idée reçue, l’utilisation d’un langage de “type managé” n’implique pas pour autant la disparition des problèmes de sécurité. Il suffit de voir l’exemple de certains logiciels écrits en PHP pour le comprendre.





Ensuite l’exigence en termes de performances n’est absolument pas un pb parce que :

* Aujourd’hui les performances c’est une affaire d’algos, et notamment de parallélisation, pas de trois instructions CPU en plus ou en moins (je caricature un peu, voir la suite).





Sauf dans les cas ou ces 3 instructions sont dans une boucle qui les répète des milliards de fois. C’est l’exemple type d’un décodeur vidéo, d’un traitement d’image (et de bien d’autres exemples).



Est ce qu’un décodeur vidéo qui serait 3 fois plus lent ne serait pas un problème ?





* Aujourd’hui les performances c’est une affaire de GPGPU et d’archi hétérogène. Il y a un travail spécifique à y faire en termes de sécurité mais les performances sont insensibles au fait que tu utilises lua ou le C pour piloter ton GPU.





Oui et non.



L’occupation CPU est justement un problème majeur pour préparer les données à traiter par les GPU.



Et nous sommes en ce moment à la remise en cause des API de haut niveau pour… gagner justement de la puissance.



L’optimisation revient à la mode parce que la loi de moore, c’est fini. Il ne suffira plus d’attendre un an pour rendre acceptable un programme qui rame.





* Avec un bon compilateur il est possible d’avoir d’excellentes performances en C#, souvent supérieures à celles d’un C++ moderne avec son cortège boost/stl qui répliquent les lourdeurs du C# (parfois en pire). Ne manque vraiment que la capacité de contrôler plus finement les allocations et d’avoir des objets plus légers et sans introspection, d’où un projet comme celui de M#, sûr mais léger. Et il manquait un vrai compilateur, ce qui est en passe de correction.





Les programmeurs qui veulent optimiser n’utilisent pas boost ou stl.





* Cela restera t-il plus lourd qu’un code C très optimisé ? Oui et il faudra faire avec, ce qui ne sera pas un gros problème.





On ne peut pas décréter que ce n’est pas un problème.



Beaucoup de programmeurs le pensent parce qu’ils n’écrivent pas le type de logiciel dans lequel un problème.



Mais ce qu’ils ne réalisent souvent pas, c’est qu’ils appellent dans leurs programmes des fonctions qui exploitent des algos de “bas niveau” et qui contiennent même parfois de l’assembleur.





Le 03/04/2014 à 19h 17







A-snowboard a écrit :



J’ai enlevé le reste pour que ce soit un minimum lisible.

En fait je tique sur la notion de faire comme les autres.



Pourquoi toujours vouloir faire connement comme les autres sous prétexte que ça rapporte plus d’argent ? Surtout si c’est pour copier ce qui pourris internet et le monde en général.







Je fait simplement remarquer que c’est juste la solution la moins risquée et (pragmatiquement parlant) la plus apte à assurer leur survie.



Pour le reste, il faut réaliser que le “cimetière des entreprises” est rempli de cas d’entrepreneurs qui ont donné dans l’idéalisme. Et pour certains d’entre eux très mal fini.





Pourquoi ne pas essayer d’autres solutions, même si ça rapporte un peut moins.





Sans doute parce que le débat dans ce genre de problème ne se résume pas à “gagner un peu moins” mais plutôt à la différence entre survivre et disparaître.



Une entreprise, ce n’est pas un jeu. Un mauvais choix, se paye cash.



Le jour ou vous n’avez plus l’argent pour payer les charges et les salaires, tout s’arrête et c’est la faillite.



Et la vraie réalité c’est qu’il n’y aura personne pour pleurer sur le sort de l’entrepreneur, ni pour l’aider pendant les années de galère qui suivront.



Donc voila, mes remarques partent avant tout d’un point de vue pragmatique de quelqu’un qui as l’expérience du monde de l’entreprise.





C’est cet état d’esprit qui nous bousille justement la planète.

En fait, ce que je suis en train de dire, c’est d’essayer d’appliquer les conviction personnelles à l’entreprise.





Alors peut être faudrait t’il commencer par comprendre les raisons pour lesquelles les entreprises sont obligées de suivre la voie de la meilleure rentabilité et n’ont quasiment aucune marge de manœuvre pour s’en écarter.



Et c’est particulièrement vrai dans notre “beau” pays : la société toute entière qui reporte tous les risques sur les entrepreneurs. Et après de venir se plaindre qu’ils ne penseraient soit disant qu’a la rentabilité.



Mais leur laisse t’on seulement le choix ?





Et rien qu’essayer je trouve ça beau. Au moins ça évite d’être sur le canapé a râler et de faire exactement le contraire le lendemain (je n’ai pas dit que c’est ton cas, c’est ce que je constate en général)





Quand on voit ce qui arrive dans notre pays à un entrepreneur qui échoue et à des employés qui perdent leur emploi, ça n’est pas beau à voir.



D’autant qu’au final, quand les plus idéalistes échouent, il ne reste… que les autres.





Alors oui ça rapporte moins, oui il y a de l’incertitude, mais au moins autre chose est proposé.

Et même si c’est pas le plus facile pour eux, Next INpact essayent… Et visiblement ça marche pour le moment même si l’équilibre est précaire.





Ce n’est malheureusement pas aussi simple.



Si la concurrence gagne plus d’argent, ils pourront investir plus… et écraser le marché demain.



Il faut réaliser que c’est ainsi que fonctionne un monde capitaliste.



On peut le déplorer, mais en attendant, c’est comme ça que ça marche.





On pourra dire la même chose pour médiapart, le canard enchainé et autre.





Et s’ils disparaissent faute d’avoir su rentabiliser et qu’on se retrouve avec deux ou trois média bien verrouillés par les “amis” du pouvoir, est ce que le monde sera meilleur ?



Personnellement, je préférerais avoir un peu plus de pub sur PCInpact et être sûr qu’ils survivront demain.





Donc oui c’est bien de sortir des sentiers balisés, c’est avec eux que le monde évolueras positivement, pas avec les autres.





Non, je maintient que le monde évolue quand on donne aux gens les moyens et la liberté de faire changer les choses. Les belles idées n’ont que peu de pouvoir dans une réalité ou elles ont toutes les chances d’échouer.


Le 03/04/2014 à 00h 09







David_L a écrit :



Nous sommes donc en désaccord sur ce point : il y a différents appareils, différentes capacités, différents besoins. Tu peux vouloir considérer tout cela comme des PC in fine, un smartphone sous Bada et une Workstation, non, ce n’est pas la même chose ;)







Je suis d’accord que l’usage “à priori” d’un téléphone ou d’une tablette est totalement différent de celui d’une station de travail.



Pour autant, qui ne ressent jamais le besoin de pouvoir accéder aux mêmes fonctionnalités sur des appareils pourtant différent ?



On préférera évidement retoucher ses photos ou concevoir ses plans sur une belle station de travail avec de grands écrans et des cartes graphiques puissantes.



Mais il est parfois très utile, voir indispensable de pouvoir retoucher une photo ou modifier un plan sur le coin de la table d’un café, même si c’est juste du dépannage. Parce qu’ un téléphone ou une tablette se transporte plus facilement qu’une station de travail.



Et quand on peut utiliser la même application pour cela, c’est vraiment le bonheur : On sait ou sont les fonctions et ce que le logiciel peut faire.



Alors vous me direz qu’il y a un problème : la puissance n’est pas la même, la taille de l’écran non plus. Et donc il y aurait des limites pour faire tourner les mêmes logiciels.



C’est vrai, mais seulement partiellement : il faut réaliser qu’un smartphone moderne dispose de la capacité mémoire et de la puissance d’un PC d’il y a quelques années avec lequel on faisait déjà beaucoup.



Personnellement, j’ai mené des essais qui m’ont convaincus que ni la petite taille de l’écran, ni la puissance n’étaient de vraies limitations pour beaucoup d’usages.



Ensuite, la diversité des plateformes ne facilite ni la vie des développeurs, ni celle des techniciens, ni l’apprentissage des utilisateurs.



Pour ces raisons, je parie a terme sur une convergence des usages, des OS et des logiciels. Et je sais aussi que c’est ce qui se prépare dans la tête des développeurs. Quand bien même le smartphone ou la tablette ne pourront pas tout faire, ils peuvent néanmoins élargir leurs usages de manière très importante.





Cela fait bien longtemps qu’on compte sur plus que le côté “militant” pour cela, même si effectivement ils existent et que c’est avant tout grâce à eux que l’on reste en capacité d’exister.





Tout à fait.



Mais je pense que je ne vous apprends rien en vous disant que ça ne suffira pas sur le long terme. Une société a besoin de beaucoup d’argent pour vivre. Et dans un monde de requins, la croissance rapide d’une entreprise est un facteur de survie et d’évolution positive pour ses employés.



C’est encore plus évident sur le web ou les cycles sont très rapides et la concurrence encore plus frontale que dans le “brick and mortar”





On peut vite en arriver à une histoire d’oeuf et de poule mais mon propose s’attardait sur un autre problème : celui de la capacité des lecteurs à comprendre les implications des modèles qu’ils favorisent. Je lisais encore récemment que le modèle de l’info sur internet impliquait la tendance au click bait des sites d’info en tous genre. Alors qu’en fait, cela n’a rien à voir avec internet en tant que média. C’est tout simplement lié au modèle économique qui tend à rémunérer l’information non pas sur sa qualité, son originalité ou sa capacité à contenter le lecteur, mais sur la capacité d’un site à générer de la page vue et ce quel que soit le moyen.





Le problème est toujours le même dans tous les business : comment gagner de l’argent pour survivre et pour grandir.



Malheureusement, la réalité, c’est que le moyens le plus facile et le plus sûr est bien souvent de faire exactement comme les autres, même si cela ne va pas dans le sens de l’idéalisme. L’expérience montre qu’a s’éloigner des sentiers balisés, on multiplie aussi les chances de se tromper.



Bien souvent, on constate que les consommateurs ne vont hélas pas ou le bon sens voudrait qu’ils aillent. Et les gens intelligents commentent souvent l’erreur de surestimer l’intelligence du consommateur.



Bien sûr, le fait de créer des choses différentes et/ou meilleurs est parfois aussi la source de grands succès. C’est pour cela qu’on dit que les bons entrepreneurs sont des génies ou des fous, souvent les deux à la fois.



Le problème quand on innove, c’est toujours le risque de tomber à mi chemin entre les besoins de deux catégories différentes de consommateurs et de ne pas correspondre suffisamment aux besoins de l’une ou l’autre pour en tirer bénéfice.





Est-ce possible ? Sans doute. Est-ce facile ? Sans doute pas. Et alors ? ;)





Alors, je vous souhaite un grand succès.


Le 02/04/2014 à 20h 08







David_L a écrit :



C’est assez faux et ne nous fait donc pas tenir des propos que nous n’avons pas tenu.







Bon, ce n’était pas ainsi que je voyais les choses.



Ma phrase ne visait nullement à vous attribuer des propos, mais à expliquer qu’a la lumière de votre contenu actuel, je subodorait que vous pensiez que l’avenir n’était plus au PC.



Si tu penses que mon propos n’était pas suffisamment clair, alors je m’en excuse et je précise bien qu’il ne s’agissait uniquement que de mon analyse et non pas d’un quelconque propos de votre part.



Sinon, il est évident que je ne suis pas dans votre tête, j’exprime uniquement ce que je ressent a la lecture de votre contenu.





S’élargir à toutes les problématiques qu’implique l’extension du numérique à notre quotidien ne veut nullement dire qu’il n’est plus question de traiter du PC ou de le penser au centre de certains usages (comme tout ce qui touche à la production de contenu par exemple).





C’est sur ce point que je ne pense pas comme vous.



Parce qu’au centre de tous ces gadgets, il n’y a qu’un seul et unique objet : l’ordinateur.



Qu’il soit “PC classique”, tablette ou smartphone, c’est toujours un ordinateur… personnel, donc un Personnal Computer… ou PC.



Donc, au contraire, l’ordinateur est bien au centre de tout. Et tout ce qui en découle par rapport à la vie numérique n’est qu’une conséquence de cela.



Le discours différenciateur actuel des constructeurs de matériel n’est qu’un artifice marketing. Il tombera aussitôt que ce même marketing décidera qu’il est temps d’augmenter les fonctionnalités… pour vendre des nouveaux modèles.





Nous n’hésitons en rien. Nous avons décidé d’opter pour un modèle qui mêle le contenu réservé temporairement aux abonnés à un accès gratuit. La capacité à se focaliser sur des dossiers de fond dépend du soutien des lecteurs et la prise d’indépendance vis-à-vis de la question de l’audience, mais ça c’est à nous de l’expliquer et aux lecteurs de le comprendre.





C’est bien de considérer qu’il existe des lecteurs militants qui vont s’abonner par sympathie pour vous soutenir. De fait, ces lecteurs existent.



Mais il faut réaliser que beaucoup de lecteurs peuvent aussi raisonner comme des consommateurs : se demander si le contenu vaut le coup d’être payé.



Donc si vous attendez qu’il y ait suffisamment de lecteurs qui payent pour écrire des gros dossiers et que de l’autre côté, les lecteurs attendent que vous pondiez des gros dossiers pour s’abonner, cela peut tourner en rond longtemps.



Quand je dit que vous hésitez entre les deux modèles, c’est parce que vous n’adoptez pas une position tranchée entre les deux. J’ai bien compris que vous pensez(probablement) à un juste milieu entre les deux.



Mais la question qu’il faut se poser : est ce que c’est possible. Et si oui, est ce que c’est facile.



Le 02/04/2014 à 17h 37

Ce changement de nom ne me surprend pas : il traduit ce qu’on subodorait déjà depuis longtemps en lisant le contenu des articles : PCI pense que l’avenir n’est plus a l’ordinateur personnel (PC signifie Personal Computer) mais plutôt aux tablettes et aux téléphones.



Personnellement je pense que PCI fait fausse route et que l’avenir le montrera. Voici pourquoi :



D’abord parce que les téléphones et tablettes actuelles ne sont qu’une forme provisoire. Ils évolueront dans l’avenir pour redevenir des ordinateurs personnels mobiles (ce qu’ils seraient déjà sans leurs OS édulcorés.).



Faites le lien avec votre article sur le rapport de Tariq Krim et ajoutez y cette information : de nombreux pays au monde vont réintroduire la programmation à l’école. Tout le monde a fait le même constat : l’enseignement de l’informatique par l’utilisation est un échec qui ne produit que d’éternels débutants improductifs et incapables de tirer partie de la puissance de l’informatique.



La génération actuelle de téléphones et de tablettes passeront. L’avenir sera à des outils différents : des ordinateurs personnels sous diverses formes.



Aujourd’hui PCI abandonne une marque connue, (ce qui est un énorme inconvénient) pour réagir à une situation actuelle qui sera déjà complètement dépassée le temps de prendre position sur ce marché. Jouer avec un coup de retard, c’est l’échec assuré.



Ajoutons à cela des problèmes de positionnement entre le fait d’hésiter entre le modèle gratuit et le modèle payant. Le monde du gratuit, ce sont souvent de petits articles écrits rapidement, le monde du payant, ce sont impérativement de gros dossiers très travaillés. Attention à ne pas se situer entre les deux en terme de qualité des dossiers, c’est précisément ce qui risquerait de rebuter à la fois ceux qui veulent un site gratuit et ceux qui seraient prêts à payer.

Le 02/04/2014 à 15h 59







xloxlox a écrit :



moué me souviens pas y avoir joué online ceux la par contre … <img data-src=" />







Personnellement, j’ai joué des années en ligne, principalement avec UT. Un excellent jeu dont je regrette l’arrêt de la série(après qu’ils aient raté le dernier opus).



Le 02/04/2014 à 15h 37

Déjà que je n’ai pas acheté BF4 parce que je ne trouvait pas BF3 suffisamment performant en matière de synchronisation multijoueur.



Sincèrement, je me rappelle des FPS anciens(Quake, Unreal Tournament ou Cs) qui fonctionnaient largement mieux de ce point de vue.






Le 01/04/2014 à 17h 26



…qu’Apple s’engage à produire des terminaux plus facilement réparables





Si seulement ça pouvait devenir vrai…

Le 01/04/2014 à 16h 04







MichaelCaine a écrit :



Et tu te places dans l’extrême inverse comme quoi la SNCF a forcément tort.



[troll] Si un jour tu te retrouves à côté d’un mec qui fait hurler sa musique alors je serais le premier a te dire de te taire car tu ne peux prouver qu’il gêne les gens.[/troll]



Edit : oula j’ai tellement attendu pour répondre que deux pages de commentaires ont été rajoutées.







En même temps, beaucoup de commentaires semblent assez prompts à condamner le jeune sur le thème “tous des jeunes cons” et personne pour remarquer les incohérences de l’affaire.



Par exemple :





“Selon lui, l’adolescent avait « son casque autour du cou » et avait mis la musique « à tue-tête ». Après avoir refusé de baisser le son, comme le lui demandaient des voyageurs, les agents de la SNCF seraient donc intervenus.”





Alors que tout cela se serait déroulé lors d’un simple passage dans un souterrain pour traverser la gare. Comment des voyageurs auraient t’ils eu le temps de prévenir un agent ?



Bref, il y a un problème de cohérence.



Personnellement, j’estime ne pas disposer de suffisamment d’éléments pour conclure qui as raison.





Le 31/03/2014 à 21h 08







cid_Dileezer_geek a écrit :



Moi j’ai eu plein de fois le coup, je me prépare toujours pour descendre en me levant dès que la rame ou le tram redémarre de l’arrêt avant le mien, et bien, je ne compte plus le nombre de fois où quand la porte s’ouvre, tu est bloqué par un tas de gens agglomérés devant la porte sur le quai, qui soit te foncent dedans sans te laisser le temps de descendre, soit restent plantés là devant toi comme des zombies attendant que tu descende, sauf que pour descendre tu dois les survoler et comme j’ai pas d’ailes, je fonce dans le tas en filant des coups de coudes s’ils s’écartent pas <img data-src=" /> <img data-src=" /><img data-src=" />







youtube.com YouTube<img data-src=" />


Le 31/03/2014 à 18h 25







v1nce a écrit :



Soit il paye l’amende soit on l’enferme 3 heures dans une pièce avec du Céline Dion à fond.



Moi je choisirai de payer.







Pascal Danel, c’est encore mieux <img data-src=" />


Le 31/03/2014 à 17h 46







Nkekev a écrit :



Je ne porte pas du tout la SNCF/RATP dans mon cœur mais pourtant je pense que ces incivilités là devraient être sanctionnées BEAUCOUP plus souvent…







Et comme beaucoup de gens qui pensent cela, tu sera le premier à crier ton indignation le jour ou l’on t’emmerdera avec l’un de ces règlements tatillons.


Le 31/03/2014 à 17h 02







jinge a écrit :



Heu… Tu n’as jamais entendu des gens écouter de la musique à fond avec leurs écouteurs, et que ça em toute la rame de métro/wagon de train?

+1







Certes, mais la nous parlons d’un gars qui traversait juste le souterrain de la gare et qui n’avait pas l’intention de prendre le train. Il s’agit donc d’un espace couvrant la fonction de concession de passage, les voies coupant le domaine public.



Il y a de nombreux endroits ou les voies ferrées(qui coupent le domaine public sur des kilomètres) obligent les gens à passer dans ce genre de souterrain… ou visiblement les règlements d’une entreprise privée s’imposent au public. Je ne trouve pas cela normal.



Ensuite, il faut quand même relativiser la prétendue nuisance : Il y a quand même des limites au bruit que l’on peut faire avec un baladeur dans un espace ouvert.



Alors dans la rame, je ne dit pas, mais dans les souterrains d’une gare ou sur les quais, je ne vois pas l’intérêt de verbaliser.



Après, qu’il y ait des gens dans les wagons qui font preuve d’incivisme avec leurs baladeurs n’est pas une raison pour tout interdire.



Un jour vous comprendrez que des tas de règlements tatillons ne remplaceront JAMAIS une bonne éducation.


Le 31/03/2014 à 16h 46







Yangzebul a écrit :



J’espère sincèrement que la SNCF ferra face et ne reculera pas d’un seul centimes.



<img data-src=" /> aux agents qui ont fait leur boulot jusqu’au bout. Peut être que les gens feront preuve d’un peu plus de savoir vivre.







Avant de soutenir, encore faudrait t’il savoir ce qu’il s’est réellement passé. Et c’est bien sur ce point que les contradictions sèment le doute.





Le 01/04/2014 à 00h 41







saf04 a écrit :



pour la petite histoire, un de mes potes dev c++ tres calé a foutu en l’air sa carriere dans l’analyse du son pour avoir deux disques de sauvegardes séparés qui ont pétés au meme moment…







C’est le coup classique avec le Raid et particulièrement le Raid 1 : deux disques identiques issus de la même série ont souvent exactement les mêmes défauts. Ajoutons à cela qu’ils fonctionnent de manière identique, la probabilité qu’ils tombent en panne en même temps -ou a quelques heures d’intervalle- est très forte.



Après, on peut avoir aussi une énorme surtension secteur qui va griller tous les disques durs branchés à ce moment la.



Et cela sans compter les grands classiques : l’incendie et l’inondation.



Bref, quand on parle de sauvegarde, il faut vraiment penser à tout.





Le 31/03/2014 à 20h 28







seboquoi a écrit :



Un test de Nerobackitup et de Blackblaze serait le bienvenu, on manque de retours je trouve alors que leurs solutions sont vraiment intéressantes pour ceux qui veulent vraiment du backup et pas de la synchro style Dropbox/Drive/Hubic.



J’ai actuellement un abonnement Hubic 10 To pour héberger mes données, le débit est bon (entre 10 et 50mb d’upload contrairement à ce qui est annoncé et plus souvent 20mb qu’autre chose) mais pour le backup de dossiers à des endroits différents c’est plutôt contraignant (faut faire du mklink pour uploader, puis couper la synchro et envoyer comme on peut les fichiers nouveaux), on a connu mieux, ou en tout cas on voudrait…



Le fond du problème c’est que voilà, je suis un chanceux avec la fibre, je veux sauvegarder mes donnés en ligne, comment je fais? Et bien la réponse n’est pas si simple pour l’utilisateur lamba.







C’est a ce moment la que les gens commencent à réaliser que “l’informatique facile pour tous” est un énorme mensonge, une utopie de papier inventée par les services de com des vendeurs de matériel.



Le meilleur conseil que je puisse te donner, c’est d’utiliser les mêmes outils libres que les pro qui travaillent avec des serveurs.



Cela peut paraître compliqué au premier abord, cela te demandera d’apprendre. Mais c’est un bon conseil qui te fera économiser beaucoup de temps et gagner en productivité à moyen et long terme.



Le 31/03/2014 à 21h 29







Yzokras a écrit :



C’est juste que les joueurs ne sont pas du genre à trouver ça amusant de devoir updater 36 dépendances, recompiler le noyau et se taper un bouquin de 300 pages en anglais pour comprendre pourquoi il y a des messages incompréhensibles, avant de pouvoir lancer un jeu.

Ils se trouvent donc sous Windows.







Il y a des gens qui préfèrent investir un peu de temps pour maîtriser, d’autres qui vivent dans l’utopie (inventée par des commerciaux) qu’on pourrait soit disant utiliser l’informatique sans rien savoir.



Va savoir pourquoi c’est toujours ceux qui recherchent la facilité à court terme qui se galèrent tout le temps.



Le 31/03/2014 à 20h 01

Rassurez vous.



Bientôt, toute cette merdasse étatique n’existera plus. Notre état pléthorique s’effondrera sous le propre poids de ses énormes dépenses.



L’occasion de rappeler que tout ces services inutiles(de nombreux pays s’en passent très bien) ont un coût élevé pour le contribuable.



Dans ce pays, nous réduisons sans cesse les services indispensable (santé, logement, etc) au profit de l’inutile : des services publics inutiles et coûteux dont le peuple n’a que faire.



L’étouffement économique aboutira à la faillite.

Le 31/03/2014 à 20h 00







Railblue a écrit :



Et le rapport avec le sujet est ?







Mince, autant pour moi, je me suis complètement trompé de sujet.



Reposté dans le bon sujet :pcinpact.com PC INpact







Le 31/03/2014 à 18h 52

Rassurez vous.



Bientôt, toute cette merdasse étatique n’existera plus. Notre état pléthorique s’effondrera sous le propre poids de ses énormes dépenses.



L’occasion de rappeler que tout ces services inutiles(de nombreux pays s’en passent très bien) ont un coût élevé pour le contribuable.



Dans ce pays, nous réduisons sans cesse les services indispensable (santé, logement, etc) au profit de l’inutile : des services publics inutiles et coûteux dont le peuple n’a que faire.



L’étouffement économique aboutira à la faillite.


Le 30/03/2014 à 17h 50

Parait qu’il y a des gens qui sont allés voter <img data-src=" />

Le 30/03/2014 à 17h 32







fullero a écrit :



Après Occulus VR, voilà E….culus VR.

Un appareil de réalité virtuelle qui fait vraiment mal au cul.

C’était un produit de m<img data-src=" />e comparé à ce que d’autres préparent mais pour lesquels la presse informatique fait moins de foin.

Des lunettes de réalité virtuelle j’en ai esayé perso il y a plus de 20

Question de pognon ?

Des projets de réalité virtuelle, il y en a plein.

Le souci, c’est juste l’ orientation de l’information à ce sujet ou le manque d’implication des médias et leur intérêt pour éclairer les vrais projets, ceux qui apportent plus.

Le journaliste qui fait son métier de façon mécanique sans passion ou désir de promotion tout comme sa direction en sont directement responsables.

Après tout que vaudraient KickStarter et se projets sans toute la pub faite par la presse informatique d’ aujourd’ hui ?

RIEN

Je pense donc que Pc Impact a la même responsabilité ou au moins je l’ espère pour eux un semblant d’influence pour amener à la lumière des projets plus intéressants qu’Occulus VR.

Et si ce n’est pas le cas, il faut se poser des questions sur la façon d’améliorer cela.

Parce que cela c’est de l’esprit journalistique.

Se poser des questions sur celui qui t’apporte l’information.

ET pas l’avaler comme une couleuvre.

Cela serait certainement la meilleure manière de se faire connaitre plus largement et d’augmenter ses propres parts de marché.

Via la communauté.

Comme celui dont PC IMPact a parlé précédemment faite par un français qui présentait son projet de lunettes à réalité virtuelle à 1 2 0 ° soit tout simplement une immersion très supérieure à ce que propose l’E….cculus VR.

C’est cela qui doit être promotionné pr la presse informatique.

Pas la vision américaine de l’amour du dollar et du mépris d’autrui qui aujourd ‘hui a défoncé quelques arrières trains de gentilles personnes pleines de bonnes intentions.

Avec un peu de patriotisme et un peu d’envie son projet pourrait largement dépasser les E…cculus VR limitées à un angle de 90 ° ce qi est TRES faible au regard de ce que perçoit réellement l’être humain en général.







C’est tout le problème du système médiatique d’aujourd’hui qui préfère parler d’un seul projet bien médiatisé que des 20 autres qui le sont moins.



La médiatisation entraîne la médiatisation, ce qui implique qu’une fois un projet médiatisé, tous les autres projets, aussi brillants soient t’ils resteront inconnus. Sauf énormes moyens… et encore.



Contrairement au mythe, pour les petits projets, le monde d’aujourd’hui est bien pire que celui d’hier. En théorie, le succès est à portée de tous. En pratique, il y a un épais “plafond de verre”.



L’ennui pour nous français, c’est que les projets américains sont bien mieux médiatisés que les nôtres. Sans compter cette espèce de fascination de la presse française pour tout ce qui viens des USA. Et malheureusement le corollaire : mépris flagrant pour tout ce qui est français.



Une fois compris ces quelques fondamentaux, vous en déduirez que les conséquences seront funestes : l’avenir de nos enfants sera bien sombre.







Le 30/03/2014 à 01h 19







Fuinril a écrit :



Tu as suivi un minimum l’affaire ? La “communication” suite au rachat est une Honte (avec un grand “H”), l’exemple même de ce qu’il ne faut surtout pas faire quand on s’adresse à des geeks (car oui, les gens qui étaient / sont intéressés par ce type de techno ne sont que des geeks, les débouchés sur le long terme sont certes bien plus vastes que le jeu vidéo, mais il s’écoulera peut être 20 ans avant que monsieur toutlemonde n’accepte de se mettre un casque sur la tronche qui le coupe complètement du réel)…



En un mot, au lieu de la communication habituelle de Parker il y a eu un message laconique d’une dizaine de lignes à la gloire de FB qui sent le commercial à 100 bornes. A partir de ce moment, en sus du rachat, la communication est complètement rompue. C’est plus qu’un manque de respect envers les gens qui ont cru au projet et l’ont financé dès le départ, c’est un crachat au visage suivi d’un double fist à base de gravier, le tout soupoudré d’acide citrique.



On verra la suite, la RV c’est très certainement l’avenir, mais ce genre de pratique devrait leur faire un telle mauvaise pub auprès de tous les gens susceptibles de s’y adonner avant une vingtaine d’années que je doute que FB ou/et Oculus n’en fasse partie <img data-src=" />







En même temps, il faut se mettre à la place des dirigeants. Ils étaient à la tête d’une entreprise dont l’avenir était plutôt incertain avec de gros nuages à l’horizon.



Et puis un matin, une grosse boite débarque et pose deux milliards de dollars sur la table.



Est ce que vous connaissez un seul dirigeant sain d’esprit qui refuserait ?



Demandez vous sincèrement ce que vous auriez fait dans une telle situation.



Après, concernant la com, c’est probablement très compliqué. Ils appartiennent maintenant à Facebook et ne savent sans doute pas encore quelle direction on leur demandera de prendre. Pas facile de communiquer sans “langue de bois” dans ces conditions.



Si vous ne voulez pas financer des projets qui aboutissent à ce type de situation, alors ne financez que des projets qui donnent des garanties contractuelles : promesse contractuelle d’être et de rester un projet libre(et non simplement “open source”) quoi qu’il arrive ET licence libre offrant des garanties(par exemple GPL V3 pour le logiciel). Cela tiendra certainement les “gros poisson” à distance. Et même dans le cas contraire, cela offre de belles garanties et possibilités de “fork”.



Et les créateurs de projets pour qui ces conditions ne conviennent pas peuvent toujours aller voir les investisseurs traditionnels.





Le 29/03/2014 à 17h 06

Cette affaire démontre juste ce que j’affirme depuis des mois : les projets financés par la communauté devraient être uniquement des projets libres.



Ce qui est financé par la communauté devrait revenir à la communauté.



On constate que des entreprise font appel au Crowdfunding uniquement par opportunisme alors qu’elles ont un accès relativement facile au financement traditionnel.



La prise de participation par le biais d’actions est une solution totalement irréaliste : trop compliquée à gérer pour des entreprises de taille modeste de gérer un actionnariat composé d’une myriade de particuliers. Et pour éviter de se faire flouer, l’investisseur doit consacrer beaucoup de temps. C’est pourquoi investir, c’est un métier qui ne s’improvise pas.



On dirait que certains découvrent seulement aujourd’hui que le destin d’une startup, c’est de finir avalée par une grande entreprise. Cela fait longtemps que je vous prédisait cela concernant Occulus VR.



Il serait d’ailleurs temps de commencer à soigner l’espèce de schizophrénie française en matière d’économie : D’un côté on hurle quand une entreprise fait de l’argent (et on fait des lois pour les en empêcher) et de l’autre, on pleure quand il n’y a pas de travail.



Les français sont rentrés dans la mondialisation sans même comprendre les bases les plus simples du fonctionnement d’une économie de marché.

Le 28/03/2014 à 17h 41



Le capteur Kinect de la Xbox One sera adapté pour Windows





Super.



Et maintenant, on veut un driver Linux. <img data-src=" />

Le 28/03/2014 à 15h 51







Okki a écrit :



En même temps, si tu ne t’en sers que très peu, ça signifie que la majorité du temps, elles contribuent à noyer les applications les plus utilisées dans la masse.



La méthode de GNOME, de n’afficher que les vingt applications les plus fréquentes par défaut, puis de proposer plusieurs solutions (icônes, noms, mots clés, catégories…) pour trouver rapidement celles que l’on n’utilise que très rarement, n’est peut être pas si mal, tout en faisant gagner du temps au quotidien.



Enfin bon, ce n’est pas non plus la peine de s’éterniser sur ce débat. Je connais des gens qui veulent à tout prix un menu fourre tout à la Windows, qui contient parfois plus d’une centaine d’entrées, et que je trouve complètement imbitable. À côté de ça, elles tiennent également à ce que leur bureau soit littéralement noyé d’icônes. Et si t’as le malheur de changer une icône de place, ça y est, elles sont toutes perdues.



Alors tu leur montre Linux et des solutions alternatives, mais non, elles sont tellement habituées à leur foutoir, en se repérant vraiment dans l’espace (cette application était la troisième entrée du menu, ou alors elle se trouvait plutôt tout à la fin…) que malheureusement, on ne pourra pas les changer.







Personnellement, je trouve le menu de l’ancien Gnome 2 (devenu Mate) bien plus clair et mieux rangé que celui de Windows.



Pour les applications les plus utilisées, j’organise moi même mon lanceur sur la barre supérieure. C’est moi qui détermine exactement ce que je veux et ou je le veux.



J’aime aussi le lancement au clavier, mais je ne trouve pas cela parfait. Il arrive qu’il faille taper 4 lettres pour déterminer l’application, cela va souvent plus vite de cliquer. Et l’installation d’une nouvelle application peut changer la combinaison courte a laquelle on s’était habituée pour en lancer une autre.


Le 28/03/2014 à 13h 56







ff9098 a écrit :



C’est mon cas aussi, ça ne m’empêche pas de connaitre leur nom, ou de les retrouver facilement via un mot clé.







On en reparlera dans 20 ou 30 ans quand ta mémoire sera devenu moins bonne <img data-src=" />


Le 28/03/2014 à 13h 45







ff9098 a écrit :



Tu connais pas le nom des applis que tu utilises ? <img data-src=" />







Dans un système, il y a aussi des applications que l’on ne lance pas tous les jours <img data-src=" />


Le 28/03/2014 à 13h 42







coolspot a écrit :



Il faut arreter avec ces arguments à deux balles anti-Unity Gnome3. Tu n’a pas besoin de connaitre le nom de l’application pour la trouver. Même en tapant sa fonction tu la trouve. Par exemple si tu tape “web”, “navigateur” ou “internet” tu trouvera ton browser attitré.



Moi personnellement depuis que je suis passé sous Unity puis Gnome3 je trouve l’ancien système complètement archaïque et pas pratique du tout. Tu passe ton temps à chercher ton appli dans un listing de menu et de sous menu en bordel complet.

Bref au boulot j’ai encore l’ancien système et ca me soule tellement c’est pas du tout ergonomique comparé à cette nouvelle ergonomie de lancement d’application.







Le problème de ce type de recherche, c’est qu’il faut savoir un minimum ce qu’on recherche. Et typiquement, un débutant n’a pas conscience de tout ce qu’on trouve dans un système.



Les anciens menus avaient l’avantage d’apporter une vision ordonnée de la logithèque, ce qui contribue à structurer la vision d’un système.



Étant donné qu’il n’y a pas d’inconvénient à intégrer à la fois des menus et une recherche au clavier, je pense sincèrement que c’est un faux débat.





arguments à deux balles anti-Unity Gnome3





Tu as raison, c’est vraiment trop injuste…