Heuu .. Ca fait 10 ans que tu n’as pas changé de CPU ?
Prend un E6600 et un I7 4670k, les perfs mono cœurs ne sont pas du même ordre. Tu dois presque pouvoir taper dans du *4, mais je suis d’accord pour dire que ca vient aussi de l’évolution de la RAM.
Tiens, compare donc un P4 haut de gamme de 2004 (modèle desktop avec un score de 874) avec un core i7 haut de gamme de 2014, le ratio n’est que de 2:5 alors que le second embarque 12 fois plus de cache et 25 fois plus de transistors.
Les performances mono-coeurs stagnent tandis que les performances multi-coeurs suivent toujours la loi de Moore.
Là est tout le problème. Beaucoup de logiciels sont optimisés soit pour tirer toute la puissance de Intel Quick Sync Video ou CUDA. Ou un moins courant OpenCL.
Ce n’est déjà plus vrai. OpenCL est en train de s’imposer, d’ici quelques années CUDA et compères seront réservées à des niches. De toute façon on n’exploite pas la puissance de ces nouveaux APU sans utiliser les nouvelles API. Après il faudra beaucoup plus qu’OpenCL pour que la programmation parallèle hétérogène devienne un art du quotidien.
Le
28/07/2014 à
08h
21
pentest a écrit :
Toujours pas de nouveaux CPU à l’horizon ? Mon phenom II x2 a encore de beaux jours devant lui. " />
Mais de toute façon ça fait dix ans que la puissance CPU par coeur stagne, donc ton phenom sera toujours au top niveau perfs mono-coeur dans dix ans.
Maintenant pour avoir plus de puissance il n’y a que deux moyens :
* Utiliser plus de coeurs. Et ça stagne aussi (mais pas pour des raisons physiques).
* Utiliser le GPU. Et là en revanche l’architecture HSA d’AMD est une vraie innovation qui déchire sa mère. Sauf qu’évidemment il faut que les logiciels suivent et ça prendra du temps.
Et sans rentrer dans les détails, autant paralléliser est assez chiant aujourd’hui pour un gain pas si extraordinaire, autant la donne change pas mal quand tu as mille unités de calcul à ta disposition qui désormais peuvent vraiment coopérer avec le CPU grâce au partage mémoire et d’autres trucs sympatoches. Y a encore du boulot mais on y arrive et certains algos vont bientôt être entièrement revus pour ces APU (je parie pour commencer sur les ramasse-miettes de JS/Java/Dotnet/etc) et ne pourront pas correctement s’exécuter sans ce type de matos. Et vu que les nouvelles consoles ont ce genre de bestioles…
Un utilisateur a pu commencer à utiliser son PC entièrement à la souris, sans jamais passer par la ligne de commande, à partir de Windows 3.1, dès 1993. Et l’écosystème de logiciels professionnels était déjà riche.
Sous Linux ça n’était toujours pas possible en 2005. Oh ! Il y avait des GUI bien avant ça, c’est sûr, et certaines plus jolies que sous MS. Mais pour des tâches aussi basiques que monter un CD, copier des fichiers ou installer un logiciel, il fallait encore passer par la ligne de commandes. Et ne parlons pas du travail en réseau ou des nombreux scripts d’installations foireux à déboguer soi-même du fait de la fragmentation de l’écosystème entre Debian, Redhat & co. Quant au traitement de texte, au lieu d’avoir un bel éditeur wysiwyg, le monde unix se paluchait sur Tex vanté comme supérieur mais inaccessible sans un lourd investissement temporel. Bref, tout ça était complètement décalé avec les besoins du cadre moyen et impensable pour Mme Michu.
Quant à Apple, ils ont traditionnellement été deux à trois fois plus chers que le monde PC, ça n’a commencé à changer qu’il y a quelques années seulement.
MS a enfoncé le clou avec ses pratiques anti-concurrentielles pour empêcher que les supermarchés refourguent des ordis premiers prix bridés, limités à un navigateur, à ceux qui n’y connaissaient rien. Des chromebooks, quoi. Mais sur le fond c’est avec leurs produits qu’ils ont gagné la guerre.
Depuis la séparation de l’église et de l’état, les croyances n’ont plus rien à faire dans la loi.
Or penser que les ondes électromagnétiques peuvent être dangereuses pour l’homme c’est une croyance car aucun travail scientifique ne va dans ce sens.
Pas du tout ! J’ai vu un reportage sur M6 qui prouvait que l’électrosensibilité est un problème réel et très très grave. Même qu’il y avait des violons inquiétants et un piano elliptique pendant que le narrateur me disait d’une voix grave quoi penser.
Le
24/07/2014 à
16h
50
pecos a écrit :
La caractéristique de l’écologie politique est principalement de
ne parler que des problèmes imaginaires ou invérifiables ou controversés (électro sensibilité, réchauffement climatique, médecines “douces”, OGM etc…) et surtout de baser tout leur argumentaire sur les PEURS que provoquent ce genre de propos histériques.
ne rien faire pour résoudre les problèmes écologiques GRAVES (pollution de la nature et des aliments par les pesticides, par les métaux lourds, pollution des eaux, malnutrition, surpêche, déforestation (y compris en France), milliers d’espèces animales et végétales menacées, etc…
Mille plussoiements.
Le partie des Verts s’adresse à une bourgeoise narcissique et masochiste. Son narcissisme la rend obsédée par sa santé et son bien-être, inquiète de tout ce qui pourrait lui nuire. Et son masochisme la rend misanthrope, désireuse de réprimer l’humain et faire reculer la civilisation, et d’imposer un renchérissement du coût de la vie tout à fait dans leurs moyens à eux (mais pas dans celui des classes prolétaires - dommage pour eux mais de toute façon la gauche se cogne de ces gens-là de nos jours).
Enfin leur position sociale leur permet d’avoir les exigences les plus fantasques en termes économiques puisqu’ils occupent généralement des postes protégées insensibles aux variations économiques (fonctionnaires ou cadres très demandés).
monpci a écrit :
C’est la zone la moins dangeureuse effet parapluie
En même temps, avant de juger de cette manette, il faut quand même bien comprendre qu’elle est conçue pour permettre de jouer depuis son canapé à des jeux conçus pour la souris.
Quand on veut discréditer les idées de quelqu’un, il suffit de le traiter de fasciste, même si ca n’a rien à voir. J’ai lu beaucoup de Chouard car ses idées me paraissent intéressantes, et je n’y ai jamais vu la moindre once de fascisme.
Le coup de “tout est la faute à Rotschild et sa maudite loi”, c’était pas un peu borderline ?
Personnellement je ne vois rien d’intéressant chez Chouard étant donné que :
* La loi de 1971 n’a pas du tout l’importance qu’il lui donne parce que l’état empruntait déjà bien peu à la banque publique avant cela et qu’il a continué à le faire tout autant par la suite (bien obligé vu que les acteurs financiers et les clients étrangers de nos entreprises, eux, ne veulent pas d’une monnaie de singe qu’on imprime à vau l’eau).
* Qu’en plus de cette erreur qui ruine déjà son analyse Chouard omet en plus d’examiner tous les autres facteurs bien plus probants pour expliquer nos déboires.
* Que ce n’est pas la seule erreur patente de son discours sur laquelle il persiste après pourtant que des milliers de voix lui ont fait remarquer son erreur.
* Qu’on peut discuter des mérites de son système de représentativité par tirage au sort mais que peu de gens y verront la panacée, surtout à l’heure où les nouvelles technologies permettraient de toute façon (certes aux dépens du secret du vote) l’introduction d’éléments plus ou moins larges de démocratie directe, sous un forme ou une autre.
Le
24/07/2014 à
10h
23
Le parti pirate se fout vraiment de la gueule du monde. Mais oui, plaidons donc autoriser des dons anonymes aux partis, histories d’être sûr de s’enfoncer encore plus dans l’oligarchie, quelle preuve d’intelligence et de responsabilité du parti pirate ! Entre bitcoin pour le financement des campagnes et le vote électronique, abolissons directement la démocratie pour filer les clés aux banques et à la NSA.
Au passage l’anonymat sur le réseau BTC n’est pas garanti par le “fonctionnement en réseau” ou “le chiffrement” mais uniquement par l’utilisation de pseudonymes (la clé publique du porte-monnaie).
Oui, enfin c’est un peu ta formulation qui simplifie " /> Dans le détail économique, le concept de transformation digitale aidant (lien un peu cheap m’enfin bon), il y a un peu plus d’horizon qu’il y a 15 ans aussi…
Digital en anglais : qui se rapporte aux chiffres (digit, notre numérique).
Digital en français : qui se rapporte aux doigts.
Je te laisse imaginer ce que le concept de “transformation digitale” m’évoque. " />
Je ne connais pas en détail le fonctionnement des réseaux de neurones (mes cours sur le sujet commencent à dater), mais le fait qu’il y ait besoin d’une base d’apprentissage ne peut-il pas influencer le comportement de l’IA ?
Bien sûr, tout comme ton éducation influence tes perceptions et décisions. Ce qui ne t’empêche pas d’ignorer certaines règles et d’en choisir d’autres, soit durant ton éducation soit après cela.
Les IA dont il est question dans d’autres posts, comme Watson ou celle qui a passé le test de Turing, sont basées sur des réseaux de neurones ?
Non, les agents conversationnels sont basés sur des arbres de décisions (même si en pratique ces arbres peuvent être codés sous une forme ou une autre - algorithmes, propositions logiques, etc).
D’une part je ne considère pas cela comme de l’intelligence (seulement une habile imitation qui ne trompe son monde que dans des conditions restreintes) et je ne considère pas que le test de Turing ait été réussi vu ces conditions. D’autre part nous n’avons de toute façon pas la puissance de calcul pour des réseaux neuraux humanoïdes. Et en plus je ne pense pas que les réseaux neuraux utilisés soient au point dans leur conception, même s’ils rendent déjà de grands services.
Concernant Watson il y a très probablement un réseau neural au centre en revanche, encore que je n’en suis pas sûr. C’est peut-être simplement un algorithme de résolution d’un gigantesque système d’équations. Ou les deux couplés.
Le
19/07/2014 à
14h
56
Berri-UQAM a écrit :
Je vois beaucoup de monde parler des lois d’Asimov ici… Mais est-ce que vous êtes conscients dans ses mêmes œuvres, Asimov prouve que ses lois ne sont pas viables et ne doivent pas être appliquées ?
De toute façon ces lois sont stupides. Les lois que devrait vraiment respecter un robot sont les vraies lois. Plus l’obéissance à son maître.
Le
19/07/2014 à
14h
30
Fuinril a écrit :
Bah c’est qu’il y a une bonne raison. Dans le règne animal l’homme est ce qu’on peut appeler un super prédateur. Dans des temps moins civilisés il n’en a pas toujours été ainsi.
Je pense que si : à toute époque je donne l’être humain armé d’un bolas ou d’un arc gagnant sur le lion, la panthère, ou tout ce que tu voudras. Et plus encore une tribu humaine chassant en groupe, contrairement à ces autres prédateurs.
Le
19/07/2014 à
14h
23
ActionFighter a écrit :
Je vois mal comment un robot dicté par des règles définies pourrait y arriver.
Mais aucune intelligence significative ne sera accomplie par un ensemble de règles défini. Ces robots se baseront tous sur des réseau neuraux.
Un exemple de conscience serait de pouvoir juger des règles morales définies et de pouvoir les outrepasser si besoin.
Je ne suis même pas certain que l’on puisse imposer de façon inconditionnelle des règles à un réseau neural. Au mieux peut-on le faire surveiller par un algorithme ou un autre réseau neural. Mais pour faire appliquer des lois complexes il faudrait une autre IA, elle-même faillible.
DarKCallistO a écrit :
Pourquoi une machine pourvu de conscience devrait se définir obligatoirement comme étant supérieurs a l’homme ? Parce que c’est dans Terminator ?
Parce que l’homme lui-même se définit comme supérieur à l’animal.
Lyzz a écrit :
Pour avoir de vraies pistes de réflexion sur le sujet il vaut bien mieux regarder Akta Manniskor et Her.
Et encore: cette série est elle aussi pleine d’invraisemblances techniques, les IA y sont “programmées”, ce qui me semble ridicule. Je ne connais aucune oeuvre de fiction pertinente même si les deux citées sont les plus intéressantes. Quant à Her, l’IA y demeure fondamentalement humaine, ce qui me semble douteux.
De toute façon si aujourd’hui les citoyens pouvaient décider des variations monétaires, une moitié demanderait davantage d’inflation, une autre moitié demanderait aucune inflation, et les franges demanderaient des taux négatifs ou au contraire très élevés.
Or, aujourd’hui BTC a des variations brutales et imprévisibles, guidées par les plus gros spéculateurs, et la finitude du nombre de pièces finirait par donner une inflation négative.
On voit donc bien que la base ne contrôle rien et que les variations monétaires actuelles sont bien plus proches des besoins généraux que ne le sont les variations de BTC.
Le
22/07/2014 à
08h
22
DarKCallistO a écrit :
En même temps,faudrait être un peu con sur les bords pour laisser trainer des fonds sur une plateforme en ligne,si c’est décentralisé,ce n’est surement pas pour centralisé justement dans un service en ligne,on dirais que l’affaire Mt.Gox n’a toujours pas servi de leçon si l’on va dans ce sens. " />
En même temps il est beaucoup plus raisonnable de confier tes BTC à une plate-forme tierce que de stocker ta clé privée sur ta machine perso, qu’elle soit Windows ou Linux. Si tu stockes sur papier (paper wallet), ok, mais sinon centraliser est bien moins idiot puisque eux mettent en oeuvre des stratégies plus raisonnables (débranchement des sites de stockage avec rotation, surveillance du trafic sortant, etc).
Et puis ces plate-formes ne font pas que stocker pour toi, elles apportent quelque chose d’essentiel dans la lutte contre le vol : des mécanismes de sécurité, depuis les accords inter-bancaires de réversibilité des transactions sur N jours (ce qui rend inopérant l’exploitation des numéros de CB) à la double authentification. Tout système financier a besoin de ces services, on ne doit pas pouvoir dérober des centaines de milliards en volant une simple clé privée, ni pouvoir automatiser l’exploitation des milliards d’identifiants bancaires dérobés.
Le
22/07/2014 à
08h
07
Xanatos a écrit :
C’est désespérant
Oui, voir des autorités freiner le développement d’une future gigantesque machine à fraude fiscale, c’est scandaleux ! Les entreprises et les grandes fortunes doivent avoir la liberté de ne pas payer d’impôts en accord avec notre constitution garante du Saint Libre Marché.
Bon, plus sérieusement; ils sont en retard de trois trains, en ce moment DarkWallet & co font fureur. Sans eux BTC est une machine à flicage mais ces protocoles vont le rendre très compliqué. La seule mesure raisonnable à ce point c’est la prohibition pure et simple. Mais je fais confiance aux financiers des groupes républicains et démocrates pour empêcher un tel blasphème d’arriver.
L’avantage du XAML n’a rien à voire avec la puissance du langage… le XAML n’est qu’une syntaxe
Bien sûr, je parlais de l’ensemble techno + langage, cela me semblait évident. En pratique les deux sont indissociables même si n’importe qui pourrait développer un autre langage.
même si je ne connais pas ton… “Plasma”… je pense que l’intellisense encore naissante de MS, les IDE visuels qui n’existent quasiment pas dans la concurrence… tout cela marque largement la différence !
Je ne connais que peu “Plasma” et bien plus les technos XAML que j’ai utilisé régulièrement depuis la sortie de WPF jusqu’au Windows Store plus récemment. Suffisamment pour dire que l’outillage Xaml est une bouse infâme qui plante avec les trois quarts des projets WPF sur lesquels je travaille, m’affiche dans ces cas-là des centaines voire des milliers d’erreurs fantômes, est incapable de proposer la complétion de code neuf fois sur dix, et que l’éditeur WYSIWYG fonctionne tous les 29 févriers. Donc j’ai un peu de mal à te voir vanter les mérites de l’éditeur intégré à VS (même si dans certains petits projets ça fonctionne à peu près correctement) et je suis bien convaincu que n’importe quel concurrent fait mieux.
J’ai également assez d’expérience avec XAML pour dire que celui-ci est insupportablement et inutilement verbeux (et l’alternative consistant à coder l’UI en C# n’est pas réaliste), qu’il y a des lacunes (pas de support pour l’adaptation dynamique à des tailles différentes d’écrans, transitions Windows Store laissant à désirer, etc) et que le modèle MVVM nécessite toujours de faire appel à des plomberies plus ou moins heureuses mais toujours très lourdes. La techno derrière reste bonne, là n’est pas la question, c’est d’ailleurs celle que je privilégie, mais XAML est un boulet, VS un impotent avec cette techno, et il y a encore du travail pour la faire murir.
Pour le reste VS était un très bon IDE, très innovant, mais qui depuis quelques années souffre d’un nombre croissant de bogues dans les fonctions de base, notamment en étant de moins en moins apte à comprendre les erreurs de l’utilisateur et à faire avec. Pendant ce temps la concurrence ne chôme pas et ce qui était autrefois innovant est aujourd’hui un standard. Bref, autant dire que MS a intérêt à s’activer parce que leur techno est quasi-exclusive à la plateforme MS, que celle-ci est en perte de vitesse et que même si leur plateforme reste techniquement supérieure l’écart s’est fichtrement réduit et les plateformes concurrentes ont dépassé MS sur de nombreux points, qu’il s’agisse de JS+html, d’Apple, de Qt Quick, etc.
Le
22/07/2014 à
19h
41
Bejarid a écrit :
Il n’est pas question de 2D ou de 3D (la 3D de WPF est encore pire que sa 2D en terme d’optimisation), mais bien de DrawCall qui sont permanents et quasi tous inutiles.
C’est exactement ce que j’expliquais : que le problème était dans le nombre d’objets indépendants à dessiner.
Et s’il est facile de dire “batch, batch, batch”, c’est en pratique difficile à faire quand tu as un arbre d’objets avec des attributs de rendu composés et difficilement isolables (masque d’opacité appliqués à un groupe d’objets, transformations lourdingues à faire sur le CPU puisque geo shader inutilisable, etc), que tu dois veiller à mettre en cache certaines parties du rendu et que tu dois en plus veiller à rendre le texte après avoir dessiné le fond de façon à pouvoir faire ton subpixel aliasing.
Mais bon, j’imagine qu’il est plus défoulant de sortir un “lol mé kom y son trop nuls mé comme t tro nul toi.”
Strimy a écrit :
A côté de ça, une appli WinRT va rassembler un gros paquet d’opérations en un seul draw call pour rendre des objets qui peuvent exploiter le même PS. Toutes les formes similaires sont rendues en une seule passe (en rassemblant un ensemble de visuel dans une même texture).
Oui mais comme je le disais ils ont aussi supprimé des fonctionnalités pour ça : par exemple les masques d’opacité ou le clipping non-rectangulaire qui rendent difficile le regroupement d’objets (nécessité de composer les shaders et fragmentation des batches, voire nécessiter de diviser certains objets ou de faire des calculs géos sur CPU), les bitmap effects personnalisés, etc. Ils ont simplifié de beaucoup le problème pour mieux le digérer.
Après il est certain que ce n’est pas la même génération, qu’ils ne visaient pas le même matériel, n’utilisaient pas les mêmes API et que le moteur n’a pas été mis à jour depuis. A l’époque où WPF est sorti la moitié des matériels n’avaient pas de pilotes installés et il fallait se borner à dx9.
Je m’insurgeais simplement contre l’idée que leur moteur serrait simpliste et qu’ils auraient simplement fainéanté. Les contraintes étaient très difficiles. Cela dit leur moteur batche quand même. Pas aussi souvent que possible mais il le fait.
Le
22/07/2014 à
18h
00
Cette nouvelle API ne sera pas du luxe. Si seulement ils pouvaient carrément lourder XAML (le truc le plus verbeux au monde) et nous filer un vrai langage avec un vrai éditeur qui fonctionne vraiment après dix ans…
seb2411 a écrit :
Ils peuvent forker QT sinon " />
Le moteur de Qt est excellent. Mais les mécanismes de templating de WPF sont supérieurs, entre autres. Deux époques différentes, deux approches différentes. Qt Quick peut-être mais je ne sais pas à quel point celui-ci a progressé et s’il est aujourd’hui une panacée.
Après il faudrait encore offrir une vraie interface native pour dotnet et JS (et pas juste une biblio vaguement maintenue), parce que le C++ pour le développement de nouvelles applis c’est has been en général.
Bejarid a écrit :
WPF a de gros problème de perf, entre autre car la couche d’accès GPU qui est derrière a été fait avec les pieds.
Non, parce que les GPU sont optimisés pour rendre vingt persos de 10k polys, cent arbres de 1k polys, et instancier mille fois le même brin d’herbe. Pas pour afficher dix mille caractères indépendants de 100 polys chacun, cinquante mille rectangles tous différents de 2 polys chacun, etc. Je ne dis pas que le moteur ne peut pas être amélioré mais enfin le rendu 2D reste un art délicat.
Et si WinRT est plus rapide, c’est que des fonctionnalités ont été sacrifiées pour simplifier le processus de rendu et l’accélérer (clippings non-rectangulaires, bitmap effects, OpacityMask, VideoBrush, RadialGradientBrush, etc). Entre le beurre et l’argent du beurre ils ont choisi. Par contre je suis d’accord pour dire qu’aujourd’hui html reste la solution la plus performante mais ce n’est pas la panacée non plus. Au final je tire quand même d’excellentes choses de WPF. Ca reste une plaie à utiliser et correctement exploiter mais le résultat peut définitivement être à la hauteur des attentes.
Seazor a écrit :
Ca fait surtout penser à plasma 5 qui vient de sortir.
Quand on voit que ce que veut faire MS existe partiellement depuis 4 ans chez Kde, et totalement depuis qq jours, c’est à pleurer que ce bureau parte d’aussi bas dans les PDM.
Parce que sur Windows, l’abandon de cleartype dans certains programmes d’Office 2013 (Word, Outlook) pixelise à mort le rendu qui devient presque illisible (sur les écrans à haute défintion). Tout ça pour que ça puisse se lire dans tous les sens pour les tablettes. Perso, ça me rend fou, même en désactivant l’accelération graphique dans les options. Une vraie reculée.
La raison d’être n’est pas le rendu sur tablettes et mobiles (au contraire : ça vide la batterie) mais l’utilisation d’animations à foison, ce qui était en pratique impossible avec le rendu logiciel.
Le
22/07/2014 à
05h
37
Antwan a écrit :
DirectWrite c’est d’un laid ! Comment les gens peuvent être contents d’implementer ce furoncle… Les polices sont bien plus illisible qu’avec un bon GDI.
MS a fini par corriger ce problème il y a quelques années et le résultat est généralement identique au pixel près avec ClearType (subpixel rendering).
Malheureusement il reste encore des cas où leur moteur de rendu ne peut pas connaître à l’avance le fond qui se trouvera derrière le texte et il doit alors se rabattre sur un antialiasing en niveau de gris. Soit parce qu’il est difficile de de réarranger le graphe de rendu pour isoler le texte (texte dans un bouton translucide ou subissant certaines transformations), soit pour des questions d’optimisation (le moteur cherche à conserver dans des textures les éléments individuels pour ne pas avoir à les rendre à nouveau, notamment lors d’animations), etc.
Enfin le cas de Windows Store et Métro est encore particulier : Cleartype y a été volontairement désactivé pour des raisons de performances sur mobiles. Et MS n’a pas jugé bon de faire des cas particuliers pour le PC.
MS a foiré. A leur décharge faire un rendu 2D efficace et correct sur GPU est difficile, ces derniers sont optimisés pour les besoins des jeux, c’est à dire pour quelques batches de 10k polygones plutôt que pour des hordes de milliers de caractères et de rectangles. Et les pilotes pourris des uns et des autres, la dernière source de BSOD sous Windows, n’aide pas les choses.
Évidement que l’on est surveiller par la NSA massivement en France,tu crois quoi ? La France est l’un des pays qui réceptionne l’un des plus important flux migratoire (6éme rang mondiale) provenant de l’Europe,mais surtout de l’Afrique,faudrait être aveugle pour ne pas se rendre compte que ce facteur déterminant,qui créer forcement des effets de bords concernant les organisations terroristes,pas que j’approuve mais cette surveillance est assez logique concernant la France.
La question n’était pas celle des causes derrière la surveillance de masse de la France par la NSA (qui a bien peu à voir avec le terrorisme) mais celle de l’acceptation de cette surveillance par nos dirigeants qui n’ont pas émis la moindre protestation, et ont instauré, maintenu et renforcé les systèmes de surveillance nationaux. Cela n’est pas de l’incompétence, c’est un choix : celui de la surveillance de masse et de la soumissions aux USA.
Précisons quand même que cette surveillance est avant tout économique (il suffit de voir les cibles choisies et les moyens respectivement alloués) et qu’elle procurera à terme aux États-Unis des avantages économiques et politiques formidables, tandis qu’aucun pays ne pourra en faire autant (leurs budgets sont complètement disproportionnés et les données circulent de l’EU vers les USA et non l’inverse puisque FB, Google & co sont américains). Son acceptation sans mot dire par notre pays est difficilement acceptable et parmi toutes les raisons possibles la malveillance reste la plus plausible, qu’elle soit le fruit du chantage, de la corruption, de la traîtrise, des intérêts particuliers ou autre. Le coup de l’incompétence semble en tout cas trop gros cette fois-ci.
Le
20/07/2014 à
23h
28
wagaf a écrit :
Pour info personne ne peut-être spécialiste de tout, sauf peut-être toi ? Qui demande que le président soit un spécialiste de tous les sujets ?
Je n’ai jamais demandé que le président soit spécialiste de tout, j’ai simplement noté qu’il était incompétent sur à peu près tout et que l’état était mal géré depuis des décennies. Ce qui est un fait vérifiable. Tu tires les conclusions à ma place.
Les français sont champions pour donner des leçons et expliquer que tout est de la merde. Mais pour faire vraiment les choses ensuite, qui est là ?
Tu es bien gentil mais j’édite mes propres logiciels et mes propres solutions, et je n’ai de leçon à recevoir de personne au motif que je critique une idée toxique. Surtout pas d’un fanboy qui ne fait que lancer des attaques ad hominem faute de réponses sur le fond.
À entendre certains l’informatique dans son ensemble est de la grosse merde que n’importe qui peut hacker, il faudrait rester/revenir au papier pour les choses sérieuses.
Tout le monde ne peut pas hacker n’importe quoi mais à peu près n’importe quoi peut être hacké, oui. Sauf peut-être les systèmes minimalistes écrits avec des technologies et méthodologies sécurisées.
Les faits montrent plutôt qu’au contraire, ceux qui prennent la sécurité au sérieux ne se font pas hacker. La NSA ne peut pas rentrer dans Tor, comme le montre le fait que Snowden utilisait Tails, comme Assenge, et comme le confirment les documents qui ont fuités. Pourtant Tor repose sur un gros paquet d’algos et de code.
a) Non les faits ne prouvent pas que ça fonctionnerait : ce qui est important n’est pas confié à des systèmes informatiques et les organismes qui le font quand même paient chaque année des milliards de rançons pour que les failles découvertes ne soient pas exploités ni dévoilées. Il ne faut pas confondre silence et sécurité.
b) Tor ne repose pas tant sur de la cryptographie que sur de la dissémination d’informations et la multiplication des intermédiaires.
c) Il est très abusif de dire que la NSA ne peut pas renter dans Tor. En pratique elle parvient à surveiller la nombre d’utilisateurs de Tor. Mais pas par la force brute.
d) La NSA ne pourrait pas encore utiliser la force brute. Pourrait. Pas encore. Le reste relève de la communication et de la spéculation.
DarKCallistO a écrit :
C’est pas vraiment ça qui va me convaincre de l’argument :“Tous pourrie”
A aucun moment je n’ai dit tous pourris. Essentiellement incompétents, oui, c’est un fait vérifiable. Pas tous pourris.
Cela dit, depuis le grand silence autour des révélations de Snowden, je commence à souscrire à la thèse du tous pourris, qui reste l’explication la plus raisonnable pour expliquer cette acceptation unanime et implicite de la surveillance de masse et de la soumission à la NSA. S’il ne faut pas toujours attribuer à la traîtrise ce qui peut être attribué à l’incompétence (Napoléon), il ne faut pas non plus toujours attribuer à l’incompétence ce qui peut être causé par la malveillance (moi-même).
Le
20/07/2014 à
14h
53
DarKCallistO a écrit :
Heu… Quand je parlais de gouvernements,c’était au pluriel quand même,la France n’est pas le seul pays a accepter/tolérer l’utilisation des bitcoins. Autant considérer notre gouvernement comme une bandes d’incompétents,c’est déjà vu et revu niveau cliché,mais pour les autres pays quoi ? En Allemagne aussi ils sont cons comme des valises ? Idem pour le Japon,les USA ? Parce que pour l’heure,seul la Russie et la Thaïlande ont pris des dispositions pour faire interdire officiellement les bitcoins.
Mais les gouvernants français sont parmi les plus compétents au monde. L’incompétence et une chose très bien partagée.
Dans une démocratie ceux qui arrivent au sommet sont ceux qui sont compétents pour gagner les élections. Dans une tyrannie ce sont ceux qui sont compétents pour obtenir les faveurs de l’armée ou des autres groupes de pouvoir.
Sortis de ces domaines ce sont des incompétents qui s’appuient sur un réseau de compétences toujours court-circuité par les proches du dirigeant.
Le
20/07/2014 à
14h
50
wagaf a écrit :
La difficulté de minage est décidée par consensus et s’adapte à la capacité globale du réseau.
Si une nouvelle méthode permet de trouver plus facilement des solutions, la difficulté augmente jusqu’à ce que le rythme de création soit telle que définie par l’algo (grosso modo actuellement 20 BTC toutes les 15 min).
Si la méthode permet de faire sauter vingt années de minage, la valeur de ton BTC perdra mécaniquement les deux tiers et la perte de confiance emportera le tiers restant. Aujourd’hui l’engouement sur BTC repose pour une bonne part sur l’idée fausse qu’il est robuste.
Je pense que de la même manière que tu accuses les gens de surévaluer la sécurité cryptographique, toi même la sous-évalue.
Non, tous les algos ne sont pas cassés après deux semaines, oui l’antique RSA est toujours sûr, et oui même si des failles d’implémentation existent et que rien n’est parfait, la rigueur mathématique permet de concevoir des méthodes cryptographiques robustes.
RSA est la seule exception. Pourquoi donc se baser sur RSA plutôt que sur tous les autres d’algorithmes qui n’ont pas dépassé les dix, quinze ou vingt ans ? Partant de là est-ce vraiment sous-estimer la cryptographie que de penser que l’histoire devrait se répéter ?
Par ailleurs les progrès réalisés par Antoine Joux et ses collègues sur le logarithme discret depuis un an devraient quand même sacrément faire suer ceux qui s’appuient sur ECDSA (comme BTC) et, à terme, RSA puisque les deux problèmes (logarithme discret et factorisation des nombres premiers) ont souvent avancé de conserve. Pour rappel seulement six mois après le papier initial de Joux qui ouvrait une boîte de Pandore ils ont réussi à faire passer de 2^128 à 2^60 la résolution de certains problèmes.
Alors peut-être que tout ça résistera dix ans. Peut-être vingt ans (ce serait surprenant). Peut-être trente (très surprenant). mais il ne faut pas se leurrer : ça finira par céder. Quand, comment et pour quelles conséquences sont les seules questions valables.
Le
20/07/2014 à
14h
15
ceric35 a écrit :
En fait, ca fonctionne en théorie si une seule banque fait faillite. Mais en pratique, le fond de garantie des dépôts est plafonné à 2,0 milliard d’euros (ce qui correspond à 30 euros par habitant). Donc comme toutes les banques dépendant les unes des autres, si une banque fait faillite et n’est pas sauvé par l’état (ou ses propres épargnants ; bail-in), plusieurs banques suivront, et c’est fini.
Le fonds de garantie n’est qu’un complément : il faut bien comprendre que si une banque fait faillite, la très grande majorité de ses actifs sera encore là et pourra être utilisée pour couvrir les dépôts.
Le
20/07/2014 à
14h
09
ceric35 a écrit :
bah non, tu t’appropriera certainement les bitcoin des nouveaux blocs mais c’est tout. Il n’est pas possible de “créer” des bitcoins, seulement d’obtenir la récompense des blocs trouvé.
Si je peux créer mille BTC par heure, pourquoi en irais-je acheter une seule à 800$ ? La valeur de BTC repose sur la difficulté du minage. Si celui-ci devient simple, BTC ne vaut plus rien. Or le problème du minage ne semble pas insoluble si on regarde les exploits passés en matière de recherches de collisions avec d’autres algorithmes de hachage.
Oui, c’est LA faille du Bitcoin, mais elle est connue et si ca arrive un jour, il suffira de changer l’algo (c’est en théorie possible et déjà document sur le wiki bitcoin).
Non ce n’est pas LA faille. La précédente est plus probable et dangereuse mais aucun partisan de BTC ne veut la regarder en face. Et la faille ECDSA est est elle aussi plus probable et pas moins dangereuse (je peux très bien falsifier une transaction pour te faire me transférer toutes tes pièces)
En même temps, le risque existe aussi avec le système bancaire. Si ta banque fait faillite, la dette que la banque à envers toi (le solde de ton compte) ne te sera pas remboursé et donc perdu.
Le compte courant est couvert par une assurance jusqu’à 100k€.
Par ailleurs ma banque ne détient pas le reste de mon capital : actions, assurances-vies, or, etc. Si elle peut en administrer certains, leur valeur ne dépend pas de la banque et un système d’escrow en transférera automatiquement la gestion à un autre organisme.
Tout est théoriquement possible. En attendant, il n’y a aucun système sûr.
Mais certains sont beaucoup plus risqués que d’autres.
DarKCallistO a écrit :
Il y a quand même un truc qui me chiffonne dans l’histoire,si le Bitcoin est si dangereux,pourquoi les gouvernements n’interdisent pas les cryptomonnaie justement ? Parce que tes arguments ont l’air solide non ?
Parce que nos gouvernants sont des incompétents qui prennent toujours les mauvaises décisions. Tu peux le vérifier sur n’importe quel sujet que tu maîtrises.
Je suis bien certain qu’un type de la DSI a pris soin d’écrire une note à ce sujet, note qui n’a pas dépassé le niveau hiérarchique -17, tandis que le copain du président lui a raconté dimanche entre le fromage et le désert que BTC c’est l’avenir et que la France ne doit pas louper le coche une fois de plus.
T’a l’air bien renseigner sur la question,mais pourquoi tu est le seul dans les parages a avoir cette avis ? Détiendrais tu une vérité concernant ce domaine que personne ne connais ou n’a émis l’hypothèse sur toute la surface du net depuis l’invention du bitcoin ?
Je doute très fortement d’être le seul mais les recherches sont difficiles parce que les résultats sur BTC sont noyés par les articles didactiques, les offres commerciales, les articles partisans issus de la propagande libertarienne et d’acteurs du BTC, etc. Le fait est que la grande majorité de ceux qui comprennent BTC aujourd’hui sont ceux qui ont d’abord cru en cette monnaie et ont été intellectuellement attiré par le concept.
Accessoirement il y a de toute façon une trop grande confiance de la société dans la cryptographie :
* Le fameux (et mensonger) “c’est prouvé par les maths”.
* Elle est largement utilisée pour des applications de sécurité modérée (cartes bancaires alors que la vraie sécurité est ailleurs, non-cryptographique) donc on la croît suffisamment sûre pour tout. “Si ça marche pour les banques…” C’est le même mécanisme derrière le vote électronique, les grands fichiers centralisés de nos données de santé, etc.
* Les cryptologues ne sont pas dupes mais comme tous les chercheurs leurs discours sont toujours prudents et nuancés (et donc chacun ne retient que ce qu’il veut retenir) et ils souffrent par ailleurs d’un biais comportemental qui leur fait surévaluer la valeur générale de leur domaine (essentiel mais fragile).
J’te conseil de prévenir l’opinion publique et les institutions gouvernementale dans ce cas,parce que là,effectivement,il y a panique quand même.
Je présume que c’est sarcastique. Me prends-tu pour un malade ? En tout cas eux me prendraient pour tel. " />
De toute façon il y a déjà de bonnes chances que BTC se fasse interdire ici assez rapidement avec le développement de Dark Wallet & co. Espérons car cela deviendra vite impossible et ces méthodes d’anonymisation ont le pouvoir de faire reculer très largement le pouvoir des états au profit de quelques grands pouvoirs privés.
js2082 a écrit :
Selon la majorité des économistes et des grandes banques, la prochaine crise est prévue pour 2015. (iciet ici)
Et vu l’évolution des marchés ces derniers temps (qui s’est envoler pour rien), il y a de fortes chances que ça fasse bien plus mal qu’en 2008.
Des crises il y en a périodiquement et la plupart sont petites, sans grandes conséquences. La bourse a toujours créé des bulles monstrueuses sans déboucher sur un 2008 jusque là parce que les investisseurs institutionnels savent qu’il leur suffit de ne pas vendre et d’attendre que ça remonte, et sont couverts par des titres dérivés. Alors je peux me tromper mais je ne crois pas qu’il y ait lieu de trop s’inquiéter même si l’EU ne s’est pas encore remise de la précédente.
Le
20/07/2014 à
00h
46
DarKCallistO a écrit :
Reste plus qu’a caser une 3éme guerre mondiale dans tout ça. " />
Tous les historiens font le lien entre la montée du NSDAP et la crise de 1929. Et, oh surprise, quelques années après la crise de 2008 le parti nazi est de retour en Grèce avec de très bons scores.
Si jamais demain on se tape une crise de plus grande ampleur que 2008, alors un risque de guerre est bien réel, notamment entre créditeurs et pays faisant défaut. Or si la croissance de Bitcoin se poursuit, d’ici moins de dix ans une percée concernant la recherche de collisions SHA pourra égaler la crise de 2008 (volume requis de 600 milliards) et la surpasser de très loin quelques années plus tard.
Encore une fois je ne m’appuie que sur des données solides, historiques et mathématiques.
Le
19/07/2014 à
21h
04
ceric35 a écrit :
De plus, le système bancaire va dans son intérêt, pas dans le tiens.
La banque centrale qui décide des taux est un organisme public.
Tu as regardé un peu comment ca fonctionnait Bitcoin avant d’écrire ça ?
Oui, en détail, et toi ?
Double SHA256 pour le minage (répété N fois sur des motifs consécutifs jusqu’à trouver un hash > difficulté actuelle), ECDSA pour la signature des transactions par les tiers, SHA256 + RIPEMD pour la clé publique du porte-monnaie, chaîne de blocs où la plus longue gagne (validation par consensus).
* Tu trouves comment fabriquer des motifs donnant un double hash SHA > difficulté voulue ? Tu peux fabriquer des pièces aisément et les pièces existantes ne vaudront bientôt plus rien. Et c’est légal.
* Tu trouves comment générer des motifs donnant le double hash SHA-RIPEMD connu ? Tu peux revendiquer la propriété de tous les porte-monnaies.
* Tu trouves comment générer des clés privées correspondant aux clés ECDSA ? Tu peux propager toutes les fausses transactions que tu voudras, certifiées par qui tu voudras.
Ne pas être curieux de savoir pourquoi certains sont prêt à mettre 1200$ dans une unité de compte numérique, c’est de la pure “fermeture d’esprit” et un manque flagrant de curiosité.
Tu es sûr d’être en position de m’accuser de manque de curiosité et de fermeture d’esprit ? Parce que l’ouverture d’esprit implique aussi d’être réceptif aux arguments qui te sont présentés et d’apprendre à en évaluer la valeur avant de les rejeter en prétextant une fermeture d’esprit.
DarKCallistO a écrit :
Ben de rien,j’vais surement pas m’arrêter de miner sur des suppositions. " />
C’est une simple question de confiance. Le protocole Bitcoin peut évoluer, et même si beaucoup de choses peuvent le mettre à mal, ma confiance va avant tout à une communauté non hiérarchisée.
Tu fais davantage confiance à quelques pseudos sur un forum qu’à une monnaie dirigée par vingt-huit pays en fonction de leurs intérêts communs ?
Ensuite ceux qui sauront violer certains algos cryptographiques pourront prouver être les propriétaires de toutes les pièces existantes. Donc lors du changement de protocole ces mecs vont simplement réclamer toutes les pièces qu’ils désireront, potentiellement toutes.
Concernant certains autres algorithmes, les conséquences seraient la falsification de fausses transactions (je peux prouver que X m’a transféré tant de BTC). L’argument de la communauté BTC est que y aura qu’à annuler toutes les transactions survenues avant la découverte. Ben tiens ! Même en supposant que la découverte soit effectuée rapidement, j’avais vendu ma maison hier mais soudain je n’ai plus l’argent et par contre la maison appartient quand même à l’acheteur ?! Bien sûr que non, soyons réalistes : à nouveau il faudra accepter le vol massif réalisé et l’intégrer au système.
Enfin le plus beau reste bien sûr le cas où un type trouvera comment fabriquer aisément des BTC. Celui-là détruira tout simplement la valeur de tous les BTC existants. Cool ! Vu le taux de croissance de BTC, d’ici dix ans environ il pèsera assez pour égaler la crise de 2008 (600 milliards de dollars volatilisés à l’époque).
Au mieux c’est le casse du millénaire, au pire c’est la destruction complète du système monétaire mondial et la troisième guerre mondiale cinq ans plus tard. Bravo les mecs, continuez.
Le
19/07/2014 à
16h
08
ceric35 a écrit :
Une réserve de valeur dans la valeur ne décroit pas au fil du temps, heu des politiques monétaire des banques.
Bitcoin ne peut pas être une valeur de réserve : la durée de vie des algorithmes de chiffrement et l’insécurité informatique rendent la monnaie trop volatile. Encore que le second problème peut être mitigé grâce aux paper wallets.
Le
19/07/2014 à
14h
18
kuzko a écrit :
la news est tombée hier a 15h et des brouettes… c’est fou le retard que les sites francais ont face aux sites us…
anyway, je trouve ca une super nouvelle..
Je préfère autant que les médias prennent leur temps pour vérifier et bien rédiger l’article. Et puis, bon, ils ne vont pas non plus bosser 7⁄7 hein ? Actu à quinze heures, fin de la journée à 18, reprise à 8h, parution immédiate de l’article.
Bravo, trois commentaire avant la faumeuse théorie du complot
J’ai cessé de me moquer des complotistes depuis les révélations de Snowden.
Certes les complotistes avaient tort, certes ils racontaient des âneries à la chaîne défiant toutes les lois de la physique (espionnage du réseau téléphonique via les satellites échelon & co), il n’empêche qu’ils étaient plus proches de la vérité que tous les gens raisonnables, moi y compris.
Saint Thomas et cetera.
Le
18/07/2014 à
15h
41
Zealotux a écrit :
Si cela s’avère vrai
Petite remarque que je reproduis parce que j’en ai moi-même bénéficié étant plus jeune : avérer signifie “apparaître vrai”. On n’écrit donc pas “avérer vrai” mais simplement “avérer”.
Le
18/07/2014 à
15h
15
Au passage Glenn Greenwald a publié un article sur certains joujoux du GCHQ, comme ceux conçus pour manipuler les sondages en ligne, amplifier la visibilité de certaines vidéos, ou booster artificiellement l’audience de certains sites.
Je ne comprend pas ce qui votre problème avec l’allemand… C’est pourtant très largement la langue la moins choisie en France : l’anglais LV1 c’est 95 % des choix. Partout les entreprises manquent de personne parlant l’allemand (même en Alsace !)
Ces entreprises emploieront-elles ces personnes pendant cinquante ans ? Leur traduiront-elles tout le corpus de connaissances dont elles auront besoin au cours de leur vie et qui n’est disponible qu’en anglais ? Non, donc ces quelques emplois où l’allemand est favorisé (et plus rarement indispensable) ne justifient pas de rendre des personnes analphabètes dans la langue globale.
Je n’ai aucun problème avec l’allemand lv2. En lv1 c’est une mutilation.
Citan666 a écrit :
je partage l’avis selon lequel c’est une grosse connerie de pousser l’allemand, surtout considérant la proportion toujours plus faible de profs relativement à la population à qui enseigner.
En fait il y a un gros stocks de profs d’allemand payés à ne rien faire (ou à faire autre chose que de l’enseignement) faute de baisse de la demande sur les dernières décennies. Ceci explique aussi cela.
Le
17/07/2014 à
19h
33
blob741 a écrit :
Après, faut relativiser, l’anglais si ton gamin est ouvrier à la chaîne, maçon ou cardiologue, il en aura probablement pas besoin.
Le cardiologue qui ne parle pas anglais sera incapable de consulter les articles de recherche durant les quarante années que dureront sa carrière et ne pourra donc s’informer que depuis les brochures pubs des labos et les rares mises au point de l’association française de médecins dont il dépend. Autant dire que je préfère ne pas mettre mon sort entre ses mains.
Quant aux ouvriers, tu sais, on pense souvent qu’ils n’ont pas besoin de grand chose alors que dans le BTP un paquet de boulots réclament de constants calculs géométriques et que les docs des machines sont presque toujours en anglais.
Quant à la science ou à l’IT, ne pas parler anglais c’est être purement et simplement analphabète. 99% de mes lectures techniques et 50% de mes écrits sont en anglais. A contrario je n’ai eu à parler qu’une seule fois allemand dans ma vie : le jour où je suis allé en Allemagne.
Le
17/07/2014 à
18h
15
Winston67 a écrit :
Ce n’est pas rare , c’est une volonté du gouvernement au nom de l’amitié franco allemande et sur le fait que 1⁄4 des européens parlent allemand
-j’avais demandé anglais au primaire , ils ont eu allemand , çar l’anglais c’était en activité en dehors des heures de classes
l’année dernière le plus grand est entré en 6° , ben ça sera encore allemand , plus de place en classe anglais lvl1 (pas assez de prof parait il)
Cette année le second entre à son tour en 6° et devines quoi ? ben ça sera allemand…
Mais quelle catastrophe ! Merci pour le lien, je n’étais pas au courant de ces objectifs ni de leurs traductions concrètes. Je note au passage que ce accord de coopération n’est pas réciproque puisque les allemands n’ont fixé aucun objectif en termes d’enseignement du français, dont la place va donc continuer à décroître au profit de l’anglais.
Et qu’en est-il du privé ? Je ne souhaite pas que mes mômes apprennent le catéchisme mais enfin la non-maîtrise de l’anglais est quand même un sacré handicap.
Le
17/07/2014 à
17h
40
Winston67 a écrit :
Il faut savoir qu’à l’école (primaire surtout) on IMPOSE l’allemand en première langue (petite stat sur la rentrée 2013⁄2014 du collège de mon secteur (publique) =>
-7 classes d’allemand LV1
-3 classes anglais LV1
Ah oui l’amitié franco allemande surement ^^
Heureusement ça doit être très rare mais c’est complètement stupide. Ne pas maîtriser l’anglais aujourd’hui, c’est suicidaire.
Je ne nie pas que l’Allemand a de l’intérêt pour une poignée : agents immobiliers frontaliers, avocats immobiliers frontaliers, intérimaires luxembourgeois, une poignée de commerciaux et de cadres, etc. Mais l’Allemagne c’est un marché de 80 millions de vieux et point barre. L’Anglais c’est l’accès aux ressources documentaires mondiales et à deux milliards de consommateurs et même davantage. Et l’anglais fonctionne aussi en Allemagne.
Bref, on continue à se planter un couteau dans les parties au nom de de notre supermarché européen, comme si le bilinguisme franco-allemand avait la moindre chance d’empêcher l’anglicisation de cette super-nation en carton.
Petite question : avec l’IPv6 on sera dépendant du dhcp du FAI ? Car vu qu’il n’y a plus de NAT et que toutes les machines ont une IP publique on ne pourra plus paramétrer comme on veut, si ?
geekounet85 a écrit :
tu as un pool d’IP a ta disposition tu peux laisser le dhcp les attribuer comme il veut ou bien prendre une ip statique dans le pool.
geekounet85 a écrit :
ceci dit, si ton IP change de manière régulière en IPv6 (car on peut tout à fait le faire aussi), je vois pas comment elle peut correspondre à chaque fois à ton adresse mac! ;-)
Une adresse IPv6 mesure 128 bits, les 64 premiers bits sont assignés par ton FAI. Pour les 64 restants ça dépend de la configuration de ton réseau mais par défaut c’est basé sur l’adresse MAC de ta machine et ne changera jamais. Ce qui va permettre de fliquer le grand public à foison avec une identifiant public permanent de la machine utilisée.
Après on peut changer ça sur notre réseau local, si on sait comment faire.
tony_95 a écrit :
Mais à priori sont dans des logs pendant une période assez longue (2 ans ?). Donc son propriétaire est tout à fait retrouvable en croisant les données. Ca prends juste un peu plus de temps.
Mais bon nombre d’acteurs, comme les entreprises privées, n’ont pas accès à ces logs. Même pour l’état il faut a priori la collaboration du FAI si tu n’as pas de requête judiciaire (sauf Orange dont on sait que la DGSE y a élu domicile).
Le
17/07/2014 à
14h
34
geekounet85 a écrit :
d’un autre côté on peut déjà le faire en IPv4 de façon bien plus simple et ça ne pose de problème à personne car le firewall fait son boulot.
Chez la plupart des FAI les IP sont changées après quelques heures ou jours de non-utilisation.
Le
17/07/2014 à
14h
18
geekounet85 a écrit :
c’est éventuellement ta box qui peut te donner une IPv6 mais vu que le pool t’es réservé, tu as le droit de choisir n’importe quelle IP dans le pool pour un PC (ip fixe)
donc cet argument est bidon.
de plus, il semble que ce problème soit déjà réglé sur linux (une option pour le DHCPv6 a ne pas mettre) et peut-être sur Windows aussi…
au pire tu change l’adresse MAC de ta carte! " />
Je ne te dis pas que c’est incontournable. Je te dis que ça va bien aider à fliquer le grand public. Et ça c’est un fait pas bidon du tout.
Le
17/07/2014 à
14h
07
Apparemment quelqu’un a expliqué à Hollande que par défaut toutes les adresses IPv6 incluaient le MAC de l’équipement pour tracer avec précision les actions de chacun d’entre nous. D’où ce soudain enthousiasme.
Oui, IPv6 contient un protocole pour éviter ça. Combien pariez-vous qu’aucun FAI français ne le proposera et que ça finira par être interdit ?
Google c’est le propriétaire des murs qui loue des espaces à des boutiques pour qu’elles vendent tout en leur donnant des infos détaillées sur les clients.
Google c’est le mec qui ping cent sociétés en annonçant : “l’utlisateur n°XYZ visite en ce moment poursuivre-son-employeur.fr, qui offre combien pour un encart 300x250, vous avez 12ms pour répondre”.
Et, crois-moi, ces cent sociétés ont toutes un dossier bien épais sur l’utilisateur n°XYZ et vont s’empresser d’ajouter cette consultation à ce dossier.
Le
17/07/2014 à
14h
15
Fuinril a écrit :
Pour le coup Google est la plus grosse régie pub mais ce ne sont pas eux qui la font…
Et moi je ne force aucun gamin de cinq ans à fumer du crack, je me contente de leur vendre.
Le
17/07/2014 à
12h
25
Reznor26 a écrit :
Pas mendier : faire la pute, y a une nuance " />
C’est pas propre à YouTube, mais à tout ce qui se finance par la pub.
Ah non ! Se faire financer par la pub c’est être maquereau, pas prostituée. Et sur le trottoir on trouve les utilisateurs, leurs données personnelles et leur temps de cerveau disponible.
J’ai bossé avec un patron très impliqué politiquement à gauche il y a quelques années. Tous les appels d’offre auxquels on a répondu pour les institutions politiques (mairies, départements, etc…) étaient bidonnés à un point peu imaginable.
Le niveau local n’est pas le niveau national et certains coins sont connus pour être pourris jusqu’à l’os.
Le
17/07/2014 à
14h
13
GeX-R a écrit :
c’est sur, maintenant on a la Valls des 1ères dames " />
" />
Le
17/07/2014 à
14h
11
Fuinril a écrit :
Ah mais tout s’explique. En fait tout ce barouf c’est uniquement pour refiler un nouveau contrat à un copain " />
Non, non, on a changé de gouvernment en 2012.
On peut dire un tas de mauvaises choses sur Hollande, Valls, Ayrault & co. Mais l’Elysée n’a plus rien à voir avec ce qu’il était sous le règne de la mafia des Hauts-de-Seine. La justice a bel et bien retrouvé sa liberté et je doute que des chefs d’entreprises aient été rincés. Au mieux du copinage dans les nominations.
De toute facon, c’est pas en creant des technos puis en y ajoutant 50 surcouches pour faire tel ou tel trucs qu’on va augmenter la securite, au contraire.
Tout à fait, c’est pour quoi la quasi-totalité des couches logicielles (OS, bios et firmwares compris) devront être réécrits avec ces outils. L’idée est de créer un runtime de quelques ko capable de faire tourner un code pour lequel on peut prouver un grand nombre de garanties de sécurité. Seule cette partie devra être invérifiable.
Et, oui, on peut grandement renforcer la sécurité sans compromettre les performances. Jusqu’à un certain point bien sûr mais au-delà l’avenir des perfs passe de toute façon par une parallélisation simplissime à mettre en oeuvre, pas par du code bas-niveau.
le web est une calamite sans nom … mais bon, le 100% securise n’existe pas mais on est loin d’avir creer des technos securisee au maximum non plus …
Les pistes ont toutes été défrichées et il ne reste plus qu’à les assembler dans des solutions clés en main. Certains acteurs ont commencé à s’y atteler.
5048 commentaires
AMD confirme l’arrivée du 20 nm pour 2015
28/07/2014
Le 28/07/2014 à 08h 50
Le 28/07/2014 à 08h 21
Amazon annonce de fortes pertes et sombre en bourse
25/07/2014
Le 25/07/2014 à 16h 14
Ondes électromagnétiques : une élue écolo s’inquiète des objets connectés
24/07/2014
Le 24/07/2014 à 17h 28
Le 24/07/2014 à 16h 50
Le Steam Controller troquerait sa croix directionnelle pour un stick
24/07/2014
Le 24/07/2014 à 17h 21
En même temps, avant de juger de cette manette, il faut quand même bien comprendre qu’elle est conçue pour permettre de jouer depuis son canapé à des jeux conçus pour la souris.
Les partis politiques français privés de financement par crypto-monnaies
24/07/2014
Le 24/07/2014 à 17h 20
Le 24/07/2014 à 10h 23
Le parti pirate se fout vraiment de la gueule du monde. Mais oui, plaidons donc autoriser des dons anonymes aux partis, histories d’être sûr de s’enfoncer encore plus dans l’oligarchie, quelle preuve d’intelligence et de responsabilité du parti pirate ! Entre bitcoin pour le financement des campagnes et le vote électronique, abolissons directement la démocratie pour filer les clés aux banques et à la NSA.
Au passage l’anonymat sur le réseau BTC n’est pas garanti par le “fonctionnement en réseau” ou “le chiffrement” mais uniquement par l’utilisation de pseudonymes (la clé publique du porte-monnaie).
Facebook explose tous ses records financiers et atteint un sommet en bourse
24/07/2014
Le 24/07/2014 à 16h 29
Dans le futur, des droits et des devoirs pour les robots ?
19/07/2014
Le 23/07/2014 à 17h 52
Le 19/07/2014 à 14h 56
Le 19/07/2014 à 14h 30
Le 19/07/2014 à 14h 23
New York veut un cadre réglementaire ultra strict pour les crypto-monnaies
22/07/2014
Le 22/07/2014 à 23h 21
De toute façon si aujourd’hui les citoyens pouvaient décider des variations monétaires, une moitié demanderait davantage d’inflation, une autre moitié demanderait aucune inflation, et les franges demanderaient des taux négatifs ou au contraire très élevés.
Or, aujourd’hui BTC a des variations brutales et imprévisibles, guidées par les plus gros spéculateurs, et la finitude du nombre de pièces finirait par donner une inflation négative.
On voit donc bien que la base ne contrôle rien et que les variations monétaires actuelles sont bien plus proches des besoins généraux que ne le sont les variations de BTC.
Le 22/07/2014 à 08h 22
Le 22/07/2014 à 08h 07
Oui, Microsoft travaille bien sur un framework graphique unifié
22/07/2014
Le 22/07/2014 à 21h 43
Le 22/07/2014 à 19h 41
Le 22/07/2014 à 18h 00
Cette nouvelle API ne sera pas du luxe. Si seulement ils pouvaient carrément lourder XAML (le truc le plus verbeux au monde) et nous filer un vrai langage avec un vrai éditeur qui fonctionne vraiment après dix ans…
La bêta de Chrome 37 active enfin DirectWrite par défaut sous Windows
21/07/2014
Le 22/07/2014 à 05h 39
Le 22/07/2014 à 05h 37
Dell accepte désormais les bitcoins sur son site internet
19/07/2014
Le 21/07/2014 à 06h 44
Le 20/07/2014 à 23h 28
Le 20/07/2014 à 14h 53
Le 20/07/2014 à 14h 50
Le 20/07/2014 à 14h 15
Le 20/07/2014 à 14h 09
Le 20/07/2014 à 00h 46
Le 19/07/2014 à 21h 04
Le 19/07/2014 à 18h 59
Le 19/07/2014 à 16h 08
Le 19/07/2014 à 14h 18
Quand les analystes de la NSA jonglent avec la vie très privée des citoyens
18/07/2014
Le 18/07/2014 à 21h 30
Le 18/07/2014 à 15h 41
Le 18/07/2014 à 15h 15
Au passage Glenn Greenwald a publié un article sur certains joujoux du GCHQ, comme ceux conçus pour manipuler les sondages en ligne, amplifier la visibilité de certaines vidéos, ou booster artificiellement l’audience de certains sites.
Machine Zone n’a publié qu’un jeu sur mobile et vaudrait déjà 3 milliards
17/07/2014
Le 18/07/2014 à 10h 22
Le 17/07/2014 à 19h 33
Le 17/07/2014 à 18h 15
Le 17/07/2014 à 17h 40
Une proposition de loi veut imposer l’IPv6 dans les appareils au 30 juin 2015
17/07/2014
Le 17/07/2014 à 15h 30
Le 17/07/2014 à 14h 34
Le 17/07/2014 à 14h 18
Le 17/07/2014 à 14h 07
Apparemment quelqu’un a expliqué à Hollande que par défaut toutes les adresses IPv6 incluaient le MAC de l’équipement pour tracer avec précision les actions de chacun d’entre nous. D’où ce soudain enthousiasme.
Oui, IPv6 contient un protocole pour éviter ça. Combien pariez-vous qu’aucun FAI français ne le proposera et que ça finira par être interdit ?
Quand les youtubeurs et les éditeurs font leur beurre
17/07/2014
Le 17/07/2014 à 14h 26
Le 17/07/2014 à 14h 15
Le 17/07/2014 à 12h 25
Initiation des enfants au code : l’appel à projets du gouvernement
17/07/2014
Le 17/07/2014 à 14h 21
Le 17/07/2014 à 14h 13
Le 17/07/2014 à 14h 11
Le Project Zero de Google devra trouver les failles 0-day avant les autres
16/07/2014
Le 16/07/2014 à 21h 15