votre avatar

anonyme_fe60d616e5fdafdd7b6456272f41adbd

est avec nous depuis le 5 décembre 2010 ❤️

224 commentaires

Le 17/12/2013 à 07h 40

Au fait, question con, à quoi ça sert de concevoir des robots humanoïdes ?



Je veux dire pour nous c’est l’évolution qui a conduit à ce qu’on adopte cette forme-là mais pour une machine j’ai pas l’impression que ce soit la meilleure, ne serait-ce que devoir coder les algo pour maintenir l’équilibre du robot sur seulement 2 jambes ça doit être chiant, un robot avec plus de “pattes” a moins de chances de se casser la figure.



À moins qu’ils servent dans le milieu hospitalier comme aide-soignants ou dans des restaurants comme serveurs, là où les patients / clients préfèreront interagir avec des robots qui ressemblent le plus possible à des humains …

Le 17/12/2013 à 07h 14

[HS]





Et quand on connait l’appétit de Sergei Brin (co-fondateur de Google) pour le transhumanisme, la nanotechnologie ou encore l’espace, nous pouvons nous attendre à de bien d’autres développements à l’avenir.



Je sais pas quel crédit accorder à ses propos mais j’avais entendu un journaliste dans un documentaire sur le transhumanisme dire que les fondateurs de Google projetaient à terme de rendre accessible les services Google directement depuis le cerveau via un implant.



[/HS]

Le 08/12/2013 à 12h 29

Un article qui va dans le sens de ceux qui parlent d’évolution du form factor des pc traditionnels :



http://www.comptoir-hardware.com/actus/ordinateurs/23391-piixl-jetpack-un-pc-cam…

Le 10/11/2013 à 18h 48

[HS]



Je suis le seul à avoir du mal avec le nouveau système de commentaires sur YouTube ?



Les nombres de “pouces verts” sous les commentaires sont affichés en bleus ce qui les rend plus difficiles à distinguer du reste,



je vois des commentaires vides dont le seul but semble être de signifier que quelqu’un a partagé la vidéo sur Google + (y’a moyen de masquer ces messages inutiles ?),



je vois des mots / noms précédés des symboles + ou # (système de hashtags à la Twitter ?) un peu partout ce qui rend les commentaires moins lisibles,



si je donne un pouce vert à un commentaire j’ai un message me disant que mon vote est public (y’a moyen de voter anonymement ?),



si je change l’ordre de tri des commentaires des plus populaires aux plus récents j’arrive plus à faire machine arrière sauf à recharger la vidéo …



Si vous avez un add-on qui permet d’afficher les commentaires comme avant, je suis preneur.



[/HS]

Le 16/10/2013 à 18h 46

Est-ce que Cyanogenmod tourne bien sur la précédente génération (Kindle Fire HD), ou bien est-ce que ça bug et on perd en fonctionnalités ?



Si ça tourne bien, après la sortie de la tablette l’année dernière, combien de temps il a fallu attendre pour que CM soit installable dessus sans bugs / prise de tête ?

Le 03/10/2013 à 11h 53







Zyami a écrit :



Oui sur les balises META il me semble, mais le pire c’est qu’on risquerait de ne même plus savoir ce que va faire un code javascript sur notre machine.

Dites adieu à votre carnet d’adresse/Contact ?





On peut donc penser que la plupart des sites vivant en partie ou totalement de la pub implémenteront ces DRM pour a minima empêcher les bloqueurs de pub de fonctionner.


Le 03/10/2013 à 11h 37



On assisterait alors à un changement profond dans la philosophie du web puisque l’utilisateur final n’aurait plus le dernier mot sur ce qu’il peut voir ou non.



Mais la fondation considère également que les EME ouvrent la voie à un futur restrictif qui verrait par exemple l’interdiction de la consultation des sources d’une page,…



Des extensions comme Adblock s’appuient sur le code source des pages web non ?

Si tel est le cas, ça signifie qu’ABP pourrait être inefficace à l’avenir sur tous les sites utilisant ces nouveaux DRM ?

Le 17/09/2013 à 15h 32







Commentaire_supprime a écrit :



Non, une entrée dans mes recherches du temps où je rédigeais des nouvelles sur un sujet connexe.



D’ailleurs, après pointage sur Wikipedia, le budget du DoD US est estimé à 553 milliards de dollars pour 2012, mon chiffre date un peu…





À vrai dire je ne faisais pas référence aux chiffres mais au fait, comme il me semblait que tu le laissais entendre, que l’argent n’était peut-être pas toujours dépensé à bon escient par les militaires.



Le film retrace à cet égard les péripéties d’un projet de char d’assaut qui à l’origine (1968) était simplement censé transporter des troupes pour les déployer le plus vite possible sur le front, et qui 17 ans plus tard n’était toujours pas terminé la faute à des généraux qui en voulaient toujours plus (ce serait bien s’il pouvait faire de la reconnaissance, s’il avait des missiles, s’il pouvait être amphibie …).

Résultat, après 14 milliards de dollars dépensés le char devait pouvoir tout faire sur le papier … mais dans les faits c’était un échec à tous les niveaux. <img data-src=" />



Après je sais pas si c’est basé sur des faits réels (c’est ce qui est dit, mais bon …). <img data-src=" />


Le 17/09/2013 à 10h 55







Commentaire_supprime a écrit :



Comparé à d’autres dépenses, ça coûte trois fois rien.



Budget de la NASA pour 2012 : 18 milliards de dollars US



Budget militaire US pour la même année : environ 450 milliards de dollars US



Je vous laisse trouver laquelle des deux dépenses est la plus constructive…





Toi aussi tu as vu The Pentagon Wars sur YouTube ? <img data-src=" />


Le 13/09/2013 à 15h 33







ff9098 a écrit :



LinkedIn ? J’avais trouvé ce truc inutile quand j’avais testé. Ah bah en fait c’est pareil pour twitter





Perso je m’en sers pour suivre les bons plans qui sont partagés sur leur réseau, en suivant un hashtag via rss.


Le 13/09/2013 à 15h 21







maxxyme a écrit :



Ca n’augure pas que du bon à mon avis… <img data-src=" />





[ironie]Je ne vois pas ce qui te permet de dire ça.[/ironie] <img data-src=" />


Le 23/08/2013 à 13h 36







Cara62 a écrit :



façon on pourra retourner en long en large et en travers, de toute façon, que se soit casu ou non, raid hardcore ou non, pas pour ça que WoW connais actuellement une chute de ses abonnés.





Je sais pas si c’est un fake ou non mais j’ai retrouvé un graphique où l’on voit que les principales raisons des départs sur ces derniers mois sont les changements qui sont jugés trop nombreux et le jeu qui n’amuse plus (lassitude).


Le 23/08/2013 à 13h 33







Cara62 a écrit :



Non, tu faisais pas les héros no-brain même en étant full stuff. si t’avais pas un minimum de contrôle ça partait vite en mélasse.





Ben alors y’a de sacrés mythos sur l’offi. <img data-src=" />



Mais comme j’aime pas accuser sans savoir réellement, je préfère me dire que la différence de ressenti est dûe à d’autres choses (skill, stuff, composition du groupe …).


Le 23/08/2013 à 13h 05







Cara62 a écrit :



Bah oui à l’époque c’était de la difficulté, pas n’importe laquelle difficulté, il fallait savoir un minimum jouer ta classe et pas foncer comme un taret dans les packs de mobs, il fallait contrôle etc…

Le problème c’est ça, au moins ça obligé les gens à savoir joué.

Maintenant c’est du no-brain et ça se ressent énormément.







J’ai toujours joué prêtre heal en stuff bleu. Même quand du kipik tombait je prenais pas, et je ne faisais que du pick up sans guilde.



Alors crois-moi, les héro de folie où je n’avais aucun temps mort entre 2 gcd je sais très bien ce que c’est.

Et oui, au vu de mon expérience perso, il fallait très bien jouer, savoir faire des cc, ne pas péter celui des voisins, bien se placer (coucou les golems de feu à arcatraz), laisser le temps au tank de monter son aggro en ne balançant pas la sauce dès le début, claquer ses cds au quart de tour dès que le groupe merdait, être patient pour bien repérer les patrouilles …



Oui, de mon point de vue il fallait 2h pour certaines héro.



Mais, tous les points de vue sont défendables et chacun a son expérience qui peut être différente de la tienne.



T’as des joueurs qui te diront que l’incivilité galopante sur le jeu est un phénomène de société, d’autres que c’est la faute à Blizzard qui, de par les nouvelles mécaniques de jeu qu’il a implémanté au fil des ans, a favorisé ce type de comportements.



T’as des joueurs qui te diront que les raids vanilla/bc étaient bien plus difficiles que ceux d’aujourd’hui, d’autres l’inverse.



T’as des joueurs qui te diront que les addons se sont trop développés et simplifient trop le jeu, d’autres qu’ils ont toujours existé et été massivement utilisé dès vanilla.



T’as des joueurs qui te diront que la multiplication des niveaux de difficulté (lfr, flex, normal, hm) n’est pas du nouveau contenu, d’autres que si.



Tout, absolument tout et son contraire, a été dit et continue de l’être sur ce jeu à chaque nouvelle “polémique”.







Cara62 a écrit :



C’est ce que je reproche à la politique de blizzard de maintenant, après que Blizzard veulent un max de population normal.





Cette “politique” ne date pas de maintenant, elle a commencé dès fin bc avec le nerf de 30%, l’apparition des recherches de rush sur le canal commerce, la disparition des mobs élites pour faciliter le pex. etc.







Cara62 a écrit :



Mais si on en est venu à parler de la difficulté, c’est pour dire que justement si on revenait à ça @vanilla/BC, bah alors wow va perdre sa population 10 fois plus vite.





C’est très probable.



Mais peut-être que si le jeu n’avait pas amorcé les changements fin BC que l’on connaît tous, il aurait certes atteint un plafond moins élevé que celui de 12M mais il aurait conservé un public moins volatile que celui qu’il a aujourd’hui, et la diminution du nombre d’abonnés aurait peut-être été beaucoup plus lente.



Ça, on ne le saura jamais.







YohAsAkUrA a écrit :



on parle bien de donjons heroiques la? non parce que c’est sur qu’un donjon heroique quand t’es full stuff tiers superieur c’est pas difficile mdr… le but des donjons c’est de se stuff avec du matos de X level … puis de passer en heroique pour choper du stuff x level puis de passer sur du radi pour se stuff X etc etc… (hors donjon arrivé en cours de route biensur)





Ben oui, c’est exactement le point de vue développé par certains, une fois stuff les héro bc se faisaient en mode no-brain tout comme celles d’aujourd’hui se font en mode no-brain, rien de nouveau sous le soleil.

Note que c’est pas mon point de vue, puisque les héros bc, je le rappelle encore une fois, je les faisais en stuff bleu et en pick up, mais c’est celui que je vois régulièrement sur l’offi.







YohAsAkUrA a écrit :



c’est clair que depuis l’arrivée de cataclysm j’ai plus vu un seul controle de la part d’un pretre ou sheep de la part d’un mage en donjon… apars sur un ou deux boss en raid mais c’est tout…



dans le genre gameplay no brain, c’est sur que blizzard on fait fort.





La disparition quasi définitive des cc remonte à wotlk avec la destruction de la progression par paliers et l’introduction de la recherche automatique de donjons.


Le 23/08/2013 à 12h 05







Cara62 a écrit :



Déjà le labyrinthe en héro 2H c’était à peine limite.





Marrant, sur l’offi, les joueurs qui se plaignent de la facilité des héroïques actuelles et regrettent la difficulté des anciennes se voient régulièrement répondre par un joueur (généralement lapalouf mais pas toujours) que les héroïques bc n’ont jamais été difficiles et que dès que t’étais un peu stuff (t4,5) tu les nettoyais une main dans le slip.



Enfin c’est toujours pareil il y a tellement d’expériences différentes et de façon d’aborder le jeu … chacun a sa vérité. <img data-src=" />







YohAsAkUrA a écrit :



l’autre je ne me rapelle plus le nom mais de très très très gros Hardcore gamers qui jouaient sur Archimonde





Unskilled ?


Le 23/08/2013 à 10h 40







Soltek a écrit :



WoW F2P ? Haha <img data-src=" />



Eve Online à plus de 10 ans, avec quoi, 12 million de comptes actifs ? L’abo est toujours là et coûte 15€ (oui même si on peut le réduire en faisant du farming mais bon…).





Le but d’Activision Blizzard c’est quand même de gagner un maximum d’argent, pas d’être juste rentable, en tout cas c’est ce qui était dit sur les forums lorsque la monture volante a fait son apparition en boutique, et repris en boucle depuis :

Blizzard n’est pas une association à but non lucratif.


Le 12/06/2013 à 11h 11







sepas a écrit :



Là, Microsoft fait un signe vers les éditeurs afin de les attirer au maximum en leur garantissant un taux de piratage très faible.





Ils peuvent être sûrs qu’aucun hack du genre “faire passer le délai maximum entre 2 vérifications de 24 h à plusieurs années” ne verra jamais le jour ? (vraie question)


Le 04/06/2013 à 14h 06







tazvld a écrit :



Reste plus qu’a faire des site de contournement pour accéder de nouveau à ces site de contournement…





Insert ‘Yo dawg’ joke here <img data-src=" />


Le 15/05/2013 à 00h 20







BlackKrystal a écrit :



Pas dispo pour les système autre que Debian et dérivés :( ma OpenSuse s’en passera





Si ça t’intéresse il y a un github.com GitHubqui marche pour ta distrib’.



Installe le paquet git et tape dans un terminal :

git clone github.com GitHubÇa devrait créer un répertoire arteVIDEOS dans ton home à l’intérieur duquel se trouve le script écrit en python et un readme qui explique comment ça marche.

Pour qu’il fonctionne il faut que tu aies certaines dépendances installées (pas nombreuses) :

rtmpdump

python-beautifulsoup (en version 3.0.x ou 3.2.x)

python (en version 2.7)



J’ai testé en VM avec OpenSuse 12.3 et la seule dépendance que tu devrais avoir à installer c’est rtmpdump, le reste est déjà installé il me semble.



Ensuite pour l’utilisation, encore une fois il y a le readme, ou plus simple tu lances le script dans un terminal (./arteVIDEOS.py), et tu tapes ‘help’.

Pour le documentaire, tu tapes ‘plus7’, ce qui affiche la liste des vidéos avec un n° devant chacune d’elles, puis ‘record x’ (avec x le n° de celle qui t’intéresse).



Testé à l’instant, le téléchargement s’est lancé sans problème.


Le 12/05/2013 à 15h 43

Docu : Le geek, cet idiot du village !

Le 26/04/2013 à 23h 38







Liam a écrit :



Pas sûr, tout dépend de la qualité de ta ligne (diamètre du câble etc.). Tu pourras gagner beaucoup comme rien du tout. Faudra juger sur pièce le moment venu.





C’est ce que je m’étais dit aussi, mais dans ce cas pourquoi le test sur ovh me dit, alors que je suis à peu près dans le même cas (à savoir moins d’1.4 km du NRA), que mon adresse est trop éloignée pour pouvoir profiter d’une connexion en VDSL2 ?



Edit : une simple précaution pour ne pas décevoir des clients qui attendraient une très nette amélioration de leurs débits ?


Le 26/04/2013 à 19h 42







Cacahuete586 a écrit :



1500m, c’est cuit pour moi…





Ah non finalement t’as raison, je viens de faire un test sur le site d’OVH, effectivement c’est mort. <img data-src=" />

Bon ben on attendra la fibre. <img data-src=" />


Le 26/04/2013 à 19h 33







Cacahuete586 a écrit :



1500m, c’est cuit pour moi…





C’est cuit pour les 50 Mb/s en dl mais qui sait ça pourrait quand même faire gagner quelques mega. Perso je suis dans le même cas que toi, mais si ça peut améliorer un peu mon dl (et surtout mon upload) je dis pas non … Enfin c’est clair qu’il faut pas s’attendre à des miracles non plus.


Le 26/04/2013 à 19h 24







chriscombs a écrit :



Pour revenir au sujet, la question essentielle est de savoir si le VDSL2 nécessite seulement une mise à jour logicielle ou de nouvelles cartes dans les DSLAM. Dans le premier cas, le déploiement du VDSL2 pourrait être instantané… Je ne suis pas concerné, trop loin du central.





A priori ça demanderait de nouvelles cartes :



Nous avons eu l’avantage de commencer nos dégroupages lorsque les discussions sur le VDSL2 s’orientaient vers une conclusion positive. Par conséquent, nous nous sommes équipés de cartes compatibles VDSL2 dès le départ. Cela nous a demandé un investissement plus élevé, mais aujourd’hui nous sommes gagnants, nous avons un temps d’avance. Les autres opérateurs, qui ont investi dans des cartes ADSL il y a maintenant plusieurs années, devront les remplacer par des cartes VDSL2 : l’opération risque de prendre beaucoup de temps. Les clients d’OVH.com reçoivent des modems VDSL2 depuis le mois de février 2012, et nos DSLAM sont équipés de cartes compatibles ADSL2+ et VDSL2. Pour l’instant, ces cartes sont bridées, mais dès que l’ARCEP aura donné son aval, nous pourrons basculer nos clients sur le VDSL2 immédiatement.


Le 26/04/2013 à 19h 03

Il y a moyen de savoir si on pourra bénéficier du VDSL chez OVH en collecte SFR ?



D’après eux il faut remplir 2 conditions :





  1. L’opérateur de collecte doit être équipé.

  2. La ligne de cuivre doit partir du NRA et rejoindre l’abonné sans passer par un sous-répartiteur (distribution directe), sauf si le NRA est postérieur à 2005.



    Par contre pour trouver ces informations …

Le 25/04/2013 à 15h 57







BlackKrystal a écrit :



Thunderbird qui aura besoin d’un remplaçant ? Gné ? <img data-src=" />





Thunderbird : Mozilla lègue son client de messagerie à la communauté


Le 21/04/2013 à 13h 42







methos1435 a écrit :



Si l’avenir du PC c’est un truc aussi fonctionnel qu’un Raspberry PI, j’ai plus qu’à me pendre <img data-src=" />





Le PC tel que tu le conçois est encore loin d’être mort, les RPI / NUC like ont le temps d’évoluer.

En attendant, tirer des conclusions définitives à base de “ça y est c’est fini dans un an ou deux tout le monde n’utilisera plus que de bêtes terminaux passifs” (ce qui nécessite une bonne connexion au réseau et un bon upload pour tous donc pas avant … très longtemps) me semble hasardeux.

Pas grand monde ici ou ailleurs a dû voir venir l’essor des smartphones il y a 6 ans et celui des tablettes il y a 4 ans.


Le 21/04/2013 à 13h 29







sr17 a écrit :



Est ce que les tablettes et smartphones rendront le PC plus cher ? C’est possible. Mais l’inverse est également possible dans la mesure ou toutes ces technologies partagent à la base la même R&D. Et les technologies permettant d’améliorer le rapport Performances/Consommation profitent également aux gros PC.



L’exemple même de cela, c’est le Raspberry PI. C’est bien un Personnal Computer à un prix jamais vu auparavant. Et le coeur de ce bidule est un SOC qui était bien destiné à l’origine aux tablettes/smartphones.





+1. <img data-src=" />


Le 14/04/2013 à 02h 19







jrbleboss a écrit :



Pourquoi vouloir avoir une source d’énergie par bâtiment ? Je n’ai pas envie d’avoir à gérer mon installation. C’est comme mon serveur @ home, c’est sympa mais quand il y a des problèmes, je n’ai pas toujours le temps de m’en occuper.





Si l’énergie se fait de plus en plus rare dans les années à venir et que les prix augmentent drastiquement ça peut être une piste à explorer, ce ne serait sans doute pas LA solution miracle à nos problèmes mais une partie de la solution peut-être …



D’ailleurs il me semble que l’idée est reprise dans les smart grid :





Intérêt du réseau intelligent



Sachant que l’électricité ne peut pas être stockée en grandes quantités, les technologies du « réseau intelligent » cherchent à optimiser la production et la distribution de l’électricité en fonction de la consommation (quantité et localisation) afin de :







  • optimiser le rendement des centrales ;

  • minimiser les pertes en ligne ;

  • favoriser l’insertion de la production décentralisée, en particulier d’origine renouvelable ;

  • distribuer l’électricité au meilleur prix possible.





    J’en avais entendu parlé (des réseaux intelligents et de la décentralisation de la production d’énergie) pour la 1e fois dans une conférence de Benjamin Bayart je crois.

    Il y a un article où il en parle vers la fin.



    Après je sais bien qu’il s’y connaît plus en réseau informatique qu’en réseau de distribution d’énergie.



    Sur ce même article, il y a une discussion qui m’a l’air très intéressante dans les commentaires (elle commence ici pour être précis), où les points de vue s’affrontent sur le sujet, mais je n’ai pas les connaissances techniques suffisantes pour juger les arguments qu’ils développent.


Le 14/04/2013 à 00h 39







Jiyuu_Hashi a écrit :



Je suis allé au Japon en 2011, après le tremblement de terre, le tsunami, et la catastrophe de Fukushima, et nombreuses sont les personnes qui m’ont conseillé d’être prudent, d’éviter la zone, etc., suite aux différents reportages diffusés… en France ^^;

Donc oui, j’abonde dans ton sens.

Bon, en même temps, depuis mon retour (1 mois de voyage), j’ai toujours le droit aux mêmes conneries vaseuses, comme quoi, la nuit je vois comme en plein jour (bon là, même avant, c’était déjà un peu le cas, vu que je suis nyctalope ^^;), que lorsque je pisse, c’est fluo, etc. ^^;

Mais je m’en fout, j’y retourne l’an prochain ^^; (budget presque bouclé).

Et si en plus la Corée du Nord envoie un missile nucléaire sur le Japon, j’aurais même le droit à pisser d’une autre couleur ^^; (déjà que naturellement, je suis irradié, vu que je vis en Bretagne, ça ne changera pas grand chose ^^;)





Je présume que tu parles couramment japonais.

T’as pas idée à quel point je t’envie. <img data-src=" />



[mylife]



Il y a longtemps je m’étais tapé sur un coup de tête les 3 tomes du japonais sans peine en 4 mois pour pouvoir rejouer à mes rpgs en import (ff, chrono cross, xenogears, vagrant story …) en comprenant tout ce qui disait.

Arrivé au bout, bien que je connaissais les hiragana/katakana, les 926 kanjis enseignés dans les 2 premiers tomes, le voca etc. je pigeais toujours que dalle à mes rpgs. <img data-src=" />

Du coup j’ai laissé tombé.



La phrase que j’ai préférée sur l’ensemble des leçons et qui m’est restée dans la tête parce que je la trouvais jolie à prononcer c’est : ike to kiniro no o tera no shashin o miru to, istumo kokoro ga shizumarimasu ne.

C’était un peu mon Le fond de l’air est frais. <img data-src=" />



[/mylife]



Très bon voyage et profites-en bien. <img data-src=" />


Le 14/04/2013 à 00h 01







jrbleboss a écrit :



Fission Atomique != Energie nucléaire





Tu penses à la fusion nucléaire ?



Enfin de toute façon ce qui m’intéressait le plus c’était la fin quand il parle de décentraliser la production d’énergie au maximum, et qu’il fait un // avec internet : décentralisation pour échanger des fichiers, pour partager des connaissances avec Wikipedia, pour écrire du code avec des services comme github etc.



Ça m’a fait penser à une conférence TED il y a quelques temps où Clay Shirky proposait qu’on s’inspire d’internet et de services comme github pour élaborer les lois dans nos démocraties.



Après c’est peut-être/sans doute des idées utopiques mais je les trouve intéressantes.







Jiyuu_Hashi a écrit :



C’est marrant son discours.

Il semblerait qu’il ne soit pas toujours au courant des choses faites en France.

Au boulot, nous avons des services sur du nucléaire, de l’hydrolien, les EMR (énergies marines renouvelables).

Certes, le nucléaire est très présent chez nous, comme énergie, mais nous cherchons aussi d’autres alternatives.

Bref, du n’importe quoi.





Perso ce que j’ai trouvé le plus étonnant c’est le passage où il dit qu’on n’a pas beaucoup parlé de Fukushima en France, alors que c’est tout le contraire.


Le 11/04/2013 à 15h 19







XalG a écrit :



Je me demandais un truc, une fois que la totalité des Bitcoins seront sur le marché, comment ce fera la preuve ? Car il n’y aura plus de récompense ?





Je ne suis pas sûr d’avoir compris la question mais il y a un passage dans un article écrit par ploum (Bitcoin pour les nuls) qui tente de présenter grossièrement comment fonctionne Bitcoin :





Pour simplifier très grandement, chaque bitcoin est en fait la solution à un problème mathématique ultra-complexe. De par sa conception, nous savons qu’il existe un total de 21 millions de solutions différentes à ce problème mathématique. Mais les solutions les plus simples étant trouvées les premières, il devient de plus en plus difficile de trouver de nouvelles solutions. À ce jour, 11 millions de bitcoins sont en circulation, de nouveaux bitcoins apparaissent chaque jour chez les « mineurs », personnes équipées de matériel pour la recherche de solutions. Nous savons qu’il n’y aura jamais plus de 21 millions de bitcoins en circulation et chaque nouveau bitcoin est plus difficile à trouver que le précédent.



Un bitcoin est donc unique et rare. Mais il est divisible presqu’à l’infini, ce qui permet de ne pas limiter les échanges.



Le problème qui se pose ensuite est la double dépense. Comment s’assurer que lorsque je donne un bitcoin à quelqu’un, je n’en garde pas une copie. La solution est conceptuellement simple : le logiciel qui permet d’envoyer et de recevoir des bitcoins télécharge, en peer-to-peer, l’historique de tous les propriétaires successifs. Si je donne un bitcoin à Alice mais que j’essaie de le garder pour le dépenser une seconde fois chez Bob, Bob verra immédiatement, dans l’historique du bitcoin en question, qu’il a déjà été donné à Alice. Bob le refusera donc.



Il s’agit évidemment d’une simplification outrancière (et fausse par certains aspects) mais qui vous donne une idée de ce qu’est le bitcoin.


Le 11/04/2013 à 10h 51







Jean_Peuplus a écrit :



thepiratebay.dtc au pire





Ou passer par tor, en l’installant ou via une application web.

Pour tpb ça peut donner p.ex. cette adresse.


Le 10/04/2013 à 12h 27







patos a écrit :





J’ai retrouvé un article sur le bug des 8 Mio.

Il se manifestait après une coupure de courant intempestive (l’article ne le dit pas mais en réalité même une simple mise en veille pouvait suffire) et Intel avait bien publié des màj du firmware pour le corriger.

Mais pour avoir suivi les forums d’Intel pendant des mois, je me souviens que les retours n’étaient pas positifs.


Le 09/04/2013 à 22h 00







raoudoudou a écrit :



Admettons.





Je n’invente rien, aux dernières nouvelles il y avait bien différents types de GC :



the point is that by delaying the bulk of garbage collection the Samsung SSD 830 is able to drop in performance by a degree that I’m not super comfortable with. This phenomenon isn’t exclusive to Samsung, you’ll remember that we’ve complained about it with Crucial drives as well. Other than SandForce and Intel most controller manufacturers tend to follow a similar clean up the mess later approach to firmware design. In my opinion I’d much rather see lower peak performance and get higher worst case scenario performance as it tends to impact the user experience less.



source



I honestly believe Intel has the right idea of performing as much garbage collection in real time as possible. Very few (if any) desktop workloads require &gt; 100MB/s of small file random writes, I would gladly trade some performance there for higher numbers in a fragmented state. Idle time garbage collection just seems like an ineffecient way to do things, you end up dealing with very high write amplification and potentially harm the overall user experience when you’re not idle as a result.



source





raoudoudou a écrit :



Mais une fois que c’est fait, pourquoi continuerait-il? C’est ça mon propos!







Je n’ai jamais dit qu’il continuait indéfiniment. Mais honnêtement le contrôleur d’un SSD c’est un monstre de complexité, et comme déjà dit tout à l’heure la plupart des pannes ou des pertes de données sont dues à cette complexité.



A titre d’exemple je m’étais renseigné il y a quelques mois/années sur un ssd d’intel et sur plusieurs forums (dont ceux d’Intel) je voyais des acheteurs faire état d’une perte de leur données suite à une simple mise en veille. Je crois me souvenir que le ssd ne présentait plus que 8 Mio alors qu’évidemment il embarquait plusieurs Gio de nand.

Intel a publié des màj du firmware mais le bug est resté chez certains.



Pour moi, les SSD sont plus fiables que les HDD dans le monde du mobile parce qu’ils sont moins sensibles aux chocs, par contre sur une machine @home, je ne suis pas convaincu (faire ses backups restent une nécessité). Ce qui n’enlève rien à leurs autres qualités : performances et réactivité en hausse, consommation en baisse …


Le 09/04/2013 à 21h 41







raoudoudou a écrit :



Mais pourquoi ferait-il quelque chose? Ça n’a aucun sens <img data-src=" />





Ça dépend comment le garbage collection est implémenté dans le firmware du ssd : il peut être agressif (fait le ménage en temps réel, mais au prix d’une baisse des performances) ou idle (fait le ménage pendant les périodes d’inactivité de l’OS, ce qui présente d’autres inconvénients …).


Le 09/04/2013 à 14h 42







raoudoudou a écrit :



Pour moi, le trim ne change rien. Ça écrit simplement les données à un autre endroit, mais ça n’écrit pas plus souvent. Quant au garbage collector, sur un disque, on parle de quoi? La poubelle? <img data-src=" />





En gros la nand qui stocke les données est divisée en blocs (plus petite unité effaçable) eux-mêmes divisés en pages (plus petite unité que l’on peut programmer/écrire et tester/lire).



La commande TRIM permet à l’OS de notifier au firmware du SSD quelles pages de la nand sont invalides suite à l’effacement de données au niveau du système de fichiers.



Le garbage collection (GC) est un algorithme interne au firmware du SSD dont le rôle est de libérer de l’espace mémoire en réécrivant les pages valides de blocs partiellement valides (ils contiennent des pages valides et non valides) dans des blocs vierges et en effaçant les blocs partiellement valides une fois l’opération effectuée. Le GC s’appuie entre autres sur les informations fournies par la commande TRIM pour déterminer quelles sont les pages valides ou non.


Le 09/04/2013 à 12h 40







FR073N a écrit :



Au niveau de la fiabilité ça donne quoi les nouveaux SSD?



J’ai un SSD acheté il y a un ans maintenant (64giga) et j’attends une meilleur fiabilité avant de passer à un SSD avec plus de volume.



Est-ce qu’on a des retours sur cette fiabilité?





La principale source de panne ou de perte de données (p.ex. suite à une màj) sur les SSD vient du contrôleur et de son firmware, et pas tellement de la nand.



Tu peux jeter un oeil ici pour te faire une idée de la fiabilité de quelques SSD récents.


Le 09/04/2013 à 12h 11







Psycho10 a écrit :



Ouais, je me méfie sur les grosses capacités, voir si c’est du TLC, comme sur les samsung.

Apparemment y’aura un dossier sur les ssd dans le prochain canard pc hardware qui permettra d’avoir un bon retour sur ce genre de techno.



Mais sinon c’est bien, si ça continue comme ça, on aura peut être des ssd de 500 go a moins de 250€ (et pas TLC j’insiste)





D’après la fiche technique sur materiel.net, le ssd m500 de 960Go utilise de la nand MLC (pas TLC).


Le 09/04/2013 à 03h 35







Elwyns a écrit :



Il y a beaucoup de docs aussi pour Xp ;) .





Je répondais juste parce que tu disais que tu allais tester d’autres distrib’ linux, je ne fais pas de prosélytisme. Si finalement tu penses que XP/Seven/Windows 8, MacOS X ou un BSD est ce qui te convient le mieux, je ne chercherai pas à te convaincre du contraire. <img data-src=" />







Elwyns a écrit :



Et je ne suis pas libriste du tout, la philosophie du libre bien qu’intéressante n’est pas la valeur toute puissante dans mon choix, car je choisi ce qui me convient à mon utilisation globale ;) , mais rien ne m’empêche non plus d’aller voir du coté de Linux,





C’était un critère parmi tant d’autres, qui perso me parle, mais pas pour les raisons auxquelles tu penses. <img data-src=" />







Elwyns a écrit :



mais ça sera avant tout pour une utilisation de type serveur de “…” avant que ce soit un choix d’OS quotidien .





Ah ok, du coup le DE a beaucoup moins d’importance. <img data-src=" />

Sous Linux, Debian, Ubuntu Server et CentOS sont très populaires pour ce genre d’utilisation.







Elwyns a écrit :



Et oui j’ai test Unity, et non de base il me semble qu’il ne s’est pas installé sur mon portable car trop peu performant c’était passé sous Gnome3





Je pense que Gnome3, tout comme Unity, reste plus gourmand que xfce ou lxde.

J’ai redonné vie à deux vieux pc qui ne démarraient plus sous windows xp ni sous Ubuntu/gnome en leur installant Crunchbang ( = Debian + Openbox) et Lubuntu.

Enfin chaque machine est différente, donc j’en tire pas forcément une règle générale, j’en parle juste pour illustrer l’importance du choix du DE sur un vieux pc. <img data-src=" />



Edit : ceci étant il paraît que Windows 8 fait des merveilles même sur des vieilles machines, ça peut être aussi une piste à explorer …


Le 08/04/2013 à 22h 13

doublon

Le 08/04/2013 à 22h 10







Elwyns a écrit :



Oui j’ai une autre machine, Et de toute façon je viendrais à tester certaines distrib d’ici peu de temps, enfin sauf Ubuntu j’en ai assez vu <img data-src=" />





Linux sur desktop a des défauts mais au moins une qualité, c’est que tu peux le configurer comme bon te semble.

Or la configuration de base passe par le choix d’un environnement de bureau (DE).

Je ne sais pas quel DE tu as testé (Unity ?) mais il est probable qu’il ait été gourmand en ressources et donc pas du tout adapté à ton pc.



Pour de vieilles machines, tu peux regarder entre autres du côté de xfce, lxde (plus léger que xfce il me semble), ou carrément ‘construire’ ton DE à partir d’Openbox (ce que fait Crunchbang p.ex.) qui est un simple gestionnaire de fenêtre. Il y a des tutos sur le net qui expliquent très bien comment faire.



Au moment de dl l’iso pour Ubuntu ou Linux Mint tu as le choix du DE.

P.ex. sur la page française de téléchargement d’Ubuntu tu as des liens vers des variantes Xubuntu, Lubuntu qui ne sont rien d’autres qu’Ubuntu avec comme DE par défaut resp. xfce et lxde en lieu et place de Unity.

Pareil pour linux mint, tu as le choix du DE (cinnamon, mate, xfce ..) sans compter une version de linux mint basée sur Debian plus rapide que son homologue basée sur Ubuntu.



Tu peux également installer un autre DE plus tard (en fait autant que tu le souhaites), et passer de l’un à l’autre suivant ce que tu fais sur ton pc et comment il répond face à tel ou tel DE.



Sur certaines distributions (Debian, Arch …) il n’y a pas de DE installé par défaut, tu choisis celui que tu veux en ligne de commande (quoique pour Debian tu as la possibilité d’installer automatiquement Gnome en cochant une case, mais libre à toi de ne pas le faire).



Bref, faire l’impasse sur une distribution uniquement parce que le DE par défaut demande trop de ressources est amha une erreur. <img data-src=" />

Il y a d’autres critères plus pertinents pour faire son choix : facilité d’utilisation, efficacité du gestionnaire de paquets, choix des paquets disponibles dans les dépôts officiels, rolling release vs fixed release, bleeding-edge vs stable, dépendance ou non vis à vis d’une société commerciale, qualité/richesse de la documentation …


Le 08/04/2013 à 17h 59







Superambre a écrit :



j’en avait une en 2000 c’est pour dire





C’est pas tant le concept qui est nouveau, que la précision et miniaturisation atteintes.


Le 07/04/2013 à 15h 19

Des horloges très atomiques - hitech

Le 05/04/2013 à 11h 15

Est-ce que des machines telles que le Raspberry Pi, Cotton Candy, SheevaPlug peuvent être considérées comme des pc à part entière ?



Et existe-t-il des études estimant l’évolution de leur demande (qui doit forcément être celle d’un marché de niche aujourd’hui) ?

Le 03/04/2013 à 12h 38







Drepanocytose a écrit :



+1.

A ma connaissance, c’est ce qu’il y a de plus complet et de plus convivial.

En plus de gérer plein de chaines, il gère aussi plusieurs formats…



C’est franchement dommage que les devs de tels softs excellents ne pensent pas spontanément aux linuxiens et qu’il faille bidouiller pour les y voir fonctionner… <img data-src=" />



Sinon t’as réussi à le faire fonctionner avec winetricks, ou pas ?





Tout comme les dépôts tiers/ppa je préfère éviter wine, entre autres pour des raisons de sécurité et aussi parce que, par expérience, les bidouilles finissent toujours par ne plus fonctionner, il faut alors refaire des recherches sur les forums pour voir ce qui a changé et j’ai pas envie de me prendre la tête là-dessus. <img data-src=" />



Par contre comme le soft a l’air vraiment très complet, je l’ai installé et l’utiliserai dans une VM, encore merci. <img data-src=" />







misterB a écrit :



ça devrait bientôt (si ça ne l’est déja) passer sur arte, et m’a l’air vraiment a voir



https://vimeo.com/63114284





Ce documentaire doit être diffusé le 14 mai sur arte je crois, en attendant une série de témoignages sur le sujet (“Une contre-histoire des Internets”) est en cours.



Merci pour le partage, j’étais passé à côté. <img data-src=" />


Le 02/04/2013 à 23h 28







v1nce a écrit :



Laisse moi réfléchir. Un logiciel qui enregistrerait arte+7, comment on pourrait bien l’appeler si on était logique et cohérent ?

arte+7 recorder ? ça existe et c’est comme cela que ça s’appelle ! dingue, non ?!





Je n’utilise pas Ubuntu (oui linux != ubuntu, dingue, non ?!), même si c’était le cas je préfèrerais éviter autant que faire se peut d’ajouter des ppa à mon sources.list, j’ai déjà un script pour arte qui fonctionne peu importe la distrib’ et sans rien ajouter à sa liste de dépôts et je lui demandais un équivalent à CapTvTy car contrairement à ton script et au mien il semble gérer d’autres chaînes de tv. <img data-src=" />


Le 02/04/2013 à 20h 04

Ok, je vais y jeter un oeil, merci. <img data-src=" />

Le 02/04/2013 à 19h 54







Drepanocytose a écrit :



Yeah !

Bon bah CapTvTy demain….





Il y a le même genre pour Linux ?



Perso, pour arte sous Linux, je passe par ça. Ça marche très bien. <img data-src=" />