votre avatar

Poppu78

est avec nous depuis le 2 octobre 2009 ❤️

898 commentaires

Le 09/05/2016 à 14h 49

Oups désolé je n’avais pas fait attention que c’était toi qui en avais parlé.

Pour la date ça ne me paraît pas incohérent : ça laisse le temps de voir si le marché vaut le coup ou pas, et de paufiner en observant les erreurs de SpaceX. Je pense que c’est aussi un appel du pied pour les subventions…

Le 09/05/2016 à 09h 54

http://www.air-cosmos.com/airbus-devoile-ses-concepts-pour-des-lanceurs-semi-reutilisables-36555

Rassuré ?

Et tu noteras que ce n’est pas juste du powerpoint, ça a influencé certains choix techniques d’Ariane 6…

Le 09/05/2016 à 09h 47

Tout ce qui est satellite d’observation de la Terre par exemple. Entre autre sur des orbites héliosynchrones (autrement dit ça repasse tous les jours au même endroit à la même heure par rapport au soleil), mais aussi sur des orbites encore plus basses pour tout ce qui est satellite militaire, satellite de surveillance, etc. Tout ce qui touche à la cartographie à intérêt à être en orbite basse, pour avoir une meilleure résolution spatiale, et pour capturer plus d’image en un temps donné. Mais c’est aussi le cas pour les constellations de satellites type OneWeb fr.wikipedia.org Wikipediaou le GPS…



A contrario l’orbite géostationnaire n’est intéressante que pour des couvertures statiques, type diffusion TV ou satellites de télécommunication (et encore pas tous, car ça implique un délai important). D’autant que l’orbite géostationnaire n’est pas compatible avec une utilisation dans les hautes latitudes (les satellites se retrouvent sous la ligne d’horizon, et sont même déjà perturbés dès les 60° de latitude…).



Bref, chaque orbite a ses avantages et inconvénients. Mais pour te donner une idée de la différence, l’orbite géostationnaire est à 36.000kms d’altitude, le GPS à 20.000 kms, des satellites d’obsrvation comme SPOT 6-7 à 700kms et la station spatiale internationale à 400 kms…

Le 09/05/2016 à 09h 22

Faut voir aussi que ça ne joue pas dans la même cour. Ariane 5, c’est du gros lanceur, capable d’envoyer une vingtaine de tonnes en orbite basse et 8-10 tonnes en géostationnaire. Soit le double de la Falcon 9. Donc déjà une partie de la clientèle est différente. Et pour la clientèle partagée (petits satellites), Ariane peut en envoyer 2 par tir quand SpaceX n’en envoie qu’un.



Sachant que le coût en carburant augmente exponentiellement avec la charge (vu que le carburant nécessaire à faire décoller la charge utile nécessite d’amener du carburant supplémentaire pour être lui même emmené…) et encore plus avec l’atterrissage (vu qu’il faut aussi faire monter le carburant nécessaire à la descente), l’avantage économique de Space X reste à démontrer. D’autant que réutiliser la fusée coûte également très cher en contrôles (sans parler que seul le premier étage est récupéré).



Par contre il est clair que techniquement ça leur permet de prendre rapidement des compétences en terme de rendez-vous. Et que le marché actuel s’oriente beaucoup vers les petits satellites, ce qui correspond à leur modèle économique du coup.



Bref c’est un pari qu’ils font, mais pour l’instant personne ne peut dire s’il sera rentable ou non. D’où le fait que les autres attendent et regardent, je suppose qu’ils ont ce qu’il faut dans les cartons mais qu’ils ne passeront pas à la partie pratique tant que la rentabilité ne sera pas prouvée.

Le 02/05/2016 à 13h 22

Techniquement comme il s’agit d’un blog le nom et la date correspondent au nom de celui qui a mis en ligne le billet et la date de mise en ligne. Et légalement ça se tenait puisque Marc Rees était cite en fin de page.

Ca c’est pour le fond. Pour la forme effectivement ça prêtait clairement (et volontairement ?) à confusion. Et ça prête toujours à confusion malgré l’édition.

Le 29/04/2016 à 08h 50

Parce que les représentants de la Hadopi sont élus par mandats, et que 2022 correspond à l’expiration du dernier mandat en cours. La suppression se fait par le non renouvellement des mandats, c’est plus simple à gérer.

Le 28/04/2016 à 16h 56

Mouais j’attends de voir… SpaceX est adepte de la méthode “gros bourrin” qui consiste à balancer un max de carburant, comme avec leur système de recuperation de fuse. Et visiblement avec raison au vu des derniers résultats :)

Mais le problème de cette méthode c’est que son intérêt décroit exponentiellement avec le carburant nécessaire, vu que le fait d’emporter du carburant nécessite de dépenser du carburant supplémentaire… qui lui meme nécessite d’emmener du carburant supplémentaire… Il me semble d’ailleurs qu’il y a une limite théorique (don’t j’ai oublié le nom) au-delà de laquelle ça n’est pas plus possible, le carburant qu’on ajoute ne suffisant plus à compenser son propre ajout…



Bref tout ça pour dire que s’ils doivent emmener suffisamment de carburant pour se poser sur Mars (vu qu’ils parlent d’un atterrissage façon fusée comme ils font actuellement), en redécoller, et se poser sur Terre, ça fait une quantité de carburant phénoménale à emmener. Et à faire accélérer / décélerer. Donc encore plus de carburant à emmener pour pousser tout ça.



Bref, je ne dis pas qu’ils ne le feront pas, ils ont montré qu’ils avaient les moyens de leurs ambitions, mais ça sent le gouffre à ergols incroyable. Sauf à ce qu’ils sortent un propulseur révolutionnaire, ou si ils utilisent un moteur ionique pour la phase accélération / décélaration, mais ça rend le voyage plus long (perso je parie là-dessus).





Ou alors je les vois bien aussi envoyer un réservoir à part pour le retour et l’atterrissage, style deux premières capsules “test” qui partent se mettre en orbite autour de mars avec chacune du carburant. Ensuite on envoie la première capsule depuis la terre avec juste ce qu’il faut de carburant pour l’aller, elle arrive autour de mars à vide, récupère le conteneur avec juste ce qu’il faut de carburant pour atterrir et redécoller (du coup pas besoin de dépenser du carburant pour poser / faire décoller le carburant nécessaire au retour), puis se connecte à la deuxième capsule pour le retour. Et en récupère une troisième en orbite terrestre pour l’atterissage. A vue de nez ça ne devrait pas consommer beaucoup plus (le carburant atterissage sur terre ne fait pas le voyage, celui du retour ne fait pas la descente / remontée sur mars) et ça réduit les risques, puisqu’en cas d’échec on ne renvoie que le module nécessaire… Bon ok là je tourne plus sur la SF ;)

Le 19/04/2016 à 12h 06

Euh c’est pas precisément de la défense de Free, hein, c’est juste une explication technique.

Oui ils ont un peering de merde vers certaines destinations. Mais par vers toutes. Du coup si par exemple ton usage est orienté P2P tu ne vois pas la différence. Ou si tu vas vers des serveurs FR, ils ont un peering correct. Par contre oui si tu fais du Netflix ou d’autres services situés sur les serveurs de peering avec lesquels ils ont du bas debit, ça rame.

Le 15/04/2016 à 13h 26

+1.

D’autant que leur algo est visiblement adaptatif, suffit de voir que souvent en début de vidéo la qualité est faible et s’améliore ensuite progressivement. Donc le débit, il est plutôt indicative, et s’adapte à ta connexion… Je suppose que les chiffres qu’ils indiquent correspondent à la qualité optimale.

Le 15/04/2016 à 13h 21

Le cas de Free est un peu particulier : c’est le seul des 4 grands FAIs français à ne pas avoir signé d’accord avec Netflix (les fameux accords que tous avaient dit qu’ils ne signeraient pas). En échange de l’intégration de Netflix sur leurs boxes, ainsi que d’une participation financière, Orange / SFR / Bouygues ont des serveurs de proximité Netflix directement sur leur backbone. Du coup ils partent avec un débit plus élevé et un encombrement plus faible de leurs lignes. Free par contre n’avait pas réussi à se mettre d’accord Netflix, du coup les abonnés Free chargent directement depuis les serveurs Netflix, avec le goulot d’étranglement que constitue le serveur de peering… Du coup Free va être plus faible pour Netflix, mais ça ne présume en rien de la qualité de son service pour les autres flux.





Autre spécifité qui explique que la France soit plus faible, on a une population avec pas mal de monde à la campagne en ADSL, donc un débit plus faible.

D’ailleurs si tu regardes ce classement, c’est grosso modo le classement inverse de celui du dégroupage :




  • SFR et Free sont les opérateurs avec le plus gros taux de dégroupage. Du coup c’est vers eux que se tournent la plupart des gens situés loin du NRA et qui ont un faible débit, faisant mécaniquement baisser la moyenne.

  • Bouygues et Numéricable, à l’inverse, sont peu dégroupé pour le premier et présent uniquement en zone dense pour le second. Résultat ils ont une grosse proportion de clients qui sont situés en ville, proche du NRA, et donc avec un débit moyen plus élevé.

  • Orange est disponible chez tout le monde, mais pratique des prix plus élevés : là encore les gens avec faible débit vont moins les privilégier car le surcoût ne leur apporte rien. A l’inverse ils trouveront plus facilement leur clientele en ville où le débit plus élevé permet d’accéder aux services que couvre le surcoût.



    Bref, tout ça pour dire que le débit moyen est moins lié aux capacities techniques du FAI qu’au profil de ses clients. Du coup à une adresse donnée le classement des débits réellements présents est complètement décorrélés de ces moyennes.

Le 15/04/2016 à 11h 17

Avant VLC, c’était le seul soft gratuity à savoir lire les .mov, donc oui dans les années 90 on était obligé de l’utiliser pour une bonne partie des vidéos. Heureusement depuis le .mov a quasiment disparu… Et déjà à l’époque Win 3.11 il foutait la m*e dans tout le système en allant écraser des librairies partagées, provoquant des écrans bleus et empêchant d’autres logciels de se lancer…

Le 14/04/2016 à 14h 28

Faut dire que Hololens pour l’heure ça nécessite des cables et vu le prix actuel si chaque joeur doit être équipé tu as aussi vite fait d’acheter un vrai sytème de Laser Game.

Donc il faudra encore attendre quelques années…

Le 11/04/2016 à 21h 30

“Toutes technologies confondues”. Du coup le VDSL2 gonfle tout de suite les chiffres pour toutes les communes avec un NRA. Mais ça reste pour les gens en centre bourg, dès que tu es à l’écart ça chute…

Le 05/04/2016 à 13h 22

Ah ok j’avais mal compris.

Oui sur PC il y a des plugins fonctionnels qui font appel à chromium pour charger l’interface Web. Mais fonctionnel avec la version du Pi.

Le 04/04/2016 à 13h 10

Déjà si tu peux m’indiquer ces plugins qui “marchent un temps”, je suis preneur ;)

Parce que les seules solutions que j’aie vues pour avoir du Netflix sur le Pi (avec Kodi), ce sont des solutions qui consistent à lancer Netflix sur un PC et streamer ensuite… Donc une solution qui marche même à renouveler tous les 6 mois ça m’éviterait d’avoir mon vieux PC portable connecté en permanence sur la TV…

Le 31/03/2016 à 16h 45

Et puis bon, la loi 0 a quand même conduit les robots à rendre la Terre invivable hein ;)

Le 30/03/2016 à 13h 19

Hors de prix, réservé aux possesseurs de télés Sony.

Et ensuite ils vont se plaindre que les gens piratent malgré leur offer légale ?

Le 23/03/2016 à 09h 40

Quand certains font des journées de 16 heures comme en ce moment, j’ai du mal à les imaginer se retenir de pisser pendant tout leur service, ou se sentir à l’aise en allant pisser sous l’oeil de la camera.

Pour le prix c’est élevé mais je suppose que ça se justifie par une optique avec un très large FOV, une stabilisation (bah oui si c’est porté sur la veste ça risque d’être nécessaire) et quelques autres “details”. Une GoPro c’est 400€ et ça ne filme que 2 heures, hein…

Le 02/03/2016 à 11h 08

Je te rassure, je suis suffisamment vieux pour avoir connu l’époque des CRTs en 12-14” ;)

Mais pour moi la solution aujourd’hui c’est Desktop chez moi et tablette en déplacement. Le netbook n’est intéressant (je précise encore une fois : pour moi, je conçois que ça ne soit pas le cas de tout le monde) que si j’ai vraiment besoin de puissance en déplacement (en gros pour les jeux), et dans ce cas c’est un portable qu’il me faut.

Le seul avantage du netbook sur la tablette pour moi c’est le clavier, mais avec mes gros doigts c’est inutilisable en-dessous d’un 17”.

Le 01/03/2016 à 21h 03

Mouais…

Je dois être un peu biaisé, vu que quand les Netbooks sont sortis je n’en voyais déjà pas l’utilité, ayant toujours eu horreur des écrans “taille game boy”. Mais il est vrai que j’ai connu quelques aficionados qui m’assuraient que c’était génial, sans jamais m’avoir convaincu.

Le 01/03/2016 à 15h 46

Bah le netbook c’est surtout l’arrivée des tablettes qui l’a tué. Une fois les tablettes sorties les usagers qui voulaient du tout nomade peu encombrant se sont dirigés vers elles, ceux qui voulaient un peu plus de puissance sont retournés aux PCs portables.

Le 01/03/2016 à 15h 43

Exact, je me suis un peu avancé sur le but initial, ce que j’ai note n’est venu qu’en second.

Le 01/03/2016 à 15h 17

Ca ne fait pas “beaucoup de si”, puisque c’est le Coeur de cible du Raspberry Pi dans les pays développés.

Le but initial du Pi c’était de faire un PC à faible prix pour les pays en voie de développement, mais pas pour les pays développés, où il est utilisé comme une plateforme de hacking, à la façon d’un arduino boosté, plus puissant et moins complexe à utiliser (mais avec une plus grosse consummation / coût / encombrement / etc.)

Le 01/03/2016 à 13h 19

Pas d’accord.




  1. Le but affirmé de MS est de passer toutes les applications à du .Net. Ca prendra des années, mais le Wind32 devrait disparaître petit à petit.

  2. Pour des applications spécifiques, ça a son intérêt. Si le but est de faire tourner une seule application, et qu’elle existe déjà en .Net, aucun intérêt de passer par une autre solution.





    Si le but c’est d’avoir un micro-PC, oui autant prendre une distrib Linux, mais ce n’est pas l’objectif de Windows 10 IOT.

Le 01/03/2016 à 15h 51

Normal, pour une fois c’est une série française de qualité !

Le 16/02/2016 à 13h 45

Exactement.

Le 15/02/2016 à 17h 34

Oui clairement c’est lui qui a mediatize l’affaire.

Mais s’il ne l’avait pas fait, son opinion n’aurait jamais été prise en compte par FB.

Et ça me paraît different de gmail :




  • sur Gmail (ou autre d’ailleurs), il est clairement stipule dans les conditions que tu acceptes que ton courrier soit parcouru automatiquement par des algorithmes.

  • sur Facebook il est precisé que tu n’as pas droit à la nudité, mais “Les œuvres d’art illustrant des personnages nus sont aussi acceptées. Le réseau social souligne que les interdictions ne s’appliquent pas non plus si le contenu est publié « à des fins éducatives, humoristiques ou satiriques ».” Du coup ça ne devrait pas s’appliquer ici… Toutefois il s’agit d’une clarification des conditions qui a eu lieu après la plainte du gars.

Le 15/02/2016 à 14h 34

L’action en justice, je peux la comprendre. Quand tes contacts apprennent que ton compte FB a été supprimé pour pornographie, alors que tu es instituteur, ça a des repercussions importantes sur ta vie professionnelle et privée (tu as vu, l’instit des CPs, il met des images pornos sur le net…).



Après je pense qu’ici il s’agit plus d’un combat pour dénoncer la façon dont les entreprises américaines imposent leur morale à l’étranger, donc plutôt une instrumentalisation de la justice pour des raisons idéologiques. Plus que pour récupérer du pognon.

Le 10/02/2016 à 10h 14

Support du stream Steam ? Tu veux dire que je peux lancer le jeu sur mon PC dans le bureau et jouer sur ma télé dans le salon avec le Pi branché desssus ? Là tu m’intéresse.

Le 05/02/2016 à 15h 15

60€ classique ?

Sur console alors…

Le 28/01/2016 à 16h 49

<img data-src=" />

Bon maintenant, il va falloir s’assurer que ça permette au site de vivre.

Le 19/01/2016 à 11h 12

Mon Dieu ! Cela pourrait réellement arriver ?

Il faut que je m’abonne rapidement à Paris-Match alors pour tenir le coup au cas où Gala et Voici subiraient un tel problème.

Le 19/01/2016 à 10h 40

Merde, on va encore voir débarquer une vague de kikoolol sur Google+ et on va en avoir pour une semaine à ce qu’ils remontent tous les posts depuis 5 ans à coup de “lol”, “ptdr”, “j’te kiffe trop” et autres “mdr”… Pourvu que ça ne dure pas trop longtemps.

Le 08/01/2016 à 16h 51

Par “en déplacement” je pensais plus à un déplacement pro où tu dois passer 40h dans les transports sans forcément avoir accès à une prise, ou à une soirée où tu dors à l’improviste chez des amis. Là pour le coup pas de surprise, tu as ton chargeur sur toi, et tu peux poser les deux proprement l’un sur l’autre.

Effectivement en pleine partie Ingress c’est plus délicat ;)

Le 08/01/2016 à 10h 38

Je m’en sers beaucoup (en tant que joueur Ingress passé le niveau 8 ça devient quasiment indispensable). Ce n’est pas la gêne occasionnée par le câble en fait qui me pose problem, mais la fragilité de celui-ci / des connecteurs. A force de l’avoir toujours dans la poche, de le trimballer partout, on a vite fait de l’abîmer / le perdre et d’avoir du jeu sur les connecteurs de la batterie.



Après pour ce qui est de la perte, elle est déjà importante dans la batterie, de l’ordre de 30 à 50% (oui je sais ça surprend, mais c’est ce qui était indiqué dans la notice de mon Anker…) du fait de l’échauffement à la charge / décharge.

Le 07/01/2016 à 15h 34

Je suppose que la batterie externe n’est compatible que Apple Watch ?

Sachant que de mémoire elle utilise du PixelQi mais avec un hack sur la pile de communication pour empêcher la compatibilité avec les gens normaux…



C’est dommage parce que en format porte-clef comme ça ça m’aurait bien plu en voyage pour recharger ma Moto 360 ou redonner un coup de boost à ma Nexus 7… Ou pour ceux qui ont des telephones compatibles pixelQi, parce que finalement avec les batteries type Anker les cables sont quand même le gros point faible.

Le 06/01/2016 à 10h 53

Bah tu as déjà les pierres tombales connectées.

Enfin bon pas vraiment, c’est juste un QR-Code qui renvoie sur la page du défunt.

Mais ça permet de verifier si il poste des mémoires d’outre-tombe sur Facebook.

Le 05/01/2016 à 10h 03

Perso idem, pas de souci avec W10, que ce soit sur un fixe monté moi-même ou sur un “vieux” portable HP de merde (comme tous les HPs grand public…). Par contre il est vrai que je n’utilise quasiment pas le store.



Ceci dit les retours que je vois ici semblent dégager une tendance : mieux vaut monter soi-même son PC, car les fabricant de materiel (Carte graphique, Carte mere, Son, etc.) font les mises à jour des drivers, alors que les systèmes intégrés bricolés par les vendeur de machines toutes faites sont rapidement délaissés au niveau du développement et trop bricolés pour pouvoir installer les drivers des constructeurs.

Le 04/01/2016 à 15h 55



Des gravures certes fort esthétiques, mais dont on ne verra la couleur qu’une fois de temps en temps en dépoussiérant sa machine



Oui mais non, quand on a une carte graphique comme celle-ci on prend un boîtier avec une vitre, hein !

Le 10/12/2015 à 14h 27

Nil s’yv était engagé :plus.google.com GoogleCurieusement il a quitté PCi quelques temps après, j’ai toujours soupçonné qu’il s’agissait d’une fuite pour y échapper…

Le 20/11/2015 à 09h 42

C’est également la réponse qu’a faite Rozgann, sachant que je parlais de mémoire, il est possible que j’ai fait une confusion.



Mea Culpa.

Le 19/11/2015 à 14h 03

De mémoire dans le “cash investigation” dédié aux téléphones portables, le représentant de FairPhone avait été le seul à accepter de répondre aux questions. Il avait reconnu qu’ils faisaient de leur mieux, mais qu’ils n’avaient pas forcément de vision de ce que faisaient les fournisseurs des founrisseurs de leurs partenaires… En l’occurence je crois qu’ils étaient interrogés car une partie du montage se faisait dans une usine qui prétendait n’employer aucun enfant mais qui d’après les journalistes en hébergeaient. Je crois que suite à ça ils ont changé de fournisseur.

Le 28/10/2015 à 18h 36

Petite question à tous ceux qui utilisent des PCs “classiques” en NAS : côté consommation électrique et bruit, ça donne quoi ?

Le 28/10/2015 à 18h 32

Un D-Link DNS 320 pour ma part… C’est vraiment du bas de gamme, ça ne sert que de serveur de fichier, mais au moins ça reste abordable…

Le 27/10/2015 à 11h 37



Quel periph a besoin de 10gbps de bande passante?



Ces interfaces ciblent deux choses :




  • être pérennes (donc prévoir des débits qu’on n’a pas forcément déjà de présents)

  • être universels (donc à terme remplacer la plupart des autres ports, y compris la vidéo).



    De mémoire un écran Full HD en 60Hz c’est plus e 1GBps de données brutes , et en 4k plus de 20Gbps… Tu peux aussi avoir envie d’un bon débit pour ton disque externe. Les SSD grand publics tournent dans les 500Mo/s, soit 4Gbps, et c’est amené à évoluer (OK pour l’instant il n’y a pas grand monde à avoir des SSD externes, mais là on parle de gens qui ont les moyens de se payer une carte mère à 580€…). Valable aussi pour celui qui veut vider son camescope ou son appareil photo rapidement. Bref, il y a actuellement quelques périphériques pour lesquels ces débits sont justifiés, et ils sont amenés à se multiplier.

Le 26/10/2015 à 11h 34

Euh, non je ne vois pas le souci.

D’un côté on a des périphériques qui sont au bout d’un câble court, avec des données brutes à transférer, en communication point à point.



Bref les problématiques sont complètement différentes.



D’un autre côté on a plusieurs machines, pouvant communiquer toutes ensembles, sur de longues distances.

Le 19/10/2015 à 09h 57

C’est à dire qu’à 15k€ par mois i tombe dans la tranche d’imposition à 45%. On va dire 50% avec les cotisations sociales, ça lui fait plus que 30k€ nets de récupérés pour rembourser les 24k€.

Bon après ça reste quand même 6k€ de bénef.

Le 13/10/2015 à 17h 13

Effectivement l’entretien du fil c’est l’inconvénient. Mais ça me le faisait également avec les rasoirs à lames jetables, donc je penche plutôt pour ma peau qui “plisse”.

Le 13/10/2015 à 17h 11

Une AAA rechargeable premier prix c’est 800mAh en 1,2V soit 0,96Wh soit environ 345kJ.

Un laser pour une épilation laser, c’est dans les 15 joules / cm², en 6 ou 7 applications. Et la pilosité faciale est de 50 poils / cm². Sachant qu’une épilation laser doit demander beaucoup plus de puissance, vu d’une part qu’elle va griller le bulbe et pas simplement couper le poil, et d’autre part qu’elle va arroser aussi la peau. Je te laisse faire le calcul du coup, mais les ordres de grandeur ont l’air cohérent.



Après le gars qui a conçu ce rasoir est quand même l’inventeur de l’épilation à lumière pulsée, qu’on trouve aujourd’hui partout mais qui a été une révolution quand il l’a créée. Donc même si c’était une arnaque, je lui fais confiance pour qu’elle soit cohérente de ce côté ;)

Le 13/10/2015 à 16h 59

C’est curieux, moi le rasoir à lame ou le coupe-chou c’est exactement l’inverse : surtou pas en sortie de douche / bain, car la peau accroche beaucoup trop…

Par contre +1000 sur la préparation de la mousse au blaireau, même si je revenais au rasoir à lame plus jamais de bombe, ça n’a rien à voir question confort et résultat.