votre avatar

Strimy

est avec nous depuis le 8 octobre 2006 ❤️

1062 commentaires

Le 05/10/2017 à 10h 29

Mais ce sont des technologies qui tournent à des niveaux de privilèges supérieurs aux autres rings. Les hyperviseurs tournent bien en dessous des machines virtuelles, et peuvent altérer le fonctionnement des VM qui sont en Ring 0, d’où cette numérotation négative. D’autant plus qu’ils sont complètement invisibles pour les ring supérieur.



Si Intel ou Amd n’ont pas nommé ça comme ça, ça fait plus de 10 ans que les spécialistes appellent déjà “Ring -1” les instructions de virtualisations.

Le 05/10/2017 à 08h 12

Avec ce genre de merdes :en.wikipedia.org WikipediaEt on considère qu’un hyperviseur qui fait tourner des noyaux en Ring 0 se situe en Ring -1

Le 22/09/2017 à 15h 50

Une application mal codée, quel que soit le langage, elle sera pourrie (et d’autant plus dans un langage natif j’ai envie de dire).

La plupart des problèmes de perfs viennent du code plus que du langage. Il n’y a bien que dans des cas particuliers que le code natif a encore du sens, et il ne sert à rien de prendre 3 fois plus de temps à développer une appli en C++ quand on peut faire la même chose en C#/Java/…



S’il est vrai que la gestion de la mémoire est importante, c’est bien là que les langages managés sont bien plus intéressants. Il est beaucoup plus facile de détecter les fuites de mémoires et les corriger que dans du code natif.

On notera d’ailleurs que .Net Core a amélioré beaucoup de choses sur la conso de certaines classes de base, notamment pour limiter le nombre d’allocations et réduire les cycles du garbage collector (voir ici :https://blogs.msdn.microsoft.com/dotnet/2017/06/07/performance-improvements-in-n… ).

Le 01/08/2017 à 13h 49

Mais la blockchain BTC et BCC sont identiques jusqu’au fork. Donc toutes les transactions qui ont été faites en BTC sont des transactions qui existent dans la blockchain BCC jusqu’au moment du fork. C’est pour cette raison que tu obtiens la même quantité de BCC que tu avais de BTC.

Le 01/08/2017 à 13h 39

Le programme n’a pas d’importance. Les comptes sont stockés dans la blockchain, et il te faut la clé de chiffrement pour accéder à son contenu (quand je dis accéder, c’est pouvoir faire des transactions avec).

Avec le fork, ton compte existe dans les deux blockchain et la clé reste forcément la même (tout comme ton adresse).

C’est juste toi (à travers le logiciel ou le site web) qui décide sur quelle blockchain tu fais tes opérations avec ta clé.

Le 01/08/2017 à 13h 21

Non, un wallet c’est juste une clé. Les clés pour BTC et BCC sont identiques. Si t’avais 1BTC avec ton wallet, tu auras 1BCC si tu ouvres ton wallet avec la blockchain du BCC.

Le 18/07/2017 à 20h 20







neojack a écrit :



Dans le cas présent, il est probable que l’adresse soit une adresse “classique”, sans délai de “gel”des fonds. donc les fonds sont surement déjà partis dans d’autres comptes puis transférés en bitcoin / monero ou autre. dans ce cas c’est intraçable.





Oh non, y a même le lien dans l’article vers l’adresse du compte et les ETH sont toujours présents :https://etherscan.io/address/0x6a164122d5cf7c840D26e829b46dCc4ED6C0ae48


Le 18/07/2017 à 15h 05

Ca pourrait être un gros troll aussi. Mettre une adresse complètement random et rendre les ETH inaccessible à tout jamais.

Le 17/07/2017 à 11h 24

J’ai souvenir que Windows Phone était sur une pente montante. Les ventes augmentaient quand Nokia avaient des modèles pour toutes les gammes, notamment à l’époque de WP8 et 8.1.

En France, les ventes de Windows Phone ont été presque équivalentes à celles des iPhone (plus de 12% dans mes souvenirs). C’est loin d’être ridicule et sur le long terme, ça laissait une belle part de marché s’instaurer. Tout s’est arrêté quand il n’y a plus eu de nouveautés.

Avec le matraquage marketing de Nokia de l’époque, il y avait de la place pour Windows Phone. Aujourd’hui, il faudra une sacré révolution pour y retourner.



Pour tout le reste, je suis d’accord avec toi. Et je trouve d’autant plus regrettable que Microsoft a enfin une plateforme de développement unifiée alors qu’il n’y a plus d’intérêt à développer pour mobile…

Le 17/07/2017 à 09h 19

Merci Nadella d’avoir tué tous les efforts de Ballmer alors que Windows Phone était sur une bonne pente !

Le 10/07/2017 à 12h 44

J’ai tellement ri quand Dona Sarkar qui gère le programme Insider a commencé à se rendre compte que leur système était pourri parce qu’ils ont eu des problèmes au Nigeria (yay :https://twitter.com/donasarkar/status/820684232796184577 )



Ca montre l’amateurisme dans le développement de Windows 10…

Le 03/07/2017 à 09h 37







Charly32 a écrit :



Peu de chance que ce modèle fasse des étincelles, vu le TDP de la bête. Tout au mieux on aura un meilleur rapport perf/prix que chez les verts, mais avec 1 an de retard :/





Clairement, Vega ne semble pas faire de miracles <img data-src=" />

Evidemment, il faudra attendre la version “gamer” et voir ce que ça donne. Certaines analyses semblent quand même montrer que de nombreuses améliorations apportées par Vega ne sont toujours pas intégrées au driver, entre autre le “Tiled Rasterization”.

Il faudra voir si c’est vraiment le cas, et le gain de performances que ça peut apporter. Les résultats actuels sont clairement surprenants : aucune amélioration sur l’IPC.

Bref, comme souvent, AMD se plante sur la comm, d’autant plus que le produit semble faire bonne concurrence aux cartes Pro de Nvidia dans le domaine cible.

Encore un mois à attendre et voir si c’est juste un problème de drivers/cible du produit (mais normalement, il n’y a pas tant de différence de perfs), ou si Vega est un échec.

Je sens que je suis pas près de changer de GPU… J’aurai du me prendre un RX480 tant qu’il était encore temps <img data-src=" />


Le 27/06/2017 à 23h 56

Le GridCoin et le FoldingCoin sont intéressants pour ça. Ils consistent à participer à des projets de recherche à travers Boinc ou Folding@Home.

J’ai commencé à m’intéresser au GridCoin mais c’est assez repoussant et long à mettre en place, sans retour rapide et simple sur ce qu’on génère.

Le 27/06/2017 à 17h 56

Je pense que personne ne sait vraiment <img data-src=" />

Le 27/06/2017 à 17h 30

0.5 pour ma part…

Quand tu commences à penser que le crash est passé, en fait il est pas encore arrivé <img data-src=" />

Le 27/06/2017 à 16h 27







PtiDidi a écrit :



Ca dépend ce que tu appelles “étude de coût” mais dans les commentaires d’une news il y a quelques semaines, quelqu’un avait écrit miner pour 100€ d’Ether/mois en ne conssommant “que” 100W  avec une CG à 300€ je crois.

Donc rentabilisé en 4mois





On était dans ces eaux là il y a quelques mois en effet.

De mon côté, j’avais annoncé faire environ 100€ par mois pour 130W de conso GPU pour Ethereum + Pascal (et le CPU qui mine du Ryzen), avec une R9 380. Mais l’augmentation de la difficulté a fortement fait tombé la rentabilité immédiate : 2x moins d’ETH, de PASC et de XMR par mois prévus, et qui ne sont pas aidés par la chute de la valeur.

Donc c’était largement rentable il y a quelques mois, ça devient plus difficile aujourd’hui avec ma config, l’inconnue étant de savoir si l’évolution des cours fait que ce que je mine aujourd’hui devient intéressant dans l’avenir.





Mais n’allez pas penser qu’il s’agit ici de modèles avec une architecture spécifique ou affichant des caractéristiques qui permettent de gagner en performance à ce niveau. On retrouve en fait des modèles classiques mais considérés comme idéales pour cette activité dont la seule différence se situe au niveau de l’absence de sorties vidéo.



Ce n’est pas ce que j’ai compris. Il me semble qu’il y a plus de différences que la simple suppression des sorties vidéos. Les RX480/470/580/570 deviennent plus intéressantes pour l’Ethereum en ayant des bios modifiés qui adaptent les timings de la VRAM. Je vois bien les constructeurs appliquer ces changements à la construction pour éviter d’avoir à faire la modif soi même. D’autant plus que certains types de mémoires sont plus efficaces (d’où le fait que certaines cartes sont identifiées avec de la RAM Samsung).


Le 14/06/2017 à 15h 58







OlivierJ a écrit :



Je vais passer pour un gros ignare mais j’ignorais qu’on posait de la fibre en aérien. <img data-src=" />

Ta ville a combien d’habitants et dans quel département ?





A Toulouse, on voit quelques fibres posées en aérien, identifiable facilement par le label vert attaché au poteau.



(Mais une grosse partie doit passer en sous terrain vu le nombre de tracé vert au sol qui sont fait partout ces derniers temps <img data-src=" /> )


Le 13/06/2017 à 10h 16

Mais c’est la carte graphique qui manipule la fréquence de l’écran pour qu’il affiche l’image le plus tôt possible. L’écran peut passer de 60 à 140Hz en fonction de ce que la carte graphique lui fournit.

Le 13/06/2017 à 09h 13







Sheepux a écrit :



Pour avoir connu les bon vieux CRT, au delà de 90Hz quasi personne ne détecte le refresh (ne pas confondre un simple stimuli et une image, on est pas dans le même processus au niveau du cerveau). J’étais capable de différencier facillement du 70 et du 80 (bonne vue).

Un point important qui différencie le CRT et nos écrans c’est que le refresh est bien moins violent qu’à l’époque où s’en était gênant . Ainsi 60Fps égale à 80 de l’époque.





Oui et non. Je parlais du cas d’un flash pour montrer qu’il n’y a pas de limite précise. Si ton cerveau/oeil est capable de percevoir un certain stimuli d’1/1000s, c’est qu’il y a bien une différence. Augmenter le framerate au delà de 100Hz n’est clairement pas quelque chose de “visible”, mais c’est perceptible, et ton cerveau s’y habitue très bien.







Sheepux a écrit :



Pour en revenir à l’exemple, je ne suis pas d’accord avec ton affirmation que “l’écran peut attendre”, l’écran ne sait pas attendre, il traite à une certaine fréquence. Il peut choisir de ne pas traiter à un moment T car il n’y a rien de disponible pour être disponible à T+1. Très souvent sur des écran 200hz, il lui faut 2 tic pour traiter l’affichage de l’image mais il peut en passer 1 (ou plus) tant que rien n ‘est à faire.





Bah non, c’est le principe du FreeSync/GSync que d’afficher une image quand elle est disponible et non plus sur un rafraîchissement fixe. Avec ce genre de technologie, ce n’est plus l’écran qui dit quand il affiche les images, mais la carte graphique qui dit à l’écran qu’il doit se rafraîchir.


Le 12/06/2017 à 18h 05







ElMarcassin a écrit :



Tiens, quelqu’un à une idée de la raison des différences de prix significatives entre un écran Gsync et un écran freesync ? Une techno plus “aboutie” que l’autre ou on paie simplement le logo Nvidia ?





GSync est une technologie propriétaire Nvidia et demande l’ajout d’un module (à l’époque, ça a peut être changé). Donc tu payes la technologie de Nvidia.

FreeSync s’appuie sur les standards du DisplayPort et est donc totalement “gratuit” (hors besoin matériel pour l’écran). Ca a été un peu laborieux du coup pour cette technologie puisque les fabricants avaient pas mal de libertés sur l’intégration (ça a donné des écrans FreeSync qui ne pouvaient fonctionner que dans des plages de fréquence restreintes ou qui géraient mal les bas framerate). AMD semble avoir repris les choses en main pour FreeSync 2 en imposant règles plus strictes.


Le 12/06/2017 à 17h 38







Sheepux a écrit :



Le PC ne cherchera pas à afficher plus de 60Fps (inutile pour l’œil humain).





L’oeil humain peut percevoir bien plus que 60 FPS. On est capable de percevoir des flashs lumineux d’une très courte durée (1/1000s), donc à 60 fps, on est très loin la limite.



60 est juste une fréquence où la sensation de fluidité commence à être vraiment correct. Mais n’importe quel joueur utilisant des écrans 144Hz sait qu’il y a une nette différence sur des jeux très vifs.



Et le GSync/FreeSync, ce n’est pas seulement avoir une fréquence élevé, d’ailleurs ce n’est pas lié. On trouve du FreeSync à 60Hz. Le but réel est de synchroniser l’écran avec la carte graphique et non plus l’inverse (VSync). En somme, l’écran affiche l’image dès qu’elle est disponible et n’est plus sur une fréquence fixe pour se mettre à jour.



Dans ton exemple, si l’écran peut au mieux afficher 1FPS, il sera aussi capable d’attendre un peu plus que l’image arrive pour faire son rafraîchissement (genre baisser à 1,1 FPS), et donc baisser sa fréquence pour effectivement afficher l’image à 1,1s.


Le 13/06/2017 à 07h 29

Juste comme ça, quand Microsoft a annoncé la S, ils ont aussi annoncé la Scorpio beaucoup plus puissante qui sortirai un an plus tard.

Le 09/06/2017 à 07h 28

H24 oui (je coupe juste le minage quand j’utilise mon ordi). Pour moi, si y’a coupure de courant, le PC reste éteint, mais j’imagine que certains ont onduleurs + le redémarrage au retour du courant <img data-src=" />



Des tutos, t’en trouves plein, mais il n’y a rien de bien complexe en fait. Il te faut trouver un pool pour la monnaie que tu veux miner (comme déjà dit, je sais tout sur nanopool.org), et il y a généralement les explications dans la page FAQ et Help.

Le 08/06/2017 à 11h 12

Non, là je ne retire pas. Je stocke mes XMR et ETH. Il y a juste les Sia ou les Pascal que j’ai miné en parallèle des ETH (en dual mining) que je m’amuse à échanger sur Poloniex.



Niveau conso électrique, j’ai pas mesuré précisément mais d’après le monitoring, je dois être en dessous de 250W sur la config totale, donc environ 22€ par mois.









cacadenez a écrit :



Pareil, j’avais miné du Doge :)

Le gros problème, mais je n’ai peut-être pas compris ou pris la bonne pool, c’est qu’on ne gagne rien tant que l’on a pas terminé un block ensemble. Bref, je n’ai jamais rien gagné :) Mais c’était pour le fun plus que pour les gains (déjà à l’époque, il fallait autre chose que mon pauvre GPU).





Ca dépend des pool. Certains payent au share, donc tu peux avoir ta récompense sans qu’un block soit trouvé, d’autres partagent le block au prorata du nombre de Share. Mais souvent, il faut atteindre une certaine somme pour pouvoir récupérer ce qu’on a miné. Par exemple, je fais tout sur nanopool et je dois atteindre 0.2ETH pour pouvoir le récupérer sur mon wallet.

J’avais aussi miné quelques DOGE il y a quelques années, mais je crois que j’avais tout revendu. Faudrait que je réouvre mon wallet.


Le 08/06/2017 à 09h 12

Tu peux miner avec un CPU sur tout ce qui est CryptoNote, notamment le Monero. Mais il faut un processeur ayant un gros cache L3 pour avoir de bonnes perfs. La formule est globalement de démarrer autant de thread que la taille du L3/2.



Pour le coup, Ryzen donne des résultats corrects avec ses 16Mo (donc 8 threads) de L3 (je suis à 550H/s avec un 1700X à 3,65Ghz) tout en ayant une conso relativement correctes (aux alentours de 50W pour le SoC avec un petit undervolting). Mais il faut pas s’attendre à des revenus extravagants, au cours actuel, ça fait ~50€ par mois sur du Monero.



Pour l’Ethereum, je mine avec une R9 380 qui me fait 20-21MH/s, undervolté au possible (0,975V) pour une conso de 130W. Là les gains prévus sont d’environ 100€ par mois.









Ellierys a écrit :



3/ Plus-values/gains issus du minage -&gt; Bénéfices non-commerciaux sur ta déclaration de revenus si mes souvenirs sont bons.



Merci, je me posais aussi la question.


Le 05/06/2017 à 11h 38

Sur Windows Mobile, on peut rajouter 80Mo pour Osmeta qui sert de wrapper à l’application Facebook d’iOS <img data-src=" />

Le 04/05/2017 à 16h 49

Je vois pas en quoi la news te fait penser ça.

Le 04/05/2017 à 09h 16

Je sais pas d’où tu sors tes résultats, mais j’obtiens globalement la même chose qu’eux avec de la RAM à 2666 sur un 1700X.

Le 04/05/2017 à 14h 49

Avec le fonctionnement intégralement en IP de la 4G, ça ne doit pas couter grand chose.

Par contre, avec les technos circuit-switched, je ne suis pas aussi confiant.



Il y a certainement une période où les interconnexions inter-opérateurs devaient être très couteuses, ou très restreintes (d’où un cout élevé pour limiter).

Le 28/04/2017 à 13h 20

Je pense pouvoir dire avec quasi certitude qu’Intel ne fait pas son chiffre sur les personnes qui montent leur PC eux mêmes, mais plutôt chez les OEM.

C’est là qu’AMD doit arriver à se positionner pour reprendre des parts de marché. Les problèmes de compatibilité ne le concernent pas réellement puisqu’ils feront le choix d’un ensemble qui fonctionne. Sans compter que ces problèmes sont surtout présents en cas d’overclocking.

Le 27/04/2017 à 07h 50

Quand tu migres la licence, il te demande à quel PC elle était lié avant.

Le 26/04/2017 à 16h 20

Soyons honnête, la Creators Update n’apporte de toute façon strictement que dalle sur Mobile (à part 3 merdouilles sur Continuum). Par contre, niveau fiabilité, c’est la dégringolade.

J’ai régulièrement Orange Cash qui me dit qu’il y a une erreur sim, la boussole qui cesse de fonctionner (peu importe l’application), Spotify qui me dit le service audio ne peut pas démarrer,… Et tout ces problèmes obligent à redémarrer le téléphone pour être réglés.



Bref, une catastrophe sur mon 950, d’autant plus que ces problèmes sont pour la plupart présents depuis plusieurs mois.



Alors franchement, qu’ils s’arrêtent à faire des mises à jours qui ne servent à rien… Merci Satya !









Vanilys a écrit :



(j’aime sa “philosophie” différente de iOS et Android).





C’était valable pour WP7 et 8, mais depuis 8.1, les changements vont dans les retours au classique, et sur 10 il ne reste plus rien de la qualité ergonomique de Windows Phone (et c’est une horreur <img data-src=" /> ).


Le 05/04/2017 à 18h 42

Est-ce que la Lune est réellement plus abordable que Mars ? Honnêtement, je ne pense pas avoir les données pour juger. Comme toi, je serai largement tenté par dire oui vu la distance qui nous sépare (quelques jours contre quelques mois).



Il reste que les conditions de vies seront assez différentes : pas d’atmosphère, sujets aux radiations solaires de manière plus importantes, météorites, gravité plus faible,…



Si un pépin devait arriver, de quelle nature serait-il, et est-ce que ce serait plus simple sur la Lune que sur Mars ?

Le 05/04/2017 à 13h 35

https://www.nasa.gov/nextstep

C’est Partnerships en fait

Le 04/04/2017 à 12h 35

Ca fait un moment que je cherche de quoi remplacer Movie Maker, faudra que je teste ça la prochaine fois que je veux monter une vidéo <img data-src=" />

Le 31/03/2017 à 09h 49

J’ai abandonné les versions Insiders sur mon 950 à cause de la qualité médiocre des builds précédentes, et je constate que ça ne s’arrange pas… C’est d’autant plus rageant que la version Mobile n’a reçu presque aucun ajout intéressant sur RS2. Si on n’utilise pas Continuum, je pense même pouvoir dire que cette version n’apporte rien que des bugs supplémentaires à un OS qui n’est déjà pas exceptionnel niveau qualité/stabilité…

Le 31/03/2017 à 08h 42

Pas si simple. Peu de moteurs fonctionnent au LH2. Les Merlin 1D qui équipent la F9 brulent un dérivé du Kérosène https://en.wikipedia.org/wiki/RP-1 ).

Ariane 5 a par contre du LH2 sur le moteur principal (mais accompagné des EAP qui doivent pas être très propre eux), et aussi sur le second étage pour la version ECA.

Le 24/03/2017 à 12h 54

Petite question qui peut paraitre stupide, les tests sont réalisés dans quel ordre ? Est-ce qu’il est possible que les Turbo des CPU et GPU puissent affecter les résultats des tests avec un handicap pour le dernier à être lancé ?

Le 24/03/2017 à 08h 15

Oui, je me suis emporté au départ (d’où l’inconsistance dans mon message que j’ai repris <img data-src=" /> ). Le point est quand même là, tu peux te permettre de faire plus de draw calls qu’avant. Tu noteras quand même que dans le bench on tape des millions de draw calls, ce qui n’est pas représentatif de la réalité <img data-src=" />

Généralement, on est plutôt dans les 10000 max, et on a d’ailleurs vu que les jeux consoles explosaient largement ce nombre (comme Assassin’s creed Unity qui en fait 50000 mettant à mal DirectX11 sur PC)

Le 23/03/2017 à 16h 21

<img data-src=" />

Bien entendu. Je n’ai jamais écris de code en Dx12/Vulkan, mais j’imagine bien qu’il y a des nouveautés intéressantes qui ne demande qu’à être exploitée.

Mon point était surtout que Dx12/Vulkan enlève des contraintes pour optimiser les perfs (en contrepartie, j’ai l’impression que ces API laissent plus facilement le développeur faire n’importe quoi).

Le 23/03/2017 à 15h 56

Un draw calls correspond à une demande au GPU de dessiner. Cette opération prend du temps au CPU selon les API.



Sur Dx11, un draw call est relativement couteux, ce qui fait que les développeurs essaient d’en faire le moins possible en mettant en commun le maximum d’opérations possibles (dessiner tous les objets ayant la même texture en un seul draw call par exemple).

Là où Vulkan et Dx12 sont intéressants, c’est que le cout d’un draw call est fortement réduit.



Donc le bench ne compare pas les performances de Dx11 avec Dx12/Vulkan, il compare juste le cout du draw call. On peut en déduire qu’un draw call coute 21x moins sur Dx12 que sur Dx11 (c’est pas aussi simple, mais ça donne une idée).



Classiquement, si tu dois dessiner 20 fois le même object, sur Dx11, tu vas préparer le GPU pour qu’il dessine les 20000 objets en une seule fois. Sur Dx12/Vulkan, tu peux te permettre de dessiner chaque objet individuellement parce que ça te coutera pas plus cher.



Donc ce n’est pas nécessairement que tu peux afficher plus d’objets, mais il te faut être beaucoup plus malin sur Dx11 quand tu construit tes commandes à envoyer au GPU. Sans compter les cas où tu devras quand même séparer les draw calls.

Le 23/03/2017 à 11h 16

Tu penses pas plutôt au Phenom et le bug du TLB ? Je suis pas sûr qu’on soit pas le même cas quand même. Comme dit RinDman, en augmentant la tension, le problème semble disparaitre.

Le 23/03/2017 à 10h 54







PtaH a écrit :



Ca aussi tu l’as pris pour de l’humour?



“ils auraient du tester en australie, je pense que dans le désert ça doit être proche” ?



C’est cette phrase surtout qui m’a fait réagir moi.

Après si tu t’es immédiatement senti visé, au point de me dire que personne n’a rien remit en cause, ni n’a dit “qu’ils auraient du faire telle ou telle chose” je n’y peux rien.





Tu noteras que ce commentaire est arrivé après mon premier commentaire, et je n’y avais pas prêter spécialement attention. Donc, oui si tu veux, il y a un commentaire qui dénigre le travail de la NASA.



Et je me suis pas senti spécifiquement visé, mais au moment, où j’ai lu ton commentaire, j’avais largement plus l’impression que ta remarque portait sur l’ensemble (ou plusieurs en tout cas) des commentaires précédents (dont le mien), alors qu’au final, tu sembles dire qu’il n’y en a qu’un seul qui t’a fait réagir.



Enfin bon, pardon si je me suis un emporté par une certaine incompréhension entre nous.


Le 23/03/2017 à 10h 42

Honnêtement, j’ai plus pris le coup de la Lada comme une blague que pour un commentaire sérieux.









PtaH a écrit :



Quand a mon absence de curiosité, plutot que de simplement venir dire ici :

“C’est trop bizarre leur truc, ca a aucun sens, ici on est capable de mieux” en attendant que les informations te tombent par magie dans le bec ouvert, je suis allé par moi même faire quelques recherches sur le site de la NASA par exemple.

donc niveau complaisance, on repassera ;)





Oui, je peux aller faire mes recherches (ce que je fais généralement, et ce que j’aurai certainement fait si je n’avais pas eu de réponses ici). Maintenant, si tu veux, on peut tous arrêter de commenter et rester chacun dans son coin. Je préfère largement échanger avec des personnes qui s’intéressent au sujet et partager ce que je connais. Et quand je vois que d’autres ont apprécié le lien de floop, je ne pense pas me tromper en disant que je ne suis pas le seul dans ce cas là.


Le 23/03/2017 à 10h 37

Je suis complètement d’accord de critiquer quand quelqu’un arrive avec des remarques du genre “ils auraient du faire ça comme ça”. Mais là, c’est juste une critique gratuite et idiote de PtaH qui déforme totalement les commentaires précédents qui étaient uniquement des interrogations. Et ça a un peu le don de m’énerver que de considérer comme un con quelqu’un qui essaie de comprendre.



Au moins, quand je lis “We misunderstood what Mars was” puis “ They designed Curiosity to handle all the challenges that Spirit and Opportunity had experienced, especially sand”, je saisis un peu plus le problème qu’une remarque “nan mais c’est la NASA, ils savent ce qu’ils font” (ce que je ne remets pas en cause).

Le 23/03/2017 à 10h 24

Je n’ai vu personne ici remettre en cause le boulot de la NASA…



Si tu te complais dans ton absence de curiosité ( <img data-src=" /> ), grand bien te fasse. En attendant, moi j’aime comprendre les raisons : que ce soit des choix techniques assumés, des contraintes particulières, des erreurs de conceptions ou une réalité différente de ce qui est prévu.



D’où le fait que j’ai fortement apprécié l’article que floop m’a proposé.

Le 23/03/2017 à 10h 11

Merci, je m’en vais lire ça.









dodo021 a écrit :



Surement le sable (les tempêtes ?) et les conditions dans lequel le rover a été pendant toutes ces années (changement de température, radiation, etc)

Et il ne faut pas oublier que le rover à la taille d’une voiture et pèse presque une tonne. Donc avec des roue solide comme ça, ça n’aide pas je pense.





Mouais, je ne suis pas convaincu.







eres a écrit :



Avec une température de surface de -60 °C et des max à -5°C les matériaux ne sont pas à la fête.

D’autant que sur ces véhicules, un des objectifs principaux à la conception est de limiter le poids donc le choix des matériaux est fait en fonction de la durée de vie espérée : initialement un peu moins de 700 jours terrestres, Sachant qu’il est au sol depuis Aout 2012…





Le seul argument que je trouve recevable est celui de la masse. Et en lisant l’article, c’est ce qui me semble le plus convaincant : “There were several factors that drove them to design the wheels to be as lightweight as possible.”

D’ailleurs, il semble que les conditions dans lesquelles Curiosity a évolué sont différentes de celles qu’ils ont eu avec les missions précédentes.



La durée de la mission, c’est pas recevable pour moi. On sait tous comment ces missions sont faites : une durée initiale (les 700 jours), mais ça doit fonctionner bien plus longtemps. La plupart des missions spatiales durent plusieurs fois la durée initiale. Je suis à peu près certains que les durées initiales ne correspondent qu’au budget initial pour maintenir la mission active.


Le 23/03/2017 à 09h 49

C’est une interrogation que j’ai aussi. Qu’est-ce qui justifie cette fragilité ?

Le 22/03/2017 à 16h 22

Là, un peu plus de 600€ pour CPU, CM et ventirad. J’en profite d’avoir un i5 6500 pour pouvoir utiliser sa RAM (2x8Go), autrement, j’aurai patienté encore. L’objectif est de passer à 32Go par la suite et de revendre le i5 (avec CM et RAM) à un pote derrière, donc ça réduira un peu l’investissement. <img data-src=" />

Le 22/03/2017 à 15h 57







domFreedom a écrit :



<img data-src=" /> Toi aussi t’as vu le 1700X à 370 balles ?

Au début j’ai cru à une erreur, ce devait être le 1700 non X : et bin non ! C’était bien le X ! <img data-src=" />



:nepascraquer: :nepascraquer: <img data-src=" /> <img data-src=" />





Exactement <img data-src=" />

J’étais déjà hésitant avant, alors à ce prix là, c’était pas possible de résister. J’ai la CM et le ventirad, me manque plus que le petit pour tout monter.