votre avatar

Strimy

est avec nous depuis le 8 octobre 2006 ❤️

Bio

Oups.
On dirait que quelqu'un ici aime garder ses petits secrets, comme si de par hasard il y avait quelque chose à cacher...
Désolé, ô lectrice de passage, cher lecteur égaré, pas de révélation sensationnelle pour le moment sur ce profil.
Repassez plus tard ?

1062 commentaires

EFI vulnérables dans les Mac : quand l'intégration verticale ne fait pas tout

Le 05/10/2017 à 10h 29

Mais ce sont des technologies qui tournent à des niveaux de privilèges supérieurs aux autres rings. Les hyperviseurs tournent bien en dessous des machines virtuelles, et peuvent altérer le fonctionnement des VM qui sont en Ring 0, d’où cette numérotation négative. D’autant plus qu’ils sont complètement invisibles pour les ring supérieur.

Si Intel ou Amd n’ont pas nommé ça comme ça, ça fait plus de 10 ans que les spécialistes appellent déjà “Ring -1” les instructions de virtualisations.


Le 05/10/2017 à 08h 12

Avec ce genre de merdes :https://en.wikipedia.org/wiki/Intel_Active_Management_Technology#Ring_-3_rootkit

Et on considère qu’un hyperviseur qui fait tourner des noyaux en Ring 0 se situe en Ring -1


.NET Core 2.0 : vague de fond sur le développement multiplateforme chez Microsoft

Le 22/09/2017 à 15h 50

Une application mal codée, quel que soit le langage, elle sera pourrie (et d’autant plus dans un langage natif j’ai envie de dire).
La plupart des problèmes de perfs viennent du code plus que du langage. Il n’y a bien que dans des cas particuliers que le code natif a encore du sens, et il ne sert à rien de prendre 3 fois plus de temps à développer une appli en C++ quand on peut faire la même chose en C#/Java/…

S’il est vrai que la gestion de la mémoire est importante, c’est bien là que les langages managés sont bien plus intéressants. Il est beaucoup plus facile de détecter les fuites de mémoires et les corriger que dans du code natif.
On notera d’ailleurs que .Net Core a amélioré beaucoup de choses sur la conso de certaines classes de base, notamment pour limiter le nombre d’allocations et réduire les cycles du garbage collector (voir ici :https://blogs.msdn.microsoft.com/dotnet/2017/06/07/performance-improvements-in-n… ).


Bitcoin Cash : un fork controversé pour fluidifier les transactions

Le 01/08/2017 à 13h 49

Mais la blockchain BTC et BCC sont identiques jusqu’au fork. Donc toutes les transactions qui ont été faites en BTC sont des transactions qui existent dans la blockchain BCC jusqu’au moment du fork. C’est pour cette raison que tu obtiens la même quantité de BCC que tu avais de BTC.


Le 01/08/2017 à 13h 39

Le programme n’a pas d’importance. Les comptes sont stockés dans la blockchain, et il te faut la clé de chiffrement pour accéder à son contenu (quand je dis accéder, c’est pouvoir faire des transactions avec).
Avec le fork, ton compte existe dans les deux blockchain et la clé reste forcément la même (tout comme ton adresse).
C’est juste toi (à travers le logiciel ou le site web) qui décide sur quelle blockchain tu fais tes opérations avec ta clé.


Le 01/08/2017 à 13h 21

Non, un wallet c’est juste une clé. Les clés pour BTC et BCC sont identiques. Si t’avais 1BTC avec ton wallet, tu auras 1BCC si tu ouvres ton wallet avec la blockchain du BCC.


CoinDash : 7,3 millions d'euros d'Ether volés lors d'une ICO

Le 18/07/2017 à 20h 20






neojack a écrit :

Dans le cas présent, il est probable que l’adresse soit une adresse “classique”, sans délai de “gel”des fonds. donc les fonds sont surement déjà partis dans d’autres comptes puis transférés en bitcoin / monero ou autre. dans ce cas c’est intraçable.


Oh non, y a même le lien dans l’article vers l’adresse du compte et les ETH sont toujours présents :https://etherscan.io/address/0x6a164122d5cf7c840D26e829b46dCc4ED6C0ae48



Le 18/07/2017 à 15h 05

Ca pourrait être un gros troll aussi. Mettre une adresse complètement random et rendre les ETH inaccessible à tout jamais.


Windows 10 Server intègre le programme Insider, la version Mobile dans le brouillard

Le 17/07/2017 à 11h 24

J’ai souvenir que Windows Phone était sur une pente montante. Les ventes augmentaient quand Nokia avaient des modèles pour toutes les gammes, notamment à l’époque de WP8 et 8.1.
En France, les ventes de Windows Phone ont été presque équivalentes à celles des iPhone (plus de 12% dans mes souvenirs). C’est loin d’être ridicule et sur le long terme, ça laissait une belle part de marché s’instaurer. Tout s’est arrêté quand il n’y a plus eu de nouveautés.
Avec le matraquage marketing de Nokia de l’époque, il y avait de la place pour Windows Phone. Aujourd’hui, il faudra une sacré révolution pour y retourner.

Pour tout le reste, je suis d’accord avec toi. Et je trouve d’autant plus regrettable que Microsoft a enfin une plateforme de développement unifiée alors qu’il n’y a plus d’intérêt à développer pour mobile…


Le 17/07/2017 à 09h 19

Merci Nadella d’avoir tué tous les efforts de Ballmer alors que Windows Phone était sur une bonne pente !


Windows 10 va (enfin) limiter la bande passante réservée aux mises à jour

Le 10/07/2017 à 12h 44

J’ai tellement ri quand Dona Sarkar qui gère le programme Insider a commencé à se rendre compte que leur système était pourri parce qu’ils ont eu des problèmes au Nigeria (yay :https://twitter.com/donasarkar/status/820684232796184577 )

Ca montre l’amateurisme dans le développement de Windows 10…


#LeBrief : RMLL, retour du Galaxy Note7, Vivendi contrôle Havas, Facebook mise sur le Wi-Fi gratuit

Le 03/07/2017 à 09h 37






Charly32 a écrit :

Peu de chance que ce modèle fasse des étincelles, vu le TDP de la bête. Tout au mieux on aura un meilleur rapport perf/prix que chez les verts, mais avec 1 an de retard :/


Clairement, Vega ne semble pas faire de miracles <img data-src=" />
Evidemment, il faudra attendre la version “gamer” et voir ce que ça donne. Certaines analyses semblent quand même montrer que de nombreuses améliorations apportées par Vega ne sont toujours pas intégrées au driver, entre autre le “Tiled Rasterization”.
Il faudra voir si c’est vraiment le cas, et le gain de performances que ça peut apporter. Les résultats actuels sont clairement surprenants : aucune amélioration sur l’IPC.
Bref, comme souvent, AMD se plante sur la comm, d’autant plus que le produit semble faire bonne concurrence aux cartes Pro de Nvidia dans le domaine cible.
Encore un mois à attendre et voir si c’est juste un problème de drivers/cible du produit (mais normalement, il n’y a pas tant de différence de perfs), ou si Vega est un échec.
Je sens que je suis pas près de changer de GPU… J’aurai du me prendre un RX480 tant qu’il était encore temps <img data-src=" />



P106-100, Mining edition : NVIDIA et AMD officialisent leurs solutions pour crypto-monnaies

Le 27/06/2017 à 23h 56

Le GridCoin et le FoldingCoin sont intéressants pour ça. Ils consistent à participer à des projets de recherche à travers Boinc ou Folding@Home.
J’ai commencé à m’intéresser au GridCoin mais c’est assez repoussant et long à mettre en place, sans retour rapide et simple sur ce qu’on génère.


Le 27/06/2017 à 17h 56

Je pense que personne ne sait vraiment <img data-src=" />


Le 27/06/2017 à 17h 30

0.5 pour ma part…
Quand tu commences à penser que le crash est passé, en fait il est pas encore arrivé <img data-src=" />


Le 27/06/2017 à 16h 27






PtiDidi a écrit :

Ca dépend ce que tu appelles “étude de coût” mais dans les commentaires d’une news il y a quelques semaines, quelqu’un avait écrit miner pour 100€ d’Ether/mois en ne conssommant “que” 100W  avec une CG à 300€ je crois.
Donc rentabilisé en 4mois


On était dans ces eaux là il y a quelques mois en effet.
De mon côté, j’avais annoncé faire environ 100€ par mois pour 130W de conso GPU pour Ethereum + Pascal (et le CPU qui mine du Ryzen), avec une R9 380. Mais l’augmentation de la difficulté a fortement fait tombé la rentabilité immédiate : 2x moins d’ETH, de PASC et de XMR par mois prévus, et qui ne sont pas aidés par la chute de la valeur.
Donc c’était largement rentable il y a quelques mois, ça devient plus difficile aujourd’hui avec ma config, l’inconnue étant de savoir si l’évolution des cours fait que ce que je mine aujourd’hui devient intéressant dans l’avenir.


Mais n’allez pas penser qu’il s’agit ici de modèles avec une architecture spécifique ou affichant des caractéristiques qui permettent de gagner en performance à ce niveau. On retrouve en fait des modèles classiques mais considérés comme idéales pour cette activité dont la seule différence se situe au niveau de l’absence de sorties vidéo.

Ce n’est pas ce que j’ai compris. Il me semble qu’il y a plus de différences que la simple suppression des sorties vidéos. Les RX480/470/580/570 deviennent plus intéressantes pour l’Ethereum en ayant des bios modifiés qui adaptent les timings de la VRAM. Je vois bien les constructeurs appliquer ces changements à la construction pour éviter d’avoir à faire la modif soi même. D’autant plus que certains types de mémoires sont plus efficaces (d’où le fait que certaines cartes sont identifiées avec de la RAM Samsung).



Très haut débit : Emmanuel Macron fustige une promesse du « 100 % fibre » qui n'existe pas

Le 14/06/2017 à 15h 58






OlivierJ a écrit :

Je vais passer pour un gros ignare mais j’ignorais qu’on posait de la fibre en aérien. <img data-src=" />
Ta ville a combien d’habitants et dans quel département ?


A Toulouse, on voit quelques fibres posées en aérien, identifiable facilement par le label vert attaché au poteau.

(Mais une grosse partie doit passer en sous terrain vu le nombre de tracé vert au sol qui sont fait partout ces derniers temps <img data-src=" /> )



G-Sync, FreeSync, HDR : les écrans pour joueurs de 24,5 à 35 pouces ont la cote au Computex

Le 13/06/2017 à 10h 16

Mais c’est la carte graphique qui manipule la fréquence de l’écran pour qu’il affiche l’image le plus tôt possible. L’écran peut passer de 60 à 140Hz en fonction de ce que la carte graphique lui fournit.


Le 13/06/2017 à 09h 13






Sheepux a écrit :

Pour avoir connu les bon vieux CRT, au delà de 90Hz quasi personne ne détecte le refresh (ne pas confondre un simple stimuli et une image, on est pas dans le même processus au niveau du cerveau). J’étais capable de différencier facillement du 70 et du 80 (bonne vue).
Un point important qui différencie le CRT et nos écrans c’est que le refresh est bien moins violent qu’à l’époque où s’en était gênant . Ainsi 60Fps égale à 80 de l’époque.


Oui et non. Je parlais du cas d’un flash pour montrer qu’il n’y a pas de limite précise. Si ton cerveau/oeil est capable de percevoir un certain stimuli d’1/1000s, c’est qu’il y a bien une différence. Augmenter le framerate au delà de 100Hz n’est clairement pas quelque chose de “visible”, mais c’est perceptible, et ton cerveau s’y habitue très bien.



Sheepux a écrit :

Pour en revenir à l’exemple, je ne suis pas d’accord avec ton affirmation que “l’écran peut attendre”, l’écran ne sait pas attendre, il traite à une certaine fréquence. Il peut choisir de ne pas traiter à un moment T car il n’y a rien de disponible pour être disponible à T+1. Très souvent sur des écran 200hz, il lui faut 2 tic pour traiter l’affichage de l’image mais il peut en passer 1 (ou plus) tant que rien n ‘est à faire.


Bah non, c’est le principe du FreeSync/GSync que d’afficher une image quand elle est disponible et non plus sur un rafraîchissement fixe. Avec ce genre de technologie, ce n’est plus l’écran qui dit quand il affiche les images, mais la carte graphique qui dit à l’écran qu’il doit se rafraîchir.



Le 12/06/2017 à 18h 05






ElMarcassin a écrit :

Tiens, quelqu’un à une idée de la raison des différences de prix significatives entre un écran Gsync et un écran freesync ? Une techno plus “aboutie” que l’autre ou on paie simplement le logo Nvidia ?


GSync est une technologie propriétaire Nvidia et demande l’ajout d’un module (à l’époque, ça a peut être changé). Donc tu payes la technologie de Nvidia.
FreeSync s’appuie sur les standards du DisplayPort et est donc totalement “gratuit” (hors besoin matériel pour l’écran). Ca a été un peu laborieux du coup pour cette technologie puisque les fabricants avaient pas mal de libertés sur l’intégration (ça a donné des écrans FreeSync qui ne pouvaient fonctionner que dans des plages de fréquence restreintes ou qui géraient mal les bas framerate). AMD semble avoir repris les choses en main pour FreeSync 2 en imposant règles plus strictes.



Le 12/06/2017 à 17h 38






Sheepux a écrit :

Le PC ne cherchera pas à afficher plus de 60Fps (inutile pour l’œil humain).


L’oeil humain peut percevoir bien plus que 60 FPS. On est capable de percevoir des flashs lumineux d’une très courte durée (1/1000s), donc à 60 fps, on est très loin la limite.

60 est juste une fréquence où la sensation de fluidité commence à être vraiment correct. Mais n’importe quel joueur utilisant des écrans 144Hz sait qu’il y a une nette différence sur des jeux très vifs.

Et le GSync/FreeSync, ce n’est pas seulement avoir une fréquence élevé, d’ailleurs ce n’est pas lié. On trouve du FreeSync à 60Hz. Le but réel est de synchroniser l’écran avec la carte graphique et non plus l’inverse (VSync). En somme, l’écran affiche l’image dès qu’elle est disponible et n’est plus sur une fréquence fixe pour se mettre à jour.

Dans ton exemple, si l’écran peut au mieux afficher 1FPS, il sera aussi capable d’attendre un peu plus que l’image arrive pour faire son rafraîchissement (genre baisser à 1,1 FPS), et donc baisser sa fréquence pour effectivement afficher l’image à 1,1s.



Xbox One X : 499 euros pour « la plus compacte et la plus puissante des Xbox »

Le 13/06/2017 à 07h 29

Juste comme ça, quand Microsoft a annoncé la S, ils ont aussi annoncé la Scorpio beaucoup plus puissante qui sortirai un an plus tard.


Bitcoin perd du terrain sur Ethereum, estime une étude de Coindesk sur les blockchains

Le 09/06/2017 à 07h 28

H24 oui (je coupe juste le minage quand j’utilise mon ordi). Pour moi, si y’a coupure de courant, le PC reste éteint, mais j’imagine que certains ont onduleurs + le redémarrage au retour du courant <img data-src=" />

Des tutos, t’en trouves plein, mais il n’y a rien de bien complexe en fait. Il te faut trouver un pool pour la monnaie que tu veux miner (comme déjà dit, je sais tout sur nanopool.org), et il y a généralement les explications dans la page FAQ et Help.


Le 08/06/2017 à 11h 12

Non, là je ne retire pas. Je stocke mes XMR et ETH. Il y a juste les Sia ou les Pascal que j’ai miné en parallèle des ETH (en dual mining) que je m’amuse à échanger sur Poloniex.

Niveau conso électrique, j’ai pas mesuré précisément mais d’après le monitoring, je dois être en dessous de 250W sur la config totale, donc environ 22€ par mois.






cacadenez a écrit :

Pareil, j’avais miné du Doge :)
Le gros problème, mais je n’ai peut-être pas compris ou pris la bonne pool, c’est qu’on ne gagne rien tant que l’on a pas terminé un block ensemble. Bref, je n’ai jamais rien gagné :) Mais c’était pour le fun plus que pour les gains (déjà à l’époque, il fallait autre chose que mon pauvre GPU).


Ca dépend des pool. Certains payent au share, donc tu peux avoir ta récompense sans qu’un block soit trouvé, d’autres partagent le block au prorata du nombre de Share. Mais souvent, il faut atteindre une certaine somme pour pouvoir récupérer ce qu’on a miné. Par exemple, je fais tout sur nanopool et je dois atteindre 0.2ETH pour pouvoir le récupérer sur mon wallet.
J’avais aussi miné quelques DOGE il y a quelques années, mais je crois que j’avais tout revendu. Faudrait que je réouvre mon wallet.



Le 08/06/2017 à 09h 12

Tu peux miner avec un CPU sur tout ce qui est CryptoNote, notamment le Monero. Mais il faut un processeur ayant un gros cache L3 pour avoir de bonnes perfs. La formule est globalement de démarrer autant de thread que la taille du L3/2.

Pour le coup, Ryzen donne des résultats corrects avec ses 16Mo (donc 8 threads) de L3 (je suis à 550H/s avec un 1700X à 3,65Ghz) tout en ayant une conso relativement correctes (aux alentours de 50W pour le SoC avec un petit undervolting). Mais il faut pas s’attendre à des revenus extravagants, au cours actuel, ça fait ~50€ par mois sur du Monero.

Pour l’Ethereum, je mine avec une R9 380 qui me fait 20-21MH/s, undervolté au possible (0,975V) pour une conso de 130W. Là les gains prévus sont d’environ 100€ par mois.






Ellierys a écrit :

3/ Plus-values/gains issus du minage -&gt; Bénéfices non-commerciaux sur ta déclaration de revenus si mes souvenirs sont bons.

Merci, je me posais aussi la question.



Applications mobiles : « Nous sommes des enfants gâtés de l’espace de stockage »

Le 05/06/2017 à 11h 38

Sur Windows Mobile, on peut rajouter 80Mo pour Osmeta qui sert de wrapper à l’application Facebook d’iOS <img data-src=" />


CPU-Z passe à la version 1.79 et revoit son benchmark trop favorable à Ryzen

Le 04/05/2017 à 16h 49

Je vois pas en quoi la news te fait penser ça.


Le 04/05/2017 à 09h 16

Je sais pas d’où tu sors tes résultats, mais j’obtiens globalement la même chose qu’eux avec de la RAM à 2666 sur un 1700X.


Orange, Sosh : dès  le 18 mai, utilisez votre forfait « en Europe exactement comme en France »

Le 04/05/2017 à 14h 49

Avec le fonctionnement intégralement en IP de la 4G, ça ne doit pas couter grand chose.
Par contre, avec les technos circuit-switched, je ne suis pas aussi confiant.

Il y a certainement une période où les interconnexions inter-opérateurs devaient être très couteuses, ou très restreintes (d’où un cout élevé pour limiter).


En confiance face aux Ryzen d'AMD, Intel annonce un trimestre record

Le 28/04/2017 à 13h 20

Je pense pouvoir dire avec quasi certitude qu’Intel ne fait pas son chiffre sur les personnes qui montent leur PC eux mêmes, mais plutôt chez les OEM.
C’est là qu’AMD doit arriver à se positionner pour reprendre des parts de marché. Les problèmes de compatibilité ne le concernent pas réellement puisqu’ils feront le choix d’un ensemble qui fonctionne. Sans compter que ces problèmes sont surtout présents en cas d’overclocking.


Patch et colère autour d’un Windows 7 figé sur des machines Kaby Lake ou Ryzen

Le 27/04/2017 à 07h 50

Quand tu migres la licence, il te demande à quel PC elle était lié avant.


Windows 10 Mobile : la Creators Update un peu en retard, un avenir incertain

Le 26/04/2017 à 16h 20

Soyons honnête, la Creators Update n’apporte de toute façon strictement que dalle sur Mobile (à part 3 merdouilles sur Continuum). Par contre, niveau fiabilité, c’est la dégringolade.
J’ai régulièrement Orange Cash qui me dit qu’il y a une erreur sim, la boussole qui cesse de fonctionner (peu importe l’application), Spotify qui me dit le service audio ne peut pas démarrer,… Et tout ces problèmes obligent à redémarrer le téléphone pour être réglés.

Bref, une catastrophe sur mon 950, d’autant plus que ces problèmes sont pour la plupart présents depuis plusieurs mois.

Alors franchement, qu’ils s’arrêtent à faire des mises à jours qui ne servent à rien… Merci Satya !






Vanilys a écrit :

(j’aime sa “philosophie” différente de iOS et Android).


C’était valable pour WP7 et 8, mais depuis 8.1, les changements vont dans les retours au classique, et sur 10 il ne reste plus rien de la qualité ergonomique de Windows Phone (et c’est une horreur <img data-src=" /> ).



Boeing présente Deep Space Gateway, un concept de base avancée pour l'exploration spatiale

Le 05/04/2017 à 18h 42

Est-ce que la Lune est réellement plus abordable que Mars ? Honnêtement, je ne pense pas avoir les données pour juger. Comme toi, je serai largement tenté par dire oui vu la distance qui nous sépare (quelques jours contre quelques mois).

Il reste que les conditions de vies seront assez différentes : pas d’atmosphère, sujets aux radiations solaires de manière plus importantes, météorites, gravité plus faible,…

Si un pépin devait arriver, de quelle nature serait-il, et est-ce que ce serait plus simple sur la Lune que sur Mars ?


Le 05/04/2017 à 13h 35

https://www.nasa.gov/nextstep
C’est Partnerships en fait


OpenShot 2.3, une nouvelle version majeure avec outil de transformation et mode rasoir

Le 04/04/2017 à 12h 35

Ca fait un moment que je cherche de quoi remplacer Movie Maker, faudra que je teste ça la prochaine fois que je veux monter une vidéo <img data-src=" />


Creators Update : le 25 avril pour Windows 10 Mobile, l'outil de migration PC reviendra le 5 avril

Le 31/03/2017 à 09h 49

J’ai abandonné les versions Insiders sur mon 950 à cause de la qualité médiocre des builds précédentes, et je constate que ça ne s’arrange pas… C’est d’autant plus rageant que la version Mobile n’a reçu presque aucun ajout intéressant sur RS2. Si on n’utilise pas Continuum, je pense même pouvoir dire que cette version n’apporte rien que des bugs supplémentaires à un OS qui n’est déjà pas exceptionnel niveau qualité/stabilité…


Réussite « historique » pour SpaceX qui recycle un premier étage et le récupère de nouveau

Le 31/03/2017 à 08h 42

Pas si simple. Peu de moteurs fonctionnent au LH2. Les Merlin 1D qui équipent la F9 brulent un dérivé du Kérosène https://en.wikipedia.org/wiki/RP-1 ).
Ariane 5 a par contre du LH2 sur le moteur principal (mais accompagné des EAP qui doivent pas être très propre eux), et aussi sur le second étage pour la version ECA.


3DMark permet désormais de tester les performances de votre machine avec Vulkan

Le 24/03/2017 à 12h 54

Petite question qui peut paraitre stupide, les tests sont réalisés dans quel ordre ? Est-ce qu’il est possible que les Turbo des CPU et GPU puissent affecter les résultats des tests avec un handicap pour le dernier à être lancé ?


Le 24/03/2017 à 08h 15

Oui, je me suis emporté au départ (d’où l’inconsistance dans mon message que j’ai repris <img data-src=" /> ). Le point est quand même là, tu peux te permettre de faire plus de draw calls qu’avant. Tu noteras quand même que dans le bench on tape des millions de draw calls, ce qui n’est pas représentatif de la réalité <img data-src=" />
Généralement, on est plutôt dans les 10000 max, et on a d’ailleurs vu que les jeux consoles explosaient largement ce nombre (comme Assassin’s creed Unity qui en fait 50000 mettant à mal DirectX11 sur PC)


Le 23/03/2017 à 16h 21

<img data-src=" />
Bien entendu. Je n’ai jamais écris de code en Dx12/Vulkan, mais j’imagine bien qu’il y a des nouveautés intéressantes qui ne demande qu’à être exploitée.
Mon point était surtout que Dx12/Vulkan enlève des contraintes pour optimiser les perfs (en contrepartie, j’ai l’impression que ces API laissent plus facilement le développeur faire n’importe quoi).


Le 23/03/2017 à 15h 56

Un draw calls correspond à une demande au GPU de dessiner. Cette opération prend du temps au CPU selon les API.

Sur Dx11, un draw call est relativement couteux, ce qui fait que les développeurs essaient d’en faire le moins possible en mettant en commun le maximum d’opérations possibles (dessiner tous les objets ayant la même texture en un seul draw call par exemple).
Là où Vulkan et Dx12 sont intéressants, c’est que le cout d’un draw call est fortement réduit.

Donc le bench ne compare pas les performances de Dx11 avec Dx12/Vulkan, il compare juste le cout du draw call. On peut en déduire qu’un draw call coute 21x moins sur Dx12 que sur Dx11 (c’est pas aussi simple, mais ça donne une idée).

Classiquement, si tu dois dessiner 20 fois le même object, sur Dx11, tu vas préparer le GPU pour qu’il dessine les 20000 objets en une seule fois. Sur Dx12/Vulkan, tu peux te permettre de dessiner chaque objet individuellement parce que ça te coutera pas plus cher.

Donc ce n’est pas nécessairement que tu peux afficher plus d’objets, mais il te faut être beaucoup plus malin sur Dx11 quand tu construit tes commandes à envoyer au GPU. Sans compter les cas où tu devras quand même séparer les draw calls.


Bug FMA3 des processeurs Ryzen : AMD promet un correctif sans donner de détails

Le 23/03/2017 à 11h 16

Tu penses pas plutôt au Phenom et le bug du TLB ? Je suis pas sûr qu’on soit pas le même cas quand même. Comme dit RinDman, en augmentant la tension, le problème semble disparaitre.


Sur Mars, une des roues de Curiosity montre de nouveaux signes d'usure

Le 23/03/2017 à 10h 54






PtaH a écrit :

Ca aussi tu l’as pris pour de l’humour?

“ils auraient du tester en australie, je pense que dans le désert ça doit être proche” ?

C’est cette phrase surtout qui m’a fait réagir moi.
Après si tu t’es immédiatement senti visé, au point de me dire que personne n’a rien remit en cause, ni n’a dit “qu’ils auraient du faire telle ou telle chose” je n’y peux rien.


Tu noteras que ce commentaire est arrivé après mon premier commentaire, et je n’y avais pas prêter spécialement attention. Donc, oui si tu veux, il y a un commentaire qui dénigre le travail de la NASA.

Et je me suis pas senti spécifiquement visé, mais au moment, où j’ai lu ton commentaire, j’avais largement plus l’impression que ta remarque portait sur l’ensemble (ou plusieurs en tout cas) des commentaires précédents (dont le mien), alors qu’au final, tu sembles dire qu’il n’y en a qu’un seul qui t’a fait réagir.

Enfin bon, pardon si je me suis un emporté par une certaine incompréhension entre nous.



Le 23/03/2017 à 10h 42

Honnêtement, j’ai plus pris le coup de la Lada comme une blague que pour un commentaire sérieux.






PtaH a écrit :

Quand a mon absence de curiosité, plutot que de simplement venir dire ici :
“C’est trop bizarre leur truc, ca a aucun sens, ici on est capable de mieux” en attendant que les informations te tombent par magie dans le bec ouvert, je suis allé par moi même faire quelques recherches sur le site de la NASA par exemple.
donc niveau complaisance, on repassera ;)


Oui, je peux aller faire mes recherches (ce que je fais généralement, et ce que j’aurai certainement fait si je n’avais pas eu de réponses ici). Maintenant, si tu veux, on peut tous arrêter de commenter et rester chacun dans son coin. Je préfère largement échanger avec des personnes qui s’intéressent au sujet et partager ce que je connais. Et quand je vois que d’autres ont apprécié le lien de floop, je ne pense pas me tromper en disant que je ne suis pas le seul dans ce cas là.



Le 23/03/2017 à 10h 37

Je suis complètement d’accord de critiquer quand quelqu’un arrive avec des remarques du genre “ils auraient du faire ça comme ça”. Mais là, c’est juste une critique gratuite et idiote de PtaH qui déforme totalement les commentaires précédents qui étaient uniquement des interrogations. Et ça a un peu le don de m’énerver que de considérer comme un con quelqu’un qui essaie de comprendre.

Au moins, quand je lis “We misunderstood what Mars was” puis “ They designed Curiosity to handle all the challenges that Spirit and Opportunity had experienced, especially sand”, je saisis un peu plus le problème qu’une remarque “nan mais c’est la NASA, ils savent ce qu’ils font” (ce que je ne remets pas en cause).


Le 23/03/2017 à 10h 24

Je n’ai vu personne ici remettre en cause le boulot de la NASA…

Si tu te complais dans ton absence de curiosité ( <img data-src=" /> ), grand bien te fasse. En attendant, moi j’aime comprendre les raisons : que ce soit des choix techniques assumés, des contraintes particulières, des erreurs de conceptions ou une réalité différente de ce qui est prévu.

D’où le fait que j’ai fortement apprécié l’article que floop m’a proposé.


Le 23/03/2017 à 10h 11

Merci, je m’en vais lire ça.






dodo021 a écrit :

Surement le sable (les tempêtes ?) et les conditions dans lequel le rover a été pendant toutes ces années (changement de température, radiation, etc)
Et il ne faut pas oublier que le rover à la taille d’une voiture et pèse presque une tonne. Donc avec des roue solide comme ça, ça n’aide pas je pense.


Mouais, je ne suis pas convaincu.



eres a écrit :

Avec une température de surface de -60 °C et des max à -5°C les matériaux ne sont pas à la fête.
D’autant que sur ces véhicules, un des objectifs principaux à la conception est de limiter le poids donc le choix des matériaux est fait en fonction de la durée de vie espérée : initialement un peu moins de 700 jours terrestres, Sachant qu’il est au sol depuis Aout 2012…


Le seul argument que je trouve recevable est celui de la masse. Et en lisant l’article, c’est ce qui me semble le plus convaincant : “There were several factors that drove them to design the wheels to be as lightweight as possible.”
D’ailleurs, il semble que les conditions dans lesquelles Curiosity a évolué sont différentes de celles qu’ils ont eu avec les missions précédentes.

La durée de la mission, c’est pas recevable pour moi. On sait tous comment ces missions sont faites : une durée initiale (les 700 jours), mais ça doit fonctionner bien plus longtemps. La plupart des missions spatiales durent plusieurs fois la durée initiale. Je suis à peu près certains que les durées initiales ne correspondent qu’au budget initial pour maintenir la mission active.



Le 23/03/2017 à 09h 49

C’est une interrogation que j’ai aussi. Qu’est-ce qui justifie cette fragilité ?


Ryzen 7 1700 et chipset B350 : cap sur les 4 GHz

Le 22/03/2017 à 16h 22

Là, un peu plus de 600€ pour CPU, CM et ventirad. J’en profite d’avoir un i5 6500 pour pouvoir utiliser sa RAM (2x8Go), autrement, j’aurai patienté encore. L’objectif est de passer à 32Go par la suite et de revendre le i5 (avec CM et RAM) à un pote derrière, donc ça réduira un peu l’investissement. <img data-src=" />


Le 22/03/2017 à 15h 57






domFreedom a écrit :

<img data-src=" /> Toi aussi t’as vu le 1700X à 370 balles ?
Au début j’ai cru à une erreur, ce devait être le 1700 non X : et bin non ! C’était bien le X ! <img data-src=" />

:nepascraquer: :nepascraquer: <img data-src=" /> <img data-src=" />


Exactement <img data-src=" />
J’étais déjà hésitant avant, alors à ce prix là, c’était pas possible de résister. J’ai la CM et le ventirad, me manque plus que le petit pour tout monter.