J'ai branché ma Freebox Pop Server sur une prise wattmètre l'autre jour et ça m'indiquant 10W. C'est pas génial mais ça reste raisonnable je trouve ...
En effet, ça ne vaut pas mieux qu’une vue d’artiste…
Ouais enfin, vous exagérez un petit peu non ? De toute façon on a ici des observations incomplètes qui ne peuvent pas mener à une image directement. On doit donc utiliser des à priori sur l’image à obtenir pour trouver celle qui colle le mieux aux observations, c’est un problème de reconstruction (par exemple en photographie, en acoustique, en imagerie médicale, etc). Le “mieux” à minimiser est une fonction coût qui contient l’écart entre les observations réelles et celles qu’auraient générées les données reconstruites, et exprime aussi une proximité avec des propriétés attendues (les “à priori”, comme une image “régulière”, des applats de couleur, des bords de longueurs minimales, des valeurs positives, …) à travers des termes de régularisation.
Comme expliqué dans l’introduction de l’article, l’image précédente utilisait déjà ce genre d’à priori : “maximize entropy, minimize gradients, require positivity, and/or prefer compact sources, in order to fill the regions of the Fourier domain where there are no data” mais avait l’avantage (ou l’inconvénient) de ne pas être basé sur un modèle physique du phénomène observé. Du coup, le fait de toute de même reconstruire un anneau était apparemment très important.
Ici, ils rajoutent de la physique en se basant sur des visualisations numériques basées sur le modèle physique le plus approprié pour un trou noir et ils font des analyses statistiques (analyse par composantes principales et co. je ne suis pas d’ailleurs convaincu que le terme d’IA soit approprié pour ce genre de méthodes) pour générer une base des propriétés de ces images, et cherchent ensuite la combinaison de ces propriétés qui permettent le mieux de reproduire les signaux observés.
Je suppose que le fait qu’ils arrivent à plutôt bien coller aux observations indique au moins que le modèle physique n’est pas à côté de la plaque et, en considérant le modèle adapté, ils peuvent utiliser l’image reconstruite pour mesurer certaines paramètres physique du phénomène.
Du coup, ça me paraît tout de même plus exploitable qu’une simple vue d’artiste (troll mis à part) …
(quote:52521:brice.wernet) Dans la majorité des tests “courant” (applis office, web, jeux, encodage), le 5600x surpasse le 3700x. Si tu fais du raytracing, le 3700x est mieux. Je n’ai pas vu de bench “compilation”.
Oui j’ai vu ça ! Ce qui est d’autant plus dommage, c’est que pour un même chipset (X570) et un même fabricant (Asus), il y ait des cartes mères sans et avec le BIOS FlashBack …
Le
22/10/2020 à
18h
39
Ok merci, je vais croiser les doigts quand même (c’est ça aussi de profiter de réductions sans savoir si on va prendre du Ryzen 3000 ou 5000 …) :p
Le
22/10/2020 à
15h
50
D’ailleurs, est-ce que l’on sait si AMD va proposer des boot kits si la carte mère reçue n’as pas son bios à jour (et qu’on n’a pas de Ryzen 3000 à disposition), comme pour le passage au Ryzen 3000 ?
13 commentaires
Free confirme la fuite des « IBAN de certains abonnés »
28/10/2024
Le 28/10/2024 à 09h 49
J'ai également reçu ce nouveau mail ce matin ...Une analyse (très) détaillée du hardware de la Freebox Ultra par Deus Ex Silicium
18/04/2024
Le 18/04/2024 à 10h 24
L’image plus nette du trou noir de la galaxie M87
20/04/2023
Le 20/04/2023 à 11h 08
Ouais enfin, vous exagérez un petit peu non ? De toute façon on a ici des observations incomplètes qui ne peuvent pas mener à une image directement. On doit donc utiliser des à priori sur l’image à obtenir pour trouver celle qui colle le mieux aux observations, c’est un problème de reconstruction (par exemple en photographie, en acoustique, en imagerie médicale, etc). Le “mieux” à minimiser est une fonction coût qui contient l’écart entre les observations réelles et celles qu’auraient générées les données reconstruites, et exprime aussi une proximité avec des propriétés attendues (les “à priori”, comme une image “régulière”, des applats de couleur, des bords de longueurs minimales, des valeurs positives, …) à travers des termes de régularisation.
Comme expliqué dans l’introduction de l’article, l’image précédente utilisait déjà ce genre d’à priori : “maximize entropy, minimize gradients, require positivity, and/or prefer compact sources, in order to fill the regions of the Fourier domain where there are no data” mais avait l’avantage (ou l’inconvénient) de ne pas être basé sur un modèle physique du phénomène observé. Du coup, le fait de toute de même reconstruire un anneau était apparemment très important.
Ici, ils rajoutent de la physique en se basant sur des visualisations numériques basées sur le modèle physique le plus approprié pour un trou noir et ils font des analyses statistiques (analyse par composantes principales et co. je ne suis pas d’ailleurs convaincu que le terme d’IA soit approprié pour ce genre de méthodes) pour générer une base des propriétés de ces images, et cherchent ensuite la combinaison de ces propriétés qui permettent le mieux de reproduire les signaux observés.
Je suppose que le fait qu’ils arrivent à plutôt bien coller aux observations indique au moins que le modèle physique n’est pas à côté de la plaque et, en considérant le modèle adapté, ils peuvent utiliser l’image reconstruite pour mesurer certaines paramètres physique du phénomène.
Du coup, ça me paraît tout de même plus exploitable qu’une simple vue d’artiste (troll mis à part) …
Next INpact fête son 19e anniversaire et vous offre des cadeaux !
05/05/2022
Le 05/05/2022 à 13h 57
Joyeux Anniv’ et merci pour le contenu !
Concours GeForce RTX 3060 Ti : et le gagnant est…
27/09/2021
Le 16/09/2021 à 11h 08
On y croit !
Concours Next INpact de rentrée : qui sont les gagnants ?
13/09/2021
Le 06/09/2021 à 09h 22
Allez, je tente également, merci pour ce concours !
AMD propose une Radeon RX 6800 XT « Midnight Black » (indisponible)
07/04/2021
Le 07/04/2021 à 13h 33
Ha oui, j’avais pas vu que l’article avait été mis à jour
Le 07/04/2021 à 13h 10
Ils en ont profité pour augmenter (légèrement) le prix non ? C’était environ 635€ il me semble, et maintenant 663,49€ d’ailleurs
Les processeurs Ryzen 5000 (Zen 3) d’AMD sont disponibles en France, dès 315 euros
05/11/2020
Le 06/11/2020 à 08h 22
Pour de la compilation C++ avec Visual Studio, il y a ça : https://www.techpowerup.com/review/amd-ryzen-7-5800x/8.html (les nouveaux Ryzen en tête)
Support de Zen 3 : les constructeurs communiquent, ASUS annonce sa gamme B450 II
22/10/2020
Le 23/10/2020 à 07h 27
Oui j’ai vu ça ! Ce qui est d’autant plus dommage, c’est que pour un même chipset (X570) et un même fabricant (Asus), il y ait des cartes mères sans et avec le BIOS FlashBack …
Le 22/10/2020 à 18h 39
Ok merci, je vais croiser les doigts quand même (c’est ça aussi de profiter de réductions sans savoir si on va prendre du Ryzen 3000 ou 5000 …) :p
Le 22/10/2020 à 15h 50
D’ailleurs, est-ce que l’on sait si AMD va proposer des boot kits si la carte mère reçue n’as pas son bios à jour (et qu’on n’a pas de Ryzen 3000 à disposition), comme pour le passage au Ryzen 3000 ?
[MàJ] ExoMars : la sonde TGO réussit sa manœuvre, l’état de santé de Schiaparelli inquiète
19/10/2016
Le 19/10/2016 à 18h 25
Bon, de toute façon, 17 000 km/h en 2mn, ça fait environ 4G de moyenne. Le 8-10G de @KP2 correspond à l’accélération max pendant la rentrée.