Solar Orbiter : une photo du Soleil en entier, « avec des détails sans précédent »
Le 28 mars 2022 à 08h15
2 min
Sciences et espace
Sciences
L’Agence spatiale européenne explique que, « l’une des images, prise par l’Extreme Ultraviolet Imager (EUI) est celle avec la plus haute résolution du disque complet et de l’atmosphère extérieure du Soleil (la couronne) jamais prise ».
« Une autre image, capturée par l’instrument Spice (Spectral Imaging of the Coronal Environment), représente la première image solaire complète de ce type en 50 ans, et de loin la meilleure, prise à la longueur d’onde Lyman-bêta de la lumière ultraviolette émise par l’hydrogène gazeux ».
Toutes les images ont été prises alors que la sonde se trouvait à 75 millions de kilomètres, soit à mi-chemin entre la Terre et notre Soleil. Dans le cas du télescope à haute résolution de (EUI), il s’agit d’une mosaïque de 25 images. Elles sont nécessaires afin de couvrir l’ensemble du Soleil.
« L’image complète a été capturée sur une période de plus de quatre heures car chaque tuile, prise l’une après l’autre, prend environ 10 minutes […] L’image finale contient plus de 83 millions de pixels dans une grille de 9148 x 9112 pixels ».
Le 28 mars 2022 à 08h15
Commentaires (27)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 28/03/2022 à 08h21
Magnifique.
Le 28/03/2022 à 11h51
Impressionnant surement (surtout avec la terre a l’échelle a coté), mais la plus belle photo des astres proches ça se discute.
Le 28/03/2022 à 09h27
Question bête, mais je pensais que le soleil était blanc ?
Le 29/03/2022 à 07h42
En fait la lumière émise dépend des atomes présents. Essentiellement de l’Hydrogène, longueur d’onde 364,56nm donc UV (bleu = jusqu’à 400nm environ), un peu d’Hélium, 587,49 nm donc plutôt rouge orangé (“jaune brillante”, wikipedia), c’est presque tout (?). Le lien cite carbone, oxygène, néon.
La lumière telle que perçue sur terre, dépend beaucoup de la diffraction qui fait que le rouge est très dévié.
Superbe image.
Le 28/03/2022 à 09h35
Comment ça se fait qu’il faille 10 minutes pour prendre la photo d’un truc plus lumineux que tout ce qu’on peut prendre en photo ?
(tout comme en plein soleil sur terre on prend une photo au 1⁄1000 tellement c’est lumineux)
Le 28/03/2022 à 09h41
Dans les 10 minutes il y a aussi la réorientation de la sonde pour passer d’une zone à l’autre de la mosaïque.
Le 28/03/2022 à 10h03
ça paraît énorme, 10 minutes pour ça, non ?
Le 28/03/2022 à 10h08
Je suppose que pour diminuer la consommation de carburant et le besoin de correction le mouvement est très lent. Mais aucune certitude je n’ai pas vu de détail précis sur le besoin de 10 minutes. je ne sais même pas quelle est le ration mouvement / temps de pose dans ces 10 minutes.
Le 28/03/2022 à 09h36
L’image est en fausses couleurs car c’est pris dans les ultra-violets.
Le 29/03/2022 à 09h55
En même temps : “Le Soleil est une étoile jaune, de type spectral G.”
Source :
https://theta.obs-besancon.fr/lunap/Niveau1/soleiletoiles/Textes/classification.htm
Le 28/03/2022 à 11h49
Le capteur qui fonctionne sur ces longueur d’onde ne doit pas être comparable aux CMOS qu’on a dans nos appareils.
Et puis j’imagine bien un filtre énervé pour le protéger (genre ND1000 en plus compliqué).
Le 28/03/2022 à 12h01
Ce sont soit des capteurs CMOS soit CCD (chacun a des avantages). Mais sachant que les capteurs astronomiques sont faits pour capter des luminosité d’une bougie à 1000 km, tu penses bien que pour le soleil ça ne peut pas être un souci, on a un paquet d’ordres de grandeur de différence.
Probable qu’il y ait un filtre obscurcissant pour protéger aussi l’électronique, mais ça reste une luminosité énorme (en plus la sonde est 2 fois plus près donc le soleil paraît 4 fois plus lumineux).
Le 28/03/2022 à 19h56
Parce que là on image dans l’extrême UV, à 17nm, où le rayonnement solaire est extrêmement faible, et en plus on filtre de manière très étroite (tu peux voir ici que le filtre à 17.4nm fait à peu près 1nm de large), donc au final ça fait pas tant que ça de photons qui arrivent.
Le capteur a une efficacité de 80% à 17.4nm, les miroirs 90%, tu perds un peu aussi sur les différents filtres
Au final l’instrument peut faire des prises de moins d’une seconde à 15 minutes, selon ce que l’on veut observer
Le 29/03/2022 à 08h38
Merci pour ton éclairage
(si on peut dire vu le sujet :-) )
L’émission en UV lointains doit être sacrément plus faible quand même, vu la luminosité dans le visible.
Comment fait-on des filtres aussi étroits dans le domaine UV ?
Le 29/03/2022 à 18h31
Avec un miroir de Bragg, une alternance répétée de fines couches de matériaux différents
C’est également sur ce principe que sont fabriqués les miroirs dans les machines de lithographie EUV
Le 30/03/2022 à 08h24
Impressionnant la précision : “30 periods of 8.95 nm” (on peut se dire que la gravure des CPU est déjà à un peu moins que ça, mais ce filtre a dû être fabriqué il y a des années, quand on était à des finesses moins importantes).
“thick enough to guarantee temporal stability so that no additional capping layer is needed” : je suppose qu’avec des UV aussi énergétiques les matériaux ont tendance à être “attaqués”, c’est ça ?
Le 30/03/2022 à 10h28
C’est beaucoup plus facile d’aplatir de fines couches de matériaux ensemble (genre mille-feuille) que de graver un circuit.
Le 30/03/2022 à 13h07
Sur ce genre d’épaisseur ce sont des dépôts en phase vapeur, dont l’épaisseur peut être surveillée par intérométrie par exemple
Possible, mais l’énergie déposée doit être assez faible, c’est probablement plus pour que ça ne bouge pas trop avec les changements de température
Le 30/03/2022 à 16h21
oups il fallait lire interférométrie évidemment
Le 28/03/2022 à 13h48
Blanc, c’est une couleur perçu de forte luminosité sans couleurs dominante. Or cette couleur, on la perçoit via nos yeux et “ressenti” par notre cerveau. Donc, blanc, en physique, ça ne veux pas dire grand chose.
Dans le cas de ce genre de photo, la couleur est purement synthétique. Les satellites sont équipées de capteurs avec des filtre qui ne laisse passer qu’une plage très réduite de fréquence (les 3 cônes de l’oeil humain sont sensibles à des plage très larges et même chevauchant). Le résultats d’un prise avec un filtre donne une image que l’on peut représenté en noir et blanc. Si tu as 3 prise avec 3 filtres différent de la même chose, tu peux composer une image RVB en attribuant une couleur (rouge vert ou bleu) à chaque filtre. Je sais par exemple que les images satellite en infrarouge permet de mieux analyser la végétation et l’état de maturité des champs.
Pour te donner une idée à quel point ton oeil te ment sur le blanc, Sur cette image, tu as en haut le spectre d’une lampe à incandescence et en bas un lampe fluocompacte de même couleurs. Les 2 sont “blanches”. Ceci explique pourquoi sous lampe à économie d’énergie et tube néon, la couleurs de certains objets semble étrange.
Le 28/03/2022 à 19h04
y a que moins qui peut pas accéder à la photo en mosaique ? Page not found https://wwwbis.sidc.be/EUI/pictures/20220307_hrieuv_mosaic/
Le 28/03/2022 à 19h38
Tu peux la trouver ici celle du HRI
Le 28/03/2022 à 20h20
On m’a toujours dit de ne pas regarder le soleil, donc je regarde pas.
Le 28/03/2022 à 22h47
Modifier l’orientation d’une sonde ne consomme pas de carburant, ça se fait avec des roues de réaction entraînées par des moteurs électriques.
Le 29/03/2022 à 05h42
Merci de l’information
Le 29/03/2022 à 13h05
Hop un bel arrière plan de bureau pour mon ecran UW
Le 30/03/2022 à 14h14
Merci.
En fait j’ai lu un peu de travers, je pensais à des sillons de 8,95 nm, pour faire comme pour un réseau optique (les “rayures” périodique sur du verre).