Solar Orbiter : une photo du Soleil en entier, « avec des détails sans précédent »

Solar Orbiter : une photo du Soleil en entier, « avec des détails sans précédent »

Solar Orbiter : une photo du Soleil en entier, « avec des détails sans précédent »

L’Agence spatiale européenne explique que, « l’une des images, prise par l’Extreme Ultraviolet Imager (EUI) est celle avec la plus haute résolution du disque complet et de l’atmosphère extérieure du Soleil (la couronne) jamais prise ». 

« Une autre image, capturée par l’instrument Spice (Spectral Imaging of the Coronal Environment), représente la première image solaire complète de ce type en 50 ans, et de loin la meilleure, prise à la longueur d’onde Lyman-bêta de la lumière ultraviolette émise par l’hydrogène gazeux ».

Toutes les images ont été prises alors que la sonde se trouvait à 75 millions de kilomètres, soit à mi-chemin entre la Terre et notre Soleil. Dans le cas du télescope à haute résolution de (EUI), il s’agit d’une mosaïque de 25 images. Elles sont nécessaires afin de couvrir l’ensemble du Soleil. 

« L’image complète a été capturée sur une période de plus de quatre heures car chaque tuile, prise l’une après l’autre, prend environ 10 minutes […] L’image finale contient plus de 83 millions de pixels dans une grille de 9148 x 9112 pixels ». 

Commentaires (27)


Magnifique.


Impressionnant surement (surtout avec la terre a l’échelle a coté), mais la plus belle photo des astres proches ça se discute.


Question bête, mais je pensais que le soleil était blanc ?


En fait la lumière émise dépend des atomes présents. Essentiellement de l’Hydrogène, longueur d’onde 364,56nm donc UV (bleu = jusqu’à 400nm environ), un peu d’Hélium, 587,49 nm donc plutôt rouge orangé (“jaune brillante”, wikipedia), c’est presque tout (?). Le lien cite carbone, oxygène, néon.
La lumière telle que perçue sur terre, dépend beaucoup de la diffraction qui fait que le rouge est très dévié.
Superbe image.


Comment ça se fait qu’il faille 10 minutes pour prendre la photo d’un truc plus lumineux que tout ce qu’on peut prendre en photo ?
(tout comme en plein soleil sur terre on prend une photo au 11000 tellement c’est lumineux)


Dans les 10 minutes il y a aussi la réorientation de la sonde pour passer d’une zone à l’autre de la mosaïque.


Tab41

Dans les 10 minutes il y a aussi la réorientation de la sonde pour passer d’une zone à l’autre de la mosaïque.


ça paraît énorme, 10 minutes pour ça, non ?


OlivierJ

ça paraît énorme, 10 minutes pour ça, non ?


Je suppose que pour diminuer la consommation de carburant et le besoin de correction le mouvement est très lent. Mais aucune certitude je n’ai pas vu de détail précis sur le besoin de 10 minutes. je ne sais même pas quelle est le ration mouvement / temps de pose dans ces 10 minutes.



croustx a dit:


Question bête, mais je pensais que le soleil était blanc ?




L’image est en fausses couleurs car c’est pris dans les ultra-violets.


En même temps : “Le Soleil est une étoile jaune, de type spectral G.” :D



Source :
https://theta.obs-besancon.fr/lunap/Niveau1/soleiletoiles/Textes/classification.htm



OlivierJ a dit:


Comment ça se fait qu’il faille 10 minutes pour prendre la photo d’un truc plus lumineux que tout ce qu’on peut prendre en photo ? (tout comme en plein soleil sur terre on prend une photo au 11000 tellement c’est lumineux)




Le capteur qui fonctionne sur ces longueur d’onde ne doit pas être comparable aux CMOS qu’on a dans nos appareils.
Et puis j’imagine bien un filtre énervé pour le protéger (genre ND1000 en plus compliqué).



hachu21 a dit:


Le capteur qui fonctionne sur ces longueur d’onde ne doit pas être comparable aux CMOS qu’on a dans nos appareils.




Ce sont soit des capteurs CMOS soit CCD (chacun a des avantages). Mais sachant que les capteurs astronomiques sont faits pour capter des luminosité d’une bougie à 1000 km, tu penses bien que pour le soleil ça ne peut pas être un souci, on a un paquet d’ordres de grandeur de différence.




Et puis j’imagine bien un filtre énervé pour le protéger (genre ND1000 en plus compliqué).




Probable qu’il y ait un filtre obscurcissant pour protéger aussi l’électronique, mais ça reste une luminosité énorme (en plus la sonde est 2 fois plus près donc le soleil paraît 4 fois plus lumineux).


Parce que là on image dans l’extrême UV, à 17nm, où le rayonnement solaire est extrêmement faible, et en plus on filtre de manière très étroite (tu peux voir ici que le filtre à 17.4nm fait à peu près 1nm de large), donc au final ça fait pas tant que ça de photons qui arrivent.
Le capteur a une efficacité de 80% à 17.4nm, les miroirs 90%, tu perds un peu aussi sur les différents filtres
Au final l’instrument peut faire des prises de moins d’une seconde à 15 minutes, selon ce que l’on veut observer


auberjine

Parce que là on image dans l’extrême UV, à 17nm, où le rayonnement solaire est extrêmement faible, et en plus on filtre de manière très étroite (tu peux voir ici que le filtre à 17.4nm fait à peu près 1nm de large), donc au final ça fait pas tant que ça de photons qui arrivent.
Le capteur a une efficacité de 80% à 17.4nm, les miroirs 90%, tu perds un peu aussi sur les différents filtres
Au final l’instrument peut faire des prises de moins d’une seconde à 15 minutes, selon ce que l’on veut observer


Merci pour ton éclairage :yes:
(si on peut dire vu le sujet :-) )



L’émission en UV lointains doit être sacrément plus faible quand même, vu la luminosité dans le visible.
Comment fait-on des filtres aussi étroits dans le domaine UV ?


OlivierJ

Merci pour ton éclairage :yes:
(si on peut dire vu le sujet :-) )



L’émission en UV lointains doit être sacrément plus faible quand même, vu la luminosité dans le visible.
Comment fait-on des filtres aussi étroits dans le domaine UV ?


Avec un miroir de Bragg, une alternance répétée de fines couches de matériaux différents




The first structure of the coating is an Al/Mo/SiC periodic multi-layer with first order centred at 17.4 nm (30 periods of 8.95 nm). An aluminium buffer layer and a second Al/Mo/SiC periodic multi-layer are deposited on top. This second multi-layer is designed to have its first order centred at 30.4 nm (4 periods of 16.5 nm). The outermost SiC layer is thick enough to guarantee temporal stability so that no additional capping layer is needed. The thickness of the buffer layer is optimised in order to achieve the desired shape of the two Bragg peaks and to create extinctions at undesired wavelengths




C’est également sur ce principe que sont fabriqués les miroirs dans les machines de lithographie EUV


auberjine

Avec un miroir de Bragg, une alternance répétée de fines couches de matériaux différents




The first structure of the coating is an Al/Mo/SiC periodic multi-layer with first order centred at 17.4 nm (30 periods of 8.95 nm). An aluminium buffer layer and a second Al/Mo/SiC periodic multi-layer are deposited on top. This second multi-layer is designed to have its first order centred at 30.4 nm (4 periods of 16.5 nm). The outermost SiC layer is thick enough to guarantee temporal stability so that no additional capping layer is needed. The thickness of the buffer layer is optimised in order to achieve the desired shape of the two Bragg peaks and to create extinctions at undesired wavelengths




C’est également sur ce principe que sont fabriqués les miroirs dans les machines de lithographie EUV


:chinois:



Impressionnant la précision : “30 periods of 8.95 nm” (on peut se dire que la gravure des CPU est déjà à un peu moins que ça, mais ce filtre a dû être fabriqué il y a des années, quand on était à des finesses moins importantes).



“thick enough to guarantee temporal stability so that no additional capping layer is needed” : je suppose qu’avec des UV aussi énergétiques les matériaux ont tendance à être “attaqués”, c’est ça ?


OlivierJ

:chinois:



Impressionnant la précision : “30 periods of 8.95 nm” (on peut se dire que la gravure des CPU est déjà à un peu moins que ça, mais ce filtre a dû être fabriqué il y a des années, quand on était à des finesses moins importantes).



“thick enough to guarantee temporal stability so that no additional capping layer is needed” : je suppose qu’avec des UV aussi énergétiques les matériaux ont tendance à être “attaqués”, c’est ça ?


C’est beaucoup plus facile d’aplatir de fines couches de matériaux ensemble (genre mille-feuille) que de graver un circuit.


OlivierJ

:chinois:



Impressionnant la précision : “30 periods of 8.95 nm” (on peut se dire que la gravure des CPU est déjà à un peu moins que ça, mais ce filtre a dû être fabriqué il y a des années, quand on était à des finesses moins importantes).



“thick enough to guarantee temporal stability so that no additional capping layer is needed” : je suppose qu’avec des UV aussi énergétiques les matériaux ont tendance à être “attaqués”, c’est ça ?


Sur ce genre d’épaisseur ce sont des dépôts en phase vapeur, dont l’épaisseur peut être surveillée par intérométrie par exemple



Possible, mais l’énergie déposée doit être assez faible, c’est probablement plus pour que ça ne bouge pas trop avec les changements de température


auberjine

Sur ce genre d’épaisseur ce sont des dépôts en phase vapeur, dont l’épaisseur peut être surveillée par intérométrie par exemple



Possible, mais l’énergie déposée doit être assez faible, c’est probablement plus pour que ça ne bouge pas trop avec les changements de température


oups il fallait lire interférométrie évidemment :D



croustx a dit:


Question bête, mais je pensais que le soleil était blanc ?




Blanc, c’est une couleur perçu de forte luminosité sans couleurs dominante. Or cette couleur, on la perçoit via nos yeux et “ressenti” par notre cerveau. Donc, blanc, en physique, ça ne veux pas dire grand chose.



Dans le cas de ce genre de photo, la couleur est purement synthétique. Les satellites sont équipées de capteurs avec des filtre qui ne laisse passer qu’une plage très réduite de fréquence (les 3 cônes de l’oeil humain sont sensibles à des plage très larges et même chevauchant). Le résultats d’un prise avec un filtre donne une image que l’on peut représenté en noir et blanc. Si tu as 3 prise avec 3 filtres différent de la même chose, tu peux composer une image RVB en attribuant une couleur (rouge vert ou bleu) à chaque filtre. Je sais par exemple que les images satellite en infrarouge permet de mieux analyser la végétation et l’état de maturité des champs.



Pour te donner une idée à quel point ton oeil te ment sur le blanc, Sur cette image, tu as en haut le spectre d’une lampe à incandescence et en bas un lampe fluocompacte de même couleurs. Les 2 sont “blanches”. Ceci explique pourquoi sous lampe à économie d’énergie et tube néon, la couleurs de certains objets semble étrange.


y a que moins qui peut pas accéder à la photo en mosaique ? Page not found https://wwwbis.sidc.be/EUI/pictures/20220307_hrieuv_mosaic/


Tu peux la trouver ici celle du HRI


On m’a toujours dit de ne pas regarder le soleil, donc je regarde pas.



TabDambrine a dit:


Je suppose que pour diminuer la consommation de carburant et le besoin de correction le mouvement est très lent.




Modifier l’orientation d’une sonde ne consomme pas de carburant, ça se fait avec des roues de réaction entraînées par des moteurs électriques.


Merci de l’information :chinois:


Hop un bel arrière plan de bureau pour mon ecran UW :smack:



Mihashi a dit:


C’est beaucoup plus facile d’aplatir de fines couches de matériaux ensemble (genre mille-feuille) que de graver un circuit.



auberjine a dit:


Sur ce genre d’épaisseur ce sont des dépôts en phase vapeur, dont l’épaisseur peut être surveillée par intérométrie par exemple




Merci.
En fait j’ai lu un peu de travers, je pensais à des sillons de 8,95 nm, pour faire comme pour un réseau optique (les “rayures” périodique sur du verre).


Fermer