Au tour de Webb de prendre en photo les « piliers de la création »

Au tour de Webb de prendre en photo les « piliers de la création »

Au tour de Webb de prendre en photo les « piliers de la création »

Il s’agit pour rappel d’une mégastructure ressemblant à des formations rocheuses longues de plusieurs années-lumière, et qui se trouvent à 6 500 années-lumière de notre Terre.

« Les colonnes sont constituées de gaz interstellaire froid et de poussière qui apparaissent – parfois – semi-transparentes dans la lumière proche infrarouge », précise l’ESA. Des étoiles se forment dans ces nuages.

Les piliers de la création avaient déjà été pris en photo par Hubble en 1995 et en 2014, mais aussi par d’autres télescopes comme Herschel. L’Agence spatiale européenne propose un « slider » permettant de comparer le résultat de Webb et de Hubble… et il n’y a pas photo entre les deux.

Commentaires (42)


Ah ben on l’aura pas payé pour rien ce téléscope ! Il fait des jolies photos 😁


Il le semble qu’il ne s’agit pas de photos au sens propre du terme, et qu’il y a eu différentes images à différentes longueurs d’ondes colonisées en fausse couleur et combinées pour avoir cette image magnifique au demeurant ☺️


MilesTEG1

Il le semble qu’il ne s’agit pas de photos au sens propre du terme, et qu’il y a eu différentes images à différentes longueurs d’ondes colonisées en fausse couleur et combinées pour avoir cette image magnifique au demeurant ☺️


Donc c’est du photoshop, donc ces images sont fausses! Je le savais! #ComplotDuDimanche


MilesTEG1

Il le semble qu’il ne s’agit pas de photos au sens propre du terme, et qu’il y a eu différentes images à différentes longueurs d’ondes colonisées en fausse couleur et combinées pour avoir cette image magnifique au demeurant ☺️


Effectivement, les “photos” des télescopes modernes doivent toujours subir un intense traitement afin de donner ce résultat époustouflant.
Si on mettait les photos en couleur réelles, on ne verrait rien vu que JWST scrute uniquement l’infrarouge :-)
Si vous comprenez l’anglais, excellente explication des traitements ici https://youtu.be/zsMAmAXMiXA


ovancantfort

Effectivement, les “photos” des télescopes modernes doivent toujours subir un intense traitement afin de donner ce résultat époustouflant.
Si on mettait les photos en couleur réelles, on ne verrait rien vu que JWST scrute uniquement l’infrarouge :-)
Si vous comprenez l’anglais, excellente explication des traitements ici https://youtu.be/zsMAmAXMiXA


Astronogeek a fait quelques vidéos d’explication qui ne nécessitent pas de parler anglais :ouioui:
Et je suis à peu près certain qu’il est loin d’être le seul, sur le Youtube francophone.


MilesTEG1

Il le semble qu’il ne s’agit pas de photos au sens propre du terme, et qu’il y a eu différentes images à différentes longueurs d’ondes colonisées en fausse couleur et combinées pour avoir cette image magnifique au demeurant ☺️


Ton œil aussi prend des photos dans 3 longueurs d’onde différentes, et les combine en affectant le canal rouge à l’une des longueurs d’onde, vert à une autre, en enfin bleu à la troisième.
D’ailleurs Hubble, comme tous les appareils photos numérique, fait pareil, avec des capteurs séparés RGB. Sur Webb, les couleurs ne sont pas RGB mais décalées vers le rouge ; ce ne sont pas 3 capteurs séparés mais des filtres et un seul capteur (et plus que 3 filtres), mais ça ne change pas fondamentalement le principe.


MilesTEG1

Il le semble qu’il ne s’agit pas de photos au sens propre du terme, et qu’il y a eu différentes images à différentes longueurs d’ondes colonisées en fausse couleur et combinées pour avoir cette image magnifique au demeurant ☺️


C’est bien une photo au sens photo produite par les télescopes moderne. Ça fait très longtemps que les téléscopes ne se contentent plus d’imprimer la lumière visible sur papier.
Les appareils photo numériques, y compris ceux des téléphones ont plusieurs capteurs sensibles a différentes longueurs d’ondes (typiquement Rouge, Vert, Bleu) dont les données sont agrégées pour produire une image, C’est ce qui fait que même du un appareil photo de base tu as des réglages de colorimétrie qui impactent les couleurs finales sans que ça soit considéré comme de la retouche.



Les téléscopes comme JWST, ou même Hubble avant lui, poussent juste le concept plus loin que l’appareil photo classique, vu qu’ils on plus de capteurs, notamment dans des longueurs d’onde non visible qui seront affiché comme dans le spectre visible.




(reply:2099941:NiDé)




Techniquement c’est plus du Lightroom en plus avancé que du Photoshop.



En fait il y aurait un peu de jaune/orange/rouge quand même vu qu’un des capteurs du JWST réagit à la partie basse du spectre visible, mais en effet, il manquerait pas mal de couleurs.
Pour une explication en français : https://youtu.be/vpDrwJoviA4?t=128 . Je conseille de voir toute la série postée plus bas, mais j’ai mis le lien direct vers l’explication de l’assemblage des couleurs


MilesTEG1

Il le semble qu’il ne s’agit pas de photos au sens propre du terme, et qu’il y a eu différentes images à différentes longueurs d’ondes colonisées en fausse couleur et combinées pour avoir cette image magnifique au demeurant ☺️


Je sais, c’était juste pour la blague 😜


La comparaison est effectivement époustouflante :incline:


Oui, c’est magnifique 🙌 .
Le dernier doc de la 5 sur le sujet est très intéressant pour comprendre la prouesse techno de ce télescope :incline: .



(reply:2099941:NiDé)




De toutes façons, l’espace n’existe pas. #nous_sachons


La comparaison n’est pas aussi immédiate car en effet jwst regarde en infrarouge et la photo d’hubble est en visible.


En effet, double fait que jwst voit beaucoup plus “à travers” les nuages :)


tournée à 90° degrés on dirait plutôt la main de Dieu que les piliers de la création.



Un petit coté Lovecraftien…


Je le préférais avec son halo vert.



(quote:2099977:127.0.0.1)
tournée à 90° degrés on dirait plutôt la main de Dieu que les piliers de la création.




C’est pas un de ses autres petits noms ?



Ah, si vous aimez les paréidolies : ma mère a vu une tête de chien dans la pointe du pilier central. C’est vrai que la forme des volutes de gaz, tels que révélés via le Webb, peut y faire penser (ça ou une tête de dragon, au choix)…


:love: :love: :love: :love: :love:


Celle de Webb est c’est sûr beaucoup plus détaillée, mais esthétiquement celle de Hubble est plus belle



Uther a dit:


notamment dans des longueurs d’onde non visible qui seront affiché comme dans le spectre visible.




Quand on commence à afficher des choses qui ne sont pas visibles, on fait nécessairement une représentation subjective… et donc on entre dans le domaine artistique.



Afficher l’infrarouge en rouge, ca oblige à afficher le rouge en orange, etc…


La radiologie, l’echographie… ce ne seraient que des visions artistiques ?


Non, ce n’est pas une vue d’artiste comme ce a quoi on a souvent recours lors de communication dans le spatial. Ou l’artiste imagine a libre court pour extrapoler les informations qu’il n’a pas.



Ici, on a une représentation exacte de ce que les capteurs ont mesuré, on choisis juste une convention de coloration afin de pouvoir le représenter de manière exploitable, mais il s’agit du choix pragmatique pour mieux observer les données, pas d’un choix artistique.



(quote:2100034:127.0.0.1)
Quand on commence à afficher des choses qui ne sont pas visibles, on fait nécessairement une représentation subjective… et donc on entre dans le domaine artistique.




Pas forcément. Si tu regardes l’image prise par un seul capteur du JSWT, elle sera grise (c’est la représentation classique. Mais rien ne t’empêche de mettre une autre couleur). Mais c’est la sortie du capteur, et la convention et de sortir en niveau de gris.



Quand tu combines plusieurs longueurs d’ondes hors du spectre visible, tu as deux possibilités : Soit tu vises une représentation scientifique, soit artistique. Dans le 1er cas le choix des couleurs peut suivre des conventions ou simplement un choix qui met en lumière une observation, un résultat scientifique…



Dans le second, c’est une représentation subjective comme tu le décris et c’est “l’artiste” qui s’exprime.




Afficher l’infrarouge en rouge, ca oblige à afficher le rouge en orange, etc…




Pas nécessairement. Prends l’example d’une caméra thermique (Chien en IR. L’image est en fausse couleur pourtant tu mesures bien du rayonnement IR. Si l’image est coloré pour augmenter le contraste entre les zones chaudes et froides, mais tu pourrais très bien la faire en niveau de gris, également.



Cumbalero a dit:


La radiologie, l’echographie… ce ne seraient que des visions artistiques ?




Pour la radiologie non, puisque (historiquement) la représentation fournie à l’opérateur c’est ce qui est réellement affiché sur le film photo ou l’écran radio-luminescent.



Pour l’échographie ou la tomographie: oui. D’ailleurs il y a une phase de (re)construction de l’image à partir de la mesure, et on peut choisir différents modes de reconstruction à partir de la même mesure. Ce qui n’est pas possible en photographie.



(quote:2100034:127.0.0.1)
Quand on commence à afficher des choses qui ne sont pas visibles, on fait nécessairement une représentation subjective… et donc on entre dans le domaine artistique.



Afficher l’infrarouge en rouge, ca oblige à afficher le rouge en orange, etc…




Pas forcément. L’intérêt des observation en infrarouge, c’est pour compenser le décalage vers le rouge. Si on décale les couleurs vers le violet pour revenir en lumière visible, on a juste annulé le décalage vers le rouge, i.e. on est revenu aux couleurs “naturelles” comme si on était directement à côté de l’astre considéré.



(quote:2100072:alex.d.)
Pas forcément. L’intérêt des observation en infrarouge, c’est pour compenser le décalage vers le rouge. Si on décale les couleurs vers le violet pour revenir en lumière visible, on a juste annulé le décalage vers le rouge, i.e. on est revenu aux couleurs “naturelles” comme si on était directement à côté de l’astre considéré.




Je ne dis pas que c’est forcément dans le but de faire de l’art.



Mais il y a forcément un choix “arbitraire” à faire pour assigner une couleur à un truc qui n’est pas visible. Le choix peut être évident (car habituel ou standardisé), au pif, ou autre. Mais il y a forcément un être humain qui a pris une décision arbitraire.



Edit:




Uther a dit:


… on choisis juste une convention de coloration afin de pouvoir le représenter…




exactement ce que je disais ci-dessus.


On ne sait pas convertir une longueur d’onde infrarouge en couleur visible via une table de correspondance ?


Est-ce qu’il y a un site qui propose de voir ce genre d’images telles qu’on les verraient avec nos yeux ? (en vrai couleurs sans infrarouge porté dans le visible, ou UV de la même manière)



k0rnmuz3 a dit:


On ne sait pas convertir une longueur d’onde infrarouge en couleur visible via une table de correspondance ?




Disons qu’il y a des conventions, genre “Colouring the Near-Infrared”.



Mais dans principe ca revient a afficher un spectre large dans un spectre limité. Donc on peut faire de la compression de dynamique (comme pour l’audio), du shift, des correspondances.



(quote:2100082:127.0.0.1)
Mais il y a forcément un choix “arbitraire” à faire pour assigner une couleur à un truc qui n’est pas visible. Le choix peut être évident (car habituel ou standardisé), au pif, ou autre. Mais il y a forcément un être humain qui a pris une décision arbitraire.




Tout comme ton appareil photo classique fait des choix de calibrage de la couleur, tu ne t’en rends pas compte car c’est automatisé sur les appareils grand public comme les téléphones, mais si tu utilise un logiciel comme lightroom, tu vera que les choses que l’on peut faire sur les données brute sont variées.


Je crois d’ailleurs que les appareils photo numérique des smartphones captent aussi un peu de proche infrarouge (pour être plus sensibles en faible luminosité) et le convertissent dans le spectre visible.



Uther a dit:


Tout comme ton appareil photo classique fait des choix de calibrage de la couleur, tu ne t’en rends pas compte car c’est automatisé sur les appareils grand public comme les téléphones, mais si tu utilise un logiciel comme lightroom, tu vera que les choses que l’on peut faire sur les données brute sont variées.




Certes, mais le calibrage de l’appareil n’est pas se dont on parle ici.
On parle des choix fait par des humains pour générer les couleurs dans l’image.



En l’occurrence, cela:




The image processing specialists at the Space Telescope Science Institute in Baltimore opted to highlight that difference by giving MIRI data the distinct yellow and orange colours, in contrast to the blue and white colours assigned to stars at NIRCam’s wavelengths.




voila, voila.



(quote:2100101:Jonathan Livingston)
Je crois d’ailleurs que les appareils photo numérique des smartphones captent aussi un peu de proche infrarouge (pour être plus sensibles en faible luminosité) et le convertissent dans le spectre visible.




Vu qu’on peut voir clignoter (en violet presque blanc) les LED des télécommandes infrarouges à travers les écrans des APN (alors qu’on ne voit absolument rien avec nos propres yeux), je dirais que c’est bien le cas.



(quote:2100082:127.0.0.1)
Mais il y a forcément un choix “arbitraire” à faire pour assigner une couleur à un truc qui n’est pas visible. Le choix peut être évident (car habituel ou standardisé), au pif, ou autre. Mais il y a forcément un être humain qui a pris une décision arbitraire.




Si tu te contentes de décaler les longueurs d’onde de façon à annuler le décalage vers le rouge, ça n’est pas vraiment “arbitraire”, et en plus ça correspond à “un truc visible” (mais visible ailleurs).



eglyn a dit:


Est-ce qu’il y a un site qui propose de voir ce genre d’images telles qu’on les verraient avec nos yeux ? (en vrai couleurs sans infrarouge porté dans le visible, ou UV de la même manière)




En vraies couleurs, c’est plutôt quelque chose comme ce que voit Hubble.


Non plus! Hubble n’est pas non plus uniquement dans la lumière visible, au contraire de Hubble il voit dans les plus haute fréquence, nottament les Ultra violet, et du coup ils se pose exactemment le même problème dans l’autre sens



(quote:2100144:alex.d.)
Si tu te contentes de décaler les longueurs d’onde de façon à annuler le décalage vers le rouge, ça n’est pas vraiment “arbitraire”, et en plus ça correspond à “un truc visible” (mais visible ailleurs).




Tu veux dire calculer la Teinte (hue) a partir des 4 plans IR,R,G,B, puis décaler la roue ?
Ca va faire bizarre.



En tout cas, ca sera surement très artistique.



(quote:2100158:127.0.0.1)
Tu veux dire calculer la Teinte (hue) a partir des 4 plans IR,R,G,B, puis décaler la roue ? Ca va faire bizarre.




Non, pas du tout, tu n’as pas besoin de passer par un espace HSV. D’ailleurs, il n’y a pas de capteur R, G, B sur James Webb, donc si tu voulais le faire, tu serais bien embêté.



Je parle de projeter les images des différents filtres vers une couleur visible équivalente qui correspond à une valeur corrigée du décalage vers le rouge. Ton œil projette naturellement les signaux qui viennent des cônes S, M et L vers le bleu, le vert, et le rouge. Bah pour l’œil de Webb, tu utilises une table similaire, juste un peu décalée, par exemple celle-ci :
https://jwst-docs.stsci.edu/files/97978094/97978103/1/1596073152060/nircam_filters.png



Par exemple, au lieu de décréter le vert c’est 0.55µm, tu dis que c’est les 3µm que tu projettes vers le vert, après correction. Fondamentalement, tu utilises un autre jeu de couleurs primaires, c’est tout.



(quote:2100176:alex.d.)
Par exemple, au lieu de décréter le vert c’est 0.55µm, tu dis que c’est les 3µm que tu projettes vers le vert, après correction. Fondamentalement, tu utilises un autre jeu de couleurs primaires, c’est tout.




Sauf que pour connaitre le décalage vers le rouge, il faut une analyse du spectre séparé et il faut faire ça pour chaque élément vu que tous les éléments qui apparaissent sur une photo n’ont pas forcément la même distance. On est plus du tout dans le simple calibrage des capteurs.


En version simple, tu choisis un décalage des couleurs correspondant à une distance, et tu appliques cette correction de couleur. Ce qui sera plus près ou plus loin sera un peu faux en couleur, de la même façon que quand tu fais une mise au point optique, tu choisis une distance de mise au point, et ce qui est plus près ou plus loin est flou. Mais globalement, en champ profond, ça reste des couleurs moins fausses que celles prises en couleurs visibles sans correction.



Après, bien entendu tu peux faire une analyse spectrale sur chaque objet et lui appliquer une correction adaptée. Je ne sais pas si NIRSpec a la résolution suffisante pour le faire ni si le post-traitement qui est fait en pratique est effectivement celui-là, mais dans l’idée, on ne doit pas en être très loin.



(quote:2100176:alex.d.)
Je parle de projeter les images des différents filtres vers une couleur visible équivalente qui correspond à une valeur corrigée du décalage vers le rouge. Ton œil projette naturellement les signaux qui viennent des cônes S, M et L vers le bleu, le vert, et le rouge.




On va dire qu’on va plutot faire confiance aux couleurs choisies par les experts du STScI:




  • orange pour une des cam

  • et bleu pour l’autre



Suivant les clichés ils inversent. Parfois MIRI est orange, et parfois c’est NIRCam qui est orange. Mais c’est souvent ces deux couleurs qui sont choisies.


Fermer