Connexion
Abonnez-vous

Google présente ses travaux pour améliorer les photos de nuit sur smartphone

Qui a éteint la lumière ?

Google présente ses travaux pour améliorer les photos de nuit sur smartphone

Le 27 avril 2017 à 12h00

Les photos en très basse luminosité réalisées avec un smartphone sont généralement peu satisfaisantes. Un ingénieur de Google s'est penché sur la question et dévoile les résultats de ses recherches. Le rendu est bon, mais nécessite une certaine puissance de calcul pour y arriver. Par contre, cette solution n'est pas (encore ?) disponible.

L'intelligence artificielle est au cœur d'une grosse partie de la stratégie des services de Google. La photo n'est pas en reste et le géant du Net mise beaucoup sur son service Photos qui permet de sauvegarder et organiser les clichés. Il mène également de nombreuses expérimentations sur le sujet, dont une qui semble prometteuse sur des photos en basse luminosité depuis un smartphone.

Au MWC de Barcelone, les smartphones montraient leurs muscles sur la photo

Les capteurs des téléphones ne cessent de s'améliorer avec un rendu et un nombre de pixels toujours plus grand avec de la stabilisation optique, au moins sur les modèles haut de gamme. Les constructeurs se livrent d'ailleurs une féroce guerre de communication sur le sujet.

Au MWC de Barcelone, nous avons ainsi pu tester le zoom 5x « sans perte » d'Oppo (mélangeant optique et algorithme), qui donnait de bons résultats même s'il ne s'agissait que de prototypes. Il y avait également la caméra de Sony capable de monter jusqu'à 960 ips pour réaliser des ralentis.

Les doubles capteurs à l'arrière se généralisent, y compris sur les modèles moyen de gamme, parfois avec des fonctionnalités supplémentaires. C'est notamment le cas du LG G6 qui permet de passer automatiquement d'un capteur à l'autre lorsque vous zoomez, pour limiter les pertes.

De manière générale, les smartphones peuvent donc remplacer les appareils photo numériques dans certaines conditions, mais pas toutes bien évidemment. En basse luminosité, ces derniers gardent souvent l'avantage et proposent une bien meilleure qualité.

Google s'intéresse aux clichés en basse luminosité sur smartphone

Dans un billet de blog, Florian Kainz (ingénieur logiciel chez Google), présente les résultats d'une expérimentation maison. Elle prend la forme d'une application Android – non disponible publiquement – qui gère manuellement les options de la caméra : temps d'exposition, ISO et autofocus. 

Il n'y a pas de secret, en (très) basse luminosité il faut augmenter les deux premiers paramètres pour capturer le plus de lumière possible. De son côté, l'autofocus n'arrive généralement pas à faire la mise au point dans des scènes trop sombres. Kainz s'intéressant principalement aux photos de paysage et du ciel, il l'a simplement placé sur « infini ».

Prendre des dizaines de photos et les combiner pour améliorer le rendu

Le concept de son application est simple : elle prend plusieurs dizaines (32 ou 64 dans les exemples ci-dessous) de photos d'une même scène avec un temps d'exposition de 2 ou 4 secondes en fonction de ce que permet le smartphone. Bien évidemment, il faut installer ce dernier sur un support pour qu'il ne bouge pas, mais c'est la même chose avec un APN et un temps d'ouverture aussi long.

Il place ensuite un morceau de scotch devant l'objectif et reprend une salve de photos pour ne capturer que le bruit généré. Il a ensuite utilisé un algorithme maison afin de combiner la première série d'images afin de « nettoyer la majeure partie du grain », puis il a utilisé la seconde (les photos avec le capteur obturé) pour supprimer une partie des variations dues à ce dernier.

Comme on peut le voir sur les images ci-dessous, le résultat est assez impressionnant :

Google Photos basse luminositéGoogle Photos basse luminosité
Photo avec la technique de Kainz, une autre avec le mode HDR+ du smartphone (la luminosité a été augmentée dans le rectangle)

Pour les photos du ciel, il faut prendre en compte la rotation de la Terre

L'ingénieur s'est ensuite attelé à un problème différent : prendre en photo un ciel étoilé de nuit. Si en 4 secondes les astres n'ont pas le temps de bouger suffisamment, avec des dizaines de photos leur position n'est plus la même au début et à la fin, ce qui donne un effet de flou.

Il est possible de corriger le tir en alignant les étoiles sur les différentes images, mais cela fait bouger le sol, qui devient flou à son tour. En combinant les deux, il affirme être capable d'arriver à un résultat net :

 Google Photos basse luminositéGoogle Photos basse luminosité
Une photo avec un temps d'exposition de 2 s, la même avec le traitement appliqué

Et maintenant ? 

Si cette technique semble donner de bons résultats, elle n'est pas sans défaut. Pour commencer, elle réduit fortement la résolution de l'image afin de supprimer une partie des parasites. De plus, elle ne fonctionne que sur des smartphones qui disposent d'un mode manuel et peuvent prendre des photos avec une ouverture de plusieurs secondes. Enfin, elle nécessite une grande puissance de calcul, ce qui implique que cette application est trop gourmande pour la plupart des smartphones, selon son créateur.

« Cependant, avec le bon logiciel, un téléphone devrait être en mesure de traiter les images en interne » affirme Florian Kainz. Il ne donne par contre aucune précision concernant la puissance nécessaire et une éventuelle mise en ligne de son application et/ou un développement de ce service de la part de Google.

Le billet étant publié sur l'un des blogs officiels du géant du Net, on peut se douter que la société de Mountain View travaille dessus. Reste à voir quand le grand public pourra en profiter.

Commentaires (41)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar

[quote:5881767:anagrys]En mode “HD” mon téléphone a de meilleurs résultats que mon vieux Canon 450D à 1600 ISO (testé sur quelques photos au début), moins bruité et mieux défini. Le mode HD est obtenu par interpolation sur une dizaine de photos pris en rafale. Evidemment, il faut être stable (donc trépied ou support solide), comme toujours en photo en basse lumière.[/Quote]

En pratique c’est pas vraiment intéressant, moi ce que je veux c’est prendre une photo de quelqu’un le soir au restau ou dans la rue et que ce soit correct, les couleurs et le modelé de la peau, et pour ça même un vieux Canon 450D (j’ai un 350D et un 550D) est sans concurrence des mobiles.

votre avatar

Ca depend des gammes…

 

Aujourd’hui pour 400€ dans le domaine de dslr t’as un truc qui fait du 24p1080 en video et 18Mps mais bon si tu rajoute 500€ d’objectif tu peux avoir du bokeh et prendre des photo en basse luminosité.

 

Coté smartphone pour 250€ t’as un tel qui peut tourner en 4k, faire du slow motion, qui rentre dans la poche et 1 000 000 000 de fonctionnalité supplémentaires user friendly, customisables et évolutives (gps, filtre magiques, retouche automatique, synchronisation cloud, partage nfc, bluetooth, ect…)



Perso je continue d’utiliser tres souvent mon reflexe  à 500boules parce que c’est quand meme pratique quand on l’a (batterie à part, reactivité, et je kiffe le bruit au declenchement), mais quand quelqu’un vient me demander “ca prend des belle photo?” generalement je repond sechement:



“Non, c’est de la crotte, c’est pourri, ça sert plus à grand chose et ça servira bientôt plus à rien alors reste avec ton iphone 7 mec, le futur t’appartient!”



Alors je sais que dans la pratique c’est assez injuste de comparer les smartphone et les dslr, mais franchement, quand je vois à quelque point le marché est segmenté à donf par les constructeurs et leur complaisance à attendre la mort en ajoutant tous les 2ans des fonctionnalités pérave qui ont 10ans de retard ça me saoule, parce que s’ils se sortaient un minimum les doigts ils pourraient faire des trucs super cool sans qu’on ait a dépenser 2000€ pour un truc potable…

votre avatar

perso j’ai rien compris a son programme. C’est quoi l’interet de faire 40 photos de 2 secondes plutot qu’une photo de 80 sec?

Puis la reduction de bruit electronique sur pause longue, les apns le font deja (sur le miens 1sec de pause=1 sec de calcul).

votre avatar

Ça ressemble fortement au picture stacking, technique de base utilisée depuis des lustres dans la microscopie pour obtenir des clichés nets de cellules alors que celles-ci sont très translucides. Principe de base du HDR également : prendre plusieurs clichés pour extraire une plus grande dynamique de luminosité. Rien de nouveau sous le soleil visiblement.

votre avatar

Un très gros +1.

Beaucoup de fonctionnalités qui simplifient la vie des photographes sont purement logicielles, ça fout les boules de devoir acheter le modèle au dessus pour faire du braketing a plus de 3 photos par exemple. Et encore c’est un exemple tout con, je ne parle même pas des panoramas/photos à 360° qui viennent par défaut avec le smartphone le plus bas de gamme à 60€ et qu’on n’a même pas sur un reflex à 2000€.



Le reflex est l’outil idéal pour faire de très belles photos quand on le maîtrise, mais à moins de payer très cher son matos et de bien le maitriser on fait pas des photos nécessairement plus jolies qu’avec un smartphone. Tout au plus on a le choix de la focale. En revanche le téléphone ne pèse rien, on le prend de toutes façons quand on se balade et il permet d’utiliser directement la photo.

Je dis pas que l’un est mieux que l’autre, mais il faut savoir faire la part des choses et je trouve ça super élitiste de dire que de toutes façons l’algo de google c’est de la merde et les mecs avec des smartphones ne devraient pas pouvoir faire de belles photos sans payer 1500€ leur reflex.

votre avatar

Tu peux prendre des photos avec plusieurs paramètres différents pour avoir une photo avec de bons détails à la fois dans les zones sombres et dans les zones lumineuses. Si tu prends ta photo sur 80s, certes tu verras bien les zones sombres mais les zones claires seront cramées (typiquement sur la photo en exemple dans l’article, toutes les sources de lumières seraient dégueulasses).

votre avatar

Pour filmer en 1080p à haute vitesse ça peut être fait en “trichant”. Tu as 4* plus de pixels et tu prends une image sur deux avec un pixel sur deux. C’est probablement pour compenser le fait qu’un capteur ne peut pas prendre suffisamment d’images par secondes pour filmer en haute vitesse à pleine résolution (peut-être une histoire de conso ?).

C’est pour ça qu’on peut en général filmer à 1080p à 30ips ou en 720p à 60ips sur certains appareils, mais pas en 1080p à 60ips.

votre avatar

Oui çà dépend des gammes, on est bien d’accord. :)

votre avatar

Il y a une grosse difference entre un apn et un bon photophone, meme pour un amateur. La principale, ce n’est pas tellement le choix de la focale que la luminosité. Avec un enorme capteur tu peux prendres des photos dans bien plus de situation, en particulier les interieurs.

Sinon, ce que tu m’as décrit finalement, c’est du HDR pour pause longue, je connaissait pas. Cependant avec une bonne dynamique, je suis pas sur que ce soit vraiment utile.

votre avatar







vloz a écrit :



Ca depend des gammes…



         

Aujourd'hui pour 400€ dans le domaine de dslr t'as un truc qui fait du 24p1080 en video et 18Mps mais bon si tu rajoute 500€ d’objectif tu peux avoir du bokeh et prendre des photo en basse luminosité.

 

Coté smartphone pour 250€ t'as un tel qui peut tourner en 4k, faire du slow motion, qui rentre dans la poche et 1 000 000 000 de fonctionnalité supplémentaires user friendly, customisables et évolutives (gps, filtre magiques, retouche automatique, synchronisation cloud, partage nfc, bluetooth, ect...)






 Perso je continue d'utiliser tres souvent mon reflexe  à 500boules parce que c'est quand meme pratique quand on l'a (batterie à part, reactivité, et je kiffe le bruit au declenchement), mais quand quelqu'un vient me demander "ca prend des belle photo?" generalement je repond sechement:       






 "Non, c'est de la crotte, c'est pourri, ça sert plus à grand chose et ça servira bientôt plus à rien alors reste avec ton iphone 7 mec, le futur t’appartient!"       






 Alors je sais que dans la pratique c'est assez injuste de comparer les smartphone et les dslr, mais franchement, quand je vois à quelque point le marché est segmenté à donf par les constructeurs et leur complaisance à attendre la mort en ajoutant tous les 2ans des fonctionnalités pérave qui ont 10ans de retard ça me saoule, parce que s'ils se sortaient un minimum les doigts ils pourraient faire des trucs super cool sans qu'on ait a dépenser 2000€ pour un truc potable...








C'est vrai que c'est frustrant de ne pas avoir dans un Reflex ce qu'un smartphone "de base" peut déjà faire... ou de ne pas avoir un "minimum" d'options pratiques et purement logicielles.      






Autre exemple, pour ceux qui bougent avec leur réflex, comment ca se fait qu'on n'ait pas de GPS intégré "de base" et débrayable (pour ceux qui n'en veulent pas) pour tagger les RAW avec la position GPS ? Ou encore la possibilité de déclencher/piloter avec son smartphone sans fil (on peut déclencher en BT avec un peu d'électronique et un kit micro/oreillette BT, mais bon, ca pourrait être intégré !) ... Les exemples ne manquent pas.      






Par contre, la photo "smartphone", ca reste "prendre le tableau avant de l'effacer" : 8 MPx suffisent largement ! De toute façon, plus le temps passe, et moins j'ai besoin d'un modèle haut de gamme : tant que ca lit les mails, mon agenda, permet d'utiliser le GPS pour la voiture et servir de modem, le reste, je m'en fou...

votre avatar

la correction du bruit (au moins) ?

votre avatar







TheMyst a écrit :



la correction du bruit (au moins) ?





Le photo stacking permet justement de corriger le bruit en le moyennant. Donc non, rien de bien nouveau si ce n’est qu’une application Android le fait maintenant.


votre avatar

Le bruit du capteur est probablement intrinsèque au capteur et dépendant tu temps de pose qui va déterminer la quantité de courant d’obscurité (les électrons qui sont générés alors qu’il n’y a pas de photons). Même que ce bruit est probablement gaussien et quasiment linéaire avec le temps de prise de vue et stable d’une image à l’autre. 



Donc on pourrait juste imaginer calibrer ce bruit soit une bonne fois pour toute soit tous les X moins pour tenir compte d’un éventuel vieillissement du capteur et le retirer systématiquement à toutes les photos sombres (voir au photo claires aussi) c’est juste une soustraction de valeur d’une valeur pixel à pixel.  



Je suis même étonné que cela n’existe pas pour les appareils haut de gamme surtout ceux où l’on peut augmenter les ISO et donc le bruit causé par le courant d’obscurité…. 

votre avatar

Rien de neuf finalement, comment faire une photo plus lumineuse ? Faire plusieurs photos.



Le même principe est appliqué aux observatoires d’astronomie ou aux astro-photographes et c’est pas récent ^^ pour voir plus de détails il suffit de faire plusieurs observation d’un même objets sur une longue durée et de superposer le résultat.

Pour le traitement du bruit les reflex font déjà ça avec des “profils” de bruit pour le capteur et de déformation pour les objectifs (dispo sur le site du fabricant, sur Adobe ou chez certains professionnel de l’optique).



Au final il se contente d’appliquer à un smartphone ce que fait un photographe avec un appareil standard. La course à la “photo incroyable” avec un smartphone à ses limites. Même avec tous les algorithmes, là ou il faut 32x 4s ( soit 128s donc 2 minutes et quelques) un reflex nécessitera 2 à 3x moins de temps d’expo pour un grain bien plus faible. La taille du capteur fait le reste.

votre avatar







ErGo_404 a écrit :



Le reflex est l’outil idéal pour faire de très belles photos quand on le maîtrise, mais à moins de payer très cher son matos et de bien le maitriser on fait pas des photos nécessairement plus jolies qu’avec un smartphone.





Pas du tout d’accord. Le moindre réflex d’entrée de gamme fait de tellement plus belles photos qu’un smartphone, surtout dès que la luminosité baisse, ainsi que pour le rendu des peaux, la qualité des couleurs (pas la saturation mais la douceur).


votre avatar







ErGo_404 a écrit :



Pour filmer en 1080p à haute vitesse ça peut être fait en “trichant”. Tu as 4* plus de pixels et tu prends une image sur deux avec un pixel sur deux. C’est probablement pour compenser le fait qu’un capteur ne peut pas prendre suffisamment d’images par secondes pour filmer en haute vitesse à pleine résolution (peut-être une histoire de conso ?).

C’est pour ça qu’on peut en général filmer à 1080p à 30ips ou en 720p à 60ips sur certains appareils, mais pas en 1080p à 60ips.





Ce n’est pas un problème de capteur mais plutôt de bande passante à un moment (entre le capteur et la première “puce” de sortie, ou cette partie traitement et la mémoire du téléphone, ou encore la puissance de la puce de traitement qui effectue la compression.


votre avatar

Complètement inutile.



Un trépied étant nécessaire…à moins que la personne va déposer son téléphone sur le coin d’un mur, trottoir, arbre, etc.



Bref, je vais prendre mon DSLR avec un trépied.

votre avatar

C’est pas la même logistique non plus. Le trépied nécessaire pour tenir un appareil photo ne fait pas le même poids, etc etc.

Il y a beaucoup de prises de vues pour lesquelles un téléphone ne fera pas mieux qu’un gros objectif et un appareil adapté, mais vu la qualité des smartphones actuels je comprends que de plus en plus de gens se tournent vers ça plutôt que l’achat d’un reflex à plusieurs centaines (voire milliers) d’euros.

votre avatar

Multiplier les pixels sur un capteur permet aussi de filmer des vidéos 1080p à plus de 30ips, ce n’est pas que pour la photo. Du coup, si les pixels sont disponibles c’est dommage de ne pas les utiliser en mode photo.

Pour le coup c’est pas des truffes non plus chez Sony, s’ils font ces choix c’est pas pour faire chier les gens avec de la mauvaise qualité.

votre avatar

Il y a quand même un monde entre smartphone et un reflex top moumoute aussi <img data-src=" />


votre avatar

“Complètement inutile”, sauf qu’un trépied pour téléphone + le smartphone c’est 300g là ou ton trépied et DSLR c’est minimum 6/7kg.

Evidemment si tu veux faire de la photo sérieuse il faudra un DSLR, mais je vois pas pourquoi on permettrait pas aussi aux amateurs de faire des photos sympas avec peu d’équipement.

votre avatar







ErGo_404 a écrit :



C’est pas la même logistique non plus. Le trépied nécessaire pour tenir un appareil photo ne fait pas le même poids, etc etc.

Il y a beaucoup de prises de vues pour lesquelles un téléphone ne fera pas mieux qu’un gros objectif et un appareil adapté, mais vu la qualité des smartphones actuels je comprends que de plus en plus de gens se tournent vers ça plutôt que l’achat d’un reflex à plusieurs centaines (voire milliers) d’euros.







Un trépied pour un bon petit point and shoot entre dans une poche et donnera un résultat supérieur en utilisant une ouverture de 15-30 secondes.



Je vois le truc de Google comme un proof of concept.


votre avatar

C’est sûr, mais tout est bon à prendre pour permettre aux “petits” équipements de faire de belles photos.

Les techniques proposées par Google se retrouveront tôt ou tard dans Photoshop et serviront aussi à ceux qui ont un reflex et qui veulent améliorer encore plus la qualité de leurs photos, donc ne crachons pas dans la soupe.

votre avatar

Ils ont un dispositif pour empêcher les doigts devant l’objectif quand tu prends la photo ?&nbsp;



C’est pour un ami moi&nbsp;<img data-src=" />

votre avatar

En mode “HD” mon téléphone a de meilleurs résultats que mon vieux Canon 450D à 1600 ISO (testé sur quelques photos au début), moins bruité et mieux défini. Le mode HD est obtenu par interpolation sur une dizaine de photos pris en rafale. Evidemment, il faut être stable (donc trépied ou support solide), comme toujours en photo en basse lumière.

Je n’ai pas comparé avec un appareil plus récent ou full frame, je pense que vu les progrès en montée en sensibilité sur les reflex le résultat serait moins évident.

votre avatar

Ca existe déjà depuis un moment. Mon appareil photo (pas récent) fait déjà exactement ce qu’il propose, sauf qu’il est capable de prendre des photos de plus de 2s, du coup je n’ai pas besoin de prendre 32 photos pour arriver à simuler une expo un peu longue.

votre avatar

FAUX…

&nbsp;1080p correspond en gros à 2M pixels…

En fait beaucoup de capteurs ont des problèmes d’aliasing en vidéo parce que en mode vidéo on ne lit que certains pixels pour limiter ce que doivent encaisser les ADC. Si tu as 60i/s x 2M il faut capturer 120M pixels/s. Si on devait lire vraiment tous les 12M cela ferait 6x plus donc 720M pixiels/s sans compter le traitement pour ensuite réduire cela.



Le problème est ensuite un bête problème d’échantillonnage à une certaine fréquence d’une valeur analogique avec une certaine bande passante. Si la bande passante dépasse 50% de la fréquence d’échantillonnage tu as un “repliement” des fréquences. Ex: capturer un signal sinusoidal à 100MHz à un rythme de 100MHz donne un signal constant! En pratique du moiré apparaît..



en.wikipedia.org Wikipedia&nbsp;

votre avatar

” il faut installer ce dernier sur un support pour qu’il ne bouge pas,”



Y a strictement aucune nouveauté la dedans, donc…..



Il est bidon cet ingénieur.

votre avatar

Photo Stacking… comme on en fait en astronomie depuis… le début du numérique.

Il y a d’excellents logiciels pour cela qui font tout le job (réalignement, rotation, pixel chaud…)

RegiStax

DeepSkyStacker

Si vous avez un DSLR correct, un pied et un déclencheur (ou temporisateur) à vous les belles images de nuit, même sans télescope.

Par contre effectivement il faut du calcul pour faire les choses bien, et comme justement évoqué précédemment, la taille des pixels ridicule sera toujours le plus grand handicap ici.

votre avatar







127.0.0.1 a écrit :



Réduction du bruit du signal par empilement des mesures.

Réduction du bruit intrinsèque par modélisation de la mesure à vide.



Tout ca n’est pas vraiment nouveau. Meme dans le domaine de l’image. Et meme dans le domaine du smartphone.



Google “Multi-frame low illumination noise removal in smartphone” (samsung)





Exactement, c’est ce qu’on fait en astrophoto depuis longtemps. Bref &nbsp;même s’il y a une peu d’intelligence dans la manière de traiter le bruit, ce n’est pas une révolution.


votre avatar

Ce ne sera pas la première fois qu’on réinvente une roue. ;)

votre avatar







wanou a écrit :



Pas la peine de tourner autour du pot, c’est la surface trop réduite des pixels qui pose problème. Il serait possible d’obtenir des photos bien plus belles en basse luminosité si on se contentait de 5 Mpixels au lieux de 12. La course à la résolution dé-sert les clients. Malheureusement, Sony est le principal fournisseur de capteurs photo donc ils décident la stratégie pour les autres.





Dans mes bras <img data-src=" /> .



Je suis dégouté de cette course débile aux mégapixels, alors que ça ne sert absolument à rien, 95 % des gens diffusant leur photo qui ne sera jamais vue en plus que 2 voire 4 MP. Et le résultat d’avoir ces capteurs minuscules à + de 10 millions de pixels ce sont des photos facilement floues et bruitées <img data-src=" /> .

En revenant à 5 MP avec la technique de traitement employée sur les capteurs actuels, ça rendrait pas mal du tout je suppose.







ErGo_404 a écrit :



Multiplier les pixels sur un capteur permet aussi de filmer des vidéos 1080p à plus de 30ips, ce n’est pas que pour la photo. Du coup, si les pixels sont disponibles c’est dommage de ne pas les utiliser en mode photo.





Je n’ai rien compris à la logique de tes phrases. Pour filmer en 1080p à fréquence élevée, il faut justement moins de pixels (1920x1080 ~= 2 MP suffisent) pour qu’ils soient plus gros sur le capteur. Les caméras haute vitesse ont des résolutions “normales” de vidéo avec de gros pixels élémentaires.







ErGo_404 a écrit :



Pour le coup c’est pas des truffes non plus chez Sony, s’ils font ces choix c’est pas pour faire chier les gens avec de la mauvaise qualité.





Le problème c’est qu’il suffit de regarder ce qui est posté sur FB pour comprendre que le grand public n’a aucune exigence en terme de qualité de photo (ça fait même peur de voir le niveau des photos, le genre qui n’était pas facturé par la FNAC du temps de l’argentique).


votre avatar

Quitte à sortir le trépied, autant faire de la “belle” photo avec un appareil photo <img data-src=" />

votre avatar

Réduction du bruit du signal par empilement des mesures.

Réduction du bruit intrinsèque par modélisation de la mesure à vide.



Tout ca n’est pas vraiment nouveau. Meme dans le domaine de l’image. Et meme dans le domaine du smartphone.



Google “Multi-frame low illumination noise removal in smartphone” (samsung)

votre avatar

Pas la peine de tourner autour du pot, c’est la surface trop réduite des pixels qui pose problème. Il serait possible d’obtenir des photos bien plus belles en basse luminosité si on se contentait de 5 Mpixels au lieux de 12. La course à la résolution dé-sert les clients. Malheureusement, Sony est le principal fournisseur de capteurs photo donc ils décident la stratégie pour les autres.

votre avatar







Timtim a écrit :



Le bruit du capteur est probablement intrinsèque au capteur et dépendant tu temps de pose qui va déterminer la quantité de courant d’obscurité (les électrons qui sont générés alors qu’il n’y a pas de photons). Même que ce bruit est probablement gaussien et quasiment linéaire avec le temps de prise de vue et stable d’une image à l’autre. 



Donc on pourrait juste imaginer calibrer ce bruit soit une bonne fois pour toute soit tous les X moins pour tenir compte d’un éventuel vieillissement du capteur et le retirer systématiquement à toutes les photos





En effet le bruit est lié en partie au courant d’obscurité, mais pas seulement.

Ensuite, “calibrer le bruit”, je ne comprends pas ce que ça veut dire ; ni de le retirer ; le bruit est justement la partie qui est impossible à retirer du fait de sa nature aléatoire (c’est l’inverse du signal, si on veut).







secouss a écrit :



Pour le traitement du bruit les reflex font déjà ça avec des “profils” de bruit pour le capteur et de déformation pour les objectifs (dispo sur le site du fabricant, sur Adobe ou chez certains professionnel de l’optique).





Autant on peut corriger les optiques, ou bien les petites différences d’exposition d’un capteur entre zones (c’est fait dans chaque reflex au moins j’imagine, on effectue une calibration en prenant une photo dans le noir ou en faible luminosité et on mémorise l’image pour la retirer, et idem en photo 100 % blanche sauf erreur de ma part), mais un profil de bruit, je ne vois pas ce que c’est.


votre avatar

C’est la même chose qu’un profil de poussière ^^ tu va cartographier ton capteur avec un logiciel dédié. Tu sais qu’avec X ISO sur X temps ton capteur monte en temperature et génère du bruit. Ce bruit tu le neutralise car tu sais parfaitement comment il se présente sur un capteur CMOS ou CCD.



Finalement l’idée est la même. Tu cartographie un “défaut” pour le limiter. D’ailleurs la réduction de bruit de photoshop le fait très bien sans cartographie avec juste 3 ou 4 photos fusionnées.



Il ne faut pas oublier l’info que je donne au début, la température du capteur, plus c’est chaud plus la photo tire vers le rouge, autre variable, présence où non d’un filtre passe bas, ….&nbsp;

Quand je fais de l’astrophotographie je privilégie une soirée d’hiver sec (température et humidité faible) je laisse le boitier et l’objectif se mettre à température extérieur 10-15 minutes, j’allume et je connais déjà mes réglage, photo directe. Capteur froid par temps froid tu réduis grandement le bruit.



Un smartphone qui chauffe en faisant 32 ou 64 pause (bonjour la mémoire) avec en prime une taille de capteur réduite, des parasites du a l’activité du smartphone, …. tu va faire la course pour ne rien gagner.



Au final tu veux faire des photos de nuits, tu prend un reflex moyenne gamme, tu veux te poser sur un trépied et faire de magnifiques photos des nuit, bonjour Nikon D5 ou la référence en nocturne a venir le sony Alpha 9. Mais à un moment un capteur de smartphone reste un capteur de smartphone, quand l’algorithme “imagine” la photo je trouve ça triste.

votre avatar

Je ne sais pas ce que tu appelles “bruit”, mais le bruit ne PEUT pas être retiré, car le bruit est aléatoire. Un défaut précis du capteur, comme un pixel défectueux ou des petites différences constantes entre zones (il faut vérifier ça avec plusieurs photos, peut être retiré ; mais c’est constant et donc ce n’est pas du bruit.

votre avatar

Le bruit peut être retiré par comparaison de X photos ;) tu fais une médiane algorithmique finalement. De plus tu peux cartographier le bruit, le souci est qu’il dépend de beaucoup de paramètre, j’entend par cartographier connaitre le réglage le plus adéquat pour le neutraliser. (Fonction de la durée de pause, des ISO, de ton materiel et objectif ainsi que de la température)



Mais je suis d’accord le bruit est par définition aléatoire entre les pixels, il sera différent pour chaque photo mais son intensité peut être connu.&nbsp;



J’ai un réglage de traitement graduel fonction de l’intensité et du nombre de photos sur lightroom pour ma part :)

votre avatar







secouss a écrit :



Le bruit peut être retiré par comparaison de X photos ;)





Oui ça c’est vieux et c’est que l’article explique aussi.

Mais tes propos ne parlaient pas de l’aspect statistique. On ne peut pas retirer le bruit avec une seule photo, parce que le bruit est aléatoire.


votre avatar

on peut en faisant des comparaison de proche en proche, en somme tu prend une photo haute résolution en format Raw et tu va la comprimer en réduisant son nombre de pixel pour supprimer le bruit (4pixels = 1 par exemple) ça marche avec les gros capteur de reflex justement :)



Tu peux même pousser plus loin, certains outils vont faire ça par comparaison statistique, il groupera plus de pixels là ou la couleur est unie. C’est pas non plus ultra complexe. Simplement tu va perdre en résolution.&nbsp;

Après pour 90% des utilisations la résolution des reflex moderne est “trop grande” et le permet. Si tu veux faire de l’impression (300 ppi environ) tu peut te permettre de réduire ta résolution.



En gros le choix dépend de l’utilisation que tu en fera. Mais c’est l’avantage d’un grand nombre de pixel, ton post-traitement est plus simple car tu as plus de données à utiliser pour avoir un développement au mieux.

Google présente ses travaux pour améliorer les photos de nuit sur smartphone

  • Au MWC de Barcelone, les smartphones montraient leurs muscles sur la photo

  • Google s'intéresse aux clichés en basse luminosité sur smartphone

  • Prendre des dizaines de photos et les combiner pour améliorer le rendu

  • Pour les photos du ciel, il faut prendre en compte la rotation de la Terre

  • Et maintenant ? 

Fermer