Google présente ses travaux pour améliorer les photos de nuit sur smartphone
Qui a éteint la lumière ?
Le 27 avril 2017 à 12h00
5 min
Société numérique
Société
Les photos en très basse luminosité réalisées avec un smartphone sont généralement peu satisfaisantes. Un ingénieur de Google s'est penché sur la question et dévoile les résultats de ses recherches. Le rendu est bon, mais nécessite une certaine puissance de calcul pour y arriver. Par contre, cette solution n'est pas (encore ?) disponible.
L'intelligence artificielle est au cœur d'une grosse partie de la stratégie des services de Google. La photo n'est pas en reste et le géant du Net mise beaucoup sur son service Photos qui permet de sauvegarder et organiser les clichés. Il mène également de nombreuses expérimentations sur le sujet, dont une qui semble prometteuse sur des photos en basse luminosité depuis un smartphone.
Au MWC de Barcelone, les smartphones montraient leurs muscles sur la photo
Les capteurs des téléphones ne cessent de s'améliorer avec un rendu et un nombre de pixels toujours plus grand avec de la stabilisation optique, au moins sur les modèles haut de gamme. Les constructeurs se livrent d'ailleurs une féroce guerre de communication sur le sujet.
Au MWC de Barcelone, nous avons ainsi pu tester le zoom 5x « sans perte » d'Oppo (mélangeant optique et algorithme), qui donnait de bons résultats même s'il ne s'agissait que de prototypes. Il y avait également la caméra de Sony capable de monter jusqu'à 960 ips pour réaliser des ralentis.
Les doubles capteurs à l'arrière se généralisent, y compris sur les modèles moyen de gamme, parfois avec des fonctionnalités supplémentaires. C'est notamment le cas du LG G6 qui permet de passer automatiquement d'un capteur à l'autre lorsque vous zoomez, pour limiter les pertes.
De manière générale, les smartphones peuvent donc remplacer les appareils photo numériques dans certaines conditions, mais pas toutes bien évidemment. En basse luminosité, ces derniers gardent souvent l'avantage et proposent une bien meilleure qualité.
Google s'intéresse aux clichés en basse luminosité sur smartphone
Dans un billet de blog, Florian Kainz (ingénieur logiciel chez Google), présente les résultats d'une expérimentation maison. Elle prend la forme d'une application Android – non disponible publiquement – qui gère manuellement les options de la caméra : temps d'exposition, ISO et autofocus.
Il n'y a pas de secret, en (très) basse luminosité il faut augmenter les deux premiers paramètres pour capturer le plus de lumière possible. De son côté, l'autofocus n'arrive généralement pas à faire la mise au point dans des scènes trop sombres. Kainz s'intéressant principalement aux photos de paysage et du ciel, il l'a simplement placé sur « infini ».
Prendre des dizaines de photos et les combiner pour améliorer le rendu
Le concept de son application est simple : elle prend plusieurs dizaines (32 ou 64 dans les exemples ci-dessous) de photos d'une même scène avec un temps d'exposition de 2 ou 4 secondes en fonction de ce que permet le smartphone. Bien évidemment, il faut installer ce dernier sur un support pour qu'il ne bouge pas, mais c'est la même chose avec un APN et un temps d'ouverture aussi long.
Il place ensuite un morceau de scotch devant l'objectif et reprend une salve de photos pour ne capturer que le bruit généré. Il a ensuite utilisé un algorithme maison afin de combiner la première série d'images afin de « nettoyer la majeure partie du grain », puis il a utilisé la seconde (les photos avec le capteur obturé) pour supprimer une partie des variations dues à ce dernier.
Comme on peut le voir sur les images ci-dessous, le résultat est assez impressionnant :
Photo avec la technique de Kainz, une autre avec le mode HDR+ du smartphone (la luminosité a été augmentée dans le rectangle)
Pour les photos du ciel, il faut prendre en compte la rotation de la Terre
L'ingénieur s'est ensuite attelé à un problème différent : prendre en photo un ciel étoilé de nuit. Si en 4 secondes les astres n'ont pas le temps de bouger suffisamment, avec des dizaines de photos leur position n'est plus la même au début et à la fin, ce qui donne un effet de flou.
Il est possible de corriger le tir en alignant les étoiles sur les différentes images, mais cela fait bouger le sol, qui devient flou à son tour. En combinant les deux, il affirme être capable d'arriver à un résultat net :
Une photo avec un temps d'exposition de 2 s, la même avec le traitement appliqué
Et maintenant ?
Si cette technique semble donner de bons résultats, elle n'est pas sans défaut. Pour commencer, elle réduit fortement la résolution de l'image afin de supprimer une partie des parasites. De plus, elle ne fonctionne que sur des smartphones qui disposent d'un mode manuel et peuvent prendre des photos avec une ouverture de plusieurs secondes. Enfin, elle nécessite une grande puissance de calcul, ce qui implique que cette application est trop gourmande pour la plupart des smartphones, selon son créateur.
« Cependant, avec le bon logiciel, un téléphone devrait être en mesure de traiter les images en interne » affirme Florian Kainz. Il ne donne par contre aucune précision concernant la puissance nécessaire et une éventuelle mise en ligne de son application et/ou un développement de ce service de la part de Google.
Le billet étant publié sur l'un des blogs officiels du géant du Net, on peut se douter que la société de Mountain View travaille dessus. Reste à voir quand le grand public pourra en profiter.
Google présente ses travaux pour améliorer les photos de nuit sur smartphone
-
Au MWC de Barcelone, les smartphones montraient leurs muscles sur la photo
-
Google s'intéresse aux clichés en basse luminosité sur smartphone
-
Prendre des dizaines de photos et les combiner pour améliorer le rendu
-
Pour les photos du ciel, il faut prendre en compte la rotation de la Terre
-
Et maintenant ?
Commentaires (41)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 27/04/2017 à 14h53
[quote:5881767:anagrys]En mode “HD” mon téléphone a de meilleurs résultats que mon vieux Canon 450D à 1600 ISO (testé sur quelques photos au début), moins bruité et mieux défini. Le mode HD est obtenu par interpolation sur une dizaine de photos pris en rafale. Evidemment, il faut être stable (donc trépied ou support solide), comme toujours en photo en basse lumière.[/Quote]
En pratique c’est pas vraiment intéressant, moi ce que je veux c’est prendre une photo de quelqu’un le soir au restau ou dans la rue et que ce soit correct, les couleurs et le modelé de la peau, et pour ça même un vieux Canon 450D (j’ai un 350D et un 550D) est sans concurrence des mobiles.
Le 27/04/2017 à 15h19
Ca depend des gammes…
Aujourd’hui pour 400€ dans le domaine de dslr t’as un truc qui fait du 24p1080 en video et 18Mps mais bon si tu rajoute 500€ d’objectif tu peux avoir du bokeh et prendre des photo en basse luminosité.
Coté smartphone pour 250€ t’as un tel qui peut tourner en 4k, faire du slow motion, qui rentre dans la poche et 1 000 000 000 de fonctionnalité supplémentaires user friendly, customisables et évolutives (gps, filtre magiques, retouche automatique, synchronisation cloud, partage nfc, bluetooth, ect…)
Perso je continue d’utiliser tres souvent mon reflexe à 500boules parce que c’est quand meme pratique quand on l’a (batterie à part, reactivité, et je kiffe le bruit au declenchement), mais quand quelqu’un vient me demander “ca prend des belle photo?” generalement je repond sechement:
“Non, c’est de la crotte, c’est pourri, ça sert plus à grand chose et ça servira bientôt plus à rien alors reste avec ton iphone 7 mec, le futur t’appartient!”
Alors je sais que dans la pratique c’est assez injuste de comparer les smartphone et les dslr, mais franchement, quand je vois à quelque point le marché est segmenté à donf par les constructeurs et leur complaisance à attendre la mort en ajoutant tous les 2ans des fonctionnalités pérave qui ont 10ans de retard ça me saoule, parce que s’ils se sortaient un minimum les doigts ils pourraient faire des trucs super cool sans qu’on ait a dépenser 2000€ pour un truc potable…
Le 27/04/2017 à 20h03
perso j’ai rien compris a son programme. C’est quoi l’interet de faire 40 photos de 2 secondes plutot qu’une photo de 80 sec?
Puis la reduction de bruit electronique sur pause longue, les apns le font deja (sur le miens 1sec de pause=1 sec de calcul).
Le 27/04/2017 à 20h27
Ça ressemble fortement au picture stacking, technique de base utilisée depuis des lustres dans la microscopie pour obtenir des clichés nets de cellules alors que celles-ci sont très translucides. Principe de base du HDR également : prendre plusieurs clichés pour extraire une plus grande dynamique de luminosité. Rien de nouveau sous le soleil visiblement.
Le 28/04/2017 à 07h31
Un très gros +1.
Beaucoup de fonctionnalités qui simplifient la vie des photographes sont purement logicielles, ça fout les boules de devoir acheter le modèle au dessus pour faire du braketing a plus de 3 photos par exemple. Et encore c’est un exemple tout con, je ne parle même pas des panoramas/photos à 360° qui viennent par défaut avec le smartphone le plus bas de gamme à 60€ et qu’on n’a même pas sur un reflex à 2000€.
Le reflex est l’outil idéal pour faire de très belles photos quand on le maîtrise, mais à moins de payer très cher son matos et de bien le maitriser on fait pas des photos nécessairement plus jolies qu’avec un smartphone. Tout au plus on a le choix de la focale. En revanche le téléphone ne pèse rien, on le prend de toutes façons quand on se balade et il permet d’utiliser directement la photo.
Je dis pas que l’un est mieux que l’autre, mais il faut savoir faire la part des choses et je trouve ça super élitiste de dire que de toutes façons l’algo de google c’est de la merde et les mecs avec des smartphones ne devraient pas pouvoir faire de belles photos sans payer 1500€ leur reflex.
Le 28/04/2017 à 07h33
Tu peux prendre des photos avec plusieurs paramètres différents pour avoir une photo avec de bons détails à la fois dans les zones sombres et dans les zones lumineuses. Si tu prends ta photo sur 80s, certes tu verras bien les zones sombres mais les zones claires seront cramées (typiquement sur la photo en exemple dans l’article, toutes les sources de lumières seraient dégueulasses).
Le 28/04/2017 à 07h37
Pour filmer en 1080p à haute vitesse ça peut être fait en “trichant”. Tu as 4* plus de pixels et tu prends une image sur deux avec un pixel sur deux. C’est probablement pour compenser le fait qu’un capteur ne peut pas prendre suffisamment d’images par secondes pour filmer en haute vitesse à pleine résolution (peut-être une histoire de conso ?).
C’est pour ça qu’on peut en général filmer à 1080p à 30ips ou en 720p à 60ips sur certains appareils, mais pas en 1080p à 60ips.
Le 28/04/2017 à 08h55
Oui çà dépend des gammes, on est bien d’accord. :)
Le 28/04/2017 à 11h48
Il y a une grosse difference entre un apn et un bon photophone, meme pour un amateur. La principale, ce n’est pas tellement le choix de la focale que la luminosité. Avec un enorme capteur tu peux prendres des photos dans bien plus de situation, en particulier les interieurs.
Sinon, ce que tu m’as décrit finalement, c’est du HDR pour pause longue, je connaissait pas. Cependant avec une bonne dynamique, je suis pas sur que ce soit vraiment utile.
Le 28/04/2017 à 11h53
Le 28/04/2017 à 11h56
la correction du bruit (au moins) ?
Le 28/04/2017 à 22h29
Le 29/04/2017 à 09h09
Le bruit du capteur est probablement intrinsèque au capteur et dépendant tu temps de pose qui va déterminer la quantité de courant d’obscurité (les électrons qui sont générés alors qu’il n’y a pas de photons). Même que ce bruit est probablement gaussien et quasiment linéaire avec le temps de prise de vue et stable d’une image à l’autre.
Donc on pourrait juste imaginer calibrer ce bruit soit une bonne fois pour toute soit tous les X moins pour tenir compte d’un éventuel vieillissement du capteur et le retirer systématiquement à toutes les photos sombres (voir au photo claires aussi) c’est juste une soustraction de valeur d’une valeur pixel à pixel.
Je suis même étonné que cela n’existe pas pour les appareils haut de gamme surtout ceux où l’on peut augmenter les ISO et donc le bruit causé par le courant d’obscurité….
Le 02/05/2017 à 08h47
Rien de neuf finalement, comment faire une photo plus lumineuse ? Faire plusieurs photos.
Le même principe est appliqué aux observatoires d’astronomie ou aux astro-photographes et c’est pas récent ^^ pour voir plus de détails il suffit de faire plusieurs observation d’un même objets sur une longue durée et de superposer le résultat.
Pour le traitement du bruit les reflex font déjà ça avec des “profils” de bruit pour le capteur et de déformation pour les objectifs (dispo sur le site du fabricant, sur Adobe ou chez certains professionnel de l’optique).
Au final il se contente d’appliquer à un smartphone ce que fait un photographe avec un appareil standard. La course à la “photo incroyable” avec un smartphone à ses limites. Même avec tous les algorithmes, là ou il faut 32x 4s ( soit 128s donc 2 minutes et quelques) un reflex nécessitera 2 à 3x moins de temps d’expo pour un grain bien plus faible. La taille du capteur fait le reste.
Le 02/05/2017 à 09h27
Le 02/05/2017 à 09h29
Le 27/04/2017 à 12h25
Complètement inutile.
Un trépied étant nécessaire…à moins que la personne va déposer son téléphone sur le coin d’un mur, trottoir, arbre, etc.
Bref, je vais prendre mon DSLR avec un trépied.
Le 27/04/2017 à 12h27
C’est pas la même logistique non plus. Le trépied nécessaire pour tenir un appareil photo ne fait pas le même poids, etc etc.
Il y a beaucoup de prises de vues pour lesquelles un téléphone ne fera pas mieux qu’un gros objectif et un appareil adapté, mais vu la qualité des smartphones actuels je comprends que de plus en plus de gens se tournent vers ça plutôt que l’achat d’un reflex à plusieurs centaines (voire milliers) d’euros.
Le 27/04/2017 à 12h30
Multiplier les pixels sur un capteur permet aussi de filmer des vidéos 1080p à plus de 30ips, ce n’est pas que pour la photo. Du coup, si les pixels sont disponibles c’est dommage de ne pas les utiliser en mode photo.
Pour le coup c’est pas des truffes non plus chez Sony, s’ils font ces choix c’est pas pour faire chier les gens avec de la mauvaise qualité.
Le 27/04/2017 à 12h30
Il y a quand même un monde entre smartphone et un reflex top moumoute aussi " />
Le 27/04/2017 à 12h31
“Complètement inutile”, sauf qu’un trépied pour téléphone + le smartphone c’est 300g là ou ton trépied et DSLR c’est minimum 6/7kg.
Evidemment si tu veux faire de la photo sérieuse il faudra un DSLR, mais je vois pas pourquoi on permettrait pas aussi aux amateurs de faire des photos sympas avec peu d’équipement.
Le 27/04/2017 à 12h33
Le 27/04/2017 à 12h33
C’est sûr, mais tout est bon à prendre pour permettre aux “petits” équipements de faire de belles photos.
Les techniques proposées par Google se retrouveront tôt ou tard dans Photoshop et serviront aussi à ceux qui ont un reflex et qui veulent améliorer encore plus la qualité de leurs photos, donc ne crachons pas dans la soupe.
Le 27/04/2017 à 12h37
Ils ont un dispositif pour empêcher les doigts devant l’objectif quand tu prends la photo ?
C’est pour un ami moi " />
Le 27/04/2017 à 13h01
En mode “HD” mon téléphone a de meilleurs résultats que mon vieux Canon 450D à 1600 ISO (testé sur quelques photos au début), moins bruité et mieux défini. Le mode HD est obtenu par interpolation sur une dizaine de photos pris en rafale. Evidemment, il faut être stable (donc trépied ou support solide), comme toujours en photo en basse lumière.
Je n’ai pas comparé avec un appareil plus récent ou full frame, je pense que vu les progrès en montée en sensibilité sur les reflex le résultat serait moins évident.
Le 27/04/2017 à 13h10
Ca existe déjà depuis un moment. Mon appareil photo (pas récent) fait déjà exactement ce qu’il propose, sauf qu’il est capable de prendre des photos de plus de 2s, du coup je n’ai pas besoin de prendre 32 photos pour arriver à simuler une expo un peu longue.
Le 27/04/2017 à 13h13
FAUX…
1080p correspond en gros à 2M pixels…
En fait beaucoup de capteurs ont des problèmes d’aliasing en vidéo parce que en mode vidéo on ne lit que certains pixels pour limiter ce que doivent encaisser les ADC. Si tu as 60i/s x 2M il faut capturer 120M pixels/s. Si on devait lire vraiment tous les 12M cela ferait 6x plus donc 720M pixiels/s sans compter le traitement pour ensuite réduire cela.
Le problème est ensuite un bête problème d’échantillonnage à une certaine fréquence d’une valeur analogique avec une certaine bande passante. Si la bande passante dépasse 50% de la fréquence d’échantillonnage tu as un “repliement” des fréquences. Ex: capturer un signal sinusoidal à 100MHz à un rythme de 100MHz donne un signal constant! En pratique du moiré apparaît..
Wikipedia
Le 27/04/2017 à 13h29
” il faut installer ce dernier sur un support pour qu’il ne bouge pas,”
Y a strictement aucune nouveauté la dedans, donc…..
Il est bidon cet ingénieur.
Le 27/04/2017 à 13h29
Photo Stacking… comme on en fait en astronomie depuis… le début du numérique.
Il y a d’excellents logiciels pour cela qui font tout le job (réalignement, rotation, pixel chaud…)
RegiStax
DeepSkyStacker
Si vous avez un DSLR correct, un pied et un déclencheur (ou temporisateur) à vous les belles images de nuit, même sans télescope.
Par contre effectivement il faut du calcul pour faire les choses bien, et comme justement évoqué précédemment, la taille des pixels ridicule sera toujours le plus grand handicap ici.
Le 27/04/2017 à 13h57
Le 27/04/2017 à 14h16
Ce ne sera pas la première fois qu’on réinvente une roue. ;)
Le 27/04/2017 à 14h50
Le 27/04/2017 à 12h11
Quitte à sortir le trépied, autant faire de la “belle” photo avec un appareil photo " />
Le 27/04/2017 à 12h14
Réduction du bruit du signal par empilement des mesures.
Réduction du bruit intrinsèque par modélisation de la mesure à vide.
Tout ca n’est pas vraiment nouveau. Meme dans le domaine de l’image. Et meme dans le domaine du smartphone.
Google “Multi-frame low illumination noise removal in smartphone” (samsung)
Le 27/04/2017 à 12h16
Pas la peine de tourner autour du pot, c’est la surface trop réduite des pixels qui pose problème. Il serait possible d’obtenir des photos bien plus belles en basse luminosité si on se contentait de 5 Mpixels au lieux de 12. La course à la résolution dé-sert les clients. Malheureusement, Sony est le principal fournisseur de capteurs photo donc ils décident la stratégie pour les autres.
Le 02/05/2017 à 09h35
Le 02/05/2017 à 09h51
C’est la même chose qu’un profil de poussière ^^ tu va cartographier ton capteur avec un logiciel dédié. Tu sais qu’avec X ISO sur X temps ton capteur monte en temperature et génère du bruit. Ce bruit tu le neutralise car tu sais parfaitement comment il se présente sur un capteur CMOS ou CCD.
Finalement l’idée est la même. Tu cartographie un “défaut” pour le limiter. D’ailleurs la réduction de bruit de photoshop le fait très bien sans cartographie avec juste 3 ou 4 photos fusionnées.
Il ne faut pas oublier l’info que je donne au début, la température du capteur, plus c’est chaud plus la photo tire vers le rouge, autre variable, présence où non d’un filtre passe bas, ….
Quand je fais de l’astrophotographie je privilégie une soirée d’hiver sec (température et humidité faible) je laisse le boitier et l’objectif se mettre à température extérieur 10-15 minutes, j’allume et je connais déjà mes réglage, photo directe. Capteur froid par temps froid tu réduis grandement le bruit.
Un smartphone qui chauffe en faisant 32 ou 64 pause (bonjour la mémoire) avec en prime une taille de capteur réduite, des parasites du a l’activité du smartphone, …. tu va faire la course pour ne rien gagner.
Au final tu veux faire des photos de nuits, tu prend un reflex moyenne gamme, tu veux te poser sur un trépied et faire de magnifiques photos des nuit, bonjour Nikon D5 ou la référence en nocturne a venir le sony Alpha 9. Mais à un moment un capteur de smartphone reste un capteur de smartphone, quand l’algorithme “imagine” la photo je trouve ça triste.
Le 02/05/2017 à 10h13
Je ne sais pas ce que tu appelles “bruit”, mais le bruit ne PEUT pas être retiré, car le bruit est aléatoire. Un défaut précis du capteur, comme un pixel défectueux ou des petites différences constantes entre zones (il faut vérifier ça avec plusieurs photos, peut être retiré ; mais c’est constant et donc ce n’est pas du bruit.
Le 02/05/2017 à 10h53
Le bruit peut être retiré par comparaison de X photos ;) tu fais une médiane algorithmique finalement. De plus tu peux cartographier le bruit, le souci est qu’il dépend de beaucoup de paramètre, j’entend par cartographier connaitre le réglage le plus adéquat pour le neutraliser. (Fonction de la durée de pause, des ISO, de ton materiel et objectif ainsi que de la température)
Mais je suis d’accord le bruit est par définition aléatoire entre les pixels, il sera différent pour chaque photo mais son intensité peut être connu.
J’ai un réglage de traitement graduel fonction de l’intensité et du nombre de photos sur lightroom pour ma part :)
Le 02/05/2017 à 11h05
Le 02/05/2017 à 11h37
on peut en faisant des comparaison de proche en proche, en somme tu prend une photo haute résolution en format Raw et tu va la comprimer en réduisant son nombre de pixel pour supprimer le bruit (4pixels = 1 par exemple) ça marche avec les gros capteur de reflex justement :)
Tu peux même pousser plus loin, certains outils vont faire ça par comparaison statistique, il groupera plus de pixels là ou la couleur est unie. C’est pas non plus ultra complexe. Simplement tu va perdre en résolution.
Après pour 90% des utilisations la résolution des reflex moderne est “trop grande” et le permet. Si tu veux faire de l’impression (300 ppi environ) tu peut te permettre de réduire ta résolution.
En gros le choix dépend de l’utilisation que tu en fera. Mais c’est l’avantage d’un grand nombre de pixel, ton post-traitement est plus simple car tu as plus de données à utiliser pour avoir un développement au mieux.