Isocell Bright HMX : Samsung dévoile un capteur photo de 108 Mpixels en partenariat avec Xiaomi

Isocell Bright HMX : Samsung dévoile un capteur photo de 108 Mpixels en partenariat avec Xiaomi

Des pixels comme s'il en pleuvait

Avatar de l'auteur

Sébastien Gavois

Publié dansHardware

12/08/2019
14
Isocell Bright HMX : Samsung dévoile un capteur photo de 108 Mpixels en partenariat avec Xiaomi

Avec l'Isocell Bright HMX, Samsung dépasse pour la première fois la barrière des 100 Mpx avec un capteur pour smartphone et tablette. Il peut également enregistrer des vidéos jusqu'en 6K à 30 ips. Xiaomi, partenaire de cette annonce, devrait être le premier à l'intégrer dans un de ses produits.

En mai, Samsung lançait deux capteurs photo de 64 et 48 Mpixels : les Isocell Bright GW1 et GM2. Le fabricant vient de dévoiler son Bright HMX, réalisé en partenariat avec Xiaomi « de la conception initiale à la production ». Il propose une définition de 108 Mpixels, Samsung affirmant qu'il s'agit du « premier capteur mobile à dépasser les 100 millions de pixels ».

Cette association entre les deux sociétés n'est pas une surprise puisque Xiaomi l'avait largement teasée il y a quelques jours lors d'une conférence. Le constructeur chinois en profitait pour annoncer l'arrivée d'un smartphone Redmi (sans plus de précision pour l'instant) avec un capteur Samsung de 1/1,7" affichant 64 Mpixels.

Comme les GW1 et GM2, ainsi que leurs prédécesseurs les GD1 et GM1 d'octobre 2018, l'Isocell Bright HMX exploite des pixels de 0,8 μm. Concrètement, les photos affichent une définition de 12 032 x 9 024 pixels, tandis que les enregistrements vidéo à 30 ips peuvent grimper jusqu'à du 6K (6 016 x 3 384 pixels).

Samsung donne quelques détails techniques supplémentaires, notamment qu'il s'agit du premier modèle pour les terminaux mobiles à disposer d'un capteur plus grand de 1/1,33". Combiné avec la technologie Tetracell permettant de regrouper les pixels par paquet de quatre, il permet de meilleurs résultats en basse luminosité selon le coréen.

Une promesse faite à chaque nouvelle génération de capteurs, qu'il faudra comme toujours vérifier dans la pratique. La production débutera d'ailleurs ce mois-ci précise Samsung. Sans surprise, Xiaomi devrait être le premier à intégrer ce capteur dans un smartphone. D'après certaines rumeurs, il pourrait s'agir du Mi Mix 4.

Xiaomi 64 Mpx 100 Mpx Xiaomi 64 Mpx 100 Mpx
14
Avatar de l'auteur

Écrit par Sébastien Gavois

Tiens, en parlant de ça :

Un homme noir regarde la caméra. Sur son visage, des traits blancs suggèrent un traitement algorithmique.

AI Act et reconnaissance faciale : la France interpelée par 45 eurodéputés

Report minoritaire

15:46 DroitWebSécu 0
Api

La CNIL préconise l’utilisation des API pour le partage de données personnelles entre organismes

I'm API

15:12 SécuSociété 0
Fouet de l’Arcep avec de la fibre

Orange sanctionnée sur la fibre : l’argumentaire de l’opérateur démonté par l’Arcep

Orange rhabillé pour l'hiver

11:39 DroitWeb 7

Sommaire de l'article

Introduction

Un homme noir regarde la caméra. Sur son visage, des traits blancs suggèrent un traitement algorithmique.

AI Act et reconnaissance faciale : la France interpelée par 45 eurodéputés

DroitWebSécu 0
Api

La CNIL préconise l’utilisation des API pour le partage de données personnelles entre organismes

SécuSociété 0
Fouet de l’Arcep avec de la fibre

Orange sanctionnée sur la fibre : l’argumentaire de l’opérateur démonté par l’Arcep

DroitWeb 7
Bombes

Israël – Hamas : comment l’IA intensifie les attaques contre Gaza

IA 6

#LeBrief : bande-annonce GTA VI, guerre électronique, Spotify licencie massivement

Poing Dev

Le poing Dev – Round 7

Next 49
Logo de Gaia-X sour la forme d’un arbre, avec la légende : infrastructure de données en forme de réseau

Gaia-X « vit toujours » et « arrive à des étapes très concrètes »

WebSécu 5

Trois consoles portables en quelques semaines

Hard 37
Une tasse estampillée "Keep calm and carry on teaching"

Cyberrésilience : les compromis (provisoires) du trilogue européen

DroitSécu 3

#LeBrief : fuite de tests ADN 23andMe, le milliard pour Android Messages, il y a 30 ans Hubble voyait clair

#Flock a sa propre vision de l’inclusion

Flock 25
Un Sébastien transformé en lapin par Flock pour imiter le Quoi de neuf Docteur des Looney Tunes

Quoi de neuf à la rédac’ #10 : nous contacter et résumé de la semaine

44
Autoportrait Sébastien

[Autoportrait] Sébastien Gavois : tribulations d’un pigiste devenu rédac’ chef

Next 20
Logo de StreetPress

Pourquoi le site du média StreetPress a été momentanément inaccessible

Droit 21
Amazon re:Invent

re:Invent 2023 : Amazon lance son assistant Q et plusieurs services IA, dont la génération d’images

IA 14
Un œil symbolisant l'Union européenne, et les dissensions et problèmes afférents

Le Conseil de l’UE tire un bilan du RGPD, les États membres réclament des « outils pratiques »

Droit 6

19 associations européennes de consommateurs portent plainte contre Meta

DroitSocials 16

#LeBrief : Ariane 6 l’été prochain, Nextcloud rachète Roundcube, désinformation via la pub

Chiffre et formules mathématiques sur un tableau

CVSS 4.0 : dur, dur, d’être un expert !

Sécu 16
Une tête de fusée siglée Starlink.

Starlink accessible à Gaza sous contrôle de l’administration israélienne

Web 35
Fibre optique

G-PON, XGS-PON et 50G-PON : jusqu’à 50 Gb/s en fibre optique

HardWeb 53
Photo d'un immeuble troué de part en part

Règlement sur la cyber-résilience : les instances européennes en passe de conclure un accord

DroitSécu 10
lexique IA parodie

AGI, GPAI, modèles de fondation… de quoi on parle ?

IA 11

#LeBrief : logiciels libres scientifiques, fermeture de compte Google, « fabriquer » des femmes pour l’inclusion

livre dématérialisé

Des chercheurs ont élaboré une technique d’extraction des données d’entrainement de ChatGPT

IAScience 3
Un chien avec des lunettes apprend sur une tablette

Devenir expert en sécurité informatique en 3 clics

Sécu 11
Logo ownCloud

ownCloud : faille béante dans les déploiements conteneurisés utilisant graphapi

Sécu 16
Le SoC Graviton4 d’Amazon AWS posé sur une table

Amazon re:invent : SoC Graviton4 (Arm), instance R8g et Trainium2 pour l’IA

Hard 12
Logo Comcybergend

Guéguerre des polices dans le cyber (OFAC et ComCyberMi)

Sécu 10

#LeBrief : faille 0-day dans Chrome, smartphones à Hong Kong, 25 ans de la Dreamcast

Des billets volent dans les airs.

Mistral AI s’apprête à lever 450 millions d’euros auprès de NVIDIA et a16z

ÉcoIA 0

GTA VI

Rockstar met en ligne le trailer de GTA VI

Soft 34

Russian drone shot by the State Border Guard Service of Ukraine

La guerre électronique serait la plus grande faiblesse de l’Ukraine, et la principale force de la Russie

HardSécu 7

Debout, une femme en pull bleu montre à une autre, assise, quelque chose à son écran d'ordinateur.

Futur de l’IA : les femmes manquent dangereusement à l’appel

IASociété 12

Logo Spotify avec notes de musique

Spotify licencie 1 500 personnes de plus

ÉcoSociété 13

Wikipedia sombre

Wikipedia aura son thème sombre

Web 16

Commentaires (14)


Optrolight Abonné
Il y a 4 ans

Pixel de 800nm, on arrive à la dimension des longueurs d’onde dans le visible. Bref avec la diffraction la qualité d’image ne va pas s’améliorer.
Sans parler en basse lumière où on voit qu’ils sont obligés de faire du bining.


anagrys Abonné
Il y a 4 ans

Faire ces capteurs “à taille de pixels constante” par rapport à la génération précédente est une bonne chose. Sauf que du coup le capteur est plus gros, une idée de l’impact sur ça aura sur le système optique ?


Furanku Abonné
Il y a 4 ans

Optrolight a dit:


Pixel de 800nm, on arrive à la dimension des longueurs d’onde dans le visible. Bref avec la diffraction la qualité d’image ne va pas s’améliorer. Sans parler en basse lumière où on voit qu’ils sont obligés de faire du bining.




Je n’ai pas saisis le lien entre longueur d’onde et largeur de pixel :/



Dans le premier cas il s’agit d’une longueur de fréquence, pas d’une taille (ou alors un photon est plus gros que ce que j’imaginais). Donc on pourrait encore descendre les pixels plus bas pour plus de précision, les deux n’ont aucun lien.



Mais il est évident que plus on descend bas, plus de problèmes se posent pour gérer la diffraction et autres interférences physiques. Ce qu’ils compensent par des algorithmes plus ou moins efficaces en aval.



Après je ne suis pas un expert mais ta remarque me laisse perplexe :transpi:


Salamandar Abonné
Il y a 4 ans

Furanku a dit:


Je n’ai pas saisis le lien entre longueur d’onde et largeur de pixel :/Dans le premier cas il s’agit d’une longueur de fréquence, pas d’une taille (ou alors un photon est plus gros que ce que j’imaginais). Donc on pourrait encore descendre les pixels plus bas pour plus de précision, les deux n’ont aucun lien.Mais il est évident que plus on descend bas, plus de problèmes se posent pour gérer la diffraction et autres interférences physiques. Ce qu’ils compensent par des algorithmes plus ou moins efficaces en aval.Après je ne suis pas un expert mais ta remarque me laisse perplexe :transpi:




Ça se voit que tu n’as jamais fait de physique :D



Le phénomène bien connu de diffraction des ondes apparaît lorsque un objet physique a une dimension comparable à la longueur d’onde. Et la lumière est bien plus proche d’une onde que de ce qu’on appelle un photon.



http://www.thestargarden.co.uk/Images/Reflection-diffraction.jpg


js2082
Il y a 4 ans

anagrys a dit:


Faire ces capteurs “à taille de pixels constante” par rapport à la génération précédente est une bonne chose. Sauf que du coup le capteur est plus gros, une idée de l’impact sur ça aura sur le système optique ?




Il sera soit plus gros donc plus cher, soit de même taille mais mieux “taillé” pour éviter les défauts et avoir la même qualité d’image, donc plus cher là aussi.



Dans tous les cas, tu devras payer plus.


Furanku Abonné
Il y a 4 ans

Salamandar a dit:


Ça se voit que tu n’as jamais fait de physique :DLe phénomène bien connu de diffraction des ondes apparaît lorsque un objet physique a une dimension comparable à la longueur d’onde. Et la lumière est bien plus proche d’une onde que de ce qu’on appelle un photon.http://www.thestargarden.co.uk/Images/Reflection-diffraction.jpg




Disons que mon niveau de physique (appliquée) s’arrête en BAC+2 et qu’on n’a pas abordé ce type de sujet, d’où mon interrogation :transpi:



Mais je me rends compte que je connaissais ce soucis physique, pour avoir vu son explication dans divers documentaires, mais pas son nom. Comme quoi la science, on croit savoir jusqu’à se rendre compte que l’on ne sait pas.



Merci pour ces détails :)


tazvld Abonné
Il y a 4 ans

Je ne comprend pas comment avec 1 pixel composé 4 sous pixel dont la surface sera sûrement inférieur à 1 pixel simple on arrive à amélioré la qualité de la photo.



Il me semble que le problème à la base, c’est l’aspect aléatoire du nombre de photon qui va frappé le capteur pendant le temps d’exposition. En diminuant la taille du capteur, on augmente la variabilité des mesures : ça crée du bruit. Si sur une surface donnée on a 40 photon qui frappe, qu’est ce que ça nous apporte de plus de savoir qu’il y en a eu 15 en haut à gauche, 7 en bas à gauche, 5 en haut à droite et 13 en bas à droite (il me semble que les capteurs ne sont pas des jolies grilles bien carrées, mais c’est pour l’exemple)? Comment cette information est exploitable ?


Ramaloke Abonné
Il y a 4 ans

Il me semble que se pose aussi les phénomènes de tunnel quantiques des électrons qui passent d’un circuit à l’autre (d’un pixel à l’autre) et qui deviennent de plus en plus problématique à mesure que la taille des composants diminue.



Parfois on observe même des baisses de qualité suite à l’augmentation du nombre de pixel, ce qui est paradoxal. C’est d’ailleurs un argument en faveur des capteurs “full frame” face au micro4/3 ou au format plus petit (smartphone), car à quantité de pixel équivalent, plus le capteur est grand, plus la densité diminue (et avec les risques d’exciter le recepteur d’à côté que ce soit pour un problème de diffraction ou électrique), de même que la sensibilité du capteur augmenter, car en étant plus grand il perçoit plus de “lumière”.


Ramaloke Abonné
Il y a 4 ans

tazvld a dit:


Je ne comprend pas comment avec 1 pixel composé 4 sous pixel dont la surface sera sûrement inférieur à 1 pixel simple on arrive à amélioré la qualité de la photo.Il me semble que le problème à la base, c’est l’aspect aléatoire du nombre de photon qui va frappé le capteur pendant le temps d’exposition. En diminuant la taille du capteur, on augmente la variabilité des mesures : ça crée du bruit. Si sur une surface donnée on a 40 photon qui frappe, qu’est ce que ça nous apporte de plus de savoir qu’il y en a eu 15 en haut à gauche, 7 en bas à gauche, 5 en haut à droite et 13 en bas à droite (il me semble que les capteurs ne sont pas des jolies grilles bien carrées, mais c’est pour l’exemple)? Comment cette information est exploitable ?




Elle est exploitable de la même façon qu’actuellement, en augmentant le nombre de point de mesure, on augmente l’échantillonnage, donc on est plus précis. Raison pour laquelle une image en 480p est plus “grossière” qu’une image en 4k.



En plus ce que tu oublies, c’est qu’on ne raisonne pas en terme de photon uniquement (luminance) mais aussi en terme de couleur (fréquence de la lumière = chrominance), donc chaque sous-pixel ne capte qu’une certaine fréquence lumineuse (souvent derrière un filtre de la couleur voulu), donc en fonction du nombre de “photon” qui vont frapper les sous-pixel R/G/B et de leur nombre (luminance) on va te créer un pixel d’une luminosité X et de couleur R+G+B.



Tu as donc bien à la fin une image plus détaillé, avec plus de pixel (Ie : avec un meilleur échantillonnage de la réalité).



Ps : Pour le nombre de sous-pixel, je pense que tu t’es trompé, il y en as toujours 3 (RGB, adapté à l’oeil humain), le regroupant par 4, c’est pour les pixel, en basse lumiète, 4 pixel vont se comporter comme 1 (tu divise donc ta résolution par 4, mais tu captes 4 fois plus de lumière car la surface d’un “pixel” en fait 4).


Firefly' Abonné
Il y a 4 ans

tazvld a dit:


Je ne comprend pas comment avec 1 pixel composé 4 sous pixel dont la surface sera sûrement inférieur à 1 pixel simple on arrive à amélioré la qualité de la photo




Les capteurs numérique sont “par couleur” donc avant, si un photon rouge touchais une partie du capteur bleu, l’information était perdu. donc on gagne bien en précision sur l’information, le pixel d’à coté va utiliser les informations des capteurs de couleurs adjacence aussi donc statistiquement tu as quand même plus d’information source même si tu sort le même nombre de pixel


OlivierJ Abonné
Il y a 4 ans

tazvld a dit:


Je ne comprend pas comment avec 1 pixel composé 4 sous pixel dont la surface sera sûrement inférieur à 1 pixel simple on arrive à amélioré la qualité de la photo.Il me semble que le problème à la base, c’est l’aspect aléatoire du nombre de photon qui va frappé le capteur pendant le temps d’exposition. En diminuant la taille du capteur, on augmente la variabilité des mesures : ça crée du bruit.




En effet, le rapport signal/bruit baisse avec la taille des pixels sur le capteur (c’est de la physique), c’est pour ça que les reflex plein format font de belles photos non bruitées, là où les compacts sont moins bons, et où les mobiles manquent de sensibilité et doivent lisser (et ont des couleurs pas toujours très belles quand on regarde de près).



C’est complètement absurde d’avoir des capteurs de mobile de plus de 8 MP, ça ne sert à rien ni à personne ; alors aller sur des 20, 50 et 100 MP :-(




Ramaloke a dit:


Elle est exploitable de la même façon qu’actuellement, en augmentant le nombre de point de mesure, on augmente l’échantillonnage, donc on est plus précis.
[..].Ps : Pour le nombre de sous-pixel, je pense que tu t’es trompé, il y en as toujours 3 (RGB, adapté à l’oeil humain), le regroupant par 4, c’est pour les pixel, en basse lumiète, 4 pixel vont se comporter comme 1 (tu divise donc ta résolution par 4, mais tu captes 4 fois plus de lumière car la surface d’un “pixel” en fait 4).




Non tu n’y es pas du tout. Déjà, 4 pixels ont moins de surface utile qu’un de la taille des 4, et surtout, le bruit augmente beaucoup avec la diminution du pixel, entre le bruit de base, et celui en captation. Chaque pixel capte moins de photons et c’est comme si tu te bouches un peu les oreilles, tu distingues moins les sons. Ce n’est pas par hasard que les reflex ont au minimum des APS-C quand ce n’est pas du plein format, les contraintes sont dues à la physique et sont difficilement dépassables.




(quote:43079:Firefly’)
Les capteurs numérique sont “par couleur” donc avant, si un photon rouge touchais une partie du capteur bleu, l’information était perdu. donc on gagne bien en précision sur l’information




Non non.



Cherchez des documents un peu techniques (mais encore de vulgarisation) sur le pourquoi du bruit qui monte sur les capteurs numériques avec la diminution de taille, c’est parfois expliqué comme un verre de bière avec le dépôt au fond (bruit résiduel) et la mousse au-dessus (bruit global).


ArchangeGabriel
Il y a 4 ans

Ramaloke a dit:


Pour le nombre de sous-pixel, je pense que tu t’es trompé, il y en as toujours 3 (RGB, adapté à l’oeil humain), le regroupant par 4, c’est pour les pixel, en basse lumiète, 4 pixel vont se comporter comme 1 (tu divise donc ta résolution par 4, mais tu captes 4 fois plus de lumière car la surface d’un “pixel” en fait 4).




En plus des commentaires de mon prédécesseur, je me permets de corriger plus en avant ce point : la plupart des capteurs d’appareils photos numériques utilisent 4 sous-pixels de couleurs, il y a en effet 2 sous-pixels verts par groupe de quatre (et donc un rouge et un bleu). Cette disposition s’appelle matrice de Bayer, et l’une des raisons de ce choix provient de la plus grande sensibilité au vert de l’œil humain (par rapport aux autres couleurs). Donc adapté à l’œil humain en captation, c’est RGBG, par RGB. ;)


PierroZ Abonné
Il y a 4 ans

Ils pourraient utiliser le même genre de système que Pentax (ou d’autres) qui consiste à générer une image d’une définition importante en combinant plusieurs images pour lesquelles le capteur se serait légèrement déplacé entre chaque prises de vues.



Et donc rester à une densité de pixel plus faible tout en laissant la possibilité de combiner plusieurs clichés pour réaliser une image avec une grosse définition (si le sujet est fixe bien entendu => paysages entre autre).



La photographie sur smartphone manque surtout de dynamique. Et je dirais aussi que la qualité de construction des “objectifs” donne des résultats bien faible en dehors du centre.



Reste à saluer les progrès software pour compenser cela


tazvld Abonné
Il y a 4 ans

Ramaloke a dit:


Elle est exploitable de la même façon qu’actuellement, en augmentant le nombre de point de mesure, on augmente l’échantillonnage, donc on est plus précis. Raison pour laquelle une image en 480p est plus “grossière” qu’une image en 4k.En plus ce que tu oublies, c’est qu’on ne raisonne pas en terme de photon uniquement (luminance) mais aussi en terme de couleur (fréquence de la lumière = chrominance), donc chaque sous-pixel ne capte qu’une certaine fréquence lumineuse (souvent derrière un filtre de la couleur voulu), donc en fonction du nombre de “photon” qui vont frapper les sous-pixel R/G/B et de leur nombre (luminance) on va te créer un pixel d’une luminosité X et de couleur R+G+B.Tu as donc bien à la fin une image plus détaillé, avec plus de pixel (Ie : avec un meilleur échantillonnage de la réalité).Ps : Pour le nombre de sous-pixel, je pense que tu t’es trompé, il y en as toujours 3 (RGB, adapté à l’oeil humain), le regroupant par 4, c’est pour les pixel, en basse lumiète, 4 pixel vont se comporter comme 1 (tu divise donc ta résolution par 4, mais tu captes 4 fois plus de lumière car la surface d’un “pixel” en fait 4).




Dans un article sur un autre site, ils expliquent que ce capteur n’est pas destiné à produire une image de 108Mpxl, mais de grouper les pixels pour en faire une photo qui est plus de l’ordre de 27Mpxl. C’est pour ça que je parlais de sous pixel. En gros, ça produit une image “4k” pour être ensuite réduit à un 1080*1920.
En augmentant le nombre de capteurs, on ne réduit pas la surface inter-capteurs, voir on l’augmente, du coup, on ne capte pas plus de lumière globalement pour un capteur de taille identique.




ArchangeGabriel a dit:


En plus des commentaires de mon prédécesseur, je me permets de corriger plus en avant ce point : la plupart des capteurs d’appareils photos numériques utilisent 4 sous-pixels de couleurs, il y a en effet 2 sous-pixels verts par groupe de quatre (et donc un rouge et un bleu). Cette disposition s’appelle matrice de Bayer, et l’une des raisons de ce choix provient de la plus grande sensibilité au vert de l’œil humain (par rapport aux autres couleurs). Donc adapté à l’œil humain en captation, c’est RGBG, par RGB. ;)




Il me semble qu’aujourd’hui, c’est même un peu plus compliqué, les capteurs ne sont plus “carré”, certain par exemple sont octogonaux, et il y a un partage de capteurs entre plusieurs pixels. J’avais rapidement discuté avec un doctorant qui bosser sur un algo pour générer les images a partir des données brutes des capteurs photos, c’était bien plus compliqué que la simple matrice de Bayer.