Microsoft dévoile son casque HoloLens 2 à 3 500 dollars, le capteur Azure Kinect à 399 dollars

You're in the army now

Microsoft dévoile son casque HoloLens 2 à 3 500 dollars, le capteur Azure Kinect à 399 dollars

Le 26 février 2019 à 16h06

Commentaires (22)

votre avatar

Un truc plus fin et plus puissant avec une AR plus réactif et moins pixelisé, alors oui… On pourra jouer à des jeux sur pc sans avoir un problème d’écran et en ayant une plus grande immersion que les télés 3D…

Imagine faire du minority report avec des matrices Excel en trois dimensions, des irm en 3D… Cette techno a un tel potentiel, tu peux être dans la vie réelle, avoir accès en un regard vers le haut à la musique que tu écoutes, aux dernières nouvelles, dans le tram tu regardes un film sans pour autant être absorber par l’appareil etc… Le jour où ça sort pour le grand public, adieu les écrans (télé, tablette, écran d’ordi et même téléphone…

votre avatar

le casque microsoft que j’ai acheté s’appelle WMR Windows Mixed Réalité :o mais c’que de la VR :o car bon soit y a les caméras mais en noir et blanc de qualité médiocre pour pas se prendre les murs dur de faire de l’AR

votre avatar

Enfin une vrai amélioration, le champ de vision, la visière qui se relève et le poids sur les muscles du cou et de la nuque rendaient l’utilisation en professionnel quasi impossible… Pour l’avoir vu à l’œuvre chez Safran et dans quelques bureaux d’études c’est un vrai plus !



Côté montage, démontage, maintenance en atelier ou chez le client c’est très utile, le casque scanne le numéro de série du produit seul, identifie la zone devant l’utilisateur et propose plusieurs visions et actions possibles. L’opérateur devient autonome pour des tâches très complexes et en cas de soucis il peut appeler une sorte de support avancé qui pourra projeté des informations directement devant la personne.

Idem côté conception, insérer un mannequin dans un 3D pour voir s’il passera facilement l’outil pour accéder à tel pièce était très très laborieux… Alors qu’avoir une pièce ou voir la machine en 3D et tester par soi même ouvre de nombreuses possibilités.



Dont acte, j’ai hâte de voir les Catia, Autodesk, PTC et Siemens se saisir de ce produit qui promet vraiment de super gains !

votre avatar







Patch a écrit :



L’AR et la VR <img data-src=" /> (c’est un casque à réalité mixte)

Les 2 pour moi sont des éléments qui pourraient se développer dans le futur.





Je crois beaucoup moins à la VR qui a beaucoup moins d’application concrète. L’utilité de l’immersion dans un univers virtuel en dehors de la fiction a finalement peu d’usage.

L’AR Me semble au contraire bien plus intéressante car son usage par dessus la réalité permet d’intégrer directement l’interface dans notre réalité.



Une interface homme-machine a pour but selon moi de rendre le plus simple et naturel les interaction avec la machine. Ainsi, l’UI n’est pas une fins en soit, mais un moyen. Son évolution doit aller vers sa “disparation”. Or dans l’AR, c’est tout l’inverse, elle devient omniprésente.



C’est pour ça que l’autre évolution majeur de l’interface homme-machine passera selon moi par la compréhension du langage naturel. On devrait pouvoir interagir avec une machine comme on interagirait avec n’importe qui.



Enfin, l’avancée “ultime”, la machine qui lit dans tes pensées et te retourne directement ainsi par “pensée”. Pour ainsi dire, ça serait l’augmentation/contrôle de nos capacités cognitives par la machine. Et alors là, bonjour la SF, les possibilité de dérive étant infini (même si je préfère l’image donnée par GITS).


votre avatar







tazvld a écrit :



(même si je préfère l’image donnée par GITS).





tu veux dire dire la possibilité de se faire hacker le cerveau, modifier les souvenirs, etc. ? <img data-src=" />


votre avatar







tazvld a écrit :



Je crois beaucoup moins à la VR qui a beaucoup moins d’application concrète. L’utilité de l’immersion dans un univers virtuel en dehors de la fiction a finalement peu d’usage.





Hmm là où ça peut être intéressant la VR c’est pour traiter des peurs / phobies, faire de la mise en situation sans danger réel, et même avec peu de réalisme graphique on arrive quand même à provoquer les réactions correspondantes dans le cerveau des patients.



Sinon c’est juste bon pour les jeux vidéos oui x) Un film en entier avec un écran à - de 10 cm de tes yeux… Euuh non merci le mal de crâne ^^


votre avatar

Je préfère voir des œuvres comme GITS qui va plutôt tenir un propos “ces technologies vont résoudre certain de nos problèmes mais aussi en créer de nouveau que l’on n’avait pas encore” (finalement c’est aussi ce que l’on trouve dans l’œuvre d’Asimov, où il y avait un aspect optimiste de la technologie, mais aussi cherche ses limites) plutôt que des œuvres qui vont s’arrêter à dire “il faut bannir ces technos ! c’est pas bien, elle vont apporter le mal” (c’est pour ça que je n’aime pas le bouquin de ‘1984’qui ne montre aucune mesure dans ses propos : l’auteur avait déjà sa conclusion avant de créer sa discussion).

votre avatar







tazvld a écrit :



Je crois beaucoup moins à la VR qui a beaucoup moins d’application concrète. L’utilité de l’immersion dans un univers virtuel en dehors de la fiction a finalement peu d’usage.&nbsp;





La facilité de développement d’univers VR étant bien plus facile à faire que de la RA (merci Unity), pour tout ce qui est formation dans l’industrie, ça va devenir la référence. Plus d’outils chers à avoir en double, de pièces à sacrifier pour la formation. Cela permet également d’avoir les configurations à jour (et typiquement dans l’aéro, c’est différent à chaque avion).

Dans la médecine, c’est déjà monnaie courante.


votre avatar

oui je voyais bien où tu voulais en venir. <img data-src=" />



Juste que Ghost In the Shell me semble très dystopique, perso (ambiance souvent sombre ou froide, visuellement, aussi du fait des trames de scénar et de ce qu’on suit des personnages qui sont des agents de renseignement et force spéciales militaires, fondamentalement. Ça aurait donné une autre sensation en suivant des profs ou des médecins, de jour, je suppose. (et pour le coup, aussi bien les séries que les films ou OAV introduisent des tranches de vie avec Batou et son chien, Togusa et sa famille ou les Tachikoma qui deviennent plus ou moins conscients, ce qui allège un peu le truc)

votre avatar







letter a écrit :



La facilité de développement d’univers VR étant bien plus facile à faire que de la RA (merci Unity), pour tout ce qui est formation dans l’industrie, ça va devenir la référence. Plus d’outils chers à avoir en double, de pièces à sacrifier pour la formation. Cela permet également d’avoir les configurations à jour (et typiquement dans l’aéro, c’est différent à chaque avion).

Dans la médecine, c’est déjà monnaie courante.





Dans l’idée, tout ce que tu racontes me semble aussi possible en AR, justement car on peut incruster des objets virtuels dans le champ de vision. L’avantage de la VR aujourd’hui est simplement dû au fait que l’AR n’est pas encore du tout développé.







WereWindle a écrit :



oui je voyais bien où tu voulais en venir. <img data-src=" />



Juste que Ghost In the Shell me semble très dystopique, perso (ambiance souvent sombre ou froide, visuellement, aussi du fait des trames de scénar et de ce qu’on suit des personnages qui sont des agents de renseignement et force spéciales militaires, fondamentalement. Ça aurait donné une autre sensation en suivant des profs ou des médecins, de jour, je suppose. (et pour le coup, aussi bien les séries que les films ou OAV introduisent des tranches de vie avec Batou et son chien, Togusa et sa famille ou les Tachikoma qui deviennent plus ou moins conscients, ce qui allège un peu le truc)





Je n’ai pas une vision aussi dystopique que ça de l’œuvre. On est sur un monde qui à géopolitiquement vécu (je crois qu’il y a eu 2 autres guerres mondiales) et on se trouve après la guerre sur une époque où les tensions sont encore très forte. De même, on est impliqué dans les magouilles politiques (la section 13 n’est pas en reste niveau magouille). Pour moi, ça décrit déjà un monde qui est très réel, ni utopique, ni dystopique.



Personnellement, je rapproche plus GITS à du Asimov et un peu toutes ces œuvres de l’age d’or de la science fiction dans lesquelles au final la SF n’était ni dystopie ni utopie, mais une réflexion sur les changements qu’impliquent les nouvelles technologies.


votre avatar







tazvld a écrit :



Dans l’idée, tout ce que tu racontes me semble aussi possible en AR, justement car on peut incruster des objets virtuels dans le champ de vision. L’avantage de la VR aujourd’hui est simplement dû au fait que l’AR n’est pas encore du tout développé.





L’avantage de la VR, est que l’univers est ultra-contrôlé. En AR, il faut gérer aussi le calage avec la réalité. Et franchement, c’est ça le plus compliqué (en terme de puissance des machines, d’algorythmes, etc.)


votre avatar

J’ai le Kinect2 sur PC et c’est sidérant ce qu’il voit : ça fait peur tellement c’est précis.

Par contre, les animaux sont invisibles <img data-src=" />



Je m’en sers pour faire du scan 3D avant impression du même nom.

votre avatar







letter a écrit :



L’avantage de la VR, est que l’univers est ultra-contrôlé. En AR, il faut gérer aussi le calage avec la réalité. Et franchement, c’est ça le plus compliqué (en terme de puissance des machines, d’algorythmes, etc.)







Pour le problème de puissance de calcul : les “coprocesseur dédié à l’intelligence artificielle”(sic) me semble justement taillé pour gérer l’environnement (et faire par exemple une représentation 3D de celui-ci). j’ai vu certain programme faire du bon boulot rien qu’avec une caméra RGB, mais si tu ajoute un caméra RGB-D (profondeur), tu as largement de quoi faire un très bon rendu 3D de l’environnement direct.





Après, c’est qu’un problème de bibliothèque.











Aloyse57 a écrit :



J’ai le Kinect2 sur PC et c’est sidérant ce qu’il voit : ça fait peur tellement c’est précis.

Par contre, les animaux sont invisibles <img data-src=" />



Je m’en sers pour faire du scan 3D avant impression du même nom.







Le Kinect2 est un tel gâchis. MS aurait tellement dû amélioré son usage sur PC. Ca aurait pu faire une excellente webcam, voir un outils de visio conférence (micro directionnel : identification de l’interlocuteur/filtrage pour un seul interlocuteur)


votre avatar







tazvld a écrit :



Pour le problème de puissance de calcul : les “coprocesseur dédié à l’intelligence artificielle”(sic) me semble justement taillé pour gérer l’environnement (et faire par exemple une représentation 3D de celui-ci). j’ai vu certain programme faire du bon boulot rien qu’avec une caméra RGB, mais si tu ajoute un caméra RGB-D (profondeur), tu as largement de quoi faire un très bon rendu 3D de l’environnement direct.





Après, c’est qu’un problème de bibliothèque.&nbsp;





&nbsp;Le problème ce n’est pas de mapper l’environnement. C’est de le corréler avec ton modèle. Avec un nombre de polygones décent.

On chercher à faire de la formation sur des intérieurs d’avion avec méca, hydro et élec et en descendant à des niveaux de détails de l’ordre du millimètre. En VR, on sait faire. En AR, si tu sais faire, j’ai un boulot pour toi.

Sans compter qu’en AR, faut que je dédie une section d’avion. En VR, je fais ma formation dans une salle de réunion dédiée.



L’AR on cherche à le développer depuis des années pour l’assistance à l’opérateur. Et c’est clairement pas encore au point en terme de puissance du matériel pour la plupart des usages ciblés. On est encore dans les niches.


votre avatar

Pourquoi ne pas faire la même projection que la VR en AR dans ce cas (du coup on est plus dans une réalité mixte) ? Pourquoi amener une pièce alors que la pièce virtuelle suffit ?



L’avantage ici n’est pas forcément énorme entre AR et VR. L’AR permet cependant de ne pas être isolé de l’environnement extérieur, dans le cadre d’une formation, tu es toujours en contact avec le formateur. Potentiellement, ça permettrait même, si il y moyen de partager l’information assez rapidement de travailler sur le même “hologramme” très naturellement (on vois les autres interagir, du coup, si le formateur fait tourner la pièce, tu n’es pas surpris)



J’ai cru comprendre justement que Pearson présentait une démo de cours de médecine durant le salon avec l’hololens 2, avec une hologramme de patient suivi par un enseignant (avec en plus l’utilisation de l’AR pour réaliser le diagnostique).





Pour la représentation de l’environnement en 3D, ça peut être utile pour des intéraction simple entre tes modèle et la réalité par exemple poser une objet virtuel sur une table ou le faire bouger si quelque chose le cogne (je n’irais pas jusqu’à faire une simulation réaliste de ping-ping avec une balle virtuelle, mais des applications dans le genre peuvent être sympathique).

votre avatar

Pour moi, l’AR sans interaction avec le monte réelle, c’est de la VR. Ca revient au même, les outils sont juste plus chers.

Tu peux aussi très bien interagir avec quelqu’un d’autre en VR. Et en plus, cela peut se faire en étant à l’autre bout du monde (selon les latences).

Il y a des systèmes de conférence qui se font de cette manière également et c’est assez convivial et efficace au final. Au bout de quelques minutes, quand les avatars ont été un peu customisés, tu oublies que tu n’as pas vraiment la personne en face de toi.

votre avatar

Pour l’Hololense 2 : je n’attends pas à voir débarquer tout de suite l’AR grand public, mais c’est selon moi l’une des branches de possible avenir dans l’interface homme-machine.

Les “coprocesseur dédié à l’intelligence artificielle” me semble assez logique dans un tel appareil. J’imagine que ce sont des TPU (tensor process unit), pour les réseaux de neurones artificiels. Ces derniers sont en effet très efficace dans la reconnaissance d’objet dans des images et je les vois donc très bien utiliser pour le tracking des mains/doigt que pour identifier et localiser dans l’espace les objets dans l’environnement.



Pour l’Azure Kinect :

Putain, MS, je n’ai pas acheté de Kinect 2 pour mon PC car ce n’était pas utilisable comme une webcam alors que les démo ont montré toutes la puissance de ces capteurs pour un tel usage. Si un jour MS sort une webcam avec de bon capteur (donc celui de profondeur), et surtout un SDK qui permet entre autre de modifier à la volé le flux de la webcam, j’achète. Derrière, il peuvent même pousser leur solution CNTK pour faire du Deep Learning à la volée sur les image. Pour vous donner un idée de ce qui pourrait être fait : amélioration des images avec une très faible exposition, mais on peut imaginer plein de truc en utilisant par exemple ce systeme de reconstruction de model 3D du visage.



il y a aussi la flopée de micro qui permet de spécialiser l’origine son, et donc très certainement de filtrer uniquement la voix de l’interlocuteur par exemple….

votre avatar







tazvld a écrit :



Pour l’Hololense 2 : je n’attends pas à voir débarquer tout de suite l’AR grand public, mais c’est selon moi l’une des branches de possible avenir dans l’interface homme-machine.



L’AR et la VR <img data-src=" /> (c’est un casque à réalité mixte)

Les 2 pour moi sont des éléments qui pourraient se développer dans le futur.


votre avatar

Hololens rajoute du virtuel sur le réel, c’est de la réalité augmentée.



Et pour l’AR grand public, tant qu’on devra porter un truc sur la tête ça sera mort. Il y a encore de la route <img data-src=" />

votre avatar







zogG a écrit :



Hololens rajoute du virtuel sur le réel, c’est de la réalité augmentée.



Et pour l’AR grand public, tant qu’on devra porter un truc sur la tête ça sera mort. Il y a encore de la route <img data-src=" />



Il fait réalité augmentée ET réalité virtuelle en plus de l’augmentée. Donc réalité mixte pour lui <img data-src=" />

Mais oui tant qu’on n’aura pas un truc de la taille des Google Glass, ca sera dur de le développer en masse.


votre avatar







zogG a écrit :



Hololens rajoute du virtuel sur le réel, c’est de la réalité augmentée.



Et pour l’AR grand public, tant qu’on devra porter un truc sur la tête ça sera mort. Il y a encore de la route <img data-src=" />





Vu les prix annoncés, de toute façon, rien ne peut être qualifié de grand public. <img data-src=" />


votre avatar

L’IA doit très certainement être la pour entraîner la reconnaissance d’objet et les mains des utilisateurs.

Pour ce qui est de lAzure Kinect. Normalement, le Kinect 2 de la Xbox ONE devait être compatible et ouvert aux bidouiller, non ? Vu que c’est aussi ça qui avait tant démocratisé le premier, bien plus que les jeux à mon avis.

Microsoft dévoile son casque HoloLens 2 à 3 500 dollars, le capteur Azure Kinect à 399 dollars

  • Un passage attendu au Snapdragon 850

  • Un casque plus léger, des angles de vue plus grands

  • Le HoloLens 2 reste un casque pensé pour le monde de l’entreprise

  • Des partenariats et une marque d’ouverture

  • Le capteur Azure Kinect désormais disponible pour 399 dollars

Fermer