Windows 10 pourra suivre le mouvement des yeux pour piloter l’interface
D'une simple lettre
Le 03 août 2017 à 09h32
6 min
Logiciel
Logiciel
Avec la Fall Creators Update, Windows 10 intègrera le suivi des mouvements des yeux. La préversion 16257, parue hier soir, introduit cette prise en charge, avec un seul équipement pour l’instant. Selon Microsoft, cet ajout ouvre la voie à une plus grande facilité d’utilisation du système pour certains handicaps.
Cette intégration répond à un défi lancé en 2014 par un ancien joueur professionnel de baseball, Steve Gleason. Atteint de la maladie de Charcot (sclérose latérale amyotrophique, ou SLA) – la même dont est atteint le physicien Stephen Hawking – il avait envoyé un email à Microsoft pendant le premier hackaton organisé par l’éditeur.
L’ancien sportif profitait de cet évènement pour faire sa demande : faciliter l’utilisation des ordinateurs en tenant compte de certains handicaps très lourds. La SLA provoque en effet une dégénérescence progressive des motoneurones et donc une paralysie qui s’étend à tout le corps avec le temps, finissant par toucher les poumons et provoquer le décès. Les yeux, puisque c’est bien d’eux dont il s’agit, deviennent alors le seul « muscle » exploitable pour effectuer des actions.
Une équipe dédiée
Toujours durant le même hackaton, une équipe s’est constituée autour de la demande du sportif, l’Ability Eye Gaze. En quelques jours, elle a créé l’Eye Gaze Wheelchair, un fauteuil roulant équipé d’un appareil pouvant suivre les mouvements des yeux et les traduire en instructions. Résultat, le fauteuil électrique peut se déplacer sans actionner la moindre manette. L’équipe a d’ailleurs remporté le hackaton parmi plus de 3 000 projets.
Après l’évènement, l’équipe n’a pas été dissoute mais a continué de travailler avec l’association de Steve Gleason et Evergreen ALSA, deux structures venant en aide aux malades de SLA. Elle a commencé par définir un certain nombre de scénarios d’utilisation, jusqu’à ce que la Windows Team examine le tout et décide de plonger ses mains dans le cambouis.
Environ trois ans plus tard, l’éditeur est donc prêt à parler de son Eye Control.
Une ébauche dans la dernière préversion
La build 16257, diffusée hier dans le canal rapide pour les testeurs Insiders, contient les premières briques de cette technologie. Elle n’est pour l’instant compatible qu’avec un seul appareil, l’Eye Tracker 4C de Tobii. Viendront ensuite les Dynavox PCEye Mini, PCEyePlus, EyeMobile Plus et toute la série I, toujours du même constructeur.
Pour tester la technologie, il faudra donc forcément avoir l’un de ces périphériques. Il faut également télécharger la dernière version du pilote et lancer l’outil de calibration. Après quoi, Windows Update devra récupérer un autre pilote (Tobii Eye Tracker HIDClass Driver). Enfin, l’utilisateur activera la technologie en se rendant dans Paramètres, Options d’ergonomie, Autres options et Eye Control.
Dans tous les cas, la version finale de la Fall Creators Update (FCU) devrait contenir une technologie prête à l’emploi et supportant tous les appareils mentionnés. L’éditeur se dit prêt à travailler avec tous les autres constructeurs qui se montreront intéressés.
Et concrètement ?
Dès qu’Eye Control est actif, une petite barre spécifique apparaît en haut de l’écran. Elle est là pour changer de mode, par exemple pour passer de la souris à la saisie de texte ou au text-to-speech.
Globalement, le principe de fonctionnement est celui que l’on imagine : le curseur de la souris apparaît là où se posent les yeux. Il suit en fait le mouvement des yeux, sans se « téléporter ». Une fois positionné, le fait de le laisser attendre un instant fait apparaitre un menu dans lequel on choisit alors une action. Notez que le temps d’attente est paramétrable, avec cinq niveaux. Par défaut, la sélection est sur le niveau 3.
Même fonctionnement que pour le clavier virtuel, où la prédiction jouera un grand rôle pour éviter d’avoir à saisir chaque lettre, le curseur devant attendre sur chaque lettre pour provoquer sa saisie. Cependant, un mode « glissement » est aussi disponible. On glisse donc d’une lettre à l’autre, le système cherchant à deviner les mots ainsi formés. Les utilisateurs de SwiftKey savent que ce mode de saisie peut se montrer efficace.
Personne ne dira bien sûr que Microsoft a inventé ce type de technologie. L’intégration dans Windows représente par contre une opportunité, puisque les utilisateurs pourront compter sur une rationalisation de l’expérience et donc des actions qu’ils peuvent entreprendre. À voir donc si d’autres constructeurs montrent de l’intérêt, ce qui risque bien d’arriver, au risque sinon de laisser Tobii comme seul à être mis en avant.
Quelques autres petites améliorations
Notez que nouvelle préversion oblige, d’autres nouveautés sont quand même à signaler, même si elles n’ont pas l’importance du suivi des yeux.
C’est notamment le cas d’Edge qui a déjà reçu un très grand nombre d’améliorations dans les dernières préversions. Cette fois, elles sont essentiellement visuelles avec l’arrivée du Fluent Design System. Il se manifeste par l’utilisation d’Acrylic dans la barre des onglets dépliée (fond semi-transparent) et de nouvelles animations pour les boutons. Pour ceux qui n’auraient pas suivi l’avancée de la branche Redstone 3 (nom interne de la FCU), le Fluent Design System est progressivement déployé dans les applications internes, avec plus ou moins de bonheur.
Outre les habituelles corrections de bugs, Microsoft annonce avoir modifié les couleurs par défaut de sa console, ce que l’éditeur n’avait pas fait « depuis plus de 20 ans ». Les utilisateurs pourront donc varier les plaisirs, mais surtout en utilisant des couleurs plus sombres, donc moins agressives sur les écrans modernes.
Comme toujours avec le programme Windows Insider, il faut y être inscrit (compte Microsoft requis) et l’activer dans les options de Windows Update. La dernière préversion se récupère alors comme une mise à jour puis s’installe. Une opération qui peut être assez longue, selon la connexion et le type d’unité de stockage. La version finale de la FCU devrait être prête en septembre, mais ne sera probablement distribuée publiquement qu’avec le Patch Tuesday d’octobre (comme la Creators Update, prête en mars et diffusée en avril).
Windows 10 pourra suivre le mouvement des yeux pour piloter l’interface
-
Une équipe dédiée
-
Une ébauche dans la dernière préversion
-
Et concrètement ?
-
Quelques autres petites améliorations
Commentaires (21)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 03/08/2017 à 09h39
Il me semble que S.Hawking a mit son système en open source non ? Pourquoi réinventer la roue ?
Le 03/08/2017 à 09h57
Ce n’est pas la même chose, enfin pas complètement à ce que j’en ai lu : ici, on parle de détecter le mouvement des yeux pour piloter l’OS, alors que pour Hawking, Intel utilise (ou utilisait car sa maladie évolue ,donc eux aussi) un bandeau qui détectait la contraction de certains de ses muscles faciaux.
Après, ce sont deux technologies qui servent à piloter un OS avec une détection/interprétation de mouvement.
Le 03/08/2017 à 10h16
Le 03/08/2017 à 10h17
J’avais testé ACAT (intel/hawking) avec une simple webcam pour tester si ca pouvais convenir a ma tante qui ne peux plus utiliser de clavier physique (uniquement clavier virtuel avec une souris trackball), et ca fonctionne bien mais le principe meme du logiciel est ultra laborieux pour ecrire et meme pour utiliser la souris.
Là, certes ca va couter beaucoup plus cher (j’ai vu 250€ mini sur le site), mais j’espere que ce sera plus ergonomique et plus rapide.
Le 03/08/2017 à 10h19
une initiative très, très honorable " /> " />
Le 03/08/2017 à 10h21
pas sur, Acat ca passe automatiquement de groupe de lettres en groupe de lettres et quand ca passe sur le groupe que tu veux tu fais un mouvement musculaire facial, puis tu recommence pour choisir la lettre que tu veux, c’est trèèèèèèès long.
La ca serait apparemment du vrai eye tracking.
Le 03/08/2017 à 10h33
Le 03/08/2017 à 10h55
Étape suivante :
Le 03/08/2017 à 11h22
250€ si ça permet aux personnes souffrant d’un tel handicap d’utiliser l’ordinateur, ce n’est RIEN.
A titre d’information, ma belle-soeur est en fauteuil roulant électrique. Lequel coûte entre 10 et 15 000€. Et doit être changé tous les 4 ans environ (évolution de la pathologie & apparitions de pannes multiples, c’est achement fragile ces petites bêtes là…)
Le 03/08/2017 à 11h43
Il parait que pornhub développe une solution de navigation à la baguette.
" />
Le 03/08/2017 à 13h38
. L’intégration dans Windows représente par contre une opportunité, puisque les utilisateurs pourront compter sur une rationalisation de l’expérience et donc des actions qu’ils peuvent entreprendre.
Je vois déjà plein d’opportunités …
Le 03/08/2017 à 14h01
Le 03/08/2017 à 14h11
Si je ne dis pas de bêtises, le contestation avait été remporté et de portant la détection sur un kinect ? Parce que j’ai vu quelque chose dans le genre pour piloter une partie de l’OS.
Le 03/08/2017 à 14h42
Je suis l’évolution de ces technologies de pilotage/détection aussi, pour une personne de ma famille qui ne peut pas se servir d’une souris, ni articuler suffisamment pour utiliser un assistant vocal.
J’espère que ces avancées vont continuer à s’accélérer pour permettre une démocratisation (financière s’entend) pour le grand public.
Après, comme tu le dis, si l’ergonomie et l’efficacité sont là, ben… on dira que le prix n’est pas si cher que ça par rapport au confort quotidien que ça procure.
On va attendre de voir la suite et les retours utilisateurs.
Le 03/08/2017 à 16h25
Le 03/08/2017 à 18h00
10⁄10
" />
Le 03/08/2017 à 18h13
Le 03/08/2017 à 20h10
Je ne suis pas sur que ce soit vraiment rentable pour les régis de pub.
Le résultat pourrait montrer que peut de pub sont regardées.
Le 04/08/2017 à 08h49
Dans ce cas on rajoute l’option “affichage sous le regard” pour forcer la main l’oeil " />
Le 04/08/2017 à 10h13
Le 04/08/2017 à 17h06
Pas con " />