votre avatar

jmanici

est avec nous depuis le 20 septembre 2011 ❤️

Bio

Oups.
On dirait que quelqu'un ici aime garder ses petits secrets, comme si de par hasard il y avait quelque chose à cacher...
Désolé, ô lectrice de passage, cher lecteur égaré, pas de révélation sensationnelle pour le moment sur ce profil.
Repassez plus tard ?

871 commentaires

Microsoft fait un ménage radical dans le support d'Internet Explorer

Le 11/08/2014 à 20h 24






Konrad a écrit :

Je crois que c’est là qu’on a un désaccord.

Ce n’est pas le cas dans les dépôts des distributions GNU/Linux. Chaque contributeur est identifié par son nom et prénom, et soumettre du code est soumis à des règles. Par ailleurs, dans le cas de Debian par exemple les logiciels passent par différentes étapes en «arrière boutique» : unstable, testing, avant d’intégrer la version Stable de la distrib. Ceci garantit qu’un certain nombre de tests (selon les cas, tests dans des sandbox, analyse des I/O, relecture du code, debug…) sont effectués avant que l’appli ne soit propagée au plus grand nombre. Le développeur originel n’est pas le seul à vérifier son appli, il y a plusieurs développeurs, testeurs et mainteneurs. Il en va de même avec toutes les mises à jour d’un paquet.



Meme ce genre de test est bien dérisoire. Il demande beaucoup de temps pour chaque app, et ne garantie absolument rien au final, car un développeur malveillant peut très bien déclencher le comportement malveillant de son appli en fonction de la date ou seulement si une requête sur son serveur retourne une certaine valeur. Il peut même charger dynamiquement du code depuis son serveur.
Il y a donc beaucoup de moyens d’echaper à une detection pendant cette phase de test. C’est la raison même qui fait que Bouncer est inefficace à détecter bon nombre de malwares sur Google play, car les devs malveillants savent comment bouncer fonctionne, et savent quoi faire pour ne pas se faire remarquer.



Si n’importe qui pouvait ajouter facilement n’importe quoi dans les dépôts des distribs, ça serait un beau bordel… Et ça ne serait effectivement pas sécurisé du tout. Si tu essayes de faire passer une appli vérolée, il y a très peu de chances que ça passe.


C’est pourtant ce qu’on demande aux Stores mobiles aujourd’hui: Contenir toutes les applis de tous les développeurs.

Avoir un depot qui ne contient que les applis de quelques partenaires n’est pas une solution satisfaisante. Ca voudrait dire que les gros éditeurs voient leur produit mis en avant sur le depot, et les petits éditeurs doivent continuer à demander aux utilisateurs d’installer leur appli depuis le web, ce qui va à l’encontre de ce que préconisent les défenseurs des depots (l’utilisateur ne doit jamais prendre l’habitude de chercher des applis en dehors des depots).


Après, je suis d’accord que si l’utilisateur ajoute des dépôts tiers, ou si il installe des applis hors-dépôt, il peut compromettre sa machine… Je suis donc d’accord qu’il serait préférable d’avoir un sandboxing systématique des applications dans les distribs.

Et sinon, la plupart des applis que j’ai testées dans un chroot fonctionnent très bien. Elles n’ont accès qu’à un nombre restreint de bibliothèques et de dossiers, avec les droits restreints d’un utilisateur chrooté lui aussi. Je ne vois pas vraiment dans quelle configuration un logiciel serait rendu inopérant par une sandbox ou un chroot.


Le problème c’est comment tu échanges des données entre applications si toutes les applis tournent dans un chroot?

Il faut un mécanisme pour partager les données entre les applis facilement.

Et chroot empeche t-il une appli malveillante d’utiliser ta webcam ou ton micro pour t’espionner? Empeche t-il l’appli d’accéder à ton réseau local pour tenter de modifier les DNS de ton routeur? (Windows empêche les applis WinRT de faire cela).

Jusqu’à présent j’ai pris l’exemple du système de fichier pour simplifier les choses, mais le sandboxing doit aller bien plus loin pour être efficace (bloquer l’accès aux périphériques tant que l’utilisateur ne debloque pas cet accès, empêcher les communications interprocess, empêcher la prise de capture d’écran, empêcher la génération et l’exécution de code à la volée,…)

Au final ça représente un paquet de choses à protéger, ce qui fait que les solutions comme chroot ou sandboxie ou les protections du même type fournies par certains antivirus ne peuvent pas garantir de rendre les malwares inopérants, et rendent l’utilisation des applis plus compliquées.



Le 11/08/2014 à 19h 07






Konrad a écrit :

Je le sais qu’elles peuvent être sécurisées. Seccomp est inclus dans le noyau depuis 2005, il y a aussi AppArmor comme solution de sandbox (qui vient avec des profils pour ssh, Apache, etc.). Si les distributions Linux deviennent plus populaire, il faut parier sur le fait que ce type de solutions se généralisera et seront activées par défaut sur les distribs.



Oui.


Sinon vraie question technique :
d’après ce que je comprends des sandboxes, il s’agit d’isoler un process en ne lui autorisant que certaines actions bien précises (appels système, accès systèmes de fichiers…). Je comprends donc que, pour chaque application, il faut déterminer un ensemble d’actions acceptables ou non (un peu à la manière des «autorisations» demandées lors de l’installation d’une appli sous Android, par exemple). J’imagine que c’est donc ça qui prend du temps : établir, pour chaque application, l’ensemble des règles permises ou non.

En revanche je ne vois pas pourquoi il faudrait ré-écrire les applications. Tant que l’application a accès à ce dont elle a besoin (autorisé par la sandbox) elle agit normalement. Si la sandbox refuse quelque chose à l’appli, c’est soit que la sandbox est mal configurée, soit que l’appli essaye de faire quelque chose qu’elle n’est pas censée faire (possible malware). Dans ce cas l’appli plante, ou est tuée par le système. Je ne vois pas pourquoi il faudrait ré-écrire les applis pour être «sanbox-compliant».


Ce que tu décris est le type de sandbox qu’on utilise pour protéger une application dans laquelle on a confiance (on sait que son auteur n’a pas inclus de malware dedans). La sandbox dans cette situation est configurée (manuellement ou avec un profil) de manière à limiter les dégâts si jamais l’application est compromise à cause d’une faille de sécurité (serveur web, navigateur web,…).

Mais ce n’est pas le type de sandbox dont je parle lorsque je fais référence à un “store” ou un dépôt.

Dans le cas des stores, le but est de référencer beaucoup d’applications auxquelles on n’a pas forcement confiance (parce que n’importe quel développeur inconnu peut facilement soumettre son appli).

Donc on ne peut pas se baser sur des profils de sandboxing trop permissifs.

Il faut que le pire cas de figure (application malveillante qui réclame tous les droits possibles à la sandbox) ne soit pas trop dangereux. Dans le cas d’android, l’application peut être nuisible à l’utilisateur (ex: Envoi de SMS surtaxés) mais une fois qu’il se rend compte que l’appli est indésirable, il peut la supprimer et retrouver un système sain. (à condition d’utiliser un Android à jour, sans faille d’élévation de privilèges).

Si l’application s’était vue octroyer un accès complet au système, c’était game over. Bon pour un hard reset! (voire pire si elle infectait l’image système).

Certes sous linux/windows des applis auraient légitimement besoin d’un accès complet au FS. Mais l’immense majorité des applis peuvent se contenter de très peu de droits (accès a un stockage isolé, accès aux photos partagé, mais pas de communication inter process).

Aucune des applications Windows desktop/linux desktop n’est conçue pour utiliser un stockage isolé. Elles écrivent toutes de manière non restreinte dans le profil home de l’utilisateur. Si une sandbox bloque cela, les applications ne peuvent plus fonctionner correctement.

Donc il faut que les applis soient modifiées pour qu’elles fassent leur boulot en se contentant du moins de droits possible.

MS a fait le choix d’un framework totalement nouveau (WinRT) et en a profité pour tout remettre au gout du jour (ex: nouvelle API pour les interfaces graphiques en remplacement de GDI).

MS aurait aussi bien pu se contenter de demander des changements mineurs aux développeurs win32 pour que leur appli soit sandboxable. Mais sur tablettes, ça n’aurait pas ete génial de se retrouver face à un écosystème avec des UI de l’ère Windows 2000.

Donc le choix de forcer une nouvelle plateforme (WinRT) était plus judicieux, puisque dans les deux cas de toutes façons il n’était pas possible de construire un Store sans que les développeurs jouent le jeu en adaptant leurs applis.



Le 11/08/2014 à 17h 36






Konrad a écrit :

Bon j’ai compris ton point de vue : la seule solution c’est que Windows reste à 90% de pdm, et que Linux reste à 1% car il ne peut pas être sécurisé. Merci de ton point de vue éclairé.



Les droits linux peuvent être sécurisés. Ubuntu est en train de le faire.
Et Android l’a fait (avec quelques déficiences dûes au manque de maj des terminaux et d’une sandbox trop permissive).

Mais les applis desktop linux existantes ne peuvent pas être sandboxées sans modification ou reecriture. Idem pour un hypothétique store win32 (qui ne serait pas secure sans sandbox).



Le 11/08/2014 à 17h 33

Zut, le correcteur auto transforme “depots linux” en “droits linux”.


Le 11/08/2014 à 17h 21






Konrad a écrit :

Oui enfin +1 pour la politique de l’autruche considérant que tous les Linux sont identiques…



Non, elles ne sont pas toutes identiques. Les distribs linux desktop sont moins secure que Android (qui est malgré cela la cible de malwares)


Si Android est infecté de malwares, c’est essentiellement les couches ajoutées par Google qui en souffrent. Ce n’est pas le noyau Linux qui est attaqué.


C’est faux.
Les adwares et la plupart des malwares ne s’intéressent pas au noyau de l’OS. Ils fonctionnent comme un programme normal. Cela est vrai aussi bien sous Windows que sous Android.

En revanche, pour s’echapper de la sandbox d’android, un certain nombre de malwares utilises des failles dans le noyau linux d’android pour élever leur privilèges en root.

Bref, sans couche Google (comme tu le dis) Android serait un linux desktop où les applis sont installées en root et n’ont donc meme pas besoin d’exploiter de failles d’élévation de privilèges pour obtenir les privilèges root.


Donc utiliser Android en disant «c’est ce qui arrivera à toutes les distribs Linux», c’est aller un peu vite en besogne. Le noyau est le même (Linux), mais pas les environnements au-dessus.


L’environnement rajouté par Google est justement ce qui fait qu’android est plus sécurisé qu’un linux desktop. Sans ça, les malwares Android seraient encore plus nombreux et dangereux.

Je trouve que tu utilises beaucoup de «si» dans tes démonstrations. Et si ma tante en avait on l’appellerait mon oncle.


Attends, laisse-moi résumer : quand Microsoft met en place un store, ça va dans la bonne direction. Par contre les distributions GNU/Linux qui utilisent un store depuis plus de 20 ans, elles finiront forcément infectées par des malwares. Mmm… (/sarcasme)


Les applis du store MS sont sandboxées, celles des depots linux ne le sont pas. C’est dur a comprendre? Pourtant ça fait toute la différence.

Après je dis pas que les droits linux vont être envahis de malwares. Si les distribs restent à 1% de pdm, ça n’arrivera pas.


Ne te méprends pas : je trouve que Microsoft va effectivement dans la bonne direction, et a fait énormément pour la sécurité depuis des années. Je ne cherche pas à dénigrer le travail de Microsoft. Mais venir dire que Linux est à la traîne, alors que les plus grandes entreprises travaillent dessus à plusieurs niveaux (Intel, Oracle… Microsoft aussi a contribué au noyau Linux), que la sécurité fait partie des priorités de ces entreprises, que des distributions GNU/Linux sont utilisées pour des utilisations bien plus critiques (serveurs…)… Je trouve ça ridicule et bien présomptueux de ta part.


Je parle de linux desktop, en tant qu’OS utilisable par tout le monde.

Ce qui n’est évidemment pas la meme chose qu’un linux serveur qui est administré par des individus compétents qui installent les maj de sécu et qui ne font pas confiance à des logiciels inconnus. Idem sous Windows Server.

Les créateurs de malwares et d’adwares ciblent les gens qui n’y connaissent pas grand chose. Du coup ils ciblent en priorité la plateforme où ils peuvent atteindre le plus d’utilisateurs (Windows: 91% de pdm). Jusqu’à il y a quelques années OSX était épargné, mais ce n’est plus le cas depuis qu’il frole les 8% de pdm.

Bref, quand je vois un linuxien avec ses gros sabots prétendre que les depots sont la solution à tous les problèmes, il est complètement à coté de la plaque. Les depots ne sont pas gérables à l’échelle d’un OS qui aurait 90% de pdm. Pas sans sandbox.



Le 11/08/2014 à 17h 06






RRMX a écrit :

…avec la réussite qu’on lui connaît. Tu prends comme exemple un “linux populaire” pour dire que le système de dépôt ne marcherait pas pour ensuite citer WinRT et son store (= dépôt) en exemple, alors que l’on sait que ce dernier est peu utilisé.

Tu te rends compte de l’incohérence de l’ensemble ?



Pas d’incoherence.

Le Windows Store ne fonctionne pas comme un depot d’applis Win32. C’est une nouvelle plateforme (WinRT, sandboxé) qui assure la sécurité.

Sous linux, il n’y a aucune mesure technique assurant la sécurité. Les utilisateurs doivent se baser uniquement sur la confiance.

L’histoire a montré que la confiance n’est pas une protection efficace. Même les sandbox ne sont pas parfaites (voir Android), mais au moins elles représentent le minimum vital en terme de protection lorsqu’on doit faire face à du contenu provenant d’un très grand nombre de développeurs.



Le 11/08/2014 à 16h 53






CaptainDangeax a écrit :

Oui j’ignore le windows store puisque comme une majorité de people qui utilisent un ordinateur, j’ai décidé de ne pas me faire racketter par MS pour acheter leur W8 bidule avec une interface tactile pour utilisation au clavier + souris. Tu mets en doute mes qualités d’informaticien. Vu les raccourcis que tu prends en parlant de Linux et tes suppositions foireuses sur un store qui serait rempli de malwares à partir d’une certaine pénétration du marché, je te laisse pleurer sur tes ccleaner et adaware mensuels,



Jamais eu de malware ou de toolbar en 18ans sous Windows.
Et je m’y connais suffisamment en Linux pour savoir qu’il n’offre pas de solution efficace contre les malwares, sinon je serais resté sous linux quand je l’utilisais.

Sinon c’est assez drôle que continues à ignorer l’exemple d’android qui a pourtant largement appuyé les propos que je tiens depuis des années.


sans parler de la complexité de la mise en oeuvre d’une vraie politique de sécurité sous windows à coup de poledit, de contrôle parental et je ne sais quoi d’autres sur un noyau qui ne le gère pas nativement le noexec, avec un système de fichiers qui ne le fait pas non plus.


les FS sous linux ne gèrent pas nativement les ACL avec une granularité aussi fine que NTFS.

Donc linux est en retard sur Windows, en suivant ta logique?

C’est drôle, tu critiques Windows parce que l’implémentation d’une fonction n’est pas la même que sous linux, alors que AppLocker et SRP sous Windows sont autrement plus puissants et configurables que le flag noexec.

Et le contrôle parental qui bloque l’exécution d’applis depuis le profil utilisateur s’active en 1 simple clic. Difficile pour toi?


Je ne m’abaisserai pas à me mettre à ton niveau de grossièreté, mais sache que tes suppositions ne sont que ce qu’elles sont : des suppositions qui puent le FUD à plein nez.
Sur ce et pour en revenir au sujet de la niouze ça ne peut aller que dans le bon sens que MS force à l’utilisation des dernières versions de leur browser mais que le chemin est encore long…


Le gars qui ignore le seul exemple de distro linux populaire (Android) juste parce que ça met en pièce ses croyances et qui se permet de crier au FUD.

lol



Le 11/08/2014 à 16h 42






Konrad a écrit :

Oui, mais tu es d’accord pour dire que ça réclame un effort supplémentaire aux créateurs de malwares. Donc ça augmente le coût de création de ces malwares (temps/argent), d’autant que les plates-formes (Apple/Google/Microsoft) sont très différentes, il ne suffit pas de recompiler pour que ça marche ailleurs. Donc forcément ça limite leur développement et leur propagation.

À titre d’exemple, bien qu’iOS représente plus de 30% du parc de smartphones, les malwares Android ne sont pas portés sur iOS. Ils n’existent que sur Android.



IOS et WP ont des sandbox plus restreintes (ex: Pas de possibilité d’exécuter un service en arrière plan ni d’envoyer des SMS surtaxés). Donc au delà d’une question de PDM, même si un développeur veut porter un malware Android vers WP/iOS il ne pourra pas car leurs sandbox ne permet pas d’accéder aux fonctionnalités qui font qu’un malware est intéressant/rentable à créer sous Android.


Je n’ai pas dit que la fragmentation empêchait complètement les malwares. Je dis juste que ça apporte un coût supplémentaire assez conséquent. Et si un malware est développé pour Android, alors iOS et Windows Phone ne sont pas touchés, ça limite donc le nombre de potentielles victimes.

Quant aux spéculations sur ce qui se passerait «si»… J’ai déjà dit que je préférais m’en tenir aux faits. Le jour où il y aura effectivement des gens qui développent des malwares pour Ubuntu et qui paieront Google, tu pourras venir me dire «j’avais raison». En attendant ça n’a que peu de chances d’arriver alors c’est juste du FUD.


L’exemple d’android pour toi c’est du FUD?
Moi j’appelle ton post de la mauvaise foi.

Quant aux difficultés à porter des malwares, tu n’as pas idée combien c’est simple.
On peut facilement developper un client de botnet en 50 lignes de code c, c#, java, …
Ca represente seulement quelques heures de boulot de créer un botnet multiplateforme, sachant que des fonctionnalités spécifiques à chaque OS peuvent être développées et déployées sur les machines zombies bien après l’infection. Evidemment avoir un client de botnet qui tourne au sein de la sanfbox iOS ou WP ça sert pas a grand chose tant les fonctionnalités autorisées sont restreintes. Sur Android, linux desktop, osx, win desktop en revanche, même sans droits root les possibilités sont importantes.



Le 11/08/2014 à 16h 31






CaptainDangeax a écrit :

+1.



+1 pour la politique de l’autruche. Surtout ne pas considérer Android comme un linux.


Mais pourquoi veux-tu qu’un utilisateur de Linux, d’Android ou d’iOS aille faire un truc pareil ? Même MS propose un store sur leur dernière version !


Si un utilisateur ne trouve pas Photoshop sur le store, il cherchera “Photoshop linux” sur Google.
Si un site warez lui propose un fichier de 500ko nommé “Photoshop complet pour linux garanti sans malware.deb”, il y a de fortes chances qu’il tombe dans le panneau.

La solution est évidemment d’interdire le sideloading, chose que font WP et Windows RT (hors environnement managé).


Dit le gars qui encense l’OS le plus en retard sur le sujet…


Linux est en avance dans le monde des bisounours ( où personne ne voudrait faire de mal a un gentil utilisateur d’un OS libre juste parce qu’il est libre). Mais très en retard dans le monde réel (où les croyances de pseudo sécurité ne font pas long feu face au business juteux des adwares et autres malwares)

Il est naïf de croire que les depots resteraient sans malwares bien longtemps sur linux était populaire sur le desktop.

En attendant MS est conscient de cela et a construit une plateforme qui va dans la bonne direction (WinRT+ store).

Alors que certains se contentent de solutions bancales en se croyant en avance sur leur temps ;)



Le 11/08/2014 à 15h 48






Konrad a écrit :

Oui, je confirme qu’il y a beaucoup de malwares sur Android, les chiffres sont là, ce serait idiot de le nier.

À mon humble avis, cela est dû au manque de moyens mis en œuvre pour vérifier les applications. Google est la seule entité à vérifier les applications de l’Android Market, je ne sais pas combien de gens bossent là-dessus, mais c’est clairement insuffisant quand il y a plusieurs millions d’applis. S’il y a des malwares, on peut blâmer ceux qui ont conçu ces malwares, mais je pense que Google a sa part de responsabilité aussi, parce que manifestement la quantité d’applis à passer sur le Market le dépasse.



Ce n’est pas une question de moyens. Google ne fait même pas vérifier les applis soumises par des humains. La verif automatique (Bouncer) est quasiment inutile. Et une vérif par des humains ne serait pas beaucoup plus utile. Sur iOS/WP les humains vérifient d’avantage le contenu que le coté technique (en gros pour éviter de se retrouver avec des applis Nazi sur le store).
Il est impossible de faire vérifier le code source de chaque appli du store par des humains.
La sécurité ne peut donc reposer que sur deux choses:
-une sandbox pas trop permissive
-un OS à jour (sinon risque d’élévation de privilège rendant la sandbox inutile)


Voilà pour Android. Maintenant, comme je l’ai déjà dit ça ne se passe pas comme ça dans les dépôts des distributions GNU/Linux : chaque mainteneur est responsable d’un petit nombre de paquets. Le nombre de mainteneurs a augmenté avec le nombre de packages disponibles. Si un package contient un malware, ce n’est pas «la distrib» ou on-ne-sait-qui qui est responsable, c’est le mainteneur, on sait sur quels doigts taper (et bien entendu son nom est public, autant dire que le statut de mainteneur ne se prend pas à la légère).


Ce modèle fonctionne uniquement avec une quantité d’app limitée et deja réputées.
Par exemple, les auteurs de gimp ne vont pas du jour au lendemain integrer un trojan dans le code source. Le maiteneur de package pour une distrib n’a pas besoin de vérifier le code source de chaque appli de fond en comble. Il se base sur la confiance.


Mais les store grand public où n’importe quel deb peut soumettre ses applis représentent un pb plus complexes, et le modèle linux des mainteneurs n’est pas applicable, vu qu’on parle de millions d’applis auxquelles on ne peut pas faire confiance.


Pour les histoires de sandbox, il en existe déjà pour les distrib GNU/Linux, malheureusement elles ne sont pas (encore) généralisées. C’est vrai qu’il serait bon que les distribs intègrent une sandbox par défaut, j’espère qu’ils n’attendront pas qu’il arrive un gros malheur avant de mettre ça en place.


Ubuntu commence à le faire. Mais le fait est que les applis linux desktop et Windows existantes ne peuvent pas être sandboxées sans modifier considérablement leur code source.

Voila pourquoi Windows ne propose pas de store pour les applis win32. Il faut que les devs passent à WinRT.

Et le même genre de problème se posera pour toutes les distribs linux qui visent le marché grand public. La solution des depots classique ne fonctionne pas sans sandbox.


Et sinon, je suis tout à fait d’accord pour dire que la fragmentation du marché est une bonne solution pour limiter le nombre d’infections. C’est pour cela que je ne souhaite pas qu’Android devienne trop important (un équilibre avec iOS et d’autres OS serait bienvenu). C’est pour cela aussi que, sur desktop, l’hégémonie Windows est mauvaise : là aussi, un équilibre avec Mac OS et différentes distributions GNU/Linux serait bienvenu. Ainsi, si une plate-forme est touchée, tous ceux qui ne sont pas sur cette plate-forme restent protégés.


Ah non je n’ai pas dit que la fragmentation du marché est une solution efficace.

Si Windows/ubuntu linux/osx ont 30% de pdm chacun, chaque OS aura ses malwares, et certains créateurs de malwares feront l’effort de les porter sur les 3 plateformes, puisque chacune a un nombre attractif d’utilisateurs

Ce que je disais juste, c’est que avec moins de 1% de pdm, la cible n’est pas attractive. Mais fondamentalement, ce n’est pas une protection. Quelqu’un peut très bien decider de créer des malwares pour Ubuntu et de payer Google pour avoir ses pubs en haut des résultats de recherche afin d’infecter les utilisateurs d’ubuntu qui cherchent “télécharger Skype linux”. Ca ne rapportera pas grand chose a ce créateur de malware, mais ça fera bien chier les utilisateurs qui se seront fait installer linux par quelqu’un de leur famille qui leur a dit qu’avec ça ils n’auront plus de malwares sur leur PC.



Le 11/08/2014 à 14h 49






Konrad a écrit :

C’est vrai que si les gens font comme sous Windows, càd télécharger et installer des .exe (ou des .deb ou .rpm ce qui revient au même), il y a les mêmes risques sous GNU/Linux.



C’est évidemment ce qui se produirait si linux est massivement utilisé.

Ne serait-ce que pour télécharger du warez.

Ou même pour télécharger des vidéos. Lorsqu’un site dit à l’utilisateur qu’il faut télécharger un “VLC Spécial édition” pour lire les vidéos depuis telle adresse, il le fait.
A moins que tes distributions linux interdisent le sideloading et empeche l’utilisation de l’activer facilement, les PC des utilisateurs seront toujours remplis de cochonneries.


Mais, pour avoir installé des distributions GNU/Linux autour de moi, souvent à des gens qui n’y connaissent rien, ils prennent très vite l’habitude de passer par l’appli dédiée aux dépôts. Ils ne cherchent absolument pas à aller chercher des .deb sur le Web. C’est une question d’habitudes, et finalement c’est exactement le même principe que ce qu’ils utilisent ailleurs : sur leur téléphone, ils passent aussi par le Store (celui de Google, Apple ou Microsoft). Ce n’est donc pas compliqué de leur faire comprendre que sur un GNU/Linux desktop, c’est pareil.


En même temps même s’ils cherchent sur Google “télécharger Skype” et qu’ils cliquent sur le premier résultat (la pub), il ne se feront pas infecter car les sites qui redistribuent les logiciels populaires avec des adwares ne ciblent que osx et Windows, pour le moment.
Donc effectivement pour l’instant il y a peu de risques de tomber accidentellement sur un truc malveillant depuis une distribution linux. Et avec la multitude de distribs sur le marché, il est plus compliqué pour l’utilisateur de trouver le bon format de package à installer depuis le web que de chercher sur le depot. Mais les choses seraient bien différentes si linux était massivement utilisé par les particuliers. Il y aurait d’avantage de tentation d’installer tout et n’importe quoi depuis le web, et un format de package commun a toutes les distribs prendrait surement le dessus, rendant l’installation hors depot plus facile.


Quant aux développeurs qui ne veulent pas générer les .deb et .rpm pour toutes les distribs, j’ai envie de dire tant pis pour eux, leur appli ne sera pas utilisée. C’est comme si un dev disait qu’il en a marre de générer ses binaires pour le Store d’Android ou iOS : très peu de gens auraient l’idée d’aller chercher les binaires pour son smartphone sur le Web, donc l’appli serait très peu utilisée.

Et pour les dépôts Linux remplis de malwares… Tu t’appuies sur quoi de concret ? Parce que rien de ce genre n’est jamais arrivé. Aujourd’hui Debian par exemple c’est environ 50 000 paquets. J’imagine que tu vas me rétorquer que «s’il y en avait des millions peut-être que ci ou ça»… On ne base pas une argumentation sur des «si». Il n’y a peut-être qu’un seul dépôt central, mais les responsables de paquets ne sont en charge que d’un petit nombre de paquets. C’est évident que ce n’est pas 3 gus dans leur garage qui maintiennent et packagent 50 000 paquets… Bref c’est du FUD, tu cherches juste à décrédibiliser le système de dépôts, mais pour l’instant en 20 ans d’existence les dépôts Linux n’ont jamais distribué de malware.


Android est un linux.
Android market est un depot.

Tu n’ignores pas le fait qu’on y trouve régulièrement de nouveaux malwares, qui vont du simple adware au rootkit. Pourtant Android en lui même est plus secure qu’une distrib linux desktop et ses droits, puisque sous Android toutes les applis sont supposées tourner dans une sandbox (plus permissive que celle de WP/iOS, mais bien plus sécurisée qu’un environnement sans restriction tel qu’un linux desktop ou un windows desktop).

Preuve que lorsqu’un linux devient grand public, il devient la cible des développeurs de malwares. Evidemment, la situation aurait ete bien pire dans le cas d’une distrib linux classique, puisque tous les logiciels malveillants se verraient accorder les droits root au moment de leur installation depuis le store.

Evidemment avec 1% de pdm partagé entre des dizaines de distribs et depots différents, linux desktop n’est pas franchement une cible attractive.

Mais le fait est qu’il ne faut pas confondre solution technique et manque d’intérêt des hackers.

Les depots linux ne sont PAS une solution technique.

Au passage, Windows Mobile 6.x avait également un store avec plus de 30 000 applications (et encore plus sur le web). Il n’y a jamais eu de malware sur le store, malgré le fait que WM6 était peu sécurisé, et que toutes les applis installées l’etaient en root (comme les linux desktop donc).

Evidemment, même si wm6 avait 20% de PDM sur les smartphone a l’époque, en terme de volume il était trop insignifiant pour que les développeurs de malwares s’y intéressent.



Le 11/08/2014 à 13h 13






CaptainDangeax a écrit :

MS a été condamné et par principe républicain, une décision de justice ne se discute que devant une autre cour de justice, d’appel ou de cassation. MS position dominante -> IE -> ballot screen. L’usager de l’ordinateur qui n’est pas capable de décocher une case pour éviter l’installation d’un logiciel ne doit pas mettre en cause le système mais plutôt son incompétence. Et si ça le défrise, rien ne l’oblige à rester sous le système dont le fonctionnement commercial ne lui convient pas, surtout si c’est juste pour lire des mails et regarder internet, windows n’est clairement pas le meilleur choix, entre les trucs qui s’installent parce que les cases ne sont pas décochées par l’utilisateur et également toutes les autres saloperies qui s’installent toutes seules.



Tu confonds système et écosystème là!

Linux n’est absolument pas d’avantage protégé que Windows contre ce genre de pratique.

Si linux avait 90% de pdm sur le desktop, tu crois vraiment que les éditeurs de toolbars autres compagnies qui cherchent à installer leur produit de force sur un maximum de machines ne pourraient pas faire exactement la même chose que sous Windows?

Si tu t’imagines que les depots sont la solution à tous les problèmes, tu te fourres le doigt dans l’oeil. Le modèle des depots linux ne serait pas efficace pour supporter un écosystème de dizaines de millions d’apps. Il y aurait des malwares dedans, et les utilisateurs continueraient à télécharger des logiciels hors depot, sur le site de leurs auteurs, car beaucoup de devs n’auront pas envie de se faire chier à soumettre leurs apps et chaque maj à des dizaines de depots (pour chaque distrib linux).

Techniquement, linux n’offre aucune solution contre le bundling d’applications.


Et puisqu’on en parle, le fait de pouvoir installer des trucs dans c:\users\tata_paulette\appdata\roaming (que ce soit chrome ou d’autres trucs moins recommandables) est clairement une faille de sécurité, créée par un UAC lamentable, et l’absence d’un store digne de ce nom.


T’es sûr que t’es informaticien mon gars?

Parce que là tu dis de la merde.
Et l’UAC ou le Windows Store n’ont rien a voir la dedans.

Sous la plupart des distribs linux (et aussi osx), il est possible d’installer des applications dans le dossier home de l’utilisateur et de les exécuter (même automatiquement au démarrage de la session, pratique pour les malwares!).

Evidemment tu vas me sortir que t’as réglé ton profil en noexec, ce à quoi je te répondrais que Windows supporte la même chose (soit applocker, soit SRP, ou tout simplement le contrôle parental de Windows).

Le fait est qu’il est moins dangereux pour l’intégrité de l’OS d’installer des applis sur le profil utilisateur que de leur donner le mot de passe root. (moi même j’essaye de concevoir mes applis pour qu’elles s’installent dans appdata dans la mesure du possible).

En cas de problème c’est facile de recréer un profil vierge sans avoir à réinstaller l’OS.

Pour en revenir au Windows Store, puisque apparemment tu l’ignores, sache qu’il ne contient que des applis WinRT sandboxées. Cela offre une garantie que même si l’auteur de l’application est malveillant, ses actions sur le système et le profil utilisateur seront limitées (il ne pourra pas injecter d’extension malveillante dans ton navigateur pour récupérer les mots de passe, ni accéder a tes documents, ni démarrer la webcam sans ton autorisation,…).
Sous linux, avec un “store digne de ce nom” (comme tu aimes le dire), aucune protection technique n’empêche le téléchargement et l’exécution de logiciels malveillants pouvant prendre le contrôle complet de la machine. Si tu as espoir qu’un store rempli de millions d’applications puisse être garanti sans aucun malware, tu rêves!



Le 10/08/2014 à 13h 25






SebGF a écrit :

C’est parce qu’il n’y a pas eu de plainte concernant la façon dont Google pousse Chrome.

A l’époque c’était Opera Software qui était initiateur de la plainte contre Microsoft. Comme aujourd’hui ils ont baissé leur froc et se font caresser le cul par Google (leur navigateur n’étant plus qu’une skin de Chrome utilisant le moteur de rendu de Google Blink), donc c’est pas eux qui porteront plainte contre ce comportement.

Mozilla ne portera pas plainte contre Google qui est son principal soutien financier.

Apple s’en branle la nouille de la gueguerre des navigateurs sur Windows étant donné qu’elle a Safari par défaut sur ses deux OS.

Il n’y a que Microsoft qui pourrait porter plainte contre ce comportement…. Ironiquement.

Ou alors d’autres mais je ne vois pas qui personnellement.



+1

Ironiquement malgré les plaintes d’opéra contre IE, le ballot screen n’a jamais eu d’effet mesurable sur les pdm d’Opera.

Finalement c’est pas IE mais webkit qui aura fait tomber opera, avec tant de sites mobiles optimisés pour webkit, opera n’a plus jugé réaliste de lutter pour les standards du web et s’en rangé du coté du plus fort.

Qui sait, si trident était open source, peut être qu’Opera aurait basculé vers le moteur de rendu d’IE6 il y a 10ans?



Le 10/08/2014 à 13h 18






seb2411 a écrit :

Mmmh les développeurs se sont jamais plein du non support de la balise vidéo dans IE, tout simplement parce que l’implémentation de cette balise n’était supporte sur aucun navigateur et qu’elle est relativement récente.



Oh que si. Dès que la guerre contre Flash Player a commencé, IE était régulièrement pointé du doigt comme la seule raison qui faisait que les webmasters continuaient à utiliser Flash pour leur vidéo. Fallait bien trouver un bouc émissaire.



Et le non choix de la W3C sur le format n’a fait que prolonge l’attente des devs mais aucun rapport particulier avec IE ici. Tu inventes encore des histoires.


Nope. Les trolls critiquaient en masse l’absence de support de la balise vidéo sous IE, ce qui était stupide étant donné que quand IE9 l’a supportée, la guerre des codecs rendait l’intérêt de cette balise quasi nul.

Mais le fait est que les Chrome fanboys n’avaient franchement pas de quoi se la ramener concernant la prétendue avance de Chrome sur IE, étant donné la prise en charge lamentable du decodage vidéo de chrome comparé à IE9 à sa sortie.

Et c’est loin d’être le seul exemple où chrome se vantait de son avance alors que son implémentation était lente ou pleine de bugs (css radius, canvas2d,…)


De plus c’est bien l’implémentation de la balise Vidéo qui a été bâclé sur IE9 et au final ton argument se retourne contre toi. Et ce n’est pas la seul.


IE9 a ete le premier navigateur à supporter correctement toutes les fonctionnalités qu’on est en droit d’attendre de la balise vidéo (transparence, vidéo en background, transfo css, accélération matérielle). Chrome ne supportait rien de tout ça. Et safari/firefox ne supportaient que certaines choses.

Je sais pas de quel bug tu parles concernant la balise vidéo d’IE9, mais en tout cas même s’il y avait un bug, l’implémentation dans son ensemble était solide, et en mesure d’être utilisable en lieu et place de Flash Player (hormis pour les DRMs). Les navigateurs concurrents avaient une implémentation beaucoup plus lente et incomplète du support du décodage et de la composition video comparé à Flash Player et IE9.

Ca te fait tellement mal que IE9 ait foutu un coup de pied au cul aux concurrents que tu es incapable de l’admettre, quitte à inventer des bugs catastrophiques qui n’existent pas (parce que tu penses peut être que les autres navigateurs n’avaient pas de bugs? Et qu’il suffit d’un bug mineur dans IE9 pour te permettre d’ignorer toutes les avancées qu’il a apporté au niveau vidéo et accélération matérielle?)

Ca avait fait mal aux IE hateboys, mais à peine sorti, IE9 avait été sacré à deux reprises meilleur navigateur par Tom’s hardware, qui ne sont absolument pas des fanboys MS.

http://www.tomshardware.com/reviews/firefox-4-internet-explorer-9-chrome-10,2909…

Mais bon on en est à IE11, et certains ont encore du mal à regarder les choses en face aujourd’hui et préfèrent se dire que IE = IE6 pour toujours, malgré le ridicule de comparer un navigateur sorti en 2001 avec un navigateur sorti 10ans plus tard.

Heureusement que les gens de ton espèce commencent à disparaitre, et se font même régulièrement démonter dans les commentaires sur des sites comme Ars technica. Signe que les mentalités évoluent. Hélas avec des individus comme toi sur NXI on se sent parfois chez clubic…



Le 10/08/2014 à 12h 49






Konrad a écrit :

Tout à fait d’accord.

C’était du sarcasme de ma part : je mettais en contraste un comportement (l’install de Chrome) qui est tout à fait légal et n’a jamais été condamné, avec un autre comportement (l’abus de position dominante, à travers l’intégration d’IE dans Windows) qui a déjà été condamné (et qui devait donc bien être condamnable, au sens juridique du terme).

Ce n’était pas à prendre au pied de la lettre, comme je le disais c’était une pique, une boutade, une provocation, pour montrer que certains intervenants sont vite choqués par le comportement de Google ou autre, mais qu’ils ne critiquent jamais Microsoft même quand celui-ci est condamné.

Ce n’était rien de plus, maintenant j’espère qu’on peut clore ce sujet.



Microsoft a été condamné pour l’intégration d’IE dans Windows alors qu’il n’a jamais empêché l’installation de navigateurs tiers
(y compris sous WP/WindowsRT).

Apple interdit le développement de tout autre moteur de rendu tiers, empêchant ainsi toute concurrence à son implémentation de webkit sur iOS. Google utilise son propre dérivé de webkit.
Webkit est en position dominante et google/apple en profitent bien (les extensions propriétaires de webkit empêchent IE et Firefox de fonctionner correctement avec un certain nombre de sites web conçus exclusivement pour webkit).

Mais ça, ça ne te choque pas. Du moment qu’il n’y a pas de condamnation en justice, c’est OK, Apple peut continuer d’interdire les navigateurs tiers sur iOS, et le couple apple/google peut profiter de sa position dominante sur le mobile pour verrouiller le web mobile avec leur nouvel IE6.



Le 09/08/2014 à 15h 30






Konrad a écrit :

Ah bon, c’était trop cher la licence Windows Server avec IIS…



Non. On trouve de l’hebergement IIS bon marché depuis 4/5ans, voire meme gratuit sur azure web sites sans domaine.
Mais mon site a 7ans (quasiment rien changé dans le code depuis sa création), et je ne vois pas l’intérêt de changer un truc qui marche.


Si tu étais allé voir la page de StatCounter tu aurais vu qu’ils ne tiennent pas compte des pages non vues (Chrome prerendering).

Par ailleurs StatCounter n’est pas le seul à donner ces résultats :

Akamai
ATInternet (Europe seulement)
W3Counter
Clicky

J’imagine qu’ils sont tous biaisés bien sûr ? Seul le sacro-saint Net Market Share détient la Vérité ? Oh et tu n’as pas répondu sur le fait que Microsoft est client de Net Applications, j’imagine que ça ne doit pas du tout influencer leurs statistiques non plus…

C’est un débat sans fin uniquement parce que tu vois les résultats de Net Market Share avec les yeux de la foi… Une seule source, qui te fait voir ce que tu veux voir, alors tu refuses tout le reste. Je te laisse aller travailler, je n’essaierai plus de te convaincre. Peut-être aurai-je convaincu des lecteurs de NXI un peu plus ouverts d’esprit.



Comme l’a fait remarquer le commentaire après toi, tu as compris de travers le coup du geo weighting pour statcounter.

Du coup, oui netmarketshare est plus représentatif que statcounter selon lequel la chine serait un marché insignifiant comparé aux usa.

Sur mon site avec 5000 visiteurs unique par jour j’ai un échantillon d’utilisateurs assez varié (les USA représentent seulement 15% de mes visiteurs), et malgré le fait que mes stats soient biaisées en faveur de Chrome (vu la nature de mon site), IE reste beaucoup mieux représenté que sur les stats de statcounter.

C’est ce qui me fait conclure que les techniques de mesure de netmarketshare basées sur les visiteurs uniques et le geoweighting reflètent mieux les PDM globales des navigateurs.



Le 09/08/2014 à 13h 40






Konrad a écrit :




  1. StatCounter pratique aussi le geo-weighting.
    Source : la FAQ de StatCounter
    Par ailleurs, je ne vois pas le problème à utiliser le nombre de pages vues dans ce cas. Le nombre de pages vues va fausser le trafic d’un site, et annoncer un million de pages vues ne dit rien sur le nombre de visiteurs. Je suis donc parfaitement conscient que le nombre de pages vues n’est pas satisfaisant pour estimer la popularité d’un site Web.
    En revanche, un million de pages vues par un navigateur, ça fait un million de pages vues, quel que soit le navigateur. Quand on fait des statistiques sur des milliers de sites, cela ne change donc pas les proportions de chaque navigateur. Le seul moyen pour que ces statistiques soient faussées, c’est que les utilisateurs d’IE ne regardent qu’une seule page de ces sites Web, alors que ceux de Chrome et Firefox regardent plusieurs pages…



    1. Net Market Share n’est pas indépendant. Apple et Microsoft font partie de leurs clients. Voilà un petit conflit d’intérêt qui pourrait expliquer pourquoi ils donnent une telle part de marché à ces entreprises.
      Source : le profil LinkedIn de V. Vizzaccaro

      Bref je le redis, les stats de Net Market Share sont suspectes, d’autant que c’est le seul acteur du secteur à attribuer 60% de pdm à IE. Mais bon, si tu veux continuer à les croire cela n’engage que toi.



      . Pour le geo weighting ce n’était pas le cas avant.

      Quant au nombre de pages vues, le problème est simple:
      Les geeks ont tendance à passer plus de temps sur le net, et donc charger d’avantage de pages par jour. Donc les gens qui utilisent Chrome (+ le prefetching des pages non vues) pour surfer à longueur de journée vont representer beaucoup plus de traffic qu’un utilisateur d’IE qui utilise internet de manière plus classique (quelques pages vues par jour).

      Bref, au final les stats pages vues et les stats visiteur unique fournissent des résultats très différents. Et ne représentent pas l’usage réel des navigateurs (et encore moins l’usage dans les entreprises puisque netmarketshare/statcounter ne voient que le traffic effectué sur des sites qui utilisent leur outil de tracking).

      Bref, c’est un débat sans fin, je préfère m’arreter là, j’ai du boulot qui m’attend.




Le 09/08/2014 à 13h 26






Konrad a écrit :

Haha, très drôle sachant que sur ton site tu utilises des propriétés CSS comme “scrollbar-base-color” qui n’ont été implémentées que dans IE8, qui n’ont jamais été validées par le W3C et qui ont depuis été abandonnées par Microsoft (ces trucs ne sont pas supportés par IE 9, 10, 11).



Mon site qui au passage est en php et hébergé sur linux, puisque je suis un vilain fanboy MS. Et qui ne recommande pas l’utilisation d’un navigateur en particulier, contrairement à certains ici (pas toi, il se reconnaitra).

Quant à scrollbar*color, je l’utilise sur mes sites depuis l’époque d’IE4, pour des raisons esthétiques. Je trouve que quand le fond de la page est bleu, le site est laid si une scrollbar grise vient gâcher l’uniformité. Et ça ne gêne en rien la compatibilité avec les autres navigateurs.

Perso je trouve ça dommage que les autres navigateurs ne supportent pas cette propriété (sauf opera/presto il me semble). Mais bon aujourd’hui sur IE9+ la scrollbar se fond d’avantage dans la page, et est même cachée automatiquement dans certains cas, ce qui réduit l’intérêt de cette propriété css.


On s’attendrait presque à un bandeau «Site optimisé pour IE 8» <img data-src=" />


C’est pas mon genre. Mais certains ne se privent pas de faire des sites “Optimisé pour Chrome/Safari” de nos jours.


Sinon plus sérieusement, parler de «standard» pour le h264 c’est très exagéré : ce n’est pas LE codec imposé pour la balise vidéo… C’est le format le plus répandu, mais ça n’en fait pas un standard. Il n’y a donc rien d’anormal à utiliser du WebM ou de l’Ogg/Theora dans une balise vidéo.

De toute façon si un site veut être lu par tous les navigateurs il doit proposer les trois formats vidéos (ce que la balise video permet), ensuite le navigateur choisit dans quel format il peut la lire.


Maintenant tous les navigateurs supportent le h264, même Firefox.
Il n’y a plus de raison de se faire chier à supporter webM. Et ce ne serait pas rendre service aux utilisateurs de firefox/chrome sur laptop (webM utilise d’avantage d’énergie vu que le décodage est logiciel)


Et sinon pour en revenir aux stats, mon site qui est visité par des utilisateurs qui s’y connaissent assez en informatique et qui proviennent du monde entier :

IE: 38%
Chrome: 40%
Firefox: 20%

Donc voila pourquoi je pense que les stars de statcounter sont bidon, et que celle de netmarketshare sont plus réalistes, surtout sur une population générale.



Le 09/08/2014 à 13h 16






kamuisuki a écrit :

Sauf qu’on est en 2014 pas 2016 donc je vois pas pourquoi ils n’auraient pas droit à IE12 surtout que rien n’empeche la compatibilité.
Par ailleur existe t-il des packtages modifiées permettant IE 10 sous vista?



Dans le même registre, Google ne propose pas de version récente de son navigateur pour Android &lt;= 2.3 qui est pourtant beaucoup plus récent que vista, et qui est utilisé sur un plus grand nombre de devices que vista.

Le fait est que vista est vieux et relativement peu utilisé. Et MS n’est pas le seul a abandonner ses vieilles plateformes.



Le 09/08/2014 à 13h 09






Konrad a écrit :

Tu reviens encore avec tes désillusions de IE à 60% de pdm ?

Je te l’ai déjà dit auparavant, Net Market Share est le seul à donner une telle part à Internet Explorer. Évidemment c’est la seule source que tu cites parce que ça t’arrange.

W3School

Statcounter

Allez même Wikipedia qui pointe vers plusieurs sources

Désolé mais quand on croise plusieurs sources, difficile de ne pas trouver les chiffres de Net Market Share suspects… Mais j’imagine que ce sont tous des vendus anti-Microsoft, et seul NMS est intègre et a des chiffres justes…

Ensuite se plaindre que Chrome est installé par défaut par plein de logiciels… Je suis complètement d’accord, je n’aime pas non plus ce genre de procédé, clairement Google force la main aux développeurs et aux utilisateurs. Mais pourquoi n’utilises-tu pas exactement le même à l’encontre d’Internet Explorer, qui est installé par défaut avec Windows ? C’est marrant, l’argument de l’installation forcée est valable quand tu parles de Chrome, mais pas avec IE…



Les sites comme statcounter reportent des données brutes, c a d les pages chargées (même les pages chargées par le prefetching de chrome et non vue par l’utilisateur), et sans ponderation des zones géographiques (en gros selon statcounter, la majorité des internautes sont des américains).

Netmarketshare applique une pondération sur les chiffres de chaque pays pour être représentatif des pdm globales, et plus important, ce sont les visiteurs qui sont comptés, et non les pages chargées.

Quand à w3school, je t’ai deja expliqué combien c’est ridicule de se baser sur ses stats. C’est comme dire que osx a 90% de pdm en prenant pour source les stats de macrumors.

Quand au fait que IE soit livré avec Windows, certes. Mais certains OEMs payés par Google mettent Chrome en navigateur par défaut (et enlèvent le raccourcis de IE de la barre des tâches).
De plus, l’installation de maj de Java ou Flash player provoque l’installation de Google toolbar pour IE (qui est buggée et fait ramer/planter IE) + Google Chrome. Donc l’utilisateur lambda qui fait pas gaffe se retrouve avec un IE moins fiable grace à la Google toolbar, et un Google chrome en navigateur par défaut. A partir de là, le fait que IE ait été ou non le navigateur livré avec la machine n’a plus beaucoup d’influence.



Le 09/08/2014 à 12h 21






zefling a écrit :

Merci, donc les gens n’ont pas le droit de voir les vidéo de Wikipédia qui ne peut pas utiliser le MP4. Et non tout le monde ne s’en branle pas. Perso, je les utilisent comme format principale.



En gros tu fais ton JVachez dans ton coin en refusant de suivre les standards.

Tous les navigateurs supportent désormais h264, mais toi tu continues à utiliser un truc qui ne pourra jamais marcher sur iOS/WP et qui ne marche pas par défaut chez 60% des utilisateurs chez qui il faudrait installer un codec webM (c’est comme si tu demandais à tes visiteurs d’installer un contrôle activeX).
Alors que si tu utilisais h264 comme tout le monde, ton site serait compatible avec tous les navigateurs… Et utiliserait moins de batterie pour faire le rendu des vidéos. Mais non. Tu t’acharnes sur un codec condamné.

J’ai un exemple de la synergie entre les retours utilisateurs (en l’occurrence c’est le mien), Mozilla et le W3C :
https://bugzilla.mozilla.org/show_bug.cgi?id=1042885


Tu vois du positif là où n’importe qui d’autre verrait un n-ième exemple des problèmes qu’on risque de rencontrer quand on prend le risque de cibler des spécifications et implémentations bâclées.

Mais c’est pas grave, tu vas juste devoir te retaper tous tes articles un à un… et continuer à blâmer le “retard” d’IE!



Le 09/08/2014 à 12h 12






seb2411 a écrit :

T’as oublie de finir ta phrase avec “mon gars”. <img data-src=" />

Par contr c’est assez marrant car tu es tellement coherent que je peux te citer pour te contredire :

Perso j’ai jamais dit que Chrome ou FF etaient parfait ou bug free… Par contre c’est l’une de tes affirmations habituelle de dire que IE fait tout parfaitement a contrario des autres. (propos issue des sites de promo de Microsoft)

Le reste de ton message c’est du blabla de fanboy.



Tu dis n’importe quoi (en fait tu inventes, et tu vois des incohérences là oú il n’y en a pas).

Ce que je fais remarquer, c’est que beaucoup de choses implémentées par MS depuis IE9 sont mieux implémentées que sur les concurrents qui se vantent pourtant d’être “html5 compliant” depuis des années (alors que ça ne veut strictement rien dire).

Je n’ai jamais prétendu que IE n’avait aucun bug d’implémentation. Juste que l’implémentation d’une nouvelle spec est moins bâclée qu’ailleurs.
Et je suis loin d’être le seul à constater cela.

Mon exemple sur le support des vidéos natifs était assez représentatif du problème. Pendant des années les webmasters blamaient IE pour le fait qu’on soit obligé d’utiliser flash player pour les vidéos. “Tout aurait ete si facile si IE passait a webkit.”
En réalité le support de la balise vidéo était lamentable dans webkit/gecko. Pas d’accélération matérielle, bien plus consommateur de ressources que Flash Player, pas de codec standard, pas de support des DRMs. Bref, inutilisable à l’époque, et même aujourd’hui l’absence de DRMs unifiés nuit à son adoption.


On peut prendre d’autres exemples comme la spec touch pointers bâclées par Apple dans son coin, et qui est trop limitée (pas capable de faire la distinction entre souris, touch, et stylus), et que MS ne peut pas implémenter sur IE desktop car la présence d’une souris sur des devices qui supportent aussi le touch cause des bugs sur un certain nombre de sites.



Le 09/08/2014 à 11h 58






Konrad a écrit :

Ah oui, IE11 a beaucoup de qualité, le problème… C’est tous les gens restés bloqués sur des versions antérieures <img data-src=" />

Les pro-Microsoft se moquent souvent de la fragmentation des autres plates-formes (notamment Android), ils oublient qu’IE souffre aussi d’une fragmentation qui n’est pas à son avantage.

Microsoft semble l’avoir compris, et la décision relatée dans cette news me semble la bonne : forcer un peu la main aux gens pour qu’ils mettent à jour leur IE. Dans ce sens, avoir IE 10 ou 11 sur la majorité des plates-formes Windows me semble une très bonne chose.



La différence c’est que les utilisateurs d’android dans leur immense majorité ne peuvent pas upgrader, même s’ils le veulent.

Alors que sous Windows, tous les utilisateurs Windows 7 peuvent upgrader vers IE11, mais ne le font pas forcement.

(xp n’est plus supporté, et vista a 5% de pdm).



Le 09/08/2014 à 11h 54






jinge a écrit :

Pas pour les versions pro…



Si, pour les versions Pro et Home.

Tu pensais au SKU entreprise qui n’est commercialisé qu’à travers la software assurance, qui est justement un contrat qui permet de passer aux nouvelles versions quand on veux.

Le seul cas de figure serait une entreprise qui serait passé a win8 entreprise puis qui aurait résilié sa SA. Je doute que ça affecte beaucoup d’entreprises.



Le 09/08/2014 à 11h 50






Konrad a écrit :

Ce n’est pas si éloigné que ça des statistiques mondiales

Bref IE c’est tellement le meilleur navigateur qu’il est passé de 60% de parts de marché en 2009 à 20% aujourd’hui. <img data-src=" />




http://arstechnica.com/information-technology/2014/07/windows-8-x-internet-explo…

Sur le desktop IE a 58% de pdm.
(en augmentation depuis 2ans)

Mais évidemment si chacun prend les statistiques qui l’arrange, malgré les déficiences connues de StatCounter (qui compte les pages chargées, et non les visiteurs, et qui représente surtout le traffic provenant des US), effectivement on a des différences d’interprétation grossières.

Mais j’imagine que ars technica considère les stats de netmarketshare plus représentative parce que dans le fond l’équipe d’ars est faite exclusivement de fanboys MS?

Oh et sinon, Chrome est un navigateur tellement génial que des tas d’applications tierces sont livrées avec Chrome par défaut. C’est forcement parce que Chrome est génial, hein. Ca ne peut pas être parce que Google paye les devs pour installer Chrome sur le pc des utilisateurs en même temps que leur application!



Le 08/08/2014 à 23h 23






wagaf a écrit :

Surtout quand ça ne va pas dans le sens que tu veux <img data-src=" />

C’est sûr que c’est confortable de se répéter que IE est le meilleur navigateur parcequ’un blog de MS l’a affirmé.

Et d’ignorer toutes les sources qui montrent le contraire (“une bêtise”).



J’imagine que le gars de jquery a tort, puisqu’il ne va pas dans ton sens.

http://blog.methvin.com/2013/02/tragedy-of-webkit-commons.html?m=1

“Each release of Chrome or Safari generates excitement about new bleeding-edge features; nobody seems to worry about the stuff that’s already (still!) broken. jQuery Core has more lines of fixes and patches for WebKit than any other browser. In general these are not recent regressions, but long-standing problems that have yet to be addressed”



Le 08/08/2014 à 23h 13






seb2411 a écrit :

Oui tellement parfait que la balise vidéo sous IE9 était buggé. <img data-src=" />



Ca alors un bug dans IE? bah IE doit être de la merde alors!
Jamais chrome ne se serait permis d’avoir des bugs dans le support de la balise vidéo!

Il ne supportait pas le décodage h264 matériellement, ni l’accélération matérielle sur la surface de rendu (étirage de l’image sans lissage). Il bouffait 80% des ressources cpu pour lire une vidéo 720p sur un core i5 (contre 5% pour flash player).
Il ne supportait pas la transparence sur les vidéos. Ni les transfo CSS.
Mais c’était “by-design”. Puisque c’était des limitations connues, ce n’était pas des bugs. Donc Chrome est meilleur que IE9 qui gérait tout ça mais qui selon toi avait un bug. J’ai bon?



Le 08/08/2014 à 22h 58






freechelmi a écrit :

Pourquoi W8 est bloqué sur IE10 alors que 7 sur 11 ?.



Parce que les utilisateurs ne sont pas sensés rester sur win8.0.
Il ne sera plus supporté dans un an. L’upgrade vers 8.1 est gratuite et obligatoire, ça n’aurait aucun sens de publier ie11 pour win8.0 (en revanche c’est plus embêtant pour win2012).



Le 08/08/2014 à 22h 50






zefling a écrit :

Tu pourrais ajouter que l’OGG & WebM ne sont toujours pas supportés par IE. Qu’en plus le support du MP4 n’y est pas parfait (d’ailleurs sur aucun navigateur).

.

T’as un an de retard mon gars.
La guerre des codecs est finie.

Edit: Au cas où tu vivrais dans une grotte, c’est le mpeg4 qui a gagné.

Le support de webM tout le monde s’en branle.



Le 08/08/2014 à 20h 09






seb2411 a écrit :

Oui Mr je réécris l’histoire du web comme je veux est de retour <img data-src=" />
C’est exaspérant…



T’as la mémoire courte mon gars!

J’imagine que tu penses que chrome était le 1er a supporter l’accélération GPU, une sandbox, l’isolation des onglets…



Le 08/08/2014 à 20h 04






vloz a écrit :

http://html5test.com/results/desktop.html

…Et là ça prend meme pas en compte certains changements LOURDS comme le shadow dom et les web component, qui sont d’ore et deja fonctionnels sur webkit et dont le dev n’a toujours pas prévu pour ie…

C’est assez poilant de suivre leur retard:
http://status.modern.ie/contentsecuritypolicy?sort=status



Oh oui c’est tellement mieux de faire des implémentation bâclées et de critiquer ceux qui essayent de faire les choses de manière plus réfléchies!

Apparemment certains ont deja oublié la débâcle des websockets, la catastrophe qu’a provoqué webkit sur le web mobile avec son css prefixé, et la pauvre qualité d’implémentation comme les css corner radius (implémentation qui était archi buggée sur chrome), ou les vidéos “HTML5”.

Pendant des années on a critiqué MS en disant que IE était la seule chose qui freinait l’adoption des vidéos en HTML5. Mais lorsque MS a sorti IE9, il s’est avéré que c’était le seul navigateur à avoir une implémentation correcte du décodage vidéo.
Chrome en comparaison ramait à mort pour decoder une pauvre vidéo (car il n’utilisait même pas l’accélération matérielle pour le rendu sur la surface d’affichage, donc il n’y avait même pas de lissage des pixels). Bref le support de la balise vidéo était absolument degueu et je ne parle même pas de la débâcle des codecs.

Alors quand j’entend dire “chrome c’est mieux ça supporte la techno XXX, IE est a la ramasse”, ca me fait bien rire.

Et niveau perf, il a fallu attendre IE9 pour avoir enfin un browser qui utilise l’accélération matérielle. Avant ça la seule chose qui comptait c’était les perfs JS brutes. Que le rendu graphique rame et que canvas2d soit lent et buggé, tt le monde s’en foutait chez google/moz.



Le 08/08/2014 à 19h 52






arno53 a écrit :

Oui mais ca permettrai de séparer client entreprise qui peuvent mettre a jour le navigateur que tout les 2 ans entre 2 version ESR (par exemple IE11 puis IE13) alors que les particuliers profiteront des dernières innovations d’IE12, puis IE13 et IE14 dès leur sortie… C’est un bon compromis permettant de se débarrasser rapidement de l’entretien d’IE12 et IE14 (dans l’exemple) puisque n’étant installer principalement que par les particuliers .

Oui ca encourage les entreprises a rester sur d’ancienne version de 2 ans (dans l’exemple) mais ca ne concernera principalement que l’entreprise et c’est ce qu’elles demandent …



Ca s’est deja produit avec l’arrêt du support d’IE5.5 alors que IE5 et IE6 étaient toujours supportés (win2000).

Je pense pas que ce soit une bonne solution de supporter des anciennes versions plus longtemps que des versions plus récentes si le but est justement que tout le monde utilise la dernière version dispo. Ce serait contradictoire.

L’ESR de Mozilla qui ne concerne pas toutes les versions est tout simplement stupide. Je vois mal MS faire pareil. Mais bon, vu le peu d’entreprises qui utilisent Firefox en ESR, ca n’a pas un impact qui augmenterait de façon visible (et nuisible) les pdm d’un vieux browser. Pour IE en revanche ca risquerait de créer un nouveau IE6/8, chose que MS veut désormais éviter.



Le 08/08/2014 à 19h 07






arno53 a écrit :

Enfin pour en avoir déjà un peu parlé sur la news “IE et l’abandon des ActiveX” c’est encore catastrophique niveau communication …

Ok il y’a encore 2 avant la mise en place de ces nouvelles règles mais on ne sait pas ce que réserve l’avenir … Que va t’il se passer lors de la sortie de IE12 ? Est ce cela revient a dire que IE n’a plus de réel avantage sur le long terme face a Firefox excepté sa compatibilité avec IE8 puisque le support a l’air de se réduire à 1 ans (durée entre chaque IE) ?
Est ce que MS prévoit un cycle ESR comme Firefox pour garder un avantage en entreprise ?
Quid des systèmes ne pouvant passer un IE récent a cause d’un code d’erreur dans Windows Update surement dû au fait qu’IE est imbriqué dans le système et le Bureau actuel …

Beaucoup de question assez négative sans réponse …
D’un point de vue communication, il aurait été préférable de donner aux DSI un élément avantageux, une feuille de route claire sur lesquels ils auraient pu s’appuyer pour prendre des décisions AVANT d’annoncer la mauvaise nouvelle qui n’arrange que MS …



Mouais enfin même avec cette nouvelle politique, chaque version de IE reste supportée plus longtemps qu’un Firefox ESR.

Et le ESR de Firefox ne s’applique pas à chaque version (et encourage à rester sur une vieille version, en penalisant ceux qui sont passés sur une version non-ESR plus récente).

Pour le coup la politique de support de IE reste plus cohérente et plus longue.



Google va favoriser les sites accessibles en HTTPS dans ses résultats

Le 08/08/2014 à 13h 19






ctxnop a écrit :

Je suis partagé sur le principe.
D’un côté je suis absolument pour que le plus de site possible passent au https pour tout ce que ça apporte en terme de sécurité, de protection de la vie privée, etc…

D’un autre côté, contrairement à ce que je lis ici depuis le début des commentaires, il n’y a pas de certificats SSL gratuits valables.

Il y a StartSSL qui fournit un certificat a moitié moisi, dont on ne peux choisir la force, valable uniquement pour un seul domaine (et donc non valable pour les sous-domaines). Ce n’est pas vraiment un bon plan a part pour les gens qui ont effectivement un seul petit site à passer au https.
Il y a également CACert, qui est communautaire et permet de faire a peu près tous les certificats que vous voulez, mais ils ne sont pas reconnus par les browsers/OS, ou très rarement.

Donc en fait il n’y a que l’offre très très limitée de StartSSL. Or si vous n’entrez pas dans les clous, genre moi qui ai une bonne dizaine de sous-domaines et qui en crée régulièrement d’autres, c’est le côté administratif qui devient lourd, du fait qu’il n’y a pas de certificat wildcard gratuit.

Le côté pervers de ça c’est qu’on peut parier que les gens feront des certificats self-signed, c’est à dire sans CA. C’est moins pire que rien, mais ca fait tomber la moitié des intérêts de SSL et surtout l’utilisateur va s’habituer à “ajouter une exception” puisqu’il tombera sans cesses sur des sites au certificat self-signed.

Résultat, ca réduira a néant les intérêts de SSL, l’utilisateur ne faisant pas la différence entre un certificat valide et approuvé par une CA reconnue, et un certificat pourri, self-signed, qu’un hacker aura injecté pour faire son MitM ou autre fourberie du genre.




Je doute qu’un certificat self-signed améliore le ranking d’un site.

Logiquement, Google devrait le traiter comme un site http.

Et puis personne va s’amuser à mettre un certif self signed sur un site ouvert au public, vu que depuis IE7, IE affiche affiche une page blanche avec un gros warning et un tout petit lien pour recharger la page malgré l’erreur de certificat.

Beaucoup de gens quitteraient le site sans même l’avoir visité.



Le 07/08/2014 à 21h 18






KP2 a écrit :

Le contenu mixte n’est jamais (ou a qq pouilleme) du a un MitM… Faut arreter de fantasmer la dessus. Le MItM, c’est un truc de la NSA, pas d’un hacker meme de haut niveau.
Les mecs ont des milliers d’autres moyens bien plus simples que ca pour atteindre leurs objectifs.

Le truc, c’est que Google s’est fait choppé avec le calbute sur les chevilles depuis les revelations de Snowden et aujourd’hui, il veut se faire passer pour plus blanc qu’une lessive Omo Micro…




Je suis pas fan de Google mais je pense que pousser un max de site à passer au https est une bonne chose. Il faut qu’à terme le https ne soit plus l’exception mais la règle. Peut être que dans 15 ans les navigateurs afficheront un gros warning quand on tentera de visiter un site en http?

Je ne suis pas d’accord avec ce que tu dis sur le MItM.

Il y a des outils que des script kiddies peuvent utiliser sans le moindre effort pour intercepter des cookie d’authentification qui circulent en http sur les points d’accès non securisés, très communs dans les lieux publics.

Nul besoin d’être un hacker, et encore moins besoin d’être de la NSA!

Plus dangereux encore, le cas des routeurs non sécurisés.

La plupart des routeurs chez les particuliers (et souvent même dans les lieux public et entreprises) souffrent de sérieuses vulnerabilités (mot de passe par défaut non changé, ou failles non patchées qui permettent de modifier la config du routeur).

Il suffit qu’une seule machine sur le réseau soit infectée par un malware pour que celui ci puisse facilement changer la config du routeur.

Et une fois les DNS changées, un serveur malveillant peut choisir de rediriger certains domaines vers un proxy transparent d’où il pourra extraire les données (ou injecter du code malveillant).

D’où l’intérêt de passer en https partout. Même si ton password pour te logger sur PCI a peu de valeur à tes yeux, il peut avoir de la valeur aux yeux de quelqu’un qui cherche à te nuire ou à obtenir le mdp de ton compte paypal.



Le 07/08/2014 à 20h 43






FRANCKYIV a écrit :

Je parlais de Firefox car c’est celui que j’utilise. Tous les navigateurs doivent être comme ça maintenant.

Et en quoi je dois me remettre en question lorsque j’utilise le script d’une régie publicitaire … <img data-src=" />




Le truc c’est que tu avais l’air surpris et mécontent du fait que le contenu mixte soit bloqué par défaut.

L’insécurité des contenus mixte est un pb connu depuis très longtemps. Râler contre une mesure de sécurité essentielle est contre productif. Il ne faut pas donner l’illusion à l’utilisateur qu’il est a l’abrit des attaques de type man-in-the-middle s’il ne l’est pas.



Le 07/08/2014 à 20h 20






FRANCKYIV a écrit :

Non … tu n’as pas lu mes commentaires …

Mozilla Firefox BLOQUE les contenus http contenus dans du https.



Firefox n’est pas le 1er navigateur à bloquer le contenu mixte par défaut.

En fait IE le bloque depuis la version 8 (2009), et c’est une bonne chose, car charger du JS en http depuis une page https c’est une absurdité!
Il est trivial pour un hacker de modifier à la volée le contenu du JS servi en http pour modifier/recuperer le contenu de la page https (qui va exécuter dans le même contexte le code servi en http).

Autrement dit, si vous êtes webmasters et que vous servez du contenu mixte, c’est vos connaissances en informatique qu’il faut remettre en question, pas le navigateur!



Internet Explorer bloquera les vieux contrôles ActiveX dès le 12 août

Le 08/08/2014 à 00h 01






arno53 a écrit :

[quote:5119318:jmanici]
Wow wow wow!

C’est énorme et inattendu.
Les entreprises vont détester.

Ce qui pose le plus de problème, c’est pas d’abandonner ie9/10 sur Windows 7, mais d’abandonner IE8, la version incluse de base avec win7.

Normalement MS est sensé supporter les composants livrés avec Windows aussi longtemps que Windows lui même.

Même dans le cas de Windows 2000, IE5.0 était resté supporté alors que IE5.5 ne l’était plus.

Bref, je sais pas comment ils vont s’en sortir avec leurs clients corporate… Ca va être intéressant à voir!


Microsoft a vraiment besoin de séparer ses clients professionnels du grand public… Parce qu’en attendant ils enchaîne les maladresse de communication entre l’obligation d’installer l’Update 1, le fait que 8.1 obligeait chaque machine de l’entreprise à telechargé 3Go vers l’extérieur, cette annonce etc…

A chaque fois c’est une mauvaise nouvelle sans donner la moindre visibilité sur l’avenir…

Ils vont sûrement devoir passer sur un mode Extended Support Release (ESR) comme Firefox ou Ubuntu pour les entreprises avec un IE11 supporté 45 ans puis un passage direct à IE16 etc… Et de même pour l’OS.. L’équivalent des GDR ou des release mensuelle n’a pas lieu d’être pour les entreprises..

Alors que les particuliers verront le support de l’os et d’ie se réduire à la période entre 2 GDR.

Mais la question du support est directement liée au principe de la licence payante… On est clairement dans les 23 année charnière dans le business modèles de MS.

Ça va en effet être très intéressant à observer côté professionnels mais malheureusement ça manque toujours de communication sur l’avenir…
[/quote]

Le coup de l’ESR sur le browser j’y crois pas trop. Ce serait pire que la situation actuelle.
Un ESR sur IE11 penaliserait les entreprises ayant fait l’effort d’upgrader sur IE12. Du coup elles resteraient toutes sur IE11 pendant des années, et on se retrouverait avec un nouvel IE8.

Parce contre pour l’OS certaines rumeurs disaient que la version enterprise de win9 evoluerait moins vite et n’aurait pas d’update régulière comparé à win8 et win9 home.



Le 07/08/2014 à 23h 56






arno53 a écrit :

Et y’à aussi le problème des gens qui reste bloqués sur une ancienne version d’IE suites à un obscur code d’erreur dans Windows Update…

Alors que côté Firefox et Chrome dans le pire des cas on desinstalle, on efface le profil et le problème est réglé…

J’espère que les rumeurs de réécriture du bureau avec des techno moderne vont permettre de véritablement détacher IE du système quitte à avoir les moteur de rendu et javascript en double (l’un propre au système et aux apps WinRT et l’autre ne servant qu’à IE et pouvant être updaté facilement).



Pas sûr que ce soit une bonne idée.

Ca me rappelle le coup de ubuntu qui n’a pas updaté les libs webkit de gtk+ (ou un truc du genre) pendant un an.
Du coup tous ceux qui utilisaient des browsers genre epiphany surfaient avec un webkit plein de failles 0day pendant 1 an.

Avoir des versions en parallèle pose plus de problèmes que d’avantage.



Le 07/08/2014 à 20h 24






sniperdc a écrit :

Seul un jeton d’accès numérique sera spécifique à la plateforme.



Comment ça spécifique à la plateforme?

Faut exécuter du code natif pour s’authentifier?



Le 07/08/2014 à 19h 28






RaoulC a écrit :

Merci, je sais tout ca :)

Mais on doit pouvoir faire la même chose en NPAPI (tout de même supporté par plusieurs navigateurs), donc pourquoi choisir ActiveX qui nous enferme dans un environnement Windows+IE?

Cas d’école : la Corée
http://vr-zone.com/articles/koreas-activex-problem/74622.html

Parce que ActiveX existait avant ? Pour l’intégration avec l’OS ( dont la pertinence est discutable..je n’ai pas d’avis tranché) ?

C’est ca l’essence de ma réflexion (meme si derrière ya un peu de ms bashing j’avoue). La question sécuritaire est secondaire, vu que de toute facon quelque soit l’API c’est le plugin derrière qui est en cause ( java flash) et non l’API.



Le problème c’est pas d’avoir fait le choix d’IE+ActiveX.

Le problème c’est de n’avoir fait le choix de ne supporter rien d’autre, et de ne pas suivre l’évolution des technologies.

Perso je pense pas que le choix de Netscape 6 + NPAPI aurait ete plus salvateur si le plugin était si mal conçu qu’il obligeait à installer netscape 6 en 2014 (plus supporté depuis une éternité, et plein de failles).

IE6 aussi pourri soit il par rapport aux standards d’aujourd’hui a eu le mérite d’avoir ete supporté jusqu’a cette année. (et même jusqu’en 2015 sur 2003 server).

Question pérennité, le choix d’IE+Windows est plus judicieux lorsqu’on fait face à de multiples acteurs pas foutus d’updater régulièrement leurs solutions logicielles.

M’enfin, comme nous l’a rapporté arno53, cette époque va bientôt être révolue…



Le 07/08/2014 à 19h 23






arno53 a écrit :

A partir de Janvier 2016, Microsoft ne supportera plus que la dernières versions d’IE disponible pour ses plateformes encore en support :

IE 8 (21% de pdm) ne sera plus supporté alors qu’il peut être installé sur Vista qui lui sera encore en support étendue.

IE 9 (9% de pdm) sera supporté sur Windows Vista (SP2 et +) et Windows Server 2008 (SP2 et +). (La fin de support de Windows Vista est pour 2017).

IE 10 (6% de pdm) sera uniquement supporté sur Windows Server 2012.

Seul IE11 sera supporté sur Windows 7 et 8.x


Coté .NET :
Le support de .NET 4, 4.5, 4.5.1, et 4.5.2 continue jusqu’au 12 Janvier 2016.
Après seul le framework .Net 4.5.2 sera supporté.
Il n’y a pas de changement concernant les autres version du Framework .NET notamment .NET 3.5 SP1, qui sera supporté aussi longtemps que le système d’exploitation sur lesquels ils tournent.

Source

Gros changement pour le monde de l’entreprise … Je ne sais pas comment ca va être pris par les DSI meme si comme rappelé par jmanici, IE11 possède un mode de compatibilité IE8.



Wow wow wow!

C’est énorme et inattendu.
Les entreprises vont détester.

Ce qui pose le plus de problème, c’est pas d’abandonner ie9/10 sur Windows 7, mais d’abandonner IE8, la version incluse de base avec win7.

Normalement MS est sensé supporter les composants livrés avec Windows aussi longtemps que Windows lui même.

Même dans le cas de Windows 2000, IE5.0 était resté supporté alors que IE5.5 ne l’était plus.

Bref, je sais pas comment ils vont s’en sortir avec leurs clients corporate… Ca va être intéressant à voir!



Le 07/08/2014 à 14h 10






renaud07 a écrit :

Oui mais qui marche à moité (ne fonctionne pas avec les chaînes vevo) et toutes les résolutions ne sont pas dispo (360p uniquement et pour certaines le 720p mais c’est rare) <img data-src=" />

De plus je l’ai testé sur mon netbook (AMD C60 1Ghz) et les vidéos saccadent alors qu’avec flash player non. Alors qu’on pourrait logiquement penser que le HTML5 serait moins gourmand en ressources…



Flash Player utilise l’accélération matérielle pour les vidéo depuis longtemps.

Quel navigateur utilises tu?
Si tu utilises chrome, j’imagine qu’il essaye de lire les vidéos en webM, donc sans décodage GPU.

Et je confirme, Youtube en html5 ne fonctionne pas avec toutes les vidéos.



Le 07/08/2014 à 12h 19






Kenshin83 a écrit :

Je ne sais pas où tu bosses, mais les entreprises ne changent pas leurs versions d’IE comme cela (et pourtant on est bien sur seven depuis peu de temps).

C’est le même principe que l’administration qui n’avait pas prévu l’après Windows XP, IE8 ayant ses particularités, il y a plein d’outils qui ont été développés et qui ne marcheront pas nécessairement sur une version supérieure.



Depuis quelques mois IE11 a un mode compatibilité IE8 amélioré qui devrait résoudre pas mal de pb.

Le problème bien souvent c’est que même si tout est compatible IE10/11, les entreprises veulent pas migrer parce que leur intranet marche bien avec IE8/9 et que ça coute de l’argent de faire des tests avant déploiement d’une nouvelle version. Et certains administrateurs ne sont parfois pas compétents et ne cherchent même pas à savoir comment déployer des liste de compatibilité pour le mode IE7/8.



Le 07/08/2014 à 11h 20






RaoulC a écrit :

Je sais pertinemment ce qu’est ActiveX et NPAPI et que cela implique la même chose en terme de sécurité.

Je sais faire la différence entre la techno et le plugin qui utilise la techno :p

Ma réflexion se faisait plus sur les choix des entreprises de se limiter a une techno proprio pour un truc utilisé dans un UNIQUE navigateur Web .

C’est MS lui même qui va probablement à terme laisser cette techno de côté (il garde la compatibilité, mais cela ne les enchante surement pas comme pour XP) alors pourquoi en 2014 ne pas tenter de passer à autre chose? (je sais les coût , faut redev, c’est chiant, tout ca)

http://www.theinquirer.net/inquirer/news/2109885/microsoft-drops-support-plugins…

Évidemment, je doit l’avouer je doit être comme beaucoup de personne pour qui ActiveX est associé à IE6. Du coup je me suis emporté un peu.<img data-src=" />

Mais euh… ActiveX ne permet t’il pas de faire plus de choses que NPAPI?



Non, ActiveX et NPAPI permettent de faire exactement la meme chose: Executer du code natif non sandboxé, et afficher du contenu dans le navigateur.

Meme possibilités, meme risques.

Bien sûr MS essaye de supprimer les plugins et les extensions d’IE au moins chez les particuliers. Un navigateur qui n’execute que son propre code c’est moins d’emmerdes niveau sécurité et stabilité.

Mais les entreprises ont souvent des besoins particuliers, du fait qu’elles essayent de faire faire à leurs applis intranet des choses qui auraient dû faire l’objet d’appli natives.

Genre lecture de carte à puces depuis une page web, ou support d’un lecteur de code bar, …

Et puis il y a des contrôle activex importants qui permettent de générer des certificats ou de les gérer depuis IE. Moi même je m’en suis servi pas plus tard que la semaine dernière pour faire une demande de certificat authenticode. Sans le controle ActiveX de crypto intégré à Windows ça m’aurait obligé à installer openssl et a générer le certif a la ligne de commande.

Bref, il y a encore plein de petits trucs dont les entreprises se servent régulièrement et qui ne peut pas être fait en html5 pour des raisons de sécurité. ActiveX/NPAPI permettent justement d’exécuter du code natif pour en faire d’avantage que ce qu’un navigateur web est sensé faire.



Le 07/08/2014 à 11h 07


Je pense que c’était activex vs html.

Mais niveau plugin java vs activex tu gagnes sur le nombre de plate-formes compatibles.


Oui mais pour un intranet en full Windows tu te compliques la vie à devoir gérer les maj java et les différentes versions de JVM.

(PS: un applet java n’est pas forcement multiplateforme… Lorsqu’il tourne avec des privileges elevés il peut acceder à du code natif).


Le 07/08/2014 à 09h 44






narz a écrit :

Ouais on a compris, les plugins c’est de la merde. Mais bon tant qu’ils n’auront pas implanté le DRM Html5 standardisé, soit le nouveau plugin flash player adaube, google et les autres feront très peu d’effort pour mettre à la marge flash player (qui est le plus problématique). Il n’y a qu’à regarder youtube, aucun effort …



Pour les DRMs HTML5 standardisés c’est mal barré…

Seule l’infrastructure est standardisée, mais pas le DRM utilisé.

Microsoft utilise playready sur IE11 (même DRMs que xbox music).
Google utilise son truc fait maison.
Et mozilla utilise une technologie de DRM fournie par adobe.

Donc pour l’instant, les sites web ont le choix entre cibler Flash Player, ou cibler les 3 implémentations de DRM en HTML5.

le choix est vite fait.

La seule chose qui peut les faire bouger, c’est qu’un grand nombre de devices ne supportent plus flash player. Mais dans ce cas la tendance est plutôt de développer une appli native pour ces devices.



Le 07/08/2014 à 09h 38






RaoulC a écrit :

Je suppose que cela sera sans effet sur les ActiveX maisons des entreprises, pour celles qui en ont (les folles) .



Pourquoi “les folles”?
Entre un intranet reposant sur des contrôles ActiveX modernes et un intranet reposant sur des applets Java, mieux vaut l’intranet reposant sur ActiveX. Ca évite pas mal de soucis liés à JAVA. Et niveau sécurité, il n’y a pas plus de risques à installer un contrôle activex (fait maison ou provenant d’une entreprise de confiance) qu’à exécuter un applet java qui demande l’autorisation d’accéder au système (souvent le cas).


Voila une nouvelle qui va amener du boulot aux services d’assistance, et je ne peut que m’en réjouir <img data-src=" />


A court terme peut être. Mais sur le long terme ça veut dire moins d’infections dûes à des plugins pas a jour, donc moins de boulot pour toi ;)



Microsoft va commercialiser un tuner TV pour Xbox One à 29,99 €

Le 07/08/2014 à 14h 46






DahoodG4 a écrit :

Autant pour moi, c’est bien pour chez nous, mais bon le coax ca reste pourri.
La lecture de flux sur le reseau est bien plus simple, mais ne necessite pas de boitier, juste une app, le truc gratos quoi… . <img data-src=" />



Le coax pourri?

C’est pas une sortie vidéo composite hein. C’est une prise antenne. Derrière on a un flux mpeg4 HD qui est beaucoup moins degueu que sur la tele par ADSL.

après si on a un bon debit, mieux vaut une appli dédiée comme la TV d’Orange sur Xbox. Mais bon, pas de contrôle du direct pour le moment.



Le 07/08/2014 à 14h 39






Lafisk a écrit :

Ben deja, c’est un accessoire, donc … pas obligatoire.

Deux, la xbox etant une console, en general, tu la branche a une tele, j’ai tres peu vu de personne branchant ca a un ecran d’ordi meme si dans l’absolue, c’est possible tres facilement depuis le hdmi.

Pour ce qui est des TV sans tuner, tu te fais pas chier a acheter ca pour ensuite acheter un tuner a ta console



Le site de MS indique qu’on pourra mettre en pause la tv en direct.

Ca + le contrôle vocal pour changer de chaine et le guide des programmes, c’est plus intéressant que d’utiliser le tuner de sa TV.

Reste à savoir s’ils permettront aussi l’enregistrement de programmes tv… Vu que tout le hardware est deja là.

Vu que MS a tué WMC, on commence à avoir un début de remplacement qui a du sens.