Ben oui c’est le problème avec ces noms commerciaux : même si l’éditeur est clair avec les fabricants, dans la tête des gens c’était écrit «Vista» alors ça devait faire tourner Vista…
Pour moi c’est exactement la même connerie que les télévisions «HD Ready». La plupart des gens vont supposer qu’une telle télévision peut afficher leurs films et Blu-Ray en HD pleine résolution (1080p), alors que souvent les TV «HD Ready» ne peuvent afficher que du 720p. Alors oui les logos sont clairs quand on se renseigne… mais au premier regard ces noms embrouillent plutôt qu’autre chose, et quand Mme Michu demande une TV «HD» au vendeur elle se retrouve avec une TV «HD Ready». Y’a HD dedans donc c’est bon.
Ce sont des noms choisis par le marketing pour embrouiller les gens et leur faire acheter des machines ou des TV que personne n’aurait acheté autrement.
Le
07/08/2014 à
12h
01
carbier a écrit :
Même sur un PC familial, il est bien de ne pas donner les autorisations admin à tout le monde…
Mon propos est que si les bureaux virtuels sont utilisés pour pallier à la gestion des comptes (chacun son bureau sur le compte principal) cela ressemblerait plutôt à un recul en termes de sécurité…
Ça, je suis entièrement d’accord, et je ne le ferais jamais chez moi par exemple… Un utilisateur = un compte isolé des autres, avec droits restreints (un seul admin, de préférence moi " /> ).
Mais je comprends que chez les Michu qui n’y connaissent rien, ils n’ont pas envie de passer par l’écran de changement de session à chaque fois que l’un ou l’autre veut regarder ses emails ou aller sur Facebook… Dans le cadre d’un tel «PC familial» au sens simpliste du terme (pas de document important, etc.) ça ne me choque pas que plusieurs utilisateurs utilisent le même compte, et que la même session reste ouverte tout le temps, bureaux virtuels ou pas.
Des Michu qui utilisent toujours un compte admin sous Windows, ça fait plus de dix ans que ça existe, même sans bureau virtuel… Je suis d’accord que c’est nul en termes de sécurité, mais ça n’a rien à voir avec l’arrivée ou non des bureaux virtuels.
Le
07/08/2014 à
10h
53
carbier a écrit :
Ce qui ne devrait pas être très loin de la réalité, même maintenant…
Car si comme dit précédemment, cela sera utilisé sur un compte unique pour faire un bureau par utilisateur… je ne vois pas trop l’intérêt… Notamment au niveau de la sécurité…
?? WTF ???
1- Je ne vois pas le rapport avec la sécurité… Avoir un ou plusieurs bureaux virtuels ne changera rien à ce niveau. Après, tu voulais peut-être dire que si plusieurs utilisateurs ne sont séparés que par des bureaux virtuels les uns peuvent avoir accès aux documents des autres, ce qui n’est pas sécurisé… J’ai envie de dire que soit c’est parce que les utilisateurs s’en foutent (PC familial, tout est partagé, rien de caché), soit c’est une utilisation très conne des bureaux virtuels (si jamais c’est fait en entreprise il faut pendre le DSI par les balls avec un câble ethernet).
2- évidemment sur 90% des Windows les bureaux virtuels resteront désactivés, donc beaucoup vont dire que c’est une fonctionnalité inutile… Mais l’important est d’avoir le choix. Le choix de le laisser désactivé si on n’en veut pas, et de l’activer si besoin. Même si seuls des professionnels utilisent des bureaux virtuels, pour eux ça sera très important.
Personnellement j’utilise 6 bureaux virtuels au boulot, chacun avec son lot de tâches et d’applis associées, ils font partie intégrante de mon organisation. Si on me les supprimait je serais mal…
Le
07/08/2014 à
09h
52
Gatchan a écrit :
Les bureaux multiples existent depuis (très) longtemps dans Windows : il est possible d’en créer avec CreateDesktop de l’API Win32. Ce que font les outils de bureaux virtuels.
Mais MS aurait dû au moins permettre cette fonctionnalité dans la version Pro/Server depuis toujours via un paramétrage. Pour la familiale, je doute que Mme Michu en comprenne l’intérêt…
teddyalbina a écrit :
ça a toujours existé techniquement dans Windows simplement MS ne fournissait pas d’accès à cette fonctionnalité depuis la GUI ou la ligne de commande.
Suffit d’appeler la méthode système CreateDesktop(…); avec les bons paramètres et tu as bureau virtuel enfin un autre le bureau est déjà virtuel. Cette méthode prend aussi en paramètre un pointeur vers un autre bureau du coup tu peux les chainer.
Oui enfin comparons ce qui est comparable… On parle d’une fonctionnalité pleinement intégrée au bureau, pas d’une commande système obscure que personne ne va appeler manuellement.
Les bureaux virtuels existaient nativement sur l’Amiga en 1985, et sous UNIX depuis la création de X vers la même époque (Linux puis Mac OS X en ont hérité par la suite). C’est donc incompréhensible que Microsoft ne l’ait pas proposé de façon native et pleinement intégrée plut tôt, surtout que ça faisait partie des demandes récurrentes de leurs clients.
Le
07/08/2014 à
09h
31
DDReaper a écrit :
Whoa direct tu passe de la rumeur au fait établi toi, t’es comme ca.
La raison pour laquel Microsoft n’a jamais intégré cette fonction est bel et bien parce que d’après leurs tests la fonction était trop compliqué à prendre en main pour le grand public.
On a aucune idée de la façon dont cette fonctionnalité sera implémentée, si elle l’est et tu arrive déjà à conclure sur les tenant et les aboutissant.
Où ça un fait établi ? Tu noteras que j’ai écrit : «c’est une bonne chose si Microsoft les intègre»… On est donc loin du fait établi.
Pour les rumeurs je n’ai fait que répéter ce que des INpactiens m’avaient dit.
Et on a déjà des éléments sur la façon dont ça sera implémenté puisque c’est écrit dans l’article. Il est tout à fait possible que les bureaux virtuels soient désactivés par défaut (comme ça Mme Michu n’est pas perdue, elle n’a qu’un seul bureau comme avant), et activables dans le panneau de config pour les professionnels / geeks (d’après la news ça sera un bouton dans la barre des tâches).
Le
07/08/2014 à
09h
28
atomusk a écrit :
Vivement qu’elle arrive cette beta, c’est qu’il commence à s’encrasser mon Windows7 depuis la dernière fois que je l’ai installé " />
Comment ça «s’encrasser» ? Ralentissements ? Conso mémoire ? Sécurité ? Il te manque des fonctionnalités présentes dans les versions ultérieures ?
Le
07/08/2014 à
09h
22
Ah ben tiens, des windowsiens m’expliquaient ici il n’y a pas longtemps que Microsoft ne mettrait jamais de bureaux virtuels dans Windows, parce que sinon Mme Michu serait perdue, blabla blublu…
Les bureaux virtuels c’est le Bien, c’est une bonne chose si Microsoft les intègre enfin dans Windows.
Donc le libre coûte plus chère que le proprio au final.
Tu aurais dû prendre le temps de lire les commentaires, comme je le disais :
1- quand il y a migration d’une solution à une autre (proprio -> libre, mais aussi proprio -> proprio) cela entraîne toujours un coût supplémentaire à court terme. Donc regarder le coût à court terme ne permet pas de dire quelle solution coûte le plus cher : il faut regarder les dépenses annuelles, sur le long terme. Pour l’instant ça reste difficile à évaluer pour le Ministère de l’Agriculture, mais par exemple la ville de Munich a migré et a économisé environ 11 millions d’Euros sur 10 ans. La ville de Toulouse a aussi annoncé des économies conséquentes après migration.
2- quand on parle d’institutions publiques le coût est loin d’être le seul paramètre à prendre en compte. La pérennité des données, l’indépendance numérique de l’État, le retour sur investissement, qui assure le support… sont aussi extrêmement importants.
Le
07/08/2014 à
08h
15
RafCorDel a écrit :
Le logiciel libre est une bonne idée… si on l’utilise comme tel
Après il est clair que les développements spécifiques ultérieurs peuvent finir par coûter plus cher que des licences de logiciels propriétaires déjà pourvus de ces développements spécifiques…
Un certains nombre de sociétés ont été surprises par les logiciels libres, pensant à une bonne affaire, en voyant les couts s’allonger par la suite.
On ne voit souvent que le côté émergé de l’iceberg avec le cout du seul logiciel…
Il y a déjà de nombreux exemples dans lesquels une migration vers des logiciels libres ont permis d’économiser de l’argent : la ville de München (Allemagne), la Gendarmerie Nationale, ou encore la ville de Toulouse. Bien sûr si on ne regarde que les coûts à court terme cela coûte de l’argent, comme toute migration… Il faut regarder les coûts à long terme. Par ailleurs, l’argent, au lieu de servir essentiellement à payer des licences (souvent à un éditeur étranger), va servir à payer le support, la migration, le développement spécifique, etc. ce qui peut être assuré par des boîtes françaises. Personne n’a jamais dit que passer au logiciel libre enlevait tous les coûts.
Mais, comme on en a déjà maintes fois discuté dans ces colonnes, le coût est loin d’être le seul argument en faveur du libre, surtout quand on parle d’administrations publiques. Rappelons les trois avantages du logiciel libre : Liberté, Égalité, Fraternité.
L’article dit que le Ministère de l’Agriculture a adopté le format de fichiers ODF, ce qui est une bonne nouvelle : c’est un format de fichiers qui a été choisi, et non pas une suite bureautique particulière. Cela va permettre de faire jouer la concurrence : plusieurs éditeurs logiciels vont pouvoir participer aux appels d’offre pour lire les fichiers ODF du Ministère. Le Ministère y a gagné en liberté, et il n’y a plus d’éditeur logiciel privilégié, les différents acteurs du secteur se retrouvent à égalité. Fraternité, parce que ce sont des boîtes françaises et européennes qui assureront le support, les migrations, les formations, les développements spécifiques… et non un éditeur étranger.
Au final, même si ça coûte plus cher, il est intéressant de passer au logiciel libre pour tout un tas de raisons, notamment l’indépendance numérique de notre pays.
Vous pouvez faire un #69 si vous voulez, mais pas en public s’il vous plaît…
Le
07/08/2014 à
08h
49
Ricard a écrit :
C’est marrant, c’est toujours les petits producteurs/artistes que personne ne connait qui mettent leur médiocrité sur le dos de la piraterie. Etonnament, les gros ne se plaignent pas tant que ça.
Je suis d’accord sur un point : Hadopi est devenue inutile. En fait elle a toujours été inutile.
En revanche pour l’industrie du film qui plonge… Le nombre de tickets de cinémas vendus est plutôt stable, et les revenus de cette industrie ne fait qu’augmenter depuis des années… À un tel point que je me demande si l’augmentation du prix du ticket de cinéma est vraiment justifiée.
Quant à la VoD, elle a très bien décollé aux États-Unis (Netflix…), pourtant ils ne sont pas en reste côté piratage. Donc si Canal Play, TF1 et compagnie n’ont pas décollé c’est peut-être pour d’autres raisons…
Ah ça y est on a retrouvé Schtroumpf grognon : «moi j’aime pas le fun»…
Il y a des gens qui trouvent ça fun, laisse-les dans leur coin. Je ne vois pas en quoi ça te gêne que d’autres gens fassent ce qu’ils veulent de leur argent… " />
Le
07/08/2014 à
08h
51
La plateforme ne précise toutefois pas combien d’entre eux sont des INpactiens. (S’il y en à, qu’ils se dénoncent dans les commentaires).
C’est volontaire, on s’adapte à la v6 depuis quelques jours, ça va arriver de temps en temps en attendant l’arrivée de la nouvelle version du site pour tout le monde ;)
Vous devriez être plus à l’écoute de vos lecteurs : ils veulent des images (cf commentaire #9), de plus sur beaucoup de news il y a des gens qui commentent sans avoir lu l’article.
Si vous voulez mieux correspondre à vos lecteurs c’est donc l’inverse qu’il faut faire : des articles sans texte, avec juste un titre et une illustration.
Oui mais bon ça coûte beaucoup de sous…surtout si on utilise du Syno.
Est-il possible de “synchroniser” 2 NAS de marques différentes sans trop d’ennuis par exemple?
Je ne pensais pas à deux NAS. Quand on veut assurer la pérennité de ses données on pense à tous les scénarios catastrophe : coupure de courant, foudre… En cas de défaillance électrique les deux NAS sautent et t’as tout perdu.
Avoir une copie sur son PC perso et sur le NAS est un bon début. Ça permet de synchroniser ses fichiers régulièrement, d’éviter pas mal de scénarios catastrophe, mais pas tous.
Les documents et photos de monsieur-tout-le-monde (petit volume de données) peuvent s’archiver sur CD ou DVD. Ça ne coûte vraiment pas cher, c’est très rapide et un DVD rangé dans une armoire ne craint pas la défaillance électrique. En revanche, ne pas oublier qu’un DVD gravé a une durée de vie très limitée (10 à 15 ans max), donc il faut penser à les vérifier et à re-graver de temps en temps.
Pour les plus gros volumes de données il est possible d’archiver ça sur un disque externe. Au prix des disques de 1 To ou 2 To ce n’est pas la ruine non plus. Disque qu’il faut bien sûr garder débranché et rangé dans une armoire, idéalement dans une boîte métallique qui fait cage de Faraday.
Bref il est possible d’avoir plusieurs copies de ses documents sans engager des frais énormes. Mais bon, c’est chiant de graver un DVD ou de brancher un disque externe, alors quasiment personne ne le fait… C’est comme ça que des données sont perdues.
PS : comme je le disais au boulot on a un Synology de 16 To. Ce n’est qu’une copie de nos données : s’il a été corrompu, on le formate, on le met à jour (si un patch pour éviter ce problème sort d’ici là), et on recopie nos données dessus… Tout le monde a été bien informé au boulot que le NAS n’est qu’une solution de backup, il n’est pas question de n’avoir ses documents QUE sur le NAS.
Le
05/08/2014 à
10h
55
DownThemAll a écrit :
Ceux qui stockent uniquement sur un NAS ont le droit de paniquer" />
Ceux qui stockent uniquement sur un NAS apprendront leur leçon…
Règle No.1 du stockage : ne jamais faire confiance à une seule solution… C’est un peu l’équivalent de «ne pas mettre tous ses œufs dans le même panier»…
Le
05/08/2014 à
08h
02
chaton51 a écrit :
tout a fait.. enfin un commentaire intelligent..
ca change des “ moi j’ai la solution, pas de nas” .. ou des “ moi je préfère monter mon propre systeme” .. qui prouvent là toute l’intelligence des auteurs.
Et remettre en cause l’intelligence des autres alors que tu ne sais rien d’eux… c’est intelligent ?
Oui je me sens visé puisque j’ai dit dans un message que j’avais mon propre système. Cela ne veut pas dire que je mets toutes mes données sur un seul disque sans sauvegarde ailleurs. Merci de ne rien présumer de mon intelligence.
Le
04/08/2014 à
22h
09
Pas de NAS chez moi (serveur maison).
En revanche on a un NAS Synology au boulot et tout le monde est en vacances " /> J’imagine que ça sera la surprise en revenant…
sepas a écrit :
Ca change quoi?
Aucun OS de monde n’est exempt de failles.
Si les Syno sont attaqués, c’est simplement parce que ce sont les plus répandus.
C’est un peu comme il y a quelques années où on disait que Windows était blindés de failles car c’était le plus attaqué.
Le problème est que ce qui marche bien est souvent très présent chez les particuliers et donc très intéressant pour les hackers qui cherchent donc des failles.
Ce qui ne marche pas ne se vend pas beaucoup et intéresse donc beaucoup moins. On a donc l’impression que c’est plus stable mais non, c’est juste que ça n’intéresse personne.
Je crois que c’est justement ce qu’il voulait dire : le but n’est pas de trouver LE système qui aurait hypothétiquement le moins de failles. Le but est d’utiliser une solution qui a le moins de failles exploitées. Dans ce sens une solution maison sera effectivement plus efficace : elle ne subira pas d’attaque, à moins qu’un hacker s’en prenne spécifiquement à cette machine (auquel cas ce sera uniquement cette machine qui sera attaquée, au lieu de tous les NAS Synology comme c’est le cas ici).
La chine fait des déclarations, mais dans la pratique, que font t’ils vraiment pour remplacer les produits qu’ils annoncent vouloir bannir.
A ce que je sache, la chine ne contribue pas vraiment au développement ou à la diffusion de Linux ou autres logiciels libre (désolé, mais red flag linux n’est pas vraiment crédible). Leur industrie du soft n’est pas non plus en mesure de proposer une alternative aux produits US.
Si c’est bannir les produits Kapesky ou Symantec pour les remplacer par une autre solution fournie par une entreprise étrangère, je n’appelle pas ça “avoir des couilles”. C’est juste un moyen de pression sur ces deux acteurs, sûrement pour négocier un rabais ou des conditions plus avantageuses.
Ça pourrait être une bonne question, si la réponse n’était pas déjà dans l’article :
En fait, dans le domaine de la sécurité, cinq éditeurs spécifiques ont été approuvés par les autorités : Qihoo 360 Technology Co (QIHU.N), Venustech, CAJinchen, Beijing Jiangmin et Rising. Le point commun de ces éditeurs se trouve aisément, puisqu’ils sont tous chinois.
Le
04/08/2014 à
21h
27
griffondor a écrit :
il y’a une video youtube qui parle de DAVFI (démonstrateur d’antivirus français et internationaux) voici la vidéo pour ceux qui veulent en savoir plus :
voilà vivement Davfi, on auras l’occasion de le tester en octobre ;)
Et ils n’ont pas de budget comm, alors c’est toi qui fais leur pub sur Next INpact et sur IRC ?
Le
04/08/2014 à
12h
11
Pendant ce temps en Europe, malgré les révélations Snowden, l’espionnage d’Angela Merkel, la découverte de backdoors dans iOS, et j’en passe, on continue d’utiliser massivement les solutions de ces entreprises américaines : Microsoft, Apple, Google… À quand une politique forte et une indépendance numérique de l’Europe ?
c’est pas une super idée de faire un RAID 1 pour windows.
si tu as une plantage ou une merde, ben les 2 systèmes seront concernés…
perso je suis plus adepte du clonage, je fais régulièrement un clonage de mon installation sur un disque dur que je branche uniquement pour l’occasion.
Oui j’aurais peut-être dû préciser : je suis sous Debian GNU/Linux.
Après on est d’accord qu’un RAID 1 ne protège pas du tout d’un plantage système ou d’une mauvaise configuration, puisque par définition la même chose est reproduite sur les deux disques… Ça protège juste contre la mort d’un disque, ce qui est déjà pas mal (et ça m’est déjà arrivé).
Sinon je sauvegarde aussi ma config système ailleurs, bien entendu " />
Le
04/08/2014 à
21h
54
balifred_alias fred a écrit :
un raid en ssd ca a une utilité ?
Ça dépend quel type de RAID j’imagine… Si tu parles de RAID 0 pour augmenter la rapidité, je doute que ça soit vraiment significatif.
En revanche sur mon PC j’ai opté pour un RAID 1 (mirroring) de SSD de 128 Go sur lequel j’ai installé le système. Comme ça, si un disque crashe, mon système continue de tourner. On ne gagne rien en place, mais on gagne beaucoup en fiabilité.
Il me semble que le point clé de l’article c’est que l’ancienne version était trop addictive… on a déjà eu des histoires de joueurs sur WOW qui sont décédés car ne s’étant pas alimentés durant plusieurs jours. Désormais dans beaucoup de MMO on a des messages proposant de faire des pauses…. DU coup j’imagine que le fait d’arriver jusque là doit poser des problème aux créateurs/éditeurs.
Du coup ce que je retiens c’est qu’il a remis son jeu avec un système d’attente pour éviter d’enchaîner trop de partis. A l’instar de Candy Crush j’imagine où après 5 défaites on doit attendre plusieurs minutes avant de repartir…. et ce n’est pas un hasard.
Si tous les jeux addictifs devaient être interdits… Ben tous les jeux seraient interdits " />
Les gens qui ne se nourrissent pas pendant plusieurs jours, on appelle ça la sélection naturelle (Darwin Award inside).
Le
04/08/2014 à
15h
35
Vieux_Coyote a écrit :
N’empêche je ne pige pas, il n’était pas ivre…
Quand on est ivre on fait n’importe quoi… Kevin a sans doute voulu faire référence au fait que le jeu a décidément un parcours chaotique (sorti, puis retiré, puis revient), en plus de faire une référence au Tumblr «Ivre virgule».
Ivre, il donne des titres farfelus à ses articles.
Ivre, il prend le titre de l’article au pied de la lettre.
Toi, vu ton avatar, tu as regardé Ghost in the shell …. " />
Aemaeth " />
Le
04/08/2014 à
13h
12
luxian a écrit :
Ils auraient dû trouver un nom avec un H en fin d’acronyme.
Ca aurait complété emeth … vérité en hébreu.
Ce qui dans un sens est pas si mal trouvé pour un paquetage d’audit / paramétrage en sécurité.
Et ensuite ils auraient pu enlever le premier E, ça aurait donné Meth " />
Le
01/08/2014 à
11h
24
frscot a écrit :
Y-a-t-il des inconvenients a avoir EMET d’installer sur son ordi?
(ou pourquoi ce n’est par default?)
Ca a l’air d’etre important pour la securite, donc une bonne raison pour moi de l’installer, mais ce ne serai que moi sur mon portable de ma boite (pas grosse entreprise avec parc)
Quels sont les risques d’utilisation de la trousse à outils EMET ?
Les technologies de réduction des risques pour la sécurité utilisées par EMET engendrent un risque de compatibilité d’application. Certaines applications utilisent exactement le comportement que les réductions bloquent. Il est important de tester rigoureusement EMET sur tous les ordinateurs cibles à l’aide de scénarios tests avant de le déployer dans un environnement de production. En cas de problème concernant une réduction spécifique, vous pouvez activer et désactiver individuellement cette réduction spécifique. Pour plus d’informations, reportez-vous au guide de l’utilisateur d’EMET.
D’après ce que je comprends, EMET est bon pour protéger certaines applications connues. Pour les applications non compatibles, EMET sera désactivé et donc inopérant. D’autres personnes pourront peut-être en dire plus à ce sujet.
J’ai un HTPC en mini-ITX sous ma TV, qui me sert pour lire par le réseau des films, séries TV et de la musique stockée sur mon PC fixe (+ YouTube / webradios).
Mais je trouve que tous les logiciels de Media Center (y compris XBMC) ont une ergonomie positivement à chier. C’est joli à voir (encore que) mais c’est pas pratique à utiliser.
De fait, sur le bureau Windows de mon HTPC, j’ai un raccourci vers le dossiers de films qui sont sur mon PC fixe : en deux doubles clics le film est lancé. Et ça, ça vaut tous les froufrous du monde à base de jaquettes et de résumés qui sont de toute manière à portée de clics sur Allociné.
Tout ce que tu dis tu peux le faire sous XBMC. Mais si ton système te convient, tant mieux pour toi.
Le
04/08/2014 à
13h
18
Commentaire_supprime a écrit :
Je rajouterai, parce que je le fais, que XBMC fonctionne très bien avec un clavier sans fil.
Ah oui oui, à l’occasion j’utilise aussi un clavier sans fil, une télécommande ATI Remote Wonder II, ainsi que Yatse : XBMC (Kodi) supporte très bien tout cela.
Mais bon un simple explorateur Windows + clavier, ça ne fait pas un Media Center…
Le
04/08/2014 à
12h
23
Nathan1138 a écrit :
L’explorateur Windows et un clavier sans fil.
Non non, ce n’est pas une blague
Si ce n’est pas une blague, tu n’as pas compris l’intérêt d’un Media Center…
Le
04/08/2014 à
09h
40
pentest a écrit :
Meuu, vous avez pas lu la nouvelle ?
Non la phrase de l’article est correcte : le nom «Kodi» ne sera effectif qu’à partir de la version 14, qui n’est pas encore sortie (elle est au stade d’alpha pour l’instant).
Si on veut la dernière version stable il faut donc bien télécharger XBMC 13.1.
Le
04/08/2014 à
08h
06
Autant le changement de nom ne me gêne pas, autant le nouveau logo est très moche… On dirait qu’ils ont utilisé une police habituellement réservée aux émissions pour enfants…
Le probleme n’est malheuresement pas que dans l’User Agent mais aussi dans l’utilisation de préfixe alors que c’est aujourd’hui normalisé, l’utilisation de préfixe non standardisé ou encore de l’utilisation du préfixe webkit sans mettre en place celui de Firefox ou IE … (voir le post de MS)
Je crois qu’il faudrait complétement revoir l’utilisation de ces préfixes … Je comprends qu’on aie besoin de tester de future fonctionnalité mais voir ça dans des sites en production je trouve ça désolant " /> Et encore plus quand on s’appelle Google dont les sites sont fréquenté par des centaines de millions de gens par jour …
+1 dans un monde idéal tout le monde n’utiliserait que les fonctions standard et pas celles avec des préfixes…
Malheureusement, comme l’ont dit les deux commentaires au-dessus, dans cette gué-guerre des navigateurs chaque entreprise y va de ses préfixes pour imposer ses standards… Alors qu’elles font toutes partie du W3C et devraient au contraire discuter et collaborer…
Le
04/08/2014 à
12h
35
Ler van keeg a écrit :
En même temps les User Agent c’est un bordel… Mais monstrueux !
C’est des fix de fix de fix de rajouts de masquages qui datent du début du Web et aujourd’hui ça ne veut plus rien dire du tout.
Netscape (Mozilla) qui se fait un User Agent custom par rapport à Mosaic, IE qui fait pareil, Mozilla qui rajoute une string compatible IE, puis Chrome qui fait comprendre qu’il est compatible Mozilla qui lui-même se déclare compatible Gecko/KHTML/Safari, et IE qui se fait passer pour les autres pour arrêter de se prendre les bouts de code html/css pour le dégrader à cause de feu IE6.
Et tout s’additionne pour avoir des UA magnifiques du genre
Mozilla/5.0 (Windows NT 6.3; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/37.0.2049.0 Safari/537.36
Et je parle pas des versions mobiles.
Un joyeux merdier " />
Il serait temps de remettre un peu les choses à plat, parce que le coup du navigateur A qui précise qu’il est compatible avec le navigateur B qui lui-même se fait passer pour le navigateur C qui se déclare compatible avec le A….
adhes a écrit :
Exactement, et c’est triste de voir que les développeurs continuent à se baser dessus, en voyant le bordel que c’est.
Dans l’article de Microsoft, ils précisent justement qu’il n’y a qu’une vérification à faire : chercher le mot “mobile” dans l’UA pour déterminer si on utilise une vue mobile ou desktop.
J’ai lu l’avis d’un développeur là-dessus il n’y a pas longtemps.
Il disait qu’en gros, l’user-agent c’est du bullshit aujourd’hui, mais s’il en est ainsi c’est parce que mine de rien, il existe beaucoup de vieux sites Web des années 1990 ou début 2000 -certes pas des sites majeurs comme NextINpact, Le Monde et compagnie, mais des petits sites d’associations, des sites perso etc.
Du coup l’user-agent n’est plus là que pour assurer la compatibilité avec ces vieux sites qui ne respectaient pas les standards, utilisaient des vieux hacks etc. C’est pour cela que tous les navigateurs se font passer pour les autres, par ex. IE se fait passer pour Firefox, etc.
Justement à l’heure des standards où tous les navigateurs sont censés afficher un site Web de la même manière, ledit site Web ne devrait pas avoir à détecter quel navigateur est utilisé. Les standards (HTML5, CSS3…) sont justement là pour éviter les hacks spécifiques à tel ou tel navigateur.
Quand on conçoit un site Web aujourd’hui, on ne doit plus faire de distinction entre les navigateurs (sauf la distinction PC / version mobile bien sûr). Donc on doit simplement ignorer l’user-agent, et non pas essayer de le déchiffrer.
Quand je vous disais que c’était des branquignols chez Mozilla… " />
Les données ont été accessibles facilement pendant un certain temps, mais impossible de dire si elles ont été dupliquées par des pirates ou pas. Si ça ne trouve rien n’a été compromis (ça semble être le cas puisqu’ils indiquent qu’aucune activité suspecte n’a été détectée sur ce serveur). Si ça se trouve tout a été recopié. Dans le doute, Mozilla recommande à tout le monde de changer de mots de passe.
Si tu as lu la news, tu dois savoir que même si ces données ont été volées, elles sont insuffisantes pour se connecter et pour pirater les comptes de chez Mozilla. En revanche, si les gens ont utilisé ce mot de passe ailleurs (sur Gmail ou que sais-je), alors leurs autres comptes courent un danger. C’est pourquoi il est recommandé de changer ses mots de passe.
On est donc loin d’un scénario catastrophe, comme ça a été le cas avec Sony, Facebook, Apple, et autres grandes entreprises… Alors c’est qui les branquignols ?
J’ai trouvé ça débile qu’ils gardent ce nom après l’arrêt du support de la XBOX.
C’est sûr, ça leur permettait de garder leur notoriété, mais maintenant…changer en 2014…à part faire parler d’eux car leur soft préhistorique n’est utilisé que par 5 gus dans un garage, je vois pas l’intérêt.
Au passage, mon premier commentaire était : “le consensus sur la sécurité, c’est que l’algorithme doit être ouvert, pour le code on peut en discuter”.
Pour programmer moi-même, je sais qu’on peut définir :
ce que tu veux faire
ce que fait l’algorithme
ce que donne l’implémentation que tu en as faite
L’idéal c’est que les trois soient la même chose, en particulier on souhaite que le code soit une implémentation parfaite de l’algorithme. Malheureusement ce sont souvent trois choses distinctes " /> Les failles dans Windows, dans Firefox, Heart Bleed, etc. sont autant d’exemples où l’algo était bon, mais l’implémentation était foireuse.
Un code ne peut pas être plus sûr que son maillon le plus faible. L’algorithme doit être ouvert, je pense qu’il n’y a pas trop de débat là-dessus : la fiabilité et la sécurité de l’algo peuvent être démontrées mathématiquement.
Si l’algorithme est ouvert mais que le code est fermé, les deux premiers points sont visibles de tous, en revanche personne ne peut vérifier que l’implémentation a été bien faite. La force du troisième maillon est cachée, inconnue. Au contraire si le code est Open Source, tout le monde (entreprises, etc.) peut vérifier la solidité de toute la chaîne.
Bien sûr ces considérations ne disent rien sur la sécurité en elle-même : si le code est Closed Source et que l’implémentation est bien faite, alors le code sera sécurisé (encore une fois c’est une évidence). Par contre, personne ne pourra vérifier que l’implémentation a été bien faite, et personne (à part l’éditeur) ne pourra patcher le code si besoin. Cela pose donc un problème de confiance : il faut faire confiance à une entreprise qui te donne une boîte noire dont tu ne sais rien de ce qu’elle fait. Et on a vu ce que ça donne au final : le code source fermé d’Apple iOS était peut-être sécurisé, mais il contenait des backdoors. Voilà pour la confiance.
Quand le code est Open Source, l’implémentation peut être plus ou moins bonne, il peut être sécurisé ou non. En revanche un code Open Source ne demande à personne de lui faire confiance : il peut être lu par tous, et plusieurs entreprises passent derrière les programmeurs pour vérifier le code source, l’améliorer, le patcher, etc. Ces entreprises ne s’en remettent pas aveuglément à la confiance : elles auditent et vérifient le code, parce qu’elles en ont besoin elles-mêmes et parce que la sécurité est cruciale pour leurs besoins.
Le
01/08/2014 à
09h
51
TZDZ a écrit :
Mais pourquoi un code fermé ne pourrait pas être relu par des personnes externes ?
Pourquoi des devs open-source publieraient-ils forcément les revues externes de leur travail ? Ils sont aussi dépendant de leur chiffre d’affaire que les autres…
Dans le cas d’un code fermé, un reviewer externe aura des obligations similaires aux développeurs internes : interdiction de dévoiler le code source, interdiction de parler des failles potentiellement découverte, interdiction de parler des processus de développement…
Encore une fois, l’immense majorité des projets Open Source ont pour politique d’avoir un développement ouvert (l’ensemble de l’historique est disponible, par ex. sur GitHub ou autre), et de rendre les failles publiques quand elles sont découvertes. Il n’y a pas vraiment de frontière entre un développeur ou reviewer interne ou externe : n’importe qui peut relire le code source et le critiquer.
Tiens, si Microsoft veut vraiment démonter Linux ou Firefox, ils peuvent payer un développeur pour trouver des vulnérabilités dans le code. Apple de son côté, utilise beaucoup de logiciels libres (Mac OS X est basé sur UNIX/Free BSD, et inclut beaucoup de logiciels GNU). Google aussi (Android…). Toutes ces entreprises sont aussi bien des reviewers externes, que des développeurs pour leurs propres besoins. Il n’y a aucun modèle équivalent dans le monde du proprio.
Lafisk a écrit :
Vu les commentaires, c’est pas forcement une evidence
Tu vas serieusement pinailler sur les “90%” … les chiffres a la louches tu as jamais fait ?
Je suis un scientifique, les chiffres à la louche j’ai pas trop confiance " />
Des chiffres à la louche, n’importe qui peut en donner : IE est 30 fois plus vulnérable que Firefox, 60% des développeurs de logiciels propriétaires sont des branques… Ça ne fait pas du tout avancer le débat, ça ne fait que troller.
Le
01/08/2014 à
09h
36
TZDZ a écrit :
Je suis d’accord avec la conclusion, à laquelle j’ajouterais “code fermé ne veut pas dire systématiquement “incompatible avec sécurit锓.
Tout à fait " />
Il ne suffit pas d’ouvrir le code source pour qu’il devienne magiquement sécurisé : il faut prévoir les audits qui vont avec. Mais ça je pense que c’est un peu une évidence pour tout le monde…
Je voulais juste souligner que, utiliser ce simple fait pour dire que «90% des codes Open Source ne sont pas relus», c’est faux. Partir de là pour en déduire que «les codes Open Source ne sont pas plus sécurisés que les Closed Source», c’est une mauvaise déduction, et c’est aussi faux. Les faits montrent qu’en moyenne, les codes Open Source sont mieux sécurisés que les codes Closed Source.
Le
01/08/2014 à
09h
22
Lafisk a écrit :
Celui qui fantasme c’est plutot celui qui affirme que le code source open est plus securise que le code proprio…
Trouver quelques exemples ne contre balance pas le fait que 90% des projets open source ne sont pas relu etc…
comme le dit tres bien tzdz, la boite qui veut securisee, elle a les employes pour assurer la chose, les methodes aussi etc… Que tu fasses relire ton code par une autre boite, un mec dans son garage ou ce que tu veux, c’est pas mieux que de le faire relire par un autre employe dont c’est le boulot (Q&C, etc… )
Alors que potentiellement dans le libre ce n;est revu par personne, des grosse failles o dans le libre, ca c’est vu et sur des trucs tres gros et super utilise et y’a pas plus longtemps qu’il y a quelque mois encore …
90%, srlsy ? Source ? " />
C’est un peu une lapalissade de dire que les codes non relus sont moins sécurisés que les codes relus. Ça n’a effectivement rien à voir avec le fait qu’un code soit Open Source ou pas.
Maintenant, si on veut comparer Open et Closed Source, ça ne sert à rien de comparer un mauvais logiciel Open Source pas audité, avec un logiciel Closed Source super surveillé. Ça serait évidemment biaisé. On ne peut comparer que des tendances et des comportements globaux.
Cette étude montre que quand une vulnérabilité est connue, elle est patchée beaucoup plus rapidement (-137%). Ceci est vrai aussi bien pour les codes Open et Closed Source.
Ensuite, les logiciels Open Source ont tous une politique de full-disclosure : quand une vulnérabilité est connue, elle est publiée et visible de tous. Ceci appelle donc à un patch rapide. Ça a été le cas de la faille Heart Bleed (corrigée dans les 48h), c’est le cas de toutes les vulnérabilités découvertes dans le noyau Linux, etc.
La plupart des logiciels Closed Source, au contraire, ne divulguent pas leurs failles quand l’éditeur en a connaissance. Sécurité par l’obscurité : l’éditeur parie sur le fait qu’il est le seul à connaître la faille, et donc qu’il a du temps pour la corriger. Les logiciels Closed Source mettent donc plus de temps à être patchés. Voir par exemple cette étude qui montre que les vulnérabilités dans Firefox sont corrigées beaucoup plus rapidement que dans Internet Explorer.
Voilà pour les failles. Maintenant, parlons des backdoors. On sait que certains éditeurs de logiciels Closed Source incluent des backdoors dans leurs produits. Du côté de Microsoft on se souvient de la NSAKEY, du côté de Apple cela a été révélé récemment. Il n’y a pas de spéculation, ce sont des faits avérés. Ce sont des raisons solides pour douter de tous les logiciels propriétaires.
A-t-on trouvé la moindre backdoor avérée dans un produit Open Source ? Non. Donc tu peux aussi douter et dire que, si ça se trouve, il y en a, mais ces doutes ne s’appuient sur rien de concret. Je dirais même, au contraire : le code de beaucoup de logiciels libres (Linux, Firefox…) est utilisé et relu par des gens de beaucoup de pays (contributeurs, sociétés comme Canonical ou Suse qui développent leur propre distrib GNU/Linux, etc.). La Chine par exemple développe sa propre distribution GNU/Linux, et pour cela ils vérifient et modifient pas mal de logiciels libres. Si tous ces gens-là trouvaient la moindre backdoor dans un logiciel libre, ils cracheraient sûrement dessus face au monde entier. Cela n’est jamais arrivé.
Il reste l’argument «une simple faille peut en fait être une backdoor mise volontairement par un développeur». Sauf qu’encore une fois, magie du libre, les contributions ne sont pas anonymes, et il est possible de remonter à la personne qui a introduit ou modifié un bout de code particulier. Pour la faille Heart Bleed, on sait quand et par qui elle a été introduite, et on sait que ça a été une erreur, et non une backdoor introduite volontairement. Dans un logiciel propriétaire, même après la découverte et le patchage d’une faille, impossible de savoir quand et par qui elle a été introduite, ni si ça a été fait volontairement ou non…
En conclusion : oui, il faut rester vigilant, et «Open Source» ne veut pas systématiquement dire «sécurisé». Il faut des audits, il faut des gens qui patchent le code très vite quand une vulnérabilité est découverte. Mais ce n’est pas usurpé d’affirmer que, en moyenne, les codes Open Source sont plus sûrs que les codes propriétaires.
Le
31/07/2014 à
22h
11
TZDZ a écrit :
As-tu un exemple concret d’un logiciel dont tu as vérifié qu’il avait été vérifié intégralement par quelqu’un à la fois indépendant (de qui ? il gagne son pain d’une façon ou d’une autre) et compétant ? Je ne sais pas comment vous pouvez imaginer qu’il y a des gens pour relire la plupart des codes ouverts bénévolement (= indépendance…). Et dieu sait qu’une relecture est loin de suffire… On voit bien que ça n’est pas le cas et que des lignes parasites sont introduites parfois à l’insu de tout le monde…
Finalement c’est une position d’utilisateur lambda (comme moi). On nous a dit que c’était mieux, donné quelques arguments convaincants, mais concrètement on délègue la partie chiante aux autres en espérant qu’ils se dévouent. Tu fais plus confiance à un relecteur imaginaire qu’à une boîte vendant de la sécurité et qui perdrait potentiellement des clients en étant inefficace… Mouais.
Lafisk a écrit :
Sauf que dans le closed source, si ils veulent faire du “securise” ils vont prendre les dispositions necessaires, meme si aucune ne suffit et c’est valable pour l’open source aussi, alors qu’avec l’open source, le mec ecrit son truc et espere que quelqu’un le relira pour voir si il a pas merder … dans ce cas je dirais que le closed source me parait mieux car ils ont en general l’infrastructure leur permettant de faire en sorte que de bout en bout les procedures soient respectees (si ils le veulent, evidemment) la ou dans l’open source c’est loin d’etre fait voir au contraire rarement fait au final…
Hey, il faut arrêter avec cette vision fantasmée des choses…
Prenons le code source de Linux par exemple. Parmi les contributeurs au noyau : des gens de chez Intel, Red Hat, Google… Des entreprises qui vendent du Linux, doivent en assurer le support, et ont tout intérêt à ce que le code soit bien audité et sécurisé.
Il en va de même avec la grande majorité des logiciels libres les plus populaires et les plus exposés.
Croire que tout est fait par des gus dans des garages qui ne relisent rien et espèrent juste que quelqu’un le fera à leur place… " />
C’est tout de même fou. Un doctorant en chimie ou en math qui se voit contraint de perdre de précieuses heure à apprendre un programme informatique alors que ce n’est pas du tout sa branche ni sa passion. En plus, ça doit être top pour les profs de lire 150 mises en page différentes faits par des jeunes n’ayant pas de formation dans les mises en page (pour éviter les erreurs classiques qui nuisent à la lisibilité).
J’espère au moins que pour le contenu, vous avez un standard à respecter.
Pour les publications, grosso modo bosser en LaTeX permet justement de se focaliser sur le contenu. La plupart des journaux fournissent un template (par exemple elsarticle.cls pour les articles chez Elsevier) qui permet de voir grosso modo à quoi ressemblera l’article final. C’est l’éditeur qui se charge des détails de la mise en forme.
Pour les thèses, l’idée est un peu la même… à condition d’avoir un template à disposition. Sachant que certains profs/encadrants connaissent très bien LaTeX, et d’autres ne veulent pas en entendre parler. Quand tu as un encadrant qui te conseille d’écrire en LaTeX, et un autre qui ne jure que par Word, c’est folklo… " />
4337 commentaires
Windows Threshold : des bureaux virtuels et une bêta cet automne ?
07/08/2014
Le 07/08/2014 à 15h 07
Le 07/08/2014 à 12h 01
Le 07/08/2014 à 10h 53
Le 07/08/2014 à 09h 52
Le 07/08/2014 à 09h 31
Le 07/08/2014 à 09h 28
Le 07/08/2014 à 09h 22
Ah ben tiens, des windowsiens m’expliquaient ici il n’y a pas longtemps que Microsoft ne mettrait jamais de bureaux virtuels dans Windows, parce que sinon Mme Michu serait perdue, blabla blublu…
Les bureaux virtuels c’est le Bien, c’est une bonne chose si Microsoft les intègre enfin dans Windows.
687 000 euros de logiciels libres pour le ministère de l’Agriculture en 2013
07/08/2014
Le 07/08/2014 à 12h 13
Le 07/08/2014 à 08h 15
Un producteur critique Hadopi et « l’impunité dont jouissent les pirates »
07/08/2014
Le 07/08/2014 à 10h 40
Le 07/08/2014 à 08h 49
Le 07/08/2014 à 08h 40
Je suis d’accord sur un point : Hadopi est devenue inutile. En fait elle a toujours été inutile.
En revanche pour l’industrie du film qui plonge… Le nombre de tickets de cinémas vendus est plutôt stable, et les revenus de cette industrie ne fait qu’augmenter depuis des années… À un tel point que je me demande si l’augmentation du prix du ticket de cinéma est vraiment justifiée.
http://www.businessweek.com/articles/2014-03-26/fewer-people-are-seeing-movies-b…
Quant à la VoD, elle a très bien décollé aux États-Unis (Netflix…), pourtant ils ne sont pas en reste côté piratage. Donc si Canal Play, TF1 et compagnie n’ont pas décollé c’est peut-être pour d’autres raisons…
Les chiffres étonnants de la « Potato Salad » à 55 000 dollars de Kickstarter
07/08/2014
Le 07/08/2014 à 09h 26
Le 07/08/2014 à 08h 51
La plateforme ne précise toutefois pas combien d’entre eux sont des INpactiens. (S’il y en à, qu’ils se dénoncent dans les commentaires).
On attend les noms " />
Olivier Roussat / Stéphane Richard : quand les PDG trollent sur Twitter
06/08/2014
Le 06/08/2014 à 17h 23
HTTP 2.0 débutera sa phase de tests dès le mois prochain
06/08/2014
Le 06/08/2014 à 17h 01
NAS piratés avec SynoLocker et demande de rançon : Synology confirme
04/08/2014
Le 05/08/2014 à 11h 50
Le 05/08/2014 à 10h 55
Le 05/08/2014 à 08h 02
Le 04/08/2014 à 22h 09
Pas de NAS chez moi (serveur maison).
En revanche on a un NAS Synology au boulot et tout le monde est en vacances " /> J’imagine que ça sera la surprise en revenant…
Hatoful Boyfriend : quand un jeu vous invite… à draguer des pigeons
05/08/2014
Le 05/08/2014 à 09h 47
What is this I don’t even
La Chine bannit Symantec et Kaspersky de ses administrations
04/08/2014
Le 05/08/2014 à 09h 43
Le 04/08/2014 à 21h 27
Le 04/08/2014 à 12h 11
Pendant ce temps en Europe, malgré les révélations Snowden, l’espionnage d’Angela Merkel, la découverte de backdoors dans iOS, et j’en passe, on continue d’utiliser massivement les solutions de ces entreprises américaines : Microsoft, Apple, Google… À quand une politique forte et une indépendance numérique de l’Europe ?
HGST annonce le SSD « le plus rapide du monde » et de nouveaux FlashMAX
04/08/2014
Le 04/08/2014 à 22h 01
Le 04/08/2014 à 21h 54
Ivre, le créateur de Flappy Bird relance son jeu en multijoueur… sur FireTV
04/08/2014
Le 04/08/2014 à 21h 59
Le 04/08/2014 à 15h 35
Le 04/08/2014 à 15h 27
Microsoft publie EMET 5.0 pour combattre l’exploitation des failles
01/08/2014
Le 04/08/2014 à 15h 31
Le 04/08/2014 à 13h 12
Le 01/08/2014 à 11h 24
XBMC est mort, vive Kodi
04/08/2014
Le 04/08/2014 à 15h 25
Le 04/08/2014 à 13h 18
Le 04/08/2014 à 12h 23
Le 04/08/2014 à 09h 40
Le 04/08/2014 à 08h 06
Autant le changement de nom ne me gêne pas, autant le nouveau logo est très moche… On dirait qu’ils ont utilisé une police habituellement réservée aux émissions pour enfants…
Windows Phone 8.1 : l’Update 1 plus importante que prévue
04/08/2014
Le 04/08/2014 à 13h 06
Le 04/08/2014 à 12h 35
Mozilla Developer Network : jusqu’à 76 000 adresses emails exposées
04/08/2014
Le 04/08/2014 à 12h 19
La Hadopi réclame une subvention de 8,5 millions d’euros pour 2015
04/08/2014
Le 04/08/2014 à 08h 10
Voilà une Autorité inutile qui va nous coûter cher pendant longtemps… " />
Le récap’ des bons plans du moment, semaine 31
03/08/2014
Le 03/08/2014 à 17h 46
Le site Fotopedia fermera ses portes le 10 août
01/08/2014
Le 02/08/2014 à 08h 44
BitTorrent dévoile Bleep : une messagerie chiffrée, sans serveur central
31/07/2014
Le 02/08/2014 à 08h 33
Le 01/08/2014 à 09h 51
Le 01/08/2014 à 09h 36
Le 01/08/2014 à 09h 22
Le 31/07/2014 à 22h 11
Robert Scoble à Microsoft : « Abandonnez Windows Phone, prenez Android »
31/07/2014
Le 01/08/2014 à 07h 39
LibreOffice 4.3 continue de s’améliorer très rapidement
30/07/2014
Le 31/07/2014 à 19h 19