sauf si on trouve comment diminuer drastiquement le temps nécessaire pour craquer une clé : aka une faille dans l’algorithme ou son implémentation.
Je pense que l’algorithme est assez fiable, je pencherais plutôt pour des problèmes dans une implémentation, ou une entité qui aurait une «master key» (NSA?). Là forcément, la sécurité tombe à zéro…
Pour invalider complètement les approches de ce type, il n’y a que l’ordinateur quantique (qui sera capable de déchiffrer une clé 2048 bits ou 4096 bits en quelques fractions de seconde). Mais ce type d’ordinateur reste au stade théorique pour le moment.
Le
25/02/2015 à
11h
55
John Shaft a écrit :
Rendez vous dans quelques siècles pour l’obligation des clés 4096 bits " />
Quelques siècles ? Tu es optimiste (ou pessimiste, c’est selon).
Cracker une clé RSA 2048 bits prend plutôt de l’ordre du million de milliards d’années. Même en parallélisant sur des milliers de CPU les plus rapides du monde, et même si la puissance des CPU est multipliée par 1000 dans les 100 prochaines années, ça reste plusieurs milliards d’années " />
Le
25/02/2015 à
11h
32
Fantassin a écrit :
“Les certificats possédant des clés RSA 1024 bits ne sont plus acceptés”
ça veut dire quoi ? Que cette version est finalement moins sécurisée ? " />
Non elle est davantage sécurisée : clés RSA 2048 bits minimum.
Si une boite (privée ou fondation) produit du code (open-source ou non) et qu’une faille de sécurité (ou un bug) lui est reporté(e) dans son code, sauf remarque précédente (valant pour l’acceptation d’une backdoor qui dans le plus grand cas est rémunérée d’une manière ou d’une autre par les accointances citées précédemment) il est de son intérêt (réputation, part de marché, etc) et de ses clients (ou utilisateurs) de corriger le problème le plus rapidement possible.
Tout à fait, il est dans l’intérêt de l’éditeur de fournir un patch rapidement, que le code soit Open ou Closed Source. Cela ne veut pas dire que le temps mis pour fournir un patch sera le même dans les deux cas.
Je t’invite à lire par exemple cette thèse, dans laquelle l’auteur a essayé de déterminer quels facteurs influent sur le temps de mise à disposition d’un patch («Time To Patch»), en faisant des statistiques à partir de différentes sources (SecurityFocus, Open Source Vulnerability Database, National Vulnerability Database, Secunia). Parmi ses conclusions : les codes Open Source sont patchés en moyenne 39% plus rapidement que les codes propriétaires.
Analysis of the archival data confirms that software vendors release patches for software vulnerabilities with a medium level of criticality in a shorter response time than software vulnerabilities with low and high levels of criticality once the vendor has been informed of the software vulnerability. Open source vendors release patches for open source software vulnerabilities 39% quicker than proprietary source vendors release patches for proprietary software. Patches for operating system software vulnerabilities are released 8% slower than patches for application software vulnerabilities.
Une autre étude (portant sur les années 2000-2003) montrait déjà que le «Time-to-Patch» est, en moyenne, moins élevé du côté des logiciels Open Source que des logiciels propriétaires (voir notamment le tableau 2).
Bref, comme je le disais il semble qu’en moyenne les éditeurs de logiciel Open Source fournissent plus rapidement des patches lorsqu’ils sont prévenus d’une vulnérabilité que les éditeurs de logiciels propriétaires. " />
Le
23/02/2015 à
16h
14
Fnux a écrit :
Ce n’est pas de l’imprécision et quand on voit SSL examiné par de multiples experts pendant des années et avoir une faille de sécurité majeure non trouvée (ou plutôt non rendue publique) pendant plus de 10 ans, alors je ne pense pas que dire que l’open source ne garantit en rien l’absence de faille de sécurité et de bug soit du FUD mais une simple constatation générale malheureusement trop souvent vérifiée.
Aucune personne sérieuse ne pourrait affirmer qu’il y a davantage ou moins de failles dans tel ou tel code (fut-il Open ou Closed Source), surtout quand le code en question compte plusieurs millions de code. Dire que l’Open Source garantit l’absence de faille, c’est évidemment mensonger.
Par ailleurs, faut-il le rappeler, les failles ne sont pas découvertes en lisant le code source (comme on le lit trop souvent). Donc sur ce point précis, ça ne changera rien que le code soit Open Source : ça ne rendra pas la découverte de failles plus facile. Donc dire que le code est «lu par plusieurs experts pendant des années», ce n’est pas du tout pertinent quand on parle de découvrir des failles.
En revanche, il y a autre chose qui se vérifie aussi très facilement : le fait que le code soit Open Source fait qu’il sera patché beaucoup plus rapidement qu’un code Closed Source, en moyenne. Et ça, c’est un argument en faveur de la sécurité.
Le
20/02/2015 à
13h
32
Il a raison Obama : Internet est à eux, et les européens font leurs chochottes avec ces histoires de vie privée parce qu’ils sont jaloux de Microsoft, Apple, Google… " />
Le
20/02/2015 à
13h
28
Un organisme d’État qui pirate une entreprise de sécurité et vole ses données, afin d’atteindre à la vie privée des gens.
De toutes façons, faut bien les faire tourner de temps en temps, sinon les données finissent par être perdues.
??? pour quelle raison ? " />
Les données sont enregistrées en orientant des domaines ferromagnétiques. Une fois les domaines orientés, il n’y a que deux façons de leur faire perdre leur orientation (et donc de perdre des données) :
les soumettre à une température plus grande que leur température de Curie ;
les soumettre à un champ magnétique supérieur au champ coercitif.
Si tu stockes les disques durs dans une cage de Faraday à température ambiante, il n’y a aucune raison que les données disparaissent comme par magie…
La plupart du temps quand on dit qu’un disque dur «meurt», c’est le moteur qui fait tourner les plateaux qui lâche après un certain nombre de cycles (et ça finit forcément par arriver à tous les disques durs). Dans des cas plus rares ça peut être le PCB qui a pris une surtension. Les plateaux ferromagnétiques, eux, sont les parties les plus fiables du disque, en général ce n’est pas eux qui posent problème.
Le
23/02/2015 à
14h
33
inextenza a écrit :
Du coup, tes disques en armoire ne peuvent pas permettre de faire un recovery du fait de l’age des données par rapport au reste de la grappe active, logiquement, si?
Effectivement, les données stockées sur les vieux disques qui restent dans l’armoire ne sont pas synchro avec la grappe. Cela dit je les branche de temps en temps (tous les 6 mois environ) pour faire un sync, ça prend moins d’une heure, et ensuite je les re-débranche et les remets dans leur armoire.
C’est aussi l’occasion de détecter si l’un de ces vieux disques devient défectueux, auquel cas je le dégage (et si je peux, je le remplace par un autre vieux disque).
Le but de ces disques est de les utiliser le moins possible, vu qu’ils ont déjà un âge avancé, mais je les utilise quand même pour que leurs données ne soient pas obsolètes. Ils servent de «filet» si jamais quelque chose de grave arrive à la grappe RAID 5.
(PS: je ne sais pas si j’ai bien expliqué, en fait ces vieux disques, une fois sortis de la grappe RAID 5, sont formatés comme disques individuels, puis je copie des données dessus. Ils ne font donc plus partie d’aucun ensemble RAID.)
Le
23/02/2015 à
13h
23
inextenza a écrit :
Tu rigoles? C’est le meilleur RAID que je connaisse.
J’ai déjà crashé plusieurs fois toute une grappe RAID5 gérée par MDADM. Dont une fois, un truc méchant, une ligne d’alimentation qui bagottait, et qui a fait planter la moitié des disques.
Ben je n’ai rien perdu, en forçant les resynchros malgré les éjections malpropres.
Autre exemple: j’ai réinstallé mon serveur à l’époque, en ne sauvegardant que mon /etc.
Ben, merci à mdadm et aux UUID: alors que j’ai fait l’install sur un autre PC pour minimiser le downtime, avec juste le disque OS (que j’ai donc ensuite déplacé de la machine mulet à la machine prod une fois la réinstall finie) TOUT a été remonté automagiquement. Le Raid5, et le Raid1 de boot (Raid 1 à 3 disques, c’est mon côté Murphy " />) au primer démarrage.
J’ai même un peu moins confiance dans ma LSI Megaraid (pourtant une marque sérieuse, comme Adaptec) fraîchement achetée que dans le gestionnaire logiciel des Linux!
Pour ce qui est de l’archivage: j’estime que si, on peut archiver sur RAID quand on n’a pas de système de stockage sur bandes (pas très courant pour un particulier!). Si on a la trouille, on peut toujours faire de la redondance double (raid1 à 3 disques ou 2 + 1 hot spare; Raid 6; Raid 5 + hot spare)
C’est toujours plus fiable qu’un disque USB branché pour les synchros :)
Ah mais je suis bien d’accord, mdadm est super puissant, et bien plus flexible qu’un RAID hardware finalement : tu peux changer la grappe de PC, tu ne dépends pas d’un contrôleur particulier.
Le pire scénario qui me soit arrivé sur mon RAIS 5 : un disque dur mort, et un deuxième qui s’est désynchronisé au même moment. Après avoir remplacé le disque mort et joué avec les metadata et tout, j’ai réussi à faire repartir la grappe et à tout resynchroniser. Bon j’ai eu des suées à chaque commande que je tapais " />
Au final le système que j’utilise : quand un disque dur de la grappe dépasse les 35 000 heures (soit environ 4 ans de fonctionnement non-stop), je le remplace même s’il n’est pas mort, et j’utilise ce «vieux» disque pour y stocker une partie des données. Ainsi, une bonne partie du contenu du RAID 5 existe aussi sur ces vieux disques, qui sont débranchés et rangés dans une armoire, à l’abri de l’humidité et de la chaleur. " />
Le
22/02/2015 à
11h
07
Rapi-shiny a écrit :
Je connais, mais imagine le jour ou même les pc portables auront de grosses capacités. Tu le fais comment ton RAID?^^
Et tout le monde n’a pas les moyens de s’acheter, en plus des disques dur.
Oui je parlais surtout pour les PC de bureau : avec des disques de 1, 2, 4 To dont les prix baissent constamment, il devient judicieux de faire du RAID : RAID 1 (mirroring) ou RAID 5 (ce qui bien sûr n’empêche pas d’y ajouter d’autres solutions de sauvegarde).
Concernant les PC portables, pour moi il ne faudrait jamais les considérer comme des machines de stockage. Si tu mets tous tes documents sur ton PC portable, et que tu ne les as nulle part ailleurs, ne t’étonne pas de tout perdre… Il est évident que si tu travailles principalement sur un PC portable, il faut mettre en place une solution de sauvegarde alternative : un autre PC, un NAS, un disque dur externe, un espace dans le Cloud… Voire, selon tes moyens et la criticité des documents, synchroniser plusieurs de ces solutions pour davantage de sécurité.
À une époque je bossais chez un assembleur, une étudiante est arrivée presque en pleurs parce que son ordinateur portable avait crashé, et qu’elle avait tous ses documents dessus… Son mémoire, tout… Il s’est avéré que le disque dur était mort, on n’a rien pu récupérer. On lui a demandé si elle avait une copie de ses documents sur une clé USB, un disque externe… Ben non, elle avait tout sur son portable. Le seul conseil qu’on a pu lui donner : contacter une société spécialisée, qui va ouvrir le disque dur en chambre blanche pour récupérer les données… mais ça coûte cher.
Ne garder ses données que sur un seul support, c’est de toute façon voué à l’échec : tôt ou tard ce support lâchera. Il faut multiplier les supports pour diminuer significativement les risques de pertes. Sans cela, la perte de données est garantie à 100%…
En gros le risque zéro n’existe pas, mais le risque 100% existe bien. Je sais c’est injuste " />
Le
20/02/2015 à
18h
59
eliumnick a écrit :
Oui c’est ça.
À la base je répondais juste à quelqu’un qui disait «on met davantage de données sur un disque de 5 To, mais du coup si le disque meurt on perd davantage de données».
Par rapport à un seul disque isolé, un RAID autorise de perdre un disque, ce qui est déjà une amélioration en soi. Le fait que les disques ne soient pas chers permet de faire du RAID beaucoup plus facilement. Un particulier peut facilement acheter deux disques de 2 To et faire du RAID 1 avec, par exemple, ce qui améliore grandement la situation par rapport à un disque isolé.
Après, on peut tergiverser sur les raisons qui peuvent faire perdre un RAID… Mais tout dépend avec quoi on compare. Là, on comparait avec un seul disque isolé, sans copie ni redondance nulle part.
Le
20/02/2015 à
18h
07
inextenza a écrit :
Moi oui.
Raid5 sur contrôleur dédié.
(j’ai l’impression que tu réduis les niveaux de RAID au seul stripping, le Raid 0, non?)
Non il se contente de redire ce que tout le monde dit partout : si tu fais confiance à ton RAID (que ce soit un RAID 1, 5, ou 10), c’est que tu n’as rien compris aux limites du RAID, aux risques, et au principe de la sauvegarde. Un RAID n’est pas magique, ça ne protège que contre la perte d’un seul disque, ce qui est très mince. Si l’alim du PC flambe ? S’il y a le feu dans l’appart ? ne serait-ce qu’une surtension ? Un vol ?…
Comme je le disais, pour les données vraiment importantes/sensibles, il faut faire des sauvegardes sur plusieurs supports différents, et si possible les stocker à des endroits différents (par exemple, un disque externe enfermé à clé dans une armoire sur le lieu de travail).
Je comprends tous ces arguments, mais ça me fatigue un peu qu’à chaque fois qu’on évoque le RAID, il y ait des petits malins pour nous ressortir que ce n’est pas fiable, qu’il ne faut pas s’en servir pour du stockage, etc. C’est bon on a compris les gars…
Moi je suis encore plus fou : je fais du RAID logiciel avec mdadm, même pas de contrôleur dédié, youhou ! " />
Le
20/02/2015 à
17h
58
eliumnick a écrit :
Tu utilises le RAID pour faire du stockage ??? J’espère que tu as plusieurs RAID mirroré alors.
Du stockage oui. Pas de l’archivage.
Mon RAID 5 logiciel a déjà perdu des disques durs (un à la fois), il en est toujours sorti indemne.
Mon OS est installé sur un RAID 1. Si un disque crashe, pas besoin de réinstaller, juste de changer le disque et le synchroniser avec la grappe.
Bien sûr pour les trucs vraiment importants (boulot, papiers administratifs, photos de famille…) c’est sauvegardé sur plusieurs moyens de stockage différents, à des endroits différents : deux RAID 1 sur des machines différentes, mon PC portable, un disque externe… Il faudrait qu’au moins 6 disques crashent en même temps pour que je perde vraiment ces données-là.
Le
20/02/2015 à
17h
10
Commentaire_supprime a écrit :
Premier HDD en 1988 avec 33 Mo de capacité…
Ah, la bonne époque où l’on pouvait avoir jusqu’à 1024 ko de RAM !! " />
Il me manque mon vieil Amstrad…
…ou pas " />
Le
20/02/2015 à
15h
47
Rapi-shiny a écrit :
C’est bien sympa d’augmenter la capacité des disques dur. Par contre si il décède tu perds encore plus de données d’un coup XD.
RAID = Redundant Array of Inexpensive Disks.
Le côté «peu onéreux» des disques permet de faire du RAID plus facilement, ce qui peut protéger contre la défaillance d’un ou plusieurs disques (selon le niveau de redondance choisi).
Sinon, le mieux est de stocker les données vraiment importantes sur plusieurs supports différents (et même à plusieurs endroits différents).
Je me cite moi-même pour donner une autre source :
Selon Microsoft, en 2013 le taux d’infection de PC Windows dans le monde était de 17,8 pour mille (soit 1,78%), sachant que cette statistique ne couvre que les PC équipés de Microsoft Security Essential.
En bref, il semble qu’environ 2% (±0,5) des PC sous Windows dans le monde sont infectés.
Le
23/02/2015 à
12h
57
js2082 a écrit :
Pourtant, d’après Snowden, 100% des smartphones sont piratés.
Après, faut aussi voir ce qu’ils appellent infection.
Quand on parle d’«infection», on parle généralement de malwares qui vont permettre de te nuire directement et de façon active : suppression inopinée de tes données, vol de ton n° de carte bleue pour te voler ton argent, appels vers des n° surtaxés (dans le cas des malwares Android), etc.
Les malwares outils de surveillance ( " /> ) utilisés par les agences gouvernementales ont des buts bien différents, à savoir plutôt exploiter tes données personnelles (et les méta-données associées) plutôt que voler ton argent. Cela ne les rend pas légitimes ni même légaux (le droit à la vie privée est garanti par les Droits de l’Homme, et pourtant violé par ces agences gouvernementales), mais ça ne rentre pas dans le cadre des «infections».
js2082 a écrit :
Parce que quand je vois, sur le store officiels, des applis genre lampe torche qui te demandent d’accéder à tous tes contacts, sms, photos, vidéos, gps… , je me dis que là j’ai affaire à un malware.
La plupart du temps ces autorisations ne sont pas demandées par l’appli en elle-même, mais par… la publicité intégrée. Ben oui, quand une appli est gratuite elle embarque de la pub, et pour que la pub Google soit efficace et ciblée… il faut que Google sache à qui il a affaire, d’où l’accès à ces données.
Ces autorisations définissent aussi les droits accordés par la sandbox, et parfois les applis demandent davantage de droits qu’elles n’en ont réellement besoin car c’est plus simple. Mais je suis d’accord, la plupart des applis demandent beaucoup trop, et ça ne peut pas être bon pour la sécurité.
Mais si ça peut te rassurer, la plupart des malwares Android ne viennent pas du store de Google, ils viennent de stores alternatifs où les gens installent des applis non vérifiées. La plupart de ces malwares fonctionnent en appelant un numéro surtaxé. Android 4.4 et supérieur embarquent des mécanismes pour prévenir l’utilisateur quand une application appelle un numéro, ce qui invalide complètement le mode de fonctionnement de ces malwares.
Le
23/02/2015 à
10h
33
js2082 a écrit :
Android est hors concours: c’est une faille à lui tout seul…
Oui, 90% des malwares pour smartphone ciblent Android, un chiffre qui peut faire peur. Et pourtant…
Nombre d’appareils Android infectés (2013-2014) : 16 millions.
Ça fait un peu moins peur déjà… La plupart des infections proviennent de stores alternatifs, qui fournissent des applications non vérifiées (et qui peuvent donc être infectées).
À titre de comparaison :
Taux d’infection des ordinateurs sous Windows 7 : 2,59% (Windows XP : 2,42%)
Avant que les trolls de tous poils ne se lancent dans des analyses de comptoir, faut-il préciser que le nombre de failles à lui tout seul ne dit pas grand chose sur la sécurité. Il faudrait connaître :
la criticité des failles (comme dit dans l’article, la proportion de failles critiques est important)
la fenêtre de vulnérabilité = le temps entre la découverte de la faille et son patch. En gros une faille critique dont le patch est déployé en 2 jours sera moins grave pour la sécurité qu’une faille moyenne qui mettra des mois avant d’être patchée.
le nombre de malwares qui exploitent effectivement ces failles.
Si tu veux être crédible coco, tu évites de mal reporter mes propos, parce qu’avant de me voire dire que toute concurrence n’a aucune raison d’exister tu peux te lever de bonne heure hein, faut vraiment que tu arrêtes la drogue décidément " />
Ce que j’ai toujours dit pour le marché des smartphones c’est qu’Android est malsain tant qu’il est chapoté par Google, et que ce n’est pas le meilleur choix technique non plus pour une majorité de gens, donc avec 70% de pdm, y a largement de quoi faire baisser tout ça hein " />
Par contre si j’ai pu dire qu’il fallait que Google disparaisse, c’est pas un truc que je renie du tout, d’autre s’occuperont de faire la concurrence de toute façon, mais faire disparaître le gros Big Brother, même s’il investissent un peu dans la R&D, ça peut pas faire de mal, on sera tous gagnant et le monde sera meilleur qu’avec eux, de toute façon hein " />
Mal reporter tes propos ? Soit tu as une double personnalité, soit tu es atteint d’Alzheimer mon pauvre ! " />
Petit florilège pêché dans tes derniers commentaires :
“oublie jamais petit padawan que quelque soit le smartphone que tu utilises, ta vie privée est bien plus livrée en pâture, donc prends-toi un Lumia si tu veux être un minimum tranquille!! mais mélange pas les torchons Google/Apple avec les serviettes MS hein”
“après idéalement dans mon monde à moi, quand tu achètes un produit informatique tu le prends d’un constructeur dont le métier est l’informatique, et non pas de quelqu’un dont le métier est la pub et le pompage de données ou la vente de bien culturels hein”
Donc Google = pub et pompage de données, Apple = biens culturels, et c’est tout. Seul Microsoft sait faire de l’informatique. Un avis tout à fait objectif, tout dans la nuance, bref du CrowTown dans toute sa splendeur ! " />
Je ne vais pas tout citer, il suffit d’aller regarder ton historique pour voir que tu ne rates pas une occasion de cracher sur Google et Apple, bref les deux concurrents de Microsoft sur les smartphones…
Donc tu dis que tu es pour la concurrence, mais dans la pratique tu es contre tous les concurrents de Microsoft " />
Tu es un fanboy Microsoft et un hater de tout le reste : Apple, Google, les logiciels libres… C’est bon on t’a cerné maintenant, ce n’est plus la peine de te cacher derrière des principes du genre «mais si, je suis pour la concurrence…».
Mais comme tu n’assumes pas, tu traites tous les autres de fanboys, tu dis que c’est de leur faute si la discussion s’envenime, et tu t’en sers comme prétexte.
Continue comme ça ! " />
CrowTown a écrit :
Non mais je t’ai déjà dit et répété que ton putain d’Open source ne sera jamais la solution à tous les problèmes et n’a donc aucune raison d’être la seule façon de faire les choses, donc c’est pas la peine de me ressortir ton sermon niaiseux comme un curé de campagne de base bourré dont le disque est rayé hein, ça changera pas mon point de vue là-dessus pour autant
J’ai dit que c’était la solution à tous les problèmes ??
Non, j’ai juste dit que la situation n’était pas comparable avec IE 6.
S’il y en a un ici qui ne sait pas lire et interprète tout de travers, ce n’est clairement pas moi…
Achète-toi des lunettes ou un cerveau sérieux " />
Le
20/02/2015 à
18h
10
CrowTown a écrit :
Oui tu as un peu plus de mal qu’un OS ne soit plus supporté au niveau des mises à jour fonctionnelles après 10 ans, IE9 étant sorti en 2011 si je ne m’abuse hein…
Atomusk a pris l’exemple d’IE 9 qui n’est pas dispo sous Windows XP, mais son raisonnement fonctionne avec la version suivante hein : IE 10 réclame Windows 7 ou supérieur, donc pas dispo sur Vista.
Alors tu vas dire quoi, Windows Vista n’est plus supporté non plus ? Il a plus de 10 ans ? Pourquoi n’a-t-il pas droit à la dernière version de IE ? C’est du pur marketing.
CrowTown a écrit :
Au final on en revient toujours aux même conclusions : on lirait tellement moins de conneries si les gens réfléchissaient un minimum aux bêtises qu’ils racontent hein
Là-dessus on est d’accord.
La différence c’est que toi tu crois qu’il n’y a que les autres qui racontent des conneries " />
Le
20/02/2015 à
09h
09
CrowTown a écrit :
les gens ont un vrai “syndrome iPhone” : un même truc qui marche à peu près pour tout le monde et on voit pas plus loin que le bout de son nez, quitte à faire disparaître la concurrence et l’émulation, qui arrange pourtant toujours le consommateur!!
Marrant d’entendre ça de la bouche de quelqu’un qui dit sans arrêt que seuls les Lumia sont de bons téléphones, et que tout le reste (Android, iPhones…) devrait disparaître !
En gros quand Microsoft est en difficulté, les concurrents sont des vilains méchants, mais quand Microsoft a une position dominante, c’est normal qu’il n’y ait pas de concurrence, puisque c’est les meilleurs " />
Décidément j’adore ton argumentaire à deux vitesses " />
CrowTown a écrit :
Si Microsoft voulait pas mettre à jour IE6 c’était leur problème hein
Ouiiiii bien sûr. Microsoft a développé un navigateur pour concurrencer Netscape, l’a intégré gratuitement dans Windows, ce qui lui a permis d’accaparer 90% du marché (ce qui leur a valu une condamnation pour abus de position dominante).
Mais après avoir éliminé toute la concurrence et être devenus les rois de la montagne, c’est normal qu’ils arrêtent, après tout ils font ce qu’ils veulent… " />
Ben non, je suis désolé, ce n’est pas que LEUR problème. Ça aurait pu être leur problème si le Web leur avait appartenu (et encore), mais ce n’est pas le cas. Le Web continuait à évoluer. En laissant pourrir IE6, en refusant de faire évoluer son navigateur, Microsoft empêchait la majorité des utilisateurs d’accéder aux nouvelles technologies du Web. Tout ça après avoir imposé leur navigateur, leur vision du Web…
Microsoft ne s’est bougé qu’après l’arrivée de nouveaux concurrents : Firefox et Chrome qui ont bouffé des parts de marché significatives. Sans eux, on se taperait sans doute toujours IE6…
D’ailleurs on se souvient qu’en 1995 Microsoft lançait The MicroSoft Network (MSN), qui fournissait uniquement des services Microsoft : recherche, vente en ligne… Un portail pour concurrencer le Web. Ça en dit long sur la vision qu’ils avaient d’Internet à l’époque : les PC étaient Microsoft, il fallait que le Réseau des réseaux soit Microsoft. Pour moi leur acharnement à imposer IE jusqu’à l’intégrer dans Windows est une continuation de cette politique : contrôler le réseau coûte que coûte.
Aujourd’hui Microsoft a changé et ne poursuit plus une telle politique. Tant mieux. Mais si ça avait marché à l’époque…
CrowTown a écrit :
aujourd’hui l’histoire se répète avec les gens qui veulent pas d’autre chose que Blink
À part que Blink est Open Source, donc n’importe qui peut contribuer (même Microsoft ou Apple s’ils le veulent), qu’il ne reste pas sur ses lauriers mais continue d’évoluer avec les recommandations W3C, que c’est un moteur de rendu (et non pas un navigateur), qu’il n’est pas le seul moteur de rendu sur le marché…
Mais oui, à part tout ça, c’est sûr que la situation est exactement la même qu’avec IE6… " />
Le
19/02/2015 à
15h
14
canti a écrit :
désolé, j’ai le chef qui rodait j’ai tapé le texte rapidement " />
Pour gagner du temps il aurait fallu enlever des lettres, pas en ajouter " />
Je taquine " />
Le
19/02/2015 à
15h
02
canti a écrit :
Tu serais pas entrain de nous faire le coup de l’épouvantaillequand même
canti a écrit :
Sophisme de l’épouvantaille: représenter la position de ton interlocuteur de façon fausse, et s’en servir pour montrer que sa position n’est pas logique
Citer un article et ne même pas être capable de recopier le mot «épouvantail» correctement… Alors que la plupart des navigateurs ont un correcteur orthographique intégré et soulignent donc le mot en rouge…
Chapeau " />
Le
19/02/2015 à
14h
33
Très bon ça. Au lieu de travailler à développer une solution concurrente, travaillez plutôt ensemble à des solutions ouvertes et pérennes. Les utilisateurs vous en remercient " />
REMARQUE : Adobe Flash Player 11.2 sera la dernière version prenant en charge la plateforme Linux. Adobe continuera à fournir des backports de sécurité pour Flash Player 11.2 pour Linux.
Autrement dit Adobe continue de fournir les patches de sécurité pour la version 11.2 sous GNU/Linux, c’est pour ça qu’on se retrouve avec des noms de versions à rallonge du genre 11.2.202.442. Mais plus aucune nouvelle fonctionnalité n’est intégrée.
Pendant ce temps-là pour Windows et Mac OS X ils fournissent la version 16 de Flash Player.
Le
18/02/2015 à
09h
57
zefling a écrit :
Perso, je trouve que c’est une bonne chose, car tout ce qui a été créé en Flash ne disparaîtra pas. Ça reste une longue période du net, un quasi-standard pendant quelques années, et ça serait dommage de voir un pan si grand du net disparaître. C’est un peu comme dire qu’il faut arrêter de lire les vieux .doc parce que c’était de la merde.
Oui, Flash a été un «standard de fait» comme on dit : tout le monde devait l’avoir, sans quoi une bonne partie du Web était inaccessible.
C’est de moins en moins vrai aujourd’hui. Les nouvelles plates-formes (Android, iOS) ne connaissent pas Flash, Adobe a arrêté de supporter Flash pour Linux… Même Adobe fournit les outils pour convertir ses projets Flash en html5…
Le
17/02/2015 à
17h
38
Moff Tigriss a écrit :
C’est compliqué. En gros, la vidéo HTML5 fait son chemin. Mais Mozilla a prit un énorme retard sur le dev des librairies dédiées. MSE, entre autre, qui est la base de la vidéo HTML5. La faute à la guerre des codecs, mais aussi à une mauvaise gestion des ressources je pense, vu le bugtracker dédié.
Pour donner une idée de l’état d’avancement, dans la version actuelle, il est possible d’activer MSE et ses options. Ca fonctionne sur Youtube… Mais une vidéo n’arrive pas à se relire, si je fais pause, plus rien ne fonctionnera en vidéo sans relancer FF, la gestion de la priorité du processus dédié est mauvaise (si pour une raison X ou Y FF doit bosser, la lecture perd sa fluidité). Et tout ça sur une install W8.1 toute neuve.
A côté, les autres navigateurs sont tous plus ou moins prêts (même IE !), voir même n’utilisent plus que ça (Chrome). Un player compatible Flash permet de temporiser.
Et par dessus tout ça, et je travaille lourdement sur la question depuis un certain temps, le streaming de vidéo est un monde assez moche du côté serveurs. Sans parler du live-streaming où on nage en plein délire (les technos HTML5 standardisées ne sont tout simplement pas faites pour faire du live !).
Daylimotion est en Flash, Vimeo aussi, Twitch, Amazon… Même Netflix doit utiliser des artifices (Silverlight…) sur un nombre non négligeable de plateformes.
Logiciels proprios, technos mal implémentées, ressources importantes nécessaires pour le multi-encodage, etc… Du coup, une plateforme ne va pas quitter Flash avant longtemps une fois qu’elle y a investit sa R&D et ses ressources. D’où l’intérêt d’avoir un équivalent à Flash.
Étonnant d’ailleurs quand on sait que Netflix est un membre du W3C. Ces acteurs devraient bosser ensemble pour définir des standards qui permettent tous ces usages (streaming…).
Le
17/02/2015 à
17h
03
Les plugins pour les navigateurs n’ont plus la côte cote depuis plusieurs années
" />
Je quote la côte qui devrait s’écrire «cote», et j’enfile ma cotte de maille " />
Je sais qu’il y a un bouton «Signaler» mais je n’ai pas pu résister " />
L’important est quand même de garantir un maximum de sécurité pour les utilisateurs.
Là-dessus, on est d’accord. En revanche on n’est pas d’accord sur la façon de garantir cette sécurité.
Selon toi, les failles ne devraient pas être divulguées, et l’éditeur devrait avoir le temps de patcher. Divulguer la faille, c’est offrir aux hackers la chance de développer des virus, troyens, etc. exploitant cette faille.
Selon moi, la divulgation d’une faille accélère la production d’un patch. Il est bénéfique pour les utilisateurs d’avoir un patch rapidement, donc il est bénéfique que la faille soit divulguée. Parmi les éditeurs de logiciels libres, les failles sont divulguées rapidement, les patches sont développés rapidement, et il ne me semble pas qu’ils soient la cible de davantage d’attaques. Moi, ça ne me choque pas que les failles soient divulguées : dans un monde où tout va trop vite (faille trouvée, puis colmatée en quelques jours), les hackers ont moins de temps pour développer des vers et virus ciblant ladite faille. La fenêtre d’attaque est plus courte, les utilisateurs sont vulnérables moins longtemps. Au contraire quand l’éditeur garde la faille pour lui et croit être le seul à la connaître, ça peut mal se terminer, cf le lien qu’a donné Atomsk à propos de la faille dans IE que Microsoft connaissait depuis septembre sans la patcher, et qui a été effectivement exploitée par des hackers -Microsoft n’était donc pas le seul à connaître cette faille.
Alors, faut-il divulguer les failles ou pas ? Il me semble que la question n’est pas tranchée même parmi les experts en sécurité, donc je ne m’attends pas à ce qu’on la résolve ici. Disons qu’on a des points de vue différents sur la question.
Le
16/02/2015 à
19h
35
ar7awn a écrit :
tout est possible, dans l’idéal (imaginé en 5 minutes) ce serait une section de la police qui centraliserait et rechercherait les failles des entreprises qui diffusent leurs services dans le pays. Les failles ne seraient pas diffusés mais un classement selon le nb, l’importance et le temps de patch serait rendu public. Une taxe dont le montant serait évaluer au prorata de la position de l’entreprise dans le classement serai mis en place et financerait le système.
Ouais, tu as raison de dire que c’est imaginé en 5 minutes…
Rechercher des failles informatiques, c’est hyper particulier. Différents chercheurs dans le monde trouvent des failles différentes, dans des logiciels différents. Ces chercheurs peuvent travailler dans des organismes publics (CNRS, Universités…) ou bien chez des acteurs privés (comme Google, HP, mais les autres boîtes aussi ont leurs experts en sécurité : Microsoft, Apple, Facebook…). Comme je le disais, quand ils trouvent une faille dans un logiciel ou un service, en général ils en avertissent l’éditeur, et passé un certain délai ils publient. Il n’y a pas que Google et HP qui font ça : publier ça fait partie de la recherche.
Tu crois vraiment que c’est réaliste, et si simple que ça, de dire : tous ces gens-là arrêtent, et on met en place une autorité qui recherche les failles ? Ou alors, on met en place une cellule de la police, et tous les chercheurs en sécurité (publics ou privés) doivent se plier à ces règles ?
Tu parles de la «police» comme si on pouvait mettre ça en France, ou en Europe. on parle de logiciels utilisés dans le monde entier. Certains chercheurs qui dévoilent des failles se situent en Chine, ou dans d’autres pays qui se tamponneraient le coquillard d’une «autorité», fût-elle internationale. Comment tu résous ce problème ?
Et moi je vais te poser un autre problème : admettons qu’on ne presse pas les éditeurs, que chaque éditeur puisse prendre tout son temps pour mettre au point des patches. Si un éditeur est au courant d’une faille, et qu’il met des années à la patcher, qui le punit ? Là aussi il faudrait une «autorité» qui surveillerait ça ? Mais le problème c’est que justement, seul l’éditeur est au courant de la faille, donc pas l’autorité. Comment pourrait-elle agir alors qu’elle n’est pas au courant de la faille ?…
Plusieurs experts en sécurité le disent : garder les failles secrètes chez l’éditeur, ça n’est jamais une bonne idée. Il faut une pression extérieure pour que l’éditeur soit motivé à sortir un patch, sinon il laisse couler. Que cette pression soit exercée par une «autorité» légitime, ou bien qu’elle soit exercée par des chercheurs publics ou privés (ou une autre entreprise), ça importe peu. L’important est de patcher rapidement.
Le
16/02/2015 à
18h
38
ar7awn a écrit :
90 jours, 1 ans, ou même 10 ans, google n’a tout simplement pas a rendre une faille publique !
Le simple fait que l’on puisse penser qu’il est normale que cette entreprise s’arroge ce droit me révolte profondément.
Surtout que google est mal placé pour utiliser cette méthode de publicité écœurante.
Je suis d’accord, je trouve ça limite que Google se permette de dévoiler les failles des autres. Dans l’idéal il faudrait une «autorité» qui décide de la marche à suivre : prévenir l’éditeur, rendre la faille publique ou non…
Mais qui s’occuperait de former une telle autorité ? Qui la financerait ? Qui en ferait partie ? Et leur job ça serait quoi, chercher des failles ? ou simplement les centraliser ? ou décider qui a le droit de divulguer quoi ? Et si une entreprise refusait de se plier aux règles d’une telle autorité ?…
Après, une autre politique pourrait être : «on ne parle pas de la faille tant qu’un patch n’est pas prêt». Ça semble bien, ça arrangerait sans doute l’éditeur, mais en fait c’est une très mauvaise idée. Pourquoi ? Parce que ça veut dire que seul l’éditeur connaît la faille… ainsi que, peut-être, certains hackers qui la gardent pour eux. Ainsi, pendant que l’éditeur croit être dans le secret, qu’il prend bien son temps pour peaufiner son patch, le tester sur différentes configurations, commenter son code… ce qui peut durer indéfiniment, des hackers peuvent exploiter la faille à fond, puisque personne, absolument personne, ne s’en protège -et personne ne peut s’en protéger.
Je ne retrouve plus l’étude que j’avais lue, mais la conclusion en était : si une faille reste «secrète», alors l’éditeur a tendance à mettre beaucoup plus de temps à patcher. Au contraire, si la faille est publique (ou si l’éditeur sait qu’elle sera bientôt rendue publique), alors le patche arrive beaucoup plus vite. De plus, si la faille est divulguée, même sans avoir de patch les utilisateurs peuvent mettre en place des mesures de protection temporaires : règles dans le pare-feu, désactivation d’un service, etc. Ce n’est pas idéal, mais au moins ça évite d’être infecté ou de se faire piquer ses données.
1 jour, 90 jours, 1 an ? La Zero-Day Initiative se donne 4 mois (120 jours) pour divulguer une faille qu’ils auraient trouvé. Qui se trouve derrière ? Hewlett-Packard. Alors c’est mieux que Google, moins bien ?… HP aussi s’arroge ce droit sans aucune légitimité ? Pourquoi personne n’a tapé sur HP ici ?…
Quand des chercheurs en sécurité découvrent une faille, en général ils la rendent publique après un certain temps. Google n’a pas l’exclusivité de cette pratique.
Bref il y a toutes les raisons de divulguer les failles découvertes. Il n’y a pas de système idéal pour la faire, donc pour l’instant les entreprises se préviennent les unes les autres. Parce que même si on dit «bouh Google dévoile la faille au bout de 90 jours !!», on peut aussi voir les choses dans l’autre sens : si la faille était trouvé par quelqu’un d’autre, il pourrait la rendre publique tout de suite. Là, Google prévient l’éditeur en premier lieu, ce qui montre un souci de prévention. De plus ils assouplissent leur règle des 90 jours, ce qui montre une volonté de travailler avec les autres éditeurs, et non de leur nuire.
Le
16/02/2015 à
14h
06
Jed08 a écrit :
Faire le nécessaire ? On ne modifie pas la configuration du SI d’une grande entreprise comme celle d’une start-up.
Donc tu admets que la publication de la faille pourrait au moins servir aux start-ups ?
Agiter un cas particulier (le SI d’une grande entreprise) ne réfute pas mon argumentation.
Pr. Thibault a écrit :
Qu’est ce qui te permet de dire que 90 jours sont suffisants pour patcher un OS utilisé par plus d’un milliard de personnes sur la planète et pour lequel il existe plusieurs versions et plusieurs variantes ?
Il existe d’autres codes qui sont utilisés par plus d’un milliard de personnes sur la planète, qui existent en plusieurs variantes, et qui doivent supporter plein de hardwares différents (je te laisse le soin de chercher de quel type de code je parle). Et pourtant quand une faille est découverte et que les développeurs sont mis au courant, elle est souvent patchée en l’espace de quelques jours. C’est là-dessus que je me base pour dire que 90 jours devrait être suffisant.
Le
16/02/2015 à
12h
04
Jed08 a écrit :
C’est précisément la question qui me tracassait le plus.
Google est bien gentil de vouloir forcer les éditeurs à se bouger le cul pour sortir des patchs plus vite, mais jusqu’à présent, quand une vulnérabilité était publiée j’ai jamais vu en quoi c’était bon pour l’utilisateur :S
Il s’agit de failles 0-day = exploitables en l’état et non colmatées.
La politique de Google, c’est d’abord de prévenir l’éditeur que cette faille existe (mais sans la rendre publique). Sur ce point je ne vois pas trop ce qu’il y a à reprocher. La course contre la montre commence : la faille est connue, ça veut dire qu’elle peut être exploitée par des hackers, il est donc urgent de patcher.
Ensuite, si l’éditeur n’a toujours pas fourni de patch dans les 90 jours, Google rend la faille publique. Je veux bien admettre qu’on tergiverse sur la durée, mais 90 jours (3 mois !!) ça me paraît déjà long, considérant que tous les utilisateurs sont vulnérables. Dans le cas de Microsoft qui publie ses patches une fois par mois (patch Tuesday), ça veut dire qu’ils ratent trois fois le coche pour patcher une faille connue. Sans compter qu’ils peuvent aussi publier un patch en dehors de ce cycle (ça s’est déjà vu).
Pourquoi rendre la faille publique ? Ça permet aux utilisateurs avertis et aux admins système de faire le nécessaire pour se protéger de l’exploitation de cette faille : règles dans le pare-feu, désinstallation d’une mise à jour si c’est elle qui a introduit la faille, désactivation d’un service, etc. Alors oui, on peut toujours dire que l’immense majorité des Michu ne suivra rien de tout ça et sera bien incapable de s’en prémunir, mais au moins les utilisateurs avertis (parmi lesquels les entreprises) pourront agir.
Clairement, la publication met aussi l’éditeur devant le fait accompli, et l’incitera davantage à patcher. Il a déjà été montré que les éditeurs patchent beaucoup plus rapidement les failles lorsqu’elles sont publiques (que ce soit dans l’Open Source ou chez les éditeurs propriétaires). En gros quand la faille n’est connue que de l’éditeur, ils ne se pressent pas à patcher car ils estiment que la faille n’est pas connue par d’autres et ne peut pas être exploitée.
Bref, Google a raison d’assouplir ses règles et travailler en meilleure intelligence avec les éditeurs : si un patch est effectivement en cours de développement, c’est con de publier la faille 2 jours avant le patch… Mais je trouve que globalement c’est bien que les éditeurs aient cette épée de Damoclès au-dessus de la tête : dépêchez-vous de patcher sinon la faille sera rendue publique et votre réputation en prendra un coup.
On en rigole, mais il y a tant de gens qui, de nos jours, s’acharnent à faire passer ce message où et dès qu’ils peuvent, et qui grimpent sur leurs grands chevaux de défendeurs des libertés individuelles/de la femme/ajouter-une-mention-au-pif dès qu’on tente de leur répondre …
Perso’, ces gens là, cette mentalité, qui en plus s’intensifie j’ai l’impression, me fais sacrément peur.
Mon modèle de couple c’est mes parents, comme tout un chacun ou presque, et je les ai toujours vu tout se dire, partager le Code de CB, se passer les papiers X, Y ou Z sans soucis, etc.
Je suis p-e naïf, mais je vois le “couple” comme ça, ça me semble “normal”, j’ai tors tort ?
Ici, ma foi, je ne vois pas quelqu’un qui prend une information à rebrousse-poil en y ajoutant un trait d’esprit, je vois juste un gugusse qui ânonne une phrase éculée, toute faite et en perd toute crédibilité. C’est dommage non ? C’est vraiment l’image que tu veux que les autres aient de toi ?
Quoi ? Tout ça juste parce que je me suis doucement moqué en disant «c’est une révolution» ? Expression en référence à Apple pour qui chaque petit ajout est une révolution ? Décalage, humour, ‘culun mouton ?…
Mais non, visiblement ça ne peut pas être de l’humour -et tu as l’air de faire autorité en matière d’humour, je suis sûr que tu fais beaucoup rire les gens autour de toi. Tu ne serais pas humoriste par hasard ? " />
À t’entendre on dirait que tu es le flamand et que je t’ai pissé dessus " />
Encore une preuve qu’on peut rire de tout, mais visiblement pas avec tout le monde… " />
Le
13/02/2015 à
11h
18
33A20158-2813-4F0D-9D4A-FD05E2C42E48 a écrit :
Bah oui, tu as dit tout ça " />
[Mode troll on]
J’over-pétule peut-être un peu, mais pourquoi faut-il, systématiquement quand Microsoft (ou Google, ou Adobe, ou n’importe qui qui ne soit pas exempté de critique de par sa pilosité faciale exceptionnellement fournie en barbe broussailleuse - exception faite de Linus himself quoique je n’ai pas vérifié son look ces derniers temps) annonce un ajout incrémental dans un tweet, ça finisse systématiquement par une litanie de messages “C’est une révolution”, “ah ben il est temps, Steve Jobs l’a inventé en 1929 en même temps que le téléphone, quand il aidait la Nasa à envoyer des messages aux habitants de Pluton” ou “S’ils augmentent le n° de version chaque fois qu’une mouche émet un gaz dans la salle des serveurs, on en sera bientôt à Chrome 32767”.
[Mode troll off]
Tout ceci étant dit, c’est bien une nouveauté dans Office Online.
J’ai bien dit que Microsoft lui-même l’avait implémenté dans MS-Office depuis bien longtemps. Je m’amusais donc juste qu’une telle «nouveauté» mette autant de temps à apparaître dans Office Online.
On a le droit de s’amuser de quelque chose ? D’en rire ? De prendre un truc sur un ton léger ? Ou alors il faut obligatoirement tomber dans le fanboyisme ?… " />
4337 commentaires
Firefox 36 est désormais compatible avec le HTTP/2
25/02/2015
Le 25/02/2015 à 13h 36
Le 25/02/2015 à 11h 55
Le 25/02/2015 à 11h 32
Pour la NSA, le bien-fondé des backdoors n’est pas remis en cause
24/02/2015
Le 24/02/2015 à 15h 55
En d’autres termes, il s’agit de faire comprendre aux autres puissances que personne ne peut attaquer les États-Unis sans en subir les conséquences.
En d’autres termes, il s’agit de faire comprendre que les États-Unis peuvent attaquer n’importe quelle autre puissance sans subir de conséquence.
" />
Gemalto cambriolé par la NSA et le GCHQ, des millions de cartes SIM en danger
20/02/2015
Le 24/02/2015 à 14h 24
Le 23/02/2015 à 16h 14
Le 20/02/2015 à 13h 32
Il a raison Obama : Internet est à eux, et les européens font leurs chochottes avec ces histoires de vie privée parce qu’ils sont jaloux de Microsoft, Apple, Google… " />
Le 20/02/2015 à 13h 28
Un organisme d’État qui pirate une entreprise de sécurité et vole ses données, afin d’atteindre à la vie privée des gens.
NORMAL.
XL2730Z : l’écran FreeSync 27″ (WQHD) de BenQ arrive en France, pour 700 euros
23/02/2015
Le 23/02/2015 à 16h 22
TN ? " />
Fly, you fools !
Toshiba MD : des disques durs de 4 et 5 To à 7200 tpm, dès 199 €
20/02/2015
Le 23/02/2015 à 16h 19
Le 23/02/2015 à 14h 33
Le 23/02/2015 à 13h 23
Le 22/02/2015 à 11h 07
Le 20/02/2015 à 18h 59
Le 20/02/2015 à 18h 07
Le 20/02/2015 à 17h 58
Le 20/02/2015 à 17h 10
Le 20/02/2015 à 15h 47
Les résultats des élections depuis 1958 disponibles en Open Data
23/02/2015
Le 23/02/2015 à 13h 37
Même pour les érections pestilentielles ?
Comme disait Coluche " />
Failles de sécurité : une bien mauvaise année 2014
23/02/2015
Le 23/02/2015 à 13h 10
Le 23/02/2015 à 12h 57
Le 23/02/2015 à 10h 33
Le 23/02/2015 à 10h 16
Avant que les trolls de tous poils ne se lancent dans des analyses de comptoir, faut-il préciser que le nombre de failles à lui tout seul ne dit pas grand chose sur la sécurité. Il faudrait connaître :
JavaScript : Internet Explorer prendra en charge l’asm.js de Mozilla
19/02/2015
Le 20/02/2015 à 19h 32
Le 20/02/2015 à 18h 10
Le 20/02/2015 à 09h 09
Le 19/02/2015 à 15h 14
Le 19/02/2015 à 15h 02
Le 19/02/2015 à 14h 33
Très bon ça. Au lieu de travailler à développer une solution concurrente, travaillez plutôt ensemble à des solutions ouvertes et pérennes. Les utilisateurs vous en remercient " />
Net et terrorisme : quand Bernard Cazeneuve bascule à 100 %
20/02/2015
Le 20/02/2015 à 10h 14
Selon une étude, environ 65% des études statistiques sont fausses " />
…ou le plus souvent, elles sont mal interprétées…
[MàJ] SuperFish : Lenovo s’excuse pour l’adware, les ThinkPad épargnés
20/02/2015
Le 19/02/2015 à 22h 16
Ah ouais quand même… Vivent les PC constructeurs et leurs crapwares embarqués !
Bien content de savoir monter et installer mes PC moi-même…
Fleur Pellerin ne compte pas supprimer la Hadopi
19/02/2015
Le 19/02/2015 à 11h 32
Dommage qu’ils n’aient pas tenu leur parole… " />
Bon en même temps ça reste des politiciens hein, il faut s’attendre à être déçu.
Vaio Z et Z Canvas : deux portables haut de gamme de l’ère post-Sony
19/02/2015
Le 19/02/2015 à 11h 29
Le 19/02/2015 à 10h 26
Le 19/02/2015 à 10h 06
Chiffrement : Internet Explorer « 12 » et Spartan gèreront le mécanisme HSTS
18/02/2015
Le 19/02/2015 à 10h 08
Le 18/02/2015 à 18h 01
Shumway : Firefox Nightly peut lire du contenu Flash… sans Flash
17/02/2015
Le 18/02/2015 à 11h 49
Le 18/02/2015 à 09h 57
Le 17/02/2015 à 17h 38
Le 17/02/2015 à 17h 03
Les plugins pour les navigateurs n’ont plus la côte cote depuis plusieurs années
" />
Je quote la côte qui devrait s’écrire «cote», et j’enfile ma cotte de maille " />
Je sais qu’il y a un bouton «Signaler» mais je n’ai pas pu résister " />
Failles 0-day : Google assouplit son Project Zero pour éviter les frictions
16/02/2015
Le 16/02/2015 à 20h 29
Le 16/02/2015 à 19h 35
Le 16/02/2015 à 18h 38
Le 16/02/2015 à 14h 06
Le 16/02/2015 à 12h 04
Le « revenge porn » passible de deux ans de prison en Angleterre
16/02/2015
Le 16/02/2015 à 09h 55
Nom de domaine court en « .fr » : ouverture des ventes à tous, prix de départ à 15 000 €
14/02/2015
Le 14/02/2015 à 10h 38
Office Online : par petites touches, Microsoft améliore sa suite bureautique
12/02/2015
Le 13/02/2015 à 14h 50
Le 13/02/2015 à 11h 18