votre avatar

Konrad

est avec nous depuis le 3 août 2010 ❤️

4337 commentaires

Le 25/02/2015 à 13h 36







geekounet85 a écrit :



sauf si on trouve comment diminuer drastiquement le temps nécessaire pour craquer une clé : aka une faille dans l’algorithme ou son implémentation.







Je pense que l’algorithme est assez fiable, je pencherais plutôt pour des problèmes dans une implémentation, ou une entité qui aurait une «master key» (NSA?). Là forcément, la sécurité tombe à zéro…



Pour invalider complètement les approches de ce type, il n’y a que l’ordinateur quantique (qui sera capable de déchiffrer une clé 2048 bits ou 4096 bits en quelques fractions de seconde). Mais ce type d’ordinateur reste au stade théorique pour le moment.


Le 25/02/2015 à 11h 55







John Shaft a écrit :



Rendez vous dans quelques siècles pour l’obligation des clés 4096 bits <img data-src=" />







Quelques siècles ? Tu es optimiste (ou pessimiste, c’est selon).



Cracker une clé RSA 2048 bits prend plutôt de l’ordre du million de milliards d’années. Même en parallélisant sur des milliers de CPU les plus rapides du monde, et même si la puissance des CPU est multipliée par 1000 dans les 100 prochaines années, ça reste plusieurs milliards d’années <img data-src=" />


Le 25/02/2015 à 11h 32







Fantassin a écrit :



“Les certificats possédant des clés RSA 1024 bits ne sont plus acceptés”

 

ça veut dire quoi ? Que cette version est finalement moins sécurisée ? <img data-src=" />







Non elle est davantage sécurisée : clés RSA 2048 bits minimum.


Le 24/02/2015 à 15h 55



En d’autres termes, il s’agit de faire comprendre aux autres puissances que personne ne peut attaquer les États-Unis sans en subir les conséquences.





En d’autres termes, il s’agit de faire comprendre que les États-Unis peuvent attaquer n’importe quelle autre puissance sans subir de conséquence.



<img data-src=" />

Le 24/02/2015 à 14h 24







Fnux a écrit :



Si une boite (privée ou fondation) produit du code (open-source ou non) et qu’une faille de sécurité (ou un bug) lui est reporté(e) dans son code, sauf remarque précédente (valant pour l’acceptation d’une backdoor qui dans le plus grand cas est rémunérée d’une manière ou d’une autre par les accointances citées précédemment)  il est de son intérêt (réputation, part de marché, etc) et de ses clients (ou utilisateurs) de corriger le problème le plus rapidement possible.







Tout à fait, il est dans l’intérêt de l’éditeur de fournir un patch rapidement, que le code soit Open ou Closed Source. Cela ne veut pas dire que le temps mis pour fournir un patch sera le même dans les deux cas.



Je t’invite à lire par exemple cette thèse, dans laquelle l’auteur a essayé de déterminer quels facteurs influent sur le temps de mise à disposition d’un patch («Time To Patch»), en faisant des statistiques à partir de différentes sources (SecurityFocus, Open Source Vulnerability Database, National Vulnerability Database, Secunia). Parmi ses conclusions : les codes Open Source sont patchés en moyenne 39% plus rapidement que les codes propriétaires.







Analysis of the archival data confirms that software vendors release patches for software vulnerabilities with a medium level of criticality in a shorter response time than software vulnerabilities with low and high levels of criticality once the vendor has been informed of the software vulnerability. Open source vendors release patches for open source software vulnerabilities 39% quicker than proprietary source vendors release patches for proprietary software. Patches for operating system software vulnerabilities are released 8% slower than patches for application software vulnerabilities.







Une autre étude (portant sur les années 2000-2003) montrait déjà que le «Time-to-Patch» est, en moyenne, moins élevé du côté des logiciels Open Source que des logiciels propriétaires (voir notamment le tableau 2).



Bref, comme je le disais il semble qu’en moyenne les éditeurs de logiciel Open Source fournissent plus rapidement des patches lorsqu’ils sont prévenus d’une vulnérabilité que les éditeurs de logiciels propriétaires. <img data-src=" />


Le 23/02/2015 à 16h 14







Fnux a écrit :



Ce n’est pas de l’imprécision et quand on voit SSL examiné par de multiples experts pendant des années et avoir une faille de sécurité majeure non trouvée (ou plutôt non rendue publique) pendant plus de 10 ans, alors je ne pense pas que dire que l’open source ne garantit en rien l’absence de faille de sécurité et de bug soit du FUD mais une simple constatation générale malheureusement trop souvent vérifiée.







Aucune personne sérieuse ne pourrait affirmer qu’il y a davantage ou moins de failles dans tel ou tel code (fut-il Open ou Closed Source), surtout quand le code en question compte plusieurs millions de code. Dire que l’Open Source garantit l’absence de faille, c’est évidemment mensonger.



Par ailleurs, faut-il le rappeler, les failles ne sont pas découvertes en lisant le code source (comme on le lit trop souvent). Donc sur ce point précis, ça ne changera rien que le code soit Open Source : ça ne rendra pas la découverte de failles plus facile. Donc dire que le code est «lu par plusieurs experts pendant des années», ce n’est pas du tout pertinent quand on parle de découvrir des failles.



En revanche, il y a autre chose qui se vérifie aussi très facilement : le fait que le code soit Open Source fait qu’il sera patché beaucoup plus rapidement qu’un code Closed Source, en moyenne. Et ça, c’est un argument en faveur de la sécurité.


Le 20/02/2015 à 13h 32

Il a raison Obama : Internet est à eux, et les européens font leurs chochottes avec ces histoires de vie privée parce qu’ils sont jaloux de Microsoft, Apple, Google… <img data-src=" />

Le 20/02/2015 à 13h 28

Un organisme d’État qui pirate une entreprise de sécurité et vole ses données, afin d’atteindre à la vie privée des gens.



NORMAL.

Le 23/02/2015 à 16h 22

TN ? <img data-src=" />



Fly, you fools !

Le 23/02/2015 à 16h 19







sky99 a écrit :



De toutes façons, faut bien les faire tourner de temps en temps, sinon les données finissent par être perdues.









??? pour quelle raison ? <img data-src=" />



Les données sont enregistrées en orientant des domaines ferromagnétiques. Une fois les domaines orientés, il n’y a que deux façons de leur faire perdre leur orientation (et donc de perdre des données) :





  1. les soumettre à une température plus grande que leur température de Curie ;



  2. les soumettre à un champ magnétique supérieur au champ coercitif.



    Si tu stockes les disques durs dans une cage de Faraday à température ambiante, il n’y a aucune raison que les données disparaissent comme par magie…



    La plupart du temps quand on dit qu’un disque dur «meurt», c’est le moteur qui fait tourner les plateaux qui lâche après un certain nombre de cycles (et ça finit forcément par arriver à tous les disques durs). Dans des cas plus rares ça peut être le PCB qui a pris une surtension. Les plateaux ferromagnétiques, eux, sont les parties les plus fiables du disque, en général ce n’est pas eux qui posent problème.


Le 23/02/2015 à 14h 33







inextenza a écrit :



Du coup, tes disques en armoire ne peuvent pas permettre de faire un recovery du fait de l’age des données par rapport au reste de la grappe active, logiquement, si?







Effectivement, les données stockées sur les vieux disques qui restent dans l’armoire ne sont pas synchro avec la grappe. Cela dit je les branche de temps en temps (tous les 6 mois environ) pour faire un sync, ça prend moins d’une heure, et ensuite je les re-débranche et les remets dans leur armoire.



C’est aussi l’occasion de détecter si l’un de ces vieux disques devient défectueux, auquel cas je le dégage (et si je peux, je le remplace par un autre vieux disque).



Le but de ces disques est de les utiliser le moins possible, vu qu’ils ont déjà un âge avancé, mais je les utilise quand même pour que leurs données ne soient pas obsolètes. Ils servent de «filet» si jamais quelque chose de grave arrive à la grappe RAID 5.





(PS: je ne sais pas si j’ai bien expliqué, en fait ces vieux disques, une fois sortis de la grappe RAID 5, sont formatés comme disques individuels, puis je copie des données dessus. Ils ne font donc plus partie d’aucun ensemble RAID.)


Le 23/02/2015 à 13h 23







inextenza a écrit :



Tu rigoles? C’est le meilleur RAID que je connaisse.

J’ai déjà crashé plusieurs fois toute une grappe RAID5 gérée par MDADM. Dont une fois, un truc méchant, une ligne d’alimentation qui bagottait, et qui a fait planter la moitié des disques.

Ben je n’ai rien perdu, en forçant les resynchros malgré les éjections malpropres.



Autre exemple: j’ai réinstallé mon serveur à l’époque, en ne sauvegardant que mon /etc.

Ben, merci à mdadm et aux UUID: alors que j’ai fait l’install sur un autre PC pour minimiser le downtime, avec juste le disque OS (que j’ai donc ensuite déplacé de la machine mulet à la machine prod une fois la réinstall finie) TOUT a été remonté automagiquement. Le Raid5, et le Raid1 de boot (Raid 1 à 3 disques, c’est mon côté Murphy <img data-src=" />) au primer démarrage.



J’ai même un peu  moins confiance dans ma LSI Megaraid (pourtant une marque sérieuse, comme Adaptec) fraîchement achetée que dans le gestionnaire logiciel des Linux!



Pour ce qui est de l’archivage: j’estime que si, on peut archiver sur RAID quand on n’a pas de système de stockage sur bandes (pas très courant pour un particulier!). Si on a la trouille, on peut toujours faire de la redondance double (raid1 à 3 disques ou 2 + 1 hot spare; Raid 6; Raid 5 + hot spare)

C’est toujours plus fiable qu’un disque USB branché pour les synchros :)







Ah mais je suis bien d’accord, mdadm est super puissant, et bien plus flexible qu’un RAID hardware finalement : tu peux changer la grappe de PC, tu ne dépends pas d’un contrôleur particulier.



Le pire scénario qui me soit arrivé sur mon RAIS 5 : un disque dur mort, et un deuxième qui s’est désynchronisé au même moment. Après avoir remplacé le disque mort et joué avec les metadata et tout, j’ai réussi à faire repartir la grappe et à tout resynchroniser. Bon j’ai eu des suées à chaque commande que je tapais <img data-src=" />



Au final le système que j’utilise : quand un disque dur de la grappe dépasse les 35 000 heures (soit environ 4 ans de fonctionnement non-stop), je le remplace même s’il n’est pas mort, et j’utilise ce «vieux» disque pour y stocker une partie des données. Ainsi, une bonne partie du contenu du RAID 5 existe aussi sur ces vieux disques, qui sont débranchés et rangés dans une armoire, à l’abri de l’humidité et de la chaleur. <img data-src=" />


Le 22/02/2015 à 11h 07







Rapi-shiny a écrit :



Je connais, mais imagine le jour ou même les pc portables auront de grosses capacités. Tu le fais comment ton RAID?^^



Et tout le monde n’a pas les moyens de s’acheter, en plus des disques dur.







Oui je parlais surtout pour les PC de bureau : avec des disques de 1, 2, 4 To dont les prix baissent constamment, il devient judicieux de faire du RAID : RAID 1 (mirroring) ou RAID 5 (ce qui bien sûr n’empêche pas d’y ajouter d’autres solutions de sauvegarde).



Concernant les PC portables, pour moi il ne faudrait jamais les considérer comme des machines de stockage. Si tu mets tous tes documents sur ton PC portable, et que tu ne les as nulle part ailleurs, ne t’étonne pas de tout perdre… Il est évident que si tu travailles principalement sur un PC portable, il faut mettre en place une solution de sauvegarde alternative : un autre PC, un NAS, un disque dur externe, un espace dans le Cloud… Voire, selon tes moyens et la criticité des documents, synchroniser plusieurs de ces solutions pour davantage de sécurité.



À une époque je bossais chez un assembleur, une étudiante est arrivée presque en pleurs parce que son ordinateur portable avait crashé, et qu’elle avait tous ses documents dessus… Son mémoire, tout… Il s’est avéré que le disque dur était mort, on n’a rien pu récupérer. On lui a demandé si elle avait une copie de ses documents sur une clé USB, un disque externe… Ben non, elle avait tout sur son portable. Le seul conseil qu’on a pu lui donner : contacter une société spécialisée, qui va ouvrir le disque dur en chambre blanche pour récupérer les données… mais ça coûte cher.



Ne garder ses données que sur un seul support, c’est de toute façon voué à l’échec : tôt ou tard ce support lâchera. Il faut multiplier les supports pour diminuer significativement les risques de pertes. Sans cela, la perte de données est garantie à 100%…



En gros le risque zéro n’existe pas, mais le risque 100% existe bien. Je sais c’est injuste <img data-src=" />


Le 20/02/2015 à 18h 59







eliumnick a écrit :



Oui c’est ça.







À la base je répondais juste à quelqu’un qui disait «on met davantage de données sur un disque de 5 To, mais du coup si le disque meurt on perd davantage de données».



Par rapport à un seul disque isolé, un RAID autorise de perdre un disque, ce qui est déjà une amélioration en soi. Le fait que les disques ne soient pas chers permet de faire du RAID beaucoup plus facilement. Un particulier peut facilement acheter deux disques de 2 To et faire du RAID 1 avec, par exemple, ce qui améliore grandement la situation par rapport à un disque isolé.



Après, on peut tergiverser sur les raisons qui peuvent faire perdre un RAID… Mais tout dépend avec quoi on compare. Là, on comparait avec un seul disque isolé, sans copie ni redondance nulle part.


Le 20/02/2015 à 18h 07







inextenza a écrit :



Moi oui.

Raid5 sur contrôleur dédié.



(j’ai l’impression que tu réduis les niveaux de RAID au seul stripping, le Raid 0, non?)







Non il se contente de redire ce que tout le monde dit partout : si tu fais confiance à ton RAID (que ce soit un RAID 1, 5, ou 10), c’est que tu n’as rien compris aux limites du RAID, aux risques, et au principe de la sauvegarde. Un RAID n’est pas magique, ça ne protège que contre la perte d’un seul disque, ce qui est très mince. Si l’alim du PC flambe ? S’il y a le feu dans l’appart ? ne serait-ce qu’une surtension ? Un vol ?…



Comme je le disais, pour les données vraiment importantes/sensibles, il faut faire des sauvegardes sur plusieurs supports différents, et si possible les stocker à des endroits différents (par exemple, un disque externe enfermé à clé dans une armoire sur le lieu de travail).



Je comprends tous ces arguments, mais ça me fatigue un peu qu’à chaque fois qu’on évoque le RAID, il y ait des petits malins pour nous ressortir que ce n’est pas fiable, qu’il ne faut pas s’en servir pour du stockage, etc. C’est bon on a compris les gars…



Moi je suis encore plus fou : je fais du RAID logiciel avec mdadm, même pas de contrôleur dédié, youhou ! <img data-src=" />


Le 20/02/2015 à 17h 58







eliumnick a écrit :



Tu utilises le RAID pour faire du stockage ??? J’espère que tu as plusieurs RAID mirroré alors.







Du stockage oui. Pas de l’archivage.



Mon RAID 5 logiciel a déjà perdu des disques durs (un à la fois), il en est toujours sorti indemne.



Mon OS est installé sur un RAID 1. Si un disque crashe, pas besoin de réinstaller, juste de changer le disque et le synchroniser avec la grappe.



Bien sûr pour les trucs vraiment importants (boulot, papiers administratifs, photos de famille…) c’est sauvegardé sur plusieurs moyens de stockage différents, à des endroits différents : deux RAID 1 sur des machines différentes, mon PC portable, un disque externe… Il faudrait qu’au moins 6 disques crashent en même temps pour que je perde vraiment ces données-là.


Le 20/02/2015 à 17h 10







Commentaire_supprime a écrit :



Premier HDD en 1988 avec 33 Mo de capacité…







Ah, la bonne époque où l’on pouvait avoir jusqu’à 1024 ko de RAM !! <img data-src=" />



Il me manque mon vieil Amstrad…







…ou pas <img data-src=" />


Le 20/02/2015 à 15h 47







Rapi-shiny a écrit :



C’est bien sympa d’augmenter la capacité des disques dur. Par contre si il décède tu perds encore plus de données d’un coup XD.







RAID = Redundant Array of Inexpensive Disks.



Le côté «peu onéreux» des disques permet de faire du RAID plus facilement, ce qui peut protéger contre la défaillance d’un ou plusieurs disques (selon le niveau de redondance choisi).



Sinon, le mieux est de stocker les données vraiment importantes sur plusieurs supports différents (et même à plusieurs endroits différents).


Le 23/02/2015 à 13h 37



Même pour les érections pestilentielles ?





Comme disait Coluche <img data-src=" />









127.0.0.1 a écrit :



Cool… on va pouvoir torturer des modèles statistiques pour expliquer tout et son contraire. <img data-src=" />







23% des français font confiance à moins de 48% des sondages <img data-src=" />


Le 23/02/2015 à 13h 10







Konrad a écrit :



À titre de comparaison :



Taux d’infection des ordinateurs sous Windows 7 : 2,59% (Windows XP : 2,42%)

Source







Je me cite moi-même pour donner une autre source :



Selon Microsoft, en 2013 le taux d’infection de PC Windows dans le monde était de 17,8 pour mille (soit 1,78%), sachant que cette statistique ne couvre que les PC équipés de Microsoft Security Essential.



En bref, il semble qu’environ 2% (±0,5) des PC sous Windows dans le monde sont infectés.


Le 23/02/2015 à 12h 57







js2082 a écrit :



Pourtant, d’après Snowden, 100% des smartphones sont piratés.



Après, faut aussi voir ce qu’ils appellent infection.







Quand on parle d’«infection», on parle généralement de malwares qui vont permettre de te nuire directement et de façon active : suppression inopinée de tes données, vol de ton n° de carte bleue pour te voler ton argent, appels vers des n° surtaxés (dans le cas des malwares Android), etc.



Les malwares outils de surveillance ( <img data-src=" /> ) utilisés par les agences gouvernementales ont des buts bien différents, à savoir plutôt exploiter tes données personnelles (et les méta-données associées) plutôt que voler ton argent. Cela ne les rend pas légitimes ni même légaux (le droit à la vie privée est garanti par les Droits de l’Homme, et pourtant violé par ces agences gouvernementales), mais ça ne rentre pas dans le cadre des «infections».









js2082 a écrit :



Parce que quand je vois, sur le store officiels, des applis genre lampe torche qui te demandent d’accéder à tous tes contacts, sms, photos, vidéos, gps… , je me dis que là j’ai affaire à un malware.







La plupart du temps ces autorisations ne sont pas demandées par l’appli en elle-même, mais par… la publicité intégrée. Ben oui, quand une appli est gratuite elle embarque de la pub, et pour que la pub Google soit efficace et ciblée… il faut que Google sache à qui il a affaire, d’où l’accès à ces données.



Ces autorisations définissent aussi les droits accordés par la sandbox, et parfois les applis demandent davantage de droits qu’elles n’en ont réellement besoin car c’est plus simple. Mais je suis d’accord, la plupart des applis demandent beaucoup trop, et ça ne peut pas être bon pour la sécurité.



Mais si ça peut te rassurer, la plupart des malwares Android ne viennent pas du store de Google, ils viennent de stores alternatifs où les gens installent des applis non vérifiées. La plupart de ces malwares fonctionnent en appelant un numéro surtaxé. Android 4.4 et supérieur embarquent des mécanismes pour prévenir l’utilisateur quand une application appelle un numéro, ce qui invalide complètement le mode de fonctionnement de ces malwares.


Le 23/02/2015 à 10h 33







js2082 a écrit :



Android est hors concours: c’est une faille à lui tout seul…







Oui, 90% des malwares pour smartphone ciblent Android, un chiffre qui peut faire peur. Et pourtant…



Nombre d’appareils Android infectés (2013-2014) : 16 millions.

Taux d’infection : 0,68%.

Source: Alcatel-Lucent



Ça fait un peu moins peur déjà… La plupart des infections proviennent de stores alternatifs, qui fournissent des applications non vérifiées (et qui peuvent donc être infectées).



À titre de comparaison :



Taux d’infection des ordinateurs sous Windows 7 : 2,59% (Windows XP : 2,42%)

Source


Le 23/02/2015 à 10h 16

Avant que les trolls de tous poils ne se lancent dans des analyses de comptoir, faut-il préciser que le nombre de failles à lui tout seul ne dit pas grand chose sur la sécurité. Il faudrait connaître :





  • la criticité des failles (comme dit dans l’article, la proportion de failles critiques est important)



  • la fenêtre de vulnérabilité = le temps entre la découverte de la faille et son patch. En gros une faille critique dont le patch est déployé en 2 jours sera moins grave pour la sécurité qu’une faille moyenne qui mettra des mois avant d’être patchée.



  • le nombre de malwares qui exploitent effectivement ces failles.

Le 20/02/2015 à 19h 32







CrowTown a écrit :



Si tu veux être crédible coco, tu évites de mal reporter mes propos, parce qu’avant de me voire dire que toute concurrence n’a aucune raison d’exister tu peux te lever de bonne heure hein, faut vraiment que tu arrêtes la drogue décidément <img data-src=" /> 



Ce que j’ai toujours dit pour le marché des smartphones c’est qu’Android est malsain tant qu’il est chapoté par Google, et que ce n’est pas le meilleur choix technique non plus pour une majorité de gens, donc avec 70% de pdm, y a largement de quoi faire baisser tout ça hein <img data-src=" />



Par contre si j’ai pu dire qu’il fallait que Google disparaisse, c’est pas un truc que je renie du tout, d’autre s’occuperont de faire la concurrence de toute façon, mais faire disparaître le gros Big Brother, même s’il investissent un peu dans la R&D, ça peut pas faire de mal, on sera tous gagnant et le monde sera meilleur qu’avec eux, de toute façon hein <img data-src=" />







Mal reporter tes propos ? Soit tu as une double personnalité, soit tu es atteint d’Alzheimer mon pauvre ! <img data-src=" />



Petit florilège pêché dans tes derniers commentaires :



“oublie jamais petit padawan que quelque soit le smartphone que tu utilises, ta vie privée est bien plus livrée en pâture, donc prends-toi un Lumia si tu veux être un minimum tranquille!! mais mélange pas les torchons Google/Apple avec les serviettes MS hein”



“après idéalement dans mon monde à moi, quand tu achètes un produit informatique tu le prends d’un constructeur dont le métier est l’informatique, et non pas de quelqu’un dont le métier est la pub et le pompage de données ou la vente de bien culturels hein”



Donc Google = pub et pompage de données, Apple = biens culturels, et c’est tout. Seul Microsoft sait faire de l’informatique. Un avis tout à fait objectif, tout dans la nuance, bref du CrowTown dans toute sa splendeur ! <img data-src=" />



Je ne vais pas tout citer, il suffit d’aller regarder ton historique pour voir que tu ne rates pas une occasion de cracher sur Google et Apple, bref les deux concurrents de Microsoft sur les smartphones…



Donc tu dis que tu es pour la concurrence, mais dans la pratique tu es contre tous les concurrents de Microsoft <img data-src=" />



Tu es un fanboy Microsoft et un hater de tout le reste : Apple, Google, les logiciels libres… C’est bon on t’a cerné maintenant, ce n’est plus la peine de te cacher derrière des principes du genre «mais si, je suis pour la concurrence…».



Mais comme tu n’assumes pas, tu traites tous les autres de fanboys, tu dis que c’est de leur faute si la discussion s’envenime, et tu t’en sers comme prétexte.



Continue comme ça ! <img data-src=" />











CrowTown a écrit :



Non mais je t’ai déjà dit et répété que ton putain d’Open source ne sera jamais la solution à tous les problèmes et n’a donc aucune raison d’être la seule façon de faire les choses, donc c’est pas la peine de me ressortir ton sermon niaiseux comme un curé de campagne de base bourré dont le disque est rayé hein, ça changera pas mon point de vue là-dessus pour autant







J’ai dit que c’était la solution à tous les problèmes ??



Non, j’ai juste dit que la situation n’était pas comparable avec IE 6.



S’il y en a un ici qui ne sait pas lire et interprète tout de travers, ce n’est clairement pas moi…



Achète-toi des lunettes ou un cerveau sérieux <img data-src=" />


Le 20/02/2015 à 18h 10







CrowTown a écrit :



Oui tu as un peu plus de mal qu’un OS ne soit plus supporté au niveau des mises à jour fonctionnelles après 10 ans, IE9 étant sorti en 2011 si je ne m’abuse hein…







Atomusk a pris l’exemple d’IE 9 qui n’est pas dispo sous Windows XP, mais son raisonnement fonctionne avec la version suivante hein : IE 10 réclame Windows 7 ou supérieur, donc pas dispo sur Vista.



Alors tu vas dire quoi, Windows Vista n’est plus supporté non plus ? Il a plus de 10 ans ? Pourquoi n’a-t-il pas droit à la dernière version de IE ? C’est du pur marketing.









CrowTown a écrit :



Au final on en revient toujours aux même conclusions : on lirait tellement moins de conneries si les gens réfléchissaient un minimum aux bêtises qu’ils racontent hein







Là-dessus on est d’accord.



La différence c’est que toi tu crois qu’il n’y a que les autres qui racontent des conneries <img data-src=" />


Le 20/02/2015 à 09h 09







CrowTown a écrit :



les gens ont un vrai “syndrome iPhone” : un même truc qui marche à peu près pour tout le monde et on voit pas plus loin que le bout de son nez, quitte à faire disparaître la concurrence et l’émulation, qui arrange pourtant toujours le consommateur!!







Marrant d’entendre ça de la bouche de quelqu’un qui dit sans arrêt que seuls les Lumia sont de bons téléphones, et que tout le reste (Android, iPhones…) devrait disparaître !



En gros quand Microsoft est en difficulté, les concurrents sont des vilains méchants, mais quand Microsoft a une position dominante, c’est normal qu’il n’y ait pas de concurrence, puisque c’est les meilleurs <img data-src=" />



Décidément j’adore ton argumentaire à deux vitesses <img data-src=" />









CrowTown a écrit :



Si Microsoft voulait pas mettre à jour IE6 c’était leur problème hein







Ouiiiii bien sûr. Microsoft a développé un navigateur pour concurrencer Netscape, l’a intégré gratuitement dans Windows, ce qui lui a permis d’accaparer 90% du marché (ce qui leur a valu une condamnation pour abus de position dominante).



Mais après avoir éliminé toute la concurrence et être devenus les rois de la montagne, c’est normal qu’ils arrêtent, après tout ils font ce qu’ils veulent… <img data-src=" />



Ben non, je suis désolé, ce n’est pas que LEUR problème. Ça aurait pu être leur problème si le Web leur avait appartenu (et encore), mais ce n’est pas le cas. Le Web continuait à évoluer. En laissant pourrir IE6, en refusant de faire évoluer son navigateur, Microsoft empêchait la majorité des utilisateurs d’accéder aux nouvelles technologies du Web. Tout ça après avoir imposé leur navigateur, leur vision du Web…



Microsoft ne s’est bougé qu’après l’arrivée de nouveaux concurrents : Firefox et Chrome qui ont bouffé des parts de marché significatives. Sans eux, on se taperait sans doute toujours IE6…



D’ailleurs on se souvient qu’en 1995 Microsoft lançait The MicroSoft Network (MSN), qui fournissait uniquement des services Microsoft : recherche, vente en ligne… Un portail pour concurrencer le Web. Ça en dit long sur la vision qu’ils avaient d’Internet à l’époque : les PC étaient Microsoft, il fallait que le Réseau des réseaux soit Microsoft. Pour moi leur acharnement à imposer IE jusqu’à l’intégrer dans Windows est une continuation de cette politique : contrôler le réseau coûte que coûte.



Aujourd’hui Microsoft a changé et ne poursuit plus une telle politique. Tant mieux. Mais si ça avait marché à l’époque…









CrowTown a écrit :



aujourd’hui l’histoire se répète avec les gens qui veulent pas d’autre chose que Blink







À part que Blink est Open Source, donc n’importe qui peut contribuer (même Microsoft ou Apple s’ils le veulent), qu’il ne reste pas sur ses lauriers mais continue d’évoluer avec les recommandations W3C, que c’est un moteur de rendu (et non pas un navigateur), qu’il n’est pas le seul moteur de rendu sur le marché…



Mais oui, à part tout ça, c’est sûr que la situation est exactement la même qu’avec IE6… <img data-src=" />


Le 19/02/2015 à 15h 14







canti a écrit :



désolé, j’ai le chef qui rodait j’ai tapé le texte rapidement <img data-src=" />







Pour gagner du temps il aurait fallu enlever des lettres, pas en ajouter <img data-src=" />



Je taquine <img data-src=" />


Le 19/02/2015 à 15h 02







canti a écrit :



Tu serais pas entrain de nous faire le coup de l’épouvantaillequand même











canti a écrit :



Sophisme de l’épouvantaille: représenter la position de ton interlocuteur de façon fausse, et s’en servir pour montrer que sa position n’est pas logique







Citer un article et ne même pas être capable de recopier le mot «épouvantail» correctement… Alors que la plupart des navigateurs ont un correcteur orthographique intégré et soulignent donc le mot en rouge…



Chapeau <img data-src=" />


Le 19/02/2015 à 14h 33

Très bon ça. Au lieu de travailler à développer une solution concurrente, travaillez plutôt ensemble à des solutions ouvertes et pérennes. Les utilisateurs vous en remercient <img data-src=" />

Le 20/02/2015 à 10h 14

Selon une étude, environ 65% des études statistiques sont fausses <img data-src=" />



…ou le plus souvent, elles sont mal interprétées…











Northernlights a écrit :



95% des personnes ayant versé dans le terrorisme regardaient la télé …

99% des gens ayant perpétués un meutre ont regardé des fictions / informations avec de nombreux morts a la télé.





On tape aussi sur le petit écran ?







Sans oublier que 89% des meurtriers ont un jour joué à un jeu vidéo, il faut donc interdire les jeux vidéos !


Le 19/02/2015 à 22h 16

Ah ouais quand même… Vivent les PC constructeurs et leurs crapwares embarqués !



Bien content de savoir monter et installer mes PC moi-même…

Le 19/02/2015 à 11h 32

Dommage qu’ils n’aient pas tenu leur parole… <img data-src=" />



Bon en même temps ça reste des politiciens hein, il faut s’attendre à être déçu.

Le 19/02/2015 à 11h 29







jethro a écrit :



Quand on a réussi dans la vie, on achète un VAIO à la fnac







10 000 € le Core i3 avec 4 Go de RAM ?? WTF ??? <img data-src=" />


Le 19/02/2015 à 10h 26







Lnely a écrit :



Useless désolé… Même si mon fix j’ai viré les 16go pour avoir de l’itx, 8go







J’adore le raisonnement “je ne vois pas l’utilité pour moi, donc ça ne sert à rien” <img data-src=" />



On a trouvé le centre du monde <img data-src=" />


Le 19/02/2015 à 10h 06







CryoGen a écrit :



Pivoter à 360° ? <img data-src=" /> C’est marrant de retrouver cette erreur pourtant source de moquerie et de blague douteuse <img data-src=" />







C’est clair il y en a qui n’ont pas bien suivi leurs cours de maths au collège <img data-src=" />



L’écran fait un demi-tour, donc 180°…


Le 19/02/2015 à 10h 08







nigol a écrit :



Émission “La tête au carré” avec Louis Pouzin, un contributeur aux proto-internets dans les annees 1970 :



http://www.franceinter.fr/emission-la-tete-au-carre-des-debuts-de-linternet-au-p…



Si NextImpact veut bien faire un article sur l’initiative “open route” pour se passer de l’ICANN, ce sujet m’intéresse.







Quitte à demander quelque chose tu pourrais écrire correctement Next INpact <img data-src=" />


Le 18/02/2015 à 18h 01







Drepanocytose a écrit :



MS en retard sur ses concurrents dans le domaine des navigateurs ?

Jamais de la vie.



PCI est un repère de pro-Apple et pro-Google. Honte sur vous M. Herrmann pour ces allegations diffamatoires.







J’allais le dire. Ce n’est pas pour rien que Windows et IE ont les meilleures parts de marché quand même hein !


Le 18/02/2015 à 11h 49







FRANCKYIV a écrit :



Adobe Flash plus supporté sous Gnu Linux ?



Pourquoi j’ai encore eu une mise à jour il y a quelques jours alors ?







Réponse sur le site d’Adobe :





REMARQUE : Adobe Flash Player 11.2 sera la dernière version prenant en charge la plateforme Linux. Adobe continuera à fournir des backports de sécurité pour Flash Player 11.2 pour Linux.





Autrement dit Adobe continue de fournir les patches de sécurité pour la version 11.2 sous GNU/Linux, c’est pour ça qu’on se retrouve avec des noms de versions à rallonge du genre 11.2.202.442. Mais plus aucune nouvelle fonctionnalité n’est intégrée.



Pendant ce temps-là pour Windows et Mac OS X ils fournissent la version 16 de Flash Player.


Le 18/02/2015 à 09h 57







zefling a écrit :



Perso, je trouve que c’est une bonne chose, car tout ce qui a été créé en Flash ne disparaîtra pas. Ça reste une longue période du net, un quasi-standard pendant quelques années, et ça serait dommage de voir un pan si grand du net disparaître. C’est un peu comme dire qu’il faut arrêter de lire les vieux .doc parce que c’était de la merde.







Oui, Flash a été un «standard de fait» comme on dit : tout le monde devait l’avoir, sans quoi une bonne partie du Web était inaccessible.



C’est de moins en moins vrai aujourd’hui. Les nouvelles plates-formes (Android, iOS) ne connaissent pas Flash, Adobe a arrêté de supporter Flash pour Linux… Même Adobe fournit les outils pour convertir ses projets Flash en html5


Le 17/02/2015 à 17h 38







Moff Tigriss a écrit :



C’est compliqué. En gros, la vidéo HTML5 fait son chemin. Mais Mozilla a prit un énorme retard sur le dev des librairies dédiées. MSE, entre autre, qui est la base de la vidéo HTML5. La faute à la guerre des codecs, mais aussi à une mauvaise gestion des ressources je pense, vu le bugtracker dédié.

 

Pour donner une idée de l’état d’avancement, dans la version actuelle, il est possible d’activer MSE et ses options. Ca fonctionne sur Youtube… Mais une vidéo n’arrive pas à se relire, si je fais pause, plus rien ne fonctionnera en vidéo sans relancer FF, la gestion de la priorité du processus dédié est mauvaise (si pour une raison X ou Y FF doit bosser, la lecture perd sa fluidité). Et tout ça sur une install W8.1 toute neuve.



A côté, les autres navigateurs sont tous plus ou moins prêts (même IE !), voir même n’utilisent plus que ça (Chrome). Un player compatible Flash permet de temporiser.

 



Et par dessus tout ça, et je travaille lourdement sur la question depuis un certain temps, le streaming de vidéo est un monde assez moche du côté serveurs. Sans parler du live-streaming où on nage en plein délire (les technos HTML5 standardisées ne sont tout simplement pas faites pour faire du live !).

Daylimotion est en Flash, Vimeo aussi, Twitch, Amazon… Même Netflix doit utiliser des artifices (Silverlight…) sur un nombre non négligeable de plateformes.

Logiciels proprios, technos mal implémentées, ressources importantes nécessaires pour le multi-encodage, etc… Du coup, une plateforme ne va pas quitter Flash avant longtemps une fois qu’elle y a investit sa R&D et ses ressources. D’où l’intérêt d’avoir un équivalent à Flash.







Étonnant d’ailleurs quand on sait que Netflix est un membre du W3C. Ces acteurs devraient bosser ensemble pour définir des standards qui permettent tous ces usages (streaming…).


Le 17/02/2015 à 17h 03



Les plugins pour les navigateurs n’ont plus la côte cote depuis plusieurs années





<img data-src=" />



Je quote la côte qui devrait s’écrire «cote», et j’enfile ma cotte de maille <img data-src=" />



Je sais qu’il y a un bouton «Signaler» mais je n’ai pas pu résister <img data-src=" />

Le 16/02/2015 à 20h 29







ar7awn a écrit :



L’important est quand même de garantir un maximum de sécurité pour les utilisateurs.







Là-dessus, on est d’accord. En revanche on n’est pas d’accord sur la façon de garantir cette sécurité.



Selon toi, les failles ne devraient pas être divulguées, et l’éditeur devrait avoir le temps de patcher. Divulguer la faille, c’est offrir aux hackers la chance de développer des virus, troyens, etc. exploitant cette faille.



Selon moi, la divulgation d’une faille accélère la production d’un patch. Il est bénéfique pour les utilisateurs d’avoir un patch rapidement, donc il est bénéfique que la faille soit divulguée. Parmi les éditeurs de logiciels libres, les failles sont divulguées rapidement, les patches sont développés rapidement, et il ne me semble pas qu’ils soient la cible de davantage d’attaques. Moi, ça ne me choque pas que les failles soient divulguées : dans un monde où tout va trop vite (faille trouvée, puis colmatée en quelques jours), les hackers ont moins de temps pour développer des vers et virus ciblant ladite faille. La fenêtre d’attaque est plus courte, les utilisateurs sont vulnérables moins longtemps. Au contraire quand l’éditeur garde la faille pour lui et croit être le seul à la connaître, ça peut mal se terminer, cf le lien qu’a donné Atomsk à propos de la faille dans IE que Microsoft connaissait depuis septembre sans la patcher, et qui a été effectivement exploitée par des hackers -Microsoft n’était donc pas le seul à connaître cette faille.



Alors, faut-il divulguer les failles ou pas ? Il me semble que la question n’est pas tranchée même parmi les experts en sécurité, donc je ne m’attends pas à ce qu’on la résolve ici. Disons qu’on a des points de vue différents sur la question.


Le 16/02/2015 à 19h 35







ar7awn a écrit :



tout est possible, dans l’idéal (imaginé en 5 minutes) ce serait une section de la police qui centraliserait et rechercherait les failles des entreprises qui diffusent leurs services dans le pays. Les failles ne seraient pas diffusés mais un classement selon le nb, l’importance et le temps de patch serait rendu public. Une taxe dont le montant serait évaluer au prorata de la position de l’entreprise dans le classement serai mis en place et financerait le système.







Ouais, tu as raison de dire que c’est imaginé en 5 minutes…



Rechercher des failles informatiques, c’est hyper particulier. Différents chercheurs dans le monde trouvent des failles différentes, dans des logiciels différents. Ces chercheurs peuvent travailler dans des organismes publics (CNRS, Universités…) ou bien chez des acteurs privés (comme Google, HP, mais les autres boîtes aussi ont leurs experts en sécurité : Microsoft, Apple, Facebook…). Comme je le disais, quand ils trouvent une faille dans un logiciel ou un service, en général ils en avertissent l’éditeur, et passé un certain délai ils publient. Il n’y a pas que Google et HP qui font ça : publier ça fait partie de la recherche.



Tu crois vraiment que c’est réaliste, et si simple que ça, de dire : tous ces gens-là arrêtent, et on met en place une autorité qui recherche les failles ? Ou alors, on met en place une cellule de la police, et tous les chercheurs en sécurité (publics ou privés) doivent se plier à ces règles ?



Tu parles de la «police» comme si on pouvait mettre ça en France, ou en Europe. on parle de logiciels utilisés dans le monde entier. Certains chercheurs qui dévoilent des failles se situent en Chine, ou dans d’autres pays qui se tamponneraient le coquillard d’une «autorité», fût-elle internationale. Comment tu résous ce problème ?



Et moi je vais te poser un autre problème : admettons qu’on ne presse pas les éditeurs, que chaque éditeur puisse prendre tout son temps pour mettre au point des patches. Si un éditeur est au courant d’une faille, et qu’il met des années à la patcher, qui le punit ? Là aussi il faudrait une «autorité» qui surveillerait ça ? Mais le problème c’est que justement, seul l’éditeur est au courant de la faille, donc pas l’autorité. Comment pourrait-elle agir alors qu’elle n’est pas au courant de la faille ?…



Plusieurs experts en sécurité le disent : garder les failles secrètes chez l’éditeur, ça n’est jamais une bonne idée. Il faut une pression extérieure pour que l’éditeur soit motivé à sortir un patch, sinon il laisse couler. Que cette pression soit exercée par une «autorité» légitime, ou bien qu’elle soit exercée par des chercheurs publics ou privés (ou une autre entreprise), ça importe peu. L’important est de patcher rapidement.


Le 16/02/2015 à 18h 38







ar7awn a écrit :



90 jours, 1 ans, ou même 10 ans, google n’a tout simplement pas a rendre une faille publique !

Le simple fait que l’on puisse penser qu’il est normale que cette entreprise s’arroge ce droit me révolte profondément.



Surtout que google est mal placé pour utiliser cette méthode de publicité écœurante.







Je suis d’accord, je trouve ça limite que Google se permette de dévoiler les failles des autres. Dans l’idéal il faudrait une «autorité» qui décide de la marche à suivre : prévenir l’éditeur, rendre la faille publique ou non…



Mais qui s’occuperait de former une telle autorité ? Qui la financerait ? Qui en ferait partie ? Et leur job ça serait quoi, chercher des failles ? ou simplement les centraliser ? ou décider qui a le droit de divulguer quoi ? Et si une entreprise refusait de se plier aux règles d’une telle autorité ?…



Après, une autre politique pourrait être : «on ne parle pas de la faille tant qu’un patch n’est pas prêt». Ça semble bien, ça arrangerait sans doute l’éditeur, mais en fait c’est une très mauvaise idée. Pourquoi ? Parce que ça veut dire que seul l’éditeur connaît la faille… ainsi que, peut-être, certains hackers qui la gardent pour eux. Ainsi, pendant que l’éditeur croit être dans le secret, qu’il prend bien son temps pour peaufiner son patch, le tester sur différentes configurations, commenter son code… ce qui peut durer indéfiniment, des hackers peuvent exploiter la faille à fond, puisque personne, absolument personne, ne s’en protège -et personne ne peut s’en protéger.



Je ne retrouve plus l’étude que j’avais lue, mais la conclusion en était : si une faille reste «secrète», alors l’éditeur a tendance à mettre beaucoup plus de temps à patcher. Au contraire, si la faille est publique (ou si l’éditeur sait qu’elle sera bientôt rendue publique), alors le patche arrive beaucoup plus vite. De plus, si la faille est divulguée, même sans avoir de patch les utilisateurs peuvent mettre en place des mesures de protection temporaires : règles dans le pare-feu, désactivation d’un service, etc. Ce n’est pas idéal, mais au moins ça évite d’être infecté ou de se faire piquer ses données.



1 jour, 90 jours, 1 an ? La Zero-Day Initiative se donne 4 mois (120 jours) pour divulguer une faille qu’ils auraient trouvé. Qui se trouve derrière ? Hewlett-Packard. Alors c’est mieux que Google, moins bien ?… HP aussi s’arroge ce droit sans aucune légitimité ? Pourquoi personne n’a tapé sur HP ici ?…



Quand des chercheurs en sécurité découvrent une faille, en général ils la rendent publique après un certain temps. Google n’a pas l’exclusivité de cette pratique.



Bref il y a toutes les raisons de divulguer les failles découvertes. Il n’y a pas de système idéal pour la faire, donc pour l’instant les entreprises se préviennent les unes les autres. Parce que même si on dit «bouh Google dévoile la faille au bout de 90 jours !!», on peut aussi voir les choses dans l’autre sens : si la faille était trouvé par quelqu’un d’autre, il pourrait la rendre publique tout de suite. Là, Google prévient l’éditeur en premier lieu, ce qui montre un souci de prévention. De plus ils assouplissent leur règle des 90 jours, ce qui montre une volonté de travailler avec les autres éditeurs, et non de leur nuire.


Le 16/02/2015 à 14h 06







Jed08 a écrit :



Faire le nécessaire ? On ne modifie pas la configuration du SI d’une grande entreprise comme celle d’une start-up.







Donc tu admets que la publication de la faille pourrait au moins servir aux start-ups ?

Agiter un cas particulier (le SI d’une grande entreprise) ne réfute pas mon argumentation.









Pr. Thibault a écrit :



Qu’est ce qui te permet de dire que 90 jours sont suffisants pour patcher un OS utilisé par plus d’un milliard de personnes sur la planète et pour lequel il existe plusieurs versions et plusieurs variantes ?







Il existe d’autres codes qui sont utilisés par plus d’un milliard de personnes sur la planète, qui existent en plusieurs variantes, et qui doivent supporter plein de hardwares différents (je te laisse le soin de chercher de quel type de code je parle). Et pourtant quand une faille est découverte et que les développeurs sont mis au courant, elle est souvent patchée en l’espace de quelques jours. C’est là-dessus que je me base pour dire que 90 jours devrait être suffisant.


Le 16/02/2015 à 12h 04







Jed08 a écrit :



C’est précisément la question qui me tracassait le plus.

Google est bien gentil de vouloir forcer les éditeurs à se bouger le cul pour sortir des patchs plus vite, mais jusqu’à présent, quand une vulnérabilité était publiée j’ai jamais vu en quoi c’était bon pour l’utilisateur :S







Il s’agit de failles 0-day = exploitables en l’état et non colmatées.



La politique de Google, c’est d’abord de prévenir l’éditeur que cette faille existe (mais sans la rendre publique). Sur ce point je ne vois pas trop ce qu’il y a à reprocher. La course contre la montre commence : la faille est connue, ça veut dire qu’elle peut être exploitée par des hackers, il est donc urgent de patcher.



Ensuite, si l’éditeur n’a toujours pas fourni de patch dans les 90 jours, Google rend la faille publique. Je veux bien admettre qu’on tergiverse sur la durée, mais 90 jours (3 mois !!) ça me paraît déjà long, considérant que tous les utilisateurs sont vulnérables. Dans le cas de Microsoft qui publie ses patches une fois par mois (patch Tuesday), ça veut dire qu’ils ratent trois fois le coche pour patcher une faille connue. Sans compter qu’ils peuvent aussi publier un patch en dehors de ce cycle (ça s’est déjà vu).



Pourquoi rendre la faille publique ? Ça permet aux utilisateurs avertis et aux admins système de faire le nécessaire pour se protéger de l’exploitation de cette faille : règles dans le pare-feu, désinstallation d’une mise à jour si c’est elle qui a introduit la faille, désactivation d’un service, etc. Alors oui, on peut toujours dire que l’immense majorité des Michu ne suivra rien de tout ça et sera bien incapable de s’en prémunir, mais au moins les utilisateurs avertis (parmi lesquels les entreprises) pourront agir.



Clairement, la publication met aussi l’éditeur devant le fait accompli, et l’incitera davantage à patcher. Il a déjà été montré que les éditeurs patchent beaucoup plus rapidement les failles lorsqu’elles sont publiques (que ce soit dans l’Open Source ou chez les éditeurs propriétaires). En gros quand la faille n’est connue que de l’éditeur, ils ne se pressent pas à patcher car ils estiment que la faille n’est pas connue par d’autres et ne peut pas être exploitée.



Bref, Google a raison d’assouplir ses règles et travailler en meilleure intelligence avec les éditeurs : si un patch est effectivement en cours de développement, c’est con de publier la faille 2 jours avant le patch… Mais je trouve que globalement c’est bien que les éditeurs aient cette épée de Damoclès au-dessus de la tête : dépêchez-vous de patcher sinon la faille sera rendue publique et votre réputation en prendra un coup.


Le 16/02/2015 à 09h 55







philanthropos a écrit :



On en rigole, mais il y a tant de gens qui, de nos jours, s’acharnent à faire passer ce message où et dès qu’ils peuvent, et qui grimpent sur leurs grands chevaux de défendeurs des libertés individuelles/de la femme/ajouter-une-mention-au-pif dès qu’on tente de leur répondre …



Perso’, ces gens là, cette mentalité, qui en plus s’intensifie j’ai l’impression, me fais sacrément peur.



Mon modèle de couple c’est mes parents, comme tout un chacun ou presque, et je les ai toujours vu tout se dire, partager le Code de CB, se passer les papiers X, Y ou Z sans soucis, etc.

Je suis p-e naïf, mais je vois le “couple” comme ça, ça me semble “normal”, j’ai tors tort ?







Tu as tort de l’écrire comme ça, oui <img data-src=" />


Le 14/02/2015 à 10h 38







knos a écrit :



Effectivement mais pour régler ca a l’amiable il faut savoir avec qui tu es en conflit. Hors Or pour le savoir la police sera le mieux placé.







Chaque fois que vous écrivez «hors» au lieu de «or», un chaton fait une crise cardiaque.



Mais - ou - et - donc - or - ni - car



C’est pourtant pas compliqué…


Le 13/02/2015 à 14h 50







33A20158-2813-4F0D-9D4A-FD05E2C42E48 a écrit :



Ici, ma foi, je ne vois pas quelqu’un qui prend une information à rebrousse-poil en y ajoutant un trait d’esprit, je vois juste un gugusse qui ânonne une phrase éculée, toute faite et en perd toute crédibilité. C’est dommage non ? C’est vraiment l’image que tu veux que les autres aient de toi ?







Quoi ? Tout ça juste parce que je me suis doucement moqué en disant «c’est une révolution» ? Expression en référence à Apple pour qui chaque petit ajout est une révolution ? Décalage, humour, ‘culun mouton ?…



Mais non, visiblement ça ne peut pas être de l’humour -et tu as l’air de faire autorité en matière d’humour, je suis sûr que tu fais beaucoup rire les gens autour de toi. Tu ne serais pas humoriste par hasard ? <img data-src=" />



À t’entendre on dirait que tu es le flamand et que je t’ai pissé dessus <img data-src=" />



Encore une preuve qu’on peut rire de tout, mais visiblement pas avec tout le monde… <img data-src=" />


Le 13/02/2015 à 11h 18







33A20158-2813-4F0D-9D4A-FD05E2C42E48 a écrit :



Bah oui, tu as dit tout ça <img data-src=" /> 



[Mode troll on]

 J’over-pétule peut-être un peu, mais pourquoi faut-il, systématiquement quand Microsoft (ou Google, ou Adobe, ou n’importe qui qui ne soit pas exempté de critique de par sa pilosité faciale exceptionnellement fournie en barbe broussailleuse - exception faite de Linus himself quoique je n’ai pas vérifié son look ces derniers temps) annonce un ajout incrémental dans un tweet, ça finisse systématiquement par une litanie de messages “C’est une révolution”, “ah ben il est temps, Steve Jobs l’a inventé en 1929 en même temps que le téléphone, quand il aidait la Nasa à envoyer des messages aux habitants de Pluton” ou “S’ils augmentent le n° de version chaque fois qu’une mouche émet un gaz dans la salle des serveurs, on en sera bientôt à Chrome 32767”.

[Mode troll off]

 

Tout ceci étant dit, c’est bien une nouveauté dans Office Online.







J’ai bien dit que Microsoft lui-même l’avait implémenté dans MS-Office depuis bien longtemps. Je m’amusais donc juste qu’une telle «nouveauté» mette autant de temps à apparaître dans Office Online.



On a le droit de s’amuser de quelque chose ? D’en rire ? De prendre un truc sur un ton léger ? Ou alors il faut obligatoirement tomber dans le fanboyisme ?… <img data-src=" />