votre avatar

Konrad

est avec nous depuis le 3 août 2010 ❤️

4337 commentaires

Le 23/04/2015 à 09h 00







after_burner a écrit :



Oui bin les appareils de ce type sont rarement ouverts, à moins d’avoir un appareil dont le constructeurs permet les mise à jours, c’est mal parti. Et comme ce n’est pas la fonction première de ces produits personne ne verra cela comme de “l’obsolescence programmée”.



Après je dis pas qu’il ne peut pas y avoir de dérives, avec les appareil qui sont de plus en plus dépendants d’internet.







Exemple : le plug-in Youtube pour Kodi est Open Source. Les utilisateurs de Kodi n’ont donc pas eu de problème, l’API v3 de Youtube est supportée.



Je rejoins donc ceux qui disaient qu’au lieu d’acheter une TV super chère qui ne sera sans doute plus supportée dans 3 ans, il vaut mieux privilégier des solutions ouvertes et Open Source. Il y a davantage de chances que ça soit supporté plusieurs années.


Le 23/04/2015 à 08h 15







Gritou a écrit :



Oui, alors, tu sais, j’ai encore un pc sous Windows 95 qui tourne, dire que ça fonctionne encore grace aux logiciels libre ne rime à rien.







Je pense qu’il voulait dire que certains PC fonctionnent encore grâce à des logiciels libres à jour <img data-src=" />



Windows 95 n’est plus mis à jour depuis longtemps = il est à la ramasse niveau fonctionnalités et niveau sécurité…


Le 23/04/2015 à 08h 03







after_burner a écrit :



Dans le cas présent ça aurait changer quoi si l’API V2 de yt avait été libre? Si Google décide de ne plus l’utiliser le fait quelle soit libre n’aurait rien changé étant donné que c’est un service, de plus le contenu vidéo n’est pas libre et est sur les serveurs de Google donc même en laissant la V2 en d’autre mains, ça aurait été un belle coquille vide. 



On peut toujours se dire que c’est mieux que rien mais en pratique je doute que ça fasse une grande différence. Il y a aussi le cas du matériel non mis à jour.



Après si la demande c’est d’avoir aussi du contenu et du matériel libre, là je crois que tu rêves totalement…







Non je pense que son argument n’était pas de dire que l’API Youtube devait être libre, ce qui d’ailleurs ne veut rien dire. Une API doit être ouverte, et celle de Youtube est bel et bien ouverte (voir ici).



Le problème porte surtout sur les appareils (smart TV…) anciens, qui ont été conçus autour de l’API v2 de Youtube, et qui sont incompatibles avec la version 3. Si les firmwares/OS de ces appareils avaient été libres il aurait été possible de concevoir un patch et de l’installer, pour les rendre compatibles avec l’API v3.



Mais comme ces appareils sont fermés, ils sont condamnés à rester incompatibles avec la v3 de Youtube. Comme Google vient de décider que l’API v2 ne serait plus disponible, tous ces appareils perdent donc leur fonctionnalité Youtube.


Le 22/04/2015 à 18h 16







ledufakademy a écrit :



Open source.



Vous comprendrez un jour, peut être …

En attendant inutile de palabrer des heures, dossier clos par … big brother.(DTC Inside)







Mais non j’ai payé, donc ces entreprises veulent forcément mon bien… Non ? Ah ?… <img data-src=" />


Le 23/04/2015 à 00h 22







matroska a écrit :



Ceci dit on a trouvé le stockage sur ADN, on ne sait pas vraiment encore l’exploiter mais ça pourrait le faire pour tes données personnelles ou professionnelles.



C’est carrément démentiel comme stockage, d’une capacité phénoméale !



Ok, ça n’a aucun rapport avec la news. <img data-src=" />

 

Stockage sur génome







Et après tes données évoluent, se reproduisent et meurent ? Ça pourrait être rigolo <img data-src=" />


Le 22/04/2015 à 22h 44







Ricard a écrit :



Nan mais ça va très bien, merci. Je confirme. C’est pas soumis à débat je te rassure.

Bufalo est une boite américaine qui te fournis une carte (copiée par la NSA) pour un DD chiffré… Point. On ne parle pas de sécurité dans ce cas là, mme Michu y compris.







Ben si c’est une « sécurité » vis-à-vis du voisin ou du pic-pocket qui volerait le disque : il ne peut pas lire les données car elles sont chiffrées.



Mais on est d’accord : vis-à-vis de la NSA ça ne protège rien du tout, mais j’ai envie de dire que ce n’est pas le but de ce disque. C’est comme Google ou Facebook qui utilisent des connexions chiffrées : ce n’est pas pour protéger de la NSA, mais pour protéger contre des tiers qui intercepteraient les données, ils ne pourraient rien en faire car les données sont chiffrées.


Le 22/04/2015 à 21h 40







Ricard a écrit :



Ben, Buffalo, c’est une boite américaine, donc un supermarché pour la NSA. Tout est dit, il n’y a même pas à discuter.<img data-src=" />







Perso je n’utiliserai pas ce genre de disque car je n’ai pas confiance non plus.



Après, pour Mme Michu qui met ses données chez Facebook, Google et compagnie, ça ne la gênera sûrement pas d’utiliser ce genre de disque…


Le 22/04/2015 à 20h 11







Ricard a écrit :



Non merci, sans moi. Sécurité zéro. <img data-src=" />









choukky a écrit :



Juste un gadget pour les feignasses qui ne veulent pas retenir/taper un mot de passe.

La carte à puce nfc et du même acabit qu’un bout de bristol sur lequel est écrit le mot de passe. Une fois passé entre de mauvaises mains, c’est la banqueroute assurée.

Un bon password ne se donne pas et ne s’écrit pas, on dispose de suffisamment de neurones pour çà, où pas …







La sécurité en informatique c’est comme dans la vraie vie : il y a différents niveaux.



Dans un supermarché il y a des vigiles, ça dissuade les petits voleurs à la sauvette. Mais ils ne sont pas armés donc s’il y a un braquage à mains armées ils ne pourront rien faire.



Devant Charlie Hebdo il y avait 2 policiers, ça dissuade des petites attaques genre tag, entarteur ou agression à l’arme blanche. Mais face à des kalachnikov ils n’ont pas fait le poids…



Là c’est pareil : ce système de chiffrement avec une carte n’est clairement pas le top du top, et n’intéressera pas les entreprises sérieuses qui tiennent à leurs données. Mais pour Mme Michu qui a peur que des étrangers n’aient accès à ses photos de famille, ça fera bien l’affaire, c’est simple à utiliser et c’est pas cher…


Le 22/04/2015 à 18h 08

Intéressant comme concept ! Ça a le mérite de simplifier le chiffrement des données pour tout le monde : le disque dur dans la sacoche et la carte associée dans le portefeuille (ou qui reste sur le lieu de travail), ça limite le risque de se faire voler les deux.



(bon bien sûr il y aura des gens qui mettront le disque et la carte dans la même sacoche mais bon… à ce stade on ne peut plus rien pour eux :-p ).

Le 22/04/2015 à 10h 45







brazomyna a écrit :



Pour le reste ,c’est du classique: Wordpress, comme d’autres produits, est malheureusement victime de son succès: quand une techno bien précise se retrouve avec une part de marché significative, elle devient de fait une cible suffisamment intéressante pour les pirates.







C’est tout à fait vrai : plus une plate-forme sera populaire et plus elle intéressera les pirates. Je voudrais cependant apporter une nuance : ça ne veut pas dire pour autant que le nombre d’attaques réussies est proportionnel aux parts de marché.



Deux exemples les montrent.



Nombre de malwares VS parts de marché smartphones

(ça date de 2013 mais qualitativement doit rester valable aujourd’hui)

Android avait 50% de parts de marché, 80% des malwares le ciblaient.

Mais en dehors de cela il n’y a pas de corrélation entre les parts de marché et le nombre de malwares. iOS a des parts de marché bien plus importantes que Symbian, et est pourtant beaucoup moins attaqué.



Taux d’infection de machines sous différentes versions de Windows

Depuis plusieurs années les versions successives de Windows sont de moins en moins vulnérables aux malwares. Est-ce que c’est parce que leurs parts de marché ont diminué ? Non, c’est grâce à une sécurité accrue de ces systèmes d’exploitation. L’amélioration est notable de Windows XP à Windows 8.





Autant je suis d’accord pour dire que plus une plate-forme aura de parts de marché, et plus elle attirera les pirates ; autant il ne faut pas en conclure que les pirates arriveront effectivement à attaquer efficacement ladite plate-forme. Il y a beaucoup d’autres facteurs à prendre en compte : mécanismes de sécurité (droits par défaut des comptes utilisateurs, sandboxes, etc.), rapidité à patcher (et déploiement effectif des patches), et ainsi de suite.


Le 22/04/2015 à 07h 45







frodon18 a écrit :



Sur mon tel elle refuse de se télécharger sans wifi =/ donc je suis bon pour attendre ce soir. tampis je serai plus productif au travail =)







Si tu veux être productif et te faire bien voir de tes collègues : demande à ce qu’une borne WiFi soit installée au boulot <img data-src=" />



(ici on en a une c’est bonheur)


Le 21/04/2015 à 10h 44







HarmattanBlow a écrit :



Ils peuvent encore graver en 3D et passer de N^2 à N^3. ^^



Et puis, bon, à nombre de transistors égal on pourrait déjà avoir des archis beaucoup plus performantes. On finira bien par paralléliser davantage, même s’il faut pour ça des changements côté langages de programmation.



Enfin l’enjeu porte beaucoup sur la mémoire : ses performances, sa densité, son intégration au CPU, etc.







Ah oui tout à fait la question est complexe et multi-factorielle <img data-src=" />



C’est sûr que si on change complètement le design des CPU ça peut changer complètement le rapport performances / (nombre de transistors). Le 32 nm a vu l’historique oxyde de silicium être remplacé par d’autres oxydes de constantes diélectriques plus élevées (notamment l’oxyde d’hafnium) pour les portes des transistors. Techniquement Intel est déjà passé à un modèle de transistors en 3-D avec le 22 nm et Ivy Bridge (2011). Après avoir passé plus de 30 ans sur un modèle MOS classique, il faut aujourd’hui trouver de nouveaux matériaux et redoubler d’ingéniosité pour pouvoir continuer à miniaturiser et respecter la « loi de Moore ».



En l’état actuel des choses, j’ai l’impression qu’elle sera de plus en plus difficile à suivre.


Le 21/04/2015 à 10h 03

Fausse manip, à supprimer désolé.

Le 21/04/2015 à 10h 02

Citons la source originelle : L’article original de Moore.



Moore a effectivement prédit que la densité de transistors doublerait tous les deux ans.



Cela a ensuite été interprété comme « la puissance des processeurs double tous les deux ans ». Si cela a été vrai à une époque, cela n’est plus vrai aujourd’hui, depuis le début des années 2000.



Cet article montre que la loi de Moore est bien toujours respectée (courbe verte), mais niveau performances (courbe violette) la courbe s’est infléchie depuis le début des années 2000 environ. Le plafond des 4 GHz, qui peine à être atteint même par les meilleurs CPUs depuis 10 ans, accentue cette tendance.



Si la « loi de Moore » est toujours respectée c’est parce qu’on est passés d’un paradigme mono-core à un paradigme multi-cores : doubler le nombre de transistors permet de caser deux, quatre, huit cœurs sur la même puce, mais ne permet plus d’augmenter la fréquence. La « performance » d’un cœur individuel n’augmente plus, et l’augmentation des performances dépend donc de la capacité des programmes à tirer parti de plusieurs cœurs en même temps : multi-threading, parallélisation… Malheureusement tous les programmes ne peuvent pas être parallélisés, et même pour ceux qui peuvent l’être la parallélisation est complexe et coûteuse à mettre en œuvre. Par exemple certains jeux peuvent tirer parti de deux, voire quatre cœurs, mais cela va rarement au-delà, et donc la « performance » n’est pas proportionnelle au nombre de cœurs.



Avec la difficulté à descendre en-dessous des 14 nm, Intel aura même sans doute du mal à doubler le nombre de transistors sur ses puces dans les prochains années. La « loi de Moore » est donc condamnée à ne plus pouvoir être suivie -mais ça, Moore le savait déjà à l’époque. Il doit même être étonné que sa prédiction ait tenu aussi longtemps.

Le 20/04/2015 à 09h 16







DownThemAll a écrit :



C’est bien pour lutter contre les fameux profils 0 qui viennent scammer, mais c’est con pour ceux qui veulent juste profiter du free2play comme TF2…







Ben non c’est pas con : ils pourront toujours continuer à jouer à TF2 gratuitement…



Tout ce qui change pour eux, c’est qu’avant ils pouvaient voter pour Greenlight et autres ; désormais ils ne pourront plus. Mais ça ne les oblige pas à payer 5$ pour jouer aux F2P, il ne faut pas lire de travers…


Le 20/04/2015 à 09h 13







maxscript a écrit :



bonne initiative, à quand la même chose sur next inpact ? <img data-src=" />







Ben d’une certaine manière c’est déjà le cas : ceux qui n’ont pas payé un abonnement n’ont pas accès à certaines fonctionnalités avancées de NextINpact : désactivation des trackers, des pubs, articles réservés aux abonnés, etc.


Le 20/04/2015 à 09h 11







Himurai a écrit :



Pas une mauvaise chose franchement.



A par quelques très rares cas de mecs qui ont steam pour jouer à des free-to-play, qui n’a pas au moins 1 jeu à 5$ dessus ?







+1

Même ceux qui jouent seulement à des F2P ne sont pas tellement pénalisés : ils pourront continuer à y jouer sans rien débourser.



C’est juste qu’ils n’auront pas accès à certaines fonctions communautaires de Steam.


Le 20/04/2015 à 09h 10







Jhorblocks a écrit :



N’utilisant pas Steam, on peut avoir combien de jeux pour 5\(?







Tout dépend, il y a plein de jeux indés à quelques Dollars (ou quelques Euros)... Tu peux acheter plusieurs petits jeux, ou bien un seul jeu à 5 \)
. La plupart du temps il suffira d’acheter un jeu pour dépasser ce seuil de 5\(...









Jhorblocks a écrit :



Autre question, c'est pas un moyen détourné pour rendre steam payant? Vu le nombre de gens qui utilisent * 5\)
= tout plein d’argent pour valve







Non, Valve n’oblige personne à payer. Créer un compte Steam reste gratuit. Pour ceux qui ont déjà un compte Steam et qui ont déjà acheté des jeux, ça ne change rien.



C’est juste que si tu crées un compte mais sans acheter aucun jeu, alors tu n’as pas accès à certaines fonctionnalités (voter pour Greenlight, etc.). Ça ne me paraît pas aberrant, et la limite (5$) n’est pas très élevée.


Le 19/04/2015 à 18h 14







Lucretia Valentine a écrit :



Ok, merci :)



Personnellement, j’utilse OOo puis LibreOffice depuis longtemps.



À ce propos, on a des infos sur une meilleur compatibilité avec les formats ODF ?







Officiellement, MS-Office 2013 supporte l’ODF 1.2 : source.


Le 17/04/2015 à 14h 58







TexMex a écrit :



Même pas besoin de troller que tu diverges en une interprétation encore plus loufoque et à charge. La pêche est bien bonne. Merci de relire avec un vécu sinon une historisation (accessible sur le net) sur 20 ans. Une sorte de remise en perspective qui ma foi est plus qu’intéressante quand on se donne la peine de le faire a propos de Linux. Merci.







Ce n’est pas en parlant de la « Big Picture » que tu peux éliminer une fonctionnalité comme étant inutile. Ton propos est quand même un peu grossier : affirmer que le « Live Patching » ne sert à rien parce que le reste du système et services ne sont pas tous pensés de cette manière (par ex. message #64)… Et maintenant tu viens nous sortir le couplet « j’ai plus de recul que tout le monde, moi je vois la globalité »… <img data-src=" />



Ça ne me paraît pas ahurissant de considérer que cette fonctionnalité peut être utile, même si je n’en vois pas forcément l’utilité pour moi, et même si cette fonctionnalité n’a pas été pensée en harmonie avec tout le reste du système. Ce n’est pas une révolution mais ça peut avoir son utilité.









TexMex a écrit :



Malheureusement le Kernel est un peu au centre de tout le système. D’autres exemples existent et l’heure tourne sans que cela avance vraiment sur ce genre de sujet crucial. Donc voila; peut être que de “macro-focusser” aussi serait bon aloi. Chose que je vois de moins en moins dans certains commentaires.







C’est un fait que les différentes couches d’une distribution GNU/Linux n’ont pas les mêmes objectifs : noyau Linux, pilotes, shell, environnement de bureau, distribution… Il n’est donc pas étonnant que tout cela manque de cohérence et d’unité, de « macro focussage » comme tu dis. Au passage, c’est sans doute une des nombreuses raisons pour lesquelles Linux n’a toujours pas percé sur le desktop.



Mais même si c’est un sujet très intéressant à discuter (l’harmonie des systèmes GNU/Linux), ce n’est pas en discutant de ça que tu montreras quoi que ce soit sur la pertinence ou pas du « Live Patching ».



Tu te sers d’arguments extérieurs pour dire « le Live Patching ne change rien, ce n’est pas une révolution ». Sauf que personne n’a dit que c’en était une hein…


Le 17/04/2015 à 10h 35







TexMex a écrit :



La remarque est autant valable pour tous n’est ce pas. C’est pas parce t’as un serveur chez toi que tout le monde en a…



La news présente ça, et c’est la liesse dans l’assistance.

 

Mais bon finalement :

-T’update ton kernel toutes les 5 minutes ? J’en doute.

-Est ce qu’on va changer toutes le solutions dans toutes les structures pour cette raison ? J’en doute.

 

 Donc voila c’est “meugnon”, mais c’est “MicroFocusser”.







Mais évidemment que c’est « Micro-focussé ». Personne n’a jamais dit le contraire.





  • Cette fonctionnalité prétend tout révolutionner et remplacer d’autres solutions existantes ? Non.

  • Cette fonctionnalité prétend être plus importante que les autres problèmes à résoudre ? Non.



    Au final c’est quoi le problème ? D’après toi il ne faut implémenter aucune fonctionnalité, sauf si c’est un truc qui révolutionne tout ? Tu ne peux pas prendre cette fonctionnalité pour ce qu’elle est : UNE PETITE FONCTIONNALITÉ, un truc que certains trouveront pratique, et sans avoir la prétention de changer la vie de tout le monde ?









    TexMex a écrit :



    Je dirai qu’il y a des problèmes nettement plus chiant qui ne sont pas vraiment adressés.



     Le BIG picture.

    Le support très tardif de la part des constructeurs (sur les 15 dernières années) notamment les cartes vidéo mais pas que cela (SMP, OpenCL etc…), l’intégration des pilotes libre pas vraiment à la portée des utilisateurs lambda (avec le fameux, il fallait savoir). On a beau dire Linux sur un PC c’est pas Android. Faut connaitre un minimum. Le problème des cartes mère estampillés ersatz de Palladium (avec un nom changeant a chaque mouture) qui n’aidera pas à la démocratisation. Et il y a bien un moment ou il faudra s’en défaire avec une solution qui ne soit pas un contournement.  Bref… Ca; personne n’en parle vraiment et y’a pas de Roadmap bien claire à ma connaissance.







    Oh y’a d’autres problèmes nettement plus chiants et plus importants. C’est vrai, qu’est-ce qu’on s’en fout de l’intégration des pilotes, alors qu’il y a le problème de la faim dans le monde hein…



    Est-ce que tout le monde ne devrait s’employer qu’à résoudre les problèmes importants ? Est-ce que ça a un putain de rapport avec la fonctionnalité évoquée ici ? Non. C’est juste une diversion parce que tu n’as pas trouvé d’arguments, alors tu pointes autre chose du doigt.



    Les mecs qui ont développé le « Live Patching » (Red Hat, Suse) l’ont fait sans doute parce qu’ils en avaient besoin, EUX. Ils n’ont jamais cherché à vendre ça comme une révolution, ni comme la solution à tous les problèmes de tout le monde. Ils n’ont pas dit non plus que c’était le problème le plus important à résoudre. Alors arrête de leur faire dire ce qu’ils n’ont pas dit. Tes messages ne contiennent aucun argument.



    Encore une fois c’est UNE fonctionnalité, UN patch, ça sera utile à certains, et pas à d’autres. Tu n’arrives pas à comprendre ça, tu veux vraiment qu’on dise tous que c’est inutile ?


Le 17/04/2015 à 08h 33







Asgardcfr a écrit :



Hmm il faudrait faire comme dans les avions avec 3 kernels ?



T’en met un à jour, tu le redémarres, tu checks le machin, t’en met un 2ème à jour, tu gardes le 3ème au cas où ça merde à un moment donner, et c’est lui qui fait office de “safe-mode”



Tout ça pour un full update du kernel hein <img data-src=" />

Est-ce que ça en vaut la peine ? Pfff j’en sais rien moi <img data-src=" />







Tu viens de me faire découvrir un truc.



On peut mettre des gif animés comme avatars sur NXI !! <img data-src=" />


Le 17/04/2015 à 08h 18







Patch a écrit :



va dépanner correctement un WinServer 2003 sans souris (ou terminer l’arrêt de celui qui nécessite de bouger la souris pour ca). et après, on en reparlera.







Nécessaire de bouger la souris pour arrêter un serveur ? <img data-src=" />



Okay là j’avoue qu’on entre dans un domaine que je ne connais pas… <img data-src=" />









geekounet85 a écrit :



si c’est du windows server pré-2013, l’interface graphique n’est pas une option! <img data-src=" />







Avoir une interface graphique sur un serveur ça peut parfois être utile.

Mais interface graphique et souris obligatoires, là il y a des choix que je ne comprends pas. M’enfin je vais vous faire confiance et accepter que ça existe…


Le 17/04/2015 à 08h 04







Patch a écrit :



chez toi, c’est une chose. mais quand au taf tu recois 10 appels en 5 min disant “je ne recois plus de mail” ou “mes données sur le réseau sont inaccessibles” et que tu arrives tout juste à pinger le serveur, tu es bien content d’avoir un accès physique avec tout ce qu’il faut en salle serveur… <img data-src=" />







Certes, mais sauf ton respect tu n’as toujours pas démontré en quoi une souris était indispensable pour dépanner un serveur <img data-src=" />


Le 17/04/2015 à 08h 03







TexMex a écrit :



Évidement avec un serveur qui se bat en duel avec un service sur une 2eme IP… sur la même machine… heu… tout de suite…  ca iNpacte un peu plus.

 

 Dans un vrai DataCenter d’homme quand t’as 100 serveurs (un petit exemple hein) ou plus, en load balancing et schéduling sur un site (le web de jour; les piles de mail foireux, la nuit), tu t’en fous un peu.  On automatise même la chose et cela permet de faire des maintenances de bon aloi, sans trop de planification. Bien fait; personne ne voit strictement rien.



C’est juste pas une révolution, ce truc. Et cela ne permettra pas d’économiser sur les couts.







J’ai du mal à accepter l’argumentation qui consiste à prendre UN exemple pour en faire une généralité.



« Sur le forum de NXI on a de la redondance, donc cette fonctionnalité est inutile ? »

« Dans un data center il y a du load balancing, donc ça ne révolutionne rien ce truc. »



Oui, quand on veut limiter le downtime il y a d’autres solutions.

Non, ça ne veut pas dire que le « Live Patching » ne sert à rien… Ce n’est pas parce que VOUS, vous n’arrivez pas à imaginer à quoi ça peut servir, que c’est forcément inutile… <img data-src=" />


Le 16/04/2015 à 21h 58







Patch a écrit :



quand tu n’arrives plus à les attaquer à distance, tu fais quoi? tu pries Dieu en espérant que ca revienne tout seul?







À titre perso depuis que j’ai mon serveur @home (en 2007) il n’a ni écran, ni clavier ni souris. Les 2 ou 3 rares fois où il merdait grave (pannes matérielles) je lui ai mis un écran et un clavier pour dépanner / ré-installer.



Mais jamais de souris <img data-src=" />



Mais bon je ne suis pas admin système, il y a donc peut-être des techniques que je ne connais pas !


Le 16/04/2015 à 21h 19







zefling a écrit :



Ce mot n’est pas compatible avec serveur ? En même temps, au taf il n’y a que de serveur Windows, et franchement, j’ai encore vu personne les attaquer en ligne de commandes (pour ceux qui gèrent ça, moi je touche pas à ça et j’en suis bien content <img data-src=" />).







Ah les serveurs backend sont aussi des frontend ? Intéressant comme concept <img data-src=" />


Le 16/04/2015 à 17h 27







Hexawolf a écrit :



Et on veut nous faire croire que linux s’installe partout. Tssssk…







Partout non, mais Linux est de loin le noyau qui supporte le plus d’architectures différentes : exemple de liste. La petite blague consiste donc à dire que ça s’installe “partout” même sur un grille-pain (ou une patate), mais bien sûr ce n’est pas à prendre au pied de la lettre.









46 75 63 6b 20 6f 66 66 a écrit :



Ça s’installe bien sur une patate.

Après ça, toute autre installation c’est du gateau.







“Number of Linux Distributions Surpasses Number of Users”



<img data-src=" />


Le 16/04/2015 à 15h 10







TexMex a écrit :



1 dégat matériel. Un serveur pizza box c’est en gros 2 ans max. C’est plus a cause des controlleur SCSI (wide) qui crament que le reste. Les solution a base de SSD étant plus cher et accessoirement avec une certaine fragilité (le SSD) bin ca se démocratise pas tant que cela.







Ce genre de fonctionnalité n’a pas la prétention d’éviter les dégâts matériels, d’ailleurs aucune solution software ne peut se prémunir d’une défaillance hardware. C’est donc complètement hors de propos.









TexMex a écrit :



2 C’est pas parce que le Kernel peut être remplacé a la volé, que par miracle  :

-Les services ne doivent plus être redémaré (imposant un downtime quand meme).









  1. Rebooter entièrement la machine prend plus de temps que de redémarrer juste le service qui en a besoin. Le but n’est pas d’atteindre un downtime de zéro, mais de le réduire.



  2. Quand on redémarre un service on n’interrompt que lui. Ne pas redémarrer la machine, ça évite d’avoir un downtime sur les autres services. Un serveur, ça ne sert pas qu’un seul service en général, mais plusieurs.









    TexMex a écrit :



    -les programmes n’auront pas de bug ou de faille de sécurité.







    Là encore cette fonctionnalité n’a rien à voir avec la prévention de bugs ou de failles, donc c’est hors-sujet.


Le 16/04/2015 à 14h 47







Dr.Wily a écrit :



On trouve également des améliorations notables du côté des pilotes graphiques et la gestion des DRM. Pour les Radeon par exemple, l’audio est maintenant supporté sur la connexion DisplayPort et la prise en charge du contrôle du ventilateur est maintenant plus fine.



C’est fou quand même, ça fait des plombes que ces choses sont dispo chez les OS de M$ comment ça se fait ? (ma question ne porte pas sur les DRM bien sur <img data-src=" /> )







Les utilisateurs de Radeon ont le choix entre le pilote propriétaire d’AMD/ATi (Catalyst) et le pilote Open Source.



Exemple sur Ubuntu : pilote propriétaire / pilote Open Source.



Dans le noyau Linux c’est bien sûr le pilote Open Source qui est intégré, et il n’a pas les mêmes fonctionnalités que le pilote propriétaire. Les « améliorations » évoquées ici concernent bien sûr ce pilote Open Source (par rapport à ses versions antérieures), et non la version propriétaire.



Pour nVidia c’est similaire, il existe le pilote propriétaire de nVidia, et un pilote Open Source (nouveau).



Sous Windows la question ne se pose pas puisqu’en général seul le pilote propriétaire est proposé.


Le 16/04/2015 à 14h 32







46 75 63 6b 20 6f 66 66 a écrit :



Version 4.0 déjà en utilisation ici. Ça tourne sans aucuns soucis.

J’essayerais le «live patching» à l’occasion sur le serveur quand je l’aurais aussi fait passé à cette version du kernel.







Euh, peut-être tester sur une machine moins critique avant de tester sur le serveur ?

Je dis ça je dis rien <img data-src=" />


Le 16/04/2015 à 12h 41







kras a écrit :



Linux linux… ah oui je me souviens…







Cherche pas ça ne s’installera pas sur ton Amstrad CPC <img data-src=" />


Le 16/04/2015 à 12h 26

Miam bonnes nouvelles ! Hâte de tester cette version sur mon serveur@home.









Edtech a écrit :



Le serveur du forum est redémarré environ deux fois par semaine et personne ne s’en rend compte. C’est vraiment utile comme techno avec tous les systèmes de cache tiers (foursquare par exemple) et cloud actuels ?







Hum, tu présentes un cas particulier où ce genre de fonctionnalité n’est pas forcément utile (le forum NXI qui a une redondance), et ensuite tu demandes si ce genre de technologie est vraiment utile d’une manière générale.



Personne n’a prétendu que ce genre de techno était toujours utile à tout le monde. Mais elle est utile pour certains usages. Red Hat et Suse ne l’ont pas développée pour la beauté du geste…


Le 17/04/2015 à 09h 32



Faire droit à la demande VLC, conduirait à :




  1. distribuer sans licence, des contenus protégés par la propriété intellectuelle

  2. entrainer la circulation de clés AACS non protégées

  3. n’assurer aucune protection contre l’interception du contenu en train d’être lu par le lecteur

  4. permettre d’exporter le contenu via les sorties numériques non protégées de l’ordinateur (vers un home cinéma par exemple)





    Tout cela existe déjà, malgré la blinde de DRM et protections qu’ils mettent partout.



    Du coup, faire droit à la demande VLC aurait changé… rien du tout.

Le 16/04/2015 à 21h 54







kervern a écrit :



tu pouvais pas te connecter en wifi vu que personne ne connais la clef wep ou wpa..







Je parlais de cas où je suis chez des amis, et où ils m’ont donné la clé WiFi pour me connecter à leur Livebox. La plupart du temps ils n’avaient pas changé leur mot de passe (admin), donc c’était la fête.



Ce que je ne savais pas, c’est qu’en plus en allant sur orange.fr je me serais retrouvé connecté à leur compte. Il faudra que j’essaye la prochaine fois <img data-src=" />









kervern a écrit :



le truc c’est que les pirates tester testaient les ip orange et ce se connecter connectaient aux box sachant le login/mdp été était admin/admin ils modifier modifiaient les dns de la box pour la redirigé rediriger sur un faux server DNS qui rediriger redirigeait le amazons.fr, grosbil et autres vers de faux sites et récupéré récupéraient les numeros de CB !







Tain les fautes, fais un effort stp ça pique… <img data-src=" />


Le 16/04/2015 à 16h 12







TBirdTheYuri a écrit :



Par contre, côté sécurité leur site web c’est toujours de la merde : file ta clé Wifi à un ami pour qu’il se connecte, s’il va sur le site d’Orange il se retrouve connecté directement à ton compte, sans login ni mot de passe, et a accès aux options, aux factures, aux contacts, aux mails…







Sérieux ? <img data-src=" />



C’est énorme ça quand même <img data-src=" />


Le 16/04/2015 à 14h 50

Dommage c’était rigolo de se connecter en WiFi chez les gens et de changer leur config <img data-src=" />

Le 16/04/2015 à 17h 50

Sacrée performance, on se prend à rêver de vacances dans l’espace…

Le 15/04/2015 à 23h 12







Schumi a écrit :



Ah tu peux faire “tourner” AHCI et NVMe en parallèle ?

J’avais compris que c’était soit l’un soit l’autre d’où mon interrogation.

Dans ce cas là alors pas de souci et c’est tout bénéf







Ben de ce que j’ai compris NVMe est rattaché aux ports PCI-Express, donc a priori ne vise pas à remplacer le SATA mais peut le compléter…



Mais quelqu’un qui s’y connaît me corrigera peut-être…


Le 15/04/2015 à 20h 51







Schumi a écrit :



C’est pas pour les débits c’est pour le fait que les DD ou les graveurs DVD-BR ne sont pas compatibles avec le NVMe







Je ne pense pas que le but du NVMe soit de tuer le SATA.



Aujourd’hui c’est déjà très appréciable de combiner un SSD (même en SATA : très rapide, idéal pour y installer l’OS) et un disque dur (aussi en SATA : moins rapide, mais beaucoup plus de stockage, idéal pour les documents/données).



Le but est de permettre d’avoir des débits encore plus importants avec les SSD (avec le NVMe, donc OS encore plus réactif), tout en ayant un HDD à côté pour le stockage des données (toujours en SATA). Les deux ports peuvent très bien cohabiter sur la carte mère, l’un n’empêche pas l’autre.


Le 15/04/2015 à 18h 49

2,26 Go/s, de quoi charger l’OS dans la RAM en moins d’une seconde <img data-src=" />

Le 15/04/2015 à 14h 09

Youhouuu ma ville est dans la liste <img data-src=" />



Le jour où la fibre sera dispo chez moi je signerai tout de suite !

Le 15/04/2015 à 11h 56

Au passage voici une nouvelle photo de Charon, qui date d’hier !











…Désolé <img data-src=" />

Le 15/04/2015 à 07h 54







JR_Ewing a écrit :



J’ai rien contre toi personnellement. Je dis juste qu’à chaque fois que j’ai utilisé ton site avec des PC différents j’ai jamais eu des résultats probants: soit ça trouve pas le matos, soit ça donne plusieurs résultats différents et on sait pas quoi prendre, et dans mon commentaire qui a été supprimé je disais cela et que tu ferais mieux de t’occuper de ton site plutôt que de trainer sur HFR à longueur de journées.







Ce n’est pas pour mettre mon grain de sel, mais un peu quand même <img data-src=" />

Face à un logiciel/service qui fonctionne mal je considère qu’il y a deux options viables :





  1. ne pas l’utiliser, l’ignorer et passer son chemin ;

  2. l’utiliser et faire des remontées de bugs aux développeurs.



    Râler sur NextINpact dans tous les cas ça ne me paraît pas très productif : ça ne t’apporte rien si tu n’utilises pas ledit logiciel, et ça ne résoudra pas les bugs si tu l’utilises <img data-src=" />



    Just my two cents <img data-src=" />


Le 13/04/2015 à 17h 37







gokudomatic a écrit :



compatibilité linux?







C’est vrai qu’une intégration complète de Ma-Config sous Linux pourrait être bien utile, même si à mon humble avis la principale source de problèmes de pilotes sous Linux vient des constructeurs. Typiquement quand un constructeur ne fournit aucun pilote Linux pour son matériel… ou alors un pilote fermé qui demande trouzemille manipulations et s’installe n’importe comment.



C’est malheureux mais pour l’instant il faut encore vérifier si le pilote existe avant de choisir son matériel (exemple niveau imprimantes il vaut mieux éviter Canon, mauvaise expérience perso…).


Le 14/04/2015 à 13h 52







0xCyril a écrit :



Il est où le soucis tant que la récolte et première sélection, de masse, est faite par un logiciel uniquement ?







Il est où le souci ? Euh, par où commencer…





  1. Peu importe que ce soit un humain ou une machine, le fait est que notre vie privée n’a pas à être violée sans raison valable encadrée par la Loi.



  2. Comment est-on sûr que c’est fait par un logiciel uniquement ? Qui conçoit et surveille le logiciel ?



  3. La mise sur écoute est en principe très encadré, et doit faire l’objet d’une autorisation judiciaire. Mettre tout le monde sur écoute à toute heure sans aucune raison, ça sort complètement du cadre prévu par la loi.











    0xCyril a écrit :



    Les données vues par un Humain seront celles d’individus ayant eu des actions louches décelées par ce logiciel.







    Faux. Il est avéré que les agents de la NSA s’envoient des fichiers pour se marrer, et ça n’a rien à voir avec la détection d’activités louches. Il est aussi avéré que ces moyens de surveillance ont été employés pour accéder et surveiller les emails de journalistes, qui ne sont pourtant pas du tout terroristes…



    Il est donc faux de dire que seules des “données louches” seraient vues par ces agents, c’est archi-faux.









    0xCyril a écrit :



    De plus pour les gens se sera invisible, donc c’est comme si c’était inexistant !







    Ah donc si quelqu’un viole ta vie privée, copie et analyse tes informations personnelles, ouvre tes emails, tes photos… ce n’est pas grave à partir du moment où tu ne t’en rends pas compte ? Si c’est ton cas tant mieux pour toi, mais ce n’est sûrement pas le cas de tout le monde, et encore une fois la Loi est censée protéger notre vie privée. Que l’on s’en rende compte ou non, c’est complètement hors de propos.


Le 14/04/2015 à 10h 41

Ça me rappelle les débuts de PGP, quand des gus dans leurs garages (à commencer par Phil Zimmermann) ont développé et partagé des outils libres de chiffrement basés sur RSA. C’était l’arrivée du chiffrement pour tous, et les USA l’ont d’abord considéré comme… un outil de niveau militaire auquel le public ne devait pas avoir accès, et interdit à l’exportation. S’en sont suivies des poursuites judiciaires et autres joyeusetés…



Il a fallu attendre la fin des années 1990, et 2002 en France, pour que ces outils de chiffrement deviennent légaux. Les particuliers ont donc tout à fait le droit aujourd’hui de chiffrer leurs données avec un niveau militaire, 2048 bits voire supérieur.



Il semble que maintenant, les autorités regrettent cela et veuillent revenir en arrière… Ils ne peuvent plus interdire le chiffrement, donc ils cherchent à avoir accès aux clés… Pour rappel :



Déclaration Universelle des Droits de l’Homme

Article 12

Nul ne sera l’objet d’immixtions arbitraires dans sa vie privée, sa famille, son domicile ou sa correspondance, ni d’atteintes à son honneur et à sa réputation. Toute personne a droit à la protection de la loi contre de telles immixtions ou de telles atteintes.





Clairement, en exigeant d’accéder aux données personnelles (chiffrées ou non) des individus, nos États modernes violent ce droit à la vie privée, qui est pourtant censée être garantie et protégée par la DUDH, la Constitution, et par de nombreuses Lois…

Le 13/04/2015 à 11h 08







gokudomatic a écrit :



7 parce que le monde a été fait en 7 jours, c’est ça?







Parce que le chiffre 7 est mythique.


Le 10/04/2015 à 09h 14







levhieu a écrit :



et surtout, bientôt 1h passée et personne n’a rectifié l’inversion de 2 caractères dans sa commande…







dd if=truc.ISO of=/dev/sdb bs=4096



<img data-src=" />


Le 10/04/2015 à 08h 18







Commentaire_supprime a écrit :



Témoignage de l’amateur que je suis : sur mon poste desktop, plus ça va, plus je fais des tâches d’administration en ligne de commande alors que je pourrais avoir une IGU, quand je ne l’ai pas déjà, pour faire le boulot.



La raison ? Je trouve plus facile de me rappeler d’une syntaxe de commande plutôt que de l’emplacement de la commande correspondante dans l’outil graphique. Commande que je peux noter dans un fichier texte et activer par copier/coller si j’ai vraiment du mal à me rappeler de sa syntaxe exacte.



EXemple : dd=if truc.ISO of=/dev/sdb bs=4096, je trouve ça plus facile d’emploi qu’Unetbootin pour faire une clef USB bootable. Et plus facile à retenir, la preuve, je viens de le rédiger ici de mémoire, sans aucune référence extérieure.







Tu dis ça pour te la péter <img data-src=" />



<img data-src=" />