Oui bin les appareils de ce type sont rarement ouverts, à moins d’avoir un appareil dont le constructeurs permet les mise à jours, c’est mal parti. Et comme ce n’est pas la fonction première de ces produits personne ne verra cela comme de “l’obsolescence programmée”.
Après je dis pas qu’il ne peut pas y avoir de dérives, avec les appareil qui sont de plus en plus dépendants d’internet.
Exemple : le plug-in Youtube pour Kodi est Open Source. Les utilisateurs de Kodi n’ont donc pas eu de problème, l’API v3 de Youtube est supportée.
Je rejoins donc ceux qui disaient qu’au lieu d’acheter une TV super chère qui ne sera sans doute plus supportée dans 3 ans, il vaut mieux privilégier des solutions ouvertes et Open Source. Il y a davantage de chances que ça soit supporté plusieurs années.
Le
23/04/2015 à
08h
15
Gritou a écrit :
Oui, alors, tu sais, j’ai encore un pc sous Windows 95 qui tourne, dire que ça fonctionne encore grace aux logiciels libre ne rime à rien.
Je pense qu’il voulait dire que certains PC fonctionnent encore grâce à des logiciels libres à jour " />
Windows 95 n’est plus mis à jour depuis longtemps = il est à la ramasse niveau fonctionnalités et niveau sécurité…
Le
23/04/2015 à
08h
03
after_burner a écrit :
Dans le cas présent ça aurait changer quoi si l’API V2 de yt avait été libre? Si Google décide de ne plus l’utiliser le fait quelle soit libre n’aurait rien changé étant donné que c’est un service, de plus le contenu vidéo n’est pas libre et est sur les serveurs de Google donc même en laissant la V2 en d’autre mains, ça aurait été un belle coquille vide.
On peut toujours se dire que c’est mieux que rien mais en pratique je doute que ça fasse une grande différence. Il y a aussi le cas du matériel non mis à jour.
Après si la demande c’est d’avoir aussi du contenu et du matériel libre, là je crois que tu rêves totalement…
Non je pense que son argument n’était pas de dire que l’API Youtube devait être libre, ce qui d’ailleurs ne veut rien dire. Une API doit être ouverte, et celle de Youtube est bel et bien ouverte (voir ici).
Le problème porte surtout sur les appareils (smart TV…) anciens, qui ont été conçus autour de l’API v2 de Youtube, et qui sont incompatibles avec la version 3. Si les firmwares/OS de ces appareils avaient été libres il aurait été possible de concevoir un patch et de l’installer, pour les rendre compatibles avec l’API v3.
Mais comme ces appareils sont fermés, ils sont condamnés à rester incompatibles avec la v3 de Youtube. Comme Google vient de décider que l’API v2 ne serait plus disponible, tous ces appareils perdent donc leur fonctionnalité Youtube.
Le
22/04/2015 à
18h
16
ledufakademy a écrit :
Open source.
Vous comprendrez un jour, peut être …
En attendant inutile de palabrer des heures, dossier clos par … big brother.(DTC Inside)
Mais non j’ai payé, donc ces entreprises veulent forcément mon bien… Non ? Ah ?… " />
Ceci dit on a trouvé le stockage sur ADN, on ne sait pas vraiment encore l’exploiter mais ça pourrait le faire pour tes données personnelles ou professionnelles.
C’est carrément démentiel comme stockage, d’une capacité phénoméale !
Et après tes données évoluent, se reproduisent et meurent ? Ça pourrait être rigolo " />
Le
22/04/2015 à
22h
44
Ricard a écrit :
Nan mais ça va très bien, merci. Je confirme. C’est pas soumis à débat je te rassure.
Bufalo est une boite américaine qui te fournis une carte (copiée par la NSA) pour un DD chiffré… Point. On ne parle pas de sécurité dans ce cas là, mme Michu y compris.
Ben si c’est une « sécurité » vis-à-vis du voisin ou du pic-pocket qui volerait le disque : il ne peut pas lire les données car elles sont chiffrées.
Mais on est d’accord : vis-à-vis de la NSA ça ne protège rien du tout, mais j’ai envie de dire que ce n’est pas le but de ce disque. C’est comme Google ou Facebook qui utilisent des connexions chiffrées : ce n’est pas pour protéger de la NSA, mais pour protéger contre des tiers qui intercepteraient les données, ils ne pourraient rien en faire car les données sont chiffrées.
Le
22/04/2015 à
21h
40
Ricard a écrit :
Ben, Buffalo, c’est une boite américaine, donc un supermarché pour la NSA. Tout est dit, il n’y a même pas à discuter." />
Perso je n’utiliserai pas ce genre de disque car je n’ai pas confiance non plus.
Après, pour Mme Michu qui met ses données chez Facebook, Google et compagnie, ça ne la gênera sûrement pas d’utiliser ce genre de disque…
Le
22/04/2015 à
20h
11
Ricard a écrit :
Non merci, sans moi. Sécurité zéro. " />
choukky a écrit :
Juste un gadget pour les feignasses qui ne veulent pas retenir/taper un mot de passe.
La carte à puce nfc et du même acabit qu’un bout de bristol sur lequel est écrit le mot de passe. Une fois passé entre de mauvaises mains, c’est la banqueroute assurée.
Un bon password ne se donne pas et ne s’écrit pas, on dispose de suffisamment de neurones pour çà, où pas …
La sécurité en informatique c’est comme dans la vraie vie : il y a différents niveaux.
Dans un supermarché il y a des vigiles, ça dissuade les petits voleurs à la sauvette. Mais ils ne sont pas armés donc s’il y a un braquage à mains armées ils ne pourront rien faire.
Devant Charlie Hebdo il y avait 2 policiers, ça dissuade des petites attaques genre tag, entarteur ou agression à l’arme blanche. Mais face à des kalachnikov ils n’ont pas fait le poids…
Là c’est pareil : ce système de chiffrement avec une carte n’est clairement pas le top du top, et n’intéressera pas les entreprises sérieuses qui tiennent à leurs données. Mais pour Mme Michu qui a peur que des étrangers n’aient accès à ses photos de famille, ça fera bien l’affaire, c’est simple à utiliser et c’est pas cher…
Le
22/04/2015 à
18h
08
Intéressant comme concept ! Ça a le mérite de simplifier le chiffrement des données pour tout le monde : le disque dur dans la sacoche et la carte associée dans le portefeuille (ou qui reste sur le lieu de travail), ça limite le risque de se faire voler les deux.
(bon bien sûr il y aura des gens qui mettront le disque et la carte dans la même sacoche mais bon… à ce stade on ne peut plus rien pour eux :-p ).
Pour le reste ,c’est du classique: Wordpress, comme d’autres produits, est malheureusement victime de son succès: quand une techno bien précise se retrouve avec une part de marché significative, elle devient de fait une cible suffisamment intéressante pour les pirates.
C’est tout à fait vrai : plus une plate-forme sera populaire et plus elle intéressera les pirates. Je voudrais cependant apporter une nuance : ça ne veut pas dire pour autant que le nombre d’attaques réussies est proportionnel aux parts de marché.
(ça date de 2013 mais qualitativement doit rester valable aujourd’hui)
Android avait 50% de parts de marché, 80% des malwares le ciblaient.
Mais en dehors de cela il n’y a pas de corrélation entre les parts de marché et le nombre de malwares. iOS a des parts de marché bien plus importantes que Symbian, et est pourtant beaucoup moins attaqué.
Depuis plusieurs années les versions successives de Windows sont de moins en moins vulnérables aux malwares. Est-ce que c’est parce que leurs parts de marché ont diminué ? Non, c’est grâce à une sécurité accrue de ces systèmes d’exploitation. L’amélioration est notable de Windows XP à Windows 8.
Autant je suis d’accord pour dire que plus une plate-forme aura de parts de marché, et plus elle attirera les pirates ; autant il ne faut pas en conclure que les pirates arriveront effectivement à attaquer efficacement ladite plate-forme. Il y a beaucoup d’autres facteurs à prendre en compte : mécanismes de sécurité (droits par défaut des comptes utilisateurs, sandboxes, etc.), rapidité à patcher (et déploiement effectif des patches), et ainsi de suite.
Ils peuvent encore graver en 3D et passer de N^2 à N^3. ^^
Et puis, bon, à nombre de transistors égal on pourrait déjà avoir des archis beaucoup plus performantes. On finira bien par paralléliser davantage, même s’il faut pour ça des changements côté langages de programmation.
Enfin l’enjeu porte beaucoup sur la mémoire : ses performances, sa densité, son intégration au CPU, etc.
Ah oui tout à fait la question est complexe et multi-factorielle " />
C’est sûr que si on change complètement le design des CPU ça peut changer complètement le rapport performances / (nombre de transistors). Le 32 nm a vu l’historique oxyde de silicium être remplacé par d’autres oxydes de constantes diélectriques plus élevées (notamment l’oxyde d’hafnium) pour les portes des transistors. Techniquement Intel est déjà passé à un modèle de transistors en 3-D avec le 22 nm et Ivy Bridge (2011). Après avoir passé plus de 30 ans sur un modèle MOS classique, il faut aujourd’hui trouver de nouveaux matériaux et redoubler d’ingéniosité pour pouvoir continuer à miniaturiser et respecter la « loi de Moore ».
En l’état actuel des choses, j’ai l’impression qu’elle sera de plus en plus difficile à suivre.
Moore a effectivement prédit que la densité de transistors doublerait tous les deux ans.
Cela a ensuite été interprété comme « la puissance des processeurs double tous les deux ans ». Si cela a été vrai à une époque, cela n’est plus vrai aujourd’hui, depuis le début des années 2000.
Cet article montre que la loi de Moore est bien toujours respectée (courbe verte), mais niveau performances (courbe violette) la courbe s’est infléchie depuis le début des années 2000 environ. Le plafond des 4 GHz, qui peine à être atteint même par les meilleurs CPUs depuis 10 ans, accentue cette tendance.
Si la « loi de Moore » est toujours respectée c’est parce qu’on est passés d’un paradigme mono-core à un paradigme multi-cores : doubler le nombre de transistors permet de caser deux, quatre, huit cœurs sur la même puce, mais ne permet plus d’augmenter la fréquence. La « performance » d’un cœur individuel n’augmente plus, et l’augmentation des performances dépend donc de la capacité des programmes à tirer parti de plusieurs cœurs en même temps : multi-threading, parallélisation… Malheureusement tous les programmes ne peuvent pas être parallélisés, et même pour ceux qui peuvent l’être la parallélisation est complexe et coûteuse à mettre en œuvre. Par exemple certains jeux peuvent tirer parti de deux, voire quatre cœurs, mais cela va rarement au-delà, et donc la « performance » n’est pas proportionnelle au nombre de cœurs.
Avec la difficulté à descendre en-dessous des 14 nm, Intel aura même sans doute du mal à doubler le nombre de transistors sur ses puces dans les prochains années. La « loi de Moore » est donc condamnée à ne plus pouvoir être suivie -mais ça, Moore le savait déjà à l’époque. Il doit même être étonné que sa prédiction ait tenu aussi longtemps.
C’est bien pour lutter contre les fameux profils 0 qui viennent scammer, mais c’est con pour ceux qui veulent juste profiter du free2play comme TF2…
Ben non c’est pas con : ils pourront toujours continuer à jouer à TF2 gratuitement…
Tout ce qui change pour eux, c’est qu’avant ils pouvaient voter pour Greenlight et autres ; désormais ils ne pourront plus. Mais ça ne les oblige pas à payer 5$ pour jouer aux F2P, il ne faut pas lire de travers…
Le
20/04/2015 à
09h
13
maxscript a écrit :
bonne initiative, à quand la même chose sur next inpact ? " />
Ben d’une certaine manière c’est déjà le cas : ceux qui n’ont pas payé un abonnement n’ont pas accès à certaines fonctionnalités avancées de NextINpact : désactivation des trackers, des pubs, articles réservés aux abonnés, etc.
Le
20/04/2015 à
09h
11
Himurai a écrit :
Pas une mauvaise chose franchement.
A par quelques très rares cas de mecs qui ont steam pour jouer à des free-to-play, qui n’a pas au moins 1 jeu à 5$ dessus ?
+1
Même ceux qui jouent seulement à des F2P ne sont pas tellement pénalisés : ils pourront continuer à y jouer sans rien débourser.
C’est juste qu’ils n’auront pas accès à certaines fonctions communautaires de Steam.
Le
20/04/2015 à
09h
10
Jhorblocks a écrit :
N’utilisant pas Steam, on peut avoir combien de jeux pour 5\(?
Tout dépend, il y a plein de jeux indés à quelques Dollars (ou quelques Euros)... Tu peux acheter plusieurs petits jeux, ou bien un seul jeu à 5 \). La plupart du temps il suffira d’acheter un jeu pour dépasser ce seuil de 5\(...
Jhorblocks a écrit :
Autre question, c'est pas un moyen détourné pour rendre steam payant? Vu le nombre de gens qui utilisent * 5\) = tout plein d’argent pour valve
Non, Valve n’oblige personne à payer. Créer un compte Steam reste gratuit. Pour ceux qui ont déjà un compte Steam et qui ont déjà acheté des jeux, ça ne change rien.
C’est juste que si tu crées un compte mais sans acheter aucun jeu, alors tu n’as pas accès à certaines fonctionnalités (voter pour Greenlight, etc.). Ça ne me paraît pas aberrant, et la limite (5$) n’est pas très élevée.
Même pas besoin de troller que tu diverges en une interprétation encore plus loufoque et à charge. La pêche est bien bonne. Merci de relire avec un vécu sinon une historisation (accessible sur le net) sur 20 ans. Une sorte de remise en perspective qui ma foi est plus qu’intéressante quand on se donne la peine de le faire a propos de Linux. Merci.
Ce n’est pas en parlant de la « Big Picture » que tu peux éliminer une fonctionnalité comme étant inutile. Ton propos est quand même un peu grossier : affirmer que le « Live Patching » ne sert à rien parce que le reste du système et services ne sont pas tous pensés de cette manière (par ex. message #64)… Et maintenant tu viens nous sortir le couplet « j’ai plus de recul que tout le monde, moi je vois la globalité »… " />
Ça ne me paraît pas ahurissant de considérer que cette fonctionnalité peut être utile, même si je n’en vois pas forcément l’utilité pour moi, et même si cette fonctionnalité n’a pas été pensée en harmonie avec tout le reste du système. Ce n’est pas une révolution mais ça peut avoir son utilité.
TexMex a écrit :
Malheureusement le Kernel est un peu au centre de tout le système. D’autres exemples existent et l’heure tourne sans que cela avance vraiment sur ce genre de sujet crucial. Donc voila; peut être que de “macro-focusser” aussi serait bon aloi. Chose que je vois de moins en moins dans certains commentaires.
C’est un fait que les différentes couches d’une distribution GNU/Linux n’ont pas les mêmes objectifs : noyau Linux, pilotes, shell, environnement de bureau, distribution… Il n’est donc pas étonnant que tout cela manque de cohérence et d’unité, de « macro focussage » comme tu dis. Au passage, c’est sans doute une des nombreuses raisons pour lesquelles Linux n’a toujours pas percé sur le desktop.
Mais même si c’est un sujet très intéressant à discuter (l’harmonie des systèmes GNU/Linux), ce n’est pas en discutant de ça que tu montreras quoi que ce soit sur la pertinence ou pas du « Live Patching ».
Tu te sers d’arguments extérieurs pour dire « le Live Patching ne change rien, ce n’est pas une révolution ». Sauf que personne n’a dit que c’en était une hein…
Le
17/04/2015 à
10h
35
TexMex a écrit :
La remarque est autant valable pour tous n’est ce pas. C’est pas parce t’as un serveur chez toi que tout le monde en a…
La news présente ça, et c’est la liesse dans l’assistance.
Mais bon finalement :
-T’update ton kernel toutes les 5 minutes ? J’en doute.
-Est ce qu’on va changer toutes le solutions dans toutes les structures pour cette raison ? J’en doute.
Donc voila c’est “meugnon”, mais c’est “MicroFocusser”.
Mais évidemment que c’est « Micro-focussé ». Personne n’a jamais dit le contraire.
Cette fonctionnalité prétend tout révolutionner et remplacer d’autres solutions existantes ? Non.
Cette fonctionnalité prétend être plus importante que les autres problèmes à résoudre ? Non.
Au final c’est quoi le problème ? D’après toi il ne faut implémenter aucune fonctionnalité, sauf si c’est un truc qui révolutionne tout ? Tu ne peux pas prendre cette fonctionnalité pour ce qu’elle est : UNE PETITE FONCTIONNALITÉ, un truc que certains trouveront pratique, et sans avoir la prétention de changer la vie de tout le monde ?
TexMex a écrit :
Je dirai qu’il y a des problèmes nettement plus chiant qui ne sont pas vraiment adressés.
Le BIG picture.
Le support très tardif de la part des constructeurs (sur les 15 dernières années) notamment les cartes vidéo mais pas que cela (SMP, OpenCL etc…), l’intégration des pilotes libre pas vraiment à la portée des utilisateurs lambda (avec le fameux, il fallait savoir). On a beau dire Linux sur un PC c’est pas Android. Faut connaitre un minimum. Le problème des cartes mère estampillés ersatz de Palladium (avec un nom changeant a chaque mouture) qui n’aidera pas à la démocratisation. Et il y a bien un moment ou il faudra s’en défaire avec une solution qui ne soit pas un contournement. Bref… Ca; personne n’en parle vraiment et y’a pas de Roadmap bien claire à ma connaissance.
Oh y’a d’autres problèmes nettement plus chiants et plus importants. C’est vrai, qu’est-ce qu’on s’en fout de l’intégration des pilotes, alors qu’il y a le problème de la faim dans le monde hein…
Est-ce que tout le monde ne devrait s’employer qu’à résoudre les problèmes importants ? Est-ce que ça a un putain de rapport avec la fonctionnalité évoquée ici ? Non. C’est juste une diversion parce que tu n’as pas trouvé d’arguments, alors tu pointes autre chose du doigt.
Les mecs qui ont développé le « Live Patching » (Red Hat, Suse) l’ont fait sans doute parce qu’ils en avaient besoin, EUX. Ils n’ont jamais cherché à vendre ça comme une révolution, ni comme la solution à tous les problèmes de tout le monde. Ils n’ont pas dit non plus que c’était le problème le plus important à résoudre. Alors arrête de leur faire dire ce qu’ils n’ont pas dit. Tes messages ne contiennent aucun argument.
Encore une fois c’est UNE fonctionnalité, UN patch, ça sera utile à certains, et pas à d’autres. Tu n’arrives pas à comprendre ça, tu veux vraiment qu’on dise tous que c’est inutile ?
Le
17/04/2015 à
08h
33
Asgardcfr a écrit :
Hmm il faudrait faire comme dans les avions avec 3 kernels ?
T’en met un à jour, tu le redémarres, tu checks le machin, t’en met un 2ème à jour, tu gardes le 3ème au cas où ça merde à un moment donner, et c’est lui qui fait office de “safe-mode”
Tout ça pour un full update du kernel hein " />
Est-ce que ça en vaut la peine ? Pfff j’en sais rien moi " />
Tu viens de me faire découvrir un truc.
On peut mettre des gif animés comme avatars sur NXI !! " />
Le
17/04/2015 à
08h
18
Patch a écrit :
va dépanner correctement un WinServer 2003 sans souris (ou terminer l’arrêt de celui qui nécessite de bouger la souris pour ca). et après, on en reparlera.
Nécessaire de bouger la souris pour arrêter un serveur ? " />
Okay là j’avoue qu’on entre dans un domaine que je ne connais pas… " />
geekounet85 a écrit :
si c’est du windows server pré-2013, l’interface graphique n’est pas une option! " />
Avoir une interface graphique sur un serveur ça peut parfois être utile.
Mais interface graphique et souris obligatoires, là il y a des choix que je ne comprends pas. M’enfin je vais vous faire confiance et accepter que ça existe…
Le
17/04/2015 à
08h
04
Patch a écrit :
chez toi, c’est une chose. mais quand au taf tu recois 10 appels en 5 min disant “je ne recois plus de mail” ou “mes données sur le réseau sont inaccessibles” et que tu arrives tout juste à pinger le serveur, tu es bien content d’avoir un accès physique avec tout ce qu’il faut en salle serveur… " />
Certes, mais sauf ton respect tu n’as toujours pas démontré en quoi une souris était indispensable pour dépanner un serveur " />
Le
17/04/2015 à
08h
03
TexMex a écrit :
Évidement avec un serveur qui se bat en duel avec un service sur une 2eme IP… sur la même machine… heu… tout de suite… ca iNpacte un peu plus.
Dans un vrai DataCenter d’homme quand t’as 100 serveurs (un petit exemple hein) ou plus, en load balancing et schéduling sur un site (le web de jour; les piles de mail foireux, la nuit), tu t’en fous un peu. On automatise même la chose et cela permet de faire des maintenances de bon aloi, sans trop de planification. Bien fait; personne ne voit strictement rien.
C’est juste pas une révolution, ce truc. Et cela ne permettra pas d’économiser sur les couts.
J’ai du mal à accepter l’argumentation qui consiste à prendre UN exemple pour en faire une généralité.
« Sur le forum de NXI on a de la redondance, donc cette fonctionnalité est inutile ? »
« Dans un data center il y a du load balancing, donc ça ne révolutionne rien ce truc. »
Oui, quand on veut limiter le downtime il y a d’autres solutions.
Non, ça ne veut pas dire que le « Live Patching » ne sert à rien… Ce n’est pas parce que VOUS, vous n’arrivez pas à imaginer à quoi ça peut servir, que c’est forcément inutile… " />
Le
16/04/2015 à
21h
58
Patch a écrit :
quand tu n’arrives plus à les attaquer à distance, tu fais quoi? tu pries Dieu en espérant que ca revienne tout seul?
À titre perso depuis que j’ai mon serveur @home (en 2007) il n’a ni écran, ni clavier ni souris. Les 2 ou 3 rares fois où il merdait grave (pannes matérielles) je lui ai mis un écran et un clavier pour dépanner / ré-installer.
Mais jamais de souris " />
Mais bon je ne suis pas admin système, il y a donc peut-être des techniques que je ne connais pas !
Le
16/04/2015 à
21h
19
zefling a écrit :
Ce mot n’est pas compatible avec serveur ? En même temps, au taf il n’y a que de serveur Windows, et franchement, j’ai encore vu personne les attaquer en ligne de commandes (pour ceux qui gèrent ça, moi je touche pas à ça et j’en suis bien content " />).
Ah les serveurs backend sont aussi des frontend ? Intéressant comme concept " />
Le
16/04/2015 à
17h
27
Hexawolf a écrit :
Et on veut nous faire croire que linux s’installe partout. Tssssk…
Partout non, mais Linux est de loin le noyau qui supporte le plus d’architectures différentes : exemple de liste. La petite blague consiste donc à dire que ça s’installe “partout” même sur un grille-pain (ou une patate), mais bien sûr ce n’est pas à prendre au pied de la lettre.
1 dégat matériel. Un serveur pizza box c’est en gros 2 ans max. C’est plus a cause des controlleur SCSI (wide) qui crament que le reste. Les solution a base de SSD étant plus cher et accessoirement avec une certaine fragilité (le SSD) bin ca se démocratise pas tant que cela.
Ce genre de fonctionnalité n’a pas la prétention d’éviter les dégâts matériels, d’ailleurs aucune solution software ne peut se prémunir d’une défaillance hardware. C’est donc complètement hors de propos.
TexMex a écrit :
2 C’est pas parce que le Kernel peut être remplacé a la volé, que par miracle :
-Les services ne doivent plus être redémaré (imposant un downtime quand meme).
Rebooter entièrement la machine prend plus de temps que de redémarrer juste le service qui en a besoin. Le but n’est pas d’atteindre un downtime de zéro, mais de le réduire.
Quand on redémarre un service on n’interrompt que lui. Ne pas redémarrer la machine, ça évite d’avoir un downtime sur les autres services. Un serveur, ça ne sert pas qu’un seul service en général, mais plusieurs.
TexMex a écrit :
-les programmes n’auront pas de bug ou de faille de sécurité.
Là encore cette fonctionnalité n’a rien à voir avec la prévention de bugs ou de failles, donc c’est hors-sujet.
Le
16/04/2015 à
14h
47
Dr.Wily a écrit :
On trouve également des améliorations notables du côté des pilotes graphiques et la gestion des DRM. Pour les Radeon par exemple, l’audio est maintenant supporté sur la connexion DisplayPort et la prise en charge du contrôle du ventilateur est maintenant plus fine.
C’est fou quand même, ça fait des plombes que ces choses sont dispo chez les OS de M$ comment ça se fait ? (ma question ne porte pas sur les DRM bien sur " /> )
Les utilisateurs de Radeon ont le choix entre le pilote propriétaire d’AMD/ATi (Catalyst) et le pilote Open Source.
Dans le noyau Linux c’est bien sûr le pilote Open Source qui est intégré, et il n’a pas les mêmes fonctionnalités que le pilote propriétaire. Les « améliorations » évoquées ici concernent bien sûr ce pilote Open Source (par rapport à ses versions antérieures), et non la version propriétaire.
Pour nVidia c’est similaire, il existe le pilote propriétaire de nVidia, et un pilote Open Source (nouveau).
Sous Windows la question ne se pose pas puisqu’en général seul le pilote propriétaire est proposé.
Le
16/04/2015 à
14h
32
46 75 63 6b 20 6f 66 66 a écrit :
Version 4.0 déjà en utilisation ici. Ça tourne sans aucuns soucis.
J’essayerais le «live patching» à l’occasion sur le serveur quand je l’aurais aussi fait passé à cette version du kernel.
Euh, peut-être tester sur une machine moins critique avant de tester sur le serveur ?
Je dis ça je dis rien " />
Le
16/04/2015 à
12h
41
kras a écrit :
Linux linux… ah oui je me souviens…
Cherche pas ça ne s’installera pas sur ton Amstrad CPC " />
Le
16/04/2015 à
12h
26
Miam bonnes nouvelles ! Hâte de tester cette version sur mon serveur@home.
Edtech a écrit :
Le serveur du forum est redémarré environ deux fois par semaine et personne ne s’en rend compte. C’est vraiment utile comme techno avec tous les systèmes de cache tiers (foursquare par exemple) et cloud actuels ?
Hum, tu présentes un cas particulier où ce genre de fonctionnalité n’est pas forcément utile (le forum NXI qui a une redondance), et ensuite tu demandes si ce genre de technologie est vraiment utile d’une manière générale.
Personne n’a prétendu que ce genre de techno était toujours utile à tout le monde. Mais elle est utile pour certains usages. Red Hat et Suse ne l’ont pas développée pour la beauté du geste…
tu pouvais pas te connecter en wifi vu que personne ne connais la clef wep ou wpa..
Je parlais de cas où je suis chez des amis, et où ils m’ont donné la clé WiFi pour me connecter à leur Livebox. La plupart du temps ils n’avaient pas changé leur mot de passe (admin), donc c’était la fête.
Ce que je ne savais pas, c’est qu’en plus en allant sur orange.fr je me serais retrouvé connecté à leur compte. Il faudra que j’essaye la prochaine fois " />
kervern a écrit :
le truc c’est que les pirates tester testaient les ip orange et ce se connecter connectaient aux box sachant le login/mdp été était admin/admin ils modifier modifiaient les dns de la box pour la redirigé rediriger sur un faux server DNS qui rediriger redirigeait le amazons.fr, grosbil et autres vers de faux sites et récupéré récupéraient les numeros de CB !
Tain les fautes, fais un effort stp ça pique… " />
Le
16/04/2015 à
16h
12
TBirdTheYuri a écrit :
Par contre, côté sécurité leur site web c’est toujours de la merde : file ta clé Wifi à un ami pour qu’il se connecte, s’il va sur le site d’Orange il se retrouve connecté directement à ton compte, sans login ni mot de passe, et a accès aux options, aux factures, aux contacts, aux mails…
Sérieux ? " />
C’est énorme ça quand même " />
Le
16/04/2015 à
14h
50
Dommage c’était rigolo de se connecter en WiFi chez les gens et de changer leur config " />
Ah tu peux faire “tourner” AHCI et NVMe en parallèle ?
J’avais compris que c’était soit l’un soit l’autre d’où mon interrogation.
Dans ce cas là alors pas de souci et c’est tout bénéf
Ben de ce que j’ai compris NVMe est rattaché aux ports PCI-Express, donc a priori ne vise pas à remplacer le SATA mais peut le compléter…
Mais quelqu’un qui s’y connaît me corrigera peut-être…
Le
15/04/2015 à
20h
51
Schumi a écrit :
C’est pas pour les débits c’est pour le fait que les DD ou les graveurs DVD-BR ne sont pas compatibles avec le NVMe
Je ne pense pas que le but du NVMe soit de tuer le SATA.
Aujourd’hui c’est déjà très appréciable de combiner un SSD (même en SATA : très rapide, idéal pour y installer l’OS) et un disque dur (aussi en SATA : moins rapide, mais beaucoup plus de stockage, idéal pour les documents/données).
Le but est de permettre d’avoir des débits encore plus importants avec les SSD (avec le NVMe, donc OS encore plus réactif), tout en ayant un HDD à côté pour le stockage des données (toujours en SATA). Les deux ports peuvent très bien cohabiter sur la carte mère, l’un n’empêche pas l’autre.
Le
15/04/2015 à
18h
49
2,26 Go/s, de quoi charger l’OS dans la RAM en moins d’une seconde " />
J’ai rien contre toi personnellement. Je dis juste qu’à chaque fois que j’ai utilisé ton site avec des PC différents j’ai jamais eu des résultats probants: soit ça trouve pas le matos, soit ça donne plusieurs résultats différents et on sait pas quoi prendre, et dans mon commentaire qui a été supprimé je disais cela et que tu ferais mieux de t’occuper de ton site plutôt que de trainer sur HFR à longueur de journées.
Ce n’est pas pour mettre mon grain de sel, mais un peu quand même " />
Face à un logiciel/service qui fonctionne mal je considère qu’il y a deux options viables :
ne pas l’utiliser, l’ignorer et passer son chemin ;
l’utiliser et faire des remontées de bugs aux développeurs.
Râler sur NextINpact dans tous les cas ça ne me paraît pas très productif : ça ne t’apporte rien si tu n’utilises pas ledit logiciel, et ça ne résoudra pas les bugs si tu l’utilises " />
Just my two cents " />
Le
13/04/2015 à
17h
37
gokudomatic a écrit :
compatibilité linux?
C’est vrai qu’une intégration complète de Ma-Config sous Linux pourrait être bien utile, même si à mon humble avis la principale source de problèmes de pilotes sous Linux vient des constructeurs. Typiquement quand un constructeur ne fournit aucun pilote Linux pour son matériel… ou alors un pilote fermé qui demande trouzemille manipulations et s’installe n’importe comment.
C’est malheureux mais pour l’instant il faut encore vérifier si le pilote existe avant de choisir son matériel (exemple niveau imprimantes il vaut mieux éviter Canon, mauvaise expérience perso…).
Il est où le soucis tant que la récolte et première sélection, de masse, est faite par un logiciel uniquement ?
Il est où le souci ? Euh, par où commencer…
Peu importe que ce soit un humain ou une machine, le fait est que notre vie privée n’a pas à être violée sans raison valable encadrée par la Loi.
Comment est-on sûr que c’est fait par un logiciel uniquement ? Qui conçoit et surveille le logiciel ?
La mise sur écoute est en principe très encadré, et doit faire l’objet d’une autorisation judiciaire. Mettre tout le monde sur écoute à toute heure sans aucune raison, ça sort complètement du cadre prévu par la loi.
0xCyril a écrit :
Les données vues par un Humain seront celles d’individus ayant eu des actions louches décelées par ce logiciel.
Il est donc faux de dire que seules des “données louches” seraient vues par ces agents, c’est archi-faux.
0xCyril a écrit :
De plus pour les gens se sera invisible, donc c’est comme si c’était inexistant !
Ah donc si quelqu’un viole ta vie privée, copie et analyse tes informations personnelles, ouvre tes emails, tes photos… ce n’est pas grave à partir du moment où tu ne t’en rends pas compte ? Si c’est ton cas tant mieux pour toi, mais ce n’est sûrement pas le cas de tout le monde, et encore une fois la Loi est censée protéger notre vie privée. Que l’on s’en rende compte ou non, c’est complètement hors de propos.
Le
14/04/2015 à
10h
41
Ça me rappelle les débuts de PGP, quand des gus dans leurs garages (à commencer par Phil Zimmermann) ont développé et partagé des outils libres de chiffrement basés sur RSA. C’était l’arrivée du chiffrement pour tous, et les USA l’ont d’abord considéré comme… un outil de niveau militaire auquel le public ne devait pas avoir accès, et interdit à l’exportation. S’en sont suivies des poursuites judiciaires et autres joyeusetés…
Il a fallu attendre la fin des années 1990, et 2002 en France, pour que ces outils de chiffrement deviennent légaux. Les particuliers ont donc tout à fait le droit aujourd’hui de chiffrer leurs données avec un niveau militaire, 2048 bits voire supérieur.
Il semble que maintenant, les autorités regrettent cela et veuillent revenir en arrière… Ils ne peuvent plus interdire le chiffrement, donc ils cherchent à avoir accès aux clés… Pour rappel :
Nul ne sera l’objet d’immixtions arbitraires dans sa vie privée, sa famille, son domicile ou sa correspondance, ni d’atteintes à son honneur et à sa réputation. Toute personne a droit à la protection de la loi contre de telles immixtions ou de telles atteintes.
Clairement, en exigeant d’accéder aux données personnelles (chiffrées ou non) des individus, nos États modernes violent ce droit à la vie privée, qui est pourtant censée être garantie et protégée par la DUDH, la Constitution, et par de nombreuses Lois…
et surtout, bientôt 1h passée et personne n’a rectifié l’inversion de 2 caractères dans sa commande…
dd if=truc.ISO of=/dev/sdb bs=4096
" />
Le
10/04/2015 à
08h
18
Commentaire_supprime a écrit :
Témoignage de l’amateur que je suis : sur mon poste desktop, plus ça va, plus je fais des tâches d’administration en ligne de commande alors que je pourrais avoir une IGU, quand je ne l’ai pas déjà, pour faire le boulot.
La raison ? Je trouve plus facile de me rappeler d’une syntaxe de commande plutôt que de l’emplacement de la commande correspondante dans l’outil graphique. Commande que je peux noter dans un fichier texte et activer par copier/coller si j’ai vraiment du mal à me rappeler de sa syntaxe exacte.
EXemple : dd=if truc.ISO of=/dev/sdb bs=4096, je trouve ça plus facile d’emploi qu’Unetbootin pour faire une clef USB bootable. Et plus facile à retenir, la preuve, je viens de le rédiger ici de mémoire, sans aucune référence extérieure.
4337 commentaires
Clap de fin pour l’application YouTube d’appareils antérieurs à 2013
22/04/2015
Le 23/04/2015 à 09h 00
Le 23/04/2015 à 08h 15
Le 23/04/2015 à 08h 03
Le 22/04/2015 à 18h 16
MiniStation Extreme NFC : un disque dur USB 3.0 avec chiffrement des données
22/04/2015
Le 23/04/2015 à 00h 22
Le 22/04/2015 à 22h 44
Le 22/04/2015 à 21h 40
Le 22/04/2015 à 20h 11
Le 22/04/2015 à 18h 08
Intéressant comme concept ! Ça a le mérite de simplifier le chiffrement des données pour tout le monde : le disque dur dans la sacoche et la carte associée dans le portefeuille (ou qui reste sur le lieu de travail), ça limite le risque de se faire voler les deux.
(bon bien sûr il y aura des gens qui mettront le disque et la carte dans la même sacoche mais bon… à ce stade on ne peut plus rien pour eux :-p ).
WordPress 4.1.2 : une importante mise à jour de sécurité pour le CMS et les plugins
22/04/2015
Le 22/04/2015 à 10h 45
Windows 10 pour smartphones comble quelques manques avec la build 10052
22/04/2015
Le 22/04/2015 à 07h 45
La « loi » de Moore fête ses 50 ans
20/04/2015
Le 21/04/2015 à 10h 44
Le 21/04/2015 à 10h 03
Fausse manip, à supprimer désolé.
Le 21/04/2015 à 10h 02
Citons la source originelle : L’article original de Moore.
Moore a effectivement prédit que la densité de transistors doublerait tous les deux ans.
Cela a ensuite été interprété comme « la puissance des processeurs double tous les deux ans ». Si cela a été vrai à une époque, cela n’est plus vrai aujourd’hui, depuis le début des années 2000.
Cet article montre que la loi de Moore est bien toujours respectée (courbe verte), mais niveau performances (courbe violette) la courbe s’est infléchie depuis le début des années 2000 environ. Le plafond des 4 GHz, qui peine à être atteint même par les meilleurs CPUs depuis 10 ans, accentue cette tendance.
Si la « loi de Moore » est toujours respectée c’est parce qu’on est passés d’un paradigme mono-core à un paradigme multi-cores : doubler le nombre de transistors permet de caser deux, quatre, huit cœurs sur la même puce, mais ne permet plus d’augmenter la fréquence. La « performance » d’un cœur individuel n’augmente plus, et l’augmentation des performances dépend donc de la capacité des programmes à tirer parti de plusieurs cœurs en même temps : multi-threading, parallélisation… Malheureusement tous les programmes ne peuvent pas être parallélisés, et même pour ceux qui peuvent l’être la parallélisation est complexe et coûteuse à mettre en œuvre. Par exemple certains jeux peuvent tirer parti de deux, voire quatre cœurs, mais cela va rarement au-delà, et donc la « performance » n’est pas proportionnelle au nombre de cœurs.
Avec la difficulté à descendre en-dessous des 14 nm, Intel aura même sans doute du mal à doubler le nombre de transistors sur ses puces dans les prochains années. La « loi de Moore » est donc condamnée à ne plus pouvoir être suivie -mais ça, Moore le savait déjà à l’époque. Il doit même être étonné que sa prédiction ait tenu aussi longtemps.
Steam : Valve instaure un minimum de dépense pour débloquer toutes ses fonctions
20/04/2015
Le 20/04/2015 à 09h 16
Le 20/04/2015 à 09h 13
Le 20/04/2015 à 09h 11
Le 20/04/2015 à 09h 10
La bêta d’Office 2016 pour Mac prend des couleurs et gagne en performances
16/04/2015
Le 19/04/2015 à 18h 14
Linux 4.0 inaugure une fonctionnalité de « live patching »
16/04/2015
Le 17/04/2015 à 14h 58
Le 17/04/2015 à 10h 35
Le 17/04/2015 à 08h 33
Le 17/04/2015 à 08h 18
Le 17/04/2015 à 08h 04
Le 17/04/2015 à 08h 03
Le 16/04/2015 à 21h 58
Le 16/04/2015 à 21h 19
Le 16/04/2015 à 17h 27
Le 16/04/2015 à 15h 10
Le 16/04/2015 à 14h 47
Le 16/04/2015 à 14h 32
Le 16/04/2015 à 12h 41
Le 16/04/2015 à 12h 26
Miam bonnes nouvelles ! Hâte de tester cette version sur mon serveur@home.
WikiLeaks : l’intervention des géants du Blu-ray dans le dossier Hadopi VLC
17/04/2015
Le 17/04/2015 à 09h 32
Faire droit à la demande VLC, conduirait à :
Tout cela existe déjà, malgré la blinde de DRM et protections qu’ils mettent partout.
Du coup, faire droit à la demande VLC aurait changé… rien du tout.
Mot de passe « admin » : Orange met à jour ses Livebox 2 avant ses Livebox Play
16/04/2015
Le 16/04/2015 à 21h 54
Le 16/04/2015 à 16h 12
Le 16/04/2015 à 14h 50
Dommage c’était rigolo de se connecter en WiFi chez les gens et de changer leur config " />
SpaceX : décollage avec succès de la fusée Falcon 9, sa récupération échoue de peu
16/04/2015
Le 16/04/2015 à 17h 50
Sacrée performance, on se prend à rêver de vacances dans l’espace…
[MàJ] NVM Express : ASUS met à jour ses cartes mères H97, Z97 et X99, Samsung lance un SSD M.2
16/04/2015
Le 15/04/2015 à 23h 12
Le 15/04/2015 à 20h 51
Le 15/04/2015 à 18h 49
2,26 Go/s, de quoi charger l’OS dans la RAM en moins d’une seconde " />
Orange veut fibrer neuf villes à 100 % d’ici fin 2016 et officialise un débit de 1 Gb/s
15/04/2015
Le 15/04/2015 à 14h 09
Youhouuu ma ville est dans la liste " />
Le jour où la fibre sera dispo chez moi je signerai tout de suite !
Ma-Config.com a désormais son propre service de recherche de pilotes
13/04/2015
Le 15/04/2015 à 11h 56
Au passage voici une nouvelle photo de Charon, qui date d’hier !
…Désolé " />
Le 15/04/2015 à 07h 54
Le 13/04/2015 à 17h 37
La NSA veut des clés fragmentées pour déchiffrer les données des terminaux mobiles
13/04/2015
Le 14/04/2015 à 13h 52
Le 14/04/2015 à 10h 41
Ça me rappelle les débuts de PGP, quand des gus dans leurs garages (à commencer par Phil Zimmermann) ont développé et partagé des outils libres de chiffrement basés sur RSA. C’était l’arrivée du chiffrement pour tous, et les USA l’ont d’abord considéré comme… un outil de niveau militaire auquel le public ne devait pas avoir accès, et interdit à l’exportation. S’en sont suivies des poursuites judiciaires et autres joyeusetés…
Il a fallu attendre la fin des années 1990, et 2002 en France, pour que ces outils de chiffrement deviennent légaux. Les particuliers ont donc tout à fait le droit aujourd’hui de chiffrer leurs données avec un niveau militaire, 2048 bits voire supérieur.
Il semble que maintenant, les autorités regrettent cela et veuillent revenir en arrière… Ils ne peuvent plus interdire le chiffrement, donc ils cherchent à avoir accès aux clés… Pour rappel :
Déclaration Universelle des Droits de l’Homme
Article 12
Nul ne sera l’objet d’immixtions arbitraires dans sa vie privée, sa famille, son domicile ou sa correspondance, ni d’atteintes à son honneur et à sa réputation. Toute personne a droit à la protection de la loi contre de telles immixtions ou de telles atteintes.
Clairement, en exigeant d’accéder aux données personnelles (chiffrées ou non) des individus, nos États modernes violent ce droit à la vie privée, qui est pourtant censée être garantie et protégée par la DUDH, la Constitution, et par de nombreuses Lois…
Deus Ex Mankind Divided : le prochain volet de la série se montre enfin
10/04/2015
Le 13/04/2015 à 11h 08
Microsoft annonce son Windows Nano Server minimal pour 2016
09/04/2015
Le 10/04/2015 à 09h 14
Le 10/04/2015 à 08h 18