votre avatar

KP2

est avec nous depuis le 15 mars 2006 ❤️

5589 commentaires

Le 12/06/2019 à 12h 49







127.0.0.1 a écrit :



Ok, tu m’as convaincu. Je vais mettre mon numero de sécu et mes identifiants bancaires.



En matière de sécurité, rien ne vaut un message convaincant d’un mec qui a l’air de savoir de quoi il parle. On appelle cela la sécurité par la confiance. C’est le top.



/sarcasme







Je crois que tu n’as pas bien compris lorsque j’ai écrit : “Le fonctionnement de HIBP est parfaitement connu et a été audité.”



Quand je dis qu’il n’y a pas de doute, c’est qu’il n’y a vraiment pas de doute sur son fonctionnement. De personne. Bon, excepté toi mais ça compte pas…


Le 12/06/2019 à 11h 34







Indigo74 a écrit :



Le “projet Svalbard” dont il parle, c’est simplement le projet d’acquisition de HIBP. A priori, donner un nom à une acquisition, c’est ce qui se fait dans le milieu… Pour donner une certaine visibilité je suppose.







Et bien ça m’est complétement passé au dessus de la tête… <img data-src=" />


Le 12/06/2019 à 11h 33







M’enfin ! a écrit :



Exactement. S’il veut être cohérent avec son projet, il le ferme purement et simplement. Là ça ressemble à un énième piège à pigeons pour récupérer des emails, et une fois qu’il a son listing, il part le vendre.



Je peux comprendre qu’il souhaite en tirer un petit pactole mais ça décrédibilise une fois encore ce type de projet.







Le fonctionnement de HIBP est parfaitement connu et a été audité. Ça ne collecte absolument rien et les données qu’il a intégré sont hashées en base (histoire de ne pas devenir une cible lui-même)

Tu peux tester ton mot de passe aussi, le mécanisme de vérification fait que le site HIBP ne voit rien passer en clair.

Bref, le mec est un cador et il a le bon gout d’être aussi très intègre, y’a aucun doute sur la qualité de ce service.


Le 12/06/2019 à 09h 29

C’est bizarre, c’est pas du tout ce que j’ai compris de son “projet Svalbard”. Pour moi, il vendait pas mais au contraire, il allait developper serieusement le concept et lancer des services autour pour le rendre perenne financierement et surtout humainement…

Mais bon, j’ai un peu lu son billet de blog en travers

Le 12/06/2019 à 11h 28


Edtech a dit:


C’est pour ça que ça m’étonne qu’on en fasse tout un plat !


Ben, on en fait tout un plat car c’est la nouvelle marotte marketing des constructeurs de cartes graphiques. Mais on en parlait déjà y’a plus de 15 ans car c’est pas nouveau en vrai…




On est à des années de pouvoir faire un rendu 4K temps réelle avec lancé de rayon !


Non, on en est pas si loin. L’article indique justement qu’on le fait mais les IPS sont encore faiblardes.
Il faudra pas longtemps pour obtenir de très bons résultats avec du matos moyenne gamme.
Pour le photoréalisme, on progresse toujours et ça risque d’être encore long effectivement mais il faut bien commencer qqpart. Par contre, est-ce que les couts de production des futurs jeux photoréalistes resteront dans des limites suffisantes pour être accessibles ?

Le 12/06/2019 à 10h 12


Edtech a dit:


J’ai du mal à comprendre cet engouement pour le lancé de rayon. Le gros problème de cette techno, c’est que pour que ce soit réaliste, il faudrait lancer une infinité de rayons qui à chaque reflets réémettent une infinité de rayons, etc. Ce qui est évidemment, irréalisable même à long terme !Donc aujourd’hui, on lance quelques rayons, et on extrapole aux polygones à proximité… ce qui donne un rendu moins bon que les méthodes éprouvées qui sont bien moins gourmandes.Ca ne serait pas plus marketing que vraiment exploitable (du moins pour la lumière) ?


Sans aller jusqu’à l’extreme, ça produit quand meme des images vachement plus réalistes coté lumière. Y’a pas a tortiller…
L’objectif est simple, pour moi, c’est d’arriver à un niveau photoréaliste comme dans les films mais en temps réel et avec du matos standard (genre un PC à 1500 boules). Et ça a toujours été l’objectif de la 3D… On y arrive aujourd’hui très bien en précalculé avec des clusters de rendu mais le temps réel est une autre paire de manche au niveau matériel et encore plus avec un unique PC domestique

Le 12/06/2019 à 10h 08

Ça va être la fête du hack cette histoire…

Le 12/06/2019 à 09h 32

Putain, les mecs qui ont voulu faire du chantage à Radiohead, ils sont vraiment cons ou bien ?

Radiohead a déjà “donné” un album entier… ils croyaient vraiment que chercher à les faire chanter avec des enregistrements de studio longs et un peu chiants (dixit le groupe lui meme) allait les faire paniquer ???



MOUAHAHAh

Le 07/06/2019 à 07h 29







F1CJN a écrit :



Je ne comprends pas pourquoi le propriétaire de la borne est incriminé si la borne est agrée et que son usage est normal.

Il parasitait donc à l’insu de son plein gré !







Justement, l’usage ne devait pas être si “normal”… le wifi n’est autorisé a l’exterieur que dans des conditions spécifiques et avec du matériel agréé. Et certaines zones sont interdites aussi.

Donc tu peux pas installer une borne a selfie wifi n’importe où et, visiblement, pas sur la terrasse panoramique de la tour Montparnasse.


Le 06/06/2019 à 19h 12







Norde a écrit :



Ah pour les mises à jours si !







Tu connais un seul OS de moins de 25 ans dont ses propres mises à jour se font autrement que par son système de maj interne ?


Le 06/06/2019 à 13h 21







fred42 a écrit :



Un “petit” exemple : Linux reste sous la GPL V2, Linus étant par exemple contre la V3.







Voilà <img data-src=" />

Bon, ça fait qq années que la GPLv3 est sortie et la polémique s’est largement calmée. Aujourd’hui, on entend plus vraiment grand chose à ce sujet.

Néanmoins, la v2 est loin d’avoir été mise à la poubelle et elle reste fortement utilisée même pour les nouveaux projets. La v3 est et restera beaucoup plus une affaire d’idéologie que de protection légale “brute et classique” comme pouvait l’être la v2.


Le 06/06/2019 à 09h 19







Norde a écrit :



C’est vrai que la GPLv3 sur un système fermé bon…

Dommage, moi qui pensait qu’Apple allait laisser tomber le store obligatoire <img data-src=" />







Le store n’est pas du tout obligatoire sur macos







tazvld a écrit :



Sinon, le passage des licence GPL au licence MIT ne m’étonne qu’à peine. Le GPL pose beaucoup trop de contrainte quand ton logiciel n’est pas destiné à être GPL. L’aspect contagieux de la licence GPL semble être une bonne idée, mais c’est aussi ce qui rend réticent son utilisation ailleurs que dans l’univers GPL.







C’est juste la GPLv3 qui pose des problèmes (et elle est assez décriée au sein même du monde open-source d’ailleurs). La v2 a toujours permis la cohabitation de softs GPL et proprios sur le même système sans souci car la “viralité” ne concerne que le fait de copier du code, pas la simple execution.


Le 06/06/2019 à 08h 48

Hum… ça reste étonnant qu’ils remplacent bash sans période de transition…

Ca va piquer

Le 06/06/2019 à 17h 06







pierreonthenet a écrit :



Pourquoi “que” 400 000 euros ?

Ce n’est “pas si grave” selon la CNIL ? Qu’est-ce qui justifiera une sanction de 4% du CA mondial, du coup ? Il faut qu’il y ai les données personnelles des membres de la CNIL ?







Parce que la CNIL est beaucoup trop tolérante… D’ailleurs, elle n’a longtemps pas eu de pouvoir de sanction alors elle travaillait dans la “bienveillance” quoi…


Le 05/06/2019 à 13h 19







cayou2000 a écrit :



Pour info je quitte free tant que la majorité des problèmes ne seront pas réglés…

tant pis pour mes 480 € investis…







Merci pour les détails sur le CEC, etc

c’est typiquement le genre d’info qui m’interesse.



Bon, je ne suis pas spécialement étonné. La révolution avait déjà plein de problèmes de ce genre la 1ere année… Au bout d’1 an - 1,5 an, ça a été quasi résolu pour la plupart et ça devenait potable. Très bien au bout de 2 ans.

Visiblement, c’est pareil pour la Delta :(


Le 05/06/2019 à 09h 53

Merci pour l’info !

Coté stabilité, pas de surprises ?



Je suis toujours inquiet avec Free car les débuts des nouvelles box ont toujours été assez chaotiques à ce niveau

Le 05/06/2019 à 09h 08

Y’a des gens qui sont passé sur la Delta ici ? Vous en pensez quoi ?

Le 05/06/2019 à 11h 05







Mr.Nox a écrit :



Prendre de l’un et de l’autre, c’était Windows 8. C’est pour cet OS que Apple parlait de frigo et grille pain.







Et Windows Mobile avant lui…



Bref, l’unification totale est un fantasme d’ingénieur mais ce n’est pas du tout souhaitable en pratique. Et je crois que MS nous l’a prouvé à plusieurs reprises


Le 05/06/2019 à 09h 55







Mr.Nox a écrit :



Ça me fait penser à cette Keynote ou Apple expliquant qu’on ne mélange pas un grille pain et un frigo (ou un truc dans le genre). Ils ont finalement trouvé comment faire







En terme d’ergo, ils ont raison et ils appliquent toujours ce principe.

Mais techniquement, sous le capot, la mutualisation est plutôt bienvenue pour des raisons de qualité et de sécurité.



Franchement, quand on voit les errements de MS à vouloir absolument unifier l’ergo des mobiles et des desktops, c’est absurde d’aller dans cette voie. Même si parfois, qq petit trucs peuvent passer d’une plateforme à l’autre, l’usage général est tellement différent que l’unification totale est un non sens.


Le 05/06/2019 à 08h 56



Dans ce contexte, il est d’autant plus surprenant qu’Apple ait choisi d’éliminer certains vieux appareils. Les iPhone 5s, 6 et l’iPod Touch 6G sont ainsi exclus d’iOS 13, alors que les efforts sur iOS 12 avaient justement permis au système d’être installé sur les mêmes produits que la version précédente.





C’est parce que iOS12 a entériné l’augmentation du support logiciel à 5 ans, non ?





Apple a évoqué une division par deux du poids pour une installation, et de 60 % pour les mises à jour. L’entreprise n’a donné aucune explication, mais on imagine que les serveurs de l’App Store vont livrer aux appareils les seules données strictement nécessaires à l’exécution.





Oui et, si je me trompe pas, les applis installées embarquent encore (pour certaines) la version 32 bits en plus de la version 64bits (raison pour laquelle la taille des apps avait doublé il y a qq années). Donc ils vont juste virer la version 32bits et c’est marre…





On sait gré à Apple d’avoir finalement pris conscience que la multiplication des grosses enveloppes de data (voire des forfaits illimités) rendait stupide depuis longtemps cette absence de choix.





Au States, il me semble que c’est pas aussi répandu que chez nous justement…





Il semble visuellement plus réussi, mais nous attendrons de tester le système en profondeur pour nous forger une opinion.





Je sens qu’on va encore rigoler pas mal les 1ers jours…





Celles réclamant par exemple un accès au Bluetooth pour se connecter aux bornes environnantes et permettre ainsi un pistage ne pourront plus le faire.





Et ça va donner quoi pour les “fameux” Apple Beacon qui servaient justement à ça ?

D’ailleurs, c’est toujours en fonction ces trucs (il me semble que c’étaient sur les commerces qui étaient visés par ce produit) ?





Le système reprend toutes les nouveautés d’iOS 13 puisqu’une grande partie du code sera identique. iPadOS introduit cependant des spécificités ergonomiques pour les tablettes. Une décision logique, tant Apple devait ménager la chèvre et le chou entre des appareils n’ayant rien à voir dans leur finalité.





L’arrivée des iPads 15” (et même 13” d’une certaine manière) étaient vraiment intenable en terme d’ergo…





L’application Fichiers fait un gros bond en avant et symbolise d’ailleurs à elle seule les ambitions d’Apple dans le domaine des tablettes. Fichiers intègre ainsi les mêmes actions rapides que le Finder de macOS, affiche les métadonnées, autorise le partage des dossiers dans iCloud, affiche les données des disques durs externes et clés USB raccordés au port USB-C, peut décompresser les archives Zip et peut importer les photos et vidéos depuis un périphérique de stockage.





J’ai cru voir passer aussi la possibilité de monter des partages réseaux (et notamment des partages windows), non ?

Pour l’entreprise, c’était plus que nécessaire…





Il devient hybride, à mi-chemin entre l’iPhone et les MacBook. Une solution intermédiaire reprenant tout le socle d’iOS en y intégrant des fonctions de macOS.





Je reste moyennement convaincu par ce positionnement qui me semble être un peu avoir le cul entre 2 chaises… Mais bon, faudra voir avec le temps…

Le 03/06/2019 à 16h 10







appotheos a écrit :



Les diodes éteintes pour les noir c’est pas plutôt OLED ?







Ah mais oui, t’as raison !

En LCD, le noir est obtenu quand le pixel est totalement occulté justement !

En OLED, un pixel est transparent quand il est éteint ?


Le 03/06/2019 à 13h 04

Étrange comme idée… Ça voudrait dire que ça ne fonctionnerait que pour les écrans LCD puisque ce sont les seuls qui pourraient être “transparents” lorsqu’un pixel est noir (= éteint en LCD) ?

Mais il doit quand même y avoir du traitement logiciel de dingue derrière car il devrait y avoir pas mal de problèmes de colorisation et d’artefacts…

En tout cas, sur le papier, c’est séduisant. A voir en pratique.

Le 29/05/2019 à 14h 39







Patch a écrit :



-et en prime, faire ca en Normandie, qui n’est pas la région la plus ensoleillée du pays, loin de là.







c’est la seule qui voulait sortir le chéquier pour cette idée débile…


Le 29/05/2019 à 09h 36

Triste…

Nos musées nationaux fonctionnent vraiment comme des musées privés et c’est absurde.

Quand on pense que dans d’autres pays, les musées nationaux sont gratuits ou encore que le droit de photographier est totalement libre (certains proposent même des photos haute def en CC gratuitement)



C’est vraiment pas fait pour encourager le public à venir. Mais bon, quand on voit que le Louvre reste rempli, pourquoi se priver ?

Le 29/05/2019 à 09h 14







Kevsler a écrit :



Bah… l’état de fait change. Le W3C était le dernier rempart aux (éventuelles) élucubrations commerciales des éditeurs de navigateur. Les deux organismes n’avaient pas la même vision du net (de la création des normes, de la vie privée, et tout ce qui s’en suit), d’où les désaccords.



C’est pas anodin. C’est peut-être pas grande chose, mais ce n’est pas rien non plus :/







Non, pas du tout. Le W3C n’est grosso modo que des salles de réunions. Pour le html et le dom, c’etaient deja les éditeurs de navigateurs qui décidaient de tout.

La seule “résistance” qui existe est interne et provient en grande partie de Mozilla. C’est pour ça qu’il faut utiliser leur navigateur pour leur donner du poids.


Le 28/05/2019 à 16h 29







Haken Trigger a écrit :



“Mal acheminés par erreur” ? Comment tu peux acheminer 3 colis différents dans une partie du globe qui est à l’exact opposé de la totalité de trajet initial “par erreur” ?!









Y38KO a écrit :



Votre expérience ne s’applique pas dans ce cas précis.

C’est vrai que l’on a des problèmes à La Poste, mais FedEx est bien différent. Si vous avez utilisé les services Express dans les entreprises, vous allez vous rendre compte que c’est pas possible d’avoir ce genre de “erreurs”.

En plus, ici, c’est pas mentionné comme dans l’article original que, un employé de FedEx a confirmé qu’ils ont reçu la demande pour renvoyer ces colis aux US.

Si vous cherchez un peu sur Internet, vous verrez qu’il y peu d’info sur cette actualité, c’est pas normal..







Il existe un taux d’erreur pour TOUTE activité. Celui de FedEx est certainement très bas mais il existe forcément.

Et quand tu fais transiter des millions de paquets par JOUR, même si ton taux d’erreur est de 0,0001%, ça fait toujours qq milliers de colis qui arrivent à des endroits où ils ne devraient pas être.

Et donc, pour ramener les colis correctement, ils peuvent prendre des chemins assez inhabituels parfois. Ca veut pas dire que ça passe par les services secrets à chaque fois…



Cette histoire est juste une petite mesquinerie de Huawei en réponse à l’énorme mesquinerie des USA. Le problème dans cette histoire est que FedEx n’a rien à voir dans ce conflit.


Le 22/05/2019 à 09h 15







BlackYeLL a écrit :



On verra ce que ça donne pour le clavier. Il n’ont pas réussi à régler le problème en 3 générations, je doute qu’un simple changement de matériau fasse des miracles. (c’est le seul changement apporté d’après d’autres sources).



Par contre il était temps qu’ils étendent leur programme de prise en charge. Sur mon MBP 2018, en 6 mois, progressivement j’ai eu:




  • Touche Entrée prise en compte en double

  • Touche CMD parfois non prise en compte

  • Touche Espace prise en compte en double

  • Touche ALT parfois non prise en compte

  • Touche O prise en compte en double



    Ça devient un calvaire à utiliser. C’est une honte à ce prix là.



    D’autant que pour le faire réparer, il faut que je l’emmène au centre agréé le plus proche.



    J’ai fait le calcul, et en résumé pour 2 aller-retour :

    ~ 270Km

    ~ 4h de route

    ~100€ de carburant + péage + parking



    Ravi.







    C’est relou effectivement… Moi, j’ai eu une touche dans ce cas, j’ai réglé le prob temporairement avec un petit bout de scotch de 2x2mm comme expliqué ici :youtube.com YouTubeJ’attends encore un peu pour aller faire changer le clavier pour profiter d’une batterie neuve.


Le 22/05/2019 à 09h 08



Malgré tout, le fabricant a élargi son programme de réparation pour les claviers des MacBook (Pro) lancé en juin dernier. Il prend désormais en charge les MacBook Pro 2018 et 2019, y compris ceux qui viennent d’être annoncés.





Pour info, ils changent tout le bloc batterie avec le clavier. Donc, c’est intéressant d’attendre un peu pour repartir avec une batterie neuve.


Le 21/05/2019 à 12h 20







Krogoth a écrit :



Par rapport aux écrans. Si c’est un “vieux” LCD avec rétroéclairage néon est-ce qu’on est impacté aussi ou non?







Il me semble que oui car les néons ont plutot tendance à faire de la lumiere “froide” (bleutée).


Le 10/05/2019 à 12h 11







Noathym a écrit :



Je dévie un peu, mais vous connaissez un moyen de monter un repertoire distant en le faisant passer pour un repertoire local ? 

Certaines application ne savent pas gérer les partages, ou encore j’ai souvent des erreurs quand je veux lancer une appli plus ou moins portable à distance.







Ca existe depuis qq temps sous windows, il faut faire comme ça :

docs.microsoft.com Microsoft


Le 10/05/2019 à 12h 10







David_L a écrit :



Non, mais faire une retouche n’est jamais anodin, et on se retrouve vite à finir par retoucher plein de trucs si on se dit “bon allez ça ira vite”. Du coup, quand on opère un switch de priorité sur les projets, on évite les petites retouches du genre qui seront de facto corrigées à moyen terme.







Oui je sais bien, je taquine <img data-src=" />


Le 10/05/2019 à 09h 46







David_L a écrit :



On évite de toucher à la v6 depuis un moment







“Ne touchez plus à rien sinon ça pète !” <img data-src=" />


Le 10/05/2019 à 09h 41







David_L a écrit :



Oui c’est pas directement accessible en v6 on verra ça en v7 ;)







C’est dommage… un lien dans le menu Actu en haut ou dans Communauté, c’est pas jouable ?


Le 10/05/2019 à 09h 34



\sshfs\utilisateur@ip!port\dossier





Oh god ! mais qu’est-ce que c’est que cette syntaxe pour le port ??? Ils pouvaient pas utiliser “:” comme partout ?

je parie que c’est une limite de windows…

Le 09/05/2019 à 09h 00







brice.wernet a écrit :



Sauf que le pilote doit être compilé pour ce noyau. De mémoire, avec des modules compilés pour un autre noyau, au mieux j’avais “kernel tainted”.

Mais la plupart du temps, ça ne fonctionnait carrément pas (j’imagine des points d’entrée différents). Et ça c’était quand les anciennes sources compilaient…

Bref, une perte de temps inimaginable.







Mouais, franchement, faudrait étudier la situation en détail mais c’est un cas très rare… pour pas dire exceptionnel.

Sinon, oui, les modules doivent être compilés pour le kernel qui tourne. Mais les distribs s’en chargent…



 



brice.wernet a écrit :



Oui et non. Les vieux pilotes sont “approximatifs” (genre pilotes vidéo qui sortent sur la mauvaise sortie par défaut), au mieux c’est bidouillable. Mais sur du matériel serveur, on peut se retrouver le bec dans l’eau sur des choses aussi peu intéressante que des cartes fiber channel.

Oui, c’est bien parce que le constructeur refusait de fournir un firmware compatible avec un nouveau pilote pour Linux. Mais sous Windows, l’ancien pilote 2003 marchait toujours sur 2008R2 et 2012.







Le problème est que tu prends une situation exceptionnelle sous linux (aka un pilote proprio mal supporté par un constructeur) et tu généralises. Tu oublies la masse considérable de pilotes Libres qui sont inclus dans une distrib standard et qui marchent direct sans rien faire depuis des années.

Alors que sous windows, la problématique du pilote proprio abandonné qui marche plus après une maj majeure, c’est le cas courant…







brice.wernet a écrit :



On peut le faire aussi sur Linux. C’est pas totalement idiot. On en a l’impression, mais ceux qui travaillent ainsi savent faire des logiciels qui ne s’écroulent pas sous une forte charge mémoire / traiter des données énormes qui dépassent largement l’espace mémoire physique.







Pour moi, c’est plutot l’inverse… c’est justement parce qu’ils ne savent pas gérer la mémoire qu’ils font ça… Mais chacun voit midi a sa porte.







brice.wernet a écrit :



Mais pas aussi efficace. Le trio de mes OS préférés: 




  • FreeBSD

  • OpenVMS

  • Windows

    Toujours pour la même raison: une doc organisée claire, pleine d’exemples, de qualité à peu près cohérente partout, et maintenue à jour.

    Même les distro “pro” de Linux ne m’ont jamais convaincu sur la doc.







    Tu as raison sur ce point. Clairement.

    Les distros ont largement d’efforts à faire à ce niveau. Après, pour les besoins spécifiques, on a plutot tendance a chercher l’info directement sur le site du soft en question.

    Genre pour Apache, je vais systématiquement voir la doc sur apache.org et j’adapte en fonction des guidelines Debian.

    Ce sont les inconvénients qui découlent des avantages, on dira…







    brice.wernet a écrit :



    Je trouve aussi que râler en permanence sur Microsoft, alors que leurs produits ont de nombreuses qualités, c’est un peu lassant.







    Ce qui me fait râler, c’est surtout les masses de fric que MS fout dans Windows, les masses qu’il gagne avec et les défauts encore énormes (et qui ont 20 ans pour certains) toujours présents.

    C’est rageant.



    Je râle aussi très fortement contre le conservatisme absurde (ou lâche, c’est selon) de MS. Ce conservatisme sur l’absence de sécurité, notamment, pendant des années.

    MS remonte clairement la pente depuis qq années mais ça a été laborieux…



    (Je quote pas le reste car je suis d’accord avec et j’ai pas de commentaire particulier à faire)


Le 08/05/2019 à 10h 48







David_L a écrit :



Disons que parfois il faut aimer se taper 5 fenêtres avant d’arriver à un truc qui pourrait être directement accessible pour faciliter la vie de tout le monde <img data-src=" /> (et pour la ligne de commandes, dans certains cas, ça fait gagner du temps si la syntaxe reste simple)







Toi aussi tu galères a chaque fois que tu veux changer une adresse IP sous windows 10 ? <img data-src=" />


Le 07/05/2019 à 22h 42







carbier a écrit :



C’est d’ailleurs pour cela que Linux est passé de la ligne de commande pure et dure à un environnement fenêtré: c’est pour apprendre aux linuxiens la dure réalité de la vie <img data-src=" />

Sinon tu as parfaitement raison, Linux ne pose jamais de problème et n’impose jamais de passer par une ligne de commande aussi ergonomique qu’indispensable quand un problème un tant soit peu complexe apparait <img data-src=" />



Sinon les 2 OS ont leurs avantages et leurs inconvénients et c’est donc très bien quand chacun d’eux s’inspirent… Le problème, comme tu le montres très brillamment, c’est que les 2 OS ont leurs fanboys attitrés.







T’as rien compris à ce que je raconte surtout…

Je dis pas que Linux est parfait. Loin de là. Je dis juste que Windows n’est pas ergonomique. Tout du moins, pas si simple qu’on pourrait le croire…

Et je parle pas non plus de résoudre des problèmes, je parle simplement de l’usage de base.


Le 07/05/2019 à 16h 19







brice.wernet a écrit :



Par ailleurs, le noyau Linux ne permet pas “facilement” la gestion de “pilotes” à la Windows. Pour chaque nouvel équipement non supporté à la base, qui n’a pas de pilote existant qu’on peut “dévier”, il faut recompiler le noyau.







Absolument pas. Les pilotes (= les modules kernel) sont chargeables dynamiquement depuis plus de 15 ans avec dkms. On peut sans aucun problème compiler un module a part et le charger dans le noyau dynamiquement depuis tout ce temps.

Aujourd’hui, les travaux les plus poussés sur le noyaux cherchent à permettre de mettre à jour le noyau à chaud sans redémarrage. Y’a déjà des patchs qui existent, ils ne sont pas encore assez production-ready mais c’est pas loin…







brice.wernet a écrit :



Windows supporte la gestion de vieux pilotes (Windows 10 accepte encore des pilotes datant de Vista) là où Linux a parfois abandonné le support.







Coté vieux pilotes, c’est carrément là où Linux est largement plus fort que Windows et de loin. Les rares fois où des pilotes sont abandonnés, c’est quand il n’existe plus de matériel connu ou alors lorsque les 2 ou 3 derniers à posséder ce matériel en question codent eux-même le pilote et préfèrent se retirer de la “lourdeur” administrative des cycles de dev officiels.

Sous Windows, puisque l’extrème majorité des pilotes sont fournis par les constructeurs, leur durée de vie est clairement dépendante de leur bon vouloir et c’est souvent très mauvais…

Et ça, c’est sans compter le nombre d’architectures CPU/SOC supportées par Linux BEAUCOUP plus grand que Windows et donc tout le matos associé supporté…







brice.wernet a écrit :



Windows supporte aussi le fichier d’échange “dynamique” là où Linux est encore à nécessiter une partition qu’il est parfois compliqué d’augmenter ou réduire (en fait, je ne sais même pas comment on fait!)







swapoff -a -&gt; redimensionnement partition swap/création d’une nouvelle partition swap -&gt; swapon -a

Perso, si je dois en ajouter, je préfère créer un “device file”.



L’utilisation du fichier d’échange windows est assez absurde. Par exemple, il est utilisé même quand la RAM dispose clairement de la quantité disponible suffisante. Pourquoi ?? Pour les perfs, c’est vraiment à chier.

Sous linux, le swap n’est utilisé qu’en dernier recours, c’est pour ça qu’on a pas besoin que ce soit trop dynamique…







brice.wernet a écrit :



Windows est bien décrit dans une doc “centralisée”, et dont les versions sont plutôt pas mal gérées.



Pour Linux, il faut encore et toujours piocher à droite/à gauche pour chaque composant, en espérant tomber sur la doc à jour ou celle correspondant à se version.







Ça ne sera jamais aussi pointu qu’avoir accès au code.

 





brice.wernet a écrit :



Donc Windows a encore des avantages sur Linux.







Franchement, c’est le cas mais alors carrément pas ceux que tu cites.

Moi, j’aurais plutôt cité NTFS qui, malgré sa foutue tendance à toujours fragmenter un peu, reste quand même un des systèmes de fichiers les plus puissants en terme de fonctionnalités actuellement.

J’aurai aussi parlé de l’architecture micro-service du noyau de Windows qui, d’un point de vue conceptuel, reste une petite merveille d’architecture (bien qu’à l’usage, ça ne serve pas à grand chose).


Le 07/05/2019 à 14h 58







RedShader a écrit :



J’ai jamais compris se qu’il y a de compliqué sur Windows. C’est assez simple pourtant. Il n’y a pas besoin d’adopter des réflex particuliers pour s’en servir ou de faire un apprentissage spécial.







Parce que tu fais certainement partie de ces gens qui ont appris à utiliser windows jeune et avec passion. Ça fait que tu ne t’es pas rendu compte que tu “apprenais”.

QQn avec un peu de bouteille qui a été contraint d’apprendre à utiliser un ordinateur juste pour le pro (et encore, juste pour 2 ou 3 applis métiers spécifiques), il a surtout acquis des réflexes avec bcp d’appréhension… Sans compter tous les machins incompréhensibles pour lui qui pop-up dans tous les sens (les notifs de maj surtout).







marba a écrit :



WTF ?



Non le «libre» c’est l’open source forcé. Ils sont donc obligé de publier les sources. Ce qu’ils ne font pas.







Je comprends pas ce que tu racontes. MS a livré pas mal de patchs depuis qq années. Surtout au niveau du noyau d’ailleurs…

Et quand ils intègrent un soft comme bash sans toucher au code, tu veux qu’ils publient quoi au juste ?







marba a écrit :



Comme lorsque qu’ils ont pillé la couche réseau de BSD pour l’implémenter dans Windows, sans jamais publier la source.







Les licences BSD et MIT autorisent explicitement cette possibilité donc y’a pas a chipoter là dessus. Celui qui publie du code sous ce genre de licence est pleinement conscient qu’il peut être intégré dans un soft proprio sans un merci ou un boujour.

Et pour MS, il semblerait qu’ils avaient récup une pile IP il y a longtemps aux debuts de windows mais ils l’ont réécrite depuis un bail avec leur propre code.







marba a écrit :



Donc si, Microsoft pille le monde du libre et de l’opensource pour réduire ses couts de développement







MS met a dispo certains soft Libres dans son OS (comme la couche bash et ubuntu), je trouve ça plutot classe de leur part.

Je vois clairement pas où il y a du pillage… A la rigueur, si ils avaient pris Apache et qu’ils l’avaient renommé en Microsoft Iroquois, je dis pas. Mais c’est carrément pas le cas alors de quoi peut-on se plaindre ?


Le 07/05/2019 à 13h 45







marba a écrit :



Qu’ils intègrent pillent du Libre, ils ont pas trop le choix, le monde actuel tourne sur du Libre.

<img data-src=" />







Ils ne pillent rien puisque le Libre est fait pour ça…


Le 07/05/2019 à 12h 55







bismarckiz a écrit :



Je trouve que Windows 8 en est un bel exemple de “resistance au changement” : dans le fond il n’était pas mauvais pour un windows (moins pire que vista et millenium), il apportait pleins de choses et il était super fluide. Sur tablette, il était chouette (sur la surface en tout cas ^^)

Mais ce qui l’a le plus tué c’est : la mise au second plans du bureau qui n’a jamais été accepter et la ré-invention du menu démarrer <img data-src=" />







Le problème était là : c’est un environnement de bureau fait pour une tablette, pas pour un ordinateur utilisé au clavier et à la souris.

C’est l’éternel problème de Microsoft : croire que l’unification des GUI est le Graal.

Ils ont tué Windows Mobile à cause de ça et ils ont tué Windows 8 à cause de ça. Et ils continuent encore à y croire…









bismarckiz a écrit :



Bref … l’utilisateur lambda (= pas le lecteur NI) sur PC Windows, il faut lui apporter l’évolution par petite touche pour que le changement soit camouflé : les gens sont flippé du passage de Windows 7 vers W10 à mon taf … pour dire les 34 des gens utilise le panneau de configuration et le clic souris pour lancer une application comme depuis 95. Au lieu de la zone de recherche du menu démarrer (qui à bien 10 ans !) tu m’étonnes que W8 n’est jamais pris.  Il y en a même qui mettent le skin windows 2000 sur windows 7 <img data-src=" />







C’est qqch qu’Apple a bien compris par exemple… Les modifications d’ergo de MacOSX sont extremement progressives depuis des années. A un tel point qu’on a l’impression qu’il ne change jamais alors que si on prend un MacOSX du début un MacOS récent, y’a bcp bcp d’evolution.







bismarckiz a écrit :



Basculer sous Linux c’est un long chemin de croix, mais faire glisser petit à petit windows vers linux par contre c’est envisageable ….. tant qu’on touche pas au menu démarrer et au bureau !! ^^







Ça dépend, j’avais passé ma belle-mère sous Ubuntu il y a 10 ans et elle était super contente. 3 icones sur le bureau pour retrouver ses applis habituelles et ça tournait nickel.

Pas d’antivirus à gérer, pas de MAJ à faire ou presque, pas de notifications incompréhensibles… la tranquillité d’esprit absolue pour elle. Aujourd’hui, elle a un mac et elle est très contente aussi pour les mêmes raisons.



Windows a été un vrai traumatisme… et je pense qu’une énorme part de la résistance au changement chez les clients MS est lié au “traumatisme” de son apprentissage… ou plutôt : de l’acquisition à la dure de réflexes.

En fait, je crois sincèrement que la plupart des gens en ont tellement bavé pour s’en sortir avec Windows et ils ont tellement la sensation d’y être toujours perdu malgré des années d’utilisation qu’ils ne veulent absolument pas revivre ça donc ils freinent autant que possible le moindre changement.

Les gens ne savent pas utiliser Windows, ils ont trouvé difficilement qq réflexes pour faire ce dont ils ont besoin et ils vivent comme ça. C’est un vrai échec ergonomique pour moi.







bismarckiz a écrit :



Mais les grands gourous Linux le dise depuis très longtemps : un jour microsoft devra passer à l’open source …. on y est … ils avaient raison  ^^







Qu’ils intègrent du Libre, ils ont pas trop le choix, le monde actuel tourne sur du Libre.

Mais de là à ce qu’ils y passent leur OS à 100%, y’a encore un paquet de chemin à faire…


Le 07/05/2019 à 09h 32







marba a écrit :



à part candy crush et les drm







… et la résistance au changement. Qui est, de loin, le phénomène le plus puissant.


Le 07/05/2019 à 09h 26

WOW ! Bientot Windows va enfin devenir utilisable pour faire de l’informatique…









SebGF a écrit :



Plus ça avance, plus les années Balmer ne deviennent plus qu’un mauvais souvenir pour Microsoft.







Oui et le revirement en est d’autant plus spectaculaire… C’est assez bluffant de voir un tel mammouth être capable de changer aussi profondément. Franchement, on m’aurait dit ça y’a 15 ans, je n’aurais pas misé un kopeck dessus. Pour moi, Microsoft devait faire un peu comme IBM : capitaliser sur ses brevets voire changer de métier (IBM est devenu une grosse SSII, MS aurait facilement pu se transformer en patent-troll) et rester un monstre libidineux qui n’interesse plus personne et qui ne possède plus de lead sur aucun sujet à la mode… Mais non, ils ont su se renouveler très fortement et se mettre en danger (avec Azure notamment).

Plutot impressionnant.

Il faut bien l’observer car je pense pas qu’on reverra ce genre de chose de si tôt.







SebGF a écrit :



Au vu de ces changements de mentalité et cette forte intégration de Linux dans son OS, on peut que se dire que ça prépare le terrain à une autre grosse réforme.

Je pense pas qu’ils abandonneront demain la totalité de leurs technologies, mais vu comment ils intègrent en profondeur un Kernel Linux, il n’y a qu’un pas avant de basculer tout soit sur celui-ci soit son propre noyau Unix (comme MacOS).







Non, je n’y crois pas. (Remarque, je croyais pas non plus que MS lacherait son moteur de rendu web pour passer à Chrome…)

Mais quand même, Windows reste leur ADN. Et faut pas oublier leur ecosystème… Il est tellement énorme (et tellement complexe à faire bouger) qu’ils en chierait sacrement des briques pour une telle transformation.









appotheos a écrit :



On ne peut pas dire que Balmer avait complètement tord.

Tu laisse se développer du libre à un endroit et il se métastase dans tout l’organisme. <img data-src=" />







Au final… Il avait bien raison cet enfoiré <img data-src=" />


Le 30/04/2019 à 14h 55







Nargek a écrit :



Ah, il est temps. Ce n’est pas comme si autoinstall existait depuis 2014 sur OpenBsd <img data-src=" />









refuznik a écrit :



Punaise ils ont mis du temp chez Debian. Sous Centos, Fedora, Arch et Opensuse ont à ça depuis une éternité sans compter le déployement à partir d’un serveur pour tous les clients (histoire  d’installer une 50aines de postes en quelques clics).







Preseed a pas loin de 15 ans…



grilled


Le 25/04/2019 à 21h 46

Wouha ! Vous êtes vraiment en train de vous engueuler pour savoir ce qui est une copie de ce qui l’est pas ?



Heureusement que les SPRD sont pas aussi tatillonnes que vous, elles n’auraient jamais réussi à pomper 300M€ par an…

Le 25/04/2019 à 09h 02







darkbeast a écrit :



c’est pourtant évident, rajouter une backdoor c’est une idée de merde.







<img data-src=" />


Le 24/04/2019 à 15h 08







crocodudule a écrit :



Rantanplan… euh pardon castaner entre deux shooters ? <img data-src=" />







Le problème est que cette idée ne date pas seulement de ce gvt… elle est bien plus ancienne…


Le 24/04/2019 à 13h 37

Mon dieu… mais qui, à un moment, peut se dire c’est une idée qui vaut la peine d’être envisagée ?

Le 24/04/2019 à 13h 31







tazvld a écrit :



Justement, c’est un choix volontaire d’ergonomie :







Oui, je me doute bien que ça a été longuement réfléchi et qu’il doit exister des milliers de pages pour prouver le bien fondé de la démarche.

C’est juste qu’ils sont partis du principe que les utilisateurs de PS sont des débutants grosso modo… Alors que c’est un outil pour sysadmin et devs. Ils vont bien être débutants à un moment mais ça va durer qq jours à peine.

Et autant ça aide bien ces qq jours d’apprentissage mais après ça devient une plaie de manipuler des noms à rallonge avec des tirets et des majuscules, des options sans raccourci et des sorties ultra verbeuses, formatées et typées (!)… Et pis bon, dans PS, tu ne disposes que des commandes fournies par MS et intégrées a PS. Tu peux pas manipuler n’importe quel soft si c’est pas prévu pour et ça, c’est un vrai prob pour moi…



A contrario, le shell Linux n’est pas cohérent, on est d’accord, mais pour un utilisateur au quotidien, c’est aussi une durée d’apprentissage de qq jours et le reste du temps, il ne passe pas sa vie a rédiger des tartines de scripts pour faire 3 manips rapidos… La sortie texte est ultra simple, non typée et peut être manipulée avec n’importe quoi qui sait manipuler du texte. C’est sur que ça rentrera jamais dans les annales de la théorie de l’ingénierie logicielle mais c’est ultra efficace et c’est pour ça qu’on l’aime… Et surtout, on peut scripter n’importe quoi et quel soft présent sur le système. Et ça, ça n’a pas de prix.


Le 24/04/2019 à 13h 18







David_L a écrit :



Oui dans ce cadre je comprends. Disons que ce qui m’étonne le plus, c’est de le voir utilisé assez souvent sur des distributions Linux où tu as déjà tout ce qu’il faut nativement (sans parler de Box dans GNOME) pour ça.







A mon avis, c’est surtout par méconnaissance des possibilités sous linux que VB est utilisé.

Aujourd’hui, les devs (et surtout les devs web) sont essentiellement partagés en 2 grandes familles d’utilisateurs : ceux qui sont sous ubuntu et ceux sous mac.

Et le seul outil commun aux 2 est VB donc, dans les tutos, VB est le plus couramment utilisé. Ajoute à ça le fait que les devs n’y connaissent rien en système (on peut pas tout connaitre) alors ils cherchent pas plus loin : ça marche et voilà.

VB fait à peu près partie de “l’écosystème” du dev web moderne, on dira…