En France, la liberté d’expression est encadrée (ou restreinte, c’est selon) par certaines règles. (Pas d’apologie de la haine, pas de calomnie, …)
Correction : la liberté d’expression est encadrée par la loi. " />
Et la loi doit être respectée par n’importe quel organisme, entreprise, site Web… etc. Quelqu’un qui voit un contenu qui enfreint la loi, peut tout à fait porter plainte et une procédure sera mise en place pour décider si oui ou non, ce contenu est bien légal ou pas (et si la justice française peut y faire quelque chose, ce qui n’est pas évident si le site est hébergé à l’étranger).
kwak-kwak a écrit :
Sur Next Inpact, la sword veille aussi : ces règles permettent à chacun d’user d’un environnement serein.
Next INpact, en tant que site Web hébergé en France, doit respecter la loi française (c’est une obligation légale).
Après, en tant que site privé, Next INpact a tout à fait le droit d’y ajouter ses propres règles. C’est comme quand tu invites quelqu’un chez toi : même si ce qu’il dit est légal, si ça ne te plaît pas, tu as le droit de le mettre dehors, tu es chez toi et tu appliques tes propres règles (toujours dans la limite de la loi bien sûr).
Par exemple, Next INpact pourrait très bien supprimer mon message sans autre forme de procès, ou même carrément supprimer mon compte, ce serait tout à fait légal et je n’aurais aucun moyen de m’en plaindre. Leur site, leurs règles.
Ce point, beaucoup d’internautes ne le comprennent pas : ils crient à la censure et sont scandalisés quand un de leurs messages est supprimé. Ils oublient qu’ils ne sont pas dans un lieu public, au bar du coin ou dans la rue avec leurs potes ; non, ils sont sur un site privé qui a ses propres règles et qui a bien le droit de censurer ce qu’il veut.
fred42 a écrit :
De quelles règles parles-tu et où peut-on les consulter ?
Pour le forum il y a ceci, j’imagine que les mêmes règles s’appliquent pour les commentaires du site. " />
On y trouve de bons exemples de ce que je dis : par exemple, Next INpact demande d’écrire correctement, et pas en style SMS. Pourtant c’est tout à fait légal d’écrire en SMS… Il s’agit donc là d’une règle supplémentaire qui est à la seule discrétion du site et de ses modérateurs.
INpact Hardware ! J’adorais lire les articles sur le matos, les derniers chipsets, ce que les constructeurs avaient dans leurs cartons, les comparatifs de procos, mobos, CG… De la pure geekerie, je trouvais ça génial !
Dans le futur, j’espère que INpact Hardware traitera de ces sujets, en n’évitant pas le côté technique, c’est ce qui fait tout l’intérêt je trouve. Merci " />
À chaque annonce de sortie d’une version de LibreOffice, on peut lire une phrase du genre. " />
Les plus naïfs se disent : « OOXML est un standard ISO maintenant, donc son support doit être beaucoup plus facile ! ».
Comme d’habitude, le diable se cache dans les détails. À commencer par le fait que Word, par défaut, n’enregistre pas les documents dans le format OOXML standard, mais dans un format « OOXML Transitional » qui est un gloubiboulga de OOXML avec des bouts de code binaires dedans, et qui ne respecte pas du tout le standard (voir par exemple ici). Alors oui, il est possible d’enregistrer un document en OOXML Strict, mais la plupart des gens ne le font pas, et vous envoient des documents complètement beurrés qui ne s’ouvrent pas bien dans Libre Office… Mais bien sûr, si le document ne s’affiche pas bien chez vous, on vous dit que c’est de la faute à Libre Office…
Le comble, c’est que de son côté, Libre Office respecte bien le standard OOXML, ce qui fait que quand on sauvegarde un fichier en docx, il est bel et bien en OOXML Strict. Malheureusement, quand on envoie un tel document à un collègue équipé de Microsoft Office 2010, il n’arrive pas à l’ouvrir… Pourquoi ? Parce que MS-Office 2010 est incapable de lire le OOXML Strict (à moins de lui installer un plugin, que quasiment personne n’a). Là on a envie de pleurer…
Par là-dessus, on peut ajouter d’autres petites mesquineries, comme le fait que MS-Office utilise désormais par défaut des polices non-standards, les fameuses C-Fonts (Calibri, Cambria, etc.), au lieu des habituelles polices TTF (Times etc.). Les C-Fonts sont copyrightées, et pas disponibles ou pas installables facilement sur tous les systèmes (je pense notamment à Mac OS et Linux).
Alors, quand un collègue vous envoie un docx qui ne respecte pas son propre standard, et avec des polices qui ne sont pas disponibles partout… et qu’il vous dit que Libre Office n’est pas au point… Comment dire… " />
Comme le disent certains, pour pouvoir lire un fichier docx correctement, il faut quasiment développer un émulateur Word. Il faut être bien naïf pour croire que OOXML est standardisé et que tout va pour le mieux dans le meilleur des mondes.
Alors des phrases du genre « le support de OOXML a été amélioré », on va encore en voir longtemps…
Ça intéresse beaucoup de monde en vrai de remonter jusqu’au premier commit d’un projet ? Parce que par définition c’est souvent assez pauvre, beaucoup de code a été ajouté depuis, des bugs corrigés… Je me pose donc la question : quel est l’intérêt réel ? Ou c’est juste pour connaître l’historique et tenter de revivre la « naissance » du projet ?
David_L a écrit :
Si on part du principe qu’on a le dépôt en local, hors or ce n’est pas franchement toujours le cas ;)
À la maison : PC monté moi-même, Core i7 et 8 Go de RAM, vers 2012 je crois. Depuis j’ai dû changer le disque pour l’OS (un SSD plus rapide), et la carte graphique pour les jeux. En termes de perfs/coûts j’en suis très content.
Au boulot : PC Dell (pas le choix).
En déplacement : Ultraportable ASUS Zenbok à base de Core M + SSD, entièrement fanless, zéro bruit, environ 6h d’autonomie. Clairement pas le top en termes de performances ni d’autonomie, mais j’en suis aussi très content, principalement pour sa légèreté et son côté zéro bruit.
Il y a 10 ans… ça me fait bien rigoler,c’etait pas non plus en 90’ mdr
Je ne trouve pas que ça est évolué tant que ça au final!
Que l’on se mette bien d accord, à l’heure actuelle ,on parle plus “d’innovation” que de “progrès” il y a une grosse différence!
Un copain qui est beaucoup plus jeune que moi m’a montré une vidéo d’un kevin qui s’appelle Squeezie, mondialement connu en France parait-il " /> (des vidéos incroyables et passionnantes) qui a fait une video s’intitulant:
“A quoi ressemblait youtube il y a 6 ans”,on avait l’impression qu’il montrait un truc qui datait du XVIIe siecle :)
Comme quoi, plus on vieilli et plus le temps se fixe comme dirait J.P Luminet…
C’est logique. Pour un jeune de 20 ans, 10 ans ça représente la moitié de sa vie. Parler d’il y a 10 ans, c’est le replonger en enfance. Pour des vieux comme nous, il y a 10 ans notre situation n’était sans doute pas si différente. 10 ans ça ne représente qu’une petite partie de toutes les expériences qu’on a vécues.
Et pourtant, il faut savoir être objectif. Il y a 10 ans :
il n’y avait pas de smartphone en circulation (le premier iPhone venait tout juste de sortir) ; tout le monde était encore avec des téléphones Nokia, voire avec des téléphones à clapet, et pratiquement personne ne consultait Internet sur son smartphone (la plupart des sites étaient pénibles à consulter depuis un mobile)
aucune tablette en circulation non plus
les SSD n’existaient pas, les premiers disques durs de 1 To arrivaient tout juste sur le marché
on sortait tout juste des Core 2 Duo pour arriver vers les premiers Core i5 et i7
les cartes graphiques les plus puissantes étaient les GeForce 9, avec 512 Mo de RAM
c’était l’année du déploiement des premiers réseaux 4G ; jusqu’alors, les gens n’avaient connu que la 3G, et on était contents quand on était en H+
le réseau Minitel n’était toujours pas arrêté (ha ha)
J’en oublie certainement, mais si tu ne vois pas là-dedans quelques vraies innovations, je ne sais pas ce qu’il te faut.
Quant aux vidéos de Squeezie, je ne suis pas fan non plus, mais il faut se rappeler que dans les années 2000 les jeunes s’amusaient avec des blogs (cf la pléthore de Skyblogs et compagnie), dont le niveau n’était franchement pas meilleur…
Quand on est vieux, on a l’impression que pas grand chose n’a changé en 10 ans, mais c’est souvent parce que nous-mêmes, nous n’avons pas changé. Nous avons intégré que le monde autour de nous change vite, alors que notre vie ne change pas si rapidement. Alors, on n’y prête presque plus attention, et on se moque des jeunes. C’est plus simple que de réellement suivre, reconnaître, et comprendre les innovations qui se font.
Car au niveau des prix, il faut reconnaître que l’outremer se fait bien entuber…
Je trouve ça surprenant qu’en outre mer ils attendent un forfait équivalent depuis si longtemps, alors qu’en métropole il suffirait de se plaindre qu’ils aient mieux que nous pour que nous l’obtenions…
Liberté, EGALITE, Fraternité vous dîtes ?
Il y a une grosse incompréhension de ce principe d’égalité.
« Égalité », c’est dans le sens de la Déclaration Universelle des Droits de l’Homme, Article 7 :
« Tous sont égaux devant la loi et ont droit sans distinction à une égale protection de la loi. »
En gros, la Loi est la même pour tout le monde, peu importe l’origine sociale, la religion, etc.
L’égalité, ça ne veut absolument pas dire que tout le monde doit être égal en tout point, avoir le même salaire, ni avoir accès aux mêmes choses au même prix. Il faut arrêter de vouloir mettre de l’égalité partout, ça n’a pas de sens et ça ne sera jamais possible…
heu… donc t’as suffisamment pour charger 3 fois cette page (3.1MB) par mois ? " />
20 Mo c’est amplement suffisant pour consulter ses emails, ça peut suffire à certains usages.
Perso j’ai un forfait avec 100 Mo, et je suis loin de consommer toute ma data tous les mois. Chez moi je suis en WiFi, et au boulot aussi. Quand j’ai besoin de télécharger de gros trucs (applis, vidéos…) je le fais en WiFi. En dehors, je ne consulte quasiment pas Internet, si ce n’est mes emails…
Tout dépend des usages de chacun. Tout le monde n’a pas envie de payer plus de 10 € par mois pour avoir trouzemille Go de data…
Tout ça pour quoi ? Regarder des vidéos de chatons dans le métro ? (attention cette dernière ligne est un troll)
Toi, tu traines trop sur les rézosocio en ce moment : tu sembles faire un lien entre le mot “occupation” et l’occupation allemande de 39-44, entre un mot germanophone et le Nazisme, et finalement entre le Nazisme et la campagne de 2d tour de l’élection présidentielle.
Ta déprime momentanée ressemble à un point Godwin que les prosélytes des rézosocio ont, pour quelques-uns, largement dépassé.
Je fais un trait d’humour et tu en déduis tout ça sur moi ? Chapeau " />
joma74fr a écrit :
on peut parler du fond sans étaler ses préjugés sur des personnes qu’on ne connaît pas.
Ou alors, tu peux parler du fond tout en étalant tes préjugés sur des personnes que tu ne connais pas, comme tu viens de le faire… " />
Le
01/05/2017 à
08h
30
De l’occupation pour ce week-end prolongé
matroska a écrit :
Drei !
Un peu déprimant comme humour en cette période électorale…
on reste quand même sur un film qui ne mérite pas qu’on dépense une place de ciné, malgré sa réussite visuelle
Une telle façon de dire les choses, avec le « on » de généralisation comme si c’était évident et vrai pour tout le monde, ça laisse peu de place à la discussion…
Seuls les Siths raisonnent en absolus… ;-)
Le
02/04/2017 à
11h
14
David_L a écrit :
Comme dit à la fin de la critique, le film n’est pas mauvais, mais je doute qu’on puisse se dire “oh ben j’en ai pour le prix de ma place de ciné”. Disons que ça occupera bien un dimanche soir à la TV.
Une chose que j’ai oubliée de dire : à mon avis, Lucy mérite amplement ce que vous en dites. Je trouve aussi que ce film était une daube sans nom, incohérente, inintéressante, insipide, y’a rien à sauver dans ce film. Même si un soir je m’ennuie, je ne le regarderais pas.
Je trouve assez exagéré de comparer GITS à cette daube de Lucy. GITS n’est quand même pas à un niveau aussi bas, et ça ne me dérangerait pas de le revoir (malgré les imperfections citées plus haut).
M’enfin chacun ses goûts " />
Le
02/04/2017 à
10h
15
Je trouve cette critique un peu dure.
Effectivement, les visuels sont le point fort de ce film (y compris le « fan service » qui consiste à reprendre les scènes les plus emblématiques du film original). Effectivement, le scénario de l’original était bien plus complexe et une partie des éléments les plus intéressants (Puppet Master, dimension philosophique…) sont passés à la trappe dans cette version 2017. Indéniablement, le film a été « hollywoodisé » pour le grand public.
Maintenant, je pense que l’équipe du film a justement été pragmatique. Ghost in the Shell (et sa suite Innocence) sont des films cultes, emblématiques, pour… une petite communauté. Ils n’ont jamais percé auprès du grand public, et pour les avoir montrés à des amis autour de moi, ces films passent pour des curiosités difficiles à comprendre, pour des « brainfucks », avec des réflexions philosophiques sur le transhumanisme qui dépassent la plupart des gens. Les gens ne comprennent déjà pas comment fonctionne un smartphone, alors leur demander de réfléchir aux modifications technologiques d’un être humain et leurs conséquences (qui est le plus humain : un robot doté d’un ghost d’origine humaine, ou bien une intelligence artificielle dénuée de corps ?). Perso je suis un fan de GITS, mais je suis aussi capable de voir pourquoi ces films sont trop complexes pour le grand public, avec des questionnements qui dépassent la majorité des gens.
Alors, le but de Hollywood était de faire un film grand public, afin de le faire sentir un peu les problématiques liées au transhumanisme, sans pour autant (re)tomber dans des scènes longues de contemplation (le grand public déteste quand il ne se passe rien dans un film, encore plus quand on lui demande de réfléchir -n’entend-on pas souvent « quand je regarde un film ce n’est pas pour me prendre la tête »). Le grand public veut en avoir plein les mirettes, il veut que ça bouge.
Et justement, je trouve que le film garde tout de même un rythme relativement lent. Certes il y a plus de scènes d’action que dans l’original, mais comparé à ce que fait Hollywood d’habitude, je trouve qu’ils se sont retenus.
Ce qui m’a le plus dérangé dans ce film, c’est le fait que Motoko retrouve sa mère et discute avec, et qu’elle ait été une marginale. Ça, ça sort de nulle part, et ça n’apporte rien à l’intrigue : du coup, je ne comprends pas pourquoi ils ont fait ça.
Quant au fait que Takeshi Kitano parle japonais, cela ne m’a pas dérangé. On sait qu’ils ont tous des implants, on imagine assez facilement qu’ils ont des traducteurs intégrés. Au contraire, ça colle à un monde multi-culturel où la barrière de la langue n’existe plus. De plus, ça m’a assez fait plaisir de le voir dans ce film, dans un rôle finalement assez badass qui lui va plutôt bien.
En bref, je reste beaucoup plus fan des films originaux, mais je trouve que pour le grand public, ce film est une adaptation assez bonne (à défaut d’être fidèle).
Celui-ci est par contre réservé aux nouveaux clients (avec ou sans portabilité), les anciens ne peuvent pas en profiter.
C’est bien ça que les clients trouvent incompréhensible. Tu es un client fidèle depuis plusieurs années ? Désolé va te faire va au diable, ce qui nous intéresse c’est d’attirer de nouveaux clients.
La stratégie des opérateurs est extrêmement claire et cynique : ils savent que les clients peuvent facilement changer d’opérateur. Contrairement aux années 1990, aujourd’hui un client n’éprouve aucun sentiment de fidélité envers son opérateur, il peut en changer en trois clics, et de plus en plus de gens préfèrent les forfaits sans engagement. Dès lors, pourquoi récompenser une pseudo-fidélité qui n’existe pas ? Tant pis pour ceux qui partent, ils ne sont pas définitivement perdus : ils ne seront pas non plus fidèles à leur prochain opérateur, et ils pourront toujours revenir dans un an ou deux, grâce à la promo du moment.
Business is business… Pour ceux qui se plaignent que leur fidélité n’est pas récompensée : vous avez tout à fait raison, alors arrêtez d’être fidèle, ça ne paye pas. Allez chez l’opérateur qui correspond le mieux à vos besoins, et n’hésitez pas à en changer si vous voyez une meilleure offre ailleurs.
Pour avoir parlé avec des devs d’un gros constructeurs, quand ils ne le font pas c’est pour éviter de payer pour des utilisateurs qui “s’en foutent”. Bref, c’est de la négligence.
Malheureusement, ce genre de réaction de la part des constructeurs ne m’étonne pas.
Si l’utilisateur ne sait pas que son appareil est vulnérable, alors il ne s’en plaindra pas. Dès lors, pourquoi dépenser du temps et de l’argent pour développer un patch, faire tous les tests sur tous les modèles en circulation, le déployer (avec les coûts en bande passante et les risques de briquage si le patch se passe mal) ?
Par contre, quand il y a un gros scandale genre Stagefright qui défraye la chronique et se retrouve partout dans les médias, là les constructeurs annoncent qu’ils font tout leur possible, qu’ils ont toujours voulu la sécurité des utilisateurs…
Business is business. Si la sécurité des utilisateurs n’est pas rentable, elle est laissée de côté. Ou plutôt, tant qu’elle ne fait pas scandale, on ne dépense rien pour elle. On ne peut pas vraiment attendre grand chose d’autre des constructeurs, malheureusement… " />
Le
17/03/2017 à
14h
41
trekker92 a écrit :
comme indiqué plusieurs fois le libre est à la fois un avantage et un inconvénient
l’avantage de pouvoir etre vérifié par mesure de sécurité
l’inconvénient d’avoir trois geeks pour vérifier trois milliards de lignes de codes sources avant demain 8 heures.
trouvez maintenant qui de microsoft ou kernelbidouille pour etre le plus sécurisé, moi j’ai déja choisit, c’est pas une banquise.
ps: non, nous ne cesserons notre combat contre les geeks/nerds/libristes.
Niveau d’orthographe : kikoolol.
(niveau de réflexion aussi d’ailleurs)
Zerdligham a écrit :
Ma boule de cristal perso me dit que vu le nombre de gadgets connectés low-cost basé sur un linux et dont la sécurité a été conçue en dépit du bon sens, les botnets du futur tourneront quasi-exclusivement sur linux.
Je ne serais pas étonné que ce soit déjà le cas (mais je n’ai pas de source pour l’affirmer)
C’est sûr que si Mme Irma se met à troller avec des prédictions impossibles à vérifier, le débat va vachement avancer…
Le
17/03/2017 à
14h
00
Mr.Nox a écrit :
Et on vient parler pour Microsoft….
Edtech a écrit :
" /> à Google qui ne l’a pas révélée après 90 jours !
Bamaury a écrit :
Encore un truc qui n’est possible que chez les fumistes libristes
DUNplus a écrit :
C’est peu être open source, mais y a pas grande monde qui va voir ce que c’est.
wawadou a écrit :
en même temps pour ce que représente Linux contrairement à Windows…
Comparaisons hors de propos, insultes, gros clichés déjà lus dix mille fois… Pas terribles les trolls aujourd’hui.
Allez, je vous mets un " /> pour l’effort collectif…
Je suis le péquin moyen, pas du tout informaticien ou apparenté. Tout ce que je veux c’est un OS qui fonctionne bien, facilement, stable, facile à réparer au cas où et avec des logiciels pour faire ce que j’ai à faire.
A ce jeu là, Ubuntu répond très bien. A la limite y aurait besoin de rien d’autre… sauf que je pige queue dalle au fonctionnement d’Unity. Alors j’utilise Mint et elementary OS. La première et LA distri grand public et la seconde a un bel avenir devant elle, elle a d’ailleurs fait indirectement bougé les choses depuis qu’elle est entrée dans le top ten des distro sur distrowatch.
OK, tu n’es pas informaticien, tu as trouvé une distrib ou deux qui peuvent répondre à tes besoins. Très bien.
Et donc, les autres distrib sont superflues, elles peuvent bien disparaître ? Super ta logique ! " />
Tu ne conçois vraiment pas qu’il existe d’autres gens, qui ont d’autres besoins que toi ? Et donc, qui peuvent avoir besoin de distribs différentes ?
Personne n’a dit que TOUTES les distribs devaient être utiles à tout le monde hein ! " />
Le choix permet que chacun trouve chaussure à son pied. Personne ne t’impose d’utiliser Slitaz ou Gentoo si tu n’as pas envie. Alors de ton côté, n’empêche pas les autres d’utiliser des distribs différentes s’ils en ont envie…
Le
08/03/2017 à
10h
48
dandrz a écrit :
Où ai-je écrit produit unique? J’ai dit 20 bien, 200 pas bien. 20, même 10 ça laisse un bon choix et une bel émulation entre distro.
Ceci dit je m’en fous grave que Linux ne reste que sur 1% des postes bureautiques hein, ça m’emperchera pas de dormir comme le fait que l’intégrisme idéologique et l’aveuglement d’une partie de la communauté est légendaire et bien vivace. Ce serait dommage de se remettre en cause après un tel échec, non c’est la faute des autres qui comprennent rien.
Pourquoi « pas bien » ? Qui es-tu pour juger ce que font les autres ? " />
Pourquoi parles-tu d’« échec » ? Un échec pour qui ? Qui est dans la merde parce que Linux ne représente que 1% sur le desktop ? Quelle entreprise, quelle individu ? " />
Effectivement tu ne comprends vraiment pas le modèle économique de Linux… Tu te bases sur les modèles commerciaux des autres (si Windows tombait à 1% ce serait catastrophique pour Microsoft, idem pour Android/Google), et tu calques ce raisonnement sur les distributions GNU/Linux. Alors oui, effectivement, on dit que ton raisonnement est mauvais et que tu ne comprends pas…
Ça fait juste 20 ans que le libre existe et explique ses modèles (économique, d’ouverture du code, etc.), mais bon, ce serait vraiment dommage d’essayer de comprendre maintenant. Non, c’est plus simple de tout balayer en disant que les libristes sont des intégristes qui sont seuls dans leur garage, ça demande moins d’efforts. " />
Le
07/03/2017 à
18h
53
dandrz a écrit :
… comme 90% des distri dont on se demande à quoi elles peuvent servir à part faire plaisir à ceux qui les “conçoivent”. Plus de 200 distri et pas 20 qui soient utiles (on va me dire qui je suis pour écrire cela, je répondrais une simple personne avec un peu de bon sens).
Bref belle exemple de dispersion de talent, d’effort et de temps.
A+
Ouais, c’est comme tous ces ingénieurs qui travaillent pour des marques de voitures concurrentes, avec tous ces modèles… Franchement c’est une perte de temps et de talent, ils feraient mieux de tous travailler sur le même modèle de voiture, ça serait beaucoup plus efficace ! " />
Le
07/03/2017 à
18h
50
dvr-x a écrit :
Tu m’as tué ! Du coup, je vais voir ton lien par curiosité, je clique sur un nom “Donation total 4€80”, arf, je clique sur un autre, “Donation total 9€60”…
Enfin, je plaisante, mais il y a une belle liste. Juste que ce n’est pas très révélateur. Personnellement, je la connaissait de nom, mais il est vrai que je ne m’y suis jamais intéressé. A tord peut être…
« A tord »… Là c’est toi qui m’a tué : on écrit « à tort » avec un T, car c’est bien connu, le tort tue…
mezcalbert a écrit :
Attention que Distrowatch n’est pas représentatif de l’utilisation statistique d’une distribution, mais bien du simple nombre de curieux ayant visité la page de la distribution sur Distrowatch (ou popularité, si c’est à ça que tu faisais rréférence). On est souvent bien loin des stats d’utilisation réelle.
Au mieux, cette popularité/hype va influencer positivement l’utilisation à moyen terme.
Je le sais bien, c’est le commentaire que tout le monde copie/colle dès que l’on cite Distrowatch. Mais hélas, les « stats réelles », c’est comme le dahu : tout le monde en parle, mais personne ne les a vues. Alors, dans un monde où il est impossible d’avoir des chiffres précis sur le nombre d’utilisateurs d’une distribution, on se rabat sur les indicateurs que l’on peut. C’est facile de dire que ce ne sont pas les vrais chiffres, alors que tout le monde sait très bien que les vrais chiffres, personne ne les a (même pas les responsables des différentes distro).
Cela dit si tu as des sources plus fiables, n’hésite pas à les donner. " />
Le
07/03/2017 à
14h
26
JCDentonMale a écrit :
Qui utilise Mageia ? C’est bien d’avoir le choix, mais c’est loin d’être la distro la plus connue…
Tu peux commencer par aller faire un tour sur leur page des donateurs, tu auras une idée des gens et des entreprises qui supportent Mageia (ce qui n’est qu’une petite partie des utilisateurs totaux).
Ensuite, Distrowatch la classe en 18e position, devant d’autres distributions grand public comme Lubuntu, Kubuntu, Puppy Linux ou SteamOS, et devant des distributions spécialisées comme Red Hat, Gentoo ou Slackware.
Enfin, l’existence d’une distribution ne dépend pas de sa popularité, et heureusement. Si un groupe de personnes a besoin d’une distribution, ils continuent de la développer, peu importe s’il y a de nombreux autres utilisateurs ou pas. Ils la développent car ils en ont besoin, et non pas pour se faire une grosse part de marché.
A part pour l’aspect marketing/vendeur auprès de la populace convaincue qu’il faut un core I7 pour surfer sur Fassebouque, je ne vois pas trop l’intérêt des appli Android sur Chrome OS. Après tout ce ne sont que des emballages de sites internet.
Pas compris " />
Tu crois que toutes les applis Android ne sont que des emballages de sites Web ?
C’est loin d’être le cas. Beaucoup sont des applis complètes et susceptibles d’intéresser des utilisateurs de Chromebook, à commencer par les logiciels de productivité (suite MS-Office…), les jeux, etc.
Cependant, pour le matos, ça dépend du matos que l’on a. Par exemple, j’ai toujours pas de support pour le rack externe de ma Creative X-Fi Elite Pro (oui oui, elle est toujours en vie). Ceci dit, depusi que j’ai changé de bécane, j’ai pas retesté Linux dans l’optique gamer.
Ah ? J’ai aussi une Creative X Fi (me rappelle plus le modèle), et elle est très bien reconnue sur mon HTPC sous Linux, j’ai du son 5.1 et tout (dans Kodi et dans les jeux).
Après, c’est sûr, il faut toujours vérifier que le matériel est bien compatible avec l’OS, mais ça c’est vrai quel que soit l’OS…
Le
23/11/2016 à
09h
54
Félicitations à l’équipe de Fedora pour cette nouvelle version, en espérant que Wayland va prendre de l’ampleur et bien s’améliorer dans les mois et années à venir " />
Jaskier a écrit :
C’est pas comme ça que Linux va s’imposer sur le maché des gamers Linux.
Oh wait, ça existe ? (quoique, quand je vois le four qu’on fait les steambox)
C’est vrai que les Steambox n’ont pas eu beaucoup de succès. Par contre, je suis moi-même gamer sous Linux, et j’apprécie que l’offre se soit considérablement développé ces dernières années. J’ai pu installer Steam, ainsi que pas mal de jeux - des jeux que j’ai achetés de bon cœur : Civ V, Left4Dead 2, Shadow of Mordor, Age of Wonders 3, Grid…
Du coup, ayant déjà un PC de salon sous Linux (et Kodi), j’ai installé Steam dessus et j’ai pu transformer ce PC en console de jeux, avec deux manettes pour jouer à plusieurs. Je n’ai pas acheté de Steambox, je m’en suis fait une maison. Je gage que beaucoup de gamers sous Linux ont fait la même chose.
Aujourd’hui, jouer sous Linux n’est plus synonyme d’heures de bidouillages avec WINE et autres pis-aller. On peut jouer nativement, il commence à y avoir un véritable choix dans les jeux (de l’indé jusqu’au AAA), le matos est très bien reconnu (son 5.1, manettes de jeux, etc). Et franchement, c’est carrément appréciable.
Alors certes, tous les jeux Windows ne sont pas dispo sous Linux. Mais c’est toujours pareil quand on change de plate-forme : tous les jeux Windows ne sont pas disponibles sur PS4, de même que tous les jeux XBOX One ne sont pas dispo sur Wii U… Quand on choisit une plate-forme, on n’a jamais accès à tous les jeux, mais uniquement aux jeux dispo sur cette plate-forme. En cela, rien d’étonnant à ce que tous les jeux ne soient pas dispo sous Linux. Mais l’offre évolue, et de plus en plus de jeux sont dispo.
Pour moi ce n’est pas une « faille ». Une faille (ou vulnérabilité), c’est un bug non prévu par les développeurs, qui permet à une personne malveillante d’avoir des droits qu’il ne devrait pas avoir (accès root, accès à certains fichiers, etc.). Si la faille est prévue par les développeurs, alors on n’appelle plus ça une faille mais une backdoor…
Là, c’est plutôt un programme qui a été mal conçu. On est typiquement dans le defective by design. Cryptsetup est censé chiffrer les partitions et les protéger. Mais un développeur a volontairement fait en sorte qu’au bout d’un certain nombre de tentatives, le programme laisse tomber et donne un shell avec accès root. Comment cela peut-il sembler être une bonne idée ? Personne ne s’est aperçu que ça va complètement à l’encontre de ce que l’outil est censé faire ? " />
Bref, pas un bug ni une faille, mais une mauvaise décision des programmeurs…
Je crois surtout que par “partir en live”, il souligne le fait que ta liste d’éléments potentiellement collectés que tu énonces (nom, prénom, tout leur parcours scolaire, leurs notes, leurs recherches Internet, leurs emails, conversations Skype… ) semble non seulement peu plausible
Peu plausible ?
Tu t’es renseigné un peu sur le « partenariat » ou pas ?
« 3. La mise à disposition de solutions pour une utilisation pertinente, facile et optimale des équipements mobiles. Ce plan passe notamment par la mise à disposition de l’écosystème Cloud de Microsoft pour tous les établissements scolaires du Plan Numérique à l’École qui le souhaiteraient. »
Dans l’accord de partenariat (je te laisse cliquer sur le lien du PDF) :
« Mise à disposition de l’écosystème Cloud de Microsoft (Office 365 Education, Microsoft Azure Active Directory, etc.).
(…)
Création et expérimentation d’une plate-forme d’analyse des données d’apprentissage des élèves (learning analytics), (…) qui permettra (…) de récupérer les données nécessaires au renseignement de ces indicateurs (données, traces d’activités, etc.) »
Bref, il est clair que :
(1) c’est l’établissement scolaire qui décide ou non d’utiliser les produits Microsoft ; les parents n’ont pas leur mot à dire.
(2) Les élèves travailleront dans le Cloud de Microsoft. Ils travailleront avec des fichiers Word, Excel et autres dans Office 365, y taperont leurs rapports, et ainsi de suite. Ils utiliseront un compte Microsoft, qui servira pour les authentifier sous Windows, pour utiliser Office 365, pour apprendre à utiliser les emails, et ainsi de suite : bref, Microsoft récoltera sur ses serveurs l’historique Web des élèves, les recherches qu’ils font (Bing, Cortana), les emails, et ainsi de suite. Mais bon, il suffit de dire : « c’est de la télémétrie », et tout le monde se dit « oh ben ça va alors », alors que personne ne sait réellement ce qui est récolté.
(3) Microsoft mettra en place une plate-forme regroupant et analysant l’évolution des élèves : en gros, leur parcours scolaires, leurs notes, leur évolution quoi.
Alors, toujours aussi farfelue ma liste ? Je la rappelle : « nom, prénom, tout leur parcours scolaire, leurs notes, leurs recherches Internet, leurs emails, conversations Skype »… Ben non, moi je pense que cette liste est tout à fait réaliste, et qu’il est effectivement pertinent de s’inquiéter de comment toutes ces données seront enregistrées et traitées par Microsoft. Parce qu’une phrase « on va signer une charte de confiance », ça fait joli, mais je trouve ça un peu léger.
Le
10/11/2016 à
13h
35
carbier a écrit :
Sinon juste pour rire, à part partir en live, tu as des infos sur les données collectées ?
Car c’est précisément le but de la saisie: je serai toi je me rapprocherai du collectif, histoire de leur faire gagner des frais d’avocat inutiles…
Je ne pars pas en live, je dis juste que ces questions sont légitimes, et j’aimerais bien savoir ce qu’il en est vraiment.
Déjà, je sais que le but du « partenariat » est que les enfants utilisent les produits Microsoft : Outlook, Skype, MS-Office, et One Drive.
Dans une utilisation habituelle, ces logiciels récoltent bel et bien toute une série de données, de la télémétrie, jusqu’aux fichiers que tu stockes dans One Drive, les emails que tu stockes chez eux, et ainsi de suite.
Microsoft propose peut-être ces produits « gratuitement » à l’Éducation Nationale, mais tu ne me feras pas croire qu’ils le font par pure bonté d’âme, et qu’ils enlèveront toute la collecte de données hein. " />
Du coup les questions sont légitimes. Qu’est-ce qui est réellement récolté : télémétrie, données personnelles, historique de recherches, emails, conversations… ? Que fait Microsoft de ces données : profilage, publicité ciblée ? Où est-ce stocké : en France, aux États-Unis ? Pour combien de temps : un an, à vie ?
Mon petit doigt me dit qu’on n’aura droit qu’à des réponses floues, car ce sont des questions sensibles. Microsoft a tout intérêt à récolter un max de données, mais à ce qu’on ne sache pas ce qu’ils récoltent (comme Google ou Facebook au passage hein, même combat). Mais tu as raison, on va attendre d’avoir les réponses, on verra bien…
Le
10/11/2016 à
11h
30
C’est bien la moindre des choses, vu que Microsoft va récolter et traiter les données de millions d’enfants français : nom, prénom, tout leur parcours scolaire, leurs notes, leurs recherches Internet, leurs emails, conversations Skype… Ça mérite bien que la CNIL y jette un œil ! Puisque la majorité des parents n’a pas l’air d’être choquée par cet accord…
Moi ce qui me choque dans ce « partenariat », c’est que les enfants sont mineurs, ils n’ont pas les moyens de savoir ni de comprendre ce qui est fait avec leurs données. Quand ils seront en âge de comprendre, il sera trop tard : leurs parents et l’Éducation Nationale auront déjà donné toutes leurs données à Microsoft, sans leur accord… Les enfants pourront-ils alors porter plainte contre l’État ?
Quand des adultes responsables donnent leur vie à Facebook, Google ou Microsoft, c’est leur problème, ils sont responsables de leurs actes devant la Loi. Mais là, qui est responsable de donner en pâture les données de tous ces enfants ? Les enfants sont légalement non responsables, alors qui sera jugé responsable ?
Je ne comprends pas : tu dois te connecter à ton FAI, et c’est lui qui te donne (et trace) ton IP.
Je ne vois pas comment par exemple, remplacer un live box par un modem (ADSL). Et encore moins pour la fibre.
Mais ce n’est pas mon domaine de compétences j’avoue.
Pour faire simple :
Si tu utilises un modem (uniquement modem), alors ton ordinateur est connecté directement à Internet, et c’est lui qui a une IP publique sur Internet. Du coup cela implique que, si tu as d’autres ordinateurs chez toi, ils doivent passer par l’ordinateur avec le modem : cet ordinateur sert de « relai ». Seul l’ordinateur relié avec le modem a une IP publique, les autres n’ont qu’une IP locale. Ça implique de bien configurer le réseau de ton PC pour qu’il serve de relai… ce qui dépasse les compétences de la majorité des gens.
C’est pourquoi la plupart des FAI te fournissent une box, qui n’est pas qu’un simple modem, mais qui est un « ordinateur » qui fait aussi routeur. Dans ce cas, seule la box a une IP publique (décidée par ton FAI), et tous les ordinateurs de ton foyer n’ont qu’une IP locale.
Performant en effet mais sécurisé si. Vista a apporter énormément de techno liées à la sécurité notamment l’ASLR qui était bien plus utilisé sur Windows que sur Linux à la sortie de Vista.
Tu es sûr ?
Implémentation d’ASLR dans Linux : 17 juin 2005 (noyau 2.6.12).
Sortie de Windows Vista : 2007.
Le
07/11/2016 à
11h
55
djelme a écrit :
J’ai toujours défendu MS parce qu’ils ont amené l’informatique dans tous les foyers, ce que n’ont pas su faire les talibans du libre et autre barbus farcis de préjugés (et pour certains d’agressivité).
Ah d’accord, il y a d’un côté le gentil Microsoft qui a amené l’informatique dans les foyers, et de l’autre les « talibans du libre ». Très belle façon de présenter les choses dis-donc, tout en finesse et en nuance " />
Ceux qui ont amené les ordinateurs dans les foyers, ce sont avant tout les fabricants comme Compaq, HP et autres. En hackant le BIOS d’IBM pour faire des « compatibles PC », ils ont amené de la concurrence, ce qui a permis d’améliorer considérablement les qualités des PC, et leur prix de vente. C’est surtout ça qui a permis aux gens d’acheter des ordinateurs : que leur prix de vente devienne accessible. Et ça, ce n’est pas grâce à Microsoft tout seul hein…
Tu veux refaire l’histoire ? Si Gary Kildall (développeur de CP/M) avait signé le contrat avec IBM, alors IBM aurait eu un OS pour ses PC, et n’aurait jamais contacté Bill Gates. Si Bill Gates n’avait pas racheté QDOS 35000 $ pour le licencier à prix d’or à IBM, MS-DOS n’aurait jamais existé et Microsoft non plus. Si Microsoft n’avait vendu MS-DOS qu’à IBM (et à aucun autre constructeur), il n’y aurait pas eu de concurrence Compaq/HP/etc., et le prix des PC serait resté prohibitif, et ce sont d’autres acteurs (et un autre OS) qui auraient amené l’informatique dans les foyers.
Microsoft a joué un rôle dans l’informatique personnelle, mais il ne faut pas croire qu’ils ont été les seuls. Tu peux remercier tout un ensemble d’entreprises : Microsoft toute seule n’aurait jamais pu amener l’informatique dans les foyers.
Quant aux logiciels libres et à Linux, si pour toi ça se résume à des talibans, désolé mais on ne peut plus rien pour toi. S’il y a un extrémiste agressif ici c’est toi, en faisant des raccourcis pareils… " />
bon en même temps chez la concurrence en PC, la ram est aussi soudée et il ne me semble pas que ca gueule autant… " />
Ah ben si, la RAM soudée a toujours été considérée comme une hérésie par les amateurs de PC… D’ailleurs dans le lien que tu cites, le client dit bien que le fait que la RAM soit soudée le fait hésiter à acheter, car ce ne sera pas upgradable…
Dans les années 1990 certains constructeurs usaient déjà de cette pratique, dans des PC de bureau. Là, aucune raison technique ou d’encombrement de souder la RAM, c’était purement commercial : pour changer la RAM tu devais retourner les voir et raquer, ou changer de PC… Et déjà à l’époque, ça avait beaucoup gueulé.
Dans un autre registre, quand Intel a sorti ses processeurs Pentium IV, ils avaient bloqué le multiplicateur CPU. Or, la fréquence du CPU est la fréquence du FSB (Front Side Bus), multipliée par ce multiplicateur. Avec les CPU précédents, il était possible de modifier les deux pour faire de l’overclocking. Mais en bloquant le multiplicateur sur les Pentium IV, Intel limitait sévèrement l’overclocking. Et ça, ça a beaucoup fait gueuler dans les chaumières aussi… (cherche “unlock pentium 4 multiplier” dans Google, tu trouveras des discussions de l’époque…)
Non non, détrompe-toi, dès que tu empêches la bidouille et le changement de composants dans un PC, les gens râlent…
Le
02/11/2016 à
09h
46
manu0086 a écrit :
Eh oui, le Macbook Air est devenu la norme chez Apple… c’était un prototype et tous leur app tendent vers cela maintenant… ce qui est stupide… limiter la puissance pour avoir un portable plus léger et plus fin… C’est aberrant de voir des Macbook pro avec 5 ans de différence n’ayant quasiment pas évolué au niveau puissance…
piwi82 a écrit :
Le fait que la puissance n’évolue pas (ce qui est faux d’ailleurs) n’est pas un problème. Je préfère aujourd’hui avoir une machine mobile avec une bonne autonomie qu’un monstre de puissance qui vide sa batterie en 1h30
Alors, problème ou pas problème ?
La vérité c’est que c’est à chacun de se faire son opinion, selon ses usages et ce qu’il recherche…
Certains ont besoin d’un portable avec beaucoup de puissance. D’autres n’ont pas besoin de beaucoup de puissance, mais surtout d’autonomie. Certains ont besoin de beaucoup de stockage (> 1To), d’autres préfèreront un petit SSD véloce. Certains ont des applications très gourmandes en RAM (>8 Go), d’autres se satisferont très bien de 2 Go.
Il est donc vain de tenter de faire des jugements tranchés du genre « c’est aberrant », ou bien « ce n’est pas un problème ». Pas la peine de débattre pendant des heures de qui a raison et qui a tort : tout dépend des usages et besoins de chacun " />
Le
02/11/2016 à
07h
55
Logique : Apple utilise des composants de PC (archi x86), mais ne veut pas que ses machines soient des PC. Du coup ils ont recours à ce genre de stratagèmes : connectiques internes propriétaires, vis spécifiques, RAM soudée…
Un PC ce n’est pas seulement une architecture (x86), c’est aussi le fait de pouvoir changer à peu près ce qu’on veut dedans. Même dans les Ultrabook, qui sont pourtant aussi compacts que les Macbooks, il est souvent possible de les ouvrir (vis standards) pour changer le disque dur, la RAM, et/ou la batterie.
Sachant que 99% du temps, il suffit de balancer de l’argent sur une faille pour qu’un correctif parfait apparaisse, ou qu’il suffit de mettre 100 fois plus de dev pour corriger une faille 100 fois plus vite, j’ai du mal à voir où tu veux en venir " />
Quand un modérateur trolle, il faut le signaler à qui ? " />
La NSA ajoute pas mal de truc dans Linux en fait, et bah personne n’est capable de dire quelle sont les implications réel simplement parce qu’à partir d’un moment la complexité du code rend son analyse impossible.
La NSA contribue effectivement dans Linux, ce n’est pas nouveau, ça date au moins de 2003 voire avant. Rien de secret là-dedans, pas d’espion qui se serait déguisé ni infiltré… Ils font ça de façon tout à fait ouverte, et leurs commits sont clairement estampillés et visibles de tous.
La NSA contribue surtout aux modules SELinux, et principalement… parce que la NSA utilise elle-même Linux et qu’elle veut se protéger. On pense souvent à la NSA qui espionne les autres, mais la NSA (et les autres agences américaines) sont aussi des cibles d’attaques, il est donc naturel qu’elles s’impliquent dans des modules de sécurité. Alors oui, peut-être que la NSA a mis des backdoors dans SELinux (ou d’autres partie du noyau), mais on sait très bien qu’une backdoor n’est pas réservée à son créateur : n’importe qui trouvant la faille peut l’exploiter. Donc, en mettant une backdoor dans un OS qu’elle utilise, la NSA se rendrait elle-même (et les autres agences, et tous ses agents qui utilisent Linux ou Android) vulnérables à un éventuel pirate (ou une autre agence) qui pourrait aussi exploiter cette backdoor. Une agence de sécurité et d’espionnage prendrait-elle un tel risque ? Pas sûr.
Peut-être que le code est complexe à relire. Ça n’empêche qu’il est relu et audité par d’autres : la NSA n’ajoute pas du code dans Linux sans supervision hein… D’autres développeurs -y compris chez les autres grandes puissances comme la Chine- relisent et testent le code source. La Chine veut arrêter d’utiliser Windows car ils veulent l’indépendance numérique, et ils se tournent vers Linux : tu penses bien que s’ils trouvaient le moindre problème, ils se feraient un plaisir d’en faire un gros scandale…
Peut-être que la NSA a mis une backdoor et que pour l’instant elle n’a pas été découverte. Mais si un jour elle est découverte, on saura qui a développé ce code (les commits sont suivis hein), et la NSA se verra exclue de tout projet Open Source.
Si tu crois que les failles sont découvertes en lisant le code source, tu te trompes. La plupart du temps elles sont découvertes en faisant tourner l’appli, et en analysant ce qui entre et sort par le réseau par exemple. Jusqu’à aujourd’hui, aucune donnée suspecte n’a été repérée sous Linux… Et pourtant s’il y a des ordinateurs dont le réseau est étroitement surveillé (et par différentes entités partout dans le monde), ce sont bien les serveurs sous Linux. Rien n’a jamais été détecté, nulle part.
Dans la majorité des distributions grand public, SELinux n’est pas activé. Donc ce n’est pas avec ça que la NSA risque d’espionner massivement la population…
Conclusion générale : l’argument « peut-être qu’il y a une backdoor et on ne le sait pas », c’est du FUD, c’est de la théorie du complot. C’est du même niveau que de dire : « personne n’a jamais vu d’éléphant rose voler, mais si ça se trouve ça existe, tu ne peux pas prouver le contraire ». Une fois que tu as dit ça, tu n’as rien dit, tu n’as rien démontré. Tu as juste essayé de faire peur aux gens, de les faire douter : c’est du FUD pur et dur.
Oh, tu peux bien inventer d’autres arguments du même acabit pour contrer mes arguments ci-dessus : « la faille est peut-être discrète », « ça peut être une faille dormante que la NSA n’a pas encore activé », « peut-être qu’ils collaborent avec les chinois pour développer des backdoors »… Ouais, et peut-être qu’un éléphant rose vole au-dessus de chez toi en ce moment et tu ne le vois pas : tu ne peux pas me prouver le contraire. Tous ces arguments que tu peux sortir ne sont que des « peut-être ». Des inventions, rien de concret. Si tu viens nous donner des preuves concrètes, les lignes de code incriminées, les traces réseau qui démontrent qu’il y a un problème, là oui on t’écoutera. En attendant toutes ces suppositions sorties de ton chapeau ne sont que du FUD.
Par contre, le fait que Microsoft a collaboré avec la NSA, et lui a facilité l’accès à Outlook et à Skype pour espionner les gens (y compris des américains), ça ce sont des faits avérés, révélés par Snowden. Ce ne sont pas des suppositions tu vois, ce n’est pas du « peut-être ». C’est du concret, du solide, des FAITS. Mais j’imagine que tu es davantage méfiant envers les contributions de la NSA à Linux, qu’envers ton Windows que tu utilises tous les jours. Si c’est le cas, alors ta confiance en Windows n’a rien d’objectif ni de raisonné : c’est une confiance irrationnelle.
teddyalbina a écrit :
Surtout en codant des OS avec des langages à effet de bord et non déterministe comme C/C++. La seule façon d’avoir un OS sécurisé et de laisse tomber quasi complètement les archi moisie des années 70 et de tout repenser de 0, en utilisant des processus scellés, des contrats signés, en interdisant la mémoire partagée etc. En isolant, les applis dans des micro VM.
Tu peux regarder les sources de Singularity pour ça OS expérimentale de MS sur le sujet. Ou encore Barelfish.
Certes, je suis bien d’accord. Mais pour l’instant il n’existe aucun OS sur le marché qui réponde à ce que tu décris.
Le
24/10/2016 à
16h
21
Shyfer a écrit :
On met un peu trop de responsabilités sur les libristes comme vous dites, mais regardez un peu les stats de github; qui contribue énormément aux logiciels libres ?
Des anges de la vie privée bien sûr !
Il suffit d’aller faire un tour sur : GitHubHum, ces anges de la vie privée s’appellent : Microsoft, Facebook et Google…
Huum, y a pas comme un pépin ?!
Dans le cas de logiciels propriétaires : Microsoft développe son code dans son coin et personne d’autre ne peut le voir. Facebook développe son code dans son coin et personne d’autre ne peut le voir. Et ainsi de suite. Donc, si un bout de code est mal fichu, si une routine est mal conçue ou buggée, personne d’autre ne peut le voir ni le corriger pendant le développement. Si Microsoft ajoute du code sur demande de la NSA, personne ne peut s’en apercevoir. C’est la magie du Closed Source, tout se passe en vase clos, tout le développement est opaque.
Dans le cas de logiciels libres : Microsoft contribue à un projet, son code peut immédiatement être relu et audité par Google, par Red Hat, Canonical, ou n’importe qui d’autre. Google contribue à un projet : son code peut aussi être audité par Microsoft, Canonical, Intel… Bref les concurrents sont censés veiller au grain. Donc si une routine est développée à l’arrache, avec des mauvaises déclarations ou quoi, ça se voit tout de suite. Et crois-moi, si Red Hat pouvait attaquer Canonical sur ses contributions, ou si Google pouvait dire que Microsoft a fait de la merde, ils ne se gêneraient pas.
Humm, tu vois un peu la différence ou pas ?
Shyfer a écrit :
Et là, carton rouge Androïd… Un des seuls OS avec un support technique avec une moyenne pitoyable… Mais il est pas en partie open source Androïd ?
Oui, et les infections sur Android sont dûes à quoi ? Quasiment exclusivement à des applis tierces téléchargées depuis le Store (ou depuis des Stores alternatifs).
Et pas à des failles dans les composants Open Source…
Le
24/10/2016 à
14h
19
Pr. Thibault a écrit :
Ce qui démontre bien que la “confiance” est une croyance irrationnelle
Non. La confiance, ça peut être irrationnel, mais ça n’a pas obligatoirement à l’être.
Typiquement quand on parle de produits ou services que l’on utilise : tu commences par souscrire à un service dans une entreprise A. Si tout se passe bien (tu es content du service, du rapport qualité/prix…), alors tu vas avoir confiance dans l’entreprise A. Si quelque chose se passe mal (coûts cachés, service souvent interrompu, etc.), alors ta confiance sera brisée et tu iras voir ailleurs. C’est très rare que quelqu’un ait confiance en une entreprise ou un produit sans raison, de façon irrationnelle.
La confiance est généralement basée sur l’expérience que tu as avec un produit ou un fournisseur.
La confiance est subjective (différentes personnes n’auront pas la même expérience, et donc n’accorderont pas la même confiance à un produit donné), mais elle n’a pas forcément à être irrationnelle.
Pr. Thibault a écrit :
puisqu’une faille critique d’un logiciel open source peut mettre de très nombreuses années avant d’être découverte.
Ben oui et c’est le cas aussi dans des logiciels closed-source… Donc ça ne démontre rien du tout.
Pr. Thibault a écrit :
AMHA, quand t’es la NSA, c’est pas plus compliqué de t’infiltrer dans les groupes de développement des logiciels open source pour y intégrer discrètement des failles de sécurité, que d’essayer d’imposer à une multinationale comme Microsoft d’intégrer volontairement des portes dérobées dans son code et de fermer sa gueule…
Mais d’où tu sors des trucs pareils ?
Regarde les faits en face : on SAIT de source sûre que Microsoft a collaboré avec la NSA, facilitant l’accès à Outlook et à Skype notamment. Du côté de l’Open Source, on sait quoi de façon sûre ? Rien du tout. Personne n’a jamais démontré qu’il y avait des agents de la NSA qui inséraient du code en douce dans les logiciels libres…
Et toi, tu avances des choses en mode « théorie du complot » : peut-être que des agents de la NSA contribuent en douce, peut-être qu’il y a des backdoors dans Linux et on ne le sait pas… Ouais, et peut-être qu’au lieu d’inventer des épouvantails et de faire du FUD, tu devrais t’en tenir simplement aux faits, tu n’arriverais pas aux mêmes conclusions, non ?
Pr. Thibault a écrit :
La NSA le fait-elle ? Le cas échéant, la pratique est-elle fréquente ? J’en sais rien, et toi non plus. Les leaks de Snowden & co ne démontrent pas grand chose
Allez hop là, on balaye tous les documents révélés par Snowden d’un revers de la main… " />
Pr. Thibault a écrit :
Au final il n’y a pas plus de raisons objectives de faire confiance à un logiciel open source qu’à un logiciel closed source, sauf si on a vérifié soi même chaque ligne de code du logiciel open source, ce qui est impensable dès qu’on dépasse un certain volume.
Je compare les logiciels libres avec les publications scientifiques. Les scientifiques publient leurs résultats dans des revues internationales, ce qui implique les étapes suivantes : (1) co-écriture de l’article par plusieurs auteurs, en détaillant leur protocole (le « code source ») et leurs résultats ; (2) lecture par l’éditeur du journal ; (3) relecture et critique par des chercheurs indépendants ; (4) modification, amélioration ; (5) si l’article est accepté, il est rendu public, et les travaux peuvent être lus, reproduits, et modifiés/adaptés par d’autres laboratoires.
Les scientifiques ont confiance dans les résultats publiés, car ils passent par toutes ces étapes de validation. Le fait que le protocole soit détaillé, que toutes les données soient disponibles et publiques, leur donne une raison objective d’avoir confiance dans les résultats publiés (*). Pourtant, chaque scientifique ne va pas refaire l’expérience lui-même ; mais il a confiance, car la publication a été validée par des spécialistes, les auteurs ont dû dévoiler leur méthodologie, ils ont dû s’exposer aux critiques de leurs confrères et du grand public : pour cela, la majorité des autres scientifiques ont confiance. Et ceux qui n’ont pas confiance peuvent, s’ils le souhaitent, reproduire l’expérience : si leurs résultats sont identiques ils auront confiance, et s’ils sont différents alors ils dénonceront la supercherie.
Typiquement, si des gens annoncent des résultats spectaculaires (une nouvelle planète, de nouvelles lois physiques, le clonage humain ou autre), sans donner leur protocole expérimental, sans préciser comment ils ont fait, ni dans quelles conditions, bref si l’expérience est impossible à reproduire : alors ce n’est pas de la science, et l’immense majorité des scientifiques rejettera ce résultat, car ils n’auront pas confiance. Le fait qu’une expérience soit reproductible est un critère objectif pour avoir confiance.
Je trouve que le parallèle avec les logiciels libres est criant. Les logiciels libres sont (1) co-écrits par plusieurs développeurs ; (2) relus et audités par d’autres développeurs ; (3) rendus publics ; (4) ils peuvent être testés, vérifiés, modifiés par d’autres développeurs, y compris par des concurrents ! Ça aussi c’est important : souvent, les logiciels libres sont co-développés par des entreprises qui sont en concurrence directe, comme Red Hat/Canonical ou encore AMD/Intel pour le noyau Linux. Si une entreprise (ou un agent planqué de la NSA) insérait du code malveillant, ça serait du pain béni pour la concurrence ! De quoi bien enfoncer l’entreprise fautive, et la faire sortir à jamais du circuit des logiciels libres…
Et ça, ce sont autant de raisons objectives d’avoir davantage confiance dans les logiciels libres, que dans les logiciels propriétaires.
(*) Les fraudes scientifiques sont possibles, mais elles restent très rares ; et elles finissent toujours par être découvertes, quand plusieurs laboratoires essayent de reproduire des résultats publiés et se rendent compte que ça ne colle pas du tout.
Le
23/10/2016 à
20h
27
trekker92 a écrit :
windows ou linux, le probleme de la sécurité ne dépend pas de l’accessibilité du code source
Bien sûr que si : le fait que le code soit disponible fait que les correctifs sont développés et vérifiés beaucoup plus rapidement. On en a encore l’exemple ici : faille patchée 2 jours après sa découverte.
Renseigne-toi sur les time-to-patch en open et closed source…
Le
23/10/2016 à
13h
55
after_burner a écrit :
C’est pas parce que les failles ne sont pas encore exploitées à grande échelle que le danger est moindre.
D’ailleurs ils faudrait savoir comment sont comptabilisés les infections dans le cas d’abdroïd et de windows, une appli de type malware récupéré sur un store aura peut être tendance à passer plus inaperçue qu’un malware sur le net, voir à ne pas être considérée comme une application malveillante vue les différences d’usages entre un smartphone et un PC.
C’est ça que j’adore quand on parle de sécurité.
J’essaye d’apporter des données chiffrées, provenant d’études indépendantes, histoire qu’on parle de ce que l’on sait, au lieu de spéculer sur le mode « moi je crois que tel OS est mieux sécurisé ».
Et on me répond avec des épouvantails : « oui mais si ça se trouve il y a des failles et elles sont exploitées et on n’en sait rien ».
On ne va pas beaucoup avancer là…
Le
23/10/2016 à
13h
53
trekker92 a écrit :
les commentaires de 2show7, Patch, Inextenza, Konrad, Miles Prower et Soriatane (cf libristes intégristes) sont invités à s’expliquer sur l’argumentation infondée de leurs propos déversés dans les commentaires de l’article de cash investigation ici meme, on détient maintenant un argument béton que non, opensource/libre est et restera un gage d’adaptation vanté par Stallman, non un gage de sécurité : qui a le temps d’analyser l’entièreté du code source disponible sur la planete internet?
Un argument en béton ? Quoi, à cause d’une faille dans le noyau Linux ? Dans ce cas, vu le nombre de failles patchées chaque mois dans Windows, ça fait autant d’arguments en béton que Windows n’est pas du tout un gage de sécurité…
J’adore les gens qui, à partir d’un seul point de donnée, font une extrapolation à l’infini… " />
J’ai apporté des arguments ici même, en fournissant des liens vers des documents et des études détaillées. Tu peux lire mes commentaires précédents sur cette actu, et si tu n’es pas d’accord avec ce que je dis, merci d’apporter toi aussi des études chiffrées provenant de sources indépendantes (et pas uniquement tes « moi je crois que » habituels).
Le
22/10/2016 à
18h
42
teddyalbina a écrit :
Tu ne peux pas comparer les taux sous Windows client et Windows serveur, le premier est utilisé par monsieur toutlemonde, le second par des professionnels.
Que linux soit moins impactés viens surtout du fait que c’est un os, utilisé essentiellement sur serveur, et pour les versions clientes la majorité des utilisateurs sont expérimentés.
Donc comparer des softs dont la typologie des utilisateurs n’a rien à voir, c’est un peu comme comparer une chausette et une voiture.
Pour ce qui est d’android tu fais fausse route aussi, tu compare un OS dont les applications via un store, et Windows dont les applications ne sont pas installés via un store. Il faudrait comparer Android et Windows phone, pas android et Windows en général c’est un non sens.
Les serveurs sont effectivement à part.
En revanche, je pense que la façon d’installer des logiciels ne change pas grand chose. Alors oui, sous Windows les gens vont télécharger n’importe quoi sur le Web. Mais sous Android, les gens ajoutent des Stores alternatifs, et c’est là qu’ils chopent des malwares…
Par ailleurs, quand Sasser et Blaster étaient en circulation, les gens ne se faisaient pas infecter en installant n’importe quoi. Il suffisait d’être connecté au Net pour se faire infecter. Les malwares exploitent des failles de l’OS (ou de logiciels installés), la façon dont tu installes tes applis tierces ne change pas grand chose…
4337 commentaires
THQ Nordic fait scandale avec une séance de questions/réponses sur 8chan, la poubelle d’internet
27/02/2019
Le 10/03/2019 à 09h 14
Concours des 15 ans : il vous reste jusqu’à demain soir pour participer et tenter votre chance
13/07/2018
Le 12/07/2018 à 09h 29
INpact Hardware ! J’adorais lire les articles sur le matos, les derniers chipsets, ce que les constructeurs avaient dans leurs cartons, les comparatifs de procos, mobos, CG… De la pure geekerie, je trouvais ça génial !
Dans le futur, j’espère que INpact Hardware traitera de ces sujets, en n’évitant pas le côté technique, c’est ce qui fait tout l’intérêt je trouve. Merci " />
LibreOffice 6.0 ajoute une tonne de nouveautés
01/02/2018
Le 20/02/2018 à 09h 22
Comment retrouver le premier commit d’un dépôt GitHub ?
19/02/2018
Le 20/02/2018 à 07h 54
Ça intéresse beaucoup de monde en vrai de remonter jusqu’au premier commit d’un projet ? Parce que par définition c’est souvent assez pauvre, beaucoup de code a été ajouté depuis, des bugs corrigés… Je me pose donc la question : quel est l’intérêt réel ? Ou c’est juste pour connaître l’historique et tenter de revivre la « naissance » du projet ?
VLC 3.0 : la version finale disponible pour de nombreuses plateformes
09/02/2018
Le 10/02/2018 à 12h 07
Un grand MERCI aux développeurs pour ce logiciel libre d’une très grande qualité depuis des années ! " /> " />
[Sondage] Votre machine principale : un ordinateur fixe ou portable, de marque ou monté ?
23/08/2017
Le 23/08/2017 à 14h 22
À la maison : PC monté moi-même, Core i7 et 8 Go de RAM, vers 2012 je crois. Depuis j’ai dû changer le disque pour l’OS (un SSD plus rapide), et la carte graphique pour les jeux. En termes de perfs/coûts j’en suis très content.
Au boulot : PC Dell (pas le choix).
En déplacement : Ultraportable ASUS Zenbok à base de Core M + SSD, entièrement fanless, zéro bruit, environ 6h d’autonomie. Clairement pas le top en termes de performances ni d’autonomie, mais j’en suis aussi très content, principalement pour sa légèreté et son côté zéro bruit.
634ème édition des LIDD : Liens Idiots Du Dimanche
12/08/2017
Le 14/08/2017 à 09h 04
Free Mobile lance à La Réunion l’offre qui lui manque en Métropole
04/07/2017
Le 04/07/2017 à 12h 52
Le récap’ des bons plans du moment, semaine 22
04/06/2017
Le 05/06/2017 à 09h 28
622ème édition des LIDD : Liens Idiots Du Dimanche
29/04/2017
Le 01/05/2017 à 18h 01
Le 01/05/2017 à 08h 30
De l’occupation pour ce week-end prolongé
[Critique Geek] Ghost in the Shell : décadence
01/04/2017
Le 03/04/2017 à 15h 56
Le 02/04/2017 à 11h 14
Le 02/04/2017 à 10h 15
Je trouve cette critique un peu dure.
Effectivement, les visuels sont le point fort de ce film (y compris le « fan service » qui consiste à reprendre les scènes les plus emblématiques du film original). Effectivement, le scénario de l’original était bien plus complexe et une partie des éléments les plus intéressants (Puppet Master, dimension philosophique…) sont passés à la trappe dans cette version 2017. Indéniablement, le film a été « hollywoodisé » pour le grand public.
Maintenant, je pense que l’équipe du film a justement été pragmatique. Ghost in the Shell (et sa suite Innocence) sont des films cultes, emblématiques, pour… une petite communauté. Ils n’ont jamais percé auprès du grand public, et pour les avoir montrés à des amis autour de moi, ces films passent pour des curiosités difficiles à comprendre, pour des « brainfucks », avec des réflexions philosophiques sur le transhumanisme qui dépassent la plupart des gens. Les gens ne comprennent déjà pas comment fonctionne un smartphone, alors leur demander de réfléchir aux modifications technologiques d’un être humain et leurs conséquences (qui est le plus humain : un robot doté d’un ghost d’origine humaine, ou bien une intelligence artificielle dénuée de corps ?). Perso je suis un fan de GITS, mais je suis aussi capable de voir pourquoi ces films sont trop complexes pour le grand public, avec des questionnements qui dépassent la majorité des gens.
Alors, le but de Hollywood était de faire un film grand public, afin de le faire sentir un peu les problématiques liées au transhumanisme, sans pour autant (re)tomber dans des scènes longues de contemplation (le grand public déteste quand il ne se passe rien dans un film, encore plus quand on lui demande de réfléchir -n’entend-on pas souvent « quand je regarde un film ce n’est pas pour me prendre la tête »). Le grand public veut en avoir plein les mirettes, il veut que ça bouge.
Et justement, je trouve que le film garde tout de même un rythme relativement lent. Certes il y a plus de scènes d’action que dans l’original, mais comparé à ce que fait Hollywood d’habitude, je trouve qu’ils se sont retenus.
Ce qui m’a le plus dérangé dans ce film, c’est le fait que Motoko retrouve sa mère et discute avec, et qu’elle ait été une marginale. Ça, ça sort de nulle part, et ça n’apporte rien à l’intrigue : du coup, je ne comprends pas pourquoi ils ont fait ça.
Quant au fait que Takeshi Kitano parle japonais, cela ne m’a pas dérangé. On sait qu’ils ont tous des implants, on imagine assez facilement qu’ils ont des traducteurs intégrés. Au contraire, ça colle à un monde multi-culturel où la barrière de la langue n’existe plus. De plus, ça m’a assez fait plaisir de le voir dans ce film, dans un rôle finalement assez badass qui lui va plutôt bien.
En bref, je reste beaucoup plus fan des films originaux, mais je trouve que pour le grand public, ce film est une adaptation assez bonne (à défaut d’être fidèle).
Alors que B&You 20 Go est à 2,99 € par mois, Bouygues Telecom lance une option 500 Mo à 3 €
28/03/2017
Le 28/03/2017 à 11h 01
Celui-ci est par contre réservé aux nouveaux clients (avec ou sans portabilité), les anciens ne peuvent pas en profiter.
C’est bien ça que les clients trouvent incompréhensible. Tu es un client fidèle depuis plusieurs années ? Désolé va te faire va au diable, ce qui nous intéresse c’est d’attirer de nouveaux clients.
La stratégie des opérateurs est extrêmement claire et cynique : ils savent que les clients peuvent facilement changer d’opérateur. Contrairement aux années 1990, aujourd’hui un client n’éprouve aucun sentiment de fidélité envers son opérateur, il peut en changer en trois clics, et de plus en plus de gens préfèrent les forfaits sans engagement. Dès lors, pourquoi récompenser une pseudo-fidélité qui n’existe pas ? Tant pis pour ceux qui partent, ils ne sont pas définitivement perdus : ils ne seront pas non plus fidèles à leur prochain opérateur, et ils pourront toujours revenir dans un an ou deux, grâce à la promo du moment.
Business is business… Pour ceux qui se plaignent que leur fidélité n’est pas récompensée : vous avez tout à fait raison, alors arrêtez d’être fidèle, ça ne paye pas. Allez chez l’opérateur qui correspond le mieux à vos besoins, et n’hésitez pas à en changer si vous voyez une meilleure offre ailleurs.
3DMark permet désormais de tester les performances de votre machine avec Vulkan
23/03/2017
Le 23/03/2017 à 15h 17
Une faille du noyau Linux vieille de sept ans vient d’être corrigée
17/03/2017
Le 19/03/2017 à 11h 29
Le 17/03/2017 à 14h 41
Le 17/03/2017 à 14h 00
Mageia 6 : après des mois de retard, la version de stabilisation 2 est là
07/03/2017
Le 08/03/2017 à 10h 55
Le 08/03/2017 à 10h 48
Le 07/03/2017 à 18h 53
Le 07/03/2017 à 18h 50
Le 07/03/2017 à 14h 26
Skype 5.0 pour Linux passe de l’alpha à la bêta publique
01/03/2017
Le 02/03/2017 à 15h 13
Chrome OS 56 accélère sur le Material Design et l’accessibilité
10/02/2017
Le 10/02/2017 à 14h 44
Gmail : des journalistes et universitaires alertés d’attaques contre leurs comptes
25/11/2016
Le 25/11/2016 à 08h 44
Des journalistes et universitaires qui utilisent Gmail ?
C’est presque aussi ridicule qu’une politicienne qui utilise son serveur email perso… " />
La version finale de Fedora 25 inaugure Wayland par défaut
22/11/2016
Le 23/11/2016 à 14h 59
Le 23/11/2016 à 09h 54
Félicitations à l’équipe de Fedora pour cette nouvelle version, en espérant que Wayland va prendre de l’ampleur et bien s’améliorer dans les mois et années à venir " />
Linux : presser longtemps la touche Entrée permettait de contourner un outil de chiffrement
15/11/2016
Le 16/11/2016 à 09h 49
Pour moi ce n’est pas une « faille ». Une faille (ou vulnérabilité), c’est un bug non prévu par les développeurs, qui permet à une personne malveillante d’avoir des droits qu’il ne devrait pas avoir (accès root, accès à certains fichiers, etc.). Si la faille est prévue par les développeurs, alors on n’appelle plus ça une faille mais une backdoor…
Là, c’est plutôt un programme qui a été mal conçu. On est typiquement dans le defective by design. Cryptsetup est censé chiffrer les partitions et les protéger. Mais un développeur a volontairement fait en sorte qu’au bout d’un certain nombre de tentatives, le programme laisse tomber et donne un shell avec accès root. Comment cela peut-il sembler être une bonne idée ? Personne ne s’est aperçu que ça va complètement à l’encontre de ce que l’outil est censé faire ? " />
Bref, pas un bug ni une faille, mais une mauvaise décision des programmeurs…
La CNIL saisie sur l’accord entre Microsoft et l’Éducation nationale
10/11/2016
Le 10/11/2016 à 16h 31
Le 10/11/2016 à 13h 35
Le 10/11/2016 à 11h 30
C’est bien la moindre des choses, vu que Microsoft va récolter et traiter les données de millions d’enfants français : nom, prénom, tout leur parcours scolaire, leurs notes, leurs recherches Internet, leurs emails, conversations Skype… Ça mérite bien que la CNIL y jette un œil ! Puisque la majorité des parents n’a pas l’air d’être choquée par cet accord…
Moi ce qui me choque dans ce « partenariat », c’est que les enfants sont mineurs, ils n’ont pas les moyens de savoir ni de comprendre ce qui est fait avec leurs données. Quand ils seront en âge de comprendre, il sera trop tard : leurs parents et l’Éducation Nationale auront déjà donné toutes leurs données à Microsoft, sans leur accord… Les enfants pourront-ils alors porter plainte contre l’État ?
Quand des adultes responsables donnent leur vie à Facebook, Google ou Microsoft, c’est leur problème, ils sont responsables de leurs actes devant la Loi. Mais là, qui est responsable de donner en pâture les données de tous ces enfants ? Les enfants sont légalement non responsables, alors qui sera jugé responsable ?
Pour la Cour de cassation, l’adresse IP est bien une donnée personnelle
08/11/2016
Le 09/11/2016 à 12h 36
Donald Trump nouveau président des États-Unis, les questions à se poser
09/11/2016
Le 09/11/2016 à 10h 04
Orange is the new black
Microsoft : Steve Ballmer évoque sa rupture avec Bill Gates sur le matériel
07/11/2016
Le 07/11/2016 à 12h 24
Le 07/11/2016 à 11h 55
Survol de Pluton : 15 mois plus tard, la sonde New Horizons a fini d’envoyer ses données
03/11/2016
Le 03/11/2016 à 14h 28
Légende de la dernière image : « Crédits NASA » avec un lien parce qu’il y a le mot « NAS »…
C’est beau l’indexation automatique hein " />
Le nouveau MacBook Pro de 13,3″ d’Apple n’obtient que 2/10 chez iFixit
02/11/2016
Le 03/11/2016 à 09h 02
Le 02/11/2016 à 09h 46
Le 02/11/2016 à 07h 55
Logique : Apple utilise des composants de PC (archi x86), mais ne veut pas que ses machines soient des PC. Du coup ils ont recours à ce genre de stratagèmes : connectiques internes propriétaires, vis spécifiques, RAM soudée…
Un PC ce n’est pas seulement une architecture (x86), c’est aussi le fait de pouvoir changer à peu près ce qu’on veut dedans. Même dans les Ultrabook, qui sont pourtant aussi compacts que les Macbooks, il est souvent possible de les ouvrir (vis standards) pour changer le disque dur, la RAM, et/ou la batterie.
Google révèle les détails d’une faille critique dans Windows, Microsoft n’apprécie pas
02/11/2016
Le 02/11/2016 à 20h 14
Une faille dans le kernel Linux vieille de 9 ans corrigée, mais déjà exploitée
21/10/2016
Le 26/10/2016 à 19h 54
Le 24/10/2016 à 16h 21
Le 24/10/2016 à 14h 19
Le 23/10/2016 à 20h 27
Le 23/10/2016 à 13h 55
Le 23/10/2016 à 13h 53
Le 22/10/2016 à 18h 42
Replay sur Freebox Révolution « by Canal » : nouvelle interface et 29 chaines de plus
25/10/2016
Le 25/10/2016 à 09h 13
Ils devraient revoir l’interface pour TF1 aussi, à chaque fois c’est une galère sans nom pour accéder à un replay du groupe TF1 sur la Freebox… " />