votre avatar

megabigbug

est avec nous depuis le 11 septembre 2008 ❤️

218 commentaires

Le 30/11/2012 à 15h 21







brazomyna a écrit :



http://france-inflation.com/calculateur_inflation.php



Mets 100 francs en 1980, ça te donne 46 euros en 2012.

Je dis ça je dis rien.







T’es sur que c’était 100 francs le prix d’un vinyle ?



J’essaye de trouver des sources, la seule chose que j’ai trouvé sur le net, c’est un vinyle des Beattles qui était vendu 10 francs.


Le 30/11/2012 à 15h 17







MorK_ a écrit :



Je ne vois pas en quoi ça contredit le message tronqué que tu cites…







Je ne contredit pas parce que tu as raison <img data-src=" />

C’est bien la durée le problème.


Le 30/11/2012 à 14h 47







MorK_ a écrit :



Idée absurde: jusqu’à preuve du contraire, le talent n’est pas héréditaire.







Certe, mais dans le cas présent, c’est l’interaction entre un père et un fils qui a donné cette œuvre. Dans une certaine mesure, le fils est un peu co-auteur.


Le 30/11/2012 à 14h 41







Fuinril a écrit :



Euh… source ?



Nan parce que Christopher il a sorti le Silmarillion et depuis, à part les brouillons de son père que celui-ci ne voulait pas voir publiés….







C’est déjà ça non ?



Imagine que tu ais toi même tapé à la machine à écrire ce que te dicte ton père, tu ne trouverait pas injuste de ne pas en tirer rémunération ?



lemonde.fr Le Monde


Le 30/11/2012 à 14h 29







aznur a écrit :



parce que bon les enfant ou petit enfant qui profite encore de la vente de l’album postum de leur père ou grand père

c’est légèrement macabre







Les enfants ne devraient bénéficier des droits que s’ils s’engagent à poursuivre l’œuvre de leur père. C’est par exemple le cas de Christopher Tolkien. Et à la mort de l’auteur, les ayant droits doivent de nouveau négocier avec le successeur.


Le 30/11/2012 à 14h 08







aznur a écrit :



je suis presque sur que n’importe quel œuvre ne rapporte plus rien ou pratiquement plus rien à l’auteur après 20 ans d’exploitation sans même parler de piratage ou 1100 de ce quel à pu rapporté a l’auteur à l’heure actuel







Les vieux films rapportent indirectement.



Par exemple, les films piratés de George Méliès continuent à faire vivre les rêves de Jules Verne (cf Hugo Cabret)



Pour l’humanité la tour Eiffel semble sorti tout droit d’un de ces rêves.

Conséquence: la tour Eiffel est l’un des monuments les plus visités du monde.


Le 30/11/2012 à 13h 54







bambou51 a écrit :



Autre petit rappel simple: Nul n’est censé ignorer la loi







Mais personne ne connaît toutes les lois.


Le 30/11/2012 à 13h 53







brazomyna a écrit :



si l’ayant droit a des droits dessus, c’est parce que l’auteur a -en toute liberté- décidé de lui céder ses droits avec contrepartie.







Dans la pratique, l’auteur n’a pas le choix, il doit céder ses droits s’il veut espérer vivre de sa création.


Le 22/11/2012 à 13h 07







fken a écrit :



Presenting Jolla 0:50 : Ce ne serait pas le sigle d’android derrière ?







L’OS supporte les applications android normalement. Après il faudra voir en pratique si c’est vrai.


Le 22/11/2012 à 13h 06

Je ne suis pas convaincu par cette nouvelle interface.



Le menu d’une application est accessible avec un swipe en haut de l’écran, ce qui est à mon avis une erreur d’ergonomie:

Lorsque l’on tiens son téléphone, le pouce est en bas de l’écran, c’est plus difficile de faire un swipe en haut qu’en bas. On est presque obliger d’utiliser une autre main.

Sur le nokia N9 le swipe en haut est destiné à la fermeture d’une application, qui est une action qui ne doit pas être effectué sans faire exprès.



Ensuite, le téléphone à l’air conçu pour que l’utilisateur ne fasse que 4 taches en parallèle et que ces taches sont épinglées sur l’écran d’accueil.

C’est beaucoup moins intéressant que le multi-tâche du N9.

Le 20/11/2012 à 10h 17







coucou_lo_coucou_paloma a écrit :



Montebourg en fait, il n’est jamais content :

(bon, la source est univers fb reprenant l’interview d’Elkabach à la radio)







Il n’est jamais content, mais sur ce point il a raison.



Les entreprises françaises ne réinvestissent pas assez en France. Elles réinvestissent à l’étranger en espérant faire plus de profits. Mêmes les entreprises qui ont été financés par nos impôts: EDF qui installe des réseaux électriques aux US alors que le notre est en train de pourrir; La SNCF qui a des filiales qui font rouler des trains dans le reste de l’Europe et qui essaye de détruire les “opérateurs” historiques de ces pays, notamment en Italie, alors même que l’on fait tout pour que les trains étrangers ne roulent pas sur nos rails.



Dans le passé la question du réinvestissement des entreprises ne se posait pas: l’impôt sur les sociétés permettait à l’état de rediriger l’argent vers des projets montés par nos élus.

Aujourd’hui l’impôt sur les sociétés a été diminué au nom de la compétitivité, mais ça n’a servi qu’à engraissé une minorité.



Le 11/11/2012 à 10h 40

“Par contre si on peut le désactiver ça perd de son intérêt”

A condition que la désactivation ne puisse pas être automatisée, je pense que c’est le meilleur compromis sécurité/liberté.

Le 11/11/2012 à 10h 14

Les linuxiens devraient éviter de s’emporter. Personnellement j’aime bien la confrontation windows/linux pour faire ressortir les éléments techniques. Après cela implique que les intervernants prennent le temps d’expliquer et pas juste ressortir la propagande habituelle.

Le 11/11/2012 à 09h 52

@charon.G

En ce qui concerne le shim bootloader, interdire le chargement d’un noyau non signé signifie interdire la possibilité de modifier soit même son système d’exploitation. C’est une limitation très forte qui a des conséquences sur l’avenir de linux et de l’informatique en général. En empechant les utilisateurs de pouvoir s’impliquer dans le développement on laisse les multinationales décider de notre avenir.

On a eu le même schémas dans l’industrie automobile avec des réglements trés fortes empechant la création de voiture par des particuliers. Cela a freiné l’arrivée des voitures électriques.

Personnellement, je pense qu’il faudrait interdire par défaut mais qu’avec une action de l’administrateur, il soit possible d’installer et d’éxécuter un kernel non signé.

Le 09/11/2012 à 16h 41







charon.G a écrit :



Tous les os de smartphone récents dont WP7.







Oui, et android est sorti avant WP7.







charon.G a écrit :



la sandbox j’en parlais déjà à l’époque de XP







Pour des applications spécifiques comme les navigateurs oui.

Edit: ok je ne connaissais pas blackcomb.







charon.G a écrit :



Oui pour ça que Microsoft n’a quasiment pas touché au desktop sur Windows 8. Mais avec des OS comme midori ça devrait devenir possible. Des projets comme drawbridge permettent la sandbox et un mécanisme soft semblable à la virtualisation sans les problèmes de ressources.







Il manque quelque chose de semblable à dbus sous linux.

J’ai zieuté le système de contrat, je trouve ça trop limité.

Ton drawbridge ça me fait penser à openvz.


Le 09/11/2012 à 16h 30







charon.G a écrit :



Comme je l’ai expliqué au dessus le store n’est pas suffisant. Une application pourrait très bien par derrière pourrir le système. Sauf que ce n’est pas possible sur Win8 RT grâce à la sandbox. Ce n’est pas la validation qui va permettre de le voir.

le mécanisme de sécurité le plus important c’est la sandbox y a pas photo.







Oui ce n’est pas suffisant, mais au moins, il faut que les applications bernent la validation, ça ajoute de la difficulté.

Pour ce qui est de la sandbox c’est clair que c’est une amélioration que j’aimerais voir dans les distributions Linux. MS suit ce que fait Google avec Android.

Le problème des sandbox c’est que ça rend la communication entre applications plus difficile. Je ne sais pas si ça peut suffire pour un écosystème d’applications de bureau.


Le 09/11/2012 à 15h 39







psikobare a écrit :



je ne doute pas que linux reprendra les innovation des ingénieurs de ms, mais ça serait surement quand ce sera dépassé







Tu as aussi des chercheurs en sécurité financés par MS qui bidouillent linux, publient leurs innovations qui sont reprisent par les ingénieurs MS dans windows.



Que les améliorations dans le domaine de la sécurité aient du mal a rentrer dans l’arbre de développement de linux, je suis d’accord.


Le 09/11/2012 à 15h 03







Sebdraluorg a écrit :



C’est pas je pense, c’est comme ça…

Ne t’en déplaise <img data-src=" />





En quoi les dépôts unix empêchent-ils d’exécuter un malware ?







Bien sur que ça n’empêche pas l’exécution.

ça diminue les risques qu’un malware soit installé en premier lieu.









Sebdraluorg a écrit :



Je parle de la sécurité d’un OS et de ses mécanismes de sécurité !

Le principe de depot est à part, et un admin Windows a toujours eu la possibilité d’interdire des installations, donc certes le principe de dépot est bien, mais ce n’est pas à cela que l’on juge la sécurité d’un OS.







Tu peux sécuriser ton OS autant que tu veux, si son ergonomie incite les utilisateurs à faire n’importe quoi, ça ne sert à rien.



Et puis, même si les installations sont interdites, le fait qu’il n’y avait pas de dépôt a mené à des aberrations comme les autorun sur les média amovible (heureusement corrigé récemment), ce qui en pratique a causé la propagation de plein de virus.


Le 09/11/2012 à 14h 45







psikobare a écrit :



le noyau linux a 5 ans de retard sur toutes les avancées techniques en sécurité



je ne suis même pas certain qu’il soit au dessus de vista, alors win8…







Le noyau Linux de Torvald peut être, les noyaux patchés spécialement par des boites qui font de la sécurité, je doute fortement.


Le 09/11/2012 à 14h 43







charon.G a écrit :



C’est un gros plus mais hélas ce n’est pas suffisant, des malwares arrivent à passer l’étape de validation sur les stores. une seule fonctionnalité ne suffit jamais à elle seule.



Avec tout ce qu’ils ont fait , je pense pas que l’environnement WinRT ne sera pas trop souillé. Au pire il suffira juste de désinstaller l’application, ce qui est infiniment plus simple que de désinfecter Windows (il suffit de voir certaines procédures sur les forums)







Ce n’est pas suffisant, mais au moins lorsqu’une faille de sécurité est détectée dans une application Microsoft peut faire quelque chose. Au minimum il peut prévenir toutes les personnes qui ont installée cette application que leur machine est en danger.

Avant il fallait utiliser des pansements comme les anti-malware pour faire cela.


Le 09/11/2012 à 14h 23







Sebdraluorg a écrit :



C’est pire que ça, ils font la morale aux Windowsiens, mais sont tellement confiant de leur système que dés qu’ils ont un access denied ils relance la commande avec un sudo devant sans même se demander pourquoi ça ne va pas !

Donc clairement, faire passer un malware sous Unix est devenu encore plus simple que sous Win car y a même pas un av derrière qui repérera qu’on touche à une fonction vitale !







ça c’est quand même du beau troll.

Tu veras très rarement quelqu’un télécharger sur le net une application et faire sudo devant.

Les vrais risques sont plutôt dans l’ajout de dépôts tiers.







Sebdraluorg a écrit :



Windows n’est actuellement le plus sécurisé, il est le seul sécurisé, ce qu’il ne veut pas dire qu’il est moins dangereux d’être sur Win, c’est même surement toujours celui sur lequel on est le moins en sécurité, mais c’est uniquement du aux pdm et à l’acharnement de certains !







Ce n’était pas du uniquement au pdm. Le manque de gestionnaire de paquet et de dépôts certifiés était une erreur de conception dont l’impact était supérieur au manque d’antivirus sur les autres plate formes.

Heureusement, ce problème est en train d’être résolu avec Windows 8.


Le 09/11/2012 à 13h 30







psikobare a écrit :



c’est le cas



windows 8 est l’OS qui possède les meilleures protection de buffer overflow (extension de l’ASLR, HEASLR, la protection contre le heap spray, la plupart des exploit sur le heap de windows 7 ne marchent plus sur 8), ou alors, s’il y à un meilleur OS, il faut me le dire.







Tu as une source montrant que ce sont les meilleurs ? parce que Linux aussi a un ASLR et des protections contre le heap spray.


Le 09/11/2012 à 13h 17







paradise a écrit :



Plus la peine de le dire, puisque c’est vrai et que tout le monde le sait, mais tu fais bien de le rappeler au cas où. <img data-src=" />







Avec windows RT je dirais que Microsoft a atteint le niveau de sécurité d’une distribution Linux. Le store corrigeant la plus grosse faille de sécurité de windows: les utilisateurs ne sont pas choqués d’installer tout et n’importe quoi provenant du net.


Le 09/11/2012 à 13h 00







Alkore a écrit :



Comme disait mon grand-père: “‘instruction se donne à l’école, l’éducation à la maison”. Vu la teneur et le français laxiste de ton commentaire, tu n’as manifestement reçu ni l’un ni l’autre. C’est fort regrettable<img data-src=" />







Et une couche de plus :)


Le 09/11/2012 à 09h 40







yvan78 a écrit :



Visiblement pour les API kernel/user, c’est pas l’avis (entre autres, mais le sien compte sans doute plus que le notre!) de l’auteur du bouquin référence, TLPI, dans son discours remarqué en avril







Il dit exactement ce que j’ai dis, les API kernel userspace ne changent pas (sauf quand elles sont jeunes et qu’on peut encore les changer sans que ça affecte beaucoup d’applications).



Elles sont donc stables.



Ce qu’il dit par contre et qui rejoint ton commentaire, c’est qu’elles ne sont pas parfaites dès le départ. Ce qui a pour conséquence qu’il faut recréer des API supplémentaires pour corriger les problèmes des anciennes.



Je suis d’accord avec toi que ça pourrait être mieux fait dès le début, mais il faut pas rêver, ça ne peut pas être parfait et totalement évolutif.







yvan78 a écrit :



Discours répondant à un autre, qq années plus tôt, fustigeant le côté userspace d’ailleurs!



En pur kernel, c’est encore plus le foutoir il est vrai… et dans la plupart des cas cela change sans qu’aucun changement hardware ne le justifie. Preuve que là encore ce n’était pas bien réfléchi à la base.







Je maintiens ce que j’ai dis, en interne, la flexibilité est une force et non une faiblesse.







yvan78 a écrit :



La seule explication logique à ca, c’est Linus qui l’a donné y’a qq années et elle est inhérente au mode de développement: “It’s not intelligent design, it’s evolution”.



C’est une grosse faiblesse sur laquelle, rien ne sert de la nier… et sans doute les pires exemples pourraient quand même être évités.







Tu vois une faiblesse là ou je vois une force. Linux sera toujours là dans 10 ans, quand microsoft réécrira sont noyau pour au moins la quatrième fois.



Le 07/11/2012 à 16h 53







Foudge a écrit :



Je n’ai pas l’impression que la sortie du client Steam sous cet OS débloque la situation actuelle. Qu’est-ce qui pourrait séduire les éditeurs de jeux de faire cet effort ? W&S mais je suis très sceptique…







Quelque chose qui pourrait débloquer la situation c’est par exemple une ferme de compilation qui permet de compiler pour mac, windows, linux, un jeu basé sur le moteur de valve.

Valve a annoncé qu’il fournirait des outils pour faciliter le portage.


Le 07/11/2012 à 14h 02







d4rkf4b a écrit :



Suffisant en basse résolution ou pour les plus anciens jeux… Même World of goo doit passer ^^







Ouai mais il faut pas espérer jouer à Diablo 3 par exemple.


Le 07/11/2012 à 13h 58







d4rkf4b a écrit :



<img data-src=" />

Vue le prix du matériel satisfaisant le besoin de beaucoup de monde et 100% compatible linux







C’est pas une config pour jouer.


Le 07/11/2012 à 13h 52







Jos a écrit :



Si tu aime les jeux indé et un peu casse tête, je te conseille d’acheter World of Goo <img data-src=" />

Sinon essaye TF2 mais perso j’arrive pas a l’avoir sur Steam linux







World of Goo je l’ai acheté lorsqu’il est sorti sous Linux (mais pas à travers Steam).



Le 07/11/2012 à 13h 44







Jos a écrit :



Normalement tu dois voir l’ensemble de tes jeux steam (linux comme non linux). On peut ensuite filtrer les jeux Linux



Personnellement j’ai plein de jeux compatible Linux donc je suis capable d’en installer 15



TF2 est gratuit mais je n’arrive pas a le voir dans ma liste de jeux







Comme je viens de créer un compte steam je n’ai pas de jeu <img data-src=" />

Je pensais que je pourrais au moins voir ce qui est disponible.


Le 07/11/2012 à 13h 42







paradise a écrit :



OK, merci.



Mais ça marche aussi pour la distro en 64 ?







Je ne connais pas assez fedora pour te répondre. En tout cas ces paquets ont des dépendances x86_32


Le 07/11/2012 à 13h 30







paradise a écrit :



Quelqu’un a testé le paquet .deb en le convertissant en .rpm par exemple pour Fedora ou Mandriva/Mageia ?



Sinon, je m’y colle ce soir (pas le temps avant).







Les RPM pour Fedora 17 et 18 :

http://spot.fedorapeople.org/steam-1.0.0.14-2.fc17.i686.rpm



http://spot.fedorapeople.org/steam-1.0.0.14-2.fc18.i686.rpm


Le 07/11/2012 à 13h 24







Jos a écrit :



Je confirme <img data-src=" />







Cela fait quoi normalement ?



parce que ça me lance steam, mais je n’ai aucun jeu pour linux.


Le 07/11/2012 à 13h 10







HeLLSoNG a écrit :



Erreur : Architecture « i386 » incorrecte



DOH ! <img data-src=" />



Je peux même pas installer steam sur ma machine x64 <img data-src=" />







Curieux moi je n’ai pas eu de problème.

Est-ce que tu as ia32libs d’installé ?


Le 07/11/2012 à 13h 00







Para-doxe a écrit :



Tu t’identifie à ce point à l’OS que tu utilises?







S’il a personnalisé sont windows en modifiant son code source, comme on peut le faire avec un distro GNU/Linux, je comprend parfaitement, qu’il puisse avoir le sentiment que l’OS lui appartienne.

Si ce n’est pas le cas (ce qui est fort probable <img data-src=" /> ) alors c’est juste du fanboyisme.


Le 07/11/2012 à 12h 06







incubus a écrit :



C’est ce qu’on disait il y a dix ans avec le port de quelques blockbusters comme Unreal Tournament en natif sous Linux : c’est le début, dans quelques temps tous les éditeurs seront obligé de proposer une version Linux.







Sauf qu’il y a 10 ans, la plateforme de jeu dominante c’était windows (et les consoles). Aujourd’hui ce sont les appareils mobiles. Ce qui a pour effet que les développeurs sont obligés de prendre en compte OpenGL ES dans leur choix de développement. Les nouveaux jeux vont donc être facilement portable à GNU/Linux.


Le 07/11/2012 à 12h 00







Tidus93 a écrit :



Sauf que les proprios causaient des instabilités avec Gnome3 et la lecture de vidéos…







Je n’ai pas dit que j’avais la solution. Je dis juste que c’est une contrainte pour l’emergence du jeux video sous Linux c’est tout.

Après perso je m’en cogne, mon OS c’est Windows.







Tu avais installé les pilotes proprio présent dans les dépots ou un pilote béta officiel ?

Je n’utilise pas de carte AMD, mais avec les nvidia, c’est courant qu’il faille installer un pilote expérimentale présent sur le site officiel pour les cartes qui viennent tout juste de sortir.



Personnellement, avec windows j’ai des problèmes avec du matos conçu pour la version précédente de windows.

Il y a quelque semaine, j’ai eu trop du mal à imprimer correctement avec un imprimante epson sous windows 7. J’ai mis à jour les pilotes, rien a faire, l’impression était dégueulasse. J’ai branché l’imprimante sur ubuntu et j’ai pu néttoyer les têtes (ce qui n’était pas possible avec cette version de driver sous windows) et ça a imprimé parfaitement.


Le 07/11/2012 à 11h 50







Thald’ a écrit :



Je n’arrive pas à l’installer sous debian, on dirait qu’il me manque des dépendances mais elles sont pourtant installé.



quelqu’un à un paquet Debian tout pret ? <img data-src=" />





Je n’ai pas de paquet tout pret mais si ça peut t’aider:

http://steamcommunity.com/app/221410/discussions/0/882965118613928324/


Le 07/11/2012 à 11h 43







incubus a écrit :



Il y a dix ans HP vendait des ordinateurs avec Mandrake Linux préinstallé en grande surface, et en dix ans la part de marché de GNU/Linux n’a pas explosé non plus.



Cette rengaine sur GNU/Linux qui s’implanterait de manière importante, c’est un marronnier aussi vieux que Linux lui-même.







Certe, mais les défauts de GNU/Linux se gomment petit à petit.



Pour moi le grand publique a 4 utilisations principales d’un ordinateur:




  • naviguer sur le web,

  • regarder des vidéos/écouter de la musique,

  • utiliser un traitement de texte/tableur

  • jouer à des jeux vidéos.



    Les deux premiers sont OK, le troisième est suffisant et l’article montre que le quatrième est sur le point d’arriver.


Le 07/11/2012 à 11h 33







Tidus93 a écrit :



Peu m’importe à qui la faute. Toujours est-il que tant que ce genre de chose n’aura pas changé, il sera difficile de faire comprendre aux utilisateurs qu’ils doivent attendre 1 a 2 ans avant de profiter de leur carte toute neuve sous Linux.







Si ça fonctionne avec les drivers proprios, alors c’est donc la même situation que sous windows. Tu dois installer les pilotes constructeur à la sortie d’une carte graphique récente sous windows.


Le 07/11/2012 à 10h 43







yvan78 a écrit :



Ce ne serait pas un pb si les API des librairies (mais c’est aussi vrai côté kernel hélas) étaient toujours bien conçues dès le départ… et donc stables dans le temps.



Les bugs dans le code c’est un pb soluble dans la version++, ceux des interfaces non.







Je ne suis pas du tout d’accord avec ce commentaire.



D’abord, faire quelque chose de parfait dès le départ et ne plus y toucher après c’est stupide.

Les API sous windows comme GDI étaient parfaites au départ. Seulement, avec le temps les besoins ont changés et des piles d’extensions se sont rajoutées pour combler les manques. Au final on a des applications qui n’ont pas évolulées (parce qu’elles n’ont pas eu besoin d’évoluer en même temps que les API) et il faut aujourd’hui les réécrire entièrement.



La référence au noyau linux dans ton commentaire est maladroite. Les API userspace du noyau linux sont stables, les applications n’ont pas à changer à chaque nouvelle version du noyau. Ce sont les API internes au noyau qui évoluent en permanence, ce qui a pour conséquence qu’il faut modifier en permanence le code (coté kernel) des drivers affectés par ces changements. A première vu ça parait contraignant, mais au final c’est beaucoup mieux. Le noyau linux évolue sans avoir besoin d’être réécrit from scratch régulièrement et les constructeurs qui ont fait l’effort de faire rentrer leur code dans l’arbre de développement de linux voient leur driver mis à niveau par la communauté, ce qui diminue le coût de maintenance.



Pour finir, je pense que les bibliothèques sous Linux ont choisis le bon modèle: elles fournissent des API stables tout au long d’une version majeur (par exemple une fonction de kdelibs 4.2 sera tj présente dans kdelibs 4.10). Et régulièrement elle casse la compatibilité pour pouvoir faire les changements architecturaux nécessaires à leur évolution (par exemple le passage de qt3 à qt4), ce qui oblige les applications à être modifiés en conséquence. Si un acteur décide de ne pas passer à la nouvelle version, il embarque l’ancienne bibliothèque mais ne bénéficie pas des améliorations.





Le 06/11/2012 à 13h 09







patos a écrit :



Ben a par la skyzophrénie, pourquoi en aurais-tu besoin de plusieurs? C’est peut être là la question..







Tu peux avoir ton calendrier personnel et celui de ton travail.


Le 05/11/2012 à 13h 17







Steelskin Kupo a écrit :



Mais c’est largement plus précis qu’un écran capacitif. Je déteste jouer sur iOS/Android pour cette raison, ou même utiliser le clavier virtuel, je n’arrive jamais à avoir la bonne lettre alors que je n’ai aucun problème sur 3DS au stylet.







un écran résistif est plus précis qu’un capacitif ou un stylet est plus précis qu’un doigt ?


Le 27/10/2012 à 12h 44







Mihashi a écrit :



La poste sait que ses colis peuvent contenir des produits illicites, mais elle n’as pas le droit de les ouvrir pour vérifier. Est-elle coupable de recel ?







Je ne suis pas sûr que l’analogie soit pertinente. La poste a un status spécifique avec des lois associées. La poste est plus similaire aux FAI qui ne font que transmettre des informations. Les hébergeurs en revanche ont pour objectif de stocker des choses, ce qui n’est pas une mission de la poste (si on ne compte pas le stockage temporaire lié au transport).

Les banques sont peut être une analogie plus pertinente: sont-elles tenues de connaître le contenu déposé dans leurs coffres forts ?


Le 27/10/2012 à 10h 00







L69 a écrit :



tu te moque de moi ou c’est de l’humour ?



Il a dit que tout serait crypter avant l’envoie des fichier sur les serveurs de Mega







Personnellement, je trouve que c’est comme ça que les services d’hébergement devraient tous fonctionner: les hébergeurs n’ont pas à gagner de l’argent grâce à l’analyse du contenu personnel hébergé.

Malheureusement, je crains que le chiffrement des données rende le service illégal par nature. En effet, si un tel service permet de partager du contenu illégalement et que les gestionnaires de ce service sont conscients qu’il peut être utilisé comme tel, alors ils sont coupables de recèle et complice de la contrefaçon.


Le 25/10/2012 à 13h 11







paradise a écrit :



Android n’est PAS une distribution, c’est bien ce que je dis.







Pour moi, il s’agit bien d’une distribution. Ce n’est pas une distribution GNU/Linux car il ne contient pas les composants utilisé habituellement par les distros. (hormis le noyau). C’est une distribution basée sur un autre ensemble d’outils mais c’est bien une distribution.


Le 24/10/2012 à 13h 21







XalG a écrit :



C’était pas vraiment du mérite quand en face il n’y avait que IE ^^”







C’est une façon de voir les choses <img data-src=" />


Le 24/10/2012 à 13h 16







chtiplayer a écrit :



Chrome a acquis son “succès” de la même manière que Windows a acquis le sien.







Clair,

le seul qui doit son succès uniquement à son mérite est firefox.


Le 24/10/2012 à 13h 14







Edtech a écrit :



Bah si, ils l’utilisent, vu qu’il se met par défaut. Quand tu fais la remarque, ils répondent : “il y a dû y avoir une mise à jour, ça a un peu changé esthétiquement” (surtout que IE et Chrome se ressemblent de plus en plus).







Il remplace l’icone IE sur laquelle ils ont l’habitude de cliquer par une icone chrome ?



Dans tous les cas, je suis d’accord que cette habitude de tromper les gens au moment de l’installation est détestable.

Cette habitude a prospérée à cause du manque de gestionnaire de paquet ou magasin d’application. Dans un magasin d’application, ça ferait pas très pro d’installer chrome lorsque l’utilisateur installe un antivirus en un seul clic.

Sans magasin, les éditeurs de logiciel peuvent dire: “il y a une coche à décocher, si l’utilisateur ne voulait pas du logiciel, il n’avait qu’à la décocher”.

Mais comme il faut 15 clics pour finir l’installation, les gens ne font pas gaffe.


Le 06/10/2012 à 07h 57







GentooUser a écrit :



C’est pas justement le principe même de l’OS de servir de couche d’abstraction de l’hardware pour présenter une API unifiée ? <img data-src=" />







Je parie qu’ils ont aussi breveté le concept d’API “close to metal” fournissant un accès directe au hardware afin de permettre aux applications d’être plus performantes.



Comme ça, plus personne ne peut programmer un ordinateur sans payer Microsoft.