votre avatar Abonné

Okki

est avec nous depuis le 11 novembre 2009 ❤️

Bio

Linuxien depuis 1996, actuellement sous Fedora avec l'environnement de bureau GNOME.

I ❤️ systemd, Flatpak, PipeWire, Wayland… et toutes les nouveautés qui font hérisser le poil des grincheux (sauf si ça vient de Canonical 😝)

1318 commentaires

Le 28/03/2013 à 15h 13

[quote:4518165<img data-src=" />avid_L]

On a une baisse au niveau des relevés d’audience, mais on utilise de toutes façons peu de tracking et pas de pub comportementale, donc non, pas de souci.

/quote]



Je viens de mettre pcinpact.com sur la liste blanche d’AdBlock+, je recharge la page, pas de pub. Je relance le navigateur, toujours pas de pub. J’ajoute le site sur celle de Ghostery. Léger progrès, je peux désormais voir une liste de différents produits, située entre la fin de l’article et les commentaires.



Par contre, en haut à droite de l’écran, je vois deux fois le mot Publicité, avec une petite flèche qui pointe vers le bas. Mais dans les deux cas, aucune pub ne s’affiche (testé sur un certain nombre d’articles).



De retour sur la page d’accueil, je vois bien le deuxième carré pub sur la droite, celui situé sous PC INpact Emploi. Pour les articles eux-même, je me contenterai donc de la liste de produits située avant les commentaires. Et donc, la question est de savoir si ce simple affichage suffit pour vous faire gagner de l’argent, ou s’il faut penser à cliquer dessus de temps en temps, à défaut d’avoir une publicité complètement fonctionnelle XD



Quand je passe le curseur au dessus de l’icône d’AdBlock+ il me répond pourtant “État: Adblock Plus est désactivée pour cette page”. Et pour Ghostery, “Site mis sur liste blanche, 11 traqueurs trouvés sur cette page, 0 bloqués”.



Firefox 19 sous Linux, avec un plugin Flash qui fonctionne sur d’autres sites.

Le 22/02/2013 à 06h 15







flemhardiz a écrit :



Google.com et Android leur ont déjà permis de s’introduire dans notre quotidien, ChromeOS pourrait leur permettre un accès à tout ce que l’on produit de numérique … Alors je ne vous raconte même pas mes craintes quand aux google glass et aux voitures sans pilotes, ça complèteraient ce qu’a entamé google maps et streetview. Sous couvert de services, ils s’insinuent sournoisement dans tout ce qu’il peut y avoir de privé.



Dsl pour le semi-hors-sujet, mais c’est mon ressenti quant à cette news







Ploum avait écrit un texte plutôt pas mal, à ce sujet



http://ploum.net/post/le-monde-selon-Google


Le 08/02/2013 à 09h 11







gavroche69 a écrit :



Ouais mais faut arrêter les exemples foireux là… <img data-src=" />

C’est sûr que des types qui se baladent avec leur collection de BR et un PC Portable on en rencontre tous les jours… <img data-src=" />



C’est là où il y a une incohérence totale sur les raisonnements :



D’un côté on nous rabâche que vive le dématérialisé, vivement que les CD/DVD/BR disparaissent et de l’autre on veut absolument pouvoir lire ces odieux BR de partout, dans le train, dans l’avion, dans les chiottes, bref ça devient carrément comique cette subite envie de pouvoir lire des BR de partout et sur tout.







Si j’ai pris cet exemple, c’est qu’à chaque fois que je prends le train, il y a systématiquement au moins deux ou trois personnes dans le wagon qui matent des films sur leur portable.



Je rappel également que la SNCF propose un service de location de DVD à bord de ses trains. Si ce n’est pas déjà le cas, ils finiront bien par proposer également des Blu-ray.









okeN a écrit :



Mais rien n’empêche un éditeur de payer la licence et de faire un logiciel lisant les blu-ray sous Linux, non ? Donc c’est pas un souci de format.

Je sais pas mais si t’achète un lecteur incompatible Linux faut pas venir râler après qu’il est incompatible… ça me parait logique.







D’après ce que semblait dire Jb, les systèmes Linux et OSX (pour ce dernier, ça m’étonne) ne proposent pas les prérequis (support HDCP…) nécessaires. Même si tu le voulais, tu ne pourrais même pas publier un lecteur ou un plugin propriétaire.



Ce qui nous amène à la question “Pourquoi ne pas implémenter le support HDCP ?”. J’imagine que le principe même de cette technologie est d’être complètement fermée, opaque. Une implémentation libre serait un non sens. Et comme le noyau Linux n’acceptera jamais un module non libre, je pense que c’est un peu mort.


Le 08/02/2013 à 06h 20







gavroche69 a écrit :



Oui j’avoue que j’ai aussi du mal à comprendre…

De plus, comme le dit très justement quelqu’un plus haut pour ceux qui veulent absolument lire les BR physiques protégés, il suffit de se payer une petite platine de salon, il en existe des pas chères du tout…



Râler est parfaitement justifié quand un truc est imposé sans alternative, là des alternatives il y en a plusieurs alors bon… <img data-src=" />







Et si jamais t’as envie de lire un Blu-ray sur ton portable Linux quand t’es dans le train, l’avion ou en vacances, tu fais comment ?


Le 23/01/2013 à 13h 30

Le problème, c’est qu’on ne peut pas comparer les sorties tous les un à deux ans de Windows et OSX avec Linux. Sur un Windows (s’il n’a pas non plus vingt ans), à tout moment, on peut installer la dernière version de n’importe quel programme.



Sous Linux, à moins d’avoir une vraie distribution de type rolling release (Arch, Gentoo…) on doit se contenter des packages et des versions fournies par la distribution (dans le cas d’Ubuntu, il y a bien les PPA, des dépôts tiers, mais c’est parfois au petit bonheur la chance).



Ce qui fait que si Ubuntu sort au mois d’avril 2013 avec la version n du logiciel de retouches photos, de la suite bureautique et autres applications utilisateurs importantes, on devra se contenter de ces versions pendant deux ans, et ce, même si de nouvelles versions sortent dès le mois suivant. Rien de comparable avec Windows, donc.



Jusqu’à présent, en dehors du cycle de releases de la distribution, ils ne mettaient à jour que Firefox. On avait chaque nouvelle version quasi le jour de sa sortie. Le navigateur est un élément particulièrement important de nos jours, et ça m’aurait particulièrement ennuyé de n’avoir une mise à jour de ce dernier qu’une fois tous les deux ans. Sauf que si on passe réellement de six mois à deux ans, il faudra faire la même chose pour tout un tas d’applications utilisateur / métier importantes (Blender, The Gimp, Inskape, Ardour, LibreOffice…)



Parce qu’ok, ça semble en emmerder certains de réinstaller tous les six mois (ce qui est idiot, puisque pour eux il y avait déjà les LTS), mais si c’est pour se retrouver avec un système archi stable, mais complètement dépassé, avec lequel on ne peut pas travailler comme on le souhaite, ça n’a finalement aucun intérêt.

Le 21/01/2013 à 22h 15







KP2 a écrit :



En meme temps, faire des simulations de charge sur plusieurs Gb/s avec des To de données, c’est loin d’etre fastoche… tres loin d’etre fastoche.

Le mieux est encore de faire comme il a fait : lancer le bazar et regler les problemes au fur et a mesure.

C’est pas top pour l’image du service au depart mais ca sera tres vite oublié quand ca marchera. Rien de grave.







Ils pouvaient également commencer par une beta fermée sur invitation, ou ouvrir les inscriptions par vagues successives, plutôt que d’ouvrir les portes en grand d’entrée de jeu et de voir tout s’écrouler.


Le 16/01/2013 à 21h 05







jinge a écrit :



Deux personnes utilisent un tuyau, l’un gagne du trafic qui lui donne des revenus par la publicité, l’autre gagne un service.

Pourquoi ce tuyau serait financé seulement d’un coté et pas par les deux?

Le fait de faire transiter le flux est un service rendu aux deux parties.



Mais ces questions se posent parce que les autorités de régulation ne sont pas compétentes et ne veulent pas s’engager… Et si les opérateurs font pression ils savent qu’ils vont se prendre un procès de la part de Google qu’ils ne sont pas sûr de gagner.







Ton raisonnement est biaisé. Les deux parties gagnent de l’argent (le fournisseur d’accès par les abonnements, le fournisseur de contenu par la publicité ou d’éventuels abonnements), et les deux parties payent la bande passante. Google, qui a besoin d’une bande passante monstre pour des services tels que YouTube, n’y a, bien évidemment, pas accès gratuitement par l’opération du Saint-Esprit. Il va faire appel à des fournisseurs spécialisés tels que Cogent Communications. Et c’est la même chose pour tout le monde. Wikipédia paie également sa bande passante, tout comme je vais payer la mienne en louant un serveur dédié chez OVH.



Ce qui pose problème, c’est qu’à une époque, les échanges de trafic étaient relativement équivalents, et par le biais des accords de peering, soit c’était gratuit, soit il n’y avait pas besoin de payer d’énormes sommes. Sauf que maintenant, c’est complètement disproportionné, mais pas seulement à cause de Google, mais plutôt de l’ensemble des services américains centralisés. Pour un fournisseur d’accès français, que son client passe majoritairement son temps sur YouTube, ou qu’il alterne entre YouTube, Facebook, Flickr, Wikipédia et compagnie, ça revient au même, le trafic n’est pas local (même s’il y a des CDN en France pour accélérer tout ça).



Pour revenir à l’équilibre, il faudrait beaucoup plus de contenus localisés en France, et qu’on fasse la promotion du P2P, seul protocole à privilégier les échanges locaux plutôt que les services centralisés distants. Sans parler du fait que même pour les services de base, tel que l’email, les utilisateurs passent désormais majoritairement par des services hébergés aux USA (Gmail, Hotmail…) plutôt que d’utiliser l’offre de leur fournisseur d’accès. Encore une perte de trafic.


Le 04/01/2013 à 17h 04







zogG a écrit :



L’exemple que tu donne est particulièrement mauvais.



Déjà en France le automobiliste prendrait bien plus que 5 ans, plus une amende, plus tout un tas d’interdictions. Et aux USA ce serait sans doute pire.



&gt;legifrance.gouv.fr République Française







Entre ce qui est prévu par la loi et ce qui est réellement appliqué, il y a souvent un gouffre. Encore un récent exemple :



http://www.liberation.fr/societe/2012/10/11/dix-acquittes-au-proces-des-tournant…


Le 29/12/2012 à 02h 04

Freud : tu n’as absolument aucune idée des contraintes, qui ont pourtant été abordées dans le billet de blog de l’asso. Ce n’est pas un bête outil wysiwyg pour écrire sur un petit blog perso. On parle ici d’un site disponible dans plusieurs centaines de langues, certaines allant de gauche à droite, d’autres de droite à gauche ou de haut en bas. Il faut pouvoir s’adapter à toutes les cultures, et pouvoir mixer tout ça dans un même article au besoin. Et ce n’est qu’une contrainte parmi tant d’autres.



Pareil pour le lecteur vidéo. Le but de l’outil, c’est effectivement de pouvoir lire des vidéos, mais t’oublies tout ce qu’il y a derrière. On parle d’un site collaboratif. Il faut donc que les gens puissent envoyer des vidéos dans le format de leur choix, et que ce soit transcodé à la volée dans les formats libres autorisés. Il faut que les vidéos puissent être remixées ou qu’on puisse y apporter de nouveaux éléments, comme on le ferait pour un article texte. Il faut pouvoir créer et traduire des sous-titres de façon collaboratives, puisque les vidéos doivent pouvoir être vues et comprises par les lecteurs du monde entier (Wikimedia supporte plus de 280 langues…)



Et c’est la même chose pour tous leurs projets. Entre les problèmes prévus dès le départ et ceux, insoupçonnés que tu rencontres en cours de route, non, ce n’est généralement pas faisable par un stagiaire en deux temps trois mouvements.



D’autant plus qu’une fois le développement terminé, il y a de nombreux tests à faire pour s’assurer qu’il n’y a pas de régressions, qu’aucun contenu ne sera perdu ou corrompu, ce qui prend encore du temps.



Pour savoir tout ce qu’ils font, il y a tous les mois les WMF engineering reports sur le blog de la fondation

https://blog.wikimedia.org/2012/12/06/engineering-november-2012-report/



Ils ont également récemment publié leur rapport pour la période 2011-2012

https://blog.wikimedia.org/2012/12/19/wikimedia-foundations-2011-12-annual-repor…

Le 19/12/2012 à 11h 38







Arkthus a écrit :



Bon de toute façon j’ai plus d’iBouse ni d’Androbide, donc j’ai plus Instagram, et comme ils semblent avoir la pire des flemmes de le développer pour WP7 et 8, je vais quand même tout virer ;)







Parce que tu crois que ça ne serais pas la même chose avec Microsoft ? La seule solution raisonnable pour être tranquille à ce niveau, ça serait d’utiliser le futur Firefox OS, avec uniquement des applications libres et respectueuses de leurs usagers.



Dès qu’on utilise des applications propriétaires provenant d’entreprises, dont la raison d’être est d’engranger toujours plus d’argent, c’est toujours la même chanson.


Le 18/12/2012 à 14h 50

brazomyna : je pense qu’on aura plus vite fait de commencer à bidouiller tout ça soit même



http://www.capitoledulibre.org/2012/conferences-grand-public-samedi-24-novembre….



La vidéo de la conférence contient quelques exemples sympa

Le 18/12/2012 à 11h 47

Même sans connaître CUPS, suffit de rechercher linux compatible printers sur un quelconque moteur de recherche pour trouver plusieurs liens intéressants



https://help.ubuntu.com/community/Printers

http://www.cups.org/ppd.php

https://www.openprinting.org/printers


Le 18/12/2012 à 11h 34

Récente interview de Ryan C. Gordon (en anglais) qui a porté un certain nombre de titres sous Linux



http://cheerfulghost.com/panickedthumb/posts/771



Petit extrait



One of the major reasons publishers and developers give for not releasing a Linux version of their games is that the demand doesn’t justify the extra development cost.



I think it’s short-sighted. A one-man team–me–can take a completed game and port it to Linux. Usually this is pretty fast and cheap.

Le 08/12/2012 à 08h 44

De ce que j’ai compris, puisque les américains avaient initialement droit à des .org .com .gov .mil .net .edu… en fonction du type d’activité, mais que les britanniques devaient se contenter d’un unique .uk, ils se sont créés tout plein de domaines de deuxième niveau : co.uk pour le commercial, .ac.uk pour l’éducation / académique, .gov.uk pour les sites gouvernementaux, sans oublier .org.uk, .judiciary.uk, .ltd.uk, .net.uk, .nhs.uk, .police.uk…



Ça fait un peu solution du pauvre. À l’arrivée, les gens doivent se contenter d’un domaine de troisième niveau, généralement du .co.uk ou du .me.uk (commercial ou personnel)



en.wikipedia.org Wikipedia

Le 04/12/2012 à 01h 42







anonyme a écrit :



Dans le genre modo/admin complètement cons, mon IP est ban pour toute modification d’article, parceque je suis chez OVH.

La raison : proxy user, et oui, cet idiot de modo à banni tout le range des adresses IP OVH, sans se renseigner un minimum.



Du coup, j’étais partit pour corriger un article, une fini, je clic que le bouton, et paf, IP BAN, donc rien de sauvegardé.

Alors oui, c’est pas wikimedia directement, mais c’est comme tout, ils les ont bien choisi d’une manière ou d’un autre leurs modo.







Pour le coup, ce n’est pas le modérateur qui est fautif, puisque le blocage systématique de tous les proxy (uniquement pour les accès en écriture) est une règle de la fondation. Et s’ils le font, c’est uniquement pour lutter contre le vandalisme. Sans ça, une personne bannie pourrait sans cesse revenir avec une adresse IP différente.



https://meta.wikimedia.org/wiki/No_open_proxies/fr



Tu peux néanmoins demander une exemption de blocage d’IP



fr.wikipedia.org Wikipedia:Exemption_de_blocage_d'IP


Le 29/11/2012 à 15h 13







nabla666 a écrit :



Euh, t’as une source pour l’huile de vidange, parce que là j’ai quand même du mal à y croire….







Alerte à l’huile de vidange dans des produits de consommation courante

http://www.terredavenir.org/Alerte-a-l-huile-de-vidange-dans-des-produits-de-con…



Vous reprendrez bien un peu de mayonnaise à l’huile de vidange?

http://archives-lepost.huffingtonpost.fr/article/2008/05/14/1192950_vous-reprend…



Et, histoire d’avoir tous les sons de cloche



Huile alimentaire empoisonnée

http://www.hoaxkiller.fr/hoax/2008/huile-alimentaire-empoisonnee.htm


Le 19/11/2012 à 18h 55

La question que je me pose, c’est l’intérêt que peuvent avoir dbpedia / Sémanticpédia, maintenant que la Wikimedia Foundation a enfin lancé son propre projet, Wikidata



fr.wikipedia.org WikipediaIls auraient mieux fait de contribuer à ce dernier, plutôt que de s’éparpiller sur tout un tas de projets qui auront, à terme, fatalement moins de succès.

Le 21/10/2012 à 03h 32

En ce qui concerne la support matériel, je dirais que sous Windows, si on a la dernière version du périphérique sur la dernière version du système, ça devrait aller. C’est justement là où Linux a un peu de mal, puisque il faut attendre qu’un bénévole se coltine la rétro-ingénierie pour développer un driver libre.



À l’inverse, les anciennes versions de Windows ont énormément de mal à obtenir des drivers pour les périphériques récents, tout comme les anciens périphériques ne sont finalement plus maintenus par les constructeurs, invitant les consommateurs à racheter la dernière version.



Sur ce point, une fois que c’est supporté sous Linux, en général on est tranquille une fois pour toute, et ce n’est pas sans cesse la course à la dernière version, à subir l’obsolescence programmée.