votre avatar Abonné

Okki

est avec nous depuis le 11 novembre 2009 ❤️

Bio

Linuxien depuis 1996, actuellement sous Fedora avec l'environnement de bureau GNOME.

I ❤️ systemd, Flatpak, PipeWire, Wayland… et toutes les nouveautés qui font hérisser le poil des grincheux (sauf si ça vient de Canonical 😝)

1302 commentaires

Ubuntu 14.04 : cachez cette barre de menus que je ne saurais voir !

Le 21/02/2014 à 15h 01






ennixo a écrit :

Mais qu’ils mettent ça sous la forme d’une case à cocher dans les options de configuration de l’interface, comme ça chacun fait comme il veut au lieu de faire un pas un avant un pas en arrière et que la moitié des users gueulent !



Comme tu peux le constater à la 38ème seconde de la vidéo, c’est déjà le cas.



Le 21/02/2014 à 14h 55






paradise a écrit :

Pour poursuivre l’analogie avec les meubles, le principe des bureaux virtuels me fait penser à un appartement avec plusieurs pièces aménagées pour des besoins différents (dont les … besoins naturels, lol), et ModernUI et Unity/Gnome3/Rosa à une seule grande pièce où les lavabos, la douche, le canapé, le lit, les chiottes, apparaîtraient selon les besoins, en se disant : pourquoi avioir plusisuers pièces avec leurs meubles alors qu’en restant dans la même on fait tout également ?



Les bureaux virtuels existent également sous GNOME 3, et sont facilement accessibles depuis le mode Activités, depuis le raccourci Super + PageUp / PageDown, ou depuis l’une des nombreuses extensions à ce sujet :

https://extensions.gnome.org/extension/21/workspace-indicator/
https://extensions.gnome.org/extension/766/alternative-activities/
https://extensions.gnome.org/extension/29/workspace-navigator/
https://extensions.gnome.org/extension/701/top-panel-workspace-scroll/

https://extensions.gnome.org/extension/464/workspacebar/



Mageia 4 est disponible au téléchargement

Le 07/02/2014 à 12h 35

J’imagine que c’est pour la même raison que Madame Michu et sa famille souhaitent à tout prix MS Office pour rédiger un simple CV, ou Adobe Photoshop pour traiter les yeux rouges sur leurs photos. À partir du moment où le petit Kevin leur installe tout ça sans rien payer, pourquoi se gêner.

Puis au moins, on a la même chose que les voisins d’en face…


Le 06/02/2014 à 21h 58






slave1802 a écrit :

Pas un seul logiciel Linux, mais bon c’est bien connu, les musiciens sont des gens sectaires <img data-src=" />



Comme ils l’indiquent eux-même (voir le second lien) :

« Ne sont pas mentionnés non plus les logiciels tournant sous Linux comme les excellents Ardour ou Rosegarden, ou le phénoménal Usine et le sympathique EnergyXT qui, dans leur approche modulaire, ne sont pas vraiment comparables aux autres softs listés ci-dessous. »

C’est donc un parti pris que de ne pas lister ces logiciels, qu’ils reconnaissent pourtant comme étant excellents.



Le 03/02/2014 à 23h 36






Konrad a écrit :

Ce comparatif oublie une chose : The GIMP a des milliards de plug-ins qui viennent pallier certains manques du logiciel de base. Je me souviens d’avoir utilisé un plug-in pour faire de la HDR par exemple (le comparo dit que GIMP ne peut pas faire de HDR).



J’en profite d’ailleurs pour parler de la série de plugins G’MIC, développés par les français du GREYC (Groupe de Recherche en Informatique, Image, Automatique et Instrumentation de Caen). Il y a eu plusieurs articles sur DLFP, qui listait quelques unes des nouveautés

* Traitement d’image : Sortie de G’MIC 1.5.5.1
* Quelques nouveaux filtres images dans G’MIC
* G’MIC 1.5.7.2 : Multi-threading, Krita, et autres nouveautés…



Le 03/02/2014 à 19h 04






slave1802 a écrit :

Malheureusement et sans vouloir faire mon troll, la majorité de ces applications ne tiennent absolument pas la route en utilisation pointue. Je parle essentiellement des applis “graphique”, car oui, côté serveur linux c’est du tout bon.
Mais
Pas de Photoshop like. GIMP est bien sympa pour dépanner mais pour bosser avec…



Parce qu’ils utilisent Photoshop depuis de nombreuses années, que les formations et la plupart des bouquins tournent autour de Photoshop. Ce qui n’enlève rien aux qualités de The Gimp. Pour avoir vu de bons infographistes l’utiliser, franchement, ça permet des choses incroyables. Mais bon, c’est comme pour tout, il faut apprendre à maîtriser l’outil, et ça ne se fait pas d’un coup de baguette magique. Et c’est bien pour ça que la plupart des gens refusent le changement, et préfèrent rester sur ce qu’ils connaissent.



slave1802 a écrit :

Pas d’Autocad like assez puissant pour pouvoir le remplacer



Rien à voir avec la choucroute, mais récemment j’apprenais l’existence du logiciel libre Code_Aster (solveur éléments finis), développé par EDF. Framabook a d’ailleurs sorti un bouquin sur le sujet. Sinon, histoire de rester dans l’argent public correctement utilisé, l’armée américaine développe BRL-CAD (tous les travaux gouvernementaux US sont directement publiés sous licence libre). Sinon, il y a bien FreeCAD, mais aucune idée de ce que ça vaut XD



slave1802 a écrit :

Pas de logiciel de M.A.O. digne de ce nom



Ardour, Hydrogen ? Voir Linux MAO pour le reste.



slave1802 a écrit :

Pas de logiciel vidéo qui tienne la comparaison avec Première. C’est soit ergonomique mais avec peu de fonction, soit c’est un fouillis sans nom.



Après une longue phase beta, j’ai vu que Lightworks était récemment sorti en version finale sous Linux. Sinon, il y a toujours Pitivi qui s’améliore au fil des versions. Sans doute pas pour un usage pro, mais comme pour tout le reste, je suis convaincu que si les protections contre le piratage étaient réellement efficaces et que les gens devaient réellement payer pour tout ce qu’ils utilisent, l’écrasante majorité d’entre eux passeraient sous Linux et en seraient pleinement satisfaits.



Le Raspberry Pi a désormais son propre navigateur HTML5 ready

Le 24/12/2013 à 08h 13

Epiphany / Web étant normalement le navigateur du projet GNOME, histoire de garder un truc léger, ils ont dégagé toutes les dépendances vers ce dernier ?


LG annonce le Chromebase, un tout-en-un sous Chrome OS

Le 18/12/2013 à 09h 39

Dommage qu’il n’y ai pas eu autant de constructeurs pour s’intéresser à Linux, en intégrant leur propre surcouche cloud et compagnie, si ça peut leur faire plaisir. Parce qu’on l’a encore vu récemment avec Steam OS, Linux est bien le seul système modulable à souhait, pour obtenir ce que l’on veut, tout en pouvant réellement se différencier de la concurrence.


Google croque Boston Dynamics, spécialiste des « robots-animaux » rapides

Le 17/12/2013 à 09h 53






canti a écrit :

huuuuum pourquoi ils stopperaient l’innovation? <img data-src=" />

c’est pas comme si ils avaient acheté toutes les boites qui font de la robotique pour être sur que ce sont les seuls a en faire… ils ont acheté une boite qui a des compétence énorme dans la robotique “ de puissance “, et je présume que c’est pour la développer, pas pour l’enterrer ..



Je te cite l’article :

« Et si nous savons officiellement depuis le début du mois qu’il gère cette division au potentiel gigantesque, d’après le New York Times, ce rachat serait en fait le huitième dans ce secteur depuis l’arrivée de Rubin. »

Ce n’est donc pas la première (et sûrement pas la dernière) qu’ils rachètent. Tout comme, même sans rachat d’entreprise, si ce n’est pas déjà fait, ils tenteront bien de débaucher tous les meilleurs ingénieurs des boîtes qui refuseront de céder.



Ubuntu 13.10 est là : des nouveautés pour la recherche et OpenStack Havana

Le 18/10/2013 à 07h 20






gokudomatic a écrit :

Je pensais passer enfin à Gnome 3 cette fois ci, mais apparement, des articles disent que ça cause des regressions et incompatibilité avec unity au point de le rendre inutilisable.
Qui était encore le guignolet qui me disait que ubuntu acceptait enfin gnome3?



En plus de la sortie d’Ubuntu, on a également droit à celle des différentes variantes, dont Ubuntu GNOME, qui fourni la précédente version GNOME 3.8 par défaut (il faut passer par un PPA pour l’actuelle 3.10), sans la moindre trace d’Unity.



Le 17/10/2013 à 17h 34






Malizor a écrit :

La cible d’Ubuntu, c’est le grand public. Ça me parait évident qu’ils ne vont pas parler de kernel ou de serveur d’affichage dans les communiqués de presse.

Pour les geek, il y a cette page:https://wiki.ubuntu.com/SaucySalamander/ReleaseNotes



Le kernel est tout aussi important sur du desktop. Il y a par exemple eu de grosses améliorations sur les drivers vidéo. GNOME c’est également du pur desktop. Puis je n’ai cité que les 2-3 trucs qui me venaient en tête. J’ose espérer qu’il y a bien d’autres nouveautés.

Par exemple, est-ce qu’ils se sont enfin sortis les doigts du cul pour refaire leur logithèque ? Ce n’est pas libre, mais quand on compare avec App Grid, petite application codée par un gus tout seul dans son coin, ça fait peur :




  • Démarrage en 2.7 secondes contre 20 pour le Software Center d’Ubuntu, ce qui le rend finalement inutilisable

  • Construction de la base de données, 58 secondes contre 6min24

    http://www.webupd8.org/2013/08/app-grid-new-lightweight-ubuntu.html

    Maintenant, comme ils n’en parlent pas, on reste dans le flou. Le but d’une annonce de sortie, c’est pourtant de donner envie. Lister plein de nouveautés pour les différents publics (desktop, admin…), ainsi que les grosses améliorations. Alors que là, ça se limite à 2-3 conneries sur le dash.



Le 17/10/2013 à 17h 08






gokudomatic a écrit :

en gros, aucune nouveauté.
Bah. Au moins, ca fait des mises à jour et correctifs. le dist upgrade devrait passer comme une lettre à la poste.



Des nouveautés, comme dans chaque nouvelle distribution, il y en a des tonnes. Rien qu’entre Ubuntu 13.04 et 13.10, on a eu droit à plusieurs versions du kernel :

https://linuxfr.org/news/sortie-du-noyau-linux-3-9
https://linuxfr.org/news/le-noyau-linux-3-10-est-sorti
https://linuxfr.org/news/linux-pour-workgroups-3-11-le-noyau-pret-pour-le-bureau

Avec une version de retard sur la version 3.10 dont PC Inpact n’a même pas parlé (par contre, on a bien eu droit à quinze articles sur la mise à jour Windows 8.1…), Ubuntu passe également à GNOME 3.8

https://linuxfr.org/news/gnome-3-8-deux-ans-deja

Il y a également le serveur d’affichage Mir qui passe en tech preview (même si j’aurai préféré qu’ils utilisent Wayland comme tout le monde). Enfin bon, il y a plein de choses à dire, mais malheureusement, Canonical a un service marketing tout bidon, incapable de lister 2-3 nouveautés autre que celles tournant autour d’Unity, et la presse ne va guère chercher plus loin. Dommage.



Street View vous emmène sur les traces de Darwin dans les îles Galápagos

Le 16/09/2013 à 07h 54

OpenStreetMap, ce sont des données cartographiques. Là, pour le coup, l’article traite de photos ajoutées à un service annexe.

Je pense qu’il aurait été sympa de parler du projet qui a débuté il y a déjà plus de deux semaines et qui en est déjà à mi-parcours, Wiki Loves Monuments (voirhttp://wikilovesmonuments.fr pour la francophonie). Projet qui peut produire de nombreuses nouvelles photos sous licence libres, dont une partie seront géo-taguées, et qui pourront donc être utilisées par des projets qui combinent déjà OpenStreetMap et Wikipédia. Même si ça ne propose pas un équivalent à Street View, ça reste toujours sympa.


Chromium pourrait devenir le navigateur par défaut dans Ubuntu

Le 03/06/2013 à 13h 44






Mithrill a écrit :

ceci dit après avoir découvert Opera et ses possibilités de configurations
supérieures from scratch je me suis laissé séduire par ce confort qui plus est desservi
par une rapidité largement supérieure sur 99% des usages que je fais du web…



Opera est un exemple intéressant. T’aimais bien les anciennes versions. Du jour au lendemain, ils ont décidé de changer de moteur de rendu, puis ensuite (à la lecture d’un récent article, jamais utilisé ce navigateur) de dégager la plupart des fonctionnalités intéressantes. Est-ce qu’elles seront réintégrées dans de futures versions, ou est-ce qu’ils partent sur une toute nouvelle vision des choses, qui sera imposée aux utilisateurs ?

Si ça avait été libre, n’importe qui aurait pu forker le projet, comme on l’a déjà vu maintes fois par le passé (XFree86 / X.org, OpenOffice / LibreOffice, Gnome 3 / Cinnamon…). T’aurais ainsi pu avoir le choix entre un ancien Opera qui aurait continué sa route d’un côté, et la nouvelle vision de l’autre.

Et dans le proprio, ça arrive souvent. Windows 8, Opera, Flash et Silverlight abandonnés, Macromedia qui se fait bouffer et Adobe qui supprime la moitié des produits… T’es vraiment à la merci de l’éditeur.



Le 02/06/2013 à 19h 01

Après plusieurs minutes j’avais tenté d’éditer mon premier paragraphe pour être mon virulent, mais c’était apparemment déjà trop tard, plus le droit d’éditer.

Enfin bon, je maintiens que tous les points positifs de Linux (sécurité, nombre de traductions, bidouillabilité, choix logiciel…) découlent de sa liberté. Sans parler du côté humain. Aussi bien la partie travail collaboratif, que le fait qu’on puisse le partager, et que tout le monde y ai accès, peu importe sa nationalité ou sa fortune.

Alors quand je vois une distribution majeure faire une croix sur tout ça, finalement pour pas grand chose, ça m’énerve. Et je ne peux m’empêcher de repenser à une célèbre citation de Benjamin Franklin (que je ne ressortirai pas tellement elle a déjà été rabâchée, mais tout de même) XD


Le 02/06/2013 à 18h 46






Nathan1138 a écrit :

… Et je le suis. Car, oui, je l’avoue, ô intégriste du libre que tu sembles être, la licence d’un logiciel (open source ou non), je m’en tamponne la cacahuète, mais d’une force interstellaire <img data-src=" />

Ce que j’attends d’un logiciel, c’est qu’il réponde le mieux possible à mes besoins, comme 95 % des utilisateurs.

Parfois, ça tombe sur un logiciel closed source (Windows, Office, la suite Adobe, Steam, les jeux, toussa).

Quoiqu’il en soit, ça n’est absolument pas un critère.



Dans ce cas, tu n’es qu’un parasite et, encore une fois, je ne vois vraiment pas ce que tu fais sous Linux. D’autant plus que la majorité des logiciels libres (Firefox, VLC, LibreOffice, HandBrake…) sont également disponibles sous Windows.

Et c’est vraiment dommage de n’avoir rien à faire de la licence, puisque même sans être développeur, c’est la liberté du logiciel qui permet à n’importe qui de le traduire et de voir qu’ils sont ainsi tous disponibles en français.

Ou à n’importe quel développeur de pouvoir y contribuer et lire le code source, ce qui permet de garantir qu’il n’y a pas de portes dérobées ou autres merdes, et de pouvoir l’améliorer. Même chose pour les failles de sécurité. N’importe quel développeur ou distribution peut les corriger, sans avoir besoin d’attendre que ce soit fait par l’éditeur du logiciel.

Et ainsi de suite. Linux et son écosystèmes sont ce qu’ils sont uniquement parce que tout était libre.

Au fait, rassure-moi. Ta suite Adobe à 2500 euros ou ton MS Office à 500 euros, tu les a bien payés ? Dans le cas contraire, facile de vanter les mérites des logiciels propriétaires…



Le 01/06/2013 à 22h 20






Nathan1138 a écrit :

Je me fous de la conso RAM. J’en ai 6 Go, qu’il les utilise s’il veut. Je parle de la lourdeur au niveau de l’utilisation, du lancement, de l’affichage. Chrome est vif comme l’éclair, Firefox moins.



Firefox est libre, Chrome moins. Si la liberté n’a que peu d’intérêt, tu pouvais également rester sous Windows.

Fut un temps, Linux était plus stable que Windows. Maintenant que ce dernier ne plante plus toutes les cinq minutes pour un rien, ce qui reste à Linux, c’est sa liberté. Si elle ne vous importe peu, je ne vois réellement pas l’intérêt de changer de système.

C’est le même comportement qui fait que les gens vont utiliser Skype plutôt que Ekiga, ou que la logithèque Ubuntu est désormais envahie d’applications non libres, y compris pour de petites fonctions à la con.



Le 31/05/2013 à 14h 38






atem18 a écrit :

Dans ce passage, on te dit que normalement, Canonical ne devrait pas embarquer Chromium, car étant la version libre de Chrome, donc de Google. Ce qui veut dire que même si Chromium est libre, Google garde la main sur le projet et est donc libre d’en faire ce qu’il veut. Néanmoins, c’est un faux argument, car Firefox aussi est dirigé par une société (Mozilla) qui est libre d’en faire ce qu’elle veut.



Il y a deux entités, Mozilla Foundation et Mozilla Corporation. La première est à but non lucratif et gère le développement de Firefox et autres logiciels libres. La communauté y a un rôle prépondérant.

La seconde est une entreprise commerciale, qui gère la marque et les contrats (comme celui avec Google, pour que son moteur de recherche soit celui par défaut dans le navigateur Firefox)



Le 31/05/2013 à 11h 29

L’article ne parle pas, de mon point de vue, de ce qui est le plus important. Firefox est un logiciel libre, aussi bien dans sa licence que dans sa philosophie. Développement coopératif, confiance, sécurité. Et ce, à tous les niveaux. Par exemple, pour la synchronisation des données, Mozilla fourni un serveur Sync sous licence libre, que n’importe qui peut installer. Canonical aurait donc pu avoir son propre serveur

http://www.chromium.org/developers/design-documents/sync

De ce que je comprend de la doc ci-dessus, ça semble être obligatoirement stocké chez les serveurs de Google. Et ça sera la même chose pour toutes les couches du navigateur.

Avoir une fondation qui défend les standards et le web ouvert était plus dans la philosophie du logiciel libre. Mais bon, avec Canonical, on commence à être habitués.


Football Manager 2014 sera disponible sous Linux

Le 28/05/2013 à 06h 21






gwado a écrit :

Et alors ?



Et alors rien. Ma première intervention sur cette news allait dans ce sens. J’indiquais qu’à terme, on aurait clairement une Ubuntu à la Windows, avec des logiciels propriétaires à tout va, des utilisateurs qui confondent Linux et Ubuntu, et dont on ne leur a jamais parlé de la philosophie du libre, qui auront peut être eu Ubuntu sans l’avoir choisi, comme on a déjà Windows aujourd’hui sur toutes les machines nouvellement achetées.

Je trouve ça triste, mais j’indiquais également qu’on aurai toujours des distros communautaires (Debian, Arch…) qui continueront de mettre le libre en avant (même si elles autorisent les dépôts non-free), et qui ne feront pas de compromis sur ce qui est important.

Au final, on aura bien deux mondes, deux philosophies opposées qui s’affronteront.

Ensuite, j’indiquais un avis purement personnel sur l’intérêt de se retrouver sur un Linux à la Windows. Si c’est pour devoir sortir le porte monnaie pour le monde petit utilitaire à la con, jongler avec les cracks, devoir installer un antivirus, ne plus pouvoir contribuer, devoir être toujours sur ses gardes lors de l’installation d’un nouveau programme (va t-il me remplacer Firefox par Chrome, va t-il remplacer mon antivirus par celui de McAfee…), je me demande ce qu’apportera de plus ce Linux, qu’est-ce qui le différenciera d’un Windows, et donc, pourquoi ne pas rester sur ce dernier ?



Le 27/05/2013 à 21h 20






seb2411 a écrit :

Non.



Merci pour la pertinence de tes propos et de ta contribution au débat.

Donc, quand on lance la logithèque, nous avons un écran divisé en trois parties




  1. Un grand bandeau qui fait l’éloge de Steam (propriétaire)

  2. Une liste de neuf nouveautés :





  • CaniVIZ 3D Pro, propriétaire, 159,99 USD

  • miniPonga, propriétaire

  • Spindl, propriétaire, 2,99 USD

  • Palm Reading Premium, propriétaire

  • Astrology Premium, propriétaire

  • Jack Keane, propriétaire, 9,95 USD

  • Digital Calculator, propriétaire

  • GibberEng, propriétaire

    Finalement, il n’y avait que du propriétaire





  1. Troisième et dernière partie, les applications les mieux notées, on a enfin du libre.

    En ce qui me concerne, si on voit Linux comme un système uniquement gratuit qui doit devenir comme Windows, ça n’a aucun intérêt. On perd l’intérêt même, la liberté, la collaboration (code, traductions, idées…), la confiance…

    Donc ouais, quand je vois Canonical mettre en avant uniquement des applications non libres, installer par défaut les recherches Amazon, envisager de remplacer Firefox, navigateur libre par excellence, aussi bien dans sa licence que dans sa philosophie, par Chromium, je me dis que cette entreprise se fout royalement du libre, que ça lui a juste permis de se constituer un système d’exploitation complet à moindre frais, et que maintenant, faut pas déconner, ça serait pas mal de devenir comme Apple ou Microsoft.



Le 27/05/2013 à 16h 48






paradise a écrit :

Si c’est pour finir avec des sur-couches pour le “yaka”, on finira par du Linux qui sera un Super Android, alors tant mieux si des jeux natifs sont créés pour Linux, le dernier que j’ai est UT2004, mais méfiance sur la façon dont les plate-formes géreront tout ça. <img data-src=" />



Comme c’est parti, on aura un Ubuntu à la Windows, et des distros communautaires comme Debian qui resteront libres. Déjà aujourd’hui, quand on lance la logithèque Ubuntu, toutes les nouveautés mises en avant concernent uniquement des logiciels propriétaires, qu’ils soient gratuits ou commerciaux.

Et sur les sites dédiés à Ubuntu, tels que OMG! Ubuntu!, on retrouve de plus en plus d’articles concernant des logiciels propriétaires (Skype, Inky, XnRetro…)

La prochaine étape, ça sera de retrouver des cracks vérolés pour ces applis, et Linux sera bel et bien prêt pour le desktop…



Street View : sur terre et en mer, Google se balade dans les îles Galápagos

Le 27/05/2013 à 15h 08






Commentaire_supprime a écrit :

Bonne idée de permettre la visite virtuelle des lieux. J’espère qu’il y aura des images de la faune locale.



T’as déjà tout plein d’images sous licence libre sur Wikimedia Commons

https://commons.wikimedia.org/wiki/Category:Gal%C3%A1pagos_Islands?uselang=fr



Pierre Lescure peu inspiré par la légalisation des échanges non-marchands

Le 15/05/2013 à 01h 30

Oh, je n’ai absolument pas la prétention d’avoir la science infuse, et encore moins de proposer une quelconque analyse pertinente. C’est juste un constat




  • France Télévisions est payé par nos impôts

  • On aurait pu produire des programmes sous licence libre qu’on aurait pu partager (en l’état actuel des choses, je ne peux pas légalement envoyer une copie de ce programme que j’ai apprécié et qui a été payé avec mes impôts à des amis belges ou québécois), qu’on aurait pu remixer, créer des mashups (si je crées un travail dérivé que je publie sur YouTube, la chaîne peut le faire supprimer pour atteinte aux droits d’auteur), on aurait pu regarder des documentaires à l’école, créer une médiathèque avec des milliers de documentaires qui auraient pu servir à Wikipédia, à des élèves qui auraient besoin de faire un devoir sur le sujet, ou tout simplement pour de simples curieux. On aurait pu faire 1001 choses avec des programmes libres, mais au final, nous n’avons aucun droit sur des programmes que nous avons pourtant payé.

  • France Télévisions gaspille une grosse part de son budget dans l’achat de droits de diffusions de fictions étrangères. Je n’ai rien contre de tels programmes, mais il faudra m’expliquer en quoi c’est le rôle du service public de payer pour Harry Potter, Cold Case et j’en passe. Si ce n’est pas diffusé sur France Télévisions, les dizaines de chaînes privées de la TNT se feront un plaisir de les diffuser.

    Maintenant, je ne suis pas contre le service public, bien au contraire. Je trouve juste qu’il est inutile d’avoir autant de chaînes, et qu’il aurait mieux valu en avoir une seule totalement libre avec un budget beaucoup plus conséquent.

    Prends les grands compositeurs. Morts depuis des siècles, leurs partitions sont dans le domaine public, mais toutes les interprétations qui en ont été faites sont protégées. Prends les grandes pièces de théâtre. Il n’existe aucune captation sous licence libre. Prends les grands classiques de la littérature étrangère passée dans le domaine public. Aucune traduction sous licence libre.

    Au final, si je suis un enfant, un étudiant fauché ou, plus simplement, l’un des huit millions de français (13,4 % de la population, en 2007) vivant sous le seuil de pauvreté et que j’aimerai accéder à un peu de culture, ben je l’ai dans l’os. Le service public ne produit que du proprio (encore une fois, c’est bon de le rappeler, pourtant payé avec nos impôts).

    Alors oui, il y a bien des médiathèques, mais uniquement dans les grandes villes, sans forcément un choix conséquent, sans la facilité d’accès que procure Internet, et sans permettre tout ce qu’autorise le libre en terme de réutilisation, adaptation…

    Ah oui, puis je n’ai jamais parlé de licencier des milliers d’employés de France Télévisions. Supprimer une chaîne, c’est aussi pouvoir réaffecter ses effectifs, ou supprimer d’un côté, tout en embauchant de l’autre. Pour créer une chaîne totalement libre, et sachant qu’à l’heure actuelle, hormis 2-3 courts métrages et les très vieux films du domaine public, c’est le néant absolu question programmes audiovisuels sous licence libre, il aurait fallu beaucoup plus de monde pour pouvoir produire à 100% en interne.


Le 14/05/2013 à 23h 37






Tim-timmy a écrit :

(ah oui, tiens, faudrait rajouter aussi la presse dans la licence globale si on veut ne rien surveiller en mode bisounours lqdn … en plus de la musique, des films, des séries, des jeux, des livres, la facture va pas du tout être ridicule, ça devrait passer tout seul :p)



« Des montants de 20 à 40 euros par mois sont ainsi mis en avant, lesquels permettraient d’irriguer les secteurs de la musique, de la vidéo, du livre, du jeu vidéo, de la presse et de la photographie. »

Pour rappel, on paie 131 euros de redevance audiovisuelle. Suffirait de supprimer France 2, chaîne complètement inutile, et t’aurais déjà 27 euros qui pourraient servir à cette licence globale. Maintenant, si ça ne tenait qu’à moi, on pourrait également supprimer France 3, et déplacer les rares émissions intéressantes (Thalassa, Des racines et des ailes…) sur France 5. Et là, ça serait carrément une licence globale à 62 euros, et tout le monde serait content.

https://fr.wikipedia.org/wiki/Redevance_audiovisuelle
http://www.ecrans.fr/Tele-ou-va-la-redevance,2594.html

Comme quoi, trouver de l’argent, c’est facile. Suffit juste de reconnaître qu’autant les chaînes publiques pouvaient avoir un intérêt il y a trente ans, quand on avait alors que quatre ou cinq chaînes et qu’il fallait contrer une hégémonie de programmes américains, autant aujourd’hui, avec plusieurs centaines de chaînes touchant à tous les domaines, toutes les cultures, je n’en vois plus trop l’intérêt.

Ou alors, il aurait fallu que cet argent serve uniquement à créer des programmes de qualité sous licence libre (information, fictions, documentaires…) plutôt que de gaspiller nos impôts pour obtenir les droits de diffusions de fictions étrangères non libres et coproduire des programmes qui ne nous appartiennent pas, et sur lesquels on a aucun droit.

Quand je pense qu’aux USA, tout ce qui est payé par les impôts (travail du gouvernement fédéral, recherche publique…) ne doit pas être payé une deuxième fois et est donc publié dans le domaine public, ça laisse songeur.



Acte 2 : toutes les propositions du rapport Lescure

Le 13/05/2013 à 10h 51

Faut voir ce que donnera la valorisation du domaine public, mais je trouve dommage qu’il n’y ai rien de plus concernant la culture et le savoir libre. Toujours pas de liberté de panorama en France (aujourd’hui, publier une photo sous licence libre de la pyramide du Louvre, qui est pourtant sur le domaine public, est interdit).

Rien vu non plus concernant le financement de traductions sous licences libres de romans étrangers du domaine public (il existe un paquet de classiques intemporels dont l’oeuvre originale est bien dans le domaine public, mais dont la traduction française est toujours protégée).

De même que la création audiovisuelle publique (celle financée par la redevance télé) continue de servir des intérêts privés. Les reportages de Thalassa, Des racines et des ailes, Des trains pas comme les autres… et autres émissions pas trop mal du service public sont sous-traités auprès de sociétés de production privées. Et il n’y a donc malheureusement rien de libre. Même chose pour les photos officielles de l’Élysée ou celles prises par l’armée, la recherche publique ou autre, ceci dit. Par exemple, pour le conflit malien, les seules photos libres que l’on ai sont celles prises par l’armée US (qui publie directement dans le domaine public)

Enfin bon, il y aurai eu tant de choses bien à faire


Le noyau Linux 3.9 continue sa conquête de la plateforme ARM

Le 30/04/2013 à 15h 18






Aloyse57 a écrit :

Question d’ignare en Linux : est ce que cela signifie qu’il pourrait exister un desktop sur un ordi ARM similaire à celui sous x86 (Unify, Gnome, KDE, etc…) ?



Google et Samsung ayant déjà sorti un Chromebook ARM (à base de Linux), rien ne semble s’y opposer.

http://www.pcinpact.com/news/78341-le-chromebook-arm-samsung-arrive-en-france-a-…

Sans oublier les Raspberry Pi, à base d’architecture ARM, qui peuvent déjà faire tourner des distributions Linux avec environnements de bureau (par contre, vaut mieux oublier Gnome et KDE, vu les faibles ressources disponibles) XD



Ubuntu 13.04 : peu de nouveautés mais un système plus fiable et plus réactif

Le 26/04/2013 à 08h 13

De toute façon, pour un jeu, t’as toujours un moteur qui peut gérer plein de choses, puis éventuellement un certain nombre de bibliothèques supplémentaires, telles quy’OpenGL pour la 3D, OpenAL pour l’audio, SDL pour tout un tas de parties, dont les périphériques d’entrée… Tu n’as donc pas besoin de faire tourner un environnement de bureau en arrière plan XD

https://fr.wikipedia.org/wiki/OpenGL
https://fr.wikipedia.org/wiki/OpenAL
https://fr.wikipedia.org/wiki/Simple_DirectMedia_Layer


Le 26/04/2013 à 07h 29






Miki2006 a écrit :

sudo apt-get install ubuntu-gnome-desktop

Gnome est devenu une “flavor” officielle. En version 3.6 ceci dit, pour Gnome 3.8 il faut passer par l’ajout d’un ppa.



C’est faisable, mais avec cette méthode, tu gardes Unity et une tonne de merdes installées. Si c’est Gnome Shell qui t’intéresse, comme tu le rappelle, il existe désormais une faveur officielle, alors autant passer directement par cette dernière

http://ubuntugnome.org

Par contre, pour passer à la version 3.8, il faut taper quelques commandes

sudo add-apt-repository ppa:gnome3-team/gnome3
sudo apt-get update
sudo apt-get dist-upgrade



GNOME 3.8 fait le plein de nouveautés et présente un mode classique

Le 02/04/2013 à 19h 51

Ça arrive un peu tard, mais voici une petite vidéo de présentation des nouveautés de Gnome 3.8, et de l’utilisation de l’environnement au quotidien :

https://www.youtube.com/watch?v=4fE88slXObQ

La même, mais sans la musique de fond

https://www.youtube.com/watch?v=9ecFcxD7naw


Le 02/04/2013 à 02h 04






_fefe_ a écrit :

ou cliquer sur l’icône de l’appli mail en raccourci dans la barre des tâches.



Encore faut il avoir mis soit même cette icône au bon endroit, et donc connaître la bonne application (pour avoir testé un certain nombre de clients mails sous Linux, je n’ai pas souvenir qu’un seul d’entre eux ai placé de lui-même une telle icône dans la barre des tâches… on est pas sous Windows et ses innombrables icônes qui rendent l’ensemble inutilisable, comme j’ai pu le constater chez certains amis). Ensuite, cette action se contentera de lancer le programme sans pré-remplir la bonne adresse.



_fefe_ a écrit :

et au final, Mme Michu a publié sur facebook ou autre un message qu’elle pensait privé. Marcel est content.



Il faudra m’expliquer comment ça pourrait se retrouver sur Facebook ou je ne sais où, alors que l’on a demandé à envoyer un email à une personne bien précise.

S’il y a bien une chose que vous démontrez, c’est que vous n’avez absolument jamais essayé Gnome Shell, ou deux minutes à tout casser pour faire style “si si, j’ai essayé et je peux vous dire honnêtement que c’est franchement mal fichu”. Autre possibilité, il n’y aura toujours qu’une seule et unique façon de faire, la votre, et tout autre choix est forcément voué à l’échec.

C’est triste.



Le 01/04/2013 à 21h 10






sr17 a écrit :

Au contraire, tout ceux qui ont un peu de recul en matière d’interface utilisateur le comprennent très bien : Il y a une volonté de spécialisation dans le sens du très grand public.

Mais le problème de toute spécialisation, c’est qu’il est toujours difficile de conserver l’équilibre pour ne pas finir dans l’excès.



Je ne comprend pas trop pourquoi vous restez autant focalisés sur les icônes. Ça serait un peu comme limiter Windows ou OSX à leur lanceur d’applications. Je ne connais pas ces deux systèmes, mais sous Gnome, il existe de nombreuses façons de faire.

On peut, bien évidemment, passer par le mode activités et ses grosses icônes, apparemment sujet de toutes les polémiques. Tout comme on peut également faire un bête Alt-F2 puis taper le nom de la commande (avec bien évidemment le support de l’auto-complétion), ou passer également par le mode activités, mais tout au clavier : touche super, nom de la commande, du document, du contact… et le shell nous proposera tout un tas de résultats (là encore, on peut bien évidemment lancer directement ce qui nous intéresse sans y rester 107 ans).

Et si on recherche la productivité à tout prix, on peut également faire en sorte que dès le login, toutes tes applications se lancent automatiquement. Dans gnome-session-properties je lui ai carrément dit de me lancer Firefox, mon client IRC (qui se connecte automatiquement à mes différents réseaux / chans), mon lecteur de musique sur un bureau en particulier, mon éditeur de texte, mais qui devra en plus m’ouvrir tel et tel fichier bien précis à chaque démarrage, ainsi qu’un terminal avec cinq onglets, qui se connecteront par ssh à plusieurs serveurs / comptes distants. Comme ça, j’ai le temps d’aller pisser et quand je reviens, tout est déjà prêt et je peux me concentrer sur ma productivité, puisque c’est ce qui semble vous déranger le plus.

Si le projet a été renommé en Gnome Shell, ce n’est pas pour rien, puisque le shell compte avoir une place centrale. Et ce dernier, comme le shell du terminal, prend tout son sens quand on l’utilise au clavier, que ce soit pour lancer des applications, trouver des documents, lancer une discussion avec nos contacts…

À ce sujet, dans une précédente réponse, j’avais traité de la facilité à contacter quelqu’un par email, sans même avoir besoin de connaître l’outil à utiliser. Pour les discussions instantanées ou le micro-blogging, il en va de même. Dans le shell lui-même on peut indiquer, de façon centrale, si l’on est ou non disponible, et on peut papoter directement depuis les notifications / tiroir de messagerie. Encore un signe de l’intégration des applications entre elles, la facilité que l’on à passer d’une tâche à l’autre, et le fait qu’il ne faille donc plus raisonner selon les anciens standards qui nécessitaient de lancer préalablement la bonne application, puis switcher sans cesse entre deux activités / applications.

Ensuite, le but de Gnome, c’est que les applications s’effacent le plus possible au profit du contenu lui-même. Ce qui n’est pas plus mal pour l’écrasante majorité des gens, qui veulent juste que ça fonctionne, et que ça fonctionne bien.



Le 01/04/2013 à 04h 45






j-c_32 a écrit :

Ainsi, si l’utilisateur se dit: tiens il faut que j’envoie un e-mail à Marcel pour la réunion de mardi, l’utilisateur doit pouvoir lancer son client de messagerie tout en continuant à penser à ce qu’il va dire à Marcel.

S’il se retrouve face à un écran surchargé, il va devoir plus se concentrer pour trouver l’icône de thunderbird que s’il n’y a que les 18 applications les plus courantes.



En réalité, c’est beaucoup plus simple que ça, et j’ai vraiment l’impression que nombre de personnes ne saisissent pas où souhaite en venir le projet Gnome.

Avant, effectivement, pour écrire un mail à Marcel, il fallait faire menu démarrer, sous menu Internet, trouver le client mail, puis là encore, trouver l’icône composer…

Nombre de critiques autour de Gnome Shell se basent sur cette façon de penser. Alors qu’au final, je fais touche Super, je tape marcel (qui se trouve être dans mes contacts), et j’ai accès à son téléphone, son adresse postale… ainsi qu’une icône de courrier qui me permet de lui composer directement un message. À aucun moment je n’ai eu besoin de chercher quel outil je devais utiliser. Le shell a su trouver marcel dans l’application contacts, qui elle-même à su lancer la fenêtre de composition de mon client mail, avec la bonne adresse déjà remplie.

Et pour toutes les tâches, c’est vers ça qu’on se dirige. Il ne faut donc pas sous estimer les capacités actuelles et futures du shell en s’arrêtant uniquement à de simples captures d’écran.



Le 01/04/2013 à 04h 13






sr17 a écrit :

Par exemple, il est évident que le tactile et les grosses icones, ça fonctionne très bien pour la mobilité, mais que la souris et le clavier sont largement supérieurs en précision et en performances dans l’usage desktop.



Je pense que l’erreur que font beaucoup de gens, c’est de croire que Gnome ne propose qu’une seule façon de faire. Alors ok, quand on se rend dans le mode Activités, la première chose que l’on voit, ce sont de grosses icônes, et le premier réflexe, c’est de se dire que c’est trop gros, qu’en tant que jeune qui maîtrise le mulot, on a pas besoin que ce soit si gros, qu’en étant plus petites, on aurait pu caser tout ça sur un unique écran. Ça serait vite oublier qu’il y a également des personnes âgées, des malvoyants, des personnes qui ont tel ou tel autre handicap et pour qui de grosses icônes seront plus simples à voir et à cibler.

À côté de ça, si je veux lancer Firefox, je peux faire touche Super, ce qui m’amène dans le mode activités, puis taper directement fi ou nav pour voir listés firefox ou firefox / chrome, et ainsi lancer mon navigateur sans avoir eu besoin de toucher le mulot. De la même façon, je peux taper le nom d’un contact, de documents ou autre. On peut absolument tout faire au clavier sous Gnome. Et pour celui qui se donne la peine d’apprendre les quelques raccourcis, tout devient finalement plus simple et plus rapide. Pour finalement perdre cette fausse idée d’environnement soit disant prévu pour les tablettes, utilisable uniquement par les grands débutants.



PC INpact bénéficiaire en 2012 : les chiffres à retenir

Le 28/03/2013 à 15h 13

[quote:4518165<img data-src=" />avid_L]
On a une baisse au niveau des relevés d’audience, mais on utilise de toutes façons peu de tracking et pas de pub comportementale, donc non, pas de souci.
/quote]

Je viens de mettre pcinpact.com sur la liste blanche d’AdBlock+, je recharge la page, pas de pub. Je relance le navigateur, toujours pas de pub. J’ajoute le site sur celle de Ghostery. Léger progrès, je peux désormais voir une liste de différents produits, située entre la fin de l’article et les commentaires.

Par contre, en haut à droite de l’écran, je vois deux fois le mot Publicité, avec une petite flèche qui pointe vers le bas. Mais dans les deux cas, aucune pub ne s’affiche (testé sur un certain nombre d’articles).

De retour sur la page d’accueil, je vois bien le deuxième carré pub sur la droite, celui situé sous PC INpact Emploi. Pour les articles eux-même, je me contenterai donc de la liste de produits située avant les commentaires. Et donc, la question est de savoir si ce simple affichage suffit pour vous faire gagner de l’argent, ou s’il faut penser à cliquer dessus de temps en temps, à défaut d’avoir une publicité complètement fonctionnelle XD

Quand je passe le curseur au dessus de l’icône d’AdBlock+ il me répond pourtant “État: Adblock Plus est désactivée pour cette page”. Et pour Ghostery, “Site mis sur liste blanche, 11 traqueurs trouvés sur cette page, 0 bloqués”.

Firefox 19 sous Linux, avec un plugin Flash qui fonctionne sur d’autres sites.


Chromebook Pixel : Google lance son ultraportable tactile à partir de 1 299 $

Le 22/02/2013 à 06h 15






flemhardiz a écrit :

Google.com et Android leur ont déjà permis de s’introduire dans notre quotidien, ChromeOS pourrait leur permettre un accès à tout ce que l’on produit de numérique … Alors je ne vous raconte même pas mes craintes quand aux google glass et aux voitures sans pilotes, ça complèteraient ce qu’a entamé google maps et streetview. Sous couvert de services, ils s’insinuent sournoisement dans tout ce qu’il peut y avoir de privé.

Dsl pour le semi-hors-sujet, mais c’est mon ressenti quant à cette news



Ploum avait écrit un texte plutôt pas mal, à ce sujet

http://ploum.net/post/le-monde-selon-Google



[MàJ] Droit de lire de VLC : une consultation et un premier avis de la Hadopi

Le 08/02/2013 à 09h 11






gavroche69 a écrit :

Ouais mais faut arrêter les exemples foireux là… <img data-src=" />
C’est sûr que des types qui se baladent avec leur collection de BR et un PC Portable on en rencontre tous les jours… <img data-src=" />

C’est là où il y a une incohérence totale sur les raisonnements :

D’un côté on nous rabâche que vive le dématérialisé, vivement que les CD/DVD/BR disparaissent et de l’autre on veut absolument pouvoir lire ces odieux BR de partout, dans le train, dans l’avion, dans les chiottes, bref ça devient carrément comique cette subite envie de pouvoir lire des BR de partout et sur tout.



Si j’ai pris cet exemple, c’est qu’à chaque fois que je prends le train, il y a systématiquement au moins deux ou trois personnes dans le wagon qui matent des films sur leur portable.

Je rappel également que la SNCF propose un service de location de DVD à bord de ses trains. Si ce n’est pas déjà le cas, ils finiront bien par proposer également des Blu-ray.




okeN a écrit :

Mais rien n’empêche un éditeur de payer la licence et de faire un logiciel lisant les blu-ray sous Linux, non ? Donc c’est pas un souci de format.
Je sais pas mais si t’achète un lecteur incompatible Linux faut pas venir râler après qu’il est incompatible… ça me parait logique.



D’après ce que semblait dire Jb, les systèmes Linux et OSX (pour ce dernier, ça m’étonne) ne proposent pas les prérequis (support HDCP…) nécessaires. Même si tu le voulais, tu ne pourrais même pas publier un lecteur ou un plugin propriétaire.

Ce qui nous amène à la question “Pourquoi ne pas implémenter le support HDCP ?”. J’imagine que le principe même de cette technologie est d’être complètement fermée, opaque. Une implémentation libre serait un non sens. Et comme le noyau Linux n’acceptera jamais un module non libre, je pense que c’est un peu mort.



Le 08/02/2013 à 06h 20






gavroche69 a écrit :

Oui j’avoue que j’ai aussi du mal à comprendre…
De plus, comme le dit très justement quelqu’un plus haut pour ceux qui veulent absolument lire les BR physiques protégés, il suffit de se payer une petite platine de salon, il en existe des pas chères du tout…

Râler est parfaitement justifié quand un truc est imposé sans alternative, là des alternatives il y en a plusieurs alors bon… <img data-src=" />



Et si jamais t’as envie de lire un Blu-ray sur ton portable Linux quand t’es dans le train, l’avion ou en vacances, tu fais comment ?



Ubuntu pourrait transiter vers un cycle de développement de deux ans

Le 23/01/2013 à 13h 30

Le problème, c’est qu’on ne peut pas comparer les sorties tous les un à deux ans de Windows et OSX avec Linux. Sur un Windows (s’il n’a pas non plus vingt ans), à tout moment, on peut installer la dernière version de n’importe quel programme.

Sous Linux, à moins d’avoir une vraie distribution de type rolling release (Arch, Gentoo…) on doit se contenter des packages et des versions fournies par la distribution (dans le cas d’Ubuntu, il y a bien les PPA, des dépôts tiers, mais c’est parfois au petit bonheur la chance).

Ce qui fait que si Ubuntu sort au mois d’avril 2013 avec la version n du logiciel de retouches photos, de la suite bureautique et autres applications utilisateurs importantes, on devra se contenter de ces versions pendant deux ans, et ce, même si de nouvelles versions sortent dès le mois suivant. Rien de comparable avec Windows, donc.

Jusqu’à présent, en dehors du cycle de releases de la distribution, ils ne mettaient à jour que Firefox. On avait chaque nouvelle version quasi le jour de sa sortie. Le navigateur est un élément particulièrement important de nos jours, et ça m’aurait particulièrement ennuyé de n’avoir une mise à jour de ce dernier qu’une fois tous les deux ans. Sauf que si on passe réellement de six mois à deux ans, il faudra faire la même chose pour tout un tas d’applications utilisateur / métier importantes (Blender, The Gimp, Inskape, Ardour, LibreOffice…)

Parce qu’ok, ça semble en emmerder certains de réinstaller tous les six mois (ce qui est idiot, puisque pour eux il y avait déjà les LTS), mais si c’est pour se retrouver avec un système archi stable, mais complètement dépassé, avec lequel on ne peut pas travailler comme on le souhaite, ça n’a finalement aucun intérêt.


Kim Dotcom : MEGA a été lancé sans tests préalables mais se stabilise

Le 21/01/2013 à 22h 15






KP2 a écrit :

En meme temps, faire des simulations de charge sur plusieurs Gb/s avec des To de données, c’est loin d’etre fastoche… tres loin d’etre fastoche.
Le mieux est encore de faire comme il a fait : lancer le bazar et regler les problemes au fur et a mesure.
C’est pas top pour l’image du service au depart mais ca sera tres vite oublié quand ca marchera. Rien de grave.



Ils pouvaient également commencer par une beta fermée sur invitation, ou ouvrir les inscriptions par vagues successives, plutôt que d’ouvrir les portes en grand d’entrée de jeu et de voir tout s’écrouler.



Selon Orange, Google participe bien à la monétisation du trafic

Le 16/01/2013 à 21h 05






jinge a écrit :

Deux personnes utilisent un tuyau, l’un gagne du trafic qui lui donne des revenus par la publicité, l’autre gagne un service.
Pourquoi ce tuyau serait financé seulement d’un coté et pas par les deux?
Le fait de faire transiter le flux est un service rendu aux deux parties.

Mais ces questions se posent parce que les autorités de régulation ne sont pas compétentes et ne veulent pas s’engager… Et si les opérateurs font pression ils savent qu’ils vont se prendre un procès de la part de Google qu’ils ne sont pas sûr de gagner.



Ton raisonnement est biaisé. Les deux parties gagnent de l’argent (le fournisseur d’accès par les abonnements, le fournisseur de contenu par la publicité ou d’éventuels abonnements), et les deux parties payent la bande passante. Google, qui a besoin d’une bande passante monstre pour des services tels que YouTube, n’y a, bien évidemment, pas accès gratuitement par l’opération du Saint-Esprit. Il va faire appel à des fournisseurs spécialisés tels que Cogent Communications. Et c’est la même chose pour tout le monde. Wikipédia paie également sa bande passante, tout comme je vais payer la mienne en louant un serveur dédié chez OVH.

Ce qui pose problème, c’est qu’à une époque, les échanges de trafic étaient relativement équivalents, et par le biais des accords de peering, soit c’était gratuit, soit il n’y avait pas besoin de payer d’énormes sommes. Sauf que maintenant, c’est complètement disproportionné, mais pas seulement à cause de Google, mais plutôt de l’ensemble des services américains centralisés. Pour un fournisseur d’accès français, que son client passe majoritairement son temps sur YouTube, ou qu’il alterne entre YouTube, Facebook, Flickr, Wikipédia et compagnie, ça revient au même, le trafic n’est pas local (même s’il y a des CDN en France pour accélérer tout ça).

Pour revenir à l’équilibre, il faudrait beaucoup plus de contenus localisés en France, et qu’on fasse la promotion du P2P, seul protocole à privilégier les échanges locaux plutôt que les services centralisés distants. Sans parler du fait que même pour les services de base, tel que l’email, les utilisateurs passent désormais majoritairement par des services hébergés aux USA (Gmail, Hotmail…) plutôt que d’utiliser l’offre de leur fournisseur d’accès. Encore une perte de trafic.



5 ans de prison pour des enregistrements pirates de films diffusés sur le Net

Le 04/01/2013 à 17h 04






zogG a écrit :

L’exemple que tu donne est particulièrement mauvais.

Déjà en France le automobiliste prendrait bien plus que 5 ans, plus une amende, plus tout un tas d’interdictions. Et aux USA ce serait sans doute pire.

&gt;http://www.legifrance.gouv.fr/affichCodeArticle.do?idArticle=LEGIARTI00000684103…



Entre ce qui est prévu par la loi et ce qui est réellement appliqué, il y a souvent un gouffre. Encore un récent exemple :

http://www.liberation.fr/societe/2012/10/11/dix-acquittes-au-proces-des-tournant…



Wikimedia a levé 25 millions de dollars en un temps record

Le 29/12/2012 à 02h 04

Freud : tu n’as absolument aucune idée des contraintes, qui ont pourtant été abordées dans le billet de blog de l’asso. Ce n’est pas un bête outil wysiwyg pour écrire sur un petit blog perso. On parle ici d’un site disponible dans plusieurs centaines de langues, certaines allant de gauche à droite, d’autres de droite à gauche ou de haut en bas. Il faut pouvoir s’adapter à toutes les cultures, et pouvoir mixer tout ça dans un même article au besoin. Et ce n’est qu’une contrainte parmi tant d’autres.

Pareil pour le lecteur vidéo. Le but de l’outil, c’est effectivement de pouvoir lire des vidéos, mais t’oublies tout ce qu’il y a derrière. On parle d’un site collaboratif. Il faut donc que les gens puissent envoyer des vidéos dans le format de leur choix, et que ce soit transcodé à la volée dans les formats libres autorisés. Il faut que les vidéos puissent être remixées ou qu’on puisse y apporter de nouveaux éléments, comme on le ferait pour un article texte. Il faut pouvoir créer et traduire des sous-titres de façon collaboratives, puisque les vidéos doivent pouvoir être vues et comprises par les lecteurs du monde entier (Wikimedia supporte plus de 280 langues…)

Et c’est la même chose pour tous leurs projets. Entre les problèmes prévus dès le départ et ceux, insoupçonnés que tu rencontres en cours de route, non, ce n’est généralement pas faisable par un stagiaire en deux temps trois mouvements.

D’autant plus qu’une fois le développement terminé, il y a de nombreux tests à faire pour s’assurer qu’il n’y a pas de régressions, qu’aucun contenu ne sera perdu ou corrompu, ce qui prend encore du temps.

Pour savoir tout ce qu’ils font, il y a tous les mois les WMF engineering reports sur le blog de la fondation
https://blog.wikimedia.org/2012/12/06/engineering-november-2012-report/

Ils ont également récemment publié leur rapport pour la période 2011-2012
https://blog.wikimedia.org/2012/12/19/wikimedia-foundations-2011-12-annual-repor…


Instagram:  « pour être clair, nous n’allons pas vendre vos photos »

Le 19/12/2012 à 11h 38






Arkthus a écrit :

Bon de toute façon j’ai plus d’iBouse ni d’Androbide, donc j’ai plus Instagram, et comme ils semblent avoir la pire des flemmes de le développer pour WP7 et 8, je vais quand même tout virer ;)



Parce que tu crois que ça ne serais pas la même chose avec Microsoft ? La seule solution raisonnable pour être tranquille à ce niveau, ça serait d’utiliser le futur Firefox OS, avec uniquement des applications libres et respectueuses de leurs usagers.

Dès qu’on utilise des applications propriétaires provenant d’entreprises, dont la raison d’être est d’engranger toujours plus d’argent, c’est toujours la même chanson.



Raspberry Pi : le modèle A (25 $) se dévoile en vidéo, le Pi Store est là

Le 18/12/2012 à 14h 50

brazomyna : je pense qu’on aura plus vite fait de commencer à bidouiller tout ça soit même

http://www.capitoledulibre.org/2012/conferences-grand-public-samedi-24-novembre….

La vidéo de la conférence contient quelques exemples sympa


Les prochains titres de THQ pourraient aussi être disponibles sous Linux

Le 18/12/2012 à 11h 47

Même sans connaître CUPS, suffit de rechercher linux compatible printers sur un quelconque moteur de recherche pour trouver plusieurs liens intéressants

https://help.ubuntu.com/community/Printers
http://www.cups.org/ppd.php
https://www.openprinting.org/printers


Le 18/12/2012 à 11h 34

Récente interview de Ryan C. Gordon (en anglais) qui a porté un certain nombre de titres sous Linux

http://cheerfulghost.com/panickedthumb/posts/771

Petit extrait

One of the major reasons publishers and developers give for not releasing a Linux version of their games is that the demand doesn’t justify the extra development cost.

I think it’s short-sighted. A one-man team–me–can take a completed game and port it to Linux. Usually this is pretty fast and cheap.


Noms de domaine : la France compte 2,5 millions de .fr, bien loin du .de

Le 08/12/2012 à 08h 44

De ce que j’ai compris, puisque les américains avaient initialement droit à des .org .com .gov .mil .net .edu… en fonction du type d’activité, mais que les britanniques devaient se contenter d’un unique .uk, ils se sont créés tout plein de domaines de deuxième niveau : co.uk pour le commercial, .ac.uk pour l’éducation / académique, .gov.uk pour les sites gouvernementaux, sans oublier .org.uk, .judiciary.uk, .ltd.uk, .net.uk, .nhs.uk, .police.uk…

Ça fait un peu solution du pauvre. À l’arrivée, les gens doivent se contenter d’un domaine de troisième niveau, généralement du .co.uk ou du .me.uk (commercial ou personnel)

https://en.wikipedia.org/wiki/.co.uk


Wikimedia et Framasoft demandent eux aussi votre soutien

Le 04/12/2012 à 01h 42






anonyme a écrit :

Dans le genre modo/admin complètement cons, mon IP est ban pour toute modification d’article, parceque je suis chez OVH.
La raison : proxy user, et oui, cet idiot de modo à banni tout le range des adresses IP OVH, sans se renseigner un minimum.

Du coup, j’étais partit pour corriger un article, une fini, je clic que le bouton, et paf, IP BAN, donc rien de sauvegardé.
Alors oui, c’est pas wikimedia directement, mais c’est comme tout, ils les ont bien choisi d’une manière ou d’un autre leurs modo.



Pour le coup, ce n’est pas le modérateur qui est fautif, puisque le blocage systématique de tous les proxy (uniquement pour les accès en écriture) est une règle de la fondation. Et s’ils le font, c’est uniquement pour lutter contre le vandalisme. Sans ça, une personne bannie pourrait sans cesse revenir avec une adresse IP différente.

https://meta.wikimedia.org/wiki/No_open_proxies/fr

Tu peux néanmoins demander une exemption de blocage d’IP

https://fr.wikipedia.org/wiki/Wikip%C3%A9dia:Exemption_de_blocage_d%27IP



La Commission européenne bétonne un peu plus le blocus de Wikileaks

Le 29/11/2012 à 15h 13






nabla666 a écrit :

Euh, t’as une source pour l’huile de vidange, parce que là j’ai quand même du mal à y croire….



Alerte à l’huile de vidange dans des produits de consommation courante
http://www.terredavenir.org/Alerte-a-l-huile-de-vidange-dans-des-produits-de-con…

Vous reprendrez bien un peu de mayonnaise à l’huile de vidange?
http://archives-lepost.huffingtonpost.fr/article/2008/05/14/1192950_vous-reprend…

Et, histoire d’avoir tous les sons de cloche

Huile alimentaire empoisonnée
http://www.hoaxkiller.fr/hoax/2008/huile-alimentaire-empoisonnee.htm