votre avatar

Conan28

est avec nous depuis le 13 septembre 2006 ❤️

15 commentaires

Le 11/06/2014 à 19h 16







NiCr a écrit :



Oui enfin la faille elle est pas vraiment au niveau de Tweetdeck mais au niveau de Twitter qui ne fait pas de contrôle sur le contenu des tweets.



Elle touche Tweetdeck car elle est adaptée au code de l’application, mais le vrai problème c’est que Twitter retourne des tweets contenant du code.



Dans ce cas, c’est n’importe qu’elle application faite avec du HTML/JS qui peut devenir victime de la faille.





Contenant…du code ? Selon l’API, un tweet ne contient qu’une chaîne de caractère UTF-8, les choses sont clair. Si t’es pas fichu d’échapper ta chaîne c’est ton problème.



Surtout qu’il faut vraiment être pas dégourdi pour tomber dans le piège de la faille XSS. Exemple, si tu utilises tonElement.textContent = “”; il ne se passe…rien, la chaîne est échappée correctement. Si tu utilises le DOM correctement, il ne se passe rien aussi. Par contre si tu te mets à insérer du code HTML directement dans la variable qui contient le tweet pour l’afficher, c’est quand même franchement crétin. document.createTextElement ça existe depuis des années.



Ah et innerHTML est une relique d’Internet Explorer, ce n’est pas réellement dans une spécification, que ce soit DOM ou HTML5. Il y a juste un Living Standard au WHATWG (et non au W3C) qui définit son comportement puisqu’il est très utilisé. On est censé utiliser document.createElement et ses petits frères.


Le 10/06/2014 à 18h 28







atomusk a écrit :



Je sais pas si cette technique sera bien accepté par la personne <img data-src=" />



Un employeur qui voit que la personne a demandé de se déréférencer pour quelque chose … je pense que ça sera un gros panneau “ATTENTION il a quelque chose à cacher” <img data-src=" />





Mais sur le principe je suis pas franchement contre non plus <img data-src=" />







Déjà que je me demande pourquoi des résultats de recherches peuvent être effacés d’un moteur de recherche à cause de la DMCA… alors pour le droit à l’oubli de je ne sais pas quoi, je trouve juste qu’à décision absurde se mêle une réponse absurde, parce que comme tu dis ça sera un gros panneau. Surtout pour l’efficacité de ces effacements. Comme on a vu, la DMCA protège vachement bien du piratage aux USA. <img data-src=" />



Mais le pire dans toute cette histoire, c’est que en fait, ça avoue que toute les procédures mises en place sont inefficaces et qu’au lieu de les améliorer, on a trouvé…ça. Ça veut dire qu’on est pas capable de pouvoir protéger sa vie privée en poursuivant en justice ceux qui hébergent ces contenus. Et si la justice décide que c’est légal de publier ce contenu, alors Google doit avoir le droit d’indexer. Sinon ça devient absurde.



Enfin, la dernière petite curiosité, c’est de savoir ce que les autres moteurs de recherche vont faire. Il n’y a pas que Google dans la vie, ce que certains européens au pouvoir ont tendance à oublier dans leur croisade contre Google.



PS : On notera que les résultats masqués par la DMCA vont au-delà du territoire américain alors que la DMCA est une loi américano-américaine. En dehors des États-Unis, on devrait pouvoir voir ces résultats. Étonnement, pour cette loi, comme elle est européenne, ça sera le cas. La blague.


Le 26/03/2014 à 18h 23

Je vois quand même pas mal de gens choqués que certains ont maintenant du mal avec Mozilla. Je ne comprends pas.

On nommerait quelqu’un PDG de n’importe quelle boîte ou d’une association, et ce quelqu’un qui aurait financé Mosanto ou une campagne pro-pétrolière, on aurait vu du boycott et personne n’aurait rien dit. On voit du boycott des maisons de disques voire d’artistes régulièrement ici parce qu’ils sont contre la neutralité du net, alors que c’est une opinion défendue aussi. Alors pourquoi avec le mariage gay ça devrait être différent ?



Je ne parlerais pas de sa promotion en tant que PDG pour le moment.

Par contre, pour l’image publique de la personne, je suis déçu, clairement. La prochaine fois que je lirais son avis sur quelque chose en dehors de Mozilla, je me rappellerais de ça. C’est le côté icône de la programmation qu’il pouvait avoir qui en pâtit le plus à mes yeux. Dans une icône il y a toujours une forme d’admiration (ou parfois un fichier .ico <img data-src=" /> ) et je ne peux pas admirer son avis là-dessus et la façon de penser de ce gars qui va donner de l’argent pour pourrir la vie des gays quoi. Ça me gêne qu’on aille jusqu’à un investissement personnel non pas pour augmenter ses droits, mais pour priver ceux des autres. C’est une forme de nivellement par le bas et je pense pas que ça soit cool comme façon de penser.



Pour finir, une mauvaise blague :

Commission de séletion de PDG, Mozilla




  • Dites, on va prendre qui comme PDG ? Brendan Eich ?

  • Bah oui, bonne idée, allons-y gayment ! <img data-src=" />

Le 24/03/2014 à 17h 34

Très bonne nouvelle, je souhaite à ce format de réussir. À mes yeux il est bon, il permet de vraies économies et il en permettra d’autant plus avec les animations, en plus d’être basé sur VP8 donc sans brevet. Il fait beaucoup mieux qu’un GIF niveau animation, malgré ses 256 couleurs et on est qu’au balbutiements.



Sinon, Android aussi le supporte, ainsi que le Chrome Web Store, ce n’est pas non plus des nains. Donc si YouTube y passe, un énorme site web, c’est une bonne nouvelle, ça veut dire que ça progresse et que les expériences précédentes ont été concluantes et non pas l’inverse. Ça impacte un pourcentage conséquent du trafic mondial.









Bill2 a écrit :



Pourquoi passer au WebP, alors qu’en passage du PNG au JPeg progressif le gain serait énorme ?

http://sebsauvage.net/links/?6M8Lgg





Sebsauvage fait dans la désinformation, tiens.

Si effectivement sur cette page il y a des PNG, je pense que c’est une volonté.



En effet, sur cette page Google Play, j’ai testé sur un autre navigateur que Chrome et devinez quoi, on a des JPEG. Pour ceux qui douteraient de ma crédibilité, vous pouvez me réclamer un screenshot, sachant que la réclamation est le prix de votre manque de confiance :p



Ensuite, c’est souvent une volonté commerciale même, pour faire bonne impression. Par exemple, sur YouTube, on peut choisir la qualité d’une vidéo, mais la pub est toujours en haute qualité. Sur le replay de TMC, la vidéo est d’une qualité potable, mais c’est limite si la pub n’est pas en HD. Si personnellement, regarder une pub hachée me donne rarement envie d’acheter quoi que ce soit et me gonfle, ce n’est pas l’avis de nos potes publicitaires.



Alors comme quand il citait Coluche dans son blog, quand on en sait aussi peu, on devrait être autorisé à fermer sa gueule.



(HS & PS : Il fût un temps où j’appréciais ce qu’il disait et écrivait, mais franchement là…)







neointhematrix a écrit :



Mouais.



Ca semble être intéressant pour le gain en bande passante.



Allez, si Gimp permet d’exporter les images dans ce format un jour, alors j’y penserai peut-être pour certains sites pro qui bouffent de la bande passante à la pelle.



Quid d’IE pour le support de ce format ? Parce que citer Chrome, Opera et Firefox OK mais IE… Il est aussi utilisé hein ^^





Il le permet déjà via un plugin, mais c’est beaucoup moins puissant que l’outil cwebp fourni par Google. Si tu veux la meilleure compression à une qualité donnée, cwebp est clairement ton ami. Il compresse en lossy, en lossless, permet d’activer un filtre, d’éliminer le bruit, lisser, etc.







trevisev a écrit :



Je ne comprends pas la colonne “alpha” dans le comparatif. Toutes les images comparées n’ont pas déjà un canal alpha ?!?





Une image WebP lossy peut être compressé sans canal alpha, en supprimant la transparence. Ils précisent donc que WebP lossy supporte la transparence et que le test utilise des images lossy transparentes utilisant un canal alpha.







vloz a écrit :



Je pense surtout que Google annonce ce genre de choses beaucoup trop tôt pour essayer de couper l’herbe sous le pieds à des formats proprios qui avancent plus vite…



C’est la meme chose avec le VP9, ils ont fait tout un speech sur les performances de ce format libre aux Google IO 2013 (il y a presque 1 an) …

Mais c’était loin d’être un projet terminé à 100%…

Les devs disaient travailler encore sur la partie de décodage lorsque le codec a été intégré à chromium, et aujourd’hui encore il me semble pas qu’il y ait d’encodeur grand public (il faut compiler une version exotique de ffmpeg et y intégrer le codec)…

Et les temps d’encoding il y a quelques mois étaient encore astronomiques, il fallait compter au moins 1h d’encodage sur un i5 pour 6 sec de video…<img data-src=" />







Par contre j’ai du mal à cerner la prise de position de Mozilla… Je veux dire ils devraient soutenir Webp en priorité vu que c’est libre, non?

Et puis dans cette etude, le seul format qui s’en sort mieux c’est le h265 si j’ai bien compris? Mais c’est pas exclusivement un format video?





La position de Mozilla est plutôt simple?: Lorsque Mozilla a fait APNG (des PNG animés pour remplacer le GIF), Chrome n’a pas voulu l’implémenter, donc Mozilla se venge aujourd’hui.

Ils trouvent aussi que le format n’est pas assez mature (Chrome 32 signait le support des WebP animés, lossy comme lossless) alors que Google fait en sorte de faire le minimum de changements qui causerait un problème de compatibilité.



Pour ce qui est de VP9, il est déjà en production dans YouTube pour les vidéos HTML5. J’ai regardé une session de Google I/O 2013 sur YouTube via Chrome 33, j’ai pas buggé à la lecture et j’ai regardé les statistiques à la fin pour du 240p/360p suivant ma connexion : Selon YouTube j’avais téléchargé 24 Mo de vidéo et 25 Mo d’audio. Oui, j’ai téléchargé plus d’audio que de vidéo. On a quand même passé une sacrée barrière à mes yeux. Pour le temps d’encodage, ils sont au courant, ils s’en occuperont quand la spec sera finie.


Le 29/07/2013 à 09h 01







Bizounours a écrit :



Au lieu de troller (on est quand même que lundi !) y a t-il des personnes qui peuvent nous dire comment passer outre ces restrictions ?



Quelles méthodes peut-on utiliser pour retrouver les url supprimés (si elles existent) ?



Bref, élevons le débat au lieu de s’en prendre toujours aux mêmes, à râler et ne rien modifier dans nos comportements.<img data-src=" />



Bien le site Chilling Effects permet par exemple de voir certaines notices dites de « Cease and Desist ». On y trouve souvent les listes de lien dont on demande la disparition dans les résultats Google.

Après, je réponds peut-être à la côté de la plaque.


Le 29/07/2013 à 08h 54

En fait, ça représente très bien la dérive d’une mauvaise organisation des pouvoirs : quand on donne trop de pouvoir n’importe comment, il est utilisé à mauvais escient. L’organisation des pouvoirs est censé être un processus réfléchi où chaque parti a des droits et des devoirs. Là c’est n’importe quoi.

Le 27/07/2013 à 11h 37







ZcommeDodo a écrit :



Je crains que la notion de ‘neutralité’ devienne de plus en plus compliquée en ces temps-ci.

Si tu souhaites des sites de niouses qui ne fassent que du copier-coller des missives officiellement émissibles par l’AFP de l’informatique, il en existe des tas. Ce sera lisse, factuel, et l’ordre établi en sortira dans le même état qu’il était auparavant.

Maintenant, si tu souhaites avoir un peu de grain à moudre, et te forger une opinion, voire une contre-opinion, il est peut-être INtéressant de connaitre une autre version des faits, tout aussi factuelle, mais juste vue sous un autre angle. Et pour cela, il convient de ne pas accepter comme convenu tout ce qu’on lit à gauche et à droite. Une information seule ne suffit pas. Pour se forger une opinion, il importe de pouvoir l’opposer à d’autres idées. A ce stade où chacun d’entre nous a la possibilité de disposer d’une tribune pour exposer ses idées, il est de rigueur de savoir écouter tous les sons de cloches, de faire le tri et de retenir celles qui nous conviennent le mieux.







David_L a écrit :



PCi n’a jamais eu vocation à être l’AFP, et ça ne changera pas. Si tu veux du factuel sans saveur, il faut sans doute effectivement regarder ailleurs. La raison est simple : croire que c’est la neutralité qui fait l’intérêt, est une erreur. Il faut par contre couvrir tous les angles et points de vue, et laisser à chacun le loisir de s’exprimer. C’est ce que l’on fait généralement, même si ce n’est pour autant pas à nous de dire au lecteur quoi penser.



Pourquoi parler de dépêches AFP ? En réalité, quand je parlais de neutralité, je voulais dire objectivité. Je ressors la définition que j’utilise :



Qualité de quelqu’un, d’un esprit, d’un groupe qui porte un jugement sans faire intervenir des préférences personnelles





C’est exactement ça que j’attends dans un article, aucun ressenti des préférences/convictions personnelles. Entre un article bien ficelé et objectif et une dépêche AFP, il y a quand même une grande différence. À moins que l’AFP fait ce genre d’articles et dans ce cas je vais vite rechercher des coins où on peut lire ce genre de trucs :p



Pour en revenir aux deux commentaires, pour moi, couvrir tout les angles et point de vue est justement ce que je souhaite. Juste, je ressens des fois la préférence des auteurs et c’est là où je n’aime pas. Je ne pense pas que ça soit qui donne de la saveur, c’est le travail mis pour l’article et le fait que la lecture soit pas pénible voire agréable qui lui en donne. Et si j’en parle, c’est que j’ai ressenti la préférence des auteurs dans quelques articles. Pas tous, mais il y a certains sujets où ça se ressent.



Sinon, effectivement, croiser les sources est ce qu’on fait de mieux. Mais c’est comme pour trier mes cercles sur G+ ou supprimer des fichiers inutiles, pour l’instant j’ai un peu de mal. Ça n’enlève pas ce que je dis mais je suis d’accord avec ce fait là.



David_L a écrit :



Tu peux être un lecteur intelligent très au fait de la question qui est évoquée dans un article. Ce n’est pas le cas de tout le monde. Les applications comme Poke font des ravages chez les inconscients, le papier n’était pas là pour expliquer ce qu’était poke, mais quel était les dangers de telles application et le fond de la problématique, bien réel, de la sécurisation des échanges.



Tu as le droit de ne pas être d’accord avec le fond, mais je ne vois pas en quoi je devrais me cantonner à un papier digne d’un flan à l’eau pour qu’il soit considéré comme acceptable ;)



L’article en question pour référence :

http://www.pcinpact.com/news/76307-facebook-poke-sexto-facile-plutot-que-vraie-s…



Je n’ai aucun problème au fait d’informer les gens, de dire que l’on peut screener, que FB s’est déjà permis de garder des informations après suppressions ou que quand on utilise ces services, ils ont la possibilité de lire les données échangées parce qu’il n’y a aucun chiffrement. Ce sont de véritables arguments contre le service qui méritent d’être cités.



Pour éviter d’écrire des bêtises, je vais poser une question : est-ce que cet article voulait être un test, voulait sensibiliser les gens ou voulait les informer ?



David_L a écrit :



Je suis d’accord sur le fond du propos, pas sur le terme “neutre”.



Comme expliqué au dessus, je voulais dire objectif ^^‘.



David_L a écrit :



Au niveau des dossiers, on essaie de faire dans la diversification. Tu noteras d’ailleurs qu’on parle aussi bien d’Intel que d’AMD sur le sujet, même s’il est vrai qu’AMD donne souvent assez peu de détails permettant de fouiller et que les dernières générations de CPU sont de toutes façons de faibles évolutions qui ne nécessitent pas toujours un dossier





Je n‘ai jamais dit qu’il y avait un biais de ce côté là, c’est moi qui fait le choix de plus souvent lire ceux parlant d’Intel.



David_L a écrit :



Pour la question des acronymes, le point a déjà été souvent discuté. Le problème c’est qu’un dossier n’a pas vocation à être un dictionnaire du langage courant du secteur, on ne peut pas tout réexpliquer à chaque fois. Ce n’est pas langue édito de PCi quoi qu’il en soit, même si je suis tout à fait d’accord qu’un dossier de mise à jour sur les termes de temps en temps pourrait être nécessaire, mais on en revient vite aux questions de temps, de nombre de personnes dans l’équipe, de priorités, toussa… ;) Puis comme tu le dis, PCi n’est pas le seul sur le web, d’autres font déjà ça assez bien, et l’on essaie le plus souvent de lier vers Wiki lorsque cela est possible et complet (si ce n’est pas le cas on explique en général).



Bien en fait, si la théorie sur le papier est jolie, en pratique je ne comprends que le tiers ou parfois les deux tiers du dossier alors que je ne pense pas être un charlot en informatique ni en processeur. Du coup quand lors de la lecture je ne comprends pas et que je sais que le sujet t’intéresse, bien je suis un peu frustré. Alors le problème peut être l’INpactien, ou ailleurs. Mais ça serait une erreur de ne pas en parler, à mon avis.



David_L a écrit :



Pour le dossier sur MEGA, sans doute cela n’avait pas été détecté au niveau des premiers essais. Il ne faut pas oublier que le dossier en question a été publié dans sa première version juste avant l’annonce, mis à jour quelques jours plus tard et que le fonctionnement a évolué depuis. On a surtout décortiqué la question du chiffrement d’ailleurs, vu qu’on pouvait surtout lire assez n’importe quoi sur le sujet un peu partout.



Je pense que ce bug était là depuis le départ et qu’en réalité il est difficile à contourner. Je ne sais pas si une page HTML5 est au courant de la fin d’un téléchargement issue d’un FileSystem, si l’on peut supprimer un fichier du FileSystem et si Chrome ne se permet pas de garder de la place en cas de nouvelle allocation, même après suppression. Mais sinon je ne me serais pas permis de sortir une critique là dessus, si je ne pensais pas que ça existait depuis le départ ou que ça pourrait même être une limite du tout-navigateur.



ZcommeDodo a écrit :



On apprendra toujours énormément d’une opinion qui ne va pas dans le sens dans lequel tout le monde va.



Rectification : On apprendra toujours énormément d’une confrontation d’opinions. Quand on confronte les opinions, c’est comme quand on fait faire un vol de test à un avion : il doit relever le défi de sortir indemne au test auquel il est soumis. Si il n’en ressort pas indemne, c’est que l’avion a un problème et doit être amélioré. Dans le cas où c’est une question de goût, en principe les deux opinions doivent ressortir indemne et de toute façon tout test est inutile.


Le 26/07/2013 à 13h 55

Je ne suis pas forcément branché pour, mais je m’y attendais, ça se sentait dans l’article qui avait fait un sondage là dessus, ou les commentaires.



Je doute de pouvoir trouver le moindre modèle économique valable et intéressant, par contre j’aimerais formuler des critiques que j’ai sur les articles et dossiers.

Commençons par les articles : ce qui me dérange le plus, c’est le manque de neutralité. Je ne parle pas des articles un poil humoristique/trollesque comme on a pu voir ici à cause de l’affaire Findus, mais des articles sur les Majors par exemple qui semblent souvent orientés. Je vois bien qu’il y a eu recherche, mais j’aimerais que ça soit neutre. Si je lis un article sur une actualité dont je ne sais quasiment rien, c’est pour : 1. Savoir de quoi l’on parle, 2. Me faire un avis moi-même. Ce que je dis par contre ne s’appliquent pas vraiment aux tests, ni aux Éditos.



Et d’ailleurs, le pire dans ce domaine c’est David Legrand quand il écrit des articles sur des services Cloud. En effet, on a le droit au topo des données personnelles et compagnie, avec un ton orienté à mes yeux — ou mes souvenirs me jouent de vilains tours. Un exemple est l’article à propos de Facebook Poke, qui donne carrément des conseils au lecteur. Ce genre d’article est pour moi pénible à lire parce que je veux savoir/connaître ce que c’est, connaître les problèmes, mais moi, pas à travers le regard du journaliste. Si l’article est compréhensible, on a pas besoin de dire que c’est un écran de fumée : les faits nous le disent déjà. On est pas sur un blog, mais sur un site de news.



D’un autre côté, la neutralité n’empêche pas l’investigation, au contraire. Je dirais même que ça brille mieux dans un article neutre. Après dans les articles quotidiens de PCI je ne sais pas ce qui est possible niveau investigation mais vala.



Niveau dossier, les dossiers que je lisent sont à 99,9% dédiés aux nouvelles générations de processeurs, souvent venant d’Intel. Là on tombe dans un autre problème : ça reprend assez bien les slides, mais ça ne m’explique pas assez bien à mes yeux ce que fait chaque modification annoncée. Il y a plein d’acronymes obscures et une recherche Google/un tour sur Wikipédia sont rarement fructueux, du coup je suis résolu à l’incompréhension. C’est assez dommage. Aussi, dans le dossier sur MEGA, à moins d’avoir mal lu, il est pas précisé que ça utilise le double de l’espace disque (le fichier est stocké dans le FileSystem et dans le dossier de Téléchargements) et qu’en plus dans certains cas, celui dans le FileSystem ne se jette pas. Savoir quand il se jette ou pointer du doigt un bug contraignant aurait été bien.



Ça fait déjà pas mal pour un commentaire alors je vais m’arrêter là. J’ose espérer avoir été un minimum constructif tout en exprimant mes idées/critiques. Ces critiques sont là pour dire que si ça changeait, j’aimerais d’autant plus le site et donc que des gens comme moi prennent un Premium augmente.



PS : C’est normal qu’il faut être inscrit et connecté pour savoir qui est abonné ou pas ? Sinon tout le monde est affiché « INpactien ».

Le 10/06/2013 à 14h 52







GruntZ a écrit :



J’ai coché “Désactiver les boutons sociaux (Facebook, Google +…)” et décoché “Toujours afficher la barre sociale en tête du site”, mais les 6 gros boutons (RSS, Fb, Tw, G+, Privé et Mobile) persistent à s’afficher en haut de la colonne de droite …



Bug ?





Les boutons sociaux, ce sont eux en bas de chaque article qui nécessite une requête vers les serveurs de Facebook/Google/Twitter, avec les compteurs. Ceux sur la droite sont justes des liens avec des images.


Le 27/05/2013 à 16h 05







zaknaster a écrit :



Sur le point performance ça peut être proche en effet mais on distingue pas les navigateurs uniquement sur ce point…





Selon le communiqué de presse d’Opera : (traduction personnelle)



Pour fournir un navigateur meilleur sur Android et iOS, cet année Opera va faire une transition progressive vers le moteur WebKit et vers Chromium, pour la plupart de ses versions à venir pour smartphone et ordinateur.





EDIT: Comment on met une citation avec un nom d’auteur dessus ? J’ai essayé quote=Opera, quote:Opera (avec les crochets hein), sans succès.


Le 16/01/2013 à 00h 34

Il est important de noter que Google a intégré Google+ dans la recherche depuis un an. -&gt;pcinpact.com PC INpactDonc j’ai un peu de mal à suivre pourquoi, dans les commentaires, tout le monde semble opposer Google qui recherche sur le web et Facebook qui fait de la recherche sociale, alors que Google fait déjà les deux.

Le 05/11/2012 à 12h 45

C’est étonnant que la news annonce ça comme nouveau, ça doit faire peut être un mois que j’ai accès à ces fonctionnalités (la popularité d’un mot, les synonymes). M’enfin, elle m’aura permis de remarquer qu’en français -&gt; anglais, les synonymes sont en français. <img data-src=" />



Pour Google Translate, je dirais que c’est un bon outil. Je l’utilise souvent de façon inversée : j’écris en anglais et je traduis en français. Avec la traduction instantanée, ça aide assez vite à corriger les fautes, tenter deux ou trois possibilités et voir laquelle rend le mieux.



Sinon il identifie pas vraiment les expressions, mais il identifie assez bien les tournures courantes qui mot-à-mot ne veulent rien dire. On notera qu’il traduit quand même “il pleut des cordes” en “it’s pouring”.



Aussi, on peut cliquer sur une partie de la traduction et choisir une proposition ou en écrire une (quand on comprend mais que la tourne ne rend pas bien). L’icône de la bulle permet de voir des exemples d’utilisations d’un mot ou d’une expression, ça peut aider. Enfin, je donne systématiquement un avis sur la traduction, au cas où cela pourrait aider.



Bref, c’est pas parfait, mais je m’en plains pas trop. Le seul truc que je trouve qui manque, c’est un dictionnaire Google qui indique la popularité du sens et donne des exemples d’utilisation. Mais ça reste que mon avis <img data-src=" />

Le 29/08/2012 à 08h 49







Ideal a écrit :



jai pas google+ désolé mon pote

mais niveau des types qui en ont des idées lumineuses pour économiser, y a aussi ceux qui mangent uniquement des produits de consommations périmés trouvé dans les poubelles des grandes surfaces

et cela uniquement par conviction et pour mettre le doigt sur le problème du gachis de nourriture dans le monde occidental ( dit civilisé quoi )



bon jai pas trouvé de liens renvoyants à ce genre de personne mais bon déja cela …http://www.agoravox.fr/actualites/sante/article/ruee-vers-les-ordures-70932





Les posts publics sur Google+ sont visible par tout le monde, inscrits comme non-inscrits, tout comme les status Facebook ou les tweets.



À propos des poubelles du côté occidental, oui il y a du gaspillage de compétition. C’est utile d’en parler. Toutefois on ne peut pas toujours essayer d’enrayer le phénomène.


Le 28/08/2012 à 18h 41







Ideal a écrit :



oui et si tu veux encore + l’augmenter et nous permettre de pas voir tes lumineuses idées fait pareil avec ton forfait internet <img data-src=" /> tu vas devenir riche mon ami <img data-src=" />





Le truc c’est qu’il y en a qui en formulent des théories entière :plus.google.com Google


Le 28/08/2012 à 18h 52







okeN a écrit :



Faut pas attendre de justice puisque les brevets logiciels n’est pas un système juste et que le procès à lieu aux US avec une entreprise US contre une entreprise étrangère.





Ce qui est marrant c’est que Apple, en réalité, fabrique la majorité des composants chez Foxconn. Je ne sais pas vraiment donc si Apple permet de faire rentrer beaucoup plus d’argent américain comparé à Samsung. J’aimerais bien une analyse sur le sujet.







127.0.0.1 a écrit :



L’important c’est pas de savoir qui a inventé le concept, mais qui a déposé le brevet aux US. Si Apple déposait un brevet sur les nems aux crevettes, ils pourraient interdire aux chinois d’en vendre a new-york.



Perso, je suis impatient de voir ce système de brevet se casser la gueule sous son propre poids d’ineptie.





Sauf que, que ce soit la constitution US (Section 8, Article 1,http://www.law.cornell.edu/constitution/articlei#section8 ) ou selon l’US Patent & Trademark Office, on parle toujours d’inventeurs -&gt;http://www.uspto.gov/patents/index.jsp . Donc où est le « bug » ?