Mais p*, si la presse en sort gagnante, n’importe qui viendra chialer en espérant obtenir une part du gâteau !
Si tous les sites européens se retrouvent en droit de réclamer des sous aux moteurs de recherche, il y a fort à parier que ceux-ci abandonneront le vieux continent. On verra bien l’impact sur l’économie…
Le
30/10/2012 à
13h
01
carbier a écrit :
“voir ce qu’il se passe” ?
Simple, attaque devant la cour de justice européenne de la part des éditeurs Français, Allemands, Italiens, etc. pour abus de position dominante " />
Il leur faudra alors prouver que c’est un abus de cette position dominante et non une réaction normale face à une obligation légale.
Le
30/10/2012 à
12h
42
TBirdTheYuri a écrit :
La presse française concernée dans cette affaire, c’est combien d’entrées à blacklister dans leur moteur de recherche? 40? 60?… allez 100 en étant large.
Les liens torrent c’est combien d’entrées à faire sauter? 50 millions? 500 millions? avec plusieurs millions de nouveaux liens chaque jour probablement…
La différence de simplicité de mise en œuvre est tout de même assez flagrante… non?
Le jour où les sites de p2p réclament des sous à google de la même manière que la presse le fait, tu vas voir le déréférencement de masse " />
Le
30/10/2012 à
12h
40
-DTL- a écrit :
Si l’indexation du net par Google était une mission d’intérêt général… l’état serait dans L’OBLIGATION de subventionne Google comme c’est le cas pour la presse.
Peut-être pas le subventionner, mais au moins pas le sanctionner pour l’exercice de cette prétendue mission d’intrérêt général.
Les représentants de la presse sont en tout cas gonflés:
d’un côté ils veulent faire payer google s’il référence leurs sites
de l’autre ils prétendent que google a une obligation de référencer leur sites sous des prétextes fumeux.
Beurre, argent du beurre et petite sœur de la fermière en string.
Le
30/10/2012 à
12h
17
misterB a écrit :
Perso ce genre de choses font peur, la presse emmerde google pouf on la dégage, , après ce sera quoi ? un concurrent emmerde Google pouf il dégage, une mauvaise histoire sur google, pas grave on la vire………
La situation était plutôt: la presse belge obtient en 2007 un jugement obligeant google à déréférencer les sites affiliés à Copypresse avec une astreinte de 25000 € par jour de retard . Google essaye tous les recours légaux mais ceux ci s’épuisent et en mai 2011 perd la dernière manche… ardoise salée, pas moyen de règler cela à l’amiable, du coup google déréférence tout (le jugement ne faisant pas une distinction suffisante entre google news et google search)
=> la presse belge a poussé Google dans ses derniers retranchements, et celui-ci a choisi la façon la moins chère de respecter le jugement.
Amazon: la pire utilisation des DRM sur le marché… effacer le kindle des clients et clôturer leurs comptes sans daigner leur dire pourquoi, c’est aussi une forme de service après vente…
Le système étant dynamique (sur les SAN) il déplace les fichiersblocs en fonction de leur utilisation
" />
Sinon en effet, ça ressemble surtout à un système de stockage avec multi-tiering automatique genre EMC Vmax… ou intel smart response… mais en soft (comme le récent lvm2ts sous linux)
Je plaide pour le droit de demander de l’argent en échange d’un service qu’on fournit. Si Google demandait de l’argent pour accepter d’indexer un site, je le soutiendrai également.
Tu plaides juste pour le droit d’exiger de l’argent pour tout et n’importe quoi en mettant l’étiquette “service” sur tout et n’importe quoi en partant du principe que quelle que soit la demande elle est forcément légitime…
… sur ce, tu me dois des sous, tu m’as lu, ma demande est légitime, je t’ai distrait pendant quelques minutes où tu n’aurais de toutes façons rien fait de ta vie. Ça fera 35 euros." />
Le
19/10/2012 à
15h
37
Ricard a écrit :
Mais tu ne fournis AUCUN service. T’as du mal à comprendre ça….." />
Si tu le croises en rue et que tu le vois, il prétendra aussi t’avoir fournis un service " />
Le
19/10/2012 à
14h
36
Faith a écrit :
C’est que tu n’as compris ni mon commentaire, ni le “modèle d’internet”.
On est justement en train de retourner paisiblement vers le minitel. Le modèle Internet disparaît chaque jour un peu plus.
ce n’est pas en clamant la légitimité de mettre des péages partout que tu vas préserver l’ancien modèle… tu plaides plutôt pour le modèle proné par Rupert Murdoch …
Le
19/10/2012 à
14h
35
Faith a écrit :
robots.txt n’empêche pas les moteurs de m’indexer.
robots.txt est une indication pour les robots qui le veulent bien de ne pas venir sur mon site. robots.txt n’empêche pas une indexation manuelle, ne permet pas de filtrer en fonction du type d’utilisation des données collectées, etc.
Il est clair que c’est un fichier purement déclaratif dont les résultats ne dépendent que du respect qui lui est porté par le processus qui le lit … et alors?
Les moteurs de recherche les plus connus respectent le contenu de ce fichier, et si tu crains un mauvais usage du contenu de ton site par un acteur du web qui respecte ce fichier, il suffit de lui notifier ton souhait de ne plus indexer ton site.
Faith a écrit :
Bref, ton robots.txt est un outils sommaire qui ne garantit absolument rien. Il n’est, en aucun cas, une garantie que ma volonté soit respectée.
Alors ce n’est pas “son” robots.txt … on parle d’un truc qui date des “webcrawlers”… et qui remonte à 1994… c’est le standard de-facto du web pour signifier l’accord ou non d’indexer un site. Bien entendu il n’y a pas de garanties, mais bon, même avec des drm sur les sites tu n’auras pas de garanties.
Faith a écrit :
C’est une solution de techos vivant dans un monde de bisounours.
ce qui ne peut forcément pas convenir à des pathos vivant dans le monde des petits poneys…
Le
19/10/2012 à
14h
22
Faith a écrit :
Le modèle original du Web n’a jamais été ce lui de Google, des régies de pubs et Facebook, le “modèle original” est décentralisé et où chaque site est autonome. Rien à voir avec la merde d’aujourd’hui.
Le modèle original du web n’est effectivement pas celui de Google, mais force est de constater que ce dernier a construit le sien grâce au modèle original… et puis quitte à parler du modèle original, dans les premières années, les fournisseurs comme AOL ou Compuserve faisaient des choses également très discutables.
Enfin, contester le modèle d’internet sur base de “Google a des sous et facebook ça pue”, ce n’est pas pousser très loin la réflexion.
Le
19/10/2012 à
13h
03
Faith a écrit :
Il n’y a pas que Google dans la vie. Les moteurs étaient déjà en position de force avant l’apparition de Google.
Arrêtez de vous focaliser sur un seul acteur du Web !
Les moteurs de recherche sont apparus à une époque où on ne parlait pas de “position de force”, ils sont apparus en réponse à un besoin et en utilisant la politique d’ouverture qui était à l’époque la norme sur le web.
C’est plutôt ceux qui à l’heure actuelle gueulent sur les moteurs de recherche qui ont débarqué par la suite et joué des muscles pour déstabiliser le modèle original du web…
Le
19/10/2012 à
12h
44
Faith a écrit :
Tu confonds “bonne pratique de l’internet” et “pratique imposée par des acteurs en position de force”.
Non, c’est une bonne pratique de l’internet. C’était déjà en vigueur avant que Google n’émerge.
Le
19/10/2012 à
12h
17
Faith a écrit :
Si Google refuse de payer, il désindexe j’adapte mon fichier robots.txt en conséquence parceque c’est la bonne pratique sur l’Internet. Point. Aucun problème.
" />
Le
19/10/2012 à
11h
51
Jeudi soir, les associations des éditeurs se sont déclarées «stupéfaites» de cette réaction de Google, «qui n’hésite pas à s’ériger en censeur au mépris de sa mission d’intérêt général de référencement».
Src Figaro
… faudrait savoir, si c’est une mission d’intérêt général, ne faudrait-il pas plutôt subventionner Google plutôt que de le ponctionner en parlant de préjudice?
C’est vraiment étonnant de voir qu’un coup on parle de Google comme un méchant prédateur capitaliste qui bois le sang des journalistes pour justifier le fait de lui prendre des sous et, le coup suivant, de prétendre que Google est quasi un service public et qu’il a une mission qu’il doit remplir obligatoirement…
… décidément, en Belgique comme en France, les lobbys de la presse sont de belles brochettes d’hypocrites.
Le
18/10/2012 à
14h
56
La règle d’exclusion mise dans le moteur de recherche aura en commentaire dans le code “exception française” … " />
Le concept d’avoir des experts non neutres qui informent les politiciens n’est pas mauvais en soi, mais à condition que tout le monde soit à égalité niveau pouvoir de lobbying.
L’égalité, ça n’existe pas, il faut le créer artificiellement. Dans le cas d’un débat contradictoire codifié, on peut éventuellement contrôler le temps de parole, les budgets de campagne, … mais quand il s’agit de codifier les interactions de tout le monde avec le politique…
Au mieux, on peut placer des contrôles sur les politiciens, pour limiter la corruption, et codifier le lobbying comme cela se fait au parlement européen, mais au final, ça ne fait que mettre la barre plus haut pour les lobbys, barre qui sera plus facilement franchie par les mieux financés.
Le
17/10/2012 à
15h
46
WereWindle a écrit :
c’est d’être assimilé audit troufion qui l’énerve " />
On mange pas les même rillettes…
" />
Le
17/10/2012 à
15h
43
uzak a écrit :
Mais alors, pourquoi je m’emmerde à voter, si les gus que j’élis écoutent un gars que je n’ai pas choisi ?
Ben tu choisis les mecs qui vont se faire démarcher par les différents lobbys… et selon la personne que tu choisis, les suites données aux différents démarchages seront différentes.
Écouter les lobbys, c’est important dans une démocratie, parceque les politiciens ont besoin d’être informés et le lobbying représente une source d’information non négligeable. Les lobbys, c’est les entreprises, mais aussi les associations et le peuple.
Le lobbyisme, ça va grosso-modo de l’association de quartier qui demande des aménagements dans un virage dangereux aux marchands d’OGM en passant par l’April, Greenpeace, Reporters Sans Frontières, et l’association pour la réintégration de l’amiante dans l’alimentation infantile.
Le
17/10/2012 à
15h
11
hellmut a écrit :
donc il a raison, il n’est pas lobbyiste professionnel, il ne passe pas la totalité de son temps à faire du lobbying.
Euh… il fait du lobbying à titre professionnel, tout comme de nombreux chefs d’entreprise. A son niveau, il ne fait simplement pas le boulot du petit lobbyiste troufion qui démarche les parlementaires et sénateurs, et qui infiltre les groupes de travail et autre think tanks: son terrain de chasse se situe plutôt tout en haut de l’état: les ministres et le président.
google paie pour indexer les sites:: neutralité indépendance. soucis de la qualité., presse générale, informations
oui oui, top crédibilité comme disait l’autre " />
La taxe va régler tous les maux, rendre le web plus neutre et améliorer le contenu des sites, tout comme les J.O. de Pékin ont amenés la démocratie dans l’empire du milieu…
Sérieusement, à part rapporter un peu plus de fric à la presse, je ne vois pas ce que ça va améliorer…
Par contre, cela va créer un précédent et une distorsion qui mèneront à des nouvelles revendications de la part d’autres acteurs du web (pourquoi Google ne rémunérerait-il pas aussi les blogs, les sites associatifs, marmiton, doctissimo et autres…).
Enfin bon, il y a fort à parier que, dès apparition de la taxe, Google coupera le référencement des sites de presse, jusqu’à ce que la taxe soit abrogée, ou qu’à défaut, il y ait eu quelques faillites et une loi obligeant Google à référencer tous les sites de presse.
Le
09/10/2012 à
11h
41
Hysterias a écrit :
Google et la presse sont devenu inter dépendant, ils doivent régler cela entre eux, Google n’a pas le droit de se servir de leur notoriété et contenu pour être un bon moteur
Qu’entends-tu par là? Tu veux dire que Google n’a pas le droit de générer des revenus sur base de la présentation des résultats d’indexage? Quelle est l’alternative pour garder un modèle financier raisonnable? Faire payer les sites pour qu’ils aient le droit d’être indexés?
Le
09/10/2012 à
09h
06
Nithril a écrit :
La mutation pour ces journaux est difficile et pas aussi simple de dire comme certain le font “qu’il y a qu’a faut qu’on” trouver un modèle économique.
“il n’y a qu’à prendre les sous de google, faut qu’on fasse une loi”
c’est assez enorme ! Si les chiffres sont vrais, la RAM est beaucoup plus rapide qu’un SSD.
Bien entendu qu’ils sont vrais… la mémoire flash n’a rien à voir avec la sdram, le niveau de perfs est incomparable, mais l’usage n’est pas le même
romjpn a écrit :
Ca pourrait etre une idee de “customisation” de pouvoir installer un OS sur une grosse barrette qui ne se viderait pas (avec une batterie apparemment ?).
ça existe depuis déjà depuis un bout de temps… du module pour baie 5.25” en pata à la carte pci express.
Pour le reste, c’est étonnant que windows n’offre plus la fonctionnalité… il y a 20 ans, sous DOS, on avait déjà la fonctionnalité
vers 1996, les émulateurs arcade sous dos utilisaient généralement des “DOS extenders”, genre DOS4GW, pour utliser la ram au dessus du premier Mo, mais avaient tendance à faire du swap dès qu’on dépassait 64Mo de ram utilisée, même quand on disposait de plus de ram physique. Du coup une solution, quand on avait vraiment beaucoup de ram, était de mettre le swap sur un ramdisk pour récupérer un peu de perfs…
Seulement, la chaise vide de l’Aproged aurait dû entraîner une réaction immédiate du président de la Commission copie privée. Selon l’article 4 du décret du 21 juin 2009, en effet « est déclaré démissionnaire d’office par le président tout membre qui n’a pas participé sans motif valable à trois séances consécutives de la commission. »
l’Aproged a dit “je viens plus, les dés sont pipés et cette commission est pourrie”, ce qui a été reconnu en cœur par les ayants-droits comme une excuse valable, trop contents de faire les votes avec une majorité absolue.
on ne peux pas on est en joint-venture avec eux, mon boss a voulu s’en défaire IBM s’est pointé avec 23 avocates et l’on défoncée .. ne JAMAIS signer un contrat avec IBM, JA-MAIS
Bon, faut voir aussi ce que ton boss a signé comme contrat et le temps cpu qu’il a consacré pour comprendre à quoi ça l’engageait.
En général les chefs d’entreprise se basent encore sur l’adage “personne n’a jamais été viré pour avoir acheté IBM” et signent les yeux fermés, sans comprendre que les années 80 sont loin derrière et qu’à défaut d’être virés, ils peuvent perdre leur virginité anale.
Le
27/09/2012 à
18h
52
Superambre a écrit :
Dans I.B.M ya .B pour BUSINESS, mais ya aussi le .I comme dans SIDA
Manque le V pour vaseline… ça ferait déjà moins mal…
Le groupement se veut toutefois mesuré et précise dans son communiqué qu’il « restera vigilant à ce qu’aucune mesure n’entame le principe fondamental de la neutralité du net ».
traduction: on veillera à condamner Google s’il nous déréférence en représailles?
Dit autrement, faire un copier/coller de code pour le mixer au sien, c’est pas la même chose que linker à son projet une librairie GPL non modifiée, en statique, pas plus que linker une librairie en dynamique, etc…
Ben si, du point de vue de la GPL c’est à peu près pareil… tu peux éventuellement publier ton code sous une licence compatible gpl (n’imagine pas qu’il y en ait une seule qui soit non-libre ou qui ne débouche pas sur la possibilité pour un tiers de faire un fork de ton projet sous gpl)
Justement, là on ne parle plus d’une simple redistribution du fork (donc des sources originales modifiées), mais d’une redistribution des sources modifiées et de l’ensemble des nouvelles sources ajoutées qui vont toucher de près ou de loin au code original.
Tout code qui touche le code original (sous gpl) ou ses dérivés (qui sont eux-mêmes soumis à la gpl en cas de redistribution) est soumis également aux règles de la gpl en cas de redistribution.
Si je prend un bout de code de 10 lignes d’un projet sous GPL et que je l’utilise dans une sous-librairie d’un projet sur lequel je bosse, tout le projet sera obligatoirement sous GPL en cas de redistribution.
Le
24/09/2012 à
08h
17
lateo a écrit :
Le but de la GPL est de garantir la liberté de l’utilisateur tout en assurant à l’auteur qu’il ne sera pas spolié de la parternité du code.
GPL est une licence copyleft, et n’oblige donc pas à mentionner l’auteur. La garantie de la paternité du code incombe aux mécanismes de droit d’auteur standard.
Le
22/09/2012 à
23h
41
sylware a écrit :
bin euuuh….. c du script dont le source est loadé dans le navigateur. Or le but de la gpl est d’avoir un bras de levier legal pour tenter de conserver le code open source optimal. Or avec du javascript on a toujours le source, donc la gpl ne semble pas vraiment justifié comme protection.
Non, la GPL ne sert pas à garder le code open source open source, elle sert à garder le code libre libre. En licence MIT, demain, je reprend jQuery, je le modifie lourdement, et je le met en prod sur mon site avec une licence d’utilisation ‘toute reproduction strictement interdite’ me permettant d’attaquer en justice toute personne réutilisant ma version modifiée… Je peux également prendre le code javascript, le modifier et le passer par une moulinette d’obfuscation de sorte que le code résultant soit à peu près aussi amusant à maintenir qu’un fichier binaire.
Le
22/09/2012 à
08h
51
brazomyna a écrit :
C’est justement ce point que j’aimerais éclaircir.
Euh, j’ai pas écrit ça… là tu cites quelqu’un d’autre avec mon nom. Et non, tu ne peux pas mettre du code GPL (standard sans exceptions) dans ton projet sans que celui-ci ne devienne GPL… si et seulement si tu comptes le redistribuer: si ton projet est juste à titre privé et qu’il ne sort pas de chez toi ou de ton entreprise, tu fais ce que tu veux.
Le
21/09/2012 à
20h
07
brazomyna a écrit :
(vraie question) Es-tu sûr de ce que tu avances ?
Par défaut, si tu link une librairie GPL, ton projet doit être en GPL. L’exception officielle à cette règle est la LGPL.
brazomyna a écrit :
Pour moi la GPL oblige à publier le source des modifications et des entités qui l’intègrent, mais pas nécessairement celles qui l’utilisent (dit autrement qui s’interfacent avec elle). Beaucoup de libs intègrent la notion de GPL linking exception.
Non non, lier = intégrer… sinon, ce serait trop facile, la GPL se contournerait simplement en jouant avec les options de build d’un logiciel.
“GPL linking exception” = exception à la licence GPL classique… c’est une déviation par rapport à la licence GPL, et ces exceptions doivent pouvoir tomber lorsqu’il s’agit, par exemple, d’intégrer la librairie en question avec du code GPL.
Pour la GNU Classpath, cette suppression d’exception se traduit dans la licence par “ If you modify this library, you may extend this exception to your version of the library, but you are not obliged to do so. If you do not wish to do so, delete this exception statement from your version.”
Comme dit dans de précédents commentaires, le plus difficile n’est pas de pondre une norme, mais que cette norme convienne à tous.
Et facteur rendant les choses plus difficiles: dans le monde des navigateurs, chacun veut montrer sa différence, voir même des agendas visant à minimiser l’usage du navigateur, ce qui rend la mise en place d’une norme que tous les acteurs respectent encore plus difficile.
Le
21/09/2012 à
09h
08
djbudge2 a écrit :
HTML 4.01 : 1999
HTML 5 Draft : 2008
HTML 5 finalisé : 2014
Soit on a affaire à une belle brochette d’incompétents, soit les guerres internes sont complexes.
au W3C, on a eu plutôt :
HTML2: 1995
HTML3.2: 1997
HTML4: 1997
HTML4.01: 1999
HTML4.01 strict devient standard iso: 2000
–
XHTML 1.0 : 2000
XHTML 1.1: 2001
On peut dire que les standards évoluaient assez vite à l’époque… mais quand le W3C est venu avec le XHTML2.0, réécriture radicale des standards du web laissant tomber la rétro-compatibilité avec les anciens navigateurs, certains éditeurs de navigateurs exprimèrent la volonté de plutôt faire un HTML5.
Mwais, bof… plein de gens aussi infaillibles que lui ont dit le contraire…
Le
19/09/2012 à
12h
29
nainbécile a écrit :
C’est pareil dans la religion catholique.
C’est pareil dans à peu près toutes les religions: la bonne raison d’être croyant est que si tu l’es pas, tu vas morfler dans cette vie et encore après…
Faut que les fidèles puissent contempler ceux qui sont dans l’erreur en se disant “moi j’ai fait le bon choix, Dieu me sauvera”.
et la possibilité d’utiliser des fichiers supérieur à 4Go.
Je crois avoir lu, je ne sais plus, où que le NTFS n’est pas très bien adapté à des supports amovibles et que M$ l’avait conçu pour des OS et non des supports amovibles.
disons que c’est surtout pour la flash que NTFS n’est pas très adapté… trop de secteurs écrits par transaction = usure accélérée… mais exFat n’a pas l’air super optimal non-plus à ce niveau…
Le
19/09/2012 à
09h
19
jinge a écrit :
Quel est l’avantage pour RIM d’utiliser un tel système? Performances? La lisibilité des cartes SD sur un PC? Ou autre?
Compatibilité avec Windows (qui ne reconnaît que les systèmes de fichier Microsoft)
En dehors de ce point, il existe de nombreux systèmes de fichiers éprouvés qui peuvent remplir le rôle avec élégance et sans coûts additionnels, mais ils ne sont pas supportés par Microsoft.
Le grand gagnant reste bien entendu ce dernier qui touche des droits de licence sur tous les périphériques utilisant exFat ou les monnaie contre des accords sur les brevets.
Sauf que Google ne pourra pas s’amuser à cela en fait. Il lui sera pratiquement impossible de bloquer le référencement indirect par les réseaux sociaux, dont G+. Et je suis sûr qu’ils vont jouer là-dessus. Google ou les autres moteurs de recherche vont devoir se séparer de fonctionnalités entières pour réussir empêcher le référencement.
Ben là ce sera la taxe suivante: une taxe au lien dans les réseaux sociaux… à chaque fois qu’un article est cité ou référencé sur une page facebook, facebook doit payer… deux semaines après l’introduction d’une telle taxe, facebook met les sites de presse français en blacklist et met à jour ses conditions d’utilisation pour interdire le fait de citer des articles de la presse française sous peine de suspension du compte.
Je démontre juste que la théorie de l’évolution n’est pas valable. Je n’ai pas la prétention de prouver quoi que ce soit d’autre.
Pinaize, on a un canon de la science sur le forum qui invalide la théorie de l’évolution comme ça, entre deux pets bibliques… Si ça c’est pas déjà prétentieux…
Le
12/09/2012 à
21h
21
amenophis57 a écrit :
Le film est vraiment mauvais …c’est presque comique . Il faut vraiment etre debile pour s’attarder dessus …
Ben oui, mais mon impression est que le film est justement conçu pour exciter les débiles. Je ne pense pas que l’auteur espérait quelque-chose de très différent. Et malheureusement quelques hordes de sauvages lui ont donné raison aux yeux du grand public.
Le
12/09/2012 à
20h
12
Sam LAYBRIZ a écrit :
…M’enfin est ce que ce genre de fiction rejoindra un jour la realité…
Vu qu’il y a 1,6 milliards de musulmans, on peut imaginer qu’un gros paquet n’a pas eu la réaction bas de plafond de ceux qui ont fait les émeutes…
3766 commentaires
Les éditeurs jaugent le risque de désindexation par Google
30/10/2012
Le 30/10/2012 à 13h 06
Le 30/10/2012 à 13h 01
Le 30/10/2012 à 12h 42
Le 30/10/2012 à 12h 40
Le 30/10/2012 à 12h 17
Finances : Amazon annonce de lourdes pertes, une première en neuf ans
26/10/2012
Le 26/10/2012 à 21h 55
Amazon: la pire utilisation des DRM sur le marché… effacer le kindle des clients et clôturer leurs comptes sans daigner leur dire pourquoi, c’est aussi une forme de service après vente…
http://www.bekkelund.net.nyud.net/2012/10/22/outlawed-by-amazon-drm/
Apple : des informations pratiques sur la technologie Fusion Drive
25/10/2012
Le 25/10/2012 à 11h 30
[MàJ] Taxe : Google menace de déréférencer les médias français
19/10/2012
Le 19/10/2012 à 15h 42
Le 19/10/2012 à 15h 37
Le 19/10/2012 à 14h 36
Le 19/10/2012 à 14h 35
Le 19/10/2012 à 14h 22
Le 19/10/2012 à 13h 03
Le 19/10/2012 à 12h 44
Le 19/10/2012 à 12h 17
Le 19/10/2012 à 11h 51
Jeudi soir, les associations des éditeurs se sont déclarées «stupéfaites» de cette réaction de Google, «qui n’hésite pas à s’ériger en censeur au mépris de sa mission d’intérêt général de référencement».
Src Figaro
… faudrait savoir, si c’est une mission d’intérêt général, ne faudrait-il pas plutôt subventionner Google plutôt que de le ponctionner en parlant de préjudice?
C’est vraiment étonnant de voir qu’un coup on parle de Google comme un méchant prédateur capitaliste qui bois le sang des journalistes pour justifier le fait de lui prendre des sous et, le coup suivant, de prétendre que Google est quasi un service public et qu’il a une mission qu’il doit remplir obligatoirement…
… décidément, en Belgique comme en France, les lobbys de la presse sont de belles brochettes d’hypocrites.
Le 18/10/2012 à 14h 56
La règle d’exclusion mise dans le moteur de recherche aura en commentaire dans le code “exception française” … " />
[MàJ] Pascal Rogard défend l’exception culturelle et sa bio Wikipedia
17/10/2012
Le 17/10/2012 à 17h 11
Le 17/10/2012 à 15h 46
Le 17/10/2012 à 15h 43
Le 17/10/2012 à 15h 11
Les éditeurs de presse défendent leur « taxe » sur l’indexation
09/10/2012
Le 14/10/2012 à 12h 02
Le 09/10/2012 à 11h 41
Le 09/10/2012 à 09h 06
Radeon RAMDisk : AMD s’approprie un nouveau logiciel pour vendre sa DDR3
11/10/2012
Le 12/10/2012 à 07h 54
Copie privée : caisses pleines et chaise vide
28/09/2012
Le 28/09/2012 à 11h 53
Seulement, la chaise vide de l’Aproged aurait dû entraîner une réaction immédiate du président de la Commission copie privée. Selon l’article 4 du décret du 21 juin 2009, en effet « est déclaré démissionnaire d’office par le président tout membre qui n’a pas participé sans motif valable à trois séances consécutives de la commission. »
l’Aproged a dit “je viens plus, les dés sont pipés et cette commission est pourrie”, ce qui a été reconnu en cœur par les ayants-droits comme une excuse valable, trop contents de faire les votes avec une majorité absolue.
Bruxelles détaille ses mesures pour favoriser l’utilisation du cloud
28/09/2012
Le 28/09/2012 à 11h 47
Grâce aux “artistes”, le cloud va faire un peu comme le nuage de Tchernobyl: il va s’arrêter à la frontière. " />
Western Digital RE : des disques durs S-ATA et SAS de 4 To garantis 5 ans
27/09/2012
Le 28/09/2012 à 07h 18
Le 27/09/2012 à 18h 52
Liens payants : le GESTE invite Google à rééquilibrer le partage de la valeur
27/09/2012
Le 27/09/2012 à 16h 38
Le groupement se veut toutefois mesuré et précise dans son communiqué qu’il « restera vigilant à ce qu’aucune mesure n’entame le principe fondamental de la neutralité du net ».
traduction: on veillera à condamner Google s’il nous déréférence en représailles?
Une instruction, et votre smartphone Samsung est effacé à distance
25/09/2012
Le 25/09/2012 à 15h 48
JQuery passe à la version 1.8.2 et quitte la GPL pour la licence MIT
21/09/2012
Le 24/09/2012 à 17h 42
Le 24/09/2012 à 12h 04
Le 24/09/2012 à 08h 17
Le 22/09/2012 à 23h 41
Le 22/09/2012 à 08h 51
Le 21/09/2012 à 20h 07
Le HTML 5.0 sera publié fin 2014 et suivi d’évolutions tous les deux ans
21/09/2012
Le 21/09/2012 à 11h 37
Le 21/09/2012 à 09h 08
[MàJ] Le site Internet de Charlie Hebdo victime d’attaques informatiques
19/09/2012
Le 19/09/2012 à 13h 16
Le 19/09/2012 à 12h 29
L’exFAT, système de fichiers des prochains BlackBerry 10 de RIM ?
19/09/2012
Le 19/09/2012 à 11h 53
Le 19/09/2012 à 09h 19
La taxe sur les liens devient la taxe sur les clics
17/09/2012
Le 17/09/2012 à 08h 18
VirtualBox 4.2 prend désormais en charge Windows 8 et Mountain Lion
14/09/2012
Le 14/09/2012 à 13h 04
YouTube bloqué en Afghanistan pour la vidéo Innocence of Muslims
12/09/2012
Le 13/09/2012 à 18h 14
oops, problème de lien http://www.theonion.com/articles/evangelical-scientists-refute-gravity-with-new-…
Le 13/09/2012 à 18h 04
Le 13/09/2012 à 17h 47
Le 12/09/2012 à 21h 21
Le 12/09/2012 à 20h 12