Tu voudrais que le référencement soit désactivé par défaut? Ok, ça peut se tenir, et c’est pas infaisable (encore que, pour le moment, aucune loi n’oblige à suivre le robot.txt, c’est uniquement une convention).
Mais interdire (par défaut) le référencement, cela revient à interdire (toujours par défaut) de faire un lien vers un autre contenu.
Bah en fait tout n’est pas tout noir ou tout blanc, il faut discuter et trouver des compromis, ameliorer le systeme du robots.txt afin de permettre un gestion plus fine serait déjà un premier bon point.
Entre indexer le contenu d’un site, ou meme une partie de celui-ci est quand meme un peu différent du simple fait de publier un lien sur un forum/blog/etc…
La distinction est possible par la loi, mais je ne dis pas que c’est la solution, je pense juste qu’on doit pouvoir maitriser au mieux ce qui est indexé ou pas et qu’il n’y a pas de raison que ce système soit figé à vie et qu’il n’évolue pas.
Je suis un grand utilisateur de Google search, et je sais qu’il est important de garder un niveau d’indexation important pour faciliter l’acces à l’information, le but n’est pas de tuer ce principe mais de l’encadrer un peu mieux.
Aucune loi ne régis ça, robots.txt est pris en compte ou pas au bien vouloir du bot qui passe par là…
Le
13/10/2012 à
13h
01
methos1435 a écrit :
C’est pas un crime, tu penses ce que tu veux.
Mais l’indexation est un processus automatisé. Si tu enlèves cette automatisation tu tues les moteurs de recherche car il est impossible de traiter au cas par cas vu le nombre de sites internet de nos jours. robots.txt à été créé dans ce sens.
Les sites internet qui ne veulent pas que telle ou telle page, ou même un ensemble de page ne soit indexé peuvent l’indiquer dans ce fichier, même de manière automatisé. Résultat le robot d’indexation fait son taff et n’inclut pas ce qui ne doit pas l’être: tout le monde est content.
Mais bon, sans même arriver là, ces sites mettent à disposition publiquement et gratuitement ces articles. Google ne fait que rediriger vers les sites originaux. Ca leur amène des lecteurs susceptibles de se fidéliser par la suite et ils sont pas contents… C’est pourtant pas tous les jours qu’on leur propose de la pub gratos qui touche énormément de monde. Qu’ils fassent comme en Belgique, les sites de presse qui ont été désindexés s’en s’ont bien mordu les doigts …
Bah j’évoque juste le fait d’avoir un robot.txt beaucoup plus évolué permettant des consignes plus souples et plus complexe, et que si ce fichier n’existe pas ou est vide, pas d’indexation.
Tu fais dés lors la démarche d’être indexé et pas l’inverse, et tu continue à fonctionner normalement…
Le
12/10/2012 à
23h
54
methos1435 a écrit :
Tu n’aimes pas Google on l’a vu. Donc il faut pas être d’accord avec ce que Google fait. Seul problème: ça ne touche pas que google. D’autres sites référencent également des articles de presse en permettant de rediriger vers le site d’origine. Ces autres sites c’est pas google donc c’est bon ils peuvent ? Mais google non ?
Tu bâtis tout sur google parce que tu aimes pas, alors que le problème est bien plus vaste. On touche là au principe même du web.
Mais absolument pas, c’est pareil pour tout autre moteur de recherche !
Et j’allais plus loin en parlant de numéro de tel qui était automatiquement dans l’annuaire et qu’il fallait payer pour qu’il soit privé !
Mais les gens ici voient tout comme une agression au saint Google, défende tout et n’importe quoi sans meme réflechir au fond du probleme !
J’ai dis dés le départ que Google avait raison sur toute la ligne, sauf le point ou ils disent que le webmaster doit lui-meme faire la démarche pour que son site ne soit pas indexé.
C’est pas un crime de penser que ce serait plus logique dans ce sens quand même ?
Le
12/10/2012 à
23h
18
mmvik a écrit :
@methos1435 : “il est filtré” c’est fait ! il faudra aussi qu’il apprenne à écrire…
@Sebdraluorg : “ne chipottons pas sur des détails”
C’est tout ce que tu as répondre ?? T’es un troll, aucun doute.
Ah bon ? C’est tout ce que j’ai répondu ? Tu es bien certain ?
T’as pas, par hazard, comme un vrai troll, sorti juste la petite partie qui t’arrange et zapper le reste ?
Le troll, c’est celui qui ne sait pas discuter, qui affirme détenir la vérité sans meme etre capable de l’argumenter, dès qu’on te parle du fond tu fuis !
Incapable de concevoir qu’on puisse avoir un avis contraire à Google, Google est tellement intelligent que ne pas penser comme lui = être con !
Mais tu ne t’es pas penché une seconde sur le fond du probleme, juste, fermé au modele Google et il n’est pas possible de faire mieux !
Bravo, un vrai mouton d’or " />
Le
12/10/2012 à
21h
54
CanalGuada a écrit :
Google a peut-être su se rendre indispensable, mais les éditeurs de presse traditionnels ont aussi souscrit au modèle qui leur était proposé librement.
Et ils sont tout autant responsables, ayant dès le départ voulu le beurre (une publicité gratuite via les moteurs de recherche) et l’argent du beurre (via les diverses régies publicitaires), sans avant tout investir dans la seule chose qui compte : capter durablement l’intérêt et l’attention de l’internaute lecteur, alors que l’offre concurrentielle, celle des blogs ou des réseaux sociaux, explosait.
Comme s’il s’agissait d’un acquis.
Concrètement, c’est ce qu’exige aujourd’hui la presse - comme hier les majors, les studios de cinéma, ou le monde du livre : que sa présence sur Internet garantisse financièrement un acquis historique et lui permette de se développer.
Mais sachant que, généralement, elle-même refuse de valoriser les articles issus de blogs ou rédigés à dessein et utilisés pour gonfler son propre trafic, c’est-à-dire sans rémunérer l’auteur, il est plus que temps qu’elle s’adapte ou que sa forme actuelle disparaisse.
Poussons même le raisonnement actuel de la presse jusqu’à l’absurde… les éditeurs rémunèrent-ils quelqu’un directement quand eux-même incluent ne serait-ce que des liens hyper-texte pour enrichir leur propre contenu, chose qui était impossible avant l’ère du numérique ??
Non.
Rémunère-t-elle généralement les sources qui lui permettent d’écrire des articles ou s’oriente-t-elle plutôt vers un journalisme dit d’investigation, rendant visible une information particulièrement peu accessible ?
Encore non.
L’intérêt d’Internet réside justement dans la possibilité d’interconnexion des contenus, ou celle quasi-infinie de les enrichir à moindre coût, chacun profitant d’une information disponible et qui circule avec un minimum de contraintes.
De même, la presse a-t-elle contribué plus que quiconque à la mise en place et au développement du réseau ?
Toujours non.
Donc vouloir taxer la mise à disposition d’un lien au seul profit d’une quelconque entité qui prétend au monopole sur la circulation de l’information qu’elle propose mais dont elle n’est pas vraiment l’émettrice, est juste une pure aberration.
En plus d’être contraire à la vocation première de la presse et à ce qui justifie encore son statut privilégié dans la société et le fait quel soit subventionnée : fournir une information de qualité au citoyen…. alors qu’elle se cantonne la plupart du temps dans le rôle d’intermédiaire dans la communication des divers annonceurs.
Des annonceurs qui d’ailleurs n’ont même plus franchement besoin de ses services à l’ère du numérique, à part pour tenter de se donner un peu de crédibilité.
Pas étonnant qu’elle perde des lecteurs et que ceux-ci ne ressentent même plus le besoin de la financer directement.
Mais je suis pour ma part tout à fait d’accord envers la presse, j’en ai juste apres le principe de ‘on t’indexe par défaut ton contenu’, ‘on rend ton num de tel public par défaut’ ‘on te track par défaut’ etc etc, on a quand meme encore le droit une vision différente de comment devrait fonctionner les choses !
mmvik a écrit :
Bon ok, tu ne sais donc pas ce qu’est une URL orpheline….
De plus si l’URL apparait sur un forum, c’est le forumeur qui est responsable de sa diffusion, pas Google !
Et enfin Google indexe uniquement les URL visibles ! Donc il facilite la recherche c’est tout !
…
:
Excuse mes abus de languages, je ne travail presque pas dans le Web je suis dev logiciel/systeme… Mais le principe est là je vois tres bien comment celà fonctionne, j’ai aussi fait du référencement même si ce n’est pas ma spécialité, alors stp, ne chipottons pas sur des détails !
Tu as le droit de penser que faire une indexation par défaut est mieux, et moi j’ai le droit de raler et de penser le contraire !
Mais bon, dés qu’on va dans le sens contraire de Google c’est l’apocalypse sur PCI, c’est dingue vous perdez tout sens critique, vous n’êtes meme plus capable de concevoir les choses autrement que la façon qu’il vous impose !
Le
12/10/2012 à
18h
13
mmvik a écrit :
Si tu étais webmaster, tu saurais que l’url d’une page web orpheline n’est JAMAIS référencée. Donc ton raisonnement ne ties pas debout.
Ah bon ?
Si tu file l’url sur un forum dans une conversation, tu paries que demain elle est indexée et mise en cache ? Et si je supprime ce lien aprés une semaine car je ne veux plus rendre cette url pubique elle restera indexée.
Je prends le premier exemple qui me vient à l’esprit, y en a surement des meilleurs, bref, une parge orpheline peut facilement se voir indexée !
mmvik a écrit :
Faux : robots.txt et htaccess éxistent depuis la création du web !
Tu racontes vraiment n’imp’, renseigne toi, Internet est public et google est ton ami ;-)
Ah bon ? Tu es certain de ce que tu racontes là ? Car robots.txt a bien été conçu POUR les moteurs de recherches ! Et il n’y a qu’à lire les forums pour voir qu’un certain nombre de webmasters ne connaissent toujours pas ce fichier !
J’ai déjà eu des cas de personnes qui mettaient du contenu sur un petit site qu’il avait créé tant bien que mal sans trop s’y connaitre et se sont étonné de les voir un jour apparaitre sur Google, certains ont meme flippé car il ne voulait pas que leur site se trouve si facilement, ils n’avaient meme pas imaginé que sans rien faire son contenu pourrait se retrouver dans les moteurs de recherches. Certes c’est de l’ignorance, mais c’est aussi basé sur une logique !
De plus, robots.txt n’a jamais été une garantie, si Google veux l’ignorer comme le DoNotTrack il peut le faire !
Quand à htaccess, euh c’est pas la question ici, tu peux vouloir que seuls les gens à qui tu files l’url accedent à ton contenu.
Le
12/10/2012 à
17h
05
CanalGuada a écrit :
J’ai certainement réfléchi plus que toi… " />
L’essence même d’Internet est aujourd’hui d’être un réseau public de communications accessible à tous, conçu pour pouvoir diffuser du contenu à un large public.
Ah bon ? Tu es vraiment certain de ce que tu avances ?
Je dirais plutot que c’est ta définition d’internet !
Au départ internet fonctionnait par échange de lien, si tu ne connaissais pas l’url d’un contenu tu n’y accédais pas !
Fronçièrement, c’est toujours pareil sauf que les moteurs de recherche connaissent les urls pour toi !
Mais au départ tu mets un truc sur un réseau joignable puis tu fais connaitre l’url à ceux que tu veux qu’il accedent au contenu ! C’est pas parceque le réseau est joignalbe que tu rends le contenu public !
Genre je mets une image sur un site pour la rendre dispo par mes collègues et je leur file l’url (et oui à la base c’est ça le fonctionnement d’internet)
Les moteurs ont changé ça en indexant sans demander, puis ils ont mis un systeme permettant d’indiquer ce qu’on ne veut pas indexer sauf que d’une part il faut le savoir, et ce systeme est beaucoup trop rigide, tu ne peux pas mettre une date de début ou de fin, tu n’as pas de gestion par type de contenu etc…
Et pour cause, ils veulent pouvoir indexer le max !
Les moteurs de recherche ont changé le fonctionnement d’internet, c’est un plus certes, mais ce n’est pas l’essence meme du Web, avant ça il y avait les annuaires et ce principe n’est pas mauvais non plus ! Bon je parles pas revenir à des annuaires de l’époque hein ! Soyons clairs !
Le
12/10/2012 à
15h
42
CanalGuada a écrit :
Le point de vue est intéressant, mais vous oubliez juste un détail… L’indexation par le moteur de recherche est un service rendu à titre gracieux à tous les sites Web, pas une prestation de service dont les sites Web seraient clients.
L’améliorer suppose que d’autres investissements soient engagés encore une fois exclusivement par Google, mais ce n’est ni une entreprise philanthropique, ni un service public.
Cela pourrait se discuter si au moins ce service était ou avait été facturé aux sites par Google, mais dans sa grande bêtise la presse française réclame même de contraindre Google à la rémunérer pour son activité de moteur de recherche qu’elle n’a pas plus financée que n’importe quel site Web dans le monde… quand ce dernier signale déjà qu’il cessera de les indexer, tout simplement.
" /> rassures-moi t’as pas réflechis avant de poster ?
Tu te rends compte de l’absurdité de tes propos ? C’est un service tu dis, gratuit ou pas, si j’ai pas demander ses services il n’a pas à me les fournir !
Theomede a écrit :
Donc en gros tu remet en cause le fondement même du web? Car il à été conçu pour être public par défaut, c’est comme ça depuis le début et ça à intérêt à le rester.
Si tu souhaite que personne ne puisse accéder sans autorisation à tes contenus, par défaut, faudrait peut-être que tu te tourne vers un autre protocole.
Parce que si ce que tu souhaite devais arriver, ce serais la mort du web tel qu’on le connaît, et je doute que grand monde l’utiliserais s’il fallait mémoriser l’adresse exacte de tous les sites.
Ou bien autre solution, tu lis correctement les commentaires et tu verras qu’on a proposé des méthodes qui permettent de garder le Web tel quel tout en demandant avant d’indexer !
Si demain les gens éditent d’office leurs robot.txt pour eviter l’indexation de certains contenus le web ne fonctionnera plus ? " />
C’est un principe de base, tu demande avant, et pas tu exige qu’on te dise si on n’est pas d’accord !
Et si demain, un éditeur de site web genre Expression Web ou dreamweaver décident de mettre en ‘non indexable’ par défaut les pages du site et que tu dois manuellement activer l’indexation des pages que tu veux indexer, Google va nous sortir l’argument fumeux du opt in et bypasser le robot.txt ?
Le
12/10/2012 à
14h
30
frikakwa a écrit :
Ok… maintenant je vois où tu voulais en venir!
Le soucis étant que justement cela changerait profondément le fonctionnement actuel et surtout cela va à l’encontre de l’ouverture “historique” du web.
Ben oui j’ai tendance à penser que si on commence à imposer certaines règles contraignantes telles que la demande d’indexation ou autre censure….on va dans la mauvaise direction!
PS: comme quoi mon côté fanboy n’était pas le soucis! " />
Bin un peu quand même, si on avait mis Microsoft au coeur du débat à la place de Google, le débat n’aurait pas été le même, et la plupart des gens qui ont répondu ici, ne l’aurait même pas fait !
J’ai commencé par dire que Google avait raison sur la rénumération.
Egalement sur le fait que s’ils ne veulent pas que leur contenu soit indexé, ils ne doivent pas le rendre indexable, sauf que Google dit que si tu veux pas qu’il soit indexé, il faut que tu le rende non-indexable !
Je ne partage pas ta vision de la mauvais direction, pour moi tout devrait être régis sur ce même principe de “on demande avant” ou “celui qui veut, en fait la demande” et non pas celui qui veut pas n’a qu’à le dire !
iook a écrit :
C’est ça.
J’espère que tu ne l’es pas. :)
MDR, tu vas me faire le plaisir de m’expliquer ce qui est faux dans mon discours puisque tu es un spécialiste de la sécurité et que moi j’y connais rien ? " />
Le
12/10/2012 à
14h
00
iook a écrit :
LOL
J’espère que tu n’es pas un expert en sécurité informatique.
MDR, si je n’autorise pas à faire un get sur un rep tu ne peux pas savoir ce qu’il y a dedans…
On oublie le hacking si tu veux bien, je parlais d’une url que tu ne peux deviner " />
frikakwa a écrit :
…
…
Revenons au bon vieux web du début des années 80 sans index où tu te filais les adresses web INtéressantes sous le manteau…
En gros tu es “pour” le discours de Google mais contre les moteurs de recherche ou… ? " />
Un moteur basé sur ce qu’on lui a demandé d’indexé, je vois pas en quoi ça changerait le fonctionnement actuel, tu vois un lien, avant de l’indexer tu fais une requête http sur le serveur pour savoir si tu peux, pourquoi faudrait-il revenir au principe d’annuaire ?
Mais bon, ça touche Google et son fonctionnement donc vous perdez toute objectivité, tout comme vous trouvez normal d’avoir sa maison, son jardin, ses entrées sorties sur G-Earth etc…
Bref, inutile d’aller plus loin, je défend un principe simple de bon sens et de respect de la propiété là ou vous défendez une boite car c’est votre dieu !
C’est juste pathétique !
Le
12/10/2012 à
13h
26
frikakwa a écrit :
Le fond de commerce d’agrégateurs tels que Google, Bing et consors est basé sur les même bases (mais différents algorithmes…): il y en a un qui est plus “puissant” et sur lequel cette foutue taxe tente de taper!
Au lieu de parler de fanboyisme, tu devrais te questionner sans laisser ton “haterisme” (beurk que c’est laid!) t’aveugler pour le coup! " />
Haterisme ? Je suis pour le discours de Google et j’ai commencé par là, mais contre l’indexation par défaut, comme pour le telephone privé etc…
Ca ne va pas plus loin que ça et je tiens ce principe pour Bing ou tout autre !
frikakwa a écrit :
Tu peux donc m’expliquer la différence??
Car si la visite est gratuite… pourquoi l’indexation serait elle payante?
Parce que si une page n’est pas indexée, à moins d’être médium ou de faire du brutforcing, tu ne la trouveras pas " />
Le
12/10/2012 à
13h
21
Jed08 a écrit :
Si je ne dis pas de connerie (la encore il faut m’arrêter), Internet est un immense réseaux public où tout le monde est libre de parcourir…
Aller sur internet c’est un peu l’équivalent numérique de sortir dans la rue. Tu peux te promener à ta guise.
problème.
Mais bien entendu, mais entre visiter et indexer il y a quand même une marge !
Le
12/10/2012 à
13h
18
Lyto a écrit :
Et encore une fois comment il fait pour trouver les sites dans ce cas le robot ? A la base il va sur un site et suit les liens qui s’y trouvent pour découvrir de nouveaux sites. Imagine qu’il arrive sur le premier site et n’a pas le droit d’y accéder. Il fait comment pour la suite ?
Robot.txt n’est pas spécifique à Google. C’est un système utilisé par l’ensemble des moteurs de recherche. Google ne peut à lui seul changer les règles. Et puis au passage ce n’est qu’une convention. Y’a des robots qui n’ont rien à faire de ce fichier. Si tu veux pas qu’un truc soit indexé sur le net…. ben tu le mets pas en libre accès " />
iook a écrit :
Si les moteurs de recherche ne trouvent pas de robots.txt, ils indexent (et heureusement d’ailleurs).
Encore une fois, ça irait à l’encontre de l’hypertexte.
Si tu ne veux pas d’indexation, c’est à toi de faire l’effort. Et encore, Google, Bing et quelques autres sont sympas de suivre cette “règle”.
De nombreux autres moteurs s’en moquent complètement du robots.txt. Que tu en mettes ou pas !!
Pinaise quelle mauvaise foi ! Décidement le fanboysme me dépasse.
Vous avez raison, c’est bien comme ça, bientot tu devras faire une démarche pour ne pas que ton salaire soi publier sur le Net, puis ta situation familliale etc….
Bon WE !
Le
12/10/2012 à
13h
01
Lyto a écrit :
Non c’est toi qui prend les choses à l’envers. Comment tu veux que le robot fonctionne ? Tu voudrais qu’il soit en mode “attente de requête” et qu’il n’aille indexer un site uniquement lorsqu’on lui soumette un truc ? Yahoo fonctionnait de cette façon… On a vu ce que ça donnait en terme de pertinence " />
Euh t’as déjà dev quelques choses dans ta vie ?
Il demande un robot.txt au serveur http, soit il le trouve et applique ce qui est configuré, soit il n’en trouve pas et pas d’indexation du tout !
Qu’y a-t-il de plus simple que ça ?
Pourquoi je devrais me faire chier, si je ne veux rien indexer à faire un robot.txt sachant que si demain Google change la structure de ce fichier il faut que je soi au courrant par mes propres moyens et que je refasse mon fichier !
T’auras beau dire, le fonctionnement inverse de l’actuel est de loin le plus simple pour tout le monde !
Le
12/10/2012 à
12h
45
Lyto a écrit :
Ca aussi je crois que c’est une méconnaissance du sujet. Le principe du robot c’est qu’il fonctionne en mode automatique. Il vient sur ton site et le référence. Si tu veux pas, tu le lui dis. Mais lui n’est pas censé savoir que tu veux pas avant que tu lui ais indiqué… " />
Méconnaissance de quoi ?
Si je lui dis pas d’indexer, ils sait que je ne le veux pas, c’est pas compliqué, vous prenez vraiment les choses à l’envers !
Le
12/10/2012 à
12h
17
brazomyna a écrit :
Si c’était le cas tu n’aurais plus la moindre photo extérieure dans le moindre magazine.
“Le droit de réaliser, publier, exploiter l’image des biens d’autrui, et ce sans l’autorisation du propriétaire est admis, pourvu que la reproduction et l’exploitation commerciale ne causent pas un préjudice particulier à ce dernier”. Cour de cassation, 1ère Ch. Civile, 2 mai 2001. n°99-10709).
Dit autrement, c’est autorisé par défaut ; si le proprio le refuse, il faut encore qu’il porte plainte et qu’il prouve qu’il subit un préjudice à cause de ladite photo.
Dans le cas qui nous concerne, il leur suffit de renseigner un fichier de trois lignes.
Mouarf c’est bo, arrêtes de mélanger tout juste pour dire Google c’est le bon, et tout ce qui est contre va foutre la merde dans notre vie.
Qu’est-ce que les photos de la rue ont avoir ?
Si moi je mets des datas sur un serveur, cela ne veut pas dire que tu peux les indexer, c’est pas parceque le modèle est actuellement ainsi que c’est bien !
Tu trouves aussi certainement logique de devoir payer pour avoir un numéro de tel qui n’est pas public ?
Tu trouves normal qu’on ne puisse pas indiquer ce que l’on veut référencer et que le reste ne le soit pas ? T’as pas l’impression que c’est plus facile ?
Bref, Google a raison dans le fond mais pas dans la forme, c’est à lui à demander ce que le webmaster veut référencer et non au webmaster de dire à Google ce qu’il ne veut pas qu’il le soit, c’est de la logique pure appliquée à quasi tous les domaines mais le web c’est pas pareil, c’est Google qui décide, c’est ça ?
Maintenant nos jardins sont exposés à la vue de tout cambrioleurs car Google ne doit pas demander…
Pareil, pour l’espionnage des utilisateurs, il faut dire ‘je veux pas être espionné” pour ne pas l’être (et encore il bypass mais c’est un autre problème)
Je sais pas si tu te rends compte a quel point votre fanboysme entrave nos vies privée ! Pour moi c’est juste écœurant !
Le
12/10/2012 à
11h
23
Google conseille du coup aux éditeurs de presse de mettre à jour leur fichier Robot.txt pour ne pas être référencé sur la partie Recherche ou Actualité.
Sauf qu’à la base on devrait dire ce que l’on veut référencer et non le contraire " />
Mais bon, c’est le meme débat que pour le tracking, c’est Google qui décide comment ça fonctionne et les autres suivent et ferment leur g…le !
Pour le reste je suis d’accord avec Google, mais je déteste ce principe de devoir faire quelques choses pour “avoir la paix”. Un peu comme payer pour avoir un numéro de tel privé alors que c’est de référencer le numéro dans un annuaire qui coute… " />
bon ben alors tu vas dans mon sens, un coup tu dis que ca vaut pas le coup, un coup tu dis le contraire .. >.<¤ faut savoir !
Bah non, je postais pour repondre/confirmer tes “interrogations” et j’ai ajouté que le raid de 4 hdd si t’as pas un bon controlleur qui coute bonbon bah vaut mieux éviter…
Je pense être allé dans ton sens du début à la fin, je répondais aussi à Fex, je t’ai cité toi plutot que lui car j’apportais un élément de plus mais ta réponse était déjà bonne, donc je ne voulais pas répondre en ignorant que tu avais déjà répondu (oula compliqué tout ça " />)
Bref, je viens aussi de voir que j’étais grillé par DarkCallisto " />
Le
12/10/2012 à
14h
11
bombo a écrit :
Ah bon, tu crois que les perfos sont similaires sur 4 bon SSD en raid 0 que sur la ram ? Y a les temps d’accès aussi, ça doit jouer non ?
Sinon pour le /tmp m’en fiche un peu j’me dis que les SSD doivent suffire pour ça.
Effectivement, la latence de la ram s’exprime en nano secondes, et les debits sont clairement differents !
En plus, 4 disks en raid 0 sur un controller OnBoard… Euh… comment dire, cacrinduboudin ! " />
Le
12/10/2012 à
12h
43
Burn2 a écrit :
Voué mais sous linux il n’y a rien besoin de rajouter. Y a déjà un dossier /jesaisplusquoi qui en fait est déjà dans la ram. " />
Bon si on veut faire plus propre faut faire autre chose, mais ça reste quand même bien plus abordable. :)
Euh wai… Sauf qu’il est là pour rien dans 99.99% des configs, et si tu veux que tes logiciels l’utilisent il te faudra aussi faire un peu de config, et si tu veux le backuper à chaque boot il te faudra un tool ou faire un script… Puis faut gerer la taille etc aussi….
Donc au final, c’est pas vraiment plus abordable que dl un tool et faire 3 clics…
Le
11/10/2012 à
20h
59
Burn2 a écrit :
Sinon on tourne sous linux et ça se fait tranquilou gratuitement (je parle une fois la distrib de son choix installée) sans pb particulier. " />
C’est aussi facile sous Windows hein !
Le truc c’est que pendant longtemps cela n’interessait personne (presque) car la ram était beaucoup trop chere, il y avait des tools gratos qui permettait de faire ça facilement mais ils n’ont plus été mis à jour car il n’y avait pas vraiment de demande…
Depuis 2 ou 3 ans la ram a baissée de façon spectaculaire et donc cela devient très intéressant et du coup y a un peu pénurie en tools.
Mais Microsoft à publié le code source d’un driver avec un exemple d’implémentation. C’est gratuit, et c’est fait par la maison " />
Le
11/10/2012 à
18h
41
linkin623 a écrit :
Je crois même que la version payante se charge au démarrage. J’ai arrêté car à chaque MAJ de FF, je devais tout recopier dans le RamDisk et à force c’est lourd.
Je suppose qu’un simple fichier .bat suffirait, mais j’ai pas les compétences. Un lien à me proposé /à vot’ bon coeur.
Recopier tout quoi ?
Il ne faut pas mettre FireFox lui-même sur ton RamDisk mais il faut le configurer pour qu’il utilise ton RamDisk comme répertoire cache…
Le
11/10/2012 à
18h
26
jpriton a écrit :
Et puis la ram, c’est volatile…
" /> faut que je fasse attention en ouvrant ma tour alors " />
Sinon ton SSD, c’est un produit reconditionné ne bénéficiant plus que d’un mois de garantie ! " />
Je prend toujours de l’AMD, je n’ai absolument jamais eu de problème " />
En meme temps un probleme de CPU c’est pas courant non plus… " />
Le fondeur publiera ses résultats complets le jeudi 18 octobre prochain. Intel, pour sa part, en fera de même le mardi 16 octobre. Notez qu’Intel a d’ores et déjà annoncé que son chiffre d’affaires sera lui aussi inférieur aux prévisions, preuve qu’AMD est loin d’être le seul à souffrir.
Tu penses vraiment qu’Intel est en train de souffrir ? " />
non il faut nécessairement un compte microsoft si tu veux avoir acces a tous les services.
Sauf que tu peux lier gratuitement une adresse d’un concurrent avec un compte Microsoft(outlook), tu auras donc acces à tous les services, et je rappel qu’on parle d’un OS, ceci est juste un plus ;-)
olivier4 a écrit :
ben non ya pas mieux comme expression pour décrire metroqd rien n’est organisé et classé
C’est bien ce que je dis, tu ne connais pas le sens de l’expression “uzine à gaz” " />
Le
11/10/2012 à
15h
37
olivier4 a écrit :
j’ai oublié quand meme le principal point positif de windows 8: il ont gardé l’interface bureau
ya la possibilité d’ajouter un start menu,
et on est compatible x86 et donc on peut installer ces propres applis d’antan.
Donc ils ne ferment rien :-)
En plus le store est ouvert à tous, et personne n’est obligé de l’utiliser ! C’est pas beau ça ^^
C’est un effet de mode et déjà dépassé alors que pas encore sorti ?
Tu te foutrais pas un peu de la tronche des gens toi ?
Sous prétexte que ça s’est amorcé sous WP7 ?
Je te signale que la concurrence en est toujours à de bêtes icônes statiques !
Tu peux utiliser l’adresse mail que tu veux (contrairement à la concurrence) et tu peux même en demander une nouvelle à Crosoft, c’est pas beau ça ^^
Tu parles d’usine à gaz parce que tu ne t’y retrouve pas à cause de tes habitudes, les néophyte s’y retrouvent bizarrement très bien !
Usine à gaz, faut que tu revois la définition de cette expression, car c’est pas ça " />
Bref, en gros, tu troll…
Le
10/10/2012 à
21h
49
Vanilys a écrit :
Quoi c’est pas bientôt ton anniv’, dans qqs jours ? " />
Euh… Mon interrogation va plutot vers qui tu es ! (O-o)
Laisse-moi deviner, tu as habité en Belgique mais tu vis maintenant en France depuis pas mal d’années et on ne s’est de fait plus vu depuis longtemps ?
Le
10/10/2012 à
19h
19
XalG a écrit :
Bah avec supercopier ça permettait de mettre l’opération à la suite,et tu t’en occupes pas. Et l’important ici c’est de ne pas s’en occuper, j’ai pas envie de lui dire tout le temps quoi copier. ‘fin bon, j’ai eu le problème qu’une fois j’ai annulé la copie et installé le logiciel pour enfin me casser
On peut effectivement reprocher à l’explorateur de n’avoir pas de systeme de queue pour la copie, mais certainement pas d’être lent lors de deux copies parallèles…
Sinon, tu peux aussi taper tes deux lignes de commande dans un bat… " />
Le
10/10/2012 à
19h
03
Vanilys a écrit :
Tu feras la bise à Nina au fait :)
" />
Le
10/10/2012 à
17h
30
XalG a écrit :
Non mais c’est surtout pour dire qu’ils ont pris leur temps pour la copie, c’est un vrai carnage sur windows depuis le début ^^’
Et les chutes de performance quand tu fais une copie de X -> Y en même temps que Y -> X c’est parfois rigolo, parfois pas
Avoir dans le système un gestionnaire de copie au point c’est normal
Pour moi ce qui est rigolo c’est de faire ce genre d’opération " />
Tu iras logiquement plus vite à faire une copie puis lancer l’autre que de les faire en même temps !
C’est aussi naif que de vouloir copier un repertoire en multithreading " />
euh, le support et l’oeuvre c’est légèrement différent hein … rien n’impose à un ayant droit de filer le dernier master top moumoute qu’il aura fait restaurer pour le sortir en blu ray en claquant quelques millions (sisi) à n’importe qui une fois qu’il est passé dans le domaine public … si rien n’est fait, ben t’as le droit aux bandes originales, ou à ce qu’on voudra bien te filer … on a des assoc’s et quelques organismes qui s’en chargent, mais ça coûte des sous et des impôts .. pourquoi ne pas transférer ça sur ceux qui en font après une exploitation commerciale ?
C’est bon Pascal Nègre, on t’as reconnu… Tu peux enlever ton avatar " />
Je cite: “Les fabricants et importateurs de supports, qui acquittent la rémunération, détiennent 6 sièges et sont représentés par le SECIMAVI, le SIMAVELEC, le SNSII, l’Alliance-Tics, la FFT et la FEVAD (1 siège chacun).”
Les consommateurs (tant prives que professionnels) n’ont donc bien que 6 sieges sur les 24.
Ok merci pour cette info :-)
Ceci dit, je ne vois pas en quoi la taxe sur les consommateurs les concerne ?
Si eux, de toutes façon sont assujetis, en quoi ils ont intérets à défendre le consommateur ?
Je ne saisis pas bien, je pense qu’on mélange un peu les deux…
Un DataCenter doit payer la taxe copie privée ?
Le
10/10/2012 à
14h
16
yeagermach1 a écrit :
Non c’est un monde ou 51% des gens concernes sont content. Dingue non.
Ce qui est dingue c’est ta mauvaise foi !
Perso j’arrête là avec toi aussi, tu ne peut être qu’intéressé pour défendre une telle logique " />
Le
10/10/2012 à
13h
25
yeagermach1 a écrit :
Il y a eu des exemples donnes ici meme sur PCI, que des ayants droits ont vote contre et des consommateurs ont votes pour.
La majorite dans chacun des parties c’est juste debile, cela apporte juste un blocage quasi permanent. On peut par contre envisager une majorite des deux tiers. Mais faut pas se leurrer non plus, c’est pas la solution. Cette commission doit prendre des decisions a un moment ou a un autre. Si elle est tout le temps en position de blocage, c’est la minorite de blocage qui gagne et non la majorite. Ce qui n’est pas tres democratique.
Donc c’est mieux un monde ou 100% des ayants droits sont content et où seulement 1⁄12 des consommateurs ?
Le
10/10/2012 à
13h
13
yeagermach1 a écrit :
On peut dire pareil pour les consommateurs. Et vu que tous les ayants droits, comme tous les consommateurs ne votent pas pareil …
Et la marmotte ?
Tu penses que quand les ayants droit proposent de ponctionner plus il y en a parmi eux qui votent contre ? Tu le penses vraiment ?
Hors, ne soyons pas débile, on sait qu’il y a toujours bien un représentant de consommateur qui va se laisser convaincre, intéressé ou pas !
Non ça ne peut pas être équilibré avec un tel modèle, une adoption ne devrait pas exiger la majorité toutes parties confondue mais une majorité dans chacune des parties !
Le
10/10/2012 à
12h
52
Tim-timmy a écrit :
euh ouais, ben il faut en parler audit consommateur … si il vote a ou b, c’est qu’il a ses raisons .. mais en l’occurence, ceux qui votent pour les majors, ce sont les absents qui ne démissionnent pas officiellement, là
Wai c’est bien ce que je dis tu es complétement du coté des ayants droits…
Je laisse tomber, pas de temps à perdre avec de telles mentalités !
Le
10/10/2012 à
12h
29
Tim-timmy a écrit :
ben la commission est plutot équilibrée, même si il faudrait depuis la fusion de deux organismes réorganiser en effet les postes du coté ayants-droits, un seul groupement en ayant 10 sur 24 … si en face ils sont absents ou en accord avec les 10 … forcément la balance est rompue, donc l’Aproged vote pour les ayants droits depuis un an…. à eux d’en assumer les conséquences.. le pouvoir de décision en cas d’égalité du président est aussi à étudier (je ne sais pas si il a deja utilisé, ou dans quel sens… il peut également demander un nouveau vote aux 2⁄3, donc bon je ne vais pas partir du principe comme certains que c’est un sale vendu qui votera toujours pour les majors).. Mais sinon, doubler les voix d’un camp n’est pas vraiment souhaitable (oh ben les consommateurs ont décidé de supprimer toute taxe, forts de leur majorité …) … il faut un équilibre dans ce cas, ce qui est très dur à mettre en place et maintenir, c’est sûr
Tu n’as visiblement pas compris l’affaire…
Ils sont 12 ayants droit, contre 12 ‘consommateurs’ (pour faire simple).
Ce sont les ayants droit qui font les propositions, ensuite ils vont forcément tous voter pour coté ayants droit (logique) et ils n’ont donc plus qu’à convaincre un seul ‘consommateur’ et c’est joué !
Si tu trouves cela équilibré, que ce soit dans la forme ou dans le fond, tu es soit ayant droit, soit politicien " />
Le
10/10/2012 à
10h
56
Tim-timmy a écrit :
ouep, vrai qu’à partir du moment où tu traites les autres de mafieux (diffamation au passage, mais bon, c’est internet, on a tous les droits), ça évite d’avoir à discuter … des méchants on a dit ! et forcément c’est la voix de la raison qui parle… j’ai beau ne pas être d’accord avec les tarifs actuels de la RCP, ni avec les propositions faites, évidemment … si les gens qui peuvent les réfuter/les faire baisser (c’est une négociation, les majors demandent 100 pour obtenir 10 éventuellement) refusent de le faire et se comportent comme des gosses de 8 ans, c’est leur faute à 200%, et ils en portent la responsabilité. mais non.. c’est la faute des vilains méchants en face, évidemment. C’est beau d’avoir raison, et de dire que les autres sont des méchants vilains pas beaux qui ont tort … ça évite de brancher les neurones assez souvent.. ceci était mon message rageux du jour :p a+
(et évidemment, si je trouve qu’ils ne sont pas de gentils chevaliers blancs, c’est que je suis pro majors.. aucun milieu n’est possible)
Et tu penses que dans cette commission ce sont des gentils ?
Que les ayants droit ont les meilleurs intentions du monde ?
J’ai du mal à saisir tes propos, autant ils sont justes, autant les commentaires envers cette commission sont plus que justifiés !
Cette commission est écœurante sur tous les points, lorsqu’on aura fait un peu de ménage dans cette commission on pourra s’arrêter à blamer sur des petits détails, mais là dans l’état je suis choqué que ces détails t’embêtent plus que la commission en elle même !
Le
09/10/2012 à
22h
28
wormidable a écrit :
Pas tout a fait, car tu fais une confusion: les “professionnels” representes a la commission sont les fabricants/revendeurs de supports, pas les professionnels-utilisateurs. Donc, ce sont ceux qui subissent de plein fouet le marche gris… et donc ceux qui patissent du cout particulierement eleve en France de la Copie Privee. Ils ont donc un enorme interet a voir ce cout baisser (voire disparaitre) du prix de leurs produits.
Euh… tu es certain pour les professionnels représentés ?
Y a des fabricants de tablette ou Hdd ou autre support du genre en France ?
Les professionnels selon moi c’est tout entreprise qui utilise des support pour son fonctionnement. (genre hdd pour serveur, workstation etc)
Pour les vendeurs je peux comprendre qu’ils puissent subir une concurrence déloyale avec les autres pays de L’UE, mais les fabriquants, je doute que cela change grand chose pour eux… Si ?
Le
09/10/2012 à
18h
37
wormidable a écrit :
Je suis assez d’accord avec ca. Ils auraient du demissioner officiellement depuis des mois.
Ca serait une jolie carte a jouer. Le probleme est que nous sommes deja juridiquement gagnant sans cette carte. (A minima au niveau europeen.)
Mais ca, les gouvernements successifs et la comission elle-meme s’en moquent. C’est comme jouer au poker dans un western. Le gagnant n’est pas celui qui a les meilleures cartes, mais le meilleur flingue.
Justement, on oublie regulierement de signaler que l’un des membres des consommateurs vote regulierement en faveur des ayants-droits, pretenduement pour “representer” les “consommateurs” qui sont aussi des “artistes”. (Belle hypocrisie, je me demande combien il touche, celui-la. D’ailleurs, je me demande ou est le representant des ayants-droits qui vote contre les autres sous pretexte que ses “artistes” sont aussi des “consommateurs”.)
Ce n’est donc pas du 12 vs 6+5, c’est du 12+1 vs 6+4. (ou 5+5 si je me trompe sur le “camp” que “represente” l’Aproged.)
Il est surtout trop facile pour les ayants droits de s’entendre sur la ponction profesionnelle avec ses 6 représentants en contre partie de leurs voix contre les consommateurs…
Cette commission n’est qu’une vaste blague, c’est même hallucinant !
De toute façon avec tout ce qui est stratégique il faudrait du made in France ou Europe au pire obligatoire.
Ah bin clairement, les structures de l’Etat devraient être sur des plate-forme développée par ce dernier !
C’est une honte de n’avoir même pas ça au niveau Européen, mais bon, l’Europe et l’informatique…
Le
08/10/2012 à
19h
09
TheFelin a écrit :
N’importe quoi, réfléchi un peu, il est bien plus simple de faire un audite du code que de récrire un kernel…
Ah bon ? Il est pourtant jugé impossible de déterminer un code par sa seule lecture d’après beaucoup de spécialistes !
Un audit de code, euh, si tu fais un vrai audit déterministe tu as recodé le kernel dans le même temps ! " />
Vérifier et tester le résultat de chaque fonctions et ce dans tous les cas possibles ne se fait pas aussi facilement, et de plus une backdoor pourrai-etre ‘construite’ via l’appel de plusieurs fonctions, ou grace à un état particulier, tu imagines le taff pour éliminer toutes ces éventualités ?
C’est déjà pas évident de trouver des failles, mais si en plus elles sont subtilement cachées…
Le
08/10/2012 à
14h
02
TheFelin a écrit :
Tout dépend de l’entreprise, si tu as des données hyper sensible, il faut définir un bon cahier des charges quitte à passer les sources du kernel par une equipe d’ingé, la compiler et l’installer… Tout à prix et surtout la sécu
Bah ça ne change rien, tu ne vas pas demander à tes ingés de réexaminer tout le code du kernel, et quand bien même il le ferait, il n’est pas possible d’avoir une analyse déterministe d’un code en le lisant…
Donc, soit tu fais ton kernel toi même, soit tu n’as aucune garantie…
Le
08/10/2012 à
13h
48
Spidard a écrit :
Bof, il a bien été dit a un moment que le noyau linux avait été conçu avec des backdoor pour le FBI… Sauf qu’ils ont jamais réussi à le prouver (ni a le démentir d’ailleurs)
983 commentaires
Google distribue les claques contre la taxe sur les clics
12/10/2012
Le 13/10/2012 à 16h 32
Le 13/10/2012 à 13h 01
Le 12/10/2012 à 23h 54
Le 12/10/2012 à 23h 18
Le 12/10/2012 à 21h 54
Le 12/10/2012 à 18h 13
Le 12/10/2012 à 17h 05
Le 12/10/2012 à 15h 42
Le 12/10/2012 à 14h 30
Le 12/10/2012 à 14h 00
Le 12/10/2012 à 13h 26
Le 12/10/2012 à 13h 21
Le 12/10/2012 à 13h 18
Le 12/10/2012 à 13h 01
Le 12/10/2012 à 12h 45
Le 12/10/2012 à 12h 17
Le 12/10/2012 à 11h 23
Google conseille du coup aux éditeurs de presse de mettre à jour leur fichier Robot.txt pour ne pas être référencé sur la partie Recherche ou Actualité.
Sauf qu’à la base on devrait dire ce que l’on veut référencer et non le contraire " />
Mais bon, c’est le meme débat que pour le tracking, c’est Google qui décide comment ça fonctionne et les autres suivent et ferment leur g…le !
Pour le reste je suis d’accord avec Google, mais je déteste ce principe de devoir faire quelques choses pour “avoir la paix”. Un peu comme payer pour avoir un numéro de tel privé alors que c’est de référencer le numéro dans un annuaire qui coute… " />
Radeon RAMDisk : AMD s’approprie un nouveau logiciel pour vendre sa DDR3
11/10/2012
Le 12/10/2012 à 17h 36
Le 12/10/2012 à 14h 11
Le 12/10/2012 à 12h 43
Le 11/10/2012 à 20h 59
Le 11/10/2012 à 18h 41
Le 11/10/2012 à 18h 26
AMD souffre et annonce une chute de son chiffre d’affaires et de ses marges
12/10/2012
Le 12/10/2012 à 15h 07
Windows 8 se dévoile à travers quatre vidéos officielles de présentation
10/10/2012
Le 11/10/2012 à 20h 23
Le 11/10/2012 à 15h 37
Le 10/10/2012 à 21h 49
Le 10/10/2012 à 19h 19
Le 10/10/2012 à 19h 03
Le 10/10/2012 à 17h 30
Les ayants droit veulent une redevance sur le domaine public audiovisuel
10/10/2012
Le 10/10/2012 à 20h 31
Le 10/10/2012 à 19h 44
Depuis un an, les ayants droit sont majoritaires en commission copie privée
09/10/2012
Le 10/10/2012 à 17h 00
Le 10/10/2012 à 14h 16
Le 10/10/2012 à 13h 25
Le 10/10/2012 à 13h 13
Le 10/10/2012 à 12h 52
Le 10/10/2012 à 12h 29
Le 10/10/2012 à 10h 56
Le 09/10/2012 à 22h 28
Le 09/10/2012 à 18h 37
[MàJ] Windows 8 : Microsoft publie une série de mises à jour
09/10/2012
Le 09/10/2012 à 19h 00
[MàJ] Huawei et ZTE, une menace pour la sécurité nationale américaine
09/10/2012
Le 08/10/2012 à 20h 13
Le 08/10/2012 à 19h 09
Le 08/10/2012 à 14h 02
Le 08/10/2012 à 13h 48
Brevets : Motorola remporte une manche contre Microsoft en Allemagne
05/10/2012
Le 07/10/2012 à 07h 34
Facebook passe la barre du milliard d’utilisateurs actifs
04/10/2012
Le 07/10/2012 à 07h 33
Microsoft rachète PhoneFactor, un spécialiste de l’authentification
05/10/2012
Le 06/10/2012 à 00h 28
Le 05/10/2012 à 16h 33