Connexion
Abonnez-vous

European Search Perspective : Qwant et Ecosia unis pour « un index de recherche européen »

Plus d'IA, moins d'arbres

European Search Perspective : Qwant et Ecosia unis pour « un index de recherche européen »

En ce week-end prolongé, Ecosia et Qwant ont annoncé s’associer « pour développer un index de recherche européen » ouvert aux autres moteurs de recherche. Les deux partenaires veulent s’affranchir des Big Tech américaines et misent sur l’intelligence artificielle (générative)… comme toutes les annonces du moment.

Le 12 novembre à 09h14

D’un côté, nous avons Qwant, le moteur de recherche français, racheté par Octave Klaba (fondateur d’OVHcloud) et son frère l’année dernière, avec la participation de la Caisse des dépôts. Qwant a été regroupé avec Shadow au sein de Synfonium, détenu à 75 % par les Klaba et à 25 % par la CDC.

Le mois d’octobre était chargé pour Qwant, avec le lancement de son programme de fidélité, puis l’annonce pour « fin novembre/début décembre » de son « moteur de recherche (en propre) en alpha public sur le web français, soit 350 à 500 millions de pages indexées », selon Octave Klaba. Mais cette annonce en cachait une autre.

De l'autre, nous avons Ecosia, un moteur de recherche basé en Allemagne qui « plante des arbres », pour reprendre son slogan officiel. Ecosia est une association à but non lucratif qui finance également des actions pour le climat. Le moteur de recherche revendique plus de 218 millions d’arbres plantés et près de 90 millions d’euros « consacrés à l'action climatique ».

L’ambition : « développer un index de recherche européen »

Les deux entités viennent d’annoncer qu’elles « s’associent pour développer un index de recherche européen ». Néanmoins, comme le précise TechCrunch, « ni Ecosia ni Qwant n’arrêteront complètement d’utiliser Bing ou Google ».

Les ambitions sont d’arriver en 2025 à « servir des résultats de moteur de recherche, en langue française et allemande, sur la base des technologies Qwant, qui ont été totalement redéveloppées depuis 2023 (lors de l’acquisition de Qwant par Synfonium) », expliquent les deux partenaires.

Cette nouvelle entité est baptisée European Search Perspective (EUSP) avec un partage à 50/50 entre Qwant et Ecosia. EUSP vise à « développer la souveraineté numérique en Europe et de veiller à ce que le continent dispose d’une alternative forte et indépendante aux technologies de recherche existantes ».

« La porte est ouverte et nous sommes prêts à discuter avec tout le monde. Mais nous voulons aussi nous concentrer et vraiment sécuriser la capacité d’investir avec nos actionnaires existants », affirme Olivier Abecassis, directeur général de Qwant et directeur d’EUSP. Les deux partenaires précisent que « la nouvelle société fonctionne en dehors du modèle d’Ecosia, ce qui signifie qu’elle sera en mesure de lever des capitaux auprès d’investisseurs extérieurs ».

Des informations sur EUSP dans Pappers

Les montants des investissements de Qwant et Ecosia ne sont pas précisés. Olivier Abecassis indique simplement que c’est « assez substantiel », selon La Tribune. Sur Pappers, on peut lire qu’European Search Perspective est une « société par actions simplifiée au capital social de 25 000 euros », dont le siège social est à Paris. L’entreprise est immatriculée au Registre du Commerce et des Sociétés (RCS) de Paris.

On y apprend également que l’activité principale déclarée de la nouvelle entité est « la publication des volumes d'agrégation et la négociation de tarifs préférentiels pour la publicité en ligne ; la génération de résultats de recherche algorithmiques à partir des résultats de recherche les plus fréquents dans des marchés européens spécifiques pour l'European Social Observatory ("OSE") ; le développement d'un contenu riche pour les résultats de l'OSE ; l'étude du potentiel de l'Intelligence Artificielle ("IA") en général et des grands modèles linguistiques en particulier pour l'OSE ».

Qwant transfère ses ingénieurs et sa propriété intellectuelle

D’un point de vue pratique, « les ingénieurs et data-scientists de Qwant ainsi que la propriété intellectuelle afférente de l’index, seront transférés au sein de la joint-venture European Search Perspective, après validation des différentes parties concernées ».

« Construire une telle technologie à partir de zéro est presque impossible […] Plus nous avons d’utilisateurs et plus nous avons de données, plus la technologie prendra de la valeur », explique Olivier Abecassis. Côté visiteurs justement, Ecosia revendique « 20 millions d’utilisateurs dans le monde », contre « 6 millions d’utilisateurs » pour Qwant.

De l’IA (générative)… évidemment

« Avec l’émergence des outils d’IA, la demande pour un index est différente […] Bing et Google sont de plus en plus réticents à rendre leur index accessible. Et bien sûr, en tant que moteur de recherche, nous avons besoin d’un index. C’est en partie pourquoi nous voulons nous assurer d’y avoir accès », explique de son côté Christian Kroll, fondateur et CEO d’Ecosia.

Il parle aussi, de l’intelligence artificielle générative qui permet, selon Christian Kroll de « créer une expérience différente […] et ne pas être limités dans l’utilisation de cette technologie ». « Search et GenAI ne sont pas exactement les mêmes. Nous pensons que les deux bénéficieront l'un de l’autre », ajoute-t-il. Et ce n’est pas Qwant qui va dire le contraire, tant le moteur de recherche mise lui aussi sur l’IA.

Avec l’index maison, c’est le second principal axe de travail, expliquait en effet Qwant il y a une dizaine de jours : « Nos modules d’IA ont été constamment améliorés depuis leur sortie en avril dernier. La qualité des réponses et des résumés est désormais bien meilleure et les informations majeures sont mieux priorisées. On bosse également sur des réponses plus exhaustives, avec un rafraichissement global du design pour rendre l’ensemble plus fluide, cohérent et agréable en termes d’expérience utilisateur ».

La longue quête d’un index

La quête d’un index maison est un travail de longue haleine pour Qwant… qui est revenu sur le tapis dès son lancement en 2013. Qwant et Ecosia ne sont pas les seuls à s’être lancés, Brave aussi propose son moteur de recherche. En avril dernier, il annonçait qu’il avait « supprimé le dernier vestige de Bing de la page des résultats de recherche, atteignant une indépendance de 100 % et offrant une véritable alternative aux Big Tech sur la recherche ». Ce que Qwant n'a jamais réussi à faire.

« Contrairement aux solutions propriétaires, l’index European Search Perspective sera également mis à disposition d’autres moteurs de recherche indépendants et d’entreprises technologique », affirment les partenaires.

« Aller dans une direction différente »

Interrogé par TechCrunch sur le sujet, Olivier Abecassis reconnait qu’il « y a probablement des raccourcis pour construire une telle technologie en copiant les principaux acteurs. Nous avons décidé d’aller dans une direction différente et de tout construire à partir de zéro. C’est plus difficile, mais nous pensons que c’est plus durable ».

L’axe mis en avant est celui de Qwant depuis son lancement : proposer des résultats « privilégiant la confidentialité ». Les résultats ne seront ainsi pas personnalisés en fonction de l’utilisateur, ce que proposent déjà des moteurs alternatifs, comme DuckDuckGo, mais en se basant sur des index existants chez les géants du Net (Microsoft, Google et Yahoo).

Respect de la vie privée – cheval de bataille de Qwant depuis son lancement – et programme de récompense pour ses utilisateurs sont-ils compatibles ? Pour un porte-parole, cela ne fait aucun doute : « Pour accéder au programme de fidélité, il faut accepter de donner votre consentement. Par contre, notez que même en refusant le consentement, TOUTES les autres fonctions restent disponibles avec le mode le plus élevé de privacy possible du marché ».

Souveraineté en Europe

Pour Olivier Abecassis, qui s’exprime cette fois comme directeur général d’European Search Perspective, la mission est claire : « développer une technologie démocratique et souveraine en Europe au moment même où l’IA Générative va redéfinir profondément l’expérience de la recherche en ligne ».

Le fondateur d’Ecosia met aussi en avant le marché européen et notamment le DMA : « pour la première fois, les "données de clics et les requêtes", par exemple, vont être partagées par d’autres moteurs de recherche – nous y avons donc accès ».

Commentaires (59)

votre avatar
Je serions une mauvaise langue, çà respire la boite faite pour faire du crédit d'impôts ou apte à recevoir des fonds européens pour la tech de pointe. Section : on fait de la recherche donc on a droit aux Z.
:D
votre avatar
J'ai un peu ce sentiment également, ne serait-ce que parce que l'annonce (du moins telle que présentée ici) donne l'impression que les efforts sont avant tout mis dans la structuration juridique plus que dans la R&D. Et en général c'est pas très bon signe...

Je ne dis pas qu'il faille pas de structure jointe et bien construite. Mais ça sent l'imbroglio technico-juridique plus qu'autre chose.
votre avatar
Quand je vois qu’une boîte de conseil ESN incitait à transformer des missions pour les faire passer en crédit d’impôt recherche c’est la foire à la saucisse ce truc. Les abus sont partout.
votre avatar
Dès que je lis "Qwant", je traduis "arnaque".
votre avatar
Vous avez quand même tendance à oublier que Qwant a changé de mains l'année dernière. On n'aime ou on aime pas, mais je ne pense pas que l'idée de Klaba ce soit juste de se gaver d'aides avec cette acquisition. Il faut laisser un peu de temps pour voir ce qui va changer concrètement, Qwant a été si mal géré pendant des années, il doit y avoir du boulot.
votre avatar
Le deal pour Klaba était clair tel qu'énoncé par la CDC : "tu reprends Qwant et on te laisse reprendre Shadow".
Klaba a plus besoin de Shadow que de Qwant.
votre avatar
Ce qui n'empêche pas d'en faire quelque chose de bien.

(Oui, ok, les rachats forcés sont rarement fructueux pour le racheté non-désiré: Orange/Dailymotion, Peugeot/Citroën, pour en citer deux fameux.)
votre avatar
Même sentiment que @Gilbert_Gosseyn : avec l'arlésienne de l'index, et maintenant de l'IA dans l'équation, ça a tout du vaporware. Difficile d'y croire.
votre avatar
La liquidation sans cesse détournée par la Caisse des dépôts majoritaire, pas d’assemblée générale en 2019 pour valider les comptes 2018, pas d'assemblée générale en 2023 ni 2024 pour valider les comptes 2022 et 2023, Klaba n'a repris Qwant que pour sauver sa nouvelle boite SHADOW en perte de 30 millions déjà l'an passé.

Cette affaire va finir par exploser car les ex-Xilopix et Marc Longo se sont associés pour enquêter en profondeur dans cette affaire et on fait de nombreuses nouvelles découvertes après 4 ans d'enquête.
Le problème essentiel est que toutes les instances judiciaires saisie refusent de ce saisir du dossier: Cour des comptes, Parquet de Paris, Commission des Finances, Parquet National financier, Commission de surveillance de la CDC, tribunal de Commerce... Soit chacun se renvoie la balle, soit le dossier se perd, soit il y a trop d'affaires en cour...

Pour faire simple, les preuves transmises sont le trou manquant dans la trésorerie 2017 de 6,2M€, vu qu'ils n'étaient que 2 investisseurs, Axel Springer et la CDC, qu'il y a l'attestation bancaire avec le versement total de SPringer et la moitié de la CDC (tranche 1), il n'y a pas l'autre moitié de la CDC et l'argent manque chez Qwant en calculant le solde 2016 + le CA 2017 + toutes les subventions - les total des dépenses.

Il manque 6,2M€ soit la deuxième moitié de la CDC qui était ramenée a 6,5M€ dans le tableau des titres de la tranche 2. Donc il y a fraude et non respect des obligations de versement en numéraires sur le compte BNP de Qwant pour la deuxième moitié. Que s'est-il passé, ou est parti l'argent?

On découvre en 2023 par un article de La Lettre, que les deux holdings dissimulées par le commissaire aux comptes en 2017, Angels1 et Angels2, dans lesquelles ont retrouve tous les amis de la Macronie, n'a en réalité presque plus de titres Qwant et s'en ai débarrassé discrètement a une date inconnue. La valeur du ratio de titre Qwant restant en possession des Angels n'est pas celle évaluée à 4€ mais seulement 0,60€. Dans ces opérations, puisque la CDC a "exercée" ses BSA 2eme partie en 2017, elle n'a pu le faire qu'en Nature illégalement (puisque manquant en trésorerie) et qu'avec des titres racheté sous le manteau aux Angels, amis de la Macronie, qui s'en sont mis plein les poches puisque survalorisés a 70 millions d'euros, et outre Douste Blazy mais aussi le sulfureux Thierry Gaubert qui a eut 150k€ de titres Qwant gratuit, mais aussi des banquiers et même du personnel de la CDC pourtant interdit dans ces opérations, on comprend vite que, comme le révèle Le Monde, la campagne du candidat concerné était bloquée en "panique de trésorerie" en décembre 2016, que le financement de fin de campagne où Fillon était favoris, ce candidat "indélicat" a monté cette opération avec Qwant-CDC-amis complice pour compléter son budget de quelques millions.

Voilà les dernières nouvelles de cette triste affaire, c'est le Livret A qui s'est fait détourné, là les chiffres ne mentent pas et le calcul est enfantin dans le bilan 2017, le trou de 6,2M€ est bien là et il ne peu venir que de la CDC, ce qui en fait un faux document fraudé par le commissaire aux compte (grand cabinet Americain).
Le plus grave, c'est que pendant cette opération, le "Candidat" n'était plus que simple citoyen sans mandat...

Alors on fraude les marchés publics et on trouve toutes les combines illégales pour éviter la faillite on remet au pot sans limite malgré que l'opération a déjà couté 150 millions d'euros en incluant le renflouement de a société Shadow de Klaba...c'est a dire le budget promis par Attal aux agriculteurs et non versé...

Mais tout cela n'est rien face aux 550 milliards d’intérêts de la dette à venir les prochaines année que Marc Touati nous informe sur Sud Radio (https://youtu.be/DPHcCm74K3o?t=405), soit l'équivalent de 2000 hôpitaux flambant neuf (il y en a que 1300 en France), ou 100 porte avions (l n'y en a que 19 dans le monde entier), ou encore la moitié du prix d'une petite maison (42.000€) pour chacun des 39 millions d'actifs, seulement pour ces intérêts de la dette, que se disputent nos créanciers préteurs dont majoritairement BlackRock.
Ou 125.000€ pour chacun des 39 millions d'actifs en tenant compte de la dette+intérêts de 1550 milliards à ce jour (1000 + 550 milliards).

Je vous laisse vérifier tout ça... Bon courage à tous

A suivre...

A oui j'oubliais, le "IndependantGATE", Macron a fait blacklister de la diffusion INSEE la totalité des développeurs indépendants, graphistes, comptable, taxi, avocats, médecins..et auto-entrepreneurs, depuis le 1er janvier 2023, en secret bien sur, 2 millions d'entrepreneurs indépendants (pas les sociétés) dont le nom + adresse + code postal a été remplacé par des [ND] (non diffusible) dans l'open data par une demande du Ministre de l'économie a la CNIL en février 2022 après que tout le monde se soit mobilisé pour aider les petits commerçants a venir sur le net, 6 mois plus tard en cachette on les élimines pour laisser la place aux GAFAM. C'est beaucoup trop dangereux d’être sur les pages jaunes, il faut les protéger ces petits... La CNIL donne sont accord pour ce décret discret et d'apparence anodin (R123-232), mais le gouv se donne une dérogation car le RGPD exclu les données à caractère personnel des entreprises (paragraphe 14 deuxième phrase) et donne la def "entreprises" Art.4.18 du RGPD ; "toute personne morale ou physique, ayant une activité économique, quelque-soit sa forme juridique). ... Pour l'électricité, vous repasserez, impossible de se donner une dérogation, mais pour tuer ou affaiblir 2 millions d'indépendants, même la CNIL est d'accord.
Voir les détails sur la page d’accueil https://www.annuairefrancais.fr .
votre avatar
N’empêche, s’ils se mettent aussi à mettre des LLMs partout, je vais peut-être abandonner Ecosia pour Mojeek ou Kagi…
votre avatar
Kagi propose du résumé par LLMs également (+ n'est pas européen).
À titre personnel, si c'est désactivable, je désactive. Si on me force à utiliser des LLMs je change d'outil. À voir ce qu'Ecosia permettra.
votre avatar
C'est désactivable dans Kagi.
votre avatar
Sur Kagi le résumé LLM est désactivé par défaut. Il faut le demander à chaque recherche pour l’avoir. Astuce : il est possible de l’activer en terminant la recherche par un « ? ». Et ça tombe bien puisque c’est pour les recherches de type question que le LLM est le plus utile.

A noter qu’il ne s’agit pas juste d’un LLM qui répond à la question d’après son entraînement mais qui le fait en se basant sur le contenu des pages retournées par la recherche : comme son nom l’indique, il s’agit de résumer les résultats de la recherche et pas d’un nième ChatGPT déguisé en moteur de recherche.
votre avatar
C'est comme Google hein : il sert à résumer les premiers résultats mais fait quand-même des erreurs (notamment ne pas savoir différentier les niveaux de confiance : considérer qu'une blague Reddit est autant digne de confiance qu'un site spécialisé permet de conseiller aux gens de mettre de la colle sur leur pizza)
votre avatar
L'Histoire se répète 20 ans plus tard avec Quaero…
fr.wikipedia.org Wikipedia
votre avatar
QWANT il y a dix ans disait la même chose : "on va déployer nos crawler, on va faire notre index".
Des dizaines de millions d'€ ont été dillapidés par ces escrocs, et il reste encore des salariés de cette époque, qui ont tout couvert.
votre avatar
Ça fait depuis le début de qwant qu’on entend parler que « oui on utilise Bing mais d’ici quelques mois, vous verez on aura notre propre index » ou « on utilise notre propre index »…
Résultat, pour les pages anglaises, ou sites étrangers, quand j’utilisais qwant en 2018-19 c’était assez nul. Et puis ensuite j’ai switché sur DuckDuckGo.
votre avatar
L'utilisation d'un modèle génératif avant même d'avoir un bon index capable de te retrouver les bonnes références, c'est mettre la charrue avant les bœufs. "Garbage in, garbage out", tu auras bon avoir quelque chose qui est capable de formuler une réponse en langage naturel, si le support de base, c'est de la merde, il va beau être bon pour le reformulé, ça restera de la merde.

Un LLM, ce n'est pas forcément que pour du génératif, dans le cadre d'un index, ça peux être utilisable pour "vectoriser" le texte en un nombre fixe de valeurs (de l'embedding), rendant plus simple et plus rapide l'accès au contenu et au sens du texte. Il suffit de faire la même chose pour la requête (texte vers vecteur de valeur) et donner ces 2 vecteurs à un 3ieme réseau qui donne un score indiquant la pertinence de la page en fonction de la requête.
votre avatar
c'est un peu ce que produit AISummarizer, société produite de Qwant possédée par Léandri.
votre avatar
Que l'Europe dispose de son propre moteur de recherche me semble une évidence.
"Aller dans une direction différente" aussi et donc plutôt que de continuer à faire comme depuis le XXème siècle, il faut penser un moteur de recherche pour le XXIème siècle.
Une nouvelle approche pourrait déjà être de ne plus crawler le Web en permanence pour trouver des contenus frais, c'était raisonnable au XXème siècle, mais cela ne l'est plus au XXIème pour au moins 3 raisons :

1. Ce n'est pas écologiquement responsable.
2. Le nombre de sites Web est devenu astronomique.
3. Impossible d’indexer autre chose que des pages Web ouvertes.

Un moteur de recherche du XXIème siècle devrait constituer son index à partir de données reçues des éditeurs via une API.

En tant qu'éditeur :

1. Je maîtrise alors finement les données que je veux voir indexées que ce soit pour les textes, les images, etc.
2. Je peux caractériser mes données.
3. Mes mises à jour sont immédiatement disponibles dans l’index.
4. Je peux faire indexer les données de mes applications, pas uniquement mes sites Web.
5. L’envoi des données peut être automatisé car le moteur de recherche me donne des plugins pour les différents CMS du marché ou des librairies pour différents langages.

Mais bon je rêve, ils vont faire un copier / coller des autres et se planter, il n'y a plus de volonté en Europe, que du baratin.
votre avatar
C'est un peu le principe des sitemap : tu peux les fournir manuellement, pour devancer l'indexation automatique par les bots et signaler l'existence de ton site.
Par contre leur usage est devenu dérisoire de nos jours. Donc en effet, ce pourrait être pertinent que de plus les utiliser et d'automatiser leur exploitation (le bot du moteur irait lire régulièrement celui-ci plutôt que de crawler le web à la recherche de liens, par exemple).

Il y a un tas de technologies des débuts du web qui pourraient revenir sur le devant de la scène, être actualisées à nos besoin modernes, sans avoir à réinventer la roue. Les puissances de calcul de l'époque etc étaient bien moindre, et revenir à plus de sobriété en se basant sur ces techno aurait de nombreux avantages.
Ce qui n'empêche pas de mêler avec des solutions techniques plus récentes, en complément.
votre avatar
Les sitemaps standards sont trop limités, ils ne contiennent que des URL. Là l'idée est d'envoyer, via une API, les contenus liés à une URL pour un site Web ou des liens profonds pour une application. Du coup on peut aussi utiliser des URL avec des ancres pour faire indexer une partie d'une page Web, ce qui est impossible à ce jour. On peut aussi donner à indexer les textes mais pas les images associées par exemple. Bref, en tant qu'éditeur, je suis le maître de mes données indexées.

Avec un sitemap basé sur un flux RSS, c'est possible puisqu'on peut mettre du contenu, mais c'est assez limité.

Et encore une fois, l'idée c'est plus de crawler !
votre avatar
Tous les "vrais moteurs" ont un outil qui permet de demander au bot d'aller ajouter la nouvelle source à l'index...
votre avatar
Oui donc toujours un bot qui vient chercher à son bon vouloir et qui prend la totalité du contenu de l'URL. Là encore l'idée est que c'est l'éditeur qui décide ce qu'il donne au moteur de recherche et du coup cela peut être le contenu d'une application ou des contenus d’une page Web non accessible sans connexion par exemple.
votre avatar
j'ai proposé l'idée à Qwant en 2017 , c'était sur twitter, compte désactivé :s c'était quand j'ai vu le moteur de recherche de qwant pluggé sur nice-matin.fr, les dernieres news n'étaient pour trouvables)
votre avatar
Idem avec la présentation d'un POC complet à l'ancien CTO de Qwant au premier semestre de 2021. Il était intéressé, puis Qwant a été réorganisé.
votre avatar
Lequel d'ancien CTO ? :)

edit: suis bête, 1er semestre 2021, donc c'était Hugo Venturini ?
votre avatar
Il peut y avoir une white list, ce qui enlève le problème du crawling. Reste le ranking. (mon propos se limite au moteur de news fr payé par axel springer et la BEI)
votre avatar
Si ce n'est pas basé sur de l'existant, c'est mort.

En effet, là, tu demandes à tous les sites, même les trucs qui sont de vieux sites faits avec Dreamweaver en 2002, de faire l'effort de mettre en place l'API. Autant te dire qu'à part quelque site d'actu, et celui de la CAF (mais pas celui de l'Élisée, le mec responsable était en vacances, dsl), tout le monde va se torcher le cul avec cette idée. Google, ça marche très bien, ça représente la très très vaste majorité de leur visite. À côté, ton moteur, il ne représente rien, il ne changera rien (à quoi bon, Google fait ce qu'il veut et c'est lui qui est utilisé par tout le monde), et il demande de faire un truc (encore, c'est pas comme si tu étais le premier à demander de faire un truc car "promis, c'est trop cool ce que l'on — sous-entendu "je" — pourra faire après").
votre avatar
Quand je dis qu'en Europe il n'y a plus de volonté, en voici la preuve.
votre avatar
Ton argument fonctionne quel que soit le degré d'infaisabilité de ta proposition initiale.

Je t'ai montré de mon côté qu'il faut :
1. proposer un gain supérieur au coût à la majorité des acteurs. Sauf que la majorité des acteurs, ils vont s'en battre les couilles de ta solution si fort qu'en leur mettant un piezo sur leurs parties, tu produirais assez d'énergie pour alimenter tout Paris. Google, avec son système de crawling, pour eux, ça fonctionne très bien sans même lever un seul doigt.
2. ton modèle n'est pas rétrocompatible avec l'existant. Or, il y a une chiée de site qui n'ont pas vu un dev depuis une dizaine d'années.
3. tu n'es pas le seul à avoir ce genre d'idée de génie. Sauf que si tout le monde doit faire un truc à chacune de ces propositions, on n'en finirait jamais.

Je rajoute à ceci : dans tout projet, considère que tu es et tu seras toujours tout seul. Tout le reste seront juste des utilisateurs qui te diront que c'est cool ce que tu fais et qu'il souhaite que tu continues. Mais ne compte pas sur eux pour t'aider, ils ont bien autre chose à faire.

Tu peux toujours rédiger une RFC si tu veux.
votre avatar
C'est marrant cette animosité, ridicule mais marrant !

Google c'est super, c'est les plus forts, il ne faut rien changer et ne rien faire contre eux. Pas de disruption, courbons l'échine devant le maître !
votre avatar
je n'ai pas lu d'animosité, seulement un constat :
- google se débrouille "très bien" sans rien demander aux hébergeurs/admins/[insérer le poste le plus adapté] des sites existants
- comment "forcer" les sites existants à faire quelque chose pour venir s'inscrire dans ce nouvel index, quelle que soit la méthode (par exemple si ce nouveau moteur fourni un module pour un cms, ou une bibliothèque supplémentaire pour le serveur) ça va demander du travail à un admin (ou autre) du site pour que ce soit fonctionnel, or personne va vouloir le faire (ni payer qqn pour le faire), et c'est encore plus compliqué sur les sites qui n'ont pas bougé depuis 10 ans ...

le principe est plutôt louable et serait probablement plus efficace que parcourir toutes les pages comme le fait google, mais aucun site commercial n'acceptera d'avoir des frais supplémentaires pour aider à la construction d'un index qui sera largement minoritaire et rapportera vraisemblablement peu de visiteurs face à un google ultra dominant (et je doute que quiconque fasse de paris sur 10 ans en ce qui concerne le web)

lire ici que la domination de google n'est qu'un constat, et ce qui sera probablement le point de vue du responsable d'un site quelconque, il ne s'agit pas d'un souhait ou de quelque chose que j'approuve (et ce n'est pas non plus ce que j'en conclus des messages de @tazvld )
votre avatar
Je n'ai pas le même lecture que toi concernant l'animosité.
Mais sinon :
- Non Google ne se débrouille pas si bien, il a souvent du mal à faire le tri dans une page entre ce qui est à indexer ou pas.
- Google ne peut pas indexer ce qu'il ne peut pas lire. Par exemple, pour un éditeur de site entièrement payant, Google ne peut pas indexer les pages et donc les proposer dans un résultat de recherche ce qui lui fait perdre des clients potentiels. Idem avec le contenu d'une application mobile.
- Les éditeurs payent des spécialistes en SEO, là ce n'est peut être plus nécessaire. Argent pouvant servir à d'autres choses du coup.
- Pour les vieux sites qui ne bougent plus, il est toujours possible d'aller les crawler un coup sur demande de l'éditeur. Si pas de demande, alors probablement que c'est un site sans intérêt et qui n'a plus sa place dans les résultats d'un moteur de recherche.
- Il n'y a pas à forcer les éditeurs, il faut amener le service en parallèle d'un index obtenu par crawl (location à Bing par exemple), le faire monter en puissance et quand il y a assez de données, alors adieu Bing.
- Pouvoir caractériser les données via l'API permet d'obtenir des résultats de recherche plus pertinents et mis à jour immédiatement. Je pense que c''est là que les éditeurs peuvent voir l'intérêt et éventuellement adhérer.
votre avatar
- Pour les vieux sites qui ne bougent plus, il est toujours possible d'aller les crawler un coup sur demande de l'éditeur
Durant les mesures spéciale pour le covid, le site web de la Belgique n'a jamais été indexé par Bing.
J'avais regardé pour le soumettre mais il fallait être le proprio du domaine
votre avatar
Microsoft a une politique étrange, Bing est peu utilisé et refuse néanmoins d'indexer certains sites (et je parle de sites normaux, pas de sites de boules) alors que Google ou même Yandex les indexent. Et impossible de savoir pourquoi. En contactant l'assistance de Bing la seule réponse est en gros "site non conforme" sans explication sur la non conformité !
votre avatar
les spécialiste en SEO, c'est pas du tout pour la pertinence du résultat qu'ils sont payés, c'est pour être mieux mis en valeur que les concurrents, c'est là tout le jeu de google, faire miroiter aux sites qu'ils peuvent améliorer le nombre de visiteurs/clients, et ça amène a fausser les résultats pour tenter de "vendre" des choses annexes à ta recherche, le but n'est pas du tout de fournir une réponse la plus fiable possible à la personne qui fait la recherche
aucun site qui vend quelque chose ne viendra s'inscrire volontairement dans un index honnête à part probablement les "grandes marques" qui profiteront de l'aura de leur nom
pour l'exemple de google ne pouvant pas indexer le contenu des sites payants, on a eu l'inverse, des journaux qui demandaient des droits d'auteurs (ou similaire), c'est pas eux qui vont venir contribuer à travers une API
de plus, si les pages sont inaccessibles, comment juger de la véracité de ce qui a été fourni par l'api ?

au risque de me répéter, l'idée est louable dans la théorie, mais n'a aucune chance de marcher dans le monde réel, elle dépend trop de la bonne volonté et de l'honnêteté de tout le monde, soit il n'y aura pas assez d'inscriptions car les sites n'y trouveront pas leur intérêt, soit certains "experts SEO" trouveront un moyen d'exploiter quelque chose pour mettre en avant des sites de manière indue, ce qui ne sera pas au bénéfice des internautes

j'aimerai bien avoir tort, mais je suis plutôt pessimiste
votre avatar
Ben tu sais quoi ? Le mieux c'est peut être d'essayer, car qui ne tente rien n'a rien ! Mais ça c'est pas dans la culture européenne ou du moins française. Du coup on est mort !
votre avatar
Merci de ta réponse, elle résume en effet mes propos.
votre avatar
Vous nous ferez trois semaines de stage intensif auprès de framasoft et des chatons.org
votre avatar
nokia et blackberry étaient aussi utilisés par tout le monde en 2010. AUjourd'hui ils sont plus là pour en parler. Android/iOS comme google/youtube, ne seront peut être plus là dans cinquante ans.
votre avatar
tout est 100% décision politique, et comme nos élites énarques adorent l'oncle sam, vous pouvez toujours courir pour avoir un semblant de souveraineté et de patriotisme numérique en france : même les allemands qui sont peu attentifs à l'idée sont dans une meilleure situation que nous... Et que dire de nos concitoyens? la plupart des français adorent bouffer du gafam à pleine barre, et toutes nos institutions/organisations font leur promo sur les réseaux sociaux américains, jusqu'au service public.

La France Souveraine numérique est morte depuis avant macron, et ne s'en relèvera jamais.. .La Chine et quelques autres pays sont dans une situation différente, mais en france la plupart des non geeks jurent que par les gafam... leur choix, nous est imposé.
votre avatar
pour info, le chalonnais latlas.eu a eu l'idée d'un moteur de recherche basé sur une liste blanche de sites, approuvés comme "recommandables".
L'idée est bonne, mais sa mise en pratique catastrophique : en fonctionne pas sans JS, design repoussoir, etc.
votre avatar
On a des nouvelles des 218 millions d'arbres plantés ? Ce sont devenus de beaux arbres qui compensent la pollution humaine, ou bien ils sont morts et on en a planté de nouveau pour continuer à faire de l'éco-verdissement ?
votre avatar
Et quelles essences ?
Parce que si c'est pour planter des allumettes et avoir des bois/forêts mono-essence...
votre avatar
Exactement.
J'en peux plus de ces marketoconneries qui veulent laver plus vert que vert.
Comme l'agglo de Bordeaux qui s'est auto-fixé pour objectif de planter 1 million d'arbres.
Pourquoi, comment, on s'en fout, l'essentiel est de pouvoir faire une belle couv' du magazine envoyé à des centaines de milliers d'exemplaires (et dont le papier provient... d'arbres qu'on a coupé).
votre avatar
Tu poses la question mais tu sembles déjà avoir ta réponse... Il vaut mieux chercher par soi même que de dénigrer sans fondement.
votre avatar
Et il vaut mieux donner une réponse quand il y a une question, plutôt que répondre hors sujet pour faire la morale.
votre avatar
Je ne comprends pas cette critique systématique, et manifestement basée sur rien, de l'action a priori positive.
Pour le reste, je suppose que tu sais utiliser un moteur de recherche (par exemple ecosia). Ils ont aussi une chaîne youtube, tu peux aller voir.
votre avatar
votre avatar
Tes autres réponses sous cet article sont bien plus intéressante que ton Xeme rappel des soucis que t'as eu.

Les gens risquent de te masquer alors que t'as parfois des réponses sympa, c'est bête
votre avatar
J'ai été le premier à prouver que qwant n'avait pas d'index.
Tu connais ma situation actuelle ?

Tu sais ce que vaut un tel tweet aux prud'hommes ?
x.com Twitter
votre avatar
J'ai déjà vu de nombreuse fois ce que t'expliquais oui. (au point qu'en voyant le titre, je me suis demandé a quel heure il y aurait ta première réponse :roll:)

Mais revenir non stop avec ça ne va pas faire évoluer en bien ta situation (pro, perso etc) en plus de soûler les gens.
C'est bête car tu dois quand même être une personne intéressante
votre avatar
Il faut séparer l'homme du commentaire ;)
Aussi des gens ont cliqué donc c'est que ça doit intéresser.

Il faut rappeler que Qwant en 2016 disait qu'il était impossible de créer un moteur "from scratch", "techniquement impossible" :
https://www.notion.so/Qwant-petit-pr-cis-d-une-escroquerie-en-bande-organis-e-98300251bfeb44c49720025a15206e90?pvs=4#804938b57fc34102ad6164b11973b6f3

Et que je me suis fait harceler, dénigrer, etc., sans que personne n'ait pris ma défense à aucun moment.
votre avatar
Je pense qu’un jour, il faudra que les nouveaux proprios abandonnent la marque Qwant. Elle est tellement dévalorisée, à mes yeux en tout cas.

Et pourtant j’étais enthousiaste pendant un bon moment.
votre avatar
Pour revenir au fond/début, il y a quelque chose que je ne comprend pas : Quel est / était l'intérêt pour Google ou Bing de donner un accès aux tiers à leur index ?
1. C'était contre espèces sonnantes et trébuchantes ?
2. C'était contre un échange d'un identifiant unique traçant l'utilisateur ? (duck disait que non)
3. Pour la gloire, de toute façon les autres moteurs sont trop petits pour leur faire de l'ombre ?
votre avatar
Je pense que c'est pour le 1, plus :
- créer une dépendance des acteurs à soi-même
- avoir une plus grande emprise sur les recherches, éventuellement pour mieux pouvoir placer ses propres produits
- éviter de trop se faire taper dessus pour abus de position dominante.
votre avatar
C'est une très bonne nouvelle.

Il reste à espérer que la gestion de ce projet se fasse dans le bon ordre.

En tout cas, je garde un œil attentif sur ce projet.
votre avatar
toute personne ayant connaissance de qwant devrait d'abord consulter :

next.ink Next

next.ink Next

https://www.webrankinfo.com/forum/t/rachat-de-qwant.201032/post-1628547

https://effisyn-sds.com/wp-content/uploads/2022/04/QWANT-MACRON-SCANDALE-DETAT-UNE-SOCIETE-MAFIEUSE-LEGALE.pdf

qwant est à la recherche ce que dailym est à la vidéo.. no comment
on aurait préféré les voir sur un autre pavillon que tricolore. Oh non, ils ont même buté xilopix, espèce d'enfré!



Personnellement impossible de le recommander à quiconque. Searx est un bon relais, sinon y'aura toujours aut'chose. Les fondateurs de lilo.org doivent bien en rire.

European Search Perspective : Qwant et Ecosia unis pour « un index de recherche européen »

  • L’ambition : « développer un index de recherche européen »

  • Des informations sur EUSP dans Pappers

  • Qwant transfère ses ingénieurs et sa propriété intellectuelle

  • De l’IA (générative)… évidemment

  • La longue quête d’un index

  • « Aller dans une direction différente »

  • Souveraineté en Europe

Fermer