European Search Perspective : Qwant et Ecosia unis pour « un index de recherche européen »
Plus d'IA, moins d'arbres
En ce week-end prolongé, Ecosia et Qwant ont annoncé s’associer « pour développer un index de recherche européen » ouvert aux autres moteurs de recherche. Les deux partenaires veulent s’affranchir des Big Tech américaines et misent sur l’intelligence artificielle (générative)… comme toutes les annonces du moment.
Le 12 novembre à 09h14
8 min
Internet
Internet
D’un côté, nous avons Qwant, le moteur de recherche français, racheté par Octave Klaba (fondateur d’OVHcloud) et son frère l’année dernière, avec la participation de la Caisse des dépôts. Qwant a été regroupé avec Shadow au sein de Synfonium, détenu à 75 % par les Klaba et à 25 % par la CDC.
Le mois d’octobre était chargé pour Qwant, avec le lancement de son programme de fidélité, puis l’annonce pour « fin novembre/début décembre » de son « moteur de recherche (en propre) en alpha public sur le web français, soit 350 à 500 millions de pages indexées », selon Octave Klaba. Mais cette annonce en cachait une autre.
De l'autre, nous avons Ecosia, un moteur de recherche basé en Allemagne qui « plante des arbres », pour reprendre son slogan officiel. Ecosia est une association à but non lucratif qui finance également des actions pour le climat. Le moteur de recherche revendique plus de 218 millions d’arbres plantés et près de 90 millions d’euros « consacrés à l'action climatique ».
- Qwant lance un programme de fidélité, en attendant sa future techno de recherche
- Qwant prévoit de lancer son « moteur de recherche (en propre) » d’ici quelques semaines
L’ambition : « développer un index de recherche européen »
Les deux entités viennent d’annoncer qu’elles « s’associent pour développer un index de recherche européen ». Néanmoins, comme le précise TechCrunch, « ni Ecosia ni Qwant n’arrêteront complètement d’utiliser Bing ou Google ».
Les ambitions sont d’arriver en 2025 à « servir des résultats de moteur de recherche, en langue française et allemande, sur la base des technologies Qwant, qui ont été totalement redéveloppées depuis 2023 (lors de l’acquisition de Qwant par Synfonium) », expliquent les deux partenaires.
Cette nouvelle entité est baptisée European Search Perspective (EUSP) avec un partage à 50/50 entre Qwant et Ecosia. EUSP vise à « développer la souveraineté numérique en Europe et de veiller à ce que le continent dispose d’une alternative forte et indépendante aux technologies de recherche existantes ».
« La porte est ouverte et nous sommes prêts à discuter avec tout le monde. Mais nous voulons aussi nous concentrer et vraiment sécuriser la capacité d’investir avec nos actionnaires existants », affirme Olivier Abecassis, directeur général de Qwant et directeur d’EUSP. Les deux partenaires précisent que « la nouvelle société fonctionne en dehors du modèle d’Ecosia, ce qui signifie qu’elle sera en mesure de lever des capitaux auprès d’investisseurs extérieurs ».
Des informations sur EUSP dans Pappers
Les montants des investissements de Qwant et Ecosia ne sont pas précisés. Olivier Abecassis indique simplement que c’est « assez substantiel », selon La Tribune. Sur Pappers, on peut lire qu’European Search Perspective est une « société par actions simplifiée au capital social de 25 000 euros », dont le siège social est à Paris. L’entreprise est immatriculée au Registre du Commerce et des Sociétés (RCS) de Paris.
On y apprend également que l’activité principale déclarée de la nouvelle entité est « la publication des volumes d'agrégation et la négociation de tarifs préférentiels pour la publicité en ligne ; la génération de résultats de recherche algorithmiques à partir des résultats de recherche les plus fréquents dans des marchés européens spécifiques pour l'European Social Observatory ("OSE") ; le développement d'un contenu riche pour les résultats de l'OSE ; l'étude du potentiel de l'Intelligence Artificielle ("IA") en général et des grands modèles linguistiques en particulier pour l'OSE ».
Qwant transfère ses ingénieurs et sa propriété intellectuelle
D’un point de vue pratique, « les ingénieurs et data-scientists de Qwant ainsi que la propriété intellectuelle afférente de l’index, seront transférés au sein de la joint-venture European Search Perspective, après validation des différentes parties concernées ».
« Construire une telle technologie à partir de zéro est presque impossible […] Plus nous avons d’utilisateurs et plus nous avons de données, plus la technologie prendra de la valeur », explique Olivier Abecassis. Côté visiteurs justement, Ecosia revendique « 20 millions d’utilisateurs dans le monde », contre « 6 millions d’utilisateurs » pour Qwant.
De l’IA (générative)… évidemment
« Avec l’émergence des outils d’IA, la demande pour un index est différente […] Bing et Google sont de plus en plus réticents à rendre leur index accessible. Et bien sûr, en tant que moteur de recherche, nous avons besoin d’un index. C’est en partie pourquoi nous voulons nous assurer d’y avoir accès », explique de son côté Christian Kroll, fondateur et CEO d’Ecosia.
Il parle aussi, de l’intelligence artificielle générative qui permet, selon Christian Kroll de « créer une expérience différente […] et ne pas être limités dans l’utilisation de cette technologie ». « Search et GenAI ne sont pas exactement les mêmes. Nous pensons que les deux bénéficieront l'un de l’autre », ajoute-t-il. Et ce n’est pas Qwant qui va dire le contraire, tant le moteur de recherche mise lui aussi sur l’IA.
Avec l’index maison, c’est le second principal axe de travail, expliquait en effet Qwant il y a une dizaine de jours : « Nos modules d’IA ont été constamment améliorés depuis leur sortie en avril dernier. La qualité des réponses et des résumés est désormais bien meilleure et les informations majeures sont mieux priorisées. On bosse également sur des réponses plus exhaustives, avec un rafraichissement global du design pour rendre l’ensemble plus fluide, cohérent et agréable en termes d’expérience utilisateur ».
La longue quête d’un index
La quête d’un index maison est un travail de longue haleine pour Qwant… qui est revenu sur le tapis dès son lancement en 2013. Qwant et Ecosia ne sont pas les seuls à s’être lancés, Brave aussi propose son moteur de recherche. En avril dernier, il annonçait qu’il avait « supprimé le dernier vestige de Bing de la page des résultats de recherche, atteignant une indépendance de 100 % et offrant une véritable alternative aux Big Tech sur la recherche ». Ce que Qwant n'a jamais réussi à faire.
« Contrairement aux solutions propriétaires, l’index European Search Perspective sera également mis à disposition d’autres moteurs de recherche indépendants et d’entreprises technologique », affirment les partenaires.
- Qwant, un vrai faux moteur de recherche ? Des accusations aux explications
- (Màj) Qwant : des résultats datés, limités (mais répétés)
« Aller dans une direction différente »
Interrogé par TechCrunch sur le sujet, Olivier Abecassis reconnait qu’il « y a probablement des raccourcis pour construire une telle technologie en copiant les principaux acteurs. Nous avons décidé d’aller dans une direction différente et de tout construire à partir de zéro. C’est plus difficile, mais nous pensons que c’est plus durable ».
L’axe mis en avant est celui de Qwant depuis son lancement : proposer des résultats « privilégiant la confidentialité ». Les résultats ne seront ainsi pas personnalisés en fonction de l’utilisateur, ce que proposent déjà des moteurs alternatifs, comme DuckDuckGo, mais en se basant sur des index existants chez les géants du Net (Microsoft, Google et Yahoo).
Respect de la vie privée – cheval de bataille de Qwant depuis son lancement – et programme de récompense pour ses utilisateurs sont-ils compatibles ? Pour un porte-parole, cela ne fait aucun doute : « Pour accéder au programme de fidélité, il faut accepter de donner votre consentement. Par contre, notez que même en refusant le consentement, TOUTES les autres fonctions restent disponibles avec le mode le plus élevé de privacy possible du marché ».
Souveraineté en Europe
Pour Olivier Abecassis, qui s’exprime cette fois comme directeur général d’European Search Perspective, la mission est claire : « développer une technologie démocratique et souveraine en Europe au moment même où l’IA Générative va redéfinir profondément l’expérience de la recherche en ligne ».
Le fondateur d’Ecosia met aussi en avant le marché européen et notamment le DMA : « pour la première fois, les "données de clics et les requêtes", par exemple, vont être partagées par d’autres moteurs de recherche – nous y avons donc accès ».
European Search Perspective : Qwant et Ecosia unis pour « un index de recherche européen »
-
L’ambition : « développer un index de recherche européen »
-
Des informations sur EUSP dans Pappers
-
Qwant transfère ses ingénieurs et sa propriété intellectuelle
-
De l’IA (générative)… évidemment
-
La longue quête d’un index
-
« Aller dans une direction différente »
-
Souveraineté en Europe
Commentaires (59)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 12/11/2024 à 09h28
Le 12/11/2024 à 09h49
Je ne dis pas qu'il faille pas de structure jointe et bien construite. Mais ça sent l'imbroglio technico-juridique plus qu'autre chose.
Le 12/11/2024 à 10h40
Le 12/11/2024 à 09h52
Le 12/11/2024 à 10h41
Le 12/11/2024 à 12h28
Klaba a plus besoin de Shadow que de Qwant.
Le 12/11/2024 à 14h39
(Oui, ok, les rachats forcés sont rarement fructueux pour le racheté non-désiré: Orange/Dailymotion, Peugeot/Citroën, pour en citer deux fameux.)
Le 12/11/2024 à 19h44
Modifié le 16/11/2024 à 12h44
Cette affaire va finir par exploser car les ex-Xilopix et Marc Longo se sont associés pour enquêter en profondeur dans cette affaire et on fait de nombreuses nouvelles découvertes après 4 ans d'enquête.
Le problème essentiel est que toutes les instances judiciaires saisie refusent de ce saisir du dossier: Cour des comptes, Parquet de Paris, Commission des Finances, Parquet National financier, Commission de surveillance de la CDC, tribunal de Commerce... Soit chacun se renvoie la balle, soit le dossier se perd, soit il y a trop d'affaires en cour...
Pour faire simple, les preuves transmises sont le trou manquant dans la trésorerie 2017 de 6,2M€, vu qu'ils n'étaient que 2 investisseurs, Axel Springer et la CDC, qu'il y a l'attestation bancaire avec le versement total de SPringer et la moitié de la CDC (tranche 1), il n'y a pas l'autre moitié de la CDC et l'argent manque chez Qwant en calculant le solde 2016 + le CA 2017 + toutes les subventions - les total des dépenses.
Il manque 6,2M€ soit la deuxième moitié de la CDC qui était ramenée a 6,5M€ dans le tableau des titres de la tranche 2. Donc il y a fraude et non respect des obligations de versement en numéraires sur le compte BNP de Qwant pour la deuxième moitié. Que s'est-il passé, ou est parti l'argent?
On découvre en 2023 par un article de La Lettre, que les deux holdings dissimulées par le commissaire aux comptes en 2017, Angels1 et Angels2, dans lesquelles ont retrouve tous les amis de la Macronie, n'a en réalité presque plus de titres Qwant et s'en ai débarrassé discrètement a une date inconnue. La valeur du ratio de titre Qwant restant en possession des Angels n'est pas celle évaluée à 4€ mais seulement 0,60€. Dans ces opérations, puisque la CDC a "exercée" ses BSA 2eme partie en 2017, elle n'a pu le faire qu'en Nature illégalement (puisque manquant en trésorerie) et qu'avec des titres racheté sous le manteau aux Angels, amis de la Macronie, qui s'en sont mis plein les poches puisque survalorisés a 70 millions d'euros, et outre Douste Blazy mais aussi le sulfureux Thierry Gaubert qui a eut 150k€ de titres Qwant gratuit, mais aussi des banquiers et même du personnel de la CDC pourtant interdit dans ces opérations, on comprend vite que, comme le révèle Le Monde, la campagne du candidat concerné était bloquée en "panique de trésorerie" en décembre 2016, que le financement de fin de campagne où Fillon était favoris, ce candidat "indélicat" a monté cette opération avec Qwant-CDC-amis complice pour compléter son budget de quelques millions.
Voilà les dernières nouvelles de cette triste affaire, c'est le Livret A qui s'est fait détourné, là les chiffres ne mentent pas et le calcul est enfantin dans le bilan 2017, le trou de 6,2M€ est bien là et il ne peu venir que de la CDC, ce qui en fait un faux document fraudé par le commissaire aux compte (grand cabinet Americain).
Le plus grave, c'est que pendant cette opération, le "Candidat" n'était plus que simple citoyen sans mandat...
Alors on fraude les marchés publics et on trouve toutes les combines illégales pour éviter la faillite on remet au pot sans limite malgré que l'opération a déjà couté 150 millions d'euros en incluant le renflouement de a société Shadow de Klaba...c'est a dire le budget promis par Attal aux agriculteurs et non versé...
Mais tout cela n'est rien face aux 550 milliards d’intérêts de la dette à venir les prochaines année que Marc Touati nous informe sur Sud Radio (https://youtu.be/DPHcCm74K3o?t=405), soit l'équivalent de 2000 hôpitaux flambant neuf (il y en a que 1300 en France), ou 100 porte avions (l n'y en a que 19 dans le monde entier), ou encore la moitié du prix d'une petite maison (42.000€) pour chacun des 39 millions d'actifs, seulement pour ces intérêts de la dette, que se disputent nos créanciers préteurs dont majoritairement BlackRock.
Ou 125.000€ pour chacun des 39 millions d'actifs en tenant compte de la dette+intérêts de 1550 milliards à ce jour (1000 + 550 milliards).
Je vous laisse vérifier tout ça... Bon courage à tous
A suivre...
A oui j'oubliais, le "IndependantGATE", Macron a fait blacklister de la diffusion INSEE la totalité des développeurs indépendants, graphistes, comptable, taxi, avocats, médecins..et auto-entrepreneurs, depuis le 1er janvier 2023, en secret bien sur, 2 millions d'entrepreneurs indépendants (pas les sociétés) dont le nom + adresse + code postal a été remplacé par des [ND] (non diffusible) dans l'open data par une demande du Ministre de l'économie a la CNIL en février 2022 après que tout le monde se soit mobilisé pour aider les petits commerçants a venir sur le net, 6 mois plus tard en cachette on les élimines pour laisser la place aux GAFAM. C'est beaucoup trop dangereux d’être sur les pages jaunes, il faut les protéger ces petits... La CNIL donne sont accord pour ce décret discret et d'apparence anodin (R123-232), mais le gouv se donne une dérogation car le RGPD exclu les données à caractère personnel des entreprises (paragraphe 14 deuxième phrase) et donne la def "entreprises" Art.4.18 du RGPD ; "toute personne morale ou physique, ayant une activité économique, quelque-soit sa forme juridique). ... Pour l'électricité, vous repasserez, impossible de se donner une dérogation, mais pour tuer ou affaiblir 2 millions d'indépendants, même la CNIL est d'accord.
Voir les détails sur la page d’accueil https://www.annuairefrancais.fr .
Le 12/11/2024 à 10h20
Le 12/11/2024 à 16h48
À titre personnel, si c'est désactivable, je désactive. Si on me force à utiliser des LLMs je change d'outil. À voir ce qu'Ecosia permettra.
Le 12/11/2024 à 16h57
Le 12/11/2024 à 22h23
A noter qu’il ne s’agit pas juste d’un LLM qui répond à la question d’après son entraînement mais qui le fait en se basant sur le contenu des pages retournées par la recherche : comme son nom l’indique, il s’agit de résumer les résultats de la recherche et pas d’un nième ChatGPT déguisé en moteur de recherche.
Le 13/11/2024 à 14h09
Modifié le 12/11/2024 à 10h38
Wikipedia
Le 12/11/2024 à 12h29
Des dizaines de millions d'€ ont été dillapidés par ces escrocs, et il reste encore des salariés de cette époque, qui ont tout couvert.
Le 12/11/2024 à 10h39
Résultat, pour les pages anglaises, ou sites étrangers, quand j’utilisais qwant en 2018-19 c’était assez nul. Et puis ensuite j’ai switché sur DuckDuckGo.
Le 12/11/2024 à 10h49
Un LLM, ce n'est pas forcément que pour du génératif, dans le cadre d'un index, ça peux être utilisable pour "vectoriser" le texte en un nombre fixe de valeurs (de l'embedding), rendant plus simple et plus rapide l'accès au contenu et au sens du texte. Il suffit de faire la même chose pour la requête (texte vers vecteur de valeur) et donner ces 2 vecteurs à un 3ieme réseau qui donne un score indiquant la pertinence de la page en fonction de la requête.
Le 12/11/2024 à 13h34
Le 12/11/2024 à 11h13
"Aller dans une direction différente" aussi et donc plutôt que de continuer à faire comme depuis le XXème siècle, il faut penser un moteur de recherche pour le XXIème siècle.
Une nouvelle approche pourrait déjà être de ne plus crawler le Web en permanence pour trouver des contenus frais, c'était raisonnable au XXème siècle, mais cela ne l'est plus au XXIème pour au moins 3 raisons :
1. Ce n'est pas écologiquement responsable.
2. Le nombre de sites Web est devenu astronomique.
3. Impossible d’indexer autre chose que des pages Web ouvertes.
Un moteur de recherche du XXIème siècle devrait constituer son index à partir de données reçues des éditeurs via une API.
En tant qu'éditeur :
1. Je maîtrise alors finement les données que je veux voir indexées que ce soit pour les textes, les images, etc.
2. Je peux caractériser mes données.
3. Mes mises à jour sont immédiatement disponibles dans l’index.
4. Je peux faire indexer les données de mes applications, pas uniquement mes sites Web.
5. L’envoi des données peut être automatisé car le moteur de recherche me donne des plugins pour les différents CMS du marché ou des librairies pour différents langages.
Mais bon je rêve, ils vont faire un copier / coller des autres et se planter, il n'y a plus de volonté en Europe, que du baratin.
Le 12/11/2024 à 11h29
Par contre leur usage est devenu dérisoire de nos jours. Donc en effet, ce pourrait être pertinent que de plus les utiliser et d'automatiser leur exploitation (le bot du moteur irait lire régulièrement celui-ci plutôt que de crawler le web à la recherche de liens, par exemple).
Il y a un tas de technologies des débuts du web qui pourraient revenir sur le devant de la scène, être actualisées à nos besoin modernes, sans avoir à réinventer la roue. Les puissances de calcul de l'époque etc étaient bien moindre, et revenir à plus de sobriété en se basant sur ces techno aurait de nombreux avantages.
Ce qui n'empêche pas de mêler avec des solutions techniques plus récentes, en complément.
Le 12/11/2024 à 11h46
Avec un sitemap basé sur un flux RSS, c'est possible puisqu'on peut mettre du contenu, mais c'est assez limité.
Et encore une fois, l'idée c'est plus de crawler !
Le 12/11/2024 à 12h31
Le 12/11/2024 à 12h59
Modifié le 12/11/2024 à 13h14
Le 12/11/2024 à 14h06
Modifié le 12/11/2024 à 20h18
edit: suis bête, 1er semestre 2021, donc c'était Hugo Venturini ?
Modifié le 12/11/2024 à 20h20
Le 12/11/2024 à 13h55
En effet, là, tu demandes à tous les sites, même les trucs qui sont de vieux sites faits avec Dreamweaver en 2002, de faire l'effort de mettre en place l'API. Autant te dire qu'à part quelque site d'actu, et celui de la CAF (mais pas celui de l'Élisée, le mec responsable était en vacances, dsl), tout le monde va se torcher le cul avec cette idée. Google, ça marche très bien, ça représente la très très vaste majorité de leur visite. À côté, ton moteur, il ne représente rien, il ne changera rien (à quoi bon, Google fait ce qu'il veut et c'est lui qui est utilisé par tout le monde), et il demande de faire un truc (encore, c'est pas comme si tu étais le premier à demander de faire un truc car "promis, c'est trop cool ce que l'on — sous-entendu "je" — pourra faire après").
Le 12/11/2024 à 14h01
Le 12/11/2024 à 17h26
Je t'ai montré de mon côté qu'il faut :
1. proposer un gain supérieur au coût à la majorité des acteurs. Sauf que la majorité des acteurs, ils vont s'en battre les couilles de ta solution si fort qu'en leur mettant un piezo sur leurs parties, tu produirais assez d'énergie pour alimenter tout Paris. Google, avec son système de crawling, pour eux, ça fonctionne très bien sans même lever un seul doigt.
2. ton modèle n'est pas rétrocompatible avec l'existant. Or, il y a une chiée de site qui n'ont pas vu un dev depuis une dizaine d'années.
3. tu n'es pas le seul à avoir ce genre d'idée de génie. Sauf que si tout le monde doit faire un truc à chacune de ces propositions, on n'en finirait jamais.
Je rajoute à ceci : dans tout projet, considère que tu es et tu seras toujours tout seul. Tout le reste seront juste des utilisateurs qui te diront que c'est cool ce que tu fais et qu'il souhaite que tu continues. Mais ne compte pas sur eux pour t'aider, ils ont bien autre chose à faire.
Tu peux toujours rédiger une RFC si tu veux.
Le 12/11/2024 à 17h44
Google c'est super, c'est les plus forts, il ne faut rien changer et ne rien faire contre eux. Pas de disruption, courbons l'échine devant le maître !
Le 12/11/2024 à 18h04
- google se débrouille "très bien" sans rien demander aux hébergeurs/admins/[insérer le poste le plus adapté] des sites existants
- comment "forcer" les sites existants à faire quelque chose pour venir s'inscrire dans ce nouvel index, quelle que soit la méthode (par exemple si ce nouveau moteur fourni un module pour un cms, ou une bibliothèque supplémentaire pour le serveur) ça va demander du travail à un admin (ou autre) du site pour que ce soit fonctionnel, or personne va vouloir le faire (ni payer qqn pour le faire), et c'est encore plus compliqué sur les sites qui n'ont pas bougé depuis 10 ans ...
le principe est plutôt louable et serait probablement plus efficace que parcourir toutes les pages comme le fait google, mais aucun site commercial n'acceptera d'avoir des frais supplémentaires pour aider à la construction d'un index qui sera largement minoritaire et rapportera vraisemblablement peu de visiteurs face à un google ultra dominant (et je doute que quiconque fasse de paris sur 10 ans en ce qui concerne le web)
lire ici que la domination de google n'est qu'un constat, et ce qui sera probablement le point de vue du responsable d'un site quelconque, il ne s'agit pas d'un souhait ou de quelque chose que j'approuve (et ce n'est pas non plus ce que j'en conclus des messages de @tazvld )
Le 12/11/2024 à 19h06
Mais sinon :
- Non Google ne se débrouille pas si bien, il a souvent du mal à faire le tri dans une page entre ce qui est à indexer ou pas.
- Google ne peut pas indexer ce qu'il ne peut pas lire. Par exemple, pour un éditeur de site entièrement payant, Google ne peut pas indexer les pages et donc les proposer dans un résultat de recherche ce qui lui fait perdre des clients potentiels. Idem avec le contenu d'une application mobile.
- Les éditeurs payent des spécialistes en SEO, là ce n'est peut être plus nécessaire. Argent pouvant servir à d'autres choses du coup.
- Pour les vieux sites qui ne bougent plus, il est toujours possible d'aller les crawler un coup sur demande de l'éditeur. Si pas de demande, alors probablement que c'est un site sans intérêt et qui n'a plus sa place dans les résultats d'un moteur de recherche.
- Il n'y a pas à forcer les éditeurs, il faut amener le service en parallèle d'un index obtenu par crawl (location à Bing par exemple), le faire monter en puissance et quand il y a assez de données, alors adieu Bing.
- Pouvoir caractériser les données via l'API permet d'obtenir des résultats de recherche plus pertinents et mis à jour immédiatement. Je pense que c''est là que les éditeurs peuvent voir l'intérêt et éventuellement adhérer.
Le 12/11/2024 à 20h45
J'avais regardé pour le soumettre mais il fallait être le proprio du domaine
Le 12/11/2024 à 21h25
Le 13/11/2024 à 14h56
aucun site qui vend quelque chose ne viendra s'inscrire volontairement dans un index honnête à part probablement les "grandes marques" qui profiteront de l'aura de leur nom
pour l'exemple de google ne pouvant pas indexer le contenu des sites payants, on a eu l'inverse, des journaux qui demandaient des droits d'auteurs (ou similaire), c'est pas eux qui vont venir contribuer à travers une API
de plus, si les pages sont inaccessibles, comment juger de la véracité de ce qui a été fourni par l'api ?
au risque de me répéter, l'idée est louable dans la théorie, mais n'a aucune chance de marcher dans le monde réel, elle dépend trop de la bonne volonté et de l'honnêteté de tout le monde, soit il n'y aura pas assez d'inscriptions car les sites n'y trouveront pas leur intérêt, soit certains "experts SEO" trouveront un moyen d'exploiter quelque chose pour mettre en avant des sites de manière indue, ce qui ne sera pas au bénéfice des internautes
j'aimerai bien avoir tort, mais je suis plutôt pessimiste
Le 13/11/2024 à 15h19
Le 12/11/2024 à 19h24
Le 13/11/2024 à 14h01
Le 13/11/2024 à 14h07
Le 13/11/2024 à 13h42
La France Souveraine numérique est morte depuis avant macron, et ne s'en relèvera jamais.. .La Chine et quelques autres pays sont dans une situation différente, mais en france la plupart des non geeks jurent que par les gafam... leur choix, nous est imposé.
Le 13/11/2024 à 14h06
L'idée est bonne, mais sa mise en pratique catastrophique : en fonctionne pas sans JS, design repoussoir, etc.
Le 12/11/2024 à 12h14
Le 12/11/2024 à 13h02
Parce que si c'est pour planter des allumettes et avoir des bois/forêts mono-essence...
Le 12/11/2024 à 13h59
J'en peux plus de ces marketoconneries qui veulent laver plus vert que vert.
Comme l'agglo de Bordeaux qui s'est auto-fixé pour objectif de planter 1 million d'arbres.
Pourquoi, comment, on s'en fout, l'essentiel est de pouvoir faire une belle couv' du magazine envoyé à des centaines de milliers d'exemplaires (et dont le papier provient... d'arbres qu'on a coupé).
Le 12/11/2024 à 14h19
Le 12/11/2024 à 14h34
Modifié le 12/11/2024 à 20h02
Pour le reste, je suppose que tu sais utiliser un moteur de recherche (par exemple ecosia). Ils ont aussi une chaîne youtube, tu peux aller voir.
Le 12/11/2024 à 12h28
Ce qu'explique Qwant via Léandri depuis 2013.
"Interrogé par TechCrunch sur le sujet, Olivier Abecassis reconnait qu’il « y a probablement des raccourcis pour construire une telle technologie en copiant les principaux acteurs. Nous avons décidé d’aller dans une direction différente et de tout construire à partir de zéro. C’est plus difficile, mais nous pensons que c’est plus durable »."
Ah donc c'est possible ?
... Des escrocs.
ça fait 10 ans qu'ils nous font le mêmeg coup et là subitement en un an ils ont développés un moteur sur 300 à 500 millions de pages ?
Pour rappel, Frederic Luddeni disait déjà en 2016 avoir un puissance de crawling de 1 milliard de pages sur 1 mois.
(ce n'était que du crawling, pas d'indexation à côté).
[Petit précis de l’escroquerie Qwant
Le 12/11/2024 à 15h02
Les gens risquent de te masquer alors que t'as parfois des réponses sympa, c'est bête
Modifié le 12/11/2024 à 17h06
Tu connais ma situation actuelle ?
Tu sais ce que vaut un tel tweet aux prud'hommes ?
Twitter
Le 12/11/2024 à 17h15
Mais revenir non stop avec ça ne va pas faire évoluer en bien ta situation (pro, perso etc) en plus de soûler les gens.
C'est bête car tu dois quand même être une personne intéressante
Modifié le 12/11/2024 à 19h01
Aussi des gens ont cliqué donc c'est que ça doit intéresser.
Il faut rappeler que Qwant en 2016 disait qu'il était impossible de créer un moteur "from scratch", "techniquement impossible" :
https://www.notion.so/Qwant-petit-pr-cis-d-une-escroquerie-en-bande-organis-e-98300251bfeb44c49720025a15206e90?pvs=4#804938b57fc34102ad6164b11973b6f3
Et que je me suis fait harceler, dénigrer, etc., sans que personne n'ait pris ma défense à aucun moment.
Le 12/11/2024 à 14h40
Et pourtant j’étais enthousiaste pendant un bon moment.
Le 12/11/2024 à 16h40
1. C'était contre espèces sonnantes et trébuchantes ?
2. C'était contre un échange d'un identifiant unique traçant l'utilisateur ? (duck disait que non)
3. Pour la gloire, de toute façon les autres moteurs sont trop petits pour leur faire de l'ombre ?
Le 12/11/2024 à 16h50
- créer une dépendance des acteurs à soi-même
- avoir une plus grande emprise sur les recherches, éventuellement pour mieux pouvoir placer ses propres produits
- éviter de trop se faire taper dessus pour abus de position dominante.
Le 13/11/2024 à 12h25
Il reste à espérer que la gestion de ce projet se fasse dans le bon ordre.
En tout cas, je garde un œil attentif sur ce projet.
Modifié le 13/11/2024 à 13h38
Next
Next
https://www.webrankinfo.com/forum/t/rachat-de-qwant.201032/post-1628547
https://effisyn-sds.com/wp-content/uploads/2022/04/QWANT-MACRON-SCANDALE-DETAT-UNE-SOCIETE-MAFIEUSE-LEGALE.pdf
qwant est à la recherche ce que dailym est à la vidéo.. no comment
on aurait préféré les voir sur un autre pavillon que tricolore. Oh non, ils ont même buté xilopix, espèce d'enfré!
Personnellement impossible de le recommander à quiconque. Searx est un bon relais, sinon y'aura toujours aut'chose. Les fondateurs de lilo.org doivent bien en rire.