votre avatar Abonné

Furanku

est avec nous depuis le 9 mai 2007 ❤️

1809 commentaires

Le 12/08/2019 à 12h 34


Salamandar a dit:


Ça se voit que tu n’as jamais fait de physique :DLe phénomène bien connu de diffraction des ondes apparaît lorsque un objet physique a une dimension comparable à la longueur d’onde. Et la lumière est bien plus proche d’une onde que de ce qu’on appelle un photon.http://www.thestargarden.co.uk/Images/Reflection-diffraction.jpg


Disons que mon niveau de physique (appliquée) s’arrête en BAC+2 et qu’on n’a pas abordé ce type de sujet, d’où mon interrogation :transpi:



Mais je me rends compte que je connaissais ce soucis physique, pour avoir vu son explication dans divers documentaires, mais pas son nom. Comme quoi la science, on croit savoir jusqu’à se rendre compte que l’on ne sait pas.



Merci pour ces détails :)

Le 12/08/2019 à 11h 51


Optrolight a dit:


Pixel de 800nm, on arrive à la dimension des longueurs d’onde dans le visible. Bref avec la diffraction la qualité d’image ne va pas s’améliorer. Sans parler en basse lumière où on voit qu’ils sont obligés de faire du bining.


Je n’ai pas saisis le lien entre longueur d’onde et largeur de pixel :/



Dans le premier cas il s’agit d’une longueur de fréquence, pas d’une taille (ou alors un photon est plus gros que ce que j’imaginais). Donc on pourrait encore descendre les pixels plus bas pour plus de précision, les deux n’ont aucun lien.



Mais il est évident que plus on descend bas, plus de problèmes se posent pour gérer la diffraction et autres interférences physiques. Ce qu’ils compensent par des algorithmes plus ou moins efficaces en aval.



Après je ne suis pas un expert mais ta remarque me laisse perplexe :transpi:

Le 09/08/2019 à 09h 26

+100



Ces théories complotistes fumeuses sont fatigantes… Surtout que je ne vois pas quel intérêt aurait NXI à détruire Qwant. Encore plus à la vue des rapports cordiaux qu’ils semblent pourtant au contraire entretenir avec eux (du moins avec Nitot), ce malgré les critiques qu’ils peuvent/ont pu faire à leur égard.



Les journalistes font leur boulot : informer.

Et dans le cas présent l’actualité autour de Qwant, les récentes décisions prises et déclarations, fait que l’entreprise est sous le feu des projecteurs et ce type d’info s’enchaînent (et il est important que certaines de ces infos fassent surface dans un tel contexte).

Quoi de suspect là-dedans ?



Perso j’ai toujours eu des doutes sur Qwant, entre les discours de façade et ce qu’il en est réellement. Je leur ai pourtant donné plusieurs fois une chance, sans succès face à ce que j’attends d’un moteur de recherche digne de ce nom.

Et là, les récentes actu à leur égard ne fait que me conforter dans mon point de vue à leur sujet. Du moins contre une partie de l’équipe dirigeante.



Maintenant j’attends de voir ce que l’entreprise, et plus particulièrement Léandri, vont répondre à tout cela. Ce sera certainement très informatif… et possiblement encore un peu dans la langue de bois…

Le 09/08/2019 à 07h 13







Nightlight a écrit :



A la différence d’autre, elle est détenu à hauteur de  20% par la Caisse des dépôts et Consignations.





Merci <img data-src=" />



Et je rajouterais les intrications politiques avec Qwant, de par sa nature même (moteur de recherche “souverain”, “européen”, etc). Ce n’est pas une entreprise privée lambda qui profite seulement de subventions ou quelques niches fiscales. Donc que ce type d’info fasse surface et soit traitée par les journaliste me paraît tout à fait normal, encore plus par de la presse spécialisée comme NXI.

Le but n’étant pas de dénigrer mais d’informer, et surtout donner la possibilité aux différents acteurs de s’exprimer par la suite (ce qui a toujours été le cas ici, comme on l’a encore vu avec l’article précédent, sauf quand ces mêmes acteurs décident de ne pas le faire).



Alors tous ces procès d’intention envers NXI, franchement…


Le 08/08/2019 à 15h 51

Je ne comprends pas la polémique ici…



@manhack fait son boulot de journaliste. Surtout : il ne fait que traiter un papier déjà publié par le Canard et qui fera le tour de la presse spécialisée (sauf si Qwant arrive à amortir cela). Il met de plus cela en lien avec le précédent article, ce qui appuie certains faits et met aussi le doigt sur les questions de management.

Pour une entreprises bénéficiant de subventions publiques il est aussi important, en tant qu citoyen, que l’on sache comment celles-ci sont utilisées. Il s’agit indirectement de nos impôts.



Après que cela fasse tiquer certains vis-à-vis du rythme de publication, avec deux articles qui s’enchaînent, je peux le comprendre. Mais vous cherchez pas la bête un peu en accusant NXi de vouloir décrédibiliser Qwant ? Sérieusement, on est sur un site spécialisé non ? Donc normal que ce type d’info remonte, surtout quand il s’agit d’un moteur de recherche tel que Qwant et sa portée.



Cela fait déjà quelques mois que Qwant traverse une mauvaise passe et ce n’est pas la faute de NXi à ce que je sache. Mieux : ils ont même donné à Nitot la possibilité de s’exprimer à de multiples reprises. Et Leandri fait des retours en conséquence sur Twitter.



Franchement certains d’entre vous partent loin…

Le 07/08/2019 à 08h 02

De la servitude moderne quoi…

Le 16/07/2019 à 15h 42

Simple curiosité, parce que je me renseigne dessus depuis quelques jours à peine : ça donne quoi dux Proxmox pour un home server ?



Je m’explique : je viens d’acheter un bien et je compte, en plus de mettre à jour la partie communication en Grade 3 TV (donc tirer le câble qui va bien dans la maison avec les prises associées), me monter une baie de brassage avec un serveur qui gérera une multitude de choses : NAS, DNS, proxy, serveur mail, Domotique…



Je commence à être pas mal à l’aise avec tout ce qui touche à la containerisation sous Docker, et je vois que Proxmox permet lui aussi de créer des containers sous LXC. Et comme je pensais justement avoir un hyperviseur sur le serveur pour gérer mes containers…
Mais j’avoue ne pas tout saisir et ne pas être sûr que ce soit forcément le plus adapté pour du @home.



Je ne voudrais pas donner du lard à un cochon comme on dit :transpi:

Le 16/07/2019 à 09h 13

Plus ça va, plus je me dis que Free “n’a rien compris”…

Cette box aurait pu être un souffle nouveau sur le marché et au final… Sans parler de la qualité de leur réseau, hormis en centre urbain (merci la fibre), qui s’est gravement détérioré. Et on ne parlera pas de leur service client.



C’est une traversée du désert pour Free depuis quelques années maintenant, même si les chiffres se maintiennent à peu près grâce à la consolidation du secteur et les promos récurrentes. Mais le seul discours marketing ne suffit plus pour se placer comme le FAI “trublion”.

Le 04/07/2019 à 11h 39







Obidoub a écrit :



Pour autant on ne rend pas les utilisateurs plus bêtes, il y a un potentiel de bidouille énorme (suffit d’apprendre à développer).





Voilà, tu as tout dit <img data-src=" />



Combien de “développeurs” à notre époque, qui ont suivi une formation accélérée et sont ensuite lâchés en entreprise pour pisser du code… avec tous les méfaits que cela engendre. Les formations manquent cruellement de culture générale sur l’informatique et sur la technicité. On forme majoritairement des pisseurs de code plus que des techniciens/ingénieurs…



Je ne conçois pas qu’un développeur ne soit pas, quelque part, un architecte logiciel, capable d’avoir une réflexion globale sur le code qu’il produit et son intrication avec le reste. Ils sont trop nombreux à dire “l’important c’est que ça fonctionne”. Oui, mais à quel prix ? Ça ce n’est que le premier niveau de développement, ensuite il faut incrémenter et factoriser, optimiser, etc.



On dirait que dans le métier “d’analyste programmeur” le mot “analyste” est passé à la trappe…









TheKillerOfComputer a écrit :



Je n’ai pas dit que ta position n’était pas bonne, je la soutiens.





Mea culpa <img data-src=" />


Le 04/07/2019 à 08h 17







TheKillerOfComputer a écrit :



Le dev n’a pas à optimiser son code pour tourner avec le moins de puissance possible, mais à faire en sorte que l’application fonctionne avec la majorité des machines en service aujourd’hui.





Faux. Du moins selon le point de vue que tu abordes.

Si tu es pour la débauche matérielle pour faire qu’un simple “Hello World!” puisse s’afficher, en effet.

Si tu es contre et que tu te dis que le code doit laisser une empreinte la plus petite possible, pour au passage tourner sur le plus grand nombre de machines possibles, alors le dev doit optimiser son code.



Et perso je suis dans cette seconde optique.

Je ne l’étais pas forcément au début de ma carrière de dev. Mais mon expérience et les projets sur lesquels j’ai bossé depuis, plus la veille que j’effectue, m’ont fait prendre conscience de cet effet de surenchère et de débauche, avec un code qui consomme toujours plus pour arriver à un même résultat qu’il y a 10 ans ou plus.



Tout cela sous prétexte de faciliter le dev (ce qui n’est pas toujours vrai et reste tout relatif), et surtout réduire les coûts… donc du business avant tout.

Pas pour faciliter la vie de l’utilisateur.


Le 03/07/2019 à 12h 29

Pas compris ta réaction (oui je ne sais pas le sens de l’image) :)



Sans parler d’obsolescence, on est surtout dans une fuite en avant technologique. On a du matériel avec des capacités énormes mais le code, lui, devient de plus en plus crade et non-optimisé.

Quand je vois ce que l’on arrivait à faire il y a 20 ans avec du matériel limité, ou encore ceux que peuvent faire certains (comme le scène démo), je me dis qu’il y a là des questions à se poser sur comment on conçoit les logiciels à notre époque et les contraintes que l’on impose aux développeurs.



Je le vois tous au quotidien dans le développement web. Et dès que j’essaie de le faire comprendre autour de moi on me répond “on verra plus tard” ou encore “ça fonctionne ? Laisse alors. Si c’est pour gagner quelques ms/ko ça sert à rien” (sauf que “quelques” part ci par là, au final…).

Il faut aller toujours plus vite, donc on sort des outils qui permettent cela, et tant pis si la consommation en ressources augmente exponentiellement par manque d’optimisation du code, et donc augmente in fine l’impact énergétique/écologique.

Le 03/07/2019 à 09h 14

Je partage l’inquiétude autour de Snap.



L’idée de départ était bonne et facilitait le travail des développeurs, le temps de pouvoir sortir des paquets dédiés aux différentes distrib.

Mais là son usage, qui plus est étendu par Canonical qui le met particulièrement en avant, est de plus en plus fourvoyé et pousse les développeurs à ne faire aucun effort sous prétexte de faire du multi-distrib…



Surtout qu’un snap reste largement plus consommateur de ressources et d’espace qu’un paquet dédié, (plus ou moins) optimisé pour la distribution sur laquelle il va tourner. Aucun système de dépendance etc.

Ça n’a aucun sens d’en promouvoir l’usage pour remplacer les paquets.



Ça me fait penser à tous ces outils (npm, etc) que l’on a en dev web et qui font que les sites/appli font ensuite un poids considérable, donc qui consomment toujours plus de ressources, sous prétexte de faciliter la vie du dev… Alors que le job d’un dev c’est aussi d’optimiser son code et faire en sorte qu’il consomme le moins possible.



Cette dérive est inquiétante je trouve (et illustre une perte de compétences quelques part). Surtout à une époque où l’on devrait réduire la consommation du code à des fins environnementales/énergétiques.

Le 28/06/2019 à 11h 46


dylem29 a dit:


Miam miam la batterie avec une durée de vie de 6 mois. :D


Je me suis fait la même réflexion :D

Le 28/06/2019 à 09h 53

Merci pour l’info :)

Le 28/06/2019 à 08h 45

Du coup ils ont maintenant deux moteurs à maintenir : un pour le desktop et un pour le mobile ?

Si oui pourquoi ne pas avoir unifié tout ça ?



J’ai pas tout compris/suivi :/

Le 27/06/2019 à 10h 12







Angelblue a écrit :



Petite question. Si demain Ovh (ou un autre acteur EU) arrive a faire ce que demande Qwant, Qwant quittera t’il Microsoft Azure?





Il y a de grandes chances, s’ils sont sincères, pour appuyer leur discours sur la souveraineté et lier les paroles aux actes.

Mais ça reste à confirmer quand l’occasion se présentera :)







Angelblue a écrit :



Aussi ( et loin de moi de vouloir critiquer Qwant, sait juste une question) je me suis toujours demandé si Qwant est vraiment indépendant avec le gouvernement. Car on voit assez souvent Qwant et LREM ensemble. Et connaissant les dernières lois passées par Macron, J’avoue que cela m’inquiète un peu.





Leur métier et leur position ne permet pas de fermer la porte à un gouvernement, que l’on soit d’accord avec ou pas. Quand bien même tu peux être critique à son encontre, il y a des éléments qui font que le dialogue doit être maintenu.

Ensuite, à titre personnel, il est possible que certains employés ou cadres de Qwant aient des liens avec LREM. Mais honnêtement je ne pense pas que cela influe sur l’entreprise elle-même. En tout cas ça n’en a pas l’air.


Le 27/06/2019 à 08h 57







Balooforever a écrit :



Il tape pratiquement à côté à chaque fois et j’ai souvent du “aucun résultat pour cette recherche”…





Pareil et c’est ce qui m’a valut de revenir sur DuckDuckGo. Même en précisant un peu plus ma recherche je tombe souvent sur cette page… Alors oui c’est vrai, ce sont des recherches techniques spécifiques. Mais tout de même.



Je note toutefois des progrès et, avec le recul, je comprends aussi leur passage sur Azure pour la partie indexation. Si cela permet d’avoir des résultats plus fournis et pertinents, pourquoi pas.

Après je reste encore méfiant vis-à-vis des discours de façades et de certaines prises de position (sur la Directive entre autre). Même si je pense que tout cela est dû à une communication encore immature de leur part et encore trop souvent hasardeuse.



Je vais suivre leur blog technique. On verra ce qu’il en ressort et si je changerais à nouveau d’avis à leur sujet :)


Le 25/06/2019 à 08h 00


Soltek a dit:


C’est un i5-8250U, j’ai essayé plusieurs .mkv 2160p HDR H265 avec VLC, au début des vidéos de plus de 50Go avec 55-65 MB/s de flux vidéo et ensuite des plus “lights” d’une 15aine de Go pour plus de 2h de film de vacances (14-15MB/s de flux vidéo), c’est pas mieux.Si je prends une vidéo du même poids pour à peu près la même durée mais en 1080p H264, donc avec 15MB/s de flux vidéo aussi, là par contre ça passe nickel…Quand c’est la TV qui essai de lire directement à partir du réseau c’est le même problème (à partir d’une clé ou HDD elle ne peut tout simplement pas). Le desktop (i5-2500K O/C) relié en HDMI fait comme le laptop (alors qu’un jeu fonctionne bien en 4K).


J’ai un i3 8100 et aucun soucis pour lire du H265 (et ce peu importe le débit, même en 2160p) :/



Je n’ai d’ailleurs aucune carte graphique, donc le décodage matériel se fait bien par le CPU.



Par contre pour la lecture sur la TV en passant par le réseau, ça va dépendre des vidéos. Mais le problème vient plus du réseau que du PC (canaux Wifi surchargés dans mon bâtiment).



Du coup je ne comprends pas que tu ne puisses pas lire de H265 avec un i5 de la même génération… ça devrait passer sans soucis.



Par contre je pense que tu peux d’office oublier avec ton 2500K. Pour un jeu c’est le GPU qui va faire les calculs nécessaires. Mais pour la vidéo c’est ton CPU, sauf si tu spécifies de faire du décodage matériel par ta CG (si elle le peut).

Le 24/06/2019 à 12h 41


Soltek a dit:


Je vois du décodage 4K mais ça va vraiment passer ? Même une grosse TV Android ou mon (vieux) desktop (2500K et 970) n’arrive pas à lire des vidéos 4K sans d’énormes sacades qui rendent la lecture impossible.


Dans les cas que tu cites le décodage doit se faire au niveau soft.
Là on parle d’un décodage matériel ;)

Le 24/06/2019 à 10h 27

Il ne manque qu’une chose à mes yeux tout de même : un port mini PCIe :D



Après le SoC faut que je regarde les bench ce qu’il vaut. Ou attendre les tests.

Le 24/06/2019 à 10h 23

Une belle évolution, il était temps !
Ça va permettre d’étendre l’usage du RPi et d’avoir une carte suivie, plutôt que de devoir se pencher sur des alternatives dont le suivi soft est bancal.



A voir les tests ce que ça va donner, il risque d’y avoir quelques déceptions sur certains points. Mais l’évolution est notable et intéressante !
Je lui vois déjà quelques usages réservés :)

Le 24/06/2019 à 16h 02

On voit là toute la nécessité de forcer la libération du code des pilotes après un certain temps “d’abandon” par les constructeurs, afin que la maintenance soit reprise par la communauté et que le matériel puisse continuer à être utilisé.



Pour en revenir au sujet je ne pensais pas que cette décision aurait un tel impact, vu la faible représentativité du 32 bits de nos jours. Je pensais que tout cela pouvait être émulé sans trop de problèmes.

Le 24/06/2019 à 10h 34

Demain : relèvement des frais de douane contre le Royaume-Uni par Trump <img data-src=" />

Le 21/06/2019 à 11h 25

J’ai quand même du mal à suivre, du peu que je lis à leur sujet, où LDLC veut aller…

Les objectifs ne semblent jamais clairement définis, les synergies ils en parlent à chaque fois mais on ne les voit pas vraiment… du coup leur situation financière ne me semble être que le reflet de leurs choix indécis et leur manque de stratégie claire à moyen/long terme :/

Le 20/06/2019 à 10h 55

Pas faux !

Mais je ne pense pas que ça ait fait beaucoup de mal à Netflix pour le coup. Je serais curieux d’ailleurs de connaître les chiffres concernant le temps de visionnage sur chacun :)

Le 20/06/2019 à 09h 39

En attendant que leurs offrent ne soient sur le marché, ils sont en situation de monopole :)

Reste que je ne comprends non plus la logique derrière ces augmentations face à cette concurrence à venir justement.

Le 20/06/2019 à 08h 54

Oh quelle surprise !

La même politique de conquête qu’Amazon : des années à un prix bas, voire à perte, afin d’écraser toute concurrence. Et une fois que l’on a le monopole… on augmente ses tarifs.



Sans compter que la concurrence à venir doit les inquiéter. Mais pas sûr que la hausse de prix soit une solution…

Le 18/06/2019 à 08h 34

Le captcha n’a pas empêché certains de faire des scripts d’extraction pour montrer que l’exploitation de cette liste par une personne extérieure est possible.



Edit : oups ! Lu en diagonale, c’est précisé !

Le 17/06/2019 à 11h 26

Oui mais non. Là je pense ne jamais avoir vu un tel niveau de bullshit alors que j’en ai fais des entreprises avec un management en mode presse-citron…

Le 17/06/2019 à 09h 06

Ces voleurs m’avaient envoyé une proposition d’embauche en tant que développeur.

Après m’être renseigné j’ai gentiment refusé leur offre. Impossible de bosser pour de telles boites (une licorne qui plus est) quand on a un minimum de principes et d’intégrité. Pourtant le salaire était alléchant, mais le turn-over est énorme…. et ça dit ensuite s’appuyer autant sur le business que sur l’humain…

Je ne compte même plus le nombre d’appels reçus aussi pour souscrire à une de leur assurance. J’espère que mes signalements pour spam auront servi.



J’espère que cela servira de leçon au dirigeant qui a bâti sa fortune en étant à la limite de l’escroquerie et se fait passer pour un entrepreneur de génie.

Le 14/06/2019 à 08h 42

Perso je m’interroge toujours sur l’utilité d’une telle fonctionnalité sur un robot de cuisine… et sur la tendance du “tout connecté” en général alors que les systèmes sont très loin d’offrir un niveau de sécurité suffisant pour cela.

Le 14/06/2019 à 07h 28

L’UX du formulaire est déplorable pour une personne lambda.

Ici on a tous un oeil soit de techos soit de personne avertie. On n’est pas objectif concernant la facilité d’accès d’un tel formulaire (pour moi rien de compliqué non plus, même si je suis critique). Mais quand il s’agit de consulter le plus grand nombre, l’UX doit permettre cela. Hors là ce n’est pas le cas.



Soyons honnêtes : ce formulaire a été pensé pour un usage bureaucratique. Pas pour un usage par Mme Michou… Et le rétropédalage de l’Intérieur qui annonce qu’ils vont ajouter des vidéos explicatives le démontre assez bien.



On passera le fait que l’anonymat n’est pas préservé, puisque les noms des signataires diffusés publiquement, que la CNIL n’a pas validé la plateforme (alors qu’elle date de 2014), que celle-ci a couté 375.000€ à l’époque (pour une UX bien en-deçà de ce qui se faisait déjà), etc.

Le 13/06/2019 à 15h 23

Dommage de ne pas avoir mis l’article librement accessible vu le sujet et la complexité rencontrée pour remplir le formulaire.

Toutes ces infos sont d’une utilité publique amha, je l’aurais bien largement partagé :)

Le 12/06/2019 à 13h 37

Testé avec mon R7000P, durant l’offre d’essai, et j’avoue ne pas très bien en avoir saisi l’utilité…
Je vois plus ça comme un argument marketing plus que comme une réelle plus-value. A la limite Circle with Disney est plus pertinent.

Le 12/06/2019 à 12h 56

Tu as parlé de symbolique avant de me citer ? Ah bon… parce que je ne t’ai vu me citer que pour mépriser mon propos :)

Mais pas grave, je commence à avoir l’habitude venant de toi <img data-src=" />

Le 12/06/2019 à 11h 24

Je parle de symbolique.

Désolé pour toi si tu ne saisis pas cela :)



Par contre la prochaine fois tu peux garder pour toi ton ton dédaigneux hein.

Le 10/06/2019 à 09h 58

Le message envoyé est fort : les riches ne sont pas concernés par l’écologie, seul le bas peuple doit l’être (quitte à ne plus prendre l’avion).

Gaspiller autant de ressources, matérielles comme humaines, en cédant aux caprices d’une classe privilégiée pour tenter de grappiller quelques miettes… c’est juste antinomique avec les enjeux actuels.



La preuve de plus que le budget de la NASA, et de la Recherche en général dans le monde, doit être augmentée pour éviter ce type de dérive.

Le 11/06/2019 à 16h 02

Bah non : le cœur (le navigateur) reste gratuit. Le reste ne sont que des services annexes, donc non indispensables bien que pratiques (Pocket, etc). Pour le moment ça semble partir sur cette voie.



Je ne vois pas Mozilla intégrer du Premium dans son navigateur. Ce serait se tirer une balle dans le pied.

Le 11/06/2019 à 13h 32

Merci.

Je voulais répondre la même chose, mais la flemme… <img data-src=" />

Le 11/06/2019 à 09h 33

Pardon, erreur de ma part. Je pensais bien à Blink et pas Webkit <img data-src=" />

Le 11/06/2019 à 08h 29

Si cela leur permet de se détacher un peu plus de Google en terme de revenus, pourquoi pas.

A voir quels seront les services proposés, le prix et les garanties derrière.



Par contre ça risque de ternir leur image, ce qui est malheureux surtout face à la situation monopolistique de Google (via Webkit, donc Chrome). J’espère qu’ils vont soigner leur communication sur le sujet, que ce ne soit pas mal interprété - comme trop souvent - au risque de faire fuir des utilisateurs dans les griffes de Google…

Le 11/06/2019 à 07h 04

Franchement je suis hésitant avec ces CPU.
Pour un home server hyperconvergé (qui fera office de NAS mais aussi de serveur domotique et dev (git, docker, …), voire DNS etc à terme) je me demande si ça va suffire…
Je dirais que oui vu que ce ne sera pas non plus pour un usage “hyper” intensif. Mais j’hésite encore entre cette série et un Ryzen 5 standard (pas de Xeon ou autre Intel pour moi), n’ayant pas forcément besoin de la partie graphique.
Sachant que la machine ne sera pas montée pour avant la fin de l’année dans tous les cas.



La partie graphique supporte le décodage h265 ? J’imagine que oui :)

Le 07/06/2019 à 08h 52

De l’intérêt de plus en plus flagrant de solutions comme PeerTube <img data-src=" />

Le 05/06/2019 à 12h 47

#greenwashing

Le 05/06/2019 à 09h 43







jb18v a écrit :



donc retirée ou juste bloquée par localisation ? parce qu’un coup de VPN et zou <img data-src=" />





Sinon : Captvty <img data-src=" />







Zerdligham a écrit :









Le rapport c’est que la directive accentue les mesures prises pour protéger les droits d’auteur (enfin, protéger le parasitage d’une minorité sous couvert de droit d’auteur) et alourdit les sanctions.

Là où ce type de filtrage existait certes déjà, ils seront maintenant bien plus nombreux vu que le périmètre d’application a été élargi par la directive, augmentant le risque d’avoir du filtrage abusif et contre lesquels les recours sont encore plus difficiles.

Du moins c’est ce que j’ai compris de cette usine à gaz…







anagrys a écrit :









Il y a de grandes chances en effet que ça se passe de la sorte.

Mais je préfère rester optimiste <img data-src=" />


Le 05/06/2019 à 09h 02

On commence déjà à voir les méfaits et dommages collatéraux de la directive. C’est pitoyable… :)

Mais ça réveillera peut-être certaines consciences et mobilisera un peu plus à l’avenir.

Le 05/06/2019 à 09h 07

Comme pour les captcha de Google : ils améliorent leurs IA (enfin, plutôt leurs système automatisés basés sur l’apprentissage) à moindre coût et pour leurs intérêts.

De plus quid des conditions d’utilisation ? Comme Google Maps : des années gratuit ou à moindre coût, puis une fois la concurrence écrasée on met en place une grille tarifaire ? Et alors peu de choix puisque Google se trouve en situation de monopole…



Quand ces entreprises comprendront qu’elles devraient s’unir pour faire émerger des solutions techniques partagées, et pourquoi pas Libre, plutôt que de dépendre de la sorte d’une multinationale comme Google (qui peut souffler le chaud et le froid ensuite), elles auront fait un grand pas dans la compréhension de la réalité du monde numérique et de ses enjeux…

Le 04/06/2019 à 14h 03

C’est pourquoi, après réflexion, je suis quelque peu revenu sur mes propos ;)



Je ne suis pas un expert réseau/système (même si j’ai des connaissances avec mon profil dev fullstack). Donc en soit je pense que le choix a été fait après avoir étudié le marché, les coûts, etc, et qu’il doit se justifier.

Mais on a là, selon moi, encore un soucis avec la communication autour de ces choix. Un peu, comme je disais plus haut, avec le cas de Qwant et Microsoft : la décision se défend mais la communication autour éclipse totalement les raisons qui ont poussé à cela.



C’est bien de promouvoir la souveraineté, etc. Mais dans un contexte de rigueur budgétaire je trouve quelque part normal que ce type de décision, telle qu’exposée, soit mal interprétée. Ce alors même qu’elle peut se défendre complètement.

Je ne sais pas si tu vois où je veux en venir…



Reste que je trouve cet éclatement pas très pertinent à long terme mais ça reste mieux que de passer par un prestataire étranger. Je trouverais par contre pertinent que l’Etat fournisse des solutions techniques pour les communes et administrations. Des datacenters publiques en gros, qui éviteraient d’avoir des solutions éclatées (certaines passant par leur propre structure d’autres par des presta), enverrait un message fort sur la souveraineté, avec des moyens plus conséquents, etc.

Ce n’est pas normal qu’une commune en vienne à monter son propre datacenter… Mais ça reste un avis personnel :)

Le 01/06/2019 à 15h 49

Je parle d’OVH parce que ce sont les plus connus. Mais il y a d’autres prestataires en France que eux, et je reste surpris qu’aucun ne puisse répondre à l’appel d’offre public…



Après je parle avec un oeil extérieur de non expert, avec les éléments de communication donnés.

Autant le choix présent se justifie. Mais en l’état ça passe surtout pour un choix pris sur des arguments plus marketing qu’autre chose.



Ça sent les mêmes erreurs de communication qu’avec Qwant pour Microsoft.

Le 04/06/2019 à 08h 16

Je ne sais pas pourquoi mais je sens que cette fusion, bien que bénéfique dans le fond pour simplifier l’accès aux aides, me laisse méfiant. Du moins avec le gouvernement actuel.

J’espère me tromper mais je sens qu’il y a anguille sous roche et que cette simplification est surtout mise en place pour pouvoir plus aisément jouer sur les montants alloués par la suite, plus que pour faciliter l’accès aux aides (qui ne sert que de prétexte à mes yeux vu la politique menée) :/