votre avatar

SartMatt

est avec nous depuis le 31 octobre 2003 ❤️

349 commentaires

Le 06/10/2022 à 12h 53

Ne serait-il pas plus judicieux de faire un effacement via un outil comme DBAN ?



Je ne pense pas qu’il soit nécessaire pour un particulier de vouloir palier à une récupération des données via MFM. S’agissant toujours d’un ratio d’investissement/valeur pour l’accès aux données, je doute qu’une analyse avec un microscope ultra spécifique soit un vecteur sérieux.



Mais si vous avez un élément de réponse au pourquoi destruction physique, ce serait volontiers.

+1. En fait une simple réécriture à zero est déjà suffisante pour mettre en échec toutes les solutions de récupération purement logicielles, mais aussi bon nombre de sociétés spécialisées dans la récupération de données sur des disques physiquement endommagés, qui d’ailleurs pour la plupart n’essayeront même pas si on leur dit qu’on est certain que les données ont été réécrites.



Le coût d’une tentative de récupération (sans garantie de résultat) sur un disque effacé est tellement élevé que personne ne s’amusera à faire ça sur un disque d’occasion acheté à un particulier lambda.



À l’inverse, quelques coups de perceuse dans le disque, ça n’endommage en fait qu’une petite portion des données, et une société spécialisée arrivera à en récupérer bien plus facilement que sur un disque effacé. Bon cela dit, là aussi, le coût de l’opération fait que pas grand monde ne s’amusera à essayer sur un disque trouvé dans les ordures…



Perso quand je revend un disque, je le rempli simplement au préalable avec des données aléatoires (en créant une partition VeraCrypt sur l’ensemble du disque). Et mes données les plus sensibles sont de toute façon déjà pas stockées en clair sur le disque à la base… Donc chiffrement + réécriture par-dessus, je pense que ça craint vraiment rien. C’est sûr que ça prend du temps (sur un gros disque, ça peut prendre pas loin d’un jour), mais c’est quand même dommage de flinguer bêtement du matériel parfaitement fonctionnel… Et puis c’est pas comme s’il y avait besoin de rester devant pendant toute l’opération sans rien pouvoir faire d’autre, c’est un truc qu’on peut lancer en tâche de fond sans problème.



Et c’est encore plus simple avec SSD, en utilisant la commande secure erase, l’effacement complet est quasi instantané car le mode d’adressage de la mémoire flash permet d’effacer un très grand nombre de blocs en parallèle.

Le 18/09/2021 à 00h 10

En ces temps de pénurie, c’est un cadeau intéressant :-)

Le 28/06/2021 à 15h 43


(reply:1882753:skankhunt42 )


Si il tourne “que” sur Windows 98, ben non, il tourne pas sur W10 :D



Plus sérieusement, oui, il y a pas mal de programmes compilés à l’époque pour Windows 98 qui peuvent tourner sans bug sous W10. Mais pas tous non plus, selon la complexité de l’appli et les API qu’elle utilise, il peut y avoir plus ou moins de problèmes.

Le 18/05/2021 à 14h 11


(quote:57152:N.Master)
Le problème avec le 3.3V et le 5V finalement c’est tout ce qui est périphérique :




  • le cartes PCI-E (75W max d’après la norme)

  • les ports USB (c’est vrai qu’avec l’USB3 ça peut monter à 100W)

  • et les périphériques de stockages (on va dire 10W par disque donc maxi 50W dans l’immense majorité des cas)


Pour le PCI-E, c’est pas non plus 75W sur 3.3/5V. C’est 9.9W en 3.3V, quelque soit la carte, et ensuite selon la taille ça peut prendre 6 à 66W en 12V (mais en fait maximum 25W au total 3.3 et 12V sont “garantis”, pour aller au-delà faut négocier avec la carte mère).



Pour l’USB, pas sûr qu’il soit alimenté via la ligne 5V… À coup de 5W par port, avec souvent plus d’une dizaine de ports, ça tirerait déjà 50W sur la ligne 5V, dont la limite est souvent trèèèès inférieure à la puissance totale de l’alim (par exemple ma 600W ne peut sortir que 100W en combiné sur les 3.3 et 5V). Et dès qu’il y a de l’USB-C PD pas trop minimaliste, c’est quasi certain que pas pris sur le 5V de l’alim, car vu qu’il faut de toute façon un convertisseur pour gérer la plage de tension autorisée par le PD, autant pas utiliser le 5V en entrée…



Et les disques, quand ils sont à 10W, c’est des 3.5”, donc c’est principalement du 12V (ex avec un WD 4 To que j’ai sous la main, 3W maxi sur le 5V et 5.4W en 12V), seuls les 2.5” se limitent au 5V, mais dépassent aujourd’hui rarement les 2.5W. Mais les disques ne sont de toute façon pas alimentés par la carte mère, à quelques rares exceptions près (j’ai vu ça une fois sur du thin mini-ITX, mais c’est bien tout…).

Le 29/04/2021 à 07h 35


Paraplegix a dit:


Et la semaine dernière Intel qui disait que leur chute de 20% dans leur Data Center Group c’était parce que le marché était pas demandeurs en ce moment parce qu’ils avaient acheter trop de processeurs avant :mdr:


Vue la différence de part de marché, c’est loin d’être incohérent, et la principale cause de la baisse d’Intel est bel et bien une baisse de la demande sur ce secteur : Intel DCG a “perdu” 1.4 milliards de dollars de CA au Q1 2021 par rapport au Q1 2020.



AMD Enterprise, Embedded & Semi-Custom a gagné 1 milliard sur la même période, mais ce gain vient principalement du semi-custom (les consoles donc, c’est sur un trimestre que les consoles baissent, pas sur un an). Donc la progression d’AMD sur entreprises hors semi-custom est de moins de 500M sur un an.



Donc il y a bien eu une baisse globale du marché entreprise (baisse d’au moins 900M pour le x86), et dans les 1.4 milliards de baisse chez Intel, cette baisse du marché est le premier facteur, responsable de 23 de la baisse du CA Intel, la progression d’AMD n’est que le deuxième.

Le 28/04/2021 à 10h 53


David_L a dit:


Un HDD fera toujours du bruit, si tu ne l’entends pas “gratter” c’est que tu es en séquentiel en général.


Jouer sur les réglages de l’AAM peut faire des miracles à ce niveau, et faire disparaître ou presque les grattements.



Bon par contre ça se fait au prix des performances, le bruit est réduit en diminuant la vitesse de déplacement des bras et en lissant un peu plus leurs démarrages/arrêts, donc ça se paye cash sur les temps d’accès, qui sont facilement doublés.



Mais quand on cherche vraiment le silence, quitte à sacrifier les performances, c’est une option à envisager, surtout pour un disque de stockage, sans OS ou applis installés dessus.

Le 23/04/2021 à 13h 26

pareil de mon coté, mix de bash awk python et .exe, c’est vraiment puissant. En particulier générer des document avec latex et les ouvrir avec adobe sous windows, ni vu ni connu, oui je sais que cela existe sous windows mais c’est pas top top. Pouvoir utiliser xfig sous windows :love:



tu aurais le nom de ton petit logiciel qui permet de transformer les PATH ? et ne me dis pas sed :mdr:

C’est la commande wslpath, qui est normalement installée d’office avec wsl (c’était pas le cas au début, mais là sur une install récente je l’ai de base sans avoir eu à l’ajouter).



Et il y a aussi le terminal ConEmu, que j’utilise à la place du terminal classique de Windows, qui convertit automatiquement les chemins Windows vers Linux lorsque tu colles dans le terminal (ça ne marche pas dans l’autre sens par contre, un chemin Linux copié ne sera pas collé en chemin Windows si tu le colles en dehors du terminal).

Le 22/04/2021 à 22h 43


Paraplegix a dit:


Impossible de cohabiter, WSL/WSL2 implique d’activer HyperV, et si tu active HyperV alors virtualbox et consort ne pourront plus fonctionner


Microsoft a mis en place une API qui permet à d’autres logiciels de virtualisation de s’installer par-dessus Hyper-V.



Mais ça ne s’installe pas d’office quand on installe WSL2 ou Hyper-V, il faut l’installer en plus, via “Activer ou désactiver des fonctionnalités”, en cochant “Plateforme de l’hyperviseur Windows”.



C’est supporté dans VirtualBox à partir de la version 6 et VMWare à partir de la 15.5.

Le 22/04/2021 à 22h 33

Avant j’utilisais des solutions plus “légères”, genre MinGW, Gitbash ou encore Cygwin, et même le vénérable SFU, mais maintenant qu’il y a WSL, je trouve ça beaucoup plus “propre” et pratique que ces solutions historiques.

Le 22/04/2021 à 15h 22


Thrim a dit:


Il y a quand même une sacrée différence entre avoir linux dans une VM et via WSL. Les programmes Linux via WSL cohabitent avec le système, ce qui est un grand plus.


+1. En termes d’intégration, c’est totalement incomparable avec une VM. Les applications sont totalement intégrées dans les deux environnements. On peut écrire un script Batch/PowerShell qui va appeler des binaires Linux pour certaines opérations, et inversement, dans un script bash on peut directement intégrer des appels à des exe, y compris dans un enchaînement de commande pipées (genre toto.exe | grep tata | awk ‘{ print $1}’ | titi.exe). Et bien sûr, les applications Linux ont accès à l’intégralité du système de fichier Windows (et y a même un binaire fourni qui permet de convertir les chemin Windows en chemin Linux et inversement, ce qui permet par exemple de passer un chemin renvoyé par une appli Windows en paramètre d’appel d’une appli Linux).



Super pratique quand tu dois faire du scripting avec des applications métier en ligne de commande qui n’existent que sous Windows, mais que tu préfères largement bash comme langage de script (parce que les batch Windows, ça reste assez limité, et PowerShell, c’est une logique très particulière, qui nécessite un certain temps d’adaptation).

Le 15/04/2021 à 13h 51


fry a dit:


sans parler des outils qui ne permettent pas de créer de compte si c’est pas un admin qui le fait.


Ou pire, des outils qui ne permettent toujours pas de gérer plusieurs comptes, et donc rendent hélas indispensable cette mauvaise pratique qu’est le mot de passe partagé…



Sinon, pour le cas où l’admin doit créer le compte, ce qui se fait dans ma boîte c’est qu’il crée un nouveau coffre Keepass, génère le password depuis ce coffre, puis envoie le coffre à l’utilisateur par mail et le mot de passe du coffre par SMS. Ça limite un peu le risque que quelqu’un intercepte le mot de passe. Idéalement ça se ferait même avec des clés publiques/clés privées (on a un outil pour ça en plus), mais trop de gens n’ont pas initialisé leurs clés…



Par contre il reste toujours le problème de l’admin qui peut conserver le mot de passe (mais la méthode utilisée évite déjà qu’il le conserve accidentellement) si l’utilisateur ne le change pas immédiatement.

Le 13/04/2021 à 13h 56

Merci, c’est exactement ça, généralisé à tous les sites plutôt qu’à une liste. Je ne savais pas que ça avait été intégré nativement dans Firefox.

Le 12/04/2021 à 21h 13

C’était plus une question qu’autre chose, mais après en mode bourrin il existe des possibilités de lancer des applis en container de manière à les isoler du reste.



Par exemple cet outil encapsule podman pour exécuter des appli graphiques en container. Moyennant un mappage avec un volume pour conserver les données, je pense qu’il y a moyen de faire ce que tu souhaites.

Ah, il y a incompréhension entre nous là. Je parlais des conteneurs dans Firefox, pas des conteneurs d’applications à la Docker & cie.



C’est une fonctionnalité introduite dans Firefox il y a 3 ou 4 ans je dirais, qui permet d’avoir au sein du navigateur plusieurs conteneurs isolés, avec chacun ses propres cookies. Et on peut configurer que tel site s’ouvre systématiquement dans tel conteneur (par exemple, j’ai un conteneur pour tout ce qui est perso, 3 conteneurs pro pour les 3 boîtes pour qui je travaille, un conteneur e-commerce pour tous les achats en ligne).



Si je visite des sites utilisant Google Ads dans deux conteneurs différents, j’aurais deux jeux de cookies Google Ads distincts, et Google ne saura pas faire le lien entre les deux.



L’idéal pour moi ça serait d’avoir par défaut un conteneur pour chaque site (ou au moins pour chaque site d’une liste configurable), ce qui limiterait grandement les possibilités de tracking, sans pour autant avoir à refuser les cookies.

Le 12/04/2021 à 19h 38

La navigation privée ne suffirait pas ?

La navigation privée, ça n’isole pas les sites entre eux il me semble, et puis surtout, ça efface tout à la fin de la session, donc quand tu reviens sur le site, tu te reprends à chaque fois l’écran d’acceptation des cookies.



Avec les conteneurs, les cookies sont conservés, mais comme tu as un conteneur dédié au site, ça ne permet aucun croisement avec des infos collectées lors de visites d’autres sites.



Cela dit, si tu as une extension pour basculer automatiquement certains sites en navigation privée, ça m’intéresse quand même, j’ai pas trouvé non plus.

Le 12/04/2021 à 18h 35

Y a-t-il une extension Firefox pour permettre d’isoler certains sites dans un conteneur dédié automatiquement ? J’ai un peu cherché, pas trouvé.



On peut déjà le faire avec le système de conteneurs de base, mais c’est fastidieux, puisqu’il faut créer manuellement un conteneur dédié au site (et on a alors vite une liste de conteneurs super longue…), un système automatisé basé sur une liste de sites à isoler serait pas mal.



Ça serait une bonne solution face à ces sites qui “forcent la main” pour l’acceptation des cookies.

Le 12/04/2021 à 18h 29

Plutôt 7 TWh par an en moyenne pour un réacteur nucléaire français (380 TWh produits avec 54 réacteurs).



60 TWh, c’est la production de tout le parc hydraulique français.

Le 09/04/2021 à 11h 27

Merci, j’étais mal renseigné. J’avais lu que c’était calqué sur l’imposition des plus-values mobilières, mais en fait non, ils ont pas pu s’empêcher de faire une usine à gaz :D

Le 09/04/2021 à 10h 13


SartMatt a dit:


tu calcules la plus-value réalisée (prix de vente - prix d’achat)


J’oubliais une subtilité sur ce point : si tu as plusieurs prix d’achat différents, tu as deux options pour calculer : soit tu gardes la trace du prix d’achat individuel de chaque part d’actif, et quand tu vends tu calcules la plus-value sur chaque part en fonction de son prix d’achat (par exemple, tu achètes 1 à 10€ puis 2 à 15€ puis vend 2 à 20€, tu peux considérer que tu as vendu les 2 derniers et fait 10€ de PV, et gardé en portefeuille 1 acheté 10€, ou alors tu peux considérer que tu as vendu celui acheté 10€ et un de ceux achetés 15€, fait 15€ de PV et gardé en portefeuille 1 acheté 15€… donc en gros tu peux ainsi moduler la part plus-value réalisée/plus-value latente pour optimiser ta déclaration), soit tu raisonnes en prix d’achat moyen (tu achètes 1 pour 10€, puis 2 pour 15€, tu as désormais 3 achetés en moyenne 13.33, tu vends 2 à 20€ ça te fait 13.33 de plus-value).



La seconde méthode est la plus simple, puisque tu as juste à garder le prix d’achat moyen, actualisé à chaque fois que tu refais un achat, plutôt que de devoir garder la valeur unitaire de chaque part.

Le 09/04/2021 à 10h 02


TheKillerOfComputer a dit:


Question : CHAQUE transaction ? Pas plutôt au 1er Janvier 202X ?



Car admettons, je m’amuse à mettre 100 € et je fais du trading régulier (pas forcément au jour le jour) pour arriver à 1000 € en fin d’année (pour l’exemple, car ce n’est clairement pas intéressant) or il a fallu revendre/racheter pour 50.000 € en tout pour y parvenir. Je serai donc taxé sur les 50.000 € :transpi: ? Et il faudrait envoier une copie de la liste des transactions à l’Etat (ils vont bien s’amuser si ça commence à compter dans les centaines :D ) ?


Tu déclares la somme des plus-values réalisées sur l’ensemble de tes transactions. Donc à chaque fois que tu vends, tu calcules la plus-value réalisée (prix de vente - prix d’achat), tu additionnes ça sur l’ensemble des transactions, et ça te donne le montant final à déclarer.



Et seules les plus-values réalisées comptent, pas les plus-values latente : si par exemple tu as acheté pour 100€ d’un actif et qu’à la fin de l’année sa valeur à été multiplié par 10, mais que tu n’as pas revendu, ton portefeuille vaut 1000€, tu as une plus-value latente de 900€, mais tu n’as pas réalisé la plus-value en revendant ton actif, donc ta plus-value à déclarer est 0. Si par contre tu en vends 1/10ème pour récupérer ta mise initiale, tu as alors un portefeuille qui vaut 900€, avec une plus-value latente de 810€ (les 910 qui te restent en portefeuille t’ont coûté 90€) et une plus-value réalisée de 90€ (le 1/10ème que tu as vendu pour 100€ t’avais coûté 10€), et tu dois donc déclarer 10€.

Le 10/03/2021 à 22h 56


slemaire a dit:


Ok il a brûlé. D’un autre côté, vu son emplacement, au beau milieu d’un fleuve, la probabilité de sinistre et spécialement d’inondation me semble conséquente.


La hauteur du Rhin à Strasbourg fluctue relativement peu, c’est quasiment canalisé, avec de nombreueses écluses et zones d’innondation contrôlées en amont de la ville pour limiter les fluctuations de niveau à Strasbourg.



Cette zone est considérée comme à faible risque, même en cas de défaillance de certains systèmes de protection contre les crues : bas-rhin.gouv.fr République Française(page 115, l’emplacement d’OVH est au niveau du premier embranchement en remontant le cours du Rhin à partir du haut de la carte)



Sinon OVH n’aurait de toute façon jamais eu un permis de construire à cet endroit.




BurritoBob a dit:


Sauf que le Backup Storage du mon serveur principal à RBX7 est juste à côté à RBX3.


RBX3 et RBX7 sont dans deux bâtiments bien distincts, avec même une rue entre les deux. Peu de chances qu’un incendie se propage de l’un à l’autre.



Faudrait voir si RBX3 est aussi utilisé comme backup pour RBX5 et RBX6, là il y a un vrai risque.




Equilibrium a dit:


Et dans ce cas, oui, il est tout à fait possible de retenir un manquement au RGPD vis à vis des obligations de sécurité du sous-traitant sur les données personnelles que traitaient les machine détruites par le feu.


C’est la responsabilité d’OVH uniquement s’il a vendu des offres garantissant la sauvegarde des données et a failli dans cette garantie. Dans le cas contraire, le faute incombe au client, qui a stocké des données chez OVH en sachant qu’elles n’étaient pas sauvegardées : c’est au donneur d’ordre de s’assurer que l’offre proposée par le sous-traitant est conforme à ses obligations, surtout quand le sous-traitant ne connait pas la nature des données…

Le 23/02/2021 à 23h 23


Zaxe a dit:


Moi ce qui me gonfle, c’est la partie auto-hébergent avec Docker qui m’insupporte avec son coté boite noir dans lequel on doit faire confiance.


Tu peux aussi partir des sources et installer ton serveur sans utiliser Docker (ou produire tes propres images Docker à partir des sources, puisque les Dockerfile sont fournis).

Le 20/02/2021 à 18h 42


J’ai vu aussi que Bitwarden intégrait maintenant la gestion des codes TOTP mais je pense que je vais conserver cette gestion via l’app android dédiée (Aegis pour info, dispo sur F-Droid, très complet) Je dirais que regrouper les mots de passe et les codes TOTP au même endroit casse un peu le principe de l’authentification à deux facteurs mais bon je serais curieux d’avoir d’autres avis.


C’est sûr que regrouper les deux est une légère régression niveau sécurité. Mais les compromissions de mots de passe viennent quand même à priori assez rarement de la compromission du gestionnaire de mots de passe.



Ça va plus souvent venir de keyloggers, de compromissions de services stockant les mots de passe d’accès en clair ou avec un chiffrement ou un hachage qui ne résiste pas, etc… Dans ces cas, le TOTP dans le gestionnaire de mots de passe n’est pas un problème.

Le 20/02/2021 à 18h 39


Guinnness a dit:


Perso je commencerais à prendre au sérieux les diverses taxations écologiques quand elles se baseront sur des critères pertinents, c’est à dire au minimum les émissions de NOX et de particules fines, mais ça c’est pas près d’arriver car ça signerait l’arrêt de mort à court terme du Diesel, poule aux œufs d’or des constructeurs Français depuis des décennies. Egalement j’ai trouvé consternant l’abandon de la surtaxe au poids qui aurait permis de mettre un gros coup de frein à l’omniprésence de ces gros tas de boue de SUV.


Ce n’est pas parce qu’une mesure vise le CO2 plutôt que les particules qu’elle n’est pas pertinente. C’est simplement que les objectifs sont différents…



Par exemple, Crit’Air, c’est basé sur les émissions polluantes (théoriques, puisque basées sur la norme d’homologation, pas sur les émissions réelles), parce que l’objectif de ce système est d’améliorer localement la qualité de l’air dans les villes concernées.



Le bonus/malus, lui est dans le cadre de la lutte contre le réchauffement. Donc il s’appuie sur le niveau de rejets de CO2.

Le 11/01/2021 à 08h 49

Utiliser les données personnelles en dehors du cadre défini par le contrat de service, c’est une violation du RGPD. La législation européenne prévoit dans ce cas une amende pouvant atteindre 10% du chiffre d’affaire mondial des entreprises concernées. Il me semble que c’est un “moyen de rétorsion efficace”…



C’est d’ailleurs bien probablement pour ça que les européens évitent cette évolution des conditions d’utilisation.

Le 05/12/2020 à 20h 27


(reply:1841582:::1)


C’est bien joli de considérer qu’il n’ont pas à se plaindre de la situation parce que ça changera pas. C’est sûr que si on dit aux gens qu’ils ont pas le droit de se plaindre, ça peut pas changer… On peut d’ailleurs généraliser ta façon de penser à toutes les professions, voire même en dehors du secteur professionnel…



Et après, faut pas s’étonner de la dégringolade effarante du niveau scolaire en France… Parce que t’as beau dire que c’est “à faire avec passion”, la réalité c’est que vus les niveaux de rémunération et les conditions de travail, même les passionnés ils vont de plus en plus voir ailleurs. Et de plus en plus il ne reste que des gens qui n’ont pas réussi à faire mieux (devenir prof, c’est facile, y a plus de places que de candidats, donc de nos jours quasiment n’importe qui peut y arriver…) et qui vont contribuer à dégouter encore plus du métier les passionnés qui restent… C’est pas ça qui va améliorer le niveau de l’enseignement en France.

Le 05/12/2020 à 20h 14

Exactement, routage d’une plage IP uniquement, juste pour accéder au Serveur / services pro de l’entreprise ;)



Ainsi tout le trafic normal n’est pas détourné inutilement.

Ça dépend vraiment des boîtes, dans la mienne c’est l’extrême inverse : même quand on n’est PAS connecté au VPN une partie du trafic passe par la boîte (on n’a pas le droit de désactiver le passage du trafic web par le proxy, qui dispose d’une IP publique pour être accessible même sans être connecté au VPN).

Le 05/12/2020 à 20h 07

Bravo pour cet article.



Ça change des articles sponsorisés qui pullulent sur les sites tech et qui donnent des explications techniques extrêmement parcellaires et superficielles, si ce n’est complètement fausses, et limitant bien souvent le VPN à une sorte de proxy pour se planquer quand on fait des trucs pas clairs. Et je parle même pas des mensonges sur les aspects sécurité et protection de la vie privée prétendument apportés par les VPN clés en main…



Bref, merci. Voilà un article que je vais sans doute offrir autour de moi quand on me demandera à quoi ça sert un VPN :incline:

Le 28/10/2020 à 14h 02


David_L a dit:


En général c’est 15h chez NVIDIA, mais bon, vaut mieux surveiller en amont chez les revendeurs :D


Attention aussi au changement d’heure : si ce 15h est calé sur une heure US, on est dans la semaine où la France est déjà à l’heure d’hiver alors que les USA sont encore à l’heure d’été (ils changent ce WE), donc 1h de décalage en plus, ça pourrait tomber sur 14h.

Le 21/10/2020 à 15h 10

Ça a été publié sur la plateforme de blog de Mediapart, pas sur la partie “journal” de Mediapart. Donc non, ça n’a pas été “accepté” par Mediapart, puisque, comme la plupart des plateformes de blogs, Mediapart n’effectue pas de contrôle avant publication (ni après d’ailleurs… sauf en cas de plainte).



C’est bien pour ça que Darmanin s’attaque à l’auteur, et non à Mediapart.

Le 19/10/2020 à 13h 13


Jarodd a dit:


Donc tu voudrais obliger les gens à utiliser France Connect c’est ça ? Et ça concernerait qui exactement ? Les français de nationalité ? Les internautes qui se connectent depuis la France ? Tous les internautes du monde ?


J’ai pas dit que c’était la solution (dans mon second message, je précise d’ailleurs les grosses limites d’une telle solution, notamment sur le plan international). Mais que ça serait déjà bien mieux que de devoir donner ses coordonnées à l’hébergeur, et donc, les rendre accessible à des employés de l’hébergeur qui pourraient éventuellement les divulguer si une personne tient des propos qui ne leur plaisent pas.

Le 19/10/2020 à 11h 21

J’aime beaucoup les papiers de M. Rees.



Merci beaucoup pour ce travail de veille législatif et jurisprudentiel !
:inpactitude:



Cette idée m’apparaît franchement valable !
Un FAI n’a pas besoin de savoir lequel de ses clients visionne quoi, il a juste une obligation légale de conserver les données.
Bon, après, ça ne devrait pas être très compliqué pour ledit FAI d’associer une IP à une adresse postale, et donc à un utilisateur ^^’

Il ne s’agit pas des FAI, mais des hébergeurs de contenus. Là où les éventuels messages haineux sont postés. Eux n’ont pas la possibilité de faire le lien entre adresse IP et identité.



En rajoutant les FAI dans la boucle, on retombe sur le système actuel, avec le problème de la lenteur qu’implique forcément l’ajout d’intermédiaires supplémentaires, mais aussi le manque de fiabilité que peut avoir l’adresse IP (IP parfois partagée entre plusieurs abonnés, parfois plusieurs millions quand le réseau est NATé, comme c’est le cas sur les réseaux mobiles… et se pose aussi le problème des recours à des VPN…).



Après, la solution que je suggère, en passant par France Connect ou équivalent a aussi de gros inconvénients, notamment le fait qu’elle ne peut s’appliquer qu’à un français… Et s’il faut que les hébergeurs implémentent un système pour chaque pays, ça va être le bordel. Sans compter qu’il y aura forcément des pays qui joueront pas le jeu et fourniront des tokens à des gens dont l’identité n’est pas vérifiée…

Le 19/10/2020 à 11h 04

Personnellement je trouve plutôt que cette affaire plaide pour le droit à l’anonymat sur Internet. On voit à quoi peut hélas mener la divulgation de l’identité et des coordonnées de quelqu’un…



Car même si seul l’hébergeur dispose des informations, il suffit qu’on tienne des propos qui heurtent un taré employé de l’hébergeur et on peut en arriver au même résultat.



Ou alors, il faut un système géré par l’État qui permette de donner à l’hébergeur uniquement un identifiant personnel, sans que l’hébergeur ne puisse faire le lien entre cet identifiant et l’identité réelle. Par exemple, au moment de l’inscription, un passage par France Connect, qui générerait un token à communiquer à l’hébergeur. Et en cas de demande d’identification par les autorités, l’hébergeur leur communique ce token et les autorités ont alors les moyens de faire le lien avec l’identité.

Le 28/09/2020 à 14h 53

Il était temps de changer !



Mais je pense qu’ils auraient dû faire plutôt une échelle ouverte, par exemple en numérotant de 1 à 7 avec 7 la meilleure catégorie.



Comme ça ça pourrait évoluer plus facilement tout en restant “compatible” avec l’existant : dans 5 ans on pourrait supprimer les niveaux 1 et 2, et ajouter 8 et 9, tout en gardant la possibilité de comparer l’échelle actuelle avec la nouvelle, sauf pour les appareils de niveau 7 dans l’ancienne échelle, qui pourraient éventuellement passer 8 ou 9 dans la nouvelle.

Le 23/09/2020 à 11h 54

Dommage qu’il ne soit pas manageable :-(

Le 04/09/2020 à 15h 16

@OlivierJ > J’ai retrouvé l’étude que j’avais en tête : https://www.extremetech.com/computing/205382-ssds-can-lose-data-in-as-little-as-7-days-without-power



Et donc, la température lors des écritures a bien un impact positif sur la durée de rétention.



Peut-être qu’avec une température plus faible il est plus difficile de contrôler finement le niveau de charge de la cellule.

Le 03/09/2020 à 11h 35


Arcy a dit:


De mon coté, j’avais entendu parlé de 6 mois. Ca me semblait plus crédible, surtout quand on à un PC portable dont on se sert peu.


Ça peut effectivement tomber à quelques mois. Mais ça dépend de beaucoup de variables : le type de mémoire (SLC > MLC > TLC), sa finesse (plus c’est fin, plus la durée de rétention risque de diminuer), son niveau d’usure (plus c’est usé, plus la durée de rétention est faible), la température de fonctionnement au moment de l’écriture des données (plus elle est élevée, plus la rétention sera longue, tant que ça reste dans les limites du raisonnable), la température de stockage (plus elle est faible, plus la rétention sera longue), etc…

Le 18/08/2020 à 12h 57

Il supporte le SFTP, qui est le protocole utilisé par SSHFS. Donc oui, il peut être une alternative à SSHFS.



D’ailleurs, petite remarque à l’auteur : autant ça a du sens de contracter HTTP et HTTPS en HTTP(S), autant il faudrait l’éviter pour FTP et SFTP. Malgré les acronymes qui se ressemblent, SFTP et FTP ne sont pas du tout le même protocole. L’équivalent d’HTTPS en FTP (donc l’ajout d’une couche de chiffrement, sans rien changer d’autre au protocole), c’est le FTPS.

Le 03/06/2020 à 22h 07

Le fait de faire payer le jeu en ligne, c’est pas lié directement au matériel. Microsoft pourrait tout a fait faire la même chose dans un Xbox OS pour PC, et même sous Windows 10.



Pour les jeux des autres éditeurs, Microsoft prend effectivement sa part sur Xbox mais pas sur PC quand ils sont vendus autrement que via le Microsoft Store. Mais là encore, avec un “Xbox OS” pour PC, ça ne serait pas un problème, puisque cet OS pourrait être restreint au Microsoft Store, comme l’est l’OS de la Xbox (pas de Steam et co sur Xbox…).



Bref, Microsoft pourrait tout a fait monter un écosystème type Xbox, avec les mêmes sources de revenu, mais avec une base matérielle plus ouverte.

 







skankhunt42 a écrit :



A la limite le seul truc déterminant c’est la carte mère. Le reste c’est de la ram, une carte graphique et un processeur classique sauf que tout est soudé.





Non, tu ne peux pas reproduire l’architecture d’une Xbox One avec des composants du commerce. L’architecture mémoire est spécifique, avec un espace mémoire unique en GDDR utilisé à la fois par le CPU et le GPU


Le 03/06/2020 à 15h 24







skankhunt42 a écrit :



 

Je suis entièrement d’accord avec ça mais je pense pas qu’un jours on verra xbox OS sur pc sinon microsoft perdra un maximum d’argent. Par contre il est peut être possible qu’un jours on verra windows desktop sur console car elle deviennent de plus en plus puissante.





Microsoft ne gagne pas des masses sur les consoles en elle même, c’est plus sur les jeux et les accessoires qu’il y a de la marge, donc un Xbox OS sur PC ne leur ferait pas forcément perdre beaucoup.

De toute façon, ils poussent à ce que les jeux Xbox soient aussi dispo sous Windows, donc on n’est pas si loin d’une situation où l’OS Xbox serait sur PC… Suffirait en fait de prévoir un vrai mode jeu dans Windows, qui désactive un maximum de choses pour maximiser les performances.



Et la console gardera l’intérêt d’être une config de référence, avec un OS et des jeux optimisés pour tourner au mieux sur cette config, sans que l’utilisateur ait à se poser la question de savoir si ça va bien tourner ou non.


Le 03/06/2020 à 14h 50

Quand on relis ses propres écris, on laisse facilement passer des erreurs ou des oublis grossiers, parce que justement, on sait ce qui manque et donc on comprend la phrase comme si ça avait été là.

Le 14/05/2020 à 18h 01


Aneoshun a dit:


Je ne comprends pas trop comment on arrive à “Un gain de 20 % en puissance de calcul brute,”. Pour moi passer de 15,7 TFLOPS à 312 TFLOPS, c’est un gain de 1900% (ie. 20x), pas 20%. Où est-ce que je me trompe?


Les 15.716.3 TFLOPS, c’est en FP32, donc à comparer aux 19.5 TFLOPS annoncés aujourd’hui.

Le 14/05/2020 à 17h 47


NSACloudBackup a dit:


Quelqu’un sait pourquoi les PDG des entreprises de GPU sont tous asiatiques ? C’est un pré-requis dans l’industrie :francais: ?


Ron Black (Imagination), Steven Mollenkopf (Qualcomm), Simon Segars (ARM) et Robert Swan (Intel) ne sont pas asiatiques :non:

Le 14/05/2020 à 16h 34

“Ainsi, la différence entre SAN et NAS, comme celle entre Block et File Storage est simple à comprendre : dans le premier cas vous avez accès à un volume qui sera à formater. Dans le second, vous pouvez lire et écrire des répertoires/fichiers directement.”



J’ajouterai une différence importante à ce niveau : la conséquence de ce mode d’accès différent c’est que sur un NAS, plusieurs clients peuvent avoir accès à un même espace (le système de fichier étant géré par le NAS), alors que sur un SAN, chaque espace est dédié à un client (et chaque client gère le système de fichiers sur son espace). Le NAS est donc avant tout un moyen de partager des données, tandis que le but du SAN est de déporter le stockage.

Le 14/05/2020 à 16h 20


(quote:46939:alex.d.)
Oui, et heureusement parce que le seul titre est un peu trompeur, laissant croire que c’est la catastrophe chez Seagate alors qu’ils ont un taux de pannes juste un poil au dessus des autres. Ça ne m’empêche pas de publier mes propres stats où WD est bien moins fiable que Seagate.


Statistique : “Science et techniques d’interprétation mathématique de données complexes et nombreuses, permettant de faire des prévisions.”



Tes chiffres ne sont pas des stats.

Le 14/05/2020 à 16h 16


Gaor a dit:


Sait-on pourquoi, bien qu’étant conscients que Seagate est le constructeur le plus défaillant, 72 % de leurs disques sont Seagate ?


Probablement une question de coût de revient. Même sur les pires modèles, le taux de panne reste relativement faible, entre 1 et 2%. Donc il suffit qu’il soit ne serait ce que 5% moins cher au To pour que les Seagate soient quand même plus intéressants.



Privilégier la fiabilité quitte à payer plus cher, c’est valable pour ceux qui n’ont que quelques unités, car là une seule panne fait tout de suite exploser les coûts, on ne peut pas raisonner sur le taux de panne pour juger le coût d’une panne. Quand tu as des dizaines de milliers de disques, le surcoût des pannes devient faible.

Le 04/05/2020 à 18h 35


fry a dit:


t’es sur que t’es pas en train de te faire avoir par les pub pour matos “audiophile” qui mettent en avant un connecteur plaqué or pour … un câble toslink (fibre optique) ? ou un truc du genre ?c’est une vraie question hein, j’ai pas les connaissances nécessaires sur les limites physiques des câbles en fonction des fréquencesc’est de quel ordre la section des conducteurs dans un câble hdmi ?on a quoi dans un câble rj45 ? (c’est juste pour avoir un point de comparaison)tu as piqué ma curiosité, mais je me demande à quel point ces limites physiques sont proches de ce qui est effectivement produit dans les câbles du commerce.


Dans le domaine audio, des phénomènes comme l’effet de peau ne s’appliquent effectivement pas, les fréquences sont beaucoup trop faibles (on est sur quelques dizaines de kHz maxi).



Sur des câbles numériques haut débit, avec des fréquences qui approchent le GHz, ça devient applicable.



Je dis pas par contre qu’il faut des câbles hors de prix pour avoir quelque chose qui marche (et c’est pas de si tôt qu’on me fera payer un câble HDMI à 1000€, ou même à 100€… le dernier que j’ai acheté, c’était 7€ pour 1m80). Mais juste qu’un câble peut être de bonne qualité tout en n’étant pas compatible HDMI 2.0, s’il est de conception ancienne… Un câble dont le constructeur prendrait 100% de marge sur la fréquence de signal qu’il peut supporter convenablement, j’appelle ça un câble de qualité. Mais un câble conçu il y a quelques années pour +100% des 165 MHz du HDMI de l’époque, ça suffit pas aujourd’hui pour le HDMI 2.0.



C’est en fait comme avec les câbles Ethernet. Si un câble Ethernet d’il y a 20 ans ne supporte pas le 10 GbE, alors que le connecteur RJ-45 n’a pas changé, ce n’est pas parce que le câble est de mauvaise qualité. C’est parce qu’il n’a pas été conçu pour.



Alors bien sûr, un câble HDMI vendu aujourd’hui mais ne supportant pas le HDMI 2.0, oui, c’est un câble low cost et idéalement ça ne devrait plus exister. Mais on ne peut pas dire que tous les câbles ne supportant pas HDMI 2.0 sont de mauvaise qualité. Sinon à ce compte là on peut aussi dire que bon nombre des actuels câbles HDMI 2.0 sont de mauvaise qualité, car ils ne supporteront peut-être pas un éventuel futur HDMI 3.0 à 1.2 GHz…

Le 04/05/2020 à 14h 39


fry a dit:


hum, en un sens je comprend l’idée, cependant un câble c’est passif, qu’est-ce qui, dans la conception, fait qu’un câble “supporte” une certaine fréquence ?j’aurai tendance à imaginer que c’est surtout un souci de blindage (au pifomètre hein), un “bon” câble sera peut-être “sur-blindé”, du coup même s’il a 10 ans, un signal à 600MHz passe nickel. alors qu’un mauvais câble aura un blindage minimal, avec un vieux protocole de test (en usine j’entends) qui utiliserait toujours un vieux matos hdmi 1 ne testerai qu’un signal 165MHz ?


Le blindage, mais aussi la conception même du câble : pour un même câble, passé un certain seuil, plus tu augmentes la fréquence, plus le signal s’affaiblit vite (effet de peau : à mesure que la fréquence augmente, le signal se “concentre” dans une couche de plus en plus fine autour du conducteur, ce qui limite la section effective et augmente donc la résistance). La parade à ça, c’est de faire des tresses en utilisant des conducteurs plus fins, pour qu’ils restent utilisés sur l’intégralité de leur section. Mais ça ça augmente le coût du câble, tout en augmentant aussi sa fragilité.

Le 04/05/2020 à 07h 53


David_L a dit:


Pour rappel, un câble HDMI 2.0 ça n’existe pas. Le port HDMI n’a pas évolué depuis très longtemps, le 2.0 n’y change rien. Il y a des câbles de bonne ou de mauvaise qualité, des certifications payantes, mais rien de plus.


Le port n’a pas changé physiquement, mais la fréquence du signal est passée de 165 MHz (1.0 à 1.2) à 340 MHz (1.3 et 1.4) puis à 600 MHz. Donc il faut bien un câble prévu pour cette fréquence, un câble conçu pour moins ne fera pas forcément l’affaire, et ce n’est pas qu’une question de qualité, on ne peut pas dire qu’un câble conçu pour 165 MHz qui ne supporterait pas un signal à 600 MHz est un câble de mauvaise qualité. Il a juste été conçu pour d’anciennes spécifications.

Le 04/05/2020 à 07h 39


(quote:46673:thøth)
Tient, et si on obligeait les constructeurs à maintenir leurs sockets 10 ans en définissant un socket européen ? Pour réduire les déchets électroniques et l’obsolescence. Il me semble qu’on est arrivé à une phase où les améliorations de performances sont mineures. Les seules chose qui, à mon avis, restent intéressantes sont les mises à jour de sécurité et l’ouverture du matériel. Et une réévaluation du temps pourrait toujours être accordée si des instituts de recherche indépendants des fabricants démontrent que la génération actuelle est bloquante pour des améliorations cruciales (sécurité, économie d’énergie).


Donc pendant dix ans, tu ne fais pas d’évolution au niveau des I/O… Parce qu’il y a peu de chances qu’un socket conçu aujourd’hui pour le PCI-E 5.0 soit capable sans modification de faire passer du PCI-E 6.0 ou 7.0 dans dix ans… Idem pour la RAM, pour les I/O avec le chipset, etc… Garantir une totale compatibilité, c’est garantir une absence d’évolution…



Et question réduction des déchets, je pense que c’est un faux débat. Parce que justement, quand on upgrade le CPU, on a un ancien CPU qui va avoir besoin d’une carte mère pour continuer sa vie ailleurs.



Ça pourrait même avoir l’effet inverse, en poussant à changer de CPU plus souvent, vu le coût réduit de l’opération, ce qui mènerait à une situation où il y aurait beaucoup plus de CPU en circulation que des cartes mères, et donc, fatalement, beaucoup de CPU au rebus alors qu’ils sont encore parfaitement fonctionnels…

Le 04/05/2020 à 07h 32


(quote:46671:thøth)
Ah ? pour moi c’est un énorme avantage, la touche ctrl nécéssite bien moins de torsion pour mon auriculaire que sur les claviers avec la touche fn à la palce de la touche ctrl (de mon point de vue ^^) : j’ai juste à fermer légèrement mon doigt pour l’atteindre, alors que la touche fn que je n’utilise quasiment pas est très difficile à atteindre sans bouger mon poignet. Mais je dois manquer quelque chose, parce que sinon j’ai du mal à comprendre pourquoi autant de monde (à chaque fois que je vois un article sur des thinkpad) milite pour se tordre l’auriculaire en appuyant sur ctrl.Et il y a bien le clic droit vu qu’il y a les trois boutons de la souris en bas.


Pour moi, c’est une question d’habitude : passant fréquemment d’un clavier à l’autre, j’aime retrouver les même touches aux mêmes endroits… Et il y a beaucoup plus de claviers avec Ctrl à gauche qu’avec Fn à gauche, et en particulier, c’est le cas d’à peu près tous les claviers “desktop”.



Et puis ça donne une utilité à l’auriculaire, c’est à peu près la seule touche qu’il actionne :mdr: