Il est dommage que la date dans le nom des fichiers générés soit au format français car cela empêche une sélection simple pour une période. Il faudrait privilégier yyyymmdd (dit "international").
Sur une nouvelle connexion fibre via Bouygues, la BBox 7 atteint 1.5Gbps sans souci sur tout un batiment (maison, en gros 10m autour de la box) sachant que cela traverse bien au moins un mur porteur et une cloison (et dalle de plancher à l'étage).
Je suis le premier surpris de la qualité du Wifi, je suis pro filaire.
Si je ne me trompe pas Jensen Huang a dit que la densité et l'efficacité de ce que nVidia propose maintenant sont tels, que le scaling ne peut se faire qu'en fonction de l'énergie et que cela était dorénavant le facteur limitant.
Le problème d'OVH c'est l'égo de son dirigeant. Toutes les grosses boites américaines du cloud bien que concurrentes, partagent des technos logicielles entre elles, et que ce sont des monstres en terme de tailles et puits de compétences. OVH est constamment en retard parce qu'elle ne cherche à mettre en place et en avant QUE des solutions logicielles maison alors que ce n'est pas son sujet d’expertise, et prend un retard considérable de ce fait. OVH ne peut pas rivaliser avec la multitude de services des grands acteurs du cloud US tant qu'elle se bornera à rester sur cette politique. Seul on ne peut pas tout, il faut qu'ils apprennent à faire des compromis et partager les compétences et gains.
Mais c'est plus largement un problème typiquement français dans la tech' que de vouloir constamment réinventer la roue plutôt que dépendre des autres et faire converger des forces.
As-tu des exemples ou des arguments plus détaillés car là je ne vois pas de quoi tu parles.
Les perfs augmentent bien significativement à puissance égale et sans IA : https://www.techpowerup.com/forums/threads/nvidia-geforce-rtx-5090-founders-edition.331372/post-5426969
Toujours les mêmes commentaires, voici des usages : * télétravail * transfert dans le cloud (videos, photos,...) * transfert pour son stockage local (à partir du mobile ou sur un lieu distant): auto-hébergement * latence (en cas de multi usage en parallèle : jeux, videos,...) * ...
En même c'était un peu comme dire "s'il y a une voiture verte garée devant, c'est que vous êtes au bon endroit". Peut-être que c'est rare de payer l'option couleur verte pour sa voiture, mais dans tous les cas, c'est pas un réel indicateur d'être au bon endroit !
Comparaison ratée, ce n'est pas juste une question d'argent mais une vérification du propriétaire, c'est plus comme s'il y avait la police devant la porte vous confirmant que c'est sécurisé (ça reste des comparaisons foireuses...).
Pour avoir le contrôle de l'appareil, comme tous les autres depuis des décennies... Sinon pour: * sauvegarde sans cloud * killer et voir ce que font les applications * empêcher les applications de voir/tracer mes activités/comportement * personnalisé le système
Plutôt bien dans l'ensemble pour une fois, sauf OTA, qui perd tout son sens: "mise à jour à distance", c'est valable pour 90% des appareils connectés (cela inclus le filaire!), or OTA a été utilisé originalement à ma connaissance pour les mises à jour via réseaux mobiles.
Question un peu conne, mais le certificat est stocké qqpart dans Windows donc en cas de vol de PC, le gurs a les données chiffrées, et le certificat pour déchiffrer ?
J’ai un peu de mal à comprendre l’intérêt, j’espère qu’il y’a une passphrase sur le certificat, parce que c’est j’ai l’impression l’unique sécurité !
Si j’ai bien souvenir, il y a plusieurs possibilités:
demande d’identification (en espace sécurisé) à chaque déchiffrement
demande d’identification (en espace sécurisé) au premier accès pour le temps de la session
De plus attention ce n’est pas le certificat utilisateur, qui déchiffre le fichier, celui-ci ne permet que d’atteindre la clé de chiffrement du fichier, sachant que si celui-ci est sur le réseau, c’est l’hôte (ou l’AD, je ne sais plus), qui possède cette clé.
Je dis peut-être des bêtises, cela fait un moment que je n’ai pas pratiqué le système.
EFS est surtout pratique sur un réseau (pour des arborescence DFS) car les clés peuvent être par utilisateur et surtout plusieurs utilisateurs peuvent accéder à un même fichier chiffré (un peu comme GPG en multi utilisateurs). Il faut le cumuler avec l’audit des accès afin d’être capable de savoir qui et quand un fichier a été lu (donc potentiellement volé).
Attention ici ce n’est pas vraiment un patent troll, car l’entreprise est depuis le début sur ces technos et les vends aux autres. Je pense qu’il est plus ici le cas, que les entreprises condamnées n’ont vraiment pas fait leur boulot de recherche et ensuite signées une licence, ce qu’accorde apparemment à chaque fois Immersion. (un peu comme un équipementier auto).
Et le trip de donner toutes ses données privées pour les faire analyser pour voir ce que Instagram ou autre à comme données sur vous, je trouve ça assez ironique
Si j’ai bien compris, le site ne reçoit pas les données, ils indiquent comment les récupérer et ensuite le traitement est local pour avoir les statistiques.
Bah faut avouer quand même que la mise en page est pas terrible, un scroll sans fin, des polices de la taille de la moitié de l’écran, du rouge 255.0.0…
Le scroll sans fin c’est la norme maintenant, notamment pour les mobiles, or la majorité des consultations de site sont dessus, donc pas le choix. Oui, sur ordinateur c’est pas terrible, mais “Internet” va vers ça. (c’est un site “basique” sur Worpress).
Pour le SPF, DKIM et DMARC, ce qui est dommage, c’est que les plus gros client e-mail n’affiche pas ces informations (souvent contenues dans les headers) sous la forme de badge (comme les cadenas du HTTPS), cela permettra d’avoir un visuel simple pour identifier des potentiels e-mails problématique et de sensibiliser les utilisateurs aussi.
Le soucis est que l’Infra et le paiement ne sont pas fait sur des débits garantis pour tous. On devrait payer les forfaits pour un minimum garantis et le reste en burst car disponible à un instant t et les opérateurs dimensionnent pour pouvoir encaisser le débit minimum (avec une marge qu’ils doivent calculer). Cela éviterait beaucoup d’incompréhension et de ventes mensongères. Ensuite pour les gros consommateur d’OTT une taxe prise par l’Europe/pays afin de soutenir les investissements d’infra avec un vrai suivi du comment s’est utilisé pour empêcher les opérateurs d’en profiter, ex : je te donne tant cette année du doit augmenter de tant ton réseau, tu ne le fais pas l’année suivante tu n’as rien et tu as l’obligation de faire ce qui a été payé, sinon amende équivalent au minimum à l’aide voir le double pour calmer les récidivistes.
Très utopique en effet, car ça touche à la fois à la Convention de Berne, et aux droits moraux dans le Code de la propriété intellectuelle qui indique que seul l’auteur peut définir des modalités de diffusion de son oeuvre. Il a également un droit de retrait de l’oeuvre.
Cependant, il faut aussi faire attention à ne pas tomber dans un extrême inverse, à savoir dépouiller de droits l’un parce que ça ne nous plait pas. C’est toujours séduisant comme alternative, sauf quand ça se retourne contre soit-même.
Le principal problème à mes yeux, ce sont les barèmes de la copie privée qui sont en roue libre en France et totalement délirants. A titre personnel je n’ai pas spécialement d’opposition au principe de rémunération pour copie privée puisqu’il ouvre l’accès à des usages qui sont considérés illégaux dans d’autres pays (comme Captv, des outils comme youtube-dl qui permettent d’enregistrer un streaming, etc). C’est en soit un mal pour un bien. Mais il faut impérativement arrêter de mettre en place des barèmes au doigt mouiller qui financent un système opaque et sans contrôle.
C’est le truc à démanteler et réformer : le système des sociétés de collecte qui est opaque et sans aucun contrôle alors qu’il manipule de l’argent prélevé sur le pouvoir d’achat des français.
Les présidentielles et les législatives, c’est en ce moment. Donc n’hésitez-pas à matraquer les candidats sur le sujet vu qu’ils sont tous au chevet du pouvoir d’achat des français.
Ce qu’il faut, c’est le contraire: la copie privée est un droit (et gratuit), si on a acheté l’œuvre une fois. Sinon on ne paye que le support physique. Y-a-t-il un paiement de “copie privé” en cas de photocopie à usage personnel (sans diffusion) d’un article de journal, de la page d’un livre ou autre, à ma connaissance non (je ne suis pas expert).
Et cela devrait être appliqué à toutes les informations dont le support est peut-être numérique (notamment les jeux vidéos,…), il n’y a aucun raison technique et morale de repayer un contenu identique x fois. Sinon c’est la mort du partage de connaissance et de la transmission. C’est ce qui se passe quand une entreprise disparait et ses produits numériques avec, des algorithmes, techniques, formules… sont perdues.
Pour information, les ports TCP 10000 et 20000 sont ceux de Webmin et Usermin respectivement (je ne les vois plus ouvert pour ma part), c’est peut-être juste une coïncidence.
Justement cela peut permettre d’interdire d’utiliser le terme Internet au FAI, si celui-ci n’est pas en accès complet… (supposition car je ne fais pas de droit)
Je ne connais pas le boitier de la PS5, mais un SSD en U.2 avec un adaptateur M.2 (et alim USB) pourrait le faire et peut permettre d’avoir 8To ou plus avec des débits soutenus intéressant et de plus longue vie (ce que j’ai fait dans ma tour PC avec un 4To).
Personnellement j’utilise sur Windows 10 ce qui est intégré: %windir%\System32\wbadmin.exe start backup -backupTarget:g: -allCritical -include:c: -quiet
Soit vers un disque réseau soit USB via une tâche planifiée et je mets les disques que je veux sauvegarder.
C’est restaurable via les outils de réparation ou montable en disque virtuel.
Par contre je ne sais pas si c’est disponible sur toutes les éditions.
En complément j’active le “System Protection” sur les disques voulus avec environs 10% d’usage et je mets en tâches planifiées la création des versions (2x par jour: 7h et 12h): C:\Windows\System32\WindowsPowerShell\v1.0\powershell.exe -Command "& {(Get-WmiObject -Class Win32_ShadowCopy -List).Create('C:\\', 'ClientAccessible')}"
Il faudrait que je fasse une UI pour le mettre en place et configurer le tout, mais j’ai la flemme, donc en général je copie/colle les fichiers XML des tâches planifiées et configure le nécessaire.
Pour information nethogs permet d’avoir la bande passante par programme/port, ce qui peut être pratique, mais c’est plus lourd que nload, j’ai l’impression.
AnandTech présente un tableau de la densité de chaque fondeur, ce qui permet de mieux comprendre ce renommage, qui n’a pour moi pas grand chose à voir avec l’histoire du P-Rating.
Pour une fois je trouve qu’Intel est le seul à être resté sur des termes “justes”, contrairement aux autres, qui ont fait du marketing.
Au sujet du pseudo VPN vous oubliez qu’Apple est une entreprise et que si un gros trafic passe par eux alors ils auront les même obligations qu’un opérateur télécom, donc ce ne sera jamais comme TOR par définition. Les états ne laisseront pas passer ça et tous les gros états ont ce type de “loi”.
Oui, comme dit dans l’article. On verra ce que MS dira cette semaine, mais ça a déjà évolué ce week-end pour confirmer les critères de compatibilité (notamment TPM 2.0 et l’absence de double niveau dans la façon de gérer l’installation selon le respect des critères).
DirectX 12 a presque 10 ans, certains produits le supportant ont plus que ça, c’est surtout histoire de passer à plus que DirectX 9 (qui était le critère précédent), alors que tous les jeux exploitent DX12 ou Vulkan désormais, sans parler de ses fonctionnalités hors jeux (DirectML & co).
Au passage, on voit très bien pourquoi MS a quitté le modèle des licences pour celui des services, vu l’exigence de certains pour le support d’un OS sans vouloir payer régulièrement pour des mises à jour (parce que si MS avait annoncé faire payer le passage à W11 tout le monde aurait grogné). Comme s’il était normal d’attendre d’une société qu’elle ne soit payée qu’une fois tous les 15 ans pour un produit dont elle a la charge sur le long terme
Le logiciel expire, comme tout le reste, les éditeurs doivent aller de l’avant pour éviter de se faire ralentir par le legacy (même s’il faut que ce soit fait à un rythme raisonnable, on est d’accord). il existe d’ailleurs des alternatives à Windows 11 ou même à Windows de manière générale (et même pour Linux la fin de support de certains composants a une fin).
Autant on peut reprocher à MS sa liste CPU, et à la marge TPM 2.0 comme critère dur, m’enfin disposer d’une machine sans DirectX 12 c’est un peu comme avoir un CPU non 64 bits désormais, c’est l’exception plus que la règle. Surtout si l’on veut en plus disposer à tout prix de la dernière version de Windows en date.
Attention aussi l’utilisation d’un PC a bien changé aussi, avant (10-15 ans) il n’y avait qu’un seul ordinateur familiale majoritairement (donc plus “facile” à garder à jour), maintenant dans une famille presque chaque membre a son ordinateur (fixe ou portable pour beaucoup), or pour les enfants ce que je vois c’est du recyclage (avec OS/logiciels récent) et là, moi j’ai de la chance d’avoir du matériel récent en majorité, ce n’est pas du tout le cas de la majorité des foyers. A part pousser au changement, il n’y a pas de raison technique d’imposer comme je l’ai déjà dit (mais je pense que cela ne va pas rester). Que ce soit recommandé oui mais forcé non.
Comme dit plus haut, on peut faire des reproches, mais il faut veiller à faire la différence entre les faits et ce qu’on l’on choisi d’en déduire. Qui sont des choses parfois assez différentes.
Je ne te rejoinds pas là-dessus.
De toutes façons tirer des conclusions d’une build non officielles à plusieurs mois de la release… Pour le moment, la seule chose que l’on sait, c’est que c’est une mention présent dans les prérequis de W11 ce qui n’était pas le cas pour W10.
Je pense aussi qu’ici, que le but in-fine est de voir les réactions pour l’imposer un peu plus tard, comment les connections obligatoires et plus de lecteur sur les consoles (PS4/XBox one) pour orienter vers le tout numérique (puis le cloud gaming), voir la génération actuelle et le futur du cloud gaming. Et Windows 10S pour le compte en ligne imposé était le test. Et comme chez la majorité des personnes ça passe, ils vont le pousser au maximum, même pour les entreprises, ils arrivent à l’imposer à force. Je vois même des personnes, qui ne voulaient pas mettre leur donnée en ligne et tout, les voir craquées, car “c’est un peu plus simple”, “tout le monde le fait” et le pire, “je n’ai pas le choix sinon je n’ai pas la fonctionnalité”….
Et dernier point, de leur point de vue et avec leurs buts je ferai pareil.
Quel est le rapport entre SB/TPM et la vente par abonnement ?
Autant je veux bien qu’on s’oppose à tout, parce qu’il y a parfois des raisons. Autant sur des fonctionnalités de sécurité je comprends difficilement. Pour rappel, même GnuPG permet désormais le stockage des clés privées dans TPM 2.0 pour profiter de ces enclaves.
Je suis pour la sécurité si elle est décidé par l’utilisateur, pas imposé par un tiers. Oui, TPM permet des fonctionnalités de sécurité intéressante et utile, mais ne doit pas être imposé pour l’usage d’un soft autre que de sécurité (GnuPG comme tu dis et encore il ne l’impose pas à ma connaissance). L’intérêt du TPM et du Secure Boot est à terme de mettre en place des Boot Lock sur les PC, comme sur les smartphones et un boot lock n’est intéressant que dans un but financier et non de sécurité (comme les DRMs, dans la musique leur but ce n’est pas empêché la copie, mais forcer le paiement à l’écoute au plus grand nombre). Et le rapport avec les abonnements, c’est qu’une fois cela en place tu peux imposer soit la pub (gratuit), soit l’abonnement (ou commission à l’achat) et empêcher l’installation d’application en dehors de ces conditions, ce qui se passe déjà sur iPhone et arrive sur Mac (ne pas croire que les puces de sécurité c’est que pour protéger les données des utilisateurs…).
C’est vraiment dommage que le monde libre ne veuille pas s’adapter aux utilisateurs (interface digne de ce nom, facilité d’installation/exploitation,…), car il a justement une carte à jouer vis-à-vis de tout ça, mais il ne faut pas se faire manger avant.
Et en toute franchise je ne pensait pas que Microsoft plierai aussi rapidement à cette tentation de l’usage de la sécurité pour imposer leur choix.
Nos politiques sont à l’ouest et auraient dû tomber sur les Microsoft (pourtant je suis plutôt Pro Microsoft), Apple et Google,…
Imposer ce genre de contrainte aux utilisateurs ce n’est absolument pas technique/sécurité, mais uniquement financier. Apple et Adobe sont à l’origine de tout cela. Le but est d’avoir tout logiciel au sens large de connecter et de ne plus pouvoir acheter, mais louer ou vendre ses données. Le TPM et secure boot permettant de forcer ce contrôle logiciel sans que l’utilisateur en soit conscient.
Sans compter le gros problème écologique, que cela impose en renouvellement et la gestion des DEEE derrière.
Le but des ces technos, c’est de pouvoir contrôler les permissions de l’utilisateur (ce qu’il a le droit de faire). C’est exactement ce qu’ont fait les banques et continuent de faire manière silencieuse: ex, ne pas pouvoir utiliser une application bancaire avec un téléphone rooté (je ne parle pas de paiement), par contre actuellement je peux consulter mes comptes mon PC via un navigateur (je suis bien admin/root de celui-ci), mais pour combien de temps.
Sur un sujet équivalent, j’ai découvert qu’une application Android pouvait interdire de pouvoir la sauvegarder (app et/ou data), feature de Google, et donc “forcer” une synchro cloud pour pouvoir conserver les données ailleurs, donc sans aucun rapport avec la sécurité des données utilisateurs mais uniquement pour les récupérer, car sur un smartphone, la mémoire n’est pas amovible et donc ne peut-être copiée ailleurs. Heureusement que pour le moment on ne m’empêche pas de sauvegarder mon PC où je veux.
De stockage s’il n’y a pas de création de face à la volée.
De performance (SSD required et supportant l’usure)
De contrainte artistique pour économiser les accès on met moins d’objet ou le même en le montrant sous des angles différents. Bref du désert on va en bouffer.
Pas une révolution possible, mais ça reste une première de pouvoir afficher autant de détail en 3D en temps réel. Aucun souci de stockage, l’intérêt de la tessellation est une passe technique pour éviter d’avoir autant de triangle à transmettre au GPU car on en n’était pas capable avant (ATI TruForm 2007). Le SSD est recommandé car on va chargé plus d’information car le niveau de détail à augmenter, à niveau équivalent cela ne change pas grand chose. Un SSD s’use à l’écriture et pas à la lecture… or ces nouveaux assets (maillage fin et texture plus simples) sont équivalents ou plus léger que les actuels (maillage plus grossier x3 ou x4 pour les LOD et des textures fines). Faux le nombre d’objets différents importe pas grand chose, la répétition est une facilité pas une obligation pour la technologie. Et c’est un très grand atout pour les artistes car cela permet de produire plus vite et finement, car se basant sur la vue de l’artiste et non celle adaptée à la technique.
TexMex a dit:
Dans ce que l’on voit ici c’est encore un paradigme. C’est plus beau mais il faut plus costaud comme machine. Parce que bon y’a pas de miracle non plus.
Ces avancées tournent déjà bien avec des machines actuelles, mais il y encore des choses à venir et aussi des défauts en cours de correction/étude, cela reste une pre-release:
accès direct du GPU au données du disque (en cours de déploiement, si je ne me trompe pas sur Windows 10), pour éviter la latence et profiter des SSDs.
objets Nanite déformable/destructible, car actuellement les maillages sont statiques
gestion de matériaux plus complexe pour les objets Nanite avec Lumen (pas complétement sûr de moi, mais j’ai cru comprendre que ce n’est pas complet en l’état)
(reply:56832:Naruto`kun) Les RAID matériel gèrent l’évolution depuis un certain temps maintenant :
Ajout de disques
Changement entre différente type de RAID (toutes les combinaisons ne sont pas possibles, mais en software c’est pareil).
Si on tape dans les cartes RAID de constructeurs connus, on retrouve facilement les mêmes modèles d’occasion et de plus entre génération, il est possible (pas toujours) d’utiliser les mêmes disques sans perte de données. Après comme souvent si la techno est différente, il est recommandé de repartir à zéro et de dupliquer les données, même en software, tu ne passes pas d’un ZFS à un MDADM ou un BTRFS sans faire une copie des données.
Ca c’est un raisonnement de techos avec sa petite règle de 3, mais ils y a des obligations légales en matière de sécurité, et la première étant le RGPD et visiblement OVH a sur le coup contrevenu à ses obigations de sécurisation des données car parmi celles qu’il hébergeait, il devait y avoir statistiquement de très nombreuses données à caractère personnel, voir sensibles et un certain nombre ont été détruites.
Désolé mais l’architecture de l’application c’est depuis longtemps dans le gestionnaire de tâche, de même que j’ai aussi le comportement des GPU. Actuellement sous Windows 10 20H2.
397 commentaires
Le 09/01/2026 à 19h04
Le 30/12/2025 à 14h51
Le 14/10/2025 à 17h43
Je suis le premier surpris de la qualité du Wifi, je suis pro filaire.
Modifié le 23/09/2025 à 11h21
D'où ce raccourcis GW = puissance de calcul
Le 17/09/2025 à 09h28
Le 15/07/2025 à 16h33
Le 17/04/2025 à 11h08
Modifié le 20/03/2025 à 11h42
Le 23/01/2025 à 17h04
Source: https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-rtx-5090-test.91081/seite-13#abschnitt_rtx_5090_vs_rtx_4090_bei_450_watt
Le 12/12/2024 à 19h18
* télétravail
* transfert dans le cloud (videos, photos,...)
* transfert pour son stockage local (à partir du mobile ou sur un lieu distant): auto-hébergement
* latence (en cas de multi usage en parallèle : jeux, videos,...)
* ...
Modifié le 22/11/2024 à 09h08
Le 19/02/2024 à 09h16
Sinon pour:
* sauvegarde sans cloud
* killer et voir ce que font les applications
* empêcher les applications de voir/tracer mes activités/comportement
* personnalisé le système
Le 12/01/2024 à 14h41
Le 28/12/2023 à 13h23
Le 21/12/2023 à 07h39
Le 06/06/2023 à 15h47
Si j’ai bien souvenir, il y a plusieurs possibilités:
De plus attention ce n’est pas le certificat utilisateur, qui déchiffre le fichier, celui-ci ne permet que d’atteindre la clé de chiffrement du fichier, sachant que si celui-ci est sur le réseau, c’est l’hôte (ou l’AD, je ne sais plus), qui possède cette clé.
Je dis peut-être des bêtises, cela fait un moment que je n’ai pas pratiqué le système.
Le 06/06/2023 à 05h55
EFS est surtout pratique sur un réseau (pour des arborescence DFS) car les clés peuvent être par utilisateur et surtout plusieurs utilisateurs peuvent accéder à un même fichier chiffré (un peu comme GPG en multi utilisateurs). Il faut le cumuler avec l’audit des accès afin d’être capable de savoir qui et quand un fichier a été lu (donc potentiellement volé).
Le 19/05/2023 à 09h33
Et combien parmis tout ça, qui sont juste en concurrence à avec leur propre apps…
Le 19/05/2023 à 08h56
Attention ici ce n’est pas vraiment un patent troll, car l’entreprise est depuis le début sur ces technos et les vends aux autres. Je pense qu’il est plus ici le cas, que les entreprises condamnées n’ont vraiment pas fait leur boulot de recherche et ensuite signées une licence, ce qu’accorde apparemment à chaque fois Immersion. (un peu comme un équipementier auto).
Le 26/01/2023 à 08h52
Si j’ai bien compris, le site ne reçoit pas les données, ils indiquent comment les récupérer et ensuite le traitement est local pour avoir les statistiques.
Le 26/01/2023 à 08h46
Le scroll sans fin c’est la norme maintenant, notamment pour les mobiles, or la majorité des consultations de site sont dessus, donc pas le choix. Oui, sur ordinateur c’est pas terrible, mais “Internet” va vers ça. (c’est un site “basique” sur Worpress).
Le 22/08/2022 à 09h34
Pour le SPF, DKIM et DMARC, ce qui est dommage, c’est que les plus gros client e-mail n’affiche pas ces informations (souvent contenues dans les headers) sous la forme de badge (comme les cadenas du HTTPS), cela permettra d’avoir un visuel simple pour identifier des potentiels e-mails problématique et de sensibiliser les utilisateurs aussi.
Le 05/07/2022 à 12h43
Il est plus rapide d’utiliser le Alt+tab, que d’aller en bas avec la souris.
Il y a aussi les PowerToys avec les FancyZones pour organiser la/les divisions de l’écran.
Le 16/06/2022 à 10h36
Tu peux tester Fairmail, que j’utilise depuis 1 an:
Mais aucune idée, si c’est équivalent à K-9, que je n’ai jamais utilisé.
Le 13/06/2022 à 20h05
Et pourquoi pas un système de permission comme Android? En laissant une permission “Accès Total”.
Le 05/05/2022 à 21h20
Le soucis est que l’Infra et le paiement ne sont pas fait sur des débits garantis pour tous. On devrait payer les forfaits pour un minimum garantis et le reste en burst car disponible à un instant t et les opérateurs dimensionnent pour pouvoir encaisser le débit minimum (avec une marge qu’ils doivent calculer). Cela éviterait beaucoup d’incompréhension et de ventes mensongères. Ensuite pour les gros consommateur d’OTT une taxe prise par l’Europe/pays afin de soutenir les investissements d’infra avec un vrai suivi du comment s’est utilisé pour empêcher les opérateurs d’en profiter, ex : je te donne tant cette année du doit augmenter de tant ton réseau, tu ne le fais pas l’année suivante tu n’as rien et tu as l’obligation de faire ce qui a été payé, sinon amende équivalent au minimum à l’aide voir le double pour calmer les récidivistes.
Le 05/05/2022 à 11h33
Bon anniversaire !
Le 25/03/2022 à 17h54
Ce qu’il faut, c’est le contraire: la copie privée est un droit (et gratuit), si on a acheté l’œuvre une fois.
Sinon on ne paye que le support physique.
Y-a-t-il un paiement de “copie privé” en cas de photocopie à usage personnel (sans diffusion) d’un article de journal, de la page d’un livre ou autre, à ma connaissance non (je ne suis pas expert).
Et cela devrait être appliqué à toutes les informations dont le support est peut-être numérique (notamment les jeux vidéos,…), il n’y a aucun raison technique et morale de repayer un contenu identique x fois. Sinon c’est la mort du partage de connaissance et de la transmission. C’est ce qui se passe quand une entreprise disparait et ses produits numériques avec, des algorithmes, techniques, formules… sont perdues.
Le 28/01/2022 à 16h08
Pour information, les ports TCP 10000 et 20000 sont ceux de Webmin et Usermin respectivement (je ne les vois plus ouvert pour ma part), c’est peut-être juste une coïncidence.
Le 16/11/2021 à 13h51
Justement cela peut permettre d’interdire d’utiliser le terme Internet au FAI, si celui-ci n’est pas en accès complet… (supposition car je ne fais pas de droit)
Le 17/09/2021 à 08h38
Je ne connais pas le boitier de la PS5, mais un SSD en U.2 avec un adaptateur M.2 (et alim USB) pourrait le faire et peut permettre d’avoir 8To ou plus avec des débits soutenus intéressant et de plus longue vie (ce que j’ai fait dans ma tour PC avec un 4To).
Le 15/09/2021 à 18h54
Deuxième fois pour le fun
!!

Le 06/09/2021 à 08h42
Hop, pour le fun!! Bon courage à la team!
Le 31/08/2021 à 15h17
Personnellement j’utilise sur Windows 10 ce qui est intégré:
%windir%\System32\wbadmin.exe start backup -backupTarget:g: -allCritical -include:c: -quietSoit vers un disque réseau soit USB via une tâche planifiée et je mets les disques que je veux sauvegarder.
C’est restaurable via les outils de réparation ou montable en disque virtuel.
Par contre je ne sais pas si c’est disponible sur toutes les éditions.
En complément j’active le “System Protection” sur les disques voulus avec environs 10% d’usage et je mets en tâches planifiées la création des versions (2x par jour: 7h et 12h):
C:\Windows\System32\WindowsPowerShell\v1.0\powershell.exe -Command "& {(Get-WmiObject -Class Win32_ShadowCopy -List).Create('C:\\', 'ClientAccessible')}"Il faudrait que je fasse une UI pour le mettre en place et configurer le tout, mais j’ai la flemme, donc en général je copie/colle les fichiers XML des tâches planifiées et configure le nécessaire.
Le 25/08/2021 à 13h05
Pour information nethogs permet d’avoir la bande passante par programme/port, ce qui peut être pratique, mais c’est plus lourd que nload, j’ai l’impression.
Le 27/07/2021 à 09h26
AnandTech présente un tableau de la densité de chaque fondeur, ce qui permet de mieux comprendre ce renommage, qui n’a pour moi pas grand chose à voir avec l’histoire du P-Rating.
Pour une fois je trouve qu’Intel est le seul à être resté sur des termes “justes”, contrairement aux autres, qui ont fait du marketing.
Le 23/07/2021 à 23h19
Au sujet du pseudo VPN vous oubliez qu’Apple est une entreprise et que si un gros trafic passe par eux alors ils auront les même obligations qu’un opérateur télécom, donc ce ne sera jamais comme TOR par définition. Les états ne laisseront pas passer ça et tous les gros états ont ce type de “loi”.
Le 07/07/2021 à 08h07
Je suis surpris, que la police n’est jamais utilisé le principe du “pot de miel” via les réseaux sociaux pour les cambriolages.
Le 28/06/2021 à 09h30
Attention aussi l’utilisation d’un PC a bien changé aussi, avant (10-15 ans) il n’y avait qu’un seul ordinateur familiale majoritairement (donc plus “facile” à garder à jour), maintenant dans une famille presque chaque membre a son ordinateur (fixe ou portable pour beaucoup), or pour les enfants ce que je vois c’est du recyclage (avec OS/logiciels récent) et là, moi j’ai de la chance d’avoir du matériel récent en majorité, ce n’est pas du tout le cas de la majorité des foyers.
A part pousser au changement, il n’y a pas de raison technique d’imposer comme je l’ai déjà dit (mais je pense que cela ne va pas rester). Que ce soit recommandé oui mais forcé non.
Le 25/06/2021 à 10h14
Je pense aussi qu’ici, que le but in-fine est de voir les réactions pour l’imposer un peu plus tard, comment les connections obligatoires et plus de lecteur sur les consoles (PS4/XBox one) pour orienter vers le tout numérique (puis le cloud gaming), voir la génération actuelle et le futur du cloud gaming.
Et Windows 10S pour le compte en ligne imposé était le test. Et comme chez la majorité des personnes ça passe, ils vont le pousser au maximum, même pour les entreprises, ils arrivent à l’imposer à force.
Je vois même des personnes, qui ne voulaient pas mettre leur donnée en ligne et tout, les voir craquées, car “c’est un peu plus simple”, “tout le monde le fait” et le pire, “je n’ai pas le choix sinon je n’ai pas la fonctionnalité”….
Et dernier point, de leur point de vue et avec leurs buts je ferai pareil.
Le 25/06/2021 à 09h26
Je suis pour la sécurité si elle est décidé par l’utilisateur, pas imposé par un tiers.
Oui, TPM permet des fonctionnalités de sécurité intéressante et utile, mais ne doit pas être imposé pour l’usage d’un soft autre que de sécurité (GnuPG comme tu dis et encore il ne l’impose pas à ma connaissance).
L’intérêt du TPM et du Secure Boot est à terme de mettre en place des Boot Lock sur les PC, comme sur les smartphones et un boot lock n’est intéressant que dans un but financier et non de sécurité (comme les DRMs, dans la musique leur but ce n’est pas empêché la copie, mais forcer le paiement à l’écoute au plus grand nombre).
Et le rapport avec les abonnements, c’est qu’une fois cela en place tu peux imposer soit la pub (gratuit), soit l’abonnement (ou commission à l’achat) et empêcher l’installation d’application en dehors de ces conditions, ce qui se passe déjà sur iPhone et arrive sur Mac (ne pas croire que les puces de sécurité c’est que pour protéger les données des utilisateurs…).
C’est vraiment dommage que le monde libre ne veuille pas s’adapter aux utilisateurs (interface digne de ce nom, facilité d’installation/exploitation,…), car il a justement une carte à jouer vis-à-vis de tout ça, mais il ne faut pas se faire manger avant.
Et en toute franchise je ne pensait pas que Microsoft plierai aussi rapidement à cette tentation de l’usage de la sécurité pour imposer leur choix.
Le 25/06/2021 à 07h53
Nos politiques sont à l’ouest et auraient dû tomber sur les Microsoft (pourtant je suis plutôt Pro Microsoft), Apple et Google,…
Imposer ce genre de contrainte aux utilisateurs ce n’est absolument pas technique/sécurité, mais uniquement financier. Apple et Adobe sont à l’origine de tout cela. Le but est d’avoir tout logiciel au sens large de connecter et de ne plus pouvoir acheter, mais louer ou vendre ses données. Le TPM et secure boot permettant de forcer ce contrôle logiciel sans que l’utilisateur en soit conscient.
Sans compter le gros problème écologique, que cela impose en renouvellement et la gestion des DEEE derrière.
Le but des ces technos, c’est de pouvoir contrôler les permissions de l’utilisateur (ce qu’il a le droit de faire). C’est exactement ce qu’ont fait les banques et continuent de faire manière silencieuse: ex, ne pas pouvoir utiliser une application bancaire avec un téléphone rooté (je ne parle pas de paiement), par contre actuellement je peux consulter mes comptes mon PC via un navigateur (je suis bien admin/root de celui-ci), mais pour combien de temps.
Sur un sujet équivalent, j’ai découvert qu’une application Android pouvait interdire de pouvoir la sauvegarder (app et/ou data), feature de Google, et donc “forcer” une synchro cloud pour pouvoir conserver les données ailleurs, donc sans aucun rapport avec la sécurité des données utilisateurs mais uniquement pour les récupérer, car sur un smartphone, la mémoire n’est pas amovible et donc ne peut-être copiée ailleurs. Heureusement que pour le moment on ne m’empêche pas de sauvegarder mon PC où je veux.
Edit: 3615 mon avis… coup de gueule
Le 01/06/2021 à 09h46
Je suppose bêtement que c’est pour les connexions aux PINs du socket (et/ou autres interconnexions).
C’est pareil pour la RAM des SoC, quand c’est stacké, c’est par le dessus en général.
Le 30/05/2021 à 17h28
Pas une révolution possible, mais ça reste une première de pouvoir afficher autant de détail en 3D en temps réel.
Aucun souci de stockage, l’intérêt de la tessellation est une passe technique pour éviter d’avoir autant de triangle à transmettre au GPU car on en n’était pas capable avant (ATI TruForm 2007).
Le SSD est recommandé car on va chargé plus d’information car le niveau de détail à augmenter, à niveau équivalent cela ne change pas grand chose.
Un SSD s’use à l’écriture et pas à la lecture… or ces nouveaux assets (maillage fin et texture plus simples) sont équivalents ou plus léger que les actuels (maillage plus grossier x3 ou x4 pour les LOD et des textures fines).
Faux le nombre d’objets différents importe pas grand chose, la répétition est une facilité pas une obligation pour la technologie.
Et c’est un très grand atout pour les artistes car cela permet de produire plus vite et finement, car se basant sur la vue de l’artiste et non celle adaptée à la technique.
Ces avancées tournent déjà bien avec des machines actuelles, mais il y encore des choses à venir et aussi des défauts en cours de correction/étude, cela reste une pre-release:
Le 27/05/2021 à 18h40
La documentation est ici et cela explique les grandes lignes des différentes technologies:
Notamment je ne sais plus si c’est dans la doc ou une des vidéos, mais le principe est d’avoir un triangle pour chaque pixel.
Le 28/04/2021 à 17h27
Si on tape dans les cartes RAID de constructeurs connus, on retrouve facilement les mêmes modèles d’occasion et de plus entre génération, il est possible (pas toujours) d’utiliser les mêmes disques sans perte de données. Après comme souvent si la techno est différente, il est recommandé de repartir à zéro et de dupliquer les données, même en software, tu ne passes pas d’un ZFS à un MDADM ou un BTRFS sans faire une copie des données.
Le 10/03/2021 à 11h37
Merci de préciser le rapport avec le RGPD?
Le 25/02/2021 à 16h12
Désolé mais l’architecture de l’application c’est depuis longtemps dans le gestionnaire de tâche,
de même que j’ai aussi le comportement des GPU.
Actuellement sous Windows 10 20H2.
Le 28/01/2021 à 10h52
Le 10/11/2020 à 08h17
Merci pour ces précisions bienvenues!