Parce que ça n’a rien à voir avec le sujet évoqué. On a d’ailleurs parlé des questions des différents modèles de minage lorsqu’il a été question de Chia qui se présente comme “verte”
Le
13/08/2021 à
20h
16
Calme tes ardeurs et tes propos, merci.
Le marché n’est pas similaire ;)
Le
13/08/2021 à
11h
19
Oui t’as le même niveau de puissance de calcul (30 MH/s sur DaggerHashimoto environ), mais avec une conso 2 à 3x plus élevée.
Densifier sera toujours plus efficace. Après c’est un savoir-faire et la part qui reste locale ou pas dépend du besoin. Comme dit plus haut, ce sera essentiel dans certains cas, désastreux pour d’autres.
Mais il ne faut pas croire qu’une techno est mauvaise parce qu’elle est parfois mal implémentée. Après tant que l’informatique jetable restera dans les mœurs, avec des coûts déportés, on sera tenté de penser que c’est un bon choix.
Le
11/08/2021 à
14h
13
Unity doit sans doute viser le même marché qui était celui de Parsec : les professionnels de la 3D et du JV avec des fonctions collaboratives. Leurs modèles sont d’ailleurs assez proche : outil grand public gratuit (open source dans le modèle d’Unity) avec une clientèle qui finance du côté de l’offre Pro. S’il y a du changement, je doute que ce soit dans le mauvais sens, mais on verra :)
Le
10/08/2021 à
05h
44
fofo9012 a dit:
Les pb remontés par wackyuseb existeront aussi en local, au final ça apporte beaucoup de complexités pour quasiment aucun avantage.
Au risque de me répéter, les avis péremptoires n’ont aucun intérêt. Il n’y a pas de bon ou de mauvais usage, seulement des besoins et des solutions plus ou moins adaptées. Certains voudront avoir autant de serveurs que de Raspberry Pi, d’autres voudront densifier dans un serveur unique, certains en profiteront pour aussi avoir des VM Windows avec accès bureau, etc.
Il y a des soucis dans toute approche. Avoir un PC par poste Windows plutôt que des VM n’est pas toujours l’approche la plus pertinente. Tout dépend du besoin. Et il ne faut jamais confondre nos besoins propres ou ceux de notre foyer/entreprise/expérience avec l’expression de généralités.
Question licence : Windows 10pro permet plusieurs connexions simultanées ? (De mémoire avec XP pro c’était une (ou deux ?) connexions à la fois, pour passer la limite il fallait acheter WIndows 2003 server)
C’est un seul utilisateur à la fois par VM
Le
09/08/2021 à
19h
51
Oui c’est toujours un équilibre difficile à trouver que de financer des applications qui demandent de grosses équipes et des centaines d’heure de travail, avec une base d’utilisateurs qui ne veulent pas toujours payer. Mais face à des solutions “tout en un” à la Shadow on est quand même bien contents d’avoir des alternatives multi-marques/plateformes. Mais le curseur n’est pas toujours simple à placer.
Le
09/08/2021 à
19h
40
Parsec est gratuit pour une utilisation sur ta propre machine (comme précisé dans l’article). Seules des fonctionnalités complémentaires sont payantes (mais elles ne sont pas nécessaire à l’accès distant.
Le
09/08/2021 à
19h
29
Comme dit, le dispositif est déjà en place sur Windows 10 sur les machines en intégration. On verra comment ce sera implémenté/contournable dans Windows 11. Mais demander des réponses avant la sortie de la version finale ne sert à rien : on ne peut pas y répondre.
Toutes les solutions présentées ici sont locales ;) On peut les implémenter via Internet, ou pas, selon ses besoins. Comme toujours : penser qu’un règle est plus valable qu’une autre n’a aucune pertinence. L’intérêt des solutions diversifiées est dans la capacité de choisir l’une ou l’autre selon le besoin
Le
09/08/2021 à
18h
10
Oui c’est une alternative à FreeRDP (qui est un fork de rdesktop à l’origine), et il fallait bien en choisir l’un des deux. Note qu’il n’a plus de mainteneur depuis 2019 et qu’il n’y a pas eu de nouvelle version depuis la 1.9.0.
Le
09/08/2021 à
16h
05
Il y a de vraies choses qui ne changent jamais, comme l’outrance dans la simplification ;) Sur le fond, j’adorerai que la structure des distributions Linux permette un partage aisé du bureau avec accélération matérielle sur une machine distante en multiplateformes. Mais c’est loin d’être le cas.
Geai a dit:
Je reviens sur la mention de Parsec : Si on a pas d’accès direct a la machine sous Windows en remote desktop, comment on peut par exemple rentrer ses identifiants/se connecter ( Dans le cas par exemple d’un Windows 11 où il faudra obligatoirement un compte Microsoft ? )
Parsec permet une “installation partagée” qui donne notamment accès à l’écran de connexion. Par contre Windows 11 n’impose pas de compte MS. C’est seulement le cas dans la version Famille (à voir ce comment ce sera implémenté en pratique), comme c’est déjà le cas en intégration sur W10.
Le
09/08/2021 à
15h
49
Quand tu compares la performance native de la carte graphique avec celle obtenue lorsque l’accès distant est activé, tu peux avoir des écarts élevés (testé sur des GeForce, mais pas les dernières Ampere, ce qui ne devrait pas changer grand chose en pratique). C’est un peu le souci de la solution Steam historiquement (avec le fait que ce soit peu pratique vu que c’est pensé pour du partage de jeu plutôt que de bureau même si c’est possible en pratique). Je ferai des relevés sur la dernière génération à l’occasion
La capture est une simple illustration, c’est effectivement le vrai JHH, le lien vers le passage de la conférence concerné est dans l’article.
Le
13/08/2021 à
10h
59
(reply:59321:doktoil makresh)
Flux audio, fixed ;)
Le
13/08/2021 à
10h
06
Oui il y a encore des ratés. Mais il y a quelques années on ne pensait qu’on en serait sans doute pas là si vite (en vrai c’est presque exploitable en l’état) et ça ira sans doute assez vite à corriger une bonne partie des problèmes. Mais si on anticipe pas, on va se retrouver avec une évolution technologique aux implications potentiellement problématiques et rien pour en encadrer les dérives. Tant qu’à y passer des années de débat parlementaire, autant commencer maintenant
PS : les remarques sur le style/physique, c’est nul
Le
13/08/2021 à
09h
53
Oui on en viendra forcément à de telles solutions, même si ça ne protègera pas de tout. Mais l’important à mon sens, c’est qu’on s’en préoccupe avant que ces technologies ne se généralisent. Parce que si on gère aussi bien que les protections dans le domaine de l’email, on est mal
Parce que l’implémentations dans les PC/Cartes mères passe toujours par du M.2 dans le domaine du Wi-Fi (ou son dérivé CNVio chez Intel). Je ne répète juste pas ce genre d’infos qui n’ont rien de nouveau/inhabituel dans tous les papiers (parce que sinon on a pas fini )
Le
12/08/2021 à
10h
13
C’est aussi un choix fait pour la base installée visée. C’est même sans doute le critère principal.
Le
12/08/2021 à
09h
47
C’est le chiffre théorique, on sera bien en-dessous en pratique (surtout si on est pas très près du point d’accès). Mais c’est mieux qu’à configuration équivalente en Wi-Fi 5, forcément.
(reply:59251:The Howler)
Tu as lu l’article (et le passage où ça parle de la série AX200) ? Regarde le format de cette solution qui est disponible depuis… 2019
Oui avec un risque pas anodin : une IA “invente” des détails. Je prends souvent l’exemple d’une puce sur un PCB : une IA peut être entrainée à savoir qu’il faut placer du texte lisible dans ce genre de cas pour avoir une image nette. Mais le texte qu’elle y mettra ne sera pas forcément le bon ou extrapolé par rapport aux pixels de départ. On imagine ce que ça peut impliquer dans le cadre d’enquêtes policières
Le
12/08/2021 à
19h
33
J’ai testé avec l’image de référence utilisée ici, c’est un peu mieux que GIMP mais franchement pas génial comparé à EASU même sans RCAS en complément
Le
12/08/2021 à
12h
55
Sur un outil comme celui-ci ce n’est pas nécessaire, on voit clairement les dégradations suite à l’upscale. Par contre sur d’autres outils oui il faut avoir une image native en 1080p/4K et regarder les différences par rapport à des images calculées pour mieux se rendre compte des éventuels écarts
(quote:59278:brice.wernet) En relisant comment ça marche, je me dis qu’on peut l’intégrer directement dans l’écran en fait :) Les maths impliqués n’ont pas l’air de dépasser ce que peut faire un petit copro pour l’IA…
Oui et non, dans les JV par exemple (et le graphique de la doc AMD le montre bien), les technos type DLSS/FSR sont appliquées avant certains effets et la mise en place d’élements d’interface pour éviter que ça ne pose problème. Mais dans la vidéo oui ça peut être appliqué plus automatiquement, c’est d’ailleurs que ce que fait NVIDIA avec ses dernières SHIELD TV qui ont un upscale IA intégré, certaines TV haut de gamme ont aussi de tels dispositifs plus ou moins efficaces gérés par le SoC.
Oui désormais c’est assumé et présenté comme tel (même si les débuts de DLSS n’étaient pas très clairs sur la façon dont tout ça fonctionnait). Mais c’est comme à l’époque du limiteur de tesselation actif dans les pilotes AMD : on réduit des détails pour améliorer les performances
Ce qui a posé souci avec DLSS c’est surtout que l’image était dégradée (ce qui est le cas de FSR aussi, plus ou moins selon les modes). Là où DLSS 2.0 a réussi a obtenir de bien meilleurs résultats dans pas mal de situations (et aveec bien moins de limitations).
Le
12/08/2021 à
12h
32
fry a dit:
petite question David, sans vouloir troller hein, c’est une vraie question, mais pourquoi est-ce que le FSR est “moins élégant” et en quoi est-ce “Une solution moins convaincante” ?
Comme expliqué, FSR c’est de l’upscaling performant mais à l’ancienne. ça agrandit l’image, ça applique un algo pour remplir les trous qui ne peut pas faire de miracle, résultat on a du flou et du bruit au final (parce que le filtre de netteté). FSR est plutôt bon dans son genre, mais ça s’arrête là.
Les solutions type DLSS (mais tout ce qui touche à la reconstruction d’image par l’IA), c’est différent puisque les modèles sont entrainés à reconstituer une image originale depuis une version dégradée (ici une image en basse définition). Cela laisse une part d’aléatoire (le modèle peut “inventer” des détails), mais in fine tu peux avoir une image plus nette que celle qui aurait été calculée en définition native (voir le cas de DLSS dans certains jeux où c’est le cas).
Et avec certains outils, qui peuvent se permettre d’avoir plus de quelques milisecondes pour effectuer leur calcul , tu as des résultats assez impressionnant même sur de l’upscaling 6x/8x.
j’ai pas forcément examiné à la loupe tous les comparatifs DLSS/FSR, mais j’avais cru comprendre que ça se valait à quelques pouillèmes à réglage équivalent.
Tu as mal compris (et il n’y a pas de “réglage équivalent” ça n’a rien à voir)
autre question mais d’un point de vue pratique cette fois, à priori on a des exemples de frame sans DLSS / avec DLSS suivant les réglages (à minima dans les documents fournis par Nvidia), est-ce qu’utiliser le script sur l’image sans DLSS pourrait permettre de comparer le résultat obtenu par les scripts (j’entend bien qu’il manquerai le temps de rendu, mais ça serait pour pouvoir comparer la qualité de la mise à l’échelle)
Tu peux mais ça n’a pas trop de sens. L’important dans les jeux c’est l’implémentation pratique, qui peut changer (voir les conseils d’AMD qui peuvent être bien ou mal appliqués par les développeurs). Surtout que DLSS fonctionne dans un flux de rendu (il utilise tout un tas de données qui alimentent le modèle pas que l’image brute de départ pour effectuer son rendu final) et ne peut donc pas être comparé à des solutions d’upscaling de photos/image (et ne peut d’ailleurs pas être utilisé pour ça en l’état).
Mais comme dit dans l’article, il y a déjà plusieurs solution d’upscale reposant sur l’IA dans le domaine de la photo, et là il y a matière à comparer à ce que fait FSR en qualité et en perf.
sinon sympa comme idée, j’aime ce genre d’article “bidouille” :p
Faut bien que quelqu’un se colle à ce genre de bêtises
perso, depuis que j’ai compris que le DLSS et le FSR n’était que des astuces pour augmenter la résolution et alléger le boulot de la CG, ça me fais pas envie, je reconnais le coté astucieux pour gagner des fps, c’est toujours mieux que de jouer en “ultra de la mort qui tue” en 640*480 sur un écran 4k en le laissant se débrouiller pour la mise à l’échelle, mais ça me chagrine un peu quand même.
Comme je le dis souvent, il ne faut pas oublier un point essentiel de ces technos qui sont le plus souvent analysées que par le petit bout de la lorgnette des benchmarks : passer de 120 à 160 ips à qualité équivalente via FSR/DLSS, ça utilise certe une “astuce”, mais ça permet aussi d’avoir assez de marge pour passer éventuellement au niveau de qualité graphique supérieur. Et là, le gain visuel peut être bien plus intéressant que l’éventuelle perte de détails qu’on verra sur une capture analysée en zoom x10.
dans le même style que le mp3 320 vs flac, alors que je suis probablement incapable de déceler la moindre différence à l’écoute.
Comparaison n’est pas raison (mais on en revient aussi à un avantage indirect lié à la solution destructrice mise en place : on peut stocker en MP3 une quantité impressionnante de chansons, impossible à stocker en FLAC sans des moyens professionnels. C’est comme toujours : une balance et des choix à faire.
(quote:59266:brice.wernet) Ce me donne envie de le passer sur quelques DVD… (genre Abyss, DVD commercial vendu avec les bandes noires du 4⁄3 et les bandes noires du 16⁄9 en même temps)
Oui il y a sans doute possibilité de faire un traitement image par image et obtenir un upscale comme ça. Par contre il serait sans doute plus intéressant de regarder du côté des solutions IA (qui ont des versions vidéo, notamment chez Gigapixel) qui peuvent donner des résultats sympas pour de la “mise à jour” d’archives.
Vaark a dit:
Merci pour ce papier, c’est une sacrée idée que ce dossier ! Ce que je retiens principalement, c’est qu’une image retravaillée via EASU + RCAS est plus légère et plus nette qu’une image retravaillée via GIMP, et c’est quand même une belle évolution.
Oui ce serait même intéressant de voir FSR intégré comme filtre GIMP par exemple ou en shader via VLC (j’ai déjà soumis l’idée à JBK )
J’ai vraiment l’impression que, de tout temps en informatique, beaucoup de grosses évolutions sont directement liées aux améliorations des algos de compression.
Au final, l’informatique, c’est toujours des maths
Le
12/08/2021 à
10h
44
Relis plus attentivement ;) Pour les difference, ouvre les images dans un onglet et si tu ne vois pas les écarts, c’est que tu es bon pour des lunettes
Toute l’idée de FSR étant de dire « on ne va pas produire une image équivalente ou meilleure à la DLSS, mais l’approximation sera suffisamment faible pour ne pas créer de drama chez les joueurs à 60 ips »
D’ailleurs c’est assez captivant pour un journaliste de voir la perception de ces fonctionnalités chez les joueurs/lecteurs, quand on pense qu’il y a une dizaine d’années, la moindre optimisation graphique destructrice pour gratter des performances pouvait créer un scandale mondial
Pas de souci, on est là pour ça ;) Puis bon, les constructeurs n’aident pas trop à comprendre ce qui change ou pas selon les modèles/gammes il faut dire
Le
12/08/2021 à
15h
08
La durée d’utilisation ne change rien aux performances. La P620 c’est un modèle principalement pour l’affichage, pas pour le calcul. Tu entends quoi par “optimisé Quadro ?”, les cartes s’utilisent pareil (mais ne sont pas spécialement conçues pour de l’OC bien que ça puisse être fait)
Le
11/08/2021 à
15h
17
Mémoire ECC, pilotes, qualification principalement (tu as aussi des fonctionnalités spécifiques, mais c’est plus le cas chez NVIDA qui a tout un écosystème complémentaire, contrairement à AMD)
Le
11/08/2021 à
14h
11
Derived a dit:
Hélas, sur le marché plex, c’est nvidia ou rien, leur ffmpeg compilé maison ne prend en charge que l’accélération nvidia / intel quicksync mais pas AMD, et Intel ne faisant pas encore de carte dédiées qui gère quicksync (et je connais pas les perfs si plusieurs streams en même temps)…
Si mais ça ne vise pas l’offre grand public (forcément)
darkbeast a dit:
je me disais, chouette, je vais remplacer ma 1050 low profile, et j’ai vu le prix :(
Ce n’est pas une GeForce ;)
Le
11/08/2021 à
08h
07
Derived a dit:
Et ça soule, parce que sur ce marché spécifique, il y a nvidia ou rien..
Pourtant chez AMD/Intel tu as des solutions d’accélération matérielle également non ?
Le
10/08/2021 à
19h
06
(reply:59205:Aristide Rutilant)
Les cartes Pro sont en général assez silencieuse (même chez AMD désormais qui n’était pas un spécialiste du genre), mais ce n’est pas forcément le critère premier vu la typologie des stations de travail haut de gamme. La compacité permet une intégration à certains formats de machines. Les modèles pour serveurs c’est différent puisqu’ils sont passifs par nature.
Le
10/08/2021 à
19h
03
1 ENC 1 DEC
Le
10/08/2021 à
15h
30
Chaque marché a son rythme. Ici NVIDIA annonce une carte attendue pour octobre. C’est une pratique courante dans le domaine pro, moins pour ce qui est de l’offre grand public. Il y a de toutes façons déjà des déclinaisons 3050 pour PC portables, ça finira bien par arriver sur la gamme classique.
Et comme le diraient certains : quel serait l’intérêt de se précipiter à dévoiler un produit non dispo ?
Le
10/08/2021 à
15h
25
Disons que la T4 était là pour ça, mais elle visait surtout les marchés type inférence et ça commençait à dater un peu. NV attendait sans doute Ampere pour avoir un produit avec TGP/performances similaire en LP, mais avec un tarif plus acceptable (sans doute aussi pour ça qu’on est à 6 Go de mémoire et plus 16 par exemple).
Pour rappel, la version Studio/Gaming c’est juste une différence des optimisations intégrées à un instant “t”, le pilote est le même. Et WU ce n’est pas MS qui fourni le pilote, ils distribuent ceux qui sont validés par NVIDIA (assez régulièrement de mémoire). Mais ce que je veux dire, c’est que ceux que la taille des pilotes défrise (à raison) peuvent très bien se reposer sur les versions WU.
A moins de vouloir toujours avoir la dernière optimisation pour le plaisir de, ça n’a pas forcément d’intérêt de télécharger un nouveau pilotes tous les 4 matins. Au pire on peut le faire de temps en temps quand on a besoin d’un correctif ou d’une fonctionnalité en particulier (c’est ce que je fais sur mes machines perso par exemple).
Le
12/08/2021 à
11h
10
Oui comme dit dans l’article dédié, NV intègre GFE en complément de son interface de gestion des pilotes, ce qui nécessite pas mal de place, sans proposer (malheureusement) de package sans l’intégrer (ce qui revient à télécharger via Windows Update comme dit plus haut), sans parler des modules comme NGX pour DLSS, etc. . Il n’y a pas vraiment d’équivalent aussi complet ailleurs. Mais AMD fait un bon travail d’optimisation pour l’intégration de ses fonctions comme Link ou ReLive.
C’est surtout que certains intégrateurs continuent de certifier des pilotes de leur côté mais qu’ils ne peuvent désormais plus verrouiller à ces pilotes là uniquement (comme c’était le cas avant).
Le
12/08/2021 à
09h
49
eglyn a dit:
d’ailleurs à l’époque de l’article, il ne pesait pour Nvidia que 560Mo, presque 300Mo de moins…
Il y a trop d’utilitaires qui ne servent à rien dans le package, ils devraient proposer au téléchargement uniquement le pilote de la CG à côté.
Ce que propose Windows Update quoi
(quote:59245:brice.wernet) Niveau fonctionnalités, je suis content de voir OneAPI débarquer partout, mais je n’ai pas encore sauté le pas.
Dans le cas du MediaSDK (comme d’autres) c’est principalement du rebranding, même s’il y a des changements plus structurels qui vont être/son menés pour rendre l’ensemble plus cohérent.
Oui le bleu est spécfique aux Radeon Pro depuis assez longtemps, alors que le grand public est sur tons rouge/noir historiquement. Le ventilateur n’est pas spécialement bruyant. Forcément si on pousse le GPU on l’entend un peu, mais il n’est pas “aigu” bien qu’à nombreuses petites ailettes.
Comme indiqué dans l’article, c’est un design connu par AMD depuis un moment et dans cette classe de consommation il y a assez peu de risques. Puis dans une station de travail haut de gamme, c’est souvent le reste de la ventilation qui prend le relai (même si c’est de moins en moins vrai).
Ces cartes n’apportent rien côté Hashrate si c’est la question. Vu leur tarif, elles sont donc moins visées par les mineurs. Elles ont surtout de la mémoire ECC et des pilotes spécifiques avec un support et une certification spécifiques.
Le
10/08/2021 à
19h
39
Le soucis c’est que les performances diffèrent pas mal selon la charge, l’optimisation. Rien que sur Hashcat selon les algorithmes on a des gains assez fortement variables qui peuvent changer toute l’interprétation et évoluer d’une version à l’autre. On pourrait faire 200 benchs pour avoir un panel complet mais ce serait illisible et injouable dans les délais de test. Si je trouve un protocole correct je réintègrerai aux tests, mais en l’état c’est trop peu exploitable (et je ne suis pas su genre à faire du graphique pour le plaisir).
Si tu fais référence à mon article, il faut savoir qu’en fait l’extension n’est pas nécessaire, les fonctionnalités des conteneurs sont activables dans le about:config (il faudrait que je rajoute ça…)
Cependant, le vrai potentiel que je vois dans cette fonctionnalité, c’est de pouvoir isoler ses cookies et données “à la demande”, sans avoir besoin de changer de navigateur.
Non je faisais référence à la mention des conteneurs, qui ne sont plus forcément nécessaires depuis TCP (c’était l’objectif dès le départ, les développeurs travaillant depuis longtemps à l’isolation). Après je comprends que le fait d’avoir quelque chose de manuel rassure (j’appuie sur des boutons donc il se passe des trucs), mais dès lors que ça peut être systématisé/automatisé…
Le
11/08/2021 à
15h
39
Les conteneurs c’est d’une manière intégré de manière automatisée avec Total Cookie Protection qui vise à isoler les données et celles des outils de pistage domaine par domaine, sans avoir besoin d’une extension dédiée ou d’actions de l’utilisateur.
Non c’est annoncé dès le départ par MS pour la version finale (et ça n’a rien de nouveau). Si c’est une VM, TPM 2.0 ne sera pas exigé lors de la procédure d’installation.
Le
10/08/2021 à
10h
15
La différence dans l’approche que tu évoques c’est qu’il faut un second système qui tourne en permanence pour assurer l’accès distant éventuel. C’est sans doute à prendre en compte si jamais on veut faire une comparaison de coût.
Si tu peux utiliser macOS comme hôte/invité sur un M1 (Big Sur/Monterey), et Windows/Linux (dans leurs versions ARM64 bien entendu) comme invité.
Un Type A gère différentes classes de débits/alimentation. Pareil pour le RJ45 qui dépend des capacités de l’hôte/client, le HDMI, DP, etc. Et chez Apple, c’est du Thunderbolt (dont les capacités varient aussi selon les versions/câbles).
Comme dit : réfléchir et lire les caractéristiques est le pré-requis, toujours. Et pas que pour le Type-C
Le
09/08/2021 à
18h
30
Je sais que “c’était mieux avant” est une pensée courante (alors que presque toujours fausse), mais comme je le rappelle régulièrement les problématique connecteur/câbles/possibilités sont tout sauf nouvelles ou liées au Type-C. C’est le cas de tout standard qui évolue dans le temps sans changer de connecteur. C’était le cas du DVI à son époque, du HDMI ensuite, du DP désormais, de l’USB depuis toujours.
La règle reste simple : c’est aux constructeurs de correctement documenter leurs produits. Les consortiums établissent des règles en la matière, ils n’ont qu’à les suivre. (pour la question de l’alimentation, il y a une phase de négociation dans ce genre de protocoles qui évite ce genre de problèmes).
Le
09/08/2021 à
14h
45
Quand un connecteur d’alim est HS, il est HS quelle que soit la technologie. Qu’on le considère plus ou moins fragile n’y change rien que ça t’arrive. Par contre quand ton alim est HS, avec une alimentation qui utilise l’USB Type-C tu n’as pas à choisir entre 27 adaptateurs/blocs d’alimentation.
Je pense que l’idée c’est de comparer avec la techno utilisée par une bonne partie du marché et qui n’a pas d’implication en performances (ou légère). L’intérêt d’une solution IA ici, c’est sans doute qu’elle nécessite peu de ressource (ENC/DEC H.264 et unités matricielles), alors qu’un flux AV1 ou H.265… Mais je n’ai pas souvenir que les gains annoncés pour ces codecs soient de x10 en BP.
De toutes façons il est ici question de proposer, si j’ai bien compris, une solution de reconstruction de l’image dégradée par une BP faible, à travers l’application d’un modèle dédiée. Elle serait donc applicable à toute forme de codec. Et dans tous les cas c’est l’implémentation concrète qui sera à surveiller et à analyser, pour voir les intérêts et complémentarités, plutôt que de tomber dans les oppositions stériles.
15083 commentaires
Cryptomonnaies et efficacité de la Radeon RX 6600 XT : prenons un peu de recul
13/08/2021
Le 14/08/2021 à 10h 48
Parce que ça n’a rien à voir avec le sujet évoqué. On a d’ailleurs parlé des questions des différents modèles de minage lorsqu’il a été question de Chia qui se présente comme “verte”
Le 13/08/2021 à 20h 16
Calme tes ardeurs et tes propos, merci.
Le marché n’est pas similaire ;)
Le 13/08/2021 à 11h 19
Oui t’as le même niveau de puissance de calcul (30 MH/s sur DaggerHashimoto environ), mais avec une conso 2 à 3x plus élevée.
Accès distant à Windows 365 ou classique : clients légers, OS dédiés et Raspberry Pi
09/08/2021
Le 13/08/2021 à 20h 24
Densifier sera toujours plus efficace. Après c’est un savoir-faire et la part qui reste locale ou pas dépend du besoin. Comme dit plus haut, ce sera essentiel dans certains cas, désastreux pour d’autres.
Mais il ne faut pas croire qu’une techno est mauvaise parce qu’elle est parfois mal implémentée. Après tant que l’informatique jetable restera dans les mœurs, avec des coûts déportés, on sera tenté de penser que c’est un bon choix.
Le 11/08/2021 à 14h 13
Unity doit sans doute viser le même marché qui était celui de Parsec : les professionnels de la 3D et du JV avec des fonctions collaboratives. Leurs modèles sont d’ailleurs assez proche : outil grand public gratuit (open source dans le modèle d’Unity) avec une clientèle qui finance du côté de l’offre Pro. S’il y a du changement, je doute que ce soit dans le mauvais sens, mais on verra :)
Le 10/08/2021 à 05h 44
Au risque de me répéter, les avis péremptoires n’ont aucun intérêt. Il n’y a pas de bon ou de mauvais usage, seulement des besoins et des solutions plus ou moins adaptées. Certains voudront avoir autant de serveurs que de Raspberry Pi, d’autres voudront densifier dans un serveur unique, certains en profiteront pour aussi avoir des VM Windows avec accès bureau, etc.
Il y a des soucis dans toute approche. Avoir un PC par poste Windows plutôt que des VM n’est pas toujours l’approche la plus pertinente. Tout dépend du besoin. Et il ne faut jamais confondre nos besoins propres ou ceux de notre foyer/entreprise/expérience avec l’expression de généralités.
C’est un seul utilisateur à la fois par VM
Le 09/08/2021 à 19h 51
Oui c’est toujours un équilibre difficile à trouver que de financer des applications qui demandent de grosses équipes et des centaines d’heure de travail, avec une base d’utilisateurs qui ne veulent pas toujours payer. Mais face à des solutions “tout en un” à la Shadow on est quand même bien contents d’avoir des alternatives multi-marques/plateformes. Mais le curseur n’est pas toujours simple à placer.
Le 09/08/2021 à 19h 40
Parsec est gratuit pour une utilisation sur ta propre machine (comme précisé dans l’article). Seules des fonctionnalités complémentaires sont payantes (mais elles ne sont pas nécessaire à l’accès distant.
Le 09/08/2021 à 19h 29
Comme dit, le dispositif est déjà en place sur Windows 10 sur les machines en intégration. On verra comment ce sera implémenté/contournable dans Windows 11. Mais demander des réponses avant la sortie de la version finale ne sert à rien : on ne peut pas y répondre.
Toutes les solutions présentées ici sont locales ;) On peut les implémenter via Internet, ou pas, selon ses besoins. Comme toujours : penser qu’un règle est plus valable qu’une autre n’a aucune pertinence. L’intérêt des solutions diversifiées est dans la capacité de choisir l’une ou l’autre selon le besoin
Le 09/08/2021 à 18h 10
Oui c’est une alternative à FreeRDP (qui est un fork de rdesktop à l’origine), et il fallait bien en choisir l’un des deux. Note qu’il n’a plus de mainteneur depuis 2019 et qu’il n’y a pas eu de nouvelle version depuis la 1.9.0.
Le 09/08/2021 à 16h 05
Il y a de vraies choses qui ne changent jamais, comme l’outrance dans la simplification ;) Sur le fond, j’adorerai que la structure des distributions Linux permette un partage aisé du bureau avec accélération matérielle sur une machine distante en multiplateformes. Mais c’est loin d’être le cas.
Parsec permet une “installation partagée” qui donne notamment accès à l’écran de connexion. Par contre Windows 11 n’impose pas de compte MS. C’est seulement le cas dans la version Famille (à voir ce comment ce sera implémenté en pratique), comme c’est déjà le cas en intégration sur W10.
Le 09/08/2021 à 15h 49
Quand tu compares la performance native de la carte graphique avec celle obtenue lorsque l’accès distant est activé, tu peux avoir des écarts élevés (testé sur des GeForce, mais pas les dernières Ampere, ce qui ne devrait pas changer grand chose en pratique). C’est un peu le souci de la solution Steam historiquement (avec le fait que ce soit peu pratique vu que c’est pensé pour du partage de jeu plutôt que de bureau même si c’est possible en pratique). Je ferai des relevés sur la dernière génération à l’occasion
NVIDIA a numérisé son PDG pour la GTC 2021, vous êtes les prochains sur la liste
13/08/2021
Le 13/08/2021 à 13h 52
La capture est une simple illustration, c’est effectivement le vrai JHH, le lien vers le passage de la conférence concerné est dans l’article.
Le 13/08/2021 à 10h 59
Flux audio, fixed ;)
Le 13/08/2021 à 10h 06
Oui il y a encore des ratés. Mais il y a quelques années on ne pensait qu’on en serait sans doute pas là si vite (en vrai c’est presque exploitable en l’état) et ça ira sans doute assez vite à corriger une bonne partie des problèmes. Mais si on anticipe pas, on va se retrouver avec une évolution technologique aux implications potentiellement problématiques et rien pour en encadrer les dérives. Tant qu’à y passer des années de débat parlementaire, autant commencer maintenant
PS : les remarques sur le style/physique, c’est nul
Le 13/08/2021 à 09h 53
Oui on en viendra forcément à de telles solutions, même si ça ne protègera pas de tout. Mais l’important à mon sens, c’est qu’on s’en préoccupe avant que ces technologies ne se généralisent. Parce que si on gère aussi bien que les protections dans le domaine de l’email, on est mal
DWA-X1850 : la clé USB Wi-Fi 6 de D-Link arrive sur le marché
12/08/2021
Le 13/08/2021 à 07h 24
Le 12/08/2021 à 12h 38
Parce que l’implémentations dans les PC/Cartes mères passe toujours par du M.2 dans le domaine du Wi-Fi (ou son dérivé CNVio chez Intel). Je ne répète juste pas ce genre d’infos qui n’ont rien de nouveau/inhabituel dans tous les papiers (parce que sinon on a pas fini )
Le 12/08/2021 à 10h 13
C’est aussi un choix fait pour la base installée visée. C’est même sans doute le critère principal.
Le 12/08/2021 à 09h 47
C’est le chiffre théorique, on sera bien en-dessous en pratique (surtout si on est pas très près du point d’accès). Mais c’est mieux qu’à configuration équivalente en Wi-Fi 5, forcément.
Tu as lu l’article (et le passage où ça parle de la série AX200) ? Regarde le format de cette solution qui est disponible depuis… 2019
FidelityFX Super Resolution (FSR) : utilisez la solution d’AMD pour améliorer n’importe quelle image
12/08/2021
Le 12/08/2021 à 19h 56
Oui avec un risque pas anodin : une IA “invente” des détails. Je prends souvent l’exemple d’une puce sur un PCB : une IA peut être entrainée à savoir qu’il faut placer du texte lisible dans ce genre de cas pour avoir une image nette. Mais le texte qu’elle y mettra ne sera pas forcément le bon ou extrapolé par rapport aux pixels de départ. On imagine ce que ça peut impliquer dans le cadre d’enquêtes policières
Le 12/08/2021 à 19h 33
J’ai testé avec l’image de référence utilisée ici, c’est un peu mieux que GIMP mais franchement pas génial comparé à EASU même sans RCAS en complément
Le 12/08/2021 à 12h 55
Sur un outil comme celui-ci ce n’est pas nécessaire, on voit clairement les dégradations suite à l’upscale. Par contre sur d’autres outils oui il faut avoir une image native en 1080p/4K et regarder les différences par rapport à des images calculées pour mieux se rendre compte des éventuels écarts
Oui et non, dans les JV par exemple (et le graphique de la doc AMD le montre bien), les technos type DLSS/FSR sont appliquées avant certains effets et la mise en place d’élements d’interface pour éviter que ça ne pose problème. Mais dans la vidéo oui ça peut être appliqué plus automatiquement, c’est d’ailleurs que ce que fait NVIDIA avec ses dernières SHIELD TV qui ont un upscale IA intégré, certaines TV haut de gamme ont aussi de tels dispositifs plus ou moins efficaces gérés par le SoC.
Oui désormais c’est assumé et présenté comme tel (même si les débuts de DLSS n’étaient pas très clairs sur la façon dont tout ça fonctionnait). Mais c’est comme à l’époque du limiteur de tesselation actif dans les pilotes AMD : on réduit des détails pour améliorer les performances
Ce qui a posé souci avec DLSS c’est surtout que l’image était dégradée (ce qui est le cas de FSR aussi, plus ou moins selon les modes). Là où DLSS 2.0 a réussi a obtenir de bien meilleurs résultats dans pas mal de situations (et aveec bien moins de limitations).
Le 12/08/2021 à 12h 32
Comme expliqué, FSR c’est de l’upscaling performant mais à l’ancienne. ça agrandit l’image, ça applique un algo pour remplir les trous qui ne peut pas faire de miracle, résultat on a du flou et du bruit au final (parce que le filtre de netteté). FSR est plutôt bon dans son genre, mais ça s’arrête là.
Les solutions type DLSS (mais tout ce qui touche à la reconstruction d’image par l’IA), c’est différent puisque les modèles sont entrainés à reconstituer une image originale depuis une version dégradée (ici une image en basse définition). Cela laisse une part d’aléatoire (le modèle peut “inventer” des détails), mais in fine tu peux avoir une image plus nette que celle qui aurait été calculée en définition native (voir le cas de DLSS dans certains jeux où c’est le cas).
Et avec certains outils, qui peuvent se permettre d’avoir plus de quelques milisecondes pour effectuer leur calcul , tu as des résultats assez impressionnant même sur de l’upscaling 6x/8x.
Tu as mal compris (et il n’y a pas de “réglage équivalent” ça n’a rien à voir)
Tu peux mais ça n’a pas trop de sens. L’important dans les jeux c’est l’implémentation pratique, qui peut changer (voir les conseils d’AMD qui peuvent être bien ou mal appliqués par les développeurs). Surtout que DLSS fonctionne dans un flux de rendu (il utilise tout un tas de données qui alimentent le modèle pas que l’image brute de départ pour effectuer son rendu final) et ne peut donc pas être comparé à des solutions d’upscaling de photos/image (et ne peut d’ailleurs pas être utilisé pour ça en l’état).
Mais comme dit dans l’article, il y a déjà plusieurs solution d’upscale reposant sur l’IA dans le domaine de la photo, et là il y a matière à comparer à ce que fait FSR en qualité et en perf.
Faut bien que quelqu’un se colle à ce genre de bêtises
Comme je le dis souvent, il ne faut pas oublier un point essentiel de ces technos qui sont le plus souvent analysées que par le petit bout de la lorgnette des benchmarks : passer de 120 à 160 ips à qualité équivalente via FSR/DLSS, ça utilise certe une “astuce”, mais ça permet aussi d’avoir assez de marge pour passer éventuellement au niveau de qualité graphique supérieur. Et là, le gain visuel peut être bien plus intéressant que l’éventuelle perte de détails qu’on verra sur une capture analysée en zoom x10.
Comparaison n’est pas raison (mais on en revient aussi à un avantage indirect lié à la solution destructrice mise en place : on peut stocker en MP3 une quantité impressionnante de chansons, impossible à stocker en FLAC sans des moyens professionnels. C’est comme toujours : une balance et des choix à faire.
Oui il y a sans doute possibilité de faire un traitement image par image et obtenir un upscale comme ça. Par contre il serait sans doute plus intéressant de regarder du côté des solutions IA (qui ont des versions vidéo, notamment chez Gigapixel) qui peuvent donner des résultats sympas pour de la “mise à jour” d’archives.
Oui ce serait même intéressant de voir FSR intégré comme filtre GIMP par exemple ou en shader via VLC (j’ai déjà soumis l’idée à JBK )
Au final, l’informatique, c’est toujours des maths
Le 12/08/2021 à 10h 44
Relis plus attentivement ;) Pour les difference, ouvre les images dans un onglet et si tu ne vois pas les écarts, c’est que tu es bon pour des lunettes
Toute l’idée de FSR étant de dire « on ne va pas produire une image équivalente ou meilleure à la DLSS, mais l’approximation sera suffisamment faible pour ne pas créer de drama chez les joueurs à 60 ips »
D’ailleurs c’est assez captivant pour un journaliste de voir la perception de ces fonctionnalités chez les joueurs/lecteurs, quand on pense qu’il y a une dizaine d’années, la moindre optimisation graphique destructrice pour gratter des performances pouvait créer un scandale mondial
NVIDIA dévoile sa RTX A2000 « low profile » à 450 dollars, attendue pour octobre
10/08/2021
Le 12/08/2021 à 19h 48
Pas de souci, on est là pour ça ;) Puis bon, les constructeurs n’aident pas trop à comprendre ce qui change ou pas selon les modèles/gammes il faut dire
Le 12/08/2021 à 15h 08
La durée d’utilisation ne change rien aux performances. La P620 c’est un modèle principalement pour l’affichage, pas pour le calcul. Tu entends quoi par “optimisé Quadro ?”, les cartes s’utilisent pareil (mais ne sont pas spécialement conçues pour de l’OC bien que ça puisse être fait)
Le 11/08/2021 à 15h 17
Mémoire ECC, pilotes, qualification principalement (tu as aussi des fonctionnalités spécifiques, mais c’est plus le cas chez NVIDA qui a tout un écosystème complémentaire, contrairement à AMD)
Le 11/08/2021 à 14h 11
Si mais ça ne vise pas l’offre grand public (forcément)
Ce n’est pas une GeForce ;)
Le 11/08/2021 à 08h 07
Pourtant chez AMD/Intel tu as des solutions d’accélération matérielle également non ?
Le 10/08/2021 à 19h 06
Les cartes Pro sont en général assez silencieuse (même chez AMD désormais qui n’était pas un spécialiste du genre), mais ce n’est pas forcément le critère premier vu la typologie des stations de travail haut de gamme. La compacité permet une intégration à certains formats de machines. Les modèles pour serveurs c’est différent puisqu’ils sont passifs par nature.
Le 10/08/2021 à 19h 03
1 ENC
1 DEC
Le 10/08/2021 à 15h 30
Chaque marché a son rythme. Ici NVIDIA annonce une carte attendue pour octobre. C’est une pratique courante dans le domaine pro, moins pour ce qui est de l’offre grand public. Il y a de toutes façons déjà des déclinaisons 3050 pour PC portables, ça finira bien par arriver sur la gamme classique.
Et comme le diraient certains : quel serait l’intérêt de se précipiter à dévoiler un produit non dispo ?
Le 10/08/2021 à 15h 25
Disons que la T4 était là pour ça, mais elle visait surtout les marchés type inférence et ça commençait à dater un peu. NV attendait sans doute Ampere pour avoir un produit avec TGP/performances similaire en LP, mais avec un tarif plus acceptable (sans doute aussi pour ça qu’on est à 6 Go de mémoire et plus 16 par exemple).
AMD, Intel et NVIDIA : mettez à jour vos pilotes graphiques
11/08/2021
Le 12/08/2021 à 14h 49
Pour rappel, la version Studio/Gaming c’est juste une différence des optimisations intégrées à un instant “t”, le pilote est le même. Et WU ce n’est pas MS qui fourni le pilote, ils distribuent ceux qui sont validés par NVIDIA (assez régulièrement de mémoire). Mais ce que je veux dire, c’est que ceux que la taille des pilotes défrise (à raison) peuvent très bien se reposer sur les versions WU.
A moins de vouloir toujours avoir la dernière optimisation pour le plaisir de, ça n’a pas forcément d’intérêt de télécharger un nouveau pilotes tous les 4 matins. Au pire on peut le faire de temps en temps quand on a besoin d’un correctif ou d’une fonctionnalité en particulier (c’est ce que je fais sur mes machines perso par exemple).
Le 12/08/2021 à 11h 10
Oui comme dit dans l’article dédié, NV intègre GFE en complément de son interface de gestion des pilotes, ce qui nécessite pas mal de place, sans proposer (malheureusement) de package sans l’intégrer (ce qui revient à télécharger via Windows Update comme dit plus haut), sans parler des modules comme NGX pour DLSS, etc. . Il n’y a pas vraiment d’équivalent aussi complet ailleurs. Mais AMD fait un bon travail d’optimisation pour l’intégration de ses fonctions comme Link ou ReLive.
C’est surtout que certains intégrateurs continuent de certifier des pilotes de leur côté mais qu’ils ne peuvent désormais plus verrouiller à ces pilotes là uniquement (comme c’était le cas avant).
Le 12/08/2021 à 09h 49
Ce que propose Windows Update quoi
Dans le cas du MediaSDK (comme d’autres) c’est principalement du rebranding, même s’il y a des changements plus structurels qui vont être/son menés pour rendre l’ensemble plus cohérent.
Le 12/08/2021 à 05h 13
Voir par ici
Radeon Pro W6600 : qu’a-t-elle dans le ventre ?
10/08/2021
Le 12/08/2021 à 09h 48
A peu près celle d’une RX 6600 (d’où le nom)
Le 11/08/2021 à 14h 10
Oui le bleu est spécfique aux Radeon Pro depuis assez longtemps, alors que le grand public est sur tons rouge/noir historiquement. Le ventilateur n’est pas spécialement bruyant. Forcément si on pousse le GPU on l’entend un peu, mais il n’est pas “aigu” bien qu’à nombreuses petites ailettes.
Comme indiqué dans l’article, c’est un design connu par AMD depuis un moment et dans cette classe de consommation il y a assez peu de risques. Puis dans une station de travail haut de gamme, c’est souvent le reste de la ventilation qui prend le relai (même si c’est de moins en moins vrai).
Ces cartes n’apportent rien côté Hashrate si c’est la question. Vu leur tarif, elles sont donc moins visées par les mineurs. Elles ont surtout de la mémoire ECC et des pilotes spécifiques avec un support et une certification spécifiques.
Le 10/08/2021 à 19h 39
Le soucis c’est que les performances diffèrent pas mal selon la charge, l’optimisation. Rien que sur Hashcat selon les algorithmes on a des gains assez fortement variables qui peuvent changer toute l’interprétation et évoluer d’une version à l’autre. On pourrait faire 200 benchs pour avoir un panel complet mais ce serait illisible et injouable dans les délais de test. Si je trouve un protocole correct je réintègrerai aux tests, mais en l’état c’est trop peu exploitable (et je ne suis pas su genre à faire du graphique pour le plaisir).
Firefox 91 s’améliore, mais la part de marché du navigateur continue de baisser
11/08/2021
Le 11/08/2021 à 15h 46
Non je faisais référence à la mention des conteneurs, qui ne sont plus forcément nécessaires depuis TCP (c’était l’objectif dès le départ, les développeurs travaillant depuis longtemps à l’isolation). Après je comprends que le fait d’avoir quelque chose de manuel rassure (j’appuie sur des boutons donc il se passe des trucs), mais dès lors que ça peut être systématisé/automatisé…
Le 11/08/2021 à 15h 39
Les conteneurs c’est d’une manière intégré de manière automatisée avec Total Cookie Protection qui vise à isoler les données et celles des outils de pistage domaine par domaine, sans avoir besoin d’une extension dédiée ou d’actions de l’utilisateur.
Parallels Desktop 17 pour Mac gère Monterey, Windows 11 et renforce ses fonctionnalités
10/08/2021
Le 11/08/2021 à 14h 06
Non c’est annoncé dès le départ par MS pour la version finale (et ça n’a rien de nouveau). Si c’est une VM, TPM 2.0 ne sera pas exigé lors de la procédure d’installation.
Le 10/08/2021 à 10h 15
La différence dans l’approche que tu évoques c’est qu’il faut un second système qui tourne en permanence pour assurer l’accès distant éventuel. C’est sans doute à prendre en compte si jamais on veut faire une comparaison de coût.
Si tu peux utiliser macOS comme hôte/invité sur un M1 (Big Sur/Monterey), et Windows/Linux (dans leurs versions ARM64 bien entendu) comme invité.
Le DisplayPort 2.0 dans les starting-blocks, bientôt intégré aux NUC d’Intel ?
09/08/2021
Le 11/08/2021 à 06h 30
Un câble défaillant ?
Le 10/08/2021 à 19h 09
Un Type A gère différentes classes de débits/alimentation. Pareil pour le RJ45 qui dépend des capacités de l’hôte/client, le HDMI, DP, etc. Et chez Apple, c’est du Thunderbolt (dont les capacités varient aussi selon les versions/câbles).
Comme dit : réfléchir et lire les caractéristiques est le pré-requis, toujours. Et pas que pour le Type-C
Le 09/08/2021 à 18h 30
Je sais que “c’était mieux avant” est une pensée courante (alors que presque toujours fausse), mais comme je le rappelle régulièrement les problématique connecteur/câbles/possibilités sont tout sauf nouvelles ou liées au Type-C. C’est le cas de tout standard qui évolue dans le temps sans changer de connecteur. C’était le cas du DVI à son époque, du HDMI ensuite, du DP désormais, de l’USB depuis toujours.
La règle reste simple : c’est aux constructeurs de correctement documenter leurs produits. Les consortiums établissent des règles en la matière, ils n’ont qu’à les suivre. (pour la question de l’alimentation, il y a une phase de négociation dans ce genre de protocoles qui évite ce genre de problèmes).
Le 09/08/2021 à 14h 45
Quand un connecteur d’alim est HS, il est HS quelle que soit la technologie. Qu’on le considère plus ou moins fragile n’y change rien que ça t’arrive. Par contre quand ton alim est HS, avec une alimentation qui utilise l’USB Type-C tu n’as pas à choisir entre 27 adaptateurs/blocs d’alimentation.
Au SIGGRAPH, NVIDIA vante sa recherche et prépare ses améliorations de performances
10/08/2021
Le 11/08/2021 à 05h 08
Je pense que l’idée c’est de comparer avec la techno utilisée par une bonne partie du marché et qui n’a pas d’implication en performances (ou légère). L’intérêt d’une solution IA ici, c’est sans doute qu’elle nécessite peu de ressource (ENC/DEC H.264 et unités matricielles), alors qu’un flux AV1 ou H.265… Mais je n’ai pas souvenir que les gains annoncés pour ces codecs soient de x10 en BP.
De toutes façons il est ici question de proposer, si j’ai bien compris, une solution de reconstruction de l’image dégradée par une BP faible, à travers l’application d’un modèle dédiée. Elle serait donc applicable à toute forme de codec. Et dans tous les cas c’est l’implémentation concrète qui sera à surveiller et à analyser, pour voir les intérêts et complémentarités, plutôt que de tomber dans les oppositions stériles.