votre avatar Abonné

David_L

est avec nous depuis le 13 septembre 2002 ❤️

15083 commentaires

Le 20/08/2021 à 15h 35

Et donc tu bases tes dires sur des relevés concrets, vu que la pratique c’est ton dada ? :D



Pour ton 3600 MHz, c’est via un OC, les constructeurs se réfèrent toujours aux fréquences de la norme JEDEC, 3600 MHz n’en fait pas partie. La DDR5 aussi pourra être OC. Je ne comprends par contre pas pourquoi tu compares du 1-channel à du 4-channel ?

Le 20/08/2021 à 13h 55

Voir le tableau, on sait que ça grimpera à la DDR5-6300 à terme. Mais oui, la qualité des contrôleurs s’affinera avec le temps. Pour autant, dire que la DDR5 est inutile en soi n’a pas de sens, puisque les gains apportés sur les points évoqués sont là et constatables dès la première itération.

Le 20/08/2021 à 12h 19

Parce que presque doubler la bande passante et faire x4 sur la densité, pour toi, ça n’a pas d’intérêt ?

Le 18/08/2021 à 09h 09

Tu as la régulation de tension, donc forcément. Mais ce n’est pas un élément nouveau, il est juste déporté.




eglyn a dit:


Oh si tout ça pouvait sortir pour noël ce serait parfait, je comptais changer mon 1600x qui commence à être un peu vieux ^^


Alder Lake “K” et la DDR5 oui, le reste non.

Le 18/08/2021 à 07h 55

Disons que ça laisse plus de liberté à l’achat et à la revente du CPU, avec un même produit qui peut s’adapter à différents besoins et de manière plus durable dans le temps.



Mais la carte mère a double type de mémoire sans gérer un socket actuel par exemple ça n’a pas grand intérêt, sauf si le LGA1700 est maintenu pour Raptor Lake et qu’il est DDR5 only :D

Le 18/08/2021 à 06h 53

Aucune idée, ça dépendra des implémentations des fabricants de cartes mères. Pas sûr que ce soit ce qu’ils visent prioritairement vu la complexité que ça peut impliquer dans le design.

Le 20/08/2021 à 14h 27

La boutique en ligne ne propose pas la livraison dans les DOM ?




fry a dit:


donc il faut l’intercaler entre le différentiel et des disjoncteurs (de 16 max) pour chaque canal ? du coup typiquement on peut pas utiliser les “peignes” qu’on trouve généralement dans les tableaux neufs :/


Ou alors derrière un différentiel de 40A ?

Le 20/08/2021 à 14h 09

On aura le détails des nouvelles offres quand elles seront annoncées

Le 20/08/2021 à 12h 41


janvi a dit:


Un serveur à un nombre de carte graphique max. Plus de client par serveur, c’est moins de serveur pour un nombre de client donné.


C’est aussi moins de performances par client




janvi a dit:


Pas sur : bien que le GPU soit dédié sur une session, il est mutualisé entre les utilisateurs j’imagine.


Oui, mais comme une infrastructure serveur, ce n’est pas une carte graphique seule, ton calcul n’est pas plus valable. Avoir un serveur dispo 247 à faible latence partout dans le monde avec une bande passante importante, ce n’est pas gratuit. Essaie de le faire depuis chez toi, tu verras ;)




Si un gpu low perf arrive. Tant que j’ai la fluidité que j’ai connu et qu’il me coute moins qu’une CG entrée de gamme sur deux ans, sa me va.


Acheter un GPU seul sera toujours moins coûteux que de louer un PC (même virtualisé) disposant de la même performance graphique.

Le 20/08/2021 à 12h 18

Note qu’avec ton calcul aucune offre ne sera jamais valable. ll ne faut pas non plus oublier une chose : les clients avec de grosses exigences, sauf quand il s’agit de mettre la main à la poche sont rarement la priorité des entreprises qui cherchent un avenir économique sain à long terme. C’est notamment ce qui a coulé Blade. Je doute que l’équipe n’ait pas retenu la leçon en la matière.

Le 18/08/2021 à 09h 21

Non, mais si tu veux Debian sur un serveur il y a déjà pas mal de possibilités

Le 17/08/2021 à 12h 53

Sans latence et avec une latence peu perceptible, ce n’est la même chose. Le client web c’est aussi des compromis en termes de perfs côté client, en qualité d’image (pas de 4:4:4 de mémoire), etc. Mais comme dit dans l’article, ça permet un accès depuis un peu partout sans effort.

Le 17/08/2021 à 10h 17

Shadow c’est du qEMU/KVM et pas mal de tuning maison, les GPU sont dédiés actuellement. C’est aussi sans doute pour s’éviter une couche d’emmerdement supplémentaire qu’ils ne vont pas vers le vGPU (ce qui n’aurait de toutes façons pas été jouable avec le niveau de performance attendu, ça peut marcher uniquement pour le marché du B2B hors gros besoin de 3D).



Et les GPU ne glandent pas quand ils ne sont pas utilisés, pour une part d’entre eux, ils minent ;)

Le 17/08/2021 à 09h 43


eglyn a dit:


Y avait pas des restrictions sur CUDA / Machine learning sur les anciennes offres ?


Non, au contraire c’était déjà des Quadro donc plus intéressantes pour ces usages.




revker a dit:


Personnellement, leur offre ne m’intéresse pas car j’ai un PC performant.


Comme je le dis souvent, il ne faut pas confondre “un produit ne m’intéresse pas” et “c’est nul”




Ceci dit, la seule chose concrète pour l’instant c’est l’augmentation des tarifs pour un matériel avec une carte graphique sortie en 2016.


Parce que c’était l’urgence. La réalité d’une boîte en redressement et de ses salariés, ce n’est pas d’aller investir plusieurs millions dans des serveurs en moins de trois semaines, étrangement. Comme dit dans l’article, il faut déjà stabiliser la barque, c’est ce qui a été fait (avec plus ou moins de succès) depuis la reprise.




Je suis d’accord, sortir la tête hors de l’eau prend du temps. Simplement, ces annonces n’apportent rien au consommateur final.


C’est un point de vue, mais je doute qu’il soit très éclairé.




Il reste des clients pour l’offre à 30 euros ?


Oui




patos a dit:


Le vGPU est antinomique de la latence. La technique de nVIDIA est basée sur le partage temporel: tu découpes en bande de temps la disponibilité de ton GPU: il n’est utilisable que par une seule machine à la fois.


Non, avec MIG (depuis Ampere) le fonctionnement est simultanée, avec des portions de GPU et de RAM dédiées. Et même sur des générations précédentes, je doute que la latence que tu évoques constitue tant un impact par rapport à tout le reste entre l’écran et le datacenter. La compression vidéo a par contre un impact, comme pour tout système de gestion distante (mais elle est gérée matériellement donc à faible latence, plus ou moins selon les codecs/qualité d’image).




Haruhi a dit:


L’annonce n’est pas destiné au public justement


C’est sur Twitter, c’est public ;)




C’est pas un communiqué au nom de shadow c’est octave klaba qui tweet l’avancée de sa vision de shadow.


Octave Klaba qui est juste actionnaire et CTO de la boite. Certes, il est au niveau des autres directeurs et répond à Eric Sèle dans l’organigramme, mais en pratique… ;)




Moi aussi je trouve les infos décevantes et l’augmentation de prix ils peuvent pas faire autrement, mais le départ des mécontents permet l’activation de nouveaux clients et ça c’est cool


Oui, après il faut juste avoir moins de départ que de nouveaux clients, mais il faudra encore attendre un peu pour faire le point précisément là dessus :chinois:

Le 17/08/2021 à 08h 53

L’offre à 30 euros par mois est l’offre actuelle avec les GTX 1080 (Boost). Là on parle d’offre qui doivent arriver à l’avenir (sans détail pour le moment sur les tarifs qui seront proposés).



Tu t’attendais à quoi ? Une baie pondue à la va-vite en trois semaines et mise en prod’ d’ici septembre alors qu’ils sont repartis de presque zéro ? :D sur le fond, ils évoquent les évolutions de leur réflexion dans la définition de la nouvelle offre et ça va plutôt dans le bon sens.



Pour le reste on verra lorsqu’il sera temps de lancer. Mais je préfère des updates publiques, des évolutions et au bout un truc qui fonctionne à un silence de plomb et au final un produit qui ne sort jamais vraiment. Tout l’objectif maintenant c’est de délivrer, et de le faire avant que le marché du GPU ne soit à nouveau renouvelé. C’est plus ça qui risque de leur poser souci vu le timing.

Le 20/08/2021 à 12h 14


Aldayo a dit:


Je suis pas sur que mettre le répéteur au plus loin soit la meilleur idée.


C’est la différence entre la théorie et la pratique. On peut facilement décider de mettre un truc ici ou là sur un plan. Dans la réalité les contraintes ne sont pas les mêmes (et elles sont ici précisées).




(quote:59505:Idiogène)
L’opposition que je dresse est normative : les courants faibles dans le neuf sont une charge malgré tout récente (2016).


Certes, mais ça n’a pas plus de sens pour autant. Surtout que je ne vois pas le rapport entre la NF C 15-100 et le sujet qui nous occupe ici.




D’un point de vue de la valeur d’usage, cela implique que les logements non-équipés se vendent moins cher et sont donc logiquement à équiper (sur le même principe que la décôte à la consommation énergétique).


Même remarque. Surtout qu’un logement non équipé avec du RJ45 ou un logement isolé G ce ne sera pas franchement la même chose. La décote ne vient pas du fait de ne pas respecter la norme pour le neuf, mais de ce que ça implique comme inconfort/surcoût quotidien pour le foyer.



Après, on peut toujours utiliser ces arguments pour faire baisser le prix d’achat, mais comme dit, cela n’a aucun rapport avec le sujet évoqué dans l’article ou ma réponse.

Le 20/08/2021 à 11h 32


(reply:59499:Idiogène)


Je sais que je me répète, mais toujours tout voir dans l’opposition n’a pas vraiment d’intérêt. 800 euros c’est un prix élevé pour un kit Wi-Fi, c’est un fait. C’est un produit haut de gamme avec de bonnes prestations. Mais il y a des cas différents, des besoins différents, des budgets différents.



On peut faire un très bon réseau avec quelques AP et du câble passé ici ou là dans certains cas, avec une gestion bien plus fine que des solutions clé en main. Parfois ce sera mission impossible ou trop cher. Dans certains cas le maillage avec BH Wi-Fi est un bon choix, dans d’autres pas pas du tout…



PS : on se passe des remarques à la “électrichiens”. En plus d’être puéril, ça n’est pas franchement le genre de chose à dire à quelqu’un qui a une formation d’électrotechnicien à la base ;)

Le 20/08/2021 à 09h 29


(reply:59494:john san)


Oui dans la précédente série on avait fait des tests dans un appartement qui était un peu tordu (80 m² environ) et où certaines pièces étaient innaccessible sans répéteur efficace (je parle même pas de la possibilité de passer un câble qui était à oublier). Souvent tu as aussi des soucis dans les habitations tout en longueur (dans le coin on a l’habitude avec les longères)

Le 20/08/2021 à 08h 30

C’est du sans fil, ça ne fait pas de magie, surtout dans des conditions difficiles comme ici. Mais c’est toujours largement plus efficace que les autres solutions (coucou le CPL) et quand tu ne peux pas passer de câbles ou que tu veux connecter un appareil qui n’a pas de RJ45/SFP en profitant d’un bon débit…



Par contre, c’est toujours intéressant de voir comment c’est considéré au sein des foyers/entreprises, alors que c’est un élément central de l’installation. Pendant longtemps c’était accessoire, puisqu’intégré à la box et que la connexion internet était à 10 Mb/s. Mais avec l’arrivée de vraies connexion, ça change.



On a certes toujours des gens qui pensent qu’avec un répéteur à 50 balles ils vont avoir une bonne connexion partout (alors que ces produis devraient presque être interdits à la vente tant ils ne servent à rien), mais la perception change. Elle est encore pas mal obstruée par les solutions à la con des géant du numérique (comme Nest Wifi ou Eero de base) qui sont assez mauvais, mais pas trop cher et suffisant pour du xDSL ou ceux qui n’ont pas vraiment d’exigences, mais ça évolue.



Par contre on est toujours plus capable de dépenser un rein dans un téléphone que dans une solution pour connecter efficacement tous les appareils de la maison :D

Le 20/08/2021 à 08h 01

C’est difficile (et peu utile) de répondre. Parce qu’en pratique, tout dépend toujours de l’habitat et il n’y a pas de règle. J’aide pas mal des gens à revoir leur installation et il y a des cas assez difficiles/atypiques où tu n’a pas de bonne solution genre “il suffit de mettre le routeur/box ici”.



Et encore, il faut une solution efficace au départ, on voit bien l’impact avec la différence entre les relevés sur la Freebox et ceux effectués ici sans AP/Sat. Comme je dis souvent, le mieux est de tester et de voir quelle est la meilleure position selon ce qui est possible.



Sur ce cas ci, une possibilité pourrait être de tirer un câble pour avancer le routeur au dessus de la pièce avec le point de relevé 1 pour qu’il soit en position plus centrale par exemple. Tirer un câble qui arrive à l’étage inférieur dans cette pièce n’est pas possible simplement en l’état.



Mais c’est toujours une question d’effort à faire/accepter et de besoin. Au final sur ce cas ci, un câble à été tiré entre les points 1 et 3 pour assurer une connexion rapide, avec des AP ici ou là selon les besoins. Mais ce genre de kit maillé avec bande dédiée répond au besoin de pouvoir couvrir une large zone sans travaux (parce que tout le monde n’est pas proprio) avec de bons débits.



D’expérience, tu auras de toutes façons rarement 200300 Mb/s sur une si large zone sans plusieurs point d’accès, à moins d’avoir des murs très permissifs avec les ondes (et encore).

Le 19/08/2021 à 15h 37

Oui, mais comme la machine écrit à plus de 50100 Mo/s ça passe ;) Puis ça permet de ne pas oublier que les débits réseau ne sont rien si la machine au bout ne suit pas.

Le 20/08/2021 à 12h 05

Oui, la montée en fréquences a deux effets qui jouent pour ce qui nous intéresse dans le Wi-Fi : plus la portée est courte (ce qui peut être un avantage comme un inconvénient), plus ou peut disposer de larges blocs de fréquences. C’est pour ça que le Wi-Fi 6E était attendu, 1200 MHz de spectre, c’est pas mal, si on l’utilisait en un seul bloc en 1024-QAM, ça ferait potentiellement 9 000 Mb/s :D



24 canaux en Europe c’est pas mal non plus pour le moment. Pour rappel, on a 13 canaux de 20 MHz dans les 2,4 GHz regroupables par deux, une vingtaine de canaux de 20 MHz dans les 5 GHz regroupables par 8.

Le 20/08/2021 à 11h 06


(reply:59497:Naruto`kun)


Il y a déjà pas mal d’équipements Wi-Fi 6 avec un port principal en 2,5 Gb/s. Ce n’est pas systématique mais plutôt courant.




(quote:59496:Idiogène)
https://www.arcep.fr/uploads/tx_gspublication/consultation-Wifi-6-GHz-juil2021.pdf



Avec des limitations comme le non usage sur drone par exemple. Mais possible en avion et train. Curieux.


Pas en extérieur, sans doute parce qu’il y a un risque de brouillage qui ne peut pas être maitrisé vu que le drône se déplace potentiellement un peu n’importe où. De toutes façons vu la portée il y a peu d’intérêt.

Le 19/08/2021 à 15h 23

Je pense que tu pousses un peu loin l’analyse et tes espoirs. C’est principalement créé pour que les gens cliquent sur “j’accepte” plutôt que “je paie” dans un contexte légal où l’on impose de pouvoir refuser facilement aux éditeurs de site. C’est d’ailleurs pour cela que c’est attaqué.




(quote:1891554:David.C)
Ben en fait… je comprend le principe, mais a condition que le “payant” soit sans pub


La pub et le pistage sont deux éléments dissociés (même si les éditeurs/publicitaires ont tendance à laisser penser que non. Quand tu achètes un magazine/journal, il est payant… malgré la pub ;)

Le 19/08/2021 à 14h 20


(reply:59485:Aristide Rutilant)


Sans parler d’Advanced Matrix Extensions (AMX) dans Sapphire Rapids :D

Le 19/08/2021 à 08h 13

Pour info, Bleujour vient de m’indiquer que le modèle de base est désormais en garantie 5 ans avec le SSD de 512 Go testé. Le site doit être modifié. Je modifierai l’article en conséquence lorsque ce sera le cas :chinois:

Le 19/08/2021 à 06h 28

Elle est inscrite sous le premier port, comme pour le NUC de base. La question c’est de savoir si elle concerne également le second, ce qui n’est pas précisé, ce qui dépend du module intégré qui évoque simplement un port RJ45 et de l’USB 2.0.

Le 19/08/2021 à 05h 13

Bleujour est un intégrateur, ils répondent à un besoin pour ceux qui ne veulent pas aller chez un revendeur grand public mais cherchent un produit clé en main, éventuellement adaptable. Pour Simply NUC, tu es sûr d’ailleurs que l’option du second port RJ45 est en 2.5 Gb/s ? (ce n’est pas précisé).



Le vrai regret sur un tel modèle, c’est que le souci de ventilation n’ai pas été traité avec un remplacement du ventirad quitte à avoir un boîtier un peu plus gros. Ca aurait été un atout par rapport au NUC classique.

Le 18/08/2021 à 19h 12

Pas le même format/besoin et un PC portable ce n’est pas de la magie, il faut aussi dissiper les watts ;) Pour W11 je ne vois pas ce qui risquerait de ne pas coller ?

Le 18/08/2021 à 21h 06

On peut faire 500 km en vélo, c’est pas une bonne idée pour autant :D

Le 18/08/2021 à 15h 26

AMD n’a jamais rien officialisé à ce sujet, mais les capacités technique de la puce sont les mêmes. C’est simplement une nouvelle révision (sans doute avec une amélioration du process)

Le 18/08/2021 à 12h 44

Si c’est pour de l’AMD, ce ne sera pas pour début 2022 (enfin pas au sens d’un lancement suivi d’une dispo commerciale au CES comme ça risque d’être le cas pour Alder Lake non-K)

Le 18/08/2021 à 11h 53

Souvent l’idée c’est d’avoir un GPU pour l’OS (la 1030) et un autre en passthrough (la VM). Surtout avec des Ryzen sans GPU intégré. Après dans ce genre de cas autant investir dans une carte mère avec BMC/IPMI

Le 18/08/2021 à 11h 46


(quote:59450:Narutokun)
C’est pas une histoire de chipset, le nombre de lignes reste toujours le même. Le socket détermine le nombre de PCIe sortant du CPU.


Non, le CPU détermine le nombre de ligne sortant du CPU. Ce n’est pas le même pour un Zen 1, 2, 3, un CPU, un APU, etc.




Le CPU détermine les révisions accessibles (2.0-3.0 pour les APU et 2.0-4.0 pour les autres)


Pas seulement




Et normalement AMD annonce comment sont câblées les lignes, sauf que la MSI détourne des lignes prévues pour la CG et les amènes a du NVMe.


Les lignes du CPU ne sont pas faites que pour le GPU. Ce sont des lignes PCIe, c’est juste que celles que tu indiques “prévues pour le GPU” n’ont pas forcément de bifurcation x4 prévue, d’où l’utilisation de switchs par MSI pour effectuer une partie du découpage.




(quote:59456:Narutokun)
Mon rève est plus terre a terre que ça… j’aimerais bien faire deux pc en un avec de la virtualisation (jeu + nas/multimedia): 5950 + 6800 XT (PCIe 4.0x8 m’irait) + GT1030 (PCIe3.0x4) + 10G + 2 NVMex4 + 6 HDD SATA Sauf que tout ce petit monde qui tourne en semble, ça sature les lignes PCI :/


Si tu utilises toutes ces E/S et GPU en même temps via des VM, tu vas saturer le CPU avant la bande passante globale.



PS : à trop vouloir tout mélanger, on obtient pas de bons résultats.

Le 18/08/2021 à 09h 09


(reply:59440:Naruto`kun)


La limitation du nombre de lignes PCIe sur l’offre grand public ça touche AMD comme Intel. Le fait de passer à x8 pour la CG ne changera rien en pratique dans 99% des cas par contre le gain pour celui qui exploite l’ensemble des M.2 est forcément important.



Et pour rappel, le PCIe 4.0 permet d’avoir les débits du PCIe 3.0 avec deux fois moins de ligne. C’est donc d’autant plus facile de caler différents périphériques sans limitation concrète avec cette norme.

Le 18/08/2021 à 07h 27

Oui, comme Zen 3 est Zen tel qu’il aurait du sortir. C’est la différence entre une solution mature et une solution disponible en temps voulu.

Le 18/08/2021 à 09h 26

Yep y’a “aucun” intérêt. La 5G était déjà critiqué pour la même raison. Ce sera pareil sur la 6G. Après en R&D je ne vois pas le souci.

Comme dit, ce sont des réseaux développés sur 10 ans, prévus pour durer 10 ans. Penser que les besoins ne changeront pas en 20 ans c’est être sûr de se tromper à 100%.



Les réseaux évoluent avec les besoins. Et il vaut mieux qu’ils le fassent en avance de phase plutôt que l’inverse (mais revenez au WAP sinon :D)



La technologie évolue, dans ses capacités et son efficacité. Ce que l’on en fait c’est autre chose. Il faut toujours ne pas veiller à confondre les deux.




(quote:1891407:Benoit NI)
Je pensais que la fibre allait à la vitesse de la lumière, qu’on était à la vitesse maximale, et donc avec la latence la plus faible.


La lumière dans la fibre oui, les équipements de chaque côté…

Le 18/08/2021 à 07h 52

Si on pouvait s’éviter les HS inutiles du genre, ce serait sans doute pas plus mal ;)

Le 17/08/2021 à 15h 42

De toutes façons, si Intel sort une 3070-like en septembre, en janvier, en mars ou en juin, ça ne sera pas du tout la même chose. Dans le domaine, le contexte apporte pas mal. Mais on en saura plus d’ici la fin de la semaine de toutes façons :chinois:

Le 17/08/2021 à 14h 09


Burn2 a dit:


Et comme tu le dis reste à voir ou va se placer DG2.
Mais pas sûr que ça soit dans la tranche 200/300€ (ou allez 350€) ou il n’y a plus rien.



misocard a dit:


Les rumeurs parlent d’une concurrente à la RTX 3070. Je crois que la rumeur n’a presque aucune valeur, mais du coup on serait un peu au dessus de l’entrée de gamme. Pour le prix, si c’est effectivement équivalent à la 3070, ils pourraient la vendre à 500€ et on trouverait ça pas cher…


Attention à ne pas confondre ce que peut faire le GPU et ce que seront les déclinaisons proposées. Sans parler des comparaisons foireuses tant qu’on a pas les détails de l’archi, ce qui est exploitable ou pas, à quelles définitions, etc. Idem pour la tarification, vu l’état du marché, spéculer n’a aucun intérêt.



C’est aussi pour ça qu’on ne reprend pas 90% des rumeurs sans fondement ou sur la base d’un tweet random. La réalité est toujours bien plus complexe, surtout à 69 mois de l’annonce.

Le 17/08/2021 à 13h 27

Je ne comprends pas trop. Pour toi Intel devrait attaquer “par le bas”, c’est ce qu’ils ont fait. DG1 est un GPU à part entière (mais commercialisé comme un complément aux CPU Intel pour le moment), il est aussi utilisé en plusieurs exemplaires sur certaines cartes GPU. Avec DG2, ils remontent la chaine. On sait juste pas encore à partir d’où et jusqu’où.

Le 17/08/2021 à 12h 51

Relis l’article ?

Le 17/08/2021 à 10h 12

Xe LP c’est quoi d’après toi ? ;) Pour le positionnement de DG2, on verra quand ce sera disponible. Haut de gamme ou milieu de gamme, ça peut aussi dépendre de quand ça sort exactement :D

Le 17/08/2021 à 09h 47


Burn2 a dit:


Et pour les jeux ça a longtemps était un de leurs gros défaut, donc clairement un point à surveiller et sur lequel ils devront rassurer… Sans compter que AMD/Nvidia ont des partenariats, donc il va aussi leur en falloir pour garantir la bonne utilisation de leurs technologies.


Pendant longtemps Intel c’était surtout de l’intégré, donc forcément le focus n’était pas trop là dessus. Mais ils ont historiquement un gros programme développeurs de jeux (CPU/GPU), ce genre de problèmes à régler, c’est surtout une question de temps ;)

Le 17/08/2021 à 09h 30

Oui, ils ont une gestion sur la durée assez différente (comme NVIDIA) de leur produits, là où AMD se sert des anciennes gammes comme variable d’ajustement. Mais on ne peut pas vraiment dire que les Ryzen 1000 et 5000 sont gérés avec la même générosité tarifaire, à court ou moyen terme ;)

Le 17/08/2021 à 09h 04


revker a dit:


Mouais, je ne sais pas où cette gamme compte se situer par rapport à nVidia mais je pense que le caméléon ne risque pas de trembler de si tôt. Surtout si Intel applique ses tarifs processeur aux gpu.


Intel doit conquérir le marché, ils seront sans doute plus agressifs. Un peu comme AMD qui a cassé ses marges aux débuts de Ryzen et se retrouve à des niveaux bien plus comparables désormais sur le desktop.




(quote:59373:Aristide Rutilant)
Unifier un peu les différentes situations similaires au DLSS et au FSR n’est-il pas un peu le travail de Microsoft avec DirectX ?


Plutôt DirectML disons. Mais sur le fond, avoir trois back-end différent sans solution pour tout implémenter d’un coup ça va vite énerver tout le monde.




(quote:59375:brice.wernet)
Tout dépend ce que vise Intel. Le Xe a montré un excellent potentiel, plutôt doué en jeux face à la concurrence, et pas mal en calcul. En vidéo “de base”, intel a le QuickSync depuis longtemps. Pour du “tout-venant”, Intel a pas mal d’atouts dans sa manche en fait.


Attention quand même, Xe ne casse pas non plus trois pattes à un canard. Intel fait mieux parce que leur architecture est plus récente et qu’elle occupe désormais une bonne part des GPU mobiles (sur desktop c’est pas franchement le même délire). Mais ça n’est pas ça qui fait un bon GPU de joueurs.



Xe LP c’était surtout un gros rattrapage d’Intel dans le domaine de l’intégré. Maintenant il va falloir passer la seconde, et avec l’accumulation des retards, ils vont se lancer juste avant AMD/NVIDIA sur leur nouvelles générations. C’est aussi pour ça qu’ils communiquent tôt : parce que le produit arrivera tard.



OneAPI, l’enjeu est plus côté station de travail et serveurs que sur l’offre grand public. Mais sur ces segments c’est un enjeu fondamental où ils ont beaucoup investi (notamment sur la conversion CUDA). C’est l’une des principales différences dans leur approche face à celle d’AMD (qui traite Rocm comme un sous projet vaguement géré dans un coin dont on ne parle presque jamais).




Gilbert_Gosseyn a dit:


Mwais … Je suis assez pessimiste niveau pilotes Intel : quelques soucis avec la partie graphique des PCs avec du Tiger Lake. Même si c’est moins pire qu’avant, ça reste en deçà de nVidia ou AMD.


On verra en temps voulu ;)

Le 17/08/2021 à 07h 56

Pour les pilotes, ça fait partie des éléments qu’ils ont pas mal retravaillé en profondeur, que ce soit sous Linux et Windows. Et là ils ont encore le temps de voir venir.

Le 17/08/2021 à 09h 46

La dualité des apparences n’est pas propre à l’existence d’un monde virtuel ;)

Le 17/08/2021 à 08h 57


Baldurien a dit:


Pour le coup, je n’ai strictement rien contre sa coiffure :) mais qu’il me fasse pas croire qu’il fait ça tout seul tous les matins :)


Et comme ça n’a rien à voir avec le sujet, on se passe bien de ce genre de réflexions :)

Le 16/08/2021 à 03h 47


(reply:59358:Akhagé)


Oui comme évoqué, il y a des tas de modèles avec ceux qui tirent partie du stockage par exemple (et Chia en tête de pont). Mais sur le fond, tant que le minage sur GPU existe, rapporte et que les alternatives ne sont pas aussi intéressantes, ça ne changera rien à l’affaire (et c’est la situation actuelle).