votre avatar

Soraphirot

est avec nous depuis le 29 mai 2018 ❤️

459 commentaires

Le 06/04/2022 à 09h 04

Parce que le public visé a toujours été celui qui s’équipe au maximum Apple. Dans ce contexte pas de carte son externe, ampli Hifi etc… Et dans ce contexte, le filaire n’a aucun sens car cela voudrait dire passer par un signal analogique pas au top (pour un casque à ce prix).



L’intérêt du bluetooth c’est que le dac se trouve directement dans le casque, tu as donc en tant que fabricant le contrôle total sur la qualité du signal émis par le casque.

Le 30/03/2022 à 12h 33


(reply:2064036:ForceRouge) c’est pour ça que l’Europe met en place le Digital Markets Act, qui cible enfin les géants du secteur avec des peines véritablement dissuasives cette fois (on parle de jusqu’à 20% du chiffre d’affaire mondial).


Je crois pas que le sujet ai déjà été traité ici car c’est un gros pavé dans la mare mais tu peux trouver des infos à côté : lemonde.fr Le Monde

Le 25/03/2022 à 09h 54

Une ambassade étant considérée comme une enclave étrangère au sein du pays, il est pas impossible que les opérateurs télécoms fassent aussi la différence, ce qui facilite grandement le ciblage. dans ce cas précis.

Le 15/02/2022 à 11h 07

Oui et ils ont même du sacré matos en ARM et sont bien implantés, faut lire IH :D



Oui bien sûr ça fonctionne bien, et le but de la certif n’est pas de dire “ça marchera jamais sur autre chose” mais “on connait ce matériel car on l’a testé, vous aurez moins de problème”.



Acheter du matos certifié c’est une garantie pour l’entreprise que ça doit marcher et qu’au pire, l’éditeur et le fabricant pourront (/devront si tu payes le support) aider à résoudre le problème, qu’il soit logiciel ou matériel. Alors que l’équipe Proxmox ne pourra pas t’aider beaucoup sur un problème dû au matériel.

Le 10/01/2022 à 14h 35

Tu as pcpartpicker qui tiens une historique plutôt clair, mais pour chaque référence séparément, par ex https://fr.pcpartpicker.com/product/LRmFf7/asus-geforce-rtx-3080-10-gb-strix-gaming-oc-video-card-rog-strix-rtx3080-o10g-gaming?history_days=730

Le 05/01/2022 à 10h 15

Je peux comprendre le point de vue mais dire ça l’année où ils sortent une évolution majeure de l’archi x86 (le big.LITTLE est une révolution connue certes mais tout de même) c’est un peu tiré par les cheveux :D

Le 20/12/2021 à 11h 45

réutiliser des lignes et designs éprouvés qui limitent les pertes lors de la prod et en attendant un changement dans les machines de productions qui doit tarder vu la logistique mondiale. Ca permet de sauver les meubles sur les produits qui n’ont pas de besoin critique en puissance GPU.

Le 14/12/2021 à 18h 36


OlivierJ a dit:


Mais à part des questions spécialisées comme les instructions AVX de nouvelle génération, l’optimisation d’un système c’est bien plus généraliste que ça


Les instructions spécialisées d’aujourd’hui sont le standard de demain. Si on les développe, c’est qu’il y a un besoin suffisamment important pour les populariser.




et ça ne dépend pas du nombre de coeurs, encore moins de la fréquence


ça dépend de ton algo. Tu peux avoir un algo multithreadé correct mais tu te rends compte que, sur ce proco faiblement threadé et avec une très haute fréquence, tu aurais tout intérêt à le faire d’un seul thread.




En quoi ça va changer le code pour l’optimisation des perfs ?


Ca change ta façon d’appréhender ton scheduler. Tu sais que ton processeur réagit mal au delà d’un certain temps à haute fréquence donc tu mets des contre-mesures pour les minimiser. Ou bien tu sais à quelle fréquence faire tourner ton CPU pour tirer au minimum sur l’étage d’alimentation et rester sous le seuil de chauffe pour le ventilo, et donc économiser la batterie.



C’est une suite de petits détails qui s’additionne.




C’est plutôt une question de drivers ça. En fait on en revient aux drivers pour l’optimisation de la consommation.


Les drivers ont bon dos. Le système n’est pas fait pour tourner sur ce matériel et ne sait pas agir correctement car pas optimisé.




Quand tu utilises un logiciel lambda sur un Mac, il n’est pas forcément écrit par Apple, par exemple les Lightroom et autres, ou l’application de bureautique de MS.


Certes mais développer pour un système plus opti comme Mac OS permet aussi de pousser l’optimisation plus loin si on le souhaite. A un niveau bien plus haut donc pas forcément aussi pertinent mais Adobe pourrait tout à fait décider d’optimiser sur Apple car il y a beaucoup moins de cas à gérer que Windows.




Oui mais je rappelle que les fabricants de CPU optimisent aussi leurs CPU pour être efficaces (énergie et rapidité) sur le code déjà déployé. C’est leur intérêt.


Tout à fait, mais ça ne sera jamais aussi efficace que lorsqu’il s’agit d’une seule et même entreprise.



Tout le monde peut optimiser son logiciel pour la plateforme de son choix, je dis juste qu’Apple a des facilités au regard de son contrôle sur le logiciel et le matériel :)

Le 14/12/2021 à 18h 12

Les instructions ARM ne sont pas plus efficaces, elles sont moins nombreuses et pensées différemment. ARM est une architecture RISC, qui va favoriser les instructions simples mais travaillant sur un grand registre. le x86 est une archi CISC, qui dispose d’un plus grand nombre d’instructions et certaines complexes mais va se permettre d’éviter de travailler en mémoire.



Le problème (et la force, dépend du résultat voulu) de l’ARM aussi est de permettre des architectures personnalisées avec des jeux d’instructions personnalisés aussi. Un processeur Qualcomm ne fonctionnera pas comme un Samsung ou un Apple du fait de leurs instructions différentes, même si ils utilisent la même version de l’architecture. C’est un bonheur pour le fabricant qui va pouvoir avoir un matériel qui synergise au maximum avec le système, c’est un casse-tête pour le développeur qui veut développer pour ces trois plateformes qui semblent pourtant si proches.

Le 14/12/2021 à 12h 29


OlivierJ a dit:


Si tu parles du monde x86, les processeurs sont de la même famille avec le même jeu d’instruction, et sauf pour des générations très éloignées, les optimisations sont grosso modo les mêmes.


Les sets d’instructions ne sont pas identiques. Tu as des nouveautés selon les générations, des spécificités selon la gamme (AVX 512 par ex) etc… Et puis tu as les différences plus flagrantes comme le nombre de coeurs, la fréquence ou la quantité de mémoire embarquée.




Pour le reste (CM, mémoire vive, périphérique), je ne vois pas bien en quoi ça influe l’optimisation sur CPU.


Le chipset amène des restrictions ou des possibilités, l’étage d’alimentation permet de maintenir plus ou moins bien de hautes fréquences, la RAM a une fréquence et une latence variable etc… Un processeur sans rien autour ça n’accomplit pas grand chose.




En l’occurrence, jusque récemment, Apple devait optimiser pour la même architecture x86 que Microsoft et Linux.


Mais sur des matériels choisis et limités. Mac OS ne tourne que sur leurs appareils et ne fonctionne pas sur les autres, il suffit de regarder les Hackintosh. Les gens qui s’y lancent doivent chercher le matériel le plus proche de l’existant Apple et c’est loin d’être sans défaut.




Ben là on parle de bas niveau, là où on a encore des bouts d’assembleur, et où il y a des différences d’archi entre familles (Intel et AMD).


je vois pas ce que l’assembleur ou n’importe quel autre langage dédouane dans tout cela. L’optimisation ça se fait à tout les niveaux. Pour faire une voiture économe on va pas se contenter de prendre un gros moteur et l’utiliser à la moitié de sa puissance. Ici c’est pareil. Apple peut se permettre de développer un processeur qui colle à 100% à son cahier des charges logiciel en s’assurant que la plateforme a le comportement voulu lorsqu’ils utilisent tel fonctionnalité (consommer un minimum ou avoir le maximum de perf). Ils vont aussi penser à tout ce qui entoure le CPU : alimentation calculée au plus près, RAM à la fréquence/latence idéale pour communiquer avec ce proco précis… Pour Windows et Linux c’est l’inverse, c’est la plateforme qui dicte son cahier des charges (je fonctionne comme ça, si vous faites çi je fait ça).




Là où Apple est plus fort que Microsoft c’est sur l’optimisation sur la consommation (et donc autonomie) à plateforme x86 équivalente, et là il est question en particulier d’optimisation des drivers.


Parce que les plateformes ne sont pas équivalentes. Apple choisit très précisément ses composants et travaille très en amont avec les fabricants (rappel qu’Intel a fait notamment une gamme sur demande d’Apple, les Kaby-Lake G). Microsoft se doit de faire fonctionner son système partout (rappel² qu’il y a une grosse pression des entreprises sur Microsoft car ils ne veulent pas changer tout leurs parcs à chaque grosse mise à jour ou parce qu’ils ont des machines outils ancestrales qui doivent fonctionner encore des dizaines d’années).




Microsoft a des moyens gigantesques, et quand on voit le résultat… C’est très décevant.


Un OS qui tourne sur plus de 90% du parc mondial, aussi diversifié que la population humaine et souvent des machines âgées.



Y’a beaucoup à dire sur MS et son système mais dire “Apple y arrive en claquant des doigts, MS devrait y arriver aussi en claquant des doigts” ce n’est pas rationnel. On parle peut-être de pouillième à gauche et à droite, mais pleins de pouillièmes, ça commence à faire une sacré marge au final.

Le 14/12/2021 à 11h 08


OlivierJ a dit:


Ben un compilo est conçu pour fonctionner avec un matériel précis. Et la plateforme x86 est assez connue et on sait optimiser pour.


La théorie du x86 oui. La réalité c’est qu’il existe un nombre incalculable de cartes mères, processeurs, mémoires vives et périphériques qui rendent le nombre de configurations possible encore plus dingue. Et chacune de ces pièces y va de sa petite particularité.
Si on devait optimiser pour chacun de ces cas, on aurait pas assez d’un milliers de vies. Apple lui, peut se le permettre.




Ce à quoi tu penses à mon avis, c’est le fait que c’est plus facile pour Apple d’avoir un système solide parce qu’ils n’ont pas le problèmes de drivers (écrits par eux ou pas, généralement pas) pour des myriades de matériels, là où dans une plateforme Microsoft le matériel est pléthorique, et les drivers de qualité variable. Et comme clairement Microsoft n’est pas super bon en développement, depuis le début (finalement, ça ne s’est jamais tellement amélioré, même si le système est plus stable).


j’ai cent fois plus de respect pour Microsoft et la communauté du libre pour réussir à faire tourner leurs systèmes sur autant de plateformes différentes. Facile de dire qu’Apple travaille mieux quand justement leur support matériel est extrêmement restreint et demande très peu d’énergie de leur part (par rapport aux deux autres).




La fabricants de CPU font déjà le boulot de proposer régulièrement des extensions (nouvelles instructions en ce sens), ou d’optimiser en fonction des charges constatées sur des OS et logiciels courants.


Et on voit bien ce qu’il se passe quand on tente d’optimiser pour un produit en particulier : l’update du scheduler Windows pour les derniers Intel a flingué les performances des AMD. On ne peut pas optimiser à 100% pour un produit sur un système qui se doit d’être le plus généraliste possible.




A moyens égaux consacrés au développement (et mine de rien côté Linux c’est pas mal au total), je ne pense pas qu’Apple fasse vraiment mieux sur son matos que les devs Linux sur du x86 (qui est bien maîtrisé).


Si à moyen égaux Apple ne fait pas mieux sur sa plateforme que Linux sur du x86 c’est qu’ils ont un gros problème. Entre faire un effort pour soutenir une dizaine de variations de plateformes et de l’autre un nombre théorique infinie, je voit pas comment le deuxième peut faire mieux avec les mêmes moyens.



Oui en théorie on peut optimiser finement sur une plateforme ouverte. Oui Apple peut très bien faire n’importe quoi avec son matos. Mais la vérité c’est qu’Apple bosse un minimum correctement en développant ses produits avec un budget conséquent. Microsoft et le libre ne pourront égaler cette force de frappe.



C’est aussi pour ça que j’aime pas les comparaisons entre le matériel Apple et le reste. Ouais cool le M1 fait X fois mieux, mais dans des conditions où rien n’est équivalent.

Le 13/12/2021 à 15h 14

Il est mille fois plus aisé d’optimiser un système conçu pour fonctionner étroitement avec un matériel précis, et surtout l’inverse est possible aussi, d’optimiser le matériel en fonction du comportement voulu côté système.



Je suis d’accord avec le fait que la concurrence permet une évolution des optimisations, mais elle ne pourra jamais atteindre ce que le développement croisé du matériel et du logiciel permet.

Le 13/12/2021 à 15h 31

Disons que les gens ont trop rapidement assimilé que raid ZFS = raid classique en mieux. ZFS apporte certes beaucoup plus de rigidité qu’un raid classique mais ce n’est pas sans contraintes supplémentaires. Je ne critique pas, je me suis fait avoir aussi sur cette info.



Mais tout n’est pas perdu, des contributeurs travaillent sur ce point : github.com GitHub

Le 08/12/2021 à 09h 13

Ne t’inquiètes pas que les alim sont proportionnées largement au dessus pour les PC tours classiques et qu’il s’agit d’un composant qui ne craint quasiment pas l’usure.

Le 03/12/2021 à 09h 31

tu as des calculateurs en ligne pour ça https://www.servethehome.com/RAID/simpleMTTDL.php Mais dans les grandes lignes, le RAID classique (sauf 1 et 0 ofc) ça devient vraiment limite avec ces densités.

Le 02/12/2021 à 14h 21

malheureusement la tarification des PC ARM ne les mets pas du tout en face des Pentium et Atom. Là on parle de machine pouvant côtoyer les 1500-2000€. Il y a bien le Samsung Galaxy Book Go qui vise les 300/400€ mais il est comme toutes ces autres machines : introuvable (seul la Surface Pro X se trouve facilement en boutique).



La 5G consommera moins au fur et à mesure que la technologie avancera. Tout comme la 4G consommait plus au début, et ainsi de suite, comme toute autre technologie.

Le 02/12/2021 à 10h 40

Il y a un souci dans ton raisonnement : les Apple Axx sont tout aussi impressionnants, et ce sont bien des modèles pensés pour les portables.
De plus des puces ARM pour ordinateurs existent aussi en dehors des quelques références Qualcomm poussives. Regarde du côté des articles sur Altra. On est certes sur des puces architecturées autour d’une tâche précise, mais rien n’empêchait Qualcomm de développer une puce en privilégiant une tâche après l’autre.

Le 01/12/2021 à 12h 43


(reply:61828:ratomms) Les standards sont respectés, aussi bien côté serveur que pc classique. Quand une mobo serveur a un format particulier c’est toujours spécifié car elles sont adaptées au boitier/rack du même fabricant, par exemple Supermicro.


Le 26/11/2021 à 08h 51

Valve bosse sur la compatibilité Linux depuis bien plus longtemps que le Steam Deck. rappel qu’ils ont tenté de lancer SteamOS et les SteamBox il y a 6 ans, que ça a floppé mais qu’ils n’ont jamais lâché le support Linux depuis.

Le 25/11/2021 à 12h 45


(reply:61713:skankhunt42 )


Le Raspberry Pico est une microcontrôleur aussi, pas d’OS non plus.

Le 25/11/2021 à 10h 54

clairement je veux voir des touches génériques sur lesquelles je pourrait assigner l’appli que je veux. Rien à faire de cette touche Disney+ qui ne me servira jamais alors que la touche Plex n’existe que dans mes rêves.



Dans le même genre on en parle du relooking de la section vidéo sur PS4 qui renvoie toutes les applis qui ne payent pas un gros cachet 2 menus plus loin ? Niveau forcing on est bien là.

Le 24/11/2021 à 13h 17


AlbertSY a dit:


les chiffres donnés par David va un peu dans le sens de mon cliché


3.5 milliards de revenus pour le milieu professionnel ça va dans le sens de “y’a peu de monde chez les pro qui s’équipent en cg” ? C’est plus que la branche Geforce qui a pourtant bondi avec la pandémie.




AlbertSY a dit:


C’est de l’humour… même si tu ne le perçois pas ainsi.


ça ne fait rire personne d’autre que toi. C’est pas la définition de l’humour.

Le 24/11/2021 à 10h 31


AlbertSY a dit:


Bon, y a aussi les vidéocasters et quelques graphistes.


Et les dessinateurs CAO, les monteurs vidéos, les artistes 3D, les développeurs JV, les chercheurs en biologie/mathématique/physique/météorologie, les serveurs de rendus… Je peux continuer longtemps.
Comparer du gros matos à une config bureautique, même si on était vendredi, c’est pas du beau troll, c’est juste bas du front.



Et si tu as besoin de répéter plusieurs fois que “c’est de l’humour” c’est que ça n’en est pas.

Le 23/11/2021 à 19h 40


(reply:61660:Idiogène)


Chaque personne a un besoin différent et chaque produit est une solution différente. Il faut arrêter de chercher plus loin. A quoi bon chercher la sécurité si ton besoin c’est de gérer ta lumière et c’est tout ? C’est d’ailleurs le point mis en avant par ce produit et montré dans l’article: éclairage. Ils ne se vantent pas de lancer un produit qui répond à tout.

Le 15/11/2021 à 10h 08

“Ces actions ne sont pas effectuées en tant que telles, et ne nécessitent donc aucun de ces jeux ou applications. Ce sont simplement les « traces » qui sont reproduites et donc leurs requêtes sur les périphériques de stockage.”

Le 14/11/2021 à 10h 53

il faut être un peu terre à terre à un moment et ne pas prêter attention à ces “rumeurs” qui promettent des milles et des cents. Franchement, la PS5 et la Serie X ne proposent déjà pas de 4k correct aujourd’hui, qui peut croire que les fabricants nous proposeront des machines 8k demain (oui 2 ans c’est demain niveau R&D).




(reply:61456:Idiogène)


Il faut aussi arrêter ce débat stérile. Hier l’œil ne voyait pas au dessus de FHD, avant hier il ne voyait pas la différence entre 30 et 60 fps…

Le 09/11/2021 à 10h 41

Comment souvent dans le monde pro. C’est pas le genre de produit que tu achètes au détail, le marketing n’a aucun intérêt à annoncer un prix car de toute façon ça sera vendu dans des projets d’infrastructure, donc avec des ristournes à tire-larigot. Les clients ne paieront jamais le prix exact du produit.

Le 05/11/2021 à 09h 40

Il faut aussi appliquer une deuxième règle très importantes pour faire un RAID : mélanger les marques/modèles. Il n’est pas si rare d’avoir un défaut de fabrication sur une série entière et donc acheter X fois le même disque augmente énormément le risque de voir les DD mourir en même temps.



Mon dernier RAID est composé de DD acheté à gauche et à droite, c’est plus long mais j’ai la quasi certitude de ne pas les voir mourir ensemble (bon ça exclut les grosses pannes induites par le PC ofc).

Le 04/11/2021 à 10h 48


(reply:61276:fofo9012) j’avoue ne pas être suffisamment calé sur le sujet mais néanmoins c’est le comportement que j’ai observé : nos téléphones IP du bureaux sont perdus si l’on rajoute un switch entre la prise murale (qui relie à un switch managé avec les ports taggés) et le téléphone (paramétré pour communiquer sur le VLAN uniquement).


Le 04/11/2021 à 09h 13

Non le VLAN ne passe pas à travers n’importe quel switch. Un switch trop basique ne transmettra pas l’info et les appareils le nécessitant seront incapable de se connecter.



Je pense que lennyroquai veut utiliser un VLAN pour “router” son réseau sans créer de boucle.

Le 29/10/2021 à 14h 45

C’est un poil tiré par les cheveux, les NUC à ~10w c’est en idle. Là le Pi tirera au maximum 12.5w quand le NUC fera des pointes à 20-30w pour les plus économes.

Le 29/10/2021 à 14h 38


(reply:61198:Hiigara) Qui te dis que le CPU est pas déjà en France ? :) Et tu serais étonné de la puissance des cpu basse conso. J’ai un Xeon 1265L v2, annoncé avec un TDP de 45w, qui fait tourner 29 containers les doigts dans le nez dont un serveur Plex qui transcode de la 4K.



(reply:61196:alex.d.) Le TDP ça veut rien dire hein, un 80w qui se tourne les pouces consommera moins qu’un 35w qui tourne beaucoup.


Le 28/10/2021 à 08h 52


snakesolid a dit:


Hardware.fr avait bien constaté la corrélation entre le taux de retour et les cartes mères HDG et ce n’est pas du seulement à l’overclocking, mais aussi à la complexité intresèque.


HFR faisait aussi la corrélation entre le fait que le matos soit HDG et que la clientèle soit par conséquent plus pointilleuse. Un client Ferrari va plus souvent contacter son garage pour des fioritures qu’une client Dacia.

Le 27/10/2021 à 19h 49

On revient au point de départ : on reboot parce qu’on a perdu l’IPMI/BMC :mad2:



Depuis le début vous opposez les solutions alors qu’elles sont complémentaires. Pourquoi vouloir retirer le VGA qui permet de sauver la mise quand on perd les autres méthodes d’accès ?



Par exemple tu dis gérer tes baies de calcul avec un port série, c’est pareil. C’est tout aussi désuet techniquement mais est-ce que tu ferais une croix dessus sous prétexte d’avoir un contrôle à distance ?

Le 27/10/2021 à 14h 41

C’est aussi une solution mais qui a ses limites. Si le reboot ne change rien tu fais quoi ?

Le 26/10/2021 à 12h 58


ragoutoutou a dit:


S’il faut faire des statistiques en incluant tous les serveurs pro utilisés en France et dont le matériel est encore couvert par un contrat de support avec le fabriquant, je pense que l’usage des interfaces BMC/ILO et consort doit complètement écraser l’usage via VGA.


Oui mais quand ton IPMI ne répond plus à cause d’une mauvaise config ou un réseau qui flanche t’es bien content d’avoir un affichage. Tu auras toujours un accès physique à la machine au cas où, VGA ou série.

Le 26/10/2021 à 09h 22

Même en entreprise. Bien sûr chaque domaine a des besoins différents mais la quantité de boites avec une infra Windows est énorme et débugger un Win Server en RS232 n’est pas la meilleure idée du siècle. Un affichage graphique c’est aussi la méthode la plus accessible pour les petites entreprises et les débutants.



Ça ne rend pas les autres solutions de contrôles illégitimes, mais le port VGA reste prédominant et répond à la très grande majorité des cas, en plus de ne “rien” couter. C’est pour ça que les BMC/PMI les gèrent comme dit plusieurs fois.



Pour le S-Video il me semble en avoir vu sur les enregistreurs de vidéosurveillance.

Le 26/10/2021 à 08h 24

bienvenue en entreprise, où tu as le choix entre des consoles VGA ou S-Video pour l’image et du PS/2 pour ton clavier/souris. Pour les plus fous et amateurs d’exotisme il y a des appareils en DVI, le grand luxe.



Le VGA ne coute presque rien niveau implémentation, compte bien sur les industriels pour gratter des économies de bouts de chandelles dans leurs baies serveurs.



Tu ne trouveras jamais un serveur baie sans port VGA.

Le 26/10/2021 à 07h 57

comme le dit David ça dépend du matos. J’ai déjà vu des machines refuser de booter sans affichage.



Et puis en vrai, un port VGA ça sauve des vies.

Le 26/10/2021 à 07h 32

Il y a toujours un chipset graphique dans un serveur. Si pour l’esprit collectif il est inutile d’avoir un GPU sur serveur c’est tout simplement parce qu’il s’agit pratiquement tout le temps de la puce dédiée à la gestion à distance. Du coup si tu veux te monter un serveur à partir d’une carte mère classique, tu dois mettre un GPU, peu importe sa forme.



Pas pour rien qu’Asrock avait sorti un GPU au format M.2.

Le 27/10/2021 à 11h 18


(quote:61027:skankhunt42 )
Pour virer ce genre de cheat c’est 3 lignes de code, ils sont toujours présent, ok !


Je suis sûr que ces grands studios n’y ont absolument pas pensé et ont besoin de tes lumières.




Dans ce cas explique moi pourquoi la presse et les joueurs sont aussi de mon avis ?


Encore une fois : dans quel monde vis-tu ?



Le 26/10/2021 à 16h 26


(quote:61007:skankhunt42 )
L’unreal engine fait “sauter” le nombre de polygone […]


Donc l’optimisation des moteurs graphiques est loin d’être terminée et la pénurie des CG un moindre mal. Donc pas d’écroulement du JV sur PC.




Un hack n’est pas un mod mais modifie à la volée le code client / serveur.


Un mod c’est quoi à part une modification du comportement du jeu ? Selon le désir d’ouverture des développeurs ça peut aller tout aussi loin.




D’autre jeux online qui possèdent des mods n’ont pas de cheats / hacks comme cs:go.


Quel jeu compétitif accepte officiellement des mods autre que du cosmétique ?




D’ailleurs en toute logique un spinbot c’est détectable en quelques lignes de code;


Sans vouloir être méchant ça m’étonnerait que les gros studio se fassent suer à développer/payer des anti-cheats kernel-level si tout était aussi simple.




(quote:61008:skankhunt42 )
Je suis pas sur que counter strike serais sortit un jours si l’équipe n’avait eu accès qu’au moteur + editeur de valve tout comme l’équipe d’half life.


Alors comment ont fait les développeurs d’Half Life ? Ils ont pris le moteur et les assets ailleurs aussi ? Et si CS n’était pas sorti un autre aurait pris sa place aujourd’hui.




Ce baser sur un jeu existant […] permet aussi plus facilement la distribution.


Alors justement y’a plein de raisons qui rendent la distribution possiblement plus compliquée. Si l’éditeur est chiant et veux rien savoir ou si ton mod compliqué à installer notamment.




Après oui il y à le JV indépendant mais bon… C’est encore très primitif malgré la possibilité d’acheter des asset et du code


Et bah les dev indés sont très contents que tu les insultent. Niveau manque de respect on est pas mal là. Quel joli résumé de leur travail.
Leurs jeux sont tellement primitifs qu’on a eu deux studios indés notoires qui ont eu leurs jeux nominés aux Game Awards pour Jeu de l’Année (Celeste et Hades) et qu’un autre studio notoirement indé à l’époque s’est fait racheter 2.5 milliards de dollars par Microsoft pour leur seul petit jeu indé primitif. Ou bien encore un jeu indé (Stardew Valley) qui arrive presque à lui seul à relancer l’intérêt pour un genre de jeu qui était morose.




Je pense qu’i y à aussi des contre exemples, comme avec left 4 dead. Le “studios” est maintenant indépendant et viens de sortir une “suite” qui est une sombre merde.


Non vraiment, soit tu vis sur une autre planète, soit tu te fiches éperdument de l’avis des autres et tu n’écoutes que ton nombril. Je vois pas comment faire autrement pour avoir si peu de considération pour des pans entiers du monde vidéoludique. Ça sort de ce que tu aimes = c’est de la merde. Comment veux-tu discuter calmement avec ça ?

Le 25/10/2021 à 15h 14


(quote:60954:skankhunt42 )
Je dois l’interpréter comment ?


Bah écoute je sais pas, réfléchis à la situation. Je te cite :




  • “Les grosses licences que j’aimais”

  • “J’attends toujours”



Ce sont tes goûts qui parlent, pas une vision objective du marché. Il y a beaucoup de choses qui partent en cacahuètes certes mais il y a aussi beaucoup de jeux qui sortent du lot et font les choses bien. Il suffit juste d’arrêter de regarder les géants qui tombent de leurs piédestaux et plutôt tout ces petits qui grandissent.




Si la pénurie continue alors plus aucun studio ne va ce mouiller pour step up niveau graphisme.


Ou alors les gros studios vont faire un gros travail de fond pour continuer d’optimiser leurs moteurs, comme ce qu’ont toujours fait les studios sur console pour faire évoluer leurs jeux sur du matos qui frôlaient les 10 ans en fin de vie. Et les petits ont déjà arrêté la course aux graphismes depuis des années parce que c’est pas la beauté d’un jeu qui en fait le succès.




Si à ça t’ajoute les “découvertes” niveau software, l’hardware devra surtout ce concentrer sur la ram et le stockage.


Là je vois pas de quoi tu parles.




Le steam workshop c’est peut être “cool” mais tous les jeux ne sont pas sur steam et ou utilisent ce système.


Non mais ça popularise la pratique et donc les outils.




A une époque ont pouvais modder battlefield 2. A une époque CS est né de half life.



Ça serait encore possible aujourdhui ?


Les jeux multi, non. On ne pourra plus modder les jeux opposants les joueurs de prêt ou de loin et ce n’est pas à cause d’un marché qui se renferme mais d’une culture toxique du milieu qui a tout saboté. laisser la possibilité de modder un jeu comme CS:GO c’est accepter de facto la triche et les hacks.
Par contre les jeux solos ou sans affrontements/leaderboards se moddent toujours aussi bien.

Le 25/10/2021 à 13h 52


(quote:60951:skankhunt42 )
Personne ne te met un couteau sous la gorge pour acheter à ce prix.


Le rapport ? On dit juste que ton calcul ne prend pas en compte le marché actuel. On est effectivement pas obligé d’acheter et ceux qui veulent pouvoir jouer quand même ont l’option du cloud qui, grâce à ce contexte particulier, est très compétitif.




il faut aussi être réaliste, il y à pas vraiment de jeux à ce mettre sous la dent depuis quelques années.


Il n’y a pas de jeux qui te plaisent. Encore une fois tu prends tout à travers le prisme de ton avis et rien d’autre. je vais pas lister les jeux sortis, il y en a trop et pour tout les goûts. C’est de la mauvaise foi.




Et si une partie du gaming sur pc est mort


d’où le gaming PC est mort ? Les sorties s’enchainent, les portages d’exclusivités consoles de plus en plus nombreux, le modding vit très bien grâce au Steam Workshop qui l’a rendu plus accessible et les statistiques de joueurs sur Steam & cie continuent de grimper. Le jeu sur PC se porte très bien.

Le 27/10/2021 à 09h 15


(reply:61015:N.Master) y’a littéralement écrit “Et PC” sur l’illustration de la carte réseau :mad2:


Après comme le dit Derived vu la dimension du ventilo il est fait pour tourner au minimum, on ne l’entendra pas. Les disques durs feront plus de bruit que lui.

Le 26/10/2021 à 08h 09

Il faut aussi regarder la conso au repos. Un DD en attente consomme encore quelques watts alors qu’un SSD SATA ou NVMe c’est de l’ordre du milliwatt. Du coup à performance égale le SSD est plus économe car il ne sera pas à sa conso max et en perfs max aussi car le SSD retournera bien plus vite en idle et donc à une consommation virtuellement inexistante ramenée à celle de l’ordinateur.

Le 26/10/2021 à 07h 55

Sinon en regardant les images tu verras que le 80mm c’est parce qu’ils ne peuvent pas mettre plus grand avec une alim ATX hein. Et puis en quoi c’est mal un ventilo 80mm ? Il y en a des bons, ce qui compte c’est que la taille soit adaptée à ton besoin.

Le 22/10/2021 à 09h 23


(reply:60878:eglyn) c’est pourtant la menace faite par Microsoft. Néanmoins les premiers patchs ont été déployés maintenant et y compris sur les machines normalement non supportées : https://www.windowscentral.com/windows-11-updates-arrive-unsupported-pcs


Bref ils osent sans doute pas le faire comme tu le dis, mais le futur reste incertain.

Le 22/10/2021 à 08h 50


horrus a dit:


parce que windows 11 n est pas censée fonctionner avec les Zen 1???


Au minimum Intel Gen 8 ou AMD Zen 2 pour être compatible Win11. C’est ce qu’impose Microsoft et si le PC ne remplit pas les prérequis alors Win Update est coupé.



Remarque les afficionados de la désactivation des updates “parce que ça ralentit ma machine vous voyez” vont être content que MS le fasse pour eux.

Le 20/10/2021 à 07h 23


(quote:60707:brice.wernet)
Linux, c’est pas un système juste pour faire durer les vieilles machines.


Ce n’est pas une critique du système ou pour le rabaisser aux vieilles machines, juste un constat que pour l’instant Linux gère très mal la nouvelle plateforme Apple. A moins de vouloir participer activement au développement des distributions dédiées au M1 ça n’a donc pas d’intérêt.