votre avatar

kikoo26

est avec nous depuis le 1 septembre 2014 ❤️

684 commentaires

Le 04/09/2019 à 18h 44







ElMarcassin a écrit :



Je t’accorde néanmoins que les projecteurs de beaucoup de “petits” cinémas  sont encore en 2 k et que personne ou prequene s’en plaint.





Perso je m’en plains régulièrement.

Et c’est pas juste les “petits” cinémas, dans mon coin il doit y avoir 40~50 salles de projection réparties sur 4 cinémas, et il doit y avoir que 6 salles qui font 4K/IMAX Laser.



Le 24 images par secondes c’est un peu gênant aussi sur les scènes d’action.


Le 02/08/2019 à 09h 15


Notez que la lettre U ou Y n’apparaît plus dans la référence. La distinction se fait par le quatrième chiffre :



0 : série Y, 912 W de TDP



5 : série U, 1225 W de TDP



8 : série U, 28 W de TDP


C’est nul ça, la lettre était bien pratique pour distinguer les gammes de TDP.



Et quand il y aura des modèles pour PC de bureau, ils vont distinguer ça comment avec les modèles “normaux”, basse conso, overclockables, et “extrêmes” (ceux qui sont pas sur le même socket) ?



Parce que ça fait 4 gammes à rentrer dans le chiffre, et ces 4 gammes sont plus puissantes que 28W de TDP, donc ça vas être compliqué à mettre au dessus du “8”.

Le 26/06/2019 à 12h 54

Pas vraiment.



Par contre ça semble être un bon endroit pour y stocker le fichier de base de mot de passe de Keepass.

Le 20/06/2019 à 08h 28



d’une version longue[…] Si vous restez après le générique, il y aura une scène supprimée, un petit hommage et quelques surprises





Donc si je comprends bien le film de 3 heures reste le même, et la seule différence c’est l’après-générique ? Ça n’a pas un grand intérêt du coup…



Le film était sympa en tant que conclusion de la série Avengers, mais j’irai pas re-regarder ça tout de suite, c’est beaucoup trop frais dans ma mémoire pour être intéressant.

Le 12/06/2019 à 19h 04







anagrys a écrit :



(…)Elle est clairement poussive <img data-src=" />









TheKillerOfComputer a écrit :



(…)On voit certes peu de gameplay dans la vidéo Commander Keen mais les quelques périodes montrées ont toutes un point commun : c’est LENT, ça n’a rien à voir avec le jeu de plateformes que c’était (…)

A moins d’être extrémement ouvert, on ne peut que s’offusquer de ce massacre de cette licence(…)







Aaaaaaaaaahhhhhhhhhhhhhh bordel, je m’auto-décerne un : <img data-src=" />



J’avais vu cette vidéo qui avait l’air plutôt sympa et ne montrait pas de gameplay.

Et j’avais pas compris que Bethesda avait sorti 2 vidéos en même temps, une pour l’annonce et une pour le gameplay.

Du coup maintenant je comprends beaucoup mieux les commentaires que j’avais pu lire ici et ailleurs.



Donc oui, c’est plus du tout un jeu de plateforme, et vu la vitesse des animations on dirait que le jeu tourne au ralenti.

Donc niet pour moi aussi.



Désolé pour le quiproquo !


Le 12/06/2019 à 08h 21







anagrys a écrit :



Disons que Commander Keen était un jeu de plate-formes super dynamique, avec un héros qui répondait au quart de tour (malgré une légère inertie avec laquelle il fallait composer, si je me souvient bien). Sur la vidéo, ça semble bien poussif !





C’était quand même nettement plus lent que du Mario/Sonic, j’ai souvenir d’un truc qui peut se jouer très lentement et qu’aucune mécanique ne te pousse à courir comme un dingue pour finir le niveau le plus rapidement possible.







dematbreizh a écrit :



Qui te parle de haine, faut arrêter d’être parano.









TheKillerOfComputer a écrit :



En 2019, si on critique on est forcément un haineux/rageux/nazi/etc. C’est l’application de la Novlangue(…)





Effectivement j’ai un peu raccourci, mais j’ai vu des commentaires vraiment pas tendre dans d’autres recoins d’internet.



Ce que je voulais dire, c’est que je trouve dommage de voir une telle levée de bouclier (plus ou moins agressive selon les gens) en jugeant seulement sur un teaser qui montre un univers et un bout de gameplay qui dure environ 2 secondes et ne me permet par exemple pas de savoir si ce sera du gameplay 100% tactile ou si ce sera de la manette/manette émulée sur l’écran tactile.









dematbreizh a écrit :



(une manette, sur mobile??? les jeunes jouent tactile, sur mobile.)





<img data-src=" />

Il y a des jeux qui sont jouables à la manette sur mobile, les manettes bluetooth pour téléphone se trouvent à très facilement, et la mode des téléphones “gamer” et des jeux comme PUBG/Fortnite qui incitent les jeunes à jouer à la manette pour être plus efficaces, donc je me disais qu’il y avait quand même un petit espoir.


Le 10/06/2019 à 09h 01

J’ai pas encore la trentaine, et j’ai joué à Commander Keen quand j’étais très jeune, et quand je vois le trailer je me dis juste “pourquoi pas ?” plutôt que d’être plein de haine.



Après faut voir le gameplay : si c’est un vrai jeu de plateforme avec utilisation de manette c’est cool, mais si c’est pour faire un truc 100% tactile comme Rayman Adventures par exemple ça m’intéresse pas du tout en effet.

Le 10/06/2019 à 19h 02


horrus a dit:


ce qui m énerve c est qu ils essayent de nous vendre le cloud gaming comme “ le saint graal ” du futur du jeu video


Mais ça c’est normal quand celui qui te présente le cloud ne vends QUE du cloud. Il vas forcément tout faire pour que son produit te paraisse être le meilleur du marché, et que tu oublies que la concurrence existe et vends autre chose (tel que des consoles ou des PC).

Le 10/06/2019 à 13h 38


HPact a dit:


les éditeurs vont y aller à fond car cela empêchera tout piratage. Et là, c’est moi qui ne pourra plus faire ce que je veux. Pas pour l’aspect piratage, mais pour l’aspect de jouer en local sans être tributaire de ressources externes


Comme le dis toi même, ça vas rapidement coincer sur beaucoup de lignes internet, et imagine dans les pays avec une infrastructure encore moins développée.
Je pense que tu es tranquille pour une bonne dizaine d’année voire plus.



Microsoft l’a déjà dit 2-3 fois pour calmer les gens qui protestaient d’avance : le xCloud est un service pour ceux qui le souhaitent, mais ça n’a pas vocation à remplacer la console Xbox pour tout le monde.



Parce que contrairement aux autres acteurs pur-cloud, Microsoft joue sur plusieurs terrains, donc lui il place juste ses billes un peu partout pour suivre le marché, mais contrairement à Google il n’a aucun intérêt à ce que le marché des consoles meure (un datacenter c’est cher à faire tourner, donc je doute que ce soit aussi rentable que vendre des consoles).



L’autre point, c’est la fragmentation qui s’annonce avec une dizaines d’acteurs qui veulent se lancer, et qui vont tous réclamer que les éditeurs de jeu portent le jeu spécifiquement pour la plateforme. Je pense pas que ce soit rentable sur le long terme ça, et comme le xCloud est une Xbox modifiée, tu peux être sûr que la console Xbox restera supportée.




HPact a dit:


Un détail que je n’ai pas trouvé: pour jouer en famille (oui, nous jouons tous les 4), il faudra 4 abonnements ?


Faut voir s’ils ont bien prévu le coup sur les clients de streaming pour gérer plusieurs manettes comme sur une vraie console.
Je pense que au minimum avec le client pour Win10 ça devrait passer. Mais pour les autres plateformes, surtout celles qui n’ont que le Bluetooth et pas de port USB, ça risque d’être compliqué.



Mais il y a de moins en moins de jeux familiaux à jouer en “couch co-op” de toute façon. Si tu veux jouer en famille à Minecraft ou Fortnite, t’es bien obligé d’acheter 4 machines (console/PC) + 4 écrans. Donc c’est probablement pas la cible dans un 1er temps pour les services de streaming.

Le 10/06/2019 à 08h 52


horrus a dit:


bonjour , ils commencent tous vraiment a me taper sur le système nerveux avec leur “ cloud gaming” que ce soit google stadia ou crosoft ou autres.


Microsoft est plus mesuré que les autres là dessus, ils ont déjà dit à plusieurs reprises que pour eux la console physique restera un élément essentiel pour de nombreuses années.
Le xCloud de Microsoft, c’est un “bonus” pour ceux qui sont bien fournis en internet, mais tu ne perds rien à prendre une Xbox à la place.



Les autres acteurs comme Google Stadia ne font que du streaming, donc eux effectivement ils s’en foutent des gens qui n’ont pas internet.




horrus a dit:


c est comme le 8 K sur la scarlet presque personne pourra avoir de tv 8k en 2020 voir meme 2022


Pour le 8K de la Scarlet, il faut pas le prendre pour “TOUS LES JEUX VONT TOURNER EN 8K !!”, et il faut savoir lire entre les lignes.
Ce sera comme la Xbox One S : elle est capable de faire du 4K pour les vidéos (Blu-Ray, streaming, vidéos stockées sur le HDD/USB), mais aucun jeu n’exploite cette capacité de 4K même si rien ne les en empêche.
Les 3 modèles d’Xbox One sont aussi capables d’utiliser un signal vidéo en 120Hz, la One X peut faire 1440p/120Hz, mais ça ne veut pas dire que les jeux s’en servent.



Et même si les jeux sont 8K et que les gens ne sont pas équipés, ça ne sera pas forcément perdu : la One X utilise le “supersampling” sur les jeux 4K avec un écran 1080p, et sur certains jeux l’effet est incroyable (c’est assez inégal par contre, ça dépends beaucoup des graphismes du jeux).

Le 10/06/2019 à 08h 39

Pour xCloud, peu d’informations pour le moment, mais le peu qu’il y a est positif pour moi : j’avais assez peur qu’ils fassent un service uniquement cloud, et donc relativement inutile pour ceux qui possèdent déjà une Xbox.



Du coup j’attends avec impatience qu’ils lancent leur appli multi-plateforme pour streamer sa propre console, parce qu’à l’heure actuelle il y a seulement Xbox -> Windows 10, donc le seul moyen de jouer sur Android (téléphone, tablette ou Oculus Quest) est de faire du double streaming avec un PC au milieu.

Le 10/06/2019 à 14h 05


revker a dit:


La convergence PC / Xbox est bien mais si tous les jeux Microsoft et partenaires sont disponibles Day One dans le Game Pass, quel intérêt d’avoir cette console si on possède déjà un PC ?


Aucun intérêt d’acheter la console quand tu as le PC.
Le but de Microsoft c’est de jouer sur tous les fronts : console à bas prix, PC traditionnel plus ou moins cher, et cloud-gaming.
Pendant ce temps, ils te convainquent de rester chez eux à coup de Game Pass et de Play Anywhere (leur cross-plateforme qui synchronise achat/progrès/multijoueur), et du coup quand dans X ans tu te pose la question de remplacer ton PC, et bien tu regardes en priorité chez Microsoft pour conserver ta bibliothèque de jeu et/ou les avantages du Game Pass.

Le 10/06/2019 à 13h 59


David_L a dit:


Disons que MS fait comme tout le monde : ils balancent des mots clés en espérant que ce soit repris n’importe comment et sans recul (spoiler : c’est le cas). Mais oui, 120 fps ce sera plutôt pour Minecraft en 1080p, la 8K pour de la vidéo via Netflix en 2021 et le 4x plus perf en prenant en compte une accélération matérielle de la nouvelle console.Ils pourraient avoir une comm’ claire sur ce que permettra Scarlett, mais le problème avec le réalisme, c’est que ça vend moins du rêve.


Pour moi ça ma semblé évident que c’était comme la XB1S qui fait 4K pour BR/Netflix, et qui sait envoyer du 120Hz en 1080p même si aucun jeu ne dépasse les 60 ips.



Vu que la console est techniquement capable de le faire, rien n’empêche les développeurs d’utiliser les capacités de la console pour le faire, mais après est-ce que ça vaut vraiment le coup ?



Pour du marketing, c’est normal qu’ils annoncent n’importe quoi, après c’est au consommateur de réfléchir, ou aux journalistes de bien expliquer après avoir pu faire un titre qui attire les clics :)



Mais après j’ai peut-être un peu trop l’habitude de regarder des fiches produit complètement bullshitées (du style vanter l’incroyable puissance gaming d’un Atom pour tablette) d’objets high-tech chinois à bas prix. En soi ils mentent pas sur la fiche produit, mais faut vraiment bien lire entre les ligne pour savoir à quoi réellement s’attendre.

Le 10/06/2019 à 13h 52

Le côté “quatre fois plus puissante”, ils ont pas trop détaillé sur quel critère ?



Pour le CPU, c’est assez simple en tenant compte de :
-la différence d’IPC entre Jaguar et Zen2
-les fréquences utilisées par la XB1
-la facilitée de rajouter des cœurs à la pelle avec Zen.



Pour GPU, c’est plus compliqué par contre… avec 6 TFLOPS pour la XB1X, ça veut dire 24 TFLOPS, soit le double de la Radeon VII, sauf si Navi fait un miracle pour améliorer le ratio de perf en jeu par FLOPS.
Est-ce que ça pourrait être une grosse feinte marketing sur le “half-precision” façon Vega vu que la XB1X le gère pas ?



Et du coup, vu que la XB1X est à mi chemin entre la XB1 et Scarlett, est-ce qu’on peut envisager que la XB1X aie une durée de vie étendue avec les jeux à 30 ips pendant que Scarlett ferait du 120 ips avec la même définition d’image ? (pour respecter le 4X)

Le 10/06/2019 à 09h 16


David_L a dit:


Surréaliste :D (hors du cloud gaming je veux dire)


C’était pourtant ce qu’ils avaient annoncé pour la Xbox One !



Bon au final, ça a pris son temps, et il y a qu’un seul jeu qui en profite : Crackdown 3, et encore je crois que le résultat est pas génial :D

Le 10/06/2019 à 13h 00

Ah mince, le teaser d’il y a plusieurs mois me faisait penser que ce serait FPS/TPS.

En vue isométrique ça me fait moins envie…



Enfin bon, on verra quand ça sort, au moins grâce au Game Pass il n’y a pas d’ouvrir le porte monnaie pour tester un jeu et voir si on aime ou pas !

Le 07/06/2019 à 17h 20

Intéressant tout ça, j’avais vu passer des bouts d’histoire par-ci par-là sans le contexte complet, c’est bien d’avoir un tel article qui récapitule tout.

Le 27/05/2019 à 18h 37


Kevsler a dit:


C’est beaucoup plus lumineux que la version originale… Ça dénature le jeu, même.


C’est clair, ça donne plus l’impression qu’ils ont boosté le gamma que d’une quelconque révolution des graphismes avec RTX.



Et au milieu des polygones qui ont 22 ans, les surfaces d’eau made in 2019 ça fait vraiment pas raccord.

Le 27/05/2019 à 05h 26


“avec un cache important (70 Mo)”



:eeek2:



Il y a moyen de faire tenir un OS super léger là dedans et se passer de RAM !

Le 02/05/2019 à 10h 17

A ce prix là, ça bascule automatiquement en mode portrait via un petit moteur, ou il faut quand même prévoir un domestique pour qu’il le fasse manuellement ?

Le 02/05/2019 à 10h 14

Comment est-ce que tu peut oser supposer le genre de la personne sous la chapeau ? <img data-src=" /> <img data-src=" />



En laissant le troll de côté, le personnage était relativement asexué, il est juste “humain”, il n’y a pas vraiment de traces de masculinité ou de féminité dans le bout de visage qu’on peut voir.



(Et pour ceux qui veulent revoir l’ancien logo pour comparer, je vous épargne la recherche sur votre moteur de recherche favori : image )

Le 26/04/2019 à 12h 20

C’est peut être parano de ma part, mais je vais attendre que Microsoft se sente vraiment prêt à diffuser la mise à jour au grand public.



De toute façon, il faut penser aux gens lambdas qui se posent encore moins de questions : Mme Michu vas jamais s’amuser à aller dans les paramètres pour déclencher une mise à jour, et bien je fais pareil, je laisse Windows Update se débrouiller comme un grand.

Le 26/04/2019 à 09h 42

J’ai 5 PC à la maison :





  • tour montée à la main : CPU (Ryzen 1ère gen)+GPU (Polaris)+carte mère+RAM+SSD+alim et une carte WiFi en PCIe, le tout dans un boitier, et rien d’autre : pas de lecteur CD/DVD, pas de carte son, etc.

  • tour montée à la main : tout pareil, mais avec un CPU Skylake et un Oculus Rift branché dessus

  • portable Xiaomi 15” : i5-8250U et MX150, c’est du récent, rien de branché dessus

  • tablette avec un Atom Z8350, rien de branché dessus

  • vieux PC portable en fin avec i3 Ivy Bridge







    Ils sont tous en 1803, et j’ai rien fait pour bloquer les mises à jour, j’ai juste laissé Windows Update faire librement son boulot.



    Après les problèmes au début de la 1809, ils avaient bloqué la diffusion, et ils l’ont rouverte que récemment, mais visiblement il faut aller la chercher volontairement en cliquant sur le bouton pour vérifier la présence de màj, et des stats circulaient il y a quelques jours, il reste 80% des Win10 sur la 1803.



    Si MS n’a pas assez confiance dans la 1809 pour lancer la diffusion automatique à tout le monde, je vais tranquillement attendre mon tour que ce soit stabilisé.

Le 25/04/2019 à 12h 37

Pareil je suis encore sur la 1803, mais vu le merdier de la 1809 et ce qui s’annonce avec la 1903, je suis pas prêt de cliquer sur le bouton pour aller chercher les mises à jour, je vais attendre bien sagement que ça se tasse.

Le 26/04/2019 à 09h 59







KaraMan a écrit :



des comportements aberrants (Firefox qui se met à jour tout seul, mais Chocolatey n’est pas au courant donc propose la mise à jour)





J’allais poser la question, mais tu y réponds déjà.



J’ai la quasi-totalité des logiciels que j’utilise qui se mettent à jour de manière automatique, du coup s’il y a un conflit permanent entre les mises à jours, ça vas être vite chiant.



Il faudrait que les applications proposent un build distinct sans le système de mise à jour et/ou qu’il y ait une API interopérable pour communiquer avec Chocolatey et programmes similaires pour qu’ils se mettent d’accord sur le moment adapté pour faire la mise à jour.


Le 25/04/2019 à 12h 30


David_L a dit:


TSMC fabrique des chiplets en 7nm, pas un gros GPU/CPU, ça facilite les choses


Le die des GPU 7nm d’AMD est peut être petit comparé à la RTX 2080 Ti, mais ça reste quand même bien supérieur au petit i3 sans iGPU gravé par Intel en 10nm.

Le 25/04/2019 à 08h 55


David_L a dit:


C’est le marché visé par la plateforme oui


J’avais lu en diagonale à l’annonce du CES, je trouvais le concept intéressant mais j’avais pas vu/pas compris le marché visé.



Sur un segment 3-5W je trouve ça un peu gâché, et que ça vas permettre une vraie démarcation entre le cœur Sunny Cove et les cœurs Atom ?



Je pensais que le TDP serait plus gros : le(s) coeur(s) Sunny Cove pourrai(en)t monter allégrement dans les GHz quand il faut de la puissance, et le reste du temps les cœurs Atoms permettraient d’avoir une consommation négligeable quand il n’y a pas besoin de puissance.

Le 25/04/2019 à 08h 07

Le seul truc qui me semble intéressant côté CPU chez Intel à l’avenir, c’est leur projet dans le style du big.LITTLE d’ARM.



C’est uniquement la puce “Lakefield” qui apparait dans la catégorie “3-5W (SOC)” ?

Le 17/04/2019 à 17h 42

Par expérience perso, du 1080p60, en H264, avec une qualité raisonnable ça vas chercher dans les 7-8 Mbit/s.



Et supposant que le H265 vienne remplacer pour améliorer le ratio qualité/poids, et en arrondissant à 1 Mo/s, ça fait 3,6 Go/heure.



Si tu prends un jeu récent qui vas chercher dans les 100 Go, ça fait l’équivalent de 27 h 46 min.



Si tu finis le jeu en moins de 20h, c’est rentable.



Mais surtout, tu n’as pas besoin d’attendre le téléchargement de 27 heures, tu peux commencer à jouer 1 jour plus tôt, et c’est pas négligeable.

Le 17/04/2019 à 11h 59

J’en étais déjà convaincu avant de le lire, mais certains de ses chiffres en exemple sont particulièrement violents.



Ce que je sais, c’est qu’à mon boulot, on a notre propre datacenter dans l’un des locaux de l’entreprise.



Dans ce local, il y a environ 300 personnes qui bossent à temps plein je crois. Sur la consommation d’électricité annuelle du bâtiment (du coup ça inclus l’électricité pour les PC des 300 employés, l’éclairage du bâtiment, etc.), la consommation de la climatisation de la salle serveur représenterait apparemment 50% de la facture.



Et l’emplacement de ce local a été choisi avant toute chose pour le climat frais de la région, histoire de pouvoir réduire la facture en utilisant la fraîcheur ambiante en hiver.



Quand je vois la taille de la clientèle de mon entreprise, et le type de services qu’on rends, et que j’essaie d’extrapoler ça pour imaginer les datacenter de Google/Amazon/Facebook/Microsoft, ça me fait vraiment très très peur.



Et du coup, côté développeur, on passe notre temps à coder avec le cul en Java et autres. La plupart des applis sont faites avec un framework maison, j’ai voulu y toucher une fois, il faut environ 20 classes avec une tonne d’abstractions pour réussir à faire l’équivalent de la plus simple des requêtes SQL.



Pour comparer, dans mon équipe on utilise un framework de chez Apache, et si je veux récupérer des trucs en base, j’ai juste à écrire ma requête SQL en texte brut, utiliser la commande “envoie vers la base”, puis récupérer le résultat sous forme de texte que je peux parser très facilement avec 2 boucles imbriquées.



Je pense que le problème du mythe “le temps des développeurs coûte plus cher que la machine qui fait tourner le code”, ça tient aussi parce que les budgets développement/exploitation sont complètement séparés, donc le responsable des développement il voit que ça partie à lui, et forcément réduire les temps de développements ça lui parait bénéfique. Mais si on considère que le code vas peut être tourner 50 ans (clin d’oeil au COBOL et autres dinosaures qu’on arrive pas à virer), il serait peut être important de tenir compte des coûts générés par l’exploitation.

Le 17/04/2019 à 11h 27







Furanku a écrit :



Un billet résume très bien cela, du point de vue d’un développeur.





Je crois que je l’avais déjà lu, et ça me fait tellement mal de lire ça.



“Windows 10 met 30 minutes à se mettre à jour. Qu’est-ce qu’il peut bien faire pendant tout ce temps ? Ça me laisse assez de temps pour formater complètement mon SSD, télécharger un nouveau fichier d’installation et l’installer 5 fois de suite.”



“Windows 95 pesait 30 Mo. (…) Android sans aucune application installée pèse quasiment 6 Go. (…) L’application clavier de Google consomme constamment 150 Mo de mémoire. Est-ce qu’une application qui dessine 30 caractères sur un écran est réellement cinq fois plus complexe que Windows 95 tout entier ? L’application Google, qui est juste la recherche web empaquetée pèse 350 Mo !”


Le 16/04/2019 à 17h 15







kgersen a écrit :



mouais ca fait plus théorie du complot que vérité technique quand meme… sans sources et preuves concretes ca reste du FUD basique.





C’est une théorie du complot qui est signalée par l’intégralité des développeurs de moteurs concurrents de Chrome quand même :





  • Opera l’a signalé avant de jeter l’éponge et d’abandonner Presto

  • Microsoft l’a signalé avant de jeter l’éponge et d’abandonner Trident/EdgeHTML

  • Des gens de Mozilla le signalent aussi (mais ils n’ont pas encore jeté l’éponge sur Firefox).





    Si c’était juste un navigateur isolé avec moins de 2% de part de marché qui se plaignait, je comprendrais que ça passe pour une théorie du complot, mais quand tu as l’intégralité des concurrents qui signalent le même problème, il est peut être temps de se poser des questions non ?







    kgersen a écrit :



    Quand on est pas bon techniquement c’est tellement plus facile d’aller dire que l’autre est méchant et vous empêche d’être bon…





    Pour Firefox/IE/Edge aujourd’hui j’en sais honnêtement rien, peut être que malgré tous leurs efforts ils vont effectivement moins vite pour implémenter toutes les nouveautés à la pointe de technologie que Google a absolument besoin d’utiliser sur leurs services web….



    Mais pour Opera à l’époque, je le répète : en mettant le User-Agent de Firefox tout marchait bien. Google n’avait pas besoin de se prendre la tête à différencier le support d’Opera, ils auraient juste pu balancer le même code HTML/CSS/JS que sur Firefox et ça marchait parfaitement bien.



    Et à côté de ça, IE6 qui devait être une authentique plaie à gérer, lui il fonctionnait parfaitement bien, sans recevoir de mises à jours hebdomadaires pour que Google Doc continue à fonctionner, alors que pourtant Google aurait pu juste faire comme d’autres sites et dire “on refuse de gérer IE6, c’est trop pourri”.


Le 16/04/2019 à 12h 26

Mon EDIT est pas passé à temps, je voulais remplacer la ligne du milieu par :



Sur le blog des développeurs d’Opera, ils évoquaient le même jeu du chat et de la souris entre les devs de Google et d’Opera pour d’un côté rajouter des trucs qui marchent par pour Opera, et de l’autre essayer de réparer ça le plus vite possible pour que les utilisateurs d’Opera puissent continuer à utiliser Google comme les utilisateurs de Firefox/IE/Chrome.



En sachant que :





  • En mettant le User-Agent de Firefox dans Opera ont recevait des pages qui marchaient parfaitement bien, donc le moteur d’Opera était parfaitement en mesure d’afficher les services Google, au moins aussi bien que Firefox, c’était bien le code renvoyé spécifiquement pour Opera qui ne fonctionnait pas correctement

  • Pendant ce temps il y avait un certain IE6, qui était décrié de partout pour être tout pourri et incompatible avec le web moderne, et que il y avait 34 des sites qui ne s’affichait pas correctement dedans (comparé à Firefox/Chrome/Opera). Ce IE6, malgré tout ses problèmes intrinsèques avait accès à l’intégralité des services Googles qui fonctionnaient parfaitement bien.







    Du coup pour moi, c’était (et c’est toujours pour Firefox) clairement du sabotage de moteur concurrent. Opera n’a jamais eu une part de marché énorme, donc ils pouvaient se permettre de les saboter sans trop risquer de problèmes dans l’opinion publique dès que Chrome est devenu un vrai produit fort pour eux.



    Internet Explorer et Edge étaient sur la pente descendante depuis un moment, ils ont remis la tactique pour les achever.



    Il reste maintenant Firefox qui subit visiblement les mêmes attaques.

Le 16/04/2019 à 12h 06







Obidoub a écrit :



Il y a des preuves ?





A l’époque sur Opera avec le moteur Presto, il suffisait de changer le User-Agent pour avoir des pages et des services qui marchaient.



Et à l’époque les services Googles marchaient parfaitement sur IE 6, donc c’était pas juste une histoire de “votre moteur est trop pourri pour faire tourner Google”.



Et ça a fini comme Microsoft et Edge de nos jours : Opera a lâché Presto, et ils ont mis Webkit/Blink à la place.



Le 26/03/2019 à 22h 45

Même si le public visé n’est pas le même, j’ai du mal à imaginer quiconque acheter ce casque 2X plus cher et avec aucun avantage technique par rapport au Quest d’Oculus.

Le 26/03/2019 à 11h 03

J’ai pas encore joué à SS2 du coup, je peux pas comparer.



Par contre Duke Nukem 3D, je suis entrain d’y jouer, et en comparaison Serious Sam est un chef d’œuvre en matière de scénario.

Le 26/03/2019 à 10h 06







Obidoub a écrit :



Dans le 1 il y avait un côté “Doomguy”, tu es envoyé dans le passé mais on en sait pas vraiment plus et tu es tout seul.

(…)

Le scenario du 3, je ne peux juste pas. Que Serious Sam soit membre des forces spéciales et arrive en hélicoptère avec des équipiers dans un désert, ça fait vraiment trop kikou.







Pourtant c’était ce qui était prévu dès le 1er jeu.

Voici le texte d’intro de Serious Sam : First Encounter (trouvé en format texte ici)





INTRODUCTION



At the dawn of the 21 st Century, mankind makes a startling discovery. Beneath the sands of the earliest known human civilization, traces of another, even more ancient -but technologically advanced- civilization are uncovered. The profound scientific implications of this discovery leads humankind to the far reaches of the universe. Everything seems perfect- but too perfect to last.



In the year 2104, human civilization Is attacked by countless deadly monsters, spawned from another dimension. In the battles that follow, humankind fights valiantly, but nothing can stop the monsters from coming. Earth’s forces are steadily defeated, planet-by-planet, from Alpha Centaury back to their own solar system.



Because of his extreme bravery in battling monsters, Sam ‘Serious’ Stone becomes a legend. Wounded countless times- but never defeated- Serious Sam becomes a living symbol of the Earth’s resistance against the advancing evil.



But, no matter how bravely the human armies fight, they are defeated, time and again. Attempts to defend the solar system fall and the Earth Is now under direct attack. Humankind stares into the face of its own annihilation.



World leaders must now turn to their last chance- an ancient artifact called the ‘Time-Lock’, a relic from a long-forgotten race, imbued with the power to teleport a single person back In time. The choice of whom to send Is obvious…



Serious Sam becomes the final hope for humankind. He must return to the past and change it to save his race from extinction from an evil force determined to purge the galaxy of all intelligent life.





Le 1er paragraphe se passe avant la série.



Le 2ème et 3ème paragraphe, sauf erreur de ma part (j’y ai pas encore joué), c’est ce qu’il se passe dans le jeu le plus récent, SSVR: Last Hope.



Le 4ème paragraphe, c’est ce qui se passe juste avant le début de SS3 : les armées de “Mental” ont détruit toutes les colonies spatiales de l’humanité, et ils arrivent maintenant pour ravager la Terre. L’humanité est au bord de l’extinction -&gt; en effet au cours de la campagne de SS3, il reste plus beaucoup d’humains en vie sur Terre.



Le 5ème paragraphe, c’est la moitié de la campagne de SS3. Les reliques d’une ancienne civilisation avaient permis à l’humanité de prospérer et se répandre dans la galaxie, donc les fouilles reprennent dans l’espoir de trouver quelque chose pour lutter contre les armées de “Mental”. Des chercheurs trouvent des textes qui font mention de la machine à voyager dans le temps, il ne reste plus qu’à la trouver et à envoyer quelqu’un dedans.



Donc voilà, avec ce scénario déjà établi, tu l’aurai imaginé comment la dernière mission de Sam dans son présent avant de voyager dans le temps ?

Tu trouves ça illogique qu’il fasse partie des forces armées qui défendent la Terre contre l’invasion extraterrestre ?

Tu trouves ça illogique qu’il se promène en hélicoptère/jeep tant qu’il en a l’occasion pour gagner du temps sur ses déplacements ?


Le 25/03/2019 à 20h 30







Obidoub a écrit :



J’ai jamais pu aller plus loin que les 2 premiers niveaux […]









jb18v a écrit :



j’ai pas du passer le 2e niveau c’est pour dire <img data-src=" />







Le début est chiant pour un Serious Sam, mais ça monte progressivement en puissance, je serai pas capable de dire à partir de quel moment c’est devenu vraiment bourrin, mais ce qui est sûr c’est que la fin du jeu était bien abrutissante.



Je pense que leur but c’était de permettre à des nouveaux joueurs pas trop habitués au style de la série de rentrer en douceur dans le monde de Serious Sam, du coup forcément c’est un peu frustrant pour les habitués.



Le seul vrai reproche que je lui ferai, c’est que le jeu est très gris/marron, ça tranche pas mal par rapport aux couleurs très flashy dans les autres. Mais d’un autre côté l’ambiance “fin du monde” serait moins crédible sans ça.







Obidoub a écrit :





  • Une cinématique et une histoire inutile dont on se moque totalement





    On se moque souvent du scénario de Serious Sam, mais en vrai il y en a un, et il tient a peu près la route.



    Je m’en sers comme mètre étalon : si un jeu/film prétends avoir un scénario, mais qu’il est moins bien foutu que celui de Serious Sam, c’est qu’il y a un gros problème.


Le 25/03/2019 à 14h 15

Le 3 commence plutôt mal, mais progressivement ça retourne vers les bonnes bases.



Le dernier niveau du 3, c’est vraiment un truc de malade, je me suis régalé !

Le 26/03/2019 à 10h 15

Dommage, il avait l’air sympa ce pack de GIF !

Le 12/03/2019 à 14h 54


Otiel a dit:


Je ne comprends pas tout ce teasing et cette hype pour un simple panneau de contrôle…


Ce panneau tout seul mérite pas trop de teasing, mais c’est plutôt pour la symbolique qu’il renvoie.



A l’heure actuelle, le panneau de config d’Intel fait bien le boulot pour régler l’image, mais pour la gestion des paramètres 3D et des profils par jeux, il y a un sacré train de retard par rapport aux possibilités de la concurrence.



Jusqu’à maintenant, c’était pas gênant vu que les iGPU Intel étaient franchement pas orientés “gaming”, mais comme dit l’article, ça vas bientôt changer. Au vu des chiffres qui se promènent sur la toile, les iGPU Gen11 ont du potentiel pour mettre un beau tacle aux dGPU d’entrée de gamme comme les GeForce MX110 / MX130 / MX150.



Du coup, vu qu’Intel veut investir sur les performance graphiques, le nouveau panneau de contrôle orienté jeu c’est un symbole important.

Le 11/03/2019 à 08h 42

Je pense que ça aurait pu mieux marcher s’ils avaient moins verrouillé l’accès à la techno.



J’ai jamais vraiment été convaincu par la profondeur des films 3D au cinéma, donc ça m’a pas encouragé.



J’ai voulu essayer sur ma TV pour voir si ça valait le coup de s’y intéresser pour les jeux, et il fallait obligatoirement payer pour un logiciel supplémentaire pour que ce soit compatible avec les TV, donc ça a continué de me décourager.



En voyant l’écart de prix entre écran PC 3D + lunettes VS un écran standard (et en tenant compte du fait que si l’écran actuel marche bien, ça parait dur de justifier une telle dépense), fallait avoir sacrément confiance dans Nvidia pour payer aussi cher pour une techno qu’on a pas pu tester et dont on est pas trop sûr des avantages.



Pourtant, j’ai pu mettre la main sur une Xbox plus tard et tester quelques jeux qui gèrent la 3D et ça rends vachement bien pour l’immersion quand c’est fait dans de bonnes conditions (testé sur Gears of War 2 avec une One X, le jeu tournait en 4K et c’était super beau, alors qu’avec les 720p d’origine c’était très moche).
La 3D passive de la télé a ses limites (crosstalk), du coup j’ai essayé avec l’application de streaming pour Oculus Rift, et c’était vraiment génial d’avoir une vraie profondeur dans l’image plutôt qu’un truc plat en face des yeux.



Je sais pas si ça vaut vraiment le coup de mettre 100-200€ en + sur le prix d’un écran PC pour l’avoir, mais en utilisant un casque de VR avec un logiciel type “Virtual Desktop”, ça vaut carrément le coup d’activer la 3D sur les jeux.



Je suis plutôt AMD en GPU, mais si Nvidia me disait que je pouvait activer 3D Vision et jouer facilement en 3D dans un casque de VR, ça serait un gros argument pour me faire investir dans un GPU Nvidia.

Le 10/03/2019 à 21h 28


David_L a dit:


Je pense qu’on se comprend mal. (…)


Effectivement, j’avais pas compris ça comme ça, je pensais que ça rendait l’affichage du rendu final plus beau.



Le but est donc d’améliorer la qualité d’affichage dans le “Viewport”, à défaut de pouvoir améliorer le Viewport avec de l’anti-aliasing.



Par contre je trouve ça quand même maladroit d’écrire que ça n’a pas d’impact sur les performance. Faire X4 sur le nombre de pixels ce n’est pas rien, il me semblerait plus correct de mentionner ce détail et précisant que sur les cartes concernés ça sera négligeable, parce que le VSR étant disponible sur les GPU grand public, ça inclut l’APU A6 7400K (partie graphique : GCN2, 4 CU) qui doit bien rentrer dans la case “IGP anémique”.

Le 09/03/2019 à 07h 35


David_L a dit:


Comme dit dans l’article, DSR et VSR ne proposent un upscaling que dans les jeux. La fonctionnalité est identique en apparence, mais pas dans le fonctionnel. Dans un cas on a accès à des définitions supérieures dans les jeux, dans l’autre directement dans Windows.


J’ai une RX 470 depuis sa sortie, et je peux te garantir que j’ai la même chose dans mon choix de résolutions dans Windows.



Pour le DSR, j’ai pas de carte Nvidia pour tester, mais dans les tutoriels que j’ai vu ça semble similaire (en notant qu’en plus le DSR semble avoir plus d’option pour ajuster la qualité du downscaling).



Et c’est normal, car pour que les jeux pensent qu’il peuvent s’afficher en résolution supérieure, il faut bien que Windows leur dise que les résolutions sont disponibles, et Windows tient cette information du GPU. Et si Windows pense que les résolutions sont disponibles, il les affichera aussi dans le menu du choix de résolution.




David_L a dit:


Quand je parle du rendu d’une scène, je parle de son calcul sur le CPU/GPU pour obtenir l’image/la vidéo finale. La définition de ton rendu final ne dépend pas de la définition de ton écran.


Du coup, c’est sur ce point que je bloque un peu.
Si la résolution de l’image finale est indépendante de la définition de l’écran, et que ça s’affiche mieux avec IB/VSR, ça veut juste dire que l’algo de mise à l’échelle de l’image dans le logiciel est pourri ? Parce que IB/VSR fait juste une mise à l’échelle avec un algorithme quelconque, du coup le logiciel pourrait faire au moins aussi bien par lui même.




David_L a dit:


Par contre lorsque tu travailles sur la scène (ce qui se fait le plus souvent sans rendu complet, voir le cas de Renderman) la définition a peu d’impact sur la performance.


Je connais pas Renderman, mais sur les trucs 3D comme Blender, Unity, Unreal Engine, ça doit quand même impacter les performances, même si l’aperçu est plus léger (et donc doit avoir plus de marge de puissance) que le résultat final ?

Le 08/03/2019 à 21h 01


jb18v a dit:


Et le système tolère bien le truc ? Puisque c’est un peu de la bidouille non ? :D Intéressant en tout cas :yes:que pour les “pro” ?


Comme indiqué dans l’article, c’est déjà dispo depuis plusieurs années pour le grand public : DSR chez Nvidia, et VSR chez AMD.



Je sais pas pourquoi AMD a donné un nom différent pour la version Pro, parce que ça s’utilise exactement de la même façon (le bouton est au même endroit dans le driver), et le résultat est exactement le même.




Surtout, cela n’a pas d’impact sur les performances. (…) Et effectuer le calcul d’une scène nécessitera toujours le même temps.


Je comprends pas trop cette partie. J’ai jamais fait de rendu d’images, mais il me semble tout de même que le temps de calcul est très lié à la résolution du rendu non ?



Ou alors c’est avec la même résolution cible ? Mais dans ce cas, d’où vient l’amélioration de qualité visuelle ?

Le 07/03/2019 à 10h 05

Les Oculus Rift/HTC Vive ont quasiment 3X plus de pixels, et pourtant je trouve que mon Rift manque sérieusement de résolution, donc je pense que ça va être sacrément pixelisé avec l’écran de la Switch.

Le 05/03/2019 à 21h 57







Stel a écrit :



[si] un format n’est pas compatible avec TOUT les navigateurs, ils meurt tout simplement



Les navigateurs c’est bien, mais ça suffit pas.



Il faut aussi que tous les logiciels qui gèrent des images soient compatibles aussi. Autant les visionneuses que les outils de création.



Et après, il faut éduquer les gens pour leur expliquer qu’il faut utiliser le nouveau format XXX plutôt que le vieux JPEG (ça inclus aussi les développeurs web).



C’est un gros gros boulot, et vu que ça révolutionne pas les usages, les gens vont rester sur leurs anciennes habitudes, en dehors de cas particuliers, genre moi qui a 30 minutes à perdre pour envoyer plus de photos (ou en meilleure qualité) en PJ dans un mail, alors qu’en envoyant plusieurs mails c’était tellement plus rapide même sur une connexion pourrie.


Le 03/03/2019 à 18h 26







Nozalys a écrit :



J’ai bien compris, il s’agit d’un standard pour des images (fixes) ? Quelle comparaisons on peut en faire avec le jpeg ?





Le JPEG est méga vieux (environ 1992 en survolant la page wikipedia), de nombreux autres formats ont déjà essayé d’être le “jpeg-killer”, mais ça n’a jamais vraiment pris au niveau du grand public.



C’est plus dur à imposer que les changements de format de vidéos, parce qu’il y a moins d’intérêts : une image plus grosse, ça prends plus de temps à s’afficher, mais vu que c’est statique, ça change pas grand chose à l’utilisation, ça fait juste économiser quelques secondes, alors que pour les vidéos ça change vraiment l’usage en permettant au streaming d’afficher une meilleure qualité sur une même connexion.







127.0.0.1 a écrit :



La comparison HEIF/h265 vs JPEG est déjà flagrante:

HEIF Comparison with other formats



Après faut voir le gain HEIF/AV1 vs HEIF/h265, mais je ne suis pas trop inquiet: ca battra largement JPEG.

AV1 Still Image Comparison







Sur le premier lien, ok c’est pas mal par rapport au JPEG de même taille, mais ça montre pas par rapport à tous les autres formats qui ont essayé de remplacer le JPEG ces 20 dernières années.



Sur le deuxième lien, je trouve ça pas terrible, ça fait du flou partout et j’ai l’impression que le JPEG, même s’il est moche avec ses artefacts partout permet de garder plus de détails sur certains endroit (mais pas partout). Je trouve que c’est le x265 qui s’en sort le mieux.

Et comme pour le premier lien, j’aimerais pouvoir comparer avec JPEG2000/JPEGXR/WebP/BPG/et plus si affinité.


Le 27/02/2019 à 13h 51

“sur 8chan, la poubelle d’internet”



-&gt; Ah ouais quand même, ils y vont fort sur NXi, c’est pas le genre de la maison pourtant…



“Un doux euphémisme pour parler de ce que l’on peut retrouver sur ce site regroupant des utilisateurs ayant quitté 4chan en raison de son niveau de censure jugé trop élevé”



-&gt; Ah ouais quand même… bon bah du coup, “la poubelle d’internet” c’est bien choisi.

Le 25/02/2019 à 17h 14


Liam a dit:


Sauf erreur de ma part, navi est toujours basé sur GCN non ? Du coup il y a peu de chances que le rapport perfs/prix/watts soit révolutionnaire.


J’ai l’impression que pour Polaris et Vega, AMD a trop poussé les fréquences (au détriment du rapport perf/watt) pour essayer de combler son retard sur Nvidia.



Dans les premières annonces de Polaris, c’était censé consommer 2x moins qu’une GTX 950 à performance égale sur SW:Battlefront. Dans la pratique c’était pas trop ça, et je me souviens avoir lu qu’en faisant un peu de downclock il y a avait beaucoup à gagner en perf/watt.



Pour les Vega 5664, j’ai vu de nombreux messages sur des forums de gens qui disaient qu’en faisant undervolt+léger overclock, ils arrivaient à des rapports perf/watt très intéressant.



Du coup, même avec GCN, en ayant le 7nm et mettant les bonnes fréquences/voltages, ils ont surement moyen de faire des puces très intéressantes en perf/watt (après le prix du 7nm, je sais pas…) s’ils obstinent pas à se caler sur les performances de Nvidia.