votre avatar

kikoo26

est avec nous depuis le 1 septembre 2014 ❤️

684 commentaires

Le 19/05/2021 à 18h 25

Non

Cool, c’est où qu’on envoie les CV/lettre de motivation ?

Le 07/05/2021 à 14h 30

A la maison on avait un forfait Red à 5€ et un B&You à 5€, qui ont tous les deux finis par monter en prix sans alternative.



Du coup c’est le moment d’inverser les deux opérateurs pour retourner à 5€/mois.



Vu l’expérience passée, ce sera clairement pas une baisse de prix “à vie”, mais ça reste mieux que rien.

Le 06/05/2021 à 20h 15


tazvld a dit:


Tu peux par exemple trouvé des des tests de solution de cloud, la conclusion reste que la latence ajoute facilement 80ms (40ms en général dans le meilleurs des cas avec un top à 24ms dans ce test).


Super un test de latence de cloud gaming où la journaliste ne pense pas à mentionner son ping auprès des 2 services…



Bon après, comme tu le dis, il y a des résultats à 24ms de latence en 60 FPS.



Si tu augmentes la vitesse de rafraichissement comme je le fais sur Shadow, ça fait mécaniquement baisser la latence. En calculant avec 144FPS au lieu de 60FPS, on retombe à peu près sur le 15ms que j’avais donné plus haut.

Le 06/05/2021 à 14h 15


tazvld a dit:



La presse et les testeurs de tout bord l’ont démonté car le service au début (quand tout le monde l’a tester donc) n’était pas terrible non plus, beaucoup de latence, une latence inconsistante… la qualité n’était vraiment pas là.



Stadia, je ne sais pas ce qu’il en ait du point technique (a priori, aujourd’hui, ça semble être utilisable)


J’ai testé Stadia très tôt et j’ai pas vu d’amélioration sur la latence, pour moi ça marchait bien dès le début, et le problème venait plutôt de l’installation des journalistes qui ont testé.




Personnellement, le cloud gaming a de quoi attirer pas mal de joueur “casual” (la latence ne permet pas de passer le stade du hardcore sur certain type de jeu),


Ça dépends de l’installation aussi.



Avec une bonne fibre et en étant à environ 300km du datacenter, j’ai 6ms de ping sur Shadow et 7ms sur Stadia.
Le ping étant généralement mesuré en durée aller-retour, c’est très faible comme ajout de latence.



Sur Shadow, en jouant en 144 FPS, sur un écran 144Hz, avec souris/clavier réglés à 1000Hz, avec mon ping très bas, je dois avoir un input-lag complet qui n’a rien a envier à beaucoup de gens qui jouent en 60 FPS/Hz, VSync activé, souris/clavier à 125 Hz, connexion ADSL avec un ping à 30-40ms etc.



Face à d’autres personnes qui auront un matériel équivalent, il y a certes un désavantage, mais bon, je pense pas être à 15ms près (en rajoutant un peu de temps pour l’encodage vidéo).

Le 04/05/2021 à 06h 10

Tout ça va se faire dans le cadre de la procédure de reprise et sur plusieurs mois. Mais oui l’idée depuis le départ c’est que Blade garde ce qui a en bonne partie été payé (Boost) et que 2CRSi reprenne ce qui ne l’a pas été (Ultra Infinite), les clients actuels devant sans doute passer d’Ultra/Infinite à Boost le temps de la transition (et l’annonce d’une nouvelle offre).

En lisant leur offre j’avais compris que le pallier Ultra allait dégager, mais je pensais que Infinite devait rester.



J’avais souvenir notamment d’une phrase qui disait que les clients Ultra allaient devoir se reporter vers Boost ou Infinite.



La déclaration de 2CRSi donne l’impression qu’ils récupèrent la totalité des machines Ultra et Infinite et que les 2 offres disparaissent.



A moins qu’ils gardent juste le nom “Infinite” mais qu’ils l’associent à de nouvelles machines ?

Le 03/05/2021 à 22h 08

https://investors.2crsi.com/wp-content/uploads/2021/05/Update-on-Blades-situation.pdf



Du coup 2CRSi récupère une grosse partie des serveurs Ultra et Infinite, dont ceux qui sont chez les Américains, alors que leur procédure de reprise est pas encore bouclée.

Le 01/05/2021 à 12h 04

C’est possible.

:mike:
Je signe D-I-R-E-C-T !



Bon après je dis ça mais tu as peut-être d’autres projets en vu qui n’ont rien à voir.



En tout cas bon courage pour la suite, et merci d’avoir essayé de redresser la barre de Shadow :iloveyou:

Le 30/04/2021 à 15h 24

Parce que franchement, ton offre de reprise était tellement meilleure que celle de hubiC, c’est dommage que ce beau projet parte aux oubliettes.

Le 30/04/2021 à 15h 16

Question bête : est-ce que tu as la possibilité de rejoindre quand même Scaleway pour lancer un concurrent basé sur l’offre de reprise ?



A défaut de récupérer le super client Shadow tel quel, il doit bien y avoir moyen de commencer rapidement en prenant une licence chez Parsec ou Rainway.

Le 30/04/2021 à 13h 33

Tu as du rater le seconde étape avec les offres “améliorées”.



Scaleway s’était rapproché de l’offre de JBK, et leur dossier me semblait bien meilleur pour le futur de Shadow en tant que cloud gaming que l’offre de hubiC.

Le 30/04/2021 à 13h 31

RIP Shadow, vive le futur concurrent de G-Suite/Office365.

Le 26/04/2021 à 12h 11


(reply:1869805:kikoo26)


Ok sur tout les point.
Mon message était plutôt une pique a la communication de Google qui se compare a un CPU. Mais qui encode encore sur CPU ?



Ce serait comme comparer le temps de trajet en train par rapport au même temps a pieds ou a vélo … tout en oubliant l’avion.

Les gens qui veulent un encodage de qualité, cf mon dernier paragraphe où je te disais de faire l’expérience pour comparer, en utilisant le même bitrate, la qualité que tu obtiens avec un encodage fait par ton GPU et par YouTube (ou avec ton CPU en gonflant tous les paramètres de qualité à fond pour que ça prenne bien 3 plombes à encoder).



C’est un peu la différence entre prendre une photo d’une page A4 en une demi-seconde avec ton téléphone, ou prendre le temps de la mettre dans un scanner et faire un scan propre.
Dans les 2 cas tu as un résultat lisible, le téléphone sera nettement plus rapide, mais le scanner fournira une image de bien meilleure qualité.

Le 26/04/2021 à 09h 39

L’accélération d’encodage sur GPU repose sur le même type de circuits dédiés, donc le gain doit être minime.



Par contre, avec leur puce dédiée à ça, il y a 2 gros avantages :




  1. Sur un GPU ils utiliseraient qu’une infime partie de la puce : les 200~500 mm² de silicium dédiés au graphismes 3D/calcul hautement parallèle, ça leur sert à rien, les multiples gigaoctets de RAM très rapide idem, tout la partie qui gère l’affichage sur un port HDMI/DP, etc.
    Du coup ça doit leur faire une sacré économie sur le prix de la puce, et vu la quantité de vidéos qu’ils ont a traiter, ça doit amortir les coûts R&D.

  2. Avec leur puce dédiée ils peuvent contrôler au mieux les codecs utilisés (peu de GPU font encodage VP9), et le rapport qualité/poids du fichier/temps passé sur l’encodage. La plupart des circuits d’accélération d’encodage ciblent le temps réel pour le streaming et l’enregistrement en direct, alors que YouTube peut se permettre de passer plus de temps sur l’encodage pour garantir une meilleure qualité d’image.



En exemple tu peux comparer la qualité d’une vidéo enregistrée à 150 Mbit/s sur GPU puis mise en ligne sur YouTube, et regarder quel bitrate ils ont au final.
Essaye ensuite de refaire un enregistrement en utilisant le même bitrate, et tu verras que tu as pas du tout la même qualité d’image.

Le 11/04/2021 à 10h 35


janvi a dit:



Bref quel déception…. Surtout que j’ai l’impression que les choix stratégique de l’entreprise se porte plus sur les mobile (android & co) que sur les linux (dernière newsletter, ils annonce que le micro est pris en charge sur android). Je ne comprend pas trop l’intérêt, mise à part coup de com.


L’intérêt est assez simple : si ils ont 10 clients sur Linux et 1000 sur Android, le choix est vite fait pour la priorité du support.



Plutôt que de passer sur Windows, tu as essayé avec une distrib Android-x86 ? Sur un malentendu ça peut mieux marcher :D



Après tu critiques le mobile, mais ça te permettrait d’aller encore plus loin dans la démarche que tu as commencé.



Tu prends un téléphone avec sortie d’écran (genre les Samsung avec le mode “DEX”), tu prends un bon dock USB-C sur lequel tu branches : clavier, souris, manette, casque, écran, RJ45, alim, et roule ma poule tu as plus du tout besoin de PC.



Et si tu as l’occasion de changer d’écran PC, il y en a maintenant qui ont le dock intégré, donc c’est encore plus magique parce que tu peux virer le dock tout moche et le chargeur USB qui alimente le dock.



Si on faisait tous ça, ça ferait une sacré réduction de nos déchets électroniques.

Le 10/04/2021 à 19h 45


RedWave a dit:


A priori, la technologie Shadow est très très proche de celle de “Parsec”, avec de nombreuses améliorations certes…


Le fonctionnement de base c’est le même, la capture de l’écran et l’encodage vidéo est fait directement par la carte graphique donc l’image doit être identique entre les 2.



Le protocole réseau est différent (chacun fait sa tambouille), mais à mon niveau j’ai pas vu de différence.



Par contre l’interface du client Shadow est nettement meilleure que l’interface du client Parsec, et ça me rends triste à chaque fois que je dois retoucher à Parsec.

Le 10/04/2021 à 10h 15

J’ai pas le code sous les yeux (ni les compétences d’ailleurs) pour vérifier comment ça fonctionne exactement, mais quand j’avais regardé une fois avec le gestionnaire de tâches de ma machine Shadow j’avais vu :




  • un bon paquet de processus “Shadow” (de mémoire je dirais 15-20)

  • dans l’onglet des performances, sur la carte graphique il y a l’encodeur vidéo qui est plus ou moins sollicité en fonction de la résolution (par exemple ça monte à environ 30% en 4K 120 FPS sur la machine la moins chère, donc il y a de la marge pour aller bien au delà du 4K 60 FPS / 1440p 144 FPS qui sont officiellement supportés)



Pour moi ça indique que le streaming est géré à l’intérieur de la VM et que ça doit pouvoir tourner sur d’autres machines sans avoir besoin d’adaptation très lourdes (sur les cartes Nvidia en tout cas).



Par contre c’est très probablement mélangé avec une bonne dose de code (aussi bien côté client que côté serveur) qui doit effectivement être dédié au contrôle de la VM, donc l’externalisation se ferait pas en un claquement de doigt, mais je pense (naïvement peut-être, j’ai que ma vision de consommateur) que ça pourrait valoir l’investissement.

Le 09/04/2021 à 20h 41

Les commentaires, je les fait sur NextInpact, tu sais? :D

Tiens vu que tu commentes ici, j’ai une question / suggestion de nouvelle source de revenus pour Shadow.



Est-ce qu’il a déjà été envisagé de séparer le logiciel de streaming du reste de Shadow et de vendre des licences pour son utilisation ?



J’ai testé plusieurs logiciels de streaming au fil des années, et Shadow me semble de loin être le meilleur en termes d’interface, de fonctionnalités et de performance.
Mais comme il est limité aux serveurs Shadow, je suis obligé de garder un logiciel moins bon pour faire du contrôle à distance entre mes propres machines alors que je rêverais de pouvoir utiliser le stream de Shadow entre mes machines.



Avec une offre freemium en réservant certaines fonctionnalités aux clients payants, ça pourrait être l’occasion de toucher un autre public en piquant des PdM à Parsec, Rainway, Moonlight, etc.



Et ce nouveau public pourrait ensuite faire une transition tout en douceur vers le cloud gaming quand il est temps de changer de machine et qu’ils comparent l’achat comptant d’un nouveau PC ou de nouveau composants et le prix mensuel de la location d’une machine Shadow.



Du côté des entreprises, je suppose que ça peut aussi en intéresser quelques unes d’avoir une solution performante de prise de contrôle à distance avec leurs propres machines, ou pour d’autres d’avoir un logiciel en marque blanche qu’elle peuvent utiliser pour leurs propres services (j’ai vu plusieurs services qui se basent sur Parsec par exemple).



Et sinon pour l’actu du moment, bon courage, j’espère que c’est ton offre qui l’emportera !

Le 04/03/2021 à 12h 14


cdcf507cc735e74350d082619 a dit:


modèle économique et me demander 30€/m pour 2h de connexion journalière.


Donc quelqu’un qui vas jouer 2h/jour pendant juste 1 mois puis laisser le PC de côté pour passer à autre chose, il vaut mieux ?




  • payer 30€ pendant 1 mois et s’arrêter là

  • payer 800~1500€ pour s’acheter un PC et le laisser prendre la poussière après



Sur le long terme, le location finit toujours par coûter plus cher, mais pour des besoins ponctuels c’est un bon modèle.

Le 03/03/2021 à 08h 24


barlav a dit:


Egoïste! (oui, ils peuvent tous creuver, si j’ai ma carte graph’ livrée à temps) :roll:


:keskidit:



Je ne suis qu’un simple client du service, c’est quoi mes leviers d’action face au problème qui s’annonce ?




  1. J’attends que Shadow ouvre une cagnotte litchi pour payer ses dettes et je balance l’équivalent d’un nouveau PC complet dedans pour les aider à survivre ? Est-ce que ça va vraiment les aider à surmonter leurs problèmes actuels, ou est-ce que ça va juste être xxxx€ balancé par la fenêtre ?



  2. Je garde mon abonnement actuel Boost à 15€/mois (je suis sympa, je suis sur la version mensuelle plus chère que la version annuelle), et je me connecte le moins possible pour essayer de leur faire économiser un maximum sur la facture d’électricité du datacentre ?



  3. J’ouvre pleins de faux comptes pour donner de l’argent à Blade ? Ah ben non, je peux pas, ils sont pas en mesure de prendre l’argent des nouveaux clients avant 2022 (j’arrondis le 3012 de 2 jours pour montrer à quel point c’est ridiculement loin).



  4. Je me connecte 247 sur mon compte et je fais tourner le PC à fond pour bouffer un max d’électricité et aider la boite à couler plus vite ? C’est con à dire, parce que ça fait l’inverse de ce que je veux, mais c’est le seul vrai levier d’action que je vois sur la crise.




Donc voila, je peux RIEN faire pour aider le service à se maintenir en vie, donc il faut bien être réaliste et regarder quelles sont mes options pour la suite pour pas me retrouver au pied du mur le jour où le couperet vas tomber.



Pour info, j’avais commandé Boost par curiosité suite à l’annonce de la baisse de prix. Livré en Février, j’ai testé, c’est cool, ça marche bien (en dehors du CPU anémique), et juste avant que je ferme l’abonnement parce que j’en avais pas vraiment besoin, ma carte graphique me lâche.



Je regarde le rapport perf/prix prix des RTX 20xx à l’époque, je regarde mon Intel HD Graphics, je regarde les rumeurs qui parlent de Ampere/RDNA2 pour 6 mois plus tard…
J’en arrive à la conclusion que ça vaut le coup de garder le service pour 6 mois en attendant la sortie des nouvelles cartes… mais comme les nouvelles cartes sont pas dispo, ben j’ai continué à utiliser le service.



Et pour finir, j’ai un emploi du temps de jeu super chaotique, donc en fait le point 2) je l’applique déjà involontairement et assez généreusement. Ça doit représenter au moins 13 de mon temps d’abonnement chez Shadow.
Si l’abonnement était réellement mensuel et sans engagement, j’aurai pu sans problème arrêter de payer pour 1-2 mois quand j’en ai besoin, mais comme la réalité des choses c’est une liste d’attente de 10 mois pour les nouveaux clients, mon abonnement est tenu en otage par cette contrainte.



Et chez la concurrence que je connais (Paperspace, AWS, Azure, GCP), c’est une facturation horaire avec des prix qui peuvent devenir complétement délirants pour les moments où j’ai le temps de jouer tranquillement.

Le 02/03/2021 à 23h 47

Si quelqu’un connait des alternatives viables, je suis preneur !
J’avais entendu parler de Paperspace, c’est une facturation à l’heure, donc la facture mensuelle peut facilement piquer, mais ça reste mieux que rien pour les jeux pas dispo sur GFN.

Le 02/03/2021 à 23h 40

Aïe, ça fait chier d’apprendre ça.



J’espère que le service restera utilisable au moins jusqu’au moment où j’arriverai à chopper une carte graphique :(

Le 04/03/2021 à 09h 49

Hum, ça sent vraiment le sapin pour Shadow si 2CRSi récupère le matériel.



Il serait temps que je commence à faire un backup de mes données sur la VM Shadow.

Le 03/03/2021 à 21h 13

Suffit d’aller au Texas :D

Je sais pas si vous avez vu l’info, il y a un live Twitch annoncé pour demain soir : https://www.reddit.com/r/ShadowPC/comments/lx0cnt/shadow_news_special_a_look_ahead_with_our/

Le 18/06/2020 à 21h 06

T’es vraiment entrain de dire que le 720p 30fps de xCloud ou PS Now procure une meilleure qualité d’image que le flux 4K 60fps de Stadia ?



Des commentaires négatifs sur xCloud/PS Now/GeForce Now, il y en a aussi à la pelle sur internet, Stadia a absolument pas l’exclusivité.

Le 18/04/2020 à 19h 21

C’est rentable à partir de 3 personnes.



Ça laisse des possibilitées entre :







  • 2 parents + 1 (ou plus) enfant

  • 1 parent + 2~X enfants

  • groupe d’amis de plus de 3 personnes

  • etc.







    Le problème c’est que pour le visionnage à la maison ils ne peuvent pas compter le nombre de spectateurs qui regardent, donc forcément il faut faire un compromis entre les spectateurs seuls, et les gens qui vont se faire une soirée cinéma à 10.

Le 20/03/2020 à 15h 31

Ton problème visiblement c’est pas la bande passante pour travailler, mais plutôt le manque d’écran adapté pour travailler confortablement.



Si j’avais du faire du contrôle à distance, j’aurai effectivement exigé de pouvoir prendre mes écrans du boulot pour pouvoir au moins conserver mes habitudes de travail.



Sinon j’ai pas la place pour héberger 1249 télétravailleurs (ou les gens qui veulent regarder Netflix/YouTube) et ça me parait pas être une bonne idée par les temps qui court, mais si chacun ramène son switch et son RJ45, il doit bien y avoir moyen de bricoler un LAN en extérieur digne d’un record du monde pour respecter les distances de sécurité.



Et pour ceux qui peuvent pas télétravailler et qui font de la vidéo toute la journée pour s’occuper, si les réseaux arrivent à tenir le coup tous les soirs habituellement, je vois pas pourquoi ils tiendraient pas le coup en journée aujourd’hui avec au final le même nombre d’utilisateurs.

Le 20/03/2020 à 10h 13







Burn2 a écrit :



En fibre je ne pense pas qu’on sature des liens, ou ça ne doit pas poser de problème si ça arrive (chacun a un peu moins et “voilà”).

Mais en adsl clairement pour moi la donne doit en être autrement (…)

Après comme dit, le soucis peut aussi provenir d’interconnexions (peering). Le lien vers les USAS etc n’est pas infini





D’accord, du coup c’est visiblement bien un problème pour les connexions ADSL/4G et a priori qui touche pas la fibre.

Donc la solution mise en place de brider le débit côté services pour tout le monde sans distinction, c’est une mauvaise solution. C’est les FAI qui devraient agir à la place : mettre de la QoS au niveau des box pour les gens qui sont plusieurs à tirer sur la ligne au sein d’une maison, et faire un truc similaire au niveau des DSLAM/antennes 4G engorgés pour dé-prioriser les services de loisirs gourmands en bande passante pendant les horaires de bureaux.


Le 20/03/2020 à 09h 59







Arkeen a écrit :



Ce n’est pas le télétravail le problème, c’est la VOD. Les gens cloitrés chez eux utilisent bien + ces services qu’en temps normal, et c’est ça qui sature les réseaux (ça et les MAJs de Fornite).

Exemple très concret : je suis en télétravail, et je ne peux pas faire de visio-conférence potable avec mes collègue si ma coloc (au chômage technique) utilise Netflix en même temps.





Mais du coup c’est un problème de saturation de ta connexion non-fibré et/ou de ton réseau local, pas un problème de saturation du réseau national.



Ça devrait se régler par une màj des box FAI pour ajouter de la QoS qui dé-priorise les URL Netflix/Xbox/Playstation/Steam/etc, plutôt que par un bridage au niveau (inter)national.



Je veux bien qu’on massacre les débits (allons-y franchement, un -75% sur les débits Netflix/YouTube) si c’est utile, mais pour l’instant j’ai surtout que soit je comprends pas le problème, soit c’est super mal mis en place et je me me fais pénaliser pour rien quand je vais regarder une série sur Netflix le soir après ma journée de télétravail.


Le 20/03/2020 à 09h 23







Burn2 a écrit :



Ça doit dépendre des régions, des oppérateurs, des services mais tout n’est pas dimensionné pour que 100% des utilisateurs utilisent en même temps tout leur débit.

(…)

Le problème doit plus être côté 4g sur certaines antennes.







Oui, mais même si l’infra est pas capable de gérer tous les utilisateurs à fond en même temps, elle peut au minimum gérer 1 utilisateur à fond + une certaine marge pur gérer la conso moyenne des autres.

Parce que sinon à titre individuel on aurait jamais des speedtest/téléchargements qui atteignent les débits promis par le contrat.



Et quand je vois le décalage entre la capacité d’une fibre optique individuelle (Free vends du 10 Gbit/s), et ce que peut consommer le télétravail dans le pire des cas, j’ai du mal à voir où ça pourrait coincer.



Sur la 4G par contre, oui les antennes doivent être vites saturées, vu que ça arrive déjà en temps normal.



Peut-être qu’en ADSL ça peut aussi saturer… mais vu que les débits ADSL sont assez faibles, j’ai plus tendance à imaginer (je me trompe surement) que les infras sont dimensionnés plus large par rapport à la fibre (genre en fibre, le truc local peut encaisser 2% des utilisateurs à fond parce que ça suffit en temps normal, mais en ADSL ça peut encaisser 75% des utilisateurs à fond vu qu’ils doivent être plus souvent à fond… et puis qu’au final ça fait quand même moins de débit que la fibre).


Le 20/03/2020 à 09h 01







coco74 a écrit :



Free est très critiqué pour la qualité de son réseau





Les gens qui critiquent Free sur la qualité de son réseau font un gros raccourci.



Le problème c’est les antennes d’Orange qui ont un débit bridé, pas celles de Free, et les utilisateurs ne voient pas forcément sur quelle antennes ils sont connectés.



L’autre problème, c’est que certains téléphones sont débiles et privilégient les antennes d’Orange plutôt que celles de Free.

C’est assez pénible de devoir garder à portée de main le menu de choix manuel de l’antenne pour rebasculer sur celle de Free. Je devais le faire à chaque fois que je bougeais de 5 mètres.


Le 20/03/2020 à 08h 48

Je comprends pas le problème de saturation du réseau avec simplement du télétravail en plus.



On nous vends de la fibre optique à 1Gbit/s voir même 10 Gbit/s, et c’est des chiffres qui peuvent se vérifier facilement avec les tests de débits.



A côté de ça, le télétravail ça représente quoi au juste ?



Dans le meilleur des cas, en ayant la matériel sous la main et un VPN pour accéder aux serveurs internes, c’est que dalle : mon VPN m’indique 250 Mo à la fin de la journée, en ayant fait des appels audio et récupéré un petit paquet de fichiers de logs qui pèsent quelques Mo.

La qualité de l’audio dans Skype est pourrie, mais je pense que c’est les serveurs de Skype qui saturent plus que la bande passante disponible (950 Mbit/s en fibre, bridé à 20 Mbit/s sur le VPN).



Dans le pire des cas, on fait de la prise de contrôle à distance du PC. J’ai jamais regardé en détail la consommation réseau du RDP de Microsoft, mais de mémoire c’est plutôt léger comme trafic. A côté de ça, avec les logiciels plutôt dédiés cloud gaming (Parsec, Shadow, feu LiquidSky), on a un truc tout à fait utilisable en 1080p60 pour 8 Mbit/s en H264.



Du coup, 8 Mbit/s, sur ma connexion personnelle on peut mettre 125 utilisateurs, et si je prenais la box plus chère de Free, on pourrait aller jusqu’à 1250 utilisateurs.

Et ça c’est juste ma connexion à moi, je suppose que les boitiers du quartier doit pouvoir supporter au grand minimum 2 utilisateurs à fond du débit sinon on râlerait souvent sur le débit.





Bon après, pour ceux qui sont en 3G/4G, je peux tout à fait imagine qu’il y ait un vrai problème, vu comment les débits sont déjà très aléatoires en temps normal.

Le 28/02/2020 à 22h 34

Merci ! ça me ferait plaisir de pouvoir réutiliser cette fonctionnalité !



Par habitude j’ai regardé les mauvaises notes, et je vois que certains utilisateurs se plaignent d’avoir perdus tous leurs onglets suite à l’installation.



Du coup je vais faire des backup de mon session store avant de tester.

Le 26/02/2020 à 21h 40

Ça existe encore ?????



Je voudrais bien avoir le lien !

Le 28/02/2020 à 22h 34

J’ai regardé les 2 films (3 en fait, j’ai aussi vu le film avec Scarlett Johansson) et les 2 saisons de la série Stand Alone Complex.

Autant les 2 films sont sombres, autant la série l’est beaucoup moins.



Pour le trailer de Netflix, si on oublie la musique J-POP au milieu qui fait tâche par rapport à l’ambiance sonore habituelle, ça me semble être plus sombre que la série SAC.



La 3D un peu simpliste manque un peu de détail sur les décors (surtout le désert qu’on voyait bien dans une autre vidéo), mais ça m’a l’air regardable quand même. A voir ce que ça vaut en pratique, mais je part pas avec un a priori négatif.


Le 25/02/2020 à 21h 46







UtopY-Xte a écrit :



Il ne vivent pas en espagne, ni aux usa, le siege de la gsma est Zurich ou Londres (selon les wikipedia) et a l’origine c’est européen, mais aujourd’hui c’est mondial









yannick2k a écrit :



comme répondu à redmat, la GSMA est anglaise, et non américaine ou espagnole…





Mais vous me pourrissez ma blague des hispano-américains avec vos faits trop précis !


Le 24/02/2020 à 15h 04







rebmat a écrit :



<img data-src=" /> Ils sont fous ces ricains <img data-src=" />





Ah oui, les fameux américains qui vivent en Espagne… c’est pour ça qu’on les appelle “hispano-américains” d’ailleurs.



Après, si tu es pas un athéiste convaincu (la foi sans preuve de l’absence d’une quelconque force divine, c’est pas mieux que la foi sans preuve d’une telle présence), c’est pas si idiot que ça comme clause.



Vu l’impact financier potentiel (Poséidon qui lance un tsunami sur une région pas du tout préparée par exemple), à défaut d’avoir des preuves solides d’absence d’être divin, ça mérite d’être pris en compte dans les analyses de risque.



Si jamais ça arrive un jour, certaines assurances vont bien se marrer au dépens de leur concurrents qui ont pas prévu cette clause.


Le 05/02/2020 à 20h 30


Meptalon a dit:


MAIS… c’est exactement ce que je cherchais. Je voulais tester et voir si je machetais un portable avec une autonomie correcte (…)



eglyn a dit:


Oui, j’ai pensé aussi la même chose en prenant un NUC Intel, mais j’hésite :)


Si vous gardez l’ancien PC fixe, vous pouvez faire l’équivalent de Shadow en utilisant d’autres logiciels : Parsec, Moonlight, Rainway, …



La seule limite potentielle c’est le débit en upload pour utiliser le PC à l’extérieur de la maison.

Le 25/01/2020 à 12h 20


locheloche a dit:


Si c’est pour utiliser l’alt mode avec un casque vr je comprends bien mais sinon je trouve que c’est comme en façade sur un boîtier PC, trop petit et fragile. Un connecteur réversible de la taille d’un type-a est probablement plus adapté pour l’utilisation par des gros bourrins d’utilisateurs lambda.


Ils ont dit qu’ils avaient rien de prévu pour la VR pour l’instant, parce que selon eux l’intérêt des joueurs est pas suffisant.



L’USB-A en façade me semble effectivement plus robuste, et il n’y a pas vraiment de problème de taille sur une façade aussi imposante.



Ce que j’espère par contre, c’est un port USB-C sur les manettes, parce que le micro-USB actuel est vraiment chiant à brancher.



Et un 2ème port en façade, ça aurait pu être sympa.

Le 25/01/2020 à 12h 03

Mais c’est toi qui est fatigant a refuser de réfléchir.



J’ai jamais dit que l’écran affichera plus vite, je dis que l’écran pourra afficher des images moins vieilles, ce qui réduit le fameux “input lag”.



C’est pourtant pas sorcier.



En supposant que le point de départ est synchronisé entre le jeu et l’écran.

Écran à 60Hz + jeu à 60ips :





  • T=0 : début du calcul de l’image

  • T=16.67ms : fin du calcul de l’image, elle peut être envoyé à l’écran

  • Résultat : l’écran affiche une image vieille de 16.67ms







    Écran à 60Hz + jeu à 120ips :



  • T=0 : début du calcul de la 1ère image

  • T=8.33ms : fin du calcul de la 1ère image, l’écran n’est pas prêt, donc elle sert à rien

  • T=8.33ms : début du calcul de la 2ème image

  • T=16.67ms : fin du calcul de 2ème l’image, elle peut être envoyé à l’écran

  • Résultat : l’écran affiche une image vieille de 8.33ms







    Et si l’écran et le jeu ne sont pas synchronisés et qu’il y a du tearing, en calculant pour avoir un beau tearing pile au milieu de l’écran pour avoir le pire cas possible :



    Écran à 60Hz + jeu à 60ips :



  • T=0 : l’écran se rafraîchit

  • T=8.33ms : le jeu finit de calculer l’image précédente et attaque la suivante

  • T=16.67ms : l’écran se rafraîchit, il affiche une moitié d’image vieille de 8.33ms, et l’autre moitié vieille de 25ms







    Écran à 60Hz + jeu à 120ips :



  • T=0 : l’écran se rafraîchit

  • T=4.17ms : le jeu finit de calculer l’image précédente et attaque la suivante

  • T=12.5ms : le jeu finit de calculer l’image précédente et attaque la suivante

  • T=16.67ms : l’écran se rafraîchit, il affiche une moitié d’image vieille de 4.17ms, et l’autre moitié vieille de 12.5ms



Le 24/01/2020 à 18h 00







Hugues1337 a écrit :



Je vais me répêter : tu es limité par l’écran et par le netcode. Ton PC

recalcule toutes les 8.33 mais affiche une image toutes les 16.66ms.

Cela sert donc à rien.





Le netcode limite probablement en effet.



Mais pour l’affichage, tu n’as pas l’air de comprendre qu’avoir une image plus récente à un intérêt.

Du coup je te recommandes de prendre un TV LCD d’il y a quelques années et d’activer tous les traitements d’images bien lourds.

Tu aura toujours les 60Hz, mais tu vas prendre un retard d’affichage de 300ms. Tu verras si ça change rien “parce qu’il affiche une image toutes les 16.66ms”.


Le 23/01/2020 à 22h 23







Hugues1337 a écrit :



J’ai l’impression que tu mélanges les ips et les Hz. 120ips sur un écran de 60Hz, bah l’info’ se renouvelle toute les 16.66ms, et non 8.33ms.  Alors potentiellement le PC prendra en compte plus vite ton input mais tu seras de toute façon limiter par ce que tu vois, aka du 60Hz.





Oui le 60Hz limite la fluidité du mouvement par rapport à ce qu’un écran 120Hz, donc c’est nettement inférieur par rapport à 120ips sur 120Hz.



Mais si le jeu tourne à 120ips, peu importe l’écran, il recalcule des images toutes les 8.33ms au lieu de 16.66ms.

Ça permet de prendre en compte plus rapidement les actions.

Et ça permet aussi d’avoir des images affichées qui sont moins vieilles, et donc moins décalées par rapport à l’état du jeu.



Si tu vois pas l’intérêt d’avoir de réduire au maximum l’age des images affichées à l’écran, imagine l’inverse. Imagine en augmentant l’âge des images affichées à l’écran pour voir. Imagine que les images que tu vois à l’écran sont décalées de 1 voire même 2 secondes par rapport à l’état du jeu.

Forcément ça impacte ta capacité à jouer correctement un tel décalage.

Du coup ça marche dans l’autre sens : c’est une valeur qui doit tendre vers zéro pour garantir les meilleurs résultats possible.



Et pour la question qui te tracasse depuis le départ : est-ce que c’est vrai avantage pour les joueurs d’avoir ça ? , je vais redire ce que j’ai dit dans le message précédent : ça dépends des gens, tout le monde n’est pas égal là dessus.

Certains y gagneront, d’autres ne verront pas la différence.


Le 22/01/2020 à 22h 56







Hugues1337 a écrit :



J’aimerais voir la preuve que ça pose un souci de ne pas avoir 120ips sur un écran à 60Hz dans Fortnite… Même en ultra compétitif.





Au cas ou tu aurais raté l’info, les iPad Pro récents ont un écran 120Hz avec rafraîchissement variable comme le FreeSync/GSync sur PC.



Du coup il y a bien un intérêt d’avoir un mode 120ips sur l’iPad Pro, quitte à sacrifier la qualité visuelle. Ça reste un choix du joueur, donc ça se fait pas au détriment de ceux qui préfèrent la qualité d’image.









Hugues1337 a écrit :



Ton input lag est le même car ton écran est limité à 60Hz. Je te fais jouer à 120ips ou 60ips sur un écran 60Hz tu fera la même perf’ ingame. C’est dans ta tête tout ça. (…)





Je te garantis pas que tout le monde est capable d’exploiter la différence, mais mathématiquement il y a une réelle différence d’input lag entre les 2 cas.



Supposons que la limitation à 60ips soit une question de performance du matériel, plutôt qu’un bridage logiciel. Du coup pour atteindre le 120ips, il faut sacrifier les graphismes, ou mettre de l’argent dans une amélioration du matériel.



Dans le cas ou le jeu tourne à 60ips, le jeu prendra en compte tes actions (souris/clavier/manette) qu’une fois toutes les 16.66ms.

Donc si tu appuies sur un bouton juste après le début du calcul de l’image, il faudra attendre jusqu’à 16.65ms pour que ce soit pris en compte.

Et lorsque qu’une image s’affiche sur l’écran, le début des calculs aura été lancé 16.66ms plus tôt (en ignorant les délais d’affichage sur l’écran), donc elle sera basée sur des données vieilles de 16.66ms.



Dans le cas ou le jeu tourne à 120ips, le jeu prendra en compte tes actions 2 fois plus souvent, soit une fois toutes les 8.33ms.

Donc si tu appuies sur un bouton juste après le début du calcul de l’image, il faudra attendre jusqu’à 8.32ms pour que ce soit pris en compte.

Et lorsque qu’une image s’affiche sur l’écran, le début des calculs aura été lancé 8.33ms plus tôt (en ignorant les délais d’affichage sur l’écran), donc elle sera basée sur des données plus récentes que l’autre cas.



Du coup, même si tu ne gagnes pas la fluidité de mouvement du 120Hz (qui est importante pour mieux prévoir les trajectoires d’objet en mouvement, que ce soit un ennemi sur l’écran ou ton viseur d’arme pour viser), tu gagnes quand même la réduction d’input lag du 120Hz, donc c’est pas 100% gaspillé.



Bon après, pour mettre à profit ce gain d’input lag, c’est autre histoire. On est pas tous égaux, donc certains en tireront un avantage, et pour d’autres ça changera rien du tout.

La chaîne YouTube Linus Tech Tips a fait 2 vidéos très intéressantes (mais longues) sur le sujet, avec différents profils de cobayes : un père de famille qui joue plus trop, un joueur actif mais amateur, et des joueurs pros/semis-pros reconnus pour leur talents.

Je me souviens plus des résultats exacts des tests, mais sur certains tests le joueur occasionnel avait des grosses améliorations avec l’augmentation ips/Hz alors que les pros étaient plus constants. Sur d’autres tests, c’était l’opposé : l’augmentation bénéficiait surtout aux pro alors que le joueur occasionnel restait stable.



C’est fait sur un petit échantillon de personnes, mais ça me semble pas déconnant comme résultats.

Les liens : vidéo 1 (22 minutes) et vidéo 2 (36 minutes)


Le 21/01/2020 à 22h 03







near667 a écrit :



vu que l’immense majorité des consoles sont branchées sur un écran de tv. Je ne pense pas que Sony ou Microsoft soient prêts à financer une modification software (si ça suffit) pour détecter les écrans 120/144hz et plus





Et pourtant, la Xbox One de Microsoft gère depuis plusieurs années le mode 120Hz ainsi que le rafraîchissement variable via FreeSync ou le “VRR” de l’HDMI 2.1.



Il y a aucun jeu qui tourne à 120Hz, mais le mode existe, et ça permet de réduire un peu l’input lag.



Et même sur la One X, il y a un mode 1440p pour ceux qui branchent sur les écrans de PC, ça évite d’avoir une image downscalée en 1080p qui l’écran doit re-upscaler derrière pour pouvoir l’afficher.









near667 a écrit :



Il y a effectivement de grandes chances qu’une ps4 pro (voir non pro) soit capable de sortir 120 ips sur fortnite, le jeu étant loin d’être gourmand.









skankhunt42 a écrit :



C’est bien moins “évident” sur une PS4 PRO car elle à largement la puissance pour tourner à plus de 60 fps.





Vous êtes sûr de votre coup ? Le CPU des PS4/Xbox est quand même super pourri, à mon avis c’est surtout lui qui limite, pas le GPU.

Le CPU des iPad est largement plus puissant en single-thread que cette antiquité de Jaguar.


Le 19/10/2019 à 14h 11







KP2 a écrit :



critiques sur les délais de prise en charge de la 4G par Apple dans ses téléphones… Ils ont eu une bonne génération de retard mais au moins c’était utilisable dès que c’est arrivé.









Jossy a écrit :



Le temps que la 5G arrive, le téléphone sera très largement dépassé et la techno sera mieux maîtrisée (plus de bandes couvertes, moins de consommation…). Bref il est urgent d’attendre !









ArchangeBlandin a écrit :



Donc, les gens vont acheter des téléphones avec la 5G et en changer avant même que la 5G n’arrive, c’est super.







Boh, ça dépends des délais de renouvellement de téléphone. Si tu achètes un téléphone super haut de gamme à 1000 euros, il peut quand même tenir le coup plusieurs années avant d’être changé.



Pour les gens qui changent de téléphone qu’une fois tous les 3 ou 4 ans, ça peut être intéressant de partir sur un modèle 5G dès maintenant pour qu’il soit moins obsolète dans 1-2 ans quand la 5G sera plus présente.


Le 10/10/2019 à 09h 55

Les prix ont pas attendu Free pour baisser, même si l’arrivée de Free a remué les choses.



Avant la 3G, à l’époque ou capter le “Edge” était pas toujours garanti, tu payais la data par kilooctet, voir en prix à la seconde si tu avais un téléphone trop vieux pour gérer le GPRS.



J’ai pas gardé des souvenirs exact sur tous les forfaits que j’ai eu, mais il y a quand même eu une évolution au fil du temps :







  • la connexion internet qui passait par appel vocal (j’ai pas touché, mais c’était mentionné dans les contrats de mes premiers forfaits mobiles) et qui faisait dont payer au temps passé en ligne

  • le GRPS/EDGE payé au kilooctet en hors-forfait

  • les quantités de data incluses dans les forfait qui se comptaient en unités/dizaines/centaines de mégaoctets

  • les premiers forfaits avec une enveloppe en gigaoctet

  • et puis soudain l’arrivée de Free Mobile

  • et ça continue avec des forfaits en dizaines de gigaoctets et qui frisent maintenant la centaine







    Je pense que le plus gros changement apporté par Free c’est pas trop la data mais plutôt les appels et SMS illimités.

Le 09/10/2019 à 18h 58

Oui mais ce dont Stéphane Richard parle c’est bien le lancement de la 5G.



Pour les lancements de la 3G et 4G, les forfaits ont montés en prix car le nouveau réseau plus rapide était optionnel.



Puis après quelque temps, les prix ont rebaissé et le “prix au kilo” de la donnée a chuté en flèche avec une augmentation importante des volumes de data proposés dans les forfaits pour suivre les nouveaux usages.



Du coup il semblerait qu’on saute l’étape du nouveau réseau en option premium, mais selon toute vraisemblance le temps que le réseau soit déployé un peu partout le prix de la data aura baissé.

Le 09/10/2019 à 15h 07







Jarodd a écrit :



Il dit bien “à service et quantité égale”. Vous pensez vraiment qu’on pourra utiliser des services 5G avec 100 Mo ou 1 Go de data ?





Bof, 100Mo ça se crame en 8 secondes en 4G si tu captes bien, donc la 5G vas pas changer grand chose à ce niveau là.



Si tu es sur un forfait 10Go et que tu n’en utilises que 3Go chaque mois, est-ce que tu crois que l’arrivée de la 5G vas du jour au lendemain changer quelque chose ?



Il faut voir les nouveaux usages que ça apporte, mais pour l’instant j’ai rien vu qui permettrait de justifier une explosion soudaine de la consommation de données.



En comparaison, aux lancements de la 3G et 4G, il fallait des forfaits spéciaux pour avoir autorisation de se connecter aux nouveaux réseaux, donc en quelque sorte le prix au kilo augmentait avec le passage 3G/4G (avant de chuter plus tard vu que les usages augmentait donc le public demandait plus de data).


Le 24/09/2019 à 10h 32

Il faut aussi dire que la cible typique de ce genre d’offres à une connexion ADSL pathétique à côté.



Chez mes parents (512K), en téléchargeant à fond la caisse, 2424 sur 30 jours, ça fait … 171Go.



Du coup, ça veut dire qu’il peuvent télécharger 50% de truc en plus sur un mois, et que la moindre chose à faire sur internet deviendrait plus plus agréable avec des temps de chargement très raccourcis.

Le 23/09/2019 à 09h 28

Tu parles par exemple des anciennes télés cathodiques pour lesquelles il fallait d’abord enfoncer un gros bouton avant de pouvoir utiliser la télécommande pour allumer ?



Je sais pas ce que ça donne côté PS4, mais sur la Xbox One, vu que tu peux allumer la console via la manette sans-fil, donc ça implique de garder au minimum un bout de circuit pour recevoir le signal sans fil (ça doit être ça les 0.5 watts).



Sur la Xbox One il y a déjà 2 modes d’alimentation : le truc par défaut ou la console reste allumée en veille (10W sur le modèle le plus récent), et un mode éco (&lt;1W d’après la même source).



Côté utilisation, avec le mode éco, la console mets plusieurs longues minutes à s’allumer puis se connecter à Xbox Live.

S’il y a une mise à jour système, tu peux facilement rajouter 15~30 minutes de perdues (pas d’esquive possible), et si le jeu auquel tu veux jouer à besoin de se mettre à jour rebelote (avec un temps très variable selon la taille du jeu vu que ça va de 500Mo à 120Go).



Avec le mode “Instant On”, le démarrage est très raccourci, et il n’y a pas de màj intempestives à moins de tomber au mauvais moment.



Du coup, vu le confort que ça apporte, c’est quand même très tentant quand on se soucie pas de l’écologie.



Ce serait bien que Microsoft/Sony améliorent le mode éco avec un allumage automatique tous les X jours pour vérifier la présence de màj, faire le boulot si besoin, et s’éteindre après.



Pour réduire le temps de démarrage, je suppose que les SSD de la prochaine génération feront leur effet.

Le 07/09/2019 à 14h 38

Sinon au lieu de mettre à jour ton Windows en licence Pro, tu peux essayer de faire une VM avec VirtualBox, ça faisait bien le boulot à l’époque ou j’en avais besoin.