votre avatar

Ruzgfpegk

est avec nous depuis le 7 octobre 2007 ❤️

288 commentaires

Le 17/12/2014 à 11h 27

Je suis d’un naturel tout à fait non-violent (ce qui ne m’empêche pas de jouer aux jeux dits “violents” mais qui ne le sont pas tant que ça psychologiquement) et la violence gratuite est quelque chose que j’exècre, mais c’est justement pour ça que je suis “pour” ce jeu (ou, du moins, contre son éviction).



Plutôt que de banaliser la destruction de vies (même de façon fictive), ici l’horreur, le caractère irréversible et l’absurdité de l’acte sont mis en avant : ça remettrait les choses à leur place, dans le contexte d’un personnage qui devient totalement cinglé.



Les intentions prêtées aux développeurs m’importent peu, d’autant plus que rien ne les empêche de faire des raisonnements par l’absurde sans prévenir lors de leurs interventions.

Dire des énormités exprès en se disant “le public comprendra la vraie intention” ne marche pas souvent, si c’est ce qu’ils font, mais faut-il se baser sur la frange du public qui réagit au quart de tour sans se poser la moindre question ?

Je préfère juger le produit fini directement, sans les filtres de gardiens autoproclamés de la morale (qu’ils soient politiciens, éditeurs, journalistes, blogueurs ou résidents de twitter/tumblr) ou de fans inconditionnels de tout ce qui choque parce que c’est “edgy”.



Ça me fait penser au procès d’intention faits aux métalleux… qui, en me basant sur ceux que j’ai connu, ont une philosophie bien plus humaniste que ceux qui les considèrent (eux et les groupes qu’ils écoutent) comme des ennemis de la morale à faire taire.



Chapeau bas, Gaby.

Le 02/12/2014 à 12h 52

Certes, mon cerveau a sauté un circuit logique.

50k€ net c’est beaucoup, mais dans le cas de professionnels de la sécurité ça me semble toujours acceptable.

Le 02/12/2014 à 12h 49

J’ajoute que ce genre de “dépense” de la part de l’Etat ne rend pas service à la sécurité informatique ou aux départements informatiques des entreprises du pays, qui vont se prendre lors de leurs budgets prévisionnels des réflexions de ce type :



 “Eh l’IT, vous êtes bien sympas mais vous demandez 104k€ de salaires et matos là… alors que l’Etat pour sécuriser leur SI ils n’ont eu besoin que de 520k€… nous on est 150, et l’Etat ils sont beaucoup plus que 750 !

 Revenez nous voir avec un budget un peu plus proportionnel à la réalité ou on externalise tout !”



J’exagère à peine.

Le 02/12/2014 à 12h 40

Pour les tarifs des VRTX je me suis basé sur ce que Dell nous a facturé avec des licences VMWare “moyennes”, en bénéficiant de réductions par rapport au prix public.



Pour le tarif de l’intranet, j’ai bien précisé “surfacturé” car c’est encore ce que les SSII savent faire de mieux (oui je trolle et ce n’est pas une généralité, mais quand même).



Pour les salaires des admins, ~200K€ pour deux (coût employeur) font du ~50k€ brut/an par personne, ce qui pour des “bons” ne me paraît pas incroyable (pour des prestas de SSII ça serait bien plus cher en effet).



Le coût d’investissement ici est le matos et les prestations de service initiales, celui de fonctionnement les admins qui s’occuperaient de la maintenance et du support.

Dans le cas de deux VRTX, ça ne coûterait pas très cher en électricité et je suppose qu’ils ont déjà une liaison fibre et l’équipement réseau qui va avec.

Le 02/12/2014 à 11h 48

Les sommes sont ridicules vu l’objectif.



>des « projets ciblés sur la sécurité des systèmes d’information,

pour 520 000 euros dont 206 000 euros pour l’intranet sécurisé et 100

000 euros pour le data centre »,



100k le datacenter… euh, “lol” ?

Enfin, datacenter est un terme vague qui peut désigner un bâtiment complet, une salle ou même un équipement (Dell appelle ses VRTX des Datacenter…).

Peut-être qu’ils ont acheté deux VRTX bien remplis, qu’ils vont les mettre dans une armoire fermée à clef et qu’ils appellent ça “datacenter”, qui sait.



206k pour l’intranet, ça sent la presta surfacturée de SSII où un stagiaire leur installera un Windows Server avec des partages et un portail web basique et où deux autres types passeront derrière pour gérer les sauvegardes et la supervision.



Il reste donc ~200k€… soit deux “bons” admins en CDD d’un an pour le reste.



Je me répète peut-être, mais vu l’objectif c’est ridicule.

Le 17/11/2014 à 11h 19

Alors pourquoi n’autoriseraient-ils pas la revente si l’œuvre n’est plus disponible légalement même dématérialisée ?

Les plate-formes de vente en ligne ne sont pas éternelles, et quand elles durent ce sont les contrats qui les lient avec les ayant-droits qui peuvent cesser et ainsi empêcher toute commercialisation future (et par là je pense aussi aux jeux vidéo sur Steam).

Le 03/11/2014 à 10h 38

Au moins avec eux on est à l’abri de saloperies comme systemd !

Le 30/10/2014 à 09h 55

Je pense que pour une fois ils préparent l’avenir au lieu de réagir avec 10 ans de retard.



Il ne me semble pas totalement improbable que dans la décennie qui vient un produit de type Google Glass permette avec la bonne application d’enregistrer intégralement un film en relativement bonne qualité et avec un traitement de stabilisation de l’image en temps réel.

Le 30/09/2014 à 19h 22







EricB a écrit :



Et enfin, le Ctrl+V ds le cmd, ca marche déjà depuis un bail sous Windows.







Chez moi (W7 64) Ctrl+V n’affiche que “^V”.









Abused a écrit :



autant de betes noires pour la securite d’un reseau … sans compter que IP6 compilant

et toutes les autres conneries (objets connectés) vont etre autant de mouchards et de failles potentielles …







Si tu parles bien d’IPv6 et si j’ai bien compris le dossier, normalement c’est fait pour camoufler les “conneries” dans le vaste espace d’adressage, pour qu’elles deviennent des aiguilles dans des bottes de foin (avec des IPv6 aléatoires pour les sorties et une IPv6 cachée pour les entrées).


Le 30/09/2014 à 19h 14







JR_Ewing a écrit :



Ah mais là-dessus je suis entièrement d’accord avec toi! <img data-src=" /> Mais MS sont aussi des branques d’avoir suivi l’avis de ces quelques geeks au lieu de continuer la direction qu’ils avaient prise avec Win 8! <img data-src=" />







Si seule “une minorité” avait des problèmes d’adaptation, Microsoft aurait continué sur cette voie : il n’y a qu’à voir les rubans d’Office qui ont eux aussi été un gros changement dans les habitudes et que Microsoft a pourtant gardé malgré la grogne.



Il serait assez ironique que ceux qui ont (au choix : pu, réussi à, accepté de) s’adapter à la disparition du Menu Démarrer ne puissent pas s’adapter à son retour.



Et avant de pleurnicher sur W10, pourquoi ne pas attendre la version finale ?

J’ai fait pareil pour W8 : j’ai réservé mon jugement jusqu’au moment où j’ai pu tester plusieurs heures la version finale, j’ai détesté, j’ai exercé mon droit de consommateur le plus élémentaire et j’ai laissé le train passer en me disant que le suivant serait plus confortable… apparemment ce calcul était bon.



Ces râleries ne seraient-elles pas dues au fait que “les convertis fâchés” dont tu fais apparemment partie aient du mal à accepter l’idée que ceux qu’ils insultent copieusement… aient éventuellement pu avoir raison dès le début ?





Cordialement,



Un geek apparemment “imbécile”, “feignant”, “incapable de s’adapter” et qui “gueule[rait] partout” (mais qui malgré tout gère un parc informatique).


Le 22/09/2014 à 11h 51







ludo0851 a écrit :



Il doit y avoir des comparatifs entre :




  • une image 8MP resizée vers 2MP

  • une même image à 2MP d’origine







    Sur le lien de Dacoco974 plus haut oui, et le résultat a l’air assez intéressant.


Le 22/09/2014 à 10h 10







MasterDav a écrit :



<img data-src=" />



Il est impossible de restituer la qualité d’une image 4K sur un écran 1080p, un downsizing se fait forcément avec perte.







Forcément, mais si la perte n’est pas discernable par une paire d’yeux situés à un éloignement “normal” de l’écran… c’est toujours bon à prendre, non ?


Le 19/09/2014 à 19h 09







MasterDav a écrit :



<img data-src=" /><img data-src=" /><img data-src=" />







Si l’œil ne fait pas la différence, à résolution de framebuffer identique, entre un écran 1080p et un autre 4K (ce qui est probablement le cas pour les moniteurs avec une diagonale inférieure ou égale à 24 pouces), autant augmenter la résolution de rendu puis réduire l’image après !



Et je me trompe sans doute, mais j’ai l’impression qu’ils nous réinventent à peu de choses près l’Anti-Aliasing original avec leur DSR.


Le 08/08/2014 à 10h 37







skan a écrit :



Les Web Agencies qui font des sites événementiels à la pelle vont dépenser encore plus en Référencement… Google se frotte déjà les mains :p

Les WebAgencies que j’ai côtoyé n’ont pas envie de s’embêter avec un truc aussi compliqué qu’imprononçable: la sécurité.







Étant admin sys dans une web agency : si, ou du moins ça dépend à quel niveau.



Par exemple, si on fait un site événementiel dans un sous-domaine d’un client (operation.client.com), c’est au client de nous fournir le certificat qui va avec car le domaine “client.com” lui appartient, et c’est une dépense que beaucoup peuvent trouver superflue, et du coup l’opération reste en HTTP uniquement.

Peut-être que l’annonce de Google changera ce point.



Il y a aussi le fait qu’on prévient que si on met leur opération sur un serveur en HTTPS avec du SNI (car on mutualise, intelligemment bien sûr, en fonction des charges estimées, et qu’on laisse les anciennes opérations tourner un moment pour les messages de fin), ça posera des problèmes de compatibilité sur les vieux navigateurs (par exemple, les IE sous Windows XP), et vu qu’ils veulent toucher le plus de monde possible ça les refroidit.



Parfois ça peut être la hiérarchie qui impose de baisser la sécurité d’un serveur, d’un service ou d’un accès particulier pour des raisons plus ou moins valables… et les ordres sont malheureusement les ordres.



Ensuite au niveau des développeurs, il faut qu’ils mettent à jour les WordPress & co mais on ne peut pas être derrière eux pour chaque opération, surtout les celles qui sont en mode “terminées mais encore visibles”…


Le 04/08/2014 à 12h 23







Akoirioriko a écrit :



Suite à la montagne de conneries qu’a débité Yerli et l’orientation prise après Crysis la seule chose dont j’ai envie concernant cette boîte c’est qu’elle coule.

Je perds pas espoir.







Oui enfin, parmi les victimes récentes on ne trouve certainement pas Yerli… qui serait probablement parmi les derniers affectés si Crytek coule.

Autant je n’apprécie pas toutes ses prises de position, autant je ne souhaiterais pas brûler tout un village si il s’y trouvait.


Le 04/08/2014 à 12h 04







Jean_Peuplus a écrit :



C’est le principe, pour remplacer un mot par un autre il vaut mieux qu’ils soient synonymes. <img data-src=" />





Surtout que c’est un anglicisme foireux : en français, “digital” signifie “relatif aux doigts”.

Par exemple, “empreinte digitale” ne concerne en rien l’informatique !

Pour éviter de propager confusions et mauvais usages, mieux vaut donc bannir ce mot dans ce contexte.





Le numérique parmi les priorités du gouvernement pour la rentrée



Ah non, le numérique a déjà assez de problèmes comme ça.


Le 04/08/2014 à 11h 54

Pour ce qui est des anti-virus Européens, il y a aussi ESET (NOD32) qui est basé en Slovaquie

Le 01/08/2014 à 20h 52

Je plussoie pour l’utilisation du Perl pour les traitements de flux.



Et en parlant de Perl :



PHP 6 a été un échec ; Perl 6 a été un échec.





Ça c’est du troll bien poilu, les deux ont eu des problèmes faisant qu’aucun des deux n’est actuellement disponible en version finale malgré une très longue gestation, mais pas pour les mêmes raisons : pour PHP 6 personne n’arrivait à se mettre d’accord, et pour Perl6 c’est juste que les différentes implémentations mettent un temps incroyable à sortir et que certaines meurent même en cours de route (mais le bout du tunnel se rapproche).



Non, quand Perl6 sortira, ça sera bien. J’y crois.

Il faudra juste beaucoup de pédagogie pour expliquer aux gens sans les faire fuir que l’impératif et les héritages du shell cohabitent maintenant avec de l’objet (ouais bon y’a Moose en Perl5, mais déjà inspiré de l’implémentation Perl6) et du fonctionnel, et qui pourra aussi être mélangé à du code d’autres langages (Ruby/Python/JS/…) grâce aux possibilités de la machine virtuelle.

Je suis certain qu’on pourra repousser encore plus loin les limites de l’illisible avec tout ça, et ainsi passer pour de vrais magiciens auprès des non-initiés, et accessoirement pondre du code qu’on ne saura plus comprendre 2 heures plus tard.

Le 31/07/2014 à 16h 26







DarkMoS a écrit :



Le projet cardboard de Google n’est pas si idiot que ça en tout cas <img data-src=" />







Cardboard, tout comme les solutions comme le Durovis Dive, n’a pas la même utilité : pour une VR efficace il faut avoir le plus d’images par seconde possible, les 60 de DK1 ne suffisaient pas, les 75 de DK2 sont déjà bien plus agréables mais Oculus vise 90fps pour CV1.

Or, actuellement, avoir une scène en 3D à plus de 60fps sur un smartphone… c’est pas encore ça.



Du coup j’ai peur que Cardboard dégoûte beaucoup de gens de la VR alors qu’ils ne savent pas qu’ils ont juste testé une version low-cost de la technologie (sans pre-warping par ailleurs, et avec un FOV qui ne doit pas être aussi large), ou du moins aussi bonne que leur téléphone le permet.



Et puis Cardboard ne peut pas être branché à un PC, ce qui est une différence de taille.

DK2 a aussi pour avantage de permettre le tracking dans l’espace grâce à la caméra (et pas juste les axes de rotation comme avec DK1 ou les smartphones dont les capteurs ont une marge d’erreur trop grosse pour ça).


Le 31/07/2014 à 16h 07







Impli a écrit :



C’est pas le principe même de l’AMOLED d’éteindre les pixels pour avoir un noir digne de ce nom ?

Je ne sais pas quel profondeur aurait un noir sur un tel écran si le pixel restait allumé (et quid de la consommation ?).







La consommation est prise sur un port USB 2, ce n’est donc pas un problème pour une utilisation sur PC fixe.



Sur l’écran de la Vita 1, on voit bien la différence entre écran éteint et écran noir (lors d’un chargement de jeu, avant le logo d’un éditeur par exemple) donc eux aussi ont dû faire en sorte que les pixels ne s’éteignent pas.

En fait il faut prendre en compte le temps de changement complet de couleur : il est élevé pour passer de “éteint” à “allumé couleur X” mais aussi pour passer de “allumé couleur X” à “allumé couleur Y”, ce qui génère des trainées lumineuses et donc du flou en pleine action.



La parade d’Oculus avec la basse persistance est de prendre en compte la persistance rétinienne pour pouvoir avoir l’écran “quasi-éteint” entre deux frames, car le temps de passage d’un pixel de “quasi-éteint” à “allumé couleur X ou Y” est très faible.


Le 31/07/2014 à 15h 54







DUNplus a écrit :



Du coup. le noir sera moins noir, non ?







Sans doute, mais si on passe de 0,00% de luminosité minimale à 0,39% (1256) je pense que la différence ne sautera pas aux yeux (dans tous les sens du terme).


Le 31/07/2014 à 15h 09







ErGo_404 a écrit :



j’espère. Sur Cardboard le problème c’est bien la persistance de l’image. Sur un mouvement rapide c’est pas très agréable et ça casse vite la “réalité virtuelle”.







Non, pour avoir le DK2, si l’application est bien compilée avec un SDK récent elle prendra la basse persistance en charge, limitant ainsi les effets de trainées et de flou dû au mouvement.



Il reste un problème, où les pixels totalement noirs mettent trop de temps à retourner à un état “allumé”, ce qui fait une trainée noire dans certaines applications (je ne l’ai constaté que dans une démo tierce), mais ça devrait être corrigé pour la prochaine version mineure du SDK (ou du driver) qui forcera les pixels à rester “allumés” à leur plus faible niveau.



Mais à part ça il n’y a quasiment rien à redire, les couleurs sont claires et les textes lisibles comparé au DK1.



Non, le plus gros problème de cet écran est l’alignement “Pentile” des pixels, qui dans certains cas se voit très distinctement, même si ça évite l’effet de grille de pixels ressenti avec le DK1 et son écran LCD 720p.


Le 29/07/2014 à 09h 12







Jean_Peuplus a écrit :



Pff, il est même pas roux.







Et heureusement, sinon il aurait été considéré comme un roux de secours.


Le 19/06/2014 à 13h 52

J’ai une Vita depuis plus d’un an et demie et je ne la regrette pas du tout, il y a beaucoup de très bons jeux dessus (malheureusement il faut la plupart du temps soit les importer, soit y jouer en anglais, soit les deux).



Ah, Sony.

Si ils pouvaient permettre de jouer aux jeux PS2 achetés sur PSN (en plus des jeux PSone), ça donnerait plus d’intérêt au truc.

Si ils filaient un adaptateur pour mettre des MicroSD à la place de leur carte mémoire propriétaire à la con, ça aiderait aussi.

Si ils vendaient de quoi utiliser la sortie vidéo, ça génèrerait plein de vidéos sur YouTube qui donneraient de la visibilité à la console et à ses jeux.

Si ils avaient prévu un lecteur externe pour les UMD de PSP, ça aurait poussé les possesseurs de PSP à migrer.

Si…



Avec des “si” on pourrait vendre des camions de Vita.

Le 19/06/2014 à 10h 27







TomGun a écrit :



Il y a aussi que Oculus n’avait l’intention de sortir le Rift sur les nouvelles consoles à cause de leur trop faible puissance. Elles ne sont déjà pas capables de faire tourner les jeux qui en profiteraient en 30fps et 1080p, alors en 3D on n’en parle même pas…



Sony attendra peut-être la PS5 100% cloud <img data-src=" />







Le cloud gaming rajoute beaucoup trop de latence (compression/transmission/décompression) pour que la réalité virtuelle soit utilisable confortablement avec, et l’effet recherché de “présence” deviendrait un doux rêve.

Et la version commerciale du Rift devrait avoir un écran 1440p (EDIT: et une fréquence supérieure à 75Hz, ils viseraient le 90Hz), donc qui demanderait encore plus de puissance… Sony ne voudrait probablement pas sortir un produit inférieur à son concurrent direct au niveau de la résolution de la dalle, donc ils pourraient éventuellement faire de l’upscale suffisamment rapide dans la console ?


Le 12/06/2014 à 12h 11







Winderly a écrit :



Il aurait du le faire sans violer la loi, facile.







Et si il ne pouvait pas le faire sans violer la loi (ce qu’il soutient), il aurait “dû” ne pas le faire du tout et laisser le monde entier dans l’ignorance ?


Le 09/06/2014 à 19h 58

Voilà qui n’aidera pas à la sortie de Shin Megami Tensei IV (3DS) en Europe (oui, certains y croient encore…).

Le 09/06/2014 à 19h 27

Je confirme que ce n’est pas le “premier” 4.1.

Mon firmware 4.1.0 sur TS-419P II date… du 19 Décembre 2013.

Le 06/06/2014 à 15h 09

À noter que l’auteur de l’enchère à $50,000 est “palmertech”, très vraisemblablement Palmer Luckey d’Oculus (c’est son pseudonyme sur le forum MTBS3D, où le Rift est “né”).

Le 23/05/2014 à 08h 57

Bordel la limitation d’édition est vraiment la pire plaie de ce site surtout quand on fait plus de deux paragraphes, en plus j’ai l’impression que le délai a été raccourci et c’est pas ça qui va m’inciter à poster.

Heureusement que les journalistes peuvent éditer leurs articles pendant plus longtemps que nous, sinon ils seraient VRAIMENT FRUSTRÉS, hein ?





Je voulais donc rajouter :



On notera aussi à la toute fin de l’article :



“I’ve written 2 million lines of code over the past 20 years, and now I’m starting from a blank page,” Carmack says.

Le 23/05/2014 à 08h 49

Sur le subreddit oculus le problème est présenté différemment.



Dans la news :



Pourtant, ces 20 dernières années, John Carmack n’a travaillé qu’au sein d’idSoftware, pour le compte de ZeniMax, il est donc difficile de voir dans quelles autres circonstances Carmack aurait pu reprendre du code écrit dans « un ancien travail ».





Carmack est un bidouilleur sur son temps libre, et sur une vidéo (celle de l’E3 2012 de Kotaku ?) il disait avoir réutilisé (pour minimiser la latence du prototype) du code qu’il avait écrit pour Armadillo Aerospace (fondé par Carmack lui-même !) : il parlait peut-être d’un cas similaire dans son tweet, que Zenimax n’a en tous cas pas mis dans son contexte (réponses, tweets précédents/suivants, …).



Beaucoup de “preuves” du dossier sont à mourir de rire, notamment une photo où l’on voit Carmack et Palmer à l’E3 2012 et qui est utilisée pour “prouver” qu’Oculus ne serait rien sans Zenimax.



Ceux qui ont suivi l’historique du développement du Rift (avec toutes les itérations des prototypes de Palmer qu’il présentait sur le forum MTBS avant qu’il ne lance le Kickstarter) ont vu rouge quand ils ont lu la description de Zenimax, très éloignée de la réalité : Palmer était même avant le Kickstarter un expert de la réalité virtuelle, et possède la plus grande collection privée de casques VR au monde et travaillait pour l’armée sur des problématiques de “mixed reality” avant de fonder Oculus.

Il a un profil plutôt hardware que software, et c’est là que Carmack est intervenu (c’est lui qui a proposé de l’aide à Palmer, pas l’inverse).

Donc oui, le John est le parrain du projet depuis très longtemps, sans lui Oculus n’existerait probablement pas (en tant que société) mais ça ne signifie pas que ses contributions au projet en tant que personne privée (et pas en tant qu’employé) appartiennent à Zenimax.

Beaucoup de ses contributions étaient internes à Zenimax (comme le support pour D3) et à moins d’une preuve du contraire il n’a pas quitté l’entreprise avec.



Concernant les apports de Carmack, là aussi c’est dans une vidéo d’un E3, il expliquait que ses contributions pouvaient être du genre “appeler le fabricant de tel capteur pour lui demander un firmware modifié”.

Pour la pré-compensation de la distorsion, c’est un concept qui existait déjà avant, comme beaucoup d’éléments de la réalité virtuelle : c’est juste que maintenant, la technologie est suffisamment avancée pour permettre de les utiliser rapidement.

Et puis le code de transformation en question est tellement générique (Carmack l’a implémenté en une nuit sur Doom 3 BFG, donc sur son temps libre d’autant plus que le code est sous GPL) qu’il ne peut pas être considéré comme un secret de fabrication, sans compter que ledit code a été modifié au moins une fois depuis que Carmack a quitté iD, le plus récemment pour le SDK 0.3.1 (“modelling the distortion function using spline curves rather than polynomials”).



Aussi, tout le code d’Oculus est disponible dans le SDK et Zenimax n’a jamais indiqué quel fichier ou quelles lignes de code seraient “volées” : Carmack a déjà râlé sur le fait qu’il devait recoder tout ce qu’il avait fait pour la VR au sein d’iD.



Il y a 9 mois, une “source proche du dossier” avait posté plusieurs messages intéressants par rapport au départ de Carmack, nié par la direction d’iD :

http://www.reddit.com/user/carmack-info-throw



Puis plus récemment, quelqu’un de chez iD qui critique ouvertement Zenimax !

http://www.reddit.com/user/throwaway_zeni



Ce dernier cite comme exemple un employé qui avait fait sur son temps libre (hors de la société) un chapeau pour TF2 qui lui avait rapporté pas mal d’argent, et Zenimax aurait voulu l’attaquer en justice car aurait considéré que l’argent aurait dû lui revenir : quand on sait ça, ça donne un éclairage différent à toute cette histoire.



EDIT :

L’article de Wired donne un bon historique du projet et de l’implication de Carmack.

Le 23/04/2014 à 11h 38

Je me rajoute à la liste de ceux qui ont cru à une blague lors de l’annonce, voyant les news via le flux RSS et pas via la homepage ça faisait partie des titres qui m’auront semblé les plus crétins tous sites confondus.



Curieux choix à une époque pleine de raccourcisseurs d’URL que de changer pour un nom de domaine encore plus long.

En plus de ça, je vais penser à chaque fois à l’expression anglaise “next in line” et je vais du coup associer ce site à des gens qui font la queue… ça ne va pas inciter mon inconscient à me faire venir ici plus souvent, mais peut-être que je suis le seul dans ce cas.



Comme le disaient d’autres plus haut, les domaines pour lesquels je suivais le site au début (bien avant de m’inscrire) ne sont plus aussi souvent représentés ici (quand ils le sont encore), mais j’ai compensé en diversifiant mes sources d’information.

Ce qui ne m’a pas empêché de m’abonner deux ans de suite ici pour encourager un travail journalistique indépendant qui manque cruellement dans ce pays.



Il est vrai qu’il faut évoluer pour survivre, mais des évolutions mal choisies peuvent aussi tuer et lorsque les mauvais effets se font sentir, beaucoup préfèrent orgueilleusement persévérer jusqu’à ce qu’il soit trop tard pour faire machine arrière.

Ce changement de nom me rappelle le renommage de nvchips-fr en 3dchips-fr pour accompagner leur élargissement du public ciblé… oh, ça a marché… pendant un temps.

Bien sûr ici le contexte est différent, et j’espère que vous vous en tirerez mieux qu’eux.



En bas de page on voit bien que le site appartient toujours à “PC INpact SARL” : est-ce que ce nom ou l’entité changera aussi ?

Au début je pensais qu’une nouvelle structure serait créée pour laisser mourir PC INpact et ses dettes, et ainsi repartir de zéro (vous ne seriez pas les premiers), mais le statut de presse en ligne a dû être donné à la structure actuelle donc ça compliquerait pas mal les choses, sans parler des abonnements.



Enfin.

La meilleure chose qu’on puisse faire est probablement de vous laisser le bénéfice du doute.



EDIT :

Du coup je passerai pour un ancêtre avec mon T-Shirt, mais je pourrai dire que “j’étais là”.

Le 31/03/2014 à 19h 49







Citan666 a écrit :



N’y a-t-il que moi qui ne comprend pas comment il peut évoquer des jeux Nintendo en parlant de démonstration des capacités techniques de la PS4 ? Ou alors j’ai loupé un truc (Non parce que si Sony émule des jeux Nintendo sur PS4, ça fait un peu désordre quand même <img data-src=" />)…



EDIT : Ce serait pas récent, la prise en charge des citations imbriquées ? En tout cas c’est propre. <img data-src=" />







L’élément principal de la phrase est le “existing games that are comparable to the environments he saw running”.

Donc en gros, le niveau de détail qu’on pourrait s’attendre à voir tourner de façon satisfaisante en VR sur PS4.


Le 28/03/2014 à 11h 26







coreylus a écrit :



Lien interressant :) (meme si l’on en apprend pas plus sur les capacités de la ps4 lorsqu’il s’agit d’afficher 2 images à la fois sur un écran 1080p)







Il y a un second post un peu plus bas dans le lien, où il dit entre autres :





From what he has seen privately, the PS4 is more than capable of producing beautiful, clean, immersive 2x1440p 90fps games for VR. When I asked him to list some existing games that are comparable to the environments he saw running privately running at a 2560x1440 resolution split across two screens (which I will henceforth refer to as 2x1440p) running at 90fps, he listed The Last of Us, Grand Theft Auto 5, Super Mario Galaxy, Wipeout HD Fury, Pikmin 3 and The Legend of Zelda: Wind Waker HD but added that these environments were rendered at much higher resolutions and with higher resolution textures leading the environments to actually look much crisper and more beautiful than they do in any of those aforementioned games, and they would blow people’s minds if demoed publically running at 2x1440p at 90fps off the PS4 because they truly achieve presence.


Le 28/03/2014 à 10h 45







coreylus a écrit :



Hors la ps4 ne pourra pas afficher 2 images à la fois sur cette résolution. (du moins pas les jeux aux graphismes triple A)







C’est peut-être du flan donc sortez vos pincettes non-euclidiennes, mais voilà des infos potentielles sur ce que la PS4 aurait dans le ventre :

http://www.reddit.com/r/oculus/comments/20vzid/massive_information_leak_regardin…



…et sur ce qu’aimerait faire Sony pour faciliter des développements supportant les deux casques :

http://www.reddit.com/r/oculus/comments/20zj2m/a_second_massive_leak_sony_is_int…

(on pourrait imaginer que ça aboutisse à un standard utilisable par d’autres casques)


Le 28/03/2014 à 10h 37







BennJ a écrit :



Ah bon ils ont tué la société Oculus VR ? Ah au temps pour moi je pensais qu’ils leur avait donné 400 millions $ en cash (et 1.6 milliards en action FB) afin qu’ils puissent vraiment devenir un acteur important sur le marché…





Ils ont tué une partie de l’attrait du public de fans actuels envers cette solution.

Peut-être que leur nouvelle force de frappe médiatique leur permettra de toucher un plus large public qu’avant, c’est tout ce qu’on peut leur souhaiter.



En ce qui me concerne, j’avais préco un OR DK2 car je faisais quelques trucs du temps des mods Half-Life et la réalité virtuelle me semblait un bon prétexte pour retourner bidouiller pour un projet avec des outils que je n’ai jamais totalement abandonné.

Mais le rachat par FB me refroidit pas mal, pas d’un point de vue technique mais plutôt idéologique, donc j’hésite fortement à annuler ma précommande, et si Sony rend Morpheus utilisable sur PC (et ne conditionne pas la vente de DK à l’existence légale d’un studio de développement ou à un projet précédent déjà réalisé) je n’aurais aucun scrupule à prêter serment d’allégeance et à filer du pognon aux nippons, moi qui avais pourtant fortement soutenu Oculus jusqu’à son rachat.

Ou pour gagner du temps, je me servirais peut-être du DK2 pour mettre au point quelque chose qui serait rendu compatible Morpheus (exclusivement ?) par la suite.

Bref, j’attends d’avoir plus d’infos de chaque côté avant de savoir ce que je fais.



L’impact en terme d’image d’un rachat auprès de certains publics peut être désastreux à la fois envers l’acheteur et l’acheté, et cela pour une longue période.

En ce qui me concerne, je suis passé de fervent défenseur de ATI et AMD à acheteur exclusif d’Intel+nVidia à partir du moment où AMD a racheté ATI : je ne le leur ai jamais pardonné, même si techniquement et économiquement c’était le meilleur choix pour eux à l’époque.



J’imagine que Zuckerberg, Palmer et Iribe ont fait leur choix en prenant en compte cet élément.


Le 17/03/2014 à 08h 03

Ouais enfin le porte-monnaie hors-ligne… vu qu’il récupère toute la blockchain, qu’il y en a pour plusieurs Go (actuellement plus de 3 Go pour Doge) et que ça ne fera que grossir avec le temps… ça pourra vite se révéler peu pratique.

Le 12/02/2014 à 11h 52

Je dirais que l’importance du dématérialisé pour la Vita tient aussi au fait que nombre de bons jeux sont introuvables en version physique dans la grande distribution, y compris Fnac et Micromania, car pas de VF, marché de niche, …

Le 12/02/2014 à 08h 31

Mais pas de 4G/LTE… ça pourrait en refroidir plus d’un.

Le 05/02/2014 à 14h 03







Winderly a écrit :



C’est déjà coché. <img data-src=" />







Pareil pour moi, bousins sociaux désactivés mais Ghostery voit du Twitter Button.


Le 09/01/2014 à 13h 54







Nomade a écrit :



En version 64bits, il y a toujours Waterfox (http://www.waterfoxproject.org/ ) Même si il a parfois une ou 2 revisions de retard, il reste quand même appréciable sur les machines 64bits







Cyberfox est plus à jour, c’est celui que j’utilise.


Le 07/01/2014 à 12h 22







marquis a écrit :



Si je le fais pendant mes heures de travail ou sur mon lieu de travail.



SI je le fais chez moi, non <img data-src=" />







Et si c’est un mix des deux ?


Le 03/01/2014 à 08h 49







gogo77 a écrit :



Parcequ’il ne sert plus à rien si ce n’est à remplir le disque dur en copiant ce qu’il y a sur le BR. En gros aujourd’hui ça sert à peu près uniquement à éviter de passer des dizaines d’heures à télécharger un jeu avec une petit connexion.







…le disque optique sert aussi à pouvoir être revendu, chose impossible avec le même jeu “en version numérique”, ne l’oublions pas.


Le 02/01/2014 à 11h 02

Après avoir testé Virgin et B&You, je suis aussi passé sur Joe et je pense y rester.

Je confirme que c’est pas mal, pour la personnalisation du forfait tout comme pour la qualité du réseau (qui n’est parfaite chez aucun des trois mais bon…).

Le 12/12/2013 à 21h 32

GMail a tellement bâtardisé les standards qu’interroger correctement sa boîte et son agenda en IMAP+iCal peut être un parcours non trivial notamment avec Thunderbird.



Mais même au-delà de ça, on pourrait citer par exemple le fait que les dossiers soient remplacés par des étiquettes (avec la possibilité d’avoir plusieurs étiquettes sur le même mail, donc côté IMAP ça se traduit par un même mail dans plusieurs dossiers différents)…



Si Microsoft a fait un outil complet de migration, j’espère qu’il migre également les règles de tri (là aussi en prenant en compte les libertés prises par Google), car c’est un point important pour les personnes très organisées.



Bref, de mon point de vue Google a ces dernières années fait bien plus de mal aux standards de messagerie que Microsoft.

On pourrait rétorquer que eux au moins ont tenté quelque chose tandis que Microsoft n’avait rien fait, certes, mais quand on détourne des fonctions et qu’on se présente comme un exemple d’interopérabilité on assume jusqu’au bout et on propose un autre standard.



Mon entreprise a migré d’Exchange vers Google Apps il y a quelques années, car le PDG de l’époque était un fanboy de Google et voulait leur montrer sa soumission (du moins c’est comme ça que je l’ai ressenti), car on travaille beaucoup avec eux pour les solutions publicitaires.

Pour gérer la migration on n’a vu que des gens d’une SSII qui bossait pour Google, d’après mes souvenirs ça suintait parfois l’arrogance du genre “regardez on est partenaires avec eux, donc on est indirectement les maîtres du monde”.

Pour la migration nous avons utilisé des outils Google pour interroger la base Exchange interne… et ça prenait un temps fou, du genre un mail par seconde, sur plus de 100 boîtes contenant en moyenne chacune des milliers de mails ça a pris plusieurs semaines (y compris en parallélisant les process).

La lenteur venait du rythme d’enregistrement des mails côté Google… peut-être était-ce dû à l’indexation des mails ?



Avant la migration GApps je me souviens avoir rédigé une liste de questions qui était parvenue jusqu’à des techniciens de chez Google vu que la SSII ne savait pas y répondre, et leurs réponses étaient dans le ton “mais pourquoi vous posez ce genre de questions ? faites-nous confiance on est Google, vous savez, don’t be evil et tout ! si vous avez des problèmes c’est que vous les méritez vu que vous ne suivez pas la philosophie de nos outils” en esquivant comme des anguilles pas mal de points techniques ou en répondant “ce point est corrigé depuis quelques semaines ou le sera prochainement” sur d’autres.



Là (suite à un changement de PDG) on se tâte pour passer sur Exchange Online car Microsoft peut proposer des tarifs plus bas lorsqu’il s’agit pour eux de reprendre des clients à Google, et ils nous ont assuré qu’ils avaient les outils pour récupérer les mails sans encombre.

Comme leur campagne “Scroogled” le montre bien ils sont entrés en guerre contre Google et sont prêts à y laisser des plumes sur le court terme et à fournir des services auxquels on ne pourrait même pas penser avec Google.



Là c’était direct des gens de Microsoft qui se déplaçaient avec une approche de fournisseurs de service donc ça donnait l’impression d’être un peu mieux considérés et d’avoir des interlocuteurs plus ouverts.

Ils étaient plus rassurants également au niveau des pays où peuvent être stockés les mails, alors qu’avec GApps et la SSII les réponses étaient plutôt du genre “vos questions sont stupides et vous êtes paranoïaques” (c’était bien avant les leaks de Snowden, rétrospectivement j’étais pas si parano que ça).



flagos_ :

Peut-être que tu ne vois par de quoi il parle parce que tu n’as pas été dans son cas, ce qui n’enlève rien à la véracité de ses propos.

Si tu as du temps à perdre, je crois me souvenir d’un certain nombre de news sur ce site indiquant le travail de sape ou simplement de mépris de la part de Google par rapport aux plate-formes mobiles de Microsoft.

Le 11/12/2013 à 08h 02







IMPulsion a écrit :



On pourrait avoir la liste des noms de ceux qui ont cautionné ce texte ?



Histoire de savoir pour qui il ne faudra plus jamais poser un bulletin de vote ?











Mihashi a écrit :



Non, je taquinais juste, puisque l’actu parle du vote du sénat <img data-src=" />



Pour les députés, c’est par ici : http://www.assemblee-nationale.fr/14/scrutins/jo0737.asp







Et pour les sénateurs (je ne crois pas avoir vu le lien passer) -&gt;

http://www.senat.fr/scrutin-public/2013/scr2013-90.html


Le 10/12/2013 à 20h 43







Jarodd a écrit :



Bande de <img data-src=" />



Et tu voteras pour qui, sans indiscrêtion ?







Ça dépendra des programmes, des candidats, de leur passif et de celui de leur parti.

…pas de leurs électeurs typiques, sinon ça limiterait encore plus les choix.



Idéologiquement je suis plutôt “vert centriste” mais aux dernières élections j’ai voté pour le nerveux du Front de Gauche.


Le 10/12/2013 à 20h 17

Les politiques ont choisi, mais n’ont pas été élus pour faire ces choix.



Si on voulait des décisions stupides on n’avait qu’à redonner 5 ans au gouvernement précédent, ou même voter pour certains partis qui au moins en mettant en place de la merde auraient été en phase avec leurs idées… on aurait moins eu l’impression de se faire mettre par des menteurs qui enlèvent leur masque une fois que la confiance du peuple leur est accordée.

Le 10/12/2013 à 20h 04

Je suis furieux, et je me souviendrai de cet épisode lorsqu’on me demandera de voter au cours des années à venir.

Le 10/12/2013 à 11h 23

Quand j’étais jeune je récupérais de la musique via des moyens peu recommandables (le chat et la mule), et j’achetais des CD avec mon argent de poche lorsque j’aimais : c’était un investissement important, financièrement comme émotionnellement.



Puis mes ressources ont augmenté, et j’ai acheté ce qui me manquait de cette période.

Mais mon temps libre a évolué dans le sens inverse, ce qui a fait que je pouvais très bien vivre sur mes achats passés : quand on a des centaines de CD on peut en prendre un au hasard et redécouvrir des choses non-écoutées depuis 10 ans, et ce que j’entends des productions actuelles ne me donne pas spécialement envie d’en savoir plus.

Ouais, quand je serai vieux je grommèlerai sans doute aux jeunots que rien ne surpassera jamais Aphex Twin.



Me passer de radio et de télé m’a aussi coupé de beaucoup de potentielles envies, même si Nolife m’aura fait acheter une certaine quantité de musique Japonaise.



Du coup maintenant je ne pirate plus, et je n’achète plus sauf exceptions, genre nouveau CD de groupe que je suivais depuis longtemps ou OST de jeu vidéo.



Est-ce à dire que j’achèterais plus si je repiratais ?

Peut-être… mais j’en doute, car pour moi “moins de piratage et moins d’achats” reste une conséquence logique de “plus d’argent mais moins de temps pour en profiter”.



(bon par contre niveau Steam… ahem)