Je suis d’un naturel tout à fait non-violent (ce qui ne m’empêche pas de jouer aux jeux dits “violents” mais qui ne le sont pas tant que ça psychologiquement) et la violence gratuite est quelque chose que j’exècre, mais c’est justement pour ça que je suis “pour” ce jeu (ou, du moins, contre son éviction).
Plutôt que de banaliser la destruction de vies (même de façon fictive), ici l’horreur, le caractère irréversible et l’absurdité de l’acte sont mis en avant : ça remettrait les choses à leur place, dans le contexte d’un personnage qui devient totalement cinglé.
Les intentions prêtées aux développeurs m’importent peu, d’autant plus que rien ne les empêche de faire des raisonnements par l’absurde sans prévenir lors de leurs interventions.
Dire des énormités exprès en se disant “le public comprendra la vraie intention” ne marche pas souvent, si c’est ce qu’ils font, mais faut-il se baser sur la frange du public qui réagit au quart de tour sans se poser la moindre question ?
Je préfère juger le produit fini directement, sans les filtres de gardiens autoproclamés de la morale (qu’ils soient politiciens, éditeurs, journalistes, blogueurs ou résidents de twitter/tumblr) ou de fans inconditionnels de tout ce qui choque parce que c’est “edgy”.
Ça me fait penser au procès d’intention faits aux métalleux… qui, en me basant sur ceux que j’ai connu, ont une philosophie bien plus humaniste que ceux qui les considèrent (eux et les groupes qu’ils écoutent) comme des ennemis de la morale à faire taire.
50k€ net c’est beaucoup, mais dans le cas de professionnels de la sécurité ça me semble toujours acceptable.
Le
02/12/2014 à
12h
49
J’ajoute que ce genre de “dépense” de la part de l’Etat ne rend pas service à la sécurité informatique ou aux départements informatiques des entreprises du pays, qui vont se prendre lors de leurs budgets prévisionnels des réflexions de ce type :
“Eh l’IT, vous êtes bien sympas mais vous demandez 104k€ de salaires et matos là… alors que l’Etat pour sécuriser leur SI ils n’ont eu besoin que de 520k€… nous on est 150, et l’Etat ils sont beaucoup plus que 750 !
Revenez nous voir avec un budget un peu plus proportionnel à la réalité ou on externalise tout !”
J’exagère à peine.
Le
02/12/2014 à
12h
40
Pour les tarifs des VRTX je me suis basé sur ce que Dell nous a facturé avec des licences VMWare “moyennes”, en bénéficiant de réductions par rapport au prix public.
Pour le tarif de l’intranet, j’ai bien précisé “surfacturé” car c’est encore ce que les SSII savent faire de mieux (oui je trolle et ce n’est pas une généralité, mais quand même).
Pour les salaires des admins, ~200K€ pour deux (coût employeur) font du ~50k€ brut/an par personne, ce qui pour des “bons” ne me paraît pas incroyable (pour des prestas de SSII ça serait bien plus cher en effet).
Le coût d’investissement ici est le matos et les prestations de service initiales, celui de fonctionnement les admins qui s’occuperaient de la maintenance et du support.
Dans le cas de deux VRTX, ça ne coûterait pas très cher en électricité et je suppose qu’ils ont déjà une liaison fibre et l’équipement réseau qui va avec.
Le
02/12/2014 à
11h
48
Les sommes sont ridicules vu l’objectif.
>des « projets ciblés sur la sécurité des systèmes d’information,
pour 520 000 euros dont 206 000 euros pour l’intranet sécurisé et 100
000 euros pour le data centre »,
100k le datacenter… euh, “lol” ?
Enfin, datacenter est un terme vague qui peut désigner un bâtiment complet, une salle ou même un équipement (Dell appelle ses VRTX des Datacenter…).
Peut-être qu’ils ont acheté deux VRTX bien remplis, qu’ils vont les mettre dans une armoire fermée à clef et qu’ils appellent ça “datacenter”, qui sait.
206k pour l’intranet, ça sent la presta surfacturée de SSII où un stagiaire leur installera un Windows Server avec des partages et un portail web basique et où deux autres types passeront derrière pour gérer les sauvegardes et la supervision.
Il reste donc ~200k€… soit deux “bons” admins en CDD d’un an pour le reste.
Je me répète peut-être, mais vu l’objectif c’est ridicule.
Alors pourquoi n’autoriseraient-ils pas la revente si l’œuvre n’est plus disponible légalement même dématérialisée ?
Les plate-formes de vente en ligne ne sont pas éternelles, et quand elles durent ce sont les contrats qui les lient avec les ayant-droits qui peuvent cesser et ainsi empêcher toute commercialisation future (et par là je pense aussi aux jeux vidéo sur Steam).
Je pense que pour une fois ils préparent l’avenir au lieu de réagir avec 10 ans de retard.
Il ne me semble pas totalement improbable que dans la décennie qui vient un produit de type Google Glass permette avec la bonne application d’enregistrer intégralement un film en relativement bonne qualité et avec un traitement de stabilisation de l’image en temps réel.
Et enfin, le Ctrl+V ds le cmd, ca marche déjà depuis un bail sous Windows.
Chez moi (W7 64) Ctrl+V n’affiche que “^V”.
Abused a écrit :
autant de betes noires pour la securite d’un reseau … sans compter que IP6 compilant
et toutes les autres conneries (objets connectés) vont etre autant de mouchards et de failles potentielles …
Si tu parles bien d’IPv6 et si j’ai bien compris le dossier, normalement c’est fait pour camoufler les “conneries” dans le vaste espace d’adressage, pour qu’elles deviennent des aiguilles dans des bottes de foin (avec des IPv6 aléatoires pour les sorties et une IPv6 cachée pour les entrées).
Le
30/09/2014 à
19h
14
JR_Ewing a écrit :
Ah mais là-dessus je suis entièrement d’accord avec toi! " /> Mais MS sont aussi des branques d’avoir suivi l’avis de ces quelques geeks au lieu de continuer la direction qu’ils avaient prise avec Win 8! " />
Si seule “une minorité” avait des problèmes d’adaptation, Microsoft aurait continué sur cette voie : il n’y a qu’à voir les rubans d’Office qui ont eux aussi été un gros changement dans les habitudes et que Microsoft a pourtant gardé malgré la grogne.
Il serait assez ironique que ceux qui ont (au choix : pu, réussi à, accepté de) s’adapter à la disparition du Menu Démarrer ne puissent pas s’adapter à son retour.
Et avant de pleurnicher sur W10, pourquoi ne pas attendre la version finale ?
J’ai fait pareil pour W8 : j’ai réservé mon jugement jusqu’au moment où j’ai pu tester plusieurs heures la version finale, j’ai détesté, j’ai exercé mon droit de consommateur le plus élémentaire et j’ai laissé le train passer en me disant que le suivant serait plus confortable… apparemment ce calcul était bon.
Ces râleries ne seraient-elles pas dues au fait que “les convertis fâchés” dont tu fais apparemment partie aient du mal à accepter l’idée que ceux qu’ils insultent copieusement… aient éventuellement pu avoir raison dès le début ?
Cordialement,
Un geek apparemment “imbécile”, “feignant”, “incapable de s’adapter” et qui “gueule[rait] partout” (mais qui malgré tout gère un parc informatique).
Sur le lien de Dacoco974 plus haut oui, et le résultat a l’air assez intéressant.
Le
22/09/2014 à
10h
10
MasterDav a écrit :
" />
Il est impossible de restituer la qualité d’une image 4K sur un écran 1080p, un downsizing se fait forcément avec perte.
Forcément, mais si la perte n’est pas discernable par une paire d’yeux situés à un éloignement “normal” de l’écran… c’est toujours bon à prendre, non ?
Le
19/09/2014 à
19h
09
MasterDav a écrit :
" />" />" />
Si l’œil ne fait pas la différence, à résolution de framebuffer identique, entre un écran 1080p et un autre 4K (ce qui est probablement le cas pour les moniteurs avec une diagonale inférieure ou égale à 24 pouces), autant augmenter la résolution de rendu puis réduire l’image après !
Et je me trompe sans doute, mais j’ai l’impression qu’ils nous réinventent à peu de choses près l’Anti-Aliasing original avec leur DSR.
Les Web Agencies qui font des sites événementiels à la pelle vont dépenser encore plus en Référencement… Google se frotte déjà les mains :p
Les WebAgencies que j’ai côtoyé n’ont pas envie de s’embêter avec un truc aussi compliqué qu’imprononçable: la sécurité.
Étant admin sys dans une web agency : si, ou du moins ça dépend à quel niveau.
Par exemple, si on fait un site événementiel dans un sous-domaine d’un client (operation.client.com), c’est au client de nous fournir le certificat qui va avec car le domaine “client.com” lui appartient, et c’est une dépense que beaucoup peuvent trouver superflue, et du coup l’opération reste en HTTP uniquement.
Peut-être que l’annonce de Google changera ce point.
Il y a aussi le fait qu’on prévient que si on met leur opération sur un serveur en HTTPS avec du SNI (car on mutualise, intelligemment bien sûr, en fonction des charges estimées, et qu’on laisse les anciennes opérations tourner un moment pour les messages de fin), ça posera des problèmes de compatibilité sur les vieux navigateurs (par exemple, les IE sous Windows XP), et vu qu’ils veulent toucher le plus de monde possible ça les refroidit.
Parfois ça peut être la hiérarchie qui impose de baisser la sécurité d’un serveur, d’un service ou d’un accès particulier pour des raisons plus ou moins valables… et les ordres sont malheureusement les ordres.
Ensuite au niveau des développeurs, il faut qu’ils mettent à jour les WordPress & co mais on ne peut pas être derrière eux pour chaque opération, surtout les celles qui sont en mode “terminées mais encore visibles”…
Suite à la montagne de conneries qu’a débité Yerli et l’orientation prise après Crysis la seule chose dont j’ai envie concernant cette boîte c’est qu’elle coule.
Je perds pas espoir.
Oui enfin, parmi les victimes récentes on ne trouve certainement pas Yerli… qui serait probablement parmi les derniers affectés si Crytek coule.
Autant je n’apprécie pas toutes ses prises de position, autant je ne souhaiterais pas brûler tout un village si il s’y trouvait.
Je plussoie pour l’utilisation du Perl pour les traitements de flux.
Et en parlant de Perl :
PHP 6 a été un échec ; Perl 6 a été un échec.
Ça c’est du troll bien poilu, les deux ont eu des problèmes faisant qu’aucun des deux n’est actuellement disponible en version finale malgré une très longue gestation, mais pas pour les mêmes raisons : pour PHP 6 personne n’arrivait à se mettre d’accord, et pour Perl6 c’est juste que les différentes implémentations mettent un temps incroyable à sortir et que certaines meurent même en cours de route (mais le bout du tunnel se rapproche).
Non, quand Perl6 sortira, ça sera bien. J’y crois.
Il faudra juste beaucoup de pédagogie pour expliquer aux gens sans les faire fuir que l’impératif et les héritages du shell cohabitent maintenant avec de l’objet (ouais bon y’a Moose en Perl5, mais déjà inspiré de l’implémentation Perl6) et du fonctionnel, et qui pourra aussi être mélangé à du code d’autres langages (Ruby/Python/JS/…) grâce aux possibilités de la machine virtuelle.
Je suis certain qu’on pourra repousser encore plus loin les limites de l’illisible avec tout ça, et ainsi passer pour de vrais magiciens auprès des non-initiés, et accessoirement pondre du code qu’on ne saura plus comprendre 2 heures plus tard.
Le projet cardboard de Google n’est pas si idiot que ça en tout cas " />
Cardboard, tout comme les solutions comme le Durovis Dive, n’a pas la même utilité : pour une VR efficace il faut avoir le plus d’images par seconde possible, les 60 de DK1 ne suffisaient pas, les 75 de DK2 sont déjà bien plus agréables mais Oculus vise 90fps pour CV1.
Or, actuellement, avoir une scène en 3D à plus de 60fps sur un smartphone… c’est pas encore ça.
Du coup j’ai peur que Cardboard dégoûte beaucoup de gens de la VR alors qu’ils ne savent pas qu’ils ont juste testé une version low-cost de la technologie (sans pre-warping par ailleurs, et avec un FOV qui ne doit pas être aussi large), ou du moins aussi bonne que leur téléphone le permet.
Et puis Cardboard ne peut pas être branché à un PC, ce qui est une différence de taille.
DK2 a aussi pour avantage de permettre le tracking dans l’espace grâce à la caméra (et pas juste les axes de rotation comme avec DK1 ou les smartphones dont les capteurs ont une marge d’erreur trop grosse pour ça).
Le
31/07/2014 à
16h
07
Impli a écrit :
C’est pas le principe même de l’AMOLED d’éteindre les pixels pour avoir un noir digne de ce nom ?
Je ne sais pas quel profondeur aurait un noir sur un tel écran si le pixel restait allumé (et quid de la consommation ?).
La consommation est prise sur un port USB 2, ce n’est donc pas un problème pour une utilisation sur PC fixe.
Sur l’écran de la Vita 1, on voit bien la différence entre écran éteint et écran noir (lors d’un chargement de jeu, avant le logo d’un éditeur par exemple) donc eux aussi ont dû faire en sorte que les pixels ne s’éteignent pas.
En fait il faut prendre en compte le temps de changement complet de couleur : il est élevé pour passer de “éteint” à “allumé couleur X” mais aussi pour passer de “allumé couleur X” à “allumé couleur Y”, ce qui génère des trainées lumineuses et donc du flou en pleine action.
La parade d’Oculus avec la basse persistance est de prendre en compte la persistance rétinienne pour pouvoir avoir l’écran “quasi-éteint” entre deux frames, car le temps de passage d’un pixel de “quasi-éteint” à “allumé couleur X ou Y” est très faible.
Le
31/07/2014 à
15h
54
DUNplus a écrit :
Du coup. le noir sera moins noir, non ?
Sans doute, mais si on passe de 0,00% de luminosité minimale à 0,39% (1⁄256) je pense que la différence ne sautera pas aux yeux (dans tous les sens du terme).
Le
31/07/2014 à
15h
09
ErGo_404 a écrit :
j’espère. Sur Cardboard le problème c’est bien la persistance de l’image. Sur un mouvement rapide c’est pas très agréable et ça casse vite la “réalité virtuelle”.
Non, pour avoir le DK2, si l’application est bien compilée avec un SDK récent elle prendra la basse persistance en charge, limitant ainsi les effets de trainées et de flou dû au mouvement.
Il reste un problème, où les pixels totalement noirs mettent trop de temps à retourner à un état “allumé”, ce qui fait une trainée noire dans certaines applications (je ne l’ai constaté que dans une démo tierce), mais ça devrait être corrigé pour la prochaine version mineure du SDK (ou du driver) qui forcera les pixels à rester “allumés” à leur plus faible niveau.
Mais à part ça il n’y a quasiment rien à redire, les couleurs sont claires et les textes lisibles comparé au DK1.
Non, le plus gros problème de cet écran est l’alignement “Pentile” des pixels, qui dans certains cas se voit très distinctement, même si ça évite l’effet de grille de pixels ressenti avec le DK1 et son écran LCD 720p.
J’ai une Vita depuis plus d’un an et demie et je ne la regrette pas du tout, il y a beaucoup de très bons jeux dessus (malheureusement il faut la plupart du temps soit les importer, soit y jouer en anglais, soit les deux).
Ah, Sony.
Si ils pouvaient permettre de jouer aux jeux PS2 achetés sur PSN (en plus des jeux PSone), ça donnerait plus d’intérêt au truc.
Si ils filaient un adaptateur pour mettre des MicroSD à la place de leur carte mémoire propriétaire à la con, ça aiderait aussi.
Si ils vendaient de quoi utiliser la sortie vidéo, ça génèrerait plein de vidéos sur YouTube qui donneraient de la visibilité à la console et à ses jeux.
Si ils avaient prévu un lecteur externe pour les UMD de PSP, ça aurait poussé les possesseurs de PSP à migrer.
Si…
Avec des “si” on pourrait vendre des camions de Vita.
Il y a aussi que Oculus n’avait l’intention de sortir le Rift sur les nouvelles consoles à cause de leur trop faible puissance. Elles ne sont déjà pas capables de faire tourner les jeux qui en profiteraient en 30fps et 1080p, alors en 3D on n’en parle même pas…
Sony attendra peut-être la PS5 100% cloud " />
Le cloud gaming rajoute beaucoup trop de latence (compression/transmission/décompression) pour que la réalité virtuelle soit utilisable confortablement avec, et l’effet recherché de “présence” deviendrait un doux rêve.
Et la version commerciale du Rift devrait avoir un écran 1440p (EDIT: et une fréquence supérieure à 75Hz, ils viseraient le 90Hz), donc qui demanderait encore plus de puissance… Sony ne voudrait probablement pas sortir un produit inférieur à son concurrent direct au niveau de la résolution de la dalle, donc ils pourraient éventuellement faire de l’upscale suffisamment rapide dans la console ?
Et si il ne pouvait pas le faire sans violer la loi (ce qu’il soutient), il aurait “dû” ne pas le faire du tout et laisser le monde entier dans l’ignorance ?
À noter que l’auteur de l’enchère à $50,000 est “palmertech”, très vraisemblablement Palmer Luckey d’Oculus (c’est son pseudonyme sur le forum MTBS3D, où le Rift est “né”).
Bordel la limitation d’édition est vraiment la pire plaie de ce site surtout quand on fait plus de deux paragraphes, en plus j’ai l’impression que le délai a été raccourci et c’est pas ça qui va m’inciter à poster.
Heureusement que les journalistes peuvent éditer leurs articles pendant plus longtemps que nous, sinon ils seraient VRAIMENT FRUSTRÉS, hein ?
Je voulais donc rajouter :
On notera aussi à la toute fin de l’article :
“I’ve written 2 million lines of code over the past 20 years, and now I’m starting from a blank page,” Carmack says.
Le
23/05/2014 à
08h
49
Sur le subreddit oculus le problème est présenté différemment.
Dans la news :
Pourtant, ces 20 dernières années, John Carmack n’a travaillé qu’au sein d’idSoftware, pour le compte de ZeniMax, il est donc difficile de voir dans quelles autres circonstances Carmack aurait pu reprendre du code écrit dans « un ancien travail ».
Carmack est un bidouilleur sur son temps libre, et sur une vidéo (celle de l’E3 2012 de Kotaku ?) il disait avoir réutilisé (pour minimiser la latence du prototype) du code qu’il avait écrit pour Armadillo Aerospace (fondé par Carmack lui-même !) : il parlait peut-être d’un cas similaire dans son tweet, que Zenimax n’a en tous cas pas mis dans son contexte (réponses, tweets précédents/suivants, …).
Beaucoup de “preuves” du dossier sont à mourir de rire, notamment une photo où l’on voit Carmack et Palmer à l’E3 2012 et qui est utilisée pour “prouver” qu’Oculus ne serait rien sans Zenimax.
Ceux qui ont suivi l’historique du développement du Rift (avec toutes les itérations des prototypes de Palmer qu’il présentait sur le forum MTBS avant qu’il ne lance le Kickstarter) ont vu rouge quand ils ont lu la description de Zenimax, très éloignée de la réalité : Palmer était même avant le Kickstarter un expert de la réalité virtuelle, et possède la plus grande collection privée de casques VR au monde et travaillait pour l’armée sur des problématiques de “mixed reality” avant de fonder Oculus.
Il a un profil plutôt hardware que software, et c’est là que Carmack est intervenu (c’est lui qui a proposé de l’aide à Palmer, pas l’inverse).
Donc oui, le John est le parrain du projet depuis très longtemps, sans lui Oculus n’existerait probablement pas (en tant que société) mais ça ne signifie pas que ses contributions au projet en tant que personne privée (et pas en tant qu’employé) appartiennent à Zenimax.
Beaucoup de ses contributions étaient internes à Zenimax (comme le support pour D3) et à moins d’une preuve du contraire il n’a pas quitté l’entreprise avec.
Concernant les apports de Carmack, là aussi c’est dans une vidéo d’un E3, il expliquait que ses contributions pouvaient être du genre “appeler le fabricant de tel capteur pour lui demander un firmware modifié”.
Pour la pré-compensation de la distorsion, c’est un concept qui existait déjà avant, comme beaucoup d’éléments de la réalité virtuelle : c’est juste que maintenant, la technologie est suffisamment avancée pour permettre de les utiliser rapidement.
Et puis le code de transformation en question est tellement générique (Carmack l’a implémenté en une nuit sur Doom 3 BFG, donc sur son temps libre d’autant plus que le code est sous GPL) qu’il ne peut pas être considéré comme un secret de fabrication, sans compter que ledit code a été modifié au moins une fois depuis que Carmack a quitté iD, le plus récemment pour le SDK 0.3.1 (“modelling the distortion function using spline curves rather than polynomials”).
Aussi, tout le code d’Oculus est disponible dans le SDK et Zenimax n’a jamais indiqué quel fichier ou quelles lignes de code seraient “volées” : Carmack a déjà râlé sur le fait qu’il devait recoder tout ce qu’il avait fait pour la VR au sein d’iD.
Il y a 9 mois, une “source proche du dossier” avait posté plusieurs messages intéressants par rapport au départ de Carmack, nié par la direction d’iD :
Ce dernier cite comme exemple un employé qui avait fait sur son temps libre (hors de la société) un chapeau pour TF2 qui lui avait rapporté pas mal d’argent, et Zenimax aurait voulu l’attaquer en justice car aurait considéré que l’argent aurait dû lui revenir : quand on sait ça, ça donne un éclairage différent à toute cette histoire.
EDIT :
L’article de Wired donne un bon historique du projet et de l’implication de Carmack.
Je me rajoute à la liste de ceux qui ont cru à une blague lors de l’annonce, voyant les news via le flux RSS et pas via la homepage ça faisait partie des titres qui m’auront semblé les plus crétins tous sites confondus.
Curieux choix à une époque pleine de raccourcisseurs d’URL que de changer pour un nom de domaine encore plus long.
En plus de ça, je vais penser à chaque fois à l’expression anglaise “next in line” et je vais du coup associer ce site à des gens qui font la queue… ça ne va pas inciter mon inconscient à me faire venir ici plus souvent, mais peut-être que je suis le seul dans ce cas.
Comme le disaient d’autres plus haut, les domaines pour lesquels je suivais le site au début (bien avant de m’inscrire) ne sont plus aussi souvent représentés ici (quand ils le sont encore), mais j’ai compensé en diversifiant mes sources d’information.
Ce qui ne m’a pas empêché de m’abonner deux ans de suite ici pour encourager un travail journalistique indépendant qui manque cruellement dans ce pays.
Il est vrai qu’il faut évoluer pour survivre, mais des évolutions mal choisies peuvent aussi tuer et lorsque les mauvais effets se font sentir, beaucoup préfèrent orgueilleusement persévérer jusqu’à ce qu’il soit trop tard pour faire machine arrière.
Ce changement de nom me rappelle le renommage de nvchips-fr en 3dchips-fr pour accompagner leur élargissement du public ciblé… oh, ça a marché… pendant un temps.
Bien sûr ici le contexte est différent, et j’espère que vous vous en tirerez mieux qu’eux.
En bas de page on voit bien que le site appartient toujours à “PC INpact SARL” : est-ce que ce nom ou l’entité changera aussi ?
Au début je pensais qu’une nouvelle structure serait créée pour laisser mourir PC INpact et ses dettes, et ainsi repartir de zéro (vous ne seriez pas les premiers), mais le statut de presse en ligne a dû être donné à la structure actuelle donc ça compliquerait pas mal les choses, sans parler des abonnements.
Enfin.
La meilleure chose qu’on puisse faire est probablement de vous laisser le bénéfice du doute.
EDIT :
Du coup je passerai pour un ancêtre avec mon T-Shirt, mais je pourrai dire que “j’étais là”.
N’y a-t-il que moi qui ne comprend pas comment il peut évoquer des jeux Nintendo en parlant de démonstration des capacités techniques de la PS4 ? Ou alors j’ai loupé un truc (Non parce que si Sony émule des jeux Nintendo sur PS4, ça fait un peu désordre quand même " />)…
EDIT : Ce serait pas récent, la prise en charge des citations imbriquées ? En tout cas c’est propre. " />
L’élément principal de la phrase est le “existing games that are comparable to the environments he saw running”.
Donc en gros, le niveau de détail qu’on pourrait s’attendre à voir tourner de façon satisfaisante en VR sur PS4.
Le
28/03/2014 à
11h
26
coreylus a écrit :
Lien interressant :) (meme si l’on en apprend pas plus sur les capacités de la ps4 lorsqu’il s’agit d’afficher 2 images à la fois sur un écran 1080p)
Il y a un second post un peu plus bas dans le lien, où il dit entre autres :
From what he has seen privately, the PS4 is more than capable of producing beautiful, clean, immersive 2x1440p 90fps games for VR. When I asked him to list some existing games that are comparable to the environments he saw running privately running at a 2560x1440 resolution split across two screens (which I will henceforth refer to as 2x1440p) running at 90fps, he listed The Last of Us, Grand Theft Auto 5, Super Mario Galaxy, Wipeout HD Fury, Pikmin 3 and The Legend of Zelda: Wind Waker HD but added that these environments were rendered at much higher resolutions and with higher resolution textures leading the environments to actually look much crisper and more beautiful than they do in any of those aforementioned games, and they would blow people’s minds if demoed publically running at 2x1440p at 90fps off the PS4 because they truly achieve presence.
Le
28/03/2014 à
10h
45
coreylus a écrit :
Hors la ps4 ne pourra pas afficher 2 images à la fois sur cette résolution. (du moins pas les jeux aux graphismes triple A)
C’est peut-être du flan donc sortez vos pincettes non-euclidiennes, mais voilà des infos potentielles sur ce que la PS4 aurait dans le ventre :
(on pourrait imaginer que ça aboutisse à un standard utilisable par d’autres casques)
Le
28/03/2014 à
10h
37
BennJ a écrit :
Ah bon ils ont tué la société Oculus VR ? Ah au temps pour moi je pensais qu’ils leur avait donné 400 millions $ en cash (et 1.6 milliards en action FB) afin qu’ils puissent vraiment devenir un acteur important sur le marché…
Ils ont tué une partie de l’attrait du public de fans actuels envers cette solution.
Peut-être que leur nouvelle force de frappe médiatique leur permettra de toucher un plus large public qu’avant, c’est tout ce qu’on peut leur souhaiter.
En ce qui me concerne, j’avais préco un OR DK2 car je faisais quelques trucs du temps des mods Half-Life et la réalité virtuelle me semblait un bon prétexte pour retourner bidouiller pour un projet avec des outils que je n’ai jamais totalement abandonné.
Mais le rachat par FB me refroidit pas mal, pas d’un point de vue technique mais plutôt idéologique, donc j’hésite fortement à annuler ma précommande, et si Sony rend Morpheus utilisable sur PC (et ne conditionne pas la vente de DK à l’existence légale d’un studio de développement ou à un projet précédent déjà réalisé) je n’aurais aucun scrupule à prêter serment d’allégeance et à filer du pognon aux nippons, moi qui avais pourtant fortement soutenu Oculus jusqu’à son rachat.
Ou pour gagner du temps, je me servirais peut-être du DK2 pour mettre au point quelque chose qui serait rendu compatible Morpheus (exclusivement ?) par la suite.
Bref, j’attends d’avoir plus d’infos de chaque côté avant de savoir ce que je fais.
L’impact en terme d’image d’un rachat auprès de certains publics peut être désastreux à la fois envers l’acheteur et l’acheté, et cela pour une longue période.
En ce qui me concerne, je suis passé de fervent défenseur de ATI et AMD à acheteur exclusif d’Intel+nVidia à partir du moment où AMD a racheté ATI : je ne le leur ai jamais pardonné, même si techniquement et économiquement c’était le meilleur choix pour eux à l’époque.
J’imagine que Zuckerberg, Palmer et Iribe ont fait leur choix en prenant en compte cet élément.
Ouais enfin le porte-monnaie hors-ligne… vu qu’il récupère toute la blockchain, qu’il y en a pour plusieurs Go (actuellement plus de 3 Go pour Doge) et que ça ne fera que grossir avec le temps… ça pourra vite se révéler peu pratique.
Je dirais que l’importance du dématérialisé pour la Vita tient aussi au fait que nombre de bons jeux sont introuvables en version physique dans la grande distribution, y compris Fnac et Micromania, car pas de VF, marché de niche, …
En version 64bits, il y a toujours Waterfox (http://www.waterfoxproject.org/ ) Même si il a parfois une ou 2 revisions de retard, il reste quand même appréciable sur les machines 64bits
Cyberfox est plus à jour, c’est celui que j’utilise.
Parcequ’il ne sert plus à rien si ce n’est à remplir le disque dur en copiant ce qu’il y a sur le BR. En gros aujourd’hui ça sert à peu près uniquement à éviter de passer des dizaines d’heures à télécharger un jeu avec une petit connexion.
…le disque optique sert aussi à pouvoir être revendu, chose impossible avec le même jeu “en version numérique”, ne l’oublions pas.
Après avoir testé Virgin et B&You, je suis aussi passé sur Joe et je pense y rester.
Je confirme que c’est pas mal, pour la personnalisation du forfait tout comme pour la qualité du réseau (qui n’est parfaite chez aucun des trois mais bon…).
GMail a tellement bâtardisé les standards qu’interroger correctement sa boîte et son agenda en IMAP+iCal peut être un parcours non trivial notamment avec Thunderbird.
Mais même au-delà de ça, on pourrait citer par exemple le fait que les dossiers soient remplacés par des étiquettes (avec la possibilité d’avoir plusieurs étiquettes sur le même mail, donc côté IMAP ça se traduit par un même mail dans plusieurs dossiers différents)…
Si Microsoft a fait un outil complet de migration, j’espère qu’il migre également les règles de tri (là aussi en prenant en compte les libertés prises par Google), car c’est un point important pour les personnes très organisées.
Bref, de mon point de vue Google a ces dernières années fait bien plus de mal aux standards de messagerie que Microsoft.
On pourrait rétorquer que eux au moins ont tenté quelque chose tandis que Microsoft n’avait rien fait, certes, mais quand on détourne des fonctions et qu’on se présente comme un exemple d’interopérabilité on assume jusqu’au bout et on propose un autre standard.
Mon entreprise a migré d’Exchange vers Google Apps il y a quelques années, car le PDG de l’époque était un fanboy de Google et voulait leur montrer sa soumission (du moins c’est comme ça que je l’ai ressenti), car on travaille beaucoup avec eux pour les solutions publicitaires.
Pour gérer la migration on n’a vu que des gens d’une SSII qui bossait pour Google, d’après mes souvenirs ça suintait parfois l’arrogance du genre “regardez on est partenaires avec eux, donc on est indirectement les maîtres du monde”.
Pour la migration nous avons utilisé des outils Google pour interroger la base Exchange interne… et ça prenait un temps fou, du genre un mail par seconde, sur plus de 100 boîtes contenant en moyenne chacune des milliers de mails ça a pris plusieurs semaines (y compris en parallélisant les process).
La lenteur venait du rythme d’enregistrement des mails côté Google… peut-être était-ce dû à l’indexation des mails ?
Avant la migration GApps je me souviens avoir rédigé une liste de questions qui était parvenue jusqu’à des techniciens de chez Google vu que la SSII ne savait pas y répondre, et leurs réponses étaient dans le ton “mais pourquoi vous posez ce genre de questions ? faites-nous confiance on est Google, vous savez, don’t be evil et tout ! si vous avez des problèmes c’est que vous les méritez vu que vous ne suivez pas la philosophie de nos outils” en esquivant comme des anguilles pas mal de points techniques ou en répondant “ce point est corrigé depuis quelques semaines ou le sera prochainement” sur d’autres.
Là (suite à un changement de PDG) on se tâte pour passer sur Exchange Online car Microsoft peut proposer des tarifs plus bas lorsqu’il s’agit pour eux de reprendre des clients à Google, et ils nous ont assuré qu’ils avaient les outils pour récupérer les mails sans encombre.
Comme leur campagne “Scroogled” le montre bien ils sont entrés en guerre contre Google et sont prêts à y laisser des plumes sur le court terme et à fournir des services auxquels on ne pourrait même pas penser avec Google.
Là c’était direct des gens de Microsoft qui se déplaçaient avec une approche de fournisseurs de service donc ça donnait l’impression d’être un peu mieux considérés et d’avoir des interlocuteurs plus ouverts.
Ils étaient plus rassurants également au niveau des pays où peuvent être stockés les mails, alors qu’avec GApps et la SSII les réponses étaient plutôt du genre “vos questions sont stupides et vous êtes paranoïaques” (c’était bien avant les leaks de Snowden, rétrospectivement j’étais pas si parano que ça).
flagos_ :
Peut-être que tu ne vois par de quoi il parle parce que tu n’as pas été dans son cas, ce qui n’enlève rien à la véracité de ses propos.
Si tu as du temps à perdre, je crois me souvenir d’un certain nombre de news sur ce site indiquant le travail de sape ou simplement de mépris de la part de Google par rapport aux plate-formes mobiles de Microsoft.
Ça dépendra des programmes, des candidats, de leur passif et de celui de leur parti.
…pas de leurs électeurs typiques, sinon ça limiterait encore plus les choix.
Idéologiquement je suis plutôt “vert centriste” mais aux dernières élections j’ai voté pour le nerveux du Front de Gauche.
Le
10/12/2013 à
20h
17
Les politiques ont choisi, mais n’ont pas été élus pour faire ces choix.
Si on voulait des décisions stupides on n’avait qu’à redonner 5 ans au gouvernement précédent, ou même voter pour certains partis qui au moins en mettant en place de la merde auraient été en phase avec leurs idées… on aurait moins eu l’impression de se faire mettre par des menteurs qui enlèvent leur masque une fois que la confiance du peuple leur est accordée.
Le
10/12/2013 à
20h
04
Je suis furieux, et je me souviendrai de cet épisode lorsqu’on me demandera de voter au cours des années à venir.
Quand j’étais jeune je récupérais de la musique via des moyens peu recommandables (le chat et la mule), et j’achetais des CD avec mon argent de poche lorsque j’aimais : c’était un investissement important, financièrement comme émotionnellement.
Puis mes ressources ont augmenté, et j’ai acheté ce qui me manquait de cette période.
Mais mon temps libre a évolué dans le sens inverse, ce qui a fait que je pouvais très bien vivre sur mes achats passés : quand on a des centaines de CD on peut en prendre un au hasard et redécouvrir des choses non-écoutées depuis 10 ans, et ce que j’entends des productions actuelles ne me donne pas spécialement envie d’en savoir plus.
Ouais, quand je serai vieux je grommèlerai sans doute aux jeunots que rien ne surpassera jamais Aphex Twin.
Me passer de radio et de télé m’a aussi coupé de beaucoup de potentielles envies, même si Nolife m’aura fait acheter une certaine quantité de musique Japonaise.
Du coup maintenant je ne pirate plus, et je n’achète plus sauf exceptions, genre nouveau CD de groupe que je suivais depuis longtemps ou OST de jeu vidéo.
Est-ce à dire que j’achèterais plus si je repiratais ?
Peut-être… mais j’en doute, car pour moi “moins de piratage et moins d’achats” reste une conséquence logique de “plus d’argent mais moins de temps pour en profiter”.
288 commentaires
Hatred est de retour sur Steam Greenlight
17/12/2014
Le 17/12/2014 à 11h 27
Je suis d’un naturel tout à fait non-violent (ce qui ne m’empêche pas de jouer aux jeux dits “violents” mais qui ne le sont pas tant que ça psychologiquement) et la violence gratuite est quelque chose que j’exècre, mais c’est justement pour ça que je suis “pour” ce jeu (ou, du moins, contre son éviction).
Plutôt que de banaliser la destruction de vies (même de façon fictive), ici l’horreur, le caractère irréversible et l’absurdité de l’acte sont mis en avant : ça remettrait les choses à leur place, dans le contexte d’un personnage qui devient totalement cinglé.
Les intentions prêtées aux développeurs m’importent peu, d’autant plus que rien ne les empêche de faire des raisonnements par l’absurde sans prévenir lors de leurs interventions.
Dire des énormités exprès en se disant “le public comprendra la vraie intention” ne marche pas souvent, si c’est ce qu’ils font, mais faut-il se baser sur la frange du public qui réagit au quart de tour sans se poser la moindre question ?
Je préfère juger le produit fini directement, sans les filtres de gardiens autoproclamés de la morale (qu’ils soient politiciens, éditeurs, journalistes, blogueurs ou résidents de twitter/tumblr) ou de fans inconditionnels de tout ce qui choque parce que c’est “edgy”.
Ça me fait penser au procès d’intention faits aux métalleux… qui, en me basant sur ceux que j’ai connu, ont une philosophie bien plus humaniste que ceux qui les considèrent (eux et les groupes qu’ils écoutent) comme des ennemis de la morale à faire taire.
Chapeau bas, Gaby.
L’Élysée va consacrer 520 000 euros à la sécurisation de ses systèmes informatiques
02/12/2014
Le 02/12/2014 à 12h 52
Certes, mon cerveau a sauté un circuit logique.
50k€ net c’est beaucoup, mais dans le cas de professionnels de la sécurité ça me semble toujours acceptable.
Le 02/12/2014 à 12h 49
J’ajoute que ce genre de “dépense” de la part de l’Etat ne rend pas service à la sécurité informatique ou aux départements informatiques des entreprises du pays, qui vont se prendre lors de leurs budgets prévisionnels des réflexions de ce type :
“Eh l’IT, vous êtes bien sympas mais vous demandez 104k€ de salaires et matos là… alors que l’Etat pour sécuriser leur SI ils n’ont eu besoin que de 520k€… nous on est 150, et l’Etat ils sont beaucoup plus que 750 !
Revenez nous voir avec un budget un peu plus proportionnel à la réalité ou on externalise tout !”
J’exagère à peine.
Le 02/12/2014 à 12h 40
Pour les tarifs des VRTX je me suis basé sur ce que Dell nous a facturé avec des licences VMWare “moyennes”, en bénéficiant de réductions par rapport au prix public.
Pour le tarif de l’intranet, j’ai bien précisé “surfacturé” car c’est encore ce que les SSII savent faire de mieux (oui je trolle et ce n’est pas une généralité, mais quand même).
Pour les salaires des admins, ~200K€ pour deux (coût employeur) font du ~50k€ brut/an par personne, ce qui pour des “bons” ne me paraît pas incroyable (pour des prestas de SSII ça serait bien plus cher en effet).
Le coût d’investissement ici est le matos et les prestations de service initiales, celui de fonctionnement les admins qui s’occuperaient de la maintenance et du support.
Dans le cas de deux VRTX, ça ne coûterait pas très cher en électricité et je suppose qu’ils ont déjà une liaison fibre et l’équipement réseau qui va avec.
Le 02/12/2014 à 11h 48
Les sommes sont ridicules vu l’objectif.
>des « projets ciblés sur la sécurité des systèmes d’information,
pour 520 000 euros dont 206 000 euros pour l’intranet sécurisé et 100
000 euros pour le data centre »,
100k le datacenter… euh, “lol” ?
Enfin, datacenter est un terme vague qui peut désigner un bâtiment complet, une salle ou même un équipement (Dell appelle ses VRTX des Datacenter…).
Peut-être qu’ils ont acheté deux VRTX bien remplis, qu’ils vont les mettre dans une armoire fermée à clef et qu’ils appellent ça “datacenter”, qui sait.
206k pour l’intranet, ça sent la presta surfacturée de SSII où un stagiaire leur installera un Windows Server avec des partages et un portail web basique et où deux autres types passeront derrière pour gérer les sauvegardes et la supervision.
Il reste donc ~200k€… soit deux “bons” admins en CDD d’un an pour le reste.
Je me répète peut-être, mais vu l’objectif c’est ridicule.
Au ministère de la Culture, inquiétudes autour du marché de l’occasion numérique
17/11/2014
Le 17/11/2014 à 11h 19
Alors pourquoi n’autoriseraient-ils pas la revente si l’œuvre n’est plus disponible légalement même dématérialisée ?
Les plate-formes de vente en ligne ne sont pas éternelles, et quand elles durent ce sont les contrats qui les lient avec les ayant-droits qui peuvent cesser et ainsi empêcher toute commercialisation future (et par là je pense aussi aux jeux vidéo sur Steam).
OpenBSD passe en version 5.6 et intègre LibreSSL
03/11/2014
Le 03/11/2014 à 10h 38
Au moins avec eux on est à l’abri de saloperies comme systemd !
Des milliers de cinémas américains interdisent les « Google Glass »
30/10/2014
Le 30/10/2014 à 09h 55
Je pense que pour une fois ils préparent l’avenir au lieu de réagir avec 10 ans de retard.
Il ne me semble pas totalement improbable que dans la décennie qui vient un produit de type Google Glass permette avec la bonne application d’enregistrer intégralement un film en relativement bonne qualité et avec un traitement de stabilisation de l’image en temps réel.
Windows 10 : Microsoft présente le futur de sa plateforme logicielle
30/09/2014
Le 30/09/2014 à 19h 22
Le 30/09/2014 à 19h 14
[MàJ] NVIDIA publie ses pilotes GeForce 344.16 WHQL pour GeForce GTX 900
22/09/2014
Le 22/09/2014 à 11h 51
Le 22/09/2014 à 10h 10
Le 19/09/2014 à 19h 09
Google va favoriser les sites accessibles en HTTPS dans ses résultats
07/08/2014
Le 08/08/2014 à 10h 37
Crytek cède Homefront et son studio de Birmingham à Koch Media
04/08/2014
Le 04/08/2014 à 12h 23
Le numérique parmi les priorités du gouvernement pour la rentrée
04/08/2014
Le 04/08/2014 à 12h 04
La Chine bannit Symantec et Kaspersky de ses administrations
04/08/2014
Le 04/08/2014 à 11h 54
Pour ce qui est des anti-virus Européens, il y a aussi ESET (NOD32) qui est basé en Slovaquie
Le langage PHP passera directement de la version 5.6 à la 7
01/08/2014
Le 01/08/2014 à 20h 52
Je plussoie pour l’utilisation du Perl pour les traitements de flux.
Et en parlant de Perl :
PHP 6 a été un échec ; Perl 6 a été un échec.
Ça c’est du troll bien poilu, les deux ont eu des problèmes faisant qu’aucun des deux n’est actuellement disponible en version finale malgré une très longue gestation, mais pas pour les mêmes raisons : pour PHP 6 personne n’arrivait à se mettre d’accord, et pour Perl6 c’est juste que les différentes implémentations mettent un temps incroyable à sortir et que certaines meurent même en cours de route (mais le bout du tunnel se rapproche).
Non, quand Perl6 sortira, ça sera bien. J’y crois.
Il faudra juste beaucoup de pédagogie pour expliquer aux gens sans les faire fuir que l’impératif et les héritages du shell cohabitent maintenant avec de l’objet (ouais bon y’a Moose en Perl5, mais déjà inspiré de l’implémentation Perl6) et du fonctionnel, et qui pourra aussi être mélangé à du code d’autres langages (Ruby/Python/JS/…) grâce aux possibilités de la machine virtuelle.
Je suis certain qu’on pourra repousser encore plus loin les limites de l’illisible avec tout ça, et ainsi passer pour de vrais magiciens auprès des non-initiés, et accessoirement pondre du code qu’on ne saura plus comprendre 2 heures plus tard.
iFixit démonte l’Oculus Rift DK2 et y trouve… un morceau de Galaxy Note 3
31/07/2014
Le 31/07/2014 à 16h 26
Le 31/07/2014 à 16h 07
Le 31/07/2014 à 15h 54
Le 31/07/2014 à 15h 09
Chris Beard est officiellement le nouveau PDG de Mozilla
29/07/2014
Le 29/07/2014 à 09h 12
Sony proposera moins de contenus maison sur PS Vita
19/06/2014
Le 19/06/2014 à 13h 52
J’ai une Vita depuis plus d’un an et demie et je ne la regrette pas du tout, il y a beaucoup de très bons jeux dessus (malheureusement il faut la plupart du temps soit les importer, soit y jouer en anglais, soit les deux).
Ah, Sony.
Si ils pouvaient permettre de jouer aux jeux PS2 achetés sur PSN (en plus des jeux PSone), ça donnerait plus d’intérêt au truc.
Si ils filaient un adaptateur pour mettre des MicroSD à la place de leur carte mémoire propriétaire à la con, ça aiderait aussi.
Si ils vendaient de quoi utiliser la sortie vidéo, ça génèrerait plein de vidéos sur YouTube qui donneraient de la visibilité à la console et à ses jeux.
Si ils avaient prévu un lecteur externe pour les UMD de PSP, ça aurait poussé les possesseurs de PSP à migrer.
Si…
Avec des “si” on pourrait vendre des camions de Vita.
Sony ne veut pas précipiter le lancement de Morpheus
18/06/2014
Le 19/06/2014 à 10h 27
Al Gore : Edward Snowden a « rendu un important service »
12/06/2014
Le 12/06/2014 à 12h 11
Nintendo transfère son siège européen et licencie 130 personnes
09/06/2014
Le 09/06/2014 à 19h 58
Voilà qui n’aidera pas à la sortie de Shin Megami Tensei IV (3DS) en Europe (oui, certains y croient encore…).
QNAP : le QTS 4.1 est disponible, pour les NAS à partir des TS-x10
09/06/2014
Le 09/06/2014 à 19h 27
Je confirme que ce n’est pas le “premier” 4.1.
Mon firmware 4.1.0 sur TS-419P II date… du 19 Décembre 2013.
La plus grande collection de jeux vidéo au monde est mise aux enchères
06/06/2014
Le 06/06/2014 à 15h 09
À noter que l’auteur de l’enchère à $50,000 est “palmertech”, très vraisemblablement Palmer Luckey d’Oculus (c’est son pseudonyme sur le forum MTBS3D, où le Rift est “né”).
ZeniMax tente le tout pour le tout et poursuit Oculus VR en justice
22/05/2014
Le 23/05/2014 à 08h 57
Bordel la limitation d’édition est vraiment la pire plaie de ce site surtout quand on fait plus de deux paragraphes, en plus j’ai l’impression que le délai a été raccourci et c’est pas ça qui va m’inciter à poster.
Heureusement que les journalistes peuvent éditer leurs articles pendant plus longtemps que nous, sinon ils seraient VRAIMENT FRUSTRÉS, hein ?
Je voulais donc rajouter :
On notera aussi à la toute fin de l’article :
“I’ve written 2 million lines of code over the past 20 years, and now I’m starting from a blank page,” Carmack says.
Le 23/05/2014 à 08h 49
Sur le subreddit oculus le problème est présenté différemment.
Dans la news :
Pourtant, ces 20 dernières années, John Carmack n’a travaillé qu’au sein d’idSoftware, pour le compte de ZeniMax, il est donc difficile de voir dans quelles autres circonstances Carmack aurait pu reprendre du code écrit dans « un ancien travail ».
Carmack est un bidouilleur sur son temps libre, et sur une vidéo (celle de l’E3 2012 de Kotaku ?) il disait avoir réutilisé (pour minimiser la latence du prototype) du code qu’il avait écrit pour Armadillo Aerospace (fondé par Carmack lui-même !) : il parlait peut-être d’un cas similaire dans son tweet, que Zenimax n’a en tous cas pas mis dans son contexte (réponses, tweets précédents/suivants, …).
Beaucoup de “preuves” du dossier sont à mourir de rire, notamment une photo où l’on voit Carmack et Palmer à l’E3 2012 et qui est utilisée pour “prouver” qu’Oculus ne serait rien sans Zenimax.
Ceux qui ont suivi l’historique du développement du Rift (avec toutes les itérations des prototypes de Palmer qu’il présentait sur le forum MTBS avant qu’il ne lance le Kickstarter) ont vu rouge quand ils ont lu la description de Zenimax, très éloignée de la réalité : Palmer était même avant le Kickstarter un expert de la réalité virtuelle, et possède la plus grande collection privée de casques VR au monde et travaillait pour l’armée sur des problématiques de “mixed reality” avant de fonder Oculus.
Il a un profil plutôt hardware que software, et c’est là que Carmack est intervenu (c’est lui qui a proposé de l’aide à Palmer, pas l’inverse).
Donc oui, le John est le parrain du projet depuis très longtemps, sans lui Oculus n’existerait probablement pas (en tant que société) mais ça ne signifie pas que ses contributions au projet en tant que personne privée (et pas en tant qu’employé) appartiennent à Zenimax.
Beaucoup de ses contributions étaient internes à Zenimax (comme le support pour D3) et à moins d’une preuve du contraire il n’a pas quitté l’entreprise avec.
Concernant les apports de Carmack, là aussi c’est dans une vidéo d’un E3, il expliquait que ses contributions pouvaient être du genre “appeler le fabricant de tel capteur pour lui demander un firmware modifié”.
Pour la pré-compensation de la distorsion, c’est un concept qui existait déjà avant, comme beaucoup d’éléments de la réalité virtuelle : c’est juste que maintenant, la technologie est suffisamment avancée pour permettre de les utiliser rapidement.
Et puis le code de transformation en question est tellement générique (Carmack l’a implémenté en une nuit sur Doom 3 BFG, donc sur son temps libre d’autant plus que le code est sous GPL) qu’il ne peut pas être considéré comme un secret de fabrication, sans compter que ledit code a été modifié au moins une fois depuis que Carmack a quitté iD, le plus récemment pour le SDK 0.3.1 (“modelling the distortion function using spline curves rather than polynomials”).
Aussi, tout le code d’Oculus est disponible dans le SDK et Zenimax n’a jamais indiqué quel fichier ou quelles lignes de code seraient “volées” : Carmack a déjà râlé sur le fait qu’il devait recoder tout ce qu’il avait fait pour la VR au sein d’iD.
Il y a 9 mois, une “source proche du dossier” avait posté plusieurs messages intéressants par rapport au départ de Carmack, nié par la direction d’iD :
http://www.reddit.com/user/carmack-info-throw
Puis plus récemment, quelqu’un de chez iD qui critique ouvertement Zenimax !
http://www.reddit.com/user/throwaway_zeni
Ce dernier cite comme exemple un employé qui avait fait sur son temps libre (hors de la société) un chapeau pour TF2 qui lui avait rapporté pas mal d’argent, et Zenimax aurait voulu l’attaquer en justice car aurait considéré que l’argent aurait dû lui revenir : quand on sait ça, ça donne un éclairage différent à toute cette histoire.
EDIT :
L’article de Wired donne un bon historique du projet et de l’implication de Carmack.
Next INpact : la transition s’achève, mettez à jour vos flux, favoris… et Adblock
23/04/2014
Le 23/04/2014 à 11h 38
Je me rajoute à la liste de ceux qui ont cru à une blague lors de l’annonce, voyant les news via le flux RSS et pas via la homepage ça faisait partie des titres qui m’auront semblé les plus crétins tous sites confondus.
Curieux choix à une époque pleine de raccourcisseurs d’URL que de changer pour un nom de domaine encore plus long.
En plus de ça, je vais penser à chaque fois à l’expression anglaise “next in line” et je vais du coup associer ce site à des gens qui font la queue… ça ne va pas inciter mon inconscient à me faire venir ici plus souvent, mais peut-être que je suis le seul dans ce cas.
Comme le disaient d’autres plus haut, les domaines pour lesquels je suivais le site au début (bien avant de m’inscrire) ne sont plus aussi souvent représentés ici (quand ils le sont encore), mais j’ai compensé en diversifiant mes sources d’information.
Ce qui ne m’a pas empêché de m’abonner deux ans de suite ici pour encourager un travail journalistique indépendant qui manque cruellement dans ce pays.
Il est vrai qu’il faut évoluer pour survivre, mais des évolutions mal choisies peuvent aussi tuer et lorsque les mauvais effets se font sentir, beaucoup préfèrent orgueilleusement persévérer jusqu’à ce qu’il soit trop tard pour faire machine arrière.
Ce changement de nom me rappelle le renommage de nvchips-fr en 3dchips-fr pour accompagner leur élargissement du public ciblé… oh, ça a marché… pendant un temps.
Bien sûr ici le contexte est différent, et j’espère que vous vous en tirerez mieux qu’eux.
En bas de page on voit bien que le site appartient toujours à “PC INpact SARL” : est-ce que ce nom ou l’entité changera aussi ?
Au début je pensais qu’une nouvelle structure serait créée pour laisser mourir PC INpact et ses dettes, et ainsi repartir de zéro (vous ne seriez pas les premiers), mais le statut de presse en ligne a dû être donné à la structure actuelle donc ça compliquerait pas mal les choses, sans parler des abonnements.
Enfin.
La meilleure chose qu’on puisse faire est probablement de vous laisser le bénéfice du doute.
EDIT :
Du coup je passerai pour un ancêtre avec mon T-Shirt, mais je pourrai dire que “j’étais là”.
Sony : Morpheus est plus populaire auprès des indés que des grands studios
28/03/2014
Le 31/03/2014 à 19h 49
Le 28/03/2014 à 11h 26
Le 28/03/2014 à 10h 45
Le 28/03/2014 à 10h 37
Crypto-monnaies : CoinEx fait face à un problème de sécurité
17/03/2014
Le 17/03/2014 à 08h 03
Ouais enfin le porte-monnaie hors-ligne… vu qu’il récupère toute la blockchain, qu’il y en a pour plusieurs Go (actuellement plus de 3 Go pour Doge) et que ça ne fera que grossir avec le temps… ça pourra vite se révéler peu pratique.
Le Remote play ne fait pas recette sur PS Vita
12/02/2014
Le 12/02/2014 à 11h 52
Je dirais que l’importance du dématérialisé pour la Vita tient aussi au fait que nombre de bons jeux sont introuvables en version physique dans la grande distribution, y compris Fnac et Micromania, car pas de VF, marché de niche, …
Le Geeksphone Revolution a un prix : à partir de 269 euros
11/02/2014
Le 12/02/2014 à 08h 31
Mais pas de 4G/LTE… ça pourrait en refroidir plus d’un.
John Carmack a quitté id Software, faute de soutien sur la réalité virtuelle
05/02/2014
Le 05/02/2014 à 14h 03
Mais où en est exactement la version 64 bits de Firefox pour Windows ?
09/01/2014
Le 09/01/2014 à 13h 54
L’inventeur de l’écran de la 3DS touchera 1,82 % sur chaque console vendue
07/01/2014
Le 07/01/2014 à 12h 22
La Xbox One a failli naître sans lecteur de Blu-ray
02/01/2014
Le 03/01/2014 à 08h 49
Joe Mobile va rapidement modifier ses offres et lancera la 4G cette année
02/01/2014
Le 02/01/2014 à 11h 02
Après avoir testé Virgin et B&You, je suis aussi passé sur Joe et je pense y rester.
Je confirme que c’est pas mal, pour la personnalisation du forfait tout comme pour la qualité du réseau (qui n’est parfaite chez aucun des trois mais bon…).
Microsoft dégaine un outil permettant de migrer de Gmail à Outlook.com
12/12/2013
Le 12/12/2013 à 21h 32
GMail a tellement bâtardisé les standards qu’interroger correctement sa boîte et son agenda en IMAP+iCal peut être un parcours non trivial notamment avec Thunderbird.
Mais même au-delà de ça, on pourrait citer par exemple le fait que les dossiers soient remplacés par des étiquettes (avec la possibilité d’avoir plusieurs étiquettes sur le même mail, donc côté IMAP ça se traduit par un même mail dans plusieurs dossiers différents)…
Si Microsoft a fait un outil complet de migration, j’espère qu’il migre également les règles de tri (là aussi en prenant en compte les libertés prises par Google), car c’est un point important pour les personnes très organisées.
Bref, de mon point de vue Google a ces dernières années fait bien plus de mal aux standards de messagerie que Microsoft.
On pourrait rétorquer que eux au moins ont tenté quelque chose tandis que Microsoft n’avait rien fait, certes, mais quand on détourne des fonctions et qu’on se présente comme un exemple d’interopérabilité on assume jusqu’au bout et on propose un autre standard.
Mon entreprise a migré d’Exchange vers Google Apps il y a quelques années, car le PDG de l’époque était un fanboy de Google et voulait leur montrer sa soumission (du moins c’est comme ça que je l’ai ressenti), car on travaille beaucoup avec eux pour les solutions publicitaires.
Pour gérer la migration on n’a vu que des gens d’une SSII qui bossait pour Google, d’après mes souvenirs ça suintait parfois l’arrogance du genre “regardez on est partenaires avec eux, donc on est indirectement les maîtres du monde”.
Pour la migration nous avons utilisé des outils Google pour interroger la base Exchange interne… et ça prenait un temps fou, du genre un mail par seconde, sur plus de 100 boîtes contenant en moyenne chacune des milliers de mails ça a pris plusieurs semaines (y compris en parallélisant les process).
La lenteur venait du rythme d’enregistrement des mails côté Google… peut-être était-ce dû à l’indexation des mails ?
Avant la migration GApps je me souviens avoir rédigé une liste de questions qui était parvenue jusqu’à des techniciens de chez Google vu que la SSII ne savait pas y répondre, et leurs réponses étaient dans le ton “mais pourquoi vous posez ce genre de questions ? faites-nous confiance on est Google, vous savez, don’t be evil et tout ! si vous avez des problèmes c’est que vous les méritez vu que vous ne suivez pas la philosophie de nos outils” en esquivant comme des anguilles pas mal de points techniques ou en répondant “ce point est corrigé depuis quelques semaines ou le sera prochainement” sur d’autres.
Là (suite à un changement de PDG) on se tâte pour passer sur Exchange Online car Microsoft peut proposer des tarifs plus bas lorsqu’il s’agit pour eux de reprendre des clients à Google, et ils nous ont assuré qu’ils avaient les outils pour récupérer les mails sans encombre.
Comme leur campagne “Scroogled” le montre bien ils sont entrés en guerre contre Google et sont prêts à y laisser des plumes sur le court terme et à fournir des services auxquels on ne pourrait même pas penser avec Google.
Là c’était direct des gens de Microsoft qui se déplaçaient avec une approche de fournisseurs de service donc ça donnait l’impression d’être un peu mieux considérés et d’avoir des interlocuteurs plus ouverts.
Ils étaient plus rassurants également au niveau des pays où peuvent être stockés les mails, alors qu’avec GApps et la SSII les réponses étaient plutôt du genre “vos questions sont stupides et vous êtes paranoïaques” (c’était bien avant les leaks de Snowden, rétrospectivement j’étais pas si parano que ça).
flagos_ :
Peut-être que tu ne vois par de quoi il parle parce que tu n’as pas été dans son cas, ce qui n’enlève rien à la véracité de ses propos.
Si tu as du temps à perdre, je crois me souvenir d’un certain nombre de news sur ce site indiquant le travail de sape ou simplement de mépris de la part de Google par rapport aux plate-formes mobiles de Microsoft.
Surveillance d’Internet : le Sénat vote conforme l’article 13
10/12/2013
Le 11/12/2013 à 08h 02
Le 10/12/2013 à 20h 43
Le 10/12/2013 à 20h 17
Les politiques ont choisi, mais n’ont pas été élus pour faire ces choix.
Si on voulait des décisions stupides on n’avait qu’à redonner 5 ans au gouvernement précédent, ou même voter pour certains partis qui au moins en mettant en place de la merde auraient été en phase avec leurs idées… on aurait moins eu l’impression de se faire mettre par des menteurs qui enlèvent leur masque une fois que la confiance du peuple leur est accordée.
Le 10/12/2013 à 20h 04
Je suis furieux, et je me souviendrai de cet épisode lorsqu’on me demandera de voter au cours des années à venir.
La Hadopi veut savoir si les « pirates » dépensent plus que les autres
10/12/2013
Le 10/12/2013 à 11h 23
Quand j’étais jeune je récupérais de la musique via des moyens peu recommandables (le chat et la mule), et j’achetais des CD avec mon argent de poche lorsque j’aimais : c’était un investissement important, financièrement comme émotionnellement.
Puis mes ressources ont augmenté, et j’ai acheté ce qui me manquait de cette période.
Mais mon temps libre a évolué dans le sens inverse, ce qui a fait que je pouvais très bien vivre sur mes achats passés : quand on a des centaines de CD on peut en prendre un au hasard et redécouvrir des choses non-écoutées depuis 10 ans, et ce que j’entends des productions actuelles ne me donne pas spécialement envie d’en savoir plus.
Ouais, quand je serai vieux je grommèlerai sans doute aux jeunots que rien ne surpassera jamais Aphex Twin.
Me passer de radio et de télé m’a aussi coupé de beaucoup de potentielles envies, même si Nolife m’aura fait acheter une certaine quantité de musique Japonaise.
Du coup maintenant je ne pirate plus, et je n’achète plus sauf exceptions, genre nouveau CD de groupe que je suivais depuis longtemps ou OST de jeu vidéo.
Est-ce à dire que j’achèterais plus si je repiratais ?
Peut-être… mais j’en doute, car pour moi “moins de piratage et moins d’achats” reste une conséquence logique de “plus d’argent mais moins de temps pour en profiter”.
(bon par contre niveau Steam… ahem)