votre avatar

NeoSlaaV

est avec nous depuis le 6 décembre 2012 ❤️

21 commentaires

Le 27/08/2015 à 06h 59

T’es rageux un peu non ? ;)



Je confirme que techniquement, la quasi totalité des jeux mobiles c’est pas bien complexe… Les liens pour faire des jeux 2d existent (sdl, box2d et hop !). La difficulté c’est plutôt de trouver une bonne idée, un style graphique attractif, et se faire remarquer suffisamment sur les store et autres réseaux.



Et angry bird, faut arrêter, y’a 15 ans il y avait des jeux plus poussés sur ma calculette. Pour l’instant je trouve que le vrai problème des jeux mobiles c’est que ça n’atteint souvent meme pas le niveau d’un game&watch. À quand de vrais jeux mobiles à 20/30€ sur le store qui pourraient concurrencer les jeux de console portable ? (pas du freemium quoi)

Le 07/07/2014 à 10h 16

UT 2k4 n’était pas absolument pas lent en terme de mobilité..

Le 06/06/2014 à 14h 35

Un nouveau CoD/bf sort, toute la communauté abandonne le jeu précédent, qui se retrouve complètement dépeuplé.



Du coup jamais une communauté un peu compétitive ne pourra se former (comme sur un cs 1.6, un quake ou un ut2k4 histoire de garder le meilleur pour la fin), car à peine tu as fini de grinder les niveaux et poser des stratégies que le jeu suivant est déjà sorti…

Le 06/06/2014 à 12h 53

ouais mais ahceté sur un site tiers, un jeu valant le prix d’un jeu console vaut la moitié du prix sur pc. Utiliser des sites tiers baisses le prix dans tous les cas, ca ne change pas que tu payes.

11 mois de durée de vie pour un jeu multi, ca ressemble fortement au business model de CoD, avec un jeu par an, copié/collé du précédent modulo les 2h de campagne solo.

Bref, business model vache à lait.

Le 06/06/2014 à 12h 45







Reparateur a écrit :



a ben je croyais que ça serais un DLC pour BF4 (BF3.5)



un peut déçu du coups



ils leur reste à présenter les dernier DLC de BF4

et surement BF5 (BF4.5)







Perso j’espère sincèrement que ce sera un DLC à BF4. BF4 est sorti sur PC le 31/10/2013, soit il y a tout juste 7 mois. Et pour peu que l’on prenne le pack complet du jeu, c’est loin d’être donné comme jeu. Si ils sortent hardline le 21 octobre, ca fait qu’il y aura eu moins d’un an entre deux versions de bf.



Et bien que j’aime beaucoup cette série, pour moi c’est impensable, si c’est un nouveau jeu, je ferai l’impasse.


Le 25/04/2014 à 12h 50







Hive a écrit :



Quoi!? C’est pas aussi simple que deux pots de yaourts et un fil ?







Pour le fil c’est un peu tordu, mais pour les pots de yahourt c’est l’idée <img data-src=" />


Le 23/04/2014 à 09h 27







Zappi a écrit :



Oui et j’aimerais bien connaître le pourcentage de personnes leurs crachant ç le gueule qui bossent dans une SSII ou ont recourt à leur service.



Tous n’est pas rose en SSII mais ce sont les seules qui m’ont permit de trouver un job en CDI rapidement à la fin de mes études





Je ne peux qu’approuver ;)


Le 23/04/2014 à 08h 52

Le SSII bashing va visiblement encore être à l’honneur dans les commentaires, battez-vous…

Le 15/04/2014 à 10h 38







Ronfl a écrit :



Plusieurs villes, des princes, de la politique et des enquetes à souhait

Un peu de baston pour les gros-bills, du PvE, du PvP



Y’avait même moyen d’y inclure les Loups garous, les scions, les momies et les mages si on veut…







…Vous avez essayé Secret World ? :P


Le 11/04/2014 à 10h 38







jrbleboss a écrit :



On a jamais le beurre et l’argent du beurre. Il ne faut pas rêver. Ce n’est pas pour rien que les trains, avions, fusées, missiles, etc… ne sont pas codés en C, mais principalement en Ada.







Mon grain de salt <img data-src=" />



Je ne sais pas pour le reste, mais dans les avions, et dans les systèmes les plus critiques (DAL A), on n’utilise pas que de l’ADA, et même parfois pas du tout. Dernier exemple en date sur un avion pas encore sorti: le code manuel est 99% en assembleur, 1% en C. Sur un autre projet de même criticité, on avait moit’ moit’ C et ADA. Après, ces codes sources sont testés à 100% (couverture fonctionnelle et structurelle, toutes les conditions étant testés), c’est plutôt là que tout se joue. Voili voilou ^^


Le 09/04/2014 à 12h 34







hadoken a écrit :



C’est fou la mauvaise foi quand même.



Quand on parle de code proprio tout de suite tout le monde nous tombe dessus “bouh les backdoors de la NSA”, “code buggé”, “privation de liberté”, “M$”, “FOSS = ton code sera relu = pas de faille”…etc.



Par contre quand un problème arrive sur une lib ultra connue en licence libre, personne n’a envie de voir en face le fait que les process de l’open source ne sont pas la silver bullet qui rend l’humanité meilleure à tous points de vue…



Prenez aussi la peine de regarder les liens fournis par 240-185 en page 3, c’est assez symptomatique de l’aveuglement des gourous du librisme.







SI tu parles de ce lien:



240-185 a écrit :



La FSF



Et ils se défaussent en disant que le bug a été corrigé grâce à l’ouverture du code, tout en passant en silence le fait qu’il a quand même fallu deux ans pour le découvrir : http://www.fsf.org/news/free-software-foundation-statement-on-heartbleed-vulnerability







Soyons fou, je vais essayer de traduire correctement le billet pour les non-anglophones, car je crois qu’il y a là un certain détournement qui est fait du propos initial, que je trouve très juste.



[quote:FSF]

Utiliser du logiciel libre, comme OpenSSL, est une première étape nécessaire à la sécurisation de nos ordinateurs, serveurs, ainsi qu’à celle de tout l’Internet. Les logiciels libres apportent la garantie aux utilisateurs qu’ils ont la possibilité d’accéder au code source afin de détecter des failles, et de créer de nouvelles versions corrigées lorsqu’un bug est découvert. Les bugs, qui sont parfois gros et touchant des logiciels extrêmement courants comme Heartbleed pour OpenSSL, peuvent survenir dans n’importe quel code, libre comme propriétaire. La différence est que lorsque les sources ne sont accessibles qu’à la compagnie qui les détient, comme par exemple Microsoft, et que seule cette dernière a le pouvoir de corriger les éventuels défauts, il est impossible d’avoir une vraie chaîne de confiance [NdT: entre la compagnie et l’utilisateur final]. Tout le monde est alors sans défense tant que Microsoft ne décide d’agir.



Il a été rapporté que des compagnies comme Microsoft partagent volontairement des bugs sans les corriger avec d’autres entités comme la NSA, faisant mine de n’avoir rien vu afin que ces tierces partiespuissent exploiter les failles de sécurité. Et Apple a un backdoor sur iPhone qui selon des experts de la sécurité a été implémenté soit par la NSA, soit dans le cadre d’un sabotage interne chez Apple. En bref, les exemples d’insécurité dans le logiciel propriétaire abondent.



Heartbleed est une faille de sécurité critique, et c’est une bonne chance que OpenSSL soit un logiciel libre. Cela a permis au bug d’être identifié, et corrigé rapidement après sa découverte.[/quote]





Les process de l’open source n’ont bien sûr jamais garanti le 0 faille, qui n’existe de toute façon pas en informatique (comme ça c’est dit au moins :P). Et la FSF ne se dédouane pas d’avoir laissé filer un bug dans leur logiciel, ni même que cela ait pris 2 ans à le trouver. Ce qu’ils disent, c’est que parce que le logiciel est libre, les actions suivantes ont pu être menées à bien:




  • un googler a pu se pencher sur le code afin de détecter le défaut

  • la communauté n’était pas pieds et poings liés à attendre un éventuel patch (comme cité plus haut, rien n’empêche de recompiler OpenSSL sans HeartBeat)

  • le défaut a été corrigé rapidement, ce qui est visible aux yeux de tous dans le repository



    Qu’il ait fallu 2 ans pour tomber sur ce bug est je pense complètement anecdotique et hors propos: des bugs, il y en a, et tant qu’on ne met pas le doigt dedans, on ne les voit pas (je parle de “vrais bugs vicieux”, pas de segfault). Sur de tels logiciels, on ne peut ni tester ni même imaginer tous les cas de robustesse et cas non fonctionnels, c’est à l’utilisation que l’on détecte et corrige les défauts au fil de l’eau.

    Ca existe depuis fin 1998 tout de même, et les gros bugs critiques détectés dans OpenSSL se comptent sur les doigts d’une main estropiée de 2 ou 3 doigts… Peut-on en dire autant des logiciels propriétaires ? Si on prend l’exemple de IE6, qui avec ses 80% de part de marché à la belle époque, son nombre de bugs ouverts en parallèle relativement violent, et les délais pour attendre les correctif, le moins que l’on puisse faire est de tourner 7 son clavier avant de commencer à écrire.


Le 02/04/2014 à 07h 06

Une page se tourne… C’est vrai que dans “PC Inpact”, y avait PC (parce que bon à force de l’utiliser, je n’y pensais même plus). Mon 1er effet de ce next, c’est que ça me fait penser à tous ces logiciels (qu’on appelera pour l’exemple “inpact”) qui lorsqu’ils changent de version majeure se renomme “inpact-ng” (pour nouvelle génération, vous l’aurez compris), et qui 5 ans plus tard se retrouvent avec un nom qui n’est plus en phase avec la réalité <img data-src=" />



Mais bon, comme ça après le Next Inpact, y aura “Déluge Inpact”, ou “Armageddon Inpact” <img data-src=" />



<img data-src=" /> Sinon pour le nouveau logo y a un concours de prévu ? nan parce que là.. <img data-src=" />

Le 01/04/2014 à 06h 47

Moby Dick spotted <img data-src=" />

Le 07/01/2014 à 07h 45

Je ne vois pas trop ce que vient faire le DO178 et des exemples issus de l’avionique dans la conversation… On ne connait pas précisément la cible de Midori, mais on peut imaginer PC/tablettes/smartphones, pas les systèmes temps réel, et encore moins embarqués avioniques qui tombent sous le coup du DO <img data-src=" />

Le 20/11/2013 à 15h 26

Vivement qu’ils la déploient cette 4.4, me suis rendu compte avant hier lors d’une session de cross-compilation que la 4.3 avait un défaut génant pour les dév : l’impossibilité de poser un breakpoint sur du code natif, pratique pour déboguer… printf printf

Le 14/10/2013 à 12h 05







Cara62 a écrit :



Oui tout à fait.

De toute façon, j’ai dit nul par que LOL c’était un jeu pour les cons unbrain.







Pas d’accord, c’est un très chouette jeu, mais avec une communauté de joueurs un peu pourrie (se faire insulter gratuitement toute une partie par un gars qui ne sait pas jouer, merci).



En revanche, avec un avis aussi tranché et argumenté que le tien, je pense que tu entrerais bien dans le moule sur LoL <img data-src=" />


Le 14/10/2013 à 11h 54







Cara62 a écrit :



Mais je trouve que SC2 c’est beaucoup mieux, car c’est LE joueur qui fait sa victoire ou défaite (je parle de 1c1), et non en équipe, comme LoL.







Jouer en multi requiert d’autres compétences que jouer solo, comme tu as les sports collectifs et les sports individuels. Pourtant l’un et l’autre sont tout aussi viable, et tout aussi techniques. Synchroniser des attaques complexes à 5 personnes, je trouve cela personnellement plus spectaculaire que le fait d’un seul homme. Counter-strike est un bon exemple de jeu technique, et en équipe.



Le truc qu’on peut reprocher aux mobas est plutôt qu’ils nécessitent moins de “skill” d’un point de vue gamer (je vais me faire tuer pour avoir dit ça), mais plutot une connaissance pointue du jeu, de chaque héro, des synergies et des mécaniques. Au final, le même type de savoir que l’on retrouve dans les MMO pour les stratégies de raid, sans lequel on n’arrivera pas à faire grand chose…


Le 09/10/2013 à 12h 04







Strimy a écrit :



On parle pas de la physique nécessaire au jeu, mais de la physique “bonus” comme c’était le cas dans Crysis. Si tu baisses la physique au minimum, tu ne peux plus découper les arbres, défoncer les abris,… Ca change bien l’expérience de jeu (par exemple casser l’abris pour fuir ou attaquer), mais pas dans les proportions que tu cites.





mais originellement je répondais sur l’impact de la physique sur le CPU, et il est évident qu’ajouter de la complexité à la physique implique de posséder un meilleur CPU, et donc d’avoir des spécifications minimales plus élevées. Toujours dans le cas où il s’agirait d’un moteur plus costaud et calibré pour tirer parti des nombreux coeurs des processeurs récents.


Le 09/10/2013 à 07h 11







von-block a écrit :



Tout à fait d’accord, mais nomme moi un jeu qui te laisse choisir la qualité de la simulation physique ?



SI watch dogs le fait je dis bravo <img data-src=" />







Les réglages du moteur physique sont en général intrinsèquement liés à l’expérience utilisateur (gameplay quoi), et ne sont généralement pas laissées aux desiderata des joueurs. Un exemple bête: si tu pouvais régler le pas de la simulation sur une vitesse suffisament lente, tu risquerais de tomber a travers le décor, ou de traverser les murs, car tu te seras déplacé trop rapidement pour qu’il y ait une collision entre toi et la surface (tu passes d’un coté de la surface à l’autre coté, sans passer par la casse je me mange le mur).



Seules les parties “eyecandy” sont réglables; typiquement des effets de particules, de billboarding, la densité d’une végétation autoinstanciée, les douilles d’un flingue, la quantité de particules utilisées dans un effet d’explosion,…


Le 08/10/2013 à 13h 48







von-block a écrit :



La physique tu ne peux jamais la modifié (sauf Physx de nvidia)



Nbs d’objets=touche très très peu le cpu



détail objet= touche très très peu le cpu



Distance d’affichage= touche très très peu le cpu, un peu plus le disque dur.







La physique est encore souvent complètement calculée par le CPU (à moins de détails graphiques “eyecandy” qui sont facilement déportables sur le GPU). En conséquence augmenter le nombre d’objets augmente le nombre de calculs de collisions de manière factorielle (dans le cas trivial où on testerait chaue objet par rapport a tous les autres, ce qui n’est heureusement pas le cas).

Un autre facteur qui peut impacter fortement le CPU est la qualité de la simulation physique. On peut influer par exemple sur le pas temporel de la simulation (plus il est petit, plus c’est précis, plus c’est gourmand), ou bien encore sur la précision des hitbox utilisées (un moteur physique n’utilise pas l’objet tel qu’il est affiché à l’écran pour calculer les collisions, mais un modèle simplifié généralement dessiné à base de formes simples du style cylindre sphère cube).

Diminuer les FPS n’allégerait d’ailleurs pas forcément le CPU, cela dépend du moteur (certains moteurs brident en interne le taux de rafraichissement du moteur graphique, et il en est de même pour le taux du moteur de jeu, qui tourne généralement dans un thread séparé)



Pour en revenir au sujet, effectivement soit c’est un très mauvais portage, soit c’est la naissance d’un moteur de nouvelle génération, on ne pourra de toute façon pas trancher avant d’avoir vu.



C’est peut être le début d’une nouvelle avancée dans le monde des moteurs de jeu : jusqu’à présent on se contentait d’une bonne vieille gameloop bien séquentielle, avec un thread pour le son, un pour le rendu dans certains cas (pour bon nombre de jeux console, ce n’est même pas le cas), et parfois (grand luxe !) un thread de chargement en tache de fond… La faute à un parc informatique encore trop dense en processeur ayant maximum 2 coeurs il y a encore quelques temps, mais le vent est en train de tourner.



On va (enfin !) s’orienter vers des moteurs de jeu hautement parallèles, qui exploiteront complètement tous les coeurs des CPU. L’explosion du marché des smartphones/tablettes (qui préfèrent avoir plusieurs coeurs lents que 2 rapides mais plus gourmands en énergie), et la stagnation des fréquences sur desktop qui pousse là aussi à multiplier le nombre de coeur va pousser en ce sens. Bref, ça va être sympa !


Le 11/01/2013 à 09h 52







blamort a écrit :



Pas encore testé Windows 8, mais, sans écran tactile il y a t il vraiment un intérêt à basculer depuis Win7 ?





Pour l’instant, la réponse est non effectivement. Sans écran tactile, l’interface Metro se révèle plus fastidieuse qu’autre chose, les trois exemples qui m’ont le plus marqués étant:




  • les applications s’exécutent en plein écran. Tester l’application “Courrier”, et voir ses mails s’afficher en plein écran sur un 27”, faut prendre 1 mètre de recul <img data-src=" />

  • les menus qui sont certainement intuitif avec un écran tactile ne le sont pas du tout avec un bon vieux clavier/souris, à savoir devoir lancer sa souris dans les coins de l’écran pour que les menus de gauche et de droite apparaissent, on en vient vite aux raccourcis clavier… Le pompom restant au menu du bas dans les interfaces Metro, qui apparait en faisant un clic droit. La première fois, ça tombe pas sous le sens

  • lorsque l’on est sur le bureau, sur une fraiche installation de W8, si on veut éteindre/redémarrer son PC, il faut faire apparaitre le menu de droite, cliquer sur “paramètres”, pour enfin avoir accès au bouton d’arrêt. Je pense que Mme Michu n’éteint plus son PC !



    Bref, au final, on est 99.99% du temps sur le bureau, et le start screen sert de menu démarrer (on peut toujours taper les premières lettres du programme que l’on veut, et le lancer rapidement).

    Enfin en tant que développeur, ça ne change strictement rien, c’est juste un W7 avec une interface mal configurée par défaut pour le desktop (en revanche je pense que pour une tablette ça doit être sympa), et des raccourcis qui ont changés de place ;)