N’en déplaise à ceux qui pensent qu’un téléphone ne peut pas durer plus de 2 ans, mon ancien Nokia 3310 fonctionne toujours. J’en ai fait don à quelqu’un après l’avoir reconditionné (changement de batterie). Comme je suis très soigneux, il était comme neuf.
Son énorme autonomie en fait toujours un excellent téléphone.
On devrait interdire totalement la vente des téléphones dont la batterie n’est pas remplaçable facilement.
Parce qu’il est illogique de se plaindre d’un côté de nos déséquilibre de la balance commerciale et de l’autre de tolérer que des opérateurs proposent des forfaits qui poussent à la consommation de téléphone que l’on importe par millions.
A quand une maîtrise des dérapages économiques dans ce pays ?
Bousculé dans le marché des ordinateurs, et en retrait évident par rapport à la concurrence dans les appareils mobiles, Microsoft souffre ces dernières années. Une situation difficile qui se répercute dans les chiffres. La dernière étude d’AT Internet, basée sur l’audience de plusieurs milliers de sites en Europe, montre ainsi que la famille Windows n’a capté que 71,2 % des visites en février 2014. Un taux particulièrement faible quand on sait qu’il était de 78,3 % un an plus tôt, et qu’il surpassait les 90 % il y a quelques années.
En même temps, il faut faire attention aux titres.
Windows est un Os pour ordinateur. Et ce n’est pas parce que les gens utilisent dorénavant plus souvent leur mobile pour surfer dans les chiottes que pour autant Windows serait en recul sur les ordinateurs. Bien sûr, ce n’est pas ce qui est dit dans l’article, mais mieux vaut le préciser.
De la même façon, il faut nuancer les parts de marché de Linux dans la mesure ou ces valeurs ne représentent que la partie visible de l’iceberg : La plupart des gens ont une box chez eux tournant sur Linux et ils surfent sur des sites internet qui sont en majorité sous Linux. Donc ils utilisent Linux la plupart du temps et sans le savoir.
Pourquoi ne devrait t’on compter que la partie “client” quand on parle d’utilisation ? Le web est une chaine et le client n’est qu’un maillon parmi d’autres.
Le
27/03/2014 à
18h
27
Flo_1 a écrit :
Un peu de terminologie…
Android n’est pas un Linux, le noyau d’android est un noyau linux. Et quand dans ce genre de stats on voit Linux, c’est sous-entendu GNU/Linux, c’est à dire l’OS GNU avec le noyau Linux.
iOS n’est pas basé sur BSD, iOS est un BSD (dans ce cas on parle bien de la famille BSD).
MacOSX est un dérivé de FreeBSD il me semble.
En même temps, rendons à césar ce qui est à césar. Android, c’est un noyau Linux et une petite surcouche graphique. Le noyau Linux représente une valeur en terme de travail autrement plus conséquente que ce que Google y a ajouté.
Donc à la base, oui, c’est plus un Linux qu’autre chose, même si (hélas) l’utilisateur ne trouve pas dans Android tous les avantages qu’il trouverait dans une vraie distribution GNU/Linux classique.
Le
27/03/2014 à
18h
22
lysbleu a écrit :
Les parts de marché de Linux ont augmenté de plus de 10% en 1 an ! En continuant comme ça, d’ici 10 ans on devrait se retrouver aux alentours de 3% de pdm, c’est la fin de l’hégémonie de Windows !
En matière d’adoption, les courbes ne sont jamais linéaires.
Pour preuve, rappellez vous de l’hégémonie d’Internet explorer. Un beau jour, elle a commencé à se fissurer. Et ensuite, tout est allé très vite…
Histoire d’être neuneu friendly, le nouveau gestionnaire de photos s’appelle Photos, le lecteur vidéo s’appelle Vidéos, le navigateur web s’appelle… Web. Et ainsi de suite. Noms traduits dans chaque langue et qui ne doivent pas faciliter la recherche d’infos sur le net…
Ou du moins, ce sont les noms affichés. Les exécutables / noms de projets restants totem, epiphany et compagnie.
Je vois que je ne suis pas le seul à penser que la logique d’infantilisation de l’utilisateur est une mauvaise idée. Et comme tu le fait remarquer, le revers de la médaille, c’est quand l’utilisateur aura un problème qu’il galérera pour trouver des informations.
Pour l’utilisateur, ça ne simplifie pas les choses, bien au contraire. Une fausse impression de simplification au départ, mais plus de difficultés ensuite. Tôt ou tard, un utilisateur est face à des problèmes qu’il devra résoudre.
Le jour ou le monde informatique sortira de l’utopie “l’informatique, c’est simple”, l’humanité aura fait un grand pas.
Et voila, il s’est passé pour Occulus VR exactement ce que j’avais prédit depuis le début.
Certains auraient peut être préféré un autre acheteur que Facebook. Mais réfléchissons un instant : cela aurait t’il été mieux si Occulus avait fini dans le giron de Microsoft ou Apple ?
Personnellement je ne le pense pas.
De toute façon, Occulus VR ne pouvait que finir racheté par un acteur important : Ils n’avaient pas les moyens de développer le marché avec leurs moyens propres.
Au moins Facebook est un acteur tierce partie par rapport aux fabricants d’OS et de matériel. C’est le point positif.
Pour le reste, ce qu’en fera facebook, l’avenir nous le dira.
Et Microsoft ne les supportes même plus … Obsolescence programmé toussa toussa.
Heureusement que MS libère les sources pour qu’une communauté face des patchs de sécurité pour pouvoir continuer à l’utiliser : j’ai pas envie de passer a cette interface graphique Playskool de Windows " />
" />
Lire les commentaires du code source permet de comprendre l’origine de Quick & Dirty OS " />
Cela sera certainement inutile.
Comme l’ont dit certains, l’avenir de Windows sera certainement… Wine. Cette couche d’abstraction capable de reproduire l’API de Windows sur d’autres systèmes.
Il y a quelques années, dire cela aurait pu faire sourire. Mais avec le temps, cela parait de plus en plus certain.
Je pense que dans quelques années seulement, il n’y aura plus de valeur ajoutée pour Microsoft à faire son propre OS. De la même manière qu’Apple a fini par apposer son logo sur un hardware de PC, Microsoft finira par apposer le logo Windows sur… une distro Linux.
Allez, tapez vous une bonne rigolade sur ce que je viens de dire…. Mais n’oubliez pas de vous souvenir de ma prédiction quand cela arrivera.
ça se propage partout par exemple dans l’habillement c’est le cas maintenant (chaine Primark avec du pret-à-jeter)
ce qui est fou c’est de voir les gens accepter un monde de l’ultra jetable. Une garantie de 5 ans obligatoire et hop, une baisse des déchets électroménagers immédiate. Mais bon l’écologie ça n’ interesse pas les décideurs, même des choses simples comme les classes actions sont bloqué car il parait que ça freinerai la consommation…
T’inquiète pas, ça va se régler tout seul.
D’un côté, un entêtement de notre pays qui ne cesse d’augmenter.
De l’autre, une monnaie européenne surévaluée qui va forcément dégringoler d’une manière ou d’un autre dans les années qui viennent.
Quand on payera 5 à 10 fois le prix actuel pour un téléphone, on verra si les habitudes de consommation ne vont pas changer.
Et cela sans compter les lois qui passeront pour protéger notre balance commerciale.
Le
26/03/2014 à
00h
52
Ballos a écrit :
c’est une tendance de fond pour tous les appareils.. Plus rien ne sera réparable dans le futur, car
ça fait des économies à la production/transport, ça réduit la durrée de vie globale des composant (ce qui est bien pour casser le marché de l’occasion) *ça fait des économies en SAV car réparer est souvent plus couteux que remplacer [Par exemple: les Bose quiet à 350€ sont systématiquement jeté à la poubelle en cas de panne]
Sincèrement, non, je ne crois pas que cela soit une tendance du futur. C’est même déjà une tendance du passé pour de très nombreuses raisons.
Sans même parler de raisons écologiques, il est évident que nos économies vont devoir changer de chemin pour ne pas sombrer.
Le
25/03/2014 à
18h
23
qui.dominatur a écrit :
Le HTC One est déjà un excellent appareil. Les hauts parleurs en façade…quel bonheur…
Je recommande à tout le monde :-)
Si la taille de celui-ci reste contenu, je vais peut être me laisser tenter.
Un excellent appareil, pour moi, ça doit avoir une batterie accessible (comprendre facilement remplaçable), un lecteur de SD, un OS avec des mises à jour qui durent plus de quelques mois. Et aussi si possible un clavier physique. Le tout doit pouvoir s’ouvrir et être réparable facilement (= couter moins cher à faire réparer).
Est ce que c’est vraiment trop demander pour des appareils qui valent plus d’un demi smic ?
Il dit ce que tu as envie de lui faire dire surtout.
Moi je vois surtout que bcp de petites entreprises e(et donc de petits studios) marchent bien pendant une période donnée grâce à l’implication à 200 % de certaines personnes à commencer par les propriétaires. ça marche un temps, et puis ensuite ça s’effiloche, soit à cause du succès, soit à cause du manque de succès.
Si ça marche bien, l’entreprise grossie soit en interne soit par un rachat soit en se faisant racheter. Dans tous les cas elle grossi et ce moment est toujours hyper dangereux. La banqueroute pour cause de crise de croissance mal gérée est un grand classique.
Voilà tout. Je ne sais pas pourquoi dans l’industrie du JV et des logiciels en général on veut tout le temps que ce soit dû à telle ou telle “méchante” entreprise ou personne.
Moi ce que je vois c’est que Molyneux à partir du moment où il a gagné pleins de thunes il a pantouflé en en foutant plus une, et en servant juste de VRP à survendre le prochain jeu. Et puis qu’un jour EA a commencé à lui faire comprendre que la fête serait bientôt fini pour lui, et que s’il voulait pas que sa réputation (et celle d’EA) soit entachée par un licenciement, ce serait bien qu’il “se tourne vers de nouveaux horizons”. C’est plutôt ça qu’il dit entre les lignes.
MS l’a appris à ses dépends avec l’histoire du rachat de Rare. Puis ils ont opté pour un autre modèle celui des IP. Au lieu de détenir des studios dont ils ne pourront retenir les talents, être sûr que le liant reste le même une fois le top management pété de thune etc Ils investissent sur des marques (Halo, Gears, Forza, etc), et ils font des deals avec les studios pour les développer. Quand le studio ne donne plus satisfaction, ou n’a plus envie, ils le confie à un autre studio.
Chacun sa stratégie au final.
Après EA a fait pleins d’erreurs, mais il faut être honnête, il y a aussi pleins de jeux/studios qui n’auraient pas pu continuer à être au top. Le marché du JV a bcp évolué et fluctué au cours des 20 dernières années.
Moi je ne suis pas surpris que Molyneux n’ait pas réussi au contraire d’un Will Wright.
Ce que tu dit est sans doute vrai.
Mais la question qu’on doit se poser, c’est de savoir si un humain peut travailler sur le long terme à 200% avec des nuits blanches à l’affilé tout en gardant sa créativité et, sa motivation et surtout son niveau.
Je pense sincèrement que la réponse est non.
C’est pour ces raisons que les tentatives de vouloir tayloriser la créativité ont toujours échouées.
Le
24/03/2014 à
22h
21
Kisscooler a écrit :
EA base sa politique de licence sur l’excellente réputation de l’original pour développer des suites moins riches mais avec toujours plus de DLC comme Dragon Age, Mass Effect, SimCity, Sims, …
Un trait caractéristique se dégage je trouve dans toutes les suites des licences EA gâchées : un système de jeu de plus en plus simplifier voir édulcoré, un contenu de plus en plus faible, les DLC de plus en plus nombreux.
C’est un peu comme si le public visé était décérébré et près à sortir rapidement la CB pour décrocher son item fétiche.
Bullfrog m’a fait rêvé du temps de l’Amiga mais le recyclage des licences depuis le rachat me fait penser à du Patent troll.
Non, EA me fait penser à du Patent Troll.
On achète des licences comme des brevets et ils ne font rien d’autres que de vivre dessus sans aucune créativité. EA, je suis désolé de le dire, mais ça ressemble à ça.
Je pense qu’il y a des marketeux qui ont échafaudé des théories bien fumeuses, par exemple qu’en simplifiant les jeux, ils les rendraient plus désirables aux yeux d’un très grand public néophyte, ce qui serait sensé augmenter les ventes.
Ensuite, il ne faut pas oublier que la plupart des jeux naissent sur PC. Et le marché visé par les plus gros éditeurs, c’est le marché des consoles avec ses joueurs plus “casual”, ce qui explique cette tendance à vouloir les simplifier.
Le problème d’une grande entreprise, c’est qu’ils investissent d’énormes moyens et qu’ils ont besoin du plus gros volume de vente possible pour rentabiliser.
Au final, ce n’est peut être pas un bon calcul. Il est visible que cette mutation signe le plus souvent la mort d’une franchise et donc la perte du capital misé dessus.
(parceque bon, après 5 ans j’ai le droit envie d’un beau jouet tout neuf)
Du coup j’hesite entre prendre un Devil et une CG cru 2014 ou patienter quelques mois de plus jusque Broadwell.
Par expérience, il devient intéressant de changer de processeur à partir du moment ou l’on gagne au minimum un facteur 2. Et presque indispensable à partir d’un facteur 4.
Le
22/03/2014 à
22h
29
renaud07 a écrit :
Le mien tourne comme un charme depuis 10 ans (2004) " /> C’est un athlon XP 2800+
Et je je viens de regarder sur wikipedia, y’a plusieurs 2800+ notamment les Athlon XP Thoroughbred et Athlon XP Barton… Je me demande bien lequel j’ai. ‘fin bon c’est pas très important.
Le logiciel CPU-Z devrait te permettre de répondre à la question. Si besoin d’indications supplémentaire, les Thoroughbred ont 256k de cache L2 et les Barton en ont 512.
Le seul inconvénient des Athlon XP aujourd’hui, c’est qu’il leur manque le jeu d’instruction SSE2 qui est utilisé par un nombre toujours plus important de logiciels. De ce fait, ils sont moins utiles maintenant que leur ancien concurrent, le pentium 4 Northwood ou que l’Athlon 64 qui leur a succédé (un bon cru celui la…).
Enfin, malheureusement, ce qui as limité la durée de vie de beaucoup d’ordinateurs de cette époque, c’est les cartes mères équipées de mauvais condensateurs. Une vraie maladie à l’époque.
Et c’est ce qui fait que ce n’est pas adapté à du web justement.
Justement, c’est une erreur d’écrire cela.
Le web, c’est aussi bien les petits sites que les gros services.
Pourquoi ne pas en citer ne serait-ce qu’un si c’est si facile ? Je te rappelle que c’est toi qui t’es pointé en prétendant que le C++ était courant parmi les gros services web, et que je t’ai cité la plupart des plus gros services web qui justement n’utilisent pas du C++ pour ça. Il faudrait en plus que ce soit à moi de chercher des exemples compatibles avec ton affirmation ? “Google est ton ami”, c’est un peu facile hein.
J’ai la flemme de chercher pour toi.
Et c’est pour ça que Google (je ne vois pas d’autre service web avec plus de serveurs qu’eux) font leurs devs avec du C++ ? Ah merde, non justement. Ou à plus petite échelle (mais toujours énorme) Facebook, Twitter, YouPorn, la galaxie Mega ? Ah bah non eux non plus n’utilisent pas C++…
Pour Google, j’ai trouvé quelques informations qui confirment qu’ils ont bien réécri leurs logiciels en C++. Et pour facebook, ils ont développé des logiciels pour convertir leur code php en C++.
WikipediaQuand à Mega ou Youporn j’imagine que l’essentiel de leur charge ne viens pas des pages, mais plutôt des fichiers. Ce sont donc surtout des hébergeurs de gros fichiers. Donc intéret plus limité.
L’optimisation ce n’est pas uniquement économiser 1 octet par ci, 1 octet par là, ou 1 ms par ci, 1 ms par là. En particulier dans les développements sur le réseau (principalement internet donc, pas forcément uniquement web d’ailleurs), c’est aussi et surtout une question d’architecture.
L’architecture, ça ne fait pas tout non plus. Quand un code optimisé permet de diviser le nombre de serveur, c’est aussi bon à prendre.
Et l’optimisation efficace c’est justement tout le contraire de gagner 1ms par ci ou un octet par la. C’est plutôt d’optimiser les portions de code critiques, les quelques lignes de code qui sont appelés des milliards de fois et qui représentent au final un gain non négligeable à la clé.
Le
22/03/2014 à
01h
32
brazomyna a écrit :
Je pourrais parler de consultants entre 1k€ et 2k€ / jour qui bossent dans un domaine aussi peu sérieux que la finance. C’est mon quotidien.
Dans ce contexte, la (l’ultra) compétence n’est pas une denrée rare,
pas plus que les budgets sont serrés (encore moins au point de vouloir chercher la solution technologique ‘low cost’).
En même temps, j’ai déjà vu tellement d’incompétence et de mauvais logiciels dans des domaines très sérieux ou l’argent n’était pas un problème que j’éviterais de tirer des conclusions hâtives.
Parce que pour obtenir de l’ultra compétence, aligner de l’argent ne suffit pas toujours.
Et pourtant, ça tourne aussi sur des technos managées (esentiellement pour des garanties de “non crash total” en cas de bug, plus faciles à obtenir sur ce genre d’écosystème).
Et pourquoi pas ? Si leur utilisation est bien adaptée au cas de figure.
Faudra t’il vous répéter 10000 fois qu’il n’y a pas de technologie reine. Pas de langage parfait.
La perfection en informatique, c’est d’utiliser le bon outil pour le bon usage.
Bref, je crois que tout le monde a compris: Le Java de la SSII qui tire les prix et les compétences de ses pisseurs de code frais péchés de l’école, c’est UNE raison PARMI D’AUTRES qui peut justifier ce choix. Mais il ne faudrait pas croire que le Java (ou les autres langages réputés plus faciles d’accès) n’apporte de la valeur ajoutée que dans ces cas là.
La dessus, on est bien d’accord.
Il y a par contre un paradoxe. C’est que pour qu’un programmeur soit bon, il faut qu’il faut qu’il ait une bonne connaissance de toutes les couches d’un système. Ce qu’il n’acquierera jamais en faisant juste de la programmation java.
PS: au passage, (pour notre ami le troll en mode monologue): les 32Go de DDR3 ECC c’est moins cher que 4 heures de temps de travail facturés par chez moi. En fonction du nombre de pauses café prises dans la matinée, tu as quelques Go en plus ou en moins pour le même prix " />
Tout dépends sur combien de serveurs ton programme devra tourner. Si c’est sur plus d’un million de serveurs comme chez Google, tu conviendra qu’il faut revoir le calcul. Parce que 4 heures à comparer à plusieurs millions de barettes ECC, ce n’est plus la même chose.
C’est la ou je tente d’expliquer que pour mesurer la valeur ajoutée de l’optimisation et du langage utilisé, il faut prendre en compte le secteur d’activité. Par exemple, le domaine du logiciel personnalisé n’a pas les mêmes paradigmes que celui du progiciel.
Je ne pousserai pas la comparaison avec le coût du moindre bug à corriger en quelques heures ou l’influence d’un coût dérivé (temps de compil’ accumulé dans une journée ?) sur l’efficience et donc le coût global du développement au final. Ceux qui argumentent dans ces eaux là sont de toute façon manifestement incapables de comprendre avec leur nez dans le guidon qu’un projet est composé d’infiniment plus de variables que le seul choix d’une techno.
Cela signifie t’il pour autant qu’un mauvais choix technologique serait sans conséquences ?
Le
22/03/2014 à
00h
41
Gorkk a écrit :
…
Et le C++ pour du web, c’est pas que ce n’est pas “simple”, c’est juste que c’est une merde sans nom, et qu’il faudrait développer tellement de frameworks autours pour pouvoir le faire sans réinventer la roue à chaque projet (et mettre 2 ans) que tu n’aurais plus aucun avantage du C++, et plus d’inconvénients que java, php, ruby et .net réunis !
En même temps, il faut comprendre que tout est question de logique. Quand on utilise un langage comme C/C++, c’est parce qu’on veut en tirer de la performance. Il est évident qu’on ne développera pas comme dans un projet “RAD” ou l’on n’hésite pas à entasser les frameworks pour gagner du temps.
La programmation optimisée, c’est tout le contraire du RAD : On attaque à bas niveau, on fait ses propres fonctions adaptées et optimisées précisément pour le besoin. On évite d’empiler des couches que l’on ne connait pas et qui gaspillent de la puissance. On n’hésite pas à réinventer la roue si cela peut faire gagner de la puissance. On essaye au contraire de maitriser de A à Z tout ce qui se passe à tous les niveaux.
Il est bien sûr évident que cela coûte beaucoup plus cher et prends beaucoup plus de temps.
C/C++, c’est le langage idéal pour un projet de 10 ans, pas le langage de 10 projets par an.
La question c’est de savoir quel métier tu fais. Est ce que tu travaille pour une industrie qui fait beaucoup de programmes pour peu d’utilisateurs ou au contraire pour une industrie qui fait peu de programmes pour beaucoup d’utilisateurs.
Donne donc des exemples, au lieu de juste affirmer. Parce que chez les plus gros services web, C++/CGI ne montrent pas le bout de leur nez hein… C’est du java, du ruby, du php, du scala, du nodejs, parfois du .net aussi (StackOverflow par exemple, même s’il est très loin des plus gros services comme Google, Facebook, Twitter, YouPorn - ce dernier c’est du php avec le framework Symfony2 par exemple).
Justement, si tu veux te donner la peine de comprendre de qui je parles, tu comprendra. Et google est ton ami. Oui, je parle bien des plus gros acteurs du monde du web. Ceux dont les infrastructures se comptent en centaines de milliers de serveurs.
Il est bien évident que pour une industrie qui fait tourner le même logiciel sur un nombre énorme de serveurs, l’optimisation en C++ vaut largement le coup. Un code plus efficace peut faire économiser des centaines de millions de dollars en matériel.
Après, il est difficile d’affirmer a partir de quel seuil ça vaut le coup d’optimiser plutôt que d’aligner les serveurs.
Le
21/03/2014 à
21h
13
goldbergg a écrit :
je me trompe ou tu ne te prend pour une me#de à prendre des milliers de dev sans doute pour la plus pars plus calé que toi de haut?
Il ne faut pas oublier qu’il y a le monde amateur (avec en effet une majorité de dev PHP qui ne comprenne pas réellement se qu’il sont en train de faire) et le monde pro, ou la que sa soit pour du php, du .net ou en java, on a généralement des dev qualifié qui savent parfaitement se qu’il font (j’ai appris le c en cours bien avant le php/c#/java en se qui me concerne, sans oublié tous les cours théorique).
Et pour les site web en c++ si sa ne se fait pas ou que tres rarement en entreprise c’est juste que le langage n’est absolument pas adapté (la seul vrais solution est le CGI qui est une horreur)
(au passage les plus gros site a très fort trafique ne sont pas en c++, mais bien en asp.net, jee ou encore php)
j’ai l’impression que c’est maladifs chez les dev C++ de pensser que le C++ > all
et de prendre tous le monde de très haut.
En même temps, il n’a pas vraiment tort. De nombreux programmeurs te diront qu’il faut bien plus d’expérience pour programmer en C/C++ qu’en Java ou en PHP. Et que c’est une des raison évidente pour lesquelles les SS2I préfèrent certains langages conçus pour limiter les risques de la même façon que ces entreprises préfèrent employer des salariés moins expérimentés et moins cher.
Parce que mettre un stagiaire sur un projet en C++, faudrait vraiment pas avoir froid aux yeux.
Sinon, ça me fera toujours marrer de voir les réactions épidermiques sur les forums quand on explique à des jeunes qu’ils ne sont pas au top du top en sortant de l’école et que (comme dans n’importe quel métier), ils progresseront avec le temps.
Non, on ne vous prends pas de haut. Il y a simplement des réalités évidentes.
Le
21/03/2014 à
19h
43
HarmattanBlow a écrit :
C’est vrai, et j’apprécie que tu sois resté général en parlent de deux types de langages puisque autrefois le C++ était un langage lent, par opposition à l’assembleur alors seul à offrir la vitesse nécessaire sur ces machines à la puissance restreinte.
Ca c’est bien vrai…
Et ça l’est même encore puisque l’assembleur est toujours utilisé(et indispensable) pour accélérer certaines parties critiques ou pour accéder à des fonctionnalités particulières des processeurs.
C’est la ou l’on trouve paradoxalement encore un énorme avantage de C/C++ dont les bonnes implémentations ont été conçues pour s’interfacer très facilement avec de l’assembleur.
Pour une partie, oui, c’est à cause des performances.
Pour une autre partie c’est pour des raisons historiques, car le projet doit intégrer, exploiter ou faire évoluer un code C++.
Mais trop souvent c’est un refus de remise en cause et d’évolution.
D’un autre côté, choisir C++, c’est avoir la certitude de pouvoir faire absolument tout ce qu’on pourrait avoir besoin de faire. Choisir Java (ou autre langage du même type), c’est s’imposer certaines limites d’emblée : il faut être certain que cela est compatible avec le type de projet et que cela n’entravera pas son futur.
Ensuite, il ne faut pas sous estimer la souplesse apportée par C++. Vous voulez programmer “sécurisé”, c’est à dire sans utiliser de pointeurs et en utilisant des tableaux et chaines de caractères avec vérification de borne ? Et bien avec C++ c’est tout à fait possible.
L’avantage de le faire avec C++ c’est que vous aurez toujours la possibilité de faire des exceptions (bien contrôlées) au besoin.
Après, C++ est comme tous les langages avec ses avantages et inconvénients, ses forces et faiblesses. C’est en fonction de ce qu’on fait qu’on choisit un langage. Un programmeur ne devrait jamais se restreindre à un unique langage.
Mais trop souvent c’est un refus de remise en cause et d’évolution.
Je n’en suis pas sûr dans la mesure ou ce qu’on nous présente comme nouveau… ne l’est en réalité pas du tout.
Rappelons que les plus anciens programmeurs ont tous connu dans leur jeunesse de très nombreux langages et de très nombreux paradigmes. Des langages sécurisés, des langages utilisant du pseudo code, des langages fonctionnels, etc…
Et la question du choix “sécurité vs puissance” est un très vieux débat avec lequel même les plus anciens programmeurs sont familiarisés.
Après, il y a sans doute des programmeurs qui utilisent C++ dans des projets ou ils gagneraient plutôt à utiliser Java. Mais aujourd’hui, on observe plus souvent l’erreur inverse.
Pour ma part, je pense que la grave erreur, c’est la pensée du moment : celle de vouloir unifier des os autour d’un seul langage et de vouloir l’imposer comme tel. La réalité, c’est qu’en informatique, tous les langages de programmation ont leur importance.
Le
21/03/2014 à
00h
55
HarmattanBlow a écrit :
Les développeurs “adultes” ? Ah oui, ces gros bouffons(*) qui se prennent pour superman parce qu’ils écrivent trois instructions assembleur par mois et qui collent des failles de sécurité partout parce que c’est ça être un vrai homme ?
Le C++ est amené à disparaître pour la quasi-totalité des nouveaux projets et c’est une excellente nouvelle parce que l’état actuel des systèmes informatiques est inacceptable avec des centaines des centaines de millions de machines infestées de par le monde par des menaces persistantes avancées (APT) sur tous les OS sans exception. Demain les programmes écrits dans des langages non-vérifiables tourneront tous dans des machines virtuelles, à peu de choses près, seuls les langages vérifiables ayant droit aux places prestige. Et personne ne regrettera la façon de faire actuelle.
(*) Le commentaire vaut pour tous ceux qui se croient supérieurs parce qu’ils utilisent tel ou tel langage. Je n’ai pas de préjugés en général contre les hommes, qu’ils se farcissent du cobol, du JS ou de l’asm 68k. Dans toutes les catégories on trouve le pire comme le meilleur.
…
L’ennui, c’est qu’il y a des cas de figure ou les langages “sécurisés” gaspillent une trop grande partie de la puissance.
Comme tu le sais certainement, les deux types de langages cohabitent depuis la nuit des temps. Et il y a des raisons à cela.
Pour ma part, je pense qu’il se passera dans le temps ce qu’il s’est toujours passé : l’utilisation du bon outil pour le bon usage.
Et ce n’est pas parce que certains langages sont lents et ne permettent pas de manipuler directement la mémoire que pour autant on ne peut pas y trouver de failles de sécurité. Demandez à un développeur web ce qu’il en pense.
Le
21/03/2014 à
00h
41
goldbergg a écrit :
…
Si le C++ est idéale pour faire du bas niveau, dev des pilote ou encore des jeux, il n’est certainement pas adapter a l’informatique de gestion ou le web… (en tous cas j’ai jamais vu d’entreprise, surtout ces dernière année faire du web en CGI/C++)
…
Et bien si…
Mais effectivement, dans la petite web agency du coin, ça n’est pas courant.
Par contre, sur des services web qui demandent des centaines de milliers de serveurs, c’est bien le genre de question qui se pose.
Le
21/03/2014 à
00h
34
brazomyna a écrit :
@sr17, belle tentative d’expliquer à un troupeau d’abrutis de trolls que le Saint Graal n’existe pas et que la diversité des langages répond à la diversité des besoins. Sur ce point, c’est parfait.
Par contre tu te vautres sur la fin, à la fois sur le fait que le seul intérêt de Java concernerait le RAD et l’efficience du coding, et également sur la place de la valeur ajoutée du côté du bas niveau (c’est justement plutôt l’inverse: la valeur ajoutée est désormais du côté des couches hautes).
Demandez vous pourquoi autant de logiciels restent codés en C++.
Parce que sur de nombreux logiciels, pour pouvoir apporter de la valeur ajoutée sur les couches hautes, une des condition indispensable, c’est d’abord de disposer de couches basses qui sont ultra performantes.
Des couches basses performantes, c’est la fondation même de nombreux logiciels très connus.
Prenez l’exemple d’un logiciel de retouche d’image, un jeu vidéo, une base de données ou un décodeur vidéo : si les couches basses manquent de performance, il sera moins évident de développer de la valeur ajoutée par dessus.
Bien sûr, il existe de nombreux exemples de logiciels ou l’on se moque de la performance. Mais les programmeurs de SS2I qui ne voient souvent passer que cela ont tendance à oublier qu’il existe des logiciels ou ce n’est pas le cas.
En réalité, il existe en informatique des réalités très différentes. Entre ceux qui produisent des logiciels personnalisés et ceux qui produisent des progiciels, les paradigmes sont assez différents.
Le
19/03/2014 à
22h
08
nateriver a écrit :
Et le c++ c’est à vomir. En 2014 ton langage a pas de garbage collector? Allo? Autant faire du cobol…
Ca existe. Le C++ est un langage très modulaire dans lequel on peut ajouter de nombreuses extensions.
Mais il faut comprendre que s’il n’y en a pas en standard, c’est qu’il y a des raison : le C++ est principalement utilisé pour les applications très optimisées pour lesquelles les programmeurs ont surtout besoin de personnaliser la gestion de la mémoire eux même.
Le garbage collector “standard”, c’est très bien pour le petit logiciel courant. Pas pour les gros logiciels performants.
C++ et Java sont deux langages qui n’ont pas la même vocation. Pour C++, le but est de permettre les meilleures performances et le plus de contrôle possible a des programmeurs expérimentés. Pour Java, le but est de rendre le développement plus rapide et empêcher des programmeurs peu expérimentés (et pressés) de faire des bêtises.
Bref, Java pour le tout venant RAD en SS2I, C++ pour l’écriture de progiciels à forte valeur ajoutée.
Désolé mais pour moi, ceux qui critiquent le fait de débourser 20 Euros dans un jeu ce sont les mêmes qui alimentent ce marché discount néfaste pour les produits plus “matériels”. Ils font bien de plus de mal que de bien.
Le débat est assez complexe parce que tout est relatif.
Dans l’absolu, 20 euro ce n’est vraiment pas cher payé pour un tel jeu. Mais tu as aussi des gens pour qui ça peut représenter beaucoup. Un jeune qui n’a pas beaucoup d’argent de poche par exemple.
En baissant progressivement les prix des jeux dans le temps, les éditeurs ont réussi à faire coup double : Faire payer le prix à celui qui peut payer. Et de l’autre permettre à celui qui n’a que 5 euros de pouvoir s’acheter des jeux.
L’avantage est d’éviter le piratage et surtout la mauvaise habitude qui en découle : des gens qui prennent ensuite l’habitude de tout avoir gratuitement et n’ont plus conscience qu’il faut payer d’une façon ou d’une autre pour que les créateurs puissent vivre.
Ensuite, peux t’on comparer l’économie de biens physiques et virtuels ? Contrairement aux biens virtuels, les biens physiques ont un coût de duplication. C’est ce qui les rends très différents.
Maintenant, je comprends bien ce que tu veux dire et je te rejoins sur le fait que cette culture du “discount” peut être absolument destructrice.
Par exemple, on ne peut pas d’un côté acheter des biens “à pas cher” fabriqués dans des pays à bas cout de l’autre côté se plaindre que le chômage explose et que nos enfants n’arrivent plus à s’en sortir.
Le
21/03/2014 à
23h
08
methos1435 a écrit :
C’est là où pour moi tu te plante: car Minecraft est vendu à un prix raisonnable. Quand tu prend en compte le fait qu’il est toujours mis à jour et que ça te coûte pas un rond, un vingtaine d’euros pour un jeu est loin d’être une arnaque pour le client.
Faut arrêter de regarder le prix par rapport à ce que que ça rapporte à l’éditeur, juste regarder si c’est valable d’acheter ou pas. Et si 20 euros c’est trop chers pour certains et bien on est tombé bien bas… Désolé mais pour moi, ceux qui critiquent le fait de débourser 20 Euros dans un jeu ce sont les mêmes qui alimentent ce marché discount néfaste pour les produits plus “matériels”. Ils font bien de plus de mal que de bien.
Après, chacun est libre d’acheter ou pas. La seule question à se poser c’est “suis je pret à mettre 20 euros pour tel produit ?” Oui ? Le client achète. Non: le client n’achète pas. Et vu le succès de Minecraft ils seraient bien cons et pas fort en affaires de baisser le prix.
Ne te tromperais tu pas de commentaire ? J’ai toujours dit que Minecraft valait largement son prix. A mon avis l’un des tout meilleur investissement de tous les temps pour un joueur.
Mais ce qu’il faut réaliser, c’est que la communauté a aussi fait beaucoup pour son succès et sa longévité : buzz, mods, serveurs, animation. Ils donnent gratuitement de leur temps et de leur argent.
Donc a leur place, j’aurais sans doute réinvesti beaucoup plus dans l’amélioration du jeu, rien que pour une question de psychologie par rapport à cette communauté si précieuse. Je pense que cela aurait été aussi un excellent calcul pour repousser au maximum le moment ou le succès du jeu retombera.
Le
21/03/2014 à
21h
36
malock a écrit :
Ouais, ouais, pourquoi pas…
On peut toujours imaginer qu’il y ait plus de contenu, d’importantes améliorations, c’est vrai.
Perso, je n’ai tout de même pas la sensation de m’être fait voler quand j’ai acheté Minecraft, ni même si j’avais dû le payer 30€.
Après, on peut partager des visions différentes, c’est sûr.
Personnellement, je n’ai pas du tout non plus l’impression de m’être fait voler en achetant ce jeu. Compte tenue de sa durée de vie, c’est l’un de jeu les plus rentable du marché pour le joueur.
Le
20/03/2014 à
23h
11
saf04 a écrit :
le gars si il vend juste 1000 unités d’un jeu, autant dire à ses clients d’aller chercher les majs chez les grecs.
à 1 million c’plus pareil déjà. tu vas avoir 250k joueurs qui veulent des minis jeux pvp, 500k qui veulent rajouter de l’aventure, et un melange de tifs et tondus qui veulent du housing, de l’ouvert pour les mods, et la foire roleplay à la saint glinglin. autant dire que ca t’occupe ton homme de faire tout ca " />
1000 ou 1 million, ça donnera toujours 25% qui veulent ceci, 3% qui veulent cela et 33.2% qui veulent autre chose.
Mais effectivement, un éditeur aura d’autant plus de moyen d’améliorer son jeu qu’il gagnera d’argent et pourra embaucher de développeurs supplémentaires.
Le
20/03/2014 à
23h
00
J’ai acheté minecraft il ya déja un petit bout de temps, me rappelle même plus quand. Ca n’a eu aucun impact financier (faut arrêter les c’est trop chers) et aujourd’hui je bénéficie toujours des MAJ sans avoir à débourser un rond…
Totalement d’accord. Les gens auraient tort de se plaindre : Ce jeu vaut très largement son prix.
Mais en même temps, compte tenue de l’énorme quantité d’argent qu’il a rapporté par rapport à son coût de revient initial et le fait que les ventes semblent se maintenir, à leur place j’aurais consacré un peu plus de moyens à son amélioration histoire de maintenir l’intérêt dans le temps. Je pense que cela aurait été un bon calcul, mais c’est juste mon avis personnel.
Le
20/03/2014 à
22h
37
methos1435 a écrit :
" />" />
La mode du low cost monte trop à la tête pour certains. Et le pire c’est que ce sont ces mêmes personnes qui se plaignent après pour les conditions de travail, les salaires etc etc …
On a uniquement ce que l’on mérite. Quand certains comprendront que la mode du low cost et du discount fait plus de mal que de bien au final, on aura fait un grand pas…
J’ai acheté minecraft il ya déja un petit bout de temps, me rappelle même plus quand. Ca n’a eu aucun impact financier (faut arrêter les c’est trop chers) et aujourd’hui je bénéficie toujours des MAJ sans avoir à débourser un rond…
Pourquoi est ce qu’un jeu vendu à bas prix signifierait moins d’argent pour les développeurs ? Quand le prix baisse, les ventes augmentent. Et parfois significativement.
Donc au final, cela peut s’avérer être une excellent calcul pour l’éditeur.
Le phénomène est simple à comprendre : la majorité des acheteurs ont un budget limité. S’agissant d’un bien dématérialisé, l’industrie ne gagne absolument rien à ce que l’acheteur moyen ne profite que d’une petite partie de la production : il ne dépensera pas plus pour autant.
Des prix raisonnables, c’est également un bon moyen de lutter contre le piratage. Souvenez vous de l’époque ou les jeux étaient tous hors de prix : le piratage tuait littéralement l’industrie du jeu vidéo.
Bref, il ne faut pas raisonner sur l’industrie dématérialisé avec les paradigmes s’appliquant au bien physique. Un programmeur ne travaillera pas plus parce qu’un jeu est distribué à 1 million de copie plutôt qu’a 1000.
Le
20/03/2014 à
18h
47
malock a écrit :
Minecraft ? Pas de contenu supplémentaire ? What ?!
Il “reste au prix de sortie” avec du contenu supplémentaire (biomes, bloques, PNJ, craft…)…. qu’imagines-tu ?
S’il n’avait pas bouger d’un pouce ce jeu, je comprendrais ton “Ce jeu a quel age? et toujours au prix de sortie officielle? au revoir.”, mais là, tu es juste à côté de la plaque…
En même temps, beaucoup de gens trouvent qu’avec tout l’argent qu’ils ont gagné, ils auraient pu consacrer un peu plus de ressources pour l’améliorer.
Maintenant, c’est vrai que ce jeu dispose d’une duré de vie exceptionnelle par rapport à son prix. Sans compter le travail de la communauté. Donc je pense qu’il faut vraiment relativiser ce genre de critiques.
Par contre, je trouve dommage que la presse ne parle toujours que de Minecraft alors qu’il existe depuis un bon moment d’autres jeux “voxels” dignes d’intérêt pour ceux qui attendent une évolution du genre.
Le
20/03/2014 à
18h
29
spamplemousse a écrit :
Euh, là va falloir expliquer ? :o
Les jeux traditionnels gèrent aussi des quantités énormes d’objets, que ce soit un triangle ou un cube ne change finalement pas grand chose.
Et même si c’était le cas, Java reste bien en dessous niveau perf par rapport à du code natif…
Justement, les jeux traditionnels ne gèrent pas d’énormes quantités d’objets grâce à diverses techniques.
tryde a écrit :
Pour avoir fait des projets en OpenGL C/C++ et pareil en Java (JOGL), les implémentations en C++ étaient nettement plus performantes et stables ! Java a pas mal de soucis avec la 3D plein écran, la gestion de la mémoire graphique, que les API C++ style OpenSceneGraph voire les moteurs graphiques n’ont pas, la gestion de l’accélération matérielle laisse aussi à désirer, et comme certains l’ont remarqué, ça fait davantage chauffer les cartes (ma quadro au boulot monte à 100° avec l’appli java).
Je n’ai encore jamais vu une seule carte graphique desktop monter à 100° sur minecraft. Ta carte graphique doit avoir un sacré problème de refroidissement. La mienne dépasse à peine les 45° sur ce jeu.
eXa a écrit :
Quand il a ces graphismes si, c’est en grande partie du au java mais il suffit d’essayer le clone en C++ pour voir que ce type de jeu ne demande pas autant de puissance.
Il est inéluctable qu’un jeu écrit en C++ soit plus performant. Pour autant, il faut se méfier des conclusions hâtives : Minetest est encore très incomplet, donc moins de choses à gérer.
Le
19/03/2014 à
16h
52
eXa a écrit :
Si il pouvait embaucher des mecs qui puissent l’optimiser…
C’est le seul jeu qui fait chauffer n’importe quel pc c’est monstrueux sur mon mac par exemple je joue a des jeux il dépasse pas les 70 avec minecraft it monte a 100…" />
Et pourquoi en déduit tu pour autant que ce jeu serait mal optimisé ?
Quand un jeu consomme plus de ressources qu’un autre, cela ne signifie pas pour autant que c’est parce qu’il est mal optimisé.
Plutôt bon joueur, Nate Mitchell, le cofondateur d’Oculus VR, félicite le mouvement du géant japonais.
Il a surtout compris que cet événement signifie la réussite de leur entreprise.
Un gros acteur qui s’y met, cela signifie d’autres gros acteurs qui voudront s’y mettre. Et donc potentiellement une revente à un bon prix des actions de leur entreprise.
Contrairement à ce que certains peuvent imaginer, le but d’une startup n’est pas forcément de rester indépendant. Dans la plupart des cas, les créateurs s’enrichissent en revendant à des plus gros à un moment donné.
D’ici deux ans qui voudra se lancer dans un nouveau projet seulement en DX ?
Comme désormais M$ n’est plus “Dieu sur terre”, (Android, Linux+Steam, navigateurs…) les jeux passeront de plus en plus par de “moteurs”.
On assiste actuellement à une avalanche d’annonce de vendeurs et “moteurs” (récemment Unity + Unreal) qui passent à OpenGL/WebGL pour s’ouvrir le marché Android, Linux/Steam, navigateurs…
Donc finalement, bénéficier des avancées des piles sous-jacentes, c’est juste porter les moteurs.
Ce qui sera intéressant est donc de voir à quelle vitesse les noms du genre Unreal, Unity, etc… utiliseront la future nouvelle API
Ne croyez pas non plus que tout le monde utilise des moteurs tout faits pour créer des jeux vidéo. Ce n’est pas forcément adapté à tout.
C’est quoi l’intérêt d’assurer un support continue sur des cartes qui ne gèrent seulement que DirectX 9 / OpenGL 3.0 ?
Correction de bugs et compatibilité avec de nouveaux OS.
Et sinon, le G80(Alias 8800,9800 et 250Gts) était déjà compatible DirectX 10.
Le
19/03/2014 à
01h
53
luxian a écrit :
Pour le silence, c’est à voir
" /> … tiens tiens tiens … parfois PCinpact lis les réactions aux news hein ?
Sapphire Radeon R7 250 Ultimate : passive, et donc silencieuse
J’ai commencé par voir la photo et être tout heureux ….
…. puis j’ai lu “ Radeon ”
et je me suis dit … et M…E c’est une ATI.
Hors pour remplacer mon actuelle HD 6850, j’ai envers ATI la même réaction épidermique qu’envers FIAT …. (qui se prononce aussi fiote) …. PLUS JAMAIS FIAT ! (ils avaient lancé une pub sur ce thème à la radio … mais curieusement elle n’a duré que 1 mois, le temps qu’ils remarquent que les gens approuvaient les 3 premières phrases dont PLUS JAMAIS FIAT, puis oublient d’écouter la suite).
D’ailleurs dans FIAT, qu’est-ce qu’on trouve comme lettres ?
En même temps, en matière d’automobile, il faut se méfier de préjugés.
Beaucoup de gens seraient très surpris de voir les résultats d’études sur la fiabilité.
Le
18/03/2014 à
23h
56
GMA a écrit :
Nvidia, still the best, but don’t forget ATI :)
Depuis que nVidia a décidé d’abandonner le support des cartes de plus de 4 ans, sur quel avantage concret pourrait t’on affirmer que leur offre serait supérieure à celle d’AMD ?
Quelqu’un qui a expérimenté le mining de cryptomonnaie peut-il confirmer/infirmer que le “minage” de ces monnaies n’est pas rentable en France compte tenu du coût de l’électricité, sans avoir recours à du matériel hyper spécifique (du type hardware spécialisé nécessitant un investissement lourd et un ROI à horizon supérieur à l’année) ?
Je vois ici et là des gens commenter, laissant penser qu’ils ont essayé et je suis curieux de savoir si certaines crypto monnaies (notamment la 1.6 de dogecoin) sont devenues rentables en France.
Il y a 1 an et demi quand j’avais creusé le sujet sur les bitcoins, seuls certains pays d’Europe de l’est ou en Asie permettaient de miner rentablement.
Si tu cherches la rentabilité directe, c’est à dire gagner de l’argent juste en minant, la plupart des gens te diront que la réponse est plutôt négative.
Depuis le passage en docsis 3 ça se passe bien mieux.
J’avais un voisin qui me disait que c’était merdique, le jour où le docsis 3 a été dispo je me suis abonné au net chez eux (j’avais deja la TV) et ça marche nickel même avec ce FTLA tant décrié.
Le SAV n’était pas moins bon ou meilleur que chez Free ou Orange par exemple, si on tombe sur une personne qui lit son cahier des consignes faut pas hésiter à rappeler.
Il m’est arrivé plusieurs fois chez NC de tomber directement sur un support L2, autant dire que le mec savait de quoi il parlait et on pouvait discuter un peu. étant ingé réseau j’avoue que la techno est un peu particulière mais pas si mal pour du cuivre. En gros depuis le DOCIS 3 les fréquences sont alloués dynamiquement selon la bande passante requise par le client. Chaque branche coaxiale se trouvant derrière une node optique peut voir sa répartition de fréquences changer ultra-rapidement.
Côté TV NV offre de loin la meilleure qualité du marché un poil devant le sat grâce au DVB-C.
L’IPv6 n’est pas encore d’actualité chez NC, surement cette année mais que pour LaBox à mon avis.
Pas d’IP fixe mais DynDNS possible.
Les CGV interdisent toujours de faire de l’hébergement mais avoir un NAS n’a jamais provoqué une résiliation de contrat. Perso j’ai déjà uppé à fond plusieurs jours d’affilé et aucun bridage.
Newsgroup, torrent, Youtube, tout marche à fond et j’ai toujours entre 26 et 30 Mbits/s " />
Enfin pour ceux ayant des problèmes de puissance, surtout en maison individuelle n’hésitez pas à installer un amplificateur Konig avec voie de retour. " />
Certes, le débit est très bon et le ping est excellent. Mais par chez nous, il y a des coupures assez souvent. Au point que je me suis résolu à garder un second abonnement chez un autre FAI.
Quand à leur box, je suis surpris de voir des bugs importants perdurer. Par exemple, désactiver le DHCP n’a qu’un effet temporaire jusqu’au prochain reboot de la box (ce qui arrive lors des mises à jour). C’est agaçant. Et le système pour le routage des ports me semble perfectible.
Bref, je suis d’un côté enthousiasmé par les bonnes performances de leur réseau en terme de débit et de ping, de l’autre mitigé par une qualité de service perfectible.
Si la plupart des titres crées par de petites structures connaissent un succès très relatif, pour ne pas dire confidentiel, d’autres explosent parfois au grand jour, d’un coup d’un seul, souvent à la plus grande surprise de leurs créateurs. Rogue Legacy, un rogue-like au style très pixellisé, est un de ceux-là, et fut rentabilisé en… une heure.
La recette miracle pour faire d’un jeu banal un énorme succès commercial :
(1) Trouver le moyen de passer par un “youtuber” connu. Le plus simple est de payer une agence qui as de bons contacts.
(2) Les autres “youtubers” en bon troupeau de moutons vont relayer. Ce qui permet d’assurer le buzz pour lancer le jeu sur Greenlight.
(3) Le jeu se retrouve Greenlighté sur Steam suite à un nombre de votes important.
(4) Il se vends de manière exceptionnelle en quelques jours.
(5) Devant ce succès, les média se sentent obligés d’en parler, ce qui accentue encore le succès du jeu (comme s’il en avait encore besoin). Les média sont utilisés comme une caisse de résonance et n’ont plus aucun de rôle de prescription ni de découverte de talents.
Voila comment le web d’aujourd’hui devient une gigantesque machine à propulser des produits moyens au firmament… au détriment des bonnes créations.
Pourquoi ? Si je mine à perte je n’aurai rien à débourser.
Après je ne crois pas pouvoir spéculer dessus mais étant donné que je n’ai rien à perdre (sauf peut-être ma vieille CG qui ne me sert presque pas) autant tenter le coup.
Si, par le biais de ta facture EDF. " />
Le
15/03/2014 à
23h
38
zogG a écrit :
C’est un métier de miner des *coins?
Va savoir ce qu’est un métier de nos jours…
Le
15/03/2014 à
21h
53
iosys a écrit :
Je sais pas quel est le bénéfice social de cette monnaie, mais elle a seulement du succès vis-à-vis de la jalousie qu’on a par rapport aux banques (méchant traders et états démocratiques totalitaires qui contrôlent trop, toussa…).
Je suis sur que la manche dans la rue rapporte nettement plus que lorsque vous jouez les pseudo-crypto-fiduciaire, mais faut avoir les c*s pour le faire dans la rue.
Sûr que la tentation de gagner de l’argent en 2 clics, c’est moins difficile que ça. Mais à notre époque, quand personne ne nous regarde on perd très vite notre petite humanité et surtout notre altruisme derrière cette pseudo informatique sociale, open-source qui ne l’a que de nom, en 2014.
Pourquoi les gens devraient t’il préférer faire la manche ? parce que c’est plus dégradant c’est mieux ?
Nous sommes dans un monde ou il n’y a plus de boulot pour tout le monde. Alors comme on dit, il n’y a pas de sot métier.
Reste qu’effectivement, ta remarque reste pertinente concernant la rentabilité de l’affaire.
C’est marrant ce que vous dites sur les 8800GTS, j’en ai eu une (640Mo) achetée en 2007, O/C en GTX en 2010 et j’ai joué aux jeux récents avec jusqu’en fin d’année dernière (Far Cry 3 a été le dernier jeu auquel j’ai joué avec cette carte) en haute qualité en 1280x1024 avec un C2D E6600 O/C à 3Ghz et 4Go de RAM. J’ai changé en début de cette année pour une GTX770 car le dernier Splinter Cell ramait grave avec (en même temps, 7 ans d’utilisation c’est largement + que rentabilisé!) et j’ai jamais eu de soucis avec cette carte graphique! Et le + étonnant c’est que le C2D est encore largement suffisant pour les jeux alors que le mien date de 2006 quand les C2D sont sortis! " /> Bon je sais qu’une fois que les jeux exploiteront bien les capacités des consoles comme la One ou la PS4 ma config sera complètement à la ramasse, mais en attendant mon PC fixe à 8 ans, et à part un changement de carte graphique et un rajout de RAM j’ai rien changé! C’est époustouflant de voir la longévité des C2D niveau puissance comparé à avant où fallait changer tout les ans quand on jouait. Je joue pas énormément, juste à quelques licences comme Splinter Cell, Stalker, Far Cry…. Mais en tout cas je suis content de constaté que mon C2D tient toujours le coup! " />
En réalité, c’est un peu logique.
Si les éditeurs faisaient des jeux qui ne tournent que sur le matos le plus récent et le plus puissant, ils n’en vendraient quasiment pas.
On entends souvent que pour jouer aux jeux récents, il faudrait toujours avoir le dernier matos haut de gamme. C’est vrai, mais uniquement si l’on veut jouer “tout à fond” et en haute résolution avec un excellent “framerate”.
Mais il y a presque toujours des réglages qu’on peut ajuster pour jouer dans des conditions correctes avec des cartes graphiques moins puissantes et/ou dépassées. Et parfois sans perdre grand chose.
Après, il y a toujours une limite et un beau jour ou “ça ne passe plus” dans des conditions correctes ou alors avec une telle perte de qualité que le jeu est gâché.
Le
15/03/2014 à
17h
51
Lafisk a écrit :
Tu es donc d’accord avec la plupart des comms, ce que tu cites sont loin d’etre lourd a cote d’un bf3 par exemple je doute que ton sli de 8800 soit tres efficaces sur battlefield en mettant tout a fond.
Bf3 tourne très bien, même sur une seule 8800. Ok, c’est pas tout à fond. Et alors ?
Comme dit maintes fois, les maj ne concernent deja plus beaucoup les vieilles series, les 8800 par exemple, ca doit faire un bail que les maj n’ont pas du apporter grand chose pour ces CG … faut deja avoir une carte de serie n-2⁄3 pour encore voir quelques qmeliorations de temps a autre.
On ne s’attend pas à des optimisations de drivers sur des cartes de cet age la, mais plutôt des corrections d’incompatibilités de temps à autres. Tous les petits problèmes qui peuvent apparaître avec le temps. Et jusqu’à maintenant, tout le monde était plutôt content de leur support.
Et c’est là que j’opte pour la 3e possibilité: utiliser les dépôts rolling release pour les applications que je veux.
C’est effectivement une voie intermédiaire très intéressante et très judicieuse. Le besoin d’avoir les dernières fonctionnalités étant souvent réduit a quelques logiciels bien précis.
4322 commentaires
Non, le 3310 de Nokia n’est pas de retour
27/03/2014
Le 28/03/2014 à 13h 21
N’en déplaise à ceux qui pensent qu’un téléphone ne peut pas durer plus de 2 ans, mon ancien Nokia 3310 fonctionne toujours. J’en ai fait don à quelqu’un après l’avoir reconditionné (changement de batterie). Comme je suis très soigneux, il était comme neuf.
Son énorme autonomie en fait toujours un excellent téléphone.
On devrait interdire totalement la vente des téléphones dont la batterie n’est pas remplaçable facilement.
Parce qu’il est illogique de se plaindre d’un côté de nos déséquilibre de la balance commerciale et de l’autre de tolérer que des opérateurs proposent des forfaits qui poussent à la consommation de téléphone que l’on importe par millions.
A quand une maîtrise des dérapages économiques dans ce pays ?
La famille Windows perd des plumes en Europe, Apple et Google en profitent
27/03/2014
Le 27/03/2014 à 18h 46
Bousculé dans le marché des ordinateurs, et en retrait évident par rapport à la concurrence dans les appareils mobiles, Microsoft souffre ces dernières années. Une situation difficile qui se répercute dans les chiffres. La dernière étude d’AT Internet, basée sur l’audience de plusieurs milliers de sites en Europe, montre ainsi que la famille Windows n’a capté que 71,2 % des visites en février 2014. Un taux particulièrement faible quand on sait qu’il était de 78,3 % un an plus tôt, et qu’il surpassait les 90 % il y a quelques années.
En même temps, il faut faire attention aux titres.
Windows est un Os pour ordinateur. Et ce n’est pas parce que les gens utilisent dorénavant plus souvent leur mobile pour surfer dans les chiottes que pour autant Windows serait en recul sur les ordinateurs. Bien sûr, ce n’est pas ce qui est dit dans l’article, mais mieux vaut le préciser.
De la même façon, il faut nuancer les parts de marché de Linux dans la mesure ou ces valeurs ne représentent que la partie visible de l’iceberg : La plupart des gens ont une box chez eux tournant sur Linux et ils surfent sur des sites internet qui sont en majorité sous Linux. Donc ils utilisent Linux la plupart du temps et sans le savoir.
Pourquoi ne devrait t’on compter que la partie “client” quand on parle d’utilisation ? Le web est une chaine et le client n’est qu’un maillon parmi d’autres.
Le 27/03/2014 à 18h 27
Le 27/03/2014 à 18h 22
La version 3.12 de GNOME améliore un grand nombre d’éléments
27/03/2014
Le 27/03/2014 à 18h 04
Le rachat d’Oculus VR par Facebook sème le chaud et le froid dans les studios
26/03/2014
Le 26/03/2014 à 22h 30
Et voila, il s’est passé pour Occulus VR exactement ce que j’avais prédit depuis le début.
Certains auraient peut être préféré un autre acheteur que Facebook. Mais réfléchissons un instant : cela aurait t’il été mieux si Occulus avait fini dans le giron de Microsoft ou Apple ?
Personnellement je ne le pense pas.
De toute façon, Occulus VR ne pouvait que finir racheté par un acteur important : Ils n’avaient pas les moyens de développer le marché avec leurs moyens propres.
Au moins Facebook est un acteur tierce partie par rapport aux fabricants d’OS et de matériel. C’est le point positif.
Pour le reste, ce qu’en fera facebook, l’avenir nous le dira.
MS-DOS, Word : des codes sources offerts au Computer History Museum
26/03/2014
Le 26/03/2014 à 22h 12
One (M8) : HTC dévoile son nouveau smartphone 4G pour 679 euros
25/03/2014
Le 26/03/2014 à 01h 37
Le 26/03/2014 à 00h 52
Le 25/03/2014 à 18h 23
Feu rouge en approche pour Greenlight
25/03/2014
Le 25/03/2014 à 17h 52
Pour Peter Molyneux EA n’est pas un empire maléfique
24/03/2014
Le 24/03/2014 à 22h 38
Le 24/03/2014 à 22h 21
Intel détaille sa roadmap : Devil’s Canyon, DDR4, X99, Haswell-E et Broadwell
21/03/2014
Le 22/03/2014 à 22h 36
Le 22/03/2014 à 22h 29
Java 8 débarque enfin avec ses expressions lambda et sa sécurité renforcée
19/03/2014
Le 22/03/2014 à 02h 06
Le 22/03/2014 à 01h 32
Le 22/03/2014 à 00h 41
Le 21/03/2014 à 21h 13
Le 21/03/2014 à 19h 43
Le 21/03/2014 à 00h 55
Le 21/03/2014 à 00h 41
Le 21/03/2014 à 00h 34
Le 19/03/2014 à 22h 08
Mojang explose son record de bénéfices en 2013
19/03/2014
Le 21/03/2014 à 23h 39
Désolé mais pour moi, ceux qui critiquent le fait de débourser 20 Euros dans un jeu ce sont les mêmes qui alimentent ce marché discount néfaste pour les produits plus “matériels”. Ils font bien de plus de mal que de bien.
Le débat est assez complexe parce que tout est relatif.
Dans l’absolu, 20 euro ce n’est vraiment pas cher payé pour un tel jeu. Mais tu as aussi des gens pour qui ça peut représenter beaucoup. Un jeune qui n’a pas beaucoup d’argent de poche par exemple.
En baissant progressivement les prix des jeux dans le temps, les éditeurs ont réussi à faire coup double : Faire payer le prix à celui qui peut payer. Et de l’autre permettre à celui qui n’a que 5 euros de pouvoir s’acheter des jeux.
L’avantage est d’éviter le piratage et surtout la mauvaise habitude qui en découle : des gens qui prennent ensuite l’habitude de tout avoir gratuitement et n’ont plus conscience qu’il faut payer d’une façon ou d’une autre pour que les créateurs puissent vivre.
Ensuite, peux t’on comparer l’économie de biens physiques et virtuels ? Contrairement aux biens virtuels, les biens physiques ont un coût de duplication. C’est ce qui les rends très différents.
Maintenant, je comprends bien ce que tu veux dire et je te rejoins sur le fait que cette culture du “discount” peut être absolument destructrice.
Par exemple, on ne peut pas d’un côté acheter des biens “à pas cher” fabriqués dans des pays à bas cout de l’autre côté se plaindre que le chômage explose et que nos enfants n’arrivent plus à s’en sortir.
Le 21/03/2014 à 23h 08
Le 21/03/2014 à 21h 36
Le 20/03/2014 à 23h 11
Le 20/03/2014 à 23h 00
J’ai acheté minecraft il ya déja un petit bout de temps, me rappelle même plus quand. Ca n’a eu aucun impact financier (faut arrêter les c’est trop chers) et aujourd’hui je bénéficie toujours des MAJ sans avoir à débourser un rond…
Totalement d’accord. Les gens auraient tort de se plaindre : Ce jeu vaut très largement son prix.
Mais en même temps, compte tenue de l’énorme quantité d’argent qu’il a rapporté par rapport à son coût de revient initial et le fait que les ventes semblent se maintenir, à leur place j’aurais consacré un peu plus de moyens à son amélioration histoire de maintenir l’intérêt dans le temps. Je pense que cela aurait été un bon calcul, mais c’est juste mon avis personnel.
Le 20/03/2014 à 22h 37
Le 20/03/2014 à 18h 47
Le 20/03/2014 à 18h 29
Le 19/03/2014 à 16h 52
Bon joueur, Oculus VR félicite Sony pour son casque Morpheus
21/03/2014
Le 21/03/2014 à 21h 28
Plutôt bon joueur, Nate Mitchell, le cofondateur d’Oculus VR, félicite le mouvement du géant japonais.
Il a surtout compris que cet événement signifie la réussite de leur entreprise.
Un gros acteur qui s’y met, cela signifie d’autres gros acteurs qui voudront s’y mettre. Et donc potentiellement une revente à un bon prix des actions de leur entreprise.
Contrairement à ce que certains peuvent imaginer, le but d’une startup n’est pas forcément de rester indépendant. Dans la plupart des cas, les créateurs s’enrichissent en revendant à des plus gros à un moment donné.
DirectX 12 : de vastes gains en perspective… si l’on s’en donne la peine
21/03/2014
Le 21/03/2014 à 18h 45
Le récap’ des tests : quatre GPU taillés pour le jeu
18/03/2014
Le 19/03/2014 à 15h 34
Le 19/03/2014 à 01h 53
Le 18/03/2014 à 23h 56
Leu lenguage SMS né pa raisponsabl D difQLt an ortaugraf
19/03/2014
Le 19/03/2014 à 15h 08
Le CNRS se veut plutôt optimiste face à ces résultats.
Il est bien le seul…
Bandes-annonces : les hommes et leurs relations avec les femmes de leur vie
18/03/2014
Le 18/03/2014 à 22h 41
Les histoires d’amour au cinéma, c’est toujours franchement stéréotypé et bassement marketing.
A chaque film, les mêmes stéréotypes : Le beau héro, la jolie nana, la scène du baiser, etc…
Crypto-monnaies : le marketing et les produits des constructeurs s’adaptent
18/03/2014
Le 18/03/2014 à 21h 52
Un Américain condamné à payer 42 150 $ pour le téléchargement de films X
18/03/2014
Le 18/03/2014 à 21h 21
Pas de secret, nous sommes dans un monde ou le capital devient mieux défendu que les droits de l’homme.
LaBox : Numericable double l’upload, mais ne souhaite pas communiquer
18/03/2014
Le 18/03/2014 à 21h 17
Rogue Legacy, un jeu indépendant rentabilisé en une heure de ventes
18/03/2014
Le 18/03/2014 à 20h 14
Si la plupart des titres crées par de petites structures connaissent un succès très relatif, pour ne pas dire confidentiel, d’autres explosent parfois au grand jour, d’un coup d’un seul, souvent à la plus grande surprise de leurs créateurs. Rogue Legacy, un rogue-like au style très pixellisé, est un de ceux-là, et fut rentabilisé en… une heure.
La recette miracle pour faire d’un jeu banal un énorme succès commercial :
(1) Trouver le moyen de passer par un “youtuber” connu. Le plus simple est de payer une agence qui as de bons contacts.
(2) Les autres “youtubers” en bon troupeau de moutons vont relayer. Ce qui permet d’assurer le buzz pour lancer le jeu sur Greenlight.
(3) Le jeu se retrouve Greenlighté sur Steam suite à un nombre de votes important.
(4) Il se vends de manière exceptionnelle en quelques jours.
(5) Devant ce succès, les média se sentent obligés d’en parler, ce qui accentue encore le succès du jeu (comme s’il en avait encore besoin). Les média sont utilisés comme une caisse de résonance et n’ont plus aucun de rôle de prescription ni de découverte de talents.
Voila comment le web d’aujourd’hui devient une gigantesque machine à propulser des produits moyens au firmament… au détriment des bonnes créations.
[MàJ] Dogecoin 1.6 est disponible au téléchargement
15/03/2014
Le 16/03/2014 à 17h 26
Le 15/03/2014 à 23h 38
Le 15/03/2014 à 21h 53
NVIDIA met fin à ses pilotes Windows pour les GeForce de plus de 4 ans
14/03/2014
Le 16/03/2014 à 01h 38
Le 15/03/2014 à 17h 51
Les smartphones sous Ubuntu seront vendus entre 200 et 400 dollars
13/03/2014
Le 15/03/2014 à 18h 41