Tu peux très bien utiliser des serveurs virtuelles mutualisés.
Tu dimensionne pour le pic (estimation de vente au lancement, nombre de joueurs max connecté en simultané lors du lancement).
Ensuite tu décomissionne au futr et à mesure que tu vois que l’activité se stagne.
Beaucoup de boite dimensionne sur l’activité PIC car au lancement d’un site suite à une campagne marketing si ton site tombe tu perd :
1/ du chiffre
2/ (le plus important) : image dégradé auprès des clients
Mais c’est tout un métier les tests de charge.
C’est une question d’investissement surtout, les MMO coûtent très cher au développement et en termes d’infrastructure.
Et comme les budgets ne sont pas extensibles à l’infini (et que Square Enix n’est pas dans une période où ils peuvent brûler de l’argent comme ça) ils sont obligés de faire des concessions. Perso, je pense qu’il vaut mieux un départ dans la douleur qui demandera de serrer les fesses une semaine ou deux avec une charge qui va se lisser progressivement que d’avoir du réduire les coûts de développement et de démarrer un jeu vide de contenu.
C’est comme la haute disponibilité dans une infrastructure, c’est bien d’en avoir, mais tant qu’à faire, c’est mieux qu’elle ne coûte pas plus que l’infra ne te rapporte d’argent.
quand on te force à faire un max d’appels par jour (vu que les prestas sont payés principalement à l’appel décroché), forcément, ca dégrade tout le reste, la relation client comme les conditions de travail…
De ce point de vue je comprends mieux.
Le
27/08/2013 à
07h
50
Patch a écrit :
ils sont partiellement responsables quand même. ils peuvent très bien taper du poing sur la table pour que les conditions de travail soient améliorées chez les prestas… mais ne le feront pas, parce que ca fera grimper la note.
Ca dépend aussi de comment les conditions de travail influencent la qualité de la prestation.
Si ça dégrade l’image du client, forcément les pénalités vont pleuvoir.
(même si je suis d’accord pour dire que d’une manière ou d’une autre, le client en pâtira)
Le
27/08/2013 à
05h
38
wrongillusion a écrit :
Parceque pour toi avant l’arrivé de Free ces méthodes n’éxistais pas? Pour pas payé d’employés au statu avantageux ^presque toute la conquête commercial par téléphone était sous-traité a des prestataire de call-center genre Arvato, Armatis, Acticall, TéléPerformance, Sitel, N-allo… demande a des employés de tel site ce que c’est la pression et les conditions sociales merdiques…" /> bref faut arrêter de dire qu’SFR, Orange et BouygesTélcom était de gros bisounours avant l’arrivée de FreeMobile… tu as la mémoire bien courte…" />
C’est juste qu’avant il était a trois pour mangé un gateau, maintenant y’en a un de plus dessus…
Les opérateurs sont clients des prestataires de call-center, c’est pas à eux de faire leur management. Mis à part un coup de comm de temps en temps pour dire “bouh c’est pas bien” (comme Apple et Foxconn quoi), ils en auront toujours rien à carrer tant que la presta est rendue.
Et que ce soit des prestataires ou de la filiale (Centrapel dans le cas d’Illiad), on peut pas dire que les conditions soient idéales partout. Callcenter c’est clairement le métier de merde où t’es traité comme de la merde de tous les côtés (clients, clients du client, managers…).
Le
26/08/2013 à
13h
45
GUromain a écrit :
En dégradant le réseau d’Orange, j’ai dégradé l’image de mon opérateur arnaqueur ! J’en suis fiers !
En brûlant le bus j’ai dégradé l’image de la compagnie de transports arnaqueuse et j’en suis fier !
En creusant des cratères dans les autoroutes j’ai dégradé l’image de l’exploitant arnaqueur et j’en suis fier !
En arrachant des câbles dans l’armoire France Telecom j’ai dégradé l’image de l’opérateur arnaqueur et j’en suis fier !
En saturant le serveur mutualisé qui héberge mon site j’ai dégradé l’image de mon hébergeur arnaqueur et j’en suis fier !
C’est beau l’égocentrisme… Si Orange t’arnaques, tu résilies ou tu portes plainte. C’est pas les opérateurs qui manquent pourquoi, ni la diversité dans les forfaits… En particulier depuis que Free a remué le marché.
Arrête de faire ta victime consentante en dégradant le service pour les autres usagers, tout ce que tu y gagnes en te vantant ainsi c’est de passer pour le dernier des abrutis…
Le
26/08/2013 à
13h
14
Patch a écrit :
transposé dans un langage té-ci :
“Wesh zy-va, le bus il passe que toutes les heures devant chez moi et seulement de jour, et en plus il est toujours en retard de 10 minutes, c’est trop pas normal quoi! pour me venger, j’ai pété toutes les vitres des abri-bus quoi! moi suis trop un ouf de la mort! avant j’étais patient, mais faut pas pousser quoi! ah ca emmerde les autres usagers? mais j’en ai rien à foutre quoi! suis trop un ouf t’ai dit!”
et franchement, tu vaux pas mieux.
J’aurais plutôt dit que ça vaut autant que d’agresser le chauffeur, ce qui impacte directement les usagers. (un chauffeur agressé c’est grève générale et paralysie du réseau, et ils ont bien raison !)
Le
26/08/2013 à
12h
47
GUromain a écrit :
Rien que pour les emmerdé j’ai pompé 575 Go au mois de mai ! L’antenne 3G était saturé jour et nuit !
Ça c’est le lavage de cerveau de universal-activision-blizzard qui fait son effet, bravo!
C’est pas faux d’un point de vue sécurité! Mais en quoi c’est un problème ici?
Qu’ils le gardent pour les seuls adepte de l’hotel des ventes.
Je ne triche pas! Mais même si c’était le cas en quoi ça les regarde que je triche dans mes parties SOLO ou LAN avec mes potes! Hein!
Qu’ils m’interdisent l’accès a l’hotel des ventes. Je n’attend que ça. J’y ai jamais foutu le pointeur de ma souris, et c’est pas demain la veille que ça arrivera.
Je veux juste profiter tranquillement du contenu d’un jeu que j’ai payé!
En attendant la dernière fois que j’ai joué (plusieurs mois après la sortie) et ça laguait, et ça laguait, pour une p….n de partie SOLO en pleine nuit.
universal-activision-blizzard sont des pourris incompétent qui méritent de se vautrer méchamment pour leur prochain jeux.
Donc comme dit plus haut par Mightmagic et Vahron, pour moi la comparaison entre la sortie de FF XIV et celles de Diablo 3/Sim City n’a aucun sens.
Pour FF XIV, il aurai fallut avoir des moyens colossaux pour éviter des problèmes.
Pour Diablo 3/Sin City, il suffisait juste d’arrêter d’être con.
(Comme Microsoft semble l’avoir compris pour la XBox One. Mais de leur part c’est assez louche ;-) )
Le lavage de cerveau, tu te le colles au cul et tu te torches avec, merci.
A quel moment ai-je justifié que cette méthode était valable pour les jeux PC classiques avec ou sans multijoueur en ligne (vu que le offline est en train de mourir, que ce soit sur PC ou consoles…) ? Je n’ai même pas pensé à cet aspect puisque l’article est consacré à un MMORPG, jeu par définition exclusivement online.
Si la triche dans les jeux PC en LAN ou Solo n’impacte que les joueurs concernés, dans les MMO c’est toute la population du serveur qui est touchée par les cheaters ou autres bots à farm/spam.
Je déplore, comme beaucoup de monde, le fait que les jeux requièrent de plus en plus une connexion permanente alors que c’est parfaitement inutile au gameplay or partie en ligne. Raison pour laquelle j’évite ce type de jeu (et à dire vrai, je n’ai quasi que des jeux qui sont pensés pour le multijoueur en ligne sur PC). Ni achat, ni piratage de ces merdes, c’est le meilleur moyen de montrer qu’on ne cautionne pas leur point de vue.
Au passage, WoW et Warcraft 3 (+addon) sont les seuls jeux Blizzard que j’ai eu de toute ma vie.
Le
26/08/2013 à
17h
43
Nyn a écrit :
Petites questions: Qu’est-ce qui empêche ces sociétés de louer des serveurs pour encaisser le lancement du jeu, de faire des vrais stress-tests et est-ce qu’il est possible d’avoir plusieurs serveur de connexion pour un même serveur de jeu?
Tout dépend de comment l’infrastructure a été architecturée.
Tu peux avoir une gamme de points d’entrée variée (genre X adresses que le client teste qui pointent vers des SLB avec plusieurs serveurs derrière) et de nombreuses machines se répartissant la charge de calcul.
Mais le souci est qu’un MMO, c’est un très lourd investissement en termes d’infrastructure justement (en mettant de côté le développement qui lui aussi est élevé), elles se chiffrent en plusieurs centaines de milliers d’euros, voir pas loin du million je pense.
Quand bien même l’architecture serait bien pensée et scalable au possible (genre avec location de puissance dans un cloud Amazon ou autre pour encaisser le pic de départ…), le budget du projet risquerait de partir en fumée et derrière, la rentabilité du jeu mettra plus de temps à se faire. Il me semble que la dernière news au sujet des résultats de Square Enix ne donnait pas l’impression qu’ils puissent dépenser sans compter pour le lancement du jeu.
Donc à un moment t’es obligé de faire une concession : tu estimes ta charge moyenne, la pointe que tu peux subir, et tu serres les fesses lors des lancements où trouze millions de joueurs se connecteront en même temps. Passé une semaine ou deux (comme Guild Wars 2, le dernier MMO où j’ai été présent au lancement), la charge va se lisser avec les joueurs qui prendront leur rythme de croisière.
Le plus important pour moi, ce n’est pas d’encaisser le pic de lancement, mais plus d’encaisser les heures de pointes qui sont en général les horaires de soirées (19/20h) et la soirée car c’est là où y’a le plus de joueurs connectés.
Le
26/08/2013 à
16h
44
Vahron a écrit :
Tout pourrait être calculé en local par le client. Non seulement rien ne l’interdit d’un point de vue purement théorique (comment faisaient Diablo I et II, d’après toi ?), mais Blizzard le fait… sur les versions console du jeu.
Le problème est que déporter le calcul sur le client augmente les risques de triche.
Néanmoins, il me semble avoir déjà vu à l’époque où je jouais à WoW que le client se tapait quand même une bonne part des calculs orientés joueurs (genre combats toussa) et le serveur se contentait de les valider et de les diffuser.
Ce qui est le plus lourd pour les serveurs je pense, ce sont les BDD qui sont mises à jour en temps réel pour chaque action du joueur.
Ca demande une infrastructure de communication interne extrêmement rapide (car j’imagine qu’il y a des grappes dédiées à chaque composant du jeu : zone, stats joueur, magasins, hôtels des ventes…), je me demande si les données ne sont pas transférées sous forme de messages, genre par des plateformes JMS et compagnie.
Un bon serveur JMS peut être capable d’encaisser une volumétrie énorme pour peu que le serveur ait une excellente capacité d’I/O (ceux qu’on a au taff sont montés à 50k messages/secondes lors de nos benchs en I/O purs) avec une latence extrêmement faible.
Ah c’est pour la fibre seulement. Ben ça doit bien concerner au moins 4 personnes en France " />
Orange a annoncé dans ses chiffres avoir 200 000 abonnés fibres en mars dernier.
Ca fait quand même pas mal de clients potentiels " />
C’est actuellement l’opérateur le plus important sur cette techno avec Numéricable (qui possède cependant un réseau très différent et inégal) aujourd’hui, que ce soit en nombre d’abonnés ou de foyers éligibles.
Je comprends l’argumentaire, mais j’ai du mal avec l’exagération systématique. Mais on ne fera jamais mieux que les pubs de lessive ou de yaourts qui te font maigrir rien qu’en le regardant " />
Ouais mais pour maigrir faut être une nana à poils aussi " />
Le
26/08/2013 à
15h
56
kwabena a écrit :
C’est à la limite du foutage de gueule, mais c’était pareil quand la 3G est arrivée, et je parie qu’à l’arrivée de la 5G on fera passer la 4G pour de l’EDGE
Argumentation publicitaire classique, le produit N+2 est toujours meilleur que le N+1. (“vous avez aimé machin ? vous allez adorer super machin ! grâce à de superbes évolutions technobullshit il permet de blablabla…”)
Le sketch sur la pub de lessive de Coluche est intemporel à ce niveau-là, les pubs qui annoncent du “plus blanc que blanc à l’intérieur du noeud” ont juste été remplacées par “grâce à l’oxygène actif”…
La dernière fois que j’ai vu une pub à la TV pour ce genre de produit (les trucmuche anti pertes de couleurs toussa) il y avait même un petit sous titre (plus blanc que blanc sur fond blanc lui aussi, il a du passer à la lessive) qui disait “effet volontairement exagéré”.
C’est comme le Nouvel iGalaxyPhone 5S qui est forcément plus mieux que l’ancien, etc. C’est pas du foutage de gueule, juste un argumentaire tourné de manière à te faire comprendre que ton produit actuel est dépassé et qu’il faut upgrader, pour ton bien. " />
Le
26/08/2013 à
10h
40
jiph a écrit :
Ah ouai. Je sais pas ce qui est le pire.
Pour ma part, c’est de se rendre compte en 2013 que les techniques et argumentaires de la publicité n’ont pas changé d’un iota, voire de les découvrir.
En gros, c’est la même chose, visiblement les navigateurs aiment qu’on les maltraites. " />
Qui aime bien châtie bien " />
Le
26/08/2013 à
13h
28
zefling a écrit :
Bha moi, 2 PC (Unbutu / WinXP) en Stable et Nightly, quasi jamais un plantage. Et sous XP, vu que j’ai un profil qui à environ 9 ans avec plus de 50 extensions, ça devrait être un bordel monstre… et même pas.
Par contre, j’espère que t’as pas la mauvaise idée d’installer par défaut Firebug : si tu faire de la sur-conso de mémoire et augmenter tes plantages, c’est l’extension idéale. " />
Catégorie installation “à la con” j’ai un exemple similaire. Mon profil Opera sous Ubuntu est originaire de celui créé y’a … 10 ans sous Windows XP (et recopié au fil des upgrades système et hardware, profil qui a aussi subit les nombreuses mises à jour du logiciel).
Et sa stabilité est très bonne, le plantage étant lié comme beaucoup à Flash.
Mon instance d’Opera a en général un uptime d’une semaine, la nécessité de le redémarrer provenant plus du fait qu’à la longue il commence à avoir le cul lourd en RAM et SWAP. (et avec le vieux memory leak de Nautilus ça aide pas pour faire de la place en RAM aux autres " />)
Il consomme en général 2/3Go de RAM (sur les 8 du PC) pour une quelques 300 d’onglets, c’est aussi mon aide mémoire…
On peux d’ailleurs considérer que la suite office c’est également de la vente liée. Obligé de tout acheter même si seulement une partie nous intéresse
Non, les composants de la suite MSO ne sont pas vendus individuellement, donc on ne peut pas parler de vente liée.
Pour que la vente liée s’applique, il faudrait que chaque composant soit vendu unitairement et donc que Microsoft oblige l’achat de l’un pour avoir l’autre. Ca ne peut s’appliquer à une suite logicielle vendue comme un tout.
Le
24/08/2013 à
08h
09
Drepanocytose a écrit :
C’est très bien.
Bon, dommage que ca ait été motivé au départ par des considérations financières et pas par des considérations techniques et / ou “philosophiques”, mais bon….
Par exemple le coup du valencien et du castillan, connaissant les espagnols et à quel point ils sont tendus sur leurs langues régionales, ca aurait pu être un vrai argument depuis longtemps…
Dans tous les cas, là on a 120.000 postes, une région entière : ca va faire un joli exemple de plus à examiner pour voir si une grosse migration comme celle ci se passe bien, ou pas…
Perso j’ai jamais vu de client (entreprises ou administration) qui ait choisi de migrer vers une solution Open Source par souci d’éthique " />
Les coûts de licence et de fonctionnement resteront l’un des seuls motivateurs de ce genre de décision. Y’a dix ans, les DSI claquaient la thune par la fenêtre et te disaient “pas assez cher mon fils” si tu proposais un truc open source gratuit. Aujourd’hui la tendance s’est inversée…
Accessoirement, si les boîtes marchaient à l’éthique, personne n’achèterai de produits informatique tant les éditeurs sont des requins assoiffés de sang et de pognon dans ce milieu et qui aiment enculer à sec leurs clients " />
(oooh dommage, votre version n’est plus supportée et le bug a été corrigé dans la nouvelle, mais ça tombe bien, on a une promotion en ce moment sur les upgrades de licence ! " />)
Non c’est lié. Ca vient du fait qu’historiquement Windows était juste une interface(le système était DOS)
Par contre si le driver graphique plante le sous système graphique est reinitialisé. Pas besoin de redémarrer le système.
Perso ce qui m’est déjà arrivé, notamment lors des fortes chaleurs, c’est d’avoir l’interface graphique qui s’éteint pour cause de carte qui surchauffe (je présume), en jeu je précise.
J’ai beau attendre, une fois pendant un quart d’heure, celle-ci ne se relance pas, donc obligé de couper brutalement.
C’est le même comportement ou bien c’est le driver graphique qui se banane et ne redémarre pas ?
Mauvaise nouvelle : “I think the full Ubuntu convergence experience will not be in the first round of Ubuntu phones, which we’re targeting for the first quarter 2014,” Silber told CNET. “Just phones, not a full converged plug-into-your-monitor device,” she added, stressing, “I think convergence is the future. It may take many forms.”
Le
23/08/2013 à
09h
09
blob741 a écrit :
Enfin, il n’empêche que même si je ne vais pas m’emmerder à vérifier les auteurs des messages, y’a un léger décalage.
Le mois dernier, c’était, “non mais regarde c’est la folie, déjà x $ en y de temps, dans 20 jours, c’est plié, etc …”.
Et là, on apprend que de toute façon s’ils ont mis une telle somme c’est qu’ils avaient tout planifié pour ne pas que l’argent soit possible à réunir et qu’en fait c’est un coup de pub de génie doublé d’une étude de marché.
C’est aussi une façon de prendre du recul sur quelque chose et tirer des enseignements d’une action.
La campagne de Canonical a certes été un échec côté financement, ils en auront quand même tiré une couverture médiatique, une idée du marché, et une crédibilité.
Bref, toujours voir le bon côté des choses, même quand y’en pas. C’est mieux que de dire “bouh ils se sont plantés les nuls ça servait à rien”.
Le
23/08/2013 à
04h
41
benco a écrit :
Ouaip pour l’objectif il aurait surtout fallu que les institutionnels se bougent.
At&t orange verizon etc tous les grands operateurs auraient pu donner 1 millions c’etait dans leur interet
Pour du particulier 32 millions c’est enorme
Le seul gros investisseur fut Bloomberg avec un achat d’un kit à $80k.
Vu que l’Edge était limité aux investisseurs (l’appareil n’était pas destiné à la commercialisation de masse), je ne pense pas que les Opérateurs y auraient vu un quelconque intérêt car ça leur aurait fait peu de mobiles à revendre derrière (à moins d’en équiper son personnel comme voulait le faire Bloomberg).
Il n’y aurait pas eu assez d’unités produites pour faire une offre intéressante et rentable je pense.
Le
22/08/2013 à
20h
38
raphke a écrit :
Je viens de lire l’article que tu mets en hyperlien et je te trouve dur envers lui.
32 millions en 30 jours pendant les mois de vacances d’été c’était franchement beaucoup. Pour le reste coup de com et que les geeks là je ne suis pas vraiment d’accord. Je ne sais pas combien il existe d’utilisateurs individuels et professionnels de Ubuntu mais 40000 (surtout à 695 dollars pour les specs prévues) ça pouvait être atteignable
(c’est pas moi qui ai lié cet article " />)
Ubuntu a effectivement un gros potentiel, le site officiel se vante d’avoir plus de 20 millions d’utilisateurs après tout.
La période choisie et le montant sont ce qui me fait penser que le projet était avant tout une campagne de communication couplée à une étude de marché et de faisabilité.
Comme j’ai dit, si l’Edge avait vu le jour, tant mieux. Sinon pas grave, Canonical a gagné de la crédibilité auprès des opérateurs et de constructeurs pour que son système puisse être vendu avec des mobiles nativement.
Suffit de voir le site officiel d’Ubuntu, ils le disent clairement que d’ici 2014, les smartphones sous Ubuntu arriveront.
Après, restera à voir comment la presse accueillera ces premiers appareils. En espérant que ça ne finisse pas en vomi de débiles qui parleront de “iOS killer” ou “Android killer”, Ubuntu for Phones ne jouant pas du tout dans la même catégorie… (l’un promet d’être un OS complet, les autres de vulgaires systèmes à consommation de contenu)
Sauf que ce qu’il dit montre un manque de connaissance du sujet : le projet Ubuntu for Phones a été lancé bien avant la campagne Edge ! Le système est disponible en version de développement depuis le début de l’année et de nombreux portages pour les différents Androphones sont réalisés par la communauté en plus de Canonical.
Le but d’Edge (outre le formidable coup de comm), c’était de créer un fer de lance sous leur OS mobile. Le financement à foiré, dommage, tant pis.
L’OS restera dans tous les cas prioritaire pour Canonical, ça reste leur coeur de métier le software.
Après, le début de la campagne où beaucoup disaient “y vont s’planter” c’était pour moi la culture de l’échec typiquement française… “à quoi ça sert d’investir dans quelque chose puisqu’ils vont se planter ?”
Pour faire un parallèle vaseux, c’est comme les RH qui refusent des débutants pour cause de “manque d’expérience”, si personne ne leur en donne à un moment, ils n’en auront jamais.
Comme on dit : qui ne tente rien n’a rien.
Le
22/08/2013 à
16h
30
Ingénieur informaticien a écrit :
A l’heure ou Apple semble se diriger vers un éventuel “smartphone low cost”, est-ce bien le bon créneau qu’un smartphone à 600$ pour un appareil linux ?
Les specs que l’Edge visaient sont quand même à faire pâlir n’importe quel smartphone haut de gamme pour son prix. (4Go de RAM, un SoC 4 coeurs, 128Go de stockage, écran 4.5”…)
Le comparatif qu’avait mis Canonical montrait clairement que le placement tarifaire par rapport à la fiche technique était très intéressant.
Certes sur le papier c’était joli et on ne le verra peut être jamais en vrai mis à part les quelques protos réalisés par Canonical, mais rien que sur le stockage et la RAM ils étaient au double de toute la concurrence.
J’espère que ceux de constructeurs seront à la hauteur, car dans les specs minimales, le système Convergence nécessitait au moins 32Go de mémoire interne il me semble. Or en ce moment, la tendance est à la baisse sur les androphones… " />
Le
22/08/2013 à
15h
56
Perso je pense que Canonical a fait exprès de mettre un objectif très élevé et quasi impossible à atteindre en si peu de temps.
A mon avis, si la campagne avait été une réussite, l’Edge aurait bien été produit et tant mieux pour tout le monde.
Mais dans le second cas, Ubuntu et Canonical auront bénéficié d’une excellente couverture médiatique pour une entreprise relativement “underground” pour le grand public et les medias peu enclins à parler de ces sujets.
Au final ça aura apporté une certaine crédibilité à Canonical en montrant qu’il y a un public potentiel derrière, qu’ils ont été capables d’atteindre une somme considérable en assez peu de temps, et donc comme l’article le dit, ça aura ouvert des négociations avec des constructeurs.
Accessoirement, ça leur a fait une putain d’étude de marché pour quasi rien…
Par contre la presse se focalisera beaucoup sur “l’échec” de la campagne, c’est dommage…
D’après Shuttleworth, des mobile natifs sous Ubuntu for Phones devraient arriver en 2014. Encore un an à attendre avec mon petit 3GS…
Depuis quand un changement de base s’accompagne obligatoirement d’un renouvellement du parc ? La question ic c’est de se de demander si ils devaient passer du X86 à autre chose, mais de voir si reprendre une base logicielle plus saine ne leur aurait pas été bénéfique.
J’ai bien parlé de parc logiciel. Admettons, demain Microsoft dégage le noyau NT et la couche Win32 de Windows pour mettre, soyons fous, un noyau BSD ou Linux pour la déconne.
Est-ce que les logiciels Windows fonctionneront nativement dessus en un claquement de doigts sans nécessiter d’éventuels redéveloppements ou une recompilation ?
Quand on voit qu’il y a encore des entreprises qui essayent coûte que coûte de faire survivre des vieux zinzins en NT4, Win 98 ou que sais-je parce qu’ils sont les seuls à pouvoir faire tourner une machine coûtant la peau des couilles et que l’upgrade en coûterait tout autant.
Ou même une infrastructure plus normale, genre j’ai un serveur d’applications sous Windows 2012, demain WIndows 2015 sort et pète la compatibilité ascendante logicielle.
Si je décide de passer sur ce système, je vais devoir racheter tous mes progiciels. (et accessoirement l’éditeur va devoir mettre à jour ses produits, entraînant des coûts et risques d’instabilités car le système n’est pas éprouvé)
Et quand on voit à combien peuvent se chiffrer les coûts de licences de progiciels afin d’avoir du support, je doute que beaucoup de DSI aient envie du jour au lendemain de refaire une grande partie de leur système d’information.
Pour moi, Microsoft est obligée d’assurer une transition d’une manière ou d’une autre si elle veut demain changer tout son système. Elle l’a déjà faite pour Windows 7 en ajoutant le bricolage du Mode XP afin de favoriser l’implantation du système en entreprise, et pour Windows 8 elle a joué la carte du double environnement.
Si Apple est capable de se permettre des changements radicaux du jour au lendemain, Microsoft ne le pourrait pas commercialement car ce serait le risque pour elle de perdre violemment sa PDM avec des entreprises qui se diront que quitte à mettre à jour l’OS et les logiciels, ben pourquoi ils resteraient sous Windows ?
Garder un client captif est ce qu’il y a de mieux pour une entreprise commerciale. De ce côté là, IBM ou Oracle savent bien y faire également.
Le
23/08/2013 à
17h
45
methos1435 a écrit :
Relis ce que j’ai dis. Le changement effectué par Apple c’était quand ? 12 ans environs ? Ils ont eu le courage de tout casser pour partir sur de bonnes bases et OS X est toujours là… Le changement, quand je dit qu’il auraient du le faire il ya des années, c’était il ya environs 10 ans, à l’époque de Windows XP, plus maintenant bien sure.
La comparaison avec Apple n’est pas pertinente pour moi. Que ce soit le passage à Mac OS X (qui, il me semble, est celui qui est parti sur sa base Unix) ou le changement d’architecture pour passer du PowerPC à Intel, Apple n’a pas la contrainte de Microsoft là dessus.
Microsoft possède une PDM très élevée dans le secteur des OS desktop ou serveur. Le revers de la médaille est qu’ils ne peuvent pas se permettre de casser la compatibilité du jour au lendemain et son obligés d’assurer un historique à cause de cela.
Je doute qu’une entreprise accepte de racheter la totalité de son parc logiciel parce que l’OS de base ne sera plus capable de le faire tourner. Une telle chose aurait pu porter un très gros préjudice à Microsoft.
Sans oublier l’allergie virale au changement dans le monde de l’informatique, retirez le menu démarrer de Windows et remplacez le par un écran interactif personnalisable et regardez ce que ça a levé comme boucliers et critiques.
Si Apple a plutôt eu une certaine liberté dans la gestion de ses changements, Microsoft est emprisonné par sa position dominante et l’immobilisme des entreprises à cause des coûts engendrés par les mises à jour de système et parc applicatif.
L’un comme l’autre a généré des grognements à chaque fois qu’il a cassé une compatibilité ascendante, mais peut-être que le positionnement tarifaire d’Apple l’aide à mieux faire passer la pilule car préféré par des entreprises qui sont moins frileuses financièrement ?
Le
23/08/2013 à
15h
58
SInon je pense qu’on en a rien à foutre du concours de zigounette sur qui entre Stallman, Ballmer, Jobs ou ma grand mère a le plus contribué à l’informatique…
Chaque acteur a sa vision du marché et de la technologie et contribue à son évolution à sa manière en se complétant l’un l’autre sans réellement s’en rendre compte.
Donc laissez tomber vos œillères de la taille de la Grande Muraille de Chine et apprenez à avoir une vision globale des choses.
Ras le bol des gamineries de cour d’école à base de “mon père il est mieux que le tiens”…
J’ajoute que même avec allumage/extinction quotidienne et multi-quotidienne, des disques durs de plus de 7 ans, j’en ai.
J’ai un disque sur un portable qui comptabilise plus de 4000 démarrages selon ses compteurs (un 40Go, 7 ans).
En fait, le dernier disque dur qui a rendu l’âme définitivement chez moi c’était un 1Go je crois. Et avant, un 420Mo.Mais ils avaient chutés.
Pareil, perso j’ai jamais eu de HDD qui a clamsé de sa belle mort, juste un externe qui est tombé et celui de mon premier PC (un vieux Seagate 16Go d’il y a plus de dix ans).
Dans mon cas personnel, le PC tournant H24 forcément le disque ne s’arrête pas de tourner. Mon précédent PC est a fonctionné comme ça pendant 5 ans sans jamais montrer signe de faiblesse coté disque (il a du avoir un downtime de 2 jours en tout dans sa vie avec mes déménagements…).
Mais même celui de mon PC portable (Asus A6 d’il y a 6 ans) ne montre pas de fatigue malgré un usage très intensif et des arrêts/démarrage fréquents du fait de sa mobilité.
Donc au final, quand bien même j’aimerais avoir un SSD pour gagner en perfs, le fait qu’ils soient potentiellement plus éphémères qu’un HDD m’a toujours rebuté.
le nombre de fois ou j’ai voulu joué 10 minutes mais que ca a pris 15 a faire une mise a jour, et que du coup j’ai eteint la console, m’a bien agacé
Oui j’avais bien vu le petit troll, mais j’avais envie de déballer mon sac sur ce système de merde ^^
Le
23/08/2013 à
13h
41
fraoch a écrit :
Peut etre parce que sur PS3 c’etait deja bien fait des le depart ?
L’OS de la PS3, perso je le trouve catastrophique. Les temps d’installation d’un jeu (que ce soit depuis le lecteur blu-ray, dont on peut mettre la faute sur sa lenteur, mais aussi la décompression de ceux pompés sur le PSN), le temps de démarrage, le temps qu’il met à afficher les données, l’appel en cours d’un jeu qui est encore plus lent, etc.
On passe plus de temps à attendre qu’elle ait fini de mouliner qu’autre chose, on se croirait sur XP après une ouverture de session " />
Tout le monde remarque que les pc de table n’ont plus la cote et en plus, les pc ne change plus beaucoup. Au début des année 2000 les pc évoluais à vitesse folle ce qui faisait que ton ordi acheter un an auparavant était déjà à la traîne. Aujourd’hui des pc de 2009 suffise largement pour bien des gens. L’arrivé des double cœurs a fait vendre beaucoup de pc mais dur plus longtemps qu’avant. Je pense que c’est pas juste hp mais toutes les marques qui en souffre.
En fait ça me fait doucement rigoler. L’arrivée de Vista tout le monde a hurlé parce que le système demandait un poil plus de ressources et a “permis” aux desktop de faire un sacré bond en avant (on passait quand même d’une moyenne de machines à genre 256/512Mo de RAM à 1/2Go en standard + le 64bits qui s’est démocratisé).
Mais depuis Windows 7 et 8 se lissent dans leurs exigences et peuvent tourner sur des vieux zinzins avec plus d’aisance que leur XP d’origine si j’ose dire (dans mon cas mon vieux portable en Centrino a beaucoup aimé 7 comparé à XP " />), ce qui fait que le besoin de renouveler le matériel en cas d’upgrade système devient moins important, donc moins de ventes…
Plus le fait que début 2000 c’était aussi l’explosion d’Internet dans les foyers, l’acquisition d’équipement s’est faite rapidement. Maintenant on passe en cycle de renouvellement suite à obsolescence, donc moins de ventes.
Plus la concurrence du mobile qui s’est pointé entre deux, donc marché du fixe qui prend un coup également…
Perso l’idée de voir un géant du web utiliser son propre moteur de rendu m’est dérangeante.
C’est la porte ouverte aux abus, et connaissant Google, ils vont pas se gêner pour bien optimiser comme il faut leurs applications pour Blink tout en mettant un petit message disant que c’est mieux avec Chrome afin de pousser encore plus sa domination sur le Web. " />
Pour moi il manque juste un truc pour faire un device de dingue.
Il faudrait que l’Occulus Rift puisse filmer et reconnaître les mains et bras du joueur pour les réintégrer dans le jeu. En gros faire l’inverse de la réalité augmenté : mettre du réel dans un monde virtuel (le tout en temps réel, miam). Imaginez vous un peu agiter vos bras dans un sweatshirt dans la réalité alors que dans l’OR vous êtes en tenu de spationnaute… Niveau immersion c’est génial !
Et aller encore un peu plus loin et reconnaître les modèles de joystick ou de clavier, pour les intégrer aussi dans la simu. Comme ça pas de soucis pour retrouver ses boutons. Et un reskin du clavier réel en station de commande, miam aussi.
Pour ça il suffirait d’une camera externe sur l’OR, d’un leap-motion-like pour les doigts doublé d’un kinect-like pour les bras, le corps et le reste, ce double capteur posé en face du joueur !
Raaa j’en ai marre d’attendre le futur, il devrait déjà être là " />
Le jour où y’a ça avec genre des gants qui appliquent une pression permettant de “sentir” l’objet tenu virtuellement, c’est “SHUT UP AND TAKE MY MONEY” direct. (pouvant aller jusqu’à couvrir l’avant bras pour une plus grande immersion)
Je ne pense pas qu’un “Kinect like” soit nécessaire pour reproduire virtuellement le reste du corps, des caméras devant les écrans qui reproduisent le champ de vision seraient peut être plus fidèles, non ?
Sinon pour le moment, le simple fait d’avoir un casque permettant juste de regarder mais pas réellement d’interagir avec l’environnement virtuel en dehors de l’usage des périphériques classiques ne m’intéresse pas trop perso. J’ai hâte que ça se développe quand même dans une direction plus immersive.
La nouvelle génération se fout totalement de garder un jardin secret. Elle n’a pas peur d’exposer ses points de vues, ses sentiments, ses opinions politiques, ses photos, ses sextapes, ses infractions au code de la route, … Elle a de moins en moins peur des autorités policières, judiciaires, du qu’en-dira-t-on.
Bref, là où Pamela Jones a érigé la vie privée en trésors le plus précieux, la future génération lui a retiré toute valeur, rendant ainsi le chantage généralisé des gouvernements totalement inutile.
Exactement, avec la mentalité d’exhibitionnisme qui s’est développée via les “réseaux sociaux” et compagnie, les “gens” ne sont généralement plus conscients de la notion de vie privée.
Non seulement ils s’en fichent, mais en plus ils étalent au grand jour chaque moment de leur vie devant le monde entier et ne s’étonnent pas de voir que leur post “j’ai fait caca” sur facebook s’accompagne d’une pub pour du PQ, médicament pour la chiasse et déboucheur de chiottes.
Je plains surtout les gosses de nos jours où tu auras leur vie de A à Z exposée sur le Web, de la conception sur Youporn à la sortie sur Youtube, et toutes les photos “trop kawaii kikiloomimi” sur Facebook et compagnie. Merci les parents.
Et après ça fini sur des “et alors ? j’ai rien à cacher”. " />
Pour moi, c’est comme accepter tacitement la fouille par des vigiles ou de montrer son sac à la caissière du supermarché. Ils n’ont pas le droit d’exiger votre coopération là dessus. Tout ce qu’ils peuvent faire c’est refuser l’accès du magasin.
Mais en général “tout le monde” s’y plie parce que sinon on va passer pour le gros con qui veut faire son intéressant avec son petit scandale.
Perso, la seule fois où j’accepte de faire ça, c’est si ça fait gueuler les portiques antivol pour montrer que je n’ai rien à me reprocher. En dehors de ça, ils vont se faire foutre.
Entre la vidéo de demo promo et la réalité il y a un monde " />" />
Surtout que tout est montré en conditions idéales, les algo content aware fonctionnent bien, mais tu as encore besoin d’une retouche manuelle pour tout afiner.
Pluzun, en général le “remplissage” basé sur l’image de Photoshop se contente souvent de reprendre des éléments similaires de la scène pour les entremêler et donner un résultat très proche.
Par contre j’ai déjà eu des résultats très amusants sur mes photos de maquettes où j’essayais de supprimer le socle avec le “remplissage” de Photoshop. Avec un fond uni pourtant, il a remis des morceaux du socle à la place de ce même socle " />
Cela dit, c’est puissant comme outil, mais ça demande beaucoup de retouches derrière.
L’INpact est à peu près nul ; ne serait-ce que la météo a sans aucun doute plus d’influence sur les ventes que 45 minutes d’indispo dans une année.
C’est clair.
Droogs a écrit :
Au moins, ça a permis à quelques employés d’Amazon de respirer un peu quand on voit dans quels conditions ils travaillent…
Je pense que la réduction d’activité côté manutention a du être aussi élevée que la perte de chiffre durant ce downtime.
Le
20/08/2013 à
16h
51
Droogs a écrit :
Moi je dis, c’est un coup d’Amazon, pour que les acheteurs frustrés cliquent comme des ours une fois le service revenu et dépensent encore plus d’argent " />
Faut bien rattraper les trouze millions perdus pendant la panne " />
Le
20/08/2013 à
16h
46
choukky a écrit :
Comme le fait remarquer Nil, Tout ce patacaisse pour une “panne minime” est a relativiser.
Dire qu’une “vente ratée” est une vente perdue est aussi con que dire qu’un téléchargement est une vente perdue.
" />
C’est quand même un gel d’activité qui est nuisible pour le chiffre d’affaires.
Après c’est difficile à estimer c’est sûr, surtout pour un mastodonte comme Amazon où ce sera au final un léger trou dans le CA de la semaine ou du jour.
Le
20/08/2013 à
16h
37
La question centrale de la disponibilité
Il est clair que pour ces entreprises qui tirent la majeure partie de leurs revenus sur une activité Web, c’est un point crucial.
Je pense qu’Amazon doit dépenser des fortunes colossales pour se garantir un taux de disponibilité qui frise les 100% au poil de cul près en termes d’infrastructures et de liens réseaux.
Après ce qui serait le plus drôle, c’est que ce downtime soit causé par une MEP foirée " />
(vu qu’au final, malgré toutes les précautions qu’on peut prendre, l’erreur humaine restera d’une des plus grosses sources de problèmes…)
Et le tabac alors ? Me semble même que c’est pareil pour le gaz et l’électricité.
C’est tout à fait possible, encore faut-il que les décideurs ne soient pas trop graissés par les distributeurs, et le lobby de pétrole est loin d’être le plus petit.
Oui effectivement le tarif du Gaz est réglementé (électricité je sais plus). Après on parle d’un domaine dans lequel l’Etat a toujours joué car issu d’ex services publics, contre des entreprises qui ont plus ou moins toujours été privées pour certaines. (Total a été privatisée en 93 il me semble)
Bon, y’a aussi le fait que si l’Etat voulait réguler les tarifs du carburant, l’Europe se mettrait à hurler à la distorsion de concurrence… Là où le marché du gaz et de l’électricité ont été ouverts il y a peu à la concurrence.
Pour le tabac, il me semble qu’il est taxé, par régulé. (perso j’en sais rien, je fume pas)
Le
20/08/2013 à
13h
15
trash54 a écrit :
Faire plus simple : fixer un prix min-max pour l’essence/diesel et hop plus de site " />
Il me semble que ce n’est pas possible pour l’Etat de fixer un tarif sur des produits vendus par des sociétés privées (ça entrerait en contradiction avec la loi sur la liberté de prix des distributeurs).
Le
20/08/2013 à
10h
52
SonicGold a écrit :
Y’a un Carrefour dans Montcuq ? C’est grand dis-donc ! " />
Montcuq n’est pas si petit, et apparemment c’était un Shopi avant rachat et conversion par Carrouf d’après Streetview " />
Y’a l’air d’y avoir aussi de jolis parcs dans Montcuq " />
Le
20/08/2013 à
10h
48
MasterDav a écrit :
Bah tu sais, certains sont limités aux kimsufi alors bon, forcément 150K c’est super vachement beaucoup trop cher " />
Je dois avouer que j’étais sur le cul à l’époque où j’avais participé à une migration d’applications vers des serveurs mutualisés pour réduire les coûts de licences (genre au CPU toussa) et diminuer la conso électrique quand j’ai vu à l’époque dans la description du projet que certains serveurs coûtaient jusqu’à 1.5k€/mois tous frais confondus… " />
La haute dispo, le hardware full redondé et les logiciels pro, ça grimpe vite question coûts, c’est hallucinant.
Ou alors le budget d’un autre projet sur lequel j’ai bossé y’a quelques mois qui aurait pu me payer des vacances pendant dix ans si je l’avais eu entre les mains " />
C’est sur qu’on est loin du KS à 3⁄10 ou 15€/mois " /> Et quand je vois le miens qui souffre parfois avec les quelques trucs que je lui ai mis, je n’ose pas imagine le bruit sourd et le tremblement dans le datacenter d’OVH provoqué par leur explosion si on faisait tourner un tel site sur ces machins pas chers " />
Le
20/08/2013 à
10h
28
Perso ça me paraît pas déconnant le tarif de gestion.
C’est pas qu’une vulgaire base de données, y’a aussi tout un process d’enrichissement, d’échanges entre les entreprises et la plateforme, pour peu que ça passe par des RVA pour certains distributeurs ça commence à piquer sévère.
Sans oublier la maintenance hardware, les licences logicielles et la prestation d’hébergement, plus le personnel qui gère ça, ça chiffre rapidement.
J’ai déjà vu des bécannes qui font serveur de BDD et serveurs de traitement applicatifs qui coutent un SMIC par mois de maintenance en contrat hardware, licence logicielle et conso électrique.
Bref, faut pas se limiter à la façade, sinon n’importe quel site web paraît “trop cher pour ce que c’est” si l’on ignore complètement toute la logistique qui le fait tourner. Et pour monter des usines à gaz, je fais confiance à l’Etat et aux prestataires qui ont envie de se sucrer la gueule " />
Rien ne le justifie, la preuve, nombre de secteur fonctionne très bien sans propriétés intellectuelle (restauration, mode…)
Euuuh… Non, ces secteurs aussi sont protégés par la propriété intellectuelle.
Restauration : Un chef cuisinier créé une recette, il a parfaitement le droit de la faire protéger pour éviter qu’une autre chaine ne la prenne et se fasse du blé sur son travail. (du moment qu’il peut en prouver la paternité…)
Ou encore le nom de son établissement qui est protégé (droit des marques).
Mode : je doute que si le Tailleur A fait un vêtement 100% identique à Tailleur B avec le même nom ça finisse en gros poutoux baveux " />
Le textile est aussi victime de la contrefaçon (et donc du viol de priorité intellectuelle) avec les produits créés dans d’autres pays (les faux Lacoste, les fausses Nike, les faux sacs à main…).
Toute oeuvre de l’esprit est protégée par la propriété intellectuelle. La loi défini dans quel cadre et de quels droits l’auteur dispose. C’est ensuite à lui de les faire valoir.
Dans le cas présent, la personne a utilisé la propriété intellectuelle de Square Enix pour se faire son petit commerce sans l’accord de cette dernière. C’est illégal. Et il vaut mieux pour le gars que ce soit réglé à l’amiable comme ça, car si ça avait fini devant un tribunal, il aurait morflé…
En entreprisehttp://trucmuche/ ça redirige justement vers un serveur appelé trucmuche mais visible uniquement en interne…
Imaginons qu’une entreprise ait unhttp://search/, et pouf, indisponible son serveur !!! " />
Comme en général l’entreprise a son propre serveur de noms (nécessaire pour l’Active Directory dans le cadre d’un domaine Windows), la conf “locale” sera prise en priorité car pour le serveur DNS primaire des postes de travail (qui sera le contrôleur de domaine de l’entreprise),http://search/ = le serveur hébergeant l’application web.
Vulgairement, c’est comme si je mettais 127.0.0.1 devant google.com dans mon /etc/hosts
Mais perso j’ai rarement vu l’utilisation d’un nom sans dot dans des URL intranet. Soit ça passait par le nom de domaine entreprise.com, soit en .intra ou .lan
Ricard a écrit :
Bah, de toute facon, c’est pas comme si l’avis de l’ICANN était une loi. Le .42 en est la preuve." />
14066 commentaires
Square Enix suspend la vente de Final Fantasy XIV A Realm Reborn
28/08/2013
Le 28/08/2013 à 13h 55
Bouygues : cap sur la 4G, baisses de prix et Sensation 8 Go à partir de 39,99 €
26/08/2013
Le 27/08/2013 à 07h 55
Le 27/08/2013 à 07h 50
Le 27/08/2013 à 05h 38
Le 26/08/2013 à 13h 45
Le 26/08/2013 à 13h 14
Le 26/08/2013 à 12h 47
Le lancement de Final Fantasy XIV s’inspire de ceux de Diablo III et SimCity
26/08/2013
Le 27/08/2013 à 05h 29
Le 26/08/2013 à 17h 43
Le 26/08/2013 à 16h 44
PS4 : Orange nous parle de son partenariat avec Sony et d’offres groupées
26/08/2013
Le 26/08/2013 à 18h 22
Bouygues vante sa 4G en vidéo, et fait les mêmes erreurs que ses concurrents
26/08/2013
Le 26/08/2013 à 16h 08
Le 26/08/2013 à 15h 56
Le 26/08/2013 à 10h 40
Quel navigateur plante le plus : Chrome, Firefox, IE, Opera ou Safari ?
24/08/2013
Le 26/08/2013 à 13h 39
Le 26/08/2013 à 13h 28
En Espagne, la région de Valence fait passer tous ses PC à LibreOffice
24/08/2013
Le 24/08/2013 à 10h 47
Le 24/08/2013 à 08h 09
Ma-Config veut vous en dire davantage sur vos écrans bleus
24/08/2013
Le 24/08/2013 à 10h 40
Ubuntu Edge : avec 13 millions de dollars, le financement public est un échec
22/08/2013
Le 23/08/2013 à 21h 07
Bonne nouvelle :http://news.cnet.com/8301-1035_3-57599754-94/canonical-ceo-expect-an-ubuntu-phon…
Mauvaise nouvelle : “I think the full Ubuntu convergence experience will not be in the first round of Ubuntu phones, which we’re targeting for the first quarter 2014,” Silber told CNET. “Just phones, not a full converged plug-into-your-monitor device,” she added, stressing, “I think convergence is the future. It may take many forms.”
Le 23/08/2013 à 09h 09
Le 23/08/2013 à 04h 41
Le 22/08/2013 à 20h 38
Le 22/08/2013 à 18h 06
Le 22/08/2013 à 16h 30
Le 22/08/2013 à 15h 56
Perso je pense que Canonical a fait exprès de mettre un objectif très élevé et quasi impossible à atteindre en si peu de temps.
A mon avis, si la campagne avait été une réussite, l’Edge aurait bien été produit et tant mieux pour tout le monde.
Mais dans le second cas, Ubuntu et Canonical auront bénéficié d’une excellente couverture médiatique pour une entreprise relativement “underground” pour le grand public et les medias peu enclins à parler de ces sujets.
Au final ça aura apporté une certaine crédibilité à Canonical en montrant qu’il y a un public potentiel derrière, qu’ils ont été capables d’atteindre une somme considérable en assez peu de temps, et donc comme l’article le dit, ça aura ouvert des négociations avec des constructeurs.
Accessoirement, ça leur a fait une putain d’étude de marché pour quasi rien…
Par contre la presse se focalisera beaucoup sur “l’échec” de la campagne, c’est dommage…
D’après Shuttleworth, des mobile natifs sous Ubuntu for Phones devraient arriver en 2014. Encore un an à attendre avec mon petit 3GS…
Steve Ballmer s’en va, un personnage s’envole
23/08/2013
Le 23/08/2013 à 19h 20
Le 23/08/2013 à 17h 45
Le 23/08/2013 à 15h 58
SInon je pense qu’on en a rien à foutre du concours de zigounette sur qui entre Stallman, Ballmer, Jobs ou ma grand mère a le plus contribué à l’informatique…
Chaque acteur a sa vision du marché et de la technologie et contribue à son évolution à sa manière en se complétant l’un l’autre sans réellement s’en rendre compte.
Donc laissez tomber vos œillères de la taille de la Grande Muraille de Chine et apprenez à avoir une vision globale des choses.
Ras le bol des gamineries de cour d’école à base de “mon père il est mieux que le tiens”…
Corsair LS : des SSD « économiques » capables de débiter jusqu’à 560 Mo/s
23/08/2013
Le 23/08/2013 à 14h 41
[Dossier PCi] La PlayStation 4 face à la Xbox One
23/08/2013
Le 23/08/2013 à 14h 29
Le 23/08/2013 à 13h 41
HP continue sa chute, son chiffre d’affaires perd 2,5 milliards de dollars
22/08/2013
Le 22/08/2013 à 14h 56
Chrome 29 : l’Omnibox s’améliore et le centre de notification arrive sur OS X
21/08/2013
Le 21/08/2013 à 20h 29
Perso l’idée de voir un géant du web utiliser son propre moteur de rendu m’est dérangeante.
C’est la porte ouverte aux abus, et connaissant Google, ils vont pas se gêner pour bien optimiser comme il faut leurs applications pour Blink tout en mettant un petit message disant que c’est mieux avec Chrome afin de pousser encore plus sa domination sur le Web. " />
Comme quoihttp://xkcd.com/1118/ a loin d’avoir tort.
Eve Valkyrie : le jeu de combat spatial avec Oculus Rift débarquera en 2014
21/08/2013
Le 21/08/2013 à 20h 17
« Internet est terminé », Groklaw ferme ses portes
21/08/2013
Le 21/08/2013 à 11h 05
EA propose une garantie « satisfait ou remboursé » pour ses jeux sur Origin
20/08/2013
Le 21/08/2013 à 10h 44
Wacom : des tablettes tactiles sous Windows et Android à partir de 1399 euros
21/08/2013
Le 21/08/2013 à 09h 02
Amazon : une panne de quelques minutes, des millions de dollars de perdus
20/08/2013
Le 20/08/2013 à 17h 11
Le 20/08/2013 à 16h 51
Le 20/08/2013 à 16h 46
Le 20/08/2013 à 16h 37
La question centrale de la disponibilité
Il est clair que pour ces entreprises qui tirent la majeure partie de leurs revenus sur une activité Web, c’est un point crucial.
Je pense qu’Amazon doit dépenser des fortunes colossales pour se garantir un taux de disponibilité qui frise les 100% au poil de cul près en termes d’infrastructures et de liens réseaux.
Après ce qui serait le plus drôle, c’est que ce downtime soit causé par une MEP foirée " />
(vu qu’au final, malgré toutes les précautions qu’on peut prendre, l’erreur humaine restera d’une des plus grosses sources de problèmes…)
[MàJ] Avec ses données, Prix-carburants.gouv.fr pompe 160 000 euros par an
29/08/2013
Le 20/08/2013 à 13h 56
Le 20/08/2013 à 13h 15
Le 20/08/2013 à 10h 52
Le 20/08/2013 à 10h 48
Le 20/08/2013 à 10h 28
Perso ça me paraît pas déconnant le tarif de gestion.
C’est pas qu’une vulgaire base de données, y’a aussi tout un process d’enrichissement, d’échanges entre les entreprises et la plateforme, pour peu que ça passe par des RVA pour certains distributeurs ça commence à piquer sévère.
Sans oublier la maintenance hardware, les licences logicielles et la prestation d’hébergement, plus le personnel qui gère ça, ça chiffre rapidement.
J’ai déjà vu des bécannes qui font serveur de BDD et serveurs de traitement applicatifs qui coutent un SMIC par mois de maintenance en contrat hardware, licence logicielle et conso électrique.
Bref, faut pas se limiter à la façade, sinon n’importe quel site web paraît “trop cher pour ce que c’est” si l’on ignore complètement toute la logistique qui le fait tourner. Et pour monter des usines à gaz, je fais confiance à l’Etat et aux prestataires qui ont envie de se sucrer la gueule " />
Square Enix fait retirer des figurines de Final Fantasy VII imprimées en 3D
19/08/2013
Le 20/08/2013 à 13h 43
L’ICANN interdit les domaines sans point, Google dit adieu au http://search/
19/08/2013
Le 20/08/2013 à 05h 41
Lenovo confirme l’arrivée de ses smartphones en Europe en 2014
19/08/2013
Le 19/08/2013 à 14h 01
Peut être intéressant pour mettre un Ubuntu for Phones dessus, mais le stockage rikiki risque d’être bloquant. " />
Ces appareils sont verrouillés ou ouverts niveau bootloader ?