Tu penses vraiment que les admins Windows serveur sont plus répandus que les admins linux ?
En fait comme déjà dit plus haut Windows serveur demande plus de main d’oeuvre donc un admin d’un parc linux serait aussi payé plus cher car mécaniquement plus “productif”.
Mais de toutes façons un bon admin touche a tout, il gère un parc avec plein d’OS et d’hyperviseur différent.
90% des stations de travail étant sous Windows, j’aurais tendance à dire oui, les admin systèmes sous Windows sont plus répandus que les admin linux… Par corollaire cela voudra dire qu’il y aura plus de serveurs LDAP sont Windows et par corollaire, tout un paquet de solutions fonctionnant sous Windows et pas sous Linux.
Pareil, pour VMWARE, ils disposent de 50% du marché de la virtualisation, mécaniquement derrière cela veut dire qu’il y aura plus d’admin VMWARE, que d’admin KVM par exemple !
Ce qui est rare étant cher, c’est la raison qui fait que les admin dédiés aux solutions Open Source basés sur Linux sont mieux payés… Rien avoir avec la performance (sans quoi dans pas longtemps on va nous expliquer que le QI des admin linux est plus élevé que celui des admin Windows…).
Oui un admin touche à tout ! Toujours est-il qu’il est plus facile de trouver un admin Windows + VMWARE qu’un admin Linux + KVM…
Le
10/11/2015 à
21h
53
Okki a écrit :
(…)
Quant au tous, c’est encore mieux, puisque le libre bénéficie à l’ensemble de l’Humanité, sans distinction.
Je suis d’accord avec ça !
Je ne saurai dire sous quelle forme ça doit se faire. Contributions financières aux projets utilisés, contributions de chercheurs payés par sur fonds publics à des projets libres (certains le font déjà), création d’un organisme du logiciel libre employant des fonctionnaires pour contribuer à des projets libres existants ou spécifiques aux besoins de certaines administrations ? Mais ça serait un grand pas en avant que d’y réfléchir…
Contribuer à des projets libre c’est très bien ! En quoi c’est le rôle impérieux de l’état ?
S’il s’agit là d’une de ses fonctions, faudrait pas seulement le faire pour le logiciel, faudrait le faire pour l’énergie, la santé, etc…
Ça n’existe pas déjà ça ? Les unversités, les agences de recherche…?
In fine, c’est pas parce qu’une université va te pondre un super outil open source que cela sera rentable de l’intégrer au sein du système d’information d’une institution publique…
De la même façon si le CNRS te sort une techno de centrale à base de panneau solaire, plus propre et qui nous rende indépendant d’un point de vue énergétique…
Si le coût de son implémentation est trop lourd, faut-il absolument l’implémenter ? T’es prêt à payer 5 fois le prix de ton électricité par pure dogmatisme ? Pourquoi cela serait le cas des institutions d’état ?
Il s’agissait avant tout de projets privés ou commerciaux (ou vus comme tel). Si jamais ça devait se faire, je pense qu’il faudrait vraiment intégrer la notion de collaboration, que ce soit avec des pays, des entreprises ou de simples particuliers. Et puisque tu parles du Géoportail et des cartes IGN, j’ai envie de te répondre « regarde OpenStreetMap et tout ce que l’on peut faire en collaborant ».
Je suis tout à faire d’accord, mais je ne demande pas à l’Éducation Nationale d’engager elle-même des gens pour ça. Par contre, puisque elle a un budget pour le contenu pédagogique, plutôt que de financer des éditeurs de manuels soumis au droit d’auteur traditionnel, elle pourrait, pour le même coût, privilégier le financement de projets sous licence libre.
Non seulement ça existe déjà, comme Sésamath, mais ce choix a également déjà été fait par d’autres, que ce soit en Californie ou en Inde. Signe que c’est bel et bien faisable.
Donc on est d’accord, c’est pas le rôle de l’état d’engager elle-même des gens pour ça… Mais c’est toujours le même principe, c’est pas parce qu’il existe des alternatives libres qu’elles sont automatiquement 1) plus performante, 2) moins chère.
(Encore que pour Sesamath, il s’agit pas tant d’open source que de diffusion de la connaissance…C’est encore différent).
Le souci, c’est que tu as une vision trop capitaliste. On critique souvent le service public, mais plutôt que ta SSII qui se gaverait bien, avec des fonctionnaires du libre ça reviendrait bien moins cher :)
Je t’invite d’ailleurs à regarder cette vidéo sur le salaire à vie. Ils donnent d’ailleurs un très bon exemple à partir de la 14e minute.
Non j’ai pas une vision capitaliste (pour info je suis pour l’institution du salaire de base), j’ai juste une vision très simplifiée des choses. Je hais les choses compliquées !
L’état à des fonctions régaliennes, je considère que le logiciel et l’IT n’en fait pas partie…
Et puis dans l’ensemble même si je ne suis pas contre tes propos, tu mélanges un peu tout, Open Source et partage de la connaissance qui sont deux choses différentes !
Je dis jamais que l’état quand il en a le choix ne doit pas faire le choix de l’Open Source.
Je dis juste qu’il doit faire le choix de la solution au meilleur rapport qualité/prix !
Je veux dire, par exemple, en matière de virtualisation VMWARE est très performant, s’il n’existe pas d’équivalent sur le marché, pour notre souveraineté, on développe un outil qui va nous coûter des centaines de millions juste histoire de profiter d’une solution open source ?
Est-ce vraiment dans notre intérêt ?
Mais si on fait ça avec VMWARE, Microsoft, IBM etc… Faudrait qu’on le fasse aussi avec nos champions nationaux… Le CERN et le CNRS utilisent CATIA et l’état ne se sent pas l’obligation de créer un outil concurrent…
Le
10/11/2015 à
21h
12
Konrad a écrit :
(…)
Oula, tu mélanges un peu tout…
Il faut arrêter de tout réfléchir uniquement en termes de coûts et de comparer des administrations publiques avec des entreprises.
Okay…
Et là l’État aurait un véritable choix, il pourrait choisir véritablement la solution la plus avantageuse.
Avantageuse en terme de… coût ?
Une entreprise, elle fait ce qu’elle veut, elle achète les solutions matérielles/logicielles qu’elle veut, ou elle le fait en interne : c’est son choix, ses sous, son problème.
Et donc une agence gouvernementale ou territoriale ne devrait pas avoir le choix ?
Un État, il ne fait pas ce qu’il veut, il doit rendre des comptes à la population. Au-delà du coût, il y a d’autres contraintes qui doivent s’imposer à un État. Déjà le fait qu’il doit être souverain, seul propriétaire de ses données, et pas dépendre d’une et une seule entreprise pour accéder à ses données ou lire ses documents.
Quels documents ?
S’il s’agit de formats bureautique Microsoft, si je ne m’abuse il est soit possible d’utiliser de l’opendocument dans Office et de lire les documents office dans libreoffice par exemple… Quels sont ces formats si fermés que l’état ne serait plus propriétaire de ses données ?
Exemple : si l’État a des documents au format propriétaire “.truc”, et qu’il est obligé d’acheter le logiciel de l’entreprise “Machin” pour lire ses fichiers, alors c’est une situation intolérable, l’État n’est plus souverain et ne possède plus vraiment ses documents puisqu’il est incapable de les ouvrir et les traiter sans le logiciel de l’entreprise Machin. Il ne peut pas y avoir de véritable appel d’offre, puisque le format de fichiers est propriétaire, personne ne sait comment il est fait. C’est typiquement le genre de situation qu’il faut éviter.
Oui mais ça n’existe pas ça…
Disons que l’état ou une entreprise mandate une SS2I pour créer un outil qui n’existe pas avec un format de données qui n’existe pas… C’est pas grave car des clauses de réversibilités existent dans tous les contrats d’externalisation de ce type…
Ce qu’il faut : que les documents de l’État soient tous dans un format ouvert et standard, et lance un véritable appel d’offre du type « un logiciel capable d’ouvrir et éditer le fichiers au format XXX ». De cette façon, plusieurs entreprises peuvent développer et proposer des logiciels pour répondre à l’appel d’offre : à la fois des éditeurs de logiciels propriétaires, et des logiciels libres. Et là l’État aurait un véritable choix, il pourrait choisir véritablement la solution la plus avantageuse.
OK, mais si une entreprise sort un logiciel 100 fois plus performant avec un format propriétaire (pas nécessairement fermé) et qui coûte beaucoup moins cher ?
Tu restes dans une position dogmatique ?
C’est bien beau d’évoquer les standards, les formats ouverts, le souverainisme… Mais c’est oublier que l’utilisateur final lui fait preuve de pragmatisme. S’il un logiciel proprio lui permet de faire à moindre coût ce que ne permet pas de faire ton logiciel, tu vas juste dépenser de l’argent pour rien !
Le
10/11/2015 à
19h
10
Okki a écrit :
Vous vous focalisez bêtement sur des points de détails. Même si ce n’était que 200 ingénieurs au lieu de 500, et sachant que l’État et les collectivités (et c’est applicable à toute l’Europe) sont coutumiers du 30 millions par-ci, 15 millions par-là, à l’arrivée, oui, on pourrait embaucher énormément de personnes compétentes pour travailler sur du logiciel libre, qui serait bénéficiable à tous.
Et c’est bien là le gros problème. Il n’y a aucun projet de société, il n’y a aucune mutualisation des moyens, aucune collaboration… On pourrait faire de grandes choses, mais les politiques et les décideurs se contentent de voir à très court terme. C’est plus sûr d’acheter des licences Microsoft ou SAP aujourd’hui, plutôt que de faire des plans sur l’avenir. Puis au moins, quoi qu’il arrive, personne ne leur reprochera d’avoir opté pour les solutions des leaders du moment. Comme ça, ils sont tranquilles.
on pourrait embaucher énormément de personnes compétentes pour travailler sur du logiciel libre, qui serait bénéficiable à tous.
Juste quelques questions un peu bête :
C’est qui “on” ?
C’est qui “tous” ?
Est-ce vraiment le rôle de l’état, des collectivités, des agences nationales, des institutions de se substituer aux SS2I que sont ATOS, CapGemini, ou aux éditeurs que sont Microsoft, Oracle ou IBM…?
De quelle façon ensuite, calcule-t-on le bénéfice d’une telle approche ?
Et pour finir, qu’est-ce qui se passe quand une startup scandinave ou un géant américain te sort une solution propriétaire de malade 1000 fois moins cher que la solution open source dans laquelle t’as englouti des centaine de milliers d’euros voir des millions d’euros en R&D ?
Parce que contrairement à ce que tu penses, des grands projets IT français ou européen il y en a certainement eu à la pelle ! Pour en citer deux le minitel, le geoportail IGN.
Au delà de la qualité intrinsèque de ces outils, quand tu les compare à leurs concurrents américain que sont l’internet et Google MAP par exemple, comprends-tu la difficulté que c’est pour un état d’avoir une approche IT stratégique nationale ?
N’est-il pas utile pour une institution (comme pour une entreprise) de se recentrer sur le cœur de son activité et de gérer des budgets en adéquation avec cette activité ?
L’éducation gère l’éducation, la police la sécurité, la justice rend la justice, etc…
Et si le meilleur rapport/qualité prix d’un ordinateur se trouve chez un constructeur chinois… Tant pis !
Si le meilleur rapport/qualité prix d’une solution se trouve chez un constructeur américain… Tant pis !
Parce que bon, avec ton approche, avec le budget d’achat du hardware, il y aurait certainement moyen de monter une cellule R&D pour assembler nos propres PC non ?
Et pis tant qu’à faire, pourquoi ne pas fabriquer nos propres composants (CPU/RAM/Disques…), cela créerait de l’emploi non ?
Elle est où la frontière ?
Et donc au final, tu vas me dire, inutile de réinventer la roue, on passe par des SS2I qui vont nous installer de l’Open Source… Mais là, c’est plus le même coût… T’es 200 ingénieurs c’est 200 x 1000€/jour !
Et là, il ressemble à quoi ton ROI ?
Le
10/11/2015 à
16h
52
Konrad a écrit :
+1 " />
Bah non pas +1 :p
Le
10/11/2015 à
16h
23
Okki a écrit :
Il y a réellement besoin d’autant de support ? En général, t’installe un poste Linux, tu reviens cinq ans plus tard, ça n’a pas bougé. Pas de virus, le système ne part pas tout seul en sucette par l’opération du Saint Esprit, il n’y a pas besoin de faire du vaudou pour que ça fonctionne… XD
Il y a peu, je lisais un article sur IBM qui abandonnait petit à petit ses PC sous Windows pour filer des Mac sous OS X a ses centaines de milliers d’employés. C’est proprio, mais tout comme Linux, ça reste une base Unix.
« Economies aussi de personnel. Reprenant des chiffres de Gartner, Fletcher Previn a déclaré que le ratio optimal d’administrateur/employés était de 1 pour 70, tandis que la moyenne constatée tournait autour de 1 pour 242. Chez IBM, auprès des utilisateurs de Mac, il est de 1 responsable pour 5 400 utilisateurs. Ils ne sont que 24 à gérer ce parc. Enfin, cette équipe est moins sollicitée : 5% des utilisateurs de Mac font appel à eux pour résoudre des problèmes, contre 40% pour les utilisateurs sur PC. »
J’ai donc limite envie de penser qu’avec une bonne distribution Linux, on pourrait obtenir la même chose. Un système qui juste marche et sur lequel il n’y a pas sans cesse besoin d’intervenir.
Bien que je ne sois pas certain que l’écart de coût sur des problématiques de micro-réseau (c’est à dire OS+couche applicative bureautique) soit très important entre un poste Linux et un poste Windows (400€ environ pour une station de travail Windows pour la licence Windows, le cal user, Office 365 et le partage de fichier en ligne sur 3 ans) et bien que je n’ai pas fait le calcul pour de l’équivalent Linux, je veux bien croire que c’est moins cher sur Linux et que sur un très grand nombre de poste que le jeu peu en valoir la chandelle…
Donc comme j’ai dit, il y a une différence certaine entre la PME de 50 postes de travail et le grand groupe de 50000 ! Et l’intérêt pour une petite boite de passer sur du Linux sur les stations j’en suis pas certain… Le coût d’une station Windows en soit n’étant pas choquant !
Après quand je parle d’open source et quand je parle de support, je ne parle pas uniquement de station de travail (d’ailleurs je n’ai même pas de support sur mes OS Microsoft) mais de aussi des solutions serveurs.
Et là encore, je ne doute pas qu’il y ait des cas où l’Open Source sera toujours moins cher (serveur de messagerie, outil de supervision et gestion d’incidents), je ne suis pas certain que ce sera toujours le cas !
Il y a une différence fondamentale assez importante entre un OS configuré comme il faut et qui ne bouge pas (ou peu, parce que je connais peu de stations de travail sans mises à jour de sécurité et sans antivirus…) et une solution serveur qui supporte ton métier…
Quelque soit le choix que tu fais (proprio ou open source) quand t’es une entreprise tu ne te lances pas dans l’implémentation d’un outil sans support… Je connais vraiment peu d’entreprises qui font ça !
Une mise à jour quelconque de tes postes de travail et là t’arrives plus à te connecter sur ton appli serveur… Pourquoi ? Tu te démerdes ???
Et là généralement que cela soit proprio (via l’éditeur) ou open source (via une SS2i) tu raques sévère !
Et souvent tu raques plus fort sur les solutions open source que sur les solutions proprios car les éditeurs de solutions proprios font également (principalement) leur beurre sur la vente de licence…
Et dans ces cas là, je sais pas comment tu fais de l’économie de personnel… Quand t’as besoin d’un expert Linux, PostGreSQL, KVM qui ne court pas les rues, tu le paies pas comme ton expert Windows, SQL Server, VMWare qui sont déjà un peu plus nombreux…
Aussi je fais très attention aux propos d’IBM. Pour avoir déjà bossé avec eux, tout ce qu’ils te disent est loin d’être parole d’évangile ! Surtout que s’agissant de stations de travail sous Mac dans les entreprises la plupart du temps, il s’agit de populations bien à part qui font très peu appels aux ressources de l’entreprise (pas de clients lourd qui se connectent à un applicatif métier style ERP par exemple).
Pour être très au fait des problématiques d’impression dans mon métier (notamment sur l’impression sécurisé et à la demande), je peux te dire que le rapport d’incidents Mac/Windows n’est plus le même…
Donc encore une fois je dis que ça dépend vraiment des cas…
Type d’entreprise, types de solutions, etc…
Dans les très grandes boites, je suis persuadé que l’Open Source au final finit toujours par coûter moins cher car tu peux monter une cellule expert que tu vas rationaliser sur un très grand nombre d’utilisateurs. Du coup ce que tu vas payer en formation, salaire, tu ne le paieras pas en licence et support…
Mais dans les petites structures là je veux voir l’étude qui explique cela…
Le
09/11/2015 à
19h
54
Konrad a écrit :
Ben écoute tu peux toujours dire ça, mais aucune source ne le montre…
La migration et la formation ont un coût oui, ça c’est indéniable, mais après cette étape initiale, tous les exemples montrent une économie dans l’exploitation sur le long terme…
J’avoue que je serai curieux de voir TOUS les exemples dont tu parles…
Si je ne doute pas qu’il soit beaucoup plus avantageux pour les grands groupes disposant de budgets IT de plusieurs dizaines de millions d’euros de migrer progressivement une bonne partie de leur Infra vers du libre comme l’on fait avant eux les hébergeurs (exemple AMAZON qui base la majorité de ses offres de virtualisation, backup, stockage longue durée sur de l’open source) vu le racket pratiqué par les éditeurs comme EMC, VMWARE, Oracle, IBM, etc… Ne serait-ce qu’au niveau des politiques de support, autant pour la plupart des PME les solutions proprio (par exemple Microsoft) restent ultra compétitives…
Un poste de travail complet hors hardware (OS, cal user, office365, stockage en ligne partagé en ligne de plusieurs To) doit pas taper dans les 400€ sur 3 ans et un environnement virtualisé (toujours hors hardware)) à base de Windows 2012 Datacenter avec une trentaine de VM sous OS Win 2K8/2012 à moins de 6000€ !
Difficile de faire plus compétitif…!!!
Parce qu’au delà de la migration, de la formation qui ont un coût certain (kif kif que ce soit proprio ou open source), faut pas oublier le coût du support (et là c’est pas donné) et la maintenance en condition opérationnel qui nécessite d’avoir des techniciens assez pointus (surtout sur des technos Linux) avec des salaires 20⁄30% plus élevés que les techniciens Microsoft…
Mis bout à bout, dans notre (petit) service, quand on étudie les différentes solutions, ça coûte souvent plus cher de migrer sur de l’open source que de rester sur du propriétaire…
Mis à part la messagerie et les outils de supervision/gestion d’incidents, je suis pas certain que l’open source soit toujours la solution la plus économique…
Même pour un techkos ultra compétent, c’est souvent agréable d’être pris par la main lors de l’installation et d’avoir un support au petit oignons en cas de pépin !
Honnêtement, pour la plupart des professionnels, un portable de base à moins de 500 € fait parfaitement le boulot …
C’est pas vraiment comme ça que ça fonctionne en fait…
Les boites paient surtout une fortune en support pour le remplacement sur site (J+1) d’un composant défectueux… Pas possible d’avoir un ordinateur en SAV à la FNAC pour un mois par exemple… " />
De fait un poste de travail coûte souvent le double voir triple de cette somme (mais sur 3⁄5 ans).
Mais rapporté au coût mensuel, ça fait 30 à 50€ par employé, donc ça va…
D’ailleurs quand on se dit ça, vu le niveau de “réparabilité” des tablettes et le fait qu’il n’y ait pas de support/remplacement à J+1 sur ce genre de produit, 1500€ de base pour un produit garantie 1 ou 2 ans sans intervention sur site pour les pros… Faut vraiment mais alors vraiment en vouloir dans son infra " />
Le
09/11/2015 à
20h
55
DotNerk a écrit :
Effectivement, difficile de dire s’il est taré ou visionnaire. Il parait qu’en informatique c’est comme dans la mode, c’est cyclique " />
Même si en fait la plupart du temps, les visionnaires sont des fêlés du bocal à titre personnel j’aurais tendance à penser que ce directeur (parce qu’en fait il s’agit surtout de l’impulsion d’un seul homme) est visionnaire et loin d’être taré…
Alors c’est un abus de langage quand je dis que cette boite s’affranchit de sa DSI. Même si la finalité c’est de ne plus vouloir s’occuper de la gestion de l’infra (réseau/télécom et hardware), et donc de ne plus avoir d’admin système ou réseau et telecom chez eux, ils continuent d’embaucher des développeurs et dispose d’une belle cellule projet !
Mais au delà de tout ça, pour un gars comme moi qui passe un temps fou soit bloqué dans les transports en commun soit dans les bouchons, ne plus avoir l’obligation de se rendre à son bureau pour travailler à un côté séduisant…
Parce que si le sens premier du BYOD veut certes dire amène ton propre matériel, la finalité veut surtout dire, bosse comme t’en as envie (où tu veux, comme tu veux, en quelque sorte).
Et franchement je serais employeur, la complexité de la législation du travail fait que je préférerais si je le pouvais avoir des sortes de freelance en CDI partout sur terre que des salariés entassés dans un bureau pourri.
Je paie une indemnité pour un nombre d’heures/jour par semaine, tu choisis tes propres outils pour travailler (ton téléphone, ton forfait mobile, ton ordinateur, ta voiture), tout ce que je te mets à disposition c’est un extranet et des bureaux uniquement pour les ateliers…
Alors c’est une vision qui ne correspond pas à toutes les entreprises (les industries lourdes avec des postes de travail pilotant des machines outils auront toujours besoin de techniciens et ouvriers sur place), mais pour une bonne partie des employés de bureau, on tend petit à petit vers ça…
Mais bon l’investissement de départ et les risques son tels que c’est pas pour demain non plus hein " />
Le
09/11/2015 à
20h
16
DotNerk a écrit :
C’est par ce genre de choses qu’on arrive à faire prendre conscience en interne que Apple n’est clairement pas orienté pour certains usages pro sauf à sortir le chéquier avec des solutions tierces pour pallier. Bien entendu, comme les solutions tierces leurs sont présentées comme faisant “Papa Maman” ils signent sans estimer le moindre coût de la charge induite pour le déploiement, l’administration… Je parle uniquement de ma petite expérience avec le fameux phénomène de mode qu’est le BYOD. Qu’on a surnommé “Build Your Own Damages” (IT comme financier) en interne " />
Le BYOD n’est clairement pas adapté à la majorité des entreprises dès qu’elles commencent à dépasser la dizaine de salariés… Cependant y a quand même une réflexion intéressante sur ce sujet qui consiste à penser que le poste de travail d’un employé, c’est pas forcément son bureau au 38 étage d’une tour pourrie à la défense, mais ça peut aussi bien être chez lui, dans un café, un hôtel à l’autre bout du monde…
Par exemple, on a un client dont je peux pas citer le nom, grand groupe français qui a décidé de migrer l’intégralité de son infra dans “le cloud” !
Alors ils y ont mis les moyens, re-développement de toutes leurs solutions métier en web, migration de tous leurs serveurs vers un datacenter tiers et passage de tous leurs utilisateurs sur… du chromebook " />
Alors au taf quand on parle de ce client, on sait pas dire si ce client est taré ou visionnaire… Toujours est-il que l’on suppute que la finalité de tout ça, c’est qu’en rendant totalement indépendant le poste de travail (laptop + portable) de l’environnement (réseau + solution) !
Avec au bout du bout, ne plus avoir à investir dans le hardware de leurs employés qui disposeront d’une indemnité informatique pour leur achat de matériel (et la connexion au réseau) comme d’autres disposent d’indemnité kilométriques pour leur voiture…
Après tout cela ne choque plus personne d’avoir des entreprises sans service de gestion de parc auto, pourquoi cela serait forcément gênant d’avoir des entreprises sans DSI ?
Reznor26 a écrit :
Mais est-ce que la dénomination “pro” chez Apple est quelque chose d’autre que le simple haut de gamme d’un produit pour le grand public ?
Je suis un homme assez simple, quand je vois la le terme “pro” associé à un produit, j’ai souvent tendance à associer ce dernier au monde professionnel…
Toujours est-il qu’il même s’il s’agit d’une dénomination marketing pour illustrer le fait qu’il s’agisse d’un produit haut de gamme, le positionnement de l’iPad Pro reste quand même flou (pour rester sympa) !!!
Le
09/11/2015 à
19h
22
Reznor26 a écrit :
Les prix font partie de la stratégie et sont bien calculés.
C’est toujours ce savant équilibre entre :
Trop cher pour ce que c’est, histoire que le pauvre bave devant et que l’ado se construise au travers du spectacle de la frustration consumériste, mais que le péquenaud lambda puisse quand même se le payer en faisant quelques sacrifices.
Pas assez cher pour être du luxe puisque ça doit rester grand public, et que le luxe ne doit être qu’une impression pour bas peuple, une petite musique surannée qui flotte autour du produit, avec la voix suave de Jony Ive qui te caresse les tympans tel un délinquant sexuel sur le point de commettre son méfait.
Quelle merveilleuse marque. " />
" />
Bah le truc c’est que, autant on peut trouver une utilité aux iPad classiques, iPhones, McBook malgré leurs prix premium, autant là, qu’ils proposent leur bouzin trop gros à 500 ou 5000€ c’est kif kif !
Autant je ne doute pas qu’il existe certaines boites bien bling bling susceptibles de tomber dans le panneau en pensant faire plaisir à leurs cadre premium, en remplaçant leurs pc portables par des iPad Pro, autant la majorité des boites qui écoutent leur DSI feront l’impasse sur ce produit quand ces derniers expliqueront à gentiment à leur service achat (ou que sais-je) qui aura tenté de leur piquer la prérogative du choix du matériel que c’est pas avec un effectif divisé par 2 qu’ils vont réussir à configurer manuellement une centaine d’iPad pro sur lesquels il est impossible de pousser comme l’évoque taralafifi la moindre stratégie de groupe !
Tant qu’Apple n’aura pas bossé sur la création d’un LDAP (même ultra simplifié) compatible avec AD pour automatiser les déploiements, l’intégration des iPad en entreprise restera un vœux pieu !
L’iPad Pro sert vraiment à rien quoi…
Le
09/11/2015 à
18h
56
Bien que je sois conscient qu’il ne soit plus possible pour un constructeur occidental (enfin surtout US parce que l’Europe niveau IT…) vu la concurrence asiatique de faire autre chose que du haut de gamme, je déplore quand même l’orgueil de Microsoft qui positionne pile poile sa Surface Book (core i5, 128 Go) à 1499\( aux USA au même prix que l'iPad Pro ( ipad pro 128 Go avec stylo et coverkeyboard à 1537€ ttc en France) alors qu'il s'agit d'un produit avec un vrai potentiel contrairement à son concurrent...
Parce qu'à 2699\) la version Core i7/16 Go ram/512 Go SSD/Geforce GT940m susceptible d’intéresser le plus grand nombre, ça reste foutrement prohibitif même pour les plus motivés d’entre nous…
C’est in fine 800€ plus cher qu’un Lenovo T450 (i7/16 Go/512 Go/full HD) qui certes ne dispose ni de GPU dédié, ni d’un écran 3000x2000, ni d’un mode tablette mais ça laisse suffisamment d’argent pour se payer un Galaxy Note 5 en plus, pour lire ses mails et rester connecté avec l’entreprise en situation de grande mobilité !
Donc du coup une fois de plus on repassera…
Quant à l’iPad Pro… Bah au moins Apple aura essayé… " />
Au final, ça reviendrai à créer un nouveau service, qui n’apporterait rien à Youtube et ne profiterai pas des “forces” de Youtube …
C’était pas exactement le même modèle, mais l’expérience Google Video ne pousse pas à être positif " />
Et vu la concurrence entre Netflix, Amazon, Hulu & co, ça representerait des énormes investissements …
Bien entendu que cela revient à créer un nouveau service mais je ne vois pas en quoi ce service serait incompatible avec le YouTube existant ! À la différence de Netflix, Amazon qui disposent d’une politique quasi rédactionnelle, YouTube est lui un hébergeur. Il va d’abord chercher à attirer le public vers du contenu premium des majors puis ce sera les grandes nework présentes sur le site et enfin le reste…
Le
22/10/2015 à
09h
15
atomusk a écrit :
Du coup les personnes qui payent 10€ par mois se plaignent d’avoir encore des pubs sur les video “statut quo” et les créateurs “en Red” se plaignent de ne pas avoir de visibilité derrière le “paywall”
loose.
Mais non !
Si la qualité suit, il n y a aucune raison que les gens ne suivent pas…
Même si j’aime bien Norman et compagnie je doute que ce genre de trucs s’adresse à lui mais plutôt aux Viacom, Warner etc…
L’objectif c’est concurrencer Amazon, Netflix etc… En proposant une alternative payante aux nombreuses vidéos copyrightées hébergées sur la plateforme…
Rien à péter de l’audience ces groupes là !
Le
22/10/2015 à
08h
51
127.0.0.1 a écrit :
Solution 1: Youtube reste en mode tout gratuit avec pub, et les AdBlockers grignotent les revenus.
Solution 2: Youtube passe en mode tout payant sans pub, et les audiences s’écroulent.
Solution 3: Youtube passe en mode mixte, et les AdBlockers torpillent le modèle prémium
Loose/Loose/Loose
Solution 4 : Tous le contenu réellement premium passe sur red et là soit tu adheres ou pas. Statut quo sur le reste (vidéos de chats, trailers, machin fait des vidéos avec son iPhone, etc….).
Tout n’a pas vocation à être payant mais clairement t’auras du mal à avoir du contenu 4k pro gratuitement….
Je répondais à quelqu’un qui expliquait une heure de retard tous les jours de l’année à cause des transports en communs. Il me semble que ce niveau de constance ce ne sont pas les transports en communs qu’il faut blâmer.
Bah t’en sais rien…
1h de retard, cela réprésente 30 minutes à l’aller et 30 minutes au retour.
Rien d’insurmontable pour les transports en IDF rassure toi " />
A titre perso, mon trajet moyen (rer + bus + tram) c’est 1h15 porte à porte.
Quand je dis moyen, c’est le temps de trajet qui revient le plus souvent (et non le temps de trajet cumulé dans la semaine, le mois ou l’année, puis divisé par le nombre de jours travaillés…).
Pourtant quand tous mes transports s’enchaînent (jour normal, circulation normale), le trajet peut se fait en 1h porte à porte. Rien qu’en partant sur ce principe je pourrais estimer que mes transports me coûtent 30 minutes par jour… Mais comme mon bus et mon tram n’ont pas d’heures précises (ils indiquent un bus ou un tram toutes les 6 à 8 minutes), tu peux te pointer un matin à l’un de tes arrêts, avoir ton bus à 8h50 ou à 9h00, il ne sera pas considéré comme en retard…
Ensuite, t’as les vrais retards, ceux qui sont notés comme tels par la SNCF ou la RATP !
Pour effrayer mon chef qui ne prend jamais les transports en communs (mais qui est cool sur la question des horaires donc c’était surtout pour me faire plaindre " /> ), je me suis amusé à prendre en photos les messages de retards sur les écrans d’affichages de mon RER D pendant seulement une semaine !
Il a juste halluciné !
J’étais bien tombé, cette semaine j’avais carrément eu un arrêt total de service (plus aucun train entre gare de lyon et la banlieue sud) et des retards de plus de 15 minutes en moyenne toute la semaine !
Et il ne s’agissait là que des trajets du matin !
La semaine passée, avec la grêve surprise des bus de la RATP dans le sud francilien, j’ai cumulé 1h30 de retard sur une seule journée.
Je n’ose pas faire le calcul, mais tous les retards mis bout à bout je serais pas étonné de tourner à 30 minutes en moyenne par jour. Et tout ça en partant du principe que mes trajets sont d’1h15 et non d’1h !
edit: tout ça pour dire que non, 1h par jour, ça ne me choque absolument pas (suffit d’avoir 1 ou 2 mauvais jours dans la semaine et au lieu de faire 2h aller et retour, tu tournes à 3h voir 4…).
Le
20/10/2015 à
16h
52
TaigaIV a écrit :
Si tu perds systématiquement une heure par jour, il est peut-être temps d’admettre qu’il faut partir une heure plus tôt et arrêter de croire que c’est la faute des transports en communs. " />
Voilà un commentaire plein d’empathie dis donc…
Partir plus tôt c’est déjà perdre du temps…
Ton employeur ne te paiera pas plus parce que t’arriveras à 7h au lieu de 8h et ne te laissera pas nécessairement prendre 1h de pause ni finir 1h plus tôt pour compenser !
Parce que oui, c’est souvent en heure de pointe que les transports deviennent un cauchemar, avec des temps de trajets qui peuvent varier du simple au triple en fonction de la circulation…
Alors oui, malgré cette contrainte, les gens pourraient partir quand même plus tôt (et poireauter à la machine à café…). Mais quand t’es parent et que tu dois déposer et récupérer tes enfants chez la nounou, à la crèche ou à l’école à une précise, tu m’expliques comment tu fais pour partir 1h plus tôt ?
Ceci dit y a toujours une part de conviction dans le propos de celui qui trolle…
Du coup il m’a paru nécessaire de le rappeler…
Le
16/10/2015 à
19h
20
FREDOM1989 a écrit :
Intel ne ferait pas une puce de commande pour une console et les architectures ARM restent plus efficace. Sans compter qu’avec de l’ARM la rétro est plus facile avec les précédentes consoles portables.
La première Xbox tournait sur CPU Intel. Un P3 Custom… Je pense qu’ils ne seront pas contre vendre des CPU à Sony ou Microsoft. Encore faudrait-il qu’ils trouvent ça suffisamment (très ?) rentable. Ils ont pas besoin d’argent comme AMD…
Le
16/10/2015 à
18h
37
js2082 a écrit :
En espérant qu’ils ne fassent pas la même erreur que la précédente version en la nommant Wii U HD ou Wii U 2.
Encore aujourd’hui, beaucoup de gens ne connaissent pas la différence entre Wii et Wii u et pensent que c’est la même console.
Au début peut-être. Aujourd’hui je pense que tout le monde sait qu’il s’agit d’une nouvelle console mais s’en fout un peu à vrai dire ! La Wii pour beaucoup de joueurs a laissé un goût d’inachevé dans le meilleur de cas, de foutage de gueule dans le pire…
Himurai a écrit :
Le truc qu’on peut laisser à Nintendo c’est une vraie ludothèque originale comparée au reste du marché. Le problème c’est qu’il n’y a que des jeux originaux et que si tu veux jouer à un jeu plus “mainstream” c’est d’office sur un autre support.
Donc faut aimer mario/zelda/etc suffisamment que pour que ça justifie l’achat d’une console à part entière…
+1
Alucard63 a écrit :
Perso, justement, en grandissant (ou vieillissant plutot…) je me rend compte qu’il y a que les bons vieux jeux nintendo auxquels tu peux jouer toute ta vie sans te lasser. (…)
C’est un truc plus inhérent aux types de jeux, qu’aux consoles ou aux éditeurs…
Bien entendu que c’est bien plus amusant de se refaire un mario plateforme, un mario kart ou un smash bros qu’un Kotor ou un Beyond Good & Evil qui demeurent des jeux mythiques… Et là, tu pourras pas dire qu’il s’agit de jeux types MTV…
Cependant je reste persuadé qu’un Age Of Empire, un Sim City, un Crash Bandicoot, un Crimsom Skies, un Road Rash ou un Street of Rage en HD (sans même modifier les mécaniques de jeux) s’apprécieront autant que des jeux Nintendo…
SebGF a écrit :
Les rumeurs parlant d’une console hybride vont dans le sens de ce que j’imaginais sur l’après Wii U.
Clairement, le concept de la Wii U est une base qui mérite d’être développé. Rendre le gamepad autonome pour qu’il puisse être une console portable serait très bien.
Avec rendu graphique du jeu qui s’adapte aux deux capacités du hardware, la fixe permettant un meilleur rendu et pouvant faire du stream sur le gamepad en local comme peut le fait actuellement la Wii U. (encodage vidéo de haute qualité en temps réel, rendu double écran permanent, pas trop mal pour une console “techniquement à la ramasse” selon les “experts”)
J’aimais bien le principe de la Wii U (et de gameplay asymétrique) et j’étais même excité lors de la présentation de la Wii. Une bonne nouvelle serait que Nintendo avec NX fasse une Wii 2 améliorée et une Wii U améliorée !
Encore faut-il que Nintendo se donne la peine de sortir un peu des sentiers battus et finisse par penser à tous les joueurs aujourd’hui gavés par le monde champignon… Y a eu des efforts, mais pas assez pour acheter une Wii U IMHO !
Le
16/10/2015 à
18h
15
latlanh a écrit :
Ca vas faire bizarre de voir vraiment une console haut de gamme! jamais vu perso ! " /> " />
Décidément toi aujourd’hui…
Les consoles jusqu’à la dernière GEN se sont toujours positionnées en produit haut de gamme plus ou moins accessibles. Sans taper trop loin niveau consoles, mais la génération PS1/Saturn va concurrencer l’arcade, amener la 3D, les cinématiques, et démocratiser le CD. La génération PS2/Xbox/GC va faire encore mieux et démocratiser le DVD (le truc énorme à l’époque), la PS3/360/Wii va amener le motion gaming et démocratiser le Bluray (quoi ? " /> ) et je dois encore oublier pas mal de trucs…!
Mise à part cette génération qui a le cul entre deux chaises (le fait de devoir concurrencer des PC d’un côté et rester un truc accessibles ne consommant pas l’énergie d’une centrale nucléaire d’un autre) en attendant la VR, la réalité augmenté, et de réelles innovations en terme de composants informatique, toutes les consoles de salon se sont toujours positionnées sur le haut de gamme…
Dans presque tous tes commentaires tu dis qu’on s’en fout des 1080p@60fps parce que soit disant les gens peinent à jouer dans ces conditions. " />
Ah et puis là c’est un poil plus explicite :
" />
Rassure toi, sur ce sujet t’es pas plus futé qu’un autre… " />
Déjà une fois de plus, contrairement à ce que tu continue d’écrire à aucun moment je n’indique que le jeu en 60 fps quelque soit la résolution est une fumisterie.
Ensuite, au lieu de reprendre quelqu’un sur un message que tu sors du contexte, essaye de reprendre la ch*é de commentaires sur le sujet qu’il a posté sur le thread depuis le début, ça te permettra peut-être d’être toi aussi hors sujet…
La base de tout ce bullshit de discussion c’est cette fausse opposition que l’on créé entre les consoles et les PC qui m’horripile, même en étant moi-même un joueur PC…
Dès qu’on parle de console de jeu on te rétorque automatiquement “1080p/60fps”…
1080p/60 fps comme un soit disant pré-requis minimum que soit disant tous les PC seraient aujourd’hui capables d’atteindre tout simplement parce qu’il s’agit de PC. Ce qui est juste idiot, et c’est ça la fumisterie dont je parle.
Tout simplement car jouer en 1080p/60 fps sur un jeu, ne veut pas absolument pas dire jouer automatiquement en 1080p/60 fps pour TOUS les jeux…
Ou en tout cas, le coût financier est tel que cela correspond qu’à une infime partie de joueurs (qui serait largement inférieur à 10% sur Steam quand on regarde le taux d’équipement en GPU susceptibles de jouer à cette résolution sur tous les jeux aujourd’hui) !
Le
16/10/2015 à
17h
18
athlon64 a écrit :
Ok BF4 est en 720@60, effectivement acceptable sur une TV même FullHD mais, ca scintillent de partout encore une fois. Je peux pas comprendre comment on peut aimer jouer a un jeu alors que ca scintille, c’est pas tant la le 720p ou 900p qui me choque, c’est le manque de filtres. 720p@60+filtres la Ok, ca serait acceptable, sinon non
Bah écoute je sais pas quoi te dire…
D’autres ont l’oreille absolue, toi t’as des yeux bioniques !
Le reste de l’humanité (privilégiée) continue quant à elle de se satisfaire de mp3 en 64kbps, de vidéos YT 420p quand ça marche et a passé des centaine d’heures sur la dernière gen de console malgré le fait qu’elle était associée à des écrans LCD pourris hors de prix et bien moins qualitatifs que maintenant !
Mais on trouvait ça génial !
J’ai dans l’idée qu’on se créé nous même des problèmes qui n’ont pas lieu d’êtres (j’évite de traiter les gens de mougeons sinon ils vont encore se plaindre… Et je m’inclue volontairement dedans alors que j’ai pas de problèmes " /> ).
Y a 20 ans je m’éclatais sur ma Game Boy monochrome et jouer à Sonic pour la première fois sur ma Megadrive PAL 50Hz fut le comble du bonheur (pis un jour quelqu’un m’a dit, attend, les japonais eux sont en NTSC 60Hz trop méga puissant…) !
Faut croire qu’à force mes yeux ont du s’adapter…
Le
16/10/2015 à
16h
32
athlon64 a écrit :
Les jeux consoles c’est plus souvent 30fps que 60…
Ah… Ça c’est peut-être ton commentaire le plus intéressant sur ce thread (désolé " /> )
Un jeu comme BF4 sur X0 par exemple était au début en 720p/60, ce qui en soit quoiqu’en dise sur un écran de TV reste très acceptable… Et probablement si EA s’était donné de la peine pour optimiser ce jeu ils auraient pu taper le 900p étant donné qu’il tourne dans cette résolution chez Sony.
Et je pense qu’à la base le 720 et le 900p en 60 fps étaient les résolutions cible chez MS pour sa XB (et probablement Sony).
Sony grâce à une console un (tout petit) peu plus performante ayant bénéficié pour un temps de jeux old gen mieux optimisés en 1080p/60fps sur sa console a attaqué fort Microsoft sur le fait que ses jeux à elle étaient full HD, et ça a marché !
Sauf que maintenant qu’ils sont réellement rentrés dans la nouvelle gen, ni l’une ni l’autre n’est capable de faire du 1080p/60 sur leurs derniers jeux. Du coup on a du 1080⁄30 bien marketing là où clairement du 720/900p@60 aurait été plus agréable et certainement possible… Dommage !
Pour autant je maintiens, The Order ou Bloodborne par exemple même en 30 fps ne sont désagréables à regarder quoiqu’on en dise… Loin de là même !
Alors même sanction que les autres, où j’ai écrit un truc pareil ?
Le
16/10/2015 à
15h
59
latlanh a écrit :
C’est super méga effrayant !
Je suis donc un mouton alors que tu a une cg plus récente que la mienne oui oui oui !
C’est pas pour ça que je te traite de mouton.
C’est ton aveuglement et ton manque de logique qui me désespère… J’ai jamais dit qu’avoir une bonne CG c’était mal, j’ai jamais dit (contrairement à ce que tu penses) que plébisciter le 1080p à 60 fps c’est mal.
Je dis juste que me répondre que l’on joue pas correctement parce que l’on ne fait pas (dans la majorité des cas je comprends) du 1080p @ 60 fps sur console alors que ça le serait sur PC est juste faux !
Certains PC joueront dans cette résolution, très peu y arriveront sur tous les jeux récents, aucun n’y jouera perpétuellement… Une console in fine c’est juste un PC qui s’autorise à jouer en 720p ou 900p en 60 fps sur des jeux récents… C’est tout !
Et si ça c’est genre quelque chose d’outrageant pour un joueur console, ça le sera pour la plupart des joueurs PC qui n’ont pas tous le moyen d’une 980Ti et qui à un moment donné, devront soit enlever des filtres, soit baisser de la résolution, soit enlever du détail, soit faire un compromis sur le nombre de fps…
Dire que 60fps (quelque soit la résolution) en terme de standard est une fumisterie je trouve ça ahurissant.
Je suppose que c’est à moi que tu adresses ce commentaire… Juste un truc, indique moi où j’ai écris que 60 fps quelque soit la résolution est une fumisterie ?
Le
16/10/2015 à
13h
58
latlanh a écrit :
Bon déjà, le faite que tu nous traite de mougeons décrédibilise tout ton discourt.
Ensuite ma config actuel dois coûter quoi, 800e , et encore ma 770 n’est plus vendu je crois…
Après des vrai joueur pc avec des config inférieur au console? Oo eu ben en faite j’en connais pas qu’on des pc de 5⁄6 ans.
Et je pense même pas que les jeux tourne tout court sur leur pc… Enfin bref… joue en 900p sur ta console, traite les autre de pigeons, de moutons ça fais passé pour supérieur en ayant une ps4 et payant ses jeux 70 balles! ><
Après oui aujourd’hui si tu vois pas la diff entre du 1080 et du 900 bah comment dire…
C’est super méga effrayant !
Déjà d’une, je suis majoritairement un joueur PC (ma dernière console est une x360) !
De deux, mon pc principal est comme le tiens (une GTX 960) !
De trois, j’indique dans mes messages précédents que je joue dans de bonnes conditions sur PC portable !
Quatre j’explique ensuite que j’ai 70 jeux de retards sur Steam et que pour éviter d’avoir à payer trop cher mes jeux sur PC, je joue 2⁄3 après la sortie des jeux
Et la finalité de tes propos c’est que
j’ai une PS4 et je paie mes jeux 70€
que je vois pas la diff entre du 1080 et du 900
(choses que j’ai jamais dit)
Parce que j’ai dit que le 1080p/60 fps est une fumisterie et que la plupart des joueurs PC n’y arrivent pas plus que les joueurs consoles !
Et tu veux pas que je te traites de mougeon ?
OK, je peux te traiter de geonmou à la place ?
athlon64 a écrit :
" /> un minecraft sur une config pourrie ca pique tout autant les yeux que les jeux consoles.
Et donc qu’est-ce que cela t’évoques ?
Le
16/10/2015 à
13h
47
athlon64 a écrit :
Minecraft n’est pas recherché niveau graphisme, mais au moins ca scintille pas. Dans mon cas, je préfère un jeu qui ne mise pas sur le realisme (Hotline miami ou rogue legacy ou même Mario, ds graphismes simples donc) mais au moins ca scintille pas de partout. Je ne comprends pas l’interet de vouloir un jeu realiste si au final ca scintille, les textures se chargent au fur et a mesure. CoD sur console, je trouve ca injouable, les décors sont crades, et il m’est impossible de voir “correctement” a cause de ca justement.
par contre, un jeu “realiste” sur une config qui le fait tourner en ultra, la ca me pose moins de probleme vu que le scintillement se fait pas ou peu présent
" />
Donc concrètement…
La bouillie de pixel au framerate aléatoire que représentait Minecraft sur bien de PC équipés d’iGP voir même de GPU moyen de gamme ne piquait pas les yeux, mais les “scintillements” d’un Ryse ou The Order 1886 sur nouvelle gen avec une télé 40” est insupportable ?
Bonjour la crédibilité quoi…
Le
16/10/2015 à
13h
30
latlanh a écrit :
Tu sous entend que les console font “que ” des compromis sur les résolutions… moi je te dis qu’ils font les compromis sur les filtres ET sur les résolutions… Et sur même plus de filtre que sur pc…
Et donc que tu n’a toujours pas compris…
Parcequ’il existe des PC susceptibles de faire du 1080p/60 fps (même sans filtres), d’après toi, d’une combien de joueurs PC y arrivent vraiment ?
Et de deux, combien de vrais joueurs PC jouent avec des configs inférieures à celles de dernières générations ?
T’es en train de me dire que ces gens là ne font pas de compromis et sur les filtres et sur les résolutions ???
S’ils font des compromis ce ne sont pas des joueurs ? Leurs jeux sont trop moches, ils piquent trop les noeilles ?
Franchement !!!! " />
Un jour (dans pas longtemps) un mec va se pointer (probablement un commercial nVidia) et dira : le jeu désormais c’est le 3840x2160 @ 144 fps !
Les mougeons du monde entier aussitôt le reprendront en cœur sur tous les Internets : 3840x2160 @ 144 Hourra pour la masterracer \0/
Même s’ils n’en auront probablement jamais les moyens financiers !!!
Le
16/10/2015 à
13h
14
latlanh a écrit :
Ha? parce que en 900p sur console tu as les même filtre dis “bloquant”? Sur console tu a les filtre en moins et en plus oui du 900p…
Ouais donc en fait t’es en train de me dire que t’as pas compris ce que je voulais dire…
athlon64 a écrit :
franchement, oui les graphismes de consoles ca piquent les yeux, ca scintillent de partout. (non ce n’est pas du troll que mon avis)
Rooh c’te mauvaise foi vous je jure… " />
Ryse et The Order 1886 par exemples sont de très beaux jeux. Creux certes mais sompteux !
Et pis s’agissant de graphismes qui piquent, ces dernières années les gens se sont éclatés avec Minecraft sur PC et personne n’a fait une syncope des yeux…
Le
16/10/2015 à
13h
00
Charly32 a écrit :
C’est surtout que c’est trolldi et qu’on en profite " />
Mais entre dire qu’on peut jouer dans de “bonnes conditions” à des jeux 3D “relativement récents” avec un APU/IGP, c’est un peu pousser aussi, à mon humble avis.
Ouais mais dans ce cas, les jeux qui sortent sur PS4/X0 c’est quoi ?
Certes ils ne sont pas en 1080p @ 60 fps, mais cela veut-il dire qu’ils sont moches pour autant ?
Si oui, dans ce cas tous les jeux sont moches pour la majorité des gens parce que mine de rien, la config dans ces consoles surpassent bon nombre de config dites “gamer”
latlanh a écrit :
Autant pour moi, 1080@60fps avec tout les filtres pour moi c’est pas pareil que 1080@60fps…
Genre exemple débile… Ma config qui a 2 ans fait tourné TW3 en 1080@60 si je désactive juste l’hairworks…
Mais oui forcement si tu part d’un commentaire qui plébiscite le 1080@60 et lui fait dire qu’il parle du 1080@60fps avec tout les filtres… Normal que ça parte en dialogue de sourd…
Dans la vie tout est histoire de compromis…
Pourquoi faire croire (ou laisser penser) que l’on joue dans de mauvaises conditions si l’on joue en 900p voir même 720p @ 60 fps ou en 1080p @ 40 fps parce que l’on fait des compromis sur la résolution et/ou les fps mais pas lorsque l’on fait de compromis sur les filtres ???
Parce que bon, Tetris en 1080p 60 fps je suis sûr qu’on y arrive avec une puce ARM pour smartphone… Donc ça c’est bien. Mais du 900p 60 fps sans filtres sur BF4 console ça serait mal c’est ça ?
C’est là tout mon propos " />
Le
16/10/2015 à
12h
50
Soltek a écrit :
J’avais bien compris et ça ne change rien à mes propos puisque ce jeu tournais chez moi en ultra 1080p avec une config de plus de 5 ans dans les 40-50 fps alors j’ai du mal à croire qu’avec la config musclée toute récente elle galère à tenir les 60.
Sort nous donc ton bench BF4 d’une config i7 4770k + GTX 960 + 16 Go de RAM et comme ça on en parle plus.
Parce qu’avec une simple recherche je vois ce genre de vidéo de config plus petite que ça et le jeu tourne bien à fond à toujours plus de 60 fps…
J’ai pas été bien loin, j’ai tapé GTX 960 review, les deux premiers liens :
Core i7 3960X OC + GTX 960 4Go+ 8 Go RAM @ 58 fps en 1200p. Mais bon 1000$ le CPU à sa sortie…
J’ai rien inventé… Et encore une fois j’ai écris nulle part que le jeu n’était pas jouable en ultra même avec une config haut de gamme datant de 5 ans !
Le
16/10/2015 à
12h
42
Citan666 a écrit :
Heu, autant je soupçonne que deepinpact a effectivement grossi son propos, (…)
Même pas… J’ai pris BF4 mais j’aurais pu prendre n’importe quel jeu plus récent !
Ça n’aurait rien changé au fait que le 1080p @ 60 fps tous filtres activés sur tous les jeux est luxe réservé à une toute petite élite aujourd’hui susceptible (et ayant l’envie) de mettre 1500€ minimum dans son PC et quasi 500€ en moyenne les années suivantes selon les sorties de jeu pour rester “à jour” !
Un luxe loin d’être évident même pour les “gros” joueurs PC dont je fais partie… (Je joue à 90% sur PC).
Citan666 a écrit :
(…) autant prendre la config recommandée, quand il s’agit d’un jeu EA, c’est limite de l’information mensongère…
Rappelons quand même que Battlefield 4, c'est le jeu qui a mis 10 mois à être jouable sur une majorité de configs, aussi bien en termes de perfs que de stabilité. Du coup, pour peu que les tests dont parle deepinpact aient été réalisés peu après la sortie, ça expliquerait aisément votre divergence d'opinion.
Par ailleurs, je pense que son message n’était absolument pas…
”Les jeux récents sont beaucoup trop gourmands donc beaucoup de gens normaux sont exclus”,
Mais bien au contraire…
”Les sites de tests ‘survendent’ les configs réellement nécessaires pour faire tourner un jeu”.
Et qu’il prenait précisément Battlefield 4 comme exemple de jeu qui tourne mieux qu’annoncé par les sites spécialisés.
En tout cas, c’est ainsi que j’ai compris le sous-entendu de son commentaire, et je partage cette opinion. Ma vieille config fixe fait tourner quasiment tout nickel. Sûr, quelques jeux nécessitent de réduire les filtres etc, mais en Full HD ça reste suffisamment joli et fluide pour être agréable à jouer. Perso c’est tout ce que je demande.
C’est absolument ce que j’ai voulu dire " /> et dans l’ensemble je pense que la majorité des gens sont d’accord avec ça. Mais l’on a érigé le sacro-saint 1080p @ 60fps comme un minimum aujourd’hui pour définir ce qu’est le “bon jeu” alors que c’est faux et les gens n’arrêtent pas de reprendre ce “terme” de mougeon à longueur de forum sans comprendre ce que cela implique réellement derrière (notamment en terme de coût) et je trouve ça au mieux dommage (pour ceux qui viennent s’informer sur ce genre de site et qui s’y connaissent pas) au pire rageant parfois parce que ça donne lieu à de vrais dialogue de sourds dans les commentaires (comme aujourd’hui) !
Merci à toi " />
Le
16/10/2015 à
12h
21
Soltek a écrit :
Ouais pardon tu as dit
Ça change tout on avait pas compris ce que je voulais dire " />
De mieux en pire " />
Rassure moi, c’est de la dyslexie ou…?
Tu comprends qu’il y a une différence entre faire tourner un jeu avec une config minimum ou recommandée et faire tourner un jeu en 1080p à 60 fps avec les filtres…non ?
Le
16/10/2015 à
12h
11
Soltek a écrit :
Ça ne provoque donc aucune réaction chez toi (…)
C’est agaçant n’est-ce pas ? " />
Soltek a écrit :
(…) (oui parce que les graphismes de BF4 = ceux de BF3) recommandant une GTX 660 + n’importe quel quad core de chez Intel et 8 Go de RAM ne passe soit disant pas avec une config’ de débile aka i7 4770k + GTX 960 + 16 Go ?
Ce que tu écris ne veux rien dire…
Tu peux m’indiquer quelque part où j’ai écrit que cela ne “passait pas” avec un i7 4770k… ?
Ce commentaire narquois c’est pour dire que j’ai menti ?
Que les benchmarks des sites spécialisés sont faux ?
Ou… ?
Le
16/10/2015 à
11h
19
loser a écrit :
Que tu n’es pas très exigeant " />
(ou que tu ne joues qu’à des jeux d’il y a 5 ans)
Oui mais qu’est-ce que l’exigence… ?
Vouloir à tous prix jouer à 1080p à 60 fps ou dans de bonnes conditions ?
On peut être exigeant sur la qualité de la nourriture, sur le style vestimentaire sans pour autant manger des sushis de foie gras et caviar !
En ce qui me concerne pour bien des jeux je me contentes d’enlever les filtres et si je tourne à 40 fps j’estime que c’est correct tant que c’est constant !
Et oui je m’en suis jamais caché, les jeux les plus récents auxquels je joue ont 2⁄3 ans !
Ne serait-ce parce que j’ai pas loin de 70 jeux en attente sur Steam déjà… Et en plus cela m’évite d’avoir à investir dans du matos qui coûte peau de balle et à claquer 60/80€ en jeu et season pass lors de sa sortie…
Charly32 a écrit :
Bah non, j’ai deux reins, du coup j’attends pas! " />
Bon le problème c’est que j’ai deux machines à upgrader, du coup ça fait 4 reins " />
Attention, je ne critique absolument pas le fait de mettre 3000€ dans du matos de PC.
Qu’on dépense son argent pour ça, voyager ou dans des voitures de luxe, chacun fait ce qu’il veut de son pognon.
Mon propos c’est juste de dire, qu’en matière de gaming même si la masterrace se fait beaucoup entendre sur les forums, la majorité des gens ne mettent pas beaucoup d’argent dans leur PC.
Et que donc par conséquent, que même les joueurs PC en réalité ne jouent pas la plupart en 1080p/60 fps…
(A moins de me prouver le contraire. (Attention la population qui sévit sur ce forum n’est pas représentative " /> )
Déjà parce qu’ils en ont pas les moyens et aussi parce que comme pour moi ils estiment que jouer dans des bonnes conditions ça ne veut pas du tout dire jouer en 1080p/60 fps sur tous les jeux OU, tout du moins que les jeux actuels n’en valent simplement pas la dépense !
Le
16/10/2015 à
10h
21
Soltek a écrit :
lol
Heureux de te faire rire.
Mon PC principal (que j’allume assez peu) est à base de core i5 4570 + GTX 960 + 8 Go de RAM qui permet déjà de faire du jeu avancé à 700/800€ sans écran.
Selon les benchmark un couple core i7 4770k + GTX 960 + 16 Go de RAM ne fait pas tourner BF4 et d’autres jeux récents en 1080p 60 fps avec les filtres activés… Donc bon…
latlanh a écrit :
J’en déduit que des gens joue a Candi crush et disent qu’ils jouent a des jeux video! ;) Que donc ps4 xboite c’est la meme ca veux pas dire que c’est bien! " />
Bon , " /> -di mis a part, ton discourt sur le 1080@60 faut arrêter… tu vas me dire que 90% des joueurs pc qui achètes des jeux AAA/steam/Bli² sur pc sont pas en 1080@60? Oo alors la je veux bien voir ça…
Pourtant les stats existent et je les aient déjà mises sur NXI
Sur Steam, le Top 10 des GPU sont constitués de 4 puces Intel HD qui représentent à elles 4, 12% des puces graphiques des PC sur lesquels se trouvent Steam. Après je ne doute pas qu’il y ait pas mal de config à base de CPU Intel + GPU dédié et que les intel hd sont intégrées par défaut, mais ça donne une idée… Surtout que derrière, les puces nVidia susceptibles de faire tourner tous les jeux en 1080p/60 fps cumulent péniblement 6% (GTX 780/880/970/980 et au delà). Pour les AMD pas de détails ils indiquent seulement série 7900, R9 200⁄300 sans donner le détail mais ça vole pas bien haut. Ensuite, plus de 60% des PC disposent de moins de 8 Go de RAM. Donc de là à atteindre un niveau de joueur significatif sur le 1080p/60 fps sur le jeu récent…
Ah oui, le top 10 des jeux les plus joués ces 2 dernières semaines sur Steam…
Dota 2, CS Go, TF2, Garry’s Mod, CIV5, GTA5, Warframe, Unturned, Skyrim, Ark.. Les 5 premiers (la grosse majorité des joueurs actifs dans ce top 10) nécessitent même pas une config monstre pour jouer dans de bonnes conditions…
Ben oui on peut jouer avec un APU, un peu comme avec Intel® HD Graphics " />
Après si on veut vraiment jouer ben on prend du matos fait pour, pas une console!^^
C’est l’histoire du bon et du mauvais chasseur ton truc…
Je joue fort correctement avec un core i7u et une GT 750M sur portable Win 8.1…
La PS4 est un équivalent core i3 + HD 7850 avec des jeux optimisés…
Donc t’en déduis quoi ?
Qu’on peut pas jouer dans de bonnes condition avec une config à base de core i3 + HD 7850 avec des jeux optimisés mais qu’on peut jouer encore mieux avec un core i7u et une GT 750M ?
Charly32 a écrit :
" /> 1080@60
Le monde entier s’en fout !
90% des PC n’y arrivent pas et les gens jouent quand même…
Charly32 a écrit :
(et on vous attends sur le 2160x1080@90 de la VR " />)
/me réactive adblock.
Toi aussi tu vas attendre avant d’avoir du matos qui ne soit pas vendu 2 reins pour pouvoir y jouer !
Si demain la VR arrive et qu’il faut y mettre 3000 boules, bah j’attendrai. C’est ce que je fais avec les jeux PC, j’attends 2⁄3 ans après le sortie pour y jouer mais quoiqu’il arrive je joue !
Le
16/10/2015 à
09h
12
Nilav a écrit :
Leur dernière gamme d’APU est cool. Excellente pour un mini NAS / HTPC avec une conso toute douce et des performances au RDV (vieille d’un an elle est plus perf que la récente génération d’Intel). Après, sur le reste, ils sont à la ramasse c’est clair.
Elle n’est pas seulement cool, dans l’ensemble leurs APUs restent très efficaces.
N’en déplaise à la masterace les PS4 et X0 prouvent qu’il est même très largement possible de jouer avec un APU.
Nilav a écrit :
D’un point de vue techno, ils peuvent facilement rebondir, avec Zen, ils semblent avoir compris que même si on ne joue pas les écolos, la performance énergétique que je résumerai en perf / watts est importante. Perso, je me fiche de savoir s’ils auront le meilleur proco, j’espère juste qu’ils vont pouvoir se mettre au niveau d’Intel sur le gaming (et le secteur pro mais cela va souvent de pair).
+1
Nilav a écrit :
Le problème cela dit reste toujours le même, quand tu penses qu’ils sont 10 fois moins gros que NVidia et 100 fois moins gros qu’Intel, ils peuvent bien sortir une bombe de CG et de CPU la même année, c’est à peine si cela influencera leurs ventes tant ils n’ont pas les contrats qui vont bien avec les constructeurs et le budget com nécessaire pour faire parler de leurs produits autant que leurs concurrents.
AMD c’est un peu une société mal aimée, je suis d’accord ils pourraient sortir un couple CPU/GPU équivalent à un core i7 haut de gamme et GTX x80 Ti deux fois moins cher la même année qu’ils continueraient d’être boudés d’un côté par les constructeurs et de l’autre par les gamers…
Je serais patron d’AMD aujourd’hui, je me concentrerais sur l’implémentation de 3 modèles de SoC intégrant de base de la RAM/vRAM et un SSD mSata
à 15w (pour concurrencer le core M dans les ultraportables),
à 60w (pour concurrencer les core i5U+GT x45/50m sur les laptops classiques et unités centrales entrée de gamme)
à 250w comme ils l’ont annoncé récemment pour concurrencer personne et proposer quoiqu’il arrive un plateforme permettant de jouer dans de très bonnes conditions pour moins de 500€ avec un encombrement ultra réduit.
Quitte à mettre totalement de côté les marchés des CPU public et pro (hors futur CPU ARM/x86 très basse conso à destination de l’embarqué et des minis serveurs dédiés pour datacenter) et GPU dédiés (hors partenariat(s) exclusif(s) avec un Apple par exemple ou autre constructeur) !
Tout le reste quand t’as pas les moyens d’un Intel ou d’un nVidia c’est de la perte de temps et du bullshit pas rentable pour un sou !
Pour moi cette société a du potentiel, mais faudrait qu’elle se transforme totalement, chose qu’elle est en train de faire (dans le bon sens je pense) !
Espérons juste qu’ils en aient le temps avant de se faire racheter par un Samsung, Apple, ou jesaispasqui, qui n’aura rien à carrer du x86 et des GPU gamer mais qui sera uniquement intéressé par son savoir faire et ses brevets…
Dropbox c’est Condoleezza Rice approved, autant aller ailleurs. " />
Bah… Si c’est pas Condeleeza Rice approved, ça sera soit Cameron approved, Xi Jinping approved, Hollande approved, Merkel approved…
Quand on a des truc à cacher ou des documents industriels confidentiels sur le prochain Rafale à partager, m’est avis qu’on évite les trucs en cloud et… internet tout court en fait pour les échanges " />
Pour collaborer sur la rédaction d’un cahier des charges d’une banale appli de compta ou des procédures, ça ou un autre outil c’est pareil de toute façon ! Rien d’intéressant à l’échelle d’un état.
Et même si la définition des écrans est intéressante, ce dernier n’a rien d’extraordinaire non plus…
Perso, quit à avoir un bon écran (pour la photographie pour moi) je préfère l’acheter de façon séparée et ne pas le rendre dépendant de mon ordinateur… En plus Apple ne fait pas d’imac en dalle matte.
J’imagine que la cible de ces iMac n’a vraiment pas de problème de considération d’argent…
Mais en fait le pire c’est ça, même à prix équivalent, y a pas de concurrent !
Après oui, les allergiques pauvres dans mon genre se contentent de pc portables faute d’avoir une offre convenable en dessous de 1000€
Le
13/10/2015 à
22h
13
IMHO ils peuvent abuser tant qu’ils veulent… Il n’existe aucun AIO disposant d’un écran convenable avec des specs potables et d’une qualité de finition digne de ce nom chez la concurrence !
Pour les allergiques aux câbles souhaitant disposer d’un grand écran plus grand que celui d’un ordinateur portable, il n y a que l’iMac et Apple l’a bien compris…
D’un point de vue purement financier, c’est extrèmement rentable: Drahi est parti de quasi 0, et dans 10 ans s’il revend tout, il sera au moins à +15-20 milliards. Moi je trouve pas le concept si foireux que ça!
Après s’il décide de ne pas vendre, il sera au contraire à la tête d’une boite qui vaut plus de 20 milliards. Ca n’est pas si mauvais que ça.
S’il tire parti des synergies possibles dans l’ensemble de ses boites achetées, il créera de la valeur (en baissant les coûts, en faisant connaitre une marque unique, en mutualisant les achats et développements, etc). Il me semble que ça peut être intéressant comme stratégie.
Même si je pense qu’au final, tout ce qui l’intéresse c’est d’avoir sa boite aux US et y contrôler quelques médias par la même occasion. SFR n’a été que l’outil utilisé pour démontrer sa capacité à emprunter et créer de la valeur à partir d’une boite déjà existante (et obtenir une giga machine à cash).
Sauf que ce qu’on passe sous silence, c’est que SFR était dans une position très particulière, c’est à dire qu’elle était extrêmement profitable, mais avait été laissée à l’abandon par son ancienne direction, et donc même si elle ne dégageait que “X” bénéfices, elle avait le potentiel avec un poil de nettoyage et restructuration d’en dégager le double. Les autres boites achetées ne sont pas - à mon avis - dans une configuration aussi favorable.
De plus, à moins d’acheter un réseau en Espagne, je pense que les synergies entre la France et le Portugal sont assez limitées, j’ai d’ailleurs assez de mal à comprendre son rachat là bas (sauf si la boite était très sous-évaluée du fait de la crise qui est passé il n’y a pas si longtemps).
Depuis le début on dit la même chose.
Au niveau de Drahi bien entendu que le concept n’est pas foireux. Il acquiert des entreprises avec leurs propres argent. Si ça casse, ça casse pour les entreprises, si ça marche, ça fonctionnera pour lui.
Il n’a qu’à utiliser les potentiels bénéfices des différents groupes pour réduire la dette du groupe consolidé.
Dans 4⁄5 ans bien entendu qu’il aura remboursé une partie de la dette, mais l’argent impliqué dans le remboursement c’est autant d’argent qui ne sera pas investi dans un secteur gourmand en investissement au niveau de l’infra et ultra concurrentiel !
C’est le même principe que Vivendi, AOL, etc…, à la fin la charge de l’endettement sera tellement lourd que le groupe consolidé vaudra bien moins que la somme de toutes les filiales. D’un point de vue industriel c’est idiot. Mais d’un point de vue financier c’est tout bénéf pour les actionnaires d’Altice.
Bref je contredis aucun de tes propos, je dis juste que la stratégie d’Altice n’est pas celle d’un groupe de Telecom, mais celle d’un fond de pension…
Au final tant mieux pour Drahi, tant pis pour les employés…
Le
25/09/2015 à
13h
48
jinge a écrit :
Heu… Vivendi ne sont pas à plaindre! Il n’y a qu’à comparer la valeur de la boite il y a 20 ans et maintenant.
J’ai jamais dit qu’ils étaient à plaindre…
J’ai dit qu’ils ont déchanté !
Avant la cession d’Activision, SFR, Maroc Telecom et GVT, il s’agissait d’un groupe surendetté (plus de 18 milliards d’euros en 2013). Dette accumulée à l’époque par J6M qui avait fait de la croissance-dette son cheval de bataille pour créer un géant des médias. Rien ne dit que la capitalisation de Vivendi n’eut pas été plus haute aujourd’hui s’ils n’avaient pas accumulés une telle dette. A l’époque on disait que la capitalisation en bourse de l’entreprise valait moins que la potentielle capitalisation individuelle de chacune de ses filiales.
C’est bien la preuve que la croissance-dette (surtout pour un groupe dont le domaine principal est les telecom) est un concept forieux… Enfin IMHO !
jinge a écrit :
Pour Drahi je ne me fais aucun soucis: SFR génère 2 milliards d’€/an, donc il gagne 1,3 milliards d’€ pour chaque année qu’il conserve SFR. S’il revend SFR dans 5 ans, il aura “créé” pour Altice 6 milliards d’€ (dans l’hypothèse d’une revente de SFR)
Les premiers à être virés sont quand même toute la direction avec les hauts managers/décideurs/fonctionnaires qui ne servent à rien et qui sont grassement payés car dans la boite depuis des années. Mais ne t'inquiète pas pour Drahi, son plan d'économies est quand même assez important. Déjà rien que se passer de la boucle locale Orange sur toute la zone câblée lui fait économiser qqchose de l'ordre de 150M€/an.
Il a également revu la politique d’achats, par exemple sur l’achat des chaines télévision, il a pris les contrats les moins chers entre SFR et NC pour chaque chaine. Il a également revu la chaine des sous-traitants: au lieu de diviser 1 tâche en 5 sous-tâches et donner 5 sous-tâches à 5 sous-traitants, ils responsabilise les sous-traitants en leur donnant à 1 la tâche en entière (et en payant pour 4 puisqu’il donne plus de taf => économie sur le volume).
Je pense qu’il a vu vraiment tous les axes d’économies potentiels qu’il pouvait trouver chez SFR. Après sur la politique commerciale et d’investissements, je pense que c’est beaucoup plus discutable, notamment à moyen-long terme…
Bah je m’en fais pas pour lui non plus !
Tu ne fais que répéter ce que j’ai dit, différemment !
A mon sens ces rachats ne correspondent à aucune stratégie industrielle à long terme. C’est du pur spéculatif financier !
1743 commentaires
Microsoft : 83 millions d’euros pour la French Tech et l’Éducation nationale
09/11/2015
Le 10/11/2015 à 22h 06
Le 10/11/2015 à 21h 53
Le 10/11/2015 à 21h 12
Le 10/11/2015 à 19h 10
Le 10/11/2015 à 16h 52
Le 10/11/2015 à 16h 23
Le 09/11/2015 à 19h 54
L’iPad Pro en vente le 11 novembre, dès 919 euros en France
09/11/2015
Le 09/11/2015 à 21h 12
Le 09/11/2015 à 20h 55
Le 09/11/2015 à 20h 16
Le 09/11/2015 à 19h 22
Le 09/11/2015 à 18h 56
Bien que je sois conscient qu’il ne soit plus possible pour un constructeur occidental (enfin surtout US parce que l’Europe niveau IT…) vu la concurrence asiatique de faire autre chose que du haut de gamme, je déplore quand même l’orgueil de Microsoft qui positionne pile poile sa Surface Book (core i5, 128 Go) à 1499\( aux USA au même prix que l'iPad Pro ( ipad pro 128 Go avec stylo et coverkeyboard à 1537€ ttc en France) alors qu'il s'agit d'un produit avec un vrai potentiel contrairement à son concurrent...
Parce qu'à 2699\) la version Core i7/16 Go ram/512 Go SSD/Geforce GT940m susceptible d’intéresser le plus grand nombre, ça reste foutrement prohibitif même pour les plus motivés d’entre nous…
C’est in fine 800€ plus cher qu’un Lenovo T450 (i7/16 Go/512 Go/full HD) qui certes ne dispose ni de GPU dédié, ni d’un écran 3000x2000, ni d’un mode tablette mais ça laisse suffisamment d’argent pour se payer un Galaxy Note 5 en plus, pour lire ses mails et rester connecté avec l’entreprise en situation de grande mobilité !
Donc du coup une fois de plus on repassera…
Quant à l’iPad Pro… Bah au moins Apple aura essayé… " />
YouTube Red : pas de publicité, contenu exclusif et mode hors-ligne pour 9,99 $ par mois
21/10/2015
Le 22/10/2015 à 09h 42
Le 22/10/2015 à 09h 15
Le 22/10/2015 à 08h 51
Recouvrement des amendes : SNCF et RATP pourront bientôt accéder aux données du fisc
20/10/2015
Le 20/10/2015 à 17h 46
Le 20/10/2015 à 16h 52
Electronic Arts ne s’intéresse pas aux remakes
19/10/2015
Le 19/10/2015 à 14h 52
Molotov.tv s’attaquera aux box et à MyCanal début novembre
19/10/2015
Le 19/10/2015 à 14h 44
C’est d’un pourri comme nom molotov.tv !!!!!!!!!
Nintendo distribuerait déjà le SDK de sa future console NX
16/10/2015
Le 19/10/2015 à 08h 56
Le 16/10/2015 à 19h 20
Le 16/10/2015 à 18h 37
Le 16/10/2015 à 18h 15
AMD perd 197 millions de dollars et monte une coentreprise avec Fujitsu
16/10/2015
Le 17/10/2015 à 10h 48
Le 16/10/2015 à 17h 18
Le 16/10/2015 à 16h 32
Le 16/10/2015 à 16h 02
Le 16/10/2015 à 15h 59
Le 16/10/2015 à 13h 58
Le 16/10/2015 à 13h 47
Le 16/10/2015 à 13h 30
Le 16/10/2015 à 13h 14
Le 16/10/2015 à 13h 00
Le 16/10/2015 à 12h 50
Le 16/10/2015 à 12h 42
Le 16/10/2015 à 12h 21
Le 16/10/2015 à 12h 11
Le 16/10/2015 à 12h 04
Le 16/10/2015 à 11h 55
Le 16/10/2015 à 11h 19
Le 16/10/2015 à 10h 21
Le 16/10/2015 à 09h 31
Le 16/10/2015 à 09h 12
Dropbox dévoile Paper, sa solution de travail collaboratif en ligne
16/10/2015
Le 16/10/2015 à 17h 51
[MàJ] Vivendi entre au capital de Gameloft et Ubisoft de manière « non sollicitée »
15/10/2015
Le 14/10/2015 à 18h 54
Apple renouvelle ses chers iMac et ajoute un modèle 21,5″ 4K
13/10/2015
Le 13/10/2015 à 22h 46
Le 13/10/2015 à 22h 13
IMHO ils peuvent abuser tant qu’ils veulent… Il n’existe aucun AIO disposant d’un écran convenable avec des specs potables et d’une qualité de finition digne de ce nom chez la concurrence !
Pour les allergiques aux câbles souhaitant disposer d’un grand écran plus grand que celui d’un ordinateur portable, il n y a que l’iMac et Apple l’a bien compris…
BlackBerry Priv : des photos du clavier coulissant et de l’écran avec les bords incurvés
29/09/2015
Le 29/09/2015 à 15h 03
Altice veut lever le pied sur les rachats
24/09/2015
Le 25/09/2015 à 14h 28
Le 25/09/2015 à 13h 48