votre avatar

Oryzon

est avec nous depuis le 21 septembre 2012 ❤️

794 commentaires

Le 10/09/2013 à 09h 41







Lafisk a écrit :



Plutôt server 2012 que Windows 8 en fait.





Pour administrer oui, mais pour avoir une plus value évidente côté fonctionnel l’argument pourrait être celui là : tu dev des applis métiers pour Win8 et elles sont facilement portables vers tes tablettes et smartphone Win. Et du coup il y a une cohérence fonctionnelle et technique sur toute ta flotte de devices, pour un coup de maintenance réduit.

Enfin c’est comme ça que je le voyais, mais je ne suis pas techos, donc je vois plus l’aspect commercial probablement.


Le 10/09/2013 à 08h 49







Mr.Nox a écrit :



Quel smartphones taillés pour les pros pour remplacer les BlackBerry si la boîte coule complètement. Ni les iPhone ni les Androids sont taillés pour ça.





Si si ils les remplacent petit à petit. Après l’acteur le plus à même de proposer un produit résolument pro… voyons voir… le n°1 mondial des OS chez les pro ? le n°1 mondial des logiciels chez les pro ? un acteur qui fournit aux pro des solutions complètes allant de l’OS, outils, serveurs etc. Qui a une relation commerciale et technique avec eux depuis quoi 20 ans ? Se pourrait-il que ce soit une seule et même entreprise qui fasse tout cela ? Et que cette boîte ait lancé un OS mobile partageant le même noyau que son dernier OS desktop ? Mais qui cela peut-il être ?



Blague à part, il est clair pour moi qu’au fur et à mesure que les pros vont abandonner BB, MS a une grosse carte à jouer pour récupérer de grosses part de marché sur ce secteur. Mais pour qu’ils aient vraiment tout les atouts, il faut implanter Win8….



Le 06/09/2013 à 10h 02

L’artisanat oui, car il y a transformation qui repose essentiellement sur du temps de travail, et non pas sur un investissement qui s’amortit.

Pour le seuil de rentabilité en industrie je ne vois pas pourquoi puisque tu ne tiens pas compte de l’amortissement de ton actif de prod ; tu finirais forcément par passer une écriture pour le déprécier non ?<img data-src=" />

La marge brute oui, ça peut aussi servir dans les calculs de cash j’imagine … je commence à me souvenir pourquoi je n’aime pas l’analyse financière. <img data-src=" />

Mais reste que pour discuter du prix de vente, le prix de revient est bcp plus pertinent pour moi, et que je pense réellement que tout le monde fait la confusion à cause des affiches des magasins “exceptionnel ! vente à prix coûtant ! tout dois disparaître !”

Le 06/09/2013 à 09h 44







Patch a écrit :



simple : les charges directes sont… directes. et directement imputables à chaque unité produite. pour produire 1, tu as besoin de 1X matière première A, 1Y matière première B, 1Z matière première C. pour produire 1000, il faut 1000 de chaque (soit 1000X, 1000Y, 1000Z). donc très simple à calculer. ton usine, que tu veuilles produire 1 ou 1 million, faut la contruire dans tous les cas, et reviendra au même coût fixe au final, que tu produises 1 ou 1 million. c’est donc une charge indirecte… qui rentre dans le coût de revient, mais pas dans le prix de revient.







Il est vrai que ma définition est celle du prix de revient, car pour moi lorsque la plupart des personnes parlent de prix coûtant elles parlent en réalité de prix de revient cad prix où tu ne fais ni pertes ni bénéfices.

Pour le prix coûtant tel que tu le définis ça fait sens uniquement pour de l’achat/vente sans transformation, dans la distribution essentiellement. A partir du moment où il y a transformation, je n’en vois pas l’intérêt, et certainement pas pour discuter du prix de vente. A vrai dire je ne savais même pas qu’on l’utilisais dans un tel cas en squeezant les coûts fixes, tu m’as appris un truc <img data-src=" />


Le 06/09/2013 à 09h 05







Patch a écrit :



plutôt coût de revient <img data-src=" />

(le prix coûtant c’est le prix de revient, calculé seulement avec les produits directs moins les charges directes)





Et comment tu calcules tes “charges directes” sur UN processeur quand il faut construire une usine de plusieurs milliards de $ pour le fabriquer ?


Le 06/09/2013 à 08h 37







Ricard a écrit :



Ben, ça se calcule… Je comprends pas… qu’est-ce qui te dérange là dedans ?<img data-src=" />





Bah il a raison.

A un moment tu dois bien affecter TOUS les coûts liés à un produit pour avoir le vrai “prix coûtant”. Un prix coûtant c’est le prix auquel t’es à zéro une fois que t’as payé tout ce que tu devais payer.



Exemple tout con : j’ai vu que certains s’imaginent que le prix coûtant c’est le prix d’achat des matière premières.

En fait le prix d’achat des matières première n’est même pas le prix coûtant d’achat des matières premières.

Pour obtenir ce prix là (qui sert en interne dans l’entreprise pour savoir quel prix les services achats “facturent” aux autres), c’est donc le prix des matières premières + les coûts de transport + les coûts de stockage + les éventuelles dépréciations de certains stocks + les assurances + les garanties + les coûts environnés (donc avec loyers, fournitures, logiciels etc) des salariés qui bossent dessus (négos avec les fournisseurs, gestion logistique, comptabilité…) + les pertes (vols, bris, matériel défectueux) + la gestion des recours vers les fournisseurs… Et ouais là tu arrives au prix côutant de tes achats. C’est un prix qui n’a déjà plus rien à voir avoir le tarif d’achat pur. Alors quand tu dois calculer un prix coûtant en sortie de chaîne d’un produit, si ça varie. Car il y a pleins de façons de calculer.



Encore un détail qui tue : tu te rend bien compte que le prix coûtant d’un processeur ce n’est pas juste le prix d’achat + le coût de l’usine amortie au moment où il sort + la R&D.

Sinon cela voudrait dire que le prix des premières séries de proc est équivalent à celui de l’usine ! Donc pour calculer un prix coûtant comme tu dis tu dois estimer combien de processeur tu vendras dans le temps et à quel prix. Donc pour calculer un prix coûtant, il faut non seulement tenir compte de pleins de facteurs internes à l’entreprise qui varient mais il faut en plus faire des plans sur la comètes qui ne se réalisent jamais à la perfection.

Donc un prix coûtant ça varie en fonction de la méthodologie et des hypothèses que tu appliques. Et encore on pourrait discuter des taux de changes monétaire (du genre tu achètes en dollar mais tu vends en euros), du financement de ton usine qui peut être soit sur fonds propre (comment tu en calcules la rémunération) soit sur lignes bancaire garantie maison mère, soit sur financement bancaire en financement de projet, taux fixe, taux variables etc



Bref tout ça pour dire que lorsqu’il y a des analyses qui estimes le coût d’un produit comme une console ou un tel en disant “alors la puce c’est xx € + la mémoire c’est xx €… mais mon dieu il y a une marge de 40 % ! quelle arnaque !”, ça me fait un peu bcp rigoler.


Le 05/09/2013 à 15h 57

C’est franchement logique.

WinRT est coincé entre WP et Win8.

Sa seule utilité était de s’assurer de pouvoir présenter des produits Windows même si Intel persistait à se planter sur la mobilité.



De plus pour les tablettes et les hybrides avoir une version RT et une version Win8 cela brouille le message et créé la confusion chez les clients.



MS devrait fusionner le plus rapidement possible WP8 et RT et au passage rendre compatible les applis WP8 avec Win8.



Win8 pour Desktop, portables, hybrides et grandes tablettes.

WP8 pour Smartphone, phablettes, tablettes avec tout ce qui tourne dessus qui peux se lancer sur tous les devices Win8.

Ca s’est une combinaison gagnante, claire, utile. Enfin ce n’est que mon avis.


Le 06/09/2013 à 07h 57

Je comprend ce que tu dis : toute cette effervescence de produits et de form factor différents ne rassure pas dans la mesure où l’on se demande si l’on fait le bon choix. On peut vouloir attendre.

Mais j’ai envie de dire comme d’habitude avec les technos informatiques, on peut toujours attendre car le prochain proc sera plus puissant/économe, la prochaine version sera plus fine, plus autonome, des SSD plus gros, plus rapides, un écran meilleur…

ça ne s’arrête jamais.

Donc s’il y a un besoin à un moment il faut savoir sauter le pas. Si on ne parle que d’envie, de désir, comme pour tout c’est un équilibre entre la raison, la passion, le portefeuille et les priorités que l’on a.



Donc pour pleins de personnes il peut être sage d’attendre, pour pleins d’autres qui attendaient Haswell depuis plusieurs mois pour que ces hybrides deviennent vraiments intéressants c’est peut-être le bon moment.

Le 05/09/2013 à 14h 46

Beuaaaaaah ! Trop de produits d’un coup.

Asus a de bonnes idées, mais à un moment donné il faut trancher et choisir.

La ça donne quand même franchement l’impression d’aller je balance tout et je verrai bien ce qui marche. Mais du coup le client en face a aussi un peu la même réaction.



Décidemment les OEM ont encore des leçons à prendre du côté de chez Apple.

Il vaut mieux dire “on a eu plein d’idée, on a regardé et on a choisi le concept qui nous paraissait le meilleur. Ensuite on a bossé à fond sur CE produit pour en faire le meilleur possible. Le voilà regarder comme il est beau.



Tout sortir comme ça, c’est le plus sûr moyen de ne rien vendre. Car chaque produit présenté sera forcément mis à l’amende sur un ou deux points importants par un autre. Du coup c’est frustrant et la réaction est de se dire “oui mais moi je veux tous les avantages sans les défauts, donc j’attend la prochaine gen”.

Le 05/09/2013 à 11h 47







Gorkk a écrit :



Nokia n’était pas seul, il y avait Intel derrière, qui était très investi, tant en termes humains que financiers (et avant que Nokia les lâchent ils avaient dépenser pas mal d’argent pour justement promouvoir la plateforme auprès des développeurs).





Enormément investi ? De combien on parle au juste ?

Intel ? Alors excuses moi mais si tu dois choisir quelqu’un pour faire un système d’exploitation tu penses sérieusement qu’Intel passe devant MS ? Intel sait faire pleins de choses, mais les OS ne rentrent pas là dedans. Le seul intérêt de développer un OS avec eux c’est s’ils peuvent te balancer une puce au-dessus de la concurrence pour le faire tourner, et de ce point de vue là Intel en 2010-2011 était à la ramasse. On est bientôt fin 2013 et Intel n’est toujours pas en mesure de présenter des puces mobiles réellement intéressantes, ça va peut-être changer en 2014. Donc Intel comme partenaire idéal en 2011 pour dev un OS tournant sur de l’ARM…







Gorkk a écrit :



Il n’était pas encensé que par les geeks, mais également par des magasines grand public (Bild en Allemagne) ou encore les iFans (et non un iFan n’est pas un geek).





Linux desktop aussi est encensé depuis des années, BB10 aussi a eu une critique positive, demain probablement Firefox et Ubuntu. Des critiques positives c’est bien, c’est un point de départ, mais ce n’est pas ça qui te fait conquérir des part de marché.







Gorkk a écrit :



Déjà Meego utilisait Qt, et donc pouvait récupérer quasiment instantanément toutes les applications faites pour Symbian. Sans compter que les applications Qt demandent à peu près rien pour être portées sur un OS desktop (Linux bien sûr mais aussi Windows), même si en général il faut revoir l’interface (de fait).



Justement parce que ce n’est pas l’« écosystème » le critère principal, et même que la grande majorité des utilisateurs n’en ont rien à carrer. Autrement Android n’aurait jamais décollé étant depuis toujours un OS mobile. La convergence des devices, elle va probablement arriver d’ici quelques années, oui, mais au final sur ce plan Microsoft est encore plus loin que tous les autres : ils ont certes une présence sur les différents segments avec un OS qui s’appelle « Windows », mais au final il y a plus d’incompatibilités entre les différentes versions que pour les autres. L’« écosystème » Windows n’est que de façade. Par contre ce que prévoit Ubuntu est là un réel atout de ce point de vue là, et Ubuntu étant une distribution Linux, il y a fort à parier que leurs développements en ce sens seront open source également, et pourront donc bénéficier également aux autres distributions Linux (et donc à Meego s’ils étaient partis dessus). Enfin, avec la puissance d’Intel, s’ils n’avaient pas tout lâcher, ils auraient pu dès maintenant en être au stade qu’Ubuntu approche, à savoir une réelle convergence des supports avec un OS mobile qui devient un vrai OS desktop une fois docké (pour rappel, Meego c’était aussi les tablettes et l’embarqué (voitures, etc.).





Bien sûr que si l’écosystème est un élément central. Mais on ne parle pas de la même chose. Moi je te parle d’un Store dans lequel toutes les applications atterrissent systématiquement, d’une armée de dev que tu sais bichonner et à qui tu donnes les outils nécessaires, la visibilité et les retombées financières qui vont avec.

Alors après si pour toi un Store rempli d’applis Symbian vaguement adaptés c’est quelque chose qui va donner envie au client final, franchement tu tombes toi-même dans la foi aveugle que tu dénonçais chez ton autre interlocuteur.







Gorkk a écrit :



Bah non, ils font des OS mobiles depuis des années hein, ils étaient jusqu’ici sur Symbian qu’ils prévoyaient de remplacer initialement par Maemo, devenu Meego après avoir fusionné avec le projet d’Intel. L’OS mobile, ils connaissaient beaucoup mieux que Windows (et d’ailleurs après le choix Windows et avoir viré tous les devs Qt, ils ont au final eu des recrutements de dev Windows et ont participé au dev de WP : il fallait bien, c’était le seul moyen pour eux d’avoir le support des technologies modernes). Au final ils ont continué à dépenser sur du dev d’OS, sauf que c’était sur un OS propriétaire au profit d’une autre entité (et sur lequel ils n’avaient initialement aucune compétence)…





Non mais là tu argumentes réellement dans le vide.

Si on suit ton raisonnement Apple et Google qui avaient zéro expérience de la mobilité aurait dû se vautrer en beauté face aux constructeurs historiques.

C’est bien parce que les smartphones sont une vrais rupture en terme de compétences logicielles (OS, applis, services) que comme par hasard ce sont des géants du logiciel qui s’imposent.

Après que Nokia embauche des dev WP, c’est normal vu qu’ils doivent y dev dessus (Nokia Drive par exemple) et maitriser un minimum le logiciel sur lequel ils basent leur hardware. Par contre cela ne signifie pas que c’est eux qui dev WP. Samsung, Sony et HTC ont à coup sûr des dev Android, de là à dire qu’ils supportent des coût de dev en R&D comparable à ce que Google met dans Android…

Si Nokia y a mis de sa poche pour réellement dev WP je suis curieux de voir cela et si c’est le cas c’est qu’ils se sont réellement fait entuber.







Gorkk a écrit :



Tu peux faire du Android sans les services Google hein (cas d’Amazon en particulier).





Effectivement en très très particulier, tout à fait comparable à Nokia Amazon… Encore un argument dans le vent. Soit on discute soit on fait de la rhétorique et tu contredis pour le plaisir de contredire.

Si tu n’es pas d’accord donnes moi un constructeur de smartphones qui s’est lancé avec réussite dans Android sans s’appuyer sur les services Google.







Gorkk a écrit :



Et ? Samsung était déjà en pratique leur concurrent direct sur le marché global des téléphones, et d’un point de vue hardware Nokia restait très en avance. Par contre à passer sur Windows qui ne gérait pas les technologies de pointe, et à faire produire leurs téléphones par des sous-traitants qui font de la mauvaise qualité au lieu de les produire dans leurs usines à grande qualité, ils ont perdu toute cette avance en un clin d’oeil pour se retrouver au niveau technologique des téléphones d’Apple, et encore (soit 1 génération de retard au lieu d’avoir 1 génération d’avance).





Nokia en avance sur Samsung dans les smartphone au niveau hardware ? Euh…. Attend je ne savais pas que Nokia produisais des puces ARM, des écrans LCD et OLED à haute densité, de la mémoire flash…

Nokia avait des usines qui équivalaient à ce que fait Foxxconn aujourd’hui, sauf que désolé mais Foxxconn produit plus, plus vite, pour considérablement moins cher. Alors après tu peux toujours prétendre à tes clients que ton surcoût se justifie par une qualité supérieure, mais bon c’est chaud quand même. Les marges de Nokia ne sont pas déjà faramineuses sur les Lumia tout en étant dans le haut du panier au niveau des tarifs…







Gorkk a écrit :



Nokia avait à l’époque et de loin la plus grosse capacité de production dans la téléphonie, devant Foxconn. Leur santé financière de l’époque (ils avaient de loin la meilleure notation de tous les constructeurs, ce n’est pas pour rien) leur aurait permis de continuer à grossir au moins aussi vite que Samsung si ce n’est plus. Même en passant au tout Android, Nokia aurait pu être le Samsung d’aujourd’hui, ou on aurait pu avoir un duel au sommet au lieu d’avoir un Samsung ultra dominateur et les autres qui prennent les miettes. Avec Windows ils n’avaient aucune chance. Rejoindre Android était bénéfique pour eux : de tout temps ils se sont différenciés avant tout par le hardware, où ils étaient les meilleurs ; ça tombe bien sur Android c’est la principale différentiation, étant donné qu’ils utilisent tous le même OS. À la place ils sont allés sur Windows, un OS qui supprime tous leurs avantages hardware à cause du désavantage software. Et pour la partie service, elle aurait été tout à fait à sa place sur Android : c’est l’autre point de différentiation sur Android, et là encore ils étaient très bon. La différentiation cosmétique, c’est tout à fait mineur, mais sur les points principaux de différentiation sur Android, Nokia étaient les meilleurs, et auraient du justement rechercher à se mettre sur ce terrain si vraiment ils voulaient abandonner Meego (ce qui n’avait aucun sens, en particulier avec le soutien d’Intel).





Non je crois que tu ne comprends pas. Nokia s’est retrouvé avec un outil de production dépassé sur le plan de la compétitivité. Ils étaient plus gros que Foxxconn car ils continuaient à vendre principalement autre chose que des smartphone. Mais plus gros ne signifie pas plus efficace.

Apple et Samsung emploient Foxxconn & co car ils sont imbattables. Si Apple avait demandé à Nokia de lui produire ses iPhone non seulement Nokia n’aurait probablement pas su le faire vu les quantités (une ligne de prod d’iphone c’est pas la même que celle d’un dumbphone) mais le coût aurait probablement été délirant.







Gorkk a écrit :



Elles l’étaient toujours :




  • leurs usines en Asie étaient sur le même plan, utilisées pour l’entrée de gamme.

  • leurs usines en Europe étaient à la pointe, et la qualité des produits qui en sortaient était inégalée : c’est un des points qui faisait justement la force de Nokia et qui faisaient qu’ils étaient reconnus à travers le monde pour la très grande qualité de leur matériel.





    Oui sauf que vendre un tel 85 € au lieu de 70 € en justifiant ça par une qualité supérieure, c’est pas la même que de vendre 720 € au lieu de 600 € (ou 600 au lieu de 500). Et puis surtout pour un tel “normal” la qualité de construction était quasiment devenu l’élément différenciant le plus important. Alors que pour les smartphone, le design, le Store, les applications, sont autant d’éléments sur lesquels il faut convaincre.







    Gorkk a écrit :



    Si BB avait sorti BB10 quand Nokia a sorti le N9 sous Meego, ils n’en seraient pas là. Aujourd’hui ils sont tombés tellement bas qu’ils ont perdu leur clientèle, et ils n’ont pas les moyens d’en reconquérir une. Nokia avait encore sa clientèle fidèle avant de décider de passer chez Microsoft.





    Oui peut-être… et peut-être pas. c’est peut-être une vision de l’esprit mais après l’iPhone dans la tête des gens acheter un smartphone était un achat complètement différent d’un achat de tel standard, même si les produits sont connexes. Pour y aller de la sempiternelle comparaison auto, si tu es “fan” d’un constructeur moto (Yamaha par exemple) est-ce que tu seras à coup sûr un client s’ils décident de construire des voitures ? Et vice versa avec mercedes par exemple.







    Gorkk a écrit :



    Rien dans ce que tu n’as dit (une fois les erreurs corrigées) de soutient une telle affirmation. Les problèmes qu’avaient Nokia était sur la gestion des projets et les temps conséquents qui en résultaient pour arriver à un produit : ces problèmes avaient commencé à être résolu (en particulier ils avaient commencé à fournir la possibilité de mettre à jour d’une version de Symbian à l’autre, chose qu’ils ont perdue directement en passant sous WP - franchement l’univers Windows ou il faut modifier et recompiler les application Win8 pour qu’elles tournent sous Win8.1, et maintenir deux versions de l’application pour supporter les deux à la fois, c’est complètement aberrant), et l’aboutissement de Meego marquait justement la fin des problèmes principaux.





    Si cela te fait plaisir de le penser. A te lire en fait même un neuneu à la tête de Nokia l’aurait maintenu en numéro 1 mondial. Désolé mais les problèmes structurels de Nokia étaient réels et quel que soit le chemin pris par Nokia cela aurait été difficile.

    Y avait-il autre chose à faire ? Bien sûr. Cela aurait-il été préférable ? Cela s’argumente et se discute. Est-ce que c’était si évident ? Non je ne crois pas.


Le 04/09/2013 à 16h 21







Gorkk a écrit :



Plein de choses intéressantes.





Belles analyses.



Toutefois et pour modérer un peu ton point de vue je pense que tu idéalises un peu, pardon bcp, la situation de Nokia en 2011.



On comprend parfaitement que passer à du tout WP pour ses futurs smartphone était très risqué voire suicidaire pour Nokia, mais le problème c’est que les alternatives n’étaient pas nécessairement meilleures à terme.



Prenons les dans l’ordre :




  • Miser sur Meego. Ils auraient vendu plus à court terme, mais il faut également être aveugle pour ne pas voir que Nokia n’avaient pas les compétences et les reins suffisemment solides pour lutter contre Apple et Google. Si tu veux faire de l’analyse va jusqu’au bout : avec cette stratégie il y avait toutes les chances qu’ils suivent le même destin que BB. Pourquoi ? Car faire un OS sympa, que les Geeks encensent c’est bien beau mais ce n’est pas le nerf de la guerre. Pour lutter et attirer le grand public et les dev il faut avoir un écosystème entier cohérent et puissant. De ce point de vue MS était et est plus qualifier que n’importe qui d’autre pour réussir à pénétrer le marché, et pourtant même eux galèrent. Cette solution aurait peut-être permis de vendre plus, mais à terme c’était une voie de garage. Et surtout ce que tu ne dis pas c’est qu’il ne suffit pas de sortir un OS pour en avoir fini avec les coûts qu’il représente. Ensuite il faut le faire évoluer, sortir et dev tous les services importants tout seul puisque ni Apple, ni Google, ni donc MS ne vont bouger le petit doigt. A part la carto et ce qui tourne autour, tout le reste était nouveau pour Nokia.

  • Miser sur Androïd. Cela signifiait pour le coup renoncer à son gros point fort dans les services, la carto en se mettant en frontal avec Google. Niveau hardware cela signifiait aussi être en frontal avec Samsung. Toi qui parles de prévisions à l’époque s’il y en avait bien une qui était évidente c’était la montée en puissance irrésistible du géant Coréen. Car Samsung est déjà le vrai nouveau roi à l’époque, le nouveau Nokia en devenir : celui qui dispose de toutes les armes en terme d’innovation hardware (ram, cpu, mémoire flash,écrans…) et d’une puissance financière et de production unique qui va lui permettre d’inonder le marché à un rythme que ne parviendront pas à soutenir ses concurrents. Samsung est déjà le numéro 2 mondial, mais surtout un numéro 2 qui progresse rapidement et qui est le principal fournisseur de l’industrie. Au contraire Nokia est handicapé par ses usine qui faisaient sa force auparavant car elles ne sont plus compétitives faces aux usines chinoises.



    Alors je ne dis pas qu’Elop a pris les bonnes décisions pour Nokia, mais que vu la situation du marché à ce moment et celle de Nokia qui se trimballait plus de 130 000 employés hérités de son age d’or, quelles que soit les décisions prises à l’époque Nokia aurait de toutes façons finit par boire le bouillon et ça aussi c’est quasi factuel. D’autres constructeurs (Sony, LG, HTC) arrivent à peu près à s’en sortir sur Android mais eux n’avaient pas les coûts et les problèmes de restructuration à venir de Nokia. Et pourtant on ne peut pas non plus dire que ce soit la fête pour eux. Quant à BB…



    Voilà. Donc Elop est peut-être depuis le début à la solde de MS mais Nokia serait de toutes façons devenu un acteur mineur qui aurait du en passer par une restructuration meurtrière.


Le 13/08/2013 à 09h 54

Vous êtes tous trop axés sur la performance pure sur Desktop dans vos analyses, mais aujourd’hui les i7 desktop ça représente quoi comme vente ?



Si on prend un tout petit peu de recul on se rend compte de deux choses :




  • le marché PC recul ou stagne alors que les tablettes et smartphone ne cessent de progresser

  • à l’intérieur du marché PC, le desktop recule et les portables progressent en part de marché

  • à l’intérieur des PC desktop, monter en gamme en proc est moins “utile” pour la plupart des usages que de passer au SSD, et pour la vidéo (jeu ou autre) la carte graphique est un investissement plus “rentable” en terme de perf.



    Alors oui il y a des usages ou un i7 est un vrai avantage, et par ailleurs quand on est passionné on préfère toujours avoir le plus performant si on peut se le permettre, mais c’est vraiment pas là que se joue l’avenir.



    L’avenir c’est la capacité (ou non) à proposer des SoC économes, et avec une partie graphique puissante. Pour Intel le challenge c’est la partie graphique, car ils sont sur la bonne voie en matière de conso/puissance pour la partie proc. Pour AMD le challenge c’est sur la partie conso car ils ont déjà des APU plus intérressants qu’Intel car plus équilibrés avec une partie graphique qui tient la route (d’où les marché PS4/XO remportés).



    On s’en fout que les FX soit un (ou deux) ans en retard par rapport aux i7.

Le 02/08/2013 à 12h 37

Un peu HS mais question sur Widi et Miracast.

Je comprend que Widi est la norme proprio d’Intel et Miracast une norme plus ouverte mais à part ça, c’est la même chose ?

Autre question : est-ce que PC fixe peut streamer vers un PC portable en Widi/Miracast et est-ce que c’est suffisamment réactif pour donner l’impression d’être directement sur le PC fixe ? Exemple jouer à un jeu sur le portable en se servant de la puissance du PC fixe.

Je crois que c’est aussi le principe de Smartglass avec la Xbox qui doit utiliser une techno proprio mais j’avais lu quelque part que ce n’est pas (encore ?) assez fluide et réactif.

Le 01/08/2013 à 14h 05

En fait actuellement le problème c’est qu’on ne comprend pas à quoi sert la Surface RT, et par la même Windows RT.

Celui-ci est pris en sandwitch entre d’une part Windows 8 qui a évolué pour pouvoir fonctionner sur des appareils mobiles aussi bien dans sa conception (le tactile est maintenant bien intégré au niveau de l’UI) que dans sa partie technique de plus en plus légère et d’autre part Windows Phone qui prend de l’ampleur et qui est maintenant très proche de ses cousins au niveau techniques.



Pour moi il y a clairement un OS de trop.

Soit RT est dédié à la mobilité et il faut le fusionner avec Windows Phone, soit il est voué à remplacer les Windows traditionnels et dans ces cas là MS n’aurait pas du lancer Win 8 en même temps et l’orienter de cette façon vers des usages hybrydes multi-devices. Pour créer de l’espace à RT il aurait fallu que 8 au lieu de se moderniser et s’adapter aux usages mobiles s’oriente résolument vers les usages traditionnels.



Aujourd’hui prendre une Surface RT est pour moi un non sens. L’architecture ARM garde quelques avantages par rapport au x86 (encombrement, autonomie, prix) mais pas pour très longtemps. On voit bien que désormais Intel met les bouchées doubles pour sortir des puces de moins en moins énergivores et dans une ou deux générations la Surface Pro aura tous les avantages pour elle. Et si l’on est pas prêt à attendre quelques mois me direz-vous ? Si on est pressé on prend un Ipad ou une Nexus 7. Donc si on regarde l’avenir RT est cannibalisé par Win8, la Surface RT par la Pro ; et si on regarde le présent la Surface RT est cannibalisée par la concurrence (iOS, Android) dont les Store sont plus fournis et dont l’écosystème déjà pérenne rassure.



Enfin stratégiquement MS arrive sur un marché en position de challenger mais s’y lance avec deux produits différents ! C’est complètement suicidaire. C’est déjà difficile d’imposer un produit face à Apple et Samsung/Google, deux c’est ridicule. Et ce d’autant plus que cela envois une image brouillée aux consommateurs.



MS doit tirée des leçons et faire des choix. La Surface est une bonne idée ; la Surface RT ET la Surface Pro est idée ridicule.

Pour la deuxième génération, il faut une Surface avec un OS mais il faut choisir.

Je penche pour un abandon de la RT, et une gamme de trois Surface avec un entrée de gamme équipé du prochain Atom.

Là le message sera enfin clair : vous voulez une tablette ? Prenez la notre elle fait aussi fonctionner toutes vos applis PC favorites et tous vos périphériques USB. Vous n’avez pas un gros budget ? Pas de problème, on en a une pour vous. Vous voulez de la performance ? On en a aussi une et elles sont toutes compatibles entre elles et avec votre PC.



Je facture 1000€/heure la consultation pour conseil en stratégie et placement marketing. Merci.

Le 02/07/2013 à 16h 00







mo6h a écrit :



Microsoft aurait pu prendre les devants et ajouter une définition &gt;1080p afin d’assurer une vitrine technologique pour 2014 et donc un meilleur rayonnement sur le marché. <img data-src=" />







Bah oui tiens ! Ils devraient anticiper et mettre le support du 4K, du 8K et du 16K tant qu’à faire !

Comme ça ils sont paré pour houlààà jusqu’à 2015, voire 2016, après c’est limite limite.


Le 01/07/2013 à 11h 20

Là où il a raison c’est qu’en réalité il y a très peu de personnes qui savent final de quoi on parle.

Pour la PS3 vs 360 si on écoutait Sony la PS3 allait enterrer techniquement la 360 en moins d’un an. Au final on s’est rendu compte que le Cell était compliqué à programmer, que la mémoire partagée de la 360 était un gros avantage, que son GPU était meilleur, que le BluRay était lent, que tous les outils de dev étaient meilleurs sur Xbox etc



Pourtant je dis cela alors que j’ai une PS3. A un moment donné il faut arrêter le fanboyisme, Sony nous fait le coup à toutes les générations de consoles qui sont toutes supposées ridiculiser la concurrence techniquement.



Pour la One la RAM est en DDR3 au lieu de GDDR5 mais elle embarque de la SRAM. Concernant la partie CPU/GPU on ne connait pas les détails des différences entre les deux consoles, mais grosso modo tout est basé sur la même famille de proc.

Mon ressenti est donc que la PS4 est probablement un peu plus puissante mais je n’en mettrait pas ma main à couper. Dans tous les cas différences seront surement minimes et il est probable que c’est l’évolution de l’environnement de dev proposé par les constructeurs qui fera la différence s’il y en a une. Et là l’avantage est plutôt à MS.



Par contre MS va surtout devoir être convainquant pour démontrer que la présence de Kinect vaut 100 €/$ de plus. Cela peut être un vrai plus si on a cette fois ci le vrai Kinect et non la version castrée sorti sur 360. Le problème c’est que même si c’est le cas le soufflé est retombé avec la première version. S’ils avaient directement sorti Kinect sur la One ça aurait été une autre histoire.

Le 04/04/2013 à 08h 33

Je comprend pas tous ces fantasmes sur FFVI et VII.

Franchement, c’est de la pure nostalgie et rien d’autres. Moi déjà à l’époque je me suis emmerdé sur FFVII. Il faudra m’expliquer l’intérêt un jour.




  • Le scénario ? Les personnages ? Non mais sans rire c’est niais et ras des pâquerettes… C’est pas parce qu’il y a un twist avec la mort d’un personnage que ça y est c’est le meilleur jeu du monde. Faut vraiment n’avoir jamais joué à un RPG occidental pour s’enthousiasmer là dessus. Alors à l’époque je peux comprendre quand tu as 12ans et que c’est ton premier RPG, mais maintenant faut grandir un peu.

  • Les combats ? Qu’est ce que c’était lourd, et rigide… Une fois que t’avais monté deux soigneurs à un bon niveau c’était du gateau. Et l’aléatoire permanent, même dans les endroits où les adversaires sont devenus trop faibles pffff…

  • L’exploration ? La carte ? Mais quelle fumisterie ! Ceux qui se plaignent de l’aspect couloirs de FFXIII moi je ne vois pas la différence avec le VII. Oui tu pouvais passer ton temps à te balader sur la carte pour enchainer les combats aléatoires si tu voulais avant d’aller au prochain endroit que le scénario t’imposait. Oui dans un village tu pouvais aller d’abord voir 3 ou 5 types qui te répétaient la même chose au bout de deux réponses, avant d’aller voir le perso que le scénario t’imposait… Tu parles d’une liberté ! On était déjà dans un couloir.

  • La réalisation ? Voilàààààà. Là FF VII avait marqué son époque, avec ses cut scènes en images de synthèses, ses belles musiques orchestrales… Pas de quoi faire un remake. Le scénario et les persos de FFVII sont tellement datés que Square n’a jamais voulu en faire un remake parce qu’ils voient bien qu’en le refaisant ça va être nul. Il vaut mieux que ça reste à l’état de fantasme dans l’esprit des joueurs plutot qu’affronter la froide réalité : certains anciens jeux ont la moelle pour donner un remake et d’autres non. Les FF n’en font pas partie, sauf pour être joué sur console portable dans une version quasi équivalente à l’originale.

Le 03/04/2013 à 08h 12







metaphore54 a écrit :



Rim peut espérer avoir la même voire meilleur croissance que MS sur ce secteur, il faut peut être un peu de temps pour que la mayonnaise prenne.







Oui mais MS a les reins solides et continue d’engranger du cash sur ses activités “traditionnelles” et peut donc faire une course de fond sur ce marché.

Alors que RIM… bah on va être clair : si le succès n’est pas au rdv dans l’année qui vient, ils vont gentiment mettre la clé sous la porte et/ou se faire racheter.

Et ce d’autant plus que MS va pousser de plus en plus fort sur un marché qu’il connait bien et qui était le centre de profit historique de RIM : les entreprises.

Franchement je les vois mal barré…


Le 22/03/2013 à 15h 02

Bah tu viens de le dire : ya le jeu en ligne quand même. Même s’il est pas top, il y a malgré tout de gros jeux qui en tirent parti à commencer par Mario Kart.

Si tu rajoutes la console virtuelle + l’absence de rétro Gamecube certes pas liée au Wifi et déjà absente de la dernière version de la Wii ça commence à faire bcp quand même.



Conclusion : si tu veux jouer à pas cher sur Wii, le mieux c’est peut-être encore d’en prendre une d’occase en bon état. ça fera moins cher + jeu en ligne + la console virtuelle + la logithèque gamecube.

Et tu as un peu de sous, un peu de patience et que tu veux les jeux Nintendo mieux vaut attendre trois mois une baisse de prix de la WiiU.


Le 22/03/2013 à 14h 44

Un nouveau design en soit pourquoi pas, d’autant plus s’il est plus compact, c’est toujours sympa.

Le problème c’est les limitations, surtout le Wifi c’est n’importe quoi !



A ce niveau c’est quasiment de l’arnaque car je ne suis pas sûr qu’en magasin ce sera spécifié clairement.



ça plus la Wii U vive la confuse pour la mère de famille qui n’y connait rien.


Le 22/03/2013 à 14h 36

Quid de la latence pour le jeu ?



Si on a une tour et qu’on veut déporter l’affichage sur une TV ou un portable pour faire du jeu en streaming local ça marche ?

Le 20/03/2013 à 12h 31

L’arme fatale de MS pour lancer WinRT : les jeux Xbox 720 directement accessible et utilisable depuis le Store, et payables une seule fois pour Xbox/WinRT.

Ensuite aux développeurs mettre des conditions matérielles pour les devices.



MS ne va pas seulement lancer une Xbox, mais une Xbox et une tablette WinRT Xbox.

En faisant le pari que d’ici quelques années la tablette sera aussi puissante que la Box.



Autre point : à confirmer par les spécialistes mais il me semble qu’un PC x86 sous Win8 peut lancer des applis WinRT si elles sont compilées pour x86 non ?

Dans ce cas on pourrait au final avoir un système unifié et avec compatibilité “descendante” :

Win8 -&gt; WinRT -&gt; WP8 avec la xbox qui vient d’insérer comme device WinRT x86

Ce serait le but de Blue : un univers unifié où une app WP8 puisse être lancé depuis n’importe quel device Window. On achète une fois on utilise partout.

Le 14/03/2013 à 11h 00

Il est possible que Valve prépare avec Xi3 la vraie SteamBox mais vu les tarifs du Piston et sa config j’espère pas.

Ce “truc” n’a absolument aucun intérêt.

Le 12/03/2013 à 09h 57

Wow !

J’espère vraiment mais alors vraiment que Steam bosse sur autre chose parce que là non c’est pas possible. SI c’est le cas chez MS ils doivent être mort de rire.



Finalement on comprend mieux les propos de Gabe Newel quand il disait que son concurrent c’est Apple et non MS… Mais à ce tarif là même Apple est battu !



Mais quel est l’intérêt de faire quelque chose d’aussi petit et sédentaire ?

Un PCHC, car c’est de ça qu’il s’agit, doit effectivement avoir des contraintes de taille par rapport à une tour pour rentrer dans un meuble de salon HiFI, mais aussi petit c’est plus un inconvénient qu’autre chose. Si tu fous ça dans ton meuble, ça fait un gros vide et on voit tous les fils derrière, c’est pourri.

Il vaut mieux un boitier qui s’intègrera bien et ne jurera pas avec le reste du matos. Pour le coup ils auraient mieux fait de bosser avec Lian-Li.



Ah si j’ai compris LA feature : tu cases plein de cannettes de bière à côtés, utile pour jouer à la mode Gabe.



Franchement moi la SteamBox elle m’intéresse(ait ?). Si c’est un PC Gamer de salon bien intégré avec une interface bien pensée et des solutions de streaming sur les autres écrans (deuxième TV, portables, tablettes) façon WiiU je veux bien mettre 800-1000 €.

Mais là sérieux une PS4 est 10 fois plus puissante pour probablement moitié moins cher… tout ça pour la logithèque Linux !! Ouais tu peux mettre Steam en mode windows mais il faut encore ajouter le prix de la license…

Le 07/02/2013 à 17h 45







darth21 a écrit :



Donc ce que tu dis est bel et bien une anerie : ils sont loin de s’être fait autant d’argent que tu ne veux bien le croire avec la xbox (et certainement pas avec la xbox 1)

C’est bien que leur objectif au lancement de la xbox n’était pas financier mais ailleurs.





Parlons chiffres :

microsoft.com Microsoftmicrosoft.com Microsoftmicrosoft.com Microsofthttp://view.officeapps.live.com/op/view.aspx?src=http://www.microsoft.com/investor/reports/ar12/docs/MSFT_FY12_10K.docx



Depuis 2002 la division xbox c’est :

Année 2012 2011 2010 2009 2008 2007 2006 2005 2004 2003 2002

CA 9593 8915 6079 7753 8206 6139 4756 3515 2876 2748 2453

Résultat 364 1257 517 169 497-1898-1284 -539-1215-1191-1135



Résultat cumulé sur la période : - 4.5 Md$

Alors après c’est pas exactement vrai car d’une année sur l’autre MS inclue et enlève des choses à la division (Zune certaines années, le matériel PC, et dans les dernières années Windows Phone). Mais bon même si on corrige de tout cela, l’aventure Xbox pour Ms depuis le début ça vaut 0 profit et bcp de ressources consommées. S’ils persévèrent c’est par choix stratégique sur le long terme.



Le 07/02/2013 à 17h 07







Slaurent a écrit :



C’est un secret de polichinelle, et j’ai du mal à comprendre la teneur invraisemblable de cette news !! Finalement, ça ne fait que confirmer ce que l’on sait depuis longtemps de Microsoft!







On est d’accord.







Slaurent a écrit :



Et c’est bien ce qui m’énerve avec cette entreprise ! Plutôt que d’entrer dans des marchés pour y apporter un vrais plus, il le font souvent pour “tuer” les concurrents présents et protéger leur domination outrancière dans le monde du Desktop !!







Là… Oui et non. Non MS est aussi une entreprise qui innove quoiqu’on en dise. Oui parfois ils investissent un domaine qui a d’abord été défriché par d’autres. Tu peux trouvé cela regrettable, moi je pense que c’est normal. La seule chose répréhensible pour moi c’est lorsqu’ils ont utilisé leur monopole de fait pour tuer la concurrence. Et encore c’est répréhensible mais c’est logique, tout le monde aurait fait pareil. Je ne compte pas sur la moralité d’une entreprise pour s’empêcher de faire des choses qui serviraient ses intérêts parce que “ho non c’est pas cool, on va pas faire ça”. C’est aux consommateurs, aux régulateurs et aux autorités de rester vigilant. Et cela s’applique à toutes les entreprises de par le monde.







Slaurent a écrit :



C’est toujours aussi vrais pour Bing (uniquement créé pour siphonner les fonds de Google), Windows Mobile (Pour siphonner les fond d’Apple), j’en passe et des meilleures !!







Non. MS veut récupérer des parts de marché dans des secteurs à la fois stratégiques, rémunérateurs et dans lesquels il a de la légitimité technologiques. Ils y sont en situation de challenger, so what ?

Les consoles MS aurait pu ne jamais y mettre les pieds s’ils n’avaient pas eu peur de Sony qui à l’époque ressemblait un peu à Samsung + Apple aujourd’hui, une entreprise à la pointe de la technologie, une grosse R&D et qui fait du matériel hype.

Le net et les Smartphone MS est obligé d’y être, ils y sont d’ailleurs entré avant Google et Apple.







Slaurent a écrit :



Maintenant, comme stratégie, c’est très efficace pour eux! Coté utilisateur et innovation, c’est du perdant à long terme !! Car avec une telle volonté et ce genre de but avoué, on sait ce qui arrive quand les concurrents sont mort (l’époque d’InternetExplorer 6 te parait si loin??)



Bref, j’ai jamais trouvé que l’arrivé de la XBox a fait du bien pour le jeux vidéo! En tout cas, coté PC, ça a fait bien mal (ne serait ce que la consolisation à outrance des titres…voulu par le “moindre portage” console-PC )









Pas d’accord. Si MS n’était pas aller sur le marché console, Sony aurait juste vendu plus de PS3. Cela n’aurait rien changé au fait que les gros titres AAA doivent pouvoir se vendre sur console. Une part significative du marché JV s’est déplacé sur console et les éditeurs y seraient de toutes façon allé avec ou sans MS. Exemple : GTA 3 sur PS2. Un carton pour un jeu à l’origine typiquement taillé pour le marché US PC.



MS a juste fait basculer une petite poignée de jeu PC en exclu Xbox c’est tout. Si tu crois que COD est un jeu consolisé du fait de MS tu fais erreur.


Le 07/02/2013 à 15h 25







kail a écrit :



Je ne comprends pas trop la logique. Le jeu vidéo sur PC se portait très bien avant la sortie de la xbox, même bien mieux qu’aujourd’hui.

Je pense surtout que Microsoft s’est lancé sur ce marché car il y a beaucoup plus de thunes à se faire que sur un marché ouvert comme le PC.

Mais ça, ils refuseront de le dire et préfèrent inventer une contre-vérité j’imagine.







Houlà c’est tiré par les cheveux ton histoire.

Pour moi il n’y a rien de nouveau sous le soleil dans cet article et il a toujours été clair et net que MS a décidé de produire une console pour contrer SONY.

Tant qu’il n’y avait que des constructeurs type Nintendo ou SEGA, MS ne faisait que surveiller le marché du JV de salon. Car contrairement à ce que tu avances MS a toujours eu conscience que les JV étaient (et sont toujours) une des pierre angulaire de leur hégémonie sur le PC côté grand public.

Mais lorsque SONY a présenté la PS2 c’était quasiment une déclaration de guerre au PC. Puissance, DVD, possibilité d’être connecté, media center… Bon évidemment bcp des promesses de SONY étaient pipeau pour la PS2. Mais la volonté était là clair et nette : faire à terme de la PlayStation l’objet informatique central du foyer.

SEGA était au bord de la faillite, Nintendo n’avait pas les moyens de se lancer dans cette course et restait (et reste encore) dans l’esprit un fabricant de jouet, donc on se dirigeait vers un monopole PC de MS versus un monopole salon de SONY.

Pour éviter cela MS est donc allé tout de suite sur le terrain de SONY. C’est une vraie vision stratégique à long terme et certainement pas une décision basée sur “on va faire plus de fric”. La preuve si on prend le bilan de la division Xbox depuis le début je ne suis même pas sûr que ce soit positif. Et si ça l’est la rentabilité ne doit pas être mirobolante.

Par contre si MS n’était pas venu sur le marché SONY serait surement en meilleur forme… et auraient sans doute de grosses ambitions pour la PS4 et de gros moyens pour les concrétiser. Alors qu’aujourd’hui Sony tire la langue financièrement et que MS est le mieux placé pour proposer une interopérabilité Xbox/W8/WP8. La Xbox qui était au départ un investissement stratégique défensif pourrait bien désormais en devenir un offensif : un argument pour vendre des tablettes et des smartphone.

Je ne suis pas particulièrement un fan de MS, mais il faut vraiment être aveugle pour croire que cette boite est bêtement pilotée par des intérêts financiers à court terme.


Le 07/12/2012 à 09h 21







Gilbert_Gosseyn a écrit :



C’est vrai que ça ressemble furieusement à un SGS2 recyclé en WP8 …



Edit &gt; @StackHeap : non ce n’est pas un SGS3 mais un SGS2 car le S3 est nettement plus “rond”.







Oui mais techniquement c’est une copie conforme du GS3. Donc si c’est exactement un GS3 dans une coque un peu différente.

Après s’ils le sortent en février c’est du foutage de gueule car à ce moment là on aura plein de rumeurs sur le GS4 voire son annonce déjà faite.

Samsung n’a aucun intérêt à soutenir WP, s’ils doivent sortir d’Android ce sera pour Tizen. WP ils y viendront uniquement s’ils voient les ventes décoller.


Le 27/11/2012 à 17h 30







Lafisk a écrit :



Ben l’atom permet de regler tout les soucis que tu cites dès le début de ton comm à savoir que tu peux exécuter tes applis win3é, et avoir une tablette à prix raisonnable, avec des perfs au moins équivalentes à celles des tablettes RT



Est-ce que l’atom intéresse ? Mme michu oui, le geek ou le professionnel auront sûrement besoin de plus de puissance par contre, m’enfin l’atom n’a jamais été destiné aux pros



Cette segmentation “bizarre” n’est que dans la continuité des produits estampillés “PC” contrairement à chez Apple ou on te donne un produit et tu fais avec sans aucun choix. Le problème étant que le consommateur ne se donne que rarement le temps de se renseigner pour savoir de quel produit il a réellement besoin



Pour le coup, c’est justement, pour moi, la que l’atom intervient et sauve la mise, car c’est le meilleur compromis entre ARM/puissance/autonomie



Et pour le coup, chez Apple, justement tu dois te trimballer et l’Ipad et le portable si tu veux les 2 <img data-src=" /> ou le plus souvent tu te contente du macbook, du coup moi, je n’ai vraiment jamais vu d’intérêt à l’ipad, la où je vois un très grand intérêt pour les tablettes x86 à proc iX (même atom mais la moi j’ai besoin de plus puissant)







L’atom va te permettre de faire tourner des applis win32 mais souffriras lui aussi de la comparaison avec la puissance des proc ix. Encore une fois tu crées de la frustration. Si l’atom a vraiment tous les avantages que tu cites il fallait juste lancer une Surface Pro en atom alors.

Le choix c’est bien en théorie, en pratique pour vendre la segmentation c’est mieux.

D’autant plus que MS peut largement se permettre de faire de tels choix/compromis puisque contrairement à Apple il a l’avantage d’avoir une palanqué de constructeurs tiers.



Je pense que c’est une idée reçue parfaitement fausse de croire que les consommateurs ne se renseignent pas pour choisir leur produit : toutes les personnes que je connais geek ou non qui mettent plusieurs centaines d’euros dans un produit ne le font qu’après mûre reflexion.

Perso je trouve qu’arriver sur un marché en challenger en demandant aux consommateurs d’arbitrer entre plusieurs produits chacun avec des avantages et des inconvénients c’est une erreur. Cela donne le sentiment que le constructeur lui-même ne sait pas vraiment où il veut aller et quel produit il veut vraiment mettre en avant et pousser. Il faut déjà choisir entre différents OS, environnement si en plus chez le même constructeur on te fait encore choisir dans des sous catégories…

C’est mon opinion mais pour moi MS aurait du et devrait toujours se focaliser sur une seule tablette et la pousser à fond. Puis dans un deuxième temps éventuellement en sortir une autre. La situation actuelle pousse au minima à temporiser pour voir la Pro, au pire à aller chez la concurrence parfaitement installée pour revenir voir dans 1 an ou 2 où l’on en est côté MS.


Le 27/11/2012 à 17h 08







olivier4 a écrit :



ya l’argument : objet encombrant , poids mais aussi l’argument : prix

puis l’argument : avec un smartphone quest ceque je peux fair eavec

puis l’argument : j’ai un ordi pc alors pourquoi j’aurais besoin d’une tablette en plus





Désolé mais le prix c’est plutôt le contraire : quand tu vois le prix d’un smartphone tu te demandes surtout pourquoi t’achètes pas une tablette à la place et tu gardes ton ancien tel.

Avec une smartphone tu peux faire bcp de choses que tu peux faire avec une tablette mais mal voire très mal : l’écran n’est tout simplement pas adapté.

Avec un PC tu peux tout faire, c’est juste que tu ne l’emmènes pas partout de la même façon en mobilité, et que chez toi la tablette tu la poses partout comme un magazine et qu’en 1 seconde t’as internet et tes applis dispos.

Résumons : en mobilité la tablette est meilleure pour tout qu’un smartphone , à la maison elle t’apporte un confort d’utilisation qu’aucun autre device ne permet (encombrement, autonomie, instantanéité).

J’ajoute un bonus : ton téléphone retrouve son autonomie.



Maintenant si tu ne veux pas comprendre à quoi cela peut servir…


Le 27/11/2012 à 16h 56







Lafisk a écrit :



ça c’est discutable, mais bon c’est vrai qu’une fois le dock branché … t’as un ultrabook donc effectivement ils auraient peutêtre du les vendre en tant que tel pour les modèles à base d’iX, mais pour les modèles à base d’atoms la c’est plus délicat ou alors ils auraient mieux fait de garder la dénomination de netbook pour les atom, surtout que leurs popularités prenaient bien



Le problème c’est aussi le marché, les gens s’habitue à peine à la catégorie “Tablette” qu’on en ai déjà à avoir fait une catégorie hybrides et que rajouter des catégories, ça ce fait pas toute les deux secondes, il faut laisser le jus prendre <img data-src=" />







C’est vraiment le Atom sur lequel tout le monde lorgne quand on parle des tablettes x86 ? J’ai pas l’impression…

Mais même cela ajoute à la confusion et ne permet pas au consommateur d’identifier clairement le produit pour ce qu’il est.

En gros tu créés de la frustration : si tu prends la RT, tu te diras “oui mais quand même je renonce à la version qui permet de faire tourner mes applis Win32” ; et si prends la version x86 ce sera “oui mais je renonce au meilleur form factor (RT plus fin et plus léger) et la meilleure autonomie pour au final peu d’applis Win32 réellement utiles sur une tablette tout en payant plus cher”.

Psychologiquement le renoncement est un exercice mental difficile, car il implique de choisir un compromis, donc éventuellement de se tromper et de regretter ledit choix (c’est d’ailleurs pour cela que tant de personnes passent autant de temps à se convaincre sur des forums que leur choix est le meilleur possible). Du coup c’est gros comme une maison tout le monde va vouloir le mouton à 5 pattes : les avantages de la Surface RT combinée avec les avantage de la Surface Pro.

Apple segmente bien mieux ses produits :




  • vous avez besoin d’une tablette =&gt; ipad

  • vous avez besoin d’un ultra =&gt; Macbook Air

    On ne se demande pas si on aurait pas mieux fait de prendre l’ipad “Pro”. On choisit le produit adapté à ses besoin et basta.

    Je sais que bcp ici aime vomir de façon très intelligente sur Apple mais quoiqu’on en dise il y a des choses qu’ils font très bien. Et ce lorsqu’un concurrent fait très bien quelque chose, on le copie et si l’on peut on l’améliore (stylet sur Surface, Tactile + dock sur Ultra). La segmentation et le positionnement produit fait partie de ces choses.


Le 27/11/2012 à 16h 34







olivier4 a écrit :



ben ouis on peut partir du principe que une tablettte c’est génial car on peut l’emmener partout avec nous (voir publicité)

or pour beaucoup c’est plutot un inconvenient de se trimballer partout avec une tablette sur le dos.parce qu’on en voit pas franchement la nécessité a l’usage surtout si on a un smartphone avec soi.

a partir de la faut trouver un autre argument.

cest comme le poids par exemple

certes par exemple si c’est léger cest avantageux mais si en contrepartie le moteur graphique est pourri alors on perd en performances





L’argument je te l’ai déjà donné : si de toutes façon tu as dois déjà prendre une sacoche avec toi la tablette n’est plus du tout gênante et n’a plus que des avantages.

Je comprend que lorsque l’on est un ado on peut ne pas avoir grand chose à emmener avec soit, mais à 30 ans tout mettre dans ses poches en partant au boulot je vois pas comment c’est possible.

La nécessité à l’usage d’une tablette si tu as un smartphone ? Regardes ta vidéo sur 4.5” puis sur 10” et on en reparle. Et tu peux prendre toutes les fonctions de ton smartphone et faire le même raisonnement. C’est le smartphone qui ne sert quasi à rien.


Le 27/11/2012 à 16h 24







Lafisk a écrit :



Euh ??? T’es juste en train de me répéter ce que je dis depuis tout à l’heure la <img data-src=" />





Erreur de quote.<img data-src=" />

sinon oui on est d’accord.



Pour moi “l’erreur” de MS ce n’est pas la Surface RT mais la Surface Pro.

Si la Pro n’existait pas la RT serait bien mieux accueillit.

Et ce alors que lorsque la Pro sortira on se rendra compte que ce n’est pas vraiment une tablette mais ultrabook 10”.



MS aurait du mieux assumer ses choix : une Surface 10” uniquement RT pour être son porte étandard de ce que doit être une tablette windows. Un ultrabook 13” transformable pour jouer le même rôle pour Win8.



Et puis encore une fois : un stylet plus l’écran qui va bien sur la Surface.


Le 27/11/2012 à 16h 14

@olivier4



Pourquoi le smartphone tu le gardes à vie ?

Qu’est-ce qui t’empêche de revendre ton smartphone et d’acheter un tablette + tel à la place ?

En tous les cas il ne me viendrait pas à l’idée de remplacer ma tablette par un smartphone. Non seulement la tablette est bien meilleure pour tous les usages qu’un smartphone mais elle remplace même très souvent ton Pc/Pc portable à la maison dans bcp de situation.

Le 27/11/2012 à 15h 27







olivier4 a écrit :



oui c’est une facon de voir

j’y ai déja pensé. est ce qu’une tablette peut remplacer un smartphone?

mais dans mon cas je prefere qd meme avoir un smartphone que je traine toujours avec moi que de me trimballer un ipad

c’est plus pratique et discret







Bien sûr chacun fait en fonction de ses besoins. Si tu dois trimballer ton ipad à la main c’est une mauvaise solution et il vaut mieux un smartphone.

Mais perso j’ai de toutes les façons une sacoche ou un sac avec moi, parce que portefeuille + clés + smartphone + écouteurs + blackberry pro + porte monnaie c’est déjà plus que je ne peux en mettre sur mon costume si je ne veux pas le démolir. Rajoutes à ça qu’il est souvent utile d’emporter quelques documents soit perso soit pros, qu’un smartphone t’obliges souvent à avoir un connecteur USB pour pouvoir le charger au cas où … et moi je ne vois tout simplement pas comment tu peux encore te déplacer sans sacoche. A partir de là la tablette n’est plus un problème pour la mobilité Vs le smartphone et n’a plus que des avantages.

Et puis une fois que ce que tu faisais sur smartphone (hors téléphonie pure) tu commences à la faire sur tablette, tu n’envisage plus une seule seconde de revenir en arrière (un écran 10” c’est quand autre chose en terme de confort qu’un 45”) et c’est le smartphone qui devient useless. Du coup tu repasses à un tel tout simple petit, léger, très autonome, ridiculement peu cher et qui remplit à la perfection sa fonction première.

Mais chacun ses modes de fonctionnement et ses besoins.



Je veux simplement faire comprendre à tous ceux qui ne cessent de dire que “les tablettes ça ne sert à rien, c’est pour le moutons & co” que l’on peut aussi valablement soutenir l’inverse : les tablettes sont parfaitement adaptées à leur usage alors que les smartphone sont des outils par essence bâtards qui n’ont pour seule réelle utilité que le plaisir que leur possesseur a de les sortir de sa poche à tout bout de champs, sait-on jamais en cas de notification d’un tweet, ça vaut bien le coup de stopper une conversation (placer ici toute autre activité) immédiatement.


Le 27/11/2012 à 14h 39







olivier4 a écrit :



mais si tu veux du multimédia tu prends ton smartphone

si tu veux jouer tu prends un smartphone

si tu veux telepone tu prends un smartphone



bref l’avantage de la tablette surface pro c’est seulement que cest un ordinateur pc

mais avec les avantages du tactile.

et l’avantage d’un’ ipad/winrt c’est que ca peut servir de liseuse mais son usage est tres limité.





C’est marrant ça comme façon de voir.

Moi c’est plutôt exactement l’inverse.

A savoir :

si je veux faire du multimédia =&gt; tablette

si je veux jouer =&gt; tablette

internet / mail =&gt; tablette

documents légers =&gt; tablette

En fait absolument tout ce que tu fais avec un smartphone =&gt; tablette




  • fonction de liseuse, certes moins confortable qu’une vrai liseuse pour les livres purement textes, mais idéal pour les BD, les journaux, les magazines…



    Qu’est ce qu’il reste au smartphone ? Que dalle, simplement la possibilité de téléphoner. Mais pour faire ça il vaut mieux un tel à 30 € qui tiendra une semaine, et qui ne sera pas à plat parce que tu viens de regarder un bout de film sur un écran minuscule.



    Du coup pour moi la combinaison idéale en mobilité c’est tablette + tel et pas de smartphone.



    En ce qui concerne la Surface elle a l’air excellente mais je pense que MS devrait lui ajouter un bon stylet avec l’écran fait pour. C’est vraiment ce qui manque en général aux tablettes je trouve.

    Pour les version x86, en l’état actuel je n’y crois pas. Seul le Clovertrail est adapté donc bon. Si c’est pour avoir un truc qui chauffe, ventile, plus lourd, plus gros, moins autonome et qui au final sur les applis Win32 non optimisées n’est pas performant ni adapté au form factor… L’intérêt est finalement limité à un ultraportable. Cela existe déjà. La version Pro elle sera intéressante dans un ou deux ans quand intel fera des proc adapté… Mais d’ici là la version RT aura gagnée plein d’applis adaptées, et aura des proc ARM plus puissant et/ou permettant encore plus d’autonomie.



    Pour moi l’erreur de MS c’est d’avoir communiqué sur la version Pro. Du coup bcp attendent de voir pour se décider. En plus le qualificatif “Pro” laisse penser que c’est une version supérieure.



    MS aurait du faire uniquement la Surface en RT et proposer un ultrabook 13” transformable pour Win8. Cela aurait été plus cohérent je pense.


Le 19/11/2012 à 11h 34







DeadEye a écrit :



Du coup au lieu des massages qui disent “Vous avez gagné 125 000€”, on aura des messages “Vous avez peut-être gagné 125 000€”. Dans un cas comme dans l’autre on reçoit quand même ces foutus SMS…







Et ensuite on finira peut-être par avoir quelque chose qui ressemble à la réalité : “Participez à notre grand jeu blablablabla”‘. Et du coup là où psychologiquement énormément de personne veulent tout de même vérifier si elles ont pas gagné un pactole même en sachant que c’est improbable parce que ce serait trop con si c’était le cas et donc raquent (et bien sûr ne réclament jamais le remboursement) plus personne ne participera à leur jeu à la con. C’est bon ya déjà l’euromillions pour ça. Plus d’appels surtaxés non remboursés =&gt; plus de profits faciles =&gt; arrêts à terme des sms à la con.



Le seul moyen de faire arrêter ces spams c’est de taper là où ça fait mal : le portefeuille, donc je suis pour la mamie.


Le 18/10/2012 à 14h 50

Mon dieu ils ont mis la priorité pour lancer à temps leur nouvel OS ???

Mais quel bande de co##ards chez MS !

Jamais vu autant d’incompétence !



Les “internautes” ont raisons d’être scandalisés.

“internautes” : comprendre ceux qui en ont quelque chose à secouer à savoir uniquement des technophiles passés depuis longtemps sur FF ou Chrome

Le 18/10/2012 à 13h 36

Soyons sérieux deux minutes : il était évident que les ventes de WP7 allaient chuter de plus en plus à mesure qu’approche WP8.



Pour juger des performances des Lumia il faudra attendre WP8, et pour juger du bien fondé ou non de la stratégie visant à parier sur WP il faudra attendre … WP8.



Le reste c’est juste du baratin.

Le 10/10/2012 à 15h 25

Si cela coûte 310\( à construire brut de fonderie autant dire qu'à 400\) Ms perd de l’argent purement et simplement.

Donc soit l’étude est bonne et dans ce cas :




  • MS la vendra minimum 500$ s’il veut gagner un peu de sous

  • MS la vendra 400 $ s’ils acceptent de perdre de l’argent pendant 1 an mais veulent s’assurer un succès et prendre des parts de marché coûte que coûte.



    Soit l’étude est foireuse et on spécule sur du vide, parce que bon c’est quand même des estimations au doigt mouillé, personne n’ayant ici accès aux contrats fournisseur de MS.

Le 08/10/2012 à 08h 55

A quel prix ? Facile : à un prix tel qu’il permettra à Apple d’en écouler 10 millions.



Plus sérieusement je crois que vous vous posez trop de questions sur le placement tarifaire. Il sera un peu en dessous de l’ipad3 et c’est tout. Pour le reste Apple aménagera sa gamme si nécessaire.



S’il le faut l’ipad2 peut être viré mais surtout Apple n’a que faire de l’ipod touch. Présenter un ipad mini entre par exemple 300 et 400 $ soit exactement le tarif de l’ipod quelle importance pour Apple ? Les deux produits sont-ils vraiment en compétition ? Et si tel est le cas Apple pourra au choix laisser mourir sa gamme ipod, ce qu’elle fait déjà mais un peu plus rapidement, ou baisser un peu le tarif de l’ipod pour lui donner un peu d’air. Je pense vraiment que dans la stratégie d’Apple l’ipod est vraiment quantité négligeable.

Le 21/09/2012 à 15h 36







tmtisfree a écrit :



Non. Je ‘veux’ que les internautes paient ce qu’ils consomment en bande passante.



Le point d’achoppement est en fait qui consomme quoi.



Je considère que les internautes étant les consommateurs finaux (de MU/Youtube) ils doivent nécessairement payer pour leur consommation (comme dans tout business) quelque soit ce qui se passe entre le fournisseur et eux.



Il est difficile de penser que les coûts d’acheminements des produits/services initiés et demandés par l’internaute puisse être payés par quelqu’un d’autre, en définitive.







Mais t’es actionnaire de Google ou quoi ?

Dans ton système l’internaute paye tout et Youtube que dalle alors ?!

Pourtant c’est bien Youtube qui encaisse les revenus de la pub générés par le traffic de … de qui … de l’internaute ! Et au nivau des infrastructure puisque tu t’acharnes à postuler que Youtube ne consomme rien et que tout vient de l’internaute, encore une fois l’internaute paye tout et Youtube se contente d’encaisser ! Ton système c’est la mort d’internet, car à ce compte là ça coûte une blinde pour avoir accès à internet, comme ça coûte une blinde, baisse du nombre d’internaute, donc baisse des revenus, donc hausse des abonnement et ainsi de suite.



Lorsque Amazon te propose un bien il te facture à toi et uniquement à toi les frais de port. Il te dit pas commande moi pour une tonne de produit c’est gratos je m’arrange pour essayer de faire raquer les postes et les états. Le coût est masqué donc tout le monde s’en donne à coeur joie et l’état français est obliger d’augmenter les impôts de 100% pour financer des structure infraroutières. ça c’est ton modèle ! Alors que si Amazon te dit il y en a pour 1000€ de frais de port, tu ne fais pas ta commande débile, et se déroule bien.

Avec Youtube c’est pareil : le coût en bande passante est démesuré au regard du service rendu mais il est masqué. Au lieu de le révéler à celui qui veut regarder sa put… de vidéo de lolcat et de le lui faire payer directement toi tu veux que tout le monde se mette à raquer comme des malades. <img data-src=" />

La neutralité c’est que Youtube fasse payer ceux qui fréquentent son site du coût de la bande passante qu’ils vont induire en regardant des viéos dont en réalité tout le monde se fout, mais s’il le font leur traffic s’effondre et leur site ne vaut plus rien. Voilà pourquoi ils ne le font pas.



Mets donc en application tes préceptes : que ceux qui générent le traffic payent directement. C’est quand même fou ton raisonnement, le réseau est suffisant pour 99.9 % des usages mais tout le monde devrait payer pour les 0.01 % SAUF ceux qui gagnent de l’argent grâce à cela (Youtube &co).


Le 21/09/2012 à 14h 53







tmtisfree a écrit :



Ok. C’est à peu de chose près ce que j’ai dit. Si c’est la collectivité qui doit payer, c’est donc en définitive le client Orange par les impôts.



Quelque soit le bout par lequel on regarde ce problème, le seul qui consomme finalement, c’est le client (la base de tout business). Et c’est aussi le seul qui paie en définitive dans l’économie réelle.







Non ce n’est pas la même chose !

Toi tu veux que tous les internautes paye pour un service qui n’intéressent que certains, service qui ne serait peut-être pas viable si ceux qui le consomment le payait à leur juste prix. Tout cela pour que MU et Youtube puisse continuer à être grassement rentable ?



La vraie solution c’est que Youtube et consort rémunèrent plus la bande passante qu’ils consomment. Pour cela soit les revenus qu’ils génèrent en pub sont suffisant soit ils adoptent un modèle payant. Mais peut-être qu’en réalité il n’y aura pas grand monde pour vouloir payer pour avoir Youtube… Au final c’est peut-être pas si important non ?


Le 21/09/2012 à 14h 12

Ceux qui militent pour que l’internaute paie plus cher oublient ou font semblant d’oublier une donnée importante.



La vraie question qui se pose n’est de savoir si le business model des FAI est le bon : il est évident que si les fofaits passent de 30 € à 100€ / mois on va juste droit dans le mur.



Non la vraie question c’est est-ce que le business model des site qui consomment énormément de bande passante est viable ? Pour Mégaupload on connait déjà la réponse, c’est non. Si le site générait autant de traffic, c’est pour une seule raison : il proposait gratuitement un service qui normalement devrait être payant. L’internaute aurait normalement du payer plus cher oui mais pas via son FAI, il aurait du payer directement au site qui aurait alors eu les moyens de rémunérer plus ses fournisseurs d’accès. Les revenus tirés de la pub n’étant pas assez élevés pour rémunérer correctement ceux qui construisent les infrastructures tout en restant rentable, le problème se pose.



Donc c’est peut-être bien aux internautes qui consomment de payer, sauf que les sites au lieu de le l’afficher explicitement en proposant par exemple un forfait, cherchent à faire payer par la collectivité leur besoin en bande passante nécessaire à leur activité afin de conserver leur modèle actuel gratuit et rentable.