votre avatar

nikito

est avec nous depuis le 31 juillet 2011 ❤️

Bio

Oups.
On dirait que quelqu'un ici aime garder ses petits secrets, comme si de par hasard il y avait quelque chose à cacher...
Désolé, ô lectrice de passage, cher lecteur égaré, pas de révélation sensationnelle pour le moment sur ce profil.
Repassez plus tard ?

118 commentaires

Xbox One : un marché potentiel d'un milliard de clients selon Microsoft

Le 25/05/2013 à 06h 09

Il est bien dit dans l’article et dans la source, que Microsoft estime que le marché est d’un milliard pour la nextgen. Et non qu’ils pensent vendre 1 milliard de xbox one.
La question c’est quelle est la part que Microsoft peut espérer avoir avec leur box.

Je pense sincèrement que le marché pourrait être bien plus s’il y avait une juste répartition de la richesse sur cette planète


PS4 ou Xbox One : quelle console vous fait le plus vibrer ?

Le 22/05/2013 à 14h 54

xbox one


[Dossier PCi] La Xbox One de Microsoft dans ses moindres détails

Le 22/05/2013 à 13h 40

dupliqué


Le 22/05/2013 à 13h 32






Tolor a écrit :

Il y aura très certainement des accords avec les FAI, vu les liens déjà pour les autres produits MS, je pense par exemple que Orange et Canal seront de la partie.

Le système TV est apparemment prévu pour 41 pays pour le moment, on peut s’imaginer que la France en fait partie.

Tu lanceras ta box (si elle est pas déjà lancée), la XBOX devrait être always on, tu auras simplement la possibilité de contrôler ta box à partir de la XBOX.
Et s’il n’y a pas d’accord, tu auras de toute façon la possibilité d’avoir le signal TV au niveau de la XBOX, mais il n’y aura pas de contrôle possible (donc utilisation de la télécommande de la box FAI)



Je crois plus changement de modèle des FAI où il vendrait de manière subventionnée les box multimédia (la xbox one entre autre). Ils n’ont pas la capacité à contrer des monstres comme google, apple, microsoft, mais ils peuvent faire un partenariat ou il pourrait installer leur service les box des constructeurs



Le 22/05/2013 à 13h 29






megadub a écrit :

D’ailleurs ça m’inspire une question : y’a un tuner TNT dans leur box ? Parce que moi je veux bien lancer la TV, television, TV, TV, TV, television, toussa… mais en France j’ai comme un doute sur la manière dont ça pourra fonctionner avec les différentes box <img data-src=" />



La plupart des chaines de TV se sont lancés dans le mouvement “MyAppp”. TF1, france TV, M6, Canal+/canalsat, etc… ont toutes leurs applications sur iOS, android, WP/windows 8. Je ne pense que cela pose un problème de porter les applications.

Ce qui ont du soucis à se faire, ce sont les FAI, car ils voient petit à petit le marché de la télévision leur échappé à cause de ce que je viens de dire mais avec la xbox one et futur appleTV, googleTV, freebox and co auront du mal à briller.



Le 22/05/2013 à 11h 54






simK a écrit :




  • Le Kinect connecté en permanence avec caméra et micro ouvert tout le temps dans l’attente d’une commande vocale ou d’un mouvement… tout en étant connecté à internet au moins 1x / 24h… ==&gt; big brother
    .



    Faux problème, la xbox sera installée chez toi. Tu pourras toujours analyser la trame réseau et si tu n’en ai pas capable il y aura toujours un geek, un hacker qui le fera à ta place. On a bien la bien vu avec l’affaire des blocages de pub avec Free. S’il y a une activité anormale ca se saura et bonjour les dégats pour Microsoft.

    Reste alors la possibilité de choper un virus. Là aussi, le risque est prèsque 0. C’est un système fermé et controlé.



Le 22/05/2013 à 11h 43






charon.G a écrit :

On peut se demander pourquoi deux systèmes?



Peut-être parce qu’il est difficile de faire os qui soit optimal pour tout les usages.
Windows est un “bon” os généraliste mais n’est pas ce qui se fait de mieux pour le Jeux. A l’inverse un os dédié au jeux ne pourra pas offrir des services évolués comme en propose un OS généraliste sous peine de contre performance.



Microsoft annonce sa Xbox One, Sony explose en bourse

Le 22/05/2013 à 08h 43






Citan666 a écrit :




  • Tu veux un jeu, t’as pas de sous, mais pas pressé ? Le prix baisse en moyenne de 50% en un an, sans compter les promos choc des plates-formes de téléchargement.
    .



    Au début du mois, Steam proposait tomb raider à 24€



Le 22/05/2013 à 08h 22






bingo.crepuscule a écrit :

Je pense surtout que ça va donner des tas d’idées aux développeurs pour vendre toujours plus et à Microsoft pour leur ponctionner une belle marge, par contre je ne suis pas sûr que ce soit à l’avantage du client, ni même qu’il soit conquis, déjà que les XBLA déjà acquis ne seront plus disponibles, il se passera quoi sur la prochaine génération?…



La xbox one possède 3 os : 1 pour le jeu, 1 pour les apps, et le dernier gère la bascule entre les 2 premiers.
Tout cela me fait penser à une technologie de type Hyper-V avec 2 os virtualisés.
Si c’est vraiment le cas + le choix de l’architecture x86, je pense qu’il n’y aura plus de prochaine génération, du comme on l’a vu par le passé. Avec une telle technologie, rien n’empèche Microsoft de sortir dans 2 ans une xbox two avec un processeur plus puissant tout en assurant la compatibilité des jeux et applications puisque les os sont virtualisés. Le tout sans avoir à investir des masse sur le hard. Intel, AMD, Nvidia s’en charge déjà



Le 22/05/2013 à 08h 05






bingo.crepuscule a écrit :

Ça existe déjà sous Androïd… On ne compte même plus le nombre de Box disponibles.

http://dx.com/p/e-m6-android-4-2-dual-core-google-tv-player-w-xbmc-spdif-etherne…

64€ fdpin par exemple…



Oui, je sais j’en ai moi même une. Mais entre ce que propose les box android et la xbox one, il n’y a pas photo. Surtout au regard de la puissance.
Moi une Kinect + 8 coeurs + un store, ca me donne des tas d’idées



Le 22/05/2013 à 07h 56






bingo.crepuscule a écrit :

Nintendo se retrouve isolé finalement, du fait de son utilisation de l’architecture PowerPC et d’un niveau technique inférieur aux autres machines.

Par contre, le bon virage, moi je ne pense pas, au final on se retrouve simplement avec un PC/Palladium made in Microsoft bourré de DRMs… J’appelle pas ça un progrès…


Pour le DRM j’attends de voir. Mais il est inédéniable qu’une machine avec 8 coeurs + kinect + la possibilité de développer des apps + les sdk de Microsoft (Visual studio) peut donner beaucoup d’idées au développeurs.
Je pense que des applications d’un genre nouveau vont faire leur apparition, des applications destinées à la ménagère de moins de 50 ans par exemple.



Le 22/05/2013 à 07h 49






Pr. Thibault a écrit :

D’ailleurs le CA et les bénéfices de Microsoft augmente de manière continue depuis des années, et pourtant le cours de l’action reste plat depuis des années, il n’y a pas de raison que l’annonce d’une nouvelle Xbox change quelque chose à cela, d’autant plus que la Xbox reste une partie marginale du CA de Microsoft.



Pas tout à fait l’action a fait +50% en 4 ans. Mais il est vraiment qu’on est loin, très loin de l’inflation (bulle ?) que l’on constate chez google et apple



Microsoft annonce la XBox One : tout ce qu'il faut savoir

Le 21/05/2013 à 19h 03






charon.G a écrit :

Tout dépendra des trois systèmes d’exploitation utilisés. Il n’y a pas que Windows.
Vu que Microsoft bosse depuis longtemps sur des os manycore qui gèrent eux même le parallelisme, je vois tout de suite l’utilité des 8 coeurs…..



D’un point de vue hardware, la machine n’est pas exceptionnelle. Mais sur le plan software, Microsoft fournit quelque chose techniquement très impressionnant.
Quelle société peut proposer quelque chose d’équivalent ????
Sony et sa PS4 ne seront pas à niveau



Le 21/05/2013 à 18h 27






Jean_Peuplus a écrit :

huit coeurs… utilité ?



Je pense que les 8 coeurs sont là pour faire tourner la sorte d’hyperviseur évolué et les 2 os virtualisés



Le 21/05/2013 à 18h 08

C’est fini ?


Windows 8, échec et mat ?

Le 20/05/2013 à 03h 20


À moins d’être un fanboy (ou une fangirl) ou d’être aveuglé par ses couleurs criardes, il est aujourd’hui difficile de nier que Windows 8 est un échec


J’ai toujours trouvé ce style d’argumentation douteux. Si certains nient l’échec de windows 8, c’est peut-être qu’il y a une raison. Raison à prouver/démontrer.
Si vous estimez qu’une partie de vos lecteurs sont des cas “sociaux”, pour expliquer le déni, alors démontrez le. Peut-être que grâce à votre aide et à la prise de conscience qui en découlera ils se feront le plaisir de se faire soigner.

Pour ma part en lisant ce bout de phrase, j’ai eu le sentiment d’être pris pour un cas social, “j’aime windows 8 alors que je ne devrais pas”. J’ai été rassuré par les différents commentaires. Ouf, je ne suis pas seul.

Mais puisque nous en sommes à invoquer la folie, quelqu’un à dit un jour, je cite : “Pour le fou, c’est le reste du monde qui est fou”


Le 20/05/2013 à 02h 55






wykaaa a écrit :

Ce n’est pas qu’Apple n’a pas osé y aller, c’est que Tim Cook a dit que ce n’était pas souhaitable et je suis d’accord avec lui car c’est stupide de fusionner les systèmes pour tablettes et pour desktop, l’usage étant très différent.



Apple aurait bien tord de ne pas se lancer dans la bataille. Il y aura de plus en plus d’appareils à base de CPU et donc qui auront besoin d’OS.
Concernant l’ergonomie il y a 2 écoles qui se dessinent. Ceux qui pensent que chaque appareil a un usage spécique et donc avoir une ergonomie propre. C’est à l’utilisateur de faire l’effort de comprendre le fonctionnement de tous les appareils.
Ceux qui pensent que tous les appareils doivent partager la même ergonomie afin de réduire le temps d’apprentissage de l’utilisateur.

Ubuntu avec son concept de ubuntuOS a choisi le premier camps. Tandis que Microsoft a choisi le second camps.

Honnêtement sur long terme, je crois plus à la stratégie de Microsoft. Proposer ModernUI sur le smartphone, sur tablette, sur PC et très certainement sur la futur xbox, va favoriser la réduction du cycle d’apprentissage sur leurs produits. A contrario, ce cycle d’apprentissage, risque de se complexifier chez la concurrence avec la démultiplication des devices.



DRM et brevets logiciels accusés d’empêcher la recherche informatique

Le 20/03/2013 à 21h 38






tnetennba a écrit :

Mais c’est exactement le principe du brevet, mon cher !
Mettre les connaissances à la disposition de tous ; et acquérir une protection d’un maximum de 20 ans (dans la plupart des cas, beaucoup moins) pour l’exploitation de ce brevet.

Sans brevet, tu crois que les entreprises dévoileraient leurs connaissances ? Non, elles feraient comme Coca-Cola, qui conserve leur recette secrète…
.



Si tout le monde avait eu ce raisonnement, firefox, linux, webkit, android, etc… n’existeraient pas.
Apple nous vendrait ses smartphones à 1000€
Windows xp serait probablement l’os le plus avancé :)
Le système des brevet ne profite qu’aux multinationales. Des boites comme Microsoft, IBM déposent plus d’un millier de brevets par an. Des brevets qu’ils n’exploiteront probablement jamais, mais ils brevetent juste au cas où.



Le 20/03/2013 à 19h 10






Naneday a écrit :

Au contraire, le brevet oblige les industriels a innover en cherchant des alternatives
Le brevet les protège de la copie


Je suppose que tu fais partie de ceux qui pense que dans un monde fini, que l’on peut innover de manière infini où de ceux qui pensent qu’il y a mille et une manière d’implémenter une boucle.

Tout progrès intellectuels devrait être partagé avec tous. Si Pythagore, Euclide, Newton, ou plus récement einstein, von neumenn avaient breveté leurs connaissances, on (l’humanité) serait pas aller bien loin.



Ubuntu Touch : mise à jour quotidienne des Nexus, le portage avance

Le 27/02/2013 à 18h 03






raoudoudou a écrit :

Est-ce qu’on a une idée des perfs, rapport à une 2.3.x ET une 4.x ?



C’est le seul benchmark que j’ai trouvé



Le 27/02/2013 à 18h 03






raoudoudou a écrit :

Est-ce qu’on a une idée des perfs, rapport à une 2.3.x ET une 4.x ?



C’est le seul benchmark que j’ai trouvé



La PlayStation 4, un PC « Supercharged » qui arrivera pour Noël 2013

Le 25/02/2013 à 07h 19






sylware a écrit :

Perso, les FPS, c’est au clavier et à la souris, le pad, on oublie.


Lorsqu’on nous sortira un kinect hyper réactif on pourra ranger sagement le couple clavier/souris



sylware a écrit :

La wii-u est techniquement ancrée dans le passé de y a 3 ans. Nintendo ne sont pas des cracks du hard. Eux, ils font avant tout des zelda et mario.


Est-ce suffisant, à une époque où l’on rentre en récession et où le joueur moyen ne consacrera pas autant d’argent dans le jeux vidéo que par le passé.



Prédire des catastrophes ? Microsoft et des chercheurs pourraient le faire

Le 06/02/2013 à 15h 59






Drepanocytose a écrit :

Le chat de Schrödinger, tout ca….

Mais plus pragmatiquement, que se passe-t-il si on annonce coup sur coup 2 catastrophes qui ne se produisent pas, puis qu’on annonce une 3eme qui se produit avec beaucoup plus de force que ce qui a été prédit ?



Cela s’appelle un miracle!!!

La méthode ne permet pas de prédire un miracle. Elle n’est qu’une traduction en algorithme/heuristique de ce que l’on appelle communément le bon sens.
Il est vrai que la qualité du bon sens est fonction du niveau de compréhension du monde qui nous entoure



Des analystes voient les consoles Next-Gen à moins de 400 $

Le 15/01/2013 à 12h 40






Alucard63 a écrit :

C’est sur qu’une capacité de calcul théorique de presque 1Tflops contre une xbox qui doit aps dépasser les 120 Gflops…c’est un monstre.<img data-src=" />

Après l’optim PC ça existe aussi et heureusement. c’est juste plus compliqué inévitablement.


Ce qui a toujours joué en défaveur du PC, ce sont les api. D’abord GDI puis directx même si celui ci à considérablement améliorer les choses, on fait néanmoins plus d’appel en court-circuitant l’api qu’en l’utilisant. Ceci soulève quand même la question suivante, les performances se limitent t elles seulement au nombre d’appel que l’on peut faire ?
L’arrivée des pixel shader, vertex shader, du gpgpu, opencl permet de diminuer l’utilisation des API.
De plus il parait que opengl serait plus rapide que directx voir démonstration de steam avec left2dead




Alucard63 a écrit :

Sur une console les programmeurs exploitent chaque petit détail.
Ils utilisent aussi des technique pour palier aux défauts( au hasard streaming des textures pour palier au manque de ram…ça donne des choses assez marrantes/dégueulasses sur des jeux comme the witcher 2 par exemple ).
Font faire aux processeurs des calculs qui sont fait sur la CG sur PC ect…


1)les mêmes api qui posent pb aux PC sont utilisées dans le monde des consoles. Ceci est surtout vrai avec la xbox360 et PS3




  1. Ayant une ressource mémoire limité (512mo au plus et partagé), tu risques de faire plus d’appel. Il faut bien trouver des technique d’optimisation.
    Diminution du nombre de polygones, diminution de la taille des textures, décharger des traitements sur le CPU, ….




    Alucard63 a écrit :

    Après optimiser pour du X86 c’est tout à fait possible. La xbox première du nom était bien X86.<img data-src=" />


    Oui c’est possible. Programmation multicore, opencl, gpugpu, shader, utilisation de la mémoire disponible, optimisation des drivers, optimisation des api, …





Le 15/01/2013 à 04h 34






Alucard63 a écrit :

Le CPU de la 360 est grosso modo équivalent à 3 coeurs atoms à 3,2 Ghz pas de quoi monter au plafond.

La ram est de la GDR 3 très rapide mais très limitée( 512 Mo partagé ).

Le GPU est grosso modo une Radeon HD2900XT sans prise en charge de direct x 10…



Le GPU de la 360 est à peine au niveau d’une 2900XT.

Un simple APU AMD E-1800 a une partie graphique plus conséquente…

Les consoles tirent les perfs vers le bas parce qu’elles sont vieilles mais clairement seul l’optimisation peut expliquer ce qu’elles sont encore capable d’afficher.<img data-src=" />



On est bien d’accord sur le fait qu’il y a une forme d’optimisation sur les consoles.

Tu ne peux pas comparer le modèle PC et le modèle console. Sur console, les protagonistes ont intèrêt à ce que cette culture de l’optimisation se développe (ils ne sortent pas une console chaque année) alors que sur PC, d’un coté on a Nvidia et AMD ayant un modèle basé sur le consumérisme, n’ont aucun intérêt à ce que cette culture se développe sur d’ancien matériel et de l’autre on a les éditeurs qui n’ont aucun intérêt à ce que les jeux soient optimisés pour la dernière cg. Les intérêts divergent, du coup nivellement par le bas.

Peut-être ne te rends tu pas compte de la puissance des machines de 20052006. Pour cela il suffit de voir ce que promettait un 3Dmark 05. 7 ans après, combien de jeux ont un tel niveau graphique ???

Ca c’était pour te montrer que l’impossibilité d’optimiser sur PC est une légende urbaine. D’autant plus, les os, windows 8 et les derniers noyaux linux, ont eu leur part d’optimisation. Les OS consomment moins de ressources tout en offrant plus de services. Pourquoi on arriverait à optimiser un os et pas un jeux pour la plateforme PC. Soit disant l’architecture PC est plus ouverte ????

Le fait que les intérêts économiques ne vont pas dans ce sens est la seule explication. Et pour la next gen, à moins d’avoir des jeux financés par Sony ou par Microsoft, tu auras un nivellement par le bas. Et ce ne sera pas à cause du PC.



Le 14/01/2013 à 21h 22






John Shaft a écrit :

Oui enfin tu prends un BF3, dont la version PC a bénéficié d’un vrai développement, tu le vois bien que les consoles sont à la rue <img data-src=" />



Ils ne sont pas nombreux, ceux qui se lancent dans cette aventure.



Le 14/01/2013 à 21h 14






Alucard63 a écrit :

Non.

Prends un PC top moumoute de 20052006 avec 512 Mo de ram et essaye de lui faire bouffer Metro 2033, Crysis 2 ou Farcry 3 pour voir, même au minimum il y a peu de chance que tu atteinges le framerate des versions xbox/ps3…

Les jeux sont en effet cross plateformes mais les moteurs sont optimisés( a toc ) pour les consoles.

La ou ça devient compliqué c’est pour faire des moteurs capables d’être optimisés au maximum pour toute les plateformes. C’est compliqué et ça coute une fortune. D’où le fait que la majorité des jeux de cette génération utilisent UE3.<img data-src=" />



Les cartes graphiques ne sont pas ce que l’on garde le plus longtemps dans pc si on est un peu gamer. Il y a une forme d’obsolescence programée dont Nvidia est particulièrement adepte. A chaque nouvelle version de directx il faut limite acheter une nouvelle carte.
Mais une config de l’époque comme un core 2 duo E6700 + GeForce 7xxxx gtx
n’aurait sans doute aucun mal à faire tourner Far Cry 3 au même niveau qu’une xbox 360.
une video de far cry 3 sur core 2 duo + radeon 6770

Moi je constate juste que les editeurs/developpeurs font un nivellement par le bas. Les PC d’aujourd’hui, sans aller chercher un i7+ carte graphique extreme, sont capable de traiter des graphismes bien au delà de ce que l’on voit dans les jeux actuels.

Oui, on fait peut-être des optimisations sur les consoles, mais sur PC, il n’y en pas. Il ne faut surtout pas montrer que les consoles sont trop à la rue.



Le 14/01/2013 à 18h 14






aurel_gogo a écrit :

C’est pas tant l’OS qui te bride mais le developpeur.

Un jeu PC doit être supporté par un maximum de config, un jeu console est développé pour une seule configuration matérielle, donc les développeurs peuvent optimiser leur jeu à fond.

A configuration égale, un jeu console devrait (conditionnel) être plus beau que sur ton PC, car les dév n’ont qu’une seule configuration matérielle à gérer.


Et cela ne risque pas d’arriver pour la simple raison que les graphismes sont de plus en plus réaliste, qu’on assiste à des productions dites hollywoodienne et pour rentabiliser le développement, mieux vaut que ton jeux puisse tourner sur le plus de plateforme possible.
L’époque où les éditeurs faisaient des jeux hyper optimisé sur une plateforme est révolue. C’est bien un argument de 1992.
On s’oriente vers un concensus sur l’utilisation de l’architecture PC. Son avantage,




  • un cycle apprentissage court. Les développeurs peuvent réutiliser le code source existant

  • pas besoin d’investir sur de la R&D au moins au niveau architecture, intel, amd, nvidia etc… s’en charge déjà.

  • pas besoin de developper un os. Microsoft peut s’appuyer sur windows et sony sur linux

  • permet de se concentrer la R&D sur de nouveaux usages, nouveaux moyens de jouer (kinect, reconnaissance vocale, etc…)




Microsoft tacle Valve et les nouveaux arrivants sur le marché des consoles

Le 15/01/2013 à 05h 22






Shin Lao a écrit :

Houlà, y’a beaucoup de fantasmes ici. Microsoft est loin d’être mort, et c’est pas Linux qui va le menacer. Android et iOS sont bien plus dangereux pour Microsoft que les distribs Linux qui n’intéressent personne ou presque.



Peut-être pas.




  1. Grâce à iOS, Android, l’utilisateur lambda a appris à adapter son comportement en fonction de l’os qu’il rencontre. Windows 8 avec Modern UI enfonce le clou. Fini l’époque où l’utilisateur s’accrochait à ses habitude

  2. canonical avec ubuntu et ubuntu for mobile réussi à faire ce que microsoft n’a pas réussi à faire (ou pas encore) avec windows 8. Un même OS tous les devices (x86 ou Pas)

  3. Canonical et steam s’activent pour pousser le jeux sur linux
    4)De plus en plus de voix s’élèvent contre les modèle proprio (Windows, iOS, Android). Intel, par exemple, refait son retard dans la mobilité et après le coup de poignard de microsoft avec Arm, il y a peu de chance qu’intel veuille pousser un modèle proprio.

    Oui, tout n’est pas fini pour Microsoft mais l’affaire semble plutôt mal engagé. De l’autre coté, l’espoir est permis pour linux.



Le Free #Adgate, une opposition d'intérêts avant tout

Le 07/01/2013 à 05h 46






nikito a écrit :

De ce qui se dit depuis 30 pages, l’argent gagné semble être suffisant du moins aujourd’hui. Par contre le modèle des box tv, là où les FAI se font de grosses marges risque de prendre une sacré claque dans les mois années à venir. De plus avec la multiplication des devices et des usages tv 4K cela ne les aidera pas. Du coup, il y a recherche d’une autre vache à lait.



Et ce n’ai pas avec ce type de stratégie que SFR,Orange,Bouygues et Free vont pouvoir résister aux americains. Microsoft, Apple, Google entre autres, ne se font pas de cadeaux. Chacun amène sa part d’innovation et ils déboulent comme des rouleau compresseur.
Que nos FAI prennent garde car en se reposant sur leurs acquis, ils risquent de se faire avaler par ces géants. Google s’est lancé dans la fibre, car il trouvait les opérateurs trop lent.

Peut-être ont ils oublié que dans les NTIC, pour survivre il fallait sans arrêt être au top.



Le 07/01/2013 à 05h 24






Lyto a écrit :

Oui mais en tant qu’hébergeur l’argent que je gagne doit théoriquement me permettre de payer mes serveurs d’hébergement.



De ce qui se dit depuis 30 pages, l’argent gagné semble être suffisant du moins aujourd’hui. Par contre le modèle des box tv, là où les FAI se font de grosses marges risque de prendre une sacré claque dans les mois années à venir. De plus avec la multiplication des devices et des usages tv 4K cela ne les aidera pas. Du coup, il y a recherche d’une autre vache à lait.



Le 07/01/2013 à 05h 16






brazomyna a écrit :

C’est LEUR rôle bordel. Si t’es boulanger, ton but ultime n’est pas de vendre en même temps des chaussures sous prétexte d’intégration verticale parce que les clients ont besoin de chaussures pour venir dans ta boutique.
L’intégration verticale dans ce domaine, on en a eu plusieurs dans le passé (certains ici n’ont pas forcément de recul pour le comprendre): cablo opérateurs, minitel, etc.
Si internet a le succès qu’il a aujourd’hui, c’est justement en grande partie parce que les fournisseurs de tuyaux et ceux de contenus sont des entités distinctes.



Toute entreprise a le droit d’étendre son activité. Et dans le cas des offres triple-play c’était plutot sympa car un FAI a innové.
Avec la freebox révolution Free a eu l’occassion de pousser le modèle des app sur une box tv, ils l’ont laissé passer.
La box est fermée avec un sdk que personne ne connait =&gt; Elixir. Il aurait été si simple de proposer des outils connu de la communauté et de travailler avec la communauté. Mais bon c’est français on veut travailler seul dans son coin car on pense détenir la vérité ou qu’on a peur du voisin.



Liam a écrit :




  • Le SDSL permet d’atteindre 5Mbps symétrique sur une seule paire


    • L’ADSL2+ permet d’atteindre jusqu’à 4Mbps d’upload en acceptant une baisse de download d’autant, à travers l’Annexe M

    • Le VDSL1 permettait des débits de l’ordre du 52Mbps down pour 16Mbps up (soit un ratio down:up de 3,25:1)

    • Le VDSL2 permet d’atteindre des vitesses symétriques ou à défaut, des vitesses de l’ordre de 100-120Mbps down et de 70Mbps up (soit un ratio compris entre 1,7:1 et 1:1).



      Ces techno ont montré leurs limites. Déployer la fibre sur tout le territoire est aussi compliqué.
      Je compte plutôt sur la 4G et 5G dans le futur, pour libérer les possibilités en terme de download/upload.




Le 06/01/2013 à 18h 13

Merci pour ces échanges, très instructifs.
Je retiens:




  1. l’action de free pourrait avoir pour but de négocier un dédommagement sur la disposition de capacités supplémentaires

  2. Google tire déjà, à ses propres frais, des cables de la Californie jusqu’à Paris. Free n’ayant qu’à tirer des cables de Paris à Paris

  3. Le modèle économique des FAI est encore viable, il y a de grosses interrogations sur l’avenir.


    • google tv and Co

    • développement d’un autre modèle économique par les chaînes de TV qui échapperaient FAI

    • démultiplication de la quantité de data consommé par les foyers (4K, devices, etc…)


  4. Plutôt que de chercher à raqueter les fournisseurs de contenu, les FAI doivent innover:


    • P2P, connexions symétrique, auto-hébergement, cloud gaming, domotique, etc…

      EDIT : il ne reste plus qu’à pondre un article. PCI où es tu ? <img data-src=" />



Le 06/01/2013 à 17h 50






Liam a écrit :

Je dirais plutôt le contraire… les FAI essayent de sortir de ce seul rôle qui était censé être le leur, et qui était grosso-modo le leur avant l’arrivée du triple-play chez Free.

Les FAI se prennent pour des câblo-opérateurs, mais ils ne sont pas censés, à la base, être des vendeurs de télé. Ils sont censés fournir un accès à internet. Or, on a l’impression que l’accès à internet devient de plus en plus accessoire à leurs yeux (car c’est pas là qu’il y a le plus d’argent à se faire).



De ce qui a été ce n’est pas avec internet qu’il y a le plus d’argent à faire mais bel et bien avec la box. Or dans les prochains mois ce modèle de box sera remis en question notamment à cause des google tv and co. Cela impliquerait un retour à la case départ =&gt; vendeur de tuyaux

Un début de solution consisterait peut-être à favoriser les usages symétriques du net. Ca ne se fait pas en un jour mais de toute façon, avant que le coût des interco devienne ingérable pour les FAI, on a largement le temps aussi.



Liam a écrit :

Donc quelques idées en vrac :




  • Arrêter de faire le marketing uniquement sur le gros chiffre du download

  • Favoriser des connexions symétriques (sur la fibre) et à défaut, au moins sur l’ADSL, le minimum serait de pousser au cul pour l’annexe M. Si le VDSL2 arrive, brider un peu le débit max en download pour limiter le facteur d’asymétrie aussi.

  • Favoriser l’auto-hébergement en profitant que les box sont aujourd’hui des serveurs branchés et allumés 24h/24 : on en a un micro-bout avec la seedbox dans les Freebox Révolution, mais il faut pousser le concept plus loin et permettre au grand public d’héberger un tas d’autres services chez soi de manière la plus simple possible.

  • Remettre le p2p au goût du jour

  • Ne pas proposer aux abonnés des débits qu’on sait ne pas pouvoir gérer à long terme.

  • Arrêter de vendre les mérites du “claaaaaoouuuuuud”

    .


    +1



Le 06/01/2013 à 17h 32






bzc a écrit :

C’est pas faux :) Et c’est ce que Google veut faire aux USA avec Google Fiber.

C’est une solution mais c’est pas celle que j’aimerais …



La situation est plutôt mal engagé aussi en France. Les FAI sont réduits petit à petit à un rôle de poseur de tuyau.
Il leur faut innover et se diversifier.
Cloud Gaming ? Domotique ? se lancer dans la production de contenu mais lesquels?

L’affaire est plutot mal engagé.



Le 06/01/2013 à 16h 25






Liam a écrit :

Mais le câble n’est PAS posé au milieu de l’océan ! Le câble est posé dans des salles de peering françaises !! Google prend en charge l’infrastructure de chez lui aux US jusqu’aux points de peerings français ! Free a juste à tirer un câble de plus de chez lui jusqu’au point de peering (où il en a déjà un certain nombre)



Ok, donc Free pourrait faire son caca nerveu car le modèle de la freebox hd, là où ils sont font toute leur marge, est hautement menacé.
Une menace qui vient




  • des nettop, mini pc, google tv et peut-être des consoles next gen.

  • du mouvement lancés par les chaines de télévision via les application iOS et Android. Ainsi plus besoin de passer par la freebox hd pour diffuser. Les utilisateurs ont accès à la TV en direct, au replay et d’autres service fournis directement par la chaine. Le FAI serait exclus de la chaine de la valeur.

    Voyant la menace arrivée, Free cherche t il une nouvelle vache à traire ?




Le 06/01/2013 à 15h 40






seb01380 a écrit :

C’est rien la main d’oeuvre dans le coup du traffic internet.
On parle d’échange entre ISP. Pas de la liaison entre ton FAI et ta maison.



Je me dis juste que tirer et poser un câble au milieu de l’océan doit avoir un coût non négligeable



Le 06/01/2013 à 15h 29






brazomyna a écrit :

Et il y a dix ans, on nous parlait de disques cent fois moins gros et de CPU 60 ou 100 moins puissant. Et puis la technologie a évolue et les coûts ont baissé.

Au même titre, on ne passe plus du tout la même quantité dans une fibre d’aujourd’hui qu’il y a dix ans.



Le prix du matériel et des matéiaux peut diminuer mais le prix de l’ouvrier qui va faire un trou dans le sol pour poser le cable lui ne diminue pas.



Le 06/01/2013 à 15h 22






nabalzbhf a écrit :

Et en pratique c’est ce qui se passe quand les gens font du p2p ? Quand tu lances un torrent y’a combien de peers qui sont chez free ?



Combien de freenautes utilisent bittorent ? surtout avec hadopi



nabalzbhf a écrit :

Les CDN, dont Google, décentralisent leur peerings.


Sauf que tu auras toujours 5 millions de freenautes qui viendront se connecter dessus. Dans un modèle P2P, plutot que d’attaquer les serveurs de Google, les freenautes chercheraient à récupérer l’information entre eux



Le 06/01/2013 à 15h 10






spytec a écrit :

Moi la pub ne me derange pas … car toute une economie est base la dessus … (ex: pcinpact).

Par contre Google devrait retribuer ceux qui entretiennent le reseaux c est a dire les FAI.



La pub en elle même ne me dérange, je la laissais jusqu’à ce que je lise le rapport. C’est le fait qu’on collecte des infos sans que je sache ce qu’on en fait qui me dérange.



Le 06/01/2013 à 15h 03






nabalzbhf a écrit :

Encore une fois tu m’expliques comment le p2p économise la bande passante d’un fournisseur d’accès ? C’est des grand fans de bittorrent c’est sur.



model centralisé vs model décentralisé tu connais ?



Le 06/01/2013 à 15h 01






spytec a écrit :

Etude de 2009 de la CNIL =http://www.cnil.fr/fileadmin/documents/La_CNIL/actualite/Publicite_Ciblee_rappor…

Assez marrant a lire … en 2013…flippant.

Et une de 2006 =http://archivesic.ccsd.cnrs.fr/docs/00/11/03/06/PDF/articleguillaumeroussel.pdf?…



Ok, je comprend qu’il n’est pas nécessaire de cliquer sur la pub. Mais rien qu’en visitant un site ou il y a de la pub, une régie peut récupérer des infos sur moi.
Donc en soi, l’activité est rentable pour la régie même si personne ne clique sur la pub car derrière elle peut monnayer les informations récoltées. Plus un site a de visiteurs plus elle peut récolter des informations et par conséquent constituer des profils.

Personne n’a besoin de cliquer pour qu’elle gagne de l’argent.

Merci pour l’info, je viens juste d’installer adblock.



Le 06/01/2013 à 14h 43






ben5757 a écrit :

Bein c’est un peu l’impression que ça me donne <img data-src=" />. Je vois pas ou est le problème c’est au fournisseur de payer pour que les gens ait accès aux services qu’ils souhaitent pas aux fournisseurs de service de payer parce que les abonnés du FAI free accèdent à leur service.

Imagineons, je suis fournisseur de service Y je ne vois pas pourquoi je devrais payer parce des utilisateurs de FAI utilisent mon service. Sachant que je paie déjà des sommes importantes pour l’infrastrucutre de mon service et la connexion de mon côté. Si je dois faire des contrats avec plusieurs FAI de la planète ça risque de me couter un sacré paquet de pognon.

Finalement les FAI ne paient t’ils pas le tout illimité pour 29.99 ?

J’aimerai bien des chiffres et un article complet sur la question et pas seulement des estimations balancés en commentaire



Si on suit ton raisonnement on augmente indéfiniment le prix de l’abonnement au même rythme que les usages ainsi que la capacité. Tu comprends qu’en suivant cette logique, il n’y aura que les milliardaires qui pourront avoir internet.

Alors que la bétise vient de l’utilisation du procotocole http au détriment d’un protocole P2P



Le 06/01/2013 à 14h 37






nikito a écrit :

Bon ok. On constate des problèmes lenteurs. Admettant que les freenautes vont consulter les vidéos les plus vues et donc ces videos sont disponibles sur le serveur tampon. Question si’il y problème de lenteur? c’est la faute à qui ?
Free ou Google?



Ce que je veux c’est que ce modèle ne marche pas. Les usages sont infinis, hier on parlait de full hd, aujourd’hui on parle de 4K, demain on parlera de 8k.
Donc il faudra aligner en permanence une capacité de plus en plus en grande entre le fournisseur de contenu et les usagers.
Au rythme où l’on va il faudra changer les cables tous 4 ans!!!!



bzc a écrit :

Ensuite en effet le FAI doit aussi upgrader son infra, mais le prix de ton abonnement consacré à ça a diminué car globalement il est resté constant et les FAI ont ajoutés des services VoIP et TV.
Donc tu proposes quoi ? une hausse de l’abonnement ? Alors ça sera une hausse constante car le traffic augmente constamment, et si on commence à augmenter l’abonnement en fonction du traffic des clients ce n’est tout simplement plus de l’illimité mais du “pay as you go”, ça se fait dans d’autres pays et c’est vrai que dans ce cas les FAI ne sont pas embettés avec le peering Google car tu y réfléchis à deux fois avant de regarder une vidéo 1080p.
.


+1



Le 06/01/2013 à 14h 22






brazomyna a écrit :

C’est Google justement, et ce depuis que Google est Google.
Pas les FAI, hein.



Bon ok. On constate des problèmes lenteurs. Admettant que les freenautes vont consulter les vidéos les plus vues et donc ces videos sont disponibles sur le serveur tampon. Question si’il y problème de lenteur? c’est la faute à qui ?
Free ou Google?



Le 06/01/2013 à 14h 08






brazomyna a écrit :

Figure toi que c’est exactement ce que fait … ah ben Google … entre autres <img data-src=" />




Via le déploiement de serveur tampon ? Mais ca à un cout. Qui paye ?



Liam a écrit :

Ça ne s’est jamais arrangé et ça ne s’arrangera jamais. Mais :




  • Ça représente un coût extrêmement supportable, pour ne pas dire négligeable, aux FAI. D’après Octave (PDG d’OVH), Youtube c’est 0,15€ par abonné… tu peux multiplier la fréquentation par 10, tu passeras tout au plus à 1,5€ par abonné… et il y a fort à parier que du coup la fréquentation d’autres sites diminuera d’autant, diminuant par exemple les coûts en transit.
    .


    Ce prix est calculé sur quel base ?
    un ordinateur par foyer ? la consommation de video en 720p ?
    Si le modèle est remis en cause, c’est qu’il bien un problème. A te lire tout, on a l’impression qu’il n’y pas de problème et que free fait son caca nerveux



Le 06/01/2013 à 13h 39






nabalzbhf a écrit :

Le P2P ça résoud rien, si Google lance un client youtube qui fonctionne en p2p, tu crois que Free sera content ? Au lieu que les données passent sur les liens transocéaniques google, il passeront chez des transitaires.



Le P2P permettrait de mieux répartir la charge réseau.
Et pour obtenir une video plutot que d’aller directement sur les serveurs de google, tu la récupère chez ton voisin. Statistiquement t’as plus de chance de rester en France plutot que de franchir l’océan



Le 06/01/2013 à 13h 29






seb01380 a écrit :

Là ce n’est pas une histoire d’investissement mais de remunerations des intermediaires par lequel transit les flux internet.
Free vend un abonnement illimité calculé sur une utilisation moyenne de son reseau. Si l’utilisation augmente, le prix n’est plus en phase.
Je suis d’accord, il existe des techniques pour faire baisser le peering. Le peer to peer est une solution.
Google propose aussi l’installation de serveurs tempons chez les fai pour stocker les contenus les plus demandé, mais il me semble que free refuse ce genre d’installation dans son infrastructure.



Il est bien question d’investissement, car l’infrastructure n’a pas une capacité indéfinie. Si l’utilisation moyenne augmente il faut augmenter la capacité.
Et il y a débat parce que l’utilisation moyenne a augmenté et cela ne s’arrangera pas dans les mois à venir pour cause :




  • multiplication des devices

  • les android box et google box

  • les videos 4K




Le 06/01/2013 à 13h 09






seb01380 a écrit :

Sur le coup, même si je dois reconnaître que bloquer les pubs est une option sympa, je suis contre les pratiques de Free.
D’ailleurs je ne vois pas en quoi ils peuvent justifier une guerre contre Google. Free fournit le tuyau, il n’a pas à demander à Google un dédommagement pour ce qui circule.
Si cela coûte de l’argent à Free, ils n’ont qu’à augmenter le prix des abonnements.



Se pose alors la question, peut-on augmenter indéfiniment le prix de l’abonnement, jusqu’à quel point faut-il investir pour avoir une infrastructure supportant 4 milliard d’être humain et les nouveaux usages.
Je te rappelle qu’il est question de 4K maintenant et plus de full hd par exemple

Si on utilisait massivement le P2P il y aurait beaucoup moins de problème.



Le 06/01/2013 à 13h 02






Math73 a écrit :

Par contre, le paiement du peering est un problème tout aussi intéressant (mais pas pour le grand public, qui voit uniquement le fait que Youtube est lent). Free a lancé le premier problème pour frapper de manière détournée, mais les deux problèmes sont séparés.
.



Et il n’y aurait pas de problème de peering si on utilisait massivement un protocole P2P