votre avatar

Gorkk

est avec nous depuis le 14 janvier 2013 ❤️

435 commentaires

Le 05/09/2013 à 14h 55







Yangzebul a écrit :



Qui a dit que je roulais à gauche…





Pas moi. Le « Ce n’est pas parce que tu roules à la limite de vitesse que tu as le droit d’être dans la file de gauche quand il n’y a personne à droite » est il me semble très clairement une formulation à connotation générale (j’aurais pu utiliser des « on » mais ça se lisait moins bien je trouvais).







Yangzebul a écrit :



Tiens cadeau vu que de toute évidence monsieur le super pilote à besoin de réviser un peu :

http://www.permisecole.com/test-code-de-la-route-gratuit/regles-de-circulation/s…





Tu disais que tu n’arrêtais pas de te faire doubler par la droite. Donc je doute que ce soit dans des endroits très particuliers comme celui-là avec une file qui sort, d’autant que pour que quelqu’un décide de te doubler par la droite à cet endroit là si t’es dans la file de droite, il faudrait que les deux autres files soient également pleines. Je suis désolé, mais je doute que ne serait-ce que la majorité des cas où tu t’es fait doublé par la droite « régulièrement » correspondent à ce genre de situation (ou alors régulièrement pour toi veut dire une ou deux fois ?).



À part ça mais t’es gentil, je sais quelle file je dois emprunter. Par contre tu vois la situation sur cette photo on la voit quasiment jamais : le véhicule présenté sera quasiment systématiquement dans la voie du milieu de la branche principale (2e file en partant de la gauche, 3e en partant de la droite si tu comptes la file qui sort). Bizarrement, quelle que soit la vitesse à laquelle je roule (et ce même quand c’est en-dessous de la limite, on ne m’a jamais doublé par la droite, mais il faut dire aussi que je me range dès que je peux, même quand il n’y a à ce moment là personne derrière, c’est peut-être ça la raison.



Tout ça pour dire que si tu te fais doubler « régulièrement » par la droite, il faut vraiment te poser des questions sur ta façon de conduire parce qu’il y a de très fortes chances (note que je n’ai aucune certitude) que tu aies tendance à rouler trop à gauche, ce qui est une conduite particulièrement dangereuse.


Le 04/09/2013 à 21h 00

Tiens d’ailleurs je viens de réaliser que je n’avais pas réagi sur la news elle-même, mais ça c’est rapide : encore une pompe à fric qui fait du flicage permanent, et qui s’attaque à un faux problème de façon à renforcer les vrais problèmes encore plus…

Le 04/09/2013 à 20h 58







Drepanocytose a écrit :



<img data-src=" /><img data-src=" /><img data-src=" />

Vache !

Je crois que c’est le plus gros pavé que j’aie jamais vu sur PCI….



Mec, tu bats même ph11 et de loin là, et c’est pas facile !

Tu t’entraines au commentaire composé, ou bien ?





Nope, même pas, mais j’ai toujours tendance à faire des messages le plus complet possible, et quand je me retrouve comme aujourd’hui à arriver sur un sujet qui a déjà pas mal grossi, bah forcément y a beaucoup à citer et répondre, donc ça explose ^^


Le 04/09/2013 à 20h 56







Elwyns a écrit :



J’ai pris le temps de lire :o même les erreurs de quote pour ma part ( quand ça parle d’autoroute et voiture allemande c’pas moi monsieur le gendarme ! <img data-src=" /> )





<img data-src=" /> Désolé, j’ai du m’embrouiller à un moment dans tout ce bazard ;)







Elwyns a écrit :



Manquerait plus que la ligue contre la sécurité routière, où il n’existe qu’un seul membre qui est la présidente ( vous avez jamais remarqué qu’il n’y avait que toujours elle qui passait aux infos ? ) dont on ne peut connaitre d’info , qui est également haut fonctionnaire , qui permet de faire passer par le biais d’une association des lois qui seraient mal passées si c’était le gouvernement qui en faisait la promo ( non je délire pas ) je retrouverais où elle a son poste





Ce serait pas plutôt « pour la sécurité routière » ou « contre l’INsécurité routière » ?



Mais oui c’est l’exemple typique d’association absolument pas représentative, qui balancent conneries sur conneries, mais qu’on écoute quand dans le même temps on ignore les associations représentatives qui ont des discours cohérents.



P.S. c’est peut-être à cause de la taille de mon post, mais la notification de citation était complètement cassée :p

J’ai eu [code]Elwyns a cité votre [COMM id=“4736573” news=“82132-les-radars-troncons-deployes-sous-œil-cnil” br=“false”]commentaire[/COMM] sur l’actualité [NEWS url=“82132-les-radars-troncons-deployes-sous-œil-cnil” br=“false”]Les radars-tronçons déployés sous l’œil de la CNIL[/NEWS] [/code]


Le 04/09/2013 à 20h 26







Snakeseater a écrit :



Toujours ces mêmes excuses : C’est la faute au radar pas a ma vitesse excessive, je gère, l’état nous vole notre pogon…

Blablabla <img data-src=" />





Encore un qui fait l’amalgamme entre excès de vitesse et vitesse excessive… 150 sur autoroute est par exemple toujours un excès de vitesse en France, et quasiment jamais de la vitesse excessive.



On fout des radars partout sur les autoroutes alors que c’est la partie la moins accidentogène du réseau, et que la quasi totalité des accidents sur autoroute est causée par des abrutis qui déboîtent sans clignotant sans regarder sous le nez d’autres véhicules, un bras sur la portière, ou qui ne respectent pas les distances de sécurité…







gavroche69 a écrit :



Moi j’attends qu’on flash aussi ceux qui se traînent à 60 ou 80 sur une autoroute limitée à 130 (je ne parle pas des camions), ils sont largement aussi dangereux que certains qui roulent un peu trop vite mais on en parle jamais de ceux-là…





D’autant que ceux-là sont aussi pour la plupart ceux qui ne roulent pas à droite sur l’autoroute (alors que je le rappelle, on n’est pas censé être dans la file du milieu ou la file de gauche sur autoroute si l’on n’est pas en train de doubler : si l’on peut être dans la file de droite, on doit y être), ou qui vont déboîter sans regarder (souvent sans clignotant en plus, mais quand ils le mettent c’est qu’ils ont déjà commencé à déboîter…) quand ils vont se retrouver derrière un camion. Comme le seul message de la sécurité routière c’est « c’est la vitesse qui tue et c’est tout », on a de plus en plus des gens qui sont à moitié endormis au volant, parlent avec leur voisin(e), la main sur la portière, et déboîtent sans regarder qui se considèrent comme « bons conducteurs » (et sont considérés comme tels par la SR) sous prétexte qu’ils respectent la limite de vitesse…[/quote]







Natsume a écrit :



Et évidemment pendant ce temps il ne viendrait à personne l’idée de respecter les limites de vitesses et ainsi éviter de mettre les autres en danger…





Quand tu es à la limite de vitesse et que tout d’un coup le mec devant pile sous ton nez à cause d’un radar (donc sans aucune raison valide), même en respectant les distances de sécurité le risque d’accident est particulièrement important. Et le nombre de conducteurs qui pilent aux radars même lorsqu’ils sont déjà en-dessous de la limite de vitesse est particulièrement important.







Yangzebul a écrit :



Je suis totalement pour. En Rhône Alpes il est impossible de prendre une autoroute sur plus de 50 bornes sans avoir un ou deux connards minimum qui te dépasses (parfois par la droite) à 160190 alors que tu roules déjà à 130.





S’ils peuvent te dépasser par la droite, il y a de fortes chances que tu sois en tord en premier lieu : si tu peux rouler dans une file plus à droite, tu es censé y être… Ce n’est pas parce que tu roules à la limite de vitesse que tu as le droit d’être dans la file de gauche quand il n’y a personne à droite. Je sais bien que c’est ce que font énormément de conducteurs crétins, mais c’est quelque chose qui est très largement plus dangereux et cause d’accident que de rouler à 160 ou 190 sur une autoroute à 3 voies quasiment déserte.







Yangzebul a écrit :



On peut dire ce qu’on veut sur la répression et la déresponsabilisation, mais la vérité c’est qu’une partie non négligeable des automobilistes sont totalement irresponsables et que ces appareils sont malheureusement nécessaires.





Les principales causes d’accident (contrairement à ce que prétend la SR, la vitesse n’est quasiment jamais une cause d’accident, mais un facteur aggravant) sont les mecs comme toi qui roulent à gauche sous prétexte qu’ils sont à 130 alors qu’ils devraient être plus à droite, les mecs qui déboîtent sans regarder sans clignotant, les mecs qui conduisent avec un bras sur la portière, les mecs qui ne respectent pas les distances de sécurité, etc.









Drepanocytose a écrit :



Sans deconner, parfois c’est aberrant c’est vrai, et on le remarque très bien du coup ; mais dans l’écrasante majorité des cas c’est cohérent, et du coup on le remarque moins.



On remarque bien mieux les anomalies que les choses cohérentes.



Edit : allez faire un tour dans un pays de furieux comme la Belgique, avec des gens qui roulent n’importe comment (limite à 120 mais personne à 120 : une moitié à 100110 et l’autre à 140), des routes moisies, une signalisation moyenageuse….

Vous verrez clairement la différence.











Cara62 a écrit :



Et le fait que +80% de ces radars flash par l’arrière comme par hasard…. De ce fait, si vous vous faites flasher, vous pouvez contester le retrait des points mais par contre l’amande vous l’avez dans le cul sauf si vous prouvez que c’était pas vous au volant à ce moment. (Bonne chance vu de dos <img data-src=" /> )





Ils ont fait ça pour pouvoir prendre également les motos.







Cara62 a écrit :



Au passage, pourquoi ils prennent en compte le nombre de morts et non le nombre d’accidents ? Sur 2 accidents identiques, l’un peut avoir par exemple avoir 2 morts, et l’autre que 1. C’est complètement aléatoire dans la logique.

Mais c’est juste pour imposer l’idée de Répression et justifier les radars c’est tout.





Oh, le nombre d’accidents, et le nombre de blessés sont également comptés aussi. Mais par contre on communique surtout pas dessus parce que ces chiffres là, eux, sont en augmentation. Il y a eu en particulier une augmentation importante du nombre de blessés graves en parallèle de la baisse de la mortalité lors de l’introduction des radars automatiques sous Sarko : forcément on a changé à cette époque les critères pour considérer que quelqu’un était un « mort de la route » ; avant c’était les décès dans les 30 jours suivant l’accident, désormais c’est 2 jours ou un truc comme ça, résultat on ne compte plus comme « morts de la route » que ceux qui arrivent morts à l’hôpital - la plupart des autres sont souvent conservés sous respirateurs plusieurs jours avant que la famille accepte leur mort -, et on ne compte plus tous ceux qui décèdent de leurs blessures après coup.



Forcément, en réduisant la vitesse, on réduit la gravité des accidents, on peut même juste arrêter de rouler tant qu’à faire. Par contre on augmente la somnolence et le manque d’attention, qui sont la première cause d’accident sur autoroute, donc les accidents, eux, augmentent (et en parallèle le principal contributeur à la baisse de mortalité est l’amélioration de la sécurité des véhicules).







Cara62 a écrit :



Dernière chose, on se focalise sur la vitesse alors qu’elle n’est responsable que de 13 des morts. Certes c’est beaucoup, mais alors, pourquoi il y a aucun efforts sur les mecs bourrés qui conduisent ? Là on fait abstraction totale du reste pour ce focaliser uniquement sur la vitesse, vu que c’est facile de se faire des sous sous avec les radars automatiques.





Et encore, « responsable », ce n’est en général pas le cas. Si un mec s’endort au volant et se fout dans le décors, qu’il roule à 120 ou à 180 la cause est la même : la somnolence ; sauf que derrière la SR va considérer que pour le mec à 180, la cause c’est la vitesse… De la même manière, si un mec à 110 déboîte sans regarder sous le nez d’un mec à 130, la cause c’est le mec qui déboîte ; si maintenant le mec derrière roule à 150, d’un coup pour la SR, la cause ça devient le mec qui roule à 150…







Cara62 a écrit :



Et dire qu’ils veulent encore abaisser la limitation de la vitesse…. Sur des formules qui n’ont jamais été vérifiées,



Comme le -1% de vitesse = -4% de morts. (ou d’accidents je ne sais plus)





De mort a priori, mais avec une augmentation des accidents et des blessés graves en contrepartie (et sincèrement, je préfères personnellement me retrouver à la morgue que dans un fauteuil roulant à vie en étant défiguré, mais chacun ses préférences…). Mais bon c’est juste le résultat du dogmatisme aveugle des associations de “victimes” de la route, qui sont très écoutées (surtout celles fondées par les plus stupides possibles) alors qu’absolument pas représentatives. Par contre les motards, pourtant les plus représentés parmi les victimes de la route (et je rappelle que dans 60% des accidents entre un motard et un autre véhicule, c’est l’autre véhicule qui est en tord), eux, sont complètement ignorés, et on continue allègrement despuis des années :





  • à faire des bordures en métal non doublées : en cas d’accident, les motards se font régulièrement décapités.

  • utiliser des bandes plastiques collées pour la signalisation au sol plutôt que de la peinture, alors que ces bandes sont de vraies patinoires pour les motards dès qu’il a plu

  • taxer à 19,6% plutôt qu’à 5,5% un équipement de sécurité indispensable et obligatoire qu’est le casque, qui doit être remplacé au plus tous les 5 ans

  • etc.











    Cara62 a écrit :



    Et ouais, et pourtant c’est la gauche au pouvoir là, encore un point de plus pour dire que c’est la même chose que les autres et de continuer à dire “Tous pourris”.





    Ça fait malheureusement un moment qu’on s’en était aperçu. Je rappelle d’ailleurs que c’est quelque chose qui avait été relevé à l’époque par certains dans le duel sarko - royal : elle était tout autant pour le contrôle sanction automatisé que le nain.







    Cara62 a écrit :



    “Pays de merde.”





    Effectivement, mais ce n’est pas mieux ailleurs, donc plutôt « Monde de merde ». Et c’est pas prêt de s’arranger…







    Natsume a écrit :



    Besoin de fric peut etre, mais les gens sont tellement cons qu’ils préfèrent donner leur fric en amendes plutot que respecter le code de la route.

    Les radars ont de beaux jours devant eux…





    Oui, c’est sûr que c’est mieux de respecter la limite de vitesse qui est quasiment jamais justifiée par l’état de la route, les véhicules modernes, et la circulation, et de progressivement s’endormir et causer un accident que de rouler un peu au-dessus (ne pas rouler très en-dessous de la vitesse qui serait la vitesse la plus adaptée aux conditions de la route et de la circulation maintient la vigilance) avec moins de risque de s’endormir. Sincèrement, à 130 sur une autoroute à 3 voies en bon état (il est vrai que c’est de plus en plus rare) quand il n’y a pas trop de circulation, il est vraiment difficile de maintenir son attention, et on en arrive très vite à relâcher son attention si ce n’est à somnoler, et c’est la la cause première des accidents sur autoroute… Un dépassement de la limite de vitesse est très rarement de la vitesse excessive, la très grande majorité des limites de vitesse n’étant pas adaptées.



    Mais forcément, lutter contre les vraies causes (inattention, somnolence, non respect des distances de sécurité, déboîtement sans clignotant et/ou sans regarder, déplacement dans la file du milieu ou la file de gauche alors qu’il n’y a personne à droite, circulation avec un bras sur la portière, etc. - et en agglomération refus de priorité), ça coûte plus que ça ne rapporte, alors que foutre des radars partout c’est bien ça fait genre on fait quelque chose, et ça rapporte beaucoup de pognon ; ça n’a par contre à peu près aucun effet sur les causes d’accidents, ça en limite juste un peu la gravité en réduisant la vitesse moyenne (mais dans ce cas autant aller plus loin : 50 maxi sur les autoroutes, 40 sur les voies rapides, 30 sur les grandes artères en villes, 20 dans les rues plus petites, et 10 à proximité des écoles ou des quartiers commerçants, on n’aura presque plus de morts comme ça…).







    Alianirah a écrit :



    Dans d’autres pays les limitations sont bien plus faibles, les routes d’autant plus agréables à pratiquer, le temps d’observer notre environnement, de prévoir des ralentissements, la possibilité pour les personnes agées de rouler sans être un danger pour les autres…





    Les personnes âgées qui ne voient plus bien ou n’ont plus de bons réflexes sont et seront toujours des dangers pour les autres, quelle que soti la vitesse : la seule chose c’est qu’au lieu de tuer quelqu’un, ils le foutront dans un fauteuil roulant pour le reste de sa vie…



    De l’autre côté il y a aussi (même si c’est de moins en moins le cas à cause des lobbys dogmatiques bien pensants) le cas de l’Allemagne avec de nombreux tronçons d’autoroutes sans la moindre limite de vitesse (et qui dans l’ensemble il y a encore 10 ans étaient en moins bon état que les autoroutes françaises et moins bien signalées), y compris des tronçons à seulement deux voies : et pourtant ils n’avaient pas plus de morts sur autoroute que non ; et non, ce n’est pas qu’ils « conduisent mieux » (y a qu’à les voir quand ils roulent en France hein, mais aussi chez eux) ; par contre en Allemagne, plutôt que de travailler uniquement sur la vitesse, ils travaillaient sur les vraies causes : ça fait des années qu’ils ont des véhicules de police qui circulent sur les routes, non pas avec des radars cachés comme ce qu’on va faire pour faire du pognon, mais qui contrôlaient les causes d’accidents : non respect des distances de sécurité, véhicule qui zig zag parce que le conducteur s’endort, changement de file sans clignotant, circulation trop à gauche quand on peut être plus à droite, etc.).



    Par contre en France, on voit que la vitesse, qui n’est pourtant qu’un facteur aggravant. J’ai vu d’ailleurs sur la route entre Agen et Cahors un tronçon particulièrement typique de la connerie de la SR en France : un panneau indiquait que sur les 10 km qui suivait, il y avait eu plusieurs morts l’année d’avant ; jusqu’ici OK, sauf que juste après le panneau, on arrive dans une série de virages légers mais sans visibilité aucune (mais vraiment aucune) avec par contre une impression de visibilité et… oui, on avait le droit de dépasser… Par contre c’était limité à 70 hein, vu que y avait eu des accidents (sachant que dépasser à 70 dans de telles conditions serait encore plus dangereux que de dépasser à 90, mais dépasser tout court devrait juste ne pas être autorisé).



    Quand par dogmatisme on considère la vitesse comme cause quasi seule cause d’accident (avec l’alcool), on en vient à ignorer les vraies causes, et non seulement à ne pas lutter contre, mais à les renforcer indirectement. Du beau boulot.







    Alianirah a écrit :



    Mais les limitations, suffit de les respecter, c’est le contrat pour avoir et garder son permis de conduire. Ceux qui ne sont pas d’accord avec ce principe se cassent ou prennent le vélo, et ne créent pas un danger pour les autres.





    Ah mais les vélos, il va falloir commencer à leur mettre des plaques d’immatriculation et des compteurs de vitesse, parce que sincèrement là sur Paris, y a bien maintenant la moitié de la ville où en vélo je dépasse sans problème les limitations, sauf que je n’ai aucun moyen de le contrôler, et de toute façon les flics ne s’en préoccupent pas non plus (c’est vrai quoi, les vélos ont tous les droits aujourd’hui, quitte à ce que ça crée des situations accidentogènes comme la stupidité de leur permettre le contre sens dans la plupart des rues de Paris, ou leur permettre de griller les feux rouges…)







    slave1802 a écrit :



    Si l’autoroute passe réellement à 110, va y avoir du monde sur les nationales…et à l’hôpital, je ne sais pas vous mais à 110 sur une trois voie,s j’ai tendance à piquer du nez !





    Oui on le sait, la réduction de la vitesse augmente la somnolence, mais vu que par dogmatisme on considère que c’est la vitesse le problème, on en vient à renforcer les principales causes d’accidents. Et effectivement, ça va déporter une partie de la circulation sur les nationales, qui sont des routes beaucoup plus accidentogènes que les autoroutes : là encore par dogmatisme on va se retrouver à renforcer les causes d’accidents.







    maestro321 a écrit :



    C’est pour ça que je parle “d’autres joyeusetés” genre les bandes rugueuses.





    Ah, les fabuleuses bandes rugueuses… C’est bien avec des trucs comme ça, si tu n’as pas ralentis avant d’arriver dessus, et que tu te retrouves à avoir besoin de ralentir à cause d’un danger quelconque, bah d’un coup ton freinage est beaucoup moins efficace : fais le test, essaie de freiner sur des bandes rugueuses, tu verras c’est très drôle (et encore plus en moto d’ailleurs).







    Drepanocytose a écrit :



    Alors qu’à 130 tu ne piques pas du nez ?

    C’est quoi cet argument ? C’est le fait que la route soit monotone qui est endormissant, à 110 comme à 130 ou à 90….

    Quand on roule sur les routes du nord droites comme des i sur des dizaines de bornes entourées de champs de betteraves à perte de vue, on s’en rend compte…





    Fais le test tu verras : plus tu es en-dessous de la vitesse la plus adaptée à l’état de la route, ton véhicule, et la circulation, et plus il est difficile de maintenir son attention.







    Otakon a écrit :



  • réduire la consommation de carburant





    Ce n’est pas toujours le cas, loin de là… Il y a une question de régime moteur qui est très importante. Descendre de 130 à 110 signifiera pour beaucoup de véhicules une circulation à faible régime moteur avec mauvaise combustion et sur-consommation, sans vraiment la possibilité de passer en 4e parce que là le régime moteur sera trop élevé pour de la vitesse constante.







    Drepanocytose a écrit :



    Les sociétés d’autoroute sont privées, la plupart du temps…. Rien à voir avec les caisses de l’état.





    Leurs tarifs sont néanmoins encadrés par l’État. Mais il est vrai que Sarko a récémment bradé des concessions d’autoroutes aux copains en leur permettant une grosse augmentation des péages leur permettant de rentabiliser l’investissement en à peine 2 ans…







    TZDZ a écrit :



    T’as la moindre source pour ça ?



    Car tous les calculs que j’ai vus, et les constations que je fais moi même sur ma voiture m’indiquent qu’à part le cas de la faible vitesse sur une pente forte, tu as toujours intérêt de rouler à faible régime. C’est con, une vitesse moteur plus faible = moins de travail des forces de frottement… Il suffit regarder sa consommation instantanée.





    À faible régime moteur, la combustion est moins bonne et donc le rendement du moteur moins bon, donc surconsommation (et augmentation de la pollution soit dit en passant).







    trash54 a écrit :



    euh 70km/h en 5e voir 6e ça passe impec (même 50 en 6 <img data-src=" />)





    Et tu consommeras plus et pollueras plus… Sans compter que tu n’auras plus aucune reprise, ce qui dans certains cas signifie que tu ne pourras pas éviter un accident (oui, il faut parfois accélérer pour éviter un accident, et si tu n’as aucune reprise, tu peux oublier, sans compter le fait de s’insérer dans une file - supposons que tu es à 60 dans la file du milieu et veux t’insérer dans la file de gauche à 70 - qui nécessite d’accélérer pour se mettre à la vitesse de la file : sans reprise ça va te prendre plus de temps et donc tu seras dangereux)







    astrapak a écrit :



    Et puis merde, les gens qui mettent une demi heure à dépasser quelqu’un c’est lourd franchement, tu vas pas faire un carambolage parce que tu dépasses la vitesse autorisée de 5km/h pendant 10 secondes …





    Au contraire, il est recommandé d’avoir un différentiel de vitesse suffisant pour dépasser, et sur route il est même supposé être d’au moins 20 km/h (mais avec le dogmatisme sur la vitesse, on se retrouve de plus en plus avec des gars qui sur nationale vont dépasser le mec de devant qui roule à 85 km/h en roulant eux-même à 90 km/h, et qui vont te dire qu’ils ne sont pas dangereux, parce qu’ils « respectent la limite de vitesse »). C’est certes moins important sur autoroute, mais ça l’est quand même : moins tu restes de temps à côté d’un autre véhicule, plus tu diminues les risques (coup de vent qui te fait te déporter, véhicule de droite qui est obligé de faire un écart pour éviter un danger, etc.). Les gars qui dépassent sans vraiment aller plus vite que ceux qu’ils dépassent sont particulièrement dangereux.







    astrapak a écrit :



    Je suis d’accord qu’il y’a des connards sur la route qui ne te respectent pas mais ça va dans les deux sens, la courtoisie au volant ce n’est pas uniquement respecter les règles, c’est aussi gêner les autres le moins longtemps possible.



    Je parle en règle générale mais un mec qui fait exprès de te faire ralentir il n’est pas moins connard que le type qui te suce le pare choc et te fait des appels de phare. Parfois les gens feraient mieux de se regarder rouler avant d’apprendre aux autres de le faire.





    Gros +1. Malheureusement ça ça se trouve de moins en moins, en grande partie à cause de la focalisation sur la vitesse, qui fait que les abrutis se croieint tout permis du moment qu’ils respectent la limite (gêne à la circulation, déboîtement sans regarder souvent sans clignotant - mais s’ils le mettent ils considèrent que ça leur donne la priorité… -, bras sur la portière, etc.)







    Natsume a écrit :



    En France, la grande majorité des limites de vitesses sont là pour des raisons de sécurité. Si, si. ET ne sont pas abusives.

    Sans forcément tuer, ne pas les respecter revient à mettre en danger les autres. Voitures, deux roues, piétons.





    La majorité des limites sont abusives, et de plus en plus chaque jour avec la prolifération des tronçons à vitesse plus réduites sur les autoroutes.



    Ces autoroutes ont été conçues initialement pour rouler à 130 avec ce qu’on qualifierait aujourd’hui de poubelles, qui ne pouvaient pas[b/] aller plus vite [b]dans de bonnes conditions. Depuis la technique s’est très largement améliorée sur les voitures, leur permettant de rouler plus vite que les véhicules d’avant sans prendre plus de risques, et la technique des revêtements et de l’évacuation de l’eau sur les routes s’est également améliorée. Aujourd’hui la limite de 130 sur autoroute est quasiment partout abusive. Et on parle de la diminuer alors qu’il conviendrait de la relever…







    Cartmaninpact a écrit :



    Sinon ce qui me gène le plus dans la répression de la vitesse actuelle, c’est que ça à créé un nouveau comportement dangereux qui se généralise: tout le monde au petit train au limitateur de vitesse sur la voie du milieu, mais comme pas une voiture n’a le même compteur, les voitures finissent par se coller à quelques centimètres les une des autres, jusqu’à ce que le conducteur surpris s’en aperçoive et soit pile, soit se jette dans la voie de gauche au dernier moment, et ça ça me met en danger quant je roule pépère à vitesse libre sur ma voie de gauche <img data-src=" /> (je vois ça tous les jours sur l’A4 en allant bosser)





    Mais tu ne comprends pas, ils respectent la limite de vitesse, donc forcément ils ne sont pas dangereux…







    NonMais a écrit :



    Mais non qu’on te dit!! c’est la vitesse la cause de tous nos malheurs.

    Le gars qui reste sur la voie du milieu et qui ne se rabat jamais n’est jamais inquiété

    Le gars qui colle la voiture de devant n’est jamais inquiété

    Le gars qui ne regarde jamais dans son rétro et déboîte sans regarder alors que tu es en train de le doubler n’est jamais inquiété

    Le gars qui sort comme un escargot de la voie d’accélération juste devant ton nez n’est jamais inquiété

    Le gars qui téléphone et fait des zigzag sur la route n’est jamais inquiété (ou si peu)

    etc… etc…

    Mais non si tu es à 150km/h sur une autoroute déserte, tu es un dangereux criminel!





    <img data-src=" />





    lolotwingo a écrit :









    <img data-src=" />







    psn00ps a écrit :



    Tu vas donc à fond pour rien, ta moyenne étant normale. Perte pour les autres et toi avec.





    Pas pour rien non : avec le même temps de parcours, lui il aura fait des pauses régulières et évitera de s’endormir au volant quand toi t’auras roulé tout le temps à la limite sans faire de pause et t’enverras dans le décors après t’être assoupi.







    Elwyns a écrit :



    Sans oublier que si on veut doubler qqn à 80kmh sur une départementale à 90 ,enfin je parle pour moi, je dépasse jamais à 90 mais j’accélre à 100 - 105 pour vite le doubler .. en gros le temps de dépasser tu dois rester à 80-75 kmh après. Vous me direz , mais t’as qu’a pas le dépasser le vieux :o





    Justement sur route tu as le bon comportement : accélérer pour dépasser. Sauf qu’en fait dépasser quelqu’un qui roule à 80 quand c’est limité à 90, tu n’as juste pas le droit : en effet tu es tenu d’aller au moins 20 km/h plus vite que le véhicule que tu dépasses, donc soit tu ne respectes pas ça (et tu es particulièrement dangereux, ce qui est la cas de la très grande majorité de ceux qui « respectent la limite de vitesse », parce qu’ils vont doubler quand même), soit tu ne respectes pas la limite de vitesse.



    Mais pour les dogmatiques qui pullulent un peu partout, tu seras considéré comme un dangereux criminel alors que le vrai danger qui doublera en restant à 90 lui sera considéré comme un bon conducteur…







    sepultura666 a écrit :



    Quand un connard causera un accident de la route en roulant à 200km/h et que t’aura perdu un proche (parent, enfant, frère) peut-être que tu reconsidèrera la question, en attendant, ton approche est nombriliste (assez “Français” je l’avoue)



    Les limitations sont là pour une bonne raison, oui, il faut réprimander les contrevenants, (amendes, retrait de points, etc…) et oui, c’est normal. Sinon, et par extension à ta manière de “réfléchir” :



    • Les lois çà ne sert à rien

    • Les amandes çà ne sert à rien

    • Les services de l’ordre çà sert à rien







    • Laisse moi deviner, s’il y a un accident parce qu’un mec a déboîté sans regarder sans clignotant sous le nez de celui qui roule à 200, ce sera la faute de celui qui arrivait à 200 ?







      Elwyns a écrit :



      en sachant que bcp conduisent comme des billes , sans clignotant , non ..





      Le problème dans ce cas n’est pas la vitesse, mais justement qu’ils conduisent comme des billes sans clignotant, et ce sont eux les vrais dangers, qu’on laisse pourtant tranquille parce que les dogmatiques ont décidé que le seul et unique problème à traiter c’était la vitesse (entre autres parce que ça rapporte, même si ce qu’on fait n’a aucune efficacité en termes de sécurité routière du fait que ce n’est quasiment jamais la cause, et que de toute façon on ne fait pas les contrôles dans les endroits où justement la vitesse est cause d’accidents - parce que pas assez rentable financièrement).





      Drepanocytose a écrit :



      Les autobahn no limit sont en décroissance, pour ca il faut des routes impeccables, sans trop de virages, et prévues pour au niveau des rayons de courbure, etc….





      Lorsque les autoroutes sans limite de vitesse étaient encore monnaie courante en Allemagne, leurs autoroutes étaient parmi les pires d’Europe, et elles étaient quasiment toutes à 2 voies, avec des courbes pas plus « optimisées » qu’en France, et pourtant ils n’avaient pas plus d’accidents. D’ailleurs la suppression de nombre de ces tronçons sans limite de vitesse n’a absolument rien changé à l’accidentologie.







      Elwyns a écrit :



      Et justement, en Allemagne il y a un taux de voitures ultrapuissantes bien plus élevé qu’en France…. Et le mode de conduite allemand c’est : tu laisses passer celui qui carbure à blinde sur la voie de gauche… Priorité au fou furieux, quoi.. Alors qu’en France c’est priorité à celui qui se rabat…. C’est pas vraiment comparable.





      Et ils ont aussi énormément de poubelles pas puissantes, donc un écart de vitesse très largement supérieure entre les plus lents et le s plus rapides, et pourtant… Quant au fait de se rabattre quand quelqu’un de plus rapide arrive pour le laisser passer, c’est ce que tu devrais faire en France également si tu respectais vraiment le code de la route. Mais c’est vrai que maintenant en France, si on respecte la limite de vitesse, on a tous les droits, surtout celui de conduire comme un danger public sans faire attention le moins du monde à ce qui nous entoure… Et surtout, ne pas faire de la conduite dynamique en adaptant sa vitesse à l’environnement, si j’ai le droit à 90 je vais à 90 avec ma poubelle à roulettes même si l’état de la route, la visibilité, la circulation, ne permettent pas de rouler à plus de 70 dans de bonnes conditions même avec une voiture qui a une bonne reprise, de bons freins, et une bonne tenue de route. Merci les années de répression aveugle des excès de vitesse au lieu de lutter contre les vrais problèmes et d’apprendre aux gens à faire la différence entre excès de vitesse et vitesse excessive.







      Elwyns a écrit :



      Sinon c’est une erreur de croire que tu pourras être en no limit sur des centaines de bornes : ca concerne des tronçons bien particuliers…





      Il y a encore 10 ans tu pouvais faire des centaines de kilomètres sans limite de vitesse, du moins à certaines heures (suivant le parcours, en journée ou la nuit - il y avait des limites localisées en journée sur certains parcours pour cause de trafic important, et la nuit sur d’autres parcours pour cause de zone urbaine et donc de limitation du bruit).



      Maintenant oui les politiques ont cédé au dogmatisme et il n’y a presque plus de tronçons non limités en Allemagne, sans aucune incidence sur l’accidentologie (la réfection de la plupart de leurs autoroutes par contre a eu un certain effet, ainsi que leur lutte contre les mauvais comportements au volant, en particuliers des chauffeurs de poids lourd - certains se coupaient les ongles de pied au volant, si si… - et la poursuite de leur politique routière pour le respect des distances de sécurité et de l’usage du clignotant - alors qu’en France, tu roules à gauche quand il n’y a personne à droite, en collant la voiture de devant, avec les flics derrière, aucun problème, tu roules à 150 en respectant les distances, en regardant avant de déboîter, avec le clignotant, et on te fout une amende… tout l’opposé quoi.







      Elwyns a écrit :



      comme je disais plus haut, c’est aussi par temps de pluie ou en pleine nuit que certains ne mettent pas leur feux .. j’ai pas d’excellent yeux ,ni de mauvais ( je ne porte pas de lunette ) mais par temps de pluie , ciel orageux gris, de fin d’après midi soirée , une voiture grise sans feu c’est pas évident à voir dans l’instant rapide dans les retros





      Ou ils mettent les anti-brouillard en permanence. Les anti-brouillards avant ne devraient pas être mis par temps de pluie (à un moment c’était pénalisable d’ailleurs), uniquement les anti-brouillards arrière par forte pluie, sauf qu’ils le font tous (incités à ça d’ailleurs par les voitures depuis 20 ans qui t’obligent à mettre les anti-brouillards avant pour mettre ceux à l’arrière…). Résultat ils passent leur temps à éblouir les véhicules en face, voire ceux devant eux parce que pour changer ils les collent trop (et autant quand t’es derrière des anti-brouillards arrière, tu peux - et doit - prendre plus de distance pour pas être ébloui, quand t’es devant des anti-brouillard avant qui te collent trop, impossible.



      Globalement ici d’ailleurs ça me fait repenser que dans le meilleur des cas dans les tunnels il y a au plus un véhicule sur deux qui a ses feux d’allumés, sachant que la plupart des véhicules modernes le font automatiquement. Et pourtant on voici une proportion nettement plus importante que ça de gens qui viennent expliquer que ceux qui ne respectent pas les limites sont des chauffards, que la règle c’est la règle il faut la respecter… Il faut croire que l’on est dans une anomalie statistique, ou alors que nombre d’entre eux sont les premiers à être particulièrement dangereux en n ‘allumant pas leurs feux dans les tunnels, ce qui est pourtant une obligation…







      Lolipop a écrit :



      Je ne sais pas toi, mais moi je n’ai jamais été contrôlé pour l’alcoolémie depuis que j’ai mon permis, c’est à dire une quinzaine d’année.





      Moi ça m’est arrivé une fois en pas loin de 15 ans, et juste parce que je passais à 6 heure du matin à place d’Italie un samedi matin, et qu’ils étaient là pour contrôler tous ceux qui rendre de boîte / bars complètement beurrés (avant de comprendre la logique, ça fait vraiment bizarre quand t’as la tête dans le cul pour cause de lever aux aurores quand le flic te dit de rester dans la voiture quand tu veux sortir pour lui donner tes papiers, que c’est un contrôle d’alcoolémie ;)



      Les contrôles de vitesse, ça y en a plein à tous les coins de rues par contre. Et les contrôles de stupéfiants, ça c’est à peu près zéro, ils le font même pas quand ils ont des doutes. En revenant de Nantes je m’étais fait arrêté pour excès de vitesse sur l’autoroute. Pendant que je causais à la gendarmerie avec les gendarmes, j’entendais un peu ce qui se passait dans le bureau d’à côté pour un autre véhicule pris pour excès de vitesse, ça a donné un truc du genre :

    • flic : pourquoi vous rouliez pas droit comme ça (ouais le mec était en excès de vitesse, mais avant tout surtout il zig zaguait dans sa file, sauf que s’il avait fait ça à 130 il n’aurait pas été arrêté, bien que super dangereux) ?

    • eux : bah je suis un peu fatigué on a pas mal roulé

    • flic : ah vous veniez d’où ?

    • eux : de

    • flic : bon on va faire un contrôle d’alcoolémie (je pense qu’il a eu la même réaction que moi à savoir « de loin ? on est à 100 bornes de Nantes là, c’est même pas 1h de route… »)

    • contrôle alcoolémie négatif

    • pas de contrôle de stupéfiants (à peu près certains que les mecs étaient juste complètement défoncés).







      NonMais a écrit :



      J’aime bien ta notion de “con”. Qu’ils te fassent chier à te faire des appels de phare=&gt; ce sont des cons. Que tu ralentisses pour les faire chier=&gt; là toi, non tu es dans ton bon droit.

      En fait, tu es le gentil quoique tu fasses et les autres se sont les méchants… change rien. L’important c’est d’être sûr de soi et de le vivre bien.









      eliumnick a écrit :



      Malheureusement, il y a plein de gens comme ça… à se dire “moi je respecte la loi je suis un bon citoyen j’ai le droit de ne pas respecter les autres qui ne sont pas aussi bien que moi”….



      Perso, j’adore quand je suis en excès de vitesse (+3040) et que je vois un type qui me rattrape. Direct jme rabats (enfin si je peux, quitte à accélérer pour me rabattre plus loin) pour le laisser passer…





      <img data-src=" /> à vous deux.



      Y a le même genre avec les voitures qui vont faire exprès de se serrer à droite pour empêcher les motards de passer sur le périph.







      traxnada a écrit :



      Hum…

      Personnellement je fatigue peu en dessous de 150kmh, meme si je roule 10 ou 12h… Mon probleme n’est pas la fatigue, c’est le zombifiage… Je me surprend a me perdre dans mes pensées, regarder le paysage… Bref, je ne suis clairement pas attentif.

      En roulant pendant 5h a disons 190kmh de moyenne (ce qui est bcp pour l’allemagne, a cause des travaux notamment), j’arrive à destination clairement plus fatigué, mais je pense que c’est de la bonne fatigue… Garder son attention, ses reflexes et ne JAMAIS destocktcher les yeux de la route pendant 5h, ca fatigue… Mais au moins ca a été 5h ou j’ai fait attention a ce que je fesais…. EXTREMEMENT attention, d’ou la fatigue en arrivant.

      Et non, on se s’endors pas au volant en roulant vite en allemagne… (coups de freins, changement de ligne, travaux, zone limitées…etc, le tout en roulant le plus vite possible, ca tient vraiment eveillé lol)





      Tout à fait. D’ailleurs je rajouterais que si t’arrives frais comme un gardon après 7h de route, même en faisant des pauses régulières, c’est justement un indice que tu ne fais pas assez attention à la route, et que tu es dangereux. Conduire, ça fatigue parce qu’il faut être particulièrement vigiliant ; si ça ne te fatigue pas, c’est que tu n’es pas assez vigilant.





      NeoYoH a écrit :



      Sauf qu’ici on est en France, et c’est pas pcq tout le monde veut se tuer sur les routes a 140 que je ferais de même… Si c’est 90 c’est 90 point la loi est la loi même si elle est conne…





      Tu sais quoi ? Je suis prêt à parier que si je te suivais sur 100 km, je pourrais relever au moins une dizaine d’infraction au code de la route, à commencer par des distances de sécurité non respecté, un clignotant oublié, des feux pas allumés dans un tunnel ou simplement quand la situation le justifie, ou a contrario des feux allumés quand ils ne devraient pas l’être (quoi que sur ce point ils ont peut-être enlevé ça du code quand ils ont décidé de leur expérimentation des feux de jours, mais je ne l’ai pas vu passer donc d’un point de vue du code de la route il doit toujours être interdit de circuler en feu de croisement par beau temps en journée - et j’en sais quelque chose, j’ai manqué de me prendre une prune sur Paris après avoir oublié d’éteindre mes feux en sortant de mon parking il y a une dizaine d’années), ou même circulation dans une file trop à gauche sur autoroute/périph quand tu pourrais rouler plus à droite, ou bien de ne pas avoir les deux mains disponibles pour la conduite, etc. Faut dire sans te connaître je prends pas trop de risques, je peux dire ça de 99% des conducteurs.



      Donc bon, arrêtes l’hypocrisie avec ton “la loi c’est la loi” (d’autant que quand la loi est mauvaise, c’est ton devoir citoyen de ne pas la respecter, et sur la route je le fais systématiquement quand respecter la loi signifie m’exposer à plus de risque d’accident).







      Ti Gars du Nord a écrit :



      j’ai donc l’impression, qu’il y a quand même une certaine habitude à prendre



      un ancien pilote automobile avait parlé de faire passer un permis “haute vitesse” se qui peut etre une bonne solution





      Les besoins pour la conduite à grande vitesse sont les mêmes que pour la conduite à faible vitesse, à l’exception de capacité de contrôle du véhicule quand on entre dans la « vitesse excessive » (limite d’adhérence, trajectoires au poil qui ne tolèrent pas le moindre imprévu, etc. C’est à dire quand on touche au pilotage). Le problème est que ce n’est pas quelque chose qu’on demande au permis, et que la très grande majorité des conducteurs ne savent pas faire, avec une proportion encore plus grande parmi ceux qui « respectent toujours la limite » (et font chier volontairement ceux qui vont plus vite en faisant exprès de les bloquer bien souvent). Ça commence par avoir une vigilance infaillible, ce qui soit dit en passant est très difficile lorsque tu roules plus lentement que ce que l’environnement permet, d’autant plus difficile que tu es loin de cette vitesse (sur autoroute en circulation normale, avec une voiture correcte - pas une 106 kid quoi -, cette vitesse est quelque part entre 150 et 180 en fonction de la circulation et de l’état de la route).



      Le truc c’est qu’un véhicule ce n’est pas qu’une commodité avec lequel il suffit de suivre quelques règles sans réfléchir et faire attention : c’est une attention de tous les instants, et adapter sa vitesse à tout moment à l’environnement.







      monpci a écrit :



      Oui “un coup classique” comme l’AX à l’époque, le moteur était maintenu par quelque soudures, au moindre choc il tombait et la voiture hs mais parallèlement ça protégeait aussi les occupants (du moins c’est que l’on m’a dit corrigez moi si je dit des conneries)





      Oui les citroen étaient du « papier carton » déjà à l’époque, et ça les rendaient bien plus sûres que les gros tanks d’alors. Le moindre accident les rendaient inutilisables, mais dans le véhicule t’avais quasiment rien.



      J’avais eu comme ça des amis qui se suivaient, et à un feu l’AX est rentrée dans le Chrsyler Voyager à à peu près 50km/h : l’AX était HS bien sûr, mais les occupants n’ont à peu près rien senti ; le Voyager avait à peine une égratinure sur le parechoc, mais les occupants avaient eux très largement ressenti le choc.







      traxnada a écrit :



      […]

      J’ai malheuresement peur que le cas de la France pour ce qui est de la vitesse sur autoroute soit une cause perdue d’avance… Quand je lis certains commentaires ici, j’avoue vouloir me cogner la tete sur mon clavier :)





      <img data-src=" /> (aussi pour la partie non citée)





      NonMais a écrit :









      Même expérience que toi.



      Dans la catégorie de ceux qui ne pensent que« limite de vitesse » (mais bon pas dans les patelins sur la nationale bien sûr), il y a quelques années en allant au ski, on s’est retrouvé dans une tempête de neige. Dans le patelin en bas de la vallée, je devais être à 30 à l’heure avec les chaînes, j’avais une file de 50 connards qui me collaient au cul (c’était limite s’ils klaxonnaient pas)… Il a fallu que sur un rond point je perde un peu l’adhérence et chasse de l’arrière pour qu’après sur la route bizarrement ils ralentissent (quasiment immédiatement ils se sont retrouvés plus de 500m derrières). Mais avec le dogme de « la vitesse tue (et on s’occupe que de ça) », l’effet derrière c’est de renforcer les comportements réellement dangereux.







      NonMais a écrit :



      Et puis voiture puissante ne veut pas dire grosse berline ;)





      Tout à fait d’accord. Et dans de nombreux cas, si on aime la conduite on ne prendra pas justement une « grosse berline » qui pour beaucoup sont certes puissantes et permettent d’aller à 250, mais sont surtout des veaux qui n’ont aucune reprise. Et quelqu’un qui aime conduire préférera une voiture qui ne dépasse pas le 180, mais qui a de la reprise quelle que soit la vitesse et ne mets pas 5 minutes à passer de 130 à 180 (donc en général quelqu’un qui aime conduire ne prendra pas un diesel, diesel qu’il serait temps de taxer au moins au même niveau que l’essence soit dit en passant, étant donné que ça pollue plus…)







      misterB a écrit :



      Je ne me suis jamais autant chié dessus que sur cette route, il est commun qu’un camion déboite pour doubler son collègue alors que tu es déja a mi hauteur de la remorque <img data-src=" />





      C’est pour ça que, contrairement à ce que font la majorité des conducteurs, une fois que tu es au niveau du camion, tu accélères, pour rester le moins longtemps possible à côté (oui la majorité des abrutis ralentissent quand ils dépassent un camion histoire d’être à seulement 5 km/h de plus et bien faire chier tous les autres derrière - comme Otakon ?).





      psn00ps a écrit :



      On n’a pas du voir les mêmes reportages pendant l’été… ce comportement est surveillé par hélico et verbalisé.





      Ouais super, ça arrive une fois par an à un ou deux endroits pour qu’on puisse faire un petit reportage, et puis c’est à peu près tout. Bordel, quand les flics/gendarmes qui circulent sur l’autoroute sont bloqués dans la file de gauche par un abruti à 120 alors que y a personne dans les deux autres files, ils ne font absolument rien, donc faut pas trop me faire croire qu’il y a un quelconque risque pour ces abrutis là…







      gavroche69 a écrit :



      Ben en principe sur la route c’est justement en faisant attention aux autres que tu fais attention à toi, il me semble que ces deux choses sont totalement indissociables… <img data-src=" />





      Faire attention aux autres est même la première étape pour faire attention à soi sur la route (et c’est d’autant plus vrai en moto, parce qu’en moto, même si c’est l’autre en faute, c’est toi qui finira à l’hosto).





      emikabuy a écrit :



      Les bandes rugueuses a 200 d’apres mes souvenir ca ne fais q’une seule petite vibration sur toute la voiture au lieu de 11, donc pas vraiment efficace





      Oui les bandes rugueuses, si tu les prends à la vitesse indiquée, ça te bousille le dos et tu le sens bien passer, si t’accélères tu sens plus rien, pas contre-productif du tout (sans compte le fait qu’une fois sur les bandes rugueuses, ton freinage perd énormément en efficacité…)





      Bon, gros pavé au final, j’ai répondu à mesure que je lisais, avec plusieurs interruptions (donc forcément le sujet lui a continué d’exploser ;))



Le 04/09/2013 à 21h 27







Vieux_Coyote a écrit :



Comme tu dis, les chiffres sont assez étrange, passer de plus de 100 000 à seulement 15 requêtes, c’est un peu bizarre…





C’est peut-être qu’en février 2013 ils ont arrêté de les bloquer ? <img data-src=" />


Le 04/09/2013 à 21h 25







Soltek a écrit :



Ce genre de news est vachement réducteur quand même et fait fi de la réalité des solutions de filtrages qui sont moisis.





Ouais en même temps ils refusent de publier la liste des sites pour raisons de « sécurité », donc ils ne peuvent s’en prendre qu’à eux qu’on croie (ou plutôt fasse semblant pour ce qui est des lecteurs de PC INpact) que c’est vraiment des sites pornos et pas un firewall qui utilise des listes pourries mal configurées et mal catégorisées (en même temps ce serait pas plus reluisant pour le gouvernement, juste que ça toucherait la partie technique plutôt que les branleurs qui sont censés représenter le peuple).[/quote]


Le 04/09/2013 à 21h 20







ActionFighter a écrit :



La fausse excuse <img data-src=" />



C’est vrai que les pop-up de sites porno, il y en a à toutes les pages du Times et du Guardian <img data-src=" />





Bah non c’est vrai, ils vont sur des sites de « pirates » et il y a des pop-ups de pubs pour des sites pornos, c’est pas leur faute. Oh, on me dit qu’en fait le sites “pirates” c’est pas mieux… Bon bah, euh, nan mais je cherchais Ouinie l’Ourson en VOD légale et j’ai eu des pubs pornos à la place parce que… euh… le net c’est n’importe quoi et on laisse des sites non labellisés « PUR » apparaître avant la 200e page de Google. J’ai bon ? <img data-src=" />


Le 04/09/2013 à 20h 53







Oryzon a écrit :





  • Miser sur Meego. Ils auraient vendu plus à court terme, mais il faut également être aveugle pour ne pas voir que Nokia n’avaient pas les compétences et les reins suffisemment solides pour lutter contre Apple et Google. Si tu veux faire de l’analyse va jusqu’au bout : avec cette stratégie il y avait toutes les chances qu’ils suivent le même destin que BB.





    Nokia n’était pas seul, il y avait Intel derrière, qui était très investi, tant en termes humains que financiers (et avant que Nokia les lâchent ils avaient dépenser pas mal d’argent pour justement promouvoir la plateforme auprès des développeurs).







    Oryzon a écrit :



    Pourquoi ? Car faire un OS sympa, que les Geeks encensent c’est bien beau mais ce n’est pas le nerf de la guerre.





    Il n’était pas encensé que par les geeks, mais également par des magasines grand public (Bild en Allemagne) ou encore les iFans (et non un iFan n’est pas un geek).







    Oryzon a écrit :



    Pour lutter et attirer le grand public et les dev il faut avoir un écosystème entier cohérent et puissant.





    Déjà Meego utilisait Qt, et donc pouvait récupérer quasiment instantanément toutes les applications faites pour Symbian. Sans compter que les applications Qt demandent à peu près rien pour être portées sur un OS desktop (Linux bien sûr mais aussi Windows), même si en général il faut revoir l’interface (de fait).





    Oryzon a écrit :



    De ce point de vue MS était et est plus qualifier que n’importe qui d’autre pour réussir à pénétrer le marché, et pourtant même eux galèrent.





    Justement parce que ce n’est pas l’« écosystème » le critère principal, et même que la grande majorité des utilisateurs n’en ont rien à carrer. Autrement Android n’aurait jamais décollé étant depuis toujours un OS mobile. La convergence des devices, elle va probablement arriver d’ici quelques années, oui, mais au final sur ce plan Microsoft est encore plus loin que tous les autres : ils ont certes une présence sur les différents segments avec un OS qui s’appelle « Windows », mais au final il y a plus d’incompatibilités entre les différentes versions que pour les autres. L’« écosystème » Windows n’est que de façade. Par contre ce que prévoit Ubuntu est là un réel atout de ce point de vue là, et Ubuntu étant une distribution Linux, il y a fort à parier que leurs développements en ce sens seront open source également, et pourront donc bénéficier également aux autres distributions Linux (et donc à Meego s’ils étaient partis dessus). Enfin, avec la puissance d’Intel, s’ils n’avaient pas tout lâcher, ils auraient pu dès maintenant en être au stade qu’Ubuntu approche, à savoir une réelle convergence des supports avec un OS mobile qui devient un vrai OS desktop une fois docké (pour rappel, Meego c’était aussi les tablettes et l’embarqué (voitures, etc.).







    Oryzon a écrit :



    A part la carto et ce qui tourne autour, tout le reste était nouveau pour Nokia.





    Bah non, ils font des OS mobiles depuis des années hein, ils étaient jusqu’ici sur Symbian qu’ils prévoyaient de remplacer initialement par Maemo, devenu Meego après avoir fusionné avec le projet d’Intel. L’OS mobile, ils connaissaient beaucoup mieux que Windows (et d’ailleurs après le choix Windows et avoir viré tous les devs Qt, ils ont au final eu des recrutements de dev Windows et ont participé au dev de WP : il fallait bien, c’était le seul moyen pour eux d’avoir le support des technologies modernes). Au final ils ont continué à dépenser sur du dev d’OS, sauf que c’était sur un OS propriétaire au profit d’une autre entité (et sur lequel ils n’avaient initialement aucune compétence)…





    Oryzon a écrit :



  • Miser sur Androïd. Cela signifiait pour le coup renoncer à son gros point fort dans les services, la carto en se mettant en frontal avec Google.





    Tu peux faire du Android sans les services Google hein (cas d’Amazon en particulier).





    Oryzon a écrit :



    Niveau hardware cela signifiait aussi être en frontal avec Samsung.





    Et ? Samsung était déjà en pratique leur concurrent direct sur le marché global des téléphones, et d’un point de vue hardware Nokia restait très en avance. Par contre à passer sur Windows qui ne gérait pas les technologies de pointe, et à faire produire leurs téléphones par des sous-traitants qui font de la mauvaise qualité au lieu de les produire dans leurs usines à grande qualité, ils ont perdu toute cette avance en un clin d’oeil pour se retrouver au niveau technologique des téléphones d’Apple, et encore (soit 1 génération de retard au lieu d’avoir 1 génération d’avance).





    Oryzon a écrit :



    et d’une puissance financière et de production unique





    Nokia avait à l’époque et de loin la plus grosse capacité de production dans la téléphonie, devant Foxconn. Leur santé financière de l’époque (ils avaient de loin la meilleure notation de tous les constructeurs, ce n’est pas pour rien) leur aurait permis de continuer à grossir au moins aussi vite que Samsung si ce n’est plus. Même en passant au tout Android, Nokia aurait pu être le Samsung d’aujourd’hui, ou on aurait pu avoir un duel au sommet au lieu d’avoir un Samsung ultra dominateur et les autres qui prennent les miettes. Avec Windows ils n’avaient aucune chance. Rejoindre Android était bénéfique pour eux : de tout temps ils se sont différenciés avant tout par le hardware, où ils étaient les meilleurs ; ça tombe bien sur Android c’est la principale différentiation, étant donné qu’ils utilisent tous le même OS. À la place ils sont allés sur Windows, un OS qui supprime tous leurs avantages hardware à cause du désavantage software. Et pour la partie service, elle aurait été tout à fait à sa place sur Android : c’est l’autre point de différentiation sur Android, et là encore ils étaient très bon. La différentiation cosmétique, c’est tout à fait mineur, mais sur les points principaux de différentiation sur Android, Nokia étaient les meilleurs, et auraient du justement rechercher à se mettre sur ce terrain si vraiment ils voulaient abandonner Meego (ce qui n’avait aucun sens, en particulier avec le soutien d’Intel).







    Oryzon a écrit :



    Au contraire Nokia est handicapé par ses usine qui faisaient sa force auparavant car elles ne sont plus compétitives faces aux usines chinoises.





    Elles l’étaient toujours :



    • leurs usines en Asie étaient sur le même plan, utilisées pour l’entrée de gamme.

    • leurs usines en Europe étaient à la pointe, et la qualité des produits qui en sortaient était inégalée : c’est un des points qui faisait justement la force de Nokia et qui faisaient qu’ils étaient reconnus à travers le monde pour la très grande qualité de leur matériel.







      Oryzon a écrit :



      Quant à BB…





      Si BB avait sorti BB10 quand Nokia a sorti le N9 sous Meego, ils n’en seraient pas là. Aujourd’hui ils sont tombés tellement bas qu’ils ont perdu leur clientèle, et ils n’ont pas les moyens d’en reconquérir une. Nokia avait encore sa clientèle fidèle avant de décider de passer chez Microsoft.







      Oryzon a écrit :



      Voilà. Donc Elop est peut-être depuis le début à la solde de MS mais Nokia serait de toutes façons devenu un acteur mineur qui aurait du en passer par une restructuration meurtrière.





      Rien dans ce que tu n’as dit (une fois les erreurs corrigées) de soutient une telle affirmation. Les problèmes qu’avaient Nokia était sur la gestion des projets et les temps conséquents qui en résultaient pour arriver à un produit : ces problèmes avaient commencé à être résolu (en particulier ils avaient commencé à fournir la possibilité de mettre à jour d’une version de Symbian à l’autre, chose qu’ils ont perdue directement en passant sous WP - franchement l’univers Windows ou il faut modifier et recompiler les application Win8 pour qu’elles tournent sous Win8.1, et maintenir deux versions de l’application pour supporter les deux à la fois, c’est complètement aberrant), et l’aboutissement de Meego marquait justement la fin des problèmes principaux.



Le 03/09/2013 à 17h 03







elpetio a écrit :



ca marchait tellement bien qu’ils l’ont abandonné pour passer a android.





Euh, non, tu montres une fois de plus que tu parles de truc que tu ne connais pas. Bada a été lancé alors que Samsung était déjà sur Android pour le haut de gamme hein… Et ça a toujours été un OS pour l’entrée de gamme dans les marchés émergents.





elpetio a écrit :



Et dailleurs les alternatives den okia marchaient mais face a la concurrence c’était peine perdue. Bref on ne peut pas se contenter de chiffres betement sans un minimum de recul.





C’est bien beau de faire des affirmations comme ça tout en prétendant que ce que disent les autres avec des faits à l’appui c’est de la divination, mais toi, quand est-ce que tu sors ne serait-ce qu’une once d’argument ou même de chiffre (réel, et non bidonné) soutenant ce que tu avances ?







elpetio a écrit :



se contenter de qq chiffres et d’elements factuels, ca ne prouve pas grand chose. si il n’y a pas d’explications niun bon raisonnement derriere.





Pas notre faute si toi tu n’es pas capable de lire et comprendre le raisonnement qui allait avec les chiffres dans les analyses que l’on mentionne hein. Les raisonnements et explications ont été étalés des tonnes de fois.







elpetio a écrit :



Tu peux sortir 400 graphiques tres jolies mais ca navance a pas grand chose. si derriere tu te contentes par la suite de faire des conclusions trop hatives.

non on aimerait alors de vrais analyses mais en général on a juste trois a une courbe un article de presse pioché dans la toile et un message de 4 lignes. bref cest pas sérieux.





Encore une fois tu parles dans le vent, en affirmant des choses qui sont fausses (les analyses dont on te parles c’était pas un graphique piqué dans un article et 3-4 lignes). Mais bon, les analyses, arguments et explications qui soutiennent ce que tu affirmes dans un français calamiteux depuis tout à l’heure, c’est où ?







elpetio a écrit :



ben rien que le fait que le démarrage des tablettes ss android etait catastrophique montre que personne n’a prévu justement le succes de ces tablettes.





Faudrait m’expliquer dans quel monde un démarrage catastrophique implique que personne n’a anticipé que 2 ans après ça ferait un carton… Et justement la majorité des analystes à l’époque du lancement des tablettes Android prévoyaient que le début serait très difficile (en particulier à cause d’un début avec une version à part de l’OS, tu sais le Android 3 juste pour tablette dont Google est vite revenu après pour unifier les parties tablettes et smartphones avec Android 4), mais qu’il y avait de fortes chances qu’en quelques années elles domineraient.



Ce serait bien de pas réécrire l’histoire.







elpetio a écrit :



Non pas du tout tu fais encore tes prémonitions de paco rabane. la seule difference entre tessier et toi cest que tes croyances se sont réalisées mais ca ne veut pas dire que tes prévisions étaient justes. Et puis bon tessier prend un peu plus de drogue et de risques donc elle se plante forcément plus souvent.





Ah les belles attaques ad hominem toujours sans la moindre once d’argument…







elpetio a écrit :



mais décidemment si les analystes le saviaent pourquoi ils n’ont pas transmis leur brillant analysea nokia. zut alors! c’est dommage moi qui pensait que l’économie cetait une science exact!





D’une part, les analystes ont publié ces analyses hein. D’autre part, les documents remis par Nokia aux autorités des marchés américaines vis-à-vis de leur stratégie indiquaient clairement qu’Elop avait la même analyse (parce que bon quand tu fais un document qui commence par 20 risques critiques, chacun détruisant la stratégie s’il se produit, et que chacun de ces risques à plus de 90% de chances de se réaliser, tu sais que tu vas dans le mur… Quand quelques jours à peine après l’annonce de la stratégie, un des risques se réalise et que tu continue dans la stratégie, c’est au mieux de l’incompétence. Quand le 2e, le 3e, etc. se réalisent et que tu continues, c’est que l’échec était l’objectif initial, et que tu ne bosses pas pour Nokia mais pour Microsoft.



Encore une fois, c’était l’objectif recherché par Elop de sacrifier Nokia au profit de Microsoft, et c’est ce qu’il a fait.







elpetio a écrit :



Mince alors tout le monde avait prévu l’échec complet de nokia et de windows phone tout a ca partir de Trois graphiques. dingue! bizarrement on les entend moins quand c’est une réussite. cOn s’abstient de tout commentaires, car quand c’est une réussite cela tient soit disant du miracle et on ne le voit pas trop venir. Et puis evidemment puisque cest toujours plus facile de prévoir le pire quand on part du haut et surtout on risque moins de se tromper!!





Par contre tous les illuminés qui ont clamé pendant 2 ans que c’était une stratégie géniale et que le succès allait arriver, on les entends encore aujourd’hui clamer les mêmes conneries, alors même qu’il ne s’agit plus de prédiction aujourd’hui, mais de faits réels qui se sont produits, comme prévu.







elpetio a écrit :



C’est pas parce qu’on poste 10 lignes sur le sujet qu’on le maitrise. C’est un peu comme si je per mettait de critiquer le travail d’un développeur alos que je n’aurais pas 10 centieme de ses incompétences.





Oui ça c’est sûr, tu en es la preuve vivante : tu as posté des lignes et des lignes de vide intersidéral, et clairement tu ne connais rien au sujet.







elpetio a écrit :



Je crois qu’un moment ou faut aussi avoir un peu de recul sur ses connaissances et ne pas avoir trop la grosse tête.





Venant de toi, franchement : <img data-src=" />







elpetio a écrit :



c’est pas parce que ca parait évident sur le moment ou ca se produit qu’on peut le prévoir facilement. Tout ca c’est plus compliqué que ce que tu crois sinon noki se porterait bien aujourdhui





Encore une fois, c’était l’objectif d’Elop et des actionnaires qui le soutenaient (aussi actionnaires de Microsoft), de torpiller Nokia. Ce qui était évident, ils l’avaient bien vu, et c’était justement le but recherché.







elpetio a écrit :



bon Gorkk il a pas encore compris ce que je veux lui expliquer alors il écrit des tartines indigestes





<img data-src=" /> Non sérieusement… Relis ce que tu as écrit, qui est à peine français, et sans le moindre argument. Maintenant relis ce que j’ai écrit (branche le cerveau, parce qu’il y en a besoin pour comprendre). Et tu viens parler de « tartines indigestes » ? Sérieusement ?







elpetio a écrit :



Alors on va faire tres simple. C’est la théorie des shaddocks que tu nous sors.

Tu prends 100 mecs qu font des analyses pourris. Sur 100 analyses pourris tu en surement une qui va tomber pile poil juste sur les chiffres qui se réaliseront dans 2 ans. Voila cest comme la fin du monde, tot ou tard un gars sortira le bon chiffre.

Et t’auras surement aussi 100 cons pour nous dire qu’il ls le savaient déja et que cela avait été prévu source et lien a l’appui. Parmis ces 100 cons tauras 40 gus pour t’expliquer que t’es un ignorant qui ne sait rien et qui ment.

Et t’auras aussi 10 couillon pour nous expliquer sans pruves aussi que cest un complot.





Ah, encore ton présupposé que les analyses que tu n’as jamais lu n’étaient que des élucubrations sans la moindre base comme ce que tu écris toi… Encore une fois : lis les analyses de l’époque qui ont été référencées à maintes reprises à chaque news concernant Nokia sur PC INpact, essaie de les comprendre (je sais c’est pas gagné). Elles partent de faits constatés (que beaucoup ont pris le parti d’ignorer parce que ça contredisait leur foi aveugle dans les boniments d’Elop), et exposent des raisonnements complets.







elpetio a écrit :



A partir du moment ou o nest aussi affirmait et qu’on s’entient a un pauvre article avec deux courbes. on est dans la croyance et on veut se convaincre qu’on a raison en donnant des argument qui n’en sont pas.





Tu sais, c’est pas en répétant qu’on « se base sur un pauvre article avec deux courbes » que ça va rendre la chose plus vraie hein. Ça ne fera pas disparaître les analyses poussées qui ont été faites. Par contre avec ça tu décris très bien les “analyses” qui prédisaient à deux ans 30% de parts de marché pour Nokia/Microsoft, ou plus.


Le 03/09/2013 à 16h 05







frikakwa a écrit :



Bel argumentaire! <img data-src=" />



Ps: il fallait que je quote le plus commentaire que j’ai jamais rencontré sur PCI! <img data-src=" />





Hum, je me demande si j’ai pas déjà fait plus long (au passage, t’as oublié un mot je pense, parce que « le plus commentaire » je vois pas sinon <img data-src=" /> )


Le 03/09/2013 à 16h 03







PonderStibbons a écrit :





  • qu’il a remis de l’ordre chez un constructeur qui ne savait plus sortir de tel en moins de 18 mois…





    Il a torpillé l’OS qui avait demandé beaucoup d’investissement et était enfin prêt, sachant que c’était le délai supplémentaire pour cet OS qui était à l’origine de cette longue durée de sortie de téléphones, ouais bravo…





    PonderStibbons a écrit :



  • qu’il a réduit les pertes records du dit constructeur en lui faisant suivre une cure d’amaigrissement nécessaire





    Il a créé des pertes records (alors même qu’à son arrivée Nokia faisait des bénéfices records) et dépecé complètement l’entreprise, parfois en fermant purement et simplement des activités bien implantés dans des secteurs stratégiques (la section « mobile money » a été fermée, même pas vendue, alors qu’elle était numéro 1 du marché alors même qu’à cette époque Google indiquait que le « mobile money » était son axe principal de développement parce que c’était l’avenir). Se retirer d’un marché d’avenir où on domine, sans même vendre l’activité, c’est vrai que c’est super efficace contre les pertes…







    PonderStibbons a écrit :



    Il n’a pas été imposé par Microsoft que je sache…et si les actionnaires se sentaient floués ils pouvaient le mettre dehors…





    Voir l’article linké dans les premiers commentaires :http://www.phonearena.com/news/Nokia-chairman-Jorma-Ollila-picked-Stephen-Elop-a…







    PonderStibbons a écrit :



    Désolé, je comprends certaines remarques : j’aurais aussi préféré garder un fabricant de terminaux européen mais bon…ça fait longtemps que Nokia est en souffrance (bien avant Elop).





    Ils avaient quelques problèmes de management et stratégiques, oui ; une bonne partie étaient à peu de choses près résolus (sur Symbian ils avaient commencé à faire en sorte qu’on puisse upgradé vers les nouvelles versions, ils aboutissaient enfin sur le nouvel OS qui remplacerait Symbian, etc.). Par contre dire qu’ils étaient « en souffrance » quand ils faisaient des bénéfices records et se payaient le luxe d’augmenter plus en volume que leurs deux concurrents respectivement 2 fois et 4 fois moins gros, faut arrêter un peu hein… Je sais que c’est ce que le zélote fanboys de Microsoft essaient de faire croire en le répétant à loisir sans le moindre fait pour soutenir leurs allégations, mais quand même, les chiffres parlent d’eux-mêmes…


Le 03/09/2013 à 15h 45







elpetio a écrit :



A ce niveau c’est pas de la science c’est de la voyance. C’est difficile quand meme de savoir le futur alors que windows phone n’était meme pas sorti. Alors bien sur on pouvait craindre un echec de nokia et de windows phone. C’était le plus prévisible parce qu’il est toujours plus facile d’échouer que de réussir mais de la a donner les chiffres de ventes et affirmer que cet echec allait arriver. et bien désolé mais c’est un peu extrapolé . Ca me rappelle ceux qui pensait que l’action facebook se serait lamentalement cassé la gueule

ou bien que surface se serait vendu comme des petits pains.





Clairement tu n’as pas lu le lien que je t’ai donné. Tomi Ahonen a fait ses prévisions initialement au moment du « burning memo » d’Elop, en expliquant pourquoi il arrivait à ces conclusions là, va lire ça te cultivera. Et ses analyses étaient bonnes, la preuve en est que de façon constante il a été l’analyste du marché de la téléphonie à prévoir au plus près les chiffres réels de ventes de Nokia et Microsoft ces deux dernières années (quand la majorité des analystes gobaient comme les fanboys les messages du genre « vous allez voir avec WP 7 Microsoft va tout exploser » puis « WP7 était juste un essai, c’est normal que ça n’ait pas bien marché, mais vous verrez avec WP7.5 et Nokia à bord, on va tout exploser » puis « Nan mais WP7.5 c’était un truc transitoire, c’était prévu que ça se vende pas bien et que les ventes de Nokia s’écroulent au début, mais vous verrez avec WP8 on va tout exploser », etc. (et bientôt le « Vous allez voir avec WP9 Microsoft va tout exploser, les version d’avant c’était juste pour préparer le marché, c’était pas prévu de faire des ventes, et Nokia… ah bah non Nokia n’existe plus en téléphonie ».



C’est justement d’avoir imaginé que la stratégie d’Elop aller « sauver » Nokia qui étaient dans le croyance et la voyance (donc complètement à côté de la plaque).







elpetio a écrit :



tout a fait il restait l’option multi os mais c’est bien avant qu’il devait miser sur ce choix et pas persister dans la mauvaise direction. mais je continue a penser qu’il était trop prématuré d’annoncer la fin de nokia alors qu on ne savait pas encore ce que nous réservait le marché et ce que nous proposait windows phone.





C’était de très loin le résultat le plus probable : passer sur un OS mineur qui a montré qu’il ne correspondait pas aux attentes (WP7 était vendu depuis un moment quand Elop a décidé du tout WP), et ce en exclusivité, il faut un miracle pour ne pas se casser énormément la gueule quand on était de très loin le leader du marché. D’autant plus quand on n’a aucun contrôle sur l’OS et qu’une des forces de l’entreprise était son innovation technologique, que cet OS n’est pas capable de gérer…





elpetio a écrit :



il est vrai qu’il y a eu un partenariat d’exclusivité et que cetait dangereux . cela dit cest aussi ce qui a permi a nokia de sortir la tete de l’eau car je pense que rentrer sur le marché android trop tardivement n’était pas non plus une solution et microsoft a quand meme soutenu et aidé financierement nokia a revenir sur la course des os.





À ce moment là, Samsung était 4 fois plus petit que Nokia en volume de vente, il n’aurait pas été difficile de passer sur Android pour Nokia avec succès, mais surtout cette option a toujours été présentée par tous ceux qui critiquaient la stratégie d’Elop comme un « moins pire » que passer tout WP. La stratégie qui était la plus intéressante pour Nokia, c’était de miser sur Meego en OS principal (avec un gros soutien d’Intel au passage) en migrant progressivement son parc Symbian sous Meego, et en parallèle de se diversifier un peu avec soit des terminaux sous Android à côté, soit des terminaux sous WP (mais une partie seulement), soit les deux. Mais Meego était leur vraie chance, avec entre autres la continuité que ça donnait pour ses utilisateurs, tant en termes d’univers global qu’en termes applicatif, étant donné que la quasi totalité des applications Symbian (sous Qt, premier store en termes de ventes et de nombre d’applications à l’époque) pouvaient être rendues compatibles Meego au plus avec une recompilation (du fait de l’utilisation de Qt).







elpetio a écrit :



On peut toujours critiquer nokia sur ces choix mais au moins contrairement a d’autres constructeurs ils n’ont pas peur de prendre des risques et de proposer d’autres alternaives. pas toutes concluantes mais au moins différentes.





Ça n’a pas été des « risques », mais un suicide quasi certain avec comme « best case scenario » vendu par Elop une stagnation du volume de vente sur 2 ans (soit une énorme chute dans un marché qui augmente de plus de 50% par an), scénario qui était de plus particulièrement improbable, et d’autant plus indicateur que le plan était mauvais qu’avant cette stratégie, le volume de vente de Nokia augmentait plus que ses deux concurrents (Apple et Samsung).







elpetio a écrit :



bref on peut toujours critiquer et démolir ce qui se fait mais l’avenir nous dira qui avait vraiment raison.





L’avenir (aujourd’hui) vient de nous dire justement que tous ceux qui expliquaient il y a deux ans que cette stratégie allait droit dans le mur pour Nokia avaient raison hein… Donc il faudrait peut-être commencer à faire confiance à ceux qui ont prédit, arguments à l’appui, de façon consistante, ce qui est arrivé à Nokia ces deux dernières années, plutôt que ceux qui ont passé deux ans à imaginer que Nokia allait reprendre 30% de parts de marché en un rien de temps et que c’était une stratégie vachement bien pour Nokia, et pas du tout un sacrifice de Nokia sur l’autel de Microsoft.





elpetio a écrit :



car ceux qui misent aujourdhui sur apple ne sont plus aussi optimistes qu’a lépoque et meme si android réussit a s’imposer , j’ai pas l’impression que les fabricants s’ensortent beaucoup mieux que nokia.





Quel est le rapport avec la choucroute ?





elpetio a écrit :



CE qu’on peut regretter peut etre cest le manque de réaction de microsoft qui n’a pas été franchement a la hauteurs de nos esperances avec son os. Mais qui pouvait le savoir franchement? et est ce que quelqu’un aurait imaginé que les opérateurs abandonnent un des acteurs fétiches de la telephonie mobile?





Il n’a pas été à la hauteur des espérances de ceux qui étaient dans la foi aveugle. Il a fait par contre exactement ce qui était prévu par ceux qui avaient réellement analysé la situation, en tenant compte de l’expérience du passé.



Quant à l’abandon de l’acteur fétiche du marché de la téléphonie mobile (Nokia) par les opérateurs, ce n’est pas exactement ça : c’est Nokia en pratique qui s’est coupé d’eux de lui-même en allant se mettre en ménage exclusif avec l’entité la plus détestée par les opérateurs et distributeurs (en grande partie du d’ailleurs à la façon dont Microsoft a géré la fin de WinMo, à savoir « notre truc c’est de la merde on arrête, opérateurs et distributeurs maintenant démerdez-vous avec les invendus. » (qu’ils ont recommencé en torpillant Symbian).







elpetio a écrit :



cest pas parce qu’on annonce qu’il va pleuvoir la semaine prochaine et que forcément ca arrive qu’on a raison.





Non mais quand quelqu’un qui comprend quelque chose à la météorologie t’annonce, sur la base d’analyses poussées, qu’il va pleuvoir la semaine prochaine, il y a de grandes chances que ce soit le cas. C’est beaucoup plus crédible que quand de le même temps le camé illuminé du coin te soutient qu’il y aura la canicule en plein mois de décembre.







elpetio a écrit :



Il faut expliquer pourquoi et comment. cest ca l’analyse si on veut etre objectif.





Ça a été fait et refait et refait, analyse à laquelle la seule réponse tes fanboys aveugle a été du type « Nan mais vous allez voir ça c’était prévu, mais avec la nouvelle version / le nouveau téléphone, ça va tout déchirer » (WP7.5, puis la nouvelle série de Lumia, puis WP8, etc.) : et aujourd’hui on a la vente de la partie téléphonie de Nokia à Microsoft, comme prévu.







elpetio a écrit :



Annoncer la fin de nokia sans argumentation c’est du temps perdu dans des tergiversations inutiles.





Les seuls qui n’avaient aucune argumentation étaient ceux qui prétendaient que « ça allait être vachement mieux bientôt et que c’était la meilleure stratégie du monde pour Nokia, et pas du tout un sacrifice au profit de Microsoft, réel employeur d’Elop. ». Les autres en face expliquaient pourquoi ça allait se produire, et ça c’est produit justement pour les raisons exposées à l’époque.







elpetio a écrit :



Enfin je trouve stupide l’attitude de ceux qui pensent toujours tout savoir mieux que le pdg de nokia et qui font toujours les meilleurs choix que quiconque.





Ah, mais quasiment tous ceux qui prédisaient ce désastre sont assez confiants sur le fait qu’Elop savait très bien ce qu’il faisait : son allégeance n’était pas à Nokia, mais à Microsoft, et les événements du jour vont toujours dans ce sens (et il a eu une belle promotion chez Microsoft en récompense).







elpetio a écrit :



forcément ils ont toujours raison parce que de toute facon quand on est toujours pessimiste et qu’on donne son avis toujours dans de pareilles situations (situation qu’on avait pas prévu ou alors trop tard en regardant les chiffres) mais qu’on propose aucune solution en échange,(ou alors des solutions d’appoint), et on sobstine dessus, on aura forcément toujours le dernier mot. en répétant en boucle qu’on l’avait déja dit 100 fois. Je vois pas trop l’interet de chercher les coupables si on ne cherche pas a comprendre les raisons et connaitre les causes d’un échec.





Là ça devient vraiment incompréhensible : tu veux dire quoi au juste ?







elpetio a écrit :



quel miracle? on parle de nokia qui était le premier constructeur de smartphone. pas d’une boite sortie de nulle part.

nokia qui faisait un partenariat avec peut etre la plus grande entreprise dans le monde de l’informatique.





Le miracle ? Le miracle ça aurait été que cette stratégie ne serait-ce qu’arrive à conserver 1 client sur 4 et à maintenir l’entreprise à l’équilibre. C’était certes Nokia, leader du marché d’un côté, mais de l’autre, c’était Microsoft, le poids mort du marché qui a manqué de tuer tous les constructeurs qui ont essayé d’utiliser ses OS mobiles comme OS principal. Microsoft qui était détesté par les opérateurs et constructeurs. Un OS (WP7) qui n’arrivait pas à faire du 1 pour 1 avec les utilisateurs de la précédente version (WinMo 6) alors même que ses parts de marché étaient ridicules. Un OS qui n’était pas capable de gérer les dernières technologies, et pas réactif pour les gérer, alors même qu’un des principaux atouts du leader Nokia était justement son avance technologique, qui était donc de fait perdue en passant à cet OS qui ne la gérait pas. C’était aussi une annonce par ce leader que ce qu’ils vendaient à ce moment là (Symbian) c’était de la merde, que 9 mois après ils passeraient sur cet autre OS complètement incompatible (avec déjà prévu une autre version de l’OS qui ne serait pas non plus compatible), et que l’autre OS qu’ils avaient quasiment fini, bah en fait ils le vendraient pas, même si tout le monde le trouvait génial. Y a vraiment quelqu’un qui pensait qu’ils n’auraient pas perdu plus de 50% de leurs clients avant même de lancer le nouveau produit ?







elpetio a écrit :



Qu’est ce qui vous fait dire que microsoft et nokia se serait planté lamentablement en misant sur un nouveau windows phone?

personne. certes on pouvait l’imaginer et le supposer. c’était juste probable a 70 - 80 % a cause de la concurrence.mais on ne parle pas de miracle dans ce cas mais on raisonne chiffres car qui aurait prévu aussi pense aussi que les tablettes android se serait vendu come des petits pains.





Faut croire que tu n’as pas lu tous les arguments qui ont été avancés ces deux dernières années… Et pour ce qui est des chances, c’était pas 70-80%, mais de moins de 1 pour 10000 que la stratégie annoncée d’Elop (1 pour 1 sur 2 ans, soit tout de même une énorme chute dans un marché qui fait plus de +50% par an) fonctionne (je t’invite à aller regarder les risques critiques - i.e. chacun s’il se réalisait empêchait le succès de la stratégie - présentés par Nokia à l’ITC en 2011 : chacun de ces risques avait une très forte probabilité de se produire, et un seul suffisait à empêcher le succès du 1 pour 1 d’Elop : tous se sont réalisés (et c’était particulièrement prévisible).



Pour ce qui est des tablettes Android, justement la majorité des gens s’attendaient à ce que ça décolle et domine la marché, ça a juste pris plus longtemps que ce que la plupart des gens imaginaient.







elpetio a écrit :



Et puisc’est un argument contradictoire,, en admettant que l’échec de nokia était annoncé depuis le départ . Alors pourquoi rejeter la faute sur microsoft.





Parce que l’échec en question repose sur le choix de faire de l’exclusivité Microsoft, fait par quelqu’un qui était supposé être patron de Nokia, mais en fait travaillait pour Microsoft (Elop). Parce que l’échec vient beaucoup de l’OS à la traîne de Microsoft, des relations exécrables de Microsoft avec l’écosystème mobile, etc.





elpetio a écrit :



on peut finalement se satisfaire de peu et reconnaitre que nokia s’en tire plutot bien.

Et bien moi je le crois pas. Je pense que nokia s’en tire mal et c’est une boite en déclin. et ce n’était pas prévisible car on ne sait pas que le pire serait arrivé et que android aurait carrément écrasé la concurrence.





L’explosion d’Android était prévue, et la disparition de 35% de part de Symbian quasiment du jour au lendemain grâce à la magnifique stratégie d’Elop lui a ouvert grand les portes : et Microsoft n’avait aucune chance de pouvoir en profiter puisqu’ils ont tué Symbian 9 mois avant de sortir le premier Lumia.







elpetio a écrit :



c’est comme si on avait annoncé que demain les ventes de apple et de iphone vont ss’effondrer.Je veu bien y croire mais encore faut il le prouver.

Que le sventes baissent oui mais que plus personne n’achete de iphone . Je ne le pense pas.Enfin il me faut de vrais pronostics quand on fait ce genre d’hypothese.

C’est comme pour les tablettes, personne n’aurait pensé un instant un tel succes. meme si les tendances allaient dnas ce sens car on ne sait jamas ce que réserve le marché.





Encore une fois, les prévisions pour Nokia s’appuyaient sur des analyses solides, qui ont été répétées maintes et maintes fois. Que tu laisses entendre 2 ans après qu’il n’y avait rien pour soutenir ces projections indique soit que tu n’as accepté de lire aucun de ces arguments, soit que ta foi t’aveugle tellement que tu les as occultés (d’ailleurs alors que je t’en ai redonné une partie, que tu as d’ailleurs cités, bizarrement tu n’en tiens pas compte, donc je penche pour la deuxième option : la foi aveugle).



Mais une fois encore : quel rapport avec la choucroute ?









elpetio a écrit :



il y a rien d’extraordinaire a annoncer que demain il va pleuvoir quand il y a des nuages a l’horizon. c’est assez logique. mais apres de la a etre aussi affirmatif. la cest plutot une intuition ou de la superstitution.

et cest certainement pas pour la raison que vous evoquez mais tout simplemet sur une loi du marché qui s’applique. Quand le marché est saturé alors la concurrence devient plus difficile . et aussi le constat que nokia était sur le déclin.

mais bon ca c’est purement factuel, . Ca veut pas dire que cest un raisonnement réfléchi qui fonctionne en réalité parce que sinon on se baserait uniquement sur les conséquences et pas les causes . c’est un peu comme prévoir l’orage quand il vient de passer.





C’est beau… Tu laisses penser que les prévisions de la mort de Nokia ont commencé aujourd’hui ou il y a quelques semaines… Les prévisions en question, avec les arguments pour les soutenir, sont arrivées dans les jours qui ont suivi le « burning memo » d’Elop en février 2011, et ont été très largement renforcées par le sabordage de Meego quelques mois plus tard. Tout ce qui avait été prévu à l’époque par ceux qui tenaient compte des faits au lieu de se complaire dans la foi aveugle dans les boniments d’Elop s’est produit, progressivement, jusqu’au rachat aujourd’hui de la division mobile de Nokia.









elpetio a écrit :



C’est encore des intuitions, samsung et nokia se sont planté avec leur propre os





Nokia ne s’est pas planté avec son propre OS, mais avec WP. Au contraire, avec son OS vieillissant Symbian, Nokia se permettait fin 2010 de faire des records de bénéfices pour l’entreprise, et de continuer de croître plus en volume que ses deux concurrents, respectivement 2 fois et 4 fois moins gros (bien que perdant des parts de marché).



Son autre OS prévu pour le remplacer a été torpillé par Elop pour ne pas faire de l’ombre à son précieux WP, et malgré cela, sans être vendu dans les principaux marchés et sans quasiment aucune communication, s’est mieux vendu que les premiers Lumia qui étaient eux vendus dans les principaux marchés, avec des millions et des millions dépensés en marketing.



Donc, dis-moi, où est-ce que Nokia s’est planté avec son propre OS ? Hum ?



Pour ce qui est de Samsung, je suppose que tu fais référence à Bada ? On ne peut pas dire qu’ils se « soient plantés » : Samsung utilisait bada pour des téléphones entrée de gamme (limite feature phone) dans les pays émergents ; il y avait sûrement à un moment le projet de le développer pour l’utiliser en parallèle d’Android sur toute la gamme, toutefois Nokia ayant lâché Meego, une opportunité s’est présenté à Samsung avec Tizen en partenariat avec Intel, qui est globalement sur le concept une fusion/évolution entre Bada et ce qui restait de Meego chez Intel. Là Samsung lance en fin d’année une gamme de téléphones sous Tizen, et ce sur le marché global. On pourra donc revoir dans 1 ou 2 ans si « Samsung s’est planté avec son OS ».









elpetio a écrit :



sauf que personne navait aussi prévu une baisse du chiffres daffaires de nokia sur le marché des mobiles. LE marché de nokia en chine a diminué de 40% en une année bien avant le partenariat avec microsoft. Alors bien sur on peut toujours prévoir et expliquer les raisons blabla MAis la on raisonne global.





Encore une fois, si, beaucoup de monde l’avait prévu (dont Tomi Ahonen dont je t’ai parlé). Pour ce qui est de la baisse en Chine, il n’y avait rien de plus logique avec le passage à Windows hein. Il aurait été miraculeux que Nokia ne s’écrase pas complètement en Chine (et au Japon où ils étaient très bien aussi d’ailleurs), et le miracle ne s’est pas produit.



Et au passage, ta dernière phrase n’a aucun sens (une de plus).







elpetio a écrit :



LA encore vous vous basez sur des mauvaises données mais aussi vous faites une analyse tronquée a partir de faits mais sans comprendre les causes.

enfin nokia se fait du blé sur le marché emergeant que je saches que ce soit en inde, en chine ou en amérique du sud. Or si on veut rester leader il suffit pas de vendre des 920 il faut convaincre les opérateurs partout .

Alors je veux bien croire a vos effets d’annoncer mais a condition la prochaine fois de faire une analyse un peu plsu complete et pas en étant aussi affirmatif.





Oh, donc “nos” analyses « tronquées » faites avec des données « erronnées » ont prédit de façon assez précise ce qui s’est passé ces deux dernières années, et les analyses « complètes » faites avec des données « complètes » qui prévoyaient 30% de parts de marché pour Nokia/WP fin 2013 sont complètement à côté de la plaque… Non désolé, il manque quelque chose là.



Quant à convaincre les opérateurs partout : justement, Nokia avait les opérateurs dans sa poche partout, et a réussi le tour de force à se les mettre à dos partout (ce qui était prévisible avec le passage à tout WP vu la relation de Microsoft avec les différents acteurs). Nokia ne fait plus justement de thunes sur le marché émergent, c’est même le marché qu’ils ont perdu en premier (par contre ils arrivent visiblement à avoir quelques fanboys dans les marchés « développés », bien que moins que leurs copains Apple : il faut croire que les clients des marchés « développés » aiment bien les prisons dorées).







elpetio a écrit :



Non mais vous parlez de nokia. pas d’une boite qui part de rien. Un peu de sérieux bordel.On ne passe pas de plusieurs milliards de CA d’affaires a Zero en un an meme si la concurrence est acharné. On annonce pas la fin de nokia sur qq chiffres a cause de trois mauvais chiffres qu’on a récupéré dans un article pioché sur le web.





Les premiers chiffres n’ont été que la confirmation des prédictions faites suite à l’annonce de la stratégie suicidaire (pour Nokia, mais indispensable pour Microsoft) d’Elop. Mais bon, je vois que ta foi aveugle te permet de dire, alors même que les prédictions se sont réalisées, que « non ces prédictions sont bidons la la la la la j’entends rien. »





elpetio a écrit :



Evidemment si microsoft s’était lancé dans la téléphonie a l’aveugle sur un secteur qu’il connait peu das un marché complètement fermé. mais la on parle quand meme d’un partenariat avec microsoft et nokia. deux leaders dans chacun de leur domaine. donc oui meme si ce partenariat a fonctionné , les résultats ne sont pas au rendez vous désolé et c’était pas certain que ca marcherait mais cetait pas certain non plus que ca aurait foiré. En tout cas pour nokia, Pour microsoft le bilan est plus mitigé. Il n’empeche qu’ils se sont bien planté avec la surface mais contrairement a nokia il ne joue pas leur vie alors on peut se permettre de faire ce genre d’hypothese pas toujours fiable sans trop se tromper parce que microsoft navait pas grand chose a perdre de tenter ce pari.





Il n’y a pas trop eu de pari pour Microsoft, c’était tout gagnant pour eux. Sans ce torpillage en règle de Nokia, Microsoft serait aujourd’hui à moins de 1% de parts de marché, sans aucun espoir de pouvoir remonter, avec qui plus est un concurrent de taille de plus (Meego). Pour eux c’était tout bénèf : dans le pire des cas ils torpillaient un concurrent à moindre frais en étant en plus assurés d’avoir au moins un constructeur pour mettre en avant WP, et avec un petit miracle ils pouvaient même y gagner beaucoup (en gros si on avait été dans les rêves humides de certains où Nokia faisait du 1 pour 1 sur deux ans de Symbian à WP). Pour Nokia par contre, sauf miracle ils étaient morts, et même avec le miracle ils auraient pris un coup énorme dans la gueule.


Le 03/09/2013 à 11h 12







xillibit a écrit :



Nokia Solutions Network (NSN) va devoir être renommé :http://nsn.com/, vu que la marque Nokia tombe dans le giron de Microsoft





<img data-src=" />

Microsoft ne récupère pas la marque, ils peuvent juste l’utiliser pour les Lumia existants, et pour 10 ans pour les Asha. NSN reste NSN chez ce qu’il restera de Nokia (pas grand chose).


Le 03/09/2013 à 10h 27







DeadAngel70 a écrit :



Fin 2010, Nokia perdait régulièrement des parts de marché.





Parts de marché, oui, mais ils augmentaient en volume plus que Apple et Samsung (ses deux concurrents directs, respectivement deux fois et 4 fois plus petits en volume) ; et ils continuaient de faire des gros bénéfices (Q4 2010, record de bénéfices pour Nokia, depuis ils n’en ont pas fait).







DeadAngel70 a écrit :



Meego était déjà plus ou moins abandonné (Android étant envisagé pour les smartphone haut de game).





Source ?







DeadAngel70 a écrit :



Samsung montait fortement en puissance, de même pour Apple.





Apple avait fini de gagner en parts de marché à l’époque. Et comme je l’ai rappelé plus haut, Nokia augmentait alors encore plus que ces deux là en termes de volume de vente.







DeadAngel70 a écrit :



Bref, la lente descente de Nokia n’a pas commencé avec l’arrivée d’Elop, et je ne suis pas sur qu’un passage sous Android aurait changé quoi que ce soit





Après l’arrivée d’Elop (ou plus précisément après le lancement de sa stratégie), c’est pas une « lente » descente hein, c’est une chute libre.


Le 03/09/2013 à 10h 21







Edtech a écrit :



Le Lumia 920 est un N9 sous WP. Tu retrouves (enfin) depuis la dernière mise à jour toutes les particularité du N9, comme l’heure en permanence sur l’écran, le double tap pour sortir de vieille, etc.





Avec moins de possibilités du fait d’un OS incomplet (avec en particulier pas d’utilisation du verre courbé), et une production pourrie car externalisée (pour une raison un peu étrange quand on sait qu’à l’époque Nokia avait 50% de sa capacité de production non utilisée) ayant conduit à un nombre de défauts importants, en plus de ne pas pouvoir adapter la production aux ventes (et donc sur-production), alors qu’à côté le N9 était construit lui en Finlande avec la qualité légendaire de Nokia.


Le 03/09/2013 à 10h 18







elpetio a écrit :



Mais je suis désolé personne n’avait les moyens de savoir le futur de nokia en 2011.





Et pourtant, Tomi Ahonen a été « spot on » (même un peu trop optimiste, mais de très loin le plus proche de tous les analystes) sur l’évolution des ventes de Nokia et de Windows Phone depuis le « burning memo » d’Elop. D’ailleurs les risques évoqués présentés par Nokia à l’ITC comme susceptibles de ruiner leur stratégie (du point de vue de Nokia, pas Microsoft) début 2011 étaient la plupart d’entre eux à peu près sûrs de se réaliser (je te laisse le retrouver sur le blog de Tomi Ahonen).





elpetio a écrit :



Et d’ailleurs le plus etonnant que ceux qui avait prévu ce rachat considerent au final que wp était une mauvaise opération. Soit, mais c’était l’opération de la dernière chance.





De la dernière chance une fois qu’Elop avait décidé que c’était WP sinon rien et qu’il avait torpillé Symbian avant d’avoir un remplacement, et avait déjà décidé qu’il torpillerait Meego avant même de le vendre quelques mois plus tard. Et encore même là il y avait encore l’option Android, ou simplement l’option du « plusieurs OS » plutôt que de tout miser sur l’OS mineur qui ne cessait de perdre des parts de marchés (parce que WinMo+WP n’a cessé de perdre des parts de marché).







elpetio a écrit :



Mais c’était certainement pas symbian et meego. Alors faut arreter un peu de se mentir





C’est certainement pas WP qui a été acclamé de façon unanime par la presse ; par contre ça a été Meego. De plus personne (du moins personne avec plus d’un neurone) n’a jamais prétendu que l’avenir était dans Symbian : tout le monde était d’accord sur le fait que Nokia devait le laisser tomber assez rapidement ; par contre le tuer en disant que c’était une « burning platform » sans avoir de remplacement, y avait pas plus stupide (pour Nokia, ça a été très bien pour Microsoft). Enfin, Meego avait en plus l’avantage d’être compatible avec les apps Symbian, avec au plus besoin de recompiler les applications (les deux OS utilisant Qt), sachant qu’à l’époque le store Symbian avait plus d’applications que celui d’Apple, et qu’il y avait plus de ventes d’applications sur le store Symbian que sur l’AppStore…





elpetio a écrit :



On était pas capable de savoir de toute facon que windows phone malgré ses spécificités n’était pas un os tres complet et performant avant sa sortie par rapport a la concurrence





Oui c’est certain il y aurait pu y avoir un miracle. Toutefois les Lumia sont sortis sur WP7.5, petite évolution de WP7, qui lui était déjà sur le marché lors de l’annonce d’Elop (et on savait donc déjà qu’il était pas au niveau, et qu’en plus les utilisateurs ne l’appréciaient pas). Et vu l’historique de Microsoft sur les OS mobiles, il était plus que probable que ce serait pareil pour WP8.





elpetio a écrit :



Que microsoft aurait échoué a imposer son market aupres des développeurs





C’était pourtant le plus probable : un environnement fermé à la Apple quand tu n’a pas la masse de fanboys qu’a Apple, et que tu n’as pas non plus son marché de fanboys à « vendre » aux développeurs d’applications, ça donne pas envie.





elpetio a écrit :



Que les lumia n’aurait pas eu le succes escomptéaupres des opérateurs qui préferent apple et samsung





Avec Microsoft qui avait la pire relation possible avec les opérateurs et les revendeurs (en partie liée aux déboires de WinMo et à la façon dont ils l’ont abandonné), c’était pourtant là encore le scénario le plus probable.





elpetio a écrit :



Que nokia ne vendrait plus autant de telephones et serait doublé en qq annérs par la concurrence asiatique alors que c’était l’un des premiers constructeurs de telephone au niveau mondial





En annonçant que leur seule plateforme actuelle était une « burning platform », il n’y avait pas d’autre possibilités qu’un effondrement des ventes ; en partant sur un système qui se vendait très peu parce que les utilisateurs n’en voulaient pas, et qui arrivait à gagner moins de parts de marchés que sont prédécesseur (WinMo) en perdait, il aurait fallu un miracle ne serait-ce que pour que le volume de vente ne diminue pas fortement (ce qui aurait déjà été très mauvais, dans un marché qui progresse de 50% par an en volume) ; pour les pays asiatiques, miser sur un système édité par une entreprise qui représente limite le « grand satan » en Chine, c’est sûr que ce n’était pas probable du tout d’avoir un effondrement des ventes…





elpetio a écrit :



Bref on pouvait envisager la catastrophe mais de la a imaginer le pire scénario …





Oh, ça n’a pas été complètement le pire scénario, les milliards que Microsoft a mis en marketing (énorme campagnes de pubs, placement de produit dans à peu près tous les films et toutes les séries US, etc.) ont permis d’éviter le pire. Honnêtement hors miracle, ce qui est arrivé pour Nokia est le mieux qui pouvait être espéré de la stratégie d’Elop.





elpetio a écrit :



Et puis bon ca sert a rien dessayer de se convaincre, si on compare avec les chiffres de android, microsoft n’a pas réussi franchement son pari. On ne parlera pas de réussite mais de demi échec.





Bah si, Microsoft a réussi son pari : il existe encore sur le mobile, et a pu à peu près endiguer la perte de parts de marché ; par contre Nokia a sacrifié pour cela ses 35% de parts de marché et son existence en tant que constructeur.


Le 03/09/2013 à 09h 57







Konrad a écrit :



Je me suis sans doute mal exprimé. Nokia aurait peut-être pu se sauver en passant à Android au début des smartphones (genre 2008-2009), avant que Samsung ne s’impose comme leader.



Lorsque S. Elop a rejoint Nokia fin 2010, c’était déjà trop tard pour Nokia : passer à Android aurait peut-être sauvé quelques meubles, amorti la chute, mais ça n’aurait sans doute pas suffit à sauver la baraque. Ils se seraient retrouvés derrière HTC, qui lui-même a beaucoup souffert du rouleau compresseur Samsung.





Pour rappel, au moment du “burning platform” memo d’Elop en février 2011 (l’annonce du passage à tout WP), Nokia vendait deux fois plus de smartphones qu’Apple, et 4 fois plus que Samsung. Ils avaient aussi effectués des records de bénéfices sur leur division smartphone (qui depuis n’a engrangé que des pertes, sauf pour le trimestre de la vente du HQ de Nokia parce qu’ils ont attribué l’intégralité de la vente à la division smartphone) ; ils avaient également sur le Q4 2010 progressé en volume plus que Apple et Samsung (certes avec perte de parts de marché, ce qui n’est pas non plus surprenant vu d’où ils venaient, mais en volume ils continuaient de creuser l’écart avec les concurrents) ; Nokia avait souffert de problèmes d’organisation qui avaient conduit au retard du remplacement de Symbian (Maemo devenu Meego), mais était encore en particulièrement bonne forme avant qu’Elop amorce son sabordage en règle, et avait Meego qui arrivait 6 mois après pour prendre la relève. Nokia était aussi le constructeur qui avait le plus fort taux de fidélisation, devant Apple ; ils étaient aussi le constructeur qui avait de très loin la meilleure notation financière par les agences de notations (AA), notation qui n’a fait que chuter trimestre après trimestre depuis l’annonce d’Elop ; ils avaient aussi la meilleure relation avec les distributeurs et les opérateurs mobiles. Ils étaient également extrêmement dominant sur les principaux marchés en volume comme la Chine et l’Inde, où ils sont désormais quasiment inexistants. Enfin, ils avaient aussi le plus fort taux de conversion dumbphone -&gt; smartphone de tous les constructeurs (Apple exclus puisqu’Apple n’a jamais fait de dumbphone), en avance sur le reste du marché (et la plus forte capacité de production devant Foxconn) : ils ont depuis perdu sur ce plan, là où le marché dans son ensemble est désormais à environ 50% de conversion.


Le 03/09/2013 à 09h 40







k43l a écrit :



<img data-src=" />

Le truc que même Intel voulait se débarrasser ? <img data-src=" />





Ils voulaient tellement s’en débarrasser que à peine Nokia parti du projet ils l’ont prolongé sous un autre nom avec un autre partenaire (Tizen avec Samsung) ?





k43l a écrit :



Que Samsung ne sait plus quoi en faire ? <img data-src=" />





Tu veux dire Samsung qui s’apprête à sortir des téléphones haut de gamme sous Tizen (rappel : Samsung n’a jamais rien eu à voir avec Meego, uniquement avec son “successeur” chez Intel, Tizen), et indique que ce sera un élément important de leur stratégie à venir ?







k43l a écrit :



Y’a pas de place pour deux OS sur une même base (linux).

C’était soit l’un soit l’autre pas les deux.





Et c’est quoi qui te permet d’affirmer ça ? Le vent qui passe entre tes oreilles ? Pour rappel tout de même, lors de la sortie du N9, à peu près toute la presse encensait l’OS, y compris les blogs d’analystes i-fanboys qui le considéraient comme meilleur qu’i-OS (pour un i-fanboy c’est assez énorme), et le N9 a vendu plus que les premiers Lumia alors même qu’il n’y avait aucune communication (contre des millions dépensés par Microsoft pour les Lumia) et qu’il n’était pas vendu dans les principaux marchés ; le N9 sous Meego s’est mieux vendu que les premiers Lumia, alors même qu’Elop faisait tout pour qu’il ne se vende pas, tout en faisant des pieds et des mains pour essayer de vendre son WP (pour rappel : le N9 a eu un prix de design devant l’iPad sur un salon référence au royaume-uni, Elop a réagi en insistant qu’il ne serait pas vendu au RU ; Bild - journal grand public - a fait une revue du N9 en Allemagne plus qu’élogieuse, Elop a réagi en insistant que le N9 ne serait jamais vendu en Allemagne ; le N9 a été annoncé mort-né sans support avant même d’être mis en vente, Elop annonçant aussi que quel que soit son succès, il n’y aurait pas d’autre téléphone sous Meego chez Nokia ; etc.).







k43l a écrit :



Par compte il y a de la place pour un Android (ouvert à tous), iOS (fermer à tous) et Windows Phone (hybrid des deux combinaisons).





Windows Phone est tout autant fermé à tous qu’iOS hein…


Le 03/09/2013 à 09h 28







Zantetsuken a écrit :



ouep, à Komárom en Hongrie.





À ma connaissance, Elop avait déjà fermé les usines européennes qui restaient il y a environ un an. Honnêtement il serait temps qu’il y ait une enquête des autorités (en particulier européenne) sur tout ce qu’a fait Elop à Nokia ; avec ce rachat désormais officiel, il n’y a plus vraiment de doute qu’Elop a volontairement sabordé Nokia au profit de Microsoft…


Le 03/09/2013 à 11h 05







darkbeast a écrit :



c’est sympa de lire la news avant de raconter n’importe quoi, ce n’est pas une simple bdd, il faut aussi payer les personnes qui répondent au tel pour relever les pris, les softs, l’hébergement. Et quand on veut qu’une bdd soit accessible de extérieure il faut un minimum de secu et une infrastructure qui tienne la charge, ce qui n’est pas gratuit.





Justement ils indiquent que dans les chiffres annoncés, il n’y a pas la plateforme d’appel et qu’elle est en sus.



Globalement par contre quand on prend en compte ce qu’il y a derrière, ce n’est pas forcément énorme. Pour rappel il y a tout de même derrière le SVI permettant aux stations services de déclarer leurs prix, et vu l’usage il est nécessaire qu’il soit fiable. Toutefois même si les 130k€ annuels incluent les coûts liés au SVI en question, ça me paraît vraiment élevé (même s’il s’agit exclusivement de communication entrante, les coûts d’exploitation ne sont pas négligeables).



Les 20 k€ de développement annuels je ne suis pas sûr de voir dans quoi ils partent quand on voit les manques importants fonctionnels, en particulier en ce qui concerne la recherche, les filtres et les comparaisons de prix (avec entre autres par exemple la possibilité de rechercher dans un rayon de ‘x’ km d’une adresse - on peut plus ou moins avoir ça en faisant un parcours quasiment nul, et en triant ensuite par distance, mais c’est pas terrible quand même).







DeadAngel70 a écrit :



Et puis je ne voit pas où est le soucis puisqu’ apparemment le site s’autofinance, ça ne coute donc rien (sauf les agent des la dgccrf mais ils ne sont pas payé que pour ce site).





Le souci est quand même que ça justifie les redevances au lieu d’avoir ces données en OpenData (pour les agents de la DGCCRF qui ne sont pas couverts par les recettes en question, il faut aussi voir qu’il y a les recettes des « amendes » suites aux contrôles lorsque les stations ne sont pas en règles - et qu’en on voit le nombre qui n’ont pas mis à jour leurs prix depuis plusieurs semaines, il y en a un paquet a priori, étant donné qu’ils ont l’obligation de mettre à jour le prix dès qu’il change et que je n’ai encore jamais vu une station dont le prix ne changeait pas au moins tous les jours…).



La question se pose donc quand même de la justification des dépenses en question, puisqu’on pourrait très bien s’imaginer que les tarifs des prestations sont adaptés aux revenus pour les filer aux copains. @Xavier, on a des informations sur le prestataire qui s’occupe du site et sur la façon dont a été obtenu le marché (appel d’offre, etc.) ?



L’idéal ce serait de pouvoir avoir un relevé détaillé des prestations (i.e. xxx € / ans pour l’hébergement avec deux (ou plus) serveurs frontaux load balancés et deux serveurs BDD répliqués, yyyy € / ans pour l’exploitation du SVI, etc.) ; en gros le descriptif des prestations du prestataire et ses tarifs. Globalement vu les informations qu’on a pu avoir sur la fréquentation etc., plus de 40k€/an infogéré pour l’hébergement lui-même me paraîtrait surfacturé, et j’ai du mal à voir 90k€/an d’exploitation du SVI (et vu que le centre d’appel n’est pas dans les 130k€/an), je me pose un peu des questions.


Le 02/09/2013 à 15h 37







Drepanocytose a écrit :



Et pourquoi ils ne pourraient pas se le permettre ? (vraie question)





Parce qu’aujourd’hui beaucoup de clients veulent toujours ce genre d’offres (acheter leur téléphone chez leur opérateur mobile - pourquoi ça j’en sais rien), et que beaucoup d’entre eux bloquent (à juste titre) dès qu’on leur parle de crédit (sans compter que les démarches nécessaires pour le crédit font qu’il faut du temps entre la décision d’achat et la fin des démarches, ou encore que nombre de clients ne sont pas éligibles à un crédit consommation car à la limite du surendettement).



En conséquence, à partir du moment où les concurrents peuvent continuer à faire des crédits déguisés, FM perd des clients (stupides, certes, mais ce sont aussi souvent ceux qui rapportent le plus justement pour ça) au profit des autres opérateurs qui ont ces offres sans passer par un vrai crédit et ce que ça implique. Économiquement une boîte ne peut pas se permettre de laisser un tel avantage à ses concurrents, tu ne crois pas ?



Après il reste à FM de définir de quelle façon ils vont répondre à ces offres : soit ils adoptent la même stratégie du crédit déguisé (j’en doute), soit ils trouvent autre chose, comme par exemple la location suggérée dans l’article)


Le 02/09/2013 à 15h 27







Eagle1 a écrit :



oui ça c’est l’objectif intrinsèque, mais je parlais de l’ “idéaologie” de l’entreprise: que le prix du forfait et du mobile devrait être séparé ?





Oui et donc tu voulais dire quoi ? Qu’ils reniaient leur idéologie de départ avec la « mise à disposition » de mobile ? T’as plus d’infos que Sébastien et tu sais ce qu’ils vont faire pour laisser entendre que les prix ne seront pas séparés ? Rien ne laisse penser que les prix ne seront pas séparés.



Par contre il était bien évident depuis leur procès perdu qu’ils seraient obligés de proposer des offres « jointes » comme les concurrents mais à leur sauce : à partir du moment où la justice estime qu’un crédit déguisé n’est pas un crédit déguisé parce que SFR n’emploie pas le terme « crédit » (ce qui est en l’essence le jugement qui a été rendu dans l’affaire Free vs SFR), ils ne peuvent pas se permettre d’un point de vue économique de n’avoir que des offres séparées avec un vrai crédit pour le mobile comme aujourd’hui…


Le 24/08/2013 à 14h 28







Zyami a écrit :



Les créateurs iriginaux de Titan Quest n’avaient pas fait un nouveau jeu ?





Ils bossent sur Grim Dawn (enfin les principaux créateurs, et en particulier Arhur « medierra » Bruno le lead designer) qui se base sur le moteur et le toolset de TQ, et financé par KickStarter. Il a un peu de retard sur ce qui était prévu (il approche la fin de l’alpha là où ils pensaient le release à peu près maintenant) pour diverses raisons : avec le surplus de financement ils en font plus et c’est plus long, ils ont eu des difficultés de recrutement (des gars qui bossaient avec eux à côté et qui prévoyaient de les rejoindre full time ne pouvaient plus prendre le risque avec leur situation familiale, des problèmes persos pour medierra, etc.).



J’attends de voir ce qu’ils vont annoncer par le revival de Titan Quest par contre, j’ai un peu peur, mais ça peut être une bonne surprise :)







Zekk a écrit :



Je croyais que les dev de Titan Quest s’était barré avec la licence… Pour jouer en ce moment à Grim Dawn en alpha, c’est un très bon jeu, mais jusqu’à présent c’est surtout un copié collé de TQ.





Sans la licence, mais ça restait les propriétaires du studio (Iron Lore) qui gardaient le contrôle du moteur et du toolset, et ils l’ont mis à disposition dans de bonnes conditions (pas trop cher) à l’équipe pour le projet Grim Dawn, qui est donc essentiellement un Titan Quest 2.



Pour les comparaisons avec les Diablo ou Torchlight 2, ou encore PoE (ou plus ancien, Sacred et Sacred 2), la principale différence pour Titan Quest (et Grim Dawn) est que TQ n’a pas de serveurs fermés. C’est le point qui sépare au final le plus ces jeux en tant que H&S.


Le 24/07/2013 à 18h 16







catseye a écrit :



C’est pour ça que c’est amusant de voir accuser le gouvernement actuel, qui ne fait que subir les institutions mises en place par le précédent, et à mon avis y a des enjeux cachés qui font que Hadopi ne peut plus disparaitre .. merci Sarko …

Mais bon le CSA ne sert déjà pas à grand chose, ils sont complètement dépassés par les évènements, alors si on leur ajoute Hadopi par dessus … <img data-src=" /> … et le top serait qu’après, la droite ait à gérer ce gros merdier incontrôlable .. popcorn ON ..





Ils ne font pas que subir, loin de là : ils continuent dans la même politique que les précédents. Faut pas oublier qu’en pratique, le PS n’était pas en tant que tel opposé à HADOPI, en particulier la frange proche du flamby, ils avaient juste quelques représentants qui étaient réellement contre comme Bloche, puis ils ont fait de la figuration (mais pas trop non plus il aurait pas fallu empêcher que ça passe non plus). Si Aubry était passée à la primaire, ça aurait pu être différent, là c’est la partie du PS qui voulait HADOPI autant que l’UMP, et pour les mêmes raisons : dérive sécuritaire + pleins de sous-sous dans la popoche de la part des copains des industries du droit d’auteur.


Le 22/07/2013 à 21h 40







Jarodd a écrit :



Ben oui, tout le monde sait que les neuropéens sont tous des gentils, et les naméricains sont tous des méchants ! Vu ainsi pas besoin de faire une enquête, effectivement.





C’est pas là la question (si ce n’est que dans le cas de figure présent, le plus gros “méchant” est de très loin Cogent). Dans la situation inverse, où que ce soit le bon droit, les US seront toujours du côté de la boîte de chez eux. Il serait temps qu’en Europe on arrête d’être les pigeons qui sabordent leur économie sur l’autel du « libre échange » quand les US et l’Asie sont les champions du protectionnisme en retour…


Le 22/07/2013 à 21h 36







yeagermach1 a écrit :



C’est un problème de certification des logiciels et de procédure, il me semble. En gros faire une copie, c’est pas la même chose que saisir le DD au yeux de la loi. Bon ok c’est tres debile, vu que sans aucun doute la plupart des données présentes sur les DD de richard sont très certainement des copies de celles présentes sur les serveurs. Et que le terme de copie dégradée en informatique est quand même très con.





Dans ce cas il peuvent faire l’inverse : ils font une copie qu’ils donnent au « perquisitionné » et gardent l’original, plutôt que de saisir toute la machine. Mais c’est vrai que ça commence à devenir hautement compliqué pour la police à ce niveau là <img data-src=" />


Le 22/07/2013 à 21h 34







wagaf a écrit :



C’est tout à fait dans l’ordre des choses qu’Orange paie et pas Cogent ou MegaUpload.



Les clients paient Orange chaque mois pour accéder à Internet (“illimité”), c’est à Orange d’utiliser cet argent pour offrir le meilleur accès possible aux services.



C’est aux clients (qui paient pour le service) de décider des sites auxquels ils veulent accéder, et pas à Orange de décider pour ses clients.



Bref la commission à tout à fait raison d’enquêter et Sréphane Richard ne fait que défendre sont petit business…





En suivant cette logique plus que partielle, mais en sens inverse, on obtient :



« C’est tout à fait dans l’ordre des choses que Cogent paie et pas Orange ou Free. Les clients paient Cogent chaque mois pour être présent sur Internet (“illimité”), c’est à Cogent d’utiliser cet argent pour offrir la meilleure diffusion possible des services.



C’est aux clients (qui paient pour le service) de décider des consommateurs qu’ils veulent atteindre, et pas à Cogent de décider pour ses clients.



Bref la commission à tout à fait tord d’enquêter et Stéphane Richard est la victime d’un complot atlantiste. »



En l’occurrence, le problème vient du fait que Cogent entretient volontairement une énorme asymétrie des données qu’il transporte, en faisant payer très peu cher les diffuseurs de contenus U.S., et en essayant de faire payer un maximum les FAI européens, alors même que la base du fonctionnement du net est le peering à peu près « équivalent ». Orange n’est pas forcément tout blanc, en particulier en ce qui concerne la communication avec ses clients, et, comme la plupart des autres FAI, sur le fait qu’ils entretiennent eux-aussi des causes importantes de ce déséquilibre en n’offrant pas à leurs clients un débit montant conséquent leur permettant de s’auto-héberger (voire en bridant certains ports comme le port 25, essentiel au SMTP).



Orange et les autres FAIs ne sont pas des saints, mais Cogent est de très loin un voyou bien plus dangereux, et malheureusement, l’Europe (et les gouvernements européens individuellement) continue de taper sur les boîtes européennes au profit des boîtes américaines (ou des fois asiatiques), et l’Europe est la seule région du monde à ne pas faire très activement du protectionnisme (pour commencer c’est bien la seule région du monde où tu peux monter une boîte sans qu’au moins 51% des parts appartiennent à un citoyen de la région… U.S., Chine, etc. imposent que la majorité absolue soit détenu localement ; entre ça et le fait qu’en pratique les autres pays ont toujours de façon plus ou moins déguisées des taxes d’importation énormes pour ce qui vient d’Europe, ainsi que des règles spécieuses pour interdire les produits quand la concurrence leur déplait, l’Europe n’est pas prête d’arrêter de payer pour les US).







aureus a écrit :



A l’époque si d’ou la plainte, effectivement si on parle de maintenant cela ne viendrait plus de cogent, mais je n’ai pas entendu parler de problème avec youtube ces dernières années





Et pourtant, y en a toujours autant, ou presque. Et ça a encore très largement empiré vis-à-vis de tout ce qui passe par Cogent, comme en particulier Twitch.tv, (feu) Own3d, les vidéos diffusées par IGN, etc.



Par contre, Stéphane Richard à tout à fait raison lorsqu’il dit

D’abord, il est ridicule de mettre sur un pied d’égalité DailyMotion et YouTube, dont l’audience est dix fois supérieure !



En effet, l’accès à Dailymotion depuis Orange est encore pire que l’accès à YouTube, et Orange était arrivé, et de très loin, bon dernier pour la satisfaction des usagers en ce qui concerne l’accès à Dailymotion dans l’enquête de l’UFC (avec plus de 50% de clients qui se plaignaient de lenteurs, alors que dans le même temps ils avaient seulement quelque chose comme 15% de mécontents pour YouTube).


Le 20/07/2013 à 17h 19







JoePike a écrit :



Dans le cas présent on le voit:

plainte en janvier 2011

licencié en fevrier 2011

et jugement en mai 2013





Cette timeline n’a absolument rien à voir à ton exemple (fondé sur du vécu ou juste monté de toutes pièces je sais pas) : c’est simplement les délais classiques pour les prudhommes, et encore en l’occurrence c’est même particulièrement RAPIDE puisqu’en à peine plus de deux ans il y a eu non seulement le jugement des prudhommes mais également le jugement en appel. Juste comme ça ma sœur ça fait plus de 2 ans que la plainte aux prudhommes est déposée, et y a toujours pas eu le premier jugement (avec la boîte qui fait tout pour faire durer, étant en tord à 100%).





JoePike a écrit :



et à ce moment la les CP ou autres dûs sont payés ( alors que le tribunal a estimé que le licenciement n’était même pas abusif)





Que le licenciement soit justifié ou non, les CP et autres dus doivent être payés, c’est un peu normal : ils sont dus justement.







JoePike a écrit :



Ayant fait face à un problème similaire ( nous avions préparé le chèque avec les CP, le préavis sans besoin d’exécution etc …)avons décidé de ne plus jamais embaucher car ça a duré 2 ans.





Si ça se passe mal avec un prestataire avec lequel tu as un contrat qui porte une durée, ce sera pas mieux : tu peux te retrouver bloquer pendant toute la durée du contrat, et d’ici à ce que t’arrives à obtenir quoi que ce soit avec une plainte et une dénonciation du contrat tu auras dépassé le terme du contrat et la boîte aura probablement “fait faillite” (et le patron recréé la même en couleur à côté bien sûr).







JoePike a écrit :



Mais si comme je l’ai déja dit dans ce genre d’histoire on ne sait pas tout, je peux t’assurer que ça décourage d’employer du personnel car on sait que ce sera trop dur à revenir en arrière si ça ne va pas.





Employer du personnel (en CDI ou CDD) ou avoir recours à des prestataires, ça revient au final au même (si ce n’est que tu paieras plus cher les prestataires, et que de l’autre côté tu devras gérer l’administratif lié à l’embauche). La seule façon d’éviter ça, c’est de faire soi-même.


Le 20/07/2013 à 13h 00







JoePike a écrit :



ça ne donne aucun droit au patron et ça n’implique pas qu’on puisse utiliser facebook comme preuve mais ça ne donne pas non plus à l’employé tous les droits parce qu’il est maintenant en CDI





Et ça tombe bien, le tribunal à confirmé que l’employé n’avait pas tous les droits en confirmant la faute grave…







JoePike a écrit :



Et je dis simplement que ce genre de cas qui vont dans les tribunaux, n’incitent pas les employeurs à prendre en CDI





Pas trop de rapport avec le CDI. Le tribunal a confirmé la faute grave de l’employé, et ce que l’entreprise a à payer, c’est des sommes qu’elle devait à l’employé pour son travail effectué avant le licenciement (heures supplémentaires, congés payés).



La faute grave ça se justifie, mais hors faute grave c’est aussi facile de virer un CDI qu’un mec en période d’essai, faut juste accepter de payer les indemnités légales et respecter le préavis tout ça.


Le 01/07/2013 à 17h 34







fred42 a écrit :



Elle commence à coûter cher l’exception culturelle !



Comment leur (droite ou gauche, hein) faire comprendre que l’on n’en veut pas ?





Non, Benoît, nous ne sommes pas tous d’accord !



Que l’industrie du divertissement trouve elle-même ses financements comme une grande ou qu’elle crève si elle n’est pas capable de convaincre des apporteurs de financement.



Et puis je te rappelle que ton boulot, c’est la défense du consommateur, pas de l’industrie du divertissement. C’est hélas ta collègue Filippetti qui s’en charge alors que ce ne devrait même pas être son boulot. Son boulot, c’est la culture, pas l’industrie,fût-elle du divertissement !





Gros +1 !


Le 01/07/2013 à 17h 30







MikeNeko a écrit :



Moi je suis pour un désabonnement possible sans pénalités passé la première année d’engagement.



Si du jour au lendemain je me retrouvais licencié, ou victime d’un accident, ou que ma famille tombe dans le besoin; j’aurais forcément envie de liquider immédiatement toute dépense inutile pour couvrir le vital d’abord… dont bien évidemment les chaînes payantes.





Tout pareil. Il n’y a aucune justification à la reconduction de l’engagement au-delà de la première année (qui peut se justifier par le coût de l’ouverture d’une ligne, sachant que sauf cas très particulier il vaut mieux un engagement sur un an après ouverture de ligne que de payer en plus l’ouverture - mais même dans ce cas une loi sur la consommation devrait obliger les opérateurs à proposer au moins la possibilité de payer des frais d’ouverture pour ne pas avoir d’engagement du tout). Si ce n’est bien sûr garder captifs des clients qui ont autre chose à penser que de regarder tous les mois s’il n’y a pas un truc automatiquement renouvelable qui tombe.



Au minimum un changement de situation personnelle (quelconque) devrait ouvrir droit (et ça devrait être inscrit dans la loi) à une résiliation sans frais du moment que la première année est passée.


Le 24/05/2013 à 18h 23







Zekk a écrit :



C’est clair, je comprends pas non plus cette grogne. Y’a 20 ans on passait de la master system, à la megadrive, puis la saturn, y’avait pas de retro-compatibilité (bon ok si, entre la master system et la megadrive, via une cartouche adaptateur), et personne gueulait pourtant. Si tu veux rejouer à un vieux jeu, tu rebranches la console et basta !









daroou a écrit :



je comprends pas tout ce foin autour de la retrocompatibilité.

A l’époque on ne s’est jamais demandé si les jeux megadrive allaient fonctionner sur la saturn !





Entre temps, comme ça a été précisé par d’autres, il y a eu la plupart des consoles qui ont assuré la compatibilité avec les anciens jeux. Mais surtout entre temps les consoles se sont énormément rapprochés des PCs, tant en termes de fonctionnement (c’est de moins en moins le “on se met à 4 devant la console et on joue une heure ou deux à un jeu quelconque”) qu’en termes de type de jeux. Et le PC, la compatibilité des jeux quand tu mets à jour ta machine, ça existe en gros depuis les premiers jours (et quand ça a “cassé”, il y a eu les émulateurs pour ça, qui certes ne venaient pas de l’éditeur du système, mais qui étaient possibles, ce qui n’est pas le cas avec les systèmes complètement verrouillés des consoles). Sur PC, tu change complètement ton matos qui a 10 ans, tes jeux marcheront toujours. La seule source d’incompatibilité vient du système, et à ce niveau là Microsoft (justement) s’est attaché pendant toutes ces années à assurer au maximum la compatibilité, ce qui fait que sous Win7 tu continues de pouvoir jouer sans trop de problèmes avec des jeux sortis pour WinXP, voire Win95 (et pour les jeux de l’époque DOS, tu as les émulateurs type DOS Box, que tu peux installer, ce que tu ne peux pas faire sur une console, à moins que l’éditeur de la console ne le mette lui-même à disposition).



D’ou la grogne des joueurs, qui pour une partie grandissante en ont de plus en plus marre d’être traités comme des vaches à lait (et de plus en plus d’ailleurs).


Le 24/05/2013 à 17h 48







tiranor a écrit :



-Tu veux héberger un site web qui génère 10To/mois de trafic, tu prends un contrat spécifique.





Ou pas… D’autant que pour moins cher que cet accès internet, tu peux louer un serveur dédié (inconvénient : il n’est pas chez toi), avec une connexion 100mb symétrique sans limite de bande-passante, et en plus des GTR.



D’autant aussi que Orange fait sa pub de cet abonnement pro sur le thème “hébergez votre site web sur cette ligne” (ce que normalement tu devrais pouvoir faire sur tout accès internet soit dit en passant, sauf que sur un contrat “particulier” d’orange, non seulement tu ne peux pas avoir d’IP fixe, mais en plus le port 25 est bloqué donc tu ne peux pas héberger de serveur mail).



Edit : sans compter que pour une ligne pro, les 2 To tu peux les atteindre très rapidement dès que tu fais beaucoup de déploiement d’applications / de backups de serveurs distants. Je suis à peu près sûr qu’on est à plus que ça par mois au boulot, et on est une petite boîte (~10 employés) et que ce n’est pas la fibre. D’ailleurs je dépasse ça en général avec mon accès perso rien qu’avec les backups de mes serveurs et les jeux vidéos, donc bon…



C’est juste des limites à la con qui leur permettent de faire chier potentiellement tous leurs clients, et qui n’ont juste pas raison d’être.


Le 01/05/2013 à 20h 15







Iletvilain a écrit :



Les marchés sont tout simplement déconnectés de la réalité.

La bourse continue de monter, et on sort le cric si nécessaire.

La réalité est toute différente.

On parle de 10 millions d’abonnés pour Free, téléphonie mobile incluse… Ça valorise chaque abonné à 1000 euros, soyons sérieux…



Pour les abonnés à 2 euros, ça représente près de 50 ans de CA HT ! <img data-src=" />





Illiad n’est pas que Free… Illiad c’est aussi de l’hébergement (mais pas que non plus), et certains de ces clients louent des serveurs dédiés comme celui-là (note : la composition du groupe Illiad a été bien détaillée par YohAsAkUrA, je t’invites à t’instruire).







pti_pingu a écrit :



Le fait par contre que la couverture ne soit pas top, on est tous d’accord quoique, le voyage de 1800 km tel que présenté a été choisi suivant quelle méthode (car bon Rennes - Grenoble, on passe par la diagonale du vide hein), y’a t’il une raison valable autre que le fait qu’il s’agit d’un trajet habituel de l’auteur?



C’est donc du doigt mouillé où l’on prouve la mauvaise couverture d’un opérateur par des mesures chocs, je veux dire par là que le mauvais niveau de couverture et l’énervement justifié ne peut avoir qu’une seule réponse, partir chez un autre opérateur car, on ne peut exiger par la force de la loi une amélioration du niveau que si Free ne respectait pas le minimum légal, or ce n’est pas le cas.



Mais bon, si la majorité n’est pas assez intelligente pour comprendre qu’on ne contre pas un trolleur pro par du troll, mouaip, on est pas sortie de l’auberge.





Bah surtout l’article (soit l’article est un gros troll biaisé, soit son auteur a juste un cerveau complètement à l’arrêt) se base sur un trajet à grande vitesse (donc handover fréquents, le téléphone va préférer ne pas changer de réseau) passant par des zones totalement inhabitées : forcément, Free qui a des obligations de couverture de population va pas s’amuser à aller couvrir des zones non peuplées avant quelques années.


Le 30/04/2013 à 15h 29

Déjà sur le principe, l’excuse de la “sécurité” tout ça c’est bien pipeau dans le cas présent, mais ce qui me choque personnellement c’est la fin du document “on n’a pas pu voir les documents, mais on va croire la HADOPI quand elle dit que faut qu’ils restent secrets pour des raisons de sécurité”… La CADA aurait du demander communication des documents par la HADOPI pour pouvoir juger elle-même si effectivement ces documents devaient rester confidentiels ou non. Que je sache, c’est à la CADA de dire si un document doit ou non rester confidentiel, pas à l’autorité qui ne veut pas le communiquer, et pour ça il faut qu’ils aient connaissance du dit document !



C’est un peu trop facile sinon, il suffit à une administration de dire qu’un document doit rester confidentiel pour des raisons de sécurité pour qu’on leur donne le droit de ne pas le communiquer au public, quand bien même ce serait par exemple un relevé détaillé des dépenses en coke et putes au ministères de la culture.

Le 30/04/2013 à 12h 29







blob741 a écrit :



Un peu choquant la suppression de cet indice 040, donc, on créé une boîte, on la plante (en plantant notamment ses partenaires, vu le nombre de liquidations qui finissent in bonis, les éventuelles conséquences pour les salariés qui auront été payés plus ou moins en temps et en heure, etc …).



Pis on recommence… y’a plus qu’à espérer que les tribunaux de commerce ne soient pas trop timides sur les interdictions de gérer.





Tu oublies aussi les clients, qui en général l’ont pour leur pommes. En cas de liquidation comme ça, en général il y a que les créanciers (banques) qui récupèrent (une partie de) leur billes. Salariés, clients, et dans une moindre mesure partenaires l’ont dans l’os.



Personnellement ça me choque un peu aussi cette suppression. Quand on voit déjà le nombre de faillites frauduleuses qui en mettent plein les poches de certains (en particulier au niveau des promoteurs dans le bâtiment), supprimer ce léger garde-fou n’est pas bon présage… Tant qu’on y est on a qu’a aussi supprimer le fichier d’interdits bancaire, ou encore les fichiers d’interdiction d’exercer des médecins… C’est vrai quoi c’est injuste de les empêcher de remettre d’autres personnes dans la merde tout de suite.


Le 29/04/2013 à 14h 17







ze_fly a écrit :



J’ai lu en diagonal les rapports mais en 2008, il me semble que le groupe Activision Blizzard faisait plus de 300 M$ de bénéf.





http://www.gamescharts.fr/2013/02/activision-blizzard-le-bilan-annuel-2012/


Le 29/04/2013 à 13h 41







ze_fly a écrit :



Après un peu de recherche c’est bien ça. En 2008, ils en étaient à leur 16eme année de croissance en CA (juste après la fusion). Ca confirme ce que je dis : Kotick a fait d’Activision ce que l’entreprise est aujourd’hui.





Croissance de CA, oui, mais ils perdaient du pognon avaient peu de bénéfices… Il vaut mieux une boîte qui fait 1 million de CA dont 500k de bénéfices qu’une boîte qui fait 1 milliard de CA mais qui ne gagne que 1k.



Activision était “plus gros” que Blizzard, mais dans la fusion ils ont plombé le bilan de Blizzard (et sont la cause des pertes du groupe en 2008) ; Blizzard gagnait énormément de pognon, et beaucoup plus que Activision (et ce avec moins de CA).



(édité pour quelques corrections)


Le 29/04/2013 à 13h 19







ze_fly a écrit :



Kotick a quand même fait d’Activision de ce que l’entreprise est aujourd’hui, et ç c’est pas rien quand même. D’auatnt plus qu’on peut toujours crâcher sur lui mais au final, est-ce sa faute si les gens achète ses produits que vous décriez tant ?





Tu veux dire une boîte qui était sur le point de couler quand elle a “fusionné” avec Blizzard (faudra toujours m’expliquer comme la fusion d’un boîte qui perd de l’argent et d’une qui en gagne énormément peut résulter en du 5050 avec tous les dirigeants principaux qui sont ceux de la boîte qui coulait…) ? Une boîte qui avec le pognon qu’elle perdait a fait que la fusion Activision-Blizzard était à peine bénéficiaire pendant pas loin de 2 ans alors que Blizzard avant faisait environ 1 milliard de bénéfices ?



Kotick aurait dû être viré lors de la fusion, et le gros des bénéfices vient de la branche Blizzard ; pourtant le PDG de la branche Blizzard voit lui son salaire diminuer… (mais il n’est pas non plus à plaindre vu le salaire, évidemment). Kotick n’a rien fait qui justifie un tel salaire, encore moins une telle augmentation. Et quand cette augmentation correspond à plus que le coût des 900 employés virés dans le même temps, c’est on ne peut plus choquant.



Et après ils viennent faire la morale aux pirates sur le thème “ouiiin si vous piratez on peut pas payer les développeurs”… Putain mais avec le salaire annuel de ce mec tu payes le développement complet d’un jeu AAA moyen (3-4 ans, 100+ employés). Des salaires comme ça, encore plus quand à côté de ça le secteur du jeu vidéo et le secteur de l’industrie logicielle qui paie le moins, et de très loin, et dans lequel le temps de travail est le plus élevé, ça dit une chose aux pirates et à ceux qui ne le sont pas “surtout n’achetez pas le jeu, piratez-le : votre pognon il ira payer le 50e jet privé de Kotick, et les développeurs se feront de toute façon virer en masse et seront de toute façon mal payés et exploités”. (à ce sujet, un petit article à méditer en voyant les salaires de ces dirigeants :http://www.penny-arcade.com/report/article/why-your-games-are-made-by-childless-… )


Le 27/04/2013 à 04h 13







5h31k a écrit :



Si il n’y as pas de DRM et une réel durée de vie, ce sera peut-être un jeu que j’achèterais plein pot et pas en mode GOTY / Gog.



A voir mais je les aime bien pour le moment <img data-src=" />





Si c’est comme TW2 (et y a pas de raison que ce ne soit pas le cas), il sera dès sa sortie sur GoG (et pour TW2, pour les acheteurs EU, il y avait une remise en bons d’achats GoG pour que le prix réel soit le même que pour les autres régions, parce qu’ils ne pouvaient pas mettre un prix de vente supérieur au “prix imposé en Europe par les distributeurs européens”).







yeagermach1 a écrit :



Ils se rachetent une virginité sur ce coup-la. Parce que bon les debuts de witcher 2 ont été plombé en partie par un DRM relou et consommateur de puissance (d’après eux) sur Steam. Et ils ont fini par mettre la même version que sur gog, quelque temps plus tard, ce qui a réglé de nombreux problèmes.





Les problèmes de DRM au début de TW2 étaient dus exclusivement aux distributeurs autres que GoG : sur GoG il était dès le premier jour sans DRM ! Faut arrêter d’acheter sur Steam quand on peut acheter sans DRM à côté (et moins cher en l’occurrence), ou alors faut pas venir se plaindre après… <img data-src=" /> D’autant que l’argument “d’avoir tous ses jeux au même endroit” n’est pas valable puisqu’il est possible d’ajouter des jeux non steam dans steam.



Et pour le coup d’ailleurs ils se sont pris un procès (qu’ils ont perdu) pour la suppression du DRM pour toutes les versions avec le patch peu après la sortie, par un des distributeurs qui avait imposé un DRM. <img data-src=" />



CD Projekt, et ce depuis le début, on fait difficilement plus clean qu’eux. Depuis TW1, ils bataillent contre les éditeurs et leurs DRMs. Sur TW1 ils ont réussi à les faire sauter avec la version enhanced, sur TW2 ils ont réussi à pouvoir le vendre directement sans DRM via le GoG. Sur TW3 je pense que ce sera pareil, initialement y aura que sur le GoG que ce sera sans DRM, parce que les distributeurs sont trop cons et ne veulent pas entendre parler de “sans DRM”, alors même que les DRMs coûtent cher et font perdre des ventes.







dump a écrit :



Si il y a pas de DRM dans le jeux, je suis prêt a payer pleins pots moi aussi (49 eur maxx) … en principe j’attend les solde sur steam pour faire le plein de jeux. Mais l’action mérite d’être saluer et là je ferais l’effort qu’il faut pour.

En princpe, je ne met jamais plus de 25 eur dans un jeux mais s’il tiens ses promesses je le récompenserais.





Au final sur GoG à sa sortie, TW2 revenait à (de mémoire je ne suis plus sûr du chiffre) un peu plus de 30 €, avec $15 de bons d’achat sur le GoG pour arriver au même prix qu’ailleurs dans le monde, parce qu’officiellement ils devaient au “prix public européen” de 45 € (imposé par les distributeurs). Malgré ça, il y a eu des gens pour l’acheter à la place plus cher sur Steam avec des DRMs plutôt que directement sur le GoG (moins cher mais rapportant plus aux développeurs) sans DRM.







yeagermach1 a écrit :



Namco a distribué les versions retails pas les versions digital.



Steam ne force que son DRM pas securom. Les premieres versions sur steam etaient securom (avec un master donné par CD Projekt qui est arrivé super tard d’ailleurs).





Probablement parce que Namco Bandai n’avait “permis” à CD Projekt de distribuer sans DRM que sur leur propre plateforme, et donc pas sur Steam. Comme précisé par alfina, supprimer globalement le DRM a coûté cher à CD Projekt à cause d’un procès (gagné) de Namco Bandai.



Mais bon, comme je le dis plus haut dans ce message, quand on décide de payer plus cher pour avoir le jeu avec DRM en passant par Steam plutôt que de payer moins cher en reversant plus au développeur sans DRM en passant par GoG, faut pas venir se plaindre après non plus… Et encore moins prétendre que CD Projekt ce sont des méchants alors qu’au contraire y a pas beaucoup de boîtes qui sont à ce point du côté des joueurs (et contre les parasites que sont les majors).


Le 27/04/2013 à 03h 49







yeagermach1 a écrit :



J’ai un lecteur BR sur mon ordi et j’ai aucun probleme a lire les BR. Bon ok j’utilise la version de PowerDVD que l’on m’a gentiment fait payer avec. Moi aussi j’aimerais que VLC puisse passer outre la protection BD+, parce que powerdvd c’est quand meme pas tres tres efficace comme logiciel.





Ah, magnifique, encore un de ces défenseurs des DRMs qui n’a pas de problèmes avec les DRMs : il les contourne…



Ça me rappelle un dev de JV avec qui j’avais discuter du DRM que leur éditeur imposait, qui me disait qu’il ne voyait pas le problème avec le DRM, lui ça lui posait aucun problème. Quand je lui ai posé la question “quelle est la première chose que tu fais après avoir installé un jeu que tu as acheté (et donc pas un jeu qu’il a eu avec un master dev sans DRM) ?”, sa réponse a été “bah je télécharge le no-cd”. <img data-src=" />







yeagermach1 a écrit :



On peut pas dire aux producteurs du jours au lendemain de se passer des DRM (et donc de dire que le contenu est librement copiable) alors qu’ils voient qu’avec des DRM, c’est deja le cas.





Supprimer les DRMs ne dit pas “le contenu est librement copiable”… C’est vraiment que pour la plupart des gros qui poussent ces solutions, ils sont tellement malhonnête que pour eux “s’ils peuvent le faire sans se faire taper sur les doigts alors même que c’est clairement malhonnête - comme l’optimisation fiscale -, alors ils vont faire”. Les années ont montré que ce n’était pas le cas des gens normaux : cela fait plus de 20 ans que les DRMs sont toujours plus intrusifs sur les jeux vidéos et que les utilisateurs légitimes (qui ont payé) rencontrent plus de problèmes que les “pirates” et sont au final quasiment systématiquement obligés d’utiliser les méthodes des “pirates” pour profiter du jeu qu’ils ont payé ; pourtant, malgré cela ils continuent encore et toujours de payer…



De plus, le “sans DRM” est au contraire un argument de vente, et le DRM est en lui-même une incitation au piratage. Pour rester dans le jeu vidéo, on a GoG.com justement qui fait du sans DRM son fond de commerce, et qui le fait également pour les jeux créés par leur studio de développement (CD Project Red - The Witcher 1 et 2, et bientôt le 3), quitte a se prendre un procès par des éditeurs de merde (Namco de mémoire). Ironie de l’histoire, si The Witcher 2 s’est effectivement retrouvé sur les réseaux, non seulement la version qui s’y est retrouvée était une version diffusée par un des gros distributeurs classiques, avec DRM (alors que GoG.com diffusait une version sans DRM aucun), mais en plus, plus que d’habitude, toutes les releases s’accompagnaient de messages incitant les joueurs à ne pas pirater le jeu et au contraire à l’acheter sur le GoG. Dans les autres domaines la vente de musique en ligne à finit par se faire à l’idée que les DRMs étaient contre-productifs (et beaucoup d’utilisateurs légitimes se sont retrouvés comme des cons à ne plus pouvoir utiliser des fichiers qu’ils avaient payés, à cause des DRMs), et pour les livres les éditeurs qui font le choix du sans DRM se portent très très bien.







yeagermach1 a écrit :



C’est tres con mais quand tu te fais cambrioler, tu as tendance a renforcer tes protections pas a les retirer parce que le cambrioleur est toujours meilleurs que ces dernières.





Quand tes protections blessent les personnes que tu invites chez toi et n’empêchent pas les cambrioleurs de venir, tu vires les protections. Dans le cas des DRMs, ils en rajoutent encore une couche qui va blesser et gêner encore plus les gens qu’ils invitent dans leur maison, et qui ne va pas plus gêner les cambrioleurs, avec pour conséquence qu’il y aura de moins en moins de monde qui acceptera de venir dans leur maison, ou alors ce sera en faisant comme les cambrioleurs.







yeagermach1 a écrit :



Il faut montrer aux producteurs qu’il y a moyen d’exister sans ces protections, aujourd’hui personne n’essaye de faire de cela (en tout c’est peu relayé) alors que beaucoup de gens passent leur temps a critiquer les DRMs. Je pense que vous vous tromper de cible en attaquant les DRM et cela par facilité (il sera toujours plus simple de craquer un DRM que de demontrer qu’un autre marché peut exister).





C’est pourtant déjà le cas aujourd’hui. Le marché du sans DRM se porte très très bien. Bien sûr pour cela il faut faire de la qualité, et bien sûr également, comme les producteurs actuels s’y opposent, ils n’y sont pas trop présents. Les rares fois ou ils font semblant d’essayer le sans DRM, ils font tout pour arriver à la conclusion que “vous voyez ça marche pas”. J’ai en tête l’exemple d’un des PoP édité par Ubisoft, qu’ils ont sorti sans DRM : le jeu en lui-même était une sombre merde, ils n’ont fait quasiment aucune promotion pour le jeu (en comparaison des autres), et ils n’ont quasiment pas communiqué sur le fait que le jeu était sans DRM alors même qu’ils étaient en plein milieu d’une phase de boycott par les joueurs du fait que leurs DRMs étaient moisis et que les joueurs en avaient marre ; donc forcément, à l’arrivée, “le jeu ne s’est pas vendu assez, c’est parce qu’il n’y avait pas de DRM”.







yeagermach1 a écrit :



ils ont fait quoi comme concession les anti DRM ? Parmi les partisans des DRMs, dans le monde jeu video, beaucoup ont fait marche arriere (ubi et sa connexion permanente obligatoire par exemple) ou ont adopté un DRM moins chiant style Steam a la place de StarFox.





Pour la première question, tu as lu au moins le message auquel tu réponds ? Pour Ubisoft, ta “marche arrière” me fait bien rire, même si malheureusement c’est comme ça que ça a été vu par les moutons. Ils n’ont rien fait d’autre que la bête méthode des politiques : on te mets 10 chaînes, si tu gueules assez fort, on t’en enlève 5, et là t’es content et t’as l’impression d’avoir gagné alors qu’au final tu t’es fait enflé et on t’a enchaîné avec 5 chaînes de plus qu’avant. Tu remarqueras que quasiment systématiquement Ubisoft (entre autres), les DRMs sur leur nouveau jeu, c’est l’ancien plus une couche supplémentaire bien couillue qui fait bien chier : si ça gueule trop, on en enlève une couche mais pas trop pour pas non plus redescendre au niveau d’avant , petit à petit l’utilisateur se retrouve un peu plus limité après chaque jeu, mais il a l’impression d’avoir “gagné” parce qu’Ubisoft a “reculé” (d’un pas après avoir avancé de 10 mais bon…).


Le 27/04/2013 à 02h 22







jun a écrit :



Les troisième et quatrième extension FF les plus utilisé sont firebug et greasemonkey. A part une catégorie bien définis d’utilisateur je ne vois pas qui va installer ce type d’extension, ce qui démontre bien l’auditorat des extension de FF.





Avec cette information que tu sors, tu contredis quand même une bonne partie de ce que tu affirmes par ailleurs au travers de tes messages. D’un côté tu affirmes que la plupart des utilisateurs ne font que regarder une page web puis fermer le navigateur, et de l’autre côté tu notes que les 3e et 4e extensions les plus populaires de Firefox correspondent à des usages très avancés.



À ce niveau là ça signifie que justement les utilisateurs avancés de Firefox sont très très loin d’être négligeables, et que par conséquent leur mettre un peu plus de bâtons dans les roues à chaque nouvelle version est contre-productif. Si on le fait trop, ils vont finir par trouver qu’au final ce sera plus simple d’avoir ce qu’ils veulent sur un autre navigateur. Ce qui a fait Firefox, c’est avant tout les utilisateurs avancés et les développeurs web. Faire des changements qui leur rendent la tâche plus compliquée n’est pas une bonne idée.





Pour ce qui est des extensions “peu élégante”, le problème vient aussi en partie du fait justement que les fonctionnalités qu’ils apportent ont été tellement occultées par Mozilla que pour les mettre en place il faut faire des trucs pas forcément très propres. Bon tout de même sur ce point y a eu quand même de grosses évolutions avec les années, parce que la gestion des tabs latérales arborescentes (avec les groupes), ça a pu être géré “proprement” seulement à partir de la version 3.6 ou 4 si je me souviens bien. Avant ça y avait une extension qui le gérait, mais qui devait “hacker” une bonne partie du fonctionnement du navigateur pour fonctionner (avec tous les problèmes que ça pouvait engendrer).


Le 18/04/2013 à 17h 43

Ce serait pas plutôt 6100 ? <img data-src=" />



Sinon, voire qu’une instance inféodée aux ayants-tous-les-droits et qui passent son temps à les brosser dans le sens du poil conclus par son étude que l’offre légale c’est du 60%, ça fait bien sourire.



Pour la petite histoire, un jeu qui a une note moyenne de moins de 85% (metacritic) c’est en général la faillite du studio ;)

Le 17/04/2013 à 21h 26







Adrian Shephard a écrit :



Le gros monstre de la gamification c’est StackExchange. Eux ils ont atomisé les sites de questions/réponses propriétaires (du type forums MSDN) grâce à ça.





Je vois pas la “gamification” dans StackExchange… C’est simplement un système de réputation avec des seuils minimums pour certaines actions (dont le but principal et de limiter les contenus “poubelle”).



Ce qui fait qu’ils ont explosé le reste, c’est la qualité du contenu, obtenue entre autres avec cette barrière à l’entrée créée par leur système qui permet d’éviter de se retrouver flooder avec tous les kevins qui alignent pas trois mots dans leur langue et posent des questions cons / donnent des réponses débiles.



Le principe c’est pas “spam le web pour nous faire de la pub et t’auras plus de choses”, mais “écris des trucs intelligents que les autres utilisateurs reconnaissent comme tel, et t’auras plus d’accès parce que la réputation que tu as obtenue auprès de la communauté te rend plus digne de confiance”.







BiroutteMan a écrit :



Certains paywall peuvent se contourner en utilisant l’user agent d’un robot google (qui lui peut lire l’article pour le référencer). Si c’est le cas pour ce système on va bien rire.





Ce genre de sites c’est en black list direct chez moi (on les reconnaît facilement, t’arrive sur une page qui a aucun contenu justifiant l’indexation avec un message qui te dit “pour voir la réponse paye”). Et j’ai du mal à comprendre comment Google peut ne pas les avoir déclassés depuis longtemps (mais peut-être qu’ils rapportent à Google d’une façon ou d’une autre).


Le 17/04/2013 à 19h 10







yeagermach1 a écrit :



Sur le coup, ils se sont remis en cause. Skyrim est le jeu le plus fini qu’ils aient fait. le gap entre oblivion et skyrim est super important en terme de gameplay, histoire, level design, …





En même temps vu qu’Oblivion était une bouse infâme bugguée de partout, c’est pas difficile non plus.







yeagermach1 a écrit :



Ce qu’il dit est vrai, l’occasion leur nuit. Parce que les gens qui achetent skyrim en occasion leur rapporte pas un sous. Si je veux bien admettre (et encore) qu’au niveau global l’industrie s’y retrouve. Au niveau d’un editeur sortant 1 jeu par an grand max, l’occasion fait mal.





Tu portes visiblement les mêmes œillères qu’eux. De la même façon que ça “s’équilibre” au niveau de l’industrie (en pratique l’existence de l’occasion augmente les ventes totales mais bon), cela s’équilibre au niveau d’un jeu donné : en effet, seule une partie des acheteurs au plein prix l’auraient acheté avec ou sans possibilité de le revendre ensuite ; enlève l’existence de l’occasion, et tu réduit fortement les ventes initiales, et on fait difficilement plus nuisible pour un studio (ou son éditeur), étant donné que ce sont les ventes initiales qui ont le plus d’impact, tant directement par le fait que ça apporte d’un coup un retour sur investissement sans avoir à attendre 2 ans (à revenus égaux, s’il faut 2 ans au lieu de 2 mois pour les obtenir, l’investissement est moins intéressant, puisque pendant les 22 mois restants l’argent peut “travailler” pour rapporter plus), qu’indirectement par le fait que des ventes initiales importantes donnent plus de visibilité et créent des ventes qui ne se seraient pas faites autrement.



Et bien sûr un bon jeu bénéficiera encore plus de l’occasion : un joueur a moins tendance à revendre un bon jeu qu’un mauvais, dès lors on a une proportion plus importante pour les bons jeux de l’argent “venant de l’occasion” (i.e. de l’argent que les joueurs ont eu à disposition pour acheter un jeu parce qu’ils en ont revendu un autre d’occasion).







yeagermach1 a écrit :



Il y a 20 ans les jeux coutaient pas autant a développer. Sinon je te conseille l’import UK, c’est plutot sympa et les prix sont tres interessants.





Il y a 20 ans les jeux se vendaient beaucoup moins. Les jeux coûtent plus cher aujourd’hui, mais rapportent plus parce qu’ils se vendent à beaucoup plus d’exemplaires, déjà simplement parce que la population a méchamment augmenté, mais surtout par la démocratisation de l’informatique personnelle et l’ouverture des jeux à un public plus large, qui font qu’il y a une proportion toujours plus importante de joueurs dans la population.







yeagermach1 a écrit :



C’ est un secteur qui en rapporte et qui en coute beaucoup aussi. Les fermetures de studios n’ ont jamais ete aussi nombreuses.





Il n’y a jamais eu autant de studios de développement de jeux vidéos non plus… En proportion ça change pas grand chose par rapport à il y a 30 ans, et ce qui a changé le plus c’est surtout que les éditeurs ont pris une importance encore plus importante et se torchent le cul avec les studios de développement (comme les majors de la musique avec les artistes quoi).







Kikilancelot a écrit :



C’est juste le seul studio à ma connaissance qui mettent encore ça à dispo (alors qu’avant c’était plus ou moins tout les studio, bref avant que les JVs ne deviennent grand publics).





Pas mal de petits studios continuent à le faire. Il y a quelques années Iron Lore Entertainment l’avait fait pour Titan Quest, Crate Entertainment le fera pour Grim Dawn (financé par Kickstarter), Harebrain Schemes le fera pour Shadowrun (financé aussi par Kickstarter). Bref, de façon assez générale, pas mal de développeurs “indie” le font quand ça a du sens (le fait de ne pas être l’esclave des gros éditeurs aide beaucoup, forcément), simplement parce que ce sont aujourd’hui à peu près les seuls studios de développement qui pensent avant tout aux joueurs (ou du moins les seuls qui peuvent agir selon ce qu’ils pensent et veulent faire et non selon les ordres des éditeurs qui n’ont absolument rien à foutre des joueurs, ce ne sont pour eux que des vaches à lait).







Séphi a écrit :



Un dèv ? 8K€ par an ? Oo

Avec les charges, donc tu le paierai même pas 4K€ par an ? Oo





T’as pas remarqué le “x48” ? Il part sur la base de 8k€ par mois (en coût employeur), et ce faisant il surestime énormément le coût réel (les salaires dans le jeu vidéo sont très inférieurs aux salaires dans le développement logiciel, avec des horaires bien supérieurs au passage (ce qui est une erreur vu que ça n’a comme résultat qu’une augmentation des bugs - quand tu bosses 15h par jour, tu bosses moins bien et tu fais beaucoup plus d’erreurs - et un turnover particulièrement important - pas qu’au niveau des studios, mais de l’industrie, les développeurs partant dans le développement logiciel après quelques années, ce qui fait qu’il y a à l’arrivée très peu de développeurs expérimentés dans le jeu vidéo, et que donc les jeux sont fait majoritairement par des développeurs inexpérimentés, ce qui nuit à l’efficacité mais surtout à la qualité).


Le 16/04/2013 à 18h 50







HarmattanBlow a écrit :



Le CSA a publié plusieurs règles à suivre pour les publicités à l’attention des mineurs, la quantité de publicité sur les créneaux jeunesse, et a établit une démarche coopérative avec les chaînes de télé sur l’alimentation des mineurs.





Tu veux dire autoriser sur la TNT une chaîne jeunesse entièrement financée par la pub ? Et ce peu de temps après que les pays du Nord de l’Europe aient au contraire décider d’interdire toute publicité juste avant ou après les programmes jeunesses, et bien sûr pendant ?



Le CSA aujourd’hui ne remplit pas sa mission correctement pour la TV, et comme précisé dans la news, la base même de sa mission est caduque sur internet (la gestion de la rareté du spectre d’émission).



Ou alors peut-être tu trouves satisfaisant leur action de permettre à TF1 de faire un “mea culpa” sur un obscure blog internet pour les images truquées diffusées au journal TV lors du vote d’Hadopi, qui montraient une assemblée pleines de députés debout à applaudir quand la loi avait adoptée par seulement 7 voix pour ?

L’égalité du temps de parole s’applique au diffuseur, pas aux auditeurs, tu n’étais vraiment pas capable de comprendre ça par toi-même ?



Permettre au CSA d’agir sur le net aurait un seul effet : nuire à la liberté d’expression des petits et favoriser les gros acteurs. Ah si, un autre très probable : faire passer une fois de plus la France pour des cons avec les décisions absurdes qu’ils ne manqueront pas de prendre (assez facile à prédire, vu l’étalage qu’ils font régulièrement de leur incompréhension complète d’internet).







matrix-bx a écrit :



Le CSA ne régule pas les “contenus” mais l’usage du “contenant” en fixant des limites aux “contenus” DIFFUSÉS dans CE CONTENANT, parce que ce contenant est un bien public fini (le spectre Hertzien).





Bien résumé.









HarmattanBlow a écrit :



Et comment expliques-tu que la loi s’applique aussi aux médias papiers, là où il y a des centaines de titres différents ?





Faudrait voir à sourcer cette affirmation hein… Parce que bon, ça se saurait si l’Express de Christophe “j’ai la langue plongée dans le cul de Sarko” Barbier assurait ne serait-ce qu’un semblant d’égalité du temps de parole. Pareil en sens inverse d’ailleurs avec Marianne.



[Edit] J’ai vu la réponse après. L’interdiction de communiquer les résultats d’élection avant 20h n’a rien à voir avec le CSA. Et si ta justification pour dire que le CSA est compétent sur le net c’est qu’il faut que la loi française au sens large s’y applique : c’est déjà le cas, le CSA n’a rien à y faire, il n’y a pas de rareté des ondes à gérer.[/Edit]







HarmattanBlow a écrit :



Il va de soi que personne n’envisage d’appliquer ça à chaque blog, ce serait stupide. Mais entre ton blog et TF1.fr, il existe une différence.





Oui il y a une différence, mais tu la quantifies comment ? Tu vas jusqu’où pour savoir qui serait contrôlé par le CSA ? PCInpact ? Reflets.info ? Numerama (Guillaume Champeau se revendiquant éditorialiste, pas journaliste) ? (à noter que ces 3 sites, bien que plus proches de “journaux papier” que d’une chaîne de TV, diffusent des contenus vidéos - des embed de vidéos youtube - tout autant que TF1.fr) Tu t’arrêtes à ceux qui sont l’extension d’une chaîne de TV diffusée en hertzien ? Dans ce cas TF1 fera TF1.fr qui sera l’extension de leur chaîne, et TF1Web.fr qui en sera “indépendant”, et au final ça changera rien. Parce que bon, sans un critère précis c’est ouvrir la porte aux délits de sale gueule (et ce en supposant que le CSA ait une quelconque légitimité sur le net, ce qui n’est pas le cas).


Le 13/04/2013 à 01h 49







Winderly a écrit :



mais + 1 quoi



Et puis, le support de XP est pas sensé s’arrêter en 2014 environ ?

J’espère qu’il continuera pas à se plaindre.





On va juste avoir la même chose avec DirectX 11.1 et plus qui ne sera que sur Windows8 et plus.



C’est la politique Microsoft ridicule qui fait qu’on doit se taper encore un support important des vieux IE (IE8 maximum sur XP) parce qu’ils sont pas foutus de sortir des versions pour toutes les versions de leurs OS qui n’ont pas encore atteint la fin de vie.



OpenGL a ses nouvelles versions disponibles sous XP, DirectX non, et c’est débile (on peut se douter que Microsoft espérait que ça inciterait les clients à migrer vers les nouveaux OS, ça marche pas), tout comme les autres navigateurs sortent encore pour XP, mais pas les IE.



Bien sûr aujourd’hui, comme mentionné, la part d’XP dans les joueurs est devenue très faible, mais c’est ce que dit aussi le gars de StarDock. Par contre pour ces dernières années, les développeurs ont été obligés de supporter DirectX9 pour ne pas se retrouver privés d’une part de marché importante, uniquement parce que Microsoft n’a pas fait l’effort de sortir DirectX10 sous XP. Dans ce cas ils ont deux choix : faire un jeu plus limité globalement, ou faire deux versions du jeu, une DirectX9, une DirectX10.



Dans une moindre mesure le fait que Microsoft continue de vendre des versions 32 bits (avec de plus aucune façon de passer de 32 à 64 sans repayer une licence…) alors que ça fait des années que toutes les machines vendues sont en x64 (et ce même en tenant compte du fait que les portables sont restés en 32 bits plus longtemps), ça freine également les évolutions possibles pour les développeurs (puisqu’ils ont alors le choix entre faire du 32 bits uniquement, ou augmenter leur charge de travail pour faire des versions 32 et 64). Windows 7 par exemple n’aurait jamais du exister en 32 bits.


Le 12/04/2013 à 17h 53







misterB a écrit :



lefigaro.fr Le Figaro





Merci. Par contre je suis pas si sûr que ça ait un réel effet. La suggestion qui revient de plus en plus souvent de limiter le plus haut salaire d’une boîte à 20 fois (ou autre multiple, mais 20 me paraît dans le bon ordre de grandeur) le plus faible me paraît plus efficace.







brazomyna a écrit :



Exact, mais ce n’est pas un frein en soi, c’est un défaut d’information par ailleurs librement accessible pour peu qu’on s’en donne les moyens.





Ce n’est pas qu’un “défaut d’information”, c’est aussi et beaucoup l’environnement général qui fait qu’avec les années ils considèrent que “si ils décrochent leur bac c’est déjà un miracle, et que derrière au mieux ce sera la fac”. Disons que c’est d’une certaine façon un problème de confiance en soi. Bien sûr ça se compense, mais plus on s’y attaque tard, plus c’est difficile, et s’il n’y a pas un réel effort pour compenser ce défaut, c’est un réel frein.









brazomyna a écrit :



Moyennement d’accord:





  • d’une part nombre de campus de grandes écoles proposent des solutions à leur étudiants, directement dans le campus, avec tout ce qu’il faut (hébergement, bouffe, accès au net, activités, …) et à bas coût (/me /remember les soirées à 0.30€ la conso ; avec 10€ de budget pour une (rare) soirée pas en open bar, tu risquais le coma éthylique).





  • Les places sont souvent limitées et ne permettent pas à tous d’y être logés

  • Les prix ont dans l’ensemble augmenté, et comme la majorité des places (dans la plupart des écoles du moins) ne sont pas “sur le campus”, mais “dans des logements étudiants ‘partenaires’”, c’est parfois une énorme augmentation (les campus ont beaucoup moins augmenté que les autres logements étudiants, qui flambent comme le reste de l’immobilier).

  • La bouffe revient tout de même au final assez cher sur un mois, et ce s’il y a un CROUS accessible (3023,10 €, t’es déjà quasiment à 200 € par mois sans le petit-déj’) ; les soirées c’est pas de la bouffe (le “manger rapide manger liquide” tu tiens pas ça très longtemps, et y a pas des soirées tous les jours de toute façon), et leurs tarifs vont varier énormément d’une école à l’autre (en fonction principalement des subventions qu’arrive à avoir le BDE).







    brazomyna a écrit :



  • d’autre part, si on parle du coût de ‘vie’ pendant trois ans, c’est quelque chose d’accessible via un petit emprunt étudiant (très vite compensé ensuite par le différenciel des salaires à l’embauche). Et quand on entre dans une grande école, les banques viennent faire les yeux doux aux étudiants et leur proposer mille facilités à ceux qu’ils voient comme de futurs cadres à haut revenus qu’ils rêvent de récupérer comme clients.







    1. tu ne peux pas toujours avoir un prêt étudiant

    2. même avec un bon salaire c’est pas si simple à rembourser vu qu’à moins d’arriver à trouver un boulot dans une province pas chère, t’auras une bonne partie de ton salaire qui partira en logement + nourriture, ce qui fait que les premières années resteront rudes.

    3. c’est un risque assez important, parce qu’avoir fait une grande école reconnue ne te garantit pas pour autant un job juste à la sortie de l’école (et encore moins un “bon” job). Même si ça reste une minorité, ce n’est pas rare d’avoir des diplômés de (très) grandes écoles se taper 6 mois voire plusieurs années de chômage à la sortie, et si t’as un prêt étudiant à rembourser, bah… autant dire que t’es dans la merde.



      Mais globalement, oui, en France les problèmes de financement des études quand tu as un bon niveau sont très largement négligeables par rapport aux autres pays, en particulier anglo-saxons.



Le 10/04/2013 à 21h 00







misterB a écrit :



Vivement que la loi suisse sur le plafonement des salaire fasse effet boule de neige





Tu peux préciser ou donner un lien ? Je suppose que c’est quelque chose du genre “dans une boîte le salaire le plus haut ne doit pas être supérieur à 20 fois le salaire le plus bas” ?

Ce genre de mécanismes devraient effectivement avoir été mis en place depuis bien longtemps, ça éviterait ce qu’on voit régulièrement : augmentation des gros salaires énormes chaque année, et rien pour les petits salaires.







mum1989 a écrit :



l’impot et non la taxe a été faite à l’arrache par moulande, il faudrait des paliers …

30, 40 50 60 75% etc…





C’est comme ça que ça fonctionne hein… Les 75% c’est pas 75% du salaire, mais 75% de la part qui dépasse la tranche (1 million).



(over grilled, je sais, mais ça fait pas de mal d’en rajouter une couche)







brazomyna a écrit :



Si tu connaissais un peu, tu saurais que les écoles les plus réputées en France sont des écoles publiques, avec des frais de scolarité dérisoires.



La non égalité des chances elle vient avant tout de l’environnement de l’enfant pendant son adolescence: quand tu vis dans une cité avec pour seuls modèles des dealers/voleurs qui gagnent beaucoup et le reste des gens qui crèvent de faim (malgré une formation pour certains d’entre eux), c’est sûr que c’est moins évident de se convaincre de l’intérêt de la formation que quand papa et maman sont tous les deux cadres et habitent dans une banlieue pépère de Paris.



Reste que pour celui qui a décidé de s’en sortir par le haut et de s’investir là dedans, en France le financement de la scolarité n’est pas un souci.







Il y a aussi un autre facteur dans ce même ordre d’idée : dans la majorité des zones dites “défavorisées”, de part leur environnement, y compris scolaire, les élèves n’ont aucune idée que la prépa et les grandes écoles sont ne serait-ce qu’une possibilité. Je me souviens d’un reportage sur le sujet il y a quelques temps : un lycée dans ce type de zone qui faisait son possible pour permettre aux élèves doués de suivre ces filières ; le plus gros obstacle qu’ils avaient à surmonter était justement que les élèves n’avaient aucune idée que c’était possible pour la plupart, et après il fallait surmonter tout le baguage que leur environnement leur avait imposé et qui faisaient qu’ils n’imaginaient pas être capables de le faire, quand bien même ils étaient doués.



Pour le financement, même si on est très largement mieux qu’ailleurs, ces derniers temps c’est tout de même devenu de plus en plus un souci, les bourses ayant été pas mal réduites dans l’ensemble, et le coût de la vie dans les zones denses en formations de haut niveau accessibles ayant encore explosé (à commencer par la région parisienne, mais pas que). Les élèves ayant le plus de soucis pour se financer n’étant pas d’ailleurs les plus pauvres (quand ils ont réussi à surmonter les points que tu as cités), mais les “pauvres mais pas trop” (globalement la classe moyenne quoi en fait) qui pour la plupart se retrouvent maintenant trop “riches” pour bénéficier de bourses, mais trop pauvres pour pouvoir envoyer ne serait-ce qu’un de leur gamin suivre ce types d’études à cause du coût de la vie à proximité (et difficile dans ces études de bosser à côté, c’est pas un DEUG de socio à 10h de cours par semaine).







misterB a écrit :



Ce genre d’impot a pour but de plafonner artificiellement les salaires, ce qu’avait fait lues US pendant la crise et après guerre en allant jusqu’a 94%



http://www.businessinsider.com/history-of-tax-rates?op=1





<img data-src=" /> C’est toujours bon de rappeler à ceux qui clament que les 75% sont du racket (et qui généralement d’ailleurs sont ceux qui ne comprennent pas le fonctionnement) que leur modèle les US (parce qu’en général c’est les mêmes) avait plus de 90% pour les hauts salaires jusqu’à il n’y a pas si longtemps.







Jeru a écrit :



<img data-src=" />

pas au dela du lycée





Faut lire les commentaires…