votre avatar Abonné

Citan

est avec nous depuis le 17 mai 2005 ❤️

4446 commentaires

Le 17/01/2017 à 16h 48

Ah mais qu’il y ait pas mal de soucis sur le positionnement, on est tout à fait d’accords. <img data-src=" />



  Je ne comprends pas plus que la plupart ici pourquoi N s'évertue à insister sur le côté console de salon, mis à part pour ne pas phagocyter la 3DS mais à mon sens c'est une mauvaise technique.         






  Il est également vrai que l'on ne connaît pas précisément le matos.         

Mais il n'empêche que pour juger le rapport qualité prix, puisqu'on parle d'une console portable, au format tablette, il n'est pas pertinent de jauger son rapport équipement prix à l'aune des consoles de salon classiques.






  Si une fois la console sortie, et ses specs précises connues, il s'avère que sur l'ensemble CPU/GPU/RAM/écran on a un différentiel de prix &gt;30% par rapport à une tablette Android classique proposant une qualité / des perfs similaires (ou mieux une "console Android portable" comme la JXD S7800 évoquée plus haut -qui a l'air diablement intéressante par ailleurs :D-), là on pourra gueuler qu'il y a abus.        






  Et la R&amp;d soit dit en passant, c'est pas le tout de piquer les idées, faut les implémenter aussi. Surtout vu l'approche de Nintendo par rapport aux brevets ("on réinvente tout ce qu'il faut pour ne pas payer de brevets") et vu leur approche originale de contrôleurs clipsables et réagençables en configuration multiple.      



D’ailleurs j’ai pensé à un autre truc en voyant les vidéos : la réalité virtuelle. Si Nintendo avait opté pour un placement plus haut de gamme avec un écran à définition &gt;FullHD, ils auraient pu proposer un “casque” dans lequel mettre la switch. Enfin, ils couraient déjà après deux lièvres, il eut été bien audacieux d’en rajouter un troisième… XD

&nbsp;

Le 17/01/2017 à 11h 34

Après, je regrette comme d’autres qu’ils n’aient pas poussé le concept d’hybride jusqu’au bout en proposant une upgrade matérielle dans le dock.

Mais la news plus récente de NextInpact l’explique : de toute évidence ils ne veulent pas donner de signal d’arrêt à l’écosystème 3DS.



Or s’ils étaient vraiment partis sur “console portable + dock transformer console de salon” clairement les éditeurs et utilisateurs l’auraient identifiée comme succédant à la fois à la Wii U et à la 3DS.

Enfin, tant pis, le choix est fait, on verra ce que ça donne…



@Brodie : intéressant cette console pour le rétrogaming (si l’on met de côté les “détails” juridiques liés à l’émulation), à voir la qualité réelle. ;)

Le 17/01/2017 à 11h 22

Tu sembles faire partie des gens qui préfèrent s’aveugler pour satisfaire leur opinion que de confronter cette dernière aux faits.



Alors, voilà les faits :




  1. Ce n’est techniquement pas une console de salon mais une console portable, même si Nintendo s’évertue, pour des raisons que j’ignore, à la présenter comme telle en premier lieu. Donc pour comparer le rapport équipement prix il faut comparer avec les tablettes. Or si tu regardes les tablettes de cette taille, ayant un équipement correct (y compris et surtout l’écran), et que tu y rajoutes une manette bluetooth, tu dépasses largement les 300 euros hors promo.

  2. Le Rumble HD, quelle que soit sa valeur ajoutée réelle, n’a certainement pas été conçu en un claquement de doigts, ni tout seul : il aura fallu des gens pour travailler dessus et des essais.

  3. Idem, la conception des manettes ne s’est certainement pas faite sans un certain nombre de prototypes ratés au préalable.



    En termes de puissance, on est largement au-delà de la 3DS ou de la Vita, et la Switch place la barre à un niveau tout à fait honorable pour 2016. Or, je le répète, la Vita était vendue 250300 euros à sa sortie, la 3DS 220, donc même si l’écart de prix est conséquent, ça ne sera pas forcément bloquant.






    lincruste_2_la vengeance a écrit :

    Je ne sais pas quelle idée tu te fais des liens qui unissent les éditeurs et les fabricants de consoles mais elle est fausse.&nbsp;


    &nbsp;Tu ne devrais pas présumer de quelqu’un que tu ne connais pas.

    J’ai une vision très nette et très précise des liens entre éditeurs et fabricants de console.



    J’ai cité EA parce que, systématiquement, ils font des portages de merde et “s’étonnent” ensuite de ne rien vendre. Autant pour la WiiU c’était compréhensible qu’ils ne fassent pas réellement l’effort vu le faible parc de machines installées, autant c’était tout aussi vrai pour la Wii qui s’est pourtant vendue à des dizaines de millions d’exemplaires.&nbsp;

    Les machines de Nintendo ne les intéresse tout simplement pas, parce qu’ils considèrent que le gain à espérer ne vaudra jamais l’effort réel de conception à fournir. Très bien, c’est leur choix, rien à dire là dessus, c’est sans doute étudié. En revanche, ce que je trouve gerbant, c’est leur communication à base de “regardez on y est allés mais on a rien vendu parce que la console est pourrie” alors que la réalité c’est “regardez on y est allés à reculons donc on a rien venu parce que nos portages sont pourris”.

Le 16/01/2017 à 16h 31

Oui enfin 200 euros faut pas déconner non plus hein ! <img data-src=" />

La PS Vita a été commercialisée à 250 euros à sa sortie (300 pour le modèle 3G), la 3DS 220 euros…



Et là on parle d’un matos LARGEMENT plus sophistiqué, même en tenant compte de l’évolution technique sur le seul plan des performances…



Faudrait voir à pas non plus tomber dans la surenchère débile pour critiquer la console hein, ça ne fait que décrédibiliser le propos.



Honnêtement, dans l’absolu, 350 euros ce n’est pas non plus faramineux vu la R&D et le matos final, dans la mesure où ils refusent de vendre à perte.



En revanche effectivement du point de vue du consommateur, le rapport qualité / prix n’est clairement pas bon. Il aurait fallu au strict minimum inclure 1-2 Switch ou proposer la console nue à ~300 euros. Et à leur place j’aurais poussé le bouchon jusqu’à vendre à marge nulle ou légère perte si besoin pour porter l’ensemble console + Zelda entre 310 et 330 euros.



Sinon, l’autre connerie c’est d’avoir un line-up si faible, en particulier ne pas avoir Mario Kart dès la sortie. C’est vraiment LE system-seller pour tous ceux qui considèrent la console principalement pour son côté “multijoueur local” (Zelda sera sans doute un chouette jeu, mais ça ne reste qu’un genre apprécié d’une minorité de joueurs finalement en comparaison).

M’enfin, on verra bien…



EDIT : Pas réussi à savoir non plus si les anciennes manettes (Wiimote et Pro Controller Wii U) sont compatibles avec la Switch… Si ça ne l’est pas, ce sera un argument de poids supplémentaire en faveur de l’échec ! J’ai quelques familles autour de moi qui achètent les consoles Nintendo purement pour les jeux en multi local, avec 4 gosses, paye ton budget “taxe” avant de pouvoir même jouer à un jeu).

Le 16/01/2017 à 14h 10

Bon, après avoir finalement réussi à mater la vidéo de présentation, j’ai finalement une opinion plus modérée. Esthétiquement les jeux sont très réussis, en termes de gameplay certains présentent des idées intéressantes. Certes rien de nouveau dans l’absolu par rapport à la Wii, mais disons que la fusion entre le gameplay “innovant” de la Wii et le gameplay “classique” semblent mieux réunis dans cette console (pour la Wii, soyons honnêtes, beaucoup de jeux étaient nettement plus agréables avec une manette dédiée).




 Malgré tout le line-up reste  famélique et le prix élevé. A mon avis tout va se jouer sur les deux  premiers mois de vente : si Zelda suffit* à créer une forte dynamique d'achat, suffisante pour passer les 3-4  millions, les éditeurs tiers seront rassurés, surtout les frileux  boulets genre EA qui sont les derniers à essayer de s'approprier les  consoles N et les premiers à fuir au premier signe de contrariété.        






 Si cette masse critique n'est pas atteinte, les jeux prévus pour l'été  sortiront normalement, les jeux prévus pour septembre (FIFA et consorts) seront finis à la pisse et serviront derrière à justifier l'abandon de  la plate-forme (cf WiiU), et on se retrouvera comme à la génération  précédente avec juste Nintendo, quelques éditeurs tiers fidèles et les  indépendants. Avec une nuance de taille toutefois : comme la Switch est  censée phagocyter le marché de la 3DS, il faut voir aussi quels éditeurs focalisés sur le portable vont suivre.       






 Ce que je trouve bien dommage dans la présentation, c'est que finalement ils ne mettent pas  assez en avant le côté "portable", ils présentent tout de même la Switch comme une "console de salon 'à emporter' ++". Or, mis à part sur  l'autonomie toute pourrie, la présenter comme une "console portable++"  aurait été bien plus avantageux pour eux.&nbsp;  Parce que les joueurs  "portables" y verraient plus facilement la remplaçante logique de leur  3DS.       

Là je crains que la console ne loupe son public à cause d'une communication insuffisamment précise encore une fois...






 Et je partage comme d'autres les craintes sur l'ergonomie de la  manette. Les sticks ont l'air extrêmement petits. :/ Parfait pour les  gamins, mais usant pour les adultes...       





*1-2 Switch aurait clairement dû être offert avec la console, ils sont vraiment cupides… Et les autres ne sont pas assez attractifs à mon sens pour être des platform-sellers, sauf peut-être Skylanders pour les enfants : Just Dance existe sur toutes les autres plates-formes, des clones de Bomberman s’y trouvent aussi.



EDIT: J’ai été particulièrement bluffé par Mario et Zelda perso : on sent que Nintendo a intégré le fait que les attentes des joueurs avaient évolué dans le sens de l’exigence, en particulier sur la narration, la mise en scène et les possibilités d’interaction : jamais je n’avais vu autant de personnages intervenir dans “l’histoire” d’un Mario ou d’un Zelda, et pour Mario, j’ai l’impression que le concept de base de ‘monde extérieur’ leur a permis de sortir un peu du carcan “Bowser enlève princesse &gt; Mario avance tout droit pendant 30h &gt; Mario sauve princesse &gt; Princess suce Mario(j’ai tendance à oublier que ce n’est pas la vraie fin)”.






D'ailleurs ils ont fait des efforts sur la présentation de manière  générale Nintendo : trailers bien travaillés, petits effets de  transition rigolos, etc... Ils n'ont plus qu'à apprendre à leurs  employés qu'on peut marcher en parlant (et qu'un peu de musique ou d'effets de lumière ça peut être une bonne idée aussi)... :transpi:

Le 14/01/2017 à 10h 14

Bonjour à tous !



La flemme de lire tous les commentaires, donc...      






D'abord, mon commentaire-que-je-n'ai-pu-caler-chez-Cedric-parce-que-son-site-est-tout-pété (sur une news dont tous les commentateurs descendaient le concept)...      






------      

Bon, une fois n'est pas coutume je me connecte pour réessayer de poster un commentaire. :D






Parce que je m'étonne d'être à peu près le seul à croire en un potentiel succès et à espérer qu'il le soit. ;)      






Dès lors que le line-up suit (au moins 5 jeux de qualité au lancement sur un panel de genres variés) et que les tarifs restent raisonnables (250 euros la console, 40/50 euros grand max les jeux), je ne vois pas pourquoi ça ne fonctionnerait pas.      






On s'en branle sévère qu'elle soit moins puissante que la PS4. Ca restera un excellent compromis pour une console qui est à la fois portable et de salon.      






Et vous ne représentez clairement pas le public ciblé. ;)      

Pour les familles qui devaient jusqu'ici gérer un double budget console de salon pour la famille + console portable pour chaque gamin (parce qu'elles sont trop faibles pour lui dire de se contenter de ce qu'il a :smiley7:), ça représente une solution médiane de très bonne facture.






Car oui, n'oublions pas que les consoles portables coûtent cher. Tout comme les tablettes coûtent cher. Vous êtes bien mignons à dire que "la Switch est trop chère" en la comparant à la PS4. Mais ce n'est pas DU TOUT le même produit. Et si on la compare à une tablette destinée au jeu, BIZARREMENT, tout va mieux. Eh oui, une tablette décente coûtera toujours dans les 250 euros grand minimum.       

Avec des manettes bluetooth de plus ou moins bonne qualité en sus, à &gt;50 euros pièce pour la plupart.






Comptez aussi le fait que, pour les parents encore une fois, il sera souvent plus sécurisant d'avoir une plate-forme Nintendo (nécessairement limitée en fonctionnalités, avec contrôle parental) qu'une tablette sur laquelle on pourrait consulter n'importe quel site et installer n'importe quelle application.       






Je pense que c'est là le coup de Nintendo : ils ont vu qu'ils avaient toujours une place privilégiée au sein des familles, qu'ils ruinaient totalement la concurrence sur les portables, mais qu'ils étaient menacés à long terme par les mobiles : du coup, ils ont fait une solution tout en un.       

Moins de coûts de production pour eux (une seule ligne de jeux à gérer), un marché unifié pour les tiers (tu peux maintenant développer comme avant pour la 3DS, sauf que ton marché sera au final potentiellement plus gros), une gestion simplifiée pour les parents (moindre budget, moins de conflits pour le squat de tv, etc).






Pour moi la Switch est ce qu'aurait dû être la WiiU. ;)      

A voir maintenant comment sera géré le multijoueur, sachant que même si chaque éditeur fait comme il veut, Nintendo donne le LA.

S'ils se mettent en mode "chacun doit avoir une Switch pour le multijoueur", ça ne servait à rien de s'emmerder avec le concept.

Idem s'il faut avoir une cartouche par joueur.

En revanche, s'il suffit d'avoir une seule cartouche pour le multijoueur local, mais qu'on peut mélanger librement gens en splitté sur une TV (avec une manette "normale") et gens sur une Switch...

Banco !

------






Et maintenant, la version révisée maintenant que j'ai les dernières infos grâce à la présente news...      

- Multijoueur ? Payant: uncheck

- Panel de jeux au lancement ? Chétif: uncheck.

- Rapport équipement / prix ? L'autonomie de 6h est INSUFFISANTE pour une portable bordel, et bien que très souple sur les graphismes, il est tout de même inadmissible de ne pas viser du full HD en 2017 vu que c'est majoritaire en TV (surtout que même niveau smartphones, même moyenne gamme la plupart sont en full HD). Autrement dit, le cul était tellement entre deux chaises qu'ils sont tombés entre les deux: uncheck.






Mon pronostic ? Hélas, un (semi-)bide.      



Je crois pourtant en la pertinence de mes remarques ci-dessus (sinon je ne vous aurais pas infligé le pavé <img data-src=" />), mais désormais, je doute que ça suffise à faire pencher la balance en faveur de la Switch, comparé à l’achat de consoles séparées…



&nbsp;Il ne manquait pourtant pas grand chose: deux ou trois jeux de plus au lancement pour attirer un plus large public, une autonomie MINIMUM de 6h, et une définition de full HD au grand minimum en mode console de salon (du full HD partout aurait suffi à créer une valeur ajoutée propre suffisante pour compenser le “non-4k” ama).



Soit lorsqu'ils ont choisi les specs, c'était vraiment le meilleur compromis possible pour pas crever le plafond du prix de vente puisque Nintendo refuse généralement de vendre à perte, mais quelqu'un aurait dû mettre une sonnette d'alarme grâce à des projections (pas dur de deviner, même en 2014, qu'en 2017 le Full HD sera le strict minimum).      

Soit les financiers sont venus mettre leur nez en mode "maximisons les gains, fuck la qualité produit" et ils seront une fois de plus responsables d'un aspect bloquant, donc du fiasco résultant (hypothèse que je privilégie vu le côté multi payant et par ailleurs la stratégie mobile à tout crin).






Dommage, ça va faire comme la Wii U, un succès suffisant pour en sortir positif côté balance, mais une occasion manquée de mener un grand coup sur le marché... :craint:  

RIP Nintendo, welcome Nintendollars...

Le 16/01/2017 à 16h 42

Bon bah du coup je ne comprends vraiment plus la stratégie de Nintendo…

Parce que centrer la perception sur le côté console de salon, au vu de la plupart des commentaires lus ici et là, ils ne se rendent pas service je dirais… ^^

Le 16/01/2017 à 14h 25

Toujours aussi bons gestionnaires Samsung <img data-src=" />

Au lieu d’acter le fait qu’ils ont fait de la production de merde et que leurs ventes ont baissé à cause du mauvais rapport qualité/prix, et donc INVESTIR pour améliorer la qualité et l’image de marque, ils se contentent de foutre à la porte 2000 employés qualifiés juste pour économiser 20 millions de dollars par an, quand ils font &gt;11 milliards de CA et quasi 250 millions de bénéfs ?



GG les gars, vraiment, vous êtes vraiment des grosses brêles qui avez juste su vous faire des couilles en or sur le dos des inondations.



Triste de voir une entité de telle taille dirigée par de pareils crétins cupides. Au final ce sont toujours les gens des premiers échelons qui trinquent pour l’incompétence patente de leurs dirigeants…

Et en plus s’ils coulent on va se retrouver en situation de monopole complet. Tout le monde sera perdant, sauf WD évidemment…

Le 15/01/2017 à 11h 38

J’ai été particulièrement bluffé par Mario et Zelda perso : on sent que Nintendo a intégré le fait que les attentes des joueurs avaient évolué dans le sens de l’exigence, en particulier sur la narration, la mise en scène et les possibilités d’interaction : jamais je n’avais vu autant de personnages intervenir dans “l’histoire” d’un Mario ou d’un Zelda, et pour Mario, j’ai l’impression que le concept de base de ‘monde extérieur’ leur a permis de sortir un peu du carcan “Bowser enlève princesse &gt; Mario avance tout droit pendant 30h &gt; Mario sauve princesse &gt; Princess suce Mario(j’ai tendance à oublier que ce n’est pas la vraie fin)”.



D’ailleurs ils ont fait des efforts sur la présentation de manière générale Nintendo : trailers bien travaillés, petits effets de transition rigolos, etc… Ils n’ont plus qu’à apprendre à leurs employés qu’on peut marcher en parlant… <img data-src=" />

Le 15/01/2017 à 11h 29

Bon, après avoir finalement réussi à mater la vidéo de présentation, j’ai finalement une opinion plus modérée. Esthétiquement les jeux sont très réussis, en termes de gameplay certains présentent des idées intéressantes (par exemple si j’ai bien compris, dans Splatoon la direction des bras est retranscrite directement dans le jeu, donc avec une arme dans chaque main on peut tirer dans des directions différentes). Certes rien de nouveau dans l’absolu par rapport à la Wii, mais disons que la fusion entre le gameplay “innovant” de la Wii et le gameplay “classique” semblent mieux réunis dans cette console (pour la Wii, soyons honnêtes, beaucoup de jeux étaient nettement plus agréables avec une manette dédiée).



Malgré tout le line-up reste famélique et le prix élevé. A mon avis tout va se jouer sur les deux premiers mois de vente : si Zelda suffit* à créer une forte dynamique d’achat, suffisante pour passer les 3-4 millions, les éditeurs tiers seront rassurés, surtout les frileux boulets genre EA qui sont les derniers à essayer de s’approprier les consoles N et les premiers à fuir au premier signe de contrariété.

Si cette masse critique n’est pas atteinte, les jeux prévus pour l’été sortiront normalement, les jeux prévus pour septembre (FIFA et consorts) seront finis à la pisse et serviront derrière à justifier l’abandon de la plate-forme (cf WiiU), et on se retrouvera comme à la génération précédente avec juste Nintendo, quelques éditeurs tiers fidèles et les indépendants. Avec une nuance de taille toutefois : comme la Switch est censée phagocyter le marché de la 3DS, il faut voir aussi quels éditeurs focalisés sur le portable vont suivre.



Ce que je trouve bien dommage dans la présentation, c’est que finalement ils ne mettent pas assez en avant le côté “portable”, ils présentent tout de même la Switch comme une “console de salon ‘à emporter’ ++”. Or, mis à part sur l’autonomie toute pourrie, la présenter comme une “console portable++” aurait été bien plus avantageux pour eux.&nbsp; Parce que les joueurs “portables” y verraient plus facilement la remplaçante logique de leur 3DS.

Là je crains que la console ne loupe son public à cause d’une communication insuffisamment précise encore une fois…



Et je partage comme d’autres les craintes sur l’ergonomie de la manette. Les sticks ont l’air extrêmement petits. :/ Parfait pour les gamins, mais usant pour les adultes…



*1-2 Switch aurait clairement dû être offert avec la console, ils sont vraiment cupides… Et les autres ne sont pas assez attractifs à mon sens pour être des platform-sellers, sauf peut-être Skylanders pour les enfants : Just Dance existe sur toutes les autres plates-formes, des clones de Bomberman s’y trouvent aussi.

Le 14/01/2017 à 16h 03

Tu veux dire, que les débits nécessaires pour streamer de la vidéo, y compris en 1080p, sont suffisamment bas pour qu’une ligne ADSL correcte (1 Mo/s down) s’en sorte c’est ça ?

Le 14/01/2017 à 11h 40







fred42 a écrit :



Ces articles à répétition (suivant les publications des mesures de Netflix) entraînent toujours les mêmes commentaires, mois après mois et beaucoup ne comprennent pas ce que montrent ces chiffres.

Lors de la première publication, j’ai aussi fait des erreurs d’interprétations et je n’étais pas le seul. Certains ont expliqués qu’à partir du moment où il n’y avait pas de raisons que les abonnés à Netflix chez les différents FAI aient des lignes longues à petit débit chez Free et de meilleures lignes chez Orange par exemple.



Ces mesures ne sont donc pas représentatives des débits sur les lignes ADSL mais plutôt du peering et du débit que chacun peut obtenir aux heures de pointe pour recevoir les vidéos de Netflix.



Pourrais-tu expliciter ce point stp ? Ou sourcer ?

Pour l’instant tout ce que je vois c’est Netflix qui dit “si je prends les statistiques d’utilisateurs de tous ceux qui sont chez Free, en moyenne le débit qu’ils ‘pompent’ est X. Chez Orange c’est Y, qui est supérieur”.



Si l’on prend une hypothèse suivante (je veux juste illustrer la question logique) :

Free a 10000 utilisateurs en ADSL (débit moyen 2 Mio/s), 1000 en fibre (débit moyen 15 Mio/s).

Orange a 7000 utilisateurs en ADSL (2 Mio/s), 4000 en fibre (15 Mio/s).



En quoi est-ce problématique de considérer, avant les considérations de peering, que si on calcule la masse totale de débit moyen issue de chaque opérateur, on a…




  • Côté Free, 100002 + 100015 soit 35 Gio/s

  • côté Orange, 70002 + 400015 soit 74 Gio/s



    Même en tenant compte du fait que cette visualisation est simpliste dans la mesure où les clients fibrés Orange partagent la fibre (ce que je peux confirmer d’ailleurs, actuellement je n’arrive pas à faire tourner une vidéo Youtube en 320p XD, je sais pas ce qui se passe, si c’est mon OS qui fait des trucs bizarres ou tout l’immeuble qui bulle violemment sur internet, mais ça me rend tout chafouin <img data-src=" />) il reste évident que, si le seul truc que tu mesures c’est le débit moyen agrégé sur l’ensemble des utilisateurs issus d’un opérateur, le débit disponible individuellement va affecter ce débit moyen.



    Ou alors il y a un aspect technique sur la manière dont les réseaux sont connectés qui m’échappe totalement…


Le 12/01/2017 à 12h 55

Ohoo… Merci beaucoup pour l’astuce, je testerai ça ce soir. ;)

Ca veut donc dire que le souci vindrait uniquement de Steam, et non pas d’Orange ? Ca me paraît le plus plausible après tout (faudrait tout de même y aller pour saturer de la fibre même mutualisée, mais il est vrai que toute la résidence est chez Orange XD) mais ça n’explique pas les soucis rencontrés par ailleurs.



Bref, <img data-src=" /><img data-src=" />



Et sinon, je reconnais humblement être un boulet si ça a été trivial pour d’autres, mais sérieusement, quelqu’un aurait-il un lien à fournir pour accéder aux statistiques détaillées de Netflix ? <img data-src=" />









Aither99 a écrit :



Il faut du 5Mb pour avoir de la HD selon les recommandations de Netflix https://help.netflix.com/fr/node/306).

Du coup je dois en conclure quoi ? que en moyenne personne en France n’a de HD sur Netflix ?





&nbsp;Totalement HS, mais ça m’attriste tout de même beaucoup de voir qu’une entité qui brasse des dizaines (centaines ?) de millions de dollars chaque trimestre n’est même pas foutue d’assurer le strict minimum de configuration d’une instance Drupal (ou alors ça ne choque que moi, mais avoir des alias d’url lisibles pour l’utilisateur -et les moteurs de recherche même si Netflix n’en a pas besoin vu qu’il est premier dans sa niche- c’est quand même la base <img data-src=" />)

&nbsp;


Le 12/01/2017 à 11h 48







Drepanocytose a écrit :



Ce sont les avantages du P2P versus le GPON…



==&gt; loin





Euh. WUT? C’est carrément l’inverse si j’en crois ce document… Le Point à point n’a aucun risque de saturation puisque chaque client a sa fibre, alors que les autres font du mutualisé.



Sinon, pour avoir lu une partie des commentaires, le document lié juste au dessus, je ne m’étonne pas plus que ça que Free soit le dernier.



Puisqu’apparemment il accepte de fournir un accès là où d’autres ne vont pas même pour de l’ADSL classique, et que dans les zones peu denses pour fibrer il utilise la méthode la plus limitative en termes de débits (Active Ethernet, mutualisation avec débit bridé à 100Mb/s) il est logique que d’un point de vue global et sur les minimums il ait les débits les plus pourris.



Par ailleurs, les débits en yoyo, ce n’est pas que chez Free hein… Chez mes parents (Bouygues \o/), c’est souvent la misère juste pour voir de la TV le soir. Chez moi, pourtant en fibre Orange, mes débits de téléchargements Steam ou autre vont de &gt;15Mo/s en journée à 5Mo/s les bons soirs, et sur certains soirs il m’arrive même de galérer juste pour jouer en ligne avec chat vocal par dessus. Sur la FIBRE ! XD



Donc bon, même si par ailleurs Free joue clairement au con sur le peering, j’attends d’avoir le détail de ces statistiques Netflix et surtout de pouvoir ventiler ces mesures en fonction, pour chaque opérateur, du nombre de clients en ADSL/ADSL2+/Cable/Fibre avant de crier au scandale… <img data-src=" />


Le 12/01/2017 à 11h 27







NeedSumSleep a écrit :



Est-ce que free commente ces résultats?

Perso je suis chez eux je n’ai aucun souci avec Netflix je suis en fibre









&nbsp;Hey ! On en a trouvé un ! \o/

Ils existent donc pour de bon ! <img data-src=" />



@Sebastien : il n’y a pas de lien vers la source! <img data-src=" /> C’est un truc directement intégré à la webapp Netflix ou… ? Je voulais voir les détails mais je n’arrive pas à trouver la page.

&nbsp;


Le 13/01/2017 à 16h 04







Adhrone a écrit :



Je fais le ménage sur le PC de connaissances régulièrement, et j’ai le même avis que toi en me disant “mais bordel comment ce PC a pu en arriver dans cet état”.

Des Spyware partout, des toolbar (bon maintenant ça c’est calmé), des Scrapware et 18 programmes au démarrage.



J’ai un PC sur lequel je fais un usage plutôt “grand public” (jeux, navigation, Youtube, sites de vidéos de vacances, …), je fais des scan Malwarebytes régulièrement mais sans rien trouver, je ne fais pas de maintenance ou de formatages à tout va, donc qu’est ce que les autres utilisateurs font de différents par rapport à moi ???&nbsp;



J’essaye encore de résoudre ce mystère&nbsp;<img data-src=" />





Pr0n, cracks de jeu, sites de téléchargement avec popups moisis, utilitaires “gratuits” installant des merdes… Le tout directement confronté à l’absence totale de recul de l’utilisateur (“un virus a été détecté” &gt; ouais, logique, je clique). Ne cherche pas plus loin… <img data-src=" />







Adhrone a écrit :



J’aurai essayé <img data-src=" />&nbsp;C’est frustrant d’avoir l’impression d’être un moins que rien parce-qu’on utilise Windows.



Cela donne une image élitiste à Linux alors que c’est un système qui

mérite d’être connu, ne serait-ce que pour apporter une alternative à

Windows. Ça me drapelle les informaticiens qui installent linux à leurs

amis/clients sans leurs expliquer les conséquences de ce choix, juste

parce-que, selon son avis, ce système est le &nbsp;meilleurs. Mais bref,

clôture du débat ce fut sympa&nbsp;<img data-src=" />





Ce qui n’est effectivement qu’une manière très inefficace de satisfaire leur ego. Mais dans le même temps, les informaticiens n’ont jamais été connus et encensé pour un sens aïgu de la communication… <img data-src=" />

Mais non vous n’êtes pas des moins que rien… Juste des masochistes <img data-src=" /><img data-src=" /><img data-src=" />


Le 13/01/2017 à 16h 00







Adhrone a écrit :



Moi aussi, et il y en a largement plus qu’on ne le crois.



Moi j’arrête les frais sur ce topic. Je cherchais à prouver que pour le grand publique linux restait une peu attrayant, je me retrouve comme d’habitude avec une horde de défenseurs de linux.



On passe totalement à coté du débat et une nouvelle fois, j’ai l’impression que pour un système ouvert, on a plutôt des utilisateurs fermés.





La dernière phrase résume tout, mais la fermeture n’est pas forcément où l’on croit.&nbsp;

Personne ne nie que tel ou tel système ne répond pas à tous les cas d’usage individuels.&nbsp;



Ce qui fait réagir certains (moi inclus), c’est quand des gens reprochent à un système des tares qui ne sont que le reflet de leur manque de volonté propre.

C’est à peu près aussi vide de sens que les gens qui clament que Mac OS “est un système intuitif”. C’est absolument faux, tout le contraire en fait sur certains aspects.

Mais les gens qui achètent Mac OS sont pour la plupart soit obligés d’y souscrire à cause de logiciels métiers exclusifs à la plate-forme, soit pré-convaincus de la qualité du système grâce à l’image de marque.



Donc ils font l’effort de s’informer et d’apprendre.

Donc ils apprennent à comprendre les concepts d’interface de l’OS, exploiter ses forces, et contourner ses limiites (ou s’en contenter).

Donc ils kiffent.



Mis à part le vrai sujet des applications métier, c’est ça le seul obstacle à l’adoption de Linux. Les gens veulent mieux sans effort. Effectivement, ça n’arrivera jamais.&nbsp;



Pour Linux, ça signifie qu’en l’absence de gens dévoués (ou payés pour) prêts à prendre des utilisateurs par la main de bout en bout, jamais ça ne deviendra grand public, à cause du cercle vicieux “pas assez d’utilisateurs &gt; pas d’offre logicielle métier &gt; pas assez d’utilisateurs”.



En fait, c’est exactement comme pour les fabricants de régimes alimentaires.

Tu en as un, appelons le A, qui mise sur la pub TV et la présence forte en rayon pour vendre ses produits. Pourtant, beaucoup de gens ayant pris ses produits l’ont décrié ensuite, “ça marche pas”. Les mêmes qui en parallèle continuaient à boire, manger des sucreries etc.



À côté tu en as un autre, appelons le B, qui ne fait que de la vente par correspondance ou bouche à oreille, dont les vendeurs a) te questionnent au préalable pour évaluer ta motivation b) te suivent pendant un bon mois pour t’aider à établir les bonnes pratiques. Et n’hésitent pas à “refuser” la vente. Le taux de contentement des clients ferait pâlir d’envie n’importe quelle société.



Maintenant, pourquoi diable refuser une vente ? C’est débile non ? Eh bien, non. Si tu privilégies la qualité du client au départ, tu t’évites de perdre du temps et de l’énergie avec un boulet qui veut qu’on fasse tout à sa place, un gosse pourri gâté.



Eh bien, là, c’est le même principe. La plupart des gens de la communauté n’étant pas payés, ils n’ont pas envie de consacrer leur énergie à n’importe qui. Bien que de manière générale les gens sont bien plus ouverts (merci la communauté Ubuntu pour ça) et qu’on ne renvoie plus systématiquement les questions triviales vers un RTFM, la mécanique sociale sous-jacente reste identique.



Or, c’est complètement contraire à l’esprit régnant dans le grand public consistant à avoir le maximum sans devoir s’investir parce que le domaine ne les intéresse juste pas. . Et je dis ceci sans condescendance hein, j’ai exactement le même état d’esprit pour pas mal de domaines autres que l’informatique, même quand je sais que techniquement c’est absolument pas hors de portée : ex entretien de vélo ou de voiture. La différence c’est que j’en ai conscience. ;)

D’ailleurs, pour revenir sur Ubuntu, c’est précisément ce qu’ils ont fait avec un certain succès : payer des gens pour “rapprocher” au forceps la notion d’OS alternatif au grand public. Mais ça ne suffit pas, et ça ne suffira jamais.



Quant à savoir si c’est une mauvaise chose que Linux soit encore et reste probablement toujours un truc ultra minoritaire, j’en reviens à mon commentaire précédent : pour réellement se “mettre au niveau” du grand public, il faudrait probablement renoncer à un certain nombre de paradigmes qui justement font l’intérêt de Linux.



Par ailleurs, pourquoi, au fond, souhaiterait-on que ça devienne grand public au point d’essayer de “forcer l’usage” ? Pour moi ça n’a pas de sens. La seule action bénéfique pour tous que l’on puisse mener individuellement, c’est rester aux aguets pour aider les gens motivés à préparer et effectuer une transition (notamment sur le choix du matériel et l’identification des logiciels) afin d’éviter un échec qui ne serait pas structurel (au final, Linux ne répond réellement pas au besoin) mais juste contextuel (manque de repères au début, difficulté à trouver un logiciel).



Le reste ne peut être que perte de temps et source de frustration, aussi bien pour le prosélyte que pour l’utilisateur en question.

&nbsp;



Ahem, désolé pour le pavé, merci à ceux qui auront lu jusqu’au bout. <img data-src=" />


Le 13/01/2017 à 15h 38







sr17 a écrit :





  1. Les geeks adorent résoudre des problèmes, ils s’attaquent souvent à des distro bien plus ardues qu’Ubuntu.





    1. C’est plutôt Windows qui ne sait pas lire les partitions Linux. <img data-src=" />



    2. Les geeks préfèrent la ligne de commande à la souris parce que c’est puissant et qu’on peut facilement automatiser.

    3. Mais au niveau simple utilisateur, Linux ne demande pas d’employer la ligne de commande.





      1: Fuck, je viens d’apprendre que je n’étais pas un geek, parce que j’utilise une dérivée d’Ubuntu… <img data-src=" />



    4. En vrai, il existe des utilitaires pour ça. Mais perso je préfère

      justement pas que Windows puisse lire les partitions Linux. Ça limite

      fortement le potentiel d’emmerdes quand je suis sous Windows (en gros,

      tant qu’un virus ne cherche pas à attaquer le MBR, peu me chaut, j’ai

      pas de données importantes sous Windows).

    5. Aaah, finalement je suis

      un geek \o/ Enfin, peut-être… Les “find” et “grep”, ça compte ?

      Parcequ’en tant que mix webmaster/éditorialiste, je peux confirmer que

      ça change la vie. <img data-src=" />

    6. Je confirme à 100% en usage perso, la souris et quelques raccourcis clavier suffisent à mon bonheur. :)



Le 13/01/2017 à 15h 33

Sans ironie ni blague de ma part, si tu peux me filer une version d’essai ou équivalent (en gros un truc à peu près identique à ta version commerciale payée), ça ne me pose pas de soucis d’essayer pour toi de le faire tourner avec CrossOver ou Wine. <img data-src=" />



Si c’est le seul obstacle au fait que tu changes de système… <img data-src=" />



Perso j’attends toujours de récupérer une version officielle de MS Office pour tester, histoire de… ;)

Le 12/01/2017 à 17h 41

Là dessus nous sommes complètement d’accord. Sans force motrice pour…




  • Promouvoir ET GUIDER l’utilisateur grand public dans la transition

  • Savoir même avant ça si la migration est pertinente (si on a pas les applis qu’il faut, ça sert à rien)

  • Mettre en visibilité chaque passage réussi…



    Jamais la sauce ne prendra réellement, car jamais les éditeurs qui sont bien installés dans leur marché sur base Windows/Mac ne prendront la peine de porter leurs solutions, faute d’avoir un public visible de taille suffisante. Sauf que du coup on reste dans le marasme au lieu de créer une dynamique…

    Il n’y a qu’à voir pour le jeu, la fulgurance qu’il y a eu en 4 ans. Cela résulte bien entendu d’une combinaison de nombreux facteurs, de choix stratégiques sur lesquels la communauté n’a eu aucune influence directe, mais il reste qu’entre…

  • MS qui souhaitait verrouiller sa plate-forme sous Windows 10, poussant Valve à envisager Linux comme plate-forme de repli

  • Les constructeurs de console qui utilisent un dérivé de linux pour leur microsystème

  • AMD qui cherchait un différentiateur non basé sur l’architecture pour ses cartes

  • De nombreux éditeurs qui ont fait évoluer leurs moteurs pour qu’ils soient multiplate-formes…

  • Plus plein d’autres évolutions et événéments que j’ignore sans doute et qui me dépassent dans les technologies liées aux cartes graphiques…

    En quelques années, le nombre de jeux jouables (= qui se lancent pour de vrai XD) a été multiplié par 20+, d’énormes évolutions ont été apportées sur les serveurs d’affichage, et un des trois gros constructeurs est en train de mettre en place une vraie stratégie de support de Linux, non plus comme le vilain petit canard, mais comme un vrai moteur de ventes…

    &nbsp;

    Ce qui montre bien que sur le principe ce n’est pas impossible de créer une dynamique qui fasse vraiment bouger les choses.

    Quant à savoir si c’est un mal que Linux n’atteigne jamais la masse critique sur le desktop, c’est encore un autre débat.

    Je n’en suis personnellement pas sûr. <img data-src=" />

    Même si Linux est par ailleurs bien mieux conçu que Windows, il reste évident que son bien plus haut niveau de sécurité est dû en partie au fait que les hackers s’y intéressent moins.&nbsp;

    Enfin, moi j’en rêve simplement parce que j’aimerais bien que tous mes logiciels pro tournent directement sous Linux, mais peut-être que le bilan global ne me plairait pas tant que ça. <img data-src=" />



    Mais quand je vois déjà certaines évolutions récentes qui renient complètement les concepts fondateurs de l’ensemble GNU/Linux juste “parce que c’est plus simple” (SystemD le “boot à tout faire”, tous les systèmes de livrables “tout-en-un” qui comportent le même risque de bordel absolu en termes de maintenance que l’on voit sous Windows) je me dis que, finalement, l’état actuel, voire l’état antérieur, comportait certains avantages…

Le 12/01/2017 à 14h 23







OlivierJ a écrit :



Wow, ça c’est de la Nalyse <img data-src=" />

(je ne suis pas ironique)



&nbsp;





Boh, tu aurais pû ça ne m’aurait ni vexé ni choqué, je ne prétends pas avoir beaucoup réfléchi pour sortir ça (et ne parlons pas des sources, ou plutôt de leur absence… <img data-src=" />).



En revanche le Nalyse…

Hmm… Je tente la référence…

“Une ‘tite poire Maame Christine ?” <img data-src=" />







OlivierJ a écrit :



Heu, tu parles des euros qui ont cours en Europe ? <img data-src=" />





Je crois qu’on est tombé sur un gosse de riche, de ceux qui pensent que le ticket de métro est à 10 euros et la baguette à 3 <img data-src=" />


Le 12/01/2017 à 14h 20







Adhrone a écrit :



Le cliché du geek et de linux&nbsp;<img data-src=" />



Il doit vraiment pas avoir beaucoup de geek dans le monde vu les parts de marché de Linux en Desktop. Je suis un Power User de Windows, j’ai déjà essayé Linux et je suis retourné vite fais à Windows, quand tu veux jouer, t’a pas envie de te taper de l’émulation ou un dual boot juste pour satisfaire des besoins de contrôle du système plus poussés du coté de linux.



Franchement linux c’est beau, c’est fluide quelque soit la distribution, mais si le système était si fabuleux, bien plus de monde serait dessus.



Rien que Ubuntu m’a donné une bonne leçon, des problèmes de lecture pour ma clé usb et mon disque dur en NTFS (venant de Windows c’est logique), des périphériques comme mon casque sans fil sans logiciel adapté, une perte totale de repère concernant les logiciels à utiliser, des logiciels pro indisponibles sur Linux, des lignes de commande à taper pour faire des manipulations à peine avancées et j’en passe.



Non clairement, pour surfer et faire de la bureautique basique Linux c’est bien pour le grand public, par contre dès que ça touche des usages à peine plus avancé c’est la galère.



Bon après on va comme d’habitude me dire que je suis un gros noob et que Linux est le meilleurs système au monde avec ses mises à jour transparentes, sa bibliothèque d’apps (sur certaines distributions) mais clairement dans MON CAS, je ne vois pas ce que le grand public gagnerai à passer dessus.





Hmmm…




  1. Le problème n’est pas que le système est fabuleux ou pas, le problème est que la plupart des gens n’ont pas envie de passer du temps à prendre de nouvelles habitudes de manipulation. À priori s’il n’y a personne pour les guider ou les informer de l’énorme gain de temps qu’ils en retirent derrière au quotidien.&nbsp;

    Et à fortiori quand ils ont ancré dans leur tête l’idée que l’informatique c’est compliqué et pas fiable, merci Microsoft.&nbsp;

    C’est d’ailleurs pour ça que j’étais mort de rire quand MS est arrivé avec son arrogance et ses gros sabots avec Windows 8. Ils se sont heurtés au mur en béton armé qu’ils ont eux-même érigé. XD



  2. Problèmes de lecture de clé en USB, je suppose que tu as testé il y a un moment car le NTFS est transparent maintenant. Problèmes de pilotes, oui, ça, en fonction de la marque et de “l’ancienneté” du matériel, il n’y a pas de miracles, soit c’est supporté et ça roule, soit ça ne l’est pas et c’est galère. On the bright side comme diraient les anglishes, grâce au dévouement de

    la communauté, tu finis toujours par avoir un pilote quelques mois après

    lorsque le constructeur est défaillant.

    Mais c’est un souci que tu évites lorsque tu prends en compte l’usage sous Linux AVANT l’achat. Évidemment, le problème est criant pour une migration sur un matos existant. ;)



  3. Perte de repères concernant logiciels à utiliser / logiciels pros indisponibles : bah tu voudrais pas qu’on te torche non plus ? Désolé d’être vulgaire, mais tu ne peux pas reprocher au monde quelque chose qui va venir de toi-même. Surtout qu’on n’est plus dans les années 80. Après, que tu ne souhaites pas investir du temps dans l’apprentissage d’un logiciel alternatif pour x raisons, c’est un choix légitime qui t’appartient. Mais l’information préalable, c’est ta responsabilité.&nbsp;

    (Et sinon, tu peux toujours lancer une campagne Kickstarter ou une pétition pour inciter au portage de ton appli métier ^^).



  4. Des lignes de commandes à taper pour une manipulation à peine avancée : alors là, navré mais il va falloir sortir des exemples concrets si tu ne veux pas passer pour un troll de base.

    Parce que perso, pour mon usage non professionnel, je fais des trucs de fou depuis 15 ans sans jamais avoir dû toucher une ligne de code. J’ai juste pris le temps d’explorer les outils disponibles sous Linux avec interface graphique, et beaucoup m’ont changé la vie (manipulation PDF, renommage de masse, conversion de masse, gestion de bibliothèque de musiques/photos, manipulation de fichiers, etc)…



    Linux, c’est tout simplement le meilleur choix dès lors que tu n’as pas un (ou plusieurs) logiciel(s) précis, indispensable(s) pour ton usage quotidien, qui ne tourne(nt) que sous Windows ou Mac.

    Toutes les autres contraintes ne relèvent que de l’investissement initial, mais te payent très largement en retour sur le moyen / long terme. ;)

    Il faut juste savoir si on a envie de faire cet investissement initial, ou pas. Et ça, c’est un choix personnel que l’on ne peut reprocher à quiconque (même si on a très envie parfois <img data-src=" />).

    &nbsp;


Le 12/01/2017 à 13h 21







dvr-x a écrit :



Yes, si on est utilisateur Windows + Geek, je ne vois pas la raison d’un rejet de Windows 10 en même temps… Perso, tous ceux que je connais qui sont un peu Geek, ils sont sous Windows 10 depuis un bon moment !



&nbsp;

Sinon, le déclin n’est pas dû à Windows 10, c’est sûr, ca a déjà été dit plus haut donc je vais pas répéter. Par contre, à la sortie de Windows 10, beaucoup pensaient que ca allait un peu relancer le marché ! Alors qu’au final, pas tellement…&nbsp;<img data-src=" />





Politique de données personnelles merdiques, problèmes de support matériel ou logiciel, pas d’amélioration significative d’interface (mis à part les bureaux virtuels, mais je préfère nettement l’original), portions encore en cours de transition (panneau de config)…



A priori, si tu achètes un nouveau PC avec Windows 10 préinstallé, il n’y a pas de soucis de support matériel, et à moins d’être extrêmement soucieux de sa vie privée et refuser de passer deux heures à installer des outils tiers de nettoyage/paramétrage, je ne vois pas de raison de rejet suffisante pour aller jusqu’à réinstaller un Windows 7 from scratch à la place.



En revanche, pour un pc existant, il n’y a vraiment rien justifiant de migrer à Windows 10, sauf si tu es joueur invétéré, Windows only, avec une machine suffisamment performante pour attendre les jeux DX12.

Pour tout le reste, il y a Windows 7 pour le jeu et Linux pour le reste. <img data-src=" />


Le 12/01/2017 à 13h 15

En même temps Gartner ce sont aussi des spécialistes des évaluations au doigt mouillé et des rattrapages aux branches après coup… <img data-src=" />



Mais clairement le marché est arrivé à maturité depuis plusieurs années et les gens ont fini par se vacciner contre le combo Microsoft / constructeur “je ponds un Windows encore plus pourri niveau perfs &gt; les gens rachètent une machine”, dont l’apogée était Vista. Depuis, les perfs de Windows vont en s’améliorant, en parallèle de gains en perfs des machines, sachant que déjà à l’époque de XP les procs faisaient le taff pour la bureautique. Et la débâcle de Windows 8 avait mis un coup d’arrêt également… XD

Enfin, n’oublions pas l’évolution économique qui avait mis un gros coup de boost à tous les prix des composants électroniques (si je me souviens bien, c’était le change euro / dollar qui nous mettait dedans).



En revanche, je crois tout de même à un renouvellement du parc permettant au moins un tassement voire une légère embellie…




  • Support de nouveaux codecs (4k en streaming notamment), ça commence à peser en terme de traitement processeur.

  • Dynamique du “tout internet” avec des applis de plus en plus consommatrices, et des pages de plus en plus chargées en traitement (la tristesse de tous ces développeurs qui s’imaginent que leur site est le SEUL onglet ouvert).

  • Réassort des boîtiers avec de plus en plus de mini-formats proposés…

  • Gains cumulatifs en termes de ratio perfs/conso sur les différentes générations…

  • A priori meilleure offre puisqu’avec l’arrivée de Zen, quelles que soient ses performances finales, il y aura un ajustement tarifaire en retour pour Intel…

    &nbsp;

    Ceux qui ont déjà un quad-core+ n’auront que peu d’intérêt à changer.

    Mais ce que je vois comme différence entre 2017 et, mettons, 2014, c’est qu’en 2017 on pourra s’offrir des bécanes à la fois suffisantes pour tous les usages courants, ET bien plus sexy que les tours actuelles, et potentiellement plus performantes / moins consommatrices…



    Pour ceux qui ont un pc “moindre” que du haut de gamme 2011, honnêtement, racheter un pc maintenant n’est pas déconnant.

    Bon après, évidemment, ce nouveau pc là, ils seraient partis pour le garder 10 ans donc les constructeurs auront tôt fait de revenir jouer les pleureuses… <img data-src=" />



    Bref, je pense qu’en 2017 “ça ira mieux”, mais clairement au global le marché continuera de se contracter. Ceux qui n’ont que ça pour vivre risquent d’y passer…

Le 12/01/2017 à 17h 27

Gros carton rouge à Free sur le sujet : un jour passe encore, mais plusieurs jours, et sans mea culpa.

En plus, le contournement n’est clairement pas à la portée de l’usager moyen…



Je me tâte limite à mettre de l’huile sur le feu avec un tweet, même si pas personnellement concerné. <img data-src=" />

Le 11/01/2017 à 14h 42

XD bien vu ! <img data-src=" />

Le 11/01/2017 à 09h 44

Sans doute environ 1000 fois le budget nécessaire pour monter une plate-forme efficace et universelle d’accès aux contenus culturels, en bonne qualité, à tarif raisonnable, sans DRM…



Mais ce serait vraiment trop simple et trop efficace tu comprends… <img data-src=" />

Le 11/01/2017 à 09h 43

+10 Je ne comprends pas non plus…

15 euros par mois, c’est sûr que si tu regardes un film par jour ou une série par semaine ça va pas le faire, mais autrement, ça fait un bon coffret de série tous les trois mois en jouant sur les promos… ;)



Mais au-delà de ça, juste payer pour de l’illégal… Non, vraiment je ne vois pas… <img data-src=" />

Pour le coup, je trouverais plus raisonnable de payer un abonnement de stream musical/vidéo et télécharger le reste derrière. Au moins, sur une partie, tu envoies des sous* aux auteurs…





* Bon, ok, des mini miettes, vu que le plus gros part dans la poche des industriels qui sont la cause initiale du problème du téléchargement illégal. Donc j’avoue que ce n’est pas satisfaisant.

Mais sinon la seule solution c’est le don direct, assez peu d’artistes le proposent.

Le 11/01/2017 à 14h 37

Ton message a l’air intéressant, mais j’avoue humblement n’avoir rien compris. <img data-src=" />

Pourrais-tu détailler un peu les notions stp ?:)



EDIT : laisse tomber, j’ai lu un autre de tes messages un peu plus bas qui explicitait suffisamment. <img data-src=" />

Le 11/01/2017 à 14h 32







matroska a écrit :



Ah oui absolument.




Y a une panne réseau mobile : Silence radio.      

Y a une panne de DNS : Silence radio.

Y a une panne de DSLAM ou coupure de fibre : Silence radio.






etc      






Le pire c'est d'avoir appâté les gens sur le mobile avec 50 GO, les faire miroiter que ça va aller mieux, en ayant la critique sur les autres... Et pour les éternels soucis d'itinérance un accord d'augmentation de la charge aurait pu être trouvé avec Orange, mais non ils ne voulaient pas payer plus... Un peu comme Free et Youtube/Google... On laisse les clients dans la merde pour des politiques commerciales obscures... Même SFR ne fait pas ça...      





<img data-src=" />






T'as raison, c'est pas comme si Freenews (entre autres) existait... :roll:  





Cela dit je te remercie pour l’info sur le fait que c’est 50 Go de plafond plutôt que 20 Go, chiffre que j’avais retenu pour je ne sais quelle raison du coup…

Moi qui commençait à me limiter, je vais pouvoir me lâcher ^^ (cela dit faut déjà y aller pour atteindre les 20 Go, à moins de n’avoir que ça comme connexion internet).



Mais j’affirme derechef que la 4G Free, ça poutre. En termes de ressenti, sur la navigation internet c’était (sans exagération) kif-kif avec chez moi en fibre (Orange <img data-src=" />), même sur des pages chargées. Idem sur le téléchargement de fichiers de quelques dizaines de Mo. Idem pour de la visualisation de vidéo Youtube en HD / Full HD.



En revanche, j’admets ne pas avoir tenté de télécharger de gros trucs, vu que 1) je me doute que ça restera largement en dessous de la fibre sur les gros volumes 2) je vois pas l’intérêt d’aller bouffer sur un quota quand j’ai de l’illimité à côté. <img data-src=" />



Mais dans le cadre de mon activité professionnelle, chez un client qui devait me fournir une connexion câblée qui n’a pas fonctionné (je passe les détails), ça m’a permis de bosser aussi confortablement que depuis chez moi, en dépit de mes gros besoins de consultation/recherche sur internet. <img data-src=" />


Le 11/01/2017 à 14h 20

D’ailleurs pour la question des abonnements à deux euros plus précisément “qui plomberaient le marché”, à mon sens il s’agit du même type de contresens que “téléchargement illégal&nbsp; = vente manquée”.




Certes, il y a certainement une minorité de gens qui avant payaient 20 euros de forfait alors qu'ils n'en avaient pas l'usage, créant ainsi une bonne marge pour les opérateurs. Ceux-là auront effectivement migré fissa.       






Mais il faut voir aussi tous les usages nouveaux, tout le public "additionnel" qui peut s'approprier ces mini-forfaits.       

- Les enfants (SMS illimités, ça leur va, 2h de communication, ça suffit pour appeler les parents).

- Les objets connectés custom (genre l'interphone d'immeuble qui renvoie sur un unique numéro de téléphone, pas forcément pratique si on a pas de fixe).

- Les activités professionnelles où le ratio entrée/sortie est très déséquilibré (c'est essentiellement dans le sens "je reçois des appels pour fixer un rendez-vous").



Et inversement, si ces forfaits n’existaient pas, vers quoi se tourneraient les gens avec un besoin limité ?




A priori, si les forfaits à bas prix bouffent sur quelque chose, c'est sur le prépayé.  Et encore, au final je trouve que le prépayé a encore une place de niche (c'est plus cher, mais pour ceux qui veulent un truc ponctuel ou n'ont pas de compte bancaire ça reste efficace).     






Quant aux forfaits à 20 euros, si on doit considérer que c'est à bas prix, c'est qu'il y a un souci de base sur le référentiel... :fumer:  

Ce n'est pas parce qu'il y avait une portion aisée de population qui pouvait se payer les forfaits à 40+ euros qu'il fallait considérer que c'était le prix plancher ou un prix raisonnable hein...






Là encore, Free a eu un impact plutôt positif à mon sens : la communication, ce n'est plus quelque chose de coûteux (je parle ici en métropolitain, pas le roaming), ça a été rentabilisé depuis perpète, il était plus que temps qu'on arrête de se foutre de notre gueule.&nbsp;      

Maintenant la bataille se fait sur la donnée, et c'est tant mieux. Là ça ne me choque pas de payer plus pour plus de débit ou de quantité. Parce que la base de 20Go établie par Free, ça suffit (pour l'instant) pour la plupart des gens : ce ne sera plus vrai dans 2-3 ans évidemment. ;)






Soit dit en passant : avant ça m'emmerdait grave d'être chez Free pour cause de roaming bridé permanent (en permanence sur le réseau Orange emprunté). J'ai tenu bon*, maintenant j'ai un téléphone qui reçoit la 4G, et là la QoS a été multipliée par l'infini... Enfin, tant que je suis accroché aux antennes propres de Free évidemment. ;)      

Mais c'est vraiment de la bonne came le cas échéant, ça m'a remplacé l'internet fixe en déplacement professionnel. :yes:

&nbsp;

* C'est à dire qu'au lieu d'agir intelligemment et changer d'opérateur au plus tôt, pour rechanger après achat d'un téléphone 4G, j'ai passé plusieurs mois à repousser l'achat sans changer... Bref, j'ai engraissé Free. Je me console en disant que ça aura été investi dans d'autres antennes 4G... :transpi:

Le 11/01/2017 à 14h 04







Drepanocytose a écrit :



Non.



   Concernant Free je n'ai jamais changé ni le ton ni le fond de mes coms.         






   Cette entreprise m'enerve prodigieusement, car  :          

- leur communication est deplorable. Ils insultent tout le monde (pigeons, cretins, etc), mais silence radio et desinformation des qu'il y a un souci chez eux

- ils jouent les pleureuses chez l'ARCEP a la moindre occasion

- mais surtout surtout, et je le repete : leur politique tarifaire est déplorable. D'une elle limite l'investissement chez eux, mais aussi chez les autres, qui doivent s'aligner sur ces tarifs ridicules.





Tes critiques vis-à-vis de Free sont tout à fait fondées, mais je diverge sur la responsabilité de la présente sitaution. Free s’est contenté de mettre un gros coup de pied dans la fourmilière. Au contraire, pendant 10 ans auparavant, on a eu des tarifs honteux de stabilité sans voir de contrepartie sur l’investissement justement. Ce n’est que APRES l’arrivée de Free Mobile que les trois gros se sont décidés à enfin lancer l’investissement sur la 4G. Ca a été vraiment flagrant. Parce que ça devenait le seul différentiateur valable.




  Quant aux risques de long terme que fait peser la dynamique tarifaire... En termes théoriques, je n'ai aucune opinion, ça me dépasse. En revanche, de mon petit bout de lorgnette, il y a une vraie différence de comportement entre les gens de ma génération qui effectivement, font jouer la concurrence, et les gens des plus anciennes générations qui continuent malgré tout à payer des forfaits chers avec engagement.&nbsp;        

Donc avant de crier "au loup" et à la bérézina, perso j'attends qu'on me sorte des chiffres sourcés démontrant une migration réellement massive vers les forfaits à bas coût, compte tenu de la force des habitudes, et par ailleurs de la promotion des offres combinées fixe+mobile.&nbsp;

Et des chiffres sourcés montrant que ces forfaits à bas coût représentent réellement une charge non créatrice de valeur pour les opérateurs. Parce que, oui, les prix sont bas, mais d'un autre côté, il y a 0 support humain derrière, donc les charges ne sont pas les mêmes non plus. Et les opérateurs ont également beaucoup développé les services périphériques.






Bref, on peut éventuellement regretter pour le long terme que Free ait lancé une dynamique de moins-disant, mais les seuls responsables, ce sont les trois gros (rappelons qu'ils ont été condamnés pour entente, que plusieurs d'entre eux ont eu des années de retard sur leurs engagements de couverture vis-à-vis de l'ARCEP). Si les mécanismes de la "saine concurrence" tant vantée par nos chers libéraux avaient fonctionné, on n'aurait pas eu besoin d'ouvrir le marché au forceps pour y insérer un concurrent... :fumer:

Le 11/01/2017 à 09h 33







Drepanocytose a écrit :



Mais oui. C’est de la faute aux autres si Free n’investit pas, c’est evident. Ca n’a rien a voir avec une politique tarifaire super basse qui interdit l’investissement, par exemple. Non non non, avec des forfaits vendus à 0 euros on peut investir tout de suite, c’est evident.




Sinon de quelle maneuvre scabreuse d'Orange on parle, là ? C'est vrai, c'est HONTEUX  :  Orange a loué son reseau à Free quand le reseau de ce dernier se resumait à une freebox en Adsl reliée à une pauvre antenne dans un champ.      

Vilain Orange, il a permis à Free d'avoir des clients... Bouh, pourritures, va !!!







C’est triste, avant tu faisais soit de beaux trolls, soit des commentaires construits et intéressants.

Maintenant tu fais juste des commentaires de rageux décérébré…&nbsp;



Ce n’est pourtant pas compliqué de comprendre que, quand tu as prévu une stratégie devant être mise en oeuvre dans l’année X, pour coût Y, et qu’à cause de manoeuvres politiques de concurrents en place et en entente tu dois démarrer à X+3 et coût Y*z, tout ton plan financier est chamboulé donc tu dois te recentrer sur un domaine.



Tout comme il n’est pas compliqué de comprendre que, au-delà même de cet épiphénomène, on ne peut pas attendre le même degré d’investissement entre deux entités qui n’ont absolument pas le même poids (10x plus de chiffre d’affaires côté Orange, et à peu près le même ratio sur le résultat net si j’en crois abcbourse), même si par ailleurs les activités d’Orange sont également beaucoup plus diversifiées donc une comparaison réellement pertinente demanderait accès à des infos plus précises (que je ne sais pas où trouver). ;)



Triste de voir quelqu’un tomber jusqu’au niveau du hater de base… <img data-src=" />


Le 10/01/2017 à 19h 03







matroska a écrit :



Une fois de plus Free ne fera rien, attendra la bouche ouverte d’avoir accès aux réseaux qu’Orange a déployé, s’installera dessus et dira qu’il est le champion du déploiement fibre. Tout ça sans quasiment rien débourser. De plus Free est de mauvaise foi, remémorons-nous la promesse de 2009, résultat en 2017 : même pas 300 000 abonnés. Ils savaient et attendaient que l’Arcep tape dans le tas. Ça a mis du temps mais ça va se faire. Tout ça pour investir un minimum et profiter un maximum…



<img data-src=" />







Drepanocytose a écrit :



On laisse des crevards comme Free ou Boyugues ne rien faire ou presque, puis venir raler a l’avantzge concurrentiel des autres qui, eux, se sont bougé le cul et ont investi…




Et apres on s'etonne que l'invest manque, dans ce pays...  :roll:  

Vous investieriez, vous, si vous saviez que vous risquez que d'autres s'arrogent les fruits de vos efforts rien qu'en jouant les pleureuses effarouchées ? Moi, non.








Oué, enfin, faudrait pas oublier non plus que c'est en bonne partie à cause d'Orange (avec SFR et Bouygues) et ses (leurs) manoeuvres scabreuses pour pourrir Free sur le mobile que ce dernier a dû complètement chambouler sa stratégie et se recentrer sur le mobile au détriment de la fibre, du fait d'un décalage de 3 ans dans la stratégie.      





En revanche, j’avoue ne pas comprendre la position de l’ARCEP sur la fibre, même si je préjuge qu’ils font bien leur taff (en tout cas pour ce que j’ai pu en voir en tant que simple citoyen). Autant sur le mobile le foutage de gueule était “blatant” comme diraient les anglais, autant sur la fibre, depuis ma petite lorgnette, Orange est le seul à avoir répondu présent lors des demandes de fibrage d’immeuble dans mon entourage (amis, famille, entreprises).

Quant à mon cas personnel, l’immeuble a été fibré par Orange mais ouvert aux autres opérateurs, SFR est venu se poser, Free (en dépit d’une vingtaine de demandes de gens différents dans l’immeuble) n’a jamais daigné nous faire l’honneur de sa présence. Et pourtant la résidence dans son ensemble comprend dans les 400 foyers, c’est pas si mal… ^^



Autant je conchie la politique commerciale d’Orange (15 E par mois pour une IP fixe, gg), autant je ne comprends pas ce qu’on pourrait leur reprocher comparativement aux autres… Ils sont de loin les plus gros investisseurs, ils fibrent jusqu’à l’immeuble, les autres n’ont plus qu’à venir derrière…

Où est le problème ? Un coût prohibitif à payer pour le droit de “s’agrafer” ? Des contraintes techniques (mais je ne vois pas lesquelles, la fibre c’est la fibre) ?

&nbsp;

L’ARCEP a certainement de bonnes raisons, donc clairement il y a des trucs qui m’échappent…



Quant à Free qui dit que ce serait mieux pour eux qu’Orange s’arrête au répartiteur de rue plutôt que jusqu’à l’immeuble, pourquoi ?


Le 07/01/2017 à 14h 07

Ben, justement, je me suis permis la réflexion parce que ce n’était pas clair pour moi. ;)

Je comprends globalement qu’il s’agit d’un moyen d’authentification externe, mais au-delà de ça…




  • Est-ce que ça sert à déverrouiller sa session Windows / Linux ?

  • Est-ce que ça sert à stocker des clés privées de chiffrement pour le mail / sites web ? Si oui, est-ce une liste limitative ou non ?

  • Peut-on l’utiliser automatiquement sur n’importe quelle machine ou faut-il un logiciel spécifique systématiquement, et pas uniquement lors de la première configuration ?

    Etc…



    Je pense qu’une phrase d’environ deux lignes peut suffire à inclure les éléments essentiels de réponse à ces questions. ;)



    Et, oui, certes, je pourrais AUSSI m’informer par moi-même (ce que je ferai par ailleurs si je veux des détails), mais pour moi ce qui fait justement la qualité d’un article c’est d’apporter l’essentiel du contexte peu important le niveau préalable de connaissances du lecteur (sauf évidemment pour des trucs complètement de bon sens. Là c’est tout de même un sujet assez technique).



    <img data-src=" />

Le 06/01/2017 à 18h 23

Bon, désolé David, mais une fois n’est pas coutume, je dois te coller un <img data-src=" />

J’ai lu l’article deux fois, RIEN n’explique ce que c’est qu’une Yubikey. Et le premier lien renvoie vers une page produit Amazon, je trouve ça un peu moche comme source perso (en partie parce que c’est un site marchand, en grande partie parce que leur interface est vraiment toute pourrie).



En fait le lien le plus porteur d’informations est celui sur l’Apple Watch, je me serais donc attendu à ce que ce soit cette cible sous “évoquions”. ;)



Mais dans tous les cas, une simple phrase rappelant le principe (voire l’intérêt, c’est pas évident pour moi^^) serait appréciable. <img data-src=" />

Le 06/01/2017 à 18h 07

Désolé, je pensais évident que je balançais des chiffres arbitraires, notamment parce que je n’ai plus le temps de m’amuser à mesurer ça et je ne suis pas sûr que des sites pros s’y soient amusés.

Néanmoins, ce sont des différences de ce genre que j’avais constaté sur mes machines. Après, savoir ce qui provient du passage de 32 à 24 nm (si je me plante pas dans les chiffres, c’est trop vieux pour moi) et ce qui provient uniquement de l’architecture multi-coeurs, ou de l’optimisation des perfs mono-thread en général, je ne saurais dire…



Mais dans les faits, mon système tournait à moindre charge, donc à moindre fréquence, donc à sensiblement moindre “puissance” que l’ancien, pour une enveloppe thermique officielle “en max charge” qui était (dans mes souvenirs) comparable. Gain d’électricité et de nuisances sonores. ;)



Par ailleurs, en termes de puissance ressentie, le temps d’ouvrir une appli ou un fichier lourd quand j’avais déjà pas mal de trucs en fond a été également fortement réduit. Et ce, bien avant que je passe au SSD.



Parce que ça on est d’accord ça met tout le monde d’accord <img data-src=" />. D’ailleurs mieux vaut un bon SSD avec un proco moyen qu’un HDD avec un excellent proco, à moins d’usages de niche ultra précis. Le SSD c’est la vie depuis 10 ans ! <img data-src=" />



Maintenant cela dit, je fais tout sur un portable avec un i7. S’il y a moyen de forcer le proco à fonctionner comme s’il n’y avait qu’un coeur, je serais ravi de mener des tests. ;)

Le 06/01/2017 à 00h 20







OlivierJ a écrit :



Mais c’est absurde d’avoir plusieurs coeurs peu chargés, là où un seul plus chargé peut faire l’affaire. C’est un problème de gestion des tâches/applications par l’OS. Le concept de multi-tâche date de si longtemps, et s’il est bien implémenté, c’est à dire sans verrous globaux (sous Linux il y a eu un gros travail de fond pendant des années là-dessus), tu peux avoir plein de tâches de fond qui tournent sans impact visible.

Quand je vois ce qui était déjà fluide en multi-tâche (et mono-coeur) à l’aube des années 2000.



Euh non ce n’est pas absurde en soi, ça dépend des situations.

Si tu peux avoir les mêmes performances avec un quad-core qui consomme 30 W parce qu’il est à 20% de charge sur chaque coeur, par rapport à un dual-core qui en consomme 45 parce qu’il est à 60% de charge, tu es gagnant en toute logique, non ? ;)


Le 05/01/2017 à 15h 47

Mon panel d’environ 15 machines (vieux fixes des années 2005, portables des années 2008, fixes de 2012, portable de 2012, fixes de 2014, netbooks) contredisent absolument toutes ton propos… <img data-src=" />



Même s’il est vrai par ailleurs qu’aujourd’hui, un unique coeur avec une fréquence &gt;3Gz pourrait largement suffire pour un usage de navigation internet simple (&lt;50 onglets).

Pour le reste…



Les vieilles machines tournent en moyenne à 40% de charge processeur en étant multi-coeurs, juste avec un navigateur internet, un lecteur vlc pour de la musique et une suite bureautique.



Lorsque je jouais, j’ai vu une différence flagrante entre mon ancien fixe (proc puissant mais juste dual-coeur) et celui que j’avais acheté pour le remplacer (Phenom II X6): plus aucun souci pour assurer en parallèle navigateur internet, outils à la con divers en tâche de fond (anti-virus &co), téléchargement/streaming éventuel, et le jeu proprement dit. Y compris lors du fatidique alt-tab. Applis bien réparties sur tous les coeurs, tous à bas niveau de charge (excepté celui du jeu).



Cela est encore plus vrai depuis un-deux ans, maintenant que les développeurs commencent enfin à tous se sortir les doigts pour multithreader leurs applications “classiques” (bureautique, navigateur, traitement d’image, lecteur multimédia) ainsi que les applications métier spécialisées et les jeux vidéo.



Le coup du “perf single-core FTW”, c’était vrai pour des usages ultra spécialisés, jusqu’en 2012 à 2015 en fonction de ton domaine. Pour le péquin moyen, un dual-core valait déjà bien mieux qu’un single de fréquence supérieure il y a 6-7 ans. Aujourd’hui, un quad-core est soit “bien” soit “trop” en fonction de ton usage.



&nbsp;Disons que vu la tendance à se reposer de plus en plus sur des services distants, qui passent tous par le navigateur web, je te rejoins sur le fait que dans ces cas là mieux vaut bien choisir son navigateur et avoir une fréquence plus élevée. Enfin, aujourd’hui du moins… Vu que tous les navigateurs bossent sur le support du parallélisme, aujourd’hui il serait relativement idiot d’acheter “moins” qu’un quad-core. ;)

&nbsp;

Le 24/12/2016 à 16h 15







ForceRouge a écrit :



Ok t’es pas content de l’offre proposée. A ce moment la, j’espère que tu ne pirates rien. Sinon c’est de la mauvaise foi.









ForceRouge a écrit :



Toi aussi t’es un politicien qui sait mieux que les français ce qu’ils veulent.



Encore un prétexte à 2 balles pour ne pas payer. Sincèrement, si tu demandes “aux gens” (pour te reprendre) tu crois sincèrement qu’ils vont répondre ça?









Non, je suis “juste” un mec qui du temps où le droit de la propriété intellectuelle était son coeur de métier, suivait à fond tous les projets de lois, jurisprudences et plus généralement les évolutions du secteur, et a gerbé de voir à quel point les majors étaient cupides et hypocrites.



Pire, même les auteurs se sont fait gravement arnaquer, tout particulièrement sur la musique, mais ils n’ont tout simplement rien pu faire. L’exploitation sur internet étant un nouveau mode d’exploitation, il aurait normalement fallu renégocier les contrats pour chaque auteur. Les majors se sont gentiment assis sur cette obligation pendant des années, jusqu’à ce que ça se voit trop. Bien évidemment, il n’y a pas eu de correction d’arriérés. Et aucun artiste n’aurait osé gueuler, car ça revenait à se faire blacklister par tous les éditeurs.



Je passe également sur l’arnaque des DRM mis sous protection, ruinant ainsi toute possibilité légale d’exploiter son support physique (ne serait-ce que le copier pour éviter l’usure prématurée en cas de lectures répétées -ex dvd pour les mômes-), mais sans pour autant que la RCP n’ait été retirée. Au contraire, elle a été étendue en assiette et en pourcentage.

Souvenons-nous également avec délectation du sort des professionnels : dans n’importe quelle relation classique, il y aurait eû remboursement des sommes indûment perçues. Bizarrement, là, non.



Plus l’argent mis dans les lobbyes pour poursuivre la répression, les procès individuels, l’argent public gaspillé dans la Commission Copie Privée, la Hadopi, son prédécesseur…&nbsp;



On peut également évoquer l’arnaque des Blu-Ray à la qualité tellement

variable que des sites internet arrivent à vivre en bonne partie sur les

seuls “tests” de Blu-Ray… Mais là une fois que t’as déballé ton

Blu-Ray, plus rien à faire… Ou le fait qu’ils aient braient comme pas permis quand on a commencé à enregistrer, sur PC ou box, des flux TV, exactement comme avant avec le magnétoscope…

Ou le fait qu’ils aient mis 10 ans à juste envisager de la distribution numérique de contenus à grande échelle…

&nbsp;

Avec tout l’argent qui a été gaspillé pour ces conneries, il y aurait largement eu de quoi, depuis le temps, monter une plate-forme universelle d’accès au contenu, avec du choix, de la qualité, pour des tarifs défiant toute concurrence, permettant à tous les acteurs de se faire leur beurre. Y COMPRIS en tenant compte des nombreux mois (voire années) requis pour mener les palabres nécessaires avec tous les acteurs concernés.



Mais non. “L’industrie culturelle” veut les avantages de l’aspect “culture” (subventions, régime spécial, taxes), et les avantages de l’aspect industrie (produit protégeable, prix de vente libre, liberté de restreindre l’utilisation etc), tout en niant les obligations qui se rattachent précisément aux aides qui lui sont accordées (indice: tout est dans le mot “culture”)…



Au lieu de réaliser à quel point ils pouvaient d’eux-même changer de paradigme économique en profitant des nouvelles technologies, pour donner un gros coup de boost à la propagation culturelle en général sans casser leurs bénéfices…



Ils ont eu de multiples chances de faire les choses proprement, ils s’y refusent. Au lieu d’aller vers le win-win, ils préfèrent l’approche conflictuelle, le “je pense qu’à ma gueule” égocentrique et hypocrite. Tant pis pour eux. Les gens font pareil, tout simplement.

&nbsp;

J’ai arrêté d’acheter des DVD voici un bon paquet d’années, la musique je n’en ai pour ainsi dire jamais acheté vu que je préfère la “faire” moi-même (mis à part quelques trucs de niche en import), les livres ça ne sert à rien vu la politique actuelle…

Et non, je n’hésite pas à profiter si par exemple un ami me propose du contenu. Tout comme je me contrefous au quotidien de manquer la dernière série en vogue. Si je peux avoir accès à un contenu, tant mieux. Sinon, peu importe. De toute façon, hormis rares exceptions d’exploitation directe (cinéma, concert) ou cadeaux, ils n’auront plus de sous de ma part tant qu’ils brideront les usages… Et il y a laaargement assez de contenu “libre” (surtout en livres et en musique) pour avoir de quoi s’occuper sans s’emmerder à télécharger… Ou bien la bibliothèque municipale. <img data-src=" />



Quand le jeu vidéo aura pris une telle place au sein de l’industrie culturelle dans sa globalité qu’il deviendra le principal pourvoyeur d’emploi pour les réalisateurs / graphistes / acteurs / doubleurs / compositeurs / musiciens / scénaristes, peut-être qu’ils prendront enfin le pli… <img data-src=" />


Le 23/12/2016 à 16h 04

Non, c’est faux. “Les gens” ne veulent pas tout pour rien. “Les gens” veulent une offre qui permette aux créateurs de contenu (Y COMPRIS LES AUTEURS, qui se sont fait méchamment flouer durant les premières années d’exploitation culturelle sur internet) d’être correctement rémunérés pour leur travail, sans se faire tondre comme de vulgaires moutons ou se faire emmerder juste pour pouvoir utiliser leur droit de représentation ou de reproduction.



Simplement, les connaisseurs étaient beaucoup plus ouverts les premières années. Ne voyant rien venir d’autre que de la répression à la stupidité insondable, ils ont durci leur vue en retour.

Quant au grand public, il ne s’est jamais soucié de considérations hautement éthiques ou sociétales.



Simplement, il va à l’offre représentant le meilleur ratio avantages/choix/prix. Et comme pendant 10 ans les industries ont fait l’autruche au lieu de se sortir les doigts pour mettre en place des plates-formes réellement attractives, alors qu’à côté tu avais un mécanisme à apprendre ou un logiciel à installer pour accéder à une quantité formidable de contenus culturels du siècle dernier, ainsi que tous les contenus récents, des automatismes se sont mis en place dans la population. Cela ne signifie pas pour autant que la situation est irréversible. ;)

Le 23/12/2016 à 15h 54







ForceRouge a écrit :



Donc sous pretexte que l’offre n’est pas assez complète, on pirate alègrement et on lache pas un radis.



Sinon,



Le téléchargement en France n’étant pas encore réprimandé, bah tu payes ton Netflix et tu télécharge a coté ce qui n’est pas sur Netflix. Quand les producteurs de ce que tu as DL à côté vondront récolter leur part du gateau aussi, bah ils seront obliger de proposer leur catalogue sur Netflix.



Et on aura gagné… Encore faut ils que les gens veuillent réélement payer… Et la on rejoin mon premier post de ce thread.



Et autre petit point: Netflix produisent un paquet de série de qualité.





Netflix, c’est bien pour la “consommation impromptue” (=“je veux me distraire ce soir, qu’il ya-t-il de dispo”). Et j’aurais fait partie des premiers à payer si ça tournait sous Linux. Malheureusement, tel n’est pas le cas, et les astuces que j’ai pu trouver sur le net pour essayer de feinter n’ont pas fonctionné ou sont trop complexes.&nbsp;

D’ailleurs, j’admets ne pas faire non plus preuve d’une ténacité folle, parce que marre de ces pratiques détestables qui te contraignent à utiliser un matériel ou logiciel donné (ça me rappelle le Blu-Ray “promis juré ce sera jamais zoné”, ben tiens…).&nbsp;



Mais pour les personnes qui veulent perpétuer la tradition d’une collection d’oeuvres (films/musiques) mais qui ne veulent plus acheter de supports physiques pour de bêtes questions pratiques (plus de lecteur, plus de place pour stocker les DVD, embêtement de penser à transporter tel ou tel DVD quand tu pourrais embarquer toute ta collection sur un disque dur), on est intrinsèquement exactement au même point qu’il y a 10 ans, sauf pour la musique où on est péniblement passés du point mort à la première vitesse.


Le 23/12/2016 à 15h 48

Ca fait 20 ans que j’attends une offre décente de culture à l’achat… J’attends toujours…





  1. Musique ? Le Flac (ou format plus récent lossless et libre que j’ignorerais) n’est toujours pas le standard. Il faut toujours combiner plusieurs sites pour réellement trouver ce qu’on cherche. 1,20 euros en moyenne le mp3 n’est pas un prix “raisonnable” pour moi. Pire, ils cherchent depuis plusieurs années à faire taire les sites permettant d’avoir les paroles associées à une musique, au lieu d’eux-mêmes les fournir.

    Pour ceux qui peuvent se contenter du streaming, l’offre s’est bien enrichie… Mais ça reste du streaming.

    Bref, il y a encore masse de boulot.



  2. Vidéo ? Les gars sont toujours 10 ans en arrière : les locations en VOD sont toujours à ~5 euros minimum si on veut de la qualité, l’offre est faible et éparpillée, et l’achat inexistant ou à prix prohibitif.

    Netflix constitue une ébauche intéressante pour le streaming, mais là encore, que pour le streaming.



  3. Livres ?

    Ils sont à peu près au stade où était l’industrie cinématographique il y a 3 ans. Autrement dit, au début du balbutiement, le stade où le verrouillage à tout crin est le dogme de protection, où ils s’imaginent que vendre un livre numérique au même prix que le livre papier va suffire à faire décoller le marché (HAHA).



    Ces gentils ayant-droit forment un joli train du conservatisme absurde, qui préfère continuer à foncer dans le mur plutôt que de s’inspirer de la locomotive Steam suivie de près par son challenger GOG, qui représentent les deux seules approches réellement pertinentes à long terme…






  • Prix tenant réellement compte des économies d’échelle comparativement à un produit physique, de l’absence de rareté, du gain net cumulé provenant des transactions sur le fonds de catalogue déjà rentabilisé à 1000% ou plus, de l’effet de longue traîne et de la dépréciation “artificielle” de valeur du fonds de catalogue du fait des nouvelles sorties…

  • Recherche de valeur ajoutée soit sur le produit lui-même (ex GOG: wallpapers, musiques, manuels complets en PDF, choix de la version) soit autour (Steam: amis, commentaires, favoris, workshop etc).

  • Réduction des contraintes de verrouillage au strict minimum nécessaire (Steam: offline mode) voire pas du tout (GOG).



    Cela fait des années que 90% de mon budget culturel passe dans les jeux vidéos (les 10% comprenant rarement des achats pour moi, plus généralement des cadeaux), et ce n’est pas près de changer j’ai l’impression… <img data-src=" />

Le 24/12/2016 à 15h 44

Joyeux nowel à tous ! <img data-src=" />

Le 23/12/2016 à 17h 04







Cedrix a écrit :



Sinon y a Latex. Pas de ruban, pas de wysiwyg, pas d’utilisateurs.



Qu’est ce que vous attendez pour vous y mettre ?



Ah aussi, je crois pas que les ergonomistes Microsoft lisent nextinpact. <img data-src=" />





On est déjà en bordel avec MSO / LibreOffice, si tu veux en plus rajouter la couche Latex, on va pas s’en sortir… <img data-src=" />



Et sinon, Latex, en vrai, ce n’est réellement pas comparable. Pour ceux qui apprécient le mélange “direct” entre la forme et le fond (puisque langage à balises), clairement ça vaut le coup de s’investir dedans (quoique des persifleurs pourraient arguer que le HTML 5 commence tout doucement à poser comme grand rassembleur de contenus <img data-src=" />). Pour la majorité des gens, c’est affreux comment ça casse la lecture. Par ailleurs, pour un usage professionnel, je me demande si l’investissement initial ne reste pas supérieur à celui de LO (question honnête, je n’ai jamais utilisé autre chose que LO pour les gros documents avec tout le toutim).



Mais, pour rebondir sur mon demi-troll du précédent paragraphe, honnêtement pour plein de documents, le HTML 5 est aujourd’hui le plus adapté finalement en termes de présentation pure. ;) Surtout pour les documents “multi-formats” (typiquement, une présentation tirée d’un rapport texte).&nbsp;

&nbsp;

Ce qui fait que le HTML n’a toujours pas enterré le reste, c’est évidemment toutes les possibilités de traitement sur les données, l’aspect collaboratif, et l’export PDF (des moteurs PHP/Java existent mais je doute que ce soit au niveau du moteur interne des suites bureautiques… Mais peut-être me trompé-je). Mais vu qu’il existe une tendance pour passer aux suites bureautiques en ligne, je me prends à rêver que le HTML devienne le principal format pivot (oui je sais je rêve, non ne me réveillez pas <img data-src=" />)


Le 23/12/2016 à 16h 50







H2O a écrit :



Et je maintiens : la recherche textuel du nom d’une fonctionnalité est un aveu d’échec dans une suite WYSIWYG. Évidement qu’on peut trouver ça pratique parce que tout est mélangé et introuvable avec les rubans, mais ce n’est qu’un pansement. C’est un clic dans la barre de recherche, plus taper le nom de la fonctionnalité (encore faut-il avoir une vague idée de comment ça s’appelle plus une sélection dans une liste déroulante). Alors oui, ponctuellement ça peut être utile, c’est toujours ça en plus. Mais si vous vous en servez souvent c’est que l’interface graphique est mauvaise.



Heu, non. T’es à la rue sur ce point. Si les gens l’utilisent, c’est peut-être au contraire parce que c’est le plus “ergonomique” : tu as un endroit à repérer en termes de mouvements de souris ou mieux un unique raccourci clavier, qui te permet ensuite d’accéder en quelques lettres à n’importe quelle fonction utile.



C’est exactement comme les launchers sur les environnements de desktop. Tu ne les utilises pas parce que les applications seraient “mal rangées”, tu les utilises parce que ça reste le plus rapide d’activer le champ de recherche avec un raccourci clavier puis taper quelques lettres puis “enter”, que de bouger une main du clavier pour aller chercher l’appli avec la souris, quand bien même l’appli en question ne serait qu’au premier ou deuxième niveau de l’arborescence de menus. A fortiori quand ton curseur de souris est à un endroit qui fait sens pour ton activité en cours…



Bah là, c’est pareil, en plus puissant. Parce que, cf mon point plus haut, on ne peut jamais satisfaire tous les utilisateurs et tous les usages. Il y a forcément un pan non négligeable de fonctionnalités qui devront être “masquées” dans des sous-menus, parce qu’il n’y a juste pas la place de tout afficher par rapport à un contexte donné. Il n’y a juste pas moyen de faire autrement quand on dépasse une certaine ampleur en termes de fonctionnalités, et les suites bureautiques franchissent allègrement cette ligne.



C’est pour ça qu’il est d’autant plus essentiel de bien choisir ce que tu exposes par défaut et comment tu l’exposes, et qu’il est utile de combiner à la fois une structure figée (menus / sous-menus) pour aider l’utilisateur à appréhender la manière dont est organisée l’application (voire les concepts métier sous-jacents), et des méthodes d’accès unitaire les plus directes possibles (personnalisation d’interface, raccourcis clavier, champ de recherche, macros).



Ne pas oublier que la pratique même d’un utilisateur évolue avec le temps, du moins l’utilisateur qui cherche à exploiter son outil : une fois les fonctions de base acquises, il va aller plus loin, par “vagues”, en fonction de sa curiosité ou ses besoins. C’est pour ça qu’un logiciel qui mise tout sur la prise en main immédiate, comme un logiciel qui se contenterait d’une structure de raccourcis clavier, échoueraient également à proposer une interface efficace, et qu’il est nécessaire (et délicat) de combiner les deux.


Le 23/12/2016 à 12h 12







carbier a écrit :



Tu tires des conclusions alors que tu avoues toi même que tu n’utilises pas MSO. M’enfin cela à l’air d’être à la mode.




   Concernant ta dernière question sous forme de boutade: bien sur que tu peux personnaliser Sous Word c'est dans "Fichier/Options/Personnaliser le ruban" dans lequel tu peux personnaliser les raccourcis clavier, créer des onglets spécifiques à tes besoin dans le ruban et même importer et/ou exporter ta personnalisation :ouioui:








  Tu es toujours aussi boulet toi... :roll:  

Je n'utilise pas MSO de manière intensive au quotidien, donc j'admets honnêtement ne pas avoir d'opinion à titre personnel sur son ergonomie (contrairement à beaucoup d'autres ici soit dit en passant), parce que j'admets ne jamais avoir fait un investissement réel pour apprendre.





Par ailleurs, je considère que dès lors que quelqu’un doit utiliser un outil quotidiennement, il lui revient toujours de faire l’effort de lire l’aide et apprendre à l’utiliser, et dès lors une fois passé le cap d’apprentissage l’outil sera tout autant utilisable qu’un autre.



Donc, pour les gens devant utiliser un outil à titre professionnel, peu importe l'interface de base, c'est "deal with it" et basta.      






  En revanche, je travaille avec suffisamment de personnes différentes au quotidien pour avoir de nombreux retours sur l'un comme sur l'autre avec des usages différents. Et le post que tu cites s'appuie par ailleurs sur un raisonnement très simple...        

Et mes expériences personnelles avec MSO m'ont toujours posé problème, parce que même des fonctions extrêmement simples mais qui ne correspondaient de toute évidence pas à mon usage n'étaient pas apparentes dans le ruban...

Mais tu es trop branché sur ton aigreur pour prendre la peine de comprendre... :fumer:

Le 23/12/2016 à 12h 09







carbier a écrit :



Tu n’en as pas marre de raconter n’importe quoi sur un produit que tu n’utilises pas ?



Typiquement tu n'utilises pas le bandeau pour changer la taille d'un texte, mais tu fais un clic droit pour ouvrir un menu contextuel dans lequel tu as, entre autres, toutes les manipulations pour ton texte (style, taille de la police, paragraphe) etc.      

Donc tu peux parfaitement travailler dans l'onget 'Disposition' tout en modifiant la taille de tes caractères.









seblutfr a écrit :



+1. Et encore, même pas besoin du clic droit, le simple fait de sélectionner un texte fait aussi apparaître la palette flottante. Il n’a manifestement pas utilisé l’outil plus de quelques secondes pour ne pas voir ce système qui s’affiche automatiquement.






Notez cela dit que c'est pas forcément une bonne idée. ;)     



Pour avoir enseigné à mon père les rudiments de la construction de présentations, sous MSO (je passerai sur mon échec cuisant de conversion, mais il a vraiment trop d’échanges avec des gens qui n’utilisent que MSO… Toujours le même souci), j’ai hurlé de concert avec lui face à la galère que représente cette fausse bonne idée.



En soi, c’est cool d’avoir des options contextualisées en clic-droit. Mais comme c’est contextualisé, mon père est très très vite paumé à cause du changement complet des options affichées d’une seconde à l’autre, il a l’impression d’être dans des sables mouvants, ne jamais avoir de repère… (Je suppose que le problème n’existe réellement que dans le module présentation où tu as de nombreux éléments superposés, et qu’il ne se rencontre en revanche qu’assez rarement dans Word par exemple).

Il m’aura fallu une demi-heure complète rien que pour lui expliquer pourquoi ça changeait, et dans quel ordre bien précis il devait cliquer pour aboutir au menu qu’il voulait…



Alors qu’avec un menu fixe, en 5mn c’était réglé… <img data-src=" /> Et pourtant, il est très (trèèèèès) loin d’être con. ^^

Autrement dit, le menu contextualisé, ce n’est pas forcément toujours un gain ergonomique. Tout dépend du public…


Le 23/12/2016 à 11h 50







H2O a écrit :



Ah oui, j’aurais dû en parler de ça, c’est vraiment génial, le retour de la ligne de commande dans un traitement de texte <img data-src=" />.



  Microsoft a fait un truc tellement pas pratique qu'il faut une fonction de recherche pour retrouver les filtres:mad2: . Avec ça on gagne du temps c'est clair.        






  Et pour répondre à ta question d'avant. Non, on ne peut pas faire de travail en parallèle (texte+mise en page) sur MO. En tout cas c'est particulièrement fastidieux.        






  &nbsp;





Heu, dites, faudrait voir à éviter la mauvaise foi primaire quand même… <img data-src=" />



 Je vais être brutal, mais je pense sincèrement que c'est se comporter d'une manière profondément débile que de considérer la présence d'un champ de recherche de fonctionnalités avec autocomplétion comme une régression...        






 Au-delà du fait que, "bizarrement", ça se trouve maintenant partout, le bénéfice en termes d'interface est complètement évident : celui qui sait ce qu'il veut faire (ou dit autrement "comment faire") mais ne sait pas où se situe la commande concernée aura de fortes chances de la trouver plus rapidement en tapant un nom supposé, qu'en devant fouiner dans 3 niveaux de menus au petit bonheur la chance... :roll:  



Et une fois que tu connais le nom exact de tes fonctions qui ne sont pas directement exposées, ce champ peut être assimilé à un menu unique qui te fait bypasser X clics de souris et navigation dans X niveaux, pour le seul prix d’un clic, 4 lettres en moyennes et un deuxième clic… Wouah, quelle régression en effet… <img data-src=" />



Ce qui résout un problème qui est commun à 90% des logiciels soit dit en passant (exposer facilement des fonctionnalités rarement utilisées donc “mal exposées” par défaut), libres ou pas libres.

&nbsp;



 Après évidemment, si tu ne sais pas "comment" arriver à un résultat donné (= tu ne connais pas le nom exact ou approchant de la fonction), ça ne t'aidera pas beaucoup, il vaudra mieux fouiller dans l'aide...

Le 23/12/2016 à 11h 41







Illuminati a écrit :



LibreOffice est une merde.Lorsque je tente d’ouvrir un fichier Calc de 3 pages, cela prend au minimum 3 minutes. Et si j’ose ouvrir un 2e fichier en simultané, alors là j’ai le temps d’aller prendre ma douche, me sécher les cheveux, me raser, et me faire un café.









Timothée a écrit :



+1.

Microsoft Office est 100x meilleur.

Fin de la discussion.





Wow…<img data-src=" />

/me checke la date…

/me constate qu’on est vendredi.



Tout va bien, c’est normal <img data-src=" />