votre avatar

sr17

est avec nous depuis le 26 décembre 2005 ❤️

4322 commentaires

Le 08/12/2013 à 20h 24







SebGF a écrit :



Attention au raccourci, l’article parle bien du PC Fixe chez le particulier moyen. Ce qui ne serait pas déconnant vu que la masse suit les effets de mode comme toujours.



Le PC Fixe, c’est pas demain la veille qu’il va disparaître… Rien qu’en entreprise, même si les portables s’imposent de plus en plus pour les personnes nomades (et tablettes pour ceux qui ont besoin de beaucoup de mobilité, genre un vendeur qui va saisir sa commande sur un webservice) qui bullent en réunion toute la journée. Mais l’utilisateur moyen en entreprise, il gardera une tour car moins cher et plus adapté.



Et accessoirement, travailler tous les jours sur portable demande une disposition particulière pour que l’écran soit à la bonne hauteur du visage et ainsi éviter de se niquer le haut du dos. Mais pourtant, les supports permettant de les surélever ou bien les stations d’accueil avec clavier/écran/souris sont bien moins fréquents qu’on ne peut le penser…

Alors sur tablette, à moins que les entreprises investissent massivement dans des fauteuils de relaxation, pas demain la veille que tout le monde travaillera sur ces machines à l’OS bridé à mort.



Bref, le PC est un outil de productivité maitrisé, la tablette un outil de consommation sur lequel l’utilisateur n’a que très peu la main. S’pas le même usage, ni le même besoin, et l’un ne tuera pas l’autre, ils se complèteront.



C’est comme l’éternelle rengaine du PC versus console de jeux avec qui doit tuer qui depuis le temps… Et maintenant le jeu smartphone/tablette qui va tuer les consoles <img data-src=" />







Tout à fait.



Mais on oublie souvent que le marché grand public n’est pas seulement composé que de jeunes citadins parisiens qui sont très sensible aux effets de modes créés par le rouleau compresseur marketing des gros fabricants qui veulent fourguer leurs camions de gadgets.



Même le marché grand public ne sera jamais uniforme au point de pouvoir y imposer un seul type de solution. Et c’est bien l’histoire de l’informatique qui permet d’en conclure cela.



Comme tu le souligne, combien de fois avons nous entendu des prétendus analystes nous faire des prévisions du genre “les consoles vont tuer le marché du jeu sur PC”.



Jamais rien de tout cela n’est arrivé, même dans le très grand public.



Ce n’est pas parce que les courbes de vente des tablettes montent à un moment donné qu’elles continueront pour autant de grimper jusqu’au ciel. C’est toujours tentant pour les analystes de prolonger les courbes d’un trait de crayon. Sauf que dans la réalité, ça ne se passe jamais ainsi.



Même dans le grand public, le PC fixe restera. Et il y a quantité de raisons à cela. Par exemple, beaucoup de gens n’ont pas une assez bonne vue pour se contenter d’un tout petit écran de portable ou de tablette. Et les bons pères de famille qui préfèrent la souris au trackpad, ça n’est pas non plus rare.



Le fait également que beaucoup de gens ont besoin du service d’un tiers pour se servir ou entretenir leur machine. Cela peut être le fils/neuveu geek ou la petite boutique du coin. Or, ces gens ont tout intéret à conseiller des machines dont ils pourront assurer l’entretien et le dépannage. Seul le PC fixe répond à cette définition.







Le 08/12/2013 à 19h 01







Maxouille-la-fripouille a écrit :



Toi t’es le cas typique du geek complètement rétrograde qui n’a pas su évoluer avec son temps! <img data-src=" /> En + tu est assembleur je crois avoir cru comprendre? Bah bon courage dans les prochaines années, parce qu’avec tes certitudes tu va pas faire long feu sur le marché si tu n’as pas su t’adapter! <img data-src=" /> (comme beaucoup d’autres)







Non, je ne vends plus d’ordinateurs depuis très très longtemps.



Je les assemble uniquement pour les besoins de ma propre activité. Ce dont j’ai besoin en terme de qualité, de puissance et de fiabilité ne se trouve tout simplement pas “tout fait” dans le commerce.



Honnêtement, si vous connaissiez vraiment la différence, vous ne nous traiteriez pas de rétrogrades. Et dans tous les domaines, il y a une différence entre les “produits de supermarché” et les produits pour les pros ou les passionnés.



Et pour ce qui est rétrograde, c’est bien les machines non modulaires. C’est juste un retour au passé, c’est à dire à la situation des années 80 avant l’ère du PC modulaire. Avant le PC, les machines étaient peu évolutive et les composants non interchangeables. Ceux qui ont connu cette période savent que c’est un retour en arrière et non une évolution.



Mais vu comment les fabricants se bousculent sur le marché de la carte mère d’assemblage, ça ne semble pas vraiment en voie de disparaître. D’autant que même dans le cas contraire, on trouverait toujours moyen de s’approvisionner en composants de qualité sur les marché pro pour les serveurs.



Mieux, l’exemple du Raspberry Pi montre que les geeks sont assez nombreux sur terre et dotés d’un assez bon pouvoir d’achat pour que la possibilité de se fédérer pour lancer des fabrication adaptées soit une option sérieuse.





Le 08/12/2013 à 18h 01







Maxouille-la-fripouille a écrit :



Non mais LOL quand je lis certains commentaires de geeks complètement déconnectés de la réalité, qui jouent les autruches sur l’avenir du marché informatique en continuant à se pignoler sur leur PC fixe monté avec leurs petites mains! C’est pathétique de voir ça, surtout de la part de gens qui sont censés suivre l’évolution informatique et être des précurseurs… <img data-src=" /> A la place de ça on voit quoi? Des mecs prostrés sur leurs petites habitudes, crachant sur l’évolution des choses car on sort du PC fixe / PC portable auxquels ils sont habitués, qui ne veulent pas voir la réalité en face et qui gueulent quand MS fait évoluer son Windows parce que ça casse leurs petites habitudes… <img data-src=" />



Faut vous faire une raison les mecs: le PC fixe c’est bientôt fini chez le grand public! D’ailleurs, on en voit de moins en moins chez les gens lambdas. Quand à ceux qui se pignolent sur les configs “home made” soit disant moins chères que du prémonté; qu’ils aillent voir combien coûte un PC fixe aujourd’hui! On trouve du Lenovo à 350€ (et on peut pas dire que c’est une marque de merde!), alors pour un non geek, pourquoi aller s’emmerder avec un PC “home made” quand on peut avoir aussi bien avec un boitier design ou plus petit pour le même prix voir en dessous? Mais le problème c’est que comme pour beaucoup de choses, ces geeks qui peuplent PCI en sont restés sur comment c’était y’a des années en arrière et n’ont pas évolués…. <img data-src=" />







Les geeks sont avant tout des connaisseurs qui savent la valeur de la qualité. Comme on dit, les gens sérieux travaillent avec de bons outils.



D’abord, le PC “home made” n’a toujours concerné qu’une petite minorité de gens dans le public. C’est avant tout les fabricants qui en tirent partie.



Derrière la modularité du PC Fixe, il y a un phénomène industriel : des fabricants qui veulent pouvoir choisir facilement leurs fournisseurs. Et c’est un avantage pour toute la chaine industrielle, y compris pour le consommateur qui n’y connait rien et qui doit faire dépanner son PC.



Enfin, l’avantage d’un PC “home made” n’a jamais été le prix à l’achat, même si on gagne ensuite beaucoup en faisant évoluer les composants séparés. C’est plutôt de pouvoir adapter à ses besoins en terme de puissance, de qualité, d’ergonomie et de refroidissement.



Entre les PC “de supermarché” que tu trouve partout et la bécane qui est sur mon bureau, il y a un monde.



Par exemple, la première canicule viendra vous rappeler le médiocre refroidissement d’une grande partie de la production destinée au grand public <img data-src=" />.



Bientôt fini le PC Fixe ? Ce serait comme de prédire la fin des supercars.



Soyons logiques, tant qu’il existera une demande solvable, le monde du commerce y pourvoira…



Et si vous raisonnez en terme de nombre d’unités vendus, vous n’avez rien compris. Le grand public représente de gros volume, mais des marges très très faibles. Et personne ne crache sur les marchés haut de gamme des composants pour les geeks.







Le 08/12/2013 à 17h 29







altazon a écrit :



Ce que beaucoup oublient ici c’est que votre tour assemblée, elle vous a couté combien en temps, en recherche du meilleur matos, du meilleur prix, et je ne parle même pas des installations d’OS, des réparations fréquentes (alim, disque dur, ventilateurs, etc.).



Vous avez peut-être gagné 200 ou 300 Euros par rapport à un portable, mais ramené au nombre d’heures passées à bidouiller, et à l’expertise (toute relative certes) qu’il faut, l’économie est très discutable.



Perso ça me faisait marrer quand j’avais 18 ans de bidouiller, mais les années passant, maintenant j’ai un Macbook Air, et je me rends compte que tout ce temps passé était une grande perte, pour un gain finalement extrêmement minime.



Après il y a la passion du bricolage, ce qui est tout à fait louable, mais de là à dire qu’on fait une tour car c’est moins cher et que ça dure plus longtemps, je suis beaucoup moins d’accord, ça ne s’applique pas du tout au grand publique.



La tour est un dinosaure pour le grand public. je ne comprends pas pourquoi les constructeurs ne sont pas tout passé au format Apple Mini, qui lui répond très bien à une “tour” pour le grand public.







Cela ne se passe pas ainsi dans la pratique.



Non, le grand public n’a pas besoin de s’embêter à choisir ses composants. Le grand public achète sa tour toute faite dans un magasin. Et il n’a pas besoin de bricoler, il va chez un professionnel pour se faire dépanner. Lequel lui dira que OUI, on peut réparer sa tour pour un prix modique, mais NON, il ne peut pas réparer son portable ou sa tablette, qu’il faut obligatoirement l’envoyer en SAV de la marque, ce qui est économiquement peu intéressant hors garantie.



Enfin, pour ceux qui (selon toi) se font chier à assembler leur tour, l’avantage est pourtant évident : comprendre comment cela fonctionne et être ensuite capable de se dépanner seul sans dépendre d’un SAV. C’est aussi le moyen de monter le matos qui est vraiment le plus adapté à sa pratique sur le plan de la capacité et de l’ergonomie. Et ça, quand on bosse souvent avec l’informatique, ça n’a pas de prix.



Parce que qu’entre un petit portable et mon ordinateur fixe avec ses deux grands écrans, son gros processeur et sa vraie carte graphique, sa souris haut de gamme et son clavier mécanique, il y a vraiment un gouffre en terme d’usage. Si on parlait de voiture, c’est comme de comparer une petite citadine avec une grande voiture haut de gamme.



Après, chacun ses choix et ses usages de l’informatique. Mais penser que tout le monde demain va se contenter d’un petit portable me parait éloigné de la réalité.







Le 07/12/2013 à 21h 13







lordofkill a écrit :



Moi ici je possédé 3 ordi fix(server media + ordinateur haute performance de gaming + vieux 386 pour le old school gaming ) 1 cellulaire (jouer ,utilité, gps et communication) , 2 laptop (mon vieux que j’ai encore qui date de 2008 et mon nouveau alienware que je viens d’acquérir car je me déplace souvent) + un tas de console de jeux et une 3ds



Je joue bcq et géré plusieurs serveur de jeu d’on minecraft

Je fais de la vidéo et photo amateur avec de bonnes caméra avec adobe première pro

donc un laptop avec plusieurs disque USB ou une tablette ne me suffise pas , j’ai besoin de plusieurs disque dur qui roule a pleine capacité pour se que je fais



J’ai changer mon ordi portable par un nouveau par nécessite car mon vieux inspiron 1720 commençais a en arracher donc j’le remplacé par un nouveau puissant (m18x) qui va me durer un bon 5 ans (je répare aussi mes ordi)







C’est clair.



Tout ceux qui bossent un peu sérieusement avec l’informatique ont de grands écrans, une bonne souris, de gros disques durs pour sauvegarder leurs créations. Sans compter souvent une belle config puissante pour jouer un peu.



Alors quand on entends des gens nous dire qu’on va remplacer ça par une tablette, un smartphone ou même un all-in-one, ça ne peut que donner à sourire.



De simples notions de physique suffisent d’ailleurs a comprendre que le matos le plus puissant ne pourra jamais se monter dans autre chose qu’un fixe pour de simples raisons de dissipation thermique et de modularité.



D’ailleurs, si on regarde l’histoire de l’informatique, ce match n’a t’il pas déjà eu lieu il y a presque 3 décennies ? IBM PC vs Apple Macintosh, ça devrait rappeler des souvenirs aux plus anciens.



La vraie réalité, c’est que toutes les formes que prennent l’ordinateur (Fixe modulaire, All-In-one, portable, console, minitel) ont toujours cohabitées sans jamais s’éliminer. Et il n’y a pas de raison pour que cela change.



Le 07/12/2013 à 20h 57







ludo0851 a écrit :



Ouais mais le ratio “perf/encombrement” est nettement en la faveur du portable



En gros chacun peut choisir selon ces besoins.

Le “hic” pour le PC fixe c’est que le portable répond aux besoins d’une part de + en + grande de la population







Malheureusement, les portables et les tablettes ont aussi des inconvénients très lourds, même pour le grand public. Par exemple, pour tout ceux qui n’ont plus une excellente vue, la taille de l’écran, ça n’est pas un simple détail.



La logique, c’est qu’il y aura un stade ou le portable ne pourra plus gagner de parts de marché. Pour un grand nombre d’usage ce n’est tout simplement pas adapté.



Sinon, en matière d’encombrement, le portable ne tient pas du tout ses promesses à l’usage. Comme on ne peut rien ajouter en interne, tout les accessoires sont branchés en externe. Vous savez, l’effet “pieuvre” étalé sur la table. Au final, ça prends deux fois plus de place qu’un fixe qui permet de monter un maximum de choses dans un espace vertical plutôt qu’étalé horizontalement sur la table avec pleins de fils qui finissent par s’emmêler.







Le 07/12/2013 à 17h 43







Aisyk a écrit :



Dans la définition de PC, personal computer, on devrait rassembler les tablettes, smartphones..etc… ce sont de vrais ordinateurs personnels. Si les interfaces et logiciels sont différents, ne devrait-on pas plutôt parler de cela plutôt que de “PC” contre les tablettes ?







Techniquement vrai. Les tablettes et téléphone sont juste de petits ordinateurs. De simple déclinaisons technologiques d’un ordinateur portable de très faible puissance.



Par contre, c’est les OS qui tournent dessus qui ne correspondent pas du tout à celui d’un ordinateur et qui limitent grandement les possibilités de ces appareils.







Le 07/12/2013 à 17h 25

Au travers des articles de PCInpact en ce moment, je conclut que vous ne croyez plus dans le PC depuis un bon moment. Et je pense que vous avez grand tort. Cela fait longtemps que vous vous trompez de direction en vous obstinant à parler de produits très grands publiques comme les tablettes à des passionnés d’informatique qui ont tous de vrais ordinateurs.



D’abord regardons dans le passé pour se rendre compte que les “prévisionnistes” se trompent très souvent. Pourquoi ? Parce qu’ils extrapolent des tendances de marché en supposant qu’elles devraient se poursuivre. Or, cela personne n’en sais rien. Et dans l’informatique plus que partout ailleurs, il ne faut jamais oublier que les modes passent. C’est la dessus que la réalité de l’histoire leur a souvent donné tort.



Enfin, comme l’ont dit déjà certains, l’opposition “ordinateur vs tablette” n’a pas vraiment lieu d’être. Oui, parce que les deux sont des ordinateurs. La seule question, c’est de savoir quand les tablettes se débarrasseront de ces OS très limités conçus à la base pour des téléphone afin de passer du rang de jouet à celui d’outil de travail sérieux.



Pensez vous sincèrement que les constructeurs parviendront à maintenir leurs marges dans le temps sans augmenter les possibilités de leurs produits ?

Le fait que les tablettes se vendent par camion ne signifie pas pour autant que leurs constructeurs font forcément tous de l’argent. Ne jamais confondre chiffre d’affaire et bénéfice…



Que le PC fixe ait régressé n’empêche pas qu’il est indispensable dans bon nombre d’usage. Que ce soit pour le jeu ou la CAO, le PC fixe est (et restera) pour des raisons techniques le type de PC le plus puissant. Penser que tout le monde va se contenter d’appareils de faible puissance ne va pas dans le sens de l’histoire.



Enfin, rappelons que dans le monde professionnel, les PC fixes sont plébiscités pour la facilité de maintenance qu’ils permettent par leur modularité alors qu’a l’inverse, portables et tablettes sont en pratique quasiment indépannables.



Les analystes oublient également les véritables causes majeures du ralentissement des ventes de PC. Un ralentissement de l’innovation, mais aussi et surtout la déroute économique de la plupart des pays industrialisés occidentaux.



Regardez simplement autour de vous. Vous constaterez que les gens ont moins d’argent, qu’ils diffèrent leurs achats. Mais le PC n’a pas pour autant quitté sa place dans le salon familial ou la chambre de l’étudiant ni dans le bureau de l’industriel.


Le 06/12/2013 à 18h 52



Google ayant décidé d’arrêter le support, comme il le fait habituellement au-delà de 18 mois.





Soit une durée notoirement insuffisante par rapport à la durée de vie potentielle d’un téléphone mobile.



On voit des experts s’inquiéter pour la fin du support de Windows XP alors qu’il existe une pléthore de smartphone sur le réseau dont les failles ne sont plus corrigées depuis belle lurette.



Tout cela bien entendu sans parler du problème de l’obsolescence programmée. Un rapide calcul suffit à montrer que le renouvellement des mobile pèse forcément sur notre balance commerciale.



Sachant qu’un téléphone n’est structurellement qu’un ordinateur, la solution est exactement la même que pour les ordinateurs : Disposer d’un UEFI normalisé qui facilité l’installation d’un même OS sur de nombreuses machines. Des drivers (eux aussi normalisés) permettent ensuite l’adaptation pour chaque machine.



Faudra t’il des normes ou des lois pour les forcer à le faire ? Visiblement, ça ne semble pas devoir se faire tout seul.



Donc, il serait bon que les politiques commencent à s’intéresser à ce problème.



Si rien n’est fait, la logique finira par s’étendre à tous les biens de consommation touchés par l’informatique.




Le 06/12/2013 à 17h 50

Bref, pour l’essentiel des produits destinés au grand public mais qui ne feront jamais bander un passionné d’informatique.


Le 05/12/2013 à 23h 06







Lafisk a écrit :



Pas tout à fait d’accord, comme je le dis plus haut, je pense que beaucoup de jeux indes sont plutôt pauvre en graphisme et en gameplay, bien que cela peut contenter certains, c’est mon avis. Après parmis tout les titres, il en reste quand même quelques uns qui sont des bombes avec des graphismes parfois moyen parfois très bon. Je pense notamment à killing floor et au vu de strike vector, je pense qu’on va encore avoir un bon jeu à ce mettre sous la dent



Au contraire, les jeux des gros studio sont de plus en plus sans saveur, sans innovation et aucune prise de risque.







Globalement, c’est tout à fait vrai. Et quelque part, c’est logique.



Mais le sens de mon propos, c’est de faire remarquer que la base d’un bon jeu, c’est quand même d’abord le gameplay et seulement secondairement le graphisme.



Si vous mettez le meilleur graphiste du monde sur un remake d’asteroid, vous n’obtiendrez qu’un jeu dépassé et sans intéret dans l’univers ludique actuel. Et même si cela peut toujours intéresser quelques personnes qui n’ont pas connu, il n’y a pas besoin d’en avoir 10000 sur le marché.



A l’inverse, il existe des jeux très moches qui ont un gameplay fabuleux et de nombreux aficionados. Dwarf Fortress que j’ai cité plus haut est probablement parmi les exemples les plus extrêmes.



Le vrai problème des indépendants, c’est qu’il n’y a pas de miracle : il sont très limités en capacité de travail face aux gros studios. Donc la raison voudrait qu’ils consacrent d’abord leur temps à faire un jeu intéressant et ensuite seulement à améliorer les graphismes s’ils en ont le temps. Ou tout le moins un équilibre correct entre les deux. Parce qu’il faut réaliser qu’il est rarissime de voir des indépendants réussir les deux aspects. C’est la ou je rejoint ton propos.



Le problème, c’est que tout le monde sait bien que les joueurs débutants qui constituent la grande masse jugent d’abord sur les graphismes. Les créateurs le sachant parfaitement choisissent souvent de privilégier cet aspect.



Quand aux gros studio, c’est exactement ce qu’ils font depuis très longtemps. Mais avec de bien meilleurs résultats compte tenue de leurs énormes moyens.

























Le 05/12/2013 à 18h 47







deepinpact a écrit :



Y a d’autres exemples, “Bastion” développé par 7 gus, certes pas aussi impressionnant que farcry 3 sous un SLI de GTX Titan, mais vraiment pas dégueu non plus !







Bof, bastion c’est un peu le type de jeu qui me déçoit. Assez joli, certes. Mais si on fait abstraction des graphismes, il ne reste qu’un jeu au gameplay assez simple et avec peu de profondeur.



Ne rêvons pas, la scène “indé” n’aura jamais capacité à concurrencer les gros studios qui disposent d’énormes moyens. Mais ils peuvent apporter une prise de risque et une originalité(et parfois une profondeur de jeu) que les gros studio n’oseront pas(parce qu’ils visent d’abord la grande masse).



Un vrai jeu qui correspond bien à ce que peuvent apporter les “indé”, c’est par exemple dwarf fortress.


Le 05/12/2013 à 16h 53







Lafisk a écrit :



+100



C’est ce que je voulais dire dans le tas, j’ai l’impression de voir beaucoup de choses qui ressemble plus à des jeux des années 80 qu’autre chose.



Par contre strike vector à l’air génial, merci pour le lien je sens que ça va me plaire même si je suis depuis un moment plus en mode “j’achètes et je verrais si un jour j’ai du temps pour y toucher” <img data-src=" />







En même temps, de beaux graphismes ne font pas toujours de bons jeux.



Un vrai studio indépendant dispose logiquement d’une puissance de travail très réduite par rapport à un gros studio. Mieux vaut qu’il la consacre a l’essentiel, c’est à dire au gameplay. Et de fait, il y a d’excellents jeux indés.



Le problème de beaucoup de jeux “indé” médiocres, c’est qu’ils ont perdu leur énergie dans les graphismes. C’est une démarche plutôt commerciale qui peut payer à court terme mais qui finira logiquement par décevoir les joueurs sur le long terme.


Le 11/09/2013 à 18h 50







Snake-Ice a écrit :



C’est pas l’éditeur ou les programmeurs du logiciel qui définissent les versions minimales ? Ca me semblerait un peu plus logique.







Mwai, la mamie, en voyant tout le monde aller sur internet, elle veut aussi aller sur internet. Mamie, avec son windows 98 et bientot xp avec des failles de sécurité énormes, faudrait qu’elle change d’OS. Mamie, avec son GPU en AGP, ça serait bien qu’elle évolue et oblige pas les constructeurs à garder des vieilles pièces pour quelques très rares nécessiteux, sachant qu’avoir du stock inutile, ça coute cher au final.







Et pourtant, on trouve encore des cartes graphiques AGP neuves dans le commerce alors qu’il n’existe aucune loi pour l’obliger.



N’importe quel réparateur te dira que pour un PC desktop, réparer un produit de 10 ans d’age n’est pas un problème parce que tout est standard.



Le problème c’est plutôt pour le matériel non standard. Donc la, de deux choses l’une, soit les constructeurs gardent des stocks, soient ils utilisent (ou créent) des standards qui permettent de diminuer les stocks de pièces.



Et il n’y a pas qu’une poignée de nécessiteux à ne pas vouloir changer un PC qui convient très bien tous les 2 ans.



Si notre nation ne veut pas finir ruinée par le commerce des gadgets high tech (qui ne sont pas fabriqués en France), nous devons encourager les personnes qui ne souhaitent pas changer de matériel inutilement.


Le 11/09/2013 à 18h 39







Ingénieur informaticien a écrit :



Hier j’ai justement voulu utiliser Skype sur mon vieux Powermac G5 … impossible !







Dans le même ordre d’idée, j’ai vu que flash ne supportait plus les processeurs dépourvus d’instructions SSE2 comme les Athlon XP.



Du coup, l’ordinateur de la grand mère a du être remplacé parce qu’un seul logiciel en avait décidé ainsi.



La solution, ce sont les logiciels libres qui offrent toujours par nature de nombreuses possibilités d’adaptation.


Le 11/09/2013 à 17h 47









HarmattanBlow a écrit :



Mais même l’obsolescence matérielle est une mauvaise idée : tu te rends compte que ce projet veut obliger chaque fabricant de chaque produit à mettre en place pendant dix ans une filière d’approvisionnement de chacune des pièces ?! Les fabricants de smartphone devront en 2022 maintenir des chaînes pour des pièces pour des modèles qui ne sont plus produits depuis 2013 ?!



Ce serait dispendieux, donc ils ne le feront pas et à la place ils vont payer un max en assurances juridiques (surtout avec l’action de groupe) et au lieu de payer 100€ des produits à 100$ (ce qui nous les brise déjà), on va se retrouver à les payer 120€ pour financer ces foutues assurances à la con. Je caricature un peu mais c’est exactement ce qui se passe avec ces empilements d’amendements à la con rédigés par ces abrutis finis, catégorie dans laquelle les écolos sont passés maîtres. Mais quand est-ce que les électeurs arrêteront de voter pour ces guignols ?!



Tiens, et dans la même catégorie, comment distingues-tu une économie réalisée pour faire baisser le prix d’une économe réalisée pour faire tomber le matériel en panne plus rapidement ? Et comment le prouves-tu ? On va demander aux juges d’arbitrer des procès d’ingénieurs experts présentant leurs calculs respectifs ? Faut-il que tout produit ait une durée de vie de dix ans, ce qui serait parfaitement ridicule dans le domaine de l’informatique ? Faut-il faire tourner les plateaux des disques durs plus lentement en France pour réduire le risque de panne ?







Il y a du bon sens dans ce que tu dit.



Mais d’un autre côté, l’obsolescence programmée, cela existe bel et bien. Et cela diminue notre niveau de vie, cela pollue la planète, cela déséquilibre notre balance commerciale.



Pour autant, je suis d’accord qu’il faudrait traiter ce problème avec beaucoup plus de finesse. Aussi bien pour espérer apporter des parades efficaces que d’éviter des situations grotesques.



Mais ceux qui font les lois ne connaissent pas bien les problèmes. Et ceux qui connaissent les problèmes ne font pas les lois.



Notre pays connait aujourd’hui de gros problèmes organisationnels aussi bien dans la gestion des compétences que dans la gestion des priorités.



Par exemple, on constate dans de nombreuses municipalités la constructions à grand frais d’aménagement urbains peu utiles alors que de plus en plus de gens manquent de l’essentiel.









Le 11/09/2013 à 17h 20



Sur le sujet de l’obsolecence programmée, on pourra lire ce texte qui apporte un autre éclairage





Je ne suis vraiment pas d’accord avec les arguments avancés dans ce texte. Il n’est pas pertinent de prendre exemple d’une panne qui n’est pas en rapport avec l’obsolescence programmée pour avancer un argumentaire niant son existence.



Pour avoir réparé des centaines d’appareils dans ma vie, j’ai trouvé de nombreux cas d’obsolescence programmée réels et flagrants.



Beaucoup de gens pensent d’ailleurs à tort que c’est uniquement une question de couts de fabrication. Ne nous voilons pas la face, c’est parfois le cas mais pas toujours.



Mais j’estime que de nombreux appareils pourraient voir leur durée de vie décuplée pour un surcout de 10 à 20%.



Et pour avoir modifié de nombreux appareils pour prolonger leur durée de vie en supprimant ces “points d’obsolescence programmée”, je sais de quoi je parle.



Reste que lutter contre ces stratégies n’est pas simple. Avant de réprimer, il faudrait encore que les députés fassent un travail avec des professionnels de la réparation pour les identifier.



Mais il faut souligner que l’obligation de disposer de pièces détachées pour une durée importante est déjà un énorme pas dans la bonne direction qui éliminera de notre marché national bon nombre de produits jetables et de fabricants spécialisés dans ce type de produits.



Cela pourrait même aboutir à favoriser le cas échéant des constructeurs nationaux.


Le 11/09/2013 à 16h 56







Drepanocytose a écrit :



Autant je suis tout à fait d’accord sur l’obscolescence programmée materielle, autant là pour le logiciel si c’est comme decrit plus haut, c’est juste n’imp et ca ne veut rien dire…




  1. incompatibles entre elles 2 versions du même logiciel ? keskesaveudir ?

  2. qu’une MAJ puisse necessiter plus de resources que la version N-1, c’est un peu logique si on y ajoute des fonctionnalités en plus….



    Les gars, definissez mieux vos trucs, ou alors vous allez rendre caduque une bonne idée (l’obscolescence materielle) en y ajoutant un volet de merde qui decredibilisera l’ensemble…



    L’obsolescence programmée du logiciel existe bel et bien. C’est courant et dommageable pour le consommateur.



    Mais je suis d’accord que la définition qu’ils en donnent doit être mieux travaillée. Le problème c’est que ce n’est pas simple.



    Encore qu’un tribunal serait certainement capable d’apprécier les arguments de bon sens. Par exemple, as t’on rajouté des fonctionnalités effectives qui demandent plus de puissances de façon légitime. Ou au contraire la même interface as t’elle été alourdie sans justification.


Le 11/09/2013 à 11h 09







Worlak a écrit :



Il faut séparer DLC et micro-transaction, ce ne sont pas les mêmes problématiques.



Les micro-transactions, pourquoi pas, du moment que cela ne se transforme pas en “pay-to-win”.

Payer pour des “avantages” cosmétiques qui ne remettent pas en cause l’équilibre du jeux, je ne vois pas le problème.



Déjà que le DLC penche dangereusement vers le “paye pour avoir la fin du jeux”. <img data-src=" />







Bah, moi j’attends simplement qu’on me propose un package avec tous les DLC à un prix correct pour acheter les jeux.





Le 11/09/2013 à 10h 59

A quand une production de téléphones sur notre territoire national.

Le 11/09/2013 à 10h 57

Qui se souviens de l’incendie d’une usine de RAM à la fin des années 80 qui avait propulsé les tarifs de la mémoire à des niveaux stratosphériques.

Le 11/09/2013 à 10h 49



Pour contre-attaquer sur le terrain des prix, Apple va en effet tricher en augmentant la marge prise en charge par les opérateurs lors de l’achat. On devrait ainsi trouver l’iPhone 5c pour 99 euros avec un engagement sur deux ans.





Les forfaits masquent le prix élevé d’un téléphone.



Il est réellement dommage qu’aucun politicien français ne s’interroge a propos de l’impact de la téléphonie mobile sur notre balance commerciale.



Si on interdisait carrément d’intégrer le prix du téléphone aux forfaits, la plupart des gens reculeraient devant le prix des appareils les plus couteux.



D’autant que pour un lycéen, un smartphone ne vaut pas une bonne calculatrice programmable pourtant bien moins onéreuse.

Le 09/09/2013 à 13h 32

Et demain, grâce aux montres-smartphones, la NSA saura même quand on se gratte le cul.

Le 08/09/2013 à 14h 18



Pourquoi les montres connectées peuvent avoir du succès





Peut être parce que les grandes multinationales ont probablement l’intention d’en faire le prochain gadget rentable à la mode.



Et oui, les tablettes et les smartphones sont en passe de passer du statut d’objet “in” à celui d’objets banals (et bientôt has been). Et comme on ne pourra plus simplement les acheter pour se la péter, les gens commencent à réfléchir à leur utilité réelle, a comparer les prix, les fonctionnalités.



Donc il est urgent de créer de nouvelles modes, de nouveaux besoins, de nouveaux objets inutiles mais indispensables.



Quand aux applications sportives, j’ai piqué un bon fou rire en lisant cela. Les sportifs qui utilisent des vraies montres sportives depuis des années me comprendront.


Le 07/08/2013 à 14h 48







Obidoub a écrit :



Problème similaire avec un transfert de domaine tellement long qu’il a eu le temps d’expirer… je me suis retrouvé le nez dans l’eau grâce à eux. J’ai l’impression que juillet/aout c’est vraiment pas la bonne période.



Les 35H et les congés, y’a pas à dire, c’est la qualité française <img data-src=" />







Pour un transfert de nom de domaine, il faut toujours le renouveler AVANT le transfert s’il risque d’expirer dans une période proche. D’ailleurs les “registrars” devraient tous mettre un message automatique pour prévenir.



Quand aux 35 heures, c’est plus la théorie qu’autre chose. Dans beaucoup d’entreprises il est courant de bosser presque 2 fois plus d’heures.



Alors quand tu as travaillé comme un taré toute l’année, tu est effectivement pressé de te tirer en vacances. Simple question de survie mentale.



Et puis, je n’ai jamais bien compris pourquoi l’été, il y a tellement de gens qui se réveillent avec du travail à faire. Pas des trucs urgents, juste du boulot qu’ils auraient très bien pu planifier pendant l’année.



Parfois je me demande si le jeu n’est de se casser en vacances… après avoir refilé le boulot aux autres.



Honnêtement, je pense qu’un peu plus d’organisation et de planification, c’est ce qui manque cruellement aux français.



Un peu de respect aussi. Ce n’est pas parce qu’on travaille avec un prestataire externe qu’il est sensé prévoir ce que vous n’avez pas prévu.



La réactivité, c’est bien. Mais cela ne doit pas pallier éternellement a un manque d’organisation chronique.



Le 06/08/2013 à 14h 30







Stargateur a écrit :



<img data-src=" /> quoi une prise de courant c’est dangereux ? what ? sinon c’est quoi la différence entre un chargeur apple fabriquer en chine et un chargeur tierce fabriquer en chine ? <img data-src=" />







Certains fabricants de seconde zone peu scrupuleux utilisent des mauvais schémas électroniques dans le but de réduire le nombre et le coût des composants.



Certains de ces chargeurs sont très mauvais. Aussi bien parce que leur régulation est mauvaise, ce qui peut entraîner des dégâts dans les appareils alimentés. Et parfois parce que les normes de sécurité ne sont pas respectées, ce qui peut aboutir à des risques d’incendie, voir même au passage de la tension secteur au secondaire avec un risque d’électrocution de l’utilisateur.



Donc pour toutes ces raisons, on ne saurait trop se méfier de tout adaptateur “noname”. Il faut également se méfier de la contrefaçon d’adaptateurs de marque et n’acheter que dans les réseaux de distributeurs sérieux.



Pour vous montrer de quoi sont capables certains :



http://www.cnetfrance.fr/news/des-contrefacteurs-inventent-le-stockage-usb-illim…


Le 05/08/2013 à 20h 10

En réalité, nous payons énormément d’argent pour le marketing et la pub dans le prix des produits.



Et cela ne sers pas toujours à des choses aussi utiles qu’a financer du code libre.



Bien sûr, la pub, la communication et le marketing sont utiles, mais à condition de ne pas tendre vers l’excès.


Le 05/08/2013 à 17h 32







brazomyna a écrit :



On peut faire des outils sérieux avec une interface simple et intuitive et un environnement sur lequel on ne fait pas forcément tout y compris le café, mais sur lequel on fait bien ce dont on a besoin.



Typiquement, vouloir installer “une suite de programmation, des bases de données, un serveur web” c’est débile puisque le smartphone n’a pas vocation à servir à ça.



Le bon outil, c’est celui qui s’adapte aux besoins (et aux compétences de ses utilisateurs) et qui se concentre sur la valeur ajoutée du service rendu.

Et la valeur ajoutée et le service rendu ne se mesure pas en l’accumulation de solutions à des besoins qu’on n’a pas.







S’il y a une chose que j’ai appris de plusieurs décennies de métier, c’est qu’il est impossible de déterminer à l’avance tous les besoins des gens.



La puissance, c’est de pouvoir tout faire. Ne pas pouvoir tout faire, c’est être limité.



Déterminer ce qui “suffit” aux gens, c’est un raisonnement qui viens du marketing.



En marketing, on cherche à cibler le marché des 80% qui sont susceptibles d’acheter et l’on se moque d’emmerder royalement les 20% restants.



Mais avec ce raisonnement, on ne fabrique que des produits qui “suffisent” aux besoins les plus modestes, pas des produits puissants.







Le 05/08/2013 à 17h 06







dadal a écrit :



Ben tu peux le faire. AirDroid par exemple fait tourner un site web pour accéder a plein de fonctionnalité de ton téléphone. C’est juste que c’est complètement inutile pour 99.9% des gens qui comprennent qu’un os de smartphone n’est pas optimisé pour faire tourner des bdd, des serveur web ou des outils de dv (de débug à la rigeur). Et que donc toute la gestion de mémoire. d’alimentations, de droits ou de sandboxing qui se fait en arrière plan est pensé pour d’autre scénario d’utilisation.



Après bon, si programmer sur du 5” dans un environnement totalement différent d’un serveur de prod avec plein d’option inutile en plus ça donne un impressions de SERIEUX ça veut peut-être pas dire la même chose dans mon monde.







Justement, l’énorme avantage d’utiliser une vrai distribution Linux, c’est que tu peux utiliser exactement les mêmes outils que sur un serveur de prod.



Je pense sincèrement que vous ne réalisez pas l’avantage de pouvoir utiliser les mêmes briques logicielles aussi bien sur un serveur, qu’un poste de travail qu’un smartphone. C’est un gain de temps phénoménal. Être sérieux en matière d’informatique, ça commence par ça.



Sans cette souplesse, l’informatique perds une grande partie de sa puissance.



Et même s’il chacune de ces plateformes suppose des variations qui lui sont propres, il peut être parfois pertinent d’utiliser une application “mobile” sur son poste de travail ou un outil serveur sur un smartphone. Parce que la puissance, c’est de pouvoir. Ceux qui prétendent que ça ne sers à rien ont tort.



Alors les Fanboy Android/IOs/Wmachin ont toujours quelque chose à répondre : il y a toujours une application gadget machin chose pour faire du FTP, du ceci ou du cela. Sauf que franchement excusez moi mais nous sommes à des années lumière de la puissance, de la souplesse et de la réputation de ce qu’on trouve dans les outils d’une bonne distro Linux.



Et même si un petit écran n’est pas confortable pour effectuer un long travail, ça peut quand même dépanner pour des petits travaux urgents. J’ai déjà retouché des photos avec Gimp, c’est tout à fait utilisable. Pour ceux qui veulent tester : AndroidVnc + un Raspberry pi.



Et pour les smartphones munis d’une sortie HDMI, cela pourrait même remplacer un volumineux “portable”.



Bref, pour toutes ces raisons, je pense que vous serez les premiers à vous rendre compte de l’énorme différence que permet une vraie distribution Linux sur votre smartphone le jour ou cette solution sera disponible et aussi effective que sur un raspberry pi (qui est pourtant bien moins puissant qu’un smartphone récent).



Le 05/08/2013 à 15h 02







Patch a écrit :



vu qu’il est possible de faire des custom rom sur android, rien n’empêche de le faire, dans l’absolu <img data-src=" />







Sur le plan technique, je serais tenté de te répondre par l’affirmative.



Mais il faut se méfier des apparences. Android est quand même très différent d’une distro Linux même si elle en partage la base.



En pratique, vu que les distributions Linux pour smartphone se font réellement attendre, c’est qu’il y a forcément des obstacles techniques. Et que les blobs de drivers propriétaires pour android n’y répondent pas correctement.



Mais bon, tout cela finira par arriver. Et Ubuntu semble aller de l’avant en la matière.







Le 05/08/2013 à 14h 42







Idiot Proof a écrit :



C’est bien pour celà que les smartphones sont en train de remplacer avantageusement les ordinateurs coûteux dans les pays “émergents” depuis le temps ou on en lit des conneries sur des initiatives Intel (par exemple) pour développer tel ou tel micro pc ultra bridé en destination des pays en devenir, alors qu’ Android a apporté une réponse sans annonce spectaculaire et multiples reports <img data-src=" />







Quelques vérités :



Dans les pays émergents, peu de gens ont les moyens de se payer des smartphones ultra coûteux qui représenteraient des années de salaire. Et vu la fragilité de ces appareils et leur conception qui ne tient pas souvent compte de la maintenance, il ne sont pas du tout adaptés aux besoins de ces pays.



Ils sont conçus pour les besoins des occidentaux. Et encore, c’est plus des produits qu’on achète pour se donner une image branchée que pour en attendre de vrais services.



Mais ce qui est dramatique, c’est que les OS pour smartphones ne répondent pas aux besoins en informatique. Et je parle des besoins en informatique sérieuse, celle qui rends de vrais services, pas du gadget ludique pour adolescent.



Une vraie distribution Linux changerait la donne radicalement. En quelques commandes on peut y installer une suite de programmation, des bases de données, un serveur web, et des milliers d’autres outils SERIEUX . C’est quand même autre chose que la logithèque Android, Ios ou autre.



Tout cela n’empêcherait pas madame michu d’avoir son interface simple et son kikoolol de fils d’installer ses applications “coussin pèteur”.



C’est juste que tout cela permettrait de donner une autre dimensions a des smartphones, celle de leur rendre le véritable usage de ce qu’ils sont : des ordinateurs.



Parce qu’aujourd’hui les smartphones sont plus de jolis gadgets pour commerciaux qui se la pètent que de vrais outils sérieux pour des gens qui ont envie de faire des choses puissantes avec de l’informatique.


Le 05/08/2013 à 00h 49







brazomyna a écrit :



<img data-src=" />







Je comprends que la comparaison puisse faire sourire.



Mais quand on étudie les ordinateurs depuis le début des années 80 jusqu’aux smartphones, on se rends compte de l’évolution.



Et il y a du bon, mais aussi du moins bon.



Plus c’est récent, plus c’est puissant, mais moins c’est ouvert, plus c’est bridé.



Et ça, c’est malheureusement une triste réalité.



Donc ce qu’on a gagné du côté puissance, on l’a perdu du côté de la souplesse et des possibilités.



Au final, il faut bien réaliser qu’on fait beaucoup moins de chose avec un smartphone sur le plan de l’informatique qu’a l’époque avec un Amiga.



C’est incroyable, mais hélas, c’est vrai.



Et la réalité, c’est qu’avec juste un OS un peu moins bridé, les smartphones deviendraient des outils d’une incroyable puissance. Il suffit de voir pour cela tout ce qu’on arrive à faire avec un Raspberry pi.





Le 05/08/2013 à 00h 28







smnr a écrit :



<img data-src=" /> ste troll ! <img data-src=" />

L’électronique ne s’est certainement pas complexifié depuis.

Quelque chose me dit qu’avec des connaissances suffisantes, on peut tout faire d’un smartphone actuel*.







Tout à fait.



Le problème, c’est que le hardware des smartphones n’est la plupart du temps pas du tout documenté.



Même avec d’excellentes connaissances, le reverse engineering c’est très long. Il y a bien des gens qui ont les compétences, mais au rythme ou se succèdent les modèles…





* Il est une tendance actuelle de s’improviser sysdev… etc.

On ne chie pas un kernel juste comme ça, ce n’est pas parce que vous êtes capables de faire un site internet, qu’on peut faire du développement système/hardware.



Je me souviens de quelqu’un (très très fort pour cracher du code) qui m’avait demandé de l’aide pour programmer une caméra virtuelle gérable par clavier/souris depuis zéro (vraiment zéro), je lui ai dit : viens je vais te parler de O(n) et du groupe des quaternions, il est devenu bleu <img data-src=" />





Clair.



Je me souviens du temps ou j’avais fait ça sur un 68000. Même pas de coprocesseur arithmétique, sans parler de chip 3D. Tout en langage machine de ouf ou l’on comptait chaque cycle, ou l’on optimisait à mort chaque algo. Les semaines passées à étudier les rares bouquins sur la 3D et l’implémentation des calculs. Les astuces de malade avec les registres. Mais au moins tout le matos était plutôt bien documenté.



C’était le bon vieux temps.



Et comme tu dit, c’est triste, c’est de plus en plus rare de trouver des gens qui savent faire autre chose que pisser du code en PHP ou en Java. Savent même plus ce qu’est un registre ou un accès mémoire. Et en plus ils sont contents avec des machins tout bridés ou l’on ne peut plus rien faire de cool.



Et plus ça va, plus ils enlèvent des fonctionnalités sous prétexte que c’est trop compliqué pour les michus. Faudrait surtout pas que les gens risquent de se tordent un neurone. Un vrai nivellement par le bas.



Triste époque.


Le 04/08/2013 à 17h 28

Enfin, bon, la vérité c’est qu’on pouvait faire beaucoup plus de choses avec un Amiga il y a 20 ans qu’avec des smartphones d’aujourd’hui qui sont juste conçus pour les “madame michu”.



Pourtant, les smartphones ont un hardware qui est plus de 100 fois plus puissant que celui d’un amiga.



Quel gaspillage.


Le 04/08/2013 à 01h 27







metaphore54 a écrit :



Sur ce point permet moi de te contredire, non pas que les gens vont y mettre un smic, mais que le système de subvention aide à ce que ce soit indolore pour le pékin moyen.



Tant que ce système de subventions existe majoritairement dans le monde, je ne crois pas à une baisse drastique des ventes et des smartphones à très bas coûts.



Quand les subventions seront arrêté, il y aura un glissement vers ce que tu dis.



Les subventions pour moi fausse le marché et en fait un marché artificiellement maintenu.







Pas faux.



Mais en même temps, je doute que cela dure éternellement.



D’un côté, il y a les forfaits à très bas couts. Un téléphone cher, ça fait quand même exploser les forfaits. C’est juste un crédit déguisé.



De l’autre, la situation économique du pays qui va bien nous obliger un jour à limiter nos importations de gadgets peu utiles (et surtout peu durables).


Le 03/08/2013 à 21h 57







metaphore54 a écrit :



Oui pour des powers users mais pour les autres les os actuels sont bien plus pratique et facile à utiliser. Et vu qu’en nombre les utilisateurs lambda submerge et de beaucoup les powers users, c’est pour ça que je n’y crois pas.







Oui, mais ce n’est pas aussi simple.



Parce que vendre beaucoup ne signifie pas forcément gagner beaucoup.



Une fois la mode passée, le gars lambda n’ira plus mettre un (preque)smic dans un appareil haut de gamme qui ne se différenciera plus suffisamment de l’entrée de gamme.



Et quand le marché descend en gamme, les profits s’effondrent.



Rappelons au passage que c’est toujours les power user qui font les bonnes marges des fabricants. Ils achètent les appareils les plus puissants et avancés. Celles sur lesquelles les mages sont juteuses.



Un autre phénomène indirect très important mais souvent négligé, c’est que les power users conseillent les “lambda”. On appelle cela des prescripteurs. Et donc c’est par les power users qu’il faut passer pour qu’un produit se vende demain aux “lambda”.





Même moi qui suit un poil au dessus de l’utilisateur lamda j’apprécie ce système alors que j’étais un des premiers à le critiquer.





Je pense que tu appréciera encore plus les vrai systèmes.



Ils seront tout aussi sympa à utiliser, mais pourront faire 1000 fois plus.



Avoir plus de possibilités ne sera jamais un inconvénient. Ceux qui ne voudront pas s’en servir ne s’en serviront pas.


Le 03/08/2013 à 15h 24







metaphore54 a écrit :



Je n’y crois pas que les OS simplifié seront balayés.







Quand tu verra tout ce que peut faire un vrai OS sur un mobile, tu sera persuadé du contraire <img data-src=" />.



Les OS simplifiés n’avaient qu’une seule raison d’être : les capacités très limités des premiers smartphones. Mais le hardware actuel est devenu tellement surpuissant que ces OS édulcorés sont devenus le facteur limitant qui bride les capacités.



De plus, aujourd’hui, n’importe quel smartphone bas de gamme peut faire tourner android.



Il n’y a pas de secret, si les constructeurs veulent conserver leurs marges, il faudra qu’ils montent en fonctionnalités.



Le 03/08/2013 à 14h 51







atomusk a écrit :



En attendant, Windows RT fait un bide, le market Windows 8 est phamélique, et si Microsoft se reveille pas ils vont se faire bouffer sur les tablettes <img data-src=" />







Eux, ils iront mieux le jour ou ils cesseront de vouloir copier le business model d’Apple alors qu’ils n’ont pas la même image ni la même clientèle.


Le 03/08/2013 à 14h 44



Android, le futur Windows ?





Non, absolument pas.



La prochaine tendance, ce sera les “vrais” os qui débarqueront sur mobile et qui balayeront ces OS simplifiés.



Car maintenant, le hardware commence à pouvoir le permettre.



Et les logithèques mobiles sont vraiment très loin de rivaliser avec celle des vrais OS.




Le 05/08/2013 à 15h 25

Amusant



Les américains veulent imposer leurs règles de propriété intellectuelle et de brevets a la planète entière.



Mais quand ça ne les arrange pas, ils disent “pouce”.



Cela devrait inciter à rejeter ce système d’accords commerciaux qu’ils veulent nous faire ratifier.


Le 02/08/2013 à 18h 24







xonxoff a écrit :



Un périphérique à détection de mouvements c’est bien, c’est interactif ! ok mais on fait comment quand on à pas la place de bouger, on change d’appart ? ce n’est pas le même budget !



et faire de la gym devant un jeu je préfère encore faire du vélo dans la vraie vie !







Ce n’est pas le même type de mouvement, ça ne développe pas du tout la même chose.



Il faut avoir à l’esprit que tous les sports sont incomplets et que chacun apporte ce que l’autre n’apporte pas.



Le 02/08/2013 à 18h 02







burroz a écrit :



mode troll

Au moins sa peut faire maigrir certains joueurs et faire évoluer la vision des gens sur le jeux vidéo .

J’imagine une pub :“joueur pro jouer a xxxxx sur xbox one et avec, vous allez avoir des muscles a la Stallone (attention l’abus du jeux peux causer des crampes )”

mode troll off

on est vendredi







Je pense effectivement à cela. Et l’intérêt est énorme.



Par contre, il faudrait que les jeux soient supervisés par des spécialistes du sport et élaborés en étroite collaboration avec des coach confirmés.



Parce que le sport, ça ne s’improvise pas.



Un mauvais mouvement ou un manque de progressivité, ça peut aboutir facilement à des TMS.



Le 02/08/2013 à 15h 45







fraoch a écrit :



un jeu de role, comme skyrim avec kinect ca serait bien par exemples :




  • le mouvement pour donner un coup est simple

  • et pour lancer des sorts avec des gestes aussi

  • ouvrir des coffres

  • boire des potions

    enfin bref, je sais pas quoi , c’est leur taff apres tout d’imaginer ^^









    Sur le plan technique, c’est tout à fait possible.



    C’est plutôt sur le plan de l’intérêt qu’on peut franchement douter de la pertinence de le faire. Tout l’intérêt de ce genre de jeu, c’est le scénario, pas l’interface.



    Passer des heures de jeu à faire des mouvements devant une caméra, ça lasserait rapidement les joueurs de RPG.



    Et puis bonjour les courbatures le lendemain.


Le 02/08/2013 à 14h 46







V_E_B a écrit :



Pour moi, le problème principal du Kinect pour le core gaming c’est qu’il n’a pas de valeur ajoutée. Une pression de bouton reste plus rapide, plus intuitive et plus efficace qu’un mouvement suffisamment ample pour être reconnu.

Tous les jeux réclamant des actions diverses et rapides (à commencer par les jeux de baston et les beat’em all) ne sont juste pas adaptables en l’état.



Là ou Kinect peut trouver sa niche, c’est vraiment le remplacement des télécommandes. Des mouvements ponctuels et limités pour lesquels un accessoire ne représente qu’un encombrement.







Une nouvelle interface permet souvent des jeux d’un nouveau genre… et ne s’adapte que rarement aux anciens.



Ce problème n’est pas nouveau. Essayez simplement de jouer sur un écran tactile à un jeu conçu pour le joystick.



Pour Kinect, l’intérêt c’est de permettre des jeux basés sur des mouvements du corps. Et ça ouvre tout un nouveau champ de possibilités pour le jeu vidéo… ou pour des logiciels sportifs.



Mais il est évident que pour des jeux plus classiques, l’intérêt est très faible.


Le 02/08/2013 à 14h 21

Sa position est assez logique dans la mesure ou il voit le jeu vidéo comme un passionné qui fait des jeux pour passionnés. Et surtout des jeux d’un certain type qui n’ont pas vraiment possibilité de tirer partie d’un Kinect.



Reste que malgré ses limitations, le concept Kinect ouvre un champ de possibilités énormes. Elles seront certainement mieux exploitées dans le futur quand la puissance de calcul permettra une analyse plus rapide et moins de latence.


Le 02/08/2013 à 12h 56







lysbleu a écrit :



Le concept est sympa, même si ça ne m’intéresse absolument pas.





Et dira qu’avec mon RaspberryPI @900Mhz/512Mo RAM / 4Go je vais tourner un système d’exploitation complet <img data-src=" />







C’est clair.



C’est la ou l’on voit que les OS smartphones sont le facteur limitant de ces appareils.



Si on pouvait seulement y installer une distribution Linux standard, on pourrait en faire 10000 fois plus de choses.



Le 01/08/2013 à 17h 18







zefling a écrit :



En effet, perso, j’ai du ~4,5 M, et mon voisin tourne plus autour de 2 M (un bout du quartier construit après) C’est des débit correcte pour surfer, pas pour faire du gros dl, sauf en y passant des jours.







Et encore, dans ton cas, c’est difficile mais encore possible.



Mais il ne faut pas oublier qu’il y a encore énormément de gens en 56k même en France. Je ne parle même pas en pourcentage de la population mondiale.

Et la, télécharger le moindre jeu récent en dématérialisé, c’est totalement impossible.


Le 01/08/2013 à 16h 33



on peut facilement imaginer que les titres dépasseront les 25 Go en téléchargement. Les abonnés à la fibre ou les veinards disposant d’une connexion VDSL n’y verront certainement aucun inconvénient, mais même dans les pays les plus développés, certaines zones n’ont pas accès à de tels débits. En France par exemple, le débit moyen en téléchargement n’est que de 5,2 Mb/s. À cette vitesse il faut tout de même près de onze heures pour télécharger un tel jeu au complet. Quoi qu’en pense David Darling, le tout dématérialisé n’aura sa place qu’une fois la fracture numérique comblée.





Tout à fait d’accord avec cette conclusion.



Et même, 5.2Mb/s c’est une moyenne. Ca veut dire qu’une bonne partie du marché a seulement accès à des débits bien plus pourris.



Donc en misant trop tôt sur le tout dématérialisé, certains éditeurs pourraient se couper d’une partie importante du marché.




Le 01/08/2013 à 16h 28







Tarpan a écrit :



Le MacPro équipé de Thunderbolt 2 est attendu pour “d’ici fin 2013” . (Source : Phil Shiller)







Cela ne serait pas étonnant. Ils ont toujours été les premiers à lancer les nouvelles connectiques.



A l’inverse, sur PC, les constructeurs attendent souvent la maturation de la technologie et la démocratisation des périphériques.













Le 01/08/2013 à 14h 08

Si je vais dans un magasin acheter un disque dur externe, je paye pour la copie privée.



De quel droit m’interdit t’on d’y transférer les films enregistrés sur la box ?



Cette redevance copie privée prélève de fortes sommes sur de nombreux appareils numériques.



Mais qu’avons nous en retour ? Rien ou presque en pratique. Parce qu’il y a toujours des DRM et des limitations savamment conçues qui empêchent d’en profiter.



Pour les ayants droits, cette redevance, c’est le beurre et l’argent du beurre. Le consommateur paye des sommes importantes sans obtenir de vraie contrepartie réellement utilisables dans la pratique.



Conclusion, nous payons comme pour une licence globale mais sans avoir les bénéfices de la licence globale.