votre avatar Abonné

Citan

est avec nous depuis le 17 mai 2005 ❤️

4446 commentaires

Le 16/05/2013 à 09h 59







jmanici a écrit :



En même temps, Ils ont tenté de vendre 500€ une tablette 10” en 1024x768.

Et ils sont surpris que ce soit un bide…

Ils sont sérieux?







1366x768, pas 1024x768

Apple vend bien l’ipad 2 1024x768 a 400€ sans office, sans support flash Player, sans ports USB, sans lecteur carte mémoire, sans possibilité de faire tourner deux applis sur le même écran.



quand on met les choses en perspectives, même a 500€, une tablette Windows RT offre un meilleur rapport qualité prix qu’un ipad2

Bah ouais, sauf que ce qui fait l’intérêt d’une tablette, c’est son panel applicatif.

Comme relevé plus haut, l’offre est misérable par rapport aux concurrents (même si par ailleurs je trouve stupide le concours de b* sur le critère du nombre d’applis. Je préférerais largement 20 000 applis toutes excellentes à la jungle immonde dans laquelle il faut naviguer).





  • Soit tu as déjà une tablette > 0 intérêt à en racheter une.

  • Soit tu n’as pas de tablette, auquel cas

       - soit tu as des besoins lambdas (consommation de contenus), auquel cas la concurrence est bien meilleure à tous points de vue.   

    - soit tu as des besoins de production, de préférence bureautiques, et là l'offre Windows a un intérêt.



    Autrement dit, pour le moment, les clients potentiels pour ces tablettes représentent une infime minorité. Sachant que, le temps que MS étoffe le catalogue d’applis, les solutions de productivité sur les plates-formes concurrentes auront le temps de s’améliorer… C’est vraiment pas gagné.



    EDIT : Et je n’ai même pas parlé de l’offre de contenus, qui compte également pour beaucoup du moins pour les utilisateurs majoritairement en mode “consommation”.


Le 16/05/2013 à 09h 53







indyiv a écrit :



mais puisqu’on vous dit que les PDM de Tablettes sous Win8/RT sont exceptionnelles <img data-src=" />



visiblement, même les constructeurs ne croient pas a cette fable

<img data-src=" />





Et pourtant, c’est la stricte vérité.

Les PDM de tablette Win8/RT sont exceptionnelle………………..ment bas ! <img data-src=" /><img data-src=" />





Quand à savoir qui ça étonne, mis à part peut-être MS, je dirais à peu près personne, vu à quel point le placement était foireux d’entrée…


Le 16/05/2013 à 09h 06

Je n’ai malheureusement jamais joué à un Forza, mais la physique des GT auxquels j’ai joué (tous sauf le 5) m’avait laissé de très bons souvenirs (edit : notamment, comme le soulève Geoquake, sur l’impact des customisations sur le comportement du véhicule).



En revanche, l’IA qui joue au petit train, c’est vraiment plus possible. Quand tu vois (pour parler de ce que je connais) l’IA de GRID par exemple…

Je ne pense pas être le seul pour qui, sur la série GT, l’absence totale d’IA est devenue bloquante. Pourtant ils n’ont pas l’air de s’en préoccuper…

Le 15/05/2013 à 15h 19







DarkMoS a écrit :



Tu n’achètes pas une console pour 5 ou 10 jeux qui se battent sur un étalage…

Tu espères pouvoir jouer à 30-50 “bon” jeux sur la vie de la console en choisissant dans un catalogue de plusieurs centaines ou milliers de titres.

Où sont les éditeurs tiers? Où sont les titres exclusifs? Pourquoi est-ce que leur cartes mémoires coutent un pont? Voilà les questions à se poser…





-1.



Ça c’est vrai pour une partie des joueurs, ceux qui ont tout le temps nécessaire et qui sont passionnés de jeux (= passe-temps principal) ET qui ont le budget pour (même en achetant d’occasion). Il se trouve que c’est une population minoritaire sur l’ensemble des joueurs…



Vingt jeux me semble un palier plus plausible pour la grande majorité (surtout que beaucoup de gros joueurs ont aussi console de salon, smartphone, pc… Donc “concurrence” d’autres plates-formes sur le temps total de jeu dispo). Par ailleurs, tu prends en compte ici toute la durée de vie de la console. La Vita est sortie depuis à peine un an. Laisse-lui le temps (je précise que je n’ai pas la console hein, je n’ai donc pas de parti pris)…







Loeff a écrit :



C’est un peu ça, si t’as une PS3, 98% de la ludothèque Vita est déjà dispo (que ce soit en jeu boîte ou ce qu’on trouve sur le PSN)…





EDIT : Raison principale de mon désintérêt perso, jamais trop vu l’intérêt de jouer aux mêmes jeux dispo sur salon sur une portable. Du moins du temps de la PSP où “ceci est une révolution il faut tout racheter”.

Il me semble que depuis la Vita, pour les titres dispo sur PS3 et Vita à la fois, tu achètes le jeu une fois pour pouvoir y jouer sur les deux plates-formes. Et là j’y vois un intérêt ponctuel (poursuivre une aventure palpitante à tout moment <img data-src=" />). Quelqu’un pourrait confirmer ?


Le 15/05/2013 à 13h 54

Le marché s’écroule, comme c’est étonnant…




  • Taux d’équipement qui doit taper dans les 90% de foyers à vue de nez (je ne connais aucune source cela étant, si certains en ont…)

  • Usages courants (bureautique, lecture multimédia, gestion de fichiers) couverts à un niveau de performance acceptable pour le commun des mortels, sur toute machine distribuée depuis 20082009.

  • Grosse concurrence des tablettes sur ces usages

  • Windows 8

  • Marasme économique…

    Je trouve qu’ils s’en sortent plutôt bien les constructeurs vu le contexte… <img data-src=" />

Le 15/05/2013 à 08h 57







JustMe a écrit :



… (intéressant mais trop long pour être cité <img data-src=" />)





Ok, ton point est plus clair ainsi. Merci pour les explications. <img data-src=" />

Sur ton cas particulier, sachant que c’est un Motorola, je comprends d’autant mieux ta frustration.



En revanche, je rejoins complètement les autres commentaires. Ce type de problématique ne concerne qu’une minorité de personnes. Les gens qui comprennent le concept de mises à jour sont généralement celles qui se renseignent, le commun des mortels ça lui passe au-dessus de la tête.



C’est d’ailleurs bien ce que tu as fait puisque tu as choisi Motorola pour ses annonces. Bon, bah tu t’es fait baiser, ça fait mal au cul (restons dans la thématique). En réaction (enfin je suppose), tu as définitivement rayé Motorola des fournisseurs potentiels, et tu vas informer ton entourage de son manque de fiabilité. Ça peut paraître dérisoire, mais ils en ressentiront les effets assez vite (tu m’as déjà convaincu moi, hop ^^). De toute façon, le porte-monnaie et le témoignage restent nos seuls vrais moyens de contre-pouvoir.



EDIT : D’ailleurs, je préjuge peut-être, mais j’ai quand même l’impression que les constructeurs attachent de plus en plus d’importance au suivi des MAJ, et je pense que c’est en partie grâce aux réactions de masse issues des utilisateurs tels que toi et moi, qui envoient le message “pas de suivi ? Pas d’achat”.


Le 14/05/2013 à 15h 29







JustMe a écrit :



Bref, pour moi Android est sympa mais la fragmentation est une vrai plaie et Google ne fait aucun effort!

C’est bien ça que je condamne dans mon discours (et pas les qualités intrasec et global de cet OS Mobile… quoi que… en tant qu’OS pour tablette hybride, il y a encore des choses à faire)





Ah bon, vraiment ?





JustMe a écrit :



Android rend les appareils totalement jetable!









JustMe a écrit :



Android est mal conçu car ne permet pas les MAJ transparente, résultat les constructeurs doivent se débrouiller.







J’espère ne pas passer pour un relou qui s’acharne sur une personne donnée pour le plaisir.

Cela étant j’ai toujours du mal à laisser passer ce genre d’auto-négation, de bonne foi ou non…



Au passage, pour info, Google présentera Android 4.3 et non pas 5.0. De l’avis général, c’est justement pour laisser plus de temps aux constructeurs pour se mettre à jour.

Sinon, concernant la fragmentation, la branche 4.x aura cru plus vite que la branche 2.3 sur une même période donnée. Par ailleurs, beaucoup de terminaux resteront à jamais en 2.3, parce que les utilisateurs n’en éprouvent pas le besoin, ou parce qu’il s’agit de chinoiseries low-cost, aux modèles trop variés pour les constructeurs se soucient d’assurer la MAJ sur tous (certains utilisent carrément la version de l’OS comme différentiateur de gamme, donc c’est pas gagné).



En résumé, t’es dégoûté parce que t’as acheté un tel dont le constructeur n’assure pas le suivi, et pour te soulager tu accuses Google d’avoir mal conçu son logiciel (tout en admettant n’avoir aucune compétence pour juger de la qualité de conception de l’OS), et de ne pas forcer les constructeurs à mettre à jour. En plus de reprocher à des bénévoles de ne pas assurer 100% des fonctionnalités de ton téléphone. Classe ! <img data-src=" />

Je crois qu’il y a vraiment un truc que t’as pas saisi dans la philosophie d’Android… <img data-src=" />Mais bon, après avoir parcouru ton blog perso, ça ne m’étonne guère…


Le 14/05/2013 à 15h 08







brazomyna a écrit :



Ou alors … c’est parce que c’est un des très rares OS à le permettre dans le monde des mobiles et que la divesité des beoins et des envies amène à peu près toujours à la diversité des solutions proposées, sauf quand tout est fait sciemment pour tuer dans l’oeuf toute possibilité de personnaliser le soft comme dans toute l’offre un peu visible de la concurrence actuelle.



A moins que tu ne veuilles argumenter que si linux ‘pour PC’ propose autant de distributions différentes, de diversité dans caque catégorie de soft (combien de window manager, de type de filesystems, de MTA, de gestionnaire de paquets, de …), c’est parce que “l’OS en soi est un nid à problème de maintien” <img data-src=" />



PS: la fragmentation, c’est très théorique pour une immense majorité d’utilisateurs qui se fouttent d’avoir la dernière version à la mode ; 90% des applis sur le store fonctionnent parfaitement avec une simple 2.3.





Euh, brazo, tu fais du dixième degré, ou t’as pas compris que Seyhello faisait de l’ironie en réponse au post de JustMe ?

Dans le premier cas, bravo, tu m’as eu. <img data-src=" />

Dans le deuxième cas… <img data-src=" />


Le 13/05/2013 à 17h 24







JustMe a écrit :



Android est mal conçu car ne permet pas les MAJ transparente,

{…}

Appel moi Raymond, moi tes considération sur les difficultés technique pour un OS et le nombre de terminaux à gérer, j’y comprend rien!





Donc, tu poses toi-même le postulat que tu n’y comprends rien, ce qui signifie à fortiori que tu n’es pas développeur, ou du moins pas développeur Android, et tu affirmes pourtant que Android est mal conçu ?

Bravo pour cette argumentation éclairée.<img data-src=" />



La différence majeure (ou plutôt, UNE des différences majeures), entre Android/Google d’un côté, et OSX/Apple et WP/Microsoft de l’autre, c’est que le premier laisse tout le monde exploiter son système, alors que les autres choisissent les constructeurs et surveillent ce qu’ils font.



Dès lors, il était prévisible voire inévitable que l’on trouve tout et n’importe quoi en matière de téléphone. Par ailleurs, même les grands constructeurs ont fait n’importe quoi les premières années. Ils ont vu les réactions, les attentes utilisateurs, et corrigent progressivement le tir en fonction. Sans compter les opérateurs qui en ont remis une couche.



Ton téléphone te pose beaucoup de problèmes ? J’en suis désolé pour toi (je serais curieux de connaître ton modèle d’ailleurs) mais ça n’en fait pas une généralité. Dans mon entourage, je n’entends personne se plaindre des performances de son téléphone. Pour ma part, j’ai noté une nette dégradation, mais en même temps j’ai installé des myriades d’applis, widget etc donc je sais d’où ça vient. ;)







JustMe a écrit :



Donc si Google se focalise sur le soft, les développeurs pour optimiser son bazzare au lieu de continier la course aux update que personne ne nuit, ça peut être très bien!





Je crois qu’on est tous d’accord sur ce point ! <img data-src=" /><img data-src=" />

Cela étant, pour généraliser un cas particulier ^^, mon premier android était un HTC Desire, qui tournait bien, fluidité acceptable sans plus. Cinq collègues de bureau ont passé le leur sous une rom custom (sans les applis constructeurs donc), et là plus fluide que n’importe quel autre smartphone (y compris Apple). Donc, bon, ce n’est pas un problème au niveau de la conception d’OS, juste de celle des applis. Et là effectivement, c’est le merdier pour distinguer les bonnes applis des mauvaises, LE vrai point noir d’Android. Même si pour les besoins courants les champions ont émergé depuis un bon moment.


Le 13/05/2013 à 15h 50







JustMe a écrit :



Android rend les appareils totalement jetable!

La plus part des constructeurs font mal le suivi et il ne faut pas compter sur les rom alternative style Cyanogen ‘qui malgré leur gros travail la plus part du temps sont instable ou incomplète du fait des drivers dont le code est propriétaire!





Bravo. Tu as réussi à poser deux arguments contradictoires en deux lignes.

“Android rend les appareils totalement jetableS”. L’idée que porte cette phrase est que l’OS serait intrinsèquement trop mal conçu pour permettre une mise à jour facile, ce qui impliquerait que Google est le premier responsable.

“La plupart des constructeurs font mal le suivi” : tu relèves donc bien que la responsabilité revient AU CONSTRUCTEUR qui choisit Android de s’assurer, ou non, que le téléphone bénéficiera des mises à jour.





JustMe a écrit :



ça marche très bien avec les iPhone et les iPads, ça marche à peut prêt bien avec les Windows Phone (ça marche très bien avec Windows… la comparaison est là pour dire qu’on peut avoir des millions de Hardware différent, il est possible de faire un OS qui marche sur tout type de config…)





Tu oses rapprocher le cas d’Android avec les iPhones/iPads : 5 modèles de smartphones, 4 modèles de tablettes, tous issus du même constructeur, qui édite aussi l’OS = maîtrise à 100%.

Tu oses rapprocher le cas d’Android avec les Windows Phone (&lt;6 modèles existants répartis sur 3 constructeurs, en partenariat commercial étroit avec Microsoft, pour un système tout jeune, dont il est précisé noir sur blanc que la mise à jour de WP7 vers WP8 est impossible.



Et malgré tout, “ça marche bien” ? <img data-src=" /><img data-src=" /><img data-src=" /> Ce serait pas mal de comparer des choses comparables pour s’éviter des énormités pareilles…



EDIT : D’ailleurs, la “ruée vers les surcouches” des opérateurs provient de leur crainte d’origine, “je ne pourrai pas me démarquer des concurrents uniquement sur les specs matérielles, donc je fais ma surcouche”. Depuis cette idée s’est tranquillement étiolée. Maintenant, on a ceux qui livrent du “nu” pour s’assurer des MAJ faciles (ex Asus), et ceux qui restent sur leur surcouche pour essayer de créer un écosystème logiciel/contenu propre (Samsung en tête).

Donc, à priori, la tendance est que pour la plupart des nouveaux smartphones, le suivi logiciel sera meilleur. Du moins pour le haut de gamme, pour les premiers prix…



EDIT2 : Ah oui, j’avais aussi oublié la surcouche opérateurs. Fort heureusement c’est un phénomène en voie de disparition ça aussi, notamment vu l’explosion récente des achats de mobiles nus. <img data-src=" />


Le 15/05/2013 à 08h 49







Drepanocytose a écrit :



Un bon début pour de la physicochimie appliquée à la bouffe, c’est “les secrets de la casserole”, d’Hervé This.



Sinon si tu veux du bouquin qui détaille les manipulations élémentaires, effectivement ca ne se fait plus trop de nos jours, mais tu trouves à coup sûr ton bonheur dans les brocantes, bouquinistes ou autres marchés aux puces : les livres “à l’ancienne” (disons qui ont 30-40 ans ou carrément plus) détaillaient souvent ca dans le 1er chapitre.



Par ex, pour la patisserie, j’ai le bon vieux “la patisserie pour tous” de 1938, réédition en poche des années 70 qui est plus vieille que moi (toute jaunie et tout), qui est nickel…



Les marmiton et autres c’est bien pour piocher des idées, mais ca va pas plus loin.





Merci pour les tuyaux, notamment le bouquin cité, ça a l’air pile-poil ce que je cherche effectivement.

Sinon… Les brocantes ou bouquinistes, tu n’y penses pas, ça m’obligerait à sortir de chez moi ! Et puis c’est tellement obsolète le papier<img data-src=" /> <img data-src=" /><img data-src=" /> (nan je déconne, super idée <img data-src=" />).


Le 14/05/2013 à 15h 38







cygnusx a écrit :



quand tu as un certain niveau de cuisine (pas forcément tres élevé) les didacticiels deviennent superflus, par contre les astuces sont toujours les bienvenues





Hmm, je pensais à des trucs cons comme du vocabulaire (rares sont les livres de cuisine à vraiment détailler certains concepts de tour de main, de cuisson, voire simplement d’équipement) ou des astuces, comme tu dis, pour mieux maîtriser certaines techniques, ou le pourquoi du déroulement de la préparation (le fait d’inverser l’ordre de mélange des ingrédients qui peut impacter la consistance par exemple. Rien en tête pour illustrer là tout de suite mais ça m’est déjà arrivé une ou deux fois). Un peu de physique chimie, de linguistique et de travaux pratiques en plus des recettes de grand-mère quoi. ;)

Après ça se trouve certainement sur internet, mais vu la jungle maintenant sur les sites de cuisine… <img data-src=" />


Le 14/05/2013 à 15h 04







Lafisk a écrit :



Au début de la course au petit prix, on pouvait encore justifier le made in France par le fait qu’on fabriquait des produits de qualité, ce qui n’est plus le cas de la plupart des marques françaises, à moins de vouloir payer le truc 3 fois plus cher, ce qui peut être rentable sur le long terme pour le client mais la plupart des consommateurs ne voient pas sur le long terme et ne regardent que le prix.





Voire, on pourrait même dire que ça n’a jamais été le cas même 20 ans auparavant si on en juge par l’opinion de certains humoristes<img data-src=" />t


Le 14/05/2013 à 15h 02







Lafisk a écrit :



Bizarrement, il y a des gens, amateurs, qui cuisinent beaucoup et qui pourraient gagner du temps à avoir une telle tablette plutôt que d’avoir 50 livre de cuisine ou même à imprimer une recette etc …



Que l’utilité soit limité pour l’ensemble des utilités, certes mais cela peut servir à certain et ça peut les intéresser, tant que la production est faite en conséquence, pourquoi pas …





Voilà, bien résumé. <img data-src=" />

Perso je fais pas (encore) assez de cuisine pour être intéressé par le joujou QooQ, même s’il semble qu’il contienne non seulement des recettes, mais aussi des didacticiels de cuisine (découpe de viande, types de cuisson etc)…

Mais si j’atteins un rythme de 4+ repas par semaine cuisinés maison, là… <img data-src=" />



Après, je suis d’accord, si l’on pouvait avoir tous les usages efficacement en une seule tablette ce serait top, m’enfin ça m’a l’air pas gagné…


Le 14/05/2013 à 12h 53







Vieux_Coyote a écrit :



C’est bizarre quand même. À la base une tablette possède l’avantage d’être multifonctionnel. Si elles sont maintenant conçues pour une tâche uniquement, on est mal barrés. Enfin, surtout eux.





Bah, pas forcément justement. L’avantage d’une tablette classique, c’est de pouvoir tout faire. L’inconvénient, c’est aussi qu’elle peut tout faire.



Autrement dit, l’écueil majeur des tablettes classiques lorsque tu veux pousser un usage particulier est de trouver des applications et contenus bien conçus pour ledit usage. Particulièrement sous Android et sa jungle de clones pour un “métier” donné.



De ce point de vue, fournir une tablette conçue dès l’origine pour un usage précis peut amener beaucoup de valeur ajoutée. Tout en limitant les coûts en sabrant tout ce qui n’est pas indispensable pour ledit usage (pas besoin d’un écran Quad-HD ou super enceintes pour regarder des recettes, ni de port USB host).

Après, il faut voir ce qu’en fera concrètement Archos. Grâce à la news j’ai découvert la QooQ, dont la valeur ajoutée réside nettement moins dans le matériel (protection intégrée, mouais, on peut ajouter housse et film à part aussi) que l’intégration de contenus tirant vraiment partie du tactile.

Là où Archos pourra les concurrencer, c’est sur le modèle d’accès au contenu. Niveau matériel, ils ont l’air partis pour faire du bas de gamme (comme d’hab).



EDIT : D’ailleurs je suis pas sûr qu’ils aient bien capté l’intérêt de proposer une tablette spécialisée, quand je lis “Il s’agit d’une « sélection de centaines d’applications pour fournir le meilleur contenu classé par catégories : recettes, boissons, shopping, TV… ».” Perso, si j’achetais une tablette de ce type, ce serait pour avoir directement les 45 applis réellement utiles préinstallées. Pas pour avoir les mêmes inconvénients que la tablette généraliste… <img data-src=" />


Le 14/05/2013 à 09h 32

CA/jour impressionnant en effet. Et sinon, des infos sur les raisons d’un tel succès ? Est-ce parceque l’univers serait travaillé ? Parce qu’ils ont suffisamment investi en marketing au départ pour atteindre la masse critique qui fait boule de neige ? Parce que le modèle économique est peu coûteux pour le joueur au quotidien ?

Le 09/05/2013 à 11h 15







dmann a écrit :



Quelqu’un sait si il y a de bons jeux sous Android?



N’ayant plus du tout de console, j’aimerais bien m’acheter ce style de petite machine, étant un joueur ultra occasionnel





Je serais tenté de dire, “pas besoin, y’a déjà tous les émulateurs de Nes à Playstation”. Faut dire que la maniabilité smartphone c’est pas ma tasse de thé.



Pour autant, dans la masse du store, tu trouveras quelques dizaines de jeux vraiment prenants et bien jouables. La plupart de ceux que je connais sont plus portés sur les puzzles, plate-forme ou action simple. Les deux seuls qui me viennent à l’esprit dans l’instant sont “They Need to be Fed” et “Tank Hero”. Après tu as les classiques genre Cut the Rope, ou encore des myriades d’implémentation des jeux de société classique (jeux de carte, mastermind, flow…)…

Le vrai problème du store reste vraiment de trouver la qualité au milieu du bordel…<img data-src=" />


Le 09/05/2013 à 09h 52







Spermix a écrit :



De toute façon , les joueurs nintendo s’en foutent.

Sur les quelques forums que je fréquente, la plupart des joueurs qui l’ont ou comptent l’acheter n’attendent que les licences habituelles : Maria kart, zelda, metroid,etc…





+1. Le souci de Nintendo étant qu’à priori, cette masse de fans est loin d’être suffisante pour assurer l’auto-financement de cette génération + la prochaine, et à fortiori faire bander les actionnaires. D’ailleurs le cours de bourse s’en ressent bien, la vache… ^^ (la bulle du lancement de Wii a complètement éclaté, l’action a retrouvé son cours d’avant. GG à ceux qui auront su en profiter en temps et en heure…).


Le 09/05/2013 à 09h 47







FREDOM1989 a écrit :



En même temps si on achète pas les bons jeux qui sortent sur une console c’est normal qu’elle ne sorte pas du placard…





Bien résumé. <img data-src=" />


Le 08/05/2013 à 13h 20







Zed-K a écrit :



Ce serait idiot de généraliser sans vrais chiffres, mais c’est en tout cas ce que j’ai constaté dans mon entourage.



Des joueurs PC principalement, qui ont laissé tombé le piratage au profit de Steam et de ses promos.



Mais bon il y a d’autres facteurs à prendre en compte : on est plus ados, on a de quoi se payer nos jeux, l’augmentation des patchs et autres DLC qui rendent le piratage (et le jeu en général, mais c’est un autre débat) plus chiant, etc. <img data-src=" />





Je pensais à la DS en fait, mais en m’appuyant en effet sur mon expérience de joueur PC et mon entourage, qui sont délaissé la console au profit du PC pour sa simplicité (le monde à l’envers <img data-src=" />) et les tarifs.



EDIT : A propos des patchs, généralement quand on pirate un jeu, on prend la version qu’on trouve sur le net et on ne “suit” plus. Sauf pour jouer online, auquel cas faut effectivement être bien fauché (ou fils caché de Picsou) pour se prendre la tête au lieu d’acheter le jeu.

Pour les DLC je sais pas comment ça marche, pas sûr que ce soit très compliqué à “activer” illicitement…


Le 08/05/2013 à 13h 05







Xiongxiong_zen a écrit :



Je lis souvent que le piratage est un avantage pour une console, presque que c’est un super moyen pour en vendre des camions entiers.



Si en effet ce n’est pas le piratage facile de la Dreamcast qui a tué Sega, et si des consoles facilement piratées se sont bien vendues (la Playstation par exemple), je trouve que dans l’ensemble, ça ressemble souvent à une façon étrange d’avoir bonne conscience.



La machine va certes se vendre, et permettre au fabriquant de rentrer dans ses frais de R&D, de proposer ensuite des baisses de prix… mais pour les éditeurs, quel serait l’intérêt d’investir dans la création de nouvelles licences, ou de sortir des jeux, si c’est pour se faire pirater à outrance ? La DS a certes eu un énorme succès, mais combiens d’éditeurs ont laissés tomber la console car ils savaient que de toute façon les ventes seraient décevantes et le piratage énorme car facile ?



A l’époque de la première playstation, et dans une moindre mesure sur ps2, télécharger un jeu pouvait prendre des heures, mais c’est devenu tellement différent maintenant, que je doute que l’argument “le piratage est un plus pour vendre une machine” tiennent encore longtemps. Acheter une console pour ne pas avoir de jeux car personne ne décidera d’investir deçu, ça serait juste sans intérêt.





A mon sens, il faut séparer les consoles portables de celles de salon, car les comportements d’achat et de jeu sont différents dans les deux cas.

Peut-être n’est-ce qu’un préjugé, mais j’ai tout de même l’impression que le jeu sur portable est intrinsèquement plus volatil &gt; moins de temps à consacrer à un jeu donné, ou plutôt moins d’implication &gt; moins d’envie d’y investir de l’argent.



Après, ce qui fausse aussi toute comparaison potentielle, c’est qu’un jeu sur portable pèse de 15 à 300Mo en moyenne, à comparer à n’importe quel jeu de salon qui pèse plusieurs Giga. Sans compter qu’il faut graver derrière (sauf à acheter un hdd).



Clairement le piratage a fait beaucoup de mal à la DS en particulier, vu la facilité extrême qu’il y avait à pirater. Et là, ce sont les petits éditeurs qui ont pris cher…

D’ailleurs, je me demande si l’avènement de l’offre légale en téléchargement direct n’a pas eu un effet positif sur le piratage car c’est même encore plus simple que le piratage du coup.



EDIT : Et puis, personnellement, j’ai toujours trouvé que 40 euros le jeu DS neuf quand les jeux de salon étaient à 60 euros, c’était un tantinet foutage de gueule sauf exceptions (It’s a Wonderful World). Je suis peut-être juste un gros radin… <img data-src=" />



EDIT2 : Je pense pas qu’un éditeur, ou même un constructeur, considère la facilité de piratage comme un argument de vente… En même temps, s’ils veulent vraiment réduire le piratage, il suffit 1 de baisser les prix 2 de DEZONNER (personnellement ma raison d’avoir pucé les PS) 3 pas foutre de protection à la con…


Le 08/05/2013 à 11h 33







animehq a écrit :



Pour les jeux qui manque c’est surtout que les devs ont attendu longtemps un sdk qui tienne a peu près la route, par le bricolage plus ou moins fonctionnel que proposait nintendo jusqu’à la sortie de la console…





D’où tiens-tu cette info, comme quoi les SDK étaient pourris jusqu’à tard ?

Nintendo a certes une réputation de merde sur les conditions commerciales, en revanche il me semble qu’ils étaient plutôt réputés pour justement fournir une plate-forme simple à prendre en mains…



Cela étant, la politique interne a peut-être changé. Ya qu’à voir les malaises à la sortie de la WiiU (bugs, framerate, fonctions manquantes), du temps où Myamoto gardait bien la main, ce serait jamais passé. J’espère que ce n’est pas le signe que le pouvoir est tombé aux mains des seuls financiers, dont le seul talent avéré est celui de ruiner toute créativité (n’est-ce pas SquareEnix, Blizzard <img data-src=" /> ?), sinon Nintendo mourra dans les 10 ans…<img data-src=" />


Le 08/05/2013 à 11h 24







after_burner a écrit :



Une fois de plus,“l’absence” des tiers sur console n’est pas le plus inquiétant c’est historique. Ce qui est plus inquiétant, c’est absence de Nintendo lui même pour ses gros titres.

Mais bon, ils ont prévu de corriger le tir au moins pour la fin d’année apparemment. <img data-src=" />





Personnellement ça ne m’étonne pas plus que ça. Nintendo, ils ont fait comme Sony avec la PS3 après la PS2, ils ont fait comme à l’époque de la 64 après la SNES, ils ont fait comme pour la 3DS après la DS : ils ont péché par arrogance, tout simplement.

“C’est bon, la console d’avant va faire un carton, tout le monde va nous suivre pour celle-ci, ça va cartonner quoi qu’il arrive tellement on est des génies et les rois du pétrole”. Bah non les gars, faut redescendre sur terre, les preuves, faut les faire à chaque itération…<img data-src=" />



Le planning pour les années à venir (Nostradamus inside<img data-src=" />).




  1. Nintendo baisse officiellement le prix de sa console avant Noël.

  2. Quelques bons jeux sortent pour Noël, la console va avoir un regain d’intérêt.

    MAIS les autres consoles arrivent &gt;&gt;&gt; la perception des consommateurs sera figée rapidement, la plupart des hardcore gamers se désintéresseront de l’actu WiiU &gt; ne l’achèteront jamais.

  3. Dans les cinq années suivantes, Nintendo sortira ses titres phares, les gros feront leurs portages pourris classiques type COD, FIFA, etc… Et s’étonneront de faire des ventes misérables, alors que c’est logique : les hardcore gamers possédant la WiiU auront très probablement une autre console. Dès lors pourquoi acheter une version faite à l’arrache…

  4. La WiiU sera un demi-succès comme la 64 ou le Gamecube, avec Nintendo comme éditeur ramassant le gros du pactole.

  5. Nintendo réfléchira à un pur concept de gameplay et se sortira les doigts pour proposer une console FINIE, avec des jeux qui font rêver les gens.

    Je vous laisse finir le cycle, je pense que vous voyer où je veux en venir…<img data-src=" />


Le 08/05/2013 à 11h 11







ol1v1er a écrit :



Le piratage de la Dreamcast était ultra simple, sans puce le jeu se lancé sans aucune autre modification la sécurité avait été bâclée.



_______

Pour la news

Ça sent la Wii U 32Go à 199/249€€ dans pas longtemps <img data-src=" />





Marrant comme tu ramènes tout au piratage, alors qu’à peu près toute l’histoire des consoles de salon prouve que le piratage n’empêche pas, voir participe au succès de la plate-forme (PS ? Une puce et ça roule, &gt;100 millions. PS2 ? Idem. Xbox&co ? idem)…



Ce qui a tué Sega, c’est le succès en demi-teinte de la Saturn, suivi d’une politique commerciale déplorable pour la Dreamcast (notamment du fait de guerres entre les branches japonaise et américaine) conduisant à une campagne marketing en mode “demi-molle”, quand en face Sony alignait un rouleau compresseur. Ainsi que le manque de variété des jeux dispo et annoncés quelques mois après la sortie, quand Sony se targuait d’exclus de gros éditeurs (notamment Square).


Le 08/05/2013 à 10h 20







CryoGen a écrit :



La puissance brute ne veut rien dire. Si l’OS et ses API sont à la ramasse, même un moteur bien codé peut ramer.



Il me semble qu’a son lancement, les menus ramaient non ? Si l’interface était codée avec les pieds, comment peut-on être sur que la partie interne soit correcte ?





Question pertinente à première vue… A priori, seulement à première vue. :)

La partie interne, c’est le truc conçu les premiers mois, et qui doit être irréprochable puisqu’ensuite ça part en prod. Par ailleurs, l’historique de Nintendo suffit à prouver que leurs consoles sont bien conçues (y a qu’à voir les jeux dispo sur des consoles techniquement plusieurs fois inférieures à leurs concurrentes pour deviner que l’archi et les API sont plutôt bien foutues).



En revanche, l’interface, c’est le truc qui bouge jusqu’au dernier moment, et qui peut être mis à jour. C’est donc moins grave si c’est pas au poil à la sortie…

Enfin, dans leur esprit, parce que personnellement je trouve ça inadmissible, et c’est un très mauvais signal qu’a envoyé Nintendo, une belle grosse lézarde dans leur image de qualité similaire à Apple (tu branches, tu utilises, c’est fluide, c’est fiable).


Le 08/05/2013 à 10h 04







MacFry a écrit :



Frileux, ou dégoûtés ?

Comme je le disais plus haut, ce qui se vent le plus / mieux sur une console Nintendo, ce sont les jeux Nintendo.



Nintendo n’a, à la limite, presque pas besoin des éditeurs tiers, si ce n’est pour faire patienter les acheteurs entre 2 jeux Nintendo histoire que les gens n’aient pas l’impression d’une console à l’abandon, ou vendre quelques consoles pour un jeu system seller du genre Monster Hunter qui est une licence qui sauve bien des consoles (dernièrement la 3DS) D’ailleurs Nintendo est souvent cité comme n’étant pas le meilleur ami des éditeurs tiers.





Ces propos me semblent trop généralistes pour plussoyés tels quels.

Si tu remontes à la Super Nintendo (oui c’est loin), les éditeurs tiers tenaient un rôle important.

Ce qui a fait que Nintendo est devenu sur les générations suivantes vendeur d’une bonne moitié de tous les jeux, c’est que les éditeurs ont fui la 64 (limitations techniques + explosion de la PS à côté), peu ont réellement retenté leur chance avec le Gamecube (pourtant une des meilleurs consoles de l’époque à tout point de vue) pour les mêmes raisons. La Wii a vu le retour des éditeurs tiers, mais plus par effet d’aubaine (minis-jeux à la con, portages pourris) que réelle volonté de suivre l’esprit Nintendo.

Je doute que Nintendo considère pouvoir survivre seul sur la nouvelle console, surtout vu l’évolution du marché. C’est bien pour ça qu’ils ont fait les yeux doux aux éditeurs tiers.



Sinon, pour se recentrer sur la news, ça ne m’étonne pas. Vu la présente annonce (d’une crédibilité douteuse techniquement, même s’il y a certainement du boulot pour porter), et vu l’état de pré-alpha dans lequel ils sortent tous leurs jeux…




  • Soit DICE c’est juste des quiches.

  • Soit, plus probablement, c’est pas des quiches mais ils se prennent des méga-contraintes de temps et argent de la part d’EA, qui leur a dit “bon, cette console on veut plus aller dessus, trouvez une excuse technique bidon pour que ça se voie pas trop”.<img data-src=" />

    EDIT : Soit les deux, ce qui est possible aussi… <img data-src=" />


Le 08/05/2013 à 15h 09







Ellierys a écrit :



Chère HADOPI… il faut 44 756 869 352 922 210 ans pour venir casser ma clé d’accès WiFi. Donc ton défaut de sécurisation tu peux le garder ou je pense



<img data-src=" />





Et c’est là que toute la beauté du système rentre en jeu.

“Ah, votre connexion est bien sécurisée ? Alors, il n’y a bien que vous qui ayez pu télécharger illégalement la dernière version du pare-feu OpenOffice. Vous êtes coincée anéfé ! Allez hop, en tôle !” <img data-src=" /><img data-src=" /><img data-src=" />


Le 08/05/2013 à 13h 30

Bon, ça va, taper une courte phrase sans espaces, en l4ngU4ge l33t avec un ! à la fin il m’indique que :



It would take about 8441109340225 years to crack your password.



Ca me paraît quelque peu optimiste, m’enfin comme ça il y a de quoi voir venir… <img data-src=" />







[Rorococo a écrit :



]3170488 ans pour cracker un mot de passe généré via du PHP. Qui dit mieux ? <img data-src=" />





EDIT : Mieux !<img data-src=" />

EDIT2 : EN fait pourquoi je m’emmerde, PrénomNom ça prendrait 10145 ans… <img data-src=" />


Le 04/05/2013 à 10h 25







Xarkam a écrit :



commentaire HS supprimé





Merci pour la liberté d’expression. En l’occurence, je n’ai vu dans aucun commentaire d’agressivité déplacée, et j’espère en tout cas n’en avoir pas fait preuve dans mon propre commentaire.

Après, la critique se veut constructive, car pour plusieurs d’entre nous ce qui attire sur PCI c’est la qualité rédactionnelle, et la (relative, car l’objectivité totale est impossible) neutralité du ton. Ce qui implique d’éviter les jugements de valeur à l’emporte pièce. Et parler de “faible percée”, c’est 1) un jugement de valeur 2) absolument pas justifié au regard des éléments. Si l’article avait omis cette phrase, et simplement mis le lien relatif dans la phrase d’avant, cela n’enlevait strictement rien en terme d’information brute, mais évitait de poser un avis personnel même pas argumenté. Et c’eut été mieux à mon sens, en tant que lecteur et (dans le taff) rédacteur.

Après, libre à lui de considérer mon commentaire comme pertinent ou pas, je ne suis pas la parole de Dieu (bien dommage d’ailleurs, ça me faciliterait la vie au taff <img data-src=" />) mais un lecteur parmi d’autres. En revanche, imo, un feedback négatif vaut mieux que pas de feedback. Et puis, c’est comme toujours, le lecteur s’exprime généralement pour l’insatisfaction, parce que quand il est satisfait il n’a rien à dire <img data-src=" /><img data-src=" />.


Le 04/05/2013 à 10h 12

Bon, je n’ai pas réagi sur la news d’hier car je trouvais les réactions vraiment disproportionnées, mais là, sincèrement t’abuses.



Il sera d’ailleurs très intéressant d’analyser l’incidence de ces sorties sur les statistiques de Steam le mois prochain. Celles du mois d’avril ne montraient en effet qu’une faible percée des distributions Linux au sein de la communauté de joueurs utilisant le service de Valve.



En trois mois, les installations Steam ont atteint 2% du total d’utilisateurs, soit autant que Mac OS qui dispose de sa version Steam depuis quasiment trois ans. Sachant que Mac OS dispose d’une gamme de jeux encore nettement plus étendu que sous Linux.



Tu sembles également le comparer à Windows 8, qui est le dernier OS MS, porté par une campagne marketing brutale et la préinstallation sur tous les PC, qui ne souffre pas des mêmes problèmes de pilotes, et qui donne accès à 95% du catalogue Steam.



Et je ne parle pas des gens comme moi qui l’ont installé pour tester, mais qui jouent généralement en multi à des jeux windows only (en attendant un éventuel portage) donc qui ont fait le sondage sous Windows.



En dépit de tous ces handicaps vis-à-vis des autres OS : peu de jeux, base utilisateurs bien moindre (faut-il rappeler que les utilisateurs linux répertoriés représentent moitié moins que ceux d’OSX, et un pouillième de ceux sous windows), problèmes matériels sur la 3D), Linux atteint 2% en trois mois, et c’est “une faible percée” ?

C’est bien triste de lire ça sur PCI…<img data-src=" />







SFX-ZeuS a écrit :



Moi ce que je comprend c’est qu’ils peuvent créer des serveurs dédiés mais ça à toujours exister ça à ma connaissance.

Il me semblait que mes amis avaient mis en place un serveur dédié L4D2 sur notre serveur linux.

Je dis peut-être une bêtise mais les serveur dédiés HL/CS/L4D ont toujours été dispo sous nux non ?





A ma connaissance oui, après je n’ai jamais monté de serveur moi-même.


Le 04/05/2013 à 09h 54







ff9098 a écrit :





  1. Ridicule



    1. Ça fait seulement 5Mo par onglet





      Eh bah voilà, il y en aura eu au moins un qui a marché dedans, à se demander si c’est pas exprès. Merci pour cet acte de charité INpactienne… <img data-src=" /><img data-src=" />



      EDIT : Quoiqu’en fait, si t’avais fait exprès, t’aurais sans doute pas ajouté le “ridicule” qui sied à ton ton habituel, commentaire, qui est, justement, ridicule <img data-src=" />… Peu importe, chacun son usage d’internet.



Le 03/05/2013 à 14h 35







pti_pingu a écrit :



Oui mais quand tu as un site d’image de [censuré pour les chti n’enfant] qui n’implémente pas de visioneuse, ben tu ouvres plein d’onglet et tu en chie pour passer de l’un à l’autre de la manière la plus fluide (private joke) possible <img data-src=" />





Tututu, jamais ce genre de visite, du moins au taff…<img data-src=" /> <img data-src=" />


Le 03/05/2013 à 13h 23







Nuggets a écrit :



<img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" /> A peine deux centaines d’onglets?





Disons que c’est ma moyenne. Là à vue de nez j’ai brutalement demandé le refresh de 180 onglets, et ainsi pourri l’internet de tout l’open space pendant deux bonnes minutes <img data-src=" /><img data-src=" /><img data-src=" />



Et là, pendant que je rédige, les smileys rament grave (il a toujours pas fini) et Firefox en est déjà à 3,7 Go… :facepalm:



EDIT : Bon, j’ai coupé court l’expérience, ai failli planter l’upload d’un collègue et quasi en dépassement de mémoire moi-même, il a encore 50 onglets à charger et il a plus de 4Go…


Le 03/05/2013 à 13h 18







pti_pingu a écrit :



Bon enfin je dis ça, mais avec Chrome pareil, avec 20 onglets et en laissant tourner ça merde, mais j’ai trouvé la parade … je kill les onglets FB et PCI et je récup direct 500 Mo <img data-src=" />





S’il faut vraiment mettre cartes sur tables, je dois préciser pour ma part que les 200 onglets ne sont pas tous chargés à 100%. Depuis Firefox ??, quand on rouvre une session, il charge la liste de tous les onglets, mais n’actualise le contenu que lorsque l’utilisateur clique effectivement dessus. Ce qui me semble le meilleur compromis pour pas trop pourrir la charge. Si en revanche j’actualise l’ensemble des onglets, là il gueule…







Tiens je vais essayer juste pour rire.<img data-src=" />


Le 03/05/2013 à 12h 51







Alucard63 a écrit :



Pourtant les tests sont formels:



http://lifehacker.com/5976082/browser-speed-tests-chrome-24-firefox-18-internet-explorer-10-and-opera-1212<img data-src=" />





Boarf, j’suis déçu… C’était évidemment un troll, et au lieu de plonger à deux pieds tête première dedans, tu sors une réponse constructive et sourcée… Tout se perd ma bonne dame…<img data-src=" /><img data-src=" />



EDIT : Enfin, c’était peut-être pas un troll pour certains, mais perso 200 onglets pour 1Go de Ram, ça me paraît plutôt bien géré. <img data-src=" />


Le 03/05/2013 à 12h 46







Alucard63 a écrit :



Sauf erreur de ma part je crois que FF est maintenant très optimisé en termes de gestion de la mémoire. Il fait bien mieux que Chrome par exemple.<img data-src=" />





Eh non, même pas c’est toujours la misère… Je charge à peine deux misérables centaines d’onglets, avec l’indispensable dizaine de plugins, et le bouzin ose dépasser le giga d’empreinte mémoire… <img data-src=" /><img data-src=" />



EDIT : D’ailleurs l’OS simulator, faudrait que je réessaye, mais le premier m’avait échaudé, il rendait Firefox très instable. Bon après c’était des mois avant, je suppose que maintenant ça va bien.


Le 03/05/2013 à 12h 55







von-block a écrit :



<img data-src=" /><img data-src=" /><img data-src=" />

Vous n’avez pas de marchants de lunette bas-prix en France ?

Mes 4 dernières paires m’ont couté entre 10 et 20 euros tout compris (un verre astigmatisme et l’autre myopie).





Ben, tu n’as peut-être pas les mêmes problèmes de vue que moi (je ne te le souhaite pas <img data-src=" />) : myope au dernier degré + astigmate + un peu de presbytie pour le plaisir, ça oblige à privilégier certains matériaux et techniques de conception, notamment pour pas avoir 10cm d’épaisseur et 3 Kg sur le nez, et ça coûte cher.



Je confirme ne pas être le cas général, loin de là (sinon, pauvre Sécu, même s’ils remboursent pas énorme sur l’optique <img data-src=" />).

EDIT : Et puis j’ai fait la diva aussi, monture dans les 100 euros. Je suppose que tu as tapé dans les premiers prix.


Le 03/05/2013 à 09h 39







pitiwazou a écrit :



Pour le moment on voit surtout les trucs de base, vidéo, consult de mails etc, mais à l’avenir, j’imagine bien la réalité augmentée avoir une grande part sur ces lunettes avec pourquoi pas traduction en temps réel etc.



A voir de toute façon et le prix fera surement que ça fonctionne ou pas, car à 300€ par exemple, faut vraiment les vouloir pour les acheter.





Tu sais, mes lunettes m’ont coûté pas loin de 600 euros, dont 450 de verres certes. Mais bref les montures sympa, t’en as souvent pour 100 à 150 euros (au dessus c’est vraiment design mais trop cher pour moi). Donc payer le double pour avoir des lunettes interactives, ça me paraît pas impensable. Après tout dépendra de la perception qu’ont les gens du produit (si gadget, se vendra pas à 300 euros. Si révolution techno, pourra monter jusqu’à 500 euros facile).


Le 03/05/2013 à 09h 25







lateo a écrit :





  • sauf omission, il est établi que les cams ne préviennent en rien la criminalité. Au mieux elles aident à retrouver un suspect à postériori.

    Plus vraisemblablement, on donne un sentiment de sécurité aux citoyens en faisant plaisir aux industriels du secteur.





    +1 Ça m’a toujours bien fait rire ça.

    Soit l’agresseur ne sait pas qu’il y a une caméra, donc il s’en branle.

    Soit il le sait et il prévoit le coup en évitant le champ ou en dissimulant ses traits.



    Je vois mal un mec qui se fait emmerder dire : “eh, attention à ce que tu fais mec, t’es filmé”… <img data-src=" /><img data-src=" />

    Après, je veux bien croire que ça évite une petite proportion de délits/crimes, genre les trucs impulsifs (c’est toujours ça de pris), et je veux bien croire que, pour l’instant, ça aide à retrouver les criminels après coup.

    Mais ça ne peut durer que tant que c’est exceptionnel. Quand on aura des caméras absolument partout, ça diminuera les agressions impulsives au profit de celles préméditées (et donc préparées). Ce qui nous amènera à l’étape suivante, les RFID dans la peau (youpi, j’en rêve :vomi:).



    Moi je proposerais bien une autre méthode : investir toutes les thunes, plutôt que dans des caméras et des prisons, dans l’enseignement (lutte à long terme), des programmes de TIG plus fréquents poussés (lutte à moyen terme), des aides sociales (lutte à court terme). Ça me paraît plus efficace d’essayer de traiter la cause plutôt que les effets… Non ? <img data-src=" />



    EDIT : Ahem, je m’enflamme, mais je viens de voir que je suis totalement HS… Pardon aux familles, toussaaa…. <img data-src=" />


Le 03/05/2013 à 12h 33







David_L a écrit :



T’as pas du bien comprendre l’actu <img data-src=" />





Tout à fait possible<img data-src=" />. Je l’avais lue à la lumière d’un dossier Canard PC qui évoquait une possible sortie d’Intel sur le marché du desktop classique, donc j’ai p’têtre lu trop en diagonale. On verra bien dans 5 ans de toute façon…


Le 03/05/2013 à 09h 46

Zut, trop tard pour éditer, j’ai retrouvé la news…pcinpact.com PC INpact



EDIT : Je me suis mal exprimé anéfé, Intel ne délaisse pas l’ensemble du desktop, mais va délaisser tout de même les grosses performances et le desktop classique. Ils se concentrent sur la consommation et l’encombrement, d’où ma sortie sur le fait qu’ils vont titiller ARM (ça plus les rumeurs de discussions avec Apple pour produire des puces ARM, même si perso j’y crois pas…).

Le 03/05/2013 à 09h 40







David_L a écrit :



C’est sur que de nouveaux Core i7, c’est pour combattre ARM avant tout <img data-src=" />





Ils se focalisent sur le coeur de gamme, et misent surtout sur la partie graphique. Mais Haswell mange sur leur terrain : le portable sans GPU et la machine compacte / de salon / pas trop chere. Forcément ils préparent le terrain avec une baisse de prix en attendant Richland puis le passage au 28 nm





Ah, j’attendais qu’on me fasse la remarque, mais que ça vienne de toi, alors que tu as toi-même rédigé les news sur le planning d’Intel où ils affirment délaisser les performances brutes et le marché desktop dans leur roadmap des prochaines années…<img data-src=" /><img data-src=" />



EDIT : Bon, ça me gave, je suis sûr d’avoir lu ça sur PCI, mais je retrouve pas l’article, trop de news sur Intel… <img data-src=" /> Ou alors je confonds avec un dossier que Canard PC avait fait sur l’évolution future d’Intel et AMD. C’est peut-être ça…


Le 03/05/2013 à 09h 07

Techniquement c’est l’inverse, c’est Intel qui se différencie d’AMD puisque c’est Intel qui s’écarte de la voie d’origine (desktop/serveurs) pour aller titiller ARM sur la mobilité.

Le 03/05/2013 à 09h 04







brazomyna a écrit :



Ce n’est pas l’apanage exclusif du UK land. Je bosse avec une dizaine de nationalité différentes au quotidien (dans un pays qui n’est pas la France au passage), et l’esprit d’entrepreuneriat est la norme, c’est notre défiance qui est l’exception





Où bosses-tu, si ce n’est pas indiscret ? C’est top de rencontrer plein de gens de nationalités différentes ! <img data-src=" /> Je n’ai connu ça qu’une année et je regrette, c’est bien enrichissant (pour l’esprit… mais aussi les papilles ;)).



Si la France est à ce point exceptionnelle, aurais-tu des idées sur la cause profonde de cette défiance ? La seule hypothèse qui me vient à l’esprit est la répétition de scandales sur les vingt dernières années qui marquent les esprits au point d’en créer un préjugé de rejet. Hypothèse qui est, en soi, un gros préjugé puisque je n’ai aucune source pour appuyer mes dires. <img data-src=" />


Le 02/05/2013 à 16h 03







brazomyna a écrit :



Et on oublie également tout aussi systématiquement les 90% qui se plantent (et qui perdent le temps et l’argent investi dedans) pas parce qu’ils sont mauvais, méchants ou moches, mais juste parce que l’échec est une partie intrinsèque de l’entrepreneuriat. L’indice 040 est l’exemple le plus parlant de cet état d’esprit: en France, monter une boite qui finit par couler est un échec. A l’étranger, c’est une occasion d’apprendre de ses erreurs pour mieux réussir à l’essai suivant.





Je suis 100% d’accord sur le fait qu’un échec ne doit pas être condamné en soi. Parmi les entrepreneurs que je connais et avec qui j’ai pu discuter librement, la plupart m’ont confirmé que, bien que croyant s’être préparés, ils ont subi beaucoup de difficultés qu’ils pourraient désormais éviter grâce à l’expérience acquise.



Donc oui, un échec peut être en définitive un tremplin pour une nouvelle société. De même il est indéniable que dans les pays anglo-saxons, il y a beaucoup moins de défiance vis-à-vis des échecs passés. Après, le contexte est différent à tous points de vue là bas, l’entrepreneuriat fait partie de l’ADN du pays. Et le fait qu’on puisse être embauché ou licencié en 24h chrono doit également jouer, le licenciement n’est pas intrinsèquement un drame ou échec critique comme cela peut être perçu en France. Comme le fait que les formalités et taxes soient bien moins lourdes ailleurs (ce serait bien de revoir le système français pour le coup, plein d’aides dans tous les sens mais aussi plein de taxes, au final perte de temps monstrueuse pour tout le monde).



Ayant lu entre-temps un article posté en lien par un INpactien, je comprends mieux pourquoi la suppression de l’indice 040 est une bonne nouvelle pour les entrepreneurs : il semble que les banques l’assimilent à un signal extrêmement négatif (=fuient d’entrée sans s’intéresser aux raisons de l’échec), alors qu’un indice existe spécifiquement pour désigner les “entrepreneurs” à fuir pour de bon (069 si je me plante pas).



En revanche, je ne te suis pas sur ton deuxième paragraphe : ceux qui bossent dans une PME sont généralement bien placés pour savoir que ce n’est pas facile, même s’ils ne réalisent que rarement à quel point. Quand le patron est loyal envers ses employés ET conscient de ses capacités propres, je peux t’assurer que ceux-ci le soutiennent en retour, limite cohésion familiale.

Je note cependant que le cas commun, c’est le patron qui refuse de déléguer par peur de mal placer sa confiance et mener la boîte à sa perte (peur tout à fait compréhensible), mais qui n’a pour autant ni l’énergie ni les compétences nécessaires pour tout faire tout seul (ce qui est logique). Ce qui créée un cercle vicieux de défiance entre équipes et dirigeants, qui se creuse jusqu’à devenir fossé infranchissable. Et dès lors la chute n’est que question de temps…


Le 02/05/2013 à 12h 37







brazomyna a écrit :



Et donc ça en fait une généralité <img data-src=" />





Certes non. Je voulais simplement signaler que je prenais en compte tous les niveaux de responsabilité dans mon point.

Que le système actuel permette ou non le tri entre les patrons qui ont fait de leur mieux mais n’ont pas réussi pour x raisons, et leur redonner une chance, et les connars/branleurs/arrivistes qu’il faut définitivement condamner, je n’en sais absolument rien.



Je réagissais juste à la sortie puérile et généralisante “les Français détestent les riches” qui est complètement à côté de la plaque. Les Français n’aiment pas les irresponsables qui s’enrichissent sur le dos des autres, c’est tout. Et l’exemple que j’avais donné sur les parachutes, c’est parce que le décalage entre risques et rémunération tend à violemment s’aggraver, et donc plus dur à avaler, au fur et à mesure que les responsabilités et la taille de l’entreprise augmentent. Ce qui n’empêche pas qu’il y a aussi des baffes qui se perdent dans les PME.



Par exemple, que Niel s’enrichisse violemment, je le supporte, ça ne me choque pas. Je déplore son comportement sur pas mal de points, et il doit pas être facile à vivre pour ses employés vu son ego, mais l’essentiel de sa rémunération provient des actions, et il porte clairement un projet depuis la fondation de Free.


Le 02/05/2013 à 11h 30







Freud a écrit :



Là tu parles des patrons du CAC40. 99,99% des patrons en France sont des patrons de PME, qui souvent ne se payent même pas un euro symbolique, simplement pour pouvoir payer leurs charges et leurs salariés. Et pourtant, les 35 heures, ils les font 2 à 3 fois par semaine…





Non, j’ai bien lu et je parle AUSSI des patrons de PME. J’en ai connu deux personnellement qui géraient leur boîte de manière complètement catastrophique, et à qui on devrait empêcher tout pouvoir de créer une nouvelle boîte, car ils ne veulent diriger que pour satisfaire leur ego et non pas pour mener un vrai projet.



EDIT : À moins qu’il ne faille considérer le fait de passer ses journées à jouer à des jeux flash comme un comportement normal pour un chef d’entreprise. Ou le fait de donner des directives contradictoires à ses employés, pour finalement se rendre indispensable dans la réalisation d’un projet et se persuader que les employés sont incapables de quoi que ce soit par eux-mêmes.



Ce devait d’ailleurs être l’objectif de la fameuse liste “noire” dont il est question dans l’article et qui serait supprimée si j’ai bien compris. Enfin je suppose sinon effectivement je ne vois pas l’intérêt.


Le 30/04/2013 à 14h 21







Freud a écrit :



De toute façon, tant que la mentalité dans ce pays sera pourrie, ça ne va pas changer grand chose :

-Travailler c’est forcément se faire exploiter

-Créer son entreprise c’est forcément être un sale capitaliste qui veut soutirer l’argent des gens qu’il exploite (les salariés)

-Être riche c’est mal

-Le but dans la vie c’est de travailler le moins possible, bonus si on trouve une bonne planque dans la fonction publique

-Plus tôt on part à la retraite, mieux c’est

-Un patron ne mérite pas d’être payé plus que n’importe quel employé, car ce sont les employés qui font tout, le patron étant un sale exploiteur

-Les autres doivent toujours payer plus d’impôts, car ce sont des sales riches

-On fait tout pour payer le moins d’impôts possibles, tout en fustigeant les “riches” (c’est-à-dire les autres) qui font la même chose



Pour finir, une petite phrase d’un anglais : “à Londres, quand tu roules en Ferrari, les gens viennent te demander comment tu es devenu riche, et t’expliquent, admiratifs, qu’ils aimerait réussir comme toi dans la vie, qu’ils vont tout faire pour ça. À Paris, les gens viennent rayer ta voiture, car tu es riche, et c’est mal.”





Boulet spotted <img data-src=" /> (le pseudo est bien choisi).



Le problème que les gens ont en France, n’est pas avec la richesse en soi. Il est dans le fait que, dans une proportion trop importante pour être supportable, le niveau de richesse d’une personne soit inversement proportionnel à sa compétence réelle ou les risques qu’elle encourt réellement en cas de mauvaise décision : cumul de conseils d’administrations, parachutes dorés, absence totale d’impact personnel en cas de grosse connerie, absence totale de couilles pour prendre des décisions bonnes pour l’entreprise à long terme, mauvaises pour l’actionnaire à court terme… Pour parler des plus riches/importants.



Même à plus faible niveau, chacun pourrait donner un ou deux exemples de personnes, unanimement reconnues comme incompétentes ou ingérables, et qui restent pourtant tranquille à leur poste…<img data-src=" />



T’inquiète pas, le jour où les “patrons” subiront de réelles contraintes telles que, diminuer leur salaire à l’euro symbolique avant de procéder à un plan de licenciement économique juste pour augmenter une rentabilité court terme, les gens se plaindront plus.



Bon, mon exemple est pas crédible et complètement extrémiste certes… Mais c’est pour bien montrer l’idée, à l’opposé de la situation actuelle : “ah t’as fait de la merde ? Bon bah, on te vire… Tu ne toucheras que quelques millions d’euros pour la peine. -Salauds!”



De manière générale, si un jour on obtient que chacun assume ses conneries en proportion de ses responsabilités, plus personne ne contestera que les rémunérations soient aussi fonction des responsabilités.


Le 29/04/2013 à 14h 14







Nhaps a écrit :



Amusant, mais un radin reste et restera un radin :)



Tipiaker c’est plus qu’un effet de mode, c’est un état d’esprit





Mouais, généralisation rapide. Plusieurs catégories de gens optent pour le téléchargement illégal, pour des motivations et selon un “rythme” différent. Ceux que tu décris sont une minorité parmi d’autres…



mirandir a écrit :



C’est excellent comme idée je trouve <img data-src=" />



Par contre, 214 contre 3000… ça doit bien te dégoutter en tant que développeur.





Certes, en même temps, pour choper la version légale, il faut aller sur le site du dev, à priori inconnu de 99% des gens. Tandis que la version illégale, sera apparue en tête des recherches (pc games) ou “latest” sur la plupart des sites illégaux pendant plusieurs jours minimum. La visibilité a juste rien à voir. Il sera intéressant de revenir sur les chiffres ventes légales / téléchargements illégaux dans quelques semaines, une fois que le buzz aura fait son chemin (=les joueurs auront eu connaissance de l’existence de la version légale et où l’acquérir), pour réellement jauger la proportion de méchant tipiak.<img data-src=" />


Le 24/04/2013 à 10h 00







Industriality a écrit :



En même temps c’est pas comme si AMD était proche de la qualité de Nvidia, ma 680 EVGA est inaudible même en charge ce qui n’est pas le cas des cartes AMD qui sont des vrais avions.





Allez, je quote le bon <img data-src=" /> des familles pour le plaisir. Marrant comme j’entends plus mon disque dur (qui, il est vrai, répercute bien ses vibrations sur le boîtier<img data-src=" />) que le ventilo du proc ou de la CG, même en pleine charge…<img data-src=" />



Tiens, petit contre-troll pour la route : ça me fait marrer les gens qui claquent des fortunes pour des nVidia soit disant plus silencieuses à puissance équivalente, et les mettent dans des boîtiers à 30 euros qui laissent tout passer…<img data-src=" />



EDIT : Quant aux problèmes de driver, ma foi, je n’ai jamais eu de soucis particuliers sous WIndows. Et ATI, EUX, permettent de downcloker la CG en 2 clics (nVidia on peut se brosser).

Ça peut sembler gadget pour certains, mais tant qu’à faire, j’aime autant préserver la carte (surtout que je fais encore tout tourner à fond à une exception près) et la conso.



Après, sous Linux, j’avoue n’avoir jamais testé sérieusement les perfs/stabilité 3D en jeu. Mais pour un usage bureautique avec effets kikoolol, jamais eu le moindre souci non plus. Sous ATI (fixe) comme nVidia (portable) d’ailleurs…







Gilbert_Gosseyn a écrit :



Attention, aujourd’hui, on voit davantage de “AMD powered”. Donc …



En plus les GPU AMD suivent strictement les spécifications DirectX, mas les nVidia. Et tu rajoutes à ceci les PS4 et X720 qui utiliseront un GPU AMD, ça peut sacrément pencher sur la balance.





Clairement, si les consoles next-gen arrivent à se répandre au moins aussi bien que les générations actuelles, ça va faire du bien à AMD. Si ce n’est en bénéfs, du moins en image et communauté de développement. <img data-src=" />