votre avatar

sr17

est avec nous depuis le 26 décembre 2005 ❤️

Bio

Oups.
On dirait que quelqu'un ici aime garder ses petits secrets, comme si de par hasard il y avait quelque chose à cacher...
Désolé, ô lectrice de passage, cher lecteur égaré, pas de révélation sensationnelle pour le moment sur ce profil.
Repassez plus tard ?

4322 commentaires

SFR songerait à fermer 150 boutiques et à diminuer ses points de vente

Le 04/03/2013 à 17h 45






Fuinril a écrit :

Bah tiens… t’as déjà eu l’expérience d’un développement fait en Chine ou en Inde ?

Attention scoop ! En France tu peux trouver des boîtes qui te font des softs pour trois fois moins cher…. et pas de secret ça leur prend 3 fois moins de temps à faire. Tu es persuadé du contraire ? Fort bien, mais va donner des cours de management à Apple, Google, Microsoft, IBM… quand on pense que ces abrutis continuent à faire leur dev aux USA <img data-src=" />



De très nombreuses entreprises font appel au développement offshore et en sont très satisfaites. Une simple recherche google, montre que dans les entreprises que tu cites, certaines y font appel et ont même des centres de recherche en inde ou chine.

Comme partout, il peut y avoir de mauvaises expériences, des gens qui ne sont pas sérieux. Mais cela existe aussi en France…

Les mauvaises expériences en offshore sont le fruit de gens qui ne savent pas travailler à l’international. Ils débarquent la gueule enfarinée dans un pays qu’ils ne connaissent pas, travaillent avec le premier margoulin venu sans même prendre le temps de vérifier sa réputation.

Pas de secret, ces gens la se feront avoir aussi en France.


Quant à retrouver l’équipe de dev, c’est pas la question… quand tu te retrouves face à une appli qui a été codé par trente personnes différentes, chacune ayant sa “spécialité” (ou plutôt ne sachant pas faire autre chose), le tout non commenté… ça fonctionne on sait pas trop comment mais côté construction c’est bien pire qu’une appli codée par des stagiaires…. Y a pas de secret : former un vrai dev ça demande énormément de temps, beaucoup de curiosité de la part de la personne concernée et une fois en place, si il veut continuer à progresser ou ne serait-ce que rester à jour il doit se former en continue…. Autant de choses qu’en Chine ou en Inde ils ne connaissent pas : la seule chose qu’ils font c’est produire.


La réalité de 95% du développement en France, c’est du très bas de gamme, de la merde en barre.

Tout cela réalisé par le pisseur de code à peine sorti de l’école et qui sera remplacé par un autre larbin mal payé bien avant d’avoir réellement acquis de l’expérience.

Ou est la haute valeur ajoutée dont tu parles ? Vu les coûts salariaux en France, presque personne n’a les moyens de passer le temps nécessaire pour faire de la qualité.

On citera toujours en exemple quelques exceptions(il y en a toujours), mais ce n’est pas les exceptions qui sauveront notre pays.


Le travail de dev c’est avant tout des gens compétents, ensuite du temps de travail. Si tu travaillais réellement dans l’informatique tu devrais le savoir… et quand je dis “compétent” je n’entends pas des génies du code, mais simplement des gens codant proprement, selon des normes répandues et reconnues.


La encore, l’erreur est de supposer que l’étranger ne pourrait pas être compétent, ne saurait pas coder proprement.

Et si tout cela était des idées reçues ?

As tu seulement une idée de la stratégie que Rajiv Ghandi avait mené pour son pays ?

Sais tu seulement qui va former les gens la bas ?


la pression actuelle vient des autres pays, pas forcément de l’intérieur… et même si elle venait de l’intérieur, on en reparle d’ici quinze ans hein…. le régime lâche actuellement du lest et ce n’est pas pour rien.


La question, c’est de savoir si l’on mène une stratégie qui mène quelque part.

Je ne suis pas le seul à penser que non.


Utiliser Tiennanmen comme argument c’est absurde… la situation était complètement différente il y a 25 ans… Tiens je peux faire la même : “il n’y aura jamais de liberté de culte en France ! Souvenez vous de la saint Barthélémy !” <img data-src=" />


Nous sommes encore très loin de la démocratie en chine.

Si cela arrive un jour, combien de temps cela prendra t’il ?

Notre économie survivra t’elle d’ici la ?



Le 04/03/2013 à 02h 33






UltrA a écrit :

C’était inévitable. Free mobile est une entreprise basé sur un business model très moderne faisant la part belle à internet et à l’automatisation. Le but étant de faire le plus de chose possible avec le moins d’employé possible.

L’arrivé d’un concurrent aussi féroce allez forcement faire s’écrouler l’équilibre du trio des opérateurs historiques. Opérateurs historiques qui sont eux basé sur un business model à l’ancienne, avec beaucoup de point de vente physique et une masse très importante d’employé.

Le seul moyen de continuer d’exister (ou du moins le plus facile) pour les opérateurs historique est de…virer des employés.

Après, bonne ou mauvaise chose, chacun est juge. En attendant de trouver des solutions cela va nous faire des chômeurs en plus… <img data-src=" />



Sacré dilemme, hein ?

Soit nous permettons aux entreprises de devenir compétitives par l’automatisation et les 34 des français vont finir au chômage et au RSA. Nous aurons des entreprises compétitives mais de très nombreux exclus : le pays finira probablement en guerre civile.

Soit nous empêchons les entreprises de se moderniser, elles garderont leurs employés mais notre pays finira complètement dépassé technologiquement. Et au final les entreprises mourront face à la concurrence étrangère. La faillite est au bout du chemin.

Quel que soit le choix, nous sommes coincés, c’est la merde.

C’est pour cette raison qu’on ne peut plus continuer sans raisonner autrement. Le “logiciel” qui régit notre société est dorénavant périmé.

Il faut changer les fondamentaux du système de répartition de valeur pour que progrès technologique ne s’oppose pas à bonheur humain.

Faut de quoi, soit des millions de gens vont souffrir, soit nous entraverons notre développement économique. Les gens refuseront le progrès s’ils sentent qu’il menace leur avenir personnel.

Je pense que les hommes politiques ne réalisent pas encore que les bouleversement sociétaux provoqués par l’informatique sont encore loin d’être terminés.

Nous sommes encore loin du compte : Un exemple parmi d’autres : Les sites internet et surtout la vidéo en ligne pourraient bien révolutionner la manière d’enseigner dans le futur. Ce qui pourrait bien aboutir à une réduction drastique des besoins en enseignants aussi bien dans le public que dans les organisations de formation privées. Beaucoup de chômeurs en perspective…



Le 03/03/2013 à 20h 13






J-Phil a écrit :

C’est devenu ça l’auditoire de PCi ?
Des con-sommateurs qui ne veulent payer que des prix toujours plus bas en sciant la branche sur laquelle ils sont assis (jobs) ?

Il serait que vous nous donniez les noms de vos entreprises histoire que l’on félicite le concurrent le jour où vous serez mis dehors !
La situation économique de ce pays est terrible et vous vous féliciter de ce genre de news …

De plus en plus à gerber l’aveuglement et la haine des fanboys ….



Attends, personnellement ce n’est pas seulement un problème d’argent, c’est que les boutiques ne correspondent pas au service dont j’ai besoin.

Je préfère encore qu’on paye ces gens au chômage. Parce que pendant ce temps, un certain nombre réfléchira à la création d’activité et de services utiles.

Ce n’est pas en maintenant des activités non utiles que la société se portera mieux.

La société est malade parce qu’on ne comprends pas qu’il faut sortir du système de répartition des richesses par le travail.

AVEC LES ROBOTS, LES MACHINES, LES EMPLOIS DISPARAISSENT EN MASSE….

Il y a des usines qui comptaient des milliers de personnes au millieu du siecle et qui n’emploient maintenant qu’une poignée de gens.

Donc je vous le demande, que fait t’on ? On interdit le progrès pour revenir au temps de zola ? On maintient des emplois inutiles dont peut de gens ont besoin au détriment du nécessaire ? Ou alors on change de paradigme de répartition des richesses comme un bon nombre d’économistes modernes nous le suggèrent ?



Le 03/03/2013 à 16h 25






josagama a écrit :

C’est la FNAC qui est en danger, déjà 3 plans sociaux et bientôt une entrée en bourse <img data-src=" /> cela veut dire un 4è dégraissage à moyen terme pour faire monter le prix de l’action , l’équipe de vente dans certains magasins est déjà tellement maigre qu’il va falloir réserver son vendeur à l’avance……..
Les seuls qui font du bénéfice avec la FNAC ce sont les bailleurs et les assureurs, <img data-src=" /> avec leur localisation en centre-ville et le cout au m².
La FNAC est un peu comme la SNCF vu la quantité de cadres qui coutent sans rien rapporter, DRH à la pelle, directeurs de magasins ,de régions et tous les parasites placés en haut lieux par les potes des potes on se croirait au gouvernement <img data-src=" />, l’enseigne finira dans le caniveau bouffée en externe par la concurrence et bouffée en interne par sa lourdeur style administration.



A mon avis, la FNAC est morte.

Problème de management ? Pas seulement : c’est le web qui tue le business model de leurs magasins physiques.

Comme beaucoup d’enseignes physiques, ils n’ont pas su s’adapter.



Le 03/03/2013 à 16h 15






Fuinril a écrit :

Fin de lecture, énormité spotted…

Tu veux un dev chinois ou indien… amuse toi avec … et ne t’étonne pas quand, le jour où tu veux retoucher un détail de ton appli on te dit qu’il faut tout refaire.



Dans tous les domaines, on entends ces vieux clichés bidons.

Toujours cette vieille façon qu’ont les français d’essayer de se rassurer en pariant sur l’infériorité ou l’incompétence supposée des autres nations.

L’ennui, c’est que c’est juste de la méthode coué : une manière de se voiler la face.

Et si on parlait des vraies réalités ?

Qu’est ce que la qualité ? C’est d’abord du temps de travail. Donc au final un coût salarial.

Donc avec la même somme d’argent tu pourra payer plus d’heures de développement et donc une meilleure qualité dans un pays ou les coûts salariaux sont moindres.

Au final, il ne faut pas venir raconter que les SS2I française font de la qualité en matière d’informatique. Et faire croire qu’on peut retrouver facilement l’équipe qui as codé un soft quelques années avant, c’est de l’utopie pure et simple.


Donc, il fait non pas aussi bien mais MIEUX (en tous cas moins cher) le travail que tu lui demande oui ! Il est est aussi intelligent dans son travail qu’un français qui a eu une toute autre qualification et qui a autrement moins de pression (et est d’autant plus investi - mais si Ford l’avait compris en 1900, ça semble moins à l’ordre du jour), c’est une autre histoire….

Pour le reste relis tes livres d’histoires… niveau 3em ça devrait aller vite et suffire à combler les insuffisances dont tu fais montre (la puissance uniquement économique l’axe de développement unique…, tu prends comme exemple les chinois qui forment des ingés en ignorant sciemment que ces mêmes ingés demanderont un niveau de vie occidental qui va en contradiction totale avec le cours du yen maintenu faible pour justement maintenir un coup salarial faible… pour combien de temps ?) ..

bref, tu dis de le grosse merde et le pire c’est que tu le sais…


J’adore les gens qui répondent de manière arrogante.

Mais ils oublient très souvent des détails importants : la chine est une dictature et non une démocratie.

La montée naturelle des prétentions sociales ? L’état s’y oppose depuis longtemps et pas qu’un peu.

Parce qu’être ingénieur n’offre pas pour autant une résistance plus importante à la pénétration d’une lame de baïonnette ou à l’écrasement par un char.

Souvenez vous de Tiennanmen.



Le 02/03/2013 à 22h 56






metaphore54 a écrit :

Les emplois de dumping sont normalement chômeurs peu qualifiés et les rsa en France que l’Allemagne préfère payer à travailler qu’à rester chez eux. Mais c’est vrai que ça à un moment dérivé.



Chez les chômeurs et les RMIstes, il y a quantité de gens très qualifiés.

A l’inverse, il y a des millions de travailleurs à faible qualification qui touchent le smic.

Quand on diminue la valeur du travail, ça provoque juste un effet de dépréciation de la valeur de l’humain. Simple effet économique de la loi de l’offre et de la demande.

Un patron va t’il garder un smicard quand il peut le virer et prendre à la place un autre gars qui fera le même job pour moins beaucoup cher ?

Donc voila, il faut se garder des raisonnements simplistes.

J’en profite pour signaler que les allemands ne se sont pas contentés de créer des sous travailleurs chez eux. Ils ont importé une abondante main d’oeuvre étrangère sur leur territoire a des salaires très bas.


Après on est pas obligé de faire de la haute valeur ajoutée dans les mêmes domaines, ce qui nous mettra pas en concurrence.


La stratégie de la haute valeur ajoutée ne fonctionnera pas.

Parce que comme dans les autres domaines, les couts salariaux y sont prépondérants.

Et comme je l’ai dit, nous n’avons pas le monopole du cerveau : Les chinois sont en train de former des gens de haut niveau en masse.

S’il y a bien une stratégie perdante, c’est celle la…


Bah oui 100% des pays ne peuvent pas avoir une balance commerciale positive, c’est forcément au détriment d’autres pays, il faut juste éviter de faire partie des perdants.


Nous faisons déjà partie des perdants. Ceux qui disent le contraire ne sont pas réalistes et surestiment les potentiels de la France. Nous ne sommes pas plus bêtes que les autres, mais le poids de 30 ans d’erreurs pèse sur notre dos comme un handicap trop lourd.

J’ajouterais qu’il suffit de lire l’histoire pour comprendre qu’un monde basé sur des gagnants et des perdants ne fonctionne pas.

Parce que les inégalités aboutissent à des haines.

L’histoire montre que cela donne régulièrement des guerres. Et avec les moyens technologiques d’aujourd’hui, ça sera horrible.

A l’heure de la bombe atomique, nous ne pouvons plus raisonner comme au temps des épées. Un monde instable aboutira à l’éradication de l’humanité.


Les états unis et le japon sont partis dans une guerre des monnaies, c’est une sorte de dumping, quand à la chine les salaires augmentent de 15% par an (mais à vérifier, je ne suis pas sûr de ce chiffre.)


Les pays jouent les uns contre les autres, c’est une forme de guerre.

Au final, c’est les populations qui en pâtissent.

Finalement, cette idéologie de libre échange est encore plus utopique et dangereuse que le communisme.


Il faut laisser le temps du rééquilibrage, le problème, c’est les pays les plus évolués qui le payent.


Sauf que cela ne se produira jamais. Certains pays comme les USA et la chine feront tout pour qu’on ne remonte pas.

Et oui, les économistes du libéralisme ont basé leurs prédictions sur un monde coopératif, pas sur un monde ou chacun essaye de tordre les règles à son avantage.

Regarde simplement les lois que tentent de nous faire passer les américains pour qu’on paye ad vitam eternam pour leur “propriété intellectuelle”.

Et le plus beau, c’est que nous n’avons même plus la capacité politique de nous y opposer.

La réalité, c’est que nous sommes bien partis pour finir en esclavage.



Le 02/03/2013 à 21h 35


C’est pour ça que j’ai parlé d’applications mobile et objets connectés et d’après ORLM on est plutôt bien placé voire même en avance sur les objets connectés.


Il est depuis longtemps réputé que ce n’est plus en France qu’on trouve la meilleure rentabilité pour cela. Parce qu’un développeur indien ou chinois est aussi intelligent qu’un français et coute beaucoup moins cher.

Partant de la, tout n’est que méthode coué et positivisme aveugle rappelant les passagers du titanic qui veulent se rassuraient au lieu de réaliser que le bâteau coulait.

Les chiffres actuels du chômage et des faillites des entreprises auraient du nous convaincre depuis longtemps que nous ne sommes pas en train de gagner. Même si quelques entreprises continuent de s’en sortir, ça ne suffira pas à sauver un pays qui coule.


Le 02/03/2013 à 21h 15






metaphore54 a écrit :

A priori en Allemagne il n’y a pas tout ça et ils arrivent à être compétitif. On peut être compétitif sans faire du low cost, mais en faisant de la haute valeur ajoutée.
C’est pour ça que j’ai parlé d’applications mobile et objets connectés et d’après ORLM on est plutôt bien placé voire même en avance sur les objets connectés.



Bien au contraire, la stratégie “gagnante” de l’Allemagne est largement connue pour faire appel largement à diverses formes de dumping social.

Le problème, c’est que si nous mettons le doigt dans l’engrenage de cette surenchère au dumping, nous savons ou cela commence, mais pas ou cela finira. Si nous améliorons notre compétitivité en faisant usage de ces méthodes, l’Allemagne répondra par de nouvelles mesures et ainsi de suite. Dans l’histoire, c’est le genre de cercle infernal qui mène les nations vers la souffrance des populations et partant de la à la montée des extrémismes. Au final, cela finit souvent par une guerre.

J’ajouterais que quand tu crée des travailleurs à 400€ que tu fait bosser pour faire tes produits, tu mène une stratégie profondément déloyale. En créant des travailleurs trop pauvre pour consommer, tu peux exporter en empêchant ta population de consommer les produits des autres pays.

A court terme, ce genre de stratégie est bonne pour la balance commerciale d’un pays, mais elle contribue à l’écroulement économique global.

Il est assez facile de comprendre que si tout les pays font ainsi, nous allons vers un écroulement massif de la consommation(puisque tout le monde va chercher à ce que les gens produisent mais ne consomment pas les biens des autres), ce qui ajouté à la forte mécanisation de la production va détruire les emplois d’une manière encore jamais vue.

L’erreur est de croire qu’il suffit de regarder les chiffres d’un pays pour en déduire le bonheur de sa population. Et même pire encore, de croire que cela montre un bon exemple à suivre.

L’erreur, c’est de croire que les stratégies économiques de nature offensive sont généralisables. C’est une grave erreur.

Si je gagne par une stratégie qui appauvrit les autres, il est évident que si les autres veulent faire de même, cela ne fonctionnera pas.

Le monde se portera mieux quand les pays comprendront qu’il faut mettre en place des stratégies économiques coopératives au lieu d’être offensives et des normes de bonne conduite interdisant tout recours à une forme quelconque formes de dumping social.



Le 02/03/2013 à 19h 56






metaphore54 a écrit :

Il faut être aussi compétitif pour vendre, car si tu ne l’est pas tu n’exporte pas mais tu importe qui fait que ta balance commerciale et négative et crée du chômage chez toi, de plus on est arrivé au bout de la vie sous crédit.



Oui, mais d’un autre côté, il ne faut pas se leurrer, la compétitivité, c’est aussi une guerre à mort et un retour vers le passé.

Il y a des pays qui font travailler leurs enfants, ne soignent pas leurs vieux. N’ont pas de vrai système de santé. Détruisent complètement l’environnement et la santé de leurs travailleurs. Font des usines qui ressemblent à des camps de concentration. Et en plus de ça, ils manipulent leur monnaie.

Donc déjà pour être “compétitif”, il faudra faire tout cela. Peut être plus encore.

Il faut être lucide, la course à la compétitivité, c’est le retour au passé : le retour à l’esclavage. Et peut être même à terme, des drames humains et des guerres.

Certains pensent que la course a la compétitivité, c’est la voie de la raison.

Pour ma part, je pense que c’est celle de la déraison.

Il faut avoir au moins une fois dans sa vie fait de la compétition sportive pour comprendre que c’est un système qui n’admet qu’un gagnant et une multitude de malheureux. Et encore, le gagnanti n’est pas toujours pour autant un homme heureux. De la même façon, la population des pays présentés comme “compétitifs” n’est pas du tout heureuse.

Je ne suis pas un utopiste, mais un pragmatique : L’humanité sera bien plus heureuse si nous trouvons des règles permettant de coopérer plutôt que d’inventer une énième façon idiote de nous faire la guerre.



Le 02/03/2013 à 19h 30






aureus a écrit :

Source ???
Je suis plus ou moins d’accord avec ce que tu dis mais a tu la moindre preuve hors histoire personnel ,



Il y a énormément de choses dans la vie qui ne peuvent pas se prouver. Cela ne les empêchent pas pour autant d’être réelles.

En ce qui concerne les boutiques, elles sont apparues dans un contexte ou les gens ne connaissaient rien à la téléphonie mobile. Les gens avaient besoin de beaucoup de conseil et d’aide. C’était un produit nouveau et relativement cher dans lequel il y avait les marges nécessaires pour payer des vendeurs et des boutiques.

Aujourd’hui, le téléphone est un produit devenu courant. La très grande majorité des gens n’ont plus vraiment besoin d’aide pour mettre une carte sim dans le téléphone. Les gens n’en sont plus à leur premier téléphone, ils connaissent bien leurs besoins et ne veulent plus de cette aide couteuse : ils recherchent désormais le meilleur prix.

Les boutiques de téléphonie mobile ont également commis l’erreur de ne pas avoir de spécificités : peu de produits en stock, peu d’accessoires. C’est facile, le supermarché du coin était mieux achalandé en téléphones et accessoires que la boutique soit disant spécialisée. Le vendeur du supermarché était aussi compétent.

Au final, si tu veux une preuve, c’est que si ces boutiques sont supprimées, c’est qu’elles ne sont plus rentables. Et si elles ne sont plus rentables, c’est parce que les gens consomment la téléphonie d’une manière différente.

Pour ma part, j’ai acheté mon téléphone en ligne, pris mon abonnement en ligne.

Au final, j’ai économisé du temps, de l’argent et j’ai pu choisir dans une gamme de produits bien plus étendue (Les opérateurs font rarement les téléphones que j’apprécie).

Je compatis totalement avec ceux qui perdent leur emploi. Mais j’ai d’autres besoins plus utiles dans lequel l’argent économisé sera réinvesti et donc créera ou soutiendra l’emploi. N’est t’il pas préférable de payer pour les produits et services dont nous avons besoin que d’entretenir l’inutile ?



Le 02/03/2013 à 19h 17






metaphore54 a écrit :

C’est pour ça qu’il faut créer de nouveaux relais de croissance pour faire dépenser plus d’argent aux gens.

Les applications mobiles et les objets connectés s’y prêtent bien.



Certes, mais tu ne peut pas d’un côté donner uniquement le strict nécessaire pour vivre aux gens et de l’autre vouloir augmenter l’emploi par des besoins non nécéssaires.

Comme l’avait compris Henry Ford, il faut d’abord donner de l’argent aux gens pour qu’ils puissant acheter les produits non nécessaires.



Le 02/03/2013 à 16h 34






Crazyb0b a écrit :

Encore des personnes qui vont finir aux pôle emploie.



Certes, mais ce n’est pas une solution de maintenir de l’emploi inutile.

Le chômage de masse est désormais une réalité définitive à cause de la mécanisation.

Il faut changer les paradigmes de répartition de la valeur.

L’emploi ne peut plus être le seul moyen de répartir les richesses.




Le 02/03/2013 à 16h 32

La réalité, c’est que les gens n’ont plus besoin de ces boutiques parce que les mobiles se vendent désormais dans les commerces traditionnels.

Elles auraient pu survivre si elles avaient su se différencier, par exemple en proposant un très large choix d’accessoires.

La plupart du temps, elles n’avaient aucun avantage. Leur mort était donc inéluctable.


Selon le PDG de Crytek, « la notion de jeu solo doit disparaître »

Le 03/03/2013 à 16h 42






dahu74 a écrit :

Ah! Commodore! J’ai toujours notre bon vieil Amiga et toutes les disquettes de jeux qui allaient dessus, il y en avait de très sympa. Mais bien sûr, rien à voir avec les jeux actuels.



Par contre, il faut bien avouer que même si l’Amiga était une super machine, sa logithèque est quand même bien décevante par rapport à la créativité qu’il y avait eu sur les 8 bits par le passé.

En fait, l’industrie du jeu s’était déjà trop professionnalisée et la plupart des jeux étaient des clones de clones conçus dans un souci de rentabilité. Bien peu de créativité au final.



Le 03/03/2013 à 16h 35






pafLaXe a écrit :

Moins élégant peut-être oui. Beaucoup plus modulable, hétéroclite, et meilleur marché, ça c’est certain.



Meilleur marché, non.

Et le PC c’était une telle merde à programmer à l’époque que c’était vraiment le jour et la nuit.

Reste qu’a un moment les 486 ont largement dépassé la puissance des proco des Amiga. Et que les premiers jeux 3D texturée arrivant, ça a fait la différence.

L’erreur de commodore et d’Atari, c’est de ne pas avoir anticipé les jeux à 3D texturée.

Ils auraient du bosser sur des circuits 3D. Ca les auraient sauvé.


Qaunt à la suite Office, non. Le PC avait déja largement le dessus alors que Word était encore sous DOS et non WISIWIG.


Non, quand même pas. Il y avait d’excellents traitements de texte sur Amiga/Atari ST.

D’autant que le WYSIWYG c’est quand même une feature qui change tout.



Le 02/03/2013 à 18h 31






PatBe a écrit :

le probleme de l’Amiga, à part Commodore, c’est aussi la mort de Jay Minner, son concepteur de génie:
Imaginez que Jobs soit mort en 1995…
Sur mon 1000, qui tourne toujours , il y a sa signature et meme la patte de son chien, sous le capot ! <img data-src=" />
Minner venait de chez Atari, ou il avait créé le chipset video du 2600 puis celui des 8 bits, il voulait faire un ordi familial de haut niveau ,extensible de façon illimitée, c’etait un créateur méconnu mais génial.



Jay Miner est effectivement l’auteur des meilleurs hardwares de l’époque toute catégorie confondue.

Pensez que l’Atari 8 bits qui était de sa conception contenait un processeur graphique flexible et programmable capable d’exécuter des instructions. Cette machine contenait également un bus de communication entre périphériques qui préfigurait l’USB actuel.

Quand à l’Amiga, son hardware était une véritable oeuvre d’art.


Ca me fait toujours plaisir de voir resurgir le nom de cette machine, tant d’années après, de tomber sur d’autres passionnés qui ne peuvent pas oublier le plaisir qu’ils ont eu.
L’Amiga, c’est un peu comme la DS de Citroen, les utilisateurs les regrettent toujours, même si on leur donne mieux après.


Je crois que la comparaison avec les Citroën d’antan est très bonne.

Quelque part, en comparaison, les autres machines (dont le PC) offraient de la puissance brute, mais avec un hardware tellement mal fichu que ça donnait mal au coeur à tous les programmeurs.



Le 02/03/2013 à 18h 21






DarKCallistO a écrit :

Concernant l’Atari c’est surtout les choix stratégique et économique de la boite,l’Atari Jaguar et la Lynx ne laissera pas une trace indélébile dans le salon…

Pourtant dieu sait qu’on avait pas du bousin niveau matos informatique pur,le Falcon 030 pouvait lire des MP3 comme pour rire avec son puissant DSP,c’était une machine de tarée tout en gardant le design des machines ST(e) <img data-src=" />

Mais au moins je me rassure sur un point,des passionné ont ressuscité la machine (Entièrement compatible avec la gamme ST(e) /TT et Falcon en plus,la classe <img data-src=" /> )



Sans doute se sont t’ils trop dispersés chez Atari. Leurs consoles n’étaient pas sans intérêts, mais ils n’avaient clairement pas les moyens de se frotter aux grands spécialistes japonais pour recréer tout l’environnement ludique qu’il aurait fallu pour leur assurer le succès.
Sans doute auraient t’ils mieux fait de consacrer leurs moyens a la division des personnal computers et surtout à la commercialisation du Falcon.

Mais voila, à l’époque, les analystes prédisaient une fois encore la fin du marché “loisir” sur les personnal computers. Et sans doute que chez Atari, ils ont cru à la nécessité de se diversifier. (Notez qu’ils récidivent aujourd’hui avec les tablettes).

Outre ces erreurs, la guerre avec Commodore aboutissait à une baisse de prix toujours plus importante, ce qui fut au final la cause principale de la faillite des deux protagonistes.

Exsangues, les deux entreprises n’avaient plus les moyens d’investir en R&D et de lutter contre le marché du PC qui les a emporté.



Le 02/03/2013 à 16h 25

Les gros éditeurs ont clairement intéret à supprimer les jeux non connectés. Cela permet de supprimer le piratage.

Après, s’ils laissent tomber à tort une partie du marché sur laquelle une demande solvable peut encore exister, c’est les petits studios qui en profiteront à leur place.

Ce qui choque dans son commentaire, c’est surtout le fait de transformer une tendance évidente et inéluctable en dogme jusqu’au boutiste. On sait que dans la vraie vie, les choses ne se passent jamais de manière aussi radicales.

Parfois, ce sont ces visions radicales qui entraînent la mort des entreprises. En se lançant tous en même temps sur les mêmes modes du moment, les industriels divisent leur marché.


Le 02/03/2013 à 16h 13






pafLaXe a écrit :

“Maintenant”, c’est beaucoup dire <img data-src=" /> L’Amiga s’est fait largué par le 486, il n’y avait guère que le 4000 pour tenir un peu tête, mais il coûtait un rein et ça sentait déjà pas mal le sapin pour les micro proprio de tout poils.



En puissance brute, oui. Mais le hardware du PC était beaucoup moins élégant. Ne parlons même pas de Windows 3.1 très loin de l’OS de l’amiga.

Le problème de l’amiga, c’est d’avoir trop tardé à évoluer sur le plan matériel.

Mais ce qui as vraiment tué les ordinateurs non PC, c’est la suite office.



MSI G Series : des cartes mères et des machines AIO pensées pour les joueurs

Le 02/03/2013 à 18h 09

Qu’on m’explique l’intérêt d’une machine “all in one”…

Ce genre de machine présente les inconvénients des portables sans les avantages d’une vraie machine fixe.



IIyama XB2776QS : un écran IPS de 27

Le 02/03/2013 à 16h 16






OlivierJ a écrit :

Du 16:9 avec 2560 pixels de large, n’importe quoi <img data-src=" /> <img data-src=" /> <img data-src=" />
J’espère que personne ne va acheter ça, quelle arnaque.

S’il y a un standard, ça devrait au moins être du 16:10 soit 2560 x 1600, on n’en a rien à faire d’une proportion type télévision sur un ordinateur !



Le vrai scandale, c’est que des millions de gens travaillent tous les jours avec ces écrans dont le rapport de taille est fait à la base pour regarder des films et n’est pas du tout idéal pour le travail.

C’est la ou l’on voit que la capacité de normalisation des états n’existe plus, les industriels font absolument ce qu’ils veulent et surtout tout et n’importe quoi.



Le 01/03/2013 à 23h 29






ragoutoutou a écrit :

Techniquement c’est pareil sur les CRT… le pas de masque na change pas magiquement en changeant la résolution. La différence est qu’au lieu de passer par une méthode d’étirement par interpolation, le CRT étire ou contracte via une altération du balayage, mais le pas de masque reste constant.



A la différence près que la résolution d’un écran CRT n’est pas strictement lié au pas de masque car un luminophore peut être allumé seulement dans une partie.

Sur LCD, on ne peut pas faire plus précis que la commande d’un sous pixel.

De plus, les pixels sur CRT sont ronds, ce qui donne une image plus lissée. Et le rendu des couleurs était bien meilleur.

Après, question précision d’affichage et netteté des textes, les LCD sont imbattables. Donc je dirais que l’intéret du CRT ne se pose actuellement plus trop.

D’autant que la plupart d’entre eux sont aujourd’hui usés et déréglés.




Le 01/03/2013 à 23h 19






TBirdTheYuri a écrit :

Ca a l’air sympa <img data-src=" />

Sinon 5ms c’est très correct pour le jeu.



Pas pour les vrais joueurs.

C’est bien pour jouer aux sims ton truc.



Le recap' des tests : s'équiper pour jouer confortablement c'est important

Le 01/03/2013 à 16h 41






Superambre a écrit :

alors je n’ai rien contre les souris a 140€, même si ils n’ont aucune chance que j’en achète un jour, mais le capteur a 8200 DPI je peux vous dire que ca ne sert à rien, mais à rien du tout.

Je joues à tous type de jeux, j’ai un 27” en 2560*1440 et quand je joues aux FPS si je suis a 4000 DPI c’est le bout du bout, pour le reste ca va de 3000 à 3600

partant de ce principe vous avez des souris qui valent la moitié du prix de celle ci et qui font la même chose, à commencer par la ROCCAT KONE + qui coupe 70€ et qui est copie conforme à celle du test, même si elle a un fil , c’est vrai que c’est cool de jouer sans fil

mais bon 140€ les gens



Non, la haute résolution des souris dans les jeux n’est pas inutile. C’est juste que la plupart des gens ignorent son utilité et la bonne manière de s’en servir.

D’abord, précisons que c’est inutile d’utiliser la haute résolution d’une souris sans ajustement de la sensibilité dans le jeu, parce que ça donnera juste un déplacement beaucoup trop rapide. C’est l’erreur courante et c’est pourquoi la plupart des gens disent que c’est inutile.

La bonne manière de faire, c’est de mettre la souris à fond au niveau résolution et ensuite d’ajuster la sensibilité dans les règlages du jeu. Vous vous retrouverez grosso modo avec la même sensibilité qu’avec une souris 1000dpi voir moins.

Alors vous me demanderez : mais franchement, quel est l’intéret puisqu’on se retrouve avec la même sensibilité apparente qu’avec une souris bas de gamme ?

Simplement la précision angulaire qui n’a plus rien à voir.

Les jeux utilisent des nombres à virgule flottante pour l’angle de vue du joueur et donc la précision ne se compte pas en nombre de pixels. La variable angulaire est augmentée du nombre de pas comptés par la souris et multiplié par le coefficient d’ajustement de la sensibilité.

Un rapide calcul démontre l’utilité de ces souris. Dans un jeu de type FPS lors d’un tir à 100 mètres de distance, avec 8200DPI et une amplitude de déplacement de 5 cm (en gros 2 pouces), la précision de tir est de 4cm ce qui est loin d’être “beaucoup trop”.

Bien entendu, il est évident que l’intérêt d’avoir une souris à très haute résolution dépends du types de jeu que vous pratiquez. C’est plutôt fait pour les FPS. Aucun intéret dans les jeux de type gestion/stratégie ou sur le bureau de Windows.



Le 01/03/2013 à 00h 46

140€ la souris, c’est pas donné. Pour ce prix la, elle a vraiment intéret à être solide et durable.

Je note cependant déjà un point très positif dans sa construction, c’est l’usage d’une batterie rechargeable à un format standard. Ce qui veut dire qu’on peut s’en procurer facilement d’autres pour pas très cher.

Ca n’a l’air de rien, mais le jour ou la batterie d’un appareil est mort, c’est à dire en pratique rarement plus de 2 ans, l’appareil est mort car il est souvent très difficile et couteux de se procurer des pièces de rechange et parfois aussi de les remplacer. Les batteries “propriétaires” sont un élément des stratégies visant à créer de l’obsolescence programmée.
C’est donc très positif de voir des fabricants d’appareils adopter des batteries rechargeables standard : cela mérite d’être encouragé comme tout ce qui va dans le sens de la durabilité.

Notons que ce n’est pas la première, ni la seule souris du marché à utiliser une batterie standard, la Logitech G700 ayant adopté cette solution depuis longtemps.

L’avantage de la batterie standard, c’est aussi la possibilité d’en acheter plusieurs à faible coût et de les charger à l’avance par lot dans un chargeur totalement standard. Ce qui est utile pour ne pas se retrouver en rade.
Parce que les souris “performantes” dédiées au jeu ont souvent par nature tendance à être beaucoup plus énergivores que leurs cousines dédiées à la bureautique.


Electronic Arts veut instaurer des micro-transactions dans tous ses jeux

Le 28/02/2013 à 20h 36

A mon sens, c’est une très mauvaise chose que de rajouter des payements ingame, particulièrement pour un jeu qui est déjà payant à la base.

D’abord, on ne sait jamais à l’avance à quel point les objets payants sont nécessaires à un bon gameplay. Il faut quasiment finir le jeu pour le savoir et les acheter pour savoir à quel point ils sont utiles au jeu. D’ou la suspicion logique de l’acheteur que je suis devant un jeu qui propose des objets payants.

Bien qu’ils s’en défendront, les éditeurs auront intéret à pousser à l’achat, ce qui va aboutir inéluctablement à dévoyer le gameplay des jeux dans ce sens. Supposer que les éditeurs résisteront à l’appât du gain me parait sur le long terme complètement illusoire.



Le risque à terme ? C’est tout simplement de scier la branche sur laquelle ils sont assis, c’est à dire de dégoutter les vrais acheteurs.

Quel joueur voudra payer un jeu 60€ sachant qu’il n’a même pas la certitude que c’est suffisant pour jouer dans les meilleurs conditions et qu’il devra peut être payer encore ensuite une somme indéterminée pour cela ?

L’abus de sollicitation commerciale ne risque t’elle pas d’être finalement contre productive et d’amener les joueurs à devenir de plus en plus pingres et résistant à toute sollicitation ?

Avec au final, des jeux “free to play” de plus en plus gratuits qui tueront le marché du jeu.


Streaming et direct download, un rapport Hadopi bien inspiré

Le 27/02/2013 à 16h 41






tazvld a écrit :

Dans le genre aveux “les solutions faite par des amateurs sans perfusion monétaire sont plus mieux que les notre alors que l’on est payé pour” je la trouve jolie.

Bon, si on commence à rendre intelligent les câbles et demander aux extrémités des câbles des choses nécessitant le budget de l’armée américaine, nous sommes en bonne voie pour finir de massacrer l’internet Français. Entre une qualité de connexion qui ne pourrait aller qu’en se dégradant et l’impossibilité au jeunes start-up de se lancer dans de nouveau projet fautes de pouvoir assurer les conditions requise, voila qui nous assure notre continuité dans l’inaptitude de la France à investir les nouvelles technologies…. C’est bien, on est constant en tout cas.
Et si je me rappelle bien, la Hadopi a souvent cité en exemple deezer… mais rappelez moi la légalité de deezer à ses débuts ? De même Dailymotion aurait-il pu voir le jour avec de tel contrainte ? Aurait-il résisté à la puissance de Google et son youtube ? (je sais google à acheter youtube après un certain temps, mais entre temps, ils avaient sorti google vidéo)



Tout à fait.

Ca me rassure de voir qu’il y a au moins des gens qui comprennent le problème.

Hélas, je doute que les politiques soient en mesure de comprendre quoi que ce soit. Ils vont continuer à massacrer notre économie numérique française comme ils l’ont fait pour tous les autres secteurs. Tout ça pour protéger l’actionnariat étranger d’hollywood et des majors.

Plus ça va, plus je me dit que ce pays est sur la mauvaise pente et pas près de remonter.



Le 27/02/2013 à 16h 19

Et bis répétita….

Encore une fois, on ne va pas écouter les informaticiens, encore une fois on va dépenser beaucoup d’argent pour rien et ils finiront une fois de plus avec la queue entre les jambes.

Quand est ce qu’ils vont comprendre que la seule solution réaliste c’est d’adapter les business models aux nouvelles réalités.

Que de toute manière, les artistes qui ne suivront pas le mouvement du web finiront oubliés et dépassés par ceux qui ont tout compris. (Au hasard, Psy). Car il ne suffit pas d’être vendu, encore faut t’il qu’on vous connaisse.

Le drame avec leurs bêtises, c’est qu’ils perdent un temps précieux et surtout qu’ils font perdre un temps précieux à tous les acteurs français de la nouvelle économie. Car c’est bien beau de dire “les hébergeurs seront responsables”, ce sont des mots. Comme d’habitude, ils ne réfléchissent pas plus loin que le bout de leur nez. Quid des conséquences directes et indirectes…

Et quand bien même ils arriveraient à empêcher le direct download et le streaming, ils seront alors confrontés à d’autres types d’échanges beaucoup plus difficiles à contrer. Voir même totalement impossibles à contrer : les échanges directs entre particuliers comme du temps de l’avant internet.

Que proposeront t’ils pour la Hadopi 5 ? Qu’on fouille les enfants à la sortie des écoles ? Des colliers anti piratages pour détecter ce que les gens écoutent ?



Windows Blue serait prévu pour août, une bêta dans les mois qui viennent

Le 25/02/2013 à 19h 45






ttdog a écrit :

je comprend les gens qui se plaignent du modern UI, moi ce fut pareil quand ils ont changer le panneau de configuration une horreur! J’EN PEUX PLUS! il vont faire quoi bientôt? hein? changer l’icone de la corbeille INADMISSIBLE! …
Stop chouinner dans tout les sens les gens, il faut bien changer un jour! moi je suis utilisateur de Windows depuis 95 et je peux vous dire une chose : je n’ai jamais regretter de passer au Windows suivant… alors arrêtez de geindre pour un oui ou pour un non et évoluez un peu!



Donc les utilisateurs doivent s’adapter à tout ?

Evoluer ? Et si c’était une erreur des programmeurs de proposer une telle interface ?

Les programmeurs ont t’ils toujours forcément raison ?

Si vous le pensez vraiment, dites vous que j’ai raison parce que j’en suis un.




Le 25/02/2013 à 19h 42


Dans le cas des applications Modern UI (Metro), la répartition des informations serait ainsi meilleure


Mouais, on aura beau répartir sur tout l’écran, une mauvaise idée reste une mauvaise idée.

Je repense encore au jour ou l’on nous avait présenté le multitâche comme une grande avancée permettant de travailler avec plusieurs softs sur un écran. Aujourd’hui on revient à l’écran unique comme au temps de DOS pour nous dire que c’est super.

Alors qui s’est trompé ?

L’erreur est encore plus flagrante parce que les écrans n’ont jamais été aussi grands.




Intel annonce deux nouveaux Atom pour smartphones et un modem 4G/LTE

Le 25/02/2013 à 19h 35






David_L a écrit :

C’était surtout le cas pour ce qui utilisait du code natif et encore (surtout les jeux donc). Après les choses se tassent. Ce sera plus simple pour Intel d’avoir une bonne bibliothèque d’Apps Android fonctionnelles que pour ARM avoir une bonne bibliothèque d’Apps Linux / Windows fonctionnelles ;)



D’autant qu’au final, pour le code natif, ça ne va pas être bien compliqué de recompiler les applications. Vu les moyens d’Intel, je ne pense pas qu’il y aura beaucoup d’inertie chez les développeurs.



Le 25/02/2013 à 19h 32






ldesnogu a écrit :

D’après mon expérience recompiler sous Linux pour ARM c’est zéro problème, pas plus que sous Android. Pour Windows, je ne veux pas savoir <img data-src=" />



Globalement, je confirme. Je suis surpris du peu de problèmes de compatibilité par la recompilation de mes propres logiciels sur Linux ARM.



Le 25/02/2013 à 16h 50






criss1023 a écrit :

Intel essaie de démontrer la puissance du x86 dans un mobile, face à son concurrent ARM, tres bien installé déjà…

Sinon le TDP de ce genre de Proco, il est de combien ?<img data-src=" />

Tu peux le conserver dans tes mains le mobile sans être brulé au deuxième degré ?? lol ^^

Mon Noctua ne rentreras jamais dans ce smartphone lol <img data-src=" />



En même temps, depuis qu’ils essayent de faire des modèles performants, les ARM ne sont plus aussi sobres qu’avant.

Au final, il se pourrait bien qu’avec leur avance sur les technos de gravure, intel n’ait pas trop de mal à faire jeu égal.




Firefox 22 bloquera par défaut les cookies des sites tiers

Le 25/02/2013 à 16h 24

J’entends beaucoup de gens ici se gausser de bloquer la pub. Mais savez vous qu’elle finance quantité de sites qui sont gratuits ?

Ce qui m’amuse, c’est que si demain ces sites gratuits venaient à disparaître ou devenir payants, vous seriez probablement les premiers à râler.

Reste que s’il est acceptable d’afficher de la publicité pour financer un site, le tracking et ce que certaines entreprises en font, c’est à dire la constitution de fichiers de données personnelles, tout cela devrait être interdit et sévèrement réprimé par la loi. Même les seules habitudes de consommation, c’est de l’ordre de la vie privée.

Et pour le ciblage publicitaire, la thématique d’un site fait déjà beaucoup. Et cela suffisait très bien à la presse papier avant le web.

Dans ce contexte, je trouve que le blocage des cookie tiers est certainement une bonne initiative. Reste à savoir si cela sera tenable, c’est à dire si les publicitaires ne s’arrangeront pas pour que cela se traduise par une impossibilité d’accéder au site. Pour éviter cela, il faudrait que l’ensemble des navigateurs fassent ce choix.


Creative Commons payantes : Pierre Lescure éteint un début d’incendie

Le 25/02/2013 à 16h 06


la mission Lescure estime que laisser les œuvres circuler librement (…) risquerait de freiner le développement de l’offre légale, en particulier la VOD


Ca pose tout de suite le décor… <img data-src=" />


La PlayStation 4, une console plus ouverte aux studios indépendants ?

Le 24/02/2013 à 23h 08

Donc si j’ai bien compris, en achetant une console qui est un PC, on paye pour un PC… qui n’est pas utilisable en tant que PC.

Dommage…


HP dévoile des résultats en berne, les PC ne rapportent plus rien

Le 23/02/2013 à 22h 44

Pour dire ce que j’en pense, je dirais que les PC de supermarché et les PC d’assemblage, c’est pas vraiment le même matos. Donc c’est dur de vraiment comparer.

Oui, le PC de supermarché est souvent un peu moins cher sur le papier que le PC d’assemblage à caractéristiques apparentes égales.

Mais quand on gratte un peu, qu’est ce qu’on a dans un PC de supermarché ? Des cartes mères à 40€, des alims qui ne valent pas plus. Et ne parlons même pas des radiateurs qui refroidissent proco et carte graphique qui sont souvent réduits au strict minimum syndical.

Alors oui, en comparant ce qu’il y a juste sur les fiches techniques, on peut avoir l’impression que le PC de supermarché est meilleur marché que le matos d’assemblage équivalent. Mais pensez aussi et surtout à regardez ce qui n’est pas mentionné mais qui est tout aussi primordial.

L’intéret de faire un PC sois même, c’est aussi de bien choisir son matos parmi ce qu’on estime de mieux sur le marché. C’est ce choix qui fait un PC globalement meilleur.

Croyez moi que le jour ou il fait chaud et que le PC a pris un peu de poussière, on voit la différence entre un PC bien monté avec ce qu’il faut comme radia et le PC “marketing” monté avec juste ce qu’il faut de métal et de ventilos pour ne pas cramer par température moyenne.

Quand on est amateur de bons PC, croyez moi qu’on regarde absolument tous les détails d’une pièce, depuis la taille du radiateur jusqu’a la marque des condensateurs en passant par les tests qui mentionnent la température de fonctionnement des étages d’alim des cartes graphiques. Parce que tout cela a une influence sur la fiabilité et la longévité.



Le 23/02/2013 à 20h 57






benco a écrit :

Le seul vrai critère de la populace c’est le portefeuille, surtout en ce moment…
Ce qu’il y a dans la machine <img data-src=" />

Par contre les roros…



C’est tout à fait vrai.

Mais aujourd’hui, bon nombre de tablettes sont vendues à un prix équivalent à celui d’un vrai PC. Et ce, alors qu’elles en sont loin d’un point de vue matériel et capacités.

A qui croyez vous que cette mode va profiter ?

Après, celui qui ne veut pas regarder ce qu’il achète, qu’il ne se plaigne pas de finir pauvre.



Le 23/02/2013 à 20h 50






benco a écrit :





Honnêtement, tes propos, c’est juste contredire pour contredire. Juste de la perte de temps.

Grosso modo si je résume ton propos, on comprends que surfer sur un portable au fin fond de l’afrique ça serait exactement pareil que de surfer sur un gros PC derrière une ligne fibre optique dans une grande ville de France.

Bon, j’ai un peu caricaturé, mais en gros, c’est ça que ça veut dire.

Sincèrement, qu’est ce que tu veux que je réponde à un troll pareil ?

Voyage simplement en France pour voir combien de millions de gens ont de l’électricité depuis des décennies mais encore internet en 56k. Et combien de villes sont réellement bien couvertes en mode Data sur le mobile.



Le 23/02/2013 à 20h 39






Maxouille-la-fripouille a écrit :

Le problème, c’est que vous réfléchissez en tant que geeks, et que vous ne vous mettez pas au niveau des utilisateurs lambdas…. <img data-src=" />

Franchement, QUI, à part les geeks, ça va faire chier d’avoir des emplacements mémoire en moins, une carte graphique minable (surtout si c’est pour de la bureautique)… PERSONNE! Les gens lambdas en ont rien à fouttre de ça, surtout que le moindre PC aujourd’hui à 4Go de RAM, ce qui, associé aux procs actuels est largement suffisant pour garder ce PC là 34 ans sans soucis en utilisation “standard” de personnes lambdas. <img data-src=" />



Tu est en train de m’expliquer que la très grande populace est constituée de gens qui n’aspirent pas à des usages avancés. Comme toi, je le sais très bien. Tout le monde le sait et ce n’est pas nouveau.

Est ce pour autant une bonne chose d’encourager la paresse intellectuelle par des outils qui ne poussent pas au progrès intellectuel ? Pire, qui les découragent par leurs limites ?

En vendant des outils limités à cette populace parce qu’on pose le jugement d’avance que ce seraient des idiots, des non geeks, des lambda, on ne saura jamais si ce jeune qui as reçu une tablette à noël au lieu d’un ordinateur aurait peut être pu devenir un petit génie de l’informatique.

Combien de jeunes passeront à côté de leur talent parce qu’on aura décrété d’avance que les “lambdas” n’ont “pas besoin de” ?











Le 23/02/2013 à 19h 11






Maxouille-la-fripouille a écrit :

Franchement, dire qu’un PC de supermarché actuel nécésssite d’être renouvelé tout les ans ou tout les 2 ans, c’est de la pure connerie de geeks resté bloqué à y’a 15 ans en arrière! <img data-src=" /> On voit bien que tu n’as pas touché ce genre de PC depuis un moment! Au lieu de raconter des conneries vous feriez mieux de vous mettre à jour les mecs, et pas toujours resortir les mêmes arguments dépassés aujourd’hui car les choses ont changés à ce niveau, surtout que les configs des PC de supermarchés actuels sont assez équilibrées maintenant, avec de bon proc et une bonne quantité de RAM largement suffisante (c’est fini les 128/256Mo des PC avec XP d’il y’a 10 ans, aujourd’hui n’importe quel PC à au mini 2Go et courament 4Go). Quand à la carte graphique, si le PC est destiné à de la bureautique je vois pas où est le mal d’avoir une carte graphique “de base” associée à un proc puissant, faut arrêter la branlette de geeks les mecs! <img data-src=" />



Je pense qu’il n’a pas tort.

Un PC de supermarché est le plus souvent bridé par rapport à une machine d’assemblage. Alimentation dimensionnée “juste ce qu’il faut”, carte mère avec des slots de ram en moins, carte graphique de base.

Le problème de ce genre de PC, c’est l’évolution. Déjà simplement, si on veut rajouter une carte graphique plus costaud, il faut changer d’alim. On perds rapidement ce qu’on a gagné.

Donc c’est pas très rentable.



Le 23/02/2013 à 19h 07






pithiviers a écrit :

<img data-src=" />
<img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" />
Tu n’as dû avoir que des tablettes de merde à 100€ entre les mains pour sortir une telle absurdité.
Mon ordi fixe je ne m’en sers que le week-end quand je suis chez moi.
Ma tablette, tout le reste de la semaine. Jamais, mais jamais je n’ai eu le moindre problème sur le net (sauf quand le débit est minable, mais là ce n’est ni la faute du navigateur ni celle de la tablette), jamais mon navigateur ne m’a dit qu’il avait besoin de 64 Go de RAM pour ouvrir une page WEB.

Tu ne dois aller que sur des sites en flash conçus par des manches pour avoir besoin de la puissance d’une centrale nucléaire pour utiliser ton navigateur.



De simples mesures montrent que les browsers sont parmi les applications les plus gourmandes en resources, que ce soit mémoire ou utilisation processeur.

Tu dit qu’on peut surfer sur une tablette, je suis d’accord. Mais le surf sur un vrai PC reste beaucoup plus confortable. Et surtout, dans le cadre d’un usage pro, beaucoup plus rapide.

Et cela est logique dans la mesure ou il y a une très grande différence de puissance entre le hardware d’une tablette et celui d’un PC.

Après, il y a effectivement tablette et tablette. Si on prends une tablette x86 avec un coeur de PC portable, la différence sera effectivement moindre. Mais on perds alors tout les avantages du terminal à faible cout pour se retrouver juste avec un PC bridé payé le prix d’un vrai PC.








Le 23/02/2013 à 17h 34






benco a écrit :

Le marché du PC est en crise parce que dans un monde tout connecté le PC n’a plus de sens.

Seul l’ado ou l’étudiant désargenté utilise encore sont PC pour tout faire et en fait le centre du monde.



Quelques remarques :

(1) Seule une petite minorité d’humains sur cette terre ont accès à internet à un débit correct. Ne va t’on pas un peu vite à penser que les usages web tueront l’usage local à très court terme quand on sait qu’il faudra sans doute plus d’un siècle avant de voir la moitié de l’humanité pouvoir y accéder ? Et même en zone urbaine, une entreprise ne prendra t’elle pas un énorme risque à être trop dépendante des réseaux quand on sait qu’un simple coup de pelleteuse mal placé peut entrainer plusieurs jours de perte de réseau (dans le meilleur des cas…).

(2) Un browser web, ça consomme de la puissance, beaucoup de puissance. Et de la mémoire, beaucoup de mémoire. Donc finalement, quand on veut faire tourner un browser correctement, on a…. un bon ordinateur. Les tablettes, c’est juste bon pour un usage d’appoint.

(3) Finalement, les postes avec un browser, ce n’est pas un truc nouveau. C’est juste une réincarnation de feu terminal connecté à son bon vieux mainframe. Pendant des années, on a démontré que financièrement, cela couterait moins cher de placer la puissance en local. Aujourd’hui, on voudrait nous dire que placer un poste puissant en local ET un serveur puissant en datacenter, ça serait moins cher qu’un poste local seul ? Certes, cela présente des avantages. Mais c’est beaucoup plus cher sur le plan technique et énergétique, sans compter les risques financiers compte tenue des dépendances techniques à des services tiers pas toujours maîtrises(et pas toujours maîtrisables quoi qu’on en dise…). Pour toutes ces raisons, je doute fort que le “tout web” se généralise rapidement.



Le 23/02/2013 à 16h 56

Le chiffre d’affaire baisse de 8% et ça y est c’est la cata, on dit partout que ça ne rapporte plus rien, que plus personne ne veut acheter de PC, que le PC est mort et patati et patata.

Personne pour expliquer à nos amis capitalistes que les arbres ne grimpent jamais jusqu’au ciel ?

Personne pour leur dire que le monde est en crise et que de nombreux industriels essuient des pertes record à deux chiffres, que les gens sont de moins en moins payés. Et qu’a côté, certains constructeurs automobiles ont essuyé des baisses de presque 40%.

Personne non plus pour leur dire que quand des monopoles multiples qu’on a laissé se créer en dépit du bon sens aboutissent à une baisse de l’innovation(on reconnaitra) ou l’augmentation des prix (Disques durs, RAM) que c’est mauvais pour les ventes.

Personne pour se demander si les modes artificielles crées pour attirer le grand public vers une informatique “consolisée” et captive n’allait pas réduire au moins momentanément la demande pour des véritables avancées technologiques et des produits puissants.

Mais non, le monde du PC devrait envers et contre tous continuer de monter.

Peut être serait t’il quand même bon dans ce catastrophisme ambiant de rappeler aussi que l’ordinateur, le vrai, c’est est un outil de travail indispensable pour des millions de personne. De ce fait, il y aura donc toujours une demande importante et donc de l’argent à faire dans ce domaine.




« Irrité », Microsoft se préparerait à présenter sa future Xbox en avril

Le 23/02/2013 à 18h 15






methos1435 a écrit :

Alors l’intérêt:



Tout d’abord, merci de ta réponse, et ne prends surtout pas mal tout ce que je vais te répondre.





  • Avoir une plateforme avec matériel figé: tu achètes un jeu et t’as pas à te dire que ton matos est à changer 6 mois après parce que toute le monde sur PC se livre à une course à la puissance kikalaplusgrosse


    Personne ne t’oblige à changer ton PC souvent.

    Un bon PC tient souvent plusieurs années, même avec les jeux récents.

    La seule différence, c’est que les jeux les plus récents proposent des options graphiques plus poussées que tu est libre de ne pas activer suivant ton matos. Les jeux consoles, c’est exactement pareil, c’est juste qu’ils sont préréglés (et pas forcément suivant ta préférence).

    Après, pour ceux qui se sentent absolument obligés de changer pour épater les copains, on ne peut vraiment plus rien pour eux.



  • Jouer depuis son canapé, éventuellement en famille, c’est quand même plus agréable que sur une chaise tout seul comme un con devant ton PC.


    Un PC ça se branche aussi très bien sur la télé. Mais de toute manière, jouer à plusieurs sur le même écran, c’est pas le top.



  • Jouer à autre chose que du FPS parce qu’il existe tous un tas de jeux tout aussi intéressant que les FPS (voir plus ionteressants et en plus, pour un peu qu’il y ai des fonctionnalités en lignes, tu évites la grosse majorité des kévins qui devraient être en train de faire leurs devoirs plutôt qu’a se tripoter devant des armes virtuelles).


    Bah, sur PC aussi, il n’y a pas que des FPS. Et encore heureux.

    Le PC est probablement la plateforme qui offre la plus grande variété.

    Parce que sur console, la majorité des jeux sont quand même “très grand public” (pour rester poli).

    De plus, il est impossible de profiter pleinement de tous les styles de jeux avec un simple pad.



  • Jouer tout simplement, et parce qu’un jeu ne se résume pas à ses graphismes, loin de là.


    Minecraft est né sur PC. Il n’est pas dispo pour toutes les consoles <img data-src=" />



  • L’offrir à des enfants, et des adultes, pour qu’ils jouent, sans avoir besoin d’être à bac +10 en informatique, parce qu’un jeu ça sert avant tout à jouer, pas à parfaire des connaissances en programmations (surtout qu’en t’en à rien à battre de la prog, chacun son domaine)


    J’ignorais qu’il fallait avoir bac+10 pour installer un jeu sur un PC.

    Et puis, n’est ce pas une erreur de vouloir dissocier l’aspect ludique de l’aspect pédagogique ?

    Quand les enfants rentreront sur le marché du travail, ne regretteront t’ils pas tout ce temps passé sur console ou ils n’auront strictement rien appris ?

    Et puis, pourquoi penser que d’apprendre autre chose que du jeu, ça serait forcément chiant ?

    Pourquoi décréter que tes enfants/amis/parents ne prendront pas plaisir à faire tout ce qu’un ordinateur permet et qu’une console ne permet pas ?



  • Avoir le plaisir de rebrancher ses anciennes consoles et être sûre que les jeux démarreront sans avoir à vérifier si ton super OSdelamortquituelinuxosXwindowsunifiéversion10extraplus est toujours capable de le faire démarrer.


    En général, les vieux jeux ne fonctionnent pas si mal. Parfois il faut juste installer un patch ou activer le mode compatibilité, mais ça reste simple et ne prends pas longtemps.

    Et l’avantage par rapport à une vieille console, c’est le plaisir de jouer à des vieux jeux qui auront presque toujours leurs graphismes améliorés par du matos récent qui permet de pousser “tout à fond”.

    Rejouer aux vieux jeux sur PC, c’est toujours un plaisir. Parce que l’expérience de jeu en est améliorée grâce au matos récent.


    Je continue ? …. <img data-src=" />


    Oh oui <img data-src=" />



Le 23/02/2013 à 17h 12

Une âme charitable pour m’expliquer l’intérêt des consoles. Parce que malgré mes efforts je n’ai jamais vraiment compris.

-Payer ses jeux et accessoires plus chers ?
-Acheter un bidule couteux en plus quand on possède déjà un ordinateur ?
-Jouer à des FPS avec un PAD ( <img data-src=" /> ) ?
-L’offrir à vos enfants pour être sûr qu’ils ne puissent jamais apprendre à programmer ?
-Remplir ses armoires de vieilles consoles pour continuer de profiter de ses anciens jeux ?

Ca ira ou je vous met aussi une planche à clous avec votre console ? <img data-src=" />


299 ou 449 dollars ? Les analystes s'opposent sur le prix de la PS4

Le 22/02/2013 à 17h 58






Mokona a écrit :

si mais des produit libre :) avec un design issue d’un referundum mondial mais qui puisse quand meme etre custo facilement pour la liberté …… les custo gratuites bien sur :)

et l’os issu du libre aussi avec les sources fournies à l’achat de la console.

le tout sans aucune securité antie copie, avec meme une galette en double pour chaque jeux au cas ou on l’abime….

et a se moment la on fera une ronde tout autout de la terre pour celebrer l’humanité et la liberté habillés dans des pagnes en embaumant le patchouli

<img data-src=" />



Tiens, ça ressemble à la définition d’un PC sous Linux.




Opera pourrait rendre son moteur de rendu Presto open source

Le 22/02/2013 à 17h 40






sky99 a écrit :

Salut!
J’ai quand même du mal à te suivre. Déja, machine virtuelle html?
Ensuite, HTML!=javascript.
J’entends ton propos sur la complémentarité de html+js+css.
Maintenant HTML c’est une norme “standalone”, point.

Un peu comme avec le modèle réseau OSI, d’autres standards se batissent
dessus, mais HTML reste HTML.
HTML fonctionne sans javascript, sans CSS et sans rien d’autre.
Certes, JS, c’est sympa et tout. Mais on peut très bien faire du HTML sans javascript. Pour ma part, je fais à peu près exclusivement mes développements web
en php qui sort du HTML+CSS. Hormis des cas spécifiques et rares (j’avais
fait des tests d’interfaces ludiques en ajax à une époque), je n’utilise pas javascript, et si je m’en sers, c’est que c’est une feature suplémentaire dont
la désactivation ne gènera rien.

D’autre part, n’oublions pas l’aspect DOCUMENT du html. ça reste un point
important, capital même. J’utilise fréquement du XML avec XSLT pour afficher
mes documents XML en HTML. Ben si j’étais obligé d’utiliser tout un tas de surcouches à chaque fois, ce serait chiant!

Bref, toutes ces histoires de fonctionalités suplémentaires, ça ne me pose pas de problème, tant qu’on maintient des modèles simples de base.

Quand à ton propos sur le fait que HTML est trop touffu, je ne le comprends pas.
HTML4, c’est quand même une spécification simple, efficace, claire et facilement apréhendable. Elle manque peut être de possibilités sémantiques, mais elle n’est
pas complexe.
Pour HTML5, je ne sais pas trop, déjà la norme n’est pas finie, ensuite je ne m’y suis pas vraiment intéresse. Les ajouts sont chouettes, mais pas nécessaires dans 99% des cas (je grossis peut être le trait ici).

Le point crucial dans HTML ça reste la possibilité d’avoir un document contenant
des données sémantiques, et dont la préntation reste séparée du contenu.
Ce à quoi on peut très bien parvenir avec HTML.

Donc à mon sens, tes remarques s’appliquent davantage a javascript, peut être à CSS, mais pas à HTML.



Quelques remarques.

HTML norme standalone ? Oui, bien sûr tant qu’on reste dans la théorie.

Mais dans la pratique, si tu veux faire quelque chose de vendable et au gout du jour, ça sera bien sûr une usine à gaz de HTML+CSS+Javascript.

HTML norme simple, claire et propre ? La encore, tant qu’on reste sur le papier ou dans les exemples scolaires, c’est le cas.

Maintenant, essaye d’en faire quelque chose de concret. Et la, non, ce n’est plus propre, ce n’est plus simple. Regarde le code de la très grande majorité des sites et les contorsions qui doivent être faites pour arriver à un exemple réel.

Toute la différence est entre la théorie et la pratique. En théorie c’est beau, c’est simple, c’est propre. En pratique, c’est complexe, tordu et pas propre.

Pour expliquer les choses simplement, la courbe puissance/complexité n’est pas bonne. Et c’est un problème lié aux paradigmes utilisés.

Pour te donner un autre exemple plus compréhensible, c’est le cas de XSLT. Ca parait simple, beau et puissant tant qu’il s’agit d’effectuer des transformations simples et basiques. Mais dès qu’il y a un peu de complexité (la plupart des cas réels), ça devient très pointu à utiliser. Dans la pratique la majorité des informaticiens préfèrent utiliser un programme de transformation associé à un parser XML. Parce qu’au final, c’est plus simple et plus puissant. Et que contrairement à XSLT, ça peut tout faire.

Maintenant, je comprends que ce que je dit n’est pas forcément simple à appréhender pour qui ne connaît pas les subtilités des différentes écoles de pensées du monde l’informatique.



Le 22/02/2013 à 00h 03






zefling a écrit :

<img data-src=" /> T’oublie que le HTML est aussi un format de documentation qui doit normalement fonctionner sans CSS, ni JS (j’ai eu une fois à faire ça pour un site).

C’est un peu comme dire que comme le PDF permettent la 3D, ne faut plus faire que du PDF 3D. Enfin, ça empêchera pas les applis full-canevas, sauf que niveau WAI ça doit être encore plus catastrophique qu’une appli full-flash.



Ce que tu dit est vrai, mais en même temps, c’est une minorité de pages : on ne peut quand même pas nier que la plupart des sites sur internet comportent aujourd’hui en majorité des pages avec des combinaisons assez complexes de css+javascript. Et même dans les documentations, les pages web simples sont de plus en plus rares.

Cela me rappel qu’on parle toujours des avantages des théories descriptives en prônant leur simplicité. Mais on omet de dire que les exemples de la vie réels sont toujours beaucoup plus complexes. Et c’est la ou le bat blesse.

HTML a toujours brillé dans les exemples simples et théoriques mais ne s’est jamais vraiment bien adapté à ce que voulaient faire les webmasters qui l’utilisaient de manière concrète. Et encore moins à ceux qui auraient voulu faire quelque chose un tant soit peu avancé.

Finalement, malgré les évolutions, certaines choses qui devraient être simple sont encore trop complexes à mettre en oeuvre.

Simplifier pour rendre plus puissant ? C’est précisément le genre de “reset” que la technologie OpenGL a fait.



Le 21/02/2013 à 21h 54






mimoza a écrit :

Tu ne fait pas la distinction entre le HTML et le Javascript … à partir de la il est difficile de discuter avec exactitude. <img data-src=" />
Zempa a parfaitement décrit la réalité <img data-src=" />



Pourquoi veux tu absolument dissocier des technologies qui sont totalement et étroitement associées en pratique ?

Peut t’on vraiment affirmer que HTML ne fait pas partie des éléments de l’environnement d’exécution sandboxé qu’est le navigateur web ?

Pour ma part, je pense au contraire qu’il faut considérer cela comme un tout parce que le logiciel ne tournera pas en pratique si il ne dispose pas de ce tout.