votre avatar

sr17

est avec nous depuis le 26 décembre 2005 ❤️

4322 commentaires

Le 21/02/2013 à 20h 37







vt-n a écrit :



Je pense qu’Internet en lui même évolue trop vite par rapport à la norme.

Je ne trouve pas la date à laquelle les travaux sur le HTML5 ont débutés, mais ça fait un moment que j’en entends parler. La finalisation n’est prévue que pour 2014. C’est bien trop long je trouve.



Au final, chacun y va de son implémentation.







Tout à fait.



Une grande partie des problèmes viens du fait que la norme as toujours été très en retard sur les besoins.



Mais si elle est perpétuellement en retard c’est justement parce qu’elle manque de puissance et de souplesse à la base et c’est pour cela qu’elle s’adapte si mal aux besoins nouveaux pour lesquels elle doit évoluer à chaque fois.



Le HTML est simplement basé sur des paradigmes inefficients.



Quand vous programmez en C++, vous n’avez pas besoin de modifier le langage pour faire un nouveau logiciel.


Le 21/02/2013 à 19h 44







zempa a écrit :



Il n’y a pas de machine virtuelle.

Les navigateurs ont un moteur de rendu qui va interprété le HTML et le CSS pour la mise en page, et un moteur javascript pour … le javascript.







pcinpact.com PC INpact



Le cœur d’exécution javascript est bien une machine virtuelle.



Après, je conçoit qu’on peut se battre sur la sémantique, mais cela n’aurait pas beaucoup d’intérêt.





Les normes “HTML” sont celles “étiquetées” W3C.

S’il est vrai que durant la période IE/Netscape, c”était le fouillis, car pour être honnête pas grand monde se souciait du W3C, aujourd’hui, on est loin de cette situation. Le ramdam autour du “HTML5” confirme cela.



La principale difficulté d’implémentation dans le “HTML”, ce sont les propriétés CSS. Il faut bien comprendre que les CSS sont avant tout un langage descriptif. Ce n’est pas un langage avec une suite d’instructions qui s’exécute les unes après les autres. Dans ce genre de cas, il est relativement simple de prédire ce qu’il va se passer : il suffit de suivre la suite d’instructions comme on suit une recette de cuisine.

Quand on définit une nouvelle propriété CSS, il faut s’assurer qu’elle n’entrera pas en conflit avec celles existantes. Et comme on est à l’échelle de la description, les effets de bords deviennent difficiles à anticiper. C’est pour cela qu’il est nécessaire d’implémenter une nouvelle spécification avant sa validation : c’est un exigence nécessaire pour sa mise en oeuvre.

Et cela n’est pas du à des normes mal ficelées mais à son ADN même : le descriptif. Et c’est d’ailleurs assez logique que les CSS soient descriptives vu que c’est précisément leur but : mettre en page du contenu HTML.





Attention, je n’ai jamais dit que la norme était mal écrite. J’ai dit que ce standard est trop touffu, pas assez puissant, pas assez synthétique, ce qui le rends quasiment impossible à implémenter.



Comme tu semble l’avoir compris, le problème viens en partie du fait que c’est une norme descriptive. C’est beau sur le papier, mais cela aboutit en pratique à des choses très complexes et finalement peu puissantes.



Le rapport complexité/puissance est très mauvais.



D’ou viens cette erreur ?



Cette vision descriptive nous viens des mathématiques. On a des données, on leur applique des formules.

Et vous savez quoi ? Cela plaît énormément aux gens qui ont été (dé)formés par les maths avant même d’apprendre l’informatique.



Mais c’est terriblement inefficace en pratique.



Les paradigmes efficaces en informatique sont plutôt ceux basés sur des programmes plutôt que sur des formules. Mais ça, cela plaît moins aux théoriciens.



Les “normes” édictées par le W3C posent problème depuis le départ. Et ce n’est pas forcément que de la faute des programmeurs qui font les navigateurs. Peut être serait t’il temps d’ouvrir les standard du web à la réflexion d’autres écoles de pensées.









Le 21/02/2013 à 19h 28







NotoRaptor a écrit :



De quelle “machine virtuelle” s’agit - il ?







pcinpact.com PC INpact





Et pourquoi on n’a pas ce “problème” d’améliorations propriétaires avec les spécifications de langages (comme le C ou le C++) ?





Ce problème existe aussi avec le C/C++ sur les fonctionnalités périphériques.



Mais le coeur du langage étant justement assez simple, synthétique et puissant, les programmeurs peuvent s’en contenter pour la très grande majorité des logiciels. Ceux qui sont avisés évitent de s’aventurer à utiliser ce qui n’est pas standard.



Le 21/02/2013 à 17h 54

Tout cela ne démontre qu’une seule chose : la norme HTML n’existe pas. Trop touffue, trop complexe donc trop difficile à implémenter. Trop de complexité pour trop peu de puissance, ce qui favorise la prolifération d’améliorations propriétaire.



Ce qui prévaut finalement comme toujours en pareil cas, c’est l’implémentation.



Le standard tends à devenir celui de l’implémentation la plus utilisée.



Au final, on peut toujours se réjouir en se disant qu’au moins cette fois, c’est un code libre que tout le monde peut utiliser et améliorer.



Mais si l’on veut vraiment sortir un jour de cette problématique, c’est la norme HTML et sa machine virtuelle qu’il faudra repenser. La rendre plus synthétique, plus puissante et plus simple.



Alors nous pourrons dire qu’il existera une véritable norme.


Le 21/02/2013 à 19h 19







RaYz a écrit :



Oui j’ai oublié le point le plus important même, en moyenne un jeu PC est 20€ moins cher qu’un jeu PS3 sans parler des promos steam etc… le calcul est vite fait…







Je le pense <img data-src=" />



D’autant que le plus souvent, les gens ont aussi besoin d’un vrai PC pour faire ce que la console ne peut pas faire. Cela revient donc à payer deux fois pour le matériel.



En ce qui me concerne, je préfère donc investir plus dans un excellent PC.







Le 21/02/2013 à 18h 09







RaYz a écrit :



“L’interet d’une console c’est surtout son prix, +/- 350€, on est bien loin du prix d’un pc de compet.”



C’est quoi l’intérêt si c’est pas moins cher ?



D’autant plus qu’aujourd’hui tout le monde à un PC qui se doit d’être un minimum potable donc au final t’as un PC moyen + une console. Au final je suis sur que c’est pas rentable.



L’avantage à mon avis c’est l’aspect convivial, pratique et adapté au salon.







Ce n’est pas tout à fait exact si on tient compte qu’une partie du prix de la console est payée dans le prix des jeux. Au final, on ignore donc combien on la paye.



Pour le savoir, il faudrait faire le calcul en tenant compte du prix d’achat d’un certain nombre de jeux.


Le 21/02/2013 à 17h 03



de prendre des mesures quand il y a une utilisation non-autorisée de sa marque





Décidément, je n’ai jamais vu une époque aussi navrante.



Les politiques ont donné beaucoup trop d’importance à la propriété intellectuelle ces dernières années.



On voit le résultat.

Le 21/02/2013 à 16h 54

Toujours pas de réponse à une question importante : Ce PC pourra t’il servir de vrai PC ou l’on pourra installer des applications courantes ou sera t’il au contraire complètement verrouillé pour ne servir que de console ?








Le 21/02/2013 à 02h 47

Bonne idée de la part de sony.



Mais la question que je me pose, c’est de savoir si ce PC sera complètement verrouillé ou au contraire, s’il sera ouvert à l’installation d’autres logiciels et/ou d’autres OS.



Parce que pour le coup, s’il était verrouillé, ça serait vraiment dommage de payer pour du matériel… qui ne pourrait pas servir à son plein potentiel. D’un point de vue éducatif, un PC étant très supérieur à une console.



Je n’ai pas trouvé l’information pour savoir si c’est la cas ou non. Peut être ais-je mal lu.



En tout cas, cela me parait être un point réellement essentiel. Donc si quelqu’un connaît cette info…


Le 20/02/2013 à 18h 46



Dans le cas présent, il aurait fallu que Mme X. place les fichiers en question dans un dossier intitulé « personnel » ou identifié comme tel.





Mais qu’est ce qui empêcherait le patron de changer le nom du dossier ?



Autre point : à partir du moment ou le patron (ou d’autres personnes comme l’administrateur) peut avoir accès à l’ordinateur en l’absence du salarié, qu’est ce qui prouve que le salarié est à l’origine des fichiers incriminés ?


Le 20/02/2013 à 04h 24







patos a écrit :



Réinventer la roue à chaque fois ne rime à rien: savoir se servir d’un progiciel de haut niveau et rapidement personnalisable est la clé de la productivité.



De plus, regarde ce que donne un logiciel uniquement fait par des informaticiens? il ne convient jamais. Il faut et être du métier et savoir se servir de l’outil, et ce type de progiciel répond parfaitement à cela. L’idéal est, comme dans mon cas: c’est moi qui fait les développements office en coordination avec les gens du terrain, qui mettent aussi les mains dans le cambouis: ils sont beaucoup moins exigeant et réalisent le temps que cela prends.



Après, tu peux toujours dire que ce sera plus mal fait qu’avec un vrai dev, mais un vrai dev 1) coutera pas pareil 2) ne fera jamais quelquechose d’ergnomique 3) ne fera jamais rien de souple 4) ne te fera jamais participer aux travaux.



Office a toujours été un PROgiciel, et non pas un logiciel.







Je suis totalement d’accord que les suites bureautiques sont de bons outils de productivité.



Mais il n’existe AUCUN outil sur cette terre qui soit capable de toute faire et encore moins de manière optimale. Comme les meilleurs outils, les suites bureautiques ont aussi des limites.



Une formule 1 est un véhicule fabuleux pour courir un grand prix. Mais ce n’est peut être pas l’outil adapté pour servir de camion de déménagement.



Je n’ai jamais compris cette obsession de vouloir à tout prix se passer des informaticiens pour régler des problèmes qui dépassent manifestement les compétences des utilisateurs lambda. Comme dans tout métier, la maîtrise apporte une valeur ajoutée. Et un informaticien d’expérience apporte un savoir faire précieux.



Bien sûr, comme tout employé, ils coûtent de l’argent. Mais ils en rapportent aussi beaucoup parce qu’une une informatique performante économise quantité d’heures de travail dans les entreprises. Une bonne organisation, ça vaut de l’or.



Pourquoi penser qu’ils ne vous écouteront pas, qu’ils concevront forcément des logiciels peu ergonomiques et en dépit du bon sens ? Tout cela ne sent t’il pas un peu trop le cliché ?



Bien sûr, je conçoit totalement qu’un utilisateur puisse être attiré par l’envie de faire cela lui même. Et personnellement, je n’ai rien contre.



Mais à ce moment la, qu’il consente à investir un minimum de son temps pour se former à l’utilisation des outils informatiques. Il apprendra ainsi quel outil doit être utilisé pour quel usage ainsi que les inconvénients à utiliser l’outil qui n’est pas adapté à une problématique.









Le 19/02/2013 à 17h 01







patos a écrit :



Il n’y a pas besoin de suggestions, c’est juste que c’est un travail de titan de refaire certaines choses, et les interactions Excel / Powerpivot / Access / SQL server sont extrêmement poussées et diablement efficaces.

Ou aussi les fonctions dans Word.

Ou aussi l’intégration Project / Outlook.



Je ne dis pas que LO est pourri, loin de là, mais il n’est pas aussi pro qu’Office, et ne le sera pas avant plusieurs années vu le taff que ça représente.







Est ce que les fonctionnalités “très avancées” des suites bureautique sont vraiment essentielles ?



Un informaticien te dira surtout que les logiciels d’entreprise écrits à coup de feuilles excel (et plus généralement de suite bureautique), c’est vraiment de la mauvaise informatique.



Parce qu’une suite bureautique n’est pas un bon outil pour écrire des logiciels dans une entreprise.



Pour cet usage, il y a des langages de programmation standardisés, des méthodes d’abstraction et des standards interopérables. Ce type d’outil est plus adapté parce qu’il facilite la maintenance (particulièrement à long terme) ainsi que l’interopérabilité (non dépendance à un produit donné d’un éditeur donné).



Quand les utilisateurs de base progressent, ils surexploitent la suite bureautique en finissant par pousser cet outil dans des retranchements dans lequel il n’est plus vraiment idéal ni adapté. Parce qu’ils ont progressé sur le tas, ils se pensent très bons. Mais en réalité, ils sont mauvais faute d’avoir reçu un véritable enseignement sérieux.



Le problème c’est que les gens ont été formés uniquement à office au lieu d’être vraiment formés à l’informatique.



La méconnaissance des autres outils informatique est un véritable problème en entreprise. Cela aboutit à ne pas utiliser le bon outil pour le bon usage.



La suite bureautique actuelle a évolué jusqu’à devenir une sorte de couteau suisse. Mais tout bricoleur averti vous expliquera que le couteau suisse ne sers qu’en dépannage. Et cela pour la simple et bonne raison qu’aucun couteau suisse ne vaut les vrais outils dédiés qu’il prétends remplacer.


Le 19/02/2013 à 16h 54







patos a écrit :



Il n’y a pas besoin de suggestions, c’est juste que c’est un travail de titan de refaire certaines choses, et les interactions Excel / Powerpivot / Access / SQL server sont extrêmement poussées et diablement efficaces.

Ou aussi les fonctions dans Word.

Ou aussi l’intégration Project / Outlook.



Je ne dis pas que LO est pourri, loin de là, mais il n’est pas aussi pro qu’Office, et ne le sera pas avant plusieurs années vu le taff que ça représente.







Un informaticien te dira surtout que les logiciels d’entreprise écrits à coup de suite bureautique, c’est vraiment de la mauvaise informatique.



Parce qu’une suite bureautique n’est pas l’outil idéal pour écrire des logiciels dans une entreprise.



Pour cet usage, il y a des langages de programmation standardisés, des méthodes d’abstraction et des standards interopérables. Ce type d’outil est plus adapté parce qu’il facilite la maintenance (particulièrement à long terme) ainsi que l’interopérabilité (non dépendance à un produit donné d’un éditeur donné).



Quand les utilisateurs de base progressent, ils surexploitent la suite bureautique en finissant par pousser cet outil dans des retranchements dans lequel il n’est plus vraiment idéal ni adapté. Parce qu’ils ont progressé sur le tas, ils se pensent très bons. Mais en réalité, ils sont mauvais faute d’avoir reçu un véritable enseignement en informatique.



Le problème c’est que les gens ont été formés uniquement à office au lieu d’être vraiment formés à l’informatique.



La méconnaissance des autres outils informatique est un véritable problème en entreprise. Cela aboutit à utiliser les outils logiciels de façon inadaptée.



La suite bureautique actuelle a évolué jusqu’à devenir une sorte de couteau suisse. Mais tout bricoleur averti vous expliquera que le couteau suisse ne sers qu’en dépannage. Et cela pour la simple et bonne raison qu’aucun couteau suisse ne vaut les vrais outils dédiés qu’il prétends remplacer.


Le 18/02/2013 à 19h 38







Naneday a écrit :



« Si votre ordinateur meurt, votre licence Office en fait autant »



LOL, vivement que cette boite coule !



Heureux de pirater leurs logiciel !







C’est une très grave erreur d’accepter de se mettre dans l’illégalité pour ça.



Si demain, il y a la moindre perquisition chez vous pour quelque motif que ce soit, les “ayants droits” vont carrément se sucrer sur votre dos.



Chaque copie pirate installée ou chaque CD/DVD pirate sera compté au double de sa valeur marchande. Et chez certains qui ont pris cette mauvaise habitude, ça peut vite atteindre… les économies de toute une vie <img data-src=" />



De plus, si un jour vous vous mettez à votre compte, les risques seront carrément multipliés à cause des contrôles réguliers. Sans compter les dénonciations entre concurrents (c’est hélas monnaie courante, demandez à des graphistes). Et une fois habitué à des logiciels, vous aurez le plus grand mal à en changer.



Aujourd’hui, il y a quantité logiciels libres qui sont vraiment très bons.



Prenez des logiciels libres ou achetez des logiciels propriétaires, mais surtout, ne piratez plus.



Le 19/02/2013 à 22h 20

En France les gens adorent taper sur les entreprises, particulièrement quand elles sont françaises.


Le 18/02/2013 à 17h 52







Deep_INpact a écrit :



Ils ont en partie raison, vu que l’on était très minoritaires à être “geek” à l’époque.

Quand j’étais au collège, sur environ 600 élèves, on était seulement 3 à avoir un micro-ordinateur…



Et c’était logique que l’on soit très peu nombreux car :




  • aucune chance de se faire offrir un objet “incompréhensible/ésotérique” pour l’époque

  • alors devoir économiser par soi-même une somme importante pour l’époque

  • comme ça ne se trouve pas dans les magasins autour de chez soi, devoir commander l’objet par correspondance, donc devoir échanger l’argent économisé sous forme d’un chèque alors que pour les parents l’objet est “incompréhensible/ésotérique”

  • son utilisation qui requière de skater la TV familiale (à l’époque il n’y en a qu’une par foyer)

  • avoir un réseau électrique sans défaut puisque sans disque dur et sans onduleur, une simple micro-coupure fait perdre immédiatement le code écrit

  • les moyens de sauvegarde de l’époque, soit merdique par cassette audio, soit cher par disquette







    La possession de micro ordinateurs à l’époque était bien plus importante que ce que tu indiques. A l’époque, on pouvait l’estimer à environs 5 ou 6 possesseurs de micro ordinateur par classe de 25 élèves.



    Il suffit d’ailleurs pour s’en convaincre de regarder les chiffres de vente des micro ordinateurs. Rien que pour Amstrad qui as vendu un million de CPC en France, ça faisait une machine pour 50 habitants. Et cela sans compter les autres marques qui se sont très bien vendues : C64, Atari, Thomson Mo & To, Apple II & Mac, Oric, Sinclair, etc…. Il y avait plus de 20 marques vendues à la FNAC.



    Après, c’est possible que tu ait grandi dans un coin particulièrement technofrileux ou isolé. Mais il est aussi possible que tu ne connaissait pas tout ceux qui avaient un micro ordinateur chez eux.



    A l’époque, c’était de la folie, il y avait des grandes piles de bouquins pour apprendre la programmation dans les supermarchés.



    Il était au contraire très simple pour un jeune de se le faire offrir par ses parents : la plupart des gens étaient conscients de l’importance pédagogique que pouvait avoir cet objet “ésotérique”. De plus, la communication sur les micro ordinateurs était à l’époque entièrement orientée vers l’aspect pédagogique.



    Enfin, les micro ordinateurs se trouvaient partout, même en province dans les petites villes. A l’époque, dans une petite ville de province de 50.000 habitants, il y avait une bonne dizaine de commerces ou l’on pouvait se procurer des micro ordinateurs. Cela allait de la petite boutique spécialisée au grand supermarché régional en passant par des magasins d’électroménagers dans les galeries marchandes.



    Après, si on compte ceux qui sont effectivement devenu accro à la programmation, c’est une fraction seulement du nombre de possesseurs. Cela ne tient pas à la nature ésotérique de l’objet, mais à la diversité des gouts et prédispositions personnelles. Nous avons tous pratiqué le football à l’école, mais pour autant, bien peu finissent par en faire une passion au point de s’inscrire en club.




Le 17/02/2013 à 16h 42







gavroche69 a écrit :



Oui ça fait bizarre mais ça permet de faire comprendre à plein de monde que l’informatique existait bien avant leur naissance et qu’il fallait être un peu plus doué pour s’en servir que pour aller sur facebook maintenant… <img data-src=" />

Tellement de gens se croient doués en informatique parce qu’ils ont un compte sur tous les réseaux sociaux de la planète alors qu’ils n’ont aucune idée de comment ça fonctionne… <img data-src=" />







Et oui, la plupart de ceux qui se croient doués en informatique sont juste des utilisateurs qui connaissent seulement l’utilisation logiciels. Mais ils ne comprennent strictement rien au fonctionnement de la machine ni des logiciels.



Donc ils ne savent rien. Ne comprennent rien à la “mécanique” interne. Même au bout de 10 ans d’utilisation, la plupart ne savent rien de rien. Cette informatique est une perte de temps.



Il y a 30 ans, il suffisait de quelques semaines d’apprentissage sur un ordinateur de l’époque pour avoir tout compris.



Les ordinateurs modernes rendent les gens idiots en prétendant leur faciliter la vie. En réalité, la plupart des gens galèrent faute de comprendre comment ça marche.



Ce qui m’amuse, c’est qu’on passe des années à apprendre les mathématiques sur les bancs de l’école, mais qu’on ne consacre même pas quelques semaines à apprendre la très utile programmation qui permet de s’en servir très efficacement.


Le 17/02/2013 à 02h 28







Reznor26 a écrit :



Petite vidéo surréaliste pour ceux qui ont du temps à perdre :



Présentation du Thomson MO5 avec Richard Berry



<img data-src=" />







Bah, c’était juste l’époque ou les marketeux n’avaient pas encore décrété que le peuple était beaucoup trop con pour programmer.



Beaucoup de gens ont appris des choses utiles avec leur ordinateur à cette époque.



Aujourd’hui, les gens ont peur de la programmation alors qu’ils n’ont aucune idée de ce que c’est.



Le 17/02/2013 à 19h 54







Commentaire_supprime a écrit :



Au passage, je viens de récupérer une mobo avec un Athlon XP3000+ pour en faire un NAS avec des pièces de rechange. Merci NAS4free de ne demander que 512 mo de RAM pour fonctionner !







Bonne idée. C’est une excellente façon d’utiliser les anciennes carte mères.



Par contre, je doit te prévenir que la génération de l’Athlon XP et du Pentium 4, c’est malheureusement la grande époque du scandale des problèmes de condos. Et les carte mères pour Athlon étaient le plus souvent positionnées dans le segment bas de gamme, donc trop souvent équipés de condos “budget”.



Donc si je traduit en langage clair, dans un nas qui reste par définition longtemps allumé, ça peut ne tenir que quelques mois avant de voir les condensateurs gonfler et devenir instable(Testé…). Parfois, ça lache aussi sans gonfler. Quelques rares carte mères furent néanmoins équipées d’excellents condos de marque Rubycon. Mais c’était très rare.



Mais bon, au pire ça te tiendra quand même un certain temps. Après tu pourra toujours trouver en occaz une carte mère pour core 2 qui ont souvent des condos à électrolyte solide : c’est nettement plus durable.



Sinon, à pas cher (70-80€ + 1 barette de ram), tu as les petites carte mères ITX avec de l’Atom. Seul défaut, le nombre de prise SATA est limité. Mais on peut parfois rajouter un contrôleur.



Le 17/02/2013 à 16h 36







adrieng a écrit :



Tu n’est pas le seul…Comme on pouvait être fautif sans acheter !



Aujourd’hui il est absolument clair que la croissance c’est finit, qu’il est nécessaire de faire gaffe aux ressources naturelles… et ça passe par produire et vendre moins…



Dans ce contexte, perso je trouve assez triste que pciNpact utilise un tel vocabulaire de propagande. En tant que citoyen on devrait se réjouir : une baisse conséquente desvente veux dire moins de pression sur l’énvironnement, moins de sous (donc de pouvoir) pour les multinationales, moins d’esclaves chinois, etc.







Le problème, c’est que ça ne se fera pas tout seul.



Tant qu’on sera dans un ordre mondial basé sur la compétition au lieu de la coopération, ça ne changera pas.



Tant que la France ne se retirera pas dans une certaine mesure de cette compétition inepte, nous en subirons les conséquences.



En attendant il faut bien souligner l’ineptie de tout ces appareils que l’on nous oblige à remplacer pour… avoir les dernières nouveautés logicielles. Alors qu’il suffirait qu’on puisse les mettre à jour.


Le 17/02/2013 à 01h 40







Lafisk a écrit :



J’en ai eu hein… et pour en avoir un correct, il faut mettre un peu plus de 200€ quand même.







Oui, on va dire que pour 250€ tu as un modèle correct.



Après, je suis d’accord que c’est à nuancer parce qu’avec seulement 1Go de RAM, c’est trop limité pour Windows 7 ou 8.



Mais avec Ubuntu, ça Roxxe.





Et pour info, mon Windows tournait très bien dessus, parce que bon le linux que j’ai pu voir sur certaines des premières machines, laisse moi te dire qu’il faisait pale figure quand même …





Je ne parlais pas de Linux d’origine du premier EeePC mais d’une distribution Ubuntu standard que j’ai installé. Et ça tourne nettement mieux que le Windows XP d’origine.

Et pour avoir installé ubuntu sur un modèle récent, je peux te dire que la différence est encore plus grande avec Windows 7 starter.





Relis mon message, je parle des tablettes x86, vas-y dis moi ce que tu ne peux faire tourner sur celle-ci, vu que la config est la même voir meilleure que pour un netbook ?





A condition que la tablette soit munie d’un bios/uefi standard et non verrouillé, je suis d’accord qu’on parle de deux configs qui sont potentiellement très proches. Cela étant dit, la forme netbook est tout de même plus confortable pour utiliser des vrais logiciels par la présence d’un clavier et d’un touchpad. Mais tu me dira qu’on peut aussi en utiliser avec des tablettes et qu’au final ça dépends de l’utilisation. Il y a aussi l’écran tactile de la tablette qui est un avantage dans certains usages.

Parlons aussi de certaines différences entre les deux : Généralement, la tablette utilise plutôt de la mémoire flash et le netbook un disque dur. Et peut être un peu plus de batteries pour les netbook.





surtout qu’elles sont équipée des derniers atoms, qui n’ont plus rien à voir avec les premières générations de proc atom anémique qui laggaient des qu’on voulait faire une opération basique, certe c’est pas un iX non plus mais ça fait tourner Windows 8 à la perfection ;)





Tablettes et netbook actuels utilisent grosso modo les mêmes atom.



Et puis, le processeur atom en lui même n’a que très peu évolué depuis ses débuts. Les gains de performances entre les modèles ne sont pas énormes. Le plus gros de l’évolution de l’atom s’est principalement focalisé sur le northbridge et la partie graphique ainsi que sur la consommation.



http://www.cnetfrance.fr/news/amd-e-450-intel-n2800-premieres-mesures-de-perform…



Certes, cela peut avoir une importance avec Windows et/ou les jeux qui demandent de la puissance en 3D. Mais il y a aussi des inconvénients parce que les derniers atom utilisent un processeur graphique qui n’est pas d’origine Intel. D’ou quelques soucis avec Linux.



Pour le reste, la seule véritable évolution, c’est qu’on trouve plus souvent des modèles dual cores (même en entrée de gamme) alors que les premiers netbooks étaient équipés de simple coeurs.



Quand aux lags dont tu parles, c’est plutôt un problème de manque de RAM qui était trop limitée pour Windows sur les netbooks les plus modestes, mais aussi dans beaucoup de cas de “crapwares” préinstallés qu’une machine aussi modeste supporte logiquement très mal.



C’est justement ce qu’on gagne à installer Ubuntu sur ces machines parce que c’est moins gourmand.



Quand a Windows 8, c’est parfaitement possible de le faire tourner sur un netbook ou tablette à condition que la quantité de RAM y soit adaptée, c’est à dire au moins 2 gig de RAM. Et bien entendu, du bon vouloir du fabriquant à diminuer la quantité de “machins” préinstallés.





Le 16/02/2013 à 19h 59







Lafisk a écrit :



…à 200e un netbook est franchement pas terrible, de plus les tablettes atom ne sont pas trop chère, enfin pas toutes, et sont du coup plus polyvalente.







Pas d’accord du tout.



La plupart de ces netbooks ont une bien meilleure qualité que tu ne l’imagine et sont plutôt agréables d’emploi. Les écrans et claviers sont généralement de qualité très correcte, les machines très légères et pratiques avec une excellente autonomie. La plupart sont plutôt robustes quoi qu’on en dise.



Personnellement je suis très satisfait du mien (un Asus 1001px) que j’ai depuis quelques années et que j’ai payé la somme misérable de 250€. Avec le recul, je peux dire que c’était vraiment un bon achat.



Bien sûr, il faut avoir l’intelligence de virer le Windows qui est installé et qui est vraiment beaucoup trop lourd. Particulièrement quand c’est un Windows 7 préinstallé avec une armée de crapwares. Un bon petit Linux avec le bureau léger qui va bien et c’est réglé. A ça roule pour des années avec l’immense logithèque d’Ubuntu…



Après, tu affirme que la tablette est plus polyvalente. Réalises tu seulement tout ce qui manque aux tablettes en matière de VRAIS logiciels sérieux ? Des logiciels qui tournent parfaitement sur un netbook. Entre une tablette et un netbook, la logithèque n’a rien avoir et donc par conséquent, ce qu’on peut en faire n’est pas comparable.



Bien sûr, il est vrai que tout dépends de ton usage. Pour regarder des vidéo dans ton lit, une tablette sera plus pratique. Quoi qu’en ce qui me concerne je préfère le smartphone parce que plus petit et plus léger.


Le 16/02/2013 à 19h 35







Commentaire_supprime a écrit :



Sinon, un VRAI ordinateur de poche, comme tu le décris, tu peux me citer un exemple de machine en vente qui correspond à ce que tu me décris ? Même en kit, je suis potentiellement preneur.







Bah, le raspberry pi par exemple ou d’autres cartes du même type (Beaglebone).



Exemple de projet :pcinpact.com PC INpact



Bien sûr, c’est en kit, c’est peu de le dire. Faut rajouter un boitier, un régulateur d’alim, un pack de batteries NIMH LR06, un mini clavier souris, un petit écran. Mais tout cela se trouve plutôt facilement (par exemple sur le site adafruit.



Mais le résultat vaut le coup : une vraie debian avec un bureau sous LXDE avec tous les logiciels qu’il faut. Et pas besoin de passer une semaine à le configurer, en 2 minutes, c’est fait. Et tu peux avoir plusieurs OS rien qu’en changeant de SD card.



Sinon, pour avoir un écran de meilleure qualité et se simplifier la vie (pas besoin de clavier ni d’écran, boitier simplifié), tu peux aussi utiliser ton Smartphone avec un client VNC (androidVNC sur android). Faudra prévoir dans ce cas un dongle USB wifi.



Résultat : un vrai ordinateur qui peut faire de la bureautique, surfer sur le web, retoucher des photos et pleins d’autres choses intéressantes. Bien sûr, la puissance est limitée, mais l’environnement adapté rends l’utilisation tout à fait possible.



Le 16/02/2013 à 02h 12







AxelDG a écrit :



Attention, ne pas oublier qu’en informatique y’a des dizaines voire des centaines de domaines de connaissances insondables…



Tu vois, je suis plus que passionné d’informatique, j’adore les jeux vidéos, je suis développeur et je pourrais te raconter plein d’autres choses passionnantes de ma vie sans que tu n’en ai rien à faire…



J’ai récemment eu des collègues qui m’ont présenté cette petite prouesse technologique qu’est le Raspberry et pourtant ça m’a franchement laissé complétement indifférent (même si je reconnais la prouesse technologique).



Désolé mais un PC qui peut à peine installer un Linux, qui a une gueule de carte son, moi ça me fait pas trop rêver… <img data-src=" />







Je suis d’accord.



Mais quel que soit sa passion ou son métier, personne ne connaît tout. Et c’est normal.



Ce qui est important, c’est surtout que celui qui VEUT découvrir quelque chose, augmenter ses connaissances, aller plus loin que la moyenne, que celui la puisse le faire. Et ce, quel que soit son age, sa condition ou son métier.



Quelque part, quand on achète a son enfant un ordinateur au lieu d’une console et des jeux de construction au lieu de jouets “tout faits”, on lui donne la chance d’aller plus loin que la moyenne et de développer sa créativité s’il le désire (et si il a un talent pour cela).



Proposer des produits qui limitent au départ ce qu’on peut en faire a ce qui est supposé par les marketeux être les centres d’intérêts de la masse, c’est indéniablement imposer un nivellement par le bas de l’évolution possible de ceux qui s’en serviront.



En informatique, on ne peut pas ignorer qu’un certain nombre d’informaticiens talentueux le sont devenus parce qu’ils ont pris goût à la programmation très jeune sur leur micro ordinateur.



Que seraient devenus ces gens si au lieu d’avoir leur micro ordinateur, ils avaient eu une console ou une tablette ou tout autre produit bridé ?



Mon humble avis, c’est que si vous donnez aux gens des produits limités et ils n’évolueront jamais et resteront eux aussi limités.









Le 16/02/2013 à 01h 51







labdam a écrit :



de toute façon ce sont les “power users” ou “geeks” que nous sommes pour beaucoup ici défrichent et débuggent pour que le grand public puissent se servir simplement des technos demain ;)



Et la jointure entre le monde PC que l’on connait aujourd’hui avec ses possibilités ne devraient plus trop tarder à rejoindre les smartphones / tablettes (l’inverse est vrai aussi d’ailleurs en terme de performances). Reste alors à ce que les logiciels suivent…







Tout à fait.



Et le problème, c’est effectivement de savoir quand ils se décideront à proposer des produits plus ouverts sur le plan logiciel, c’est à dire qui ne se limitent pas juste aux usages prédéterminés par les fabricants qui sont sensés coller seulement aux besoins présupposés du très grand public. C’est à dire des besoins simplistes et peu avancés.



Car de tels produits ne trouveront jamais grâce aux yeux des passionnés qui par définition sont ceux qui inventent de nouveaux usages, qu’ils soient simples ou avancés.



Jamais je n’offrirait de tablette à mes enfants : ce serait niveler par le bas toute véléité qu’ils pourraient avoir de découvrir plus que le commun des mortels. Et même si nous savons que seule une minorité le désire, ce qui est important, c’est que celui qui le veut le puisse.



Quelque part, le succès le succès du Raspberry pi prouve que le passionné préfère un produit matériellement dépassé mais ouvert et bidouillable à un produit performant mais bridé.



Au final, ce qui est amusant, c’est qu’il n’y ait pas vraiment de différence entre le SOC du raspberry pi et ce qu’on trouve courrament dans une tablette d’entrée de gamme. Mais c’est l’ouverture et l’accompagnement logiciel (ainsi que quelques features comme les GPIO) qui changent tout.



Messieurs les fabricants, pour nous les passionnés, faites des produits qui nous conviennent.



Le 16/02/2013 à 01h 30







ldesnogu a écrit :



Tu ne fais que parler des passionnes, mais que fais-tu des VRAIS passionnes ?







C’est effectivement une bonne question. Mais qu’est ce qu’un vrai passionné ?



Pour moi, c’est quelqu’un qui aime explorer toutes les possibilités de son matériel et toutes les manières de l’utiliser.



Après, il y a tous les niveaux, depuis le jeune débutant dont la curiosité le pousse à chercher plus loin jusqu’au cinglé du fer a souder.



Mais quel que soit leur niveau, ils ont tous un point commun : que peuvent t’il faire avec des appareils dont les usages sont complètement prédéterminés à l’avance par le fabricant ? Des appareils vérouillés, bloqués, bridés dans tous les sens. Et qui plus est, conçus uniquement pour coller aux besoins simplistes des pékins de base ?



Les produits qui intéressent les passionnés, ce sont des produits ouverts et évolutifs, bidouillables et adaptables. Tout le contraire des smartphones et tablettes proposées actuellement.



D’ailleurs, le succès du Raspberry pi prouve que le passionné préfère un produit matériellement dépassé mais ouvert et bidouillable à un produit performant mais bridé.


Le 15/02/2013 à 22h 12







labdam a écrit :



Tu sais que Miracast, l’affichage sans fil, est en train d’arriver là maintenant sur les smartphones haut de gammes (Nexus 4, Galaxy SIII, etc.) et sur certaines tablettes (Nexus 10) ?



et qu’un adaptateur à brancher sur son téléviseur, ça va bientôt coûter 60 €…. le seul truc que n’a pas encore une tablette (sous android du moins) c’est la flexibilité que l’on peut avoir sur PC avec la variété de codec et autres formats exotiques <img data-src=" />







Tout à fait.



Et tout cela sera sûrement d’un énorme intéret en terme d’usage et de possibilités. Et au final renforcera l’intéret même du PC que l’on a chez soi. Donc au final, ceux qui parlent d’usage complémentaire ont raison.



Mais comme beaucoup de passionnés, ce que je reproche aux tablettes, c’est de limiter l’informatique à des usages prévus et uniquement des usages prévus.



Quelque part, il manque aussi quelque chose à ce développement : le smartphone ou la tablette en tant qu’ordinateur mobile non limité et plus large dans les usages que ce que ce que permettent les produits grand publics d’aujourd’hui qui sont complètement bridés.



Et c’est ce qui m’intéresse aujourd’hui en tant que passionné.



Je me rends compte qu’utiliser un vrai logiciel tel que libreoffice, gimp ou audacity en dépannage sur mon smartphone quand on est loin de tout c’est non seulement possible, utile, mais aussi très intéressant.



Et je pense qu’a terme, contrairement à ce que beaucoup de gens disent, ça finira par intéresser aussi d’autres gens que les passionnés. Parce que ce que les passionnés font aujourd’hui, le grand public voudra le faire demain.



Mais en posant d’emblée les limites à ce que le grand public serait sensé vouloir faire, les fabricants de smartphones et tablettes tuent par avance dans l’oeuf toute évolution des concepts.



Les passionnés savent que le progrès et l’évolution ne passera pas par la…


Le 15/02/2013 à 22h 02







labdam a écrit :



Faut voir ce qui se vend pour de vrai en terme de volume. Et c’est principalement les ipad (mini), nexus 7, Kindle Fire, les tablettes de 10” chez Samsung et toutes les autres à moins de 100 €…



Les hybrides y’en pas tant que ça ou alors vendues relativement chères… la situation va p’tet changer, mais le tout tactile les gens s’y font. suffit de voir ce qu’il se passe sur les smartphones… le besoin de clavier physique tend à disparaître au dépend d’écrans plus grands et tactiles…







Les gens s’y font tant qu’il ont juste 3 lignes de texte à taper.



Mais dès qu’un étudiant devra taper une thèse, il découvrira que c’est… la galère et que cette belle tablette est décidément un outil fort limité.



Les gens achètent ce qu’on leur vends. Mais au final, c’est quand ils en découvriront les limites que le marketing trouvera le moyen de leur vanter… d’acheter un truc mieux.



Ca me rappelle d’ailleurs les claviers plats des MO5/TO7. C’est peut être parce qu’on a reussi à en fourguer aux gens qu’au fond, ils ont complètement disparu par la suite : plus personne ne voulait acheter ça…



Le 15/02/2013 à 21h 50







labdam a écrit :



Marrant.



J’ai eu un 10” et maintenant je me satisfait pleinement d’une 7”… même à la maison. La commodité de pouvoir l’employer qu’avec une seule main (et un poids bien plus léger) me satisfait plus que le confort d’avoir un grand écran pour mater des vidéos… <img data-src=" />



Maintenant le HTPC ici est de moins en mois utilisé pour une simple raison, je fais de l’affichage sans fil depuis mon laptop (WiDi) et j’attend que ce soit vraiment dispo et fonctionnel sur tablette







Encore un usage qui montre tout l’intéret de la tablette en tant que terminal mais aussi le fait que la fin du PC n’est pas pour demain.


Le 15/02/2013 à 21h 42







Commentaire_supprime a écrit :



Globalement, +1.



Et je suis tellement passé aux tablettes que j’en ai deux <img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" />



Utilisations ? La 10 pouces chez moi, pour regarder des vidéos dans mon lit, le soir. La 7 pouces, associée à un smartphone en tethering et un clavier bluetooth, c’est l’ordinateur de (grande) poche dont j’ai toujours rêvé depuis que je suis gamin, celui que j’ai tout le temps sur moi, et dont je peux me servir n’importe où. Ce que mon notebook n’a jamais pu faire car trop gros…



J’ai toujours des PC fixes, une station de travail avec tout ce qu’il faut, irremplaçable (surtout le clavier mécanique pour écrire), et un HTPC qui sert pour la vidéo, l’audio et les photos. Et va peut-être évoluer pour être remplacé par un micro format ITX, les NAS rendant la partie stockage interne de l’engin moins intéressante.



Tout est affaire d’usages, et d’optimisation du choix de la machine en fonction du contexte et de l’utilisation attendue.







Globalement, ce que tu dit est assez intéressant sur l’usage qui est fait d’une tablette : tout son intéret tient juste dans sa portabilité.



Mais au fond, ce n’est qu’une sorte de terminal qui permet de faire d’une manière plus “portable” une toute petite partie de ce qu’on fait déjà depuis longtemps sur son PC.



Mais regarder des vidéo sur un smartphone ou un PDA le soir, les passionnés le faisaient déjà il y a plus de 10 ans. Mais à l’époque on disait que c’était un truc pour les geeks qui n’intéressait pas le grand public.



Donc c’est certes très intéressant pour vous, mais en terme d’information, tout ce qu’offrent les tablettes, c’est vu et revu.



Les passionnés d’informatique, eux sont déjà bien plus loin dans l’usage.



Pour dire les choses clairement, ils expérimentent déjà ce que permet d’avoir un VRAI ordinateur non bridé dans sa poche et non un simple terminal limité.



Gageons qu’un jour vous trouverez cela aussi très passionnant.



Mais ce qui pourrait être dommage pour vous, c’est d’attendre 10 ou 15 ans pour le découvrir.



C’est pourquoi j’attends beaucoup de la presse : qu’elle fasse découvrir ce que les gens ignorent et ne connaissent pas.















Le 15/02/2013 à 21h 03







Mangavore a écrit :



@sr17 Je passerais le passage sur les consoles même si au final c’est une question de goût un joueur préfèrera la console pour ses exclus et non pour la puissance Mais bref le passage asser ironique dans ton com concerne les tablettes je n’en ai pas moi même et on a le droit d’émettre une critique mais toi par contre tu es le symbole même de la régression et du conservatisme (tout l’opposé du monde l’informatique et électronique dont tu te vante ) heureusement que les grands penseur de l’histoire n’ont pas eu cette façon de voir les choses sinon on en serait encore à la préhistoire







C’est facile de sortir ce genre d’argument méprisant : Pour ton information saches que que j’ai été un des premier à posséder un smartphone en France et que les gadgets technologiques avec lesquels je joue ne se trouvent pas dans un supermarché.



Mais c’est toujours très tentant de traiter de rétrograde quelqu’un dont les propos vont à l’encontre de la “tendance”.



Mais il ne faut pas confondre le simple acheteur de gadgets tendance et le vrai passionné d’informatique.



La mode n’a jamais été très représentative de l’évolution à long terme.



Il est d’ailleurs très simple d’en comprendre la raison : les modes sont dans beaucoup de cas des pures création du monde marketing qui flaire le bon coup financier.



Tout le reste n’est qu’affaire de communication et d’argent comme par exemple de payer hollywood pour mettre certains gadgets dans les mains de tous les rôles de geek dans les films et série TV.



En ce qui concerne les tablettes et consoles, il ne faut pas perdre de vue que conceptuellement, ce sont juste des “cut down” réalisés à partir des technologies de l’informatique générale.



Ces cut down n’ont pour seul objectif que de mieux vendre au plus grand nombre des technologies issues des ordinateurs personnel sous une forme plus simple.



Mais qui dit forme simplifié dit aussi que ce sont déjà des techno dépassées pour le vrai passionné.



Quand bien même une tablette peut être parfois utile au passionné d’informatique, celle ci ne lui apprends rien. Ce ne sont que des logiciels simplifiés dans un environnement édulcoré.



Rien à apprendre de nouveau. Aucun usage avancé puisque par définition ces produits visent un usage simple et basique de l’informatique.



Donc même si le passionné utilise la tablette, ses centres d’intérets sont bien ailleurs.



Et c’est la ou le bât blesse : Quel intéret pour les passionnés d’informatique de lire des articles sur des produits destinés à madame michu ?



Le 15/02/2013 à 20h 12







_Nada a écrit :



+1



Dire que les kits de maj reviennent à moins cher qu’un PC équivalent monté relève de la haute voltige.



Après, certes, un kit permet de choisir ce qu’on met et éventuellement d’avoir un matos plus évolutif/contrôlable … mais dire que c’est moins cher. Bof !



<img data-src=" />







En même temps, le matos n’est pas comparable.



Dans les PC tout montés, la plupart du temps les alims font juste la puissance nécéssaire. Et les cartes mères sont épurés de tout composant superflu. Certains OEM vont jusqu’a enlever les connecteurs supplémentaire pour la ram…



Donc ce n’est pas tout a fait comparable avec le matos disponible sur le marché retail.



Donc attention a ne pas comparer un composant à 100€ avec un autre qui n’en vaut que 30.


Le 15/02/2013 à 19h 15







labdam a écrit :



Une tablette ne remplace pas, elle complète







Tout à fait, c’est un excellent périphérique de lecture. Et c’est très difficile de traîner son gros PC pour lire dans les chiottes ou sur le canapé.



Mais voila, c’est un usage annexe, utilitaire comme une sorte de “minitel internet”. C’est un objet utile mais peu passionnant en soi.



Bref, çà deviendra bientôt (en fait c’est déjà le cas) un appareil totalement dépassionné, low cost et de consommation courante comme un frigo ou un grille pain.



Et en tant que tel, c’est un produit qui est déjà sorti du champ de l’intérêt des passionnés. Même si on est potentiellement acheteurs, on en connait tout. Et la seule chose qui importera, c’est le prix.





et pour un grand nombre…d’utilisateurs, elle suffit.





Très certainement. Mais c’est tout le problème pour vous : Ces gens ne sont pas des passionnés d’informatique et ne viendront jamais lire PCinpact tous les matins.



Le nombre n’est pas toujours synonyme de qualité. Il y a beaucoup de joueurs consoles, mais la plupart des passionnées de jeux vidéo et ceux qui s’investissent dans les communautés de joueurs du web sont bel et bien des joueurs PC.





Et beaucoup de technophiles y sont passés ces derniers temps…





J’ai le sentiment qu’en ce moment, le monde des technophile se passionne surtout pour cela : Raspberry pi



La encore, tu me dira que ce n’est pas la majorité, mais ces gens sont aussi les plus fidèles lecteurs de la presse en ligne et les plus grands consommateurs de produits technologiques.



Ce sont, ce qu’on pourrait nommer des prescripteurs de première ligne. Ce sont eux qui font naitre les produits que le grand public voudra dans quelques années.



A l’inverse, je connaît peu de technophiles qui parlent beaucoup des tablettes pour la raison qu’on en a très vite fait le tour parce que ces produits sont très limités.





Si je prends l’équipe de PCi qui n’est pas vraiment du genre madame michu, je crois que tout le monde est passé à la tablette cette année et / ou l’année dernière.





Cela me parait tout à fait normal dans la mesure ou la presse se doit d’être toujours à la pointe de la découverte des nouveaux usages. Personnellement, je fait cela aussi avec un certain nombre de gadgets technologiques rien que pour découvrir tout ce qu’on peut en faire.



Mais attention à ne pas surestimer l’intéret pour les articles sur ce sujet. Ce n’est pas parce que la plupart des technophiles possèdent un smartphone qu’ils se passionnent forcément pour les articles sur le sujet.



Je dit cela parce qu’a force de parler des tablettes, vous négligez le PC et je vais de plus en plus lire sur d’autres sites anglo saxons qui sont eux restés entièrement sur ce créneau.



Attention, ce n’est pas parce que le grand public achète des tablettes qu’il viendra vous lire…





Les joueurs sur PC c’est comme les PC montés soit-même (à peu de choses de près) c’est de plus en plus minoritaire ;)





Cela fait 30 ans qu’on entends ce discours. A l’époque, tout le monde croyait que les consoles allaient tuer le jeu sur ordinateur personnel et je ne compte pas les journalistes qui l’ont écrit. Et cela n’est jamais arrivé.



Sais tu pourquoi cela n’arrivera jamais ?



Parce que ceux qui créent les vraies nouveautés sont justement la petite minorité qui passe 99% de son temps devant des personnal computers.



Et aussi par définition, le personnal computer sera toujours la plateforme la plus haut de gamme. Madame michu ne mettra jamais dans sa tablette le prix qu’un vrai passionné met dans son PC.





Pour la partie logicielle qui bride l’usage, je suis assez d’accord avec toi, même si la réponse de Microsoft dans le domaine, me fait dire qu’il vaut mieux un OS dédié qu’un truc qui voudrait s’adapter aux différents usages…





Mais Microsoft n’a peut être pas la meilleure réponse au problème. Ou plutôt, n’est t’il pas normal que les premiers produits soient encore imparfaits ?



Quelque part, certains pensent qu’il serait ridicule de pouvoir utiliser de vrais logiciels sur son smartphone.



Mais pour avoir testé libre office ou gimp sur mon smartphone par l’intermédiare d’un VNC vers un raspberry pi, je peux te dire que ça n’est pas si ridicule que ça. C’est finalement assez utilisable et potentiellement utile en dépannage.







Le 15/02/2013 à 18h 17







mightmagic a écrit :



Il ne faut pas oublier la crise qui fait passer l’achat d’un pc ou d’un nouveau Pc pour un achat pas important. Les smartphones ont de plus rendu obsolètes les pcs pour pas mal de gens qui s’en servaient que pour surfer.

Les joueurs n’ont pas trop besoin de changer de pc vu la stagnation des besoins à cause des consoles.



Il y a pleins d’éléments d’autres que les tablettes pour dire que la baisse était logique et va durer au moins tant que la crise ne sera pas finit.







Les joueurs PC et console, c’est pas les mêmes.



Ca fait 30 ans qu’on raconte que les consoles allaient tuer le jeu sur ordinateur personnel.



Et 30 ans après, l’ordinateur personnel est toujours techniquement la meilleure plateforme de jeu et la seule vraiment prisée par les véritables passionnés de jeux vidéo.



Le 15/02/2013 à 17h 58

Au passage, je vois que PC inpact fait de plus en plus d’articles sur les tablettes et smartphones.



Mais attention à ne pas délaisser trop le PC : Parce que le vrai passionné d’informatique ne remplacera JAMAIS son PC par une tablette.



Dit autrement, les tablettes, on s’en tamponne le coquillard…



Pour ma part, je n’achèterais JAMAIS une tablette qui vaut le prix d’un PC. Il n’y a guère que pour lire dans les chiottes que ça pourrait m’intéresser. Mais je n’y mettrait jamais plus de 100€ pour ces périphériques très très limités techniquement parlant, mais surtout en terme de bridage du logiciel.



Attention aussi à ne pas croire qu’une baisse de quelques % signifierait que le PC soit mort. Parce qu’une tablette et un véritable ordinateur ne couvrent pas les mêmes usages. Il y a un moment ou la baisse va se stabiliser.



C’est pour l’instant les gens les moins technophiles qui font le succès des tablettes. Ce n’est donc pas forcément eux ceux qui iront lire PCinpact tous les matin. Donc pensez à qui sont vos vrais lecteurs.



Enfin, pourquoi ne pas rechercher d’autres causes à cette baisse du marché PC comme l’immobilisme d’intel suite au manque de concurrence sur ce secteur.



Les processeurs octo cores tardent à arriver, intel continuant d’essayer de faire de l’argent depuis trop longtemps sur des dual et des quad. Il s’ensuit un manque d’intérêt à renouveler les machines.



Enfin, on oublie que le vrai moteur de la croissance du monde de l’informatique, c’est le jeu vidéo. Est ce que certains sont naifs au point de croire qu’une tablette pourra remplacer un jour un gros PC pour les usages ludiques des vrais passionnés de jeux ?


Le 17/02/2013 à 16h 32







luxian a écrit :



Non sans blaque ? Ma machine qui était quasi au top à son achat sera dépassée ? C’est pô juste <img data-src=" />



C’est vrai que les nouveautés tardent à se manifester.

Je vois mal les gens tactiler leur écran de 21” chez eux alors qu’ils auront une crèpe au chocolat dans la main.

La 3D est encore un peu chère et surtout requière des lunettes … donc peu pratique. On n’a pas encore d’écran 3D “sans lunette” pour faire la révolution et avoir enfin un besoin d’OS 3D … ou tu peux te promener entre les piles de fichiers comme si tu étais dans un magasin de livre … hors c’est ça qui fera manger les performances.



Donc pour le moment, rien ne justifie plus de performance, on est d’accord.







Tout à fait.



Aujourd’hui, il n’y a pas de vrai nouveauté qui justifient de racheter un PC. Toutes les soient disant nouveauté qu’on veut nous vendre (tactile, etc), c’est du marketing. Et beaucoup de gens l’ont compris, c’est bien la cause de la baisse de ce marché.





&gt; Les bons programmeurs sauront toujours quoi faire de merveilleux avec plus de puissance.

Mais pour le moment, je ne suis pas totalement de ton avis.

Regarde :

exigences mini de Windows Xp :support.microsoft.com Microsoftexigences mini de Windows 7 :windows.microsoft.com Microsoftexigences mini de Windows 8 :windows.microsoft.com MicrosoftAutant il a fallu un gros gap à Windows 7 (comme Xp, 2000, 98) en matière de performances, autant Windows 8 n’a pas cela.

D’autant plus que dans le cas présent, Microsoft veut mettre du Windows 8 même dans les tablettes et minimiser les différences.





Quand je parles de progrès logiciels, ce n’est pas pour dire que Windows occupera plus de place ou que le même logiciel deviendra plus gourmand. C’est plutôt parce que les programmeurs exploiteront la puissance pour faire de nouvelles choses.





A mon avis, nous allons vers une phase de conception plus propre des application logicielles.

C’est un peu fini le temps de la programmation vite et mal. Tu as de plus en plus d’outil logiciel de codage qui codent quasiment plus proprement que le développeur. Le développeur se contente presque de traduire en schéma technique le besoin fonctionnel puis de lancer la moulinette.



Donc, le code sort quasi optimisé et il n’a pas besoin de plus.

Tant que nous n’aurons pas une grosse rupture technologique (d’ici 3 ans au pif je dirais), on pourra employer la même bécane.





Hum, l’outil qui code tout seul à la place du développeur, c’est un mythe. La encore, c’est juste du marketing. Et les machins qui codent soient disant tout à ta place, c’est précisément ce qui produit les logiciels les moins optimisés.



Les logiciels les plus optimisés, c’est des programmeurs très talentueux qui optimisent tout à la main. Et crois moi que cela existe. Les moteurs de jeux vidéo par exemple qui sont codés par de véritables maitres de l’optimisation, les moteurs de base de données, ou les logiciels d’encodage/décodage vidéo qui ont souvent des parties optimisées à la main en assembleur.





Le 16/02/2013 à 23h 26







donotos a écrit :



Je crois que certains d’entre vous se méprenne. Le nuc a bien un refroidissement actif il est seulement de l’autre coté de la CM comme le montre la photo ci après:



Ventilo du NUC







Bonne pioche.



Mais c’est logique vu le TDP du processeur (17w) et la nature extrêmement compacte de ces mini PC. C’est comme pour les portables, une conception compacte, ça se paye : Pas d’espace pour un gros radiateur et une convection naturelle.



Mais 17w c’est pas énorme non plus, ce qui signifie qu’il est probablement facile de le passer en passif au prix d’un peu d’espace supplémentaire.



Mais vu la conception atypique de la carte du nuc, plutôt que de bricoler la dessus pour faire du passif, ça vaut certainement plus le coup de prendre une carte Mini ITX quelconque et un processeur séparé auquel on pourra facilement adapter des ventirads à caloduc courants.





Le 16/02/2013 à 22h 54







luxian a écrit :



Ca dépend de ce que tu fais te ta bécanne de compet.

Mon Q9650 qui était un beau processeur en son temps est maintenant une bouse à peine 2 fois plus performantes que ce “petit” processeur. Il suffit à faire marcher 2 à 3 VM dans lequel je fais soit de la bureautique soit des tests.







Un facteur 2, c’est déjà beaucoup comme différence. Et surtout, 4 coeurs, ce n’est jamais la même chose que seulement deux.





Je ne joue plus réellement qu’à des jeux qui ne requièrent pas plus de performance.





La encore, ça laisse encore beaucoup de marge. Personnellement, je suis encore très content de mon C2Q. J’attends au moins la démocratisation des octo coeurs pour changer.



En fait, quand on regarde bien, il y a tellement de jeux qui datent un peu qui ne demandent qu’a être joués.





N’importe quel PC portable actuel est aussi performant que ma “bécanne de compet.”





N’importe lequel, peut être pas quand même. Et sans compter la partie graphique qui n’est pas terrible sur la plupart des portables.



Mais c’est le jeu de l’évolution que toute machine finisse dépassée.



Imagine celui qui as acheté un supercalculateur il y a 20 ans…



Et si je regarde le différentiel de puissance avec ma machine d’ill y a 30 ans, ça donne carrément le vertige.





Tout ça pour te dire que … la superpuissance devient de plus en plus inutile par rapport aux usages actuels.





Certes, nous sommes dans une période ou de nouveaux usages tardent un peu à se manifester. C’est un peu une période charnière. Il manque effectivement tout ce qui pourrait nous donner envie d’une nouvelle machine de compète.



Mais crois moi par expérience, ce genre de période de flottement finit toujours par se terminer. De nouveaux concepts de jeux vont arriver qui vont exploiter un max de puissance et qui vont révolutionner les concepts de beaucoup de logiciels et en premier lieu des jeux.



Quand tu verra cela, tu voudra une nouvelle machine de compète. <img data-src=" />





D’ici la prochaine version de ce petit bousin, mes besoins n’auront pas augmenté beaucoup plus. En conséquence de quoi, la prochaine version me sera bien suffisante.





Comme dit plus haut, les usages vont évoluer, c’est inéluctables. Les bons programmeurs sauront toujours quoi faire de merveilleux avec plus de puissance.



Le 16/02/2013 à 20h 25







luxian a écrit :



Ben ouaip, il semble que les NUC n’ont pas de ventilo de base.



Le chiant du NUC, c’est qu’ils n’ont pas de lecteur BR / graveur DVD intégré :(



… et une fois encore, la carte graphique intel intégrée HD4000 me semble bien pourrite.

Et regardons les choses en face, le Core i3 3217U a des performances 2 fois moindres que mon actuel Core C2Q 9650 :(



Je remplacerai ma config par la prochaine génération peut-être … enfin un PC fanless pas trop gros qui reviens sagement sous l’écran de … allez 30 “ le prochain.







En même temps, je ne crois pas que ces petits bidules soient vraiment destinés à remplacer nos gros PC de compétition.



Comme les portables, les systèmes “compacts” subissent trop de contraintes techniques pour pouvoir luter avec des gros cubes.


Le 16/02/2013 à 20h 21

Cool tout ça.



Je pense que le nuc va permettre de faire des quantités de choses intéressantes.



Par exemple son propre ordinateur portable avec carte mère “standard”.


Le 16/02/2013 à 04h 14







jmc_plus a écrit :



68000 vs. 8086, il n’y a pas photo à l’arrivée. Le 68000 diffusé à partir de 1979 est infiniment plus simple à assimiler. Dommage qu’IBM ne l’ai pas choisi pour son PC il y a + de 30 ans, la face du monde informatique en eu été changée.







Ca n’avait clairement rien à voir.



Le x86 de l’époque était une merde sans nom à côté des 68k.



Comme quoi, c’est pas toujours les meilleurs produits qui s’imposent..



Mais on peut dire que le 68k a perdu la bataille à cause de Windows 3.1 et surtout de la suite office qui était clairement une tuerie pour l’époque.


Le 16/02/2013 à 04h 10

C’est réellement un beau geste de la part d’adobe.



Même si le logiciel est vieux, c’est réellement appréciable. Ne fut ce que pour les étudiants et les passionnés de retro computing qui préservent l’histoire de l’informatique.



On aimerait tant que cela devienne plus courant.




Le 14/02/2013 à 18h 04







popolski a écrit :



Enfin !

malgré une inscription sur liste rouge, ces appels continuaient joyeusement et pour des conneries en plus, même de la bouffe pour animaux en provenance d’italie.

ça relève du harcèlement téléphonique qui est réprimé par la loi pénale : “ les appels téléphoniques malveillants réitérés ou les agressions sonores en vue de troubler la tranquillité d’autrui, sont punis d’un an d’emprisonnement et de 15 000 EUR d’amende “(article 222-16 du code pénal).



Ils ne songent pas que ces appels peuvent aboutir chez une personne malade ou chez une personne ayant par exemple poste de nuit ou astreinte et qui se repose.

Chez moi c’était à tel point que j’ai installé un téléphone accès privilégié avec code d’accès communiqué à mes seules connaissances et amis







Hélas, je doute que leur nouveau système soit plus utile que la liste rouge.



Parce que justement, ces sociétés de démarchage, nos belles loi, elles s’en moquent totalement.



Leur faire un procès ? Aucun risque pour eux : Simplement parce qu’une grande partie de ces sociétés étant très loin de la France, une procédure aurait très peu de chance d’aboutir.



Donc on peut réellement s’interroger sur l’intérêt d’empiler les textes de loi tous plus inefficaces les uns que les autres.



La seule chose qu’on obtiendra, ça sera malheureusement de désavantager encore un peu plus les sociétés françaises rescapées par rapport à leurs homologues des pays à bas coût de main d’œuvre.



Parce que pendant que nos pauvres entreprises croulent sous des tonnes de règlements et charges sociales, les entreprises d’autres pays prospèrent et récupèrent les contrats.



Bref, en pratique, juste encore un avantage de plus en faveur des délocalisations. Mais pour réduire le démarchage téléphonique, je n’y crois guère.



Le 14/02/2013 à 00h 21







Takoon a écrit :



oui, le temps est précieux pour le téléprospecteur, et par conséquent çà va bien lui pourrir ses stats. très amusant effectivement.

Cependant le chemin le plus court est encore de raccrocher direct en insultant l’interlocuteur. Avec un peu de chance il se suicidera à force.







En même temps, ceux que tu va emmerder au premier plan sont juste de pauvres employés de base. Des gars qui sont déjà bien pressurisés par leur hiérarchie et donc parfois à la limite de craquer(surtout dans les call centers en France).



J’ai un pote qui avait fait ce boulot pendant un moment, un soir après s’être fait insulter par un prospect, il a craqué et perdu son travail.



La hiérarchie et les donneurs d’ordre, ils s’en moquent totalement parce que ton action est isolée et globalement ça ne les touchera pas du tout eux. Les employés, c’est du jetable et ils ont déjà l’habitude de faire tourner pour avoir toujours des “machines humaines” performantes. Au pire, tu va les arranger en les aidant à faire partir un gars qui est déjà bien fatigué par le job.



Donc personnellement, même si ça me fait chier d’être dérangé, je dit calmement, poliment mais fermement que je ne suis pas intéressé. Le gars comprends tout de suite que ce n’est pas la peine d’insister.





Le 13/02/2013 à 20h 22







Jarodd a écrit :



J’ai hâte de savoir ce que ce sera. Les gros yeux, et une tape sur les doigts en cas de récidive ?



Ils préfèreront toujours payer une amende et continuer à exploiter ces fichiers. Les gros cochons ont été condamnés à plus de 500 millions pour l’entente dans le mobile, cela ne les a pas empêché de continuer, puisque le profit est supérieur à la perte.







Déjà, rien que d’arriver à faire payer leur amende à des call centers qui ne sont même pas en Europe…



Le 13/02/2013 à 17h 25

C’est très bien sur le papier, mais c’est oublier un peu vite que nous ne vivons plus dans une économie fermée.



Le risque, c’est bien de provoquer des délocalisations en désavantageant nos entreprises de téléprospections au détriment d’entreprises situées dans des pays lointains ou (ne rêvons pas) notre justice aura le plus grand mal à aller les chercher.



Parce que c’est bien de brandir la loi à tout bout de champ. Encore faut t’il que l’on puisse en pratique s’en servir.



C’est un bon exemple qui montre comment notre tendance à la diarrhée réglementaire finit bel et bien par avantager tous les tricheurs et les entrepreneurs les moins scrupuleux.


Le 14/02/2013 à 17h 52







Burn2 a écrit :



Les barton et autres athlon xp n’ont pas de sse2 sauf erreur de ma part, ils prennent un coup de vieux là. :/







Tu ne fait pas erreur.



Le 13/02/2013 à 20h 18

Le pentium 3 n’est pas le processeur le plus récent à ne pas supporter le SSE2.



C’est aussi malheureusement le cas des Athlon XP d’AMD qui sont beaucoup plus récents.



Et skype n’est pas la seule application concernée. Le plug in flash demande lui aussi ces instructions pour fonctionner. Au moins pour la version Linux.


Le 11/02/2013 à 18h 19







Jean_Peuplus a écrit :



Mais c’est ridicule ce qu’il dit, il suffit de regarder sur android les top ventes appli payante on retrouve quasiment que des jeux qui ont une version gratuite limitée (donc une demo) et une version complète payante.



De plus le succès de la formule free to play contredit complètement son propos, de plus en plus les gens veulent jouer puis éventuellement payer.



Je dirais qu’il faut effectivement éviter de sortir une demo quand on fait un jeu au gameplay pourri. Mais quand on peut convaincre les joueurs hésitant avec une demo qui n’en jette faut pas se priver.







Personnellement, je trouve le concept “free to play” totalement catastrophique.



D’abord je constate qu’on perds le rapport affectueux que l’on pouvait avoir avec un jeu qu’on avait payé.



Mais aussi et surtout, on sait que ces jeux ne sont gratuits qu’en apparence et qu’il y a cette manipulation mentale permanente pour essayer de nous amener à payer au bout du compte.



Ce “deal” qui n’est plus clair installe une certaine méfiance qui casse complètement le rapport entre l’œuvre et le consommateur.



De plus, ces jeux sont par nature mal équilibrés : trop durs quand on ne paye pas, trop faciles quand on paye. Donc ni de bons jeux gratuits, ni des bons jeux payants.



Si le concept du “free to play” a certainement de l’avenir dans le très grand public, je doute que les vrais amateurs de JV se laissent un jour séduire par un concept qui n’a rien de bien intéressant à apporter.


Le 11/02/2013 à 18h 07







tass_ a écrit :



Sauf que les JV ne sont pas des produits d’artisan et de luxe, mais bien des produits industriels de masse…







La dessus, je ne suis pas d’accord.



Parce qu’un jeu vidéo est un produit culturel avant d’être un produit industriel.



De la même façon que le cinéma ou la musique, un pur produit industriel de masse n’a pas d’âme. C’est plat, c’est creux. C’est plein d’effets “waouh” avec des scénario bidons comme le sucre et la graisse dans la bouffe de fast food.



Pour qu’un produit soit bon, il faut qu’il y ait à la base au moins quelques talents qui ont conservé un certain esprit d’artiste et un côté artisanal dans l’élaboration.



Tout l’art et la manière, c’est d’arriver à produire industriellement sans tuer cela.



Je suis désolé de le dire, mais ce n’est pas parce qu’on a des jeux avec des débauches d’effets qu’ils sont bons. Et ce problème revient régulièrement dans le jeu vidéo.



Bref, les purs jv industriels et la bouffe industrielle, même combat : gastronomes, passez votre chemin.