votre avatar

Konrad

est avec nous depuis le 3 août 2010 ❤️

4337 commentaires

Le 17/05/2013 à 09h 13







Mack21 a écrit :



Super encore plein de jeu qui ne sont meme pas au niveau de jeu de téléphone portable <img data-src=" />









Mack21 a écrit :



Back to the future <img data-src=" />





Il y a un jeu indé qui a tué toute ta famille quand tu étais petit, ou tu profites juste qu’on est vendredi ?


Le 16/05/2013 à 08h 38







Tolor a écrit :



Les formats Office Open XML sont des standards documentés. C’est le faute de MS si ce n’est pas correctement lu par google docs?





Il est vrai que Microsoft pourrait utiliser cet argument, mais il est aussi à double tranchant :



Les formats Open Document (Open Office, Libre Office) sont des standards documentés. Pourquoi ne sont-ils toujours pas lus correctement par MS-Office ?…



La publication des spécifications pour ces formats (tant ceux de MS que OD) est une bonne chose, après dans la pratique il faudra du temps pour que l’implémentation se fasse et que toutes les suites bureautiques soient véritablement interopérables.


Le 15/05/2013 à 09h 16



BitTorrent, YouTube, Skype, Facebook et Netflix rois du web dans le monde



Autant Youtube et Facebook sont bien des sites web, autant BitTorrent et Skype utilisent des protocoles qui n’ont rien à voir avec le web… <img data-src=" />



Edit : grilled by Khalev

Le 09/05/2013 à 13h 45







DahoodG4 a écrit :



Les utilisateurs de surface sont frustrés, ils tapent, font du traitement, mais ne peuvent cliquer déplacer des icônes, ils leur manque une souris…oh wait





Exactement, si on suit le raisonnement de Gates c’est là qu’on va arriver…



Du point de vue architecture, une tablette est un ordinateur. Mais c’est un ordinateur très particulier, avec du matériel spécifique (écran tactile, connectique etc.) et une couche logicielle spécifique (OS, applications). Ça restreint donc forcément les usages.



Alors oui, si on augmente la taille de l’écran, qu’on ajoute un clavier/souris, qu’on y met Windows avec tout son parc d’applications, ça augmente les possibilités de la tablette. Sauf que ce n’est alors plus une tablette, c’est un PC…


Le 09/05/2013 à 13h 34







Drepanocytose a écrit :



Je ne pense pas.



Ce point de vue, on l’entend souvent venant de geeks / technophiles…



Venant des michus, on entend plus souvent que la tablette a vocation a remplacer un PC (d’ailleurs c’est un PC, au sens d’ordinateur personnel)… Bilou a a moitié raison dans le sens où, effectivement, les gens lambda ne passent pas leur journée sur les suites bureautiques…

Par contre, le jour où ils en ont besoin (administration qui envoie un .doc, fichier du boulot, etc.), ils se retrouvent gros-jean comme devant et ca les force à reflechir un peu et à trouver une solution, ce que les tablettes n’incitent pas à faire par définition (c’est simple une tablette, avec ses gros boutons et ses applis toutes faites… En théorie)….





Oui, une tablette peut remplacer un PC, si… on se sert d’un PC juste pour aller sur le Web et faire des activités multimedia/casual.



Quelqu’un qui a besoin de davantage (suite bureautique, jeux dernier cri, etc.), vont vite se rendre compte que la tablette n’a pas été conçue pour ça, et que ça n’est pas pratique. Donc, ils vont en ressortir frustrés, forcément.



Mais la solution n’est pas de chercher à transformer les tablettes en PC, comme le préconise Bill Gates ici. La solution, c’est que quand on a des besoins avancés, ben il faut un PC, la tablette ne peut pas le remplacer…



Comme le dit Commentaire_supprime, faire du tratement de texte, du LaTeX, ou s’en servir comme terminal pour accéder à un serveur à distance, ça tient plus de l’utilisation ponctuelle et du système D, mais ce n’est pas du tout le but de la tablette…


Le 09/05/2013 à 13h 12



Mais beaucoup de ces utilisateurs sont frustrés. Ils ne peuvent pas taper (NDLR : sur un clavier). Ils ne peuvent pas créer de documents.



Mais peut-être que la plupart des utilisateurs de tablettes ne veulent pas créer des documents, mais simplement regarder des vidéos, consulter le Web, utiliser Skype, et/ou jouer à des jeux casual ?



Les tablettes ont vraiment été conçues dès le départ pour être autre chose que des PC, que ce soient les iPad ou les tablettes Android. Au fond ce que Bill Gates dit, c’est «les gens sont frustrés car ils ne peuvent pas l’utiliser comme un PC», il serait pas légèrement à côté de la plaque ? Chez Microsoft ils sont devenus incapables de voir une machine avec de l’électronique embarquée autrement que comme un PC, il faut forcément Windows + Office dessus ? <img data-src=" />

Le 06/05/2013 à 20h 37

Non il y a vraiment un proco qui s’appelera Avorton ? <img data-src=" />



Ah non, on me signale dans l’oreillette qu’il s’agira d’Avoton, dommage ça aurait pu être drôle (même si pas très vendeur) <img data-src=" />

Le 05/05/2013 à 11h 00







tmtisfree a écrit :



Bien sûr qu’on est d’accord sur tout. La sémantique n’est simplement pas une science exacte.





En sémantique justement, dire qu’une théorie est morte cela s’appelle une personnification. Cette figure de style peut être utile pour vulgariser, pour faire passer une idée, mais quand on fait des sciences, dans une publication, dans un congrès, ou dans une discussion sérieuse, on ne l’utilise pas. J’imagine mal ce terme utilisé dans une publication ou un livre, ou un chercheur affirmant dans un congrès devant ses pairs : «la physique classique est morte».


Le 05/05/2013 à 10h 09







tmtisfree a écrit :



Ah et bien voilà !





Tu sais le pire ? C’est que sur le fond on est sans doute 100% d’accord, mais comme tu t’entêtes à utiliser le mot «mort» on ne trouvera jamais de terrain d’entente.


Le 05/05/2013 à 09h 53







pti_pingu a écrit :



Joli <img data-src=" />



Moi j’observe maintenant, car le jeu de quelqu’un ici, c’est de tourner en rond pour avoir le dernier message du thread (voir autres news qu’il ou elle a pourri) <img data-src=" />





J’avoue que je me suis laissé emporter par le courant… N’empêche, pour résumer la conversation c’est pas compliqué : tmtisfree a voulu dire, je pense :



« La physique classique est un paradigme qui est aujourd’hui figé, ne change plus»



Ce avec quoi je suis entièrement d’accord.



Il a voulu vulgariser ou je ne sais quoi, et il a dit :



«La physique classique est morte»



et c’est là que je tique, parce que je ne pense pas qu’un historien des sciences fasse une telle affirmation, ou alors encore une fois donnez des sources. Ça arrive à tout le monde de faire des erreurs, par contre après il y a les gens qui sont capables de revenir sur ce qu’ils ont dit et de se corriger eux-mêmes, et… les autres.


Le 05/05/2013 à 09h 39







sky99 a écrit :



Et à échelle astronomique, je n’ai toujours pas entendu parler de quiconque faisant appel à la physique quantique ^^ (et ou met on les “théories du tout”, genre super-symétrie, théorie des cordes? vu que leur champ d’application théorique est censé s’appliquer à l’ensemble des échelles?)





Ben c’est simple : les théories unifiées ont pour vocation de supplanter la physique que, donc la physique quantique est morte. D’ailleurs le paradigme de la physique quantique n’a pas changé depuis le milieu du XXe siècle, c’est donc bien une théorie morte aujourd’hui… <img data-src=" />


Le 05/05/2013 à 09h 08







tmtisfree a écrit :



Je suis d’accord, mais tu avais pris le temps de lire les commentaires précédents tu aurais lu que j’ai précisé “épistémologiquement morte” càd comme cadre scientifique descriptif, explicatif et prédictif des phénomènes physique de la réalité





Encore une fois je ne suis pas d’accord avec plusieurs points :







tmtisfree a écrit :



aucun physicien digne de ce nom ne soutiendrait que le phénomène quantique n’est pas la brique de base qui permet l’émergence de la macro-réalité.





Oui, la physique sub-atomique devrait être la brique de base dont tout le reste devrait pouvoir être dérivée. Cependant la physique quantique ne remplit pas ce rôle : elle ne fournit pas d’explication quantique convaincante de la gravitation,







tmtisfree a écrit :



La physique classique, indépendamment de toutes ses qualités pratiques, n’est qu’une approximation du réel : elle a été supplantée, elle est morte, on lui a fait son deuil, mais elle n’est pas (encore) enterrée.





Encore une fois, la physique classique n’a pas été supplantée. À titre d’exemple, la thermodynamique est utilisée aujourd’hui comme elle était utilisée avant l’avènement de la physique quantique. Certes son paradigme reste inchangé, et sa place a changé, elle est vue aujourd’hui comme une manifestation macroscopique, probabiliste, de phénomènes quantiques. Mais la thermodynamique reste extrêmement utilisée en tant que telle, même sans la physique quantique. Idem avec la théorie de l’électromagnétisme de Maxwell, toujours valide et utilisée aujourd’hui. Idem pour la mécanique des fluides ou la physique des défauts étendus dans les solides, dont certaines équations ne sont pas dérivables à partir de la physique quantique.



Ces théories classiques n’ont pas été «supplantées« ni «remplacées», ni du point de vue théorique, ni du point de vue des applications. Ces cadres de pensées (paradigmes) ne sont pas dépassés, ni obsolètes, ni morts.



J’attends toujours des sources où un historien des sciences parlerait véritablement de «sciences mortes». On peut ajouter des «épistémologiquement» partout, ça ne change rien : je ne crois pas que l’épistémologie ne s’intéresse qu’aux paradigmes pour les classer de façon absolue dans les cases «vivant» ou «mort». L’épistémologie s’intéresse à l’histoire des sciences, à l’évolution des idées, bref à la science en tant qu’entreprise humaine, et forcément aussi aux applications, à savoir si tel ou tel paradigme (même figé) sert aujourd’hui en tant que cadre de pensée et est encore productif, ou bien s’il est définitivement obsolète. Ce que je voudrais qu’on admette ici, c’est que, épistémologiquement, cela n’a pas de sens de parler de «science morte», et encore moins à propos de sciences qui sont toujours en activité.


Le 04/05/2013 à 22h 20







HarmattanBlow a écrit :



Personne n’a contesté l’intérêt, aujourd’hui et demain, de la physique classique. Et cet intérêt ne disparaîtra pas. Seulement en elle-même elle n’évolue plus car il n’y a plus de recherche à y faire.



Quand des types font aujourd’hui des découvertes sur la circulation des fluides dans des micro-canaux (domaine à la mode pour les applications médicales), je doute qu’ils utilisent autre chose que la physique classique et ils produisent bien de nouvelles connaissances. Mais ils n’ajoutent rien à la physique classique elle-même.



En substance un cours d’électromagnétisme classique de 1960 ne contient rien de plus que le cours de 2010. Même chose pour la thermodynamique classique ou la mécanique. Les dernières évolutions majeures des fondamentaux furent une reformulation inspirée de la formulation de la méca Q, par souci d’homogénéisation et pour bénéficier des outils mathématiques qui se sont propagés à ce moment.





Je suis entièrement d’accord avec ça : la physique classique est encore enseignée, sert encore dans de nombreux domaines, est encore la source de nombreuses innovations. Pour moi cela montre que les théories classiques sont encore fructueuses et actives. Dans le même temps ces théories classiques n’évoluent plus, on peut parler de «paradigme figé» comme dit auparavant.



Par contre aller jusqu’à parler de «science morte» c’est à mon sens trop extrême (et provocateur, vu les réactions que ça a provoqué). Je ne sais pas trop quoi donner comme exemple, le premier qui me vient à l’esprit c’est le système géocentrique de Ptolémée : il a été démontré faux, il n’est plus enseigné (à part pour sa valeur historique), plus personne ne s’en sert pour faire des prédictions ni élaborer des modèles, et il ne permet plus aucune découverte ni innovation depuis longtemps. Voilà une théorie qui mériterait d’être qualifiée de «morte». Ce n’est peut-être pas le meilleur exemple pour expliquer mon propos mais bon, vous voyez ce que je veux dire…


Le 04/05/2013 à 18h 20







HarmattanBlow a écrit :



Il a précisé épistémologiquement. Pour une fois qu’il ne raconte pas n’importe quoi… <img data-src=" />



Il dit simplement qu’en tant que science la physique classique ne progresse plus. Elle est complète. Ça ne veut pas dire qu’on ne l’utilise plus, qu’elle n’a plus d’utilité ou qu’elle ne permet plus d’innover.





Que la physique classique soit un paradigme figé, certes.



En revanche, y a-t-il vraiment des historiens des sciences qui la qualifient de «morte» ? Si c’est le cas je veux bien des sources.


Le 04/05/2013 à 18h 02







tmtisfree a écrit :



Elle est morte en tant que cadre de pensée pour avancer dans la description scientifique de la réalité physique qui nous entoure





Et c’est là que tu te trompes : la physique classique est encore utilisée pour décrire de nouveaux phénomènes, pour explorer certaines propriétés des matériaux, et tout un tas d’études en physique fondamentale et en physique appliquée, qui seraient impossibles si on devait s’en tenir à une description purement quantique.



La physique classique permet donc bien de nouvelles avancées «dans la description scientifique de la réalité physique qui nous entoure».


Le 04/05/2013 à 17h 45







tmtisfree a écrit :



Je l’affirme parce que c’est mon opinion à la lueur des développements scientifiques passés (et futurs).





Certains développements actuels, et futurs, seraient tout simplement impossibles si on n’avait que les théories du siècle dernier, et si on n’avait pas la physique classique. Je le redis et j’insiste, certains développements théoriques et certaines applications, même aujourd’hui, ne sont possibles que grâce à la physique classique. Sachant cela, j’ai clairement du mal à voir comment tu peux continuer d’affirmer qu’elle est «morte».



Le latin est une langue morte, c’est une langue qui n’évolue plus, qui n’est plus parlée et qui ne permet plus d’échanger avec personne (à la seule exception de certaines messes qui sont encore faites en latin, mais c’est suffisamment marginal pour considérer le latin comme langue morte). La physique classique est loin d’en être à ce point : elle n’est pas marginale, elle connaît encore des développements, est encore très utilisée par des communautés scientifiques.



La seule explication que je vois à ton entêtement, c’est que tu te bornes à considérer la physique classique sur un plan purement théorique et abstrait. De ce point de vue là, oui, la physique classique ne fait pas partie des «grandes théories modernes», elle a été dépassée (en précision, en pouvoir prédictif à certaines échelles) par des théories plus modernes. Dépassée, mais pas remplacée, ni abandonnée. Ce n’est donc pas une science morte.


Le 04/05/2013 à 17h 12







tmtisfree a écrit :



1/ Mon doctorat sourit doctement.

2/ Le mot ‘épistémologie’ t’échappe ?.





1/ Mon doctorat te sourit en retour, et te conseille de ne pas trop abuser de tes titres comme argument d’autorité (sous-entendre “j’ai un diplôme alors j’ai raison” dans une discussion, ça n’est ni courtois ni avisé). Au passage, la physique classique que j’utilise tous les jours dans mon domaine te sourit également.



2/ Je sais ce qu’est l’épistémologie, et en aucun cas elle ne catégorise la physique classique comme une science morte. En parlant d’épistémologie, je réitère mon message précédent et t’invite à lire Kuhn, il explique que la physique classique est aujourd’hui une science normale, càd une science utilisée dans un certain paradigme (par opposition aux révolutions scientifiques qui impliquent un changement de paradigme). Science normale, mais pas science morte.



Sachant qu’à l’heure actuelle la physique classique :




  • connaît encore des développements théoriques ;

  • est encore très utilisée dans de nombreux domaines, tant en physique fondamentale qu’en physique appliquée ou en ingénierie ;

  • n’a jamais été considérée comme fausse, mais est simplement considérée aujourd’hui comme une approximation de théories plus modernes.



    Comment peut-on dire qu’elle est morte ?!?


Le 04/05/2013 à 16h 42







tmtisfree a écrit :



Laisse-moi me citer :

La mécanique classique a été supplantée comme théorie scientifique par la mécanique quantique, elle est donc supplantée, dépassée, morte en tant que Science.





Alors soit tu n’as jamais entendu parler de la notion de science normale (ce qu’est bel et bien devenue la physique classique), auquel cas je te conseille de lire T. Kuhn, soit tu trolles en essayant de te rattrapper aux branches pour ne pas admettre que tu as tort.



M’enfin dans les deux cas, tu as tort : la physique classique n’est pas «morte», elle fait bien partie de la physique moderne.







pti_pingu a écrit :



Laissez tomber, vous veuillez bien?





Oui je crois que ça vaut mieux, j’ai l’impression de pisser dans une contrebasse.


Le 04/05/2013 à 16h 22







tmtisfree a écrit :



Je n’ai pas dit que la physique classique n’avait pas (eu) son utilité. J’ai dit qu’elle était morte, supplantée par mieux (c’est la destinée de toute théorie scientifique).





Il est faux de dire que la physique classique est «morte». Elle est encore très utilisée en astronomie/astrophysique, en simulation des matériaux, en ballistique, ou encore pour envoyer des fusées dans l’espace.



Notre conception de la physique classique a changé : avant la fin du XIXe elle était la seule science physique possible, aujourd’hui elle est vue comme une approximation des modèles modernes : soit comme approximation de la physique quantique (à travers la physique statistique), soit comme approximation de la relativité générale (aux vitesses, masses et énergies petites).



Conceptuellement ça change beaucoup de choses, mais dans la pratique cette physique que l’on appelle «classique» est encore très utilisée. Dire qu’elle est «morte» est complètement faux, tant du point de vue théorique que de celui des applications.


Le 04/05/2013 à 15h 55







TheFelin a écrit :



Les petites rémanences autour des atomes sont-elles lié au mouvement de ceux-ci?





Non il s’agit de variations dans la densité électronique de surface du cuivre, comme expliqué dans cette vidéo.


Le 04/05/2013 à 13h 43







abitbool a écrit :



On entend souvent IBM faire des prouesses technologiques, mais que font-ils de ses recherches, maintenant qu’IBM ne fait quasiment que du service ?





Ben c’est dit dans l’article : ils en font des films <img data-src=" />


Le 03/05/2013 à 15h 42







Starbetrayer a écrit :



@ Konrad, MichaelCaine,



C’est donc de la contrefacon commerciale.

Donc comme dis plus haut, j’espere que ca sera :



Amende penale = 150,000 * nombre de jeux vendus.



Amende civile = prejudice par jeu * nombre de jeux vendus





Ah mais si c’est ça je n’en serai que plus ravi, ça leur fera les pieds à WB ^_^


Le 03/05/2013 à 15h 24







MichaelCaine a écrit :



Comme dit plus tôt, je me suis effectivement bien planté, ça m’apprendra à faire confiance à Wikipedia.





Pas de mal <img data-src=" />


Le 03/05/2013 à 15h 19







Konrad a écrit :



Il n’y a peut-^etre pas de copyright, mais il y a toujours le droit d’auteur.





Ah ben les commentaires précédents sont mieux documentés que moi, il y a donc bien des copyrights…


Le 03/05/2013 à 15h 17







MichaelCaine a écrit :



Sauf que l’auteur de Nyan Cat n’a pas déposé lui même de copyright pour sa création de départ, quant à Charlie Schmidt il a lui même autorisé à ce que l’image et le son soient utilisées sans lui demander des comptes.

Donc je sais que c’est “in” de taper sur les gros, mais là les deux petit pères se foutent un peu de la gueule du monde.





Il n’y a peut-^etre pas de copyright, mais il y a toujours le droit d’auteur.



Un auteur peut tout à fait tolérer que son œuvre soit réutilisée, modifiée et recopiée à des fins non lucratives (ce qui a été fait maintes fois pour le Nyan Cat et le Keyboard Cat), par contre si une entreprise l’utilise pour gagner de l’argent, l’auteur est en droit de demander des comptes.



Personnellement je soutiens cette action, et j’espère qu’ils vont gagner face à WB, sans forcément gagner une somme monstrueuse, mais juste pour le principe, pour montrer que le droit d’auteur existe aussi pour les mèmes, et qu’il doit ^tre respecté meme par les grosses boites.


Le 03/05/2013 à 11h 10

Miam, je l’installerai ce week-end pour y rejouer.



And the science gets done,

And you make a neat gun

For the people who are

Still alive!











Nargas a écrit :



Et toujours aucune nouvelle pour Guild Wars 2 sous Linux ?

Il me semble que basculer de la version Mac à Linux d’un jeux-vidéo ne présente pas de grande difficultés.





Guild Wars 2 tourne nickel sous WINE, par contre pour la version Linux native je crois que rien d’officiel n’a été annoncé…


Le 02/05/2013 à 17h 01

Désolé pour la quote de porc… <img data-src=" />

Le 02/05/2013 à 16h 59

[quote:LaNews]Il a également perdu près de 7 kg sans vraiment faire attention

(…)

sans internet c’est « moins un abruti »[/quote]

Et bientôt, les conclusions dans le JT : “Internet rend gros et abruti”. CQFD <img data-src=" />

Le 02/05/2013 à 12h 03







linconnu a écrit :



Les stats de Steam sont fausses, il ne faut pas s’y fier

Il est par exemple indiqué que 100% des machines ont Steam. Cela est faux surtout en entreprise.





C’est un running gag ?


Le 01/05/2013 à 16h 06

La Chine est aussi le pays n° 1 des utilisateurs de… Internet Explorer 6 <img data-src=" />

Le 01/05/2013 à 09h 52







jedifox a écrit :



Petit hors-sujet mais il semblerait qu’il ne faut pas remercier nVidia mais la communauté :

http://www.h-online.com/open/features/Kernel-comment-Bad-show-NVIDIA-1845899.htm…





Merci pour le lien. Le parallèle avec les pilotes WiFi et ARM montre à quel point la logique “tout-proprio” de nVidia est stupide et anti-productive…


Le 30/04/2013 à 17h 21







fred42 a écrit :



Vivement le 3.14 !<img data-src=" />





Peut-être pour le 14 mars prochain ? <img data-src=" />


Le 30/04/2013 à 17h 19







Ricard a écrit :



<img data-src=" />



La nouvelle Debian Wheezy sort dans 1 semaine.<img data-src=" />



Avec un noyau 3.2<img data-src=" />





Disons que chez Debian c’est trèèèès progressif <img data-src=" />



Debian Stable (Squeeze) : Linux 2.6

Debian Testing (Wheezy) : Linux 3.2

Debian Unstable (Sid) : Linux 3.2

Debian Experimental : Linux 3.8


Le 30/04/2013 à 15h 03







Latios a écrit :



3.10 ;)





Merci ^_^


Le 30/04/2013 à 14h 47

Changements intéressants. Puisqu’on parle de pilotes, il me semblait que nVidia se décidait enfin à développer le support d’Optimus, mais j’imagine que ça sera pour une prochaine version…



D’ailleurs une question bête me taraude l’esprit : la version suivante sera-t-elle la 4.0, ou 3.10 ? Question hautement existentielle <img data-src=" />

Le 29/04/2013 à 15h 51

Effectivement, méthode discutable, surtout si les policiers en civil incitent autant à la vente… À la limite ça passe si les acheteurs ne se font pas trop emmerder après (genre une garde à vue et un rappel à la loi), et que cette action a surtout pour but de faire peur aux acheteurs et envoyer un message fort aux revendeurs. Par contre si les acheteurs sont sévèrement punis ça fait un peu disproportionné, et la méthode devient clairement discutable…











Superambre a écrit :



à quoi sert cette ‘nouvelle’ ?



et si on commençait par s’occuper des nouvelles de notre pays ?





C’est devenu une mode de critiquer les articles de PCInpact ?



“ça ne mérite pas une news”

“une brève aurait suffi”

“ce sujet n’a rien à faire sur PCI”



<img data-src=" />


Le 26/04/2013 à 10h 01

Ce viewer est-il propriétaire et donc spécifique à Google Chrome, ou bien est-il libre et peut donc s’intégrer à d’autres outils ? (un peu comme le viewer de PDF de Firefox) ?

Le 24/04/2013 à 15h 46



Hamon beau fixe



Je ne sais pas pourquoi mais ce sous-titre m’a mis la chanson dans la tête.



“Hamon bateauuuu ! C’est le plus beau des bateaux…”

Le 23/04/2013 à 14h 42

Vous pensiez avoir l’air ridicule avec une Wiimote ? Attendez vous n’avez encore rien vu <img data-src=" />

Le 23/04/2013 à 12h 32







Nathan1138 a écrit :



Blizzard ne verrouille pas le marché, et les autres développeurs sont totalement libres de faire d’excellents jeux également, hein <img data-src=" />





Ah oui oui, c’était juste un constat, et non pas une critique envers Blizzard. J’aime d’ailleurs beaucoup les jeux Blizzard, mais un peu de diversité ne ferait pas de mal.


Le 23/04/2013 à 12h 13

Un bon Homeworld 3 serait rafraîchissant… La variété des RTS a malheureusement bien chuté avec les années (il faut dire que là où Blizzard passe l’herbe ne repousse pas).

Le 22/04/2013 à 11h 30







Alkore a écrit :



Vu les troll qu’on peut lire ici, manifestement certains n’ont tjs pas compris que c’est l’usage qui détermine l’intérêt d’une tablette ou d’un netbook, qui au demeurant s’avère plutôt complémentaire que concurrent <img data-src=" />





+1



Ça fait des années que j’ai un Netbook, qui me sert énormément en déplacement notamment pour faire des présentations : pour moi, pouvoir installer une suite bureautique et brancher un port VGA est indispensable. Je suis bien content aussi de ne plus avoir à me trimbaler un portable de 15” qui pèse 3 kg, un Netbook de moins d’1 kg qui rentre dans un petit sac à dos me convient mieux. À l’occasion je peux aussi brancher écran, clavier et souris, pour m’en servir comme d’une tour PC normale.



Les tablettes sont prévues pour d’autres usages. Si les gens sont contents avec leur tablette tant mieux pour eux, mais il faut arrêter de dire que plus personne n’a besoin de Netbook…


Le 21/04/2013 à 15h 18







Ricard a écrit :



Il m’est avis qu’un data center utilise beaucoup plus d’énergie (refroisissement monstrueux oblige) que des centaines des miliers de particuliers avec leur petits NAS perso à 10W comme un Qnap TS-212 par exemple.





Je plussoie cette remarque.



Dire que les services Cloud ont de l’avenir, c’est une chose, et je suis tout à fait d’accord pour dire que ça va se développer et s’enrichir avec les années.



Mais penser que tout le monde, partout, va passer au Cloud, et que les machines déconnectées vont complètement disparaître, c’est se fourrer un câble RJ45 dans l’œil. Les entreprises sont les premières à ne pas vouloir externaliser leurs données, elles préfèreront toujours une solution interne (quitte à faire du “Cloud” en Intranet). Quand aux particuliers, nombreux sont ceux qui veulent aussi garder la main sur leurs données perso (le marché des NAS n’a cessé d’augmenter ces dernières années), et à bondir quand une machine demande une connexion obligatoire pour fonctionner (cf encore une fois, les réactions autour de la prochaine XBOX).


Le 21/04/2013 à 11h 15







ldesnogu a écrit :



En attendant, comme je ne suis pas un fanatique absolu de l’open source, j’utilise ce qui marche le mieux : nVidia + pilotes propriétaires. Pragmatisme avant tout…



Je rends hommage à ce que fait AMD, et j’aimerais bien qu’nVidia fasse de même. Mais avoir des spéc c’est bien beau, c’est juste un prérequis (nécessaire) pour avoir des drivers, c’est insuffisant. La preuve est bien que les Catalysts sont encore plus performants que les drivers open source.





Entièrement d’accord, d’ailleurs je suis aussi pragmatique, chez moi j’utilise les pilotes proprio nVidia. Ça ne veut pas dire pour autant que nVidia est “Linux-friendly”.


Le 21/04/2013 à 11h 10







benco a écrit :



on entre dans un monde ou si tu as besoin de ressource informatique il suffit de se connecter de demander une VM et tu l’auras.





Ce dont tu parles, c’est exactement ce que propose le Cloud : des services non pas installés sur la machine locale, mais accessibles par le réseau : stockage de données (ce que Youtube, Dropbox, etc. font depuis des années déjà), logiciels à distance (Google Docs, MS-Office…), voire machines virtuelles ou jeux vidéos à distance. Pour l’instant la bande passante de la connexion locale ne permet pas encore de tout faire, mais je pense effectivement que cette approche va fleurir et se démocratiser dès que les débits des réseaux le permettront. Au lieu d’acheter un PC (dont le prix risque en + d’augmenter, cf la news) les gens “loueront” une machine virtuelle, un logiciel, un jeu vidéo, quand ils en auront besoin, pour quelques Euros par mois.



Cette tendance est sans doute inévitable, après personnellement ce qui me gêne c’est de ne pas avoir le contrôle de mes données, et de ne posséder aucun droit sur les logiciels. Mes données personnelles, je les voudrai toujours chez moi, et pas sur un serveur d’une quelconque compagnie. Les logiciels que j’utilise, je veux pouvoir les utiliser n’importe où, et même si je suis déconnecté du réseau.



L’autre problème que je vois au Cloud, c’est que du point de vue de l’utilisateur (néophyte) ça apparaît décentralisé : au lieu d’avoir ses données sur un disque dur chez lui qui peut lâcher à tout moment, ses données sont “dans les nuages”, avec des sauvegardes multiples, ainsi il est sûr de conserver ses données même si sa maison brûle. En réalité les entreprises qui proposent du Cloud sont on ne peut plus centralisées : Google Docs n’existe que sur les serveurs de Google, les sauvegardes de Playstation 3 sont toutes chez SONY… Et quand une telle entreprise se fait pirater, ce sont les données de tous les utilisateurs qui sont compromises. On en a eu des exemple avec SONY, Nintendo, Apple… Si les gens utilisent de plus en plus ces services centralisés, les pirates n’ont plus à attaquer des milliers de PC -il suffit d’attaquer la banque centrale. Ricard a raison : tout miser sur le Cloud, ce serait se diriger vers du Minitel 2.0.



Le discours qui consiste à dire “le déconnecté ne doit plus exister, aujourd’hui tout doit être déconnecté”, je le trouve d’une absurdité sans nom, et apparemment je ne suis pas le seul au vu des réactions au discours d’Adam Orth sur la prochaine XBOX.



Le connecté, oui. Le tout connecté, non. Lorsque la bande passante (et surtout l’upload) de nos chères connexions Internet augmenteront de façon significative, ce sera pour moi l’occasion de mettre en place un “Cloud” à la maison, chez moi, auquel je pourrai accéder depuis d’autres endroits. Après tout c’est comme cela qu’Internet a été conçu : pour être décentralisé, chaque ordinateur relié au réseau pouvant devenir un serveur et proposer des services.


Le 21/04/2013 à 09h 01







Bylon a écrit :



L’édito parle aussi de la différence entre nVidia et AMD. Alors là c’est pas dur, nVidia est Linux friendly, et donc par conséquent tout à fait à l’aise sur Android (kernel Linux) avec de l’ARM, AMD c’est tout le contraire.





nVidia fournit ses pilotes sous forme de blobs binaires contraires à l’esprit du libre, et contraire à l’esprit du noyau Linux. Si on ajoute à cela le non-support de Optimus sous Linux depuis des années (qui leur a valu un doigt bien tendu de la part de Linus Torvalds), non, on ne peut pas vraiment dire que nVidia soit “Linux-friendly”. Ce que je concède, c’est qu’au moins, pour les cartes graphiques grand public, ils fournissent des pilotes qui marchent…



Il existe bien des pilotes libres pour cartes nVidia, mais comme nVidia ne fournit aucune spécification technique les développeurs sont obligés de faire du reverse engineering. Du coup, pilotes de moins bonne qualité, fonctions manquantes, manque d’optimisation…



AMD fournit ses specifications techniques, ce qui permet de développer des pilotes libres, c’est bien plus Linux-friendly. Après, la qualité de leurs drivers n’est peut-être pas aussi bonne que celle des pilotes proprio nVidia, mais c’est une autre discussion, celle des performances et optimisations logicielles. En terme de “Linux-friendly” (ou “libre-friendly”), AMD:ATi est bien plus respectueux que nVidia.







127.0.0.1 a écrit :



Y a plus trop de raisons pour changer son PC tous les 1 ou 2 ans.



Doubler la fréquence du CPU ou le nombre de triangles affichés par le GPU n’est plus vraiment une nécessité. Aucun nouvel usage du PC oblige a upgrader son matériel. Les jeux sont la dernière bonne raison de racheter du matos neuf. Et même là, ce n’est plus vraiment une necessité.





Merci pour cette synthèse de mon message #11 <img data-src=" />


Le 20/04/2013 à 10h 02







darkbeast a écrit :



la loi de moore est deja maintenu artificiellement par intel depuis plusieurs années





Normal Moore bossait chez eux, s’ils veulent rester crédibles… <img data-src=" />


Le 20/04/2013 à 09h 33







ninjafada a écrit :



plus les tablettes qui sont assez puissantes pour remplir 90% des usages





C’est vrai que les PC actuels sont en majorité sous-exploités. Les applications très demandeuses, comme le montage audio/vidéo, le calcul intensif, etc. sont marginales, et ne suffiront peut-être pas à la poursuite de puissance. La seule exception dans ce domaine sont les jeux vidéos, très populaires et réclamant toujours plus de puissance, mais aujourd’hui une partie de cette puissance manquante vient d’un manque d’optimisation logicielle (à cause du non-passage au 64 bits, de Direct X, etc.). Je ne suis pas sûr que les jeux vidéos seuls suffiront à tirer la puissance vers le haut, d’autant que certains contructeurs comme Nintendo, plutôt que de jouer la course à la puissance, au graphisme et au réalisme, préfèrent utiliser des machines aux capacités limitées. On pourrait aussi citer l’essor des jeux indépendants qui, aussi bons et novateurs qu’ils puissent être, n’exploitent que rarement l’intégralité de la puissance d’une machine.



L’évolution du hardware et la loi de Moore sont poussées par les besoins, et très peu de besoins aujourd’hui exigent davantage de puissance dans nos PC. Le boom des cartes 3D des années 1998-2005 est passé (ah le temps mythique des Voodoo, GeForce 256…). Du coup, les gens changent leur PC moins souvent. Les besoins des gens se concentrent sur autre chose, notamment la connectivité : smartphones, consoles, Cloud Computing, s’accompagnent de besoins en terme de bande passante (débits sur Internet pour y stocker et échanger ses données, 4G pour les téléphones…).


Le 20/04/2013 à 08h 56

Très intéressante comme analyse. Autre conséquence, certes plus théorique : la loi de Moore (disant que le nombre de transistors par unité de surface double tous les 2 ans) risque de ne plus être suivie.

Le 16/04/2013 à 14h 43



Initialement, elle était essentiellement un concurrent de Flash



…c’est-à-dire un blob binaire, fermé, non-standard et contraire à l’esprit du Web…



Et à la différence près que Flash, au moins, était + interopérable puisque disponible sous Windows, MacOS, Linux, alors que le support de Silverlight sous Linux (projet Mono et compagnie) a toujours laissé à désirer. Quitte à attendre une alternative viable, il valait mieux rester sous Flash que de passer à une techno encore pire qui oblige les utilisateurs à installer davantage de plugins et en laisse certains sur le carreau.



Tous les sites qui se sont mis à Silverlight pour proposer des vidéos (Netflix, ou chez nous France Télévision) ont fait une grosse erreur, c’était évident depuis le début…



[/mode râlage off]



Le truc qui fait plaisir c’est que de plus en plus d’acteurs passent à du standard. Bon après le problème n’est plus au niveau du langage [html] mais au niveau des codecs utilisés, puisque tous les navigateurs ne supportent pas les mêmes codecs… mais c’est une autre histoire.