votre avatar

kirire

est avec nous depuis le 27 janvier 2011 ❤️

129 commentaires

Le 19/06/2015 à 13h 46

Heu non pas vraiment de l’anti AMD… De manière totalement objective (et je tiens à préciser que ma seule carte graphique est un IGP d’Intel), la 980 fait légèrement mieux, sinon égal à la R9 390x de MSI qui est une carte overclocké (d’après Guru 3D)… Sachant qu’en plus la 980 est une carte qui à 8 mois d’existence (qui est un temps relativement long dans le domaine de l’électronique)… c’est pas tellement de l’anti AMD cet article et c’est un ressenti de toute la presse informatique en générale que j’ai peu voir.

Le 08/10/2014 à 06h 35







David_L a écrit :



ça dépend, la vente à perte de la machine se rattrape sur les jeux et les accessoires ? <img data-src=" />&nbsp;





La vente à perte est interdit en France (et très certainement à l’échelle de l’europe également) ;)

Moi je dis qu’il suffit de voir seulement la taille d’une carte graphique sur PC et de comprendre qu’une console ne sera JAMAIS aussi puissant&nbsp;

<img data-src=" />


Le 03/09/2014 à 08h 25







Lafisk a écrit :



Completement faux, et je dirais meme plus, du grand n’importe quoi. Je suis dev a temps plein, je suis aussi le concepteur des programmes que je dev et les maths (a l’etat pure) ne representent presque rien dans mon code … la plus grosse partie d’un prog reste son archi au final, les maths pures (et encore les maths de niveau avancees interviennent rarement dans un programme) restent plutot limite a une partie du code metier qui lui meme n’est pas la totalite d’un programme.





Disons que y a programmation et programmation, moi de mon côté je fais que des maths avec. Et je dirais que l’ordinateur est une calculette très efficace et le langage info est le moyen de communiquer avec lui. Quasiment tout en info est issu dans concept mathématique (anneaux de boole, logique, pseudo aléatoire, et un tas d’autre chose). Et dieux merci on va pas enseigner aux bambin ce que tu décris, car tu décris un métier et pas un apprentissage et surtout ça n’a absolument rien à faire en primaire !

En fait très franchement je vois absolument pas le problème avec l’enseignement actuel de l’info, il est très bien, j’ai pas l’impression qu’aujourd’hui on manque de personnes qui savent programmer. Et qu’un môme qui plus tard fera histoire, français, politique, science sociale, médecine etc. je vois pas trop à quoi ça va lui servir…

Enfin la logique d’apprentissage, c’est on va de la théorie vers la pratique, le codage, comme ce que tu décris, c’est la pratique, les maths, l’anglais et tout et tout c’est la théorie.


Le 02/09/2014 à 20h 19







NonMais a écrit :



Ce qu’il n e faut pas lire parfois … <img data-src=" />

où j’ai écrit que c’était en primaire la récursivité ou les variables?

J’ai dit (enfin il me semble….) que l’initiation à la prog était une bonne chose de mon point de vue et ce même dès 5 ans.

Ensuite, de manière générale, la prog permet de former l’esprit à une certaine appréhension des problèmes, de façon structurée et logique.



Et puis le coup de l’intégrale/dérivée… j’ai vraiment dû mal m’exprimer car vous êtes plusieurs à y voir l’inverse de ce que j’ai voulu dire…



Enfin, pour moi programmer ce n’est pas pisser du code… c’est concevoir, architecturer et enfin pisser le code.





Le sujet c”est l’apprentissage du langage informatique aux jeunes élèves, donc si tu parles de variables et de récursivité comme enseignement idéal, dans le contexte de la news, oui c’est en primaire; Après dans les études supérieurs il me semble que n’importe qui faisant une formation scientifique voit tout ceci (donc pas quoi de s’exciter derrière son écran).

Pour moi y a des choses bien plus essentielles à enseigner aux bambins qu’à pisser du code. Notamment la logique (implication, déduction, etc.) et plein d’autre truc mathématiques plus ou moins amusant, l’anglais, etc. Pas besoins de leurs bourrer le mou avec ces connerie d’informatique quand le reste n’est même pas assimilé !

Vous êtes des spécialistes d’orienter objet, vous devez bien voir qu’il y a plein de concepts et plein de truc théorique don le codage hérité et n’est qu’un enfant, non ? <img data-src=" />


Le 02/09/2014 à 11h 51







NonMais a écrit :



La programmation est un excellent moyen à mon sens d’acquérir de la logique et une façon structurée d’aborder des problèmes (et donc se donner de bonnes chances de les résoudre) : ET/ou logiques , la récursivité, la portée des variables, etc…

C’est un complément aux maths de mon point de vue (qui a vraiment besoin d’une dérivée/intégrale dans sa vie professionnelle ou personnelle… vraiment peu de personnes) : ça permet de former l’esprit à l’appréhension et résolution des problèmes quotidiens.





Mais bien sur, récursivité et variable en école primaire… qu’est-ce qu’il faut pas lire des fois <img data-src=" />

Allez et puis on leurs expliquera ce qu’est un annaux pour introduire l’anneau commutatif de boole (logique binaire) en passant par les lois de composition internet de anneau et semi-anneaux.

Les intégrales et les dérivés moins important que le codage… (bon déjà là on régresse car on quitte l’école primaire…) et ben je sais pas ce qu’il faut, ça me semble le minimum pour faire des calculs aux éléments finie (qu’est la base de la simu), les autres modèles physiques (Maxwell, Navier-Stokes, etc.) l’informatique ça sert à ça et pas seulement à pisser du code. DOnc audelà de pisser du code et savoir faire du C, C++, Java, etc. l’informatique c’est des maths.


Le 28/08/2014 à 14h 36







luxian a écrit :



Oui mais c’est pas dropbox like en matière de fonctionnalités et de comportement de logiciel.





On ne voit pas le Google Drive se synchroniser quand il se synchronise.

La dernière fois que je l’ai employé sous Linux, il fallait lancer la synchro à la main.

Et en plus … ce con tend à dupliquer les fichiers et à faire des historiques : ce qui devient très vite ingérable.





Ca a peut-être changé depuis ton dernier test, en tous cas sous Windows ce n’est absolument pas comme ça. On voit quand ça synchronise, de plus ça synchronise dès que tu modifie un fichier… et j’ai absolument pas ce problème d’historique…

Par contre au niveau d’exploitation de la bande passante dispo c’est autre chose, l’autre jour j’ai changé de machine, il a donc transféré 8000 fichiers pour un total de 30 Go et franchement, en une bonne heure c’était good <img data-src=" /> (le temps d’installer Google Drive sur ma machine, des faire un p’tit tour sur NexINpact et aller boire un café et pouf ^^)


Le 28/08/2014 à 11h 36







NiCr a écrit :



Change de banque <img data-src=" />





Ha non, j’ai regardé, c’est l’une des plus avantageuse au contraire. Car je paye 1 euro de frais, mais le pourcentage sur le change est très faible ensuite, alors que la plus part des banques il n’y a pas tout le temps un frais fixe, mais le pourcentage est nettement moins avantage…

Alors OK là je me fait avoir pour 1 euro par mois, mais quand je pars à l’étranger elle me coûte moins cher par exemple pour le retrait au DAB que celle de ma conjointe (on a rien sans rien que veux-tu ;) ).


Le 28/08/2014 à 09h 11







kortez06 a écrit :



Pour Google en tout cas les tarifs sont donnés en Dollars mais au paiement c’est changé en Euros, histoire de pas se taper les frais sur le compte !





Oui mais tu payes des frais de change. A ma banque c’est 1 euro + un pourcentage (je sais plus la quel) de la somme.

Donc c’est 1.51 euro + taxe ce qui fait un truc du genre 1.70 + chez 1 euro ce qui fait du genre 2.7 euro au final pour moi.


Le 21/08/2014 à 14h 19







Leum a écrit :



Après sur le long terme, tout dépend de la capacité d’Intel a faire évoluer le X86. Vu le nombre de cassandre qui ne cessent de prédire la fin du X86 depuis 20 ans et qu’il est toujours là, on aura peut-être des surprises.





A oui attention, je ne souhaite pas non plus la mort du x86 non plus ^^

Mais je constate qu’Intel (peut-être du fait de sa politique trop agressive) ce trouve un peu seul sur le secteur et de plus en plus isolé… et ça c’est jamais bon, car les autres partent ailleurs. Comme dis le dictons “il faut garder prêt de soit ces amis, mais encore plus ces ennemis” <img data-src=" />


Le 21/08/2014 à 08h 21







Leum a écrit :



Bah Intel a toujours proposé des IGP a une époque ou AMD et Nvidia faisaient surtout (que?) du GPU. Ensuite ils ont fait l’erreur de pousser Nvidia hors du marché des IGP pour mettre les leurs, d’ou Nvidia qui fait des Tegra qui ne se vendent pas (non mais sérieux, tout ou presque est en Qualcomm).



AMD par contre a profité du rachat d’ATI pour faire des APU, qui ne sont rien de plus que des SoC comme les récents Intel ou l’HD Graphic est intégrée au X86… Mais grâce à ATI, AMD offre de meilleures parties graphiques qu’Intel. Mais avant ce rachat, je ne crois pas qu’ATI proposait quelque chose en face des IGP d’Intel.





Moi je me souviens surtout d’une époque où il fallait quoiqu’il arrive une carte graphique et qu’il n’y avait de toute façons pas de sortie vidéo sur les carte mère (ou très peu) Intel n’avait pas systématisé une partie graphique sur chaque processeur. Je pense qu’a cette époque c’était l’âge d’or d’ATI et NVIDIA, car faut être franc ce sont pas sur les grosses carte graphiques pour joueur que le marché est le plus juteux. Et Intel en proposant ses IGP maison systematique et integré au processeur avec maintenant d’assez bonnes perfs n’a pas su préserver le savoir faire d’autre entreprise favorisant ces entreprises a voir ailleurs en rendant d’autre architecture que le x86 encore plus crédible. Pour moi c’est une erreur stratégique à long tterme (après cet avis n’engage que moi ;-) )

Pour le Tegra (bon déjà le Tegra 3 a pas mal marché, ont le trouve dans pas mal de tablette) mais les derniers versions sont vraiment excellentes. Et surtout NVIDIA a un savoir faire monstrueux dans le domaine graphique et GPGPU et le dernier Tegra K1 en est la preuve. Faut pas vendre la peau de l’ours avant de l’avoir tué ;-)


Le 21/08/2014 à 07h 36

Au fait c’est drôle, mais plus j’y réfléchis plus je trouve que c’est mauvaise idée pour Intel de concurrencer AMD et NVidia sur le secteur graphique. A terme ça risque de favoriser la fuite en avant du x86 vers autre chose où Intel même n’est plus maitre. Mais bon maintenant il est trop tard pour reculer pour Intel, ils n’ont pas eu une stratégie a long terme tant pis pour eux, aujourd’hui nvidia a investie les ARM durablement avec ses dernier Tegra.

Le 11/08/2014 à 16h 55







Alkore a écrit :



C’est clair que la mauvaise réputation des Tegra ne doit pas aider à l’adoption massive par constructeurs. Espérons que le K1 inverse la tendance.





<img data-src=" /> Tu peux justifier le : “la mauvaise réputation des Tegra”. Ma Nexus 7 tegra 3 n’est pas d’accord avec toi, même si aujourd’hui c’est claire qu’elle est dépassé, à l’époque elle était très bonne, voir même excellente.



Mais il est claire que ce K1 au vu des premiers test, à l’aire d’une vrai bombe !


Le 17/07/2014 à 12h 22







brujita a écrit :



Il doit y avoir des raisons à cette impopularité de JPEG-2000. La première est son incompatibilité avec JPEG malgré le nom qui laisse à penser le contraire. La seconde est une qualité relativement proche de JPEG sur les faibles taux de compression (ceux utilisés par le “grand public”).





Incompatibilité avec JPEG c’est parfaitement normal, c’est deux algo qui n’ont pas grand chose à voir, l’un utilisant une TCD et l’autre une transformé en ondelette.

Pour le faible taux de compression il y a pas de grande différence, c’est parfaitement normal, j’irai même à dire qu’avec un taux de compression faible on fait difficilement une différence entre un JPEG et un TIFF, c’est donc un argumentaire un peu léger. Et avec un taux de compression très faible le poids du fichier JPEG doit tendre vers celui du TIFF.

Ceci ne change rien qu’à taux de compression égale le JPEG 2000 fait des fichier plus faible. De plus le JPEG 2000 à un mode de compression sans-perte plutôt efficace car grasse à la multi-résolution introduit par la transfo en ondelette on sépare très bien les détailles de l’image.


Le 17/07/2014 à 06h 52

Le cas extrême de JPEG 2000… mouai… bien sur… et l’auteur pourrait approfondir ce point ?

Car jusqu’à preuve du contraire le seul défaut du JPEG 2000 n’est de pas être populaire, mais est bien plus performant que JPEG pour une taille de fichier identique.

Le 09/07/2014 à 09h 54







def0 a écrit :



Non justement les valeurs données sont pour 276 gares et tes réponse porte sur 105 autre gares.

Les données des 276 gares sont juste fait pour valider que ton modèle est correct rien de plus.

Le modèle à réalisé doit devoir prendre en compte beaucoup de paramètre qu’il ne te fournissent pas !





Et bien c’est super, c’est encore plus fun et on est donc bien dans un contexte de big data. Même si moi perso, s’il faut chercher par nous même les historiques d’autre critères correspondant aux gares données (lieu géographique, heures etc.), me ferais plus chier qu’autre chose.


Le 09/07/2014 à 08h 13







Aponhcet a écrit :



Il n’y a pas de comparaison entre bosser par défi pour un truc avec des valeurs derrière comme Linux, et travaillé sur ca. Si tu as le temps de bosser sur ca pour ca prix la , tu as le temps de bosser sur quelque chose de nettement plus interessant.





Mais… C’est intéressant comme problème. Comme je disais si il n’y a que l’historique du nombre de passager dans chaque gare, un bon vieux modèle GARCH devrait suffire pour modéliser le truc… mais dans ce cas le terme Big data est abusé. Maintenant si y a d’autre info une PCA avec d’autre fioriture peut être employé ^^


Le 09/07/2014 à 06h 37

Franchement, tu y fout un bon petit GARCH ça ne suffit pas ? Il est obliger de faire intervenir du Big data ?

L’estimation du nombre de passager c’est qu’une seule dimension (le nombre d’usager dans le passer), c’est PAS ce que j’appellerais du Big data <img data-src=" />



Pour que ça en devienne il faudrait également fournir tout ce qui peut avoir une influence sur le nombre de passager… Des stat sur les condition météo dans les différentes grande ville, les heure de départ et d’arriver réel (retard et suppression compris) des transport dans la même période, etc. (on pourrait rajouter plein d’autre dimension pour affiner le modèle)

Le 12/06/2014 à 14h 01







Esarend a écrit :



mwé… est-il au final plus important de savoir chercher une information ou de faire du “par coeur” pour tout oublier une fois l’examen fini…





Oui, sans relancer le débat de l’éducation par de la méthode analytique contre méthode synthétique (l’une favorisant certaines classes de la population).



Si les supports sont autorisés il faut des sujets adaptés en conséquence demandant plus à la réflexion qu’au “savoir”. Hors la réflexion et l’esprit critique est enseigné post-bac. Je sais par expérience, que même dans le supérieur, les documents autorisés ne sont pas obligatoirement à l’avantage de l’étudiant. Il est content car il n’a pas grand-chose à réviser du coup (bien que ce soit préférable), mais le jour J c’est généralement un ratage car un étudiant pour qui un cours est tout frais n’a pas forcément le recule et la maturité sur des sujets plus poussé demandant de la réflexion.


Le 25/04/2014 à 10h 03







knos a écrit :



Certain titre l’utilise déjà? Juste pour avoir une idée de ce qu’il vaut (hors démo technique)





Il me semble (à prendre avec des pincettes) que plus ou moins toutes les arrivées des Unreal Engine étaient accompagné des Unreal Tournament… Donc temps qu’il n’est pas sortie, il n’y a pas de jeu déjà sortie qui l’utilise… enfin je pense…


Le 27/02/2014 à 17h 49

Et qu’est ce qui fait qu’il est pensé pour le RAID 0 ? Qu’est ce qui m’empêche de prendre deux Samsung 840 Pro et d’avoir perfs similaire sinon mieux ?

Ce terme “conçu” pour le raid 0 c’est marcketing (et il essaye de faire croit que c’est trop bien alors que ce SSD n’offre rien de plus qu’un concurrent) ou c’est vraiment justifié ?

(je sais c’est dit dans la news… mais je m’interroge)

Le 31/01/2014 à 23h 32







Alameda a écrit :



Yep, c’est dommage. De mémoire, il n’y a pas un philosophe (à confirmer) qui a dit que l’on se devait d’enfreindre les lois si elles étaient complément idiotes ?





Bha c’est comme ça, tu payes un droit d’utilisation, le logiciel ne t”appartient pas, ce n’est pas ta propriété, seule l’entreprise à le dernier mots sur le logiciel en question. Donc acheter puis cracker c’est aussi illégale que cracker directement, peut-être c’est plus “morale” pour toi, mais pas plus légale. Après chacun est libre face à sa conscience et tu n’as pas plus tord qu’un autre, mais ça n’en restera pas moins illégale.


Le 31/01/2014 à 14h 42







Alameda a écrit :



Certes, mais si tu souhaites te servir de leur logiciel sans valider la charte d’utilisation, comment tu fais ? De mémoire quand tu achètes une voiture on ne te fait pas signer une charte d’utilisation disant que tu ne dois pas boire avant de conduire ou autre. Tu as payé ta voiture si tu te plantes en sortant du concessionaire c’est ta responsabilité. Dans ce cas là, je considère que j’ai payé le droit d’utiliser le logiciel (et de me divertir) seulement je n’accepte pas la charte, je fais quoi ? j’ai payé 60€ pour une galette de plastique ?





Oui mais attention quand tu achètes une voiture elle est à toi. Le logiciel c’est juste un droit d’utilisation que tu achètes.

Disons que c’est comme si tu bossais dans une entreprise sans avoir signé de contrat qui te dis ce que t’offre l’entreprise et ce que tu dois offrir à l’entreprise en échange.


Le 31/01/2014 à 13h 03







Alameda a écrit :



Tu peux toujours… tu achètes le jeu mais tu le cracks derrière. Résultat tu “n’est” pas en infraction et tu n’acceptes pas les conditions d’utilisations.





Il me semble que si, si tu le crack, même en l’achetant, tu utilises leurs produits sans avoir validé leur charte d’utilisation. C’est une infraction.

Acheté un logiciel ne t’en fait pas propriétaire, disons que tu l’empreinte sous certaines conditions.


Le 31/01/2014 à 10h 09







Ti Gars du Nord a écrit :



“Il ne faut jamais prendre les gens pour des cons mais il ne faut pas oublier qu’ils le sont” : Les inconnus



youtube.com YouTubeMoi ce que je ne comprends pas c’est comment font les fidèles de la séries pour ne pas ce lasser ?

Car on est à CoD10, soit une sortie par an… pour un jeu au gameplay pas supra évolué (je dirais même simpliste) qui doit demander une capacité cognitif proche de celui de ce toucher la nouille…


Le 31/01/2014 à 09h 58







Iceksy a écrit :



15€ pour 5 cartes et une arme.

Merci de prendre les gens pour des cons, Activision :)





En même temps ça ce vend… Alors est-ce que Activision prend les gens pour des cons ou … ?


Le 31/01/2014 à 23h 24







John Shaft a écrit :



Faut faire le choix malin : PC + WiiU





Tu prêches un converti <img data-src=" />


Le 31/01/2014 à 15h 28

Pas vraiment grave, le plus gros éditeur de la Wii U c’est Nintendo et ces exclus… Il est évident qu’avoir le choix à avoir le jeux sur PC ou PS4 ou XO ou finalement sur Wii U les gens ne choisissent pas la Wii U. Les personnes qui ont acheté la Wii U c’est pour les jeux made in Nintendo.

Le 23/01/2014 à 07h 52







kail a écrit :



Y en a qui se rendent pas compte qu’on peut tout à fait jouer avec du matos très ancien sur des jeux récents. Alors évidement, c’est pas avec les options à fond les ballons, le contraire même, mais c’est tout à fait possible. Enfin , laissons dire les imbéciles <img data-src=" />





Je parlerais même pas des cartes graphique et des processeur… Mais aujourd’hui sur PC pour jouer à un jeu il faut minimum 2 Go de RAM…. La PS3 a 128 Mo !

Tu lancera JAMAIS un GTA 5 avec la config équivalent PS3 sur un PC, rêve même pas, tu pourra même pas faire du 30 fps 720p !

Mais où tu te trompe, c’est qu’on ne fait pas l’apologie des consoles (et je pense que sur PCInpact la plus part des joueur sont des joueurs PC, comme moi), on dit que le parc de machine des PC n’est pas homogène donc on peut pas optimiser à fond comme sur console, et dire que les Steam machine sont des consoles c’est balo, car l’homogénéité est le seul avantage des consoles et celle-ci ne l’a même pas.

En fait la Steam machine est aussi cher qu’un PC (une console c’est aujourd’hui 500 euro max), et il y a beaucoup de config différentes comme sur les PC… En somme c’est un PC… bridé…


Le 22/01/2014 à 15h 11







kail a écrit :



Et un OS PC ne fournit pas un environnement homogène? Le travail d’optimisation des développeurs, c’est exactement ce que tu peux être amené à faire en réglant les paramètres graphiques dans un jeu PC: ça prend 2 secondes si tu as un PC puissant (tout à fond) et 2 minutes si tu as un PC modeste.





Tu as absolument rien compris.

Déjà c’est faut ce que tu dis… Mais en plus le but d’avoir un parc de machine homogène c’est que soit le jeu fonctionne bien, ou il ne fonctionne pas bien… quitte à mettre moins de débauche graphique dans un jeux, mais personne ne souffre d’un manque de puissance.


Le 22/01/2014 à 13h 04







kail a écrit :



Proposer un refresh tous les ans, ça ne sert pas comme tu dis à racheter une machine à jour pour suivre, non monsieur. Ça sert à proposer aux consommateurs d’acheter une configuration au goût du jour dés que leur en prend l’envie et du coup, à ne pas avoir à subir un prix constant avec un matériel qui a pris un coup de vieux comme c’est le cas avec le modèle économique des consoles classiques.





Le PRINCIPAL intérêt des consoles est de fournir un environnement homogène, un développeur sait comment ce comportera son jeu sur n’importe quel machine en testant seulement sur une, ce qui favorise grandement l’optimisation. Alors que déjà chacun peut construire des Steam Machine à sa sauce, qu’en plus il y a visiblement des Steam Machine “bas de gamme”, “millieu de gamme” et “haut de gamme”… mais si en plus les caractéristiques change tous les ans… Ptai ce ne sont plus des “console”, mais des PC… des PC qu’on ne peut en plus là même pas faire évoluer par soi-même.

En fait il y a aucune différence entre les Steam Machine et les Battlebox de n’Vidia… Ce sont tous les deux des mort-nés.


Le 22/01/2014 à 12h 53

Les Steam Machine <img data-src=" />

Le 21/01/2014 à 08h 53







levhieu a écrit :



La communication originale d’Intel dit que:




  • Sans rien faire, il y a 4% des salariés qui quittent la société par an

    (retraite, démission …).

  • Le but est d’arriver aux 5% sans avoir à licencier vraiment.



    Je vous laisse vous faire une opinion.





    Oui je pensais à ça aussi… On peut simplement ne pas remplacer les départs et on peut arriver facilement à 5%

    C’est une pratique courante que l’état français fait régulièrement par exemple. Cette méthode est assez perverse car l’entreprise crée du chômage, mais on peut pas la mettre en cause directement.


Le 15/01/2014 à 15h 39

Enfin je veux pas minimiser la différence aussi… Mais entre la PS3, la 360 et la PS4, la One… la différence est minime… Ils ont rajoutés quelques transistors youpie… Elle est où la 4K ? (cette génération doit duré 10 ans)… Et même les jeux 1080p 60 fps ils sont où ?

Bon bha pour moi ça été vite vu, Wii U avec Zelda WW que j’avais jamais fait et super mario word 3D et surtout toutes les exclus énormes des prochaines années. Pour le reste il y a le PC don le catalogue est à 99% identique… en plus zolie <img data-src=" />



PS : nintendo toujours les même jeux ? Faut vraiment être de mauvaise foie, à part l’univers le game play est radicalement différent d’un jeu à l’autre (Super Mario Galaxy vs Super Mario 3D world vs Super Mario Sticker Star etc. la liste est longue).

Le 10/01/2014 à 14h 06







Mme_Michu a écrit :



Je suis pour qu’ils luttent contre le racisme..

Mais ce serait encore idéal si ce gouvernement mettait aussi autant de ferveurs dans la lutte contre le chômage et la précarité en France .. ça se dit gouvernement de gauche en plus ..





Ouais, mais s’il lute contre le chômage avec la même démarche, il va foutre en prison tous les étudiants qui seront de futur chômeurs comme ça pouf c’est réglé.

Je suis d’accord que c’est plus simple de prévenir que de guérir… mais la république française n’a pas été pensé comme ça… “Je ne suis pas d’accord avec ce que vous dites, mais je me battrai jusqu’à la mort pour que vous puissiez le dire.”


Le 09/01/2014 à 07h 36







maestro321 a écrit :



Heu?!

A part déformer l’image perçue si on est pas pile poil au centre du cercle de la courbure de l’écran ça sert à quoi une tv incurvée?





Même au centre tu as une déformation, la capture vidéo est une capture sur un plan, si tu la transpose sur un “arc de cylindre” tu as une déformation.



C’est compliqué, le seul endroit où une personne ne percevra pas une déformation vis-à-vis de l’écran est au niveau du centre du rayon de courbure (ce qui est très restrictif, mais c’est le seul endroit où l’écran est entièrement équidistant de la personne).



Mais en réalité il y aura déformation vis-à-vis de média car lui (la caméra) capture un plan et non pas un “arc cylindrique”…



Bref c’est une idée bien fumeuse mais que ce repend comme une traîné de poudre… J’ai peur que bientôt il faille luter pour trouver une écran non convexe.


Le 08/01/2014 à 11h 35

Tiens, à ce propos j’ai une question, je profite du propos de la news pour la poser.

Je n’arrive pas à avoir la MAJ 8.1 car mon 8.0 n’est pas à jour, quand je cherche à le mettre à jour j’ai un redémarrage infini (l’ordinateur s’éteint et redémarre reste bloqué à 78% de la MAJ et redémarre etc.) Quelqu’un a t il une idée sur le pourquoi du comment ? Et surtout une solution qui m’éviterais à tous réinstaller <img data-src=" />

Le 07/01/2014 à 16h 44







Holly Brius a écrit :



Que dire du joueur PC avec son quad SLI…

Sinon, rien ne t’empêche d’utiliser ta steambox comme un PC… Chose que les consoles ne permettent pas…





Oui, mais c’est un PC.

La machine là est vendu comme console, elle va donc subir les comparaisons direct. Une XO coûte 500 euro, une PS4 400 euro et là la moyenne est autour d’un peu plus de 1000 euro.


Le 07/01/2014 à 14h 58

Je vois mal quelqu’un mettre 1000 euro (voir plus) pour un truc qui est vendu comme un console…

Ca rime à rien leur truc. Il fallait que Valve conçoivent et vendent leurs machine (comme Microsoft, Nintendo et Sony), ça aurait été nettement plus sympa… Mais là c’est ridicule.

A voir la manette, si elle est sympa je pourrais me la prendre sur PC <img data-src=" />

En plus du coup aucune homogénéité dans le config… donc la maîtrise de hard et l’optimisation ce fera comme sur PC…

Le 06/01/2014 à 08h 35

lol ça troll un peu sur le graph qui compare des manière très imagé les perfs entre mobile, PS3 X360, PS4 XO et PC <img data-src=" />

Le 03/01/2014 à 11h 03







wykaaa a écrit :



Non car la dernière génération c’est le 802.11 ac, donc Microsoft est honnête en ne disant pas “dernière génération”.





C’est vrai, dans ce cas tu mets juste “Wifi” toutes les générations étant rétro-compatible monsieur tout le monde ce fout de ce détail.


Le 03/01/2014 à 11h 01







desaunay a écrit :



Bonjour,

[…]





Heu… donc si tu achètes le Surface 2 avec le i5 4200U et qu’au même prix ton voisin achètes le Surface 2 avec i5 4300U et qu’AUCUN moyen ne permet les différentier à l’achat… toi trouve ça normal. Moi perso j’aurais eu l’impression de mettre bien fait <img data-src=" />

On sait que d’autre marque font idem… mais généralement le détail technique mentionne la différence (là il y a juste écrit i5 4ème génération, difficile d’être plus vague, autant mettre simplement “processeur intel” ou encore juste “processeur” <img data-src=" />).

Ce n’est pas parce que d’autre marque le font que ça rend la procédure moins critiquable.



Un produit fini ne doit pas subir de modification sans le mentionner, par exemple si tu achètes une 3DS maintenant et plus tard tu aura le même processeur, le même écran et les même batterie, il en va de même pour les consoles de salon, les changements de la Playstation 3 ce sont accompagné généralement d’une nouvelle console (PS3, PS3 slim etc.), idem pour le XBOX. Et l’exemple de la XO que tu énonce, ce changement à eu lieu avant sa sortie donc c’est hors sujet.


Le 03/01/2014 à 10h 11

Ça c’est un problème des tablette, on va vers une telle vulgarisation de l’informatique qu’on en oublie l’essentiel. Par contre a côté il y a écrit compatible IEEE 802.11 a/b/g/n alors qu’un simple “compatible wifi dernière génération” aurait suffit pour un père de famille. Microsoft a parfois une logique difficile a comprendre.

Le 24/12/2013 à 13h 00

C’est marrant les gens qui disent qu’il est trop répétitif…

Car pour moi la répétitivité c’est la définition même d’un RPG (je précise que je suis pas fan des RPG, je trouve ça long et chiant).

Moi ce qui me plait dans ce jeu, en dehors des aspects technique RPG ou même jeux vidéo, c’est son histoire.

Car je pense pas que ce soit un jeu qu’on joue pour son game play (même si l’aspect technique doit être là et il l’est)… c’est avant tout une histoire, un space opera qui pour moi n’a rien à envier à Star Wars ou autre avec un background très riche (la guerre du premier contacte, le racisme envers les humains, les guerres inter-raciaux, les génocides inter-raciaux, etc., tout ceci est très bien mené et très prenant, je jeux s’est formé une vrai identité qu’on retrouve au final assez peut ou a moindre mesure dans la plupart des RPG).

Le 18/10/2013 à 08h 47

Donc cette carte AMD à l’avantage en 4k en qualité moyenne… voit pas l’intérêt, pour moi plus on monte la définition de l’écran c’est pour que les détailles soient plus précis… Si c’est pour finalement jouer en moyen… autant revenir à du 1080p en Ultra <img data-src=" />

Et puis avant que le 4k soit dispo au commun des mortels, on sera plus sur cette génération de carte.

Il faut fouetter le responsable de la com’ chez AMD <img data-src=" />

Le 09/10/2013 à 06h 41







-Gui- a écrit :



Ca sent quand même le portage à la truelle quand on sait qu’il sort aussi sur 360 et PS3…

On dirai qu’ils ne se sont pas trop cassé le c à faire des quality settings et juste balancé la version next gen sans options pour les configs moins puissantes.





As-tu regardé sous quel condition il tourne sur ces consoles ?

Par exemple il me semble que sur les consoles next gen il sera en 720p/60 fps par seconde. A ce compte, en 720p la config min suffit largement pour être au niveau des next gen. <img data-src=" />


Le 24/09/2013 à 16h 35







ouvreboite a écrit :



Cannibalisé ou étendu ?



Que la part actuelle des ultrabook 13” sur les notebook 13” augmente, soit. Mais y a-t-il vraiment moins de choix possible pour les notebook 13” qu’il y a 2-3 ans ?





Bha quand je regarde, Asus à visiblement délaissé ce secteur au profit de l’ultrabook… aujourd’hui il n’y a guère plus que Lenovo et Dell qui en font encore sous la dénomination “pro”.


Le 24/09/2013 à 15h 45







Tolor a écrit :



Ça a déjà été discuté dans les commentaires au dessus.Si tu dis que le pro 2 ne devrait pas exister par rapport à un portable 13” classique, c’est aussi tous les ultrabook qui selon toi n’ont aucun intérêt (sans compter l’aspect form factor, tactile…)





Et je pense la même chose des ultrabook en effet, qui ont véritablement cannibalisé les PC portable au format 13 pouce. Le problème c’est que le segment 13 pouce c’est plutôt pro et ce segment a été tous simplement inondé par des gadgets comme ce surface pro. En ce moment c’est la grande mode du casual-geek.



Après j’ai rien contre ce marché, mais je trouve ça très dommage que ce soit au détriment d’autre secteur.


Le 24/09/2013 à 13h 38

Je ne comprends pas vraiment le Surface pro 2… C’est quoi l’intérêt de ce truc ? Vu le prix et les caractéristique il vaut mieux un bon petit portable (13 pouce) bien plus puissant sur le quel on peut changer le disque et la RAM <img data-src=" />

En fait le Surface pro est une ignominie qui ne devrait pas exister <img data-src=" />

Le 13/08/2013 à 16h 25







indyiv a écrit :



surprenant que les testeurs pro n’ont pas fait mention de ses problemes …



soit ces tests sont baclés; soit on a affaire a des Google fan boys, soit les machines des testeurs n’ont pas de type de problemes …





On a retrouvé captain obvious <img data-src=" />


Le 13/08/2013 à 14h 10







the true mask a écrit :



Admettons !!



Mais c’est quoi le rapport ??



J’ai pas le droit de critiquer les produits de mauvaise qualité , loin de ce qu’on nous fait croire, parce que je serais Apple fan <img data-src=" />





Heu… Là c’est un problème sur certain appareil d’un nouveau produit… Et il me semble que à Apple aussi ça arrive régulièrement ce genre de problème, voir même sourvant (écran qui jaunit, batterie qui gonfle, capteurs qui foirents, antennes ou tout simplement surchaffe).

Donc soit tu n’as pas l’esprit critique pour deux sous, soit c’est du gros <img data-src=" />



Pour la longétivité faut pas critiquer sans connaitre, dans ma famille je connais quelqu’un à qui son iPhone a claqué au bout de 3 ans et je connais quelqu’un qui a un Nexus S depuis plus de 3 ans et RAS. Après tu trouveras toujours des gens à qui le contraire est arrivé, bref… sans stat sur un échantillon significatif on peut rien affirmer.