Pour le coup, c’est plutôt la partie qui concerne les wafers que je ne connais pas, ma question était mal posée (d’ailleurs “d’avantage” -> “davantage”, pardon pour vos yeux).
Donc j’imagine que ce que je recherche serait un article détaillant la conception physique des puces, précisant la partie à laquelle les constructeurs font référence dans leurs présentations…
Un sujet bien velu pour l’ouverture de INPACT Hardware, David ? ;-)
Le
10/12/2018 à
12h
48
Un article pour nous expliquer en quoi ces finesses de gravure sont d’avantage du bullshit marketing qu’autre chose, ainsi que leurs effets ? :-)
La R&D sur l’électrique n’est pas uniquement applicable à la voiture individuelle ! Et l’autonomie implique aussi un potentiel partage du moyen de locomotion à la discrétion du propriétaire (Uber, Chauffeur privé, G7, Blablacar, vous, moi), avec rémunération de ce dernier.
Ceci dit, vu les positions actuelles des pouvoirs publiques sur la transition énergétique, à laquelle la fin de la voiture individuelle serait à coup sûr bénéfique, il est vrai qu’espérer un changement des mentalités rapide semble optimiste.
D’autant plus que, concernant l’autonomie, la technologie et la législation doivent d’abord être mises au point…
C’est déjà le cas actuellement. Entre les séries Amazone Prime Originals, Netflix Originals, Canal Plus (avec abonnement hors de prix pour ce dernier) et autres, au final c’est l’obtention par des moyens détournés qui reprennent du poil de la bête…
J’ai eu l’impression d’un échange constructif sur deux visions différentes d’outils informatiques " />
Le
20/10/2017 à
13h
31
Je ne prétends pas que les points soulevés fassent l’unanimité ;-) Comme tu l’as dit, chacun trouve son bonheur comme il l’entend :-)
Pour le backslash, c’est plus une histoire de positionnement sur le clavier, en fait. J’ai des grandes mains, mais les contorsions que m’obligent le layout azerty sont d’un pénible… Pas le souci avec l’azerty de macos, d’ailleurs. De ce point de vue, Linux est un compromis acceptable.
Bref. J’en reviendrai peut-être, mais pour le moment c’est windows en loisir, linux au taff et macos (machine de 6 ans !) en appoint " />
Le
18/10/2017 à
16h
16
Pour plein de choses. Le copier/coller n’en est pas une, d’ailleurs.
Dans le désordre :
> dispo des softs / librairies open source
> terminal >>>>> powershell (Çà veut dire “bien supérieur”)
> “Oh, tiens, c’est quoi cette idée saugrenue d’utiliser des backslash pour les chemins ?” (Le backslash, c’est pour échapper des caractères dans une regex, et c’est marre !)
> Ca rentre dans la comparaison des shells, mais c’est pratique d’avoir un environnement semblable pour le dev et pour la prod (parce que les serveux font quand même majoritairement un Linux, et pas un Windows)
> Et puis les mises à jour sauvages de windows aussi, ça va un moment.
En gros. Pour faire simple.
Le
17/10/2017 à
16h
04
Surface Book != Surface Pro
Les surface book sont la gamme au dessus des Surface Pro, si je ne dis pas de bêtise.
L’écran, dont la résolution est bien supérieure. La qualité de fabrication (j’ai un acer, Ubuntu, sous les doigts en ce moment…), l’écran tactile, le mode tablette, le SSD en PCIe (bien plus véloce que sur SATA), la possibilité d’avoir une carte graphique dédiée (peut être utile pour le boulot aussi ;-) ).
Sûrement d’autres points. Mais comme pour tout, ça en revient à ce pour quoi l’ordi va être utilisé et, surtout, ce que l’utilisateur veut en faire et ce qu’il privilégie dans la machine.
Le
17/10/2017 à
14h
50
Pour développer autre chose que des applications exclus windows ou faire du front (façade de sites web), windows c’est une belle plaie. (Je généralise, tapez pas les copains.)
L’alternative c’est MacOS. Ou Linux. Perso, c’était la première option pendant mes études, et la seconde depuis que je bosse. Mais les avantages de la première (des machines bien finies, trop cher certes mais fonctionnelles, “no hassle” diront les marketeux) sont compréhensibles et expliquent en partie son choix par rapport à la contrainte de devoir (savoir) s’installer un environnement sous Linux.
L’autre partie, ne nous leurrons pas, est bien entendu le marketing très efficace d’Apple et les hordes de fans qui de toute façon ne conçoivent pas de peser le pour et le contre. Mais on en trouve aussi chez les linuxiens (bien que ça leur coûte bien moins cher " /> ) et les autres.
Pour contribuer au débat : la robotisation de nos sociétés a déjà largement commencé. Son augmentation est plus que souhaitable : elle est nécessaire. Elle forcera nos sociétés à changer et à accepter que le travail contraint n’a plus lieu d’en être un pilier.
C’est tellement triste pour AMD… Enfin, surtout pour le consommateur en fait. Vous pensiez les tarifs des 10x0 abusés ? On a encore rien vu.
Ou alors, AMD joue la carte (malhabile) du bluff en sortant un produit de bas-milieu de gamme “tout pété” (pour forcer le trait) et en défonçant tout avec Vega deux mois plus tôt que prévu, en octobre-novembre.
C’est pas autant qu’ils veulent pas rogner leurs marges, mais plutôt qu’ils tiennent à leur image de marque premium.
Le
24/06/2016 à
15h
39
Pour en avoir utilisé un à mon précédent stage, c’est un bon écran pour compléter un macbook pro (chargeur intégré, etc…) avec une diagonale très confortable.
Mais le rapport qualité/prix est effectivement abyssale depuis deux ans et demie au moins.
Si si, c’est le A. Le motif se termine au coin inférieur gauche du losange. Du coup, avancer de 55 permet de parcourir les 40 de côté, plus les 15 de séparation.
À noter que la dernière maj du OP2 y a apporté un vrai gain de fluidité.
Avant, mon téléphone acheté en septembre dernier me faisait hurler (intérieurement, je vous rassure…) du fait des ralentissements quasi continus et des bugs à répétition qui me faisait hard reboot le phone une bonne fois par semaine en moyenne.
Et depuis (bon, ça fait qu’une semaine donc je crois les doigts !) c’est la renaissance. Plus aucun problème de fluidité, le téléphone est ultra réactif et rapide, rien à dire. Pour vous dire, le changement est tellement important que j’ai l’impression d’avoir changé de téléphone… (dans le doute, j’ai vérifié : c’est pas le cas ! " /> )
Clairement. Mon adresse principale a été “pwned” sur deux sites, Nexus Mods et Patreon, mais dans les deux cas l’alerte avait été donnée et les mots de passe changés. Et, dans les deux cas, ils n’étaient pas stockés en claire.
Malheureusement, ce n’est pas encore une pratique généralisée, et généralement pour la pire des raisons (quand on en connaît les conséquences) : la commodité de l’utilisateur.
Le
31/05/2016 à
14h
05
Une fuite de plus, c’est tellement banale que c’en est affligeant…
Je trouve pas le bouton pour signaler une typo, donc du coup :
“Le Il tentera maintenant de convaincre” -> “Le” en trop, non ?
Par rapport au NAS, j’ai pas encore sauté le pas d’investir dedans… Et j’ai une certaine curiosité à tenter d’en monter un custom. Même si l’interface des Synology est quand même bien sexy !
Ouais, carrément. Dans ma machine, c’est une CoolerMaster silent pro gold de 800w qui assure depuis cinq bonnes années. Oui, à l’époque je ne savais pas que c’était un brin trop, 800W. Bon, elle alimente une gtx 480 aussi donc dans un sens… " />
Après, je vois bien une utilité à la chose dans le cadre de la reconversion d’une tour en serveur local. Là, oui. La HA peut faire du sens.
Bon, de mon point de vue rien ne remplacera la liberté de monter sa machine soi- même sans contrainte de constructeur et surcoût, mais tout de même, c’est bien de voir de l’innovation (enfin, une redite d’un truc mort-né, quoi, on s’est compris " /> ).
Je trouve vraiment abusé le prix (totalement arbitraire, faut pas se mentir) collé sur ce type de produit (enfin, de proto…).
Mais c’est comme à chaque fois. La première gen va sortir, le nombre de modèle va augmenter et la concurrence jouer son rôle. insérer ici in gif de bisounours
Sinon, par rapport à la disponibilité de ces choses, n’était-il pas question qu’Intel serait un frein à la commercialisation en interdisant l’utilisation du Thunderbolt pour faire passer un flux graphique externe ? Je retrouve que des posts de 2014 sur le sujet…
Et personne n’est surpris de la disponibilité très relative de ces nouveaux modèles. Commercialement parlant, Nvidia aurait tort de se priver. Ca fait monter l’engouement auprès du public qui se dit que si les cartes partent comme des petits pains, c’est qu’elles doivent vraiment valoir le coup…
Quoiqu’il serait intéressant d’évaluer proprement si ce postulat (qui à mon avis est adopté par nombre de services marketing) est encore valide à l’ère de la toute information où il est possible d’avoir un avis (généralement) objectif sur le matos en deux clics de souri. Et donc que ces ventes ultra rapides ne sont dues qu’aux enthousiastes qui, de toute façon, allaient acheter la carte… et aux quelques qui restent non informés.
Mais le Xeon est tout à fait indiqué pour des applications hautement multithreadées.
Le
10/05/2016 à
10h
13
Enfin du coup, tu n’indiques pas quel type de perfs en 4K tu attends. Je suppose que tu fais du graphisme / montage pour avoir pris un Xeon couplé à une Quadro ? Si c’est bien ça, une carte de la gen Maxwell ou Fermi x60 ou x70 suffira de toute façon (ou équivalent chez AMD, hein).
D’ailleurs, je ne suis pas certains de l’intérêt de la Quadro, sachant que c’est une assez vieille carte (archi Fermi… avant Kepler, donc) surpassée peu ou prou il me semble dans n’importe quel domaine par une 960.
Donc voilà, la raison de prendre un GPU haut de gamme pour ce genre de travail, c’est quand tu peux utiliser les coeurs CUDA pour accélérer le traitement. Sinon… bah t’affiches un film quoi, aucun intérêt d’avoir un GPU haut de gamme pour ça.
Le
09/05/2016 à
15h
48
Je suis taquin, d’autant que tu es abonné à NXI, donc ce pseudo est forcément parfait " />
tiret a écrit :
Ma GTX 460 m’avait lâché en moins de trois ans, une Gainward. A priori une surchauffe de l’étage d’alimentation. Mon alim de l’époque n’était pas en cause (une Antec NeoHE 500 W) et la carte suivante fonctionne parfaitement (une Zotac GTX 660 Ti). Comme quoi…
Oui, comme quoi… C’est une EVGA Superclocked (de seconde main mais qui n’avait quasi pas servi) épaulée par une alim 80+ gold de 800W de 2011-12. (Oui, cette puissance est tout à fait superflue. À l’époque, je pensais avoir les sous pour un SLI pas longtemps après ;-) )
Le
09/05/2016 à
15h
02
Pour Factorio (très bon jeu d’ailleurs " /> ), tu peux te contenter de moins en attendant. Pas la peine de claquer 150€. Et, comme le dit kikoo26 (sois dit en passant, j’en reviens pas de ce pseudo " /> ), ça vaut peut-être le coup d’essayer avec ta solution graphique intégrée.
Sinon, c’est quoi ces CG qui tiennent pas la route ? Ma 480 a toujours la chevelure au vent et le teint halé ! (Ce qui ne l’empêchera pas de se faire upgrader la face dans les prochains mois.)
Le
09/05/2016 à
14h
26
Viser le Ulltra, de base, ça n’a pas grand sens. Les développeurs rajoutent souvent dans ce mode des artifices ultra gourmands en temps de calcul qui font plonger tes FPS (et de manière non uniforme qui plus est) pour une amélioration visuelle au mieux très peu visible, au pire qui passe inaperçu (suivant le type de jeu et où l’attention du joueur est concentrée, ça varie).
Alors vouloir en plus du 4K à ce niveau détail, autant dire que tu peux attendre deux gens pour espérer le faire tourner à 60 FPS minimum.
Canard PC ou Canard PC Hardware a fait un dossier là dessus il y a quelques temps, c’était pas mal instructif.
Oui, c’est souvent la période choisie pour de telles annonces.
Le
09/05/2016 à
15h
36
À leur place, j’aurais oublié “par inadvertance” quelques détails sur Polaris dans le soft, histoire de faire parler de leur nouvelle archi et contrer un brin Nvidia. Parce que bon, on ne va pas se mentir, les pilotes existent sûrement déjà au delà d’une version prototype.
Mais bon, des gens sont sûrement déjà en train d’éplucher le soft, alors on verra bien ;-)
Parce que les abonnés se tapent quand même les pubs ?! Mais… sérieusement ?
Je ne comprends pas que cela ne soit pas activé d’office, que le streamer soit d’accord ou pas. C’est une question d’honnêteté à ce niveau, franchement.
Faut espérer que cet échec ne les encourage que d’avantage à persévérer… Après tout, la compréhension de notre Univers et la conquête spatiale reste un des meilleurs espoirs de l’Humanité (“l’espèce, pas le journal” Copyright E-Penser) de trouver un terrain de jeu commun et d’unification des intérêts.
La phrase continue avec “proche de nous”, ce qui est factuellement correcte… même si “proche” à cette échelle reste tout relatif ;-)
Mais oui, qu’une compagnie privée envisage d’envoyer une capsule sur Mars avant 2020 laisse songeur quant à l’avenir de l’exploration spatiale. Et c’est cool !
Meilleure que la gen précédente sûrement, mais pour une carte sensée être milieu de gamme, elle reste chère. Mais on s’est habitué avec les générations qui s’enchaînent avec des tarifs toujours plus indexés sur le potentiel monopolistique de Nvidia qu’autre chose " />
Le
28/04/2016 à
07h
58
+1
J’espère vraiment du bon côté graphique. Ca forcerait Nvidia à apporter quelque chose de neuf en terme de rapport qualité prix…
Ouaip, le SLI est de plus en plus délaissé par les dev j’ai l’impression. En même temps, comme tu le dis c’est pas du tout un doublement des perfs vu que la mémoire des cartes ne s’additionne pas du tout et est, au contraire, répliquée à travers les cartes. En gros, SLI de 970 -> 4Go de GDDR5 et pas 8 (… pardon, 3.5 et 7 " /> ).
Après, encore une fois, ça va dépendre du jeu et des conditions, mais on peut imaginer que dans le cadre de la VR, deux frame buffers différents pour différencier les deux écrans serait une bonne chose.
Bon, après, je peux me tromper sur l’importance de la mémoire par rapport à la fréquence dans ce cas là ;-)
Le
06/01/2016 à
13h
43
La question reste quand même de quelle niveau de qualité les gens de nvidia se contentent pour le matos minimum. Parce que même si la 970 est une excellente carte, la VR pour être confortable (on va prendre en compte que la mal de crâne induit et pas la nausée qui semble très dépendante de la personne) doit afficher du 60 fps sur deux écrans à haute résolution (le QHD est primordial, et le 4K un bon avantage… oui, enfin une utilité à la 4K !). En gros, au bas mot, balancer du 120 fps en 2560*1440 px. Une 980 n’assure pas ça en niveau de détail élevé. Genre, pas du tout.
Bref, oui, comme dit plus haut, il est naïf de penser que c’est autre chose que du marketing… Mais bon, Pascal en mi-fin d’année, on peut toujours espérer. Et surtout qu’AMD sorte autre chose que du rebranding et des cartes, certes intéressantes, mais plus chères que Nvidia (Nano & Fury X, je pense à vous). Oui, un comble.
Apple et ses iDevices est quand même bien mieux loti sur le point de la fragmentation de sa base d’utilisateur. Android a toujours souffert (enfin, les développeurs tiers ont toujours soufferts) de cette fragmentation de ce côté là de la barrière, et c’est pas près de changer.
Mai bon, entre ça et des terminaux hors de prix, hein, … ah non, pardon, j’oubliais qu’Android en avait aussi en fait…
Disons tout de même que le nombre de constructeurs différents a au moins l’avantage d’avoir instaurer une concurrence permettant de trouver des appareils pour toutes les bourses.
La vraie question étant de savoir si la NSA compte effectivement respecter cet accord. Mais, effectivement, personne ne se la pose vu que la réponse est connue d’avance…
”… amasser près de 88 millions de dollars auprès d’environ 970 000 joueurs.
Une somme largement suffisante pour mener à bien le développement du
titre, aussi grande son envergure soit-elle.”
Sans dire que ce point est forcément faux, elle est où la source pour ça ? Parce que bon, on peut ressortir les chiffres pour GTA V aussi " />
Ah et un chiffre j’en ai un si vous voulez : un dev est payé dans les 80k $ annuel en Californie (fourchette basse, vers SF c’est plus 110k). Rien qu’en masse salariale, ils ont une petite fortune à débourser tous les mois avec leurs trois (ou quatre maintenant même) studios ;-)
Après, on peut arguer du fait que l’effectif employé par CIG n’est pas justifié. Mais bon, sans le produit final, c’est difficile de juger.
À ce propos, sait-on si NVIDIA va uniformiser les versions G-Sync desktop et portables ? Il me semble que cette dernière ne nécessite pas de module proprio dans l’écran pour fonctionner, ce qui en théorie permettrait de faire baisser dramatiquement les prix des futurs écrans supportant la techno.
Quoiqu’il en soit, le support par Intel de la techno concurrente (mais apparemment encore un chouilla moins aboutie, à moins que ce soit les écrans compatibles qui ne suivent pas, je ne sais plus) va donner du grain à moudre à Nvidia. Manque plus qu’AMD sorte enfin un lineup de cartes graphiques qui ne soit pas un scandale de gaspillage énergétique et ça sera tout bon, la bonne vielle concurrence sera de nouveau sur la table ;=)
60 commentaires
LDLC : entre chute du cours et tentatives de diversifications
08/02/2019
Le 11/02/2019 à 14h 31
Wut ? Doc TB est chez LDLC ?
Cela a été évoqué ailleurs auparavant et je débarque, ou bien c’est un “scoop” que tu nous sers ?
Intel commence à communiquer sur le 7 nm (avec EUV), qui serait dans les temps
10/12/2018
Le 10/12/2018 à 16h 06
Merci :-)
Pour le coup, c’est plutôt la partie qui concerne les wafers que je ne connais pas, ma question était mal posée (d’ailleurs “d’avantage” -> “davantage”, pardon pour vos yeux).
Donc j’imagine que ce que je recherche serait un article détaillant la conception physique des puces, précisant la partie à laquelle les constructeurs font référence dans leurs présentations…
Un sujet bien velu pour l’ouverture de INPACT Hardware, David ? ;-)
Le 10/12/2018 à 12h 48
Un article pour nous expliquer en quoi ces finesses de gravure sont d’avantage du bullshit marketing qu’autre chose, ainsi que leurs effets ? :-)
Voitures électriques et autonomes : Volkswagen va investir 44 milliards de dollars d’ici 2023
19/11/2018
Le 19/11/2018 à 15h 22
La R&D sur l’électrique n’est pas uniquement applicable à la voiture individuelle ! Et l’autonomie implique aussi un potentiel partage du moyen de locomotion à la discrétion du propriétaire (Uber, Chauffeur privé, G7, Blablacar, vous, moi), avec rémunération de ce dernier.
Ceci dit, vu les positions actuelles des pouvoirs publiques sur la transition énergétique, à laquelle la fin de la voiture individuelle serait à coup sûr bénéfique, il est vrai qu’espérer un changement des mentalités rapide semble optimiste.
D’autant plus que, concernant l’autonomie, la technologie et la législation doivent d’abord être mises au point…
Le service de streaming Disney+ attendu fin 2019
12/11/2018
Le 12/11/2018 à 13h 29
C’est déjà le cas actuellement. Entre les séries Amazone Prime Originals, Netflix Originals, Canal Plus (avec abonnement hors de prix pour ce dernier) et autres, au final c’est l’obtention par des moyens détournés qui reprennent du poil de la bête…
Next INpact
L’alternative ne fait pas envie =>
Razer : un Blade (15,6″) certifié Max-Q, un boîtier externe pour GPU Core X à 300 euros
23/05/2018
Le 23/05/2018 à 10h 57
Enfin une baisse de prix significative sur les boîtiers pour GPU externe !
Le Surface Book 2 est annoncé : Core 8ème génération, GTX 1050/1060, USB Type-C, modèle 15″
17/10/2017
Le 20/10/2017 à 16h 49
J’ai eu l’impression d’un échange constructif sur deux visions différentes d’outils informatiques " />
Le 20/10/2017 à 13h 31
Je ne prétends pas que les points soulevés fassent l’unanimité ;-) Comme tu l’as dit, chacun trouve son bonheur comme il l’entend :-)
Pour le backslash, c’est plus une histoire de positionnement sur le clavier, en fait. J’ai des grandes mains, mais les contorsions que m’obligent le layout azerty sont d’un pénible… Pas le souci avec l’azerty de macos, d’ailleurs. De ce point de vue, Linux est un compromis acceptable.
Bref. J’en reviendrai peut-être, mais pour le moment c’est windows en loisir, linux au taff et macos (machine de 6 ans !) en appoint " />
Le 18/10/2017 à 16h 16
Pour plein de choses. Le copier/coller n’en est pas une, d’ailleurs.
Dans le désordre :
> dispo des softs / librairies open source
> terminal >>>>> powershell (Çà veut dire “bien supérieur”)
> “Oh, tiens, c’est quoi cette idée saugrenue d’utiliser des backslash pour les chemins ?” (Le backslash, c’est pour échapper des caractères dans une regex, et c’est marre !)
> Ca rentre dans la comparaison des shells, mais c’est pratique d’avoir un environnement semblable pour le dev et pour la prod (parce que les serveux font quand même majoritairement un Linux, et pas un Windows)
> Et puis les mises à jour sauvages de windows aussi, ça va un moment.
En gros. Pour faire simple.
Le 17/10/2017 à 16h 04
Surface Book != Surface Pro
Les surface book sont la gamme au dessus des Surface Pro, si je ne dis pas de bêtise.
Et le prix de lancement de la première génération par rapport à celle-ci semble être identique (1500$, à droite de la pagehttps://en.wikipedia.org/wiki/Surface_Book ).
Le 17/10/2017 à 15h 26
L’écran, dont la résolution est bien supérieure. La qualité de fabrication (j’ai un acer, Ubuntu, sous les doigts en ce moment…), l’écran tactile, le mode tablette, le SSD en PCIe (bien plus véloce que sur SATA), la possibilité d’avoir une carte graphique dédiée (peut être utile pour le boulot aussi ;-) ).
Sûrement d’autres points. Mais comme pour tout, ça en revient à ce pour quoi l’ordi va être utilisé et, surtout, ce que l’utilisateur veut en faire et ce qu’il privilégie dans la machine.
Le 17/10/2017 à 14h 50
Pour développer autre chose que des applications exclus windows ou faire du front (façade de sites web), windows c’est une belle plaie. (Je généralise, tapez pas les copains.)
L’alternative c’est MacOS. Ou Linux. Perso, c’était la première option pendant mes études, et la seconde depuis que je bosse. Mais les avantages de la première (des machines bien finies, trop cher certes mais fonctionnelles, “no hassle” diront les marketeux) sont compréhensibles et expliquent en partie son choix par rapport à la contrainte de devoir (savoir) s’installer un environnement sous Linux.
L’autre partie, ne nous leurrons pas, est bien entendu le marketing très efficace d’Apple et les hordes de fans qui de toute façon ne conçoivent pas de peser le pour et le contre. Mais on en trouve aussi chez les linuxiens (bien que ça leur coûte bien moins cher " /> ) et les autres.
Messagerie chiffrée : une première faille pour Signal, mais d’impact faible
16/09/2016
Le 16/09/2016 à 15h 07
L’application est littéralement installée sur mon téléphone depuis moins de 24 heures " />
Uber lance son service de voitures autonomes, avec deux techniciens à bord
15/09/2016
Le 16/09/2016 à 09h 58
La Radeon RX480 d’AMD dans la tourmente, NVIDIA enfonce le clou avec sa GTX 1060 à 249 $
07/07/2016
Le 07/07/2016 à 15h 34
C’est tellement triste pour AMD… Enfin, surtout pour le consommateur en fait. Vous pensiez les tarifs des 10x0 abusés ? On a encore rien vu.
Ou alors, AMD joue la carte (malhabile) du bluff en sortant un produit de bas-milieu de gamme “tout pété” (pour forcer le trait) et en défonçant tout avec Vega deux mois plus tôt que prévu, en octobre-novembre.
C’est quoi l’expression anglaise déjà ? Ah, oui : wishful thinking.
Apple : l’écran Thunderbolt va disparaître sans grandes pompes
24/06/2016
Le 24/06/2016 à 16h 37
C’est pas autant qu’ils veulent pas rogner leurs marges, mais plutôt qu’ils tiennent à leur image de marque premium.
Le 24/06/2016 à 15h 39
Pour en avoir utilisé un à mon précédent stage, c’est un bon écran pour compléter un macbook pro (chargeur intégré, etc…) avec une diagonale très confortable.
Mais le rapport qualité/prix est effectivement abyssale depuis deux ans et demie au moins.
Brevet : un exercice de programmation informatique à partir de 2017
22/06/2016
Le 22/06/2016 à 10h 04
Si si, c’est le A. Le motif se termine au coin inférieur gauche du losange. Du coup, avancer de 55 permet de parcourir les 40 de côté, plus les 15 de séparation.
OnePlus 3 : un smartphone haut de gamme à 399 euros, sans invitation
15/06/2016
Le 15/06/2016 à 08h 23
À noter que la dernière maj du OP2 y a apporté un vrai gain de fluidité.
Avant, mon téléphone acheté en septembre dernier me faisait hurler (intérieurement, je vous rassure…) du fait des ralentissements quasi continus et des bugs à répétition qui me faisait hard reboot le phone une bonne fois par semaine en moyenne.
Et depuis (bon, ça fait qu’une semaine donc je crois les doigts !) c’est la renaissance. Plus aucun problème de fluidité, le téléphone est ultra réactif et rapide, rien à dire. Pour vous dire, le changement est tellement important que j’ai l’impression d’avoir changé de téléphone… (dans le doute, j’ai vérifié : c’est pas le cas ! " /> )
Tumblr : une fuite de plus de 65 millions d’identifiants
31/05/2016
Le 31/05/2016 à 14h 26
Clairement. Mon adresse principale a été “pwned” sur deux sites, Nexus Mods et Patreon, mais dans les deux cas l’alerte avait été donnée et les mots de passe changés. Et, dans les deux cas, ils n’étaient pas stockés en claire.
Malheureusement, ce n’est pas encore une pratique généralisée, et généralement pour la pire des raisons (quand on en connaît les conséquences) : la commodité de l’utilisateur.
Le 31/05/2016 à 14h 05
Une fuite de plus, c’est tellement banale que c’en est affligeant…
Par contre, sympa le site “Have I Been Pwned” !
Racheté par Foxconn, Thecus veut se relancer et lorgne le marché français
31/05/2016
Le 31/05/2016 à 14h 25
Je trouve pas le bouton pour signaler une typo, donc du coup :
“Le Il tentera maintenant de convaincre” -> “Le” en trop, non ?
Par rapport au NAS, j’ai pas encore sauté le pas d’investir dedans… Et j’ai une certaine curiosité à tenter d’en monter un custom. Même si l’interface des Synology est quand même bien sexy !
FSP compte sur son alimentation ATX redondante Twins et la VR pour se démarquer
31/05/2016
Le 31/05/2016 à 12h 17
Ouais, carrément. Dans ma machine, c’est une CoolerMaster silent pro gold de 800w qui assure depuis cinq bonnes années. Oui, à l’époque je ne savais pas que c’était un brin trop, 800W. Bon, elle alimente une gtx 480 aussi donc dans un sens… " />
Après, je vois bien une utilité à la chose dans le cadre de la reconversion d’une tour en serveur local. Là, oui. La HA peut faire du sens.
ASUS Avalon : pour fêter les 10 ans de ROG, un projet de PC modulaire presque sans câbles
30/05/2016
Le 30/05/2016 à 18h 44
C’est techniquement très intéressant !
Bon, de mon point de vue rien ne remplacera la liberté de monter sa machine soi- même sans contrainte de constructeur et surcoût, mais tout de même, c’est bien de voir de l’innovation (enfin, une redite d’un truc mort-né, quoi, on s’est compris " /> ).
Et va dormir David, il est tard à Taipei ! " />
Module pour carte graphique externe ROG XG Station 2 d’ASUS : à Taipei, (presque) rien de nouveau
30/05/2016
Le 30/05/2016 à 18h 35
Je trouve vraiment abusé le prix (totalement arbitraire, faut pas se mentir) collé sur ce type de produit (enfin, de proto…).
Mais c’est comme à chaque fois. La première gen va sortir, le nombre de modèle va augmenter et la concurrence jouer son rôle. insérer ici in gif de bisounours
Sinon, par rapport à la disponibilité de ces choses, n’était-il pas question qu’Intel serait un frein à la commercialisation en interdisant l’utilisation du Thunderbolt pour faire passer un flux graphique externe ? Je retrouve que des posts de 2014 sur le sujet…
Les GeForce GTX 1080 sont « disponibles » : NVIDIA a peu de cartes, mais a des idées
28/05/2016
Le 30/05/2016 à 10h 28
Et personne n’est surpris de la disponibilité très relative de ces nouveaux modèles. Commercialement parlant, Nvidia aurait tort de se priver. Ca fait monter l’engouement auprès du public qui se dit que si les cartes partent comme des petits pains, c’est qu’elles doivent vraiment valoir le coup…
Quoiqu’il serait intéressant d’évaluer proprement si ce postulat (qui à mon avis est adopté par nombre de services marketing) est encore valide à l’ère de la toute information où il est possible d’avoir un avis (généralement) objectif sur le matos en deux clics de souri. Et donc que ces ventes ultra rapides ne sont dues qu’aux enthousiastes qui, de toute façon, allaient acheter la carte… et aux quelques qui restent non informés.
Vivement que le focus se fasse un peu sur AMD !
AMD rebondit enfin sur le marché des GPU
19/05/2016
Le 19/05/2016 à 15h 45
NVIDIA veut frapper fort avec ses GeForce GTX 1070 et 1080 dès 379 dollars, la VR et Ansel
09/05/2016
Le 10/05/2016 à 17h 11
Mais le Xeon est tout à fait indiqué pour des applications hautement multithreadées.
Le 10/05/2016 à 10h 13
Enfin du coup, tu n’indiques pas quel type de perfs en 4K tu attends. Je suppose que tu fais du graphisme / montage pour avoir pris un Xeon couplé à une Quadro ? Si c’est bien ça, une carte de la gen Maxwell ou Fermi x60 ou x70 suffira de toute façon (ou équivalent chez AMD, hein).
D’ailleurs, je ne suis pas certains de l’intérêt de la Quadro, sachant que c’est une assez vieille carte (archi Fermi… avant Kepler, donc) surpassée peu ou prou il me semble dans n’importe quel domaine par une 960.
Donc voilà, la raison de prendre un GPU haut de gamme pour ce genre de travail, c’est quand tu peux utiliser les coeurs CUDA pour accélérer le traitement. Sinon… bah t’affiches un film quoi, aucun intérêt d’avoir un GPU haut de gamme pour ça.
Le 09/05/2016 à 15h 48
Je suis taquin, d’autant que tu es abonné à NXI, donc ce pseudo est forcément parfait " />
Le 09/05/2016 à 15h 02
Pour Factorio (très bon jeu d’ailleurs " /> ), tu peux te contenter de moins en attendant. Pas la peine de claquer 150€. Et, comme le dit kikoo26 (sois dit en passant, j’en reviens pas de ce pseudo " /> ), ça vaut peut-être le coup d’essayer avec ta solution graphique intégrée.
Sinon, c’est quoi ces CG qui tiennent pas la route ? Ma 480 a toujours la chevelure au vent et le teint halé ! (Ce qui ne l’empêchera pas de se faire upgrader la face dans les prochains mois.)
Le 09/05/2016 à 14h 26
Viser le Ulltra, de base, ça n’a pas grand sens. Les développeurs rajoutent souvent dans ce mode des artifices ultra gourmands en temps de calcul qui font plonger tes FPS (et de manière non uniforme qui plus est) pour une amélioration visuelle au mieux très peu visible, au pire qui passe inaperçu (suivant le type de jeu et où l’attention du joueur est concentrée, ça varie).
Alors vouloir en plus du 4K à ce niveau détail, autant dire que tu peux attendre deux gens pour espérer le faire tourner à 60 FPS minimum.
Canard PC ou Canard PC Hardware a fait un dossier là dessus il y a quelques temps, c’était pas mal instructif.
AMD publie ses pilotes Radeon Software Crimson Edition 16.5.1 pour Forza Motorsport 6 : Apex
09/05/2016
Le 09/05/2016 à 18h 21
Oui, c’est souvent la période choisie pour de telles annonces.
Le 09/05/2016 à 15h 36
À leur place, j’aurais oublié “par inadvertance” quelques détails sur Polaris dans le soft, histoire de faire parler de leur nouvelle archi et contrer un brin Nvidia. Parce que bon, on ne va pas se mentir, les pilotes existent sûrement déjà au delà d’une version prototype.
Mais bon, des gens sont sûrement déjà en train d’éplucher le soft, alors on verra bien ;-)
Twitch : les diffuseurs peuvent supprimer des publicités pour leurs abonnés payants
02/05/2016
Le 02/05/2016 à 09h 42
Parce que les abonnés se tapent quand même les pubs ?! Mais… sérieusement ?
Je ne comprends pas que cela ne soit pas activé d’office, que le streamer soit d’accord ou pas. C’est une question d’honnêteté à ce niveau, franchement.
Bénéfice record pour Amazon au premier trimestre
29/04/2016
Le 29/04/2016 à 09h 18
” mais Amazon ne parvient toujours pas à dégager le moindre bénéfice opérationnel”
Vous imaginez si en plus ils payaient des impôts dessus ?! " />
Le Japon fait ses adieux à Hitomi, son télescope spatial mort-né
29/04/2016
Le 29/04/2016 à 09h 14
Faut espérer que cet échec ne les encourage que d’avantage à persévérer… Après tout, la compréhension de notre Univers et la conquête spatiale reste un des meilleurs espoirs de l’Humanité (“l’espèce, pas le journal” Copyright E-Penser) de trouver un terrain de jeu commun et d’unification des intérêts.
Mais bon, je suis un optimiste.
SpaceX : Dragon 2 sur Mars en 2018 puis « n’importe où dans le système solaire »
28/04/2016
Le 28/04/2016 à 13h 11
La phrase continue avec “proche de nous”, ce qui est factuellement correcte… même si “proche” à cette échelle reste tout relatif ;-)
Mais oui, qu’une compagnie privée envisage d’envoyer une capsule sur Mars avant 2020 laisse songeur quant à l’avenir de l’exploration spatiale. Et c’est cool !
AMD explose en bourse, grâce à la création d’une co-entreprise en Chine
28/04/2016
Le 28/04/2016 à 10h 02
Meilleure que la gen précédente sûrement, mais pour une carte sensée être milieu de gamme, elle reste chère. Mais on s’est habitué avec les générations qui s’enchaînent avec des tarifs toujours plus indexés sur le potentiel monopolistique de Nvidia qu’autre chose " />
Le 28/04/2016 à 07h 58
+1
J’espère vraiment du bon côté graphique. Ca forcerait Nvidia à apporter quelque chose de neuf en terme de rapport qualité prix…
GeForce GTX VR Ready : NVIDIA veut certifier les machines pour la réalité virtuelle
06/01/2016
Le 06/01/2016 à 13h 55
Ouaip, le SLI est de plus en plus délaissé par les dev j’ai l’impression. En même temps, comme tu le dis c’est pas du tout un doublement des perfs vu que la mémoire des cartes ne s’additionne pas du tout et est, au contraire, répliquée à travers les cartes. En gros, SLI de 970 -> 4Go de GDDR5 et pas 8 (… pardon, 3.5 et 7 " /> ).
Après, encore une fois, ça va dépendre du jeu et des conditions, mais on peut imaginer que dans le cadre de la VR, deux frame buffers différents pour différencier les deux écrans serait une bonne chose.
Bon, après, je peux me tromper sur l’importance de la mémoire par rapport à la fréquence dans ce cas là ;-)
Le 06/01/2016 à 13h 43
La question reste quand même de quelle niveau de qualité les gens de nvidia se contentent pour le matos minimum. Parce que même si la 970 est une excellente carte, la VR pour être confortable (on va prendre en compte que la mal de crâne induit et pas la nausée qui semble très dépendante de la personne) doit afficher du 60 fps sur deux écrans à haute résolution (le QHD est primordial, et le 4K un bon avantage… oui, enfin une utilité à la 4K !). En gros, au bas mot, balancer du 120 fps en 2560*1440 px. Une 980 n’assure pas ça en niveau de détail élevé. Genre, pas du tout.
Bref, oui, comme dit plus haut, il est naïf de penser que c’est autre chose que du marketing… Mais bon, Pascal en mi-fin d’année, on peut toujours espérer. Et surtout qu’AMD sorte autre chose que du rebranding et des cartes, certes intéressantes, mais plus chères que Nvidia (Nano & Fury X, je pense à vous). Oui, un comble.
CES de Las Vegas : une édition 2016 qui va vous en faire voir de toutes les couleurs
05/01/2016
Le 06/01/2016 à 01h 23
Ouais je sais bien, mais on a le droit d’espérer, non ? ;-)
Enfin, c’est pas non plus le priorité de ma vie… oui, la priorité c’est la Tesla, voyons ! " />
Le 05/01/2016 à 11h 51
Pitié Nvidia, annonce une date pour Pascal ! Ma 480 commence à tirer la langue.
Android 6.0 (Marshmallow) : les terminaux qui auront droit à une mise à jour
30/10/2015
Le 30/10/2015 à 15h 15
Apple et ses iDevices est quand même bien mieux loti sur le point de la fragmentation de sa base d’utilisateur. Android a toujours souffert (enfin, les développeurs tiers ont toujours soufferts) de cette fragmentation de ce côté là de la barrière, et c’est pas près de changer.
Mai bon, entre ça et des terminaux hors de prix, hein, … ah non, pardon, j’oubliais qu’Android en avait aussi en fait…
Disons tout de même que le nombre de constructeurs différents a au moins l’avantage d’avoir instaurer une concurrence permettant de trouver des appareils pour toutes les bourses.
Données personnelles : accord de principe entre l’Europe et les États-Unis sur le Safe Harbor 2
27/10/2015
Le 27/10/2015 à 09h 53
La vraie question étant de savoir si la NSA compte effectivement respecter cet accord. Mais, effectivement, personne ne se la pose vu que la réponse est connue d’avance…
Loi Création : la « taxe » copie privée étendue à l’impression 3D ?
28/09/2015
Le 28/09/2015 à 09h 36
Autrement dit, encore une belle aubaine pour les industriels qui n’auront dans la plupart des cas rien à voir avec les modèles imprimés…
Les développeurs de Star Citizen menacés par une action de groupe
26/08/2015
Le 27/08/2015 à 01h 37
”… amasser près de 88 millions de dollars auprès d’environ 970 000 joueurs.
Une somme largement suffisante pour mener à bien le développement du
titre, aussi grande son envergure soit-elle.”
Sans dire que ce point est forcément faux, elle est où la source pour ça ? Parce que bon, on peut ressortir les chiffres pour GTA V aussi " />
Ah et un chiffre j’en ai un si vous voulez : un dev est payé dans les 80k $ annuel en Californie (fourchette basse, vers SF c’est plus 110k). Rien qu’en masse salariale, ils ont une petite fortune à débourser tous les mois avec leurs trois (ou quatre maintenant même) studios ;-)
Après, on peut arguer du fait que l’effectif employé par CIG n’est pas justifié. Mais bon, sans le produit final, c’est difficile de juger.
Adaptive-Sync : Intel devrait le supporter dans ses produits à l’avenir
20/08/2015
Le 20/08/2015 à 12h 11
À ce propos, sait-on si NVIDIA va uniformiser les versions G-Sync desktop et portables ? Il me semble que cette dernière ne nécessite pas de module proprio dans l’écran pour fonctionner, ce qui en théorie permettrait de faire baisser dramatiquement les prix des futurs écrans supportant la techno.
Parce qu’à l’heure actuelle, quand on voit les prix des deux bijoux du rayon http://www.ldlc.com/fiche/PB00185907.html ethttp://www.ldlc.com/fiche/PB00171145.html pour ceux que ça intéresse) on se dit qu’effectivement, il est urgent d’attendre quand le budget n’est pas renouvelable tous les six mois…
Quoiqu’il en soit, le support par Intel de la techno concurrente (mais apparemment encore un chouilla moins aboutie, à moins que ce soit les écrans compatibles qui ne suivent pas, je ne sais plus) va donner du grain à moudre à Nvidia. Manque plus qu’AMD sorte enfin un lineup de cartes graphiques qui ne soit pas un scandale de gaspillage énergétique et ça sera tout bon, la bonne vielle concurrence sera de nouveau sur la table ;=)
GitHub Desktop 3.0 est là, avec une visualisation graphique des branches
12/08/2015
Le 12/08/2015 à 17h 35
Ceci. Tellement vrais.
J’utilisais git en graphique avant. Et puis, nouveau boulot, nouvelles pratiques: bash! Eh bah j’y retournerai pas, à cette interface.
Bon, c’est vrais que le site de github propose des trucs cools, genre pour les PR et les releases.