votre avatar

Gormador

est avec nous depuis le 21 septembre 2013 ❤️

60 commentaires

Le 11/02/2019 à 14h 31

Wut ? Doc TB est chez LDLC ?

Cela a été évoqué ailleurs auparavant et je débarque, ou bien c’est un “scoop” que tu nous sers ?

Le 10/12/2018 à 16h 06

Merci :-)

Pour le coup, c’est plutôt la partie qui concerne les wafers que je ne connais pas, ma question était mal posée (d’ailleurs “d’avantage” -> “davantage”, pardon pour vos yeux).

Donc j’imagine que ce que je recherche serait un article détaillant la conception physique des puces, précisant la partie à laquelle les constructeurs font référence dans leurs présentations…





Un sujet bien velu pour l’ouverture de INPACT Hardware, David ? ;-)

Le 10/12/2018 à 12h 48

Un article pour nous expliquer en quoi ces finesses de gravure sont d’avantage du bullshit marketing qu’autre chose, ainsi que leurs effets ? :-)

Le 19/11/2018 à 15h 22

La R&D sur l’électrique n’est pas uniquement applicable à la voiture individuelle ! Et l’autonomie implique aussi un potentiel partage du moyen de locomotion à la discrétion du propriétaire (Uber, Chauffeur privé, G7, Blablacar, vous, moi), avec rémunération de ce dernier.



Ceci dit, vu les positions actuelles des pouvoirs publiques sur la transition énergétique, à laquelle la fin de la voiture individuelle serait à coup sûr bénéfique, il est vrai qu’espérer un changement des mentalités rapide semble optimiste.

D’autant plus que, concernant l’autonomie, la technologie et la législation doivent d’abord être mises au point…

Le 12/11/2018 à 13h 29

C’est déjà le cas actuellement. Entre les séries Amazone Prime Originals, Netflix Originals, Canal Plus (avec abonnement hors de prix pour ce dernier) et autres, au final c’est l’obtention par des moyens détournés qui reprennent du poil de la bête…

nextinpact.com Next INpact



L’alternative ne fait pas envie =>





CrazyCaro a écrit :



Et multiplication des abonnements <img data-src=" />





Le 23/05/2018 à 10h 57

Enfin une baisse de prix significative sur les boîtiers pour GPU externe !

Le 20/10/2017 à 16h 49

J’ai eu l’impression d’un échange constructif sur deux visions différentes d’outils informatiques <img data-src=" />

Le 20/10/2017 à 13h 31

Je ne prétends pas que les points soulevés fassent l’unanimité ;-) Comme tu l’as dit, chacun trouve son bonheur comme il l’entend :-)

Pour le backslash, c’est plus une histoire de positionnement sur le clavier, en fait. J’ai des grandes mains, mais les contorsions que m’obligent le layout azerty sont d’un pénible… Pas le souci avec l’azerty de macos, d’ailleurs. De ce point de vue, Linux est un compromis acceptable.



Bref. J’en reviendrai peut-être, mais pour le moment c’est windows en loisir, linux au taff et macos (machine de 6 ans !) en appoint <img data-src=" />

Le 18/10/2017 à 16h 16

Pour plein de choses. Le copier/coller n’en est pas une, d’ailleurs.

Dans le désordre :

&gt; dispo des softs / librairies open source

&gt; terminal &gt;&gt;&gt;&gt;&gt; powershell (Çà veut dire “bien supérieur”)

&gt; “Oh, tiens, c’est quoi cette idée saugrenue d’utiliser des backslash pour les chemins ?” (Le backslash, c’est pour échapper des caractères dans une regex, et c’est marre !)

&gt; Ca rentre dans la comparaison des shells, mais c’est pratique d’avoir un environnement semblable pour le dev et pour la prod (parce que les serveux font quand même majoritairement un Linux, et pas un Windows)

&gt; Et puis les mises à jour sauvages de windows aussi, ça va un moment.



En gros. Pour faire simple.

Le 17/10/2017 à 16h 04

Surface Book != Surface Pro

Les surface book sont la gamme au dessus des Surface Pro, si je ne dis pas de bêtise.

Et le prix de lancement de la première génération par rapport à celle-ci semble être identique (1500$, à droite de la pagehttps://en.wikipedia.org/wiki/Surface_Book ).

Le 17/10/2017 à 15h 26

L’écran, dont la résolution est bien supérieure. La qualité de fabrication (j’ai un acer, Ubuntu, sous les doigts en ce moment…), l’écran tactile, le mode tablette, le SSD en PCIe (bien plus véloce que sur SATA), la possibilité d’avoir une carte graphique dédiée (peut être utile pour le boulot aussi ;-) ).



Sûrement d’autres points. Mais comme pour tout, ça en revient à ce pour quoi l’ordi va être utilisé et, surtout, ce que l’utilisateur veut en faire et ce qu’il privilégie dans la machine.

Le 17/10/2017 à 14h 50

Pour développer autre chose que des applications exclus windows ou faire du front (façade de sites web), windows c’est une belle plaie. (Je généralise, tapez pas les copains.)



L’alternative c’est MacOS. Ou Linux. Perso, c’était la première option pendant mes études, et la seconde depuis que je bosse. Mais les avantages de la première (des machines bien finies, trop cher certes mais fonctionnelles, “no hassle” diront les marketeux) sont compréhensibles et expliquent en partie son choix par rapport à la contrainte de devoir (savoir) s’installer un environnement sous Linux.

L’autre partie, ne nous leurrons pas, est bien entendu le marketing très efficace d’Apple et les hordes de fans qui de toute façon ne conçoivent pas de peser le pour et le contre. Mais on en trouve aussi chez les linuxiens (bien que ça leur coûte bien moins cher <img data-src=" /> ) et les autres.

Le 16/09/2016 à 15h 07

L’application est littéralement installée sur mon téléphone depuis moins de 24 heures <img data-src=" />

Le 16/09/2016 à 09h 58







tmtisfree a écrit :



une activité si vile (joke inside)





<img data-src=" />



Pour contribuer au débat : la robotisation de nos sociétés a déjà largement commencé. Son augmentation est plus que souhaitable : elle est nécessaire. Elle forcera nos sociétés à changer et à accepter que le travail contraint n’a plus lieu d’en être un pilier.

Le plus tôt sera le mieux.


Le 07/07/2016 à 15h 34

C’est tellement triste pour AMD… Enfin, surtout pour le consommateur en fait. Vous pensiez les tarifs des 10x0 abusés ? On a encore rien vu.

Ou alors, AMD joue la carte (malhabile) du bluff en sortant un produit de bas-milieu de gamme “tout pété” (pour forcer le trait) et en défonçant tout avec Vega deux mois plus tôt que prévu, en octobre-novembre.



C’est quoi l’expression anglaise déjà ? Ah, oui : wishful thinking.

Le 24/06/2016 à 16h 37

C’est pas autant qu’ils veulent pas rogner leurs marges, mais plutôt qu’ils tiennent à leur image de marque premium.

Le 24/06/2016 à 15h 39

Pour en avoir utilisé un à mon précédent stage, c’est un bon écran pour compléter un macbook pro (chargeur intégré, etc…) avec une diagonale très confortable.

Mais le rapport qualité/prix est effectivement abyssale depuis deux ans et demie au moins.

Le 22/06/2016 à 10h 04

Si si, c’est le A. Le motif se termine au coin inférieur gauche du losange. Du coup, avancer de 55 permet de parcourir les 40 de côté, plus les 15 de séparation.

Le 15/06/2016 à 08h 23

À noter que la dernière maj du OP2 y a apporté un vrai gain de fluidité.

Avant, mon téléphone acheté en septembre dernier me faisait hurler (intérieurement, je vous rassure…) du fait des ralentissements quasi continus et des bugs à répétition qui me faisait hard reboot le phone une bonne fois par semaine en moyenne.

Et depuis (bon, ça fait qu’une semaine donc je crois les doigts !) c’est la renaissance. Plus aucun problème de fluidité, le téléphone est ultra réactif et rapide, rien à dire. Pour vous dire, le changement est tellement important que j’ai l’impression d’avoir changé de téléphone… (dans le doute, j’ai vérifié : c’est pas le cas ! <img data-src=" /> )

Le 31/05/2016 à 14h 26

Clairement. Mon adresse principale a été “pwned” sur deux sites, Nexus Mods et Patreon, mais dans les deux cas l’alerte avait été donnée et les mots de passe changés. Et, dans les deux cas, ils n’étaient pas stockés en claire.

Malheureusement, ce n’est pas encore une pratique généralisée, et généralement pour la pire des raisons (quand on en connaît les conséquences) : la commodité de l’utilisateur.

Le 31/05/2016 à 14h 05

Une fuite de plus, c’est tellement banale que c’en est affligeant…

Par contre, sympa le site “Have I Been Pwned” !

Le 31/05/2016 à 14h 25

Je trouve pas le bouton pour signaler une typo, donc du coup :

“Le Il tentera maintenant de convaincre” -> “Le” en trop, non ?



Par rapport au NAS, j’ai pas encore sauté le pas d’investir dedans… Et j’ai une certaine curiosité à tenter d’en monter un custom. Même si l’interface des Synology est quand même bien sexy !

Le 31/05/2016 à 12h 17

Ouais, carrément. Dans ma machine, c’est une CoolerMaster silent pro gold de 800w qui assure depuis cinq bonnes années. Oui, à l’époque je ne savais pas que c’était un brin trop, 800W. Bon, elle alimente une gtx 480 aussi donc dans un sens… <img data-src=" />



Après, je vois bien une utilité à la chose dans le cadre de la reconversion d’une tour en serveur local. Là, oui. La HA peut faire du sens.

Le 30/05/2016 à 18h 44

C’est techniquement très intéressant !

Bon, de mon point de vue rien ne remplacera la liberté de monter sa machine soi- même sans contrainte de constructeur et surcoût, mais tout de même, c’est bien de voir de l’innovation (enfin, une redite d’un truc mort-né, quoi, on s’est compris <img data-src=" /> ).



Et va dormir David, il est tard à Taipei ! <img data-src=" />

Le 30/05/2016 à 18h 35

Je trouve vraiment abusé le prix (totalement arbitraire, faut pas se mentir) collé sur ce type de produit (enfin, de proto…).

Mais c’est comme à chaque fois. La première gen va sortir, le nombre de modèle va augmenter et la concurrence jouer son rôle. insérer ici in gif de bisounours



Sinon, par rapport à la disponibilité de ces choses, n’était-il pas question qu’Intel serait un frein à la commercialisation en interdisant l’utilisation du Thunderbolt pour faire passer un flux graphique externe ? Je retrouve que des posts de 2014 sur le sujet…

Le 30/05/2016 à 10h 28

Et personne n’est surpris de la disponibilité très relative de ces nouveaux modèles. Commercialement parlant, Nvidia aurait tort de se priver. Ca fait monter l’engouement auprès du public qui se dit que si les cartes partent comme des petits pains, c’est qu’elles doivent vraiment valoir le coup…



Quoiqu’il serait intéressant d’évaluer proprement si ce postulat (qui à mon avis est adopté par nombre de services marketing) est encore valide à l’ère de la toute information où il est possible d’avoir un avis (généralement) objectif sur le matos en deux clics de souri. Et donc que ces ventes ultra rapides ne sont dues qu’aux enthousiastes qui, de toute façon, allaient acheter la carte… et aux quelques qui restent non informés.



Vivement que le focus se fasse un peu sur AMD !

Le 19/05/2016 à 15h 45







Maicka a écrit :



Tant mieux pour eux et la concurrence.





Clairement, c’est le consommateur qui devrait en sortir gagnant.


Le 10/05/2016 à 17h 11

Mais le Xeon est tout à fait indiqué pour des applications hautement multithreadées.

Le 10/05/2016 à 10h 13

Enfin du coup, tu n’indiques pas quel type de perfs en 4K tu attends. Je suppose que tu fais du graphisme / montage pour avoir pris un Xeon couplé à une Quadro ? Si c’est bien ça, une carte de la gen Maxwell ou Fermi x60 ou x70 suffira de toute façon (ou équivalent chez AMD, hein).

D’ailleurs, je ne suis pas certains de l’intérêt de la Quadro, sachant que c’est une assez vieille carte (archi Fermi… avant Kepler, donc) surpassée peu ou prou il me semble dans n’importe quel domaine par une 960.

Donc voilà, la raison de prendre un GPU haut de gamme pour ce genre de travail, c’est quand tu peux utiliser les coeurs CUDA pour accélérer le traitement. Sinon… bah t’affiches un film quoi, aucun intérêt d’avoir un GPU haut de gamme pour ça.

Le 09/05/2016 à 15h 48

Je suis taquin, d’autant que tu es abonné à NXI, donc ce pseudo est forcément parfait <img data-src=" />









tiret a écrit :



Ma GTX 460 m’avait lâché en moins de trois ans, une Gainward. A priori une surchauffe de l’étage d’alimentation. Mon alim de l’époque n’était pas en cause (une Antec NeoHE 500 W) et la carte suivante fonctionne parfaitement (une Zotac GTX 660 Ti). Comme quoi…





Oui, comme quoi… C’est une EVGA Superclocked (de seconde main mais qui n’avait quasi pas servi) épaulée par une alim 80+ gold de 800W de 2011-12. (Oui, cette puissance est tout à fait superflue. À l’époque, je pensais avoir les sous pour un SLI pas longtemps après ;-) )


Le 09/05/2016 à 15h 02

Pour Factorio (très bon jeu d’ailleurs <img data-src=" /> ), tu peux te contenter de moins en attendant. Pas la peine de claquer 150€. Et, comme le dit kikoo26 (sois dit en passant, j’en reviens pas de ce pseudo <img data-src=" /> ), ça vaut peut-être le coup d’essayer avec ta solution graphique intégrée.



Sinon, c’est quoi ces CG qui tiennent pas la route ? Ma 480 a toujours la chevelure au vent et le teint halé ! (Ce qui ne l’empêchera pas de se faire upgrader la face dans les prochains mois.)

Le 09/05/2016 à 14h 26

Viser le Ulltra, de base, ça n’a pas grand sens. Les développeurs rajoutent souvent dans ce mode des artifices ultra gourmands en temps de calcul qui font plonger tes FPS (et de manière non uniforme qui plus est) pour une amélioration visuelle au mieux très peu visible, au pire qui passe inaperçu (suivant le type de jeu et où l’attention du joueur est concentrée, ça varie).

Alors vouloir en plus du 4K à ce niveau détail, autant dire que tu peux attendre deux gens pour espérer le faire tourner à 60 FPS minimum.

Canard PC ou Canard PC Hardware a fait un dossier là dessus il y a quelques temps, c’était pas mal instructif.

Le 09/05/2016 à 18h 21

Oui, c’est souvent la période choisie pour de telles annonces.

Le 09/05/2016 à 15h 36

À leur place, j’aurais oublié “par inadvertance” quelques détails sur Polaris dans le soft, histoire de faire parler de leur nouvelle archi et contrer un brin Nvidia. Parce que bon, on ne va pas se mentir, les pilotes existent sûrement déjà au delà d’une version prototype.

Mais bon, des gens sont sûrement déjà en train d’éplucher le soft, alors on verra bien ;-)

Le 02/05/2016 à 09h 42

Parce que les abonnés se tapent quand même les pubs ?! Mais… sérieusement ?

Je ne comprends pas que cela ne soit pas activé d’office, que le streamer soit d’accord ou pas. C’est une question d’honnêteté à ce niveau, franchement.

Le 29/04/2016 à 09h 18

” mais Amazon ne parvient toujours pas à dégager le moindre bénéfice opérationnel”

Vous imaginez si en plus ils payaient des impôts dessus ?! <img data-src=" />

Le 29/04/2016 à 09h 14

Faut espérer que cet échec ne les encourage que d’avantage à persévérer… Après tout, la compréhension de notre Univers et la conquête spatiale reste un des meilleurs espoirs de l’Humanité (“l’espèce, pas le journal” Copyright E-Penser) de trouver un terrain de jeu commun et d’unification des intérêts.



Mais bon, je suis un optimiste.

Le 28/04/2016 à 13h 11

La phrase continue avec “proche de nous”, ce qui est factuellement correcte… même si “proche” à cette échelle reste tout relatif ;-)



Mais oui, qu’une compagnie privée envisage d’envoyer une capsule sur Mars avant 2020 laisse songeur quant à l’avenir de l’exploration spatiale. Et c’est cool !

Le 28/04/2016 à 10h 02

Meilleure que la gen précédente sûrement, mais pour une carte sensée être milieu de gamme, elle reste chère. Mais on s’est habitué avec les générations qui s’enchaînent avec des tarifs toujours plus indexés sur le potentiel monopolistique de Nvidia qu’autre chose <img data-src=" />

Le 28/04/2016 à 07h 58

+1

J’espère vraiment du bon côté graphique. Ca forcerait Nvidia à apporter quelque chose de neuf en terme de rapport qualité prix…

Le 06/01/2016 à 13h 55

Ouaip, le SLI est de plus en plus délaissé par les dev j’ai l’impression. En même temps, comme tu le dis c’est pas du tout un doublement des perfs vu que la mémoire des cartes ne s’additionne pas du tout et est, au contraire, répliquée à travers les cartes. En gros, SLI de 970 -> 4Go de GDDR5 et pas 8 (… pardon, 3.5 et 7 <img data-src=" /> ).

Après, encore une fois, ça va dépendre du jeu et des conditions, mais on peut imaginer que dans le cadre de la VR, deux frame buffers différents pour différencier les deux écrans serait une bonne chose.

Bon, après, je peux me tromper sur l’importance de la mémoire par rapport à la fréquence dans ce cas là ;-)

Le 06/01/2016 à 13h 43

La question reste quand même de quelle niveau de qualité les gens de nvidia se contentent pour le matos minimum. Parce que même si la 970 est une excellente carte, la VR pour être confortable (on va prendre en compte que la mal de crâne induit et pas la nausée qui semble très dépendante de la personne) doit afficher du 60 fps sur deux écrans à haute résolution (le QHD est primordial, et le 4K un bon avantage… oui, enfin une utilité à la 4K !). En gros, au bas mot, balancer du 120 fps en 2560*1440 px. Une 980 n’assure pas ça en niveau de détail élevé. Genre, pas du tout.



Bref, oui, comme dit plus haut, il est naïf de penser que c’est autre chose que du marketing… Mais bon, Pascal en mi-fin d’année, on peut toujours espérer. Et surtout qu’AMD sorte autre chose que du rebranding et des cartes, certes intéressantes, mais plus chères que Nvidia (Nano & Fury X, je pense à vous). Oui, un comble.

Le 06/01/2016 à 01h 23

Ouais je sais bien, mais on a le droit d’espérer, non ? ;-)

Enfin, c’est pas non plus le priorité de ma vie… oui, la priorité c’est la Tesla, voyons ! <img data-src=" />

Le 05/01/2016 à 11h 51

Pitié Nvidia, annonce une date pour Pascal ! Ma 480 commence à tirer la langue.

Le 30/10/2015 à 15h 15

Apple et ses iDevices est quand même bien mieux loti sur le point de la fragmentation de sa base d’utilisateur. Android a toujours souffert (enfin, les développeurs tiers ont toujours soufferts) de cette fragmentation de ce côté là de la barrière, et c’est pas près de changer.

Mai bon, entre ça et des terminaux hors de prix, hein, … ah non, pardon, j’oubliais qu’Android en avait aussi en fait…

Disons tout de même que le nombre de constructeurs différents a au moins l’avantage d’avoir instaurer une concurrence permettant de trouver des appareils pour toutes les bourses.

Le 27/10/2015 à 09h 53

La vraie question étant de savoir si la NSA compte effectivement respecter cet accord. Mais, effectivement, personne ne se la pose vu que la réponse est connue d’avance…

Le 28/09/2015 à 09h 36

Autrement dit, encore une belle aubaine pour les industriels qui n’auront dans la plupart des cas rien à voir avec les modèles imprimés…

Le 27/08/2015 à 01h 37

”… amasser près de 88 millions de dollars auprès d’environ 970 000 joueurs.

Une somme largement suffisante pour mener à bien le développement du

titre, aussi grande son envergure soit-elle.”

 

 Sans dire que ce point est forcément faux, elle est où la source pour ça ? Parce que bon, on peut ressortir les chiffres pour GTA V aussi <img data-src=" />

Ah et un chiffre j’en ai un si vous voulez : un dev est payé dans les 80k $ annuel en Californie (fourchette basse, vers SF c’est plus 110k). Rien qu’en masse salariale, ils ont une petite fortune à débourser tous les mois avec leurs trois (ou quatre maintenant même) studios ;-)

Après, on peut arguer du fait que l’effectif employé par CIG n’est pas justifié. Mais bon, sans le produit final, c’est difficile de juger.

Le 20/08/2015 à 12h 11

À ce propos, sait-on si NVIDIA va uniformiser les versions G-Sync desktop et portables ? Il me semble que cette dernière ne nécessite pas de module proprio dans l’écran pour fonctionner, ce qui en théorie permettrait de faire baisser dramatiquement les prix des futurs écrans supportant la techno.

Parce qu’à l’heure actuelle, quand on voit les prix des deux bijoux du rayon http://www.ldlc.com/fiche/PB00185907.html ethttp://www.ldlc.com/fiche/PB00171145.html pour ceux que ça intéresse) on se dit qu’effectivement, il est urgent d’attendre quand le budget n’est pas renouvelable tous les six mois…



Quoiqu’il en soit, le support par Intel de la techno concurrente (mais apparemment encore un chouilla moins aboutie, à moins que ce soit les écrans compatibles qui ne suivent pas, je ne sais plus) va donner du grain à moudre à Nvidia. Manque plus qu’AMD sorte enfin un lineup de cartes graphiques qui ne soit pas un scandale de gaspillage énergétique et ça sera tout bon, la bonne vielle concurrence sera de nouveau sur la table ;=)

Le 12/08/2015 à 17h 35

Ceci. Tellement vrais.

&nbsp;

&nbsp;J’utilisais git en graphique avant. Et puis, nouveau boulot, nouvelles pratiques: bash! Eh bah j’y retournerai pas, à cette interface.

&nbsp;Bon, c’est vrais que le site de github propose des trucs cools, genre pour les PR et les releases.