votre avatar

Adakite

est avec nous depuis le 14 février 2007 ❤️

241 commentaires

Le 02/07/2017 à 08h 04

Il est temps de revenir à *BSD, ou VMS.


Le 12/04/2017 à 20h 10

Merci pour l’article. merci pour la transparence. Comptez sur mon abo pour continuer à vous soutenir.

Le 30/03/2017 à 10h 44



[…]

Pour moi, l’avenir c’est le dumb-terminal universel connecté en permanence à un smart-cloud spécialisé.



Terminaux moins cher, infrastructure mutualisée, centralisation des offres, modèle de souscription par abonnement: le must pour les entreprises. Et les utilisateurs n’ont pas l’air de dire non.







Cela s’appelle le Minitel ->fr.wikipedia.org Wikipedia

Le 24/03/2017 à 10h 18

C’est une sorte de pied de nez à Apple et ses MacPro poubelle ?



Ce n’est pas sans rappeler les form factor des SGI O2 et autres Octane 12. Seulement, à l’époque c’était bien pensé, modulable et durable (c’était aussi monstrueusement cher).

Le 23/03/2017 à 21h 38







Strimy a écrit :



Merci, je m’en vais lire ça.





Mouais, je ne suis pas convaincu.





Le seul argument que je trouve recevable est celui de la masse. Et en lisant l’article, c’est ce qui me semble le plus convaincant : “There were several factors that drove them to design the wheels to be as lightweight as possible.”

D’ailleurs, il semble que les conditions dans lesquelles Curiosity a évolué sont différentes de celles qu’ils ont eu avec les missions précédentes.



La durée de la mission, c’est pas recevable pour moi. On sait tous comment ces missions sont faites : une durée initiale (les 700 jours), mais ça doit fonctionner bien plus longtemps. La plupart des missions spatiales durent plusieurs fois la durée initiale. Je suis à peu près certains que les durées initiales ne correspondent qu’au budget initial pour maintenir la mission active.









Le temps nominal des missions est un aspect complexe. Quand tu proposes en tant que scientifique une mission ou un instru, il faut être crédible, car c’est la compétition, d’autres personnes proposent également des choses concurrentes. Le temps nominal vient de l’adéquation budget, capacité à fournir des technos fiables, matures et “spatialisées”. Après, c’est ce que l’on appelle les marges de sécu qui permettent aux intrus de tenir ou non. La plateforme aussi (le rover, le satellite) qui est généralement fournie par des partenaires privés (Boeing, Thales, EADS etc.). Le budget c’est une autre histoire car chaque agence a sa propre politique (elles ont des status bien différents).


Le 23/03/2017 à 21h 31

J’ai travaillé 3 ans à JPL, des incompétents, j’en ai pas croisé un, mais pas un seul. Des erreurs, tout le monde en fait, mais de l’incompétence…

Le 23/03/2017 à 21h 29







Strimy a écrit :



C’est une interrogation que j’ai aussi. Qu’est-ce qui justifie cette fragilité ?









La spatialisation des technos. 1kg de plus, c’est très cher au lancement et c’est d’autant plus compliqué à l’atterrissage (et donc cher aussi). Donc tout est question de compromis entre durée de vie, coût, faisabilité.


Le 20/03/2017 à 20h 57







Toorist a écrit :



Sous réserve d’avoir un jour des drivers de carte graphique “décents”  : D









C’est le cas pour les “verts” depuis longtemps qui sont paritaires avec Windows dès lors que l’on compare la même API.


Le 07/03/2017 à 09h 31







Haken Trigger a écrit :



Sinon, cette news montre bien que Nvidia a des soucis de fiabilité des pilotes ces derniers mois, n’en déplaise aux personnes que je vois parfois (ici et ailleurs) vanter la soi-disant stabilité exemplaire des GeForce.









Disons que tout dépend de ce que l’on entend dans stabilité. Là les hotfixs concernent des applications (jeux) bien ciblés, du coup, certains utilisateurs qui ne les utilisent pas peuvent observer une bonne stabilité sur leurs applications par ailleurs que ce soit sous Windows ou u*ix (Gnu/Linux, Solaris et FreeBSD).



Le 02/03/2017 à 14h 13

Ah… Merci bien pour ces precisions.

Le 02/03/2017 à 13h 29

Question naive (ou con c’est selon), d’ou vient la denomination “Ti’ ? Que veut-elle dire ?

Le 01/03/2017 à 13h 38

Du coup, les “nouvelles” Titan (c’est à dire celles post “Black”) n’ont lieux d’être en l’absence de hautes capacités en FP64 et de support OpenCL 2.0. Nvidia aurait d’ailleurs une belle carte à jouer sur ce terrain mi-pro, mi-enthousiastes, qui correspond aux start-up, PME, monde académique, studio de prod. qui n’ont pas forcément les moyens (ou les besoins) de la gamme Tesla et Quadro, mais qui ont tout de même des budgets plus importants que le public des GeForces tout en ayant des besoins technologiques bien particuliers. La sortie de cette Ti nous illustrent un véritable souci de ce point du vue la, que je n’arrive pas à comprendre de la part d’une société qui a les moyens de “réfléchir” à ces aspects là. La politique techno/tarif des “rouges” est bien plus lisibles.

Le 27/02/2017 à 18h 36







sr17 a écrit :



C’est un biais connu.



Avec une application qui exploite mal le multithreading, un dual core fortement cadencé peut facilement doubler un 4 ou 8 coeurs qui tourne souvent à fréquence plus modeste.



Même si l’on ne dispose pas encore de tests définitifs, on peut prédire sans grand risques que l’offre d’intel à 350€ est très inférieure en nombre de coeurs et de puissance totale.









C’est plus compliqué. Le multi-core est une solution au rabais de ce qui existait à l’époque des 1ers dual-core (et même d’une certaine manière du premier Pentium HT) dans les stations UNIX multi-socket. Une quad-core n’est pas équivalent à 4 CPU mono-core. Le scaling en OpenMP et/ou MPI ne sont pas aussi bon. Le gain est financier et énergétique essentiellement. Donc il ne suffit pas d’avoir une appli (ou un code, je pense plutot a des applis de calcul) soit mal optimisée. La réalité c’est que c’est encore et toujours le GHz le roi, car en plus, même sur du multi-cpu bien huilé, la part du code réellement parallélisée n’est pas à 100% loin de la. Donc en dehors des applications de calculs scientifiques (que je développe au quotidien en HPC) et quelques applis métiers type encodage, ou traitement images lourds, l’apport d’un 8 core dans un PC n’est pas encore très clair. Chez moi, je suis passé d’une thinkstation 16 cores (deux Xeons 6-cores) a un PC mono-socket avec un i7 7700 (4-cores, donc) et que ce soit sous Steam, en navigation web, application “office” etc. j’ai un gain énorme. Seul mes codes OpenMP/MPI tournent moins vite (et encore ca dépend de la taille des échanges de données a effectuer).



Bref, c’est plus subtile.


Le 27/02/2017 à 17h 49

Je trouve un enthousiasme un peu naif dans l’article et dans les coms vis-a-vis de l’annonce d’AMD. Ils nous montrent un benchmark, sur un test synthetique avec un CPU Intel [tres] cher, mais qui se fait parfois doubler par d’autres CPU de la marque bleue, autour de 350 euros qui ont un bien meilleurs TDP. Donc attendons de voir les vrais tests une fois ces nouveaux CPU distribués, mais pour l’instant, je ne vois pas en quoi Intel devrait bouger le petit doigt. D’autant que s’ils veulent faire mal, ils pourront le faire. Les leviers ne manquent pas : tarifs, chantage avec les intégrateurs, sortie de modèles OC, sortie de modèles 8 cores issues de la ligne Xeon et “bradés” pour l’occasion.





PS. Loin de moi l’idée de défendre Intel mais faudrait pas trop les prendre pour des bleus, hein!

Le 24/02/2017 à 12h 44

Au moins ils sont honnêtes.


Le 23/02/2017 à 09h 59

À quand le retour des vraies “Titan” ? à savoir, du FP64 non castré !!!

Le 22/02/2017 à 11h 55







Drepanocytose a écrit :



“Enfin, il est impératif de disposer de la version 5.6 beta de Unity, disponible par ici.”

Le lien parle d’installers pour win et osx, pas pour linux









En pratique, il serait intéressant de savoir s’il est possible (ou le sera) de développer des applications (jeux ou autres) pour Linux avec un autre moteur qu’Unity.



@NextInPact: Un petit test pour nous ?


Le 21/02/2017 à 10h 13

Il était temps. L’ESA a un gros retard sur ce point vis-à-vis de la Nasa (même si leur status bien différent implique en effet des licenses d’utilisation respectivement distinctes). Cela dit, beaucoup de donnée ESA sont déjà libre d’accès.

Le 16/02/2017 à 14h 34







thomgamer a écrit :



Malheureusement comme beaucoup de services aujourd’hui, genre les jeux gratuits PS ou Xbox, ils sont gratuits tant que t’es abonné aux services.



Puis y a aussi les droits qui expirent, genre ton contenu est dispo tant qu’il est disponible sur la plateforme.









Comme dit déjà de nombreuses fois, on en revient au Minitel stricto sensus.


Le 31/01/2017 à 09h 35







t1nt1n a écrit :



Linus Torvalds peste contre les nombreuses Release Candidates  tout le temps <img data-src=" />









C’est sur qu’on l’entend plus que les dev teams BSD…


Le 05/01/2017 à 20h 44

Un petit GPU nvidia et Arch et ce X1 serait miens…

Le 05/01/2017 à 09h 17







JeanM64 a écrit :



Il y a une piste que personne n’aborde, c’est une vrai décentralisation. Taxation des entreprises qui n’ont rien à faire en région parisienne, lyonnaise, marseillaise avec un rayon de 150 kilomètres au profit des régions sous-industrialisées par réduction des taxes sur les entreprises s’installant ou installées dans ces régions…

Avantages plus d’embouteillages moins de pollution (les écolos seront contents), moins de stress meilleurs qualité de vie pour les employés.

Mais ne pas  faire les conneries des années 7080 : ma boite grosse à déménagée plusieurs fois en région parisienne proche et à chaque fois le contribuable a payé (Louveciennes-78, Trappe-78, retour Louveciennes-78, Massy-91, Les clayes-78… certains reconnaitront peut-être la société en question)

Répartition du tissus industriel sur tout le territoire.

Même si les sièges des boites conservent des locaux à des adresses dites prestigieuses à Paris les centres de développement, les bureaux d’études, la production n’a pas besoin d’être à côté du siège il y a maintenant des moyens de comm performants bien qu’il soit important de se voir (de se toucher la main) et de faire une bouffe de temps en temps (2 ou 3 mois). On peut bosser à Guéret ou à Mende et être en relation avec Toulouse ou Lille sans avoir à concentrer tout le monde à Saint-Quentin-en-Yvelines ou à Corbeil-Essonnes (et de se payer 3 heures de RER chaque matin et chaque soir (quand tout va bien)









Oh que tu as raison, mais là on touche au fond du problème…Et c’est pas un mandat de 5 ans qui le régler.


Le 03/01/2017 à 13h 26

Du Pascal?

Le 27/12/2016 à 22h 57



Quand tu es sur site tu fais comment?



tu brodes la journée et bosse le soir?







On peut être indé et bosser chez soi…Maintenant, “Pro” ne veut rien dire du tout. On a pas forcément des besoins plus gourmands en usage pro qu’en usage “domestique”. Donc un portable peut totalement suffir.



Pour revenir à la news, de toute manière cette nouvelle génération est totalement ratée pour moi, mon rétina de 2013 sera surement le dernier. C’est bien dommage. Je cherche un fabriquant pour le remplacer, mais la….c’est pas évident. Écran 16:10, GPU Nvidia, 8h d’autonomie minimum, Core i7 Quad Core, &gt;16Go, clavier US, Lecteur SD, sortie HDMI, sobre (genre pas les daubes Rep of Gamers and Co, on dirait des GTI) et qui soit relativement bien supporté sous Linux…Aucun ne répondent à ces critères D’ou ma resistance à quitter les MBPro. Les ThinkPad s’en rapprochent mais pas complètement et on est loin de ce que proposait IBM à l’époque.

Le 27/12/2016 à 22h 47



Les gens qui n’ont jamais constaté de problème de batterie gonflée sont probablement des personnes qui sont restées relativement loin des 800-1000 cycles de charge, ou qui ont eu beaucoup de chance.





je dois appartenir au second groupe, jamais eu de souci sur aucun de mes MB, MBPro depuis 12 ans (j’ai en utilisé peut-être 5 ou 6) en usage quotidien, c-a-d, code/dev/calculs la journée, web/streaming le soir sur le lit (qui chauffe bien comme il faut). Aucun, mais alors aucun souci. Au boulot et autour de moi (cercle proche) c’est du 80% MBPro, je n’ai jamais entendu quelqu’une parler de ce type de soucis.



Bien sur, il faudrait trouver une source fiable des cas signalés, mais je dirais l’inverse, les gens qui ont connu ca, sont les malchanceux.

Le 17/11/2016 à 09h 05







jackjack2 a écrit :



Oui mais nous on veut la Lune, Mars et Titan!









Pour Mars tu as déjà une app pour Android et iOS, développée par VR2Planets, une startup-up spin-off du labo de planétologie de Nantes. Pour Titan, on y travaille, mais la version alpha est déjà en teste dans certains établissements scolaires et tout ça sans Google, et c’est multi-plateforme (Win, OS X, Gnu/Linux, *BSD, iOS et Android) et compatible Oculus et HTC.


Le 27/10/2016 à 20h 05

Plus de magsafe, pas d’offre Nvidia pour le GPU, Sierra est decevant et leur politique vis-a-vis de Vulkan laisse songeur…je passe mon tour et reste avec mon retina de 2013. De toute facon je passe plus de temps sous linux et BSD que sous OS X maintenant. Reste encore deux trois applis (illustrator, Datagraph’), le confort d’utilisation et surtout la longévité de la batterie, ce qui pour un portable est un très gros avantage..pour le reste..

Le 26/10/2016 à 20h 11

j’adore bosser sur mon Macbook Pro au quotidien et ce depuis maintenant presque 10 ans. Mais alors la nouvelle génération Touch/Siri n’annonce rien de joyeux. Pas de support Vulkan, par de GPU Nvidia (donc pas de CUDA), bloqué à une veille version d’OpenGL et compilateur intel moins founie que sous Linux…franchement Apple commence à vraiment faire ch ceux qui font autre chose que de la navigation web avec leur Mac. Il me manque Illustrator et un support plus robuste d’Optimus (et donc longévité des batteries) pour totalement passer sous Linux sur mon laptop (ma workstation étant passé de Solaris à RedHat depuis le rachat de Sun par ces co d’Oracle). Apple n’offre aucune visibilité sur le Mac pour ses utilisateurs ingé/scientifiques/pro ils n’auront pas mes euros pour leur prochaine mouture.


Le 19/05/2016 à 10h 32

Pas de test CUDA/OpenCL?


Le 03/05/2016 à 08h 45







altazon a écrit :



Et toujours ce foutu format d’écran 169… je pensais qu’avec les Surface on allait enfin abandonner ce format.









Surtout lorsque l’on met en avant le côté “Pro”.


Le 21/03/2016 à 14h 11

Ca fait un moment que je me dis, bon aller va t’abonner. Mais la bon j’ai plus d’excuse. C’est donc fait. Merci à vous.



maintenant que je peux donc donner mon avis de manière plus légitime nous dirons, j’aimerais trouver plus d’info un peu technique sur les mêmes files que l’on peut lire sur des sites comme Phoronix. Je trouve le contenu et les actus sur ce site vraiment bien, mais j’ai un gros, gros souci avec certain aspect de la ligne éditorial, le fait que le lecteur est systématiquement forcé a “ne pas quitter le site” avec des liens autocentré je crois ne jamais avoir deja vu ça ailleurs, une absence trop régulière des sources. bref du boulot de journaliste en fait. Mais il est des actus qui m’importent beaucoup (API en GPGPU, suivi des actus HIP, Nouveau) presque quotidienne. Et je trouve que c’est un truc qui manque ici.





Alors bon vous allez me dire “bah t’as qua continuer à lire phoronix”. Bon je dis, je dis rien merci pour l’initiative en tout cas !

Le 07/01/2016 à 14h 10

@David: Aucun détail sur la partie soft? C’est le driver qui fait tout, ou ont-ils rajouter un truc intermédiaire ? Ca fonctionnerait sous GNU/Linux ?

Le 07/01/2016 à 12h 56



Mais pire, il y en a qui tournent encore sous XP Windows ! ^^’


Le 06/01/2016 à 20h 56

Pas de support Linux, ils n’auront pas mon fric (pas une surprise c’était annoncé, mais bon…)

Le 10/10/2015 à 09h 04

Et oui, Dell nous “prouvent” avec cette nouvelle gamme XPS que les prix des MPB ne sont pas si eleves.



Bon maintenant, le XPS 15”, sans le tactile, avec un GPU nvidia et un support “developer” (i.e., c-a-d sous Linux a la livraison) et je suis pres a remplacer mon MPB.


Le 28/09/2015 à 12h 36

Moi je note, comme on s’y attendait, l’absence de l’instruction AVX-512 pour le haut de gamme, sachant que les Xeon ne sont pas prévus pour tout de suite, c’est une stratégie commerciale des plus mauvaises depuis longtemps de la part d’Intel. On est donc bloqué à de l’émulation pour préparer les codes au KNL et au Xeon Skylake sans véritablement avoir la capacité de tester des cas tests en réel. C’est un problème et c’est surement un choix des marketeux/commerciaux qui ne voient pas de concurrence en face et donc font des choix de merde alors que la technologie est là.

Le 26/09/2015 à 13h 14







pentest a écrit :



Sinon pour les pro qui veulent bosser y a BSD









Bah j’en suis de moins en moins convaincu, en partie à cause du manque de support d’accélérateur type Xeon Phi et GPGPU. C’est un gros manque, surtout en académique et R&D ou ce sont aujourd’hui des outils courant en calculs/HPC. Les BSD n’ont pas pris conscience de cette évolution de ces dernières années et c’est un gros souci maintenant pour bosser sous BSD justement. Pour du server de base (c-a-d dans mon jargon du data et non du computing) oui ,mais ca limite grandement l’intérêt du coup. C’est dommage j’aime beaucoup la philosophie dernière les BSD.





Pour revenir à la news, j’ai largué Ubuntu depuis la 12.04 pour Fedora, que je trouve mieux adapté au desktop car moins fouillis, plus efficace a mettre en place et avec les nouveautés si besoin. Après pour ceux qui n’aiment pas Unity, il est possible d’y mettre autre chose hein.


Le 24/09/2015 à 23h 13

Pour ceux qui veulent la liste steam:&nbsphttps://steamdb.info/linux/

Le 22/09/2015 à 21h 20

Visiblement, à la lecture d’un bon nombre de posts ici, beaucoup ne savent toujours pas que le blob Nvidia est identique sous Windows et sous Linux (i.e., partage du code source) et qu’en conséquences les performances sont similaires.&nbsp;Ceci est même vrai sous FreeBSD.&nbsp;Évidemment, ceci implique d’utiliser le blob proprio.&nbsp;

&nbsp;

Le problème des drivers et donc des performances des GPU sous GNU/Linux concernent essentiellement les GPU ATI/AMD et dans une certaine mesure ceux d’Intel.&nbsp;&nbsp;



&nbsp;&nbsp;



&nbsp;

Le 27/05/2015 à 12h 08







Resman a écrit :



Le problème pour Linux “grand public” selon moi est le manque d’intégration. […]&nbsp;





Pour moi c’est l’applicatif. Tant que l’on aura pas de véritables alternatives ou du portages natifs (!) de l’applicatif, GNU/Linux restera à ces quelques % de part sur le desktop.




Les produits Adobe sont, excusez-moi, inégalés (Acrobat, toshop et surtout Illustrator). Je déteste cette compagnie mais je n'arrive pas à me passer de leurs produits au boulot. C'est totalement improductif de le faire voir même contre-productif. La suite MS Office reste encore aujourd'hui plus stable que son équivalent Libre pour les gros projets (bien que celle-ci soit très bien et peut suffire à beaucoup, là n'est pas la question). Et puis et surtout, les vraies applications métiers (CAD, Médicale, Archi, gestion, géospatial, banque...). Il y a des exceptions bien sûr, &nbsp;mais c'est sur ce point qu'il faudrait voir du changement de la part des éditeurs pour que l'on puisse [enfin] voir de l'évolution dans l'adoption de GNU/Linux pour le desktop. On pourrait en dire autant pour FreeBSD qui est un très bel OS également (mais qui en plus souffre de ne pas supporter des technos récentes comme le GPGPU par exemple, quel dommage d'ailleurs).&nbsp;     



&nbsp;

Le reste (i.e., l’architecture et l’administration du système, l’interface, le userland) en réalité ca n’est pas ça qui pose le plus gros problème à l’adoption massive de GNU/Linux. On le voit bien avec les différentes interfaces auxquelles est confronté le GP (tablette, smart phone, Mac OS X, windows…). &nbsp;D’autant que le choix existe et est large pour Linux (KDE, Gnome 2 et 3,&nbsp;lxde etc. etc.).&nbsp;&nbsp;&nbsp;





Enfin, pour revenir à la news, &nbsp;passer à F22 pour un usage “workstation” demande que le support de Wayland par les drivers proprios de Nvidia. Ils y travaillent, on attend…


Le 18/03/2015 à 13h 39

Je ne comprends pas NVIDIA sur cette Titan X….0.2TFlops en DP, c’est beaucoup moins que la Black. L’intérêt de la gamme Titan était justement que la DP n’était réduite à néant comme pour les GeForce classique, tout en gardant des tarifs relativement doux par rapport à la gamme Tesla (à ne pas confondre avec la génération des GPU hein), et donc à faire du dev et du test avant de passer d’une nouvelle version d’architecture.

&nbsp;&nbsp;Là c’est &nbsp;se tromper totalement de cible.

Le 12/03/2015 à 17h 03

J’aime bien le design ext qui rappelle les Macbook Pro, dommage qu’on ait pas un vrai GPU

Le 28/11/2014 à 15h 19

CrowTown, faut arrêter les aigreurs dès qu’on parle de mettre au chose que du Windows. Ce n’est pas une news spécifiquement Win, mais d’une sortie Hardware sur lequel on peut [encore une fois] regretter l’absence de choix d’un point de vue OS. Si t’en vois pas l’intérêt d’autres peuvent le voir. Et puis le coté “kernel à la ramasse” c’est pas sérieux de sortir ca ici, ou alors du découvre tout juste l’IT.&nbsp;Il est temps de sortir de l’adolescence et de prendre un peu de recul, c’est rarement douloureux ;)&nbsp;





&nbsp;



&nbsp;



&nbsp;

Le 26/11/2014 à 12h 50

Avec un linux un peu léché, ca pourrait donner….mais y mettre un windows 8, c’est dommage car vu le cpu, ce n’est ni pour jouer ni pour utiliser des applications métiers solides, donc autant y mettre un OS léger, versatile, qui plus est libre.&nbsp;

Le 08/11/2014 à 13h 19

merci pour le feedback. Je pensais que c’était une bonne idée en effet, mais &nbsp;avec ce que tu décris…

Le 07/11/2014 à 16h 38

Tu pourrais développer ? Quel est le pbl du SDK? (vraie question!)

Le 07/11/2014 à 16h 12

–&gt; JWST

Le 27/10/2014 à 15h 59

Étant à 900m de mon NRA, la différence ne s’est pas fait sentir, pourtant en plein Paris :( dommage, c’était l’une des raisons d’aller chez OVH, cela dit, je ne compte pas changer de FAI pour autant.&nbsp;

Le 24/10/2014 à 08h 59

Il est temps de mettre en place un système type “Class Action” qui permettrait à des groupes de citoyens de monter au créneau de manière à contrer ce type de proposition. Là c’est vraiment n’importe quoi….Me rappelle cette vieille phrase “un jour on paiera l’O2 que l’on respire”. &nbsp;

Le 03/10/2014 à 11h 49







Cartmaninpact a écrit :



Qu’il garde une seule chaine genre public sénat, si il en faut une pour la propagande.









Curieusement, j’ai le sentiment que France 2 et 3 en font plus que public sénat, qui est plutôt une chaine technique pour les quelques rares fois ou je l’ai regardé (j’ai pas de TV).



Pour revenir au sujet, ca fait depuis 2008 qu’ils nous disent qu’on va le sentir…bah voila on commence a bien la sentir la. Et c’est pas fini.