votre avatar

kypd

est avec nous depuis le 12 avril 2006 ❤️

Bio

Oups.
On dirait que quelqu'un ici aime garder ses petits secrets, comme si de par hasard il y avait quelque chose à cacher...
Désolé, ô lectrice de passage, cher lecteur égaré, pas de révélation sensationnelle pour le moment sur ce profil.
Repassez plus tard ?

661 commentaires

New  Horizons : une éclipse du Soleil par Pluton en haute définition

Le 27/03/2017 à 12h 44

Corps céleste <img data-src=" />


e-administration : un sénateur veut dispenser les personnes nées avant 1950

Le 27/03/2017 à 10h 02

Et il y a une dispense pour ceux qui ne savent ni lire ni écrire ?

Il ne me semble pas que ce soit des connaissances obligatoires…


Starcraft Remastered : Blizzard cède aux sirènes de la nostalgie

Le 27/03/2017 à 08h 28

J’ai été assez déçu aussi de voir que le moteur ne semble pas évoluer…

Un moteur 3D évolue un peu mieux avec la technologie en s’adaptant facilement aux nouvelles résolutions et en permettant d’activé des options graphiques “hors-moteur” comme l’anti-aliasing.

Bon ici le but est clairement de rafraichir le titre pour l’e-sport, avec un lifting qui tentera quelques fans (en fonction du prix tout de même…) à refaire la campagne <img data-src=" />

En fouillant un peu j’ai vu qu’il y avait un Mod pour Starcraft II qui permet de rejouer à la campagne du premier avec cette fois ci le moteur du II.

A voir à l’occasion :https://www.sc2mapster.com/projects/starcraft-mass-recall


Concours Pwn2Own : Edge percé cinq fois, VMware deux fois, Chrome résiste

Le 22/03/2017 à 17h 47

Non…

Comme beaucoup d’autres tu n’as rien compris…

Firefox n’était pas dans la compétition précédente car il n’avait pas reçu de mise à jour majeure concernant ses composants de sécurité !


Guetzli, l'algorithme de Google pour réduire le poids des fichiers JPG de 35 %

Le 18/03/2017 à 07h 00






Trollalalala a écrit :

\(date vendredi 17 mars 2017, 21:04:35 (UTC+0100)
\)
./guetzli ~/Images/Day_Is_Done_3.jpg ~/Images/Day_Is_Done_03.jpg
$ date vendredi 17 mars 2017, 21:27:01 (UTC+0100)



Cadeau :https://linux.die.net/man/1/time <img data-src=" />



Krutors a écrit :

C’est une catastrophe pour les fabricants de solution de stockage ! <img data-src=" /> <img data-src=" />

<img data-src=" />



Mais non c’est un super argument pour ré-indexer la taxe copie privée sur les nouveaux taux de compression moyens observés <img data-src=" />



Une faille du noyau Linux vieille de sept ans vient d'être corrigée

Le 17/03/2017 à 14h 08

Ou pas…

Chez moi le module n’est même pas compilé dans le noyau !


Le 17/03/2017 à 13h 38




modprobe n_hdlc



modprobe: FATAL: Module n_hdlc not found in directory /lib/modules/4.8.3-gentoo
# zgrep -ic “n_hdlc” /proc/config.gz
0


Vous pouvez repasser plus tard merci <img data-src=" />


Ryzen : une même puce avec deux CCX actifs pour les modèles à 4, 6 ou 8 coeurs

Le 16/03/2017 à 17h 58

On le saura quand les processeurs sortiront…


Ryzen 5 : AMD lancera quatre CPU le 11 avril, dès 169 dollars

Le 16/03/2017 à 13h 44

Et pourquoi pas ? ils sont dans la même gamme tarifaire…

Quand t’as un budget donné et un usage donné il faut tout de même comparer !

Il fallait déjà le faire avec les FX… 8 “faux” coeurs ou 4 “vrais” selon les usages ça changeait la donne.

Pourquoi comparer aux fréquences de bases aussi ? C’est bidon, les Intel ont un système de turbo très élaboré, ça serait comme faire un bench Nvidia sans le GPU Boost ! (d’ailleurs la fréquence de base ne signifie rien chez Intel, elle n’est pas maintenu en Idle, elle est systématiquement dépassée en charge même sur tout les coeurs avec le premier pallier de Turbo…)

Pourquoi vouloir comparer avec des caractéristiques similaires, ça ne reste QUE des produits si tu compte pas les acheter ça sert à rien de comparer ! (sauf si c’est du fanboyisme qui cherche à déterminer quelle est la meilleur marque, c’est stérile…)

AMD n’est pas non plus l’armée du salut, leurs produits ne sont pas donnés, c’était déjà le cas avec la “fausse” annonce de la RX480 à 200$ (Dollar pas euro ! et pour la version 4Go introuvable pendant 6 mois…) donc inutile de se faire des étoiles dans le yeux avec un R5 1500X équivalent à un i7 pour 130E de moins ça ne sera pas le cas, ni en applicatif pour les version 4 coeurs, ni en jeu…

De plus malgré leur sympathie pour l’apport de concurrence et leur rapport performances/prix un peu plus tenu leur communication est vraiment exécrable ! On ne sait encore rien de Ryzen alors qu’il est sorti, on est toujours pas sur du type de mémoire supporté, ni de ce que signifie le TDP, ni des cas de figure les plus défavorable au data fabric anémique entre CCX, ni de comment est relevée la température au niveau des cores, ni du fonctionnement du XFR, ni des problématiques rencontrées au niveau des schedulers, etc etc…

AMD semble avoir tellement de mal à communiquer qu’encore une fois même la parte logicielle n’est pas au courant de comment ça marche, les outils spécialisés n’ont pas de specs (hwinfo, aida), les développeurs n’ont pas de specs (scheduler windows, détection en jeu…), les fabricants de mobo n’ont pas de specs (quelles fréquences DDR ? HPET à désactiver ??), mais on spécule tout de même sur les perfs des futures gammes et la pérennité d’un socket AM4 qui n’est pas démontrée (AM1 et AM3 ont fait psshit pourtant !)


Le 16/03/2017 à 11h 16

Le I5 7500 Kaby Lake commence à 215€ à ce moment, les Ryzen R5 4 cores ça sera entre 190€ et 210€ TTC…

C’est facile de parler en Dollar US Hors Taxe ça donne l’impression d’un bouleversement des gammes, finalement les deux concurrents resteront un choix “réfléchi” il n’y a pas de vainqueur clairement déclaré tout usages confondus… (surtout en l’absence de tests sur les R5)

Mais au moins maintenant il y a un “choix” à faire <img data-src=" />


Le 16/03/2017 à 10h 45

L’architecture c’est sympas mais on est plus dans les années 2000, les comparaisons à fréquence égales n’ont pas d’intérêt si les architectures ont chacune une enveloppe thermique et une efficacité qui permet d’être exploitée différemment…

Un processeur c’est un tout maintenant, pas juste un IPC et une fréquence !

Donc des performances inférieures de 10 à 15% en jeu à fréquence égale se traduit en une différence de plus de 20%~25% une fois que l’ont rajoute la propension à monter en fréquence d’une architecture comparé à l’autre… (si t’enlèves la haute fréquence à Kaby Lake, autant virer des coeurs chez Ryzen pour faire les tests ??)

Les différences de prix ne sont pas ahurissantes d’ailleurs, elles seront aussi absorbées par le surcout des cartes mères dans un premier temps chez AMD… (ironie…)

350€ le i7 7700K vs 280€ le 1600X (minimum avec la TVA) une différence qui correspond pratiquement au déficit de perfs en jeux !


Les conseils de l'EFF pour protéger sa vie numérique à la frontière américaine

Le 13/03/2017 à 11h 25

Ah le multi-boot ça m’était pas venu à l’esprit, vu l’espace rachitique dispo en général sur les smartphones <img data-src=" />

Je pense pas qu’on puisse déterminer qu’il s’agit d’une supercherie, ça pourrait être un appareil partagé.

Même sans ce genre de superchérie il y a beaucoup de ces appareil qui peuvent être multi-utilisateurs…

Par exemple un PC portable fourni par le taff, sans être Admin de la machine, avec possiblement des tonnes d’utilisateurs présents sur le système et quelques dossiers/fichiers qu’ils ont laissé trainer !


Le 13/03/2017 à 10h 57

Y a toujours pas de multi-session sur smartphone pour ouvrir simplement une session “Utilisateur Bidon” ?

C’est bien la même pour les réseaux sociaux, créer des comptes tout propres avant de passer la frontière ?


Performances de Ryzen : Y a-t-il un bug dans le scheduler de Windows 10 ?

Le 09/03/2017 à 11h 42

Non ce n’est pas rare…

J’en ai cité plein d’exemples !

1080p@60 ça ne veut rien dire, déjà sur les jeux type e-Sport les joueurs cherchent à maximiser leur 144Hz par exemple voir beaucoup plus (400Hz pour certains écrans ?) rien que pour améliorer la réactivité du moteur du jeux sans que ça soit forcément perceptible à l’affichage…

Kerbal tourne sans aucun problème sur une GTX 750 Ti pourtant un mauvais CPU peut mettre en branle la simulation physique et le moteur du jeu s’effondre lorsque l’on va assembler des fusées gigantesques…

Dolphin a besoin d’un CPU fortement cadencé et apprécie les architecture Haswell et supérieures pourtant graphiquement ça peut se contenter d’un iGPU Intel même en utilisant un framebuffer 1080p…

Je peux toujours faire ramer la simulation de Supreme Commander sur un Core i5 2500k comme à l’époque du Core 2 Quad où j’y jouait avec une 8600GTS, je te garanti que la carte graphique n’y est pour rien ! (par contre ça permet d’utiliser une limite d’unités plus élevés qu’il y a 10 ans…)

Le jeu sur PC ça ne se limite pas à acheter les titres consoles sur Steam, Il y a énormément de communautés actives autour de projets indépendants et de titres qui ont conservé une aura dans le temps avec des besoins bien spécifiques à chacun !

C’est peut être des usages plus éloignés des jeux grand public mais pour mon cas je vois très rarement mon GPU atteindre sa limite de conso dans GPU-Z, j’ai même certains titres plus intimistes (genre vieux MMO) ou le GPU conserve ses fréquences “2D”.


Le 09/03/2017 à 11h 07






levhieu a écrit :

Pour une fois, c’était possible d’écrire Linux sans le GNU/, vu que tout ça se passe dans le kernel



Surtout que j’avais bien précisé “d’autres noyaux” <img data-src=" /> (bon après on comprend mieux la distinction quand on a essayé de monter un GNU/BSD en utilisant Gentoo…)



Reparateur a écrit :

surtout que dans 90% des cas c’est la carte graphique qui est limitante dans les jeux



C’est juste Faux…

ça serait bien d’arrêter avec cette légende urbaine, tout le monde ne joue pas à des jeux portés à partir de succès Consoles qui n’ont qu’un intérêt en montant la qualité graphique !

Quand tu joue à un RTS le CPU et la quantité de RAM peut être un critère bien plus décisif que la qualité graphique ou le nombre de FPS, il est beaucoup plus important que la simulation soit exécutée en temps réel !

Sur pas mal de jeux de gestion comme City Skylines ou Kerbal Space Program le CPU voir même l’occupation mémoire avec moins de 8Go sera un facteur bien plus limitant que la carte graphique, et au delà de la fluidité de l’affichage encore une fois c’est la simulation qui doit absolument pouvoir s’exécuter de façon efficace ! (La simulation de la circulation devient très lourde sur City Skylines, La simulation physique est une limite quasiment matérielle sur la complexité des véhicules dans Kerbal…)

Il y a encore pas mal d’autres domaine comme l’e-Sport qui cherche à tout prix à réduire l’input-lag en ayant un frametime très court, voir l’émulation de console de jeux qui nécessite un CPU bien plus musclé qu’un GPU performant…



Le 09/03/2017 à 09h 49

Mouais toujours la même chanson chez AMD




  • Bulldozer : c’est pas juste les développeurs n’ont pas encore adapté leurs applications au multithread !

  • GCN : c’est pas juste les API haut-niveau plombe les perfs de notre super architecture !

  • Zen : c’est pas juste les schedulers ne prennent pas en compte la bande passante anémique entre les CCX !

    Je me demande ce qu’il se passerait avec des tests poussés de façon similaire sur d’autres noyaux, BSD, Linux ?

    En attendant on reste sur le haut de gamme de Ryzen, quand on va mettre 400E dans un processeur on doit avoir une idée assez précise de ce qu’on va en faire…

    Sans les R3/R5 on a aucun point de comparaison avec la gamme Mainstream, une gamme sur laquelle l’absence d’iGPU risque aussi d’être beaucoup plus pénalisante !


AMD lève le voile sur ses processeurs Ryzen 5 1500X et 1600X

Le 03/03/2017 à 11h 42

Le TDP ce n’est pas une valeur pour le consommateur…

La plupart du temps ça correspond à une “Plateforme” c’est à destination des OEM qui doivent dimensionner les machines complètes vendu clé en main !

Le TDP est utilisé pour différencier le support des cartes mères en fonction de la capacité de leurs VRM, chez Intel on a des plateformes limitées à 65W ou 35W sur certains mini barebone, sinon la plupart des plateformes supportent les 91W des CPU “K”, chez AMD on a eu le même genre de différenciation avec les FX, 95W, 125W, 220W, très peu de cartes mères supportent les FX 220W et il faut se méfier sur l’entrée de gamme entre le 95W et le 125W.

Les OEM doivent aussi accompagner ce genre de machines avec un refroidissement adapté à la Plateforme (ça inclus aussi le flux d’air dans le boitier) et une alimentation qui correspond à des usages courants…

Ces valeurs permettent de cibler facilement dans quelle chaine de production on va distribuer chaque type de processeur, si l’OEM a déjà une chaine de boitiers Micro ATX qui sont dimensionnés pour 95W de TDP avec refroidissement et alimentation adaptés, il n’y a plus qu’à fourrer une carte AMD avec un processeur 95W et un joli sticker ça fini en rayon sans plus de formalités.


[Sondage] Avez-vous ou allez-vous craquer pour un processeur Ryzen d'AMD ?

Le 25/02/2017 à 12h 50

Y a pas de GPU intégré sur Ryzen pour le multimédia…

Du coup si faut ajouter une carte graphique ça revient au même quelque soit l’age de ta machine <img data-src=" />


L'Inde place 104 satellites en orbite avec un seul lancement, un record

Le 15/02/2017 à 15h 15

Carrément parler de pollution pour une orbite presque polaire c’est clairement à coté de la plaque…

De plus ils sont encore dans l’atmosphère, ça mettra à peine quelques années à rentrer dans l’atmosphère, et ce sont des objets connus <img data-src=" />


AMD Ryzen : la gamme commence à faire parler d'elle, mais il manque encore l'essentiel

Le 06/02/2017 à 13h 32

Pas du tout ce n’est pas marketing, ce sont des nombres premiers <img data-src=" />


Lien vers VLC depuis un site de torrents : Bercy demande des explications... puis se rétracte

Le 30/01/2017 à 13h 17






trekker92 a écrit :

c’est un agent, son boulot c’est la finance et les controles de gestion, pas d’apprendre le html
faut arreter de reprocher à la planete entiere de pas etre geek les gars, avoir des connaissances approfondies n’est pas à la portée ni l’envie ni l’obligation de tous..



Euh ça commence à faire 30 ans que ça existe le web, 20 ans que c’est popularisé…

Faudrait peut-être se mettre à la page, c’est comme ne pas savoir lire un journal !

Le minitel a vécu à peine 30 ans et pourtant il était très ancré dans le quotidien en France, tout le monde se serait fait bâché de ne pas savoir s’en servir !

Le web c’est hyper simple comme principe, donc l’excuse “c’est pour les geek” quand on est un centre financier qui doit traiter des immenses quantités d’informations (c’est eux les geek pour de vrai !) ça devient lassant.



Victime d’un ransomware, un hôtel veut revenir aux clés classiques pour ses chambres

Le 30/01/2017 à 11h 12

Faut avouer qu’on sait pertinemment que la sécurité est inversement proportionnelle à la simplicité…

Donc quand on voit que toutes nouveautés en informatique promettent toujours plus de simplicité, faut pas chercher ailleurs !


5G : en laboratoire, Orange et Ericsson dépassent les 15 Gb/s

Le 28/01/2017 à 11h 38

Pas de stockage qui supportent 15Gbps ?

le SATA 3 c’est déjà 6Gbps par lien, les SSD NVME en PCI-express c’est entre 8Gbps et 32 Gbps (1x~4x)

Et franchement le stockage n’a rien à voir avec les capacités d’un réseau, il y a plein d’usages qui utilisent du réseau sans pour autant transférer des données d’un stockage à un autre…


ZOTAC dévoile une solution pour carte graphique externe et sa GeForce GTX 1080 Mini

Le 02/01/2017 à 12h 53

Euh le Thunderbolt a d’abord été implémenté sur un port “Display Port” puis maintenant via la connectique “USB-C”

Donc il y a peu de chance d’apercevoir une connectique “Thunderbolt” <img data-src=" />

Ici en DP :http://media.ldlc.com/ld/products/00/01/18/79/LD0001187978_2.jpg
Ou là en USB-C :http://www.intel.fr/content/dam/www/public/us/en/images/photography-consumer/rwd…


Le CSA gronde la chaîne YouTube Les Recettes Pompettes, une première

Le 16/12/2016 à 08h 40

Désolé nous n’avons pas la même morale, ni le même attrait pour les arguments fallacieux du type “pensez aux enfants !”.

Si tu cherches une nourrice merci de ne pas vouloir utiliser la loi pour ça…


Le 15/12/2016 à 15h 42






Grocell a écrit :

C’est prendre le débat par le mauvais côté : Il n’y a pas la moindre raison pour que les règles soient différentes sur YouTube que sur la TNT. 
La loi Evin est peut-être juste inadaptée à la société de 2016, ça c’est possible … Mais il va faloir m’expliquer en quoi YouTube doit avoir des règles de diffusion différentes de celles de n’importe quel autre diffuseur. 

Je vous laisse entrevoir ce que ça donne si ce n’est pas l’état qui decide de ce qui est autorisé ou pas à la diffusion : Ce rôle finira par incomber directement à YouTube … et c’est Google qui finira par decider si on peux se moquer d’Hilary Clinton ou pas …. Vous préférez pas que ce soit un organisme contrôle par un gouvernement élu qui s’occupe de la régulation ?



Si il y a une raison pour que les règles sont différentes, le Hertzien est une ressource limitée, les concessions de diffusions accordées aux chaines doivent suivre un cahier des charges imposé par le CSA pour s’assurer du bon usage de la ressource qui n’est pas accessible à tous pour exercer sa liberté d’expression…

Internet est ouvert à tous pour communiquer, il ne s’agit même pas de “diffusion” à proprement parler mais plutôt de “publication”, la ressource n’est pas limitée, pas de raison de venir limiter arbitrairement la liberté d’expression sur ce réseau !

Pour la “Loi” ce n’est pas le boulot CSA, ce n’est pas à eux de faire respecter la loi Evin sur un espace publique, seulement dans l’espace où ils ont autorité et il ne peuvent surement utiliser aucune des sanction “juridiques” prévu dans cette dernière, juste appliquer leurs sanctions administratives vis à vis des éditeurs qui se sont engagés à respecter un cahier des charges…



Offrez-vous le pack de goodies Next INpact : mug, t-shirt « Tous fichés », stickers, etc.

Le 15/12/2016 à 16h 14

On peut les avoir en version PC Inpact aussi ? <img data-src=" />


Linux 4.9 : multiples améliorations et support de Greybus

Le 12/12/2016 à 13h 18

je prend pas de risque avec le -j sur la compilation noyau, surement un reflex dû à un problème ancien désolé <img data-src=" />

Enfin le temps que ça prend c’est vraiment une question très secondaire, je lance souvent ce genre de compilation avant d’aller me coucher, et je fais le “make install” quand j’ai la foi de redémarrer la machine dans la foulée <img data-src=" />


Le 12/12/2016 à 12h 32






hl-tron a écrit :

Sinon il y a ceci:
 /boot/config-$(uname -r)



Sur Gentoo il faut monter sa partoche /boot pour que cette solution fonctionne, et donc avoir des droits root, c’est vrai que j’active explicitement le /proc/config.gz dans ma config kernel <img data-src=" />



Quiproquo a écrit :

C’est activé par défaut sur Archlinux.



Honnêtement j’aurais tendance à fuir les distributions qui ne le font pas, trop galère pour s’assurer que certaines options du noyaux sont bien présentes dans des cas spécifiques !



Le 12/12/2016 à 11h 09

La compilation du noyau c’est une grosse demi-heure en fonction des options…

Si c’est sur la base d’une config type “ubuntu” peut être que ça atteint 1h30 (pratiquement tout les modules activés)

sinon pour ceux qui veulent s’amuser (dans le dossier décompressé des sources linux) :

zcat /proc/config.gz &gt; .config
make oldconfig
make && make modules

si possible pas en root ;)


Netgear : faille critique sur trois routeurs, il est recommandé de ne plus les utiliser

Le 12/12/2016 à 11h 39

Re-lancé par un reboot surement…

Sinon c’est quoi cette requête ?

par quoi est résolu la partie “host” vide ?


NUC6CAYH/S : Intel commence à dévoiler ses NUC à base de Celeron J3455 (Apollo Lake)

Le 08/12/2016 à 08h 08






OlivierJ a écrit :

A mon sens, la notion de performance est très relative, vu qu’à une époque un Pentium 90 était vu comme une bête de course et un serveur à 300 MHz aussi :-) .



En effet c’est assez abstrait les performances, disons que j’ai quelques “paliers” prédéfini en tête, par exemple j’ai un routeur à base de DD-WRT sur un boitier équipé d’un MIPS 800Mhz simple coeur, ce type de processeur ne permet pas de router plus de 600Mb/s en logiciel, en utilisant quelques règles de pare-feu (iptables) les débits peuvent rapidement s’effondrer, les boitiers récents qui gèrent le Wifi “ac” à plus de 1.2 Gbps embarquent des processeurs ARM double coeurs cadencés à plus de 1Ghz pour un débit de routage marketté à “1800Mbps”.

Donc en partant dans l’idée d’une machine productive qui puisse s’acquitter de plusieurs tâches simultanément j’imagine qu’il faut l’équivalent de plusieurs fois la puissance d’un ARM double coeur…

La puissance et la capacité quand on part sur un usage à long terme n’est pas une question de “juste ce qu’il faut” mais d’avoir un taux d’occupation qui permette d’anticiper une montée en charge ou un nouvel usage (on va pas racheter une machine dès qu’une application novatrice est disponible, si je reprend l’exemple de mon routeur surdimensionné pour de l’ADSL il commence a être juste pour une fibre à 300Mbps, si les débits migrent vers le 1Gbps au niveau des opérateurs je devrait surement changer de matériel !)



OlivierJ a écrit :

Je n’avais pas noté ce point faible des machines à base d’ARM, mais ça n’a pas évolué (ou va évoluer) ?



Pour l’instant les ARM sont dédiés aux usages “Thin Client” justement, avec le smartphone qui tire la technologie en avant, les bus et les I/O ne sont pas une priorité, lorsqu’on trouve des boards pensés pour des usages plus poussés c’est soit des processeurs dédiés aux usages pro, soit des SoC hauts de gamme pour Smartphone/Tablettes, du coup loin des prix de revient d’un Raspberry !

Mais je pense que le gigabit Ethernet connecté en USB 2 était une contrainte de coût et de jeunesse du concept.



OlivierJ a écrit :

Honnêtement, suis encore en Eth 100 Mb/s entre mon HTPC et mon gros PC fixe, ça ne m’embête pas plus que ça.



Pour lire des médias c’est largement suffisant, pour faire de l’affichage déporté du type jeux en streaming c’est limitant (1080p 60fps)



OlivierJ a écrit :

La limitation mémoire me paraît le point le plus important pour le côté serveur, encore que, quand je vois le type de VM qu’on utilise dans certaines applications clientes chez un opérateur mobile, c’est du 1 ou 2 Go et 1 ou 2 vCPU. Tu as de gros besoins serveurs ?



J’ai participé à un projet de serveur de jeu où le logiciel consommait entre 4Go et 6Go de mémoire pendant son exécution, accompagné d’une base de données MySQL qui se comportait bien mieux une fois que la configuration mémoire dépassait 2Go, j’utilisais mon NAS en Core i3 + 8Go de RAM pour faire des tests, je l’ai migré rapidement sur 16Go pour ne pas perdre de temps à optimiser ou à gérer les problèmes dus à la saturation ! (Avec de grosses évolutions du code et les mises à jour des frameworks c’est retombé à 1,5~2Go pour le serveur de jeu après 2 ans de développement…)



Le 07/12/2016 à 14h 51






OlivierJ a écrit :

Tu penses à quoi plus concrètement, quand tu parles de détourner un NUC pour des usages autres ?



Je pense que les usages “Thin Client” on commence à en avoir de bons exemples quelques soit la mini-machine, je m’attendrais à ce que l’évolution de ces machines, qui intègrent souvent des processeurs 4 coeurs et maintenant même des contrôleurs mémoire performants (DDR4, Dual Channel), tende aussi vers des usages productifs voir “Thin Server”.

On trouve déjà des SSD mSATA ou M2 2242 de 512 Go, il me semble avoir vu des annonces qui atteignent le Teraoctet sur ce format (j’arrive pas a remettre la main sur la news), sur le format M2 2280 ça monte déjà à 2To et ça dépassera sans problème l’évolution des HDD 2.5” qui sont bloqués à 2To sans partir dans les 15mm d’épaisseur… (on trouve même des adaptateurs SATA -> double M2 SATA dans un boitier de 2.5” 9.5mm)

C’est le gros avantage du X86 comparé à la plupart des machines basées sur ARM, avoir du PCIe et du SATA en nombre voir même de l’USB 3 et pouvoir exploiter les divers I/O sans saturer le processeurs ou les bus de communication (exemple le Raspberry avec son interface Ethernet sur bus USB 2)

Concrètement ça pourrait représenter un début de serveur de fichier plutôt que d’avoir des NAS imposants, avec une interface Ethernet sur USB3 ça peut faire un début de routeur qui héberge des applications de transcodage ou des applications de téléchargement, avec une VM héberger ça peut permettre d’avoir un serveur de jeu ou de tester des développements…

En théorie ce SOC doit supporter 2 SATA (mSATA ou M2 SATA, + SATA standard), 4 PCIe (-1 mPCIe wifi, -1 M2 PCIe en combo avec le M2 SATA, -1 Ethernet, -1 USB3) et là y a que la moitié de “branché” donc le manque d’entrées/sorties et la limitation mémoire ça fait un sacrée couperet pour un monter un mini serveur ! (je rappel qu’il y a des Xeon Avoton qui sont basés sur exactement la même architecture processeur que ces NUC, mais c’est pas la même tarif, vaut mieux partir sur du Core i* pour le prix…)



Le 07/12/2016 à 08h 44

Ce que je veux dire c’est que 4 ans après la sortie du concept ça fait un moment qu’on a toute une panoplie de machines qui peuvent faire HTPC pour plus ou moins cher et plus ou moins de fonctionnalités (que ce soit en format NUC ou autre Raspberry-like en board ARM)

Oui je vois parfaitement ce nouveau NUC équiper des armées de postes bureautiques avec sa compatibilité VGA et la sobriété de la fiche technique <img data-src=" /> … voir des machines de présentation (projo) ou de diffusion (réseau TV dans certaines entreprises)

Ce que je voulais dire c’est que la news décrit un produit pas très “geek”, et si des bidouilleurs voulaient détourner un NUC pour des usages autres ils n’auraient pas plus de possibilité avec ce tout nouveau modèle qu’avec le tout premier <img data-src=" />

Après c’est un ressentiment, je pense pas qu’on surf sur NXi pour remplir la commande de fourniture bureau de l’année prochaine <img data-src=" />


Le 07/12/2016 à 08h 08






OlivierJ a écrit :

Je ne te suis pas du tout là.
8 Go de RAM : plus qu’il n’en faut pour un “media center”, déjà 2 ou 4 G suffisent.
Pas de port M.2 ou mSata : un SSD ou HDD 2,5 pouces ça ne convient pas ?
Carte son bas de gamme : tu écoutes la neuvième symphonie de Beethoven dessus ? Concrètement le son est-il mauvais sur ce genre de carte, pour un usage standard ?
Carte réseau avec 433 Mbps : tu as besoin de transférer des centaines de Mo/s ?



Euh ouais enfin faut voir ce qu’implique chacune de ces limitations…

8Go de RAM c’est confortable aujourd’hui, voir en dessous pour une machine à usage “dédiée” (showroom, videoproj, média center), mais c’est limitant pour un usage “bidouilleur” (qui était l’intro de mon post), si c’est juste pour lire de la vidéo ça fait un moment qu’il y a un paquet de machine sur le marché qui se démerde très bien donc on va pas s’enthousiasmer pour un media center HDMI 2.0 HEVC à base d’Atom…

L’absence d’un port mSATA ou M.2 implique qu’il n’y a que peu d’évolutivité niveau stockage, c’est dommage de passer à coté de ces format compact pour une mini machine, donc la c’est une unité 2.5” seulement, faut faire son choix HDD ou SSD…

La carte son est une Realtek vraiment bas de gamme, après tout dépend de l’implémentation du codec (la puce sur le PCB, pas le software), mais je me relève déjà pas la nuit pour les Realtek haut de gamme du coup j’imagine que c’est une puce tout juste bonne à faire micro+casque sur Skype/Lync pour un poste bureautique, enfin c’est un critère qui a des pour et des contre, au final quand on utilise systématiquement les sorties numériques quelque soit la puce audio autant en intégrer une extrêmement basique <img data-src=" />

La carte WiFi annonce 433 Mbps par ce que c’est le max du 802.11ac en 1x1, ça peut paraître suffisant, mais c’est le débit en “ac”, si tu dois rétrograder en “g” ou en “n” (sur du matos wifi qui aurait 2-3 ans) ça va du coup s’effondrer au max 1x1 de ces normes, et là ça va sur du 54-150 Mbps max ! Et bien sur aucune possibilité de MiMo ou Beam-Forming avec une seule antenne…

Enfin c’est juste un nouveau NUC “Atom” qui n’apporte aucune nouveauté par rapport aux anciens modèles si ce n’est le HDMI 2.0 et le H.265 pris en charge par le GPU, après 4 ans à vendre la même recette je trouve que la machine n’est plus très portée sur l’avenir !



Le 06/12/2016 à 07h 52

Ce NUC ne m’a pas l’air dédié aux bidouilleurs en tout cas…

8Go de Ram Max, Pas de port M.2 ou mSata, le SSD 32Go eMMC en option (surement soudé) mais dans la version Windows !

Carte son très très bas de gamme pour un média center (prévoir un DAC USB au moins ou utiliser une sortie numérique HDMI sur un ampli…)

Carte réseau bas de gamme aussi, et même la puce WiFi est une blague (433Mbps sur une norme qui monte à 1.2Gbps)

Le port VGA… à un port Série prêt j’aurais l’impression d’être devant une machine spécialisée pour l’industrielle !


BitFenix Whisper M : des alimentations modulaires 80PLUS Or de 450 à 850 W, dès 77,90 €

Le 05/12/2016 à 10h 40

Du multi-rail sur une alimentation annoncée DC-to-DC qu’est-ce que c’est que ce charabia ?


Rétrogaming sur Raspberry Pi : Recalbox 4.0.0 est disponible en version finale

Le 30/11/2016 à 13h 23

Neorage tournait parfaitement sur un 486 DX2 66Mhz 16Mo de RAM et Windows 95…


Zone Téléchargement de retour sans DL-Protect, l'enquête continue

Le 30/11/2016 à 12h 16

Certains utilisateurs de dé-brideurs profitent de la résolution des liens dl-protect qui ont pu être mis en cache par ces plateformes…


« Zone Téléchargement » contraint de fermer ses portes, sept personnes interpellées

Le 29/11/2016 à 15h 28

Steam a beaucoup de valeur ajoutée comparé au “piratage”

Il permet d’avoir sa bibliothèques perso partout, de partager avec les amis, d’avoir des succès et un mini “réseau social” attenant, une interface overlay de qualité, des installations automatisées avec les dépendances, des previews, des avis, des tendances…

C’est l’exemple même du service qui en donne plus que le piratage, et y a même plein de jeux gratuits ! (Et Kung Fury !)


N6850Plus : Thecus renouvelle son NAS à six baies avec un Xeon E3-1225 (Sandy Bridge)

Le 24/11/2016 à 16h 18

Personnellement je suis parti sur un Core i3 Sandy Bridge / 8 go DDR3 / SSD 40Go / 4 baies hot swap, y a plus de 5 ans maintenant, j’en avais eu pour 400E sans les disques, ça marche toujours correctement aujourd’hui…

Par contre avec l’inflation je dirais que la même base achetée aujourd’hui serait un peu plus chère, peut être une des raisons qui font que Thecus ont récupéré un vieux stock de Xeon v1 !


Le 24/11/2016 à 15h 42

Un boitier Mini ITX avec quelques baies hot-swap et un matos à base de “Core i5” pour correspondre à ce Xeon 4 coeurs ça devrait pas dépasser les 600E à monter soi-même…

Par contre niveau Système d’Exploitation ça peut vite représenter des heures de travail à configurer sa petite distribution aux oignons…

Pour 1000E en home made ça permet carrément de monter en gamme (SSD M.2 performant, beaucoup de RAM, Alimentation Passive, etc…)

Mais bon il reste toujours le pallier de faire le montage et la configuration soi-même qui peut valoir la différence de prix.


Fichier TES : critique, le sénateur Gaëtan Gorce interdit de parole par le groupe PS

Le 17/11/2016 à 13h 51

Même le “Hors Réseau” est devenu la cible privilégié des agences gouvernementales…

Stuxnet…


La PS4 Pro est disponible dès aujourd'hui, faut-il craquer ?

Le 11/11/2016 à 08h 40

Salut, je suis pas trop console de jeux, mais ton charabia m’a bcp amusé <img data-src=" />

Heureusement que les sites d’informations ne reprennent pas ce n’importe quoi de traduction google de fiche marketing !

1 - le FP16 / Int16 s’adresse d’abord au GPU Computing et en particulier pour les réseaux de neurones, surement pas l’IA d’un jeu vidéo ou le traitement de la géométrie, de plus sur les architectures AMD ce support natif date de Septembre 2014 avec la sortie de Tonga et ne double pas le débit d’instructions en utilisant les même unités que pour le FP32…

Il est probable que les console Sony / Microsoft s’appuyait encore sur GCN1 ou GCN2 à leur conception (Pitcairn / Bonaire), et du coup cette avancée serait une simple mise à jour…

2 - Incompréhensible, je pense à une mauvaise traduction du rôle des ACE, justement un point qui a évolué avec GCN2 en doublant les files de commandes, avec AMD qui ne cesse de venter l’Async Compute pour que ces unités ait une raison d’être…

3 - un bête bus DMA comme on en voit sur les APU, ce bus n’a pas de raison d’être sur une carte graphique “dédiée”, il n’est utile que pour abaisser les latences dans le cas d’un iGPU qui partage sa bande passante avec un processeur !

4 - Un cache Exclusif car encore partagé avec le processeur, cette techno n’a pas lieu d’être sur un GPU dédié…

5 - Incompréhensible encore, je n’arrive même pas à mettre la main sur l’équivalent “marketté” de la description…


En tout cas grossièrement ton blabla je le retrouve dans toutes les présentations de Tonga… La PS4 est donc passer de GCN1~GCN2 à GCN3 qui a 2 ans d’age !

C’est la fête de l’innovation et du slip aussi !


Pour la Cour de cassation, l’adresse IP est bien une donnée personnelle

Le 09/11/2016 à 06h 34

Les logs, traces, journaux, archives et autres relevés d’informations purement “techniques” ne nécessitent pas une autorisation de la CNIL.

Il est tout de même possible qu’il y ai des rétentions maximum préconisées pour ces fichiers…

Ce sont les traitements des informations personnelles qui doivent être déclarée à la CNIL, souvent il suffit de stocker des logs dans une base de données qui permette une relation entre les champs pour rentrer dans cette définition…


Wi-Fi « Daesh 21 » : un jeune condamné pour apologie du terrorisme, réaction de son avocate

Le 04/11/2016 à 22h 08






TheKillerOfComputer a écrit :

Je suis choqué de voir ce qui ressemble presque à des soutiens.



Nan mais vous avez craqué ?

100h de TIG pour une connerie de SSID ?

100h de STO pour avoir tapé 5 lettres dans un identifiant de réseau ?

Vous donneriez 100h de votre taff en dédommagement d’un “mot” ou d’un acronyme qui aurait fini par ressembler à un “mot tabou” ?



Le  nouveau MacBook Pro de 13,3

Le 02/11/2016 à 11h 19

Visiblement Apple accapare la production d’Intel de processeur embarquant un GPU Iris Pro…

D’ailleurs la production de ce processeur ne serait pas des plus aisée, ça fait des années qu’Intel ne fourni que très peu de produit embarquant ses plus gros GPU accompagné de mémoire eDRAM (autant sur Portable que sur Desktop ou il n’y a que 2 références chimériques aux meilleurs APU du marché…)


ExoMars : Schiaparelli se serait crashé à plus de 300 km/h, une photo du site sur Mars

Le 23/10/2016 à 06h 39

Je ne pourrais pas dire ce que ça représente à part “les parachutes doivent être moins efficaces que sur Terre”

Par exemple sur la Lune l’atmosphère c’est 10^-10 Pa, et là je peux en déduire sans trop me mouiller “les parachutes ne fonctionnent pas sur la Lune” <img data-src=" />


Le 22/10/2016 à 12h 38

Ya un article wikipedia entier rien que pour un truc qui n’existe pas ? <img data-src=" />

https://fr.wikipedia.org/wiki/Atmosph%C3%A8re_de_Mars


Une faille dans le kernel Linux vieille de 9 ans corrigée, mais déjà exploitée

Le 22/10/2016 à 07h 29

On peut avoir plus de détail sur cette faille ?

Quelles versions du kernel impacté ?
Quelles modules, options de compilation ?

Sur mon NAS en kernel 4.6.3-gentoo (gcc 5.4.0) le PoC se prend une segmentation fault…
Il n’aboutit pas non plus sur mon serveur en kernel 3.15.7-gentoo (gcc 4.7.3) !

ça ressemble encore à un FUD, avec une exploitation qui est bien moins facile qu’annoncée <img data-src=" />