votre avatar

Neo_13

est avec nous depuis le 20 novembre 2002 ❤️

Bio

Oups.
On dirait que quelqu'un ici aime garder ses petits secrets, comme si de par hasard il y avait quelque chose à cacher...
Désolé, ô lectrice de passage, cher lecteur égaré, pas de révélation sensationnelle pour le moment sur ce profil.
Repassez plus tard ?

27 commentaires

Dans les rouages du fichier « SI Vaccin Covid »

Le 07/01/2021 à 08h 31

Quel dommage qu’il faille attendre une urgence sanitaire pour mettre en place une base de données de pharmacovigilance…



Ah non, c’est pas ça, elle existe déjà ? Ben du coup, celle là, elle apporte quoi d’un point de vue pharmacovigilance ? Ou même juste médecine ?



Non parce que soit on fait n’importe quoi depuis 75 ans, soit ce truc ne sert pas la médecine.


Windows 7 et 8.x : Google dévoile de nouveau les détails d'une faille non corrigée

Le 20/01/2015 à 15h 40

Je parle toujours pas du travail des dev, mais d’une stratégie décidée par MS pour ne pas répondre.Mais apparemment les devs qui fréquentent ce sites souffrent d’un tel complexe, qu’ils se sentent martyrisés même quand ils ne sont pas concernés

 Et non, je ne suis pas pro libre, je m’en bats les steacks et si la faille apparaissait dans une distribution avec des salariés (Red Hat, par exemple), je tiendrais le même discours.

 Quant à postuler… Pourquoi  pas… Mais mes sujets actuels, s’ils payent beaucoup moins, me stimulent beaucoup plus que d’essayer d’expliquer à une direction générale d’un grand groupe du soft qu’ils devraient revoir leur sens des priorités, avec diagrammes et chiffres à l’appui. Me battre contre des vrais problèmes est plus sympa que d’essayer de convaincre un fou de ne plus se tirer dessus tout seul.


Le 20/01/2015 à 14h 33

J’ai pas parlé de 100 000dev. Des dev, il en faut 1 pour corriger, et par nature celui qui a écrit la merde.

Donc 35 équipes de 25 à 40, soit en gros 1100 personnes, c’est pas assez pour mener des tests de non regression ? La qualité des tests, c’est que contrairement à l’écriture du code, ils peuvent être parallèlisé quasiment à l’infini.

90j pour corriger une faille critique quand on est une boite de 100000personnes et 21G$ de benef net, c’est plus qu’assez et ne pas l’avoir fait signifie UNIQUEMENT que les mecs étaient utilisés pour autre chose. C’est une question de priorisation dans la boite.

Après, lune doigt sage, tout ça. L’important dans mon message, c’était probablement les 100000 personnes.


Le 20/01/2015 à 13h 55

Et j’oubliais : la sécurité par l’obscurantisme (car c’est de ça qu’il s’agit en ne dévoilant pas les bugs), ça n’est pas de la sécurité. Au mieux, c’est du dogme, au pire de la bétise.

 Dormez tranquille braves gens, la Police, l’Etat et Microsoft veille sur vous.


Le 20/01/2015 à 13h 52

Quand t’as pas loin de 100 000 salariés sous la main, il doit y avoir moyen de faire un paquet de test en finalement peu de temps. Au moins 100 000 par jour.

Il y a combien de fois 100 000 tests dans un dev de patch ? Disons 1 mois pour dev le patch, ça nous laisse tranquillement 6 millions de tests (à raison d’un par jour, toujours) avant la fin des 90j.

Je caricature ? Oui pas mal. Mais le principe est là : ils ont une putain d’armée pour faire à peu près ce qu’ils veulent. Et ce qu’ils veulent, ça ne parait pas être la sécurité. Merci à Google de faire la piqure de rappel. Enfin Google… et les autres, parce que Google n’est pas le seul laboratoire de sécurité informatique.

La fin justifie les moyens et des moyens, Microsoft en a… 100000 personnes, 21 000 000 000US$ de bénéfice net, 78 000 000 000 de tréso, … Et pas suffisamment de mec pour corriger une faille ultra critique en 90j.

Le monde du soft est vraiment constitué de magiciens.

Arrêtez de penser à vous et vos équipes de dev de 5-10-50 mecs, on parle de la gestion des priorités d’une boite. Je ne dis d’ailleurs pas que les ingé/dev MS sont des buses, moi c’est à la structure MS que je m’attaque et à sa gestion des priorités.


Le 20/01/2015 à 11h 52

Ceux que ça choque, qui trouvent des excuses à MS “tu comprends, les tests de non regression, c’est difficile et long”, …

90j pour la première boite de soft au monde. Une élévation de privilèges à distance ne devrait pas être traité par l’équipe de stagiaires bulgaro-islandaise au fond d’une cave sombre, mais être une priorité absolue pour tous les dev’ devant les nouvelles fonctions ou les nouveaux produits. Ca, c’est que la sécurité est une priorité face au marketing.

Putain, heureusement que quand on détecte un risque sur la sécurité dans les autres secteurs technologiques, on ne dit pas au bout de 90j “on n’a pas eu le temps”. L’industrie du logiciel me rend toujours admiratif dans sa capacité à nous enfiler des excuses à la con et qui passe tranquillement sans toucher les bords.


BenQ XL2420G : l'écran qui ne mise pas seulement sur G-Sync est disponible

Le 20/01/2015 à 12h 33

Ben entre 43 et 169, l’écran, à même diagonal a moins de surface. Comme le client achète de la diagonale et que le fournisseur paye de la surface… Business is business.


TISA, l’accord qui menace données personnelles, neutralité du net et exception culturelle

Le 23/12/2014 à 13h 13

“Son point (iii) veut par exemple empêcher les parties signataires
d’exiger l’hébergement local des données traitées par les services
informatiques.”

Mes études de droit, en plus d’être super super légères, sont bien loin en arrière, mais… ça s’articule comment, ce genre de torche cul, par rapport, par exemple, au code de la Défense, qui définit comme infraction pénale le fait de faire sortir des données relatives à des produits, technologies, … assimilés à du matériel de guerre ?

 C’est qu’un exemple, mais c’est ce qui me soucie le plus en ce moment.


CPU-Z 1.71.1 prend en charge les Core M et dispose d'un nouveau logo

Le 20/11/2014 à 18h 37

Il ferait, en fait. Franck travaille seul ou quasiment.


« Amazon, c’est Dark Vador » : l’appel au boycott d’un libraire français

Le 13/08/2014 à 10h 56

« J’invite les gens en France à comprendre que le livre étant au même prix partout, ils ont le choix de choisir à qui ils achètent leur livre et qu’en achetant Amazon, ils renforcent Amazon. En achetant à quelqu’un d’autre qu’Amazon, ils déstabilisent Amazon »

Non : Amazon m’informe sur son stock avant que je me déplace. Quand le livreur le lendemain fait de la merde, amazon ASSUME (parfois mal, mais asume) et ne me sort pas “c’est pas moi c’est la poste”. Bref, Amazon me fait payer un service (je suis premium, pour être livré plus vite) à un tarif acceptable. Si quelqu’un d’autre me fourni un service équivalent, j’étudierai.

Ca, c’est pour l’anti amazon.

Et pour le livre est au même prix partout : c’est faux. Il est au même prix partout en France. Ca fait bien longtemps que je n’achète quasiment plus de livres, ni sur Amazon ni ailleurs en France. Ou sur un coup de tete dans une boutique. Les ebooks, c’est confortable pour moi, et le fait de les payer (ouvrages techniques, donc de toutes façons en anglais) entre 4 et 6x moins cher sur le site de l’éditeur aux USA que en boutique sur papier qui m’encombre en France. Et oui, je l’acheterai bien en France en ebook à ce prix là… Mais sauf Amazon avec son Kindle (dont je ne veux pas), ya pas.


Intel lève le voile sur ses nouveaux chipsets H97 et Z97

Le 13/05/2014 à 13h 05






HarmattanBlow a écrit :

Architecture qui nécessitait de procéder à des réécritures significatives de dizaines voire centaines de compilateurs pour y porter l’OS et tous ses outils, puis de recompiler des dizaines de milliers de binaires.

C’est cette inertie qui a, pour une bonne partie, disparue. Évidemment ce n’est pas fini, on ne change pas une industrie toute entière du jour au lendemain mais la situation n’est plus du tout la même aujourd’hui et cette tendance à l’agnosticisme ne va faire que s’accentuer.


Non, elle fonctionnait nativement en x86.
Et moyennant une compilation sur des outils distribués par Intel à prix d’or, elle fonctionnait en natif pas trop mal.

Et les DSP, c’est le futur, ça vient de sortir (selon ce qu’on retient comme techno, entre 1975 et 1980, hier soir quoi) et demain ça dominera le marché tellement c’est balaise. Finis les CPU, on fera tout par GPU tellement c’est plus mieux et ça se programme tout seul. On passe de 4 cores à 1000 cores avec la même surface, la même conso et les perfs sont multipliées par 250. C’est dire à quel point tous les fondeurs du monde sont des lowz0r et ils gâchent du silicium et des perfs.



Le 13/05/2014 à 09h 26






HarmattanBlow a écrit :

Oui. Sauf que jusqu’à présent aucun n’a offert deux jeux d’instructions : un x86 et un autre.

Si, l’EPIC. On voit où en est cette architecture.

Et tous restent optimisés pour le jeu x86.
Et tous ont des décodeurs optimisés pour comprendre certaines sous partie du x86, voire la totalité pour certains.

Surtout le passé est une chose mais aujourd’hui tous les programmes écrits en java, javascript et dotnet peuvent supporter n’importe quel CPU, il suffit que l’OS le supporte pour que tous ces programmes deviennent immédiatement compatibles. Par ailleurs on a désormais un compilateur, LLVM, faisant office de standard de facto et facilement extensible à une nouvelle architecture. Enfin les plus gros clients des fondeurs ne sont (ne seront) plus des intégrateurs mais des consommateurs directs (Google, FB, MS, Amazon) ayant un très fort intérêt et la capacité à optimiser les performances au maximum, et en collaborant ensemble.

Dans ces conditions il n’est plus impensable d’imaginer que bientôt un pilote ou le bios fournira un back-end LLVM et une petite API, et que l’OS et les programmes n’auront qu’à balancer ce jeu d’instructions de niveau intermédiaire au bios, si bien que le CPU n’aurait même plus à exposer de jeu d’instructions (le bytecode LLVM étant compilé par le bios et non pas exécuté directement).

Je ne serais pas surpris que d’ici quelques années Google ou Facebook spécifie une telle architecture de façon à pouvoir passer d’une architecture matérielle à l’autre avec des coûts de migration nuls et ainsi choisir les architectures les mieux adaptées à chaque tâche. Du coup n’importe quel fondeur pourrait débarquer avec une meilleure archi et décrocher d’emblée un contrat de dizaines de millions de serveurs, suivi rapidement par d’autres du même acabit.
Ouais, je me souviens, ce genre de délire était aussi annoncé pour demain avec, non pas des LLVM hardware, mais des JVM hardware. Avec le succès que l’on sait (et pourtant dans certains domaines ils continuent d’être utilisés). Quant au LLVM compilé par le BIOS, <img data-src=" /> le LLVM est surtout compilé par le CPU. Et il faut donc que le JIT LLVM soit compilé dans un assembleur natif pour qu’il puisse faire la suite. Et c’est vrai que les compilateurs ARM/whatever sont BEAUCOUP mieux optimisé que ceux sur x86. Ou alors on assemble à la main, ce qui est courant aussi.


Ni l’un ni l’autre, ce sont les lois de la physique et des mathématiques qui sont à blâmer. Les développeurs et microélectroniciens ne font que peiner au mieux pour circonvenir ces limites jour après jour avec leur intelligence cinq fois inférieure à celle requise pour gérer ces problèmes.
[/Quote]M’kay
[quote]
Parce qu’il est bien connu que les problèmes ronds sont efficacement solubles par des carrés. Si le carré est sous-utilisé, c’est forcément la faute de quelqu’un.

Sauf que le GPU, c’est un super carré. Et que les problèmes restent ronds, ces cons. Et qu’accessoirement, avec un travail manuel soigneux, certains font passer les ronds qui ne le sont pas tant que ça dans les carrés… On appelle ça optimiser. GPU ou SSE, même combat, même si c’est pas forcément le même détail, ca reste du calcul vectoriel.



Le 12/05/2014 à 10h 43






HarmattanBlow a écrit :

Au contraire, la concurrence n’a jamais été aussi vive pour Intel, sauf que c’est sur le serveur (Google & co sont en train de s’éloigner du x86 et d’Intel), les mobiles et tablettes (domination d’ARM tandis que le x86 est le challenger) et les objets (raspberry pi). Le x86 est sur son déclin et d’ici dix ans on n’achètera sans doute qu’un compatible x86 (via un transcodeur, le temps que tout le monde migre) dont les performances optimales seront obtenues en lui balançant un autre jeu d’instructions.

Ouais, comme le 68000, le Power, le PowerPC, l’Alpha, le ARM, l’EPIC, … Ils ont tous tué le x86. Quant à l’histoire du transcodeur, si ça arrive, il suffirait à Intel et AMD de ne plus exécuter du code x86. Tous les CPU x86 depuis près de 20 ans sont tels que tu décris “le compatible x86” en fait. Par contre personne n’a migré, et pas seulement parce que le micro code n’est pas accessible : sur EPIC, il l’était, ça n’a pas migré quand même.



C’est une blague ? Regarde ce que fait AMD en ce moment avec l’intégration du GPU dans le processeur et tout ce qui l’accompagne pour améliorer la synergie entre les deux parties. Ce mouvement est une innovation comparable à l’introduction du x87 (unités de calcul flottant) ou du MMX (premières instructions vectorielles), c’est une transformation radicale de la pratique du calcul informatique et ça se produit maintenant, sous tes yeux.

Non, ce que tu veux toi c’est une amélioration des performances par coeur. Mais on a atteint un plafond technologique il y a dix ans et il n’y a toujours pas de nouvelle techno mûre pour ça. Et ce n’est pas la faute d’Intel qui investit beaucoup dans la recherche sur ce problème.
Donc ce ne sont pas les fondeurs qu’il faut regarder pour la stagnation, mais les dev ? Ca aussi, c’est pas hyper nouveau. Et Intel en a fait les frais sur le P4 (même si ce n’est pas ça qui l’a mis à mort, le P4), du coup, je crois qu’ils essayent de faire des innovations qui s’intègrent le plus possible dans leur pseudo JIT hardware, plutôt que de faire de la perfo inutilisable genre Cell. Quand on voit la quantité de SSE vectoriel exécuté par nos CPU par rapport au x87 ou au SSE scalaire… on peut se dire que la révolution arrivera un peu plus tard.



Le bracelet connecté Jawbone UP24 disponible à partir de 149,90 €

Le 28/03/2014 à 11h 25


If you are wearing the UP24 but not able to be near your device, the activity will record and be held on the band until you open the app to connect. Up to 9 months of information can be held on the band, so as long as you are near the open app at some point, your information should be safe!
J’ai ma réponse.


Le 27/03/2014 à 09h 21






smileyn a écrit :

Si c’est comme le UP, le bracelet à 10 jours de mémoire.


C’est ce que j’essaye de savoir, si c’est comme le UP, mais je ne trouve pas l’information.



Le 26/03/2014 à 17h 31


Notez au passage que le Jawbone UP a baissé de prix il y a peu, passant chez plusieurs boutiques à moins de 90 euros, ce qui pourrait être intéressant pour ceux qui n’ont que faire du temps réel et la connectivité en Bluetooth 4.0 LE.
Et si je suis temporairement loin de mon téléphone, ou que je l’éteins la nuit, le bracelet enregistre pour synchronisation ultérieure (comme le up pas 24, mais en BT) ou on perds les infos ?


ULLtraDIMM : des SSD Sandisk au format DIMM avec une latence de 5 µs

Le 24/01/2014 à 17h 35






FelX a écrit :

L’OS devra prendre cela en compte pour y acceder, mais je ne vois absolument aucun soucis, c’est comme quand on est passé de l’IDE au SATA

Oui, passer de ATA à ATA (parce que ça reste de l’ATA, seul le transport entre le controleur et le disque, la logique ne change pas tellement) c’est exactement pareil que passer d’un contrôleur connecté sur une ligne PCI-e à un canal de RAM.

ou même du SATA au PCIe dernièrement.

On supprime un contrôleur quoi. PCI-e pour PCI-e

C’est juste le canal de communication avec le matériel qui change. De manière interne l’OS voit toujours un espace de stockage qu’il peut utiliser. En gros il se moque de ce qui se trouve au bout du connecteur, du moment qu’il obéit et enregistre ou renvoit les données voulues, ca peut être un HDD, un SSD ou un lecteur de carte perforé, c’est kif kif.
L’utilisateur voit un espace de stockage, éventuellement, l’OS lui, voit de la RAM et l’adresse comme de la RAM.

C’est exactement pareil que ce qu’on connait déjà, oui…



Le 24/01/2014 à 13h 55






WereWindle a écrit :

ça se reset avec deux électro-aimants ! /poésie&finesse


Oui, mais une grosse alime en plus derrière, donc réservé aux gros serveurs et aux PC Gamers.



Le 24/01/2014 à 13h 54






FelX a écrit :

Bah comme pour une disque dur actuel…

Je vois ps trop le soucis, a part que ce sera vachement plus rapide pour formater ^^”


Tu connais la différence d’utilisation entre le disque dur et la RAM ? SI on peut effacer/formater un disque, c’est précisément en ayant un OS propre et fonctionnel en RAM. La le truc que tu veux formater, c’est l’OS en RAM. Problème.



Le 24/01/2014 à 13h 51






canti a écrit :

il y aura forcement une broche pour reseter la mémoire <img data-src=" />


Flash, c’est flash, ça ne se reset pas “avec une broche”



Le 24/01/2014 à 12h 36






Lordtoniok a écrit :

Le mieux serait de voir enfin débarquer de la ram non volatile. Ça fait un bail qu’on en entend parler mais que ça n’arrive pas.
Une ram avec des perfs actuelles mais non volatile permettrai de pas mal faire évoluer l’écosystème. (plus besoin de stockage pour un sacré nombre d’utilisation), des “reboots” quasi instantannées ce qui permettra d’éteindre la machine dès qu’elle est inutilisée pendant quelques secondes. Et ça serait aussi bénéfique pour tout ce qui est mobile. De sacrés économies d’énergies.


Et quand ça a planté, comment tu purges la totalité de la mémoire ?



Ce que pourrait changer la loi « Anti-Amazon »

Le 23/01/2014 à 09h 50






Faith a écrit :

Couler ses concurrents par dumping est effectivement une stratégie commerciale.
Manque de bol, c’est une stratégie condamnée par toute personne ayant une vision de l’avenir qui dépasse le jour de son achat.

Par ailleurs, Amazon ne fait du fric que parce qu’il ne paye pas d’impôts, conseilles tu aux libraires (et à tous les autres commerces au passage) de ne plus payer d’impôts en France ? Es-tu prêt, en tant que citoyen, à devoir financer le manque à gagner que ça représente ?





  1. La vente de bouquins en ligne, c’est 10% des ventes de bouquin. Amazon la dedans n’en a qu’une partie (grosse certes). Donc le dumping d’amazon sur la vente de livres, on a encore un peu de temps.

  2. Quel dommage qu’on n’ait pas un gouvernement pour trouver une solution pour éviter l’optimisation fiscale à ce point… Il faudrait qu’on pense à en élire un.



Le 22/01/2014 à 15h 22






NiCr a écrit :

Soutenir un petit commerce local (si tu dois faire 15 bornes pour trouver une librairie c’est que t’es un sacré paysan), ça n’a pas de prix.

Je peux jouer le donneur de leçons, je ne lis que du numérique <img data-src=" />


La plupart des bouquins que je lis sont difficile à trouver en dehors de librairies spécialisées (dans le quartier latin par exemple). Etre à 15km du quartier latin, en ile de france, c’est assez facile.



Le 22/01/2014 à 15h 17

Et si le client a un abonnement de type Amazon Premium, la livraison peut-elle rester gratuite au sens où le client paye déjà pour le port ?


Des bracelets connectés tous azimuts : écrans OLED, autonomie d'un an, etc.

Le 20/01/2014 à 09h 07

C’est dommage, les bracelets interagissent physiquement avec les claviers. J’ôte déjà ma montre quasiment à chaque fois que j’écris beaucoup sur clavier.

Sans compter que la feature qui me motiverait à peu près, c’est le réveil dit “intelligent” comme sur la UP, et aucune de celles présentées ici ne semble avoir cette fonction.


Au Sénat, la gratuité des frais de port pour les livres en débat

Le 07/01/2014 à 14h 33

Il y a 10 ans, cette loi m’aurait probablement fait super chier. Quand je ne pouvais pas trouver les bouquins dont j’avais besoin en librairie et que ces pseudo libraires avaient besoin de 3 semaines pour avoir le moindre bouquin un peu pointu (quand amazon me demandait 48h sans que j’ai besoin de me déplacer ni une première ni une seconde fois pour un service nul, puisqu’aucun conseil et aucun stock).

Désormais, j’achète mes ebooks hors de France, dans des pays où l’offre est réelle (pas une blague comme en France, entre absence de choix et tarifs prohibitifs). Je paye mes livres moins chers (souvent moins de 12€… vs 50 à 60 en France), je les ai plus vite encore que l’amazon premium, et ça me va. Bien sûr, ni emploi ni TVA française, mais c’est pas faute d’avoir essayé, étant plutôt un partisan du patriotisme économique (mais surtout pour la production, la vente, c’est pas l’endroit où je souhaite le plus relocaliser la VA et les emplois). Il n’y a juste pas d’offre.

Et quand je veux un beau livre pour le plaisir de l’histoire ET du papier… Ben je ne m’adresse pas non plus aux libraires. Mais aux bouquinistes et aux éditeurs d’art…

De fait, les libraires ne me servent plus. Mais je comprends qu’ils défendent coute que coute leur droit à vendre le prix Goncourt. Je suis pas client c’est tout. Et du coup, ils ne se suicident pas en m’emmerdant, ils ne s’adressaient DEJA pas à moi.


Cyberdéfense, terrorisme : de nouveaux super pouvoirs pour l'État

Le 21/10/2013 à 12h 16






trash54 a écrit :

c’est dans l’actu ils vont recruter 350 personnes donc si tu penses être assez compétent pour postuler : go


Et bien, moi, j’ai regardé…

J’ai un poste en CDI, mais je me tiens à l’affut d’opportunités. J’ai les compétences pour assumer certains des postes proposés.

Sauf que en bas de la page : CDD 3 ans. En gros, contractuel, et variable d’ajustement de la dépense publique. Non merci.

En clair, ils vont recruter ceux qui n’ont pas déjà en poste. C’est pas uniquement une question de compétences. Et dans TOUS LES CAS, quand ça n’est pas uniquement une question de compétences, tu altères la qualité de ton choix.

(Plus de 5 ans sans commentaires… Il fallait bien que je brise mon silence au bout d’un moment <img data-src=" />)