brokensoul
est avec nous depuis le 16 mai 2006 ❤️
Oups.
On dirait que quelqu'un ici aime garder ses petits secrets, comme si de par hasard il y avait quelque chose à cacher...
Désolé, ô lectrice de passage, cher lecteur égaré, pas de révélation sensationnelle pour le moment sur ce profil.
Repassez plus tard ?
239 commentaires
Quand Facebook voulait utiliser le logiciel espion qu’il accuse depuis d’avoir piraté WhatsApp
Le 07/04/2020Le 14/04/2020 à 13h 51
Donc la seule source c’est le CTO de NSO, une des boîtes les moins respectables du monde (bien après FB), qui se trouve être en procès avec FB. Le CTO peut bien raconter n’importe quoi puisqu’il ne sera jamais expulsé vers les US, et qu’il raconte des discussions informelles donc improuvables, ok.
L’article dit “En 2017, deux représentants de Facebook avaient demandé à la société israélienne NSO de leur fournir une technologie susceptible de permettre au réseau social de mieux pouvoir surveiller les utilisateurs de terminaux Apple, révèle Motherboard.”, c’est pas exactement la même chose, l’honnêteté intellectuelle ça existe.
Via le VPN cité (qui n’a rien à voir avec NSO), FB connaissait bien l’usage de WhatsApp, qui était très gros en dehors des US. En dehors des US, la plate forme depuis longtemps ultra dominante est.. Android, l’article mentionne que le VPN marchait très bien sur cette plate forme (rappel: VPN et usagers payés par FB en échange d’avoir accès aux données pour stats, éminemment critiquable mais qui n’a rien à voir avec NSO). Donc FB ayant eu besoin de NSO (qui fonctionne par ailleurs à “petite” échelle, il n’y a pas tant de journalistes que ça à trucider ou d’opposants politiques à emprisonner), c’est objectivement assez peu crédible.
Sinon je suis un vieux lecteur de PCI, ça doit dater d’il y a 15 ans, c’est pas de gaieté de cœur que je vous reprends sur des questions de journalisme, c’est clair.
Le 08/04/2020 à 17h 12
source, PCI/NextI ? C’est ce que NSO raconte, il y a une autre source crédible ou vous relayez juste ce qu’ils disent ? Vous mélangez deux histoires, celle du VPN qui était effectivement très discutable (mais légale) et étayée par des faits, et ce que NSO (une boîte bien, bien pourrie moralement) vient de raconter pour essayer de se sortir d’un procès avec WhatsApp. Curieux de savoir si vous avez vraiment des infos sérieuses ou si c’est juste parce que c’est rentable de taper sur FB ?
Disclaimer: je bosse chez FB, qui a sans doute plein de défauts mais fourni aussi un service gratuit et identique à tout le monde, riche ou pauvre, du Nord au Sud, on ne peut pas en dire autant de tout le monde.
Palmer Luckey quitte Oculus VR trois ans après son rachat par Facebook
Le 31/03/2017Le 31/03/2017 à 10h 54
c’est plutôt un an les RSU d’habitude
Le 31/03/2017 à 10h 52
si tu veux absolument parler de (ou à) Carmack, tu peux venir travailler chez Oculus sinon.. " />
Le 31/03/2017 à 10h 50
‘un verdict’ != ‘ce dernier verdict, qui n’a rien à voir avec Luckey par ailleurs mais que je cite parce que Carmack est dedans’, pas forcément clair pour tous ceux qui n’ont pas tes pouvoirs omniscients.
Papier sur Luckey mais c’est pas moi qui y cite Carmack pour rappel, je réagis juste à cette citation un peu hors contexte… Je sais que c’est une référence facile, un peu un passage obligé quand on écrit une actu sur Oculus (même si ça n’apporte pas grand chose sur le fond, qui est que Luckey dégage officiellement)
Le 31/03/2017 à 09h 34
La seule condamnation liée à Carmack est celle du ‘copyright infringement’ (ce que j’avais traduit par ‘vol de code’), ce pourquoi FB a été condamné à 50M.
Carmack n’est pas concerné par le reste, la condamnation pour le NDA concerne Luckey avant la création d’oculus en fait (mais facebook est condamné parce que le jury considère qu’oculus a pris la suite des efforts précédents de luckey), la violation de trademark concernait Luckey, Iribe et Oculus d’avant Carmack.
A mon sens ce n’était pas très clair dans l’article, dans lequel on a l’impression que tout est lié. La condamnation dans laquelle apparaît Carmack concerne 10% de la somme en jeu, et 2.5% de la valeur d’Oculus lors du rachat par Facebook. Comme Carmack est une figure visible c’est facile de le mettre en avant, mais mon point était que ça ne traduisait pas vraiment bien le procès.
Le 31/03/2017 à 09h 08
En résumé de l’article, le jury a donné à Zenimax:
Il n’y a rien pour de l’IP, rien n’appartient à Zenimax contrairement à ce qu’ils réclamaient
Le 31/03/2017 à 09h 01
Le 31/03/2017 à 08h 33
L’article est un peu bizarrement formulé, Carmack a bien été relaxé de l’accusation de vol de code, qui était un peu ridicule. Luckey et Iribe avaient été condamnés par rapport au NDA signé et pas respecté avec Zenimax, et par rapport à leurs démos sur Doom si je me souviens bien, pas du tout le même type d’IP.
Sinon ça fait quelques temps que Palmer n’était pas vraiment visible chez oculus, pas une grande surprise
Ryzen 7 1700 @ 4 GHz : un overclocking facile, mais gare à la consommation
Le 15/03/2017Le 15/03/2017 à 16h 11
ça ne tue pas grand chose à mon avis, la clientèle de l’OC sera contente de pouvoir le faire, mais les puces dans le 1800 sont quand même meilleures et n’ont pas besoin d’OC, pour tout un tas de gens (professionnels ou gens pressés) c’est suffisant pour payer 200e de plus.
Ryzen : AMD annonce les performances d’un Core i7 6900K pour 95 watts (mais pas de tarif)
Le 14/12/2016Le 14/12/2016 à 14h 28
Le 14/12/2016 à 11h 44
C’est quand même pas mal, pour une fois, non ? Les promesses ont l’air tenues en termes de perfs, c’est encore un peu tôt pour avoir les prix, mais vu d’où AMD partait en termes de perfs c’est quand même une sacrément bonne nouvelle.
Ça fait plusieurs générations qu’Intel se rate, sans trop de conséquences en termes de part de marché, bien content de voir de la concurrence arriver par le bas (ARM), en latéral (puces Apple déjà plus rapides que les puces ultrabook Intel) et par le haut donc on dirait, pas trop de raison de râler pour moi (à part pour des détails assez prévisibles, si la fabrication en masse n’est pas encore commencée AMD ne connaît pas les yields donc ses marges donc les prix)
Kernel Linux 4.9 : première RC et nombreuses améliorations
Le 18/10/2016Le 18/10/2016 à 09h 19
il était supporté “downstream” (en patchant le noyau), maintenant les modifications ont été ramenées à la source (upstream), et il est supporté avec le code source standard :)
Développement : Apple publie les versions finales de Swift 3.0 et Xcode 8
Le 15/09/2016Le 15/09/2016 à 10h 53
c’est drôle de voir swift bouger, ils suivent un peu l’approche de Go (une seule manière de faire quelque chose) en opposition à C/C++ (n manières de faire la même chose). Les deux ont des avantages
Amazon Drive : le stockage illimité débarque en France, pour 70 € par an
Le 01/09/2016Le 01/09/2016 à 09h 52
Moins bien que Hubic, qui ne pose pas de conditions sur le contenu pour un peu moins cher.. (10TB ‘seulement’ pour 50€/an) Leur client n’est pas fou sous Linux, mais il a le mérite d’exister par aillleurs
La nouvelle alpha de Skype sous Linux se paie une mise à jour
Le 25/07/2016Le 25/07/2016 à 09h 53
tar/gz pour installer un programme, c’est quand même le degré zéro de l’élégance, de la robustesse ou de la propreté. Presque aussi mauvais que la méthode Windows d’aller chercher un binaire sur le net packagé avec un installeur en carton. Donc non, je ne me plains pas de mon côté, les soft distribués en tar.gz partent avec un pied dans la tombe, c’est le genre de trucs que “j’installerais” (si un dump dans /opt ou autre peut s’appeler ‘installer’) en me pincant le nez
GCC 6.1 disponible : la norme C++14 utilisée par défaut
Le 28/04/2016Le 28/04/2016 à 21h 00
ninja + ccache sur un ramdisk " /> miam miam
@guy02 :
- Intérêt ci-dessus, c’est effectivement super casse-pieds quand tu codes.
Après chacun ses priorités, tu peux avoir des secteurs d’activités dans lesquels la vitesse du binaire est effectivement le plus important
Le 28/04/2016 à 20h 12
“Performant” pour un compilo, ça peut prendre pas mal de colorations différentes :
Le compilateur de Visual Studio (msvc) est super lent (plus que gcc, c’est dire… surtout qu’il ne connait pas ccache par exemple), les binaires de sortie sont à ma connaissance comparables à gcc, mais il est super en retard sur le support des standards (C++11 vient tout juste d’être supporté). Par contre Clang (llvm) met tout le monde d’accord sur la vitesse de compilation, de loin
Le 28/04/2016 à 20h 07
blague ? Vulkan c’est une API C, qui n’a pas grand chose à voir avec C++14 (dommage, ça la rendrait sans doute plus digeste). Des interfaces C++ existent, mais pas grand chose à voir avec GCC dans tous les cas.
Si c’est le support HSA qui te fait penser à ça, c’est pas trop pour le même but a priori : Vulkan est orienté graphismes et très bas niveau (vise à maximiser l’utilisation GPU pour du rendu), alors que le support HSA est plutôt pour le calcul (ou les tâches lourdes et parallélisables en général, mais pas que graphisme) et vise à remonter l’abstraction, à rendre l’utilisation conjointe CPU/GPU plus facile (par exemple en fusionnant les espaces mémoire CPU/GPU)
Le 28/04/2016 à 20h 03
Toutes depuis 4.8 effectivement il me semble, mais le support par défaut était resté à C++98 (il fallait passer le flag -std=c++11 pour activer). Je ne sais pas quoi en fait (" />), mais quelques cas doivent être gérés différemment par les deux standards, et l’idée était de garder la rétro-compatibilité.
Le 28/04/2016 à 20h 01
Sans doute pas trop d’intérêt, la compilation c’est une tâche pleine de branches, pas spécialement adaptée aux GPU (SIMD : Same Instruction Multiple Data, autrement dit tout le monde fait la même chose ou presque).
Raspberry Pi Camera v2.1 : capteur Sony de 8 Mpixels, toujours pour 25 dollars
Le 25/04/2016Le 25/04/2016 à 18h 04
Pour info, noir = no IR = pas de filtre IR = sensible IR
Rust 1.7 : le langage de Mozilla renforce encore ses bibliothèques
Le 07/03/2016Le 08/03/2016 à 09h 40
Le 07/03/2016 à 23h 32
Le 07/03/2016 à 15h 09
Langage intéressant IMHO, un peu testé, mais la gestion des références est à s’arracher les cheveux (définir le scope des références à la main est très bizarre par exemple).
Dommage qu’à vouloir faire du ‘safe’ on arrive à quelque chose moins simple à programmer que du Go par exemple, sans être forcément plus fiable (à moins que quelqu’un puisse me contredire, je n’attends que ca).
Firefox 44 : H.264, Brotli et système de notifications
Le 27/01/2016Le 27/01/2016 à 08h 57
un programme en espace utilisateur qui bloque le pc, c’est pas forcément normal.. Au delà des critiques sur l’OS, c’est peut être aussi signe que firefox n’y est pour rien
Firefox 43 officialise le 64 bits pour Windows
Le 16/12/2015Le 16/12/2015 à 11h 41
je ne dis pas autre chose
Le 16/12/2015 à 10h 03
c’est juste un jeu intéressant à quantité de travail égale. Un truc qui prend deux fois plus de ram pour faire la même chose, c’est un handicap (je ne dis pas que c’est toujours le cas). Par contre c’est clair que l’OS a intérêt à utiliser le max de Ram, par exemple pour cacher les accès disques, donc comparer la conso finale n’a pas trop de sens (pas à travail égal justement)
Le 16/12/2015 à 10h 01
les extensions vont se réinstaller je pense, et pas de soucis pour le 64bits de leur côté, elles ne sont pas en natif mais en script (elles ne vont pas voir la différence 32-64bits pour la plupart)
Visual Studio Code passe en open source et gagne des extensions
Le 19/11/2015Le 19/11/2015 à 16h 52
gros +1
Le 19/11/2015 à 10h 01
Pas grand chose pour du c++ pour l’instant, mais j’imagine que ca peut progresser. Ca ressemble beaucoup à Atom, je ne suis pas sûr de comprendre pourquoi est-ce qu’ils ne sont pas repartis de là. Syndrome du ‘Not invented here’ ? Sinon moyennement d’accord avec les commentaires initiaux sur Visual Studio, pas mal mais loin de la perfection à mon avis, surtout dès que tu bosses dans un environnement cross-platform. Certains trucs me manquent en passant de VS à QTCreator (Image Watch par exemple), et réciproquement (Vue d’ensemble des membres d’une classe, profiling valgrind super simple et efficace, support cmakelists, refactoring), ils sont loins d’avoir une IDE parfaite.
SteamOS 2.0 : un premier test annonce des performances en deçà de Windows 10
Le 16/11/2015Le 16/11/2015 à 13h 41
Ce test là est une bonne blague, ils ont dû sortir une vielle build de GeekBench d’il y a dix ans, avec un compilateur complètement différent. Aucune raison pour que la fpu diffère normalement, mais c’est sûr que si tu testes une compilation avec et sans SIMD par exemple, le score n’est pas le même.
Les tests sont seulement intéressants pour les jeux, là c’est comparable puisque c’est ce que les clients ont, mais c’est pas nouveau (longtemps que phoronix reporte les mêmes chiffres, sauf pour les jeux steam). Pour ces derniers, sans doute un problème de compositing toujours en service dans Steam OS quand le jeu est lancé, parce que sinon les tests de Valve comme ceux de Phoronix montrent toujours des perfs au moins égales sous linux avec Gnome/KDE/.. Ca n’enlève pas les problèmes pour les autres jeux par contre
Steam propose désormais 1 500 jeux compatibles Linux
Le 21/09/2015Le 21/09/2015 à 15h 06
réessaye, pour super meat boy il n’y a rien à faire, ca marche tout seul (idem pour la majorité des jeux j’ai par ailleurs, ca a carrément progressé)
Le 21/09/2015 à 15h 04
Petit rappel à toutes fins utiles, l’enquête hardware de Steam n’est pas vraiment ‘OS agnostique’ personne ne la voit passer sous linux mais elle reste citée comme un indicateur fiable du nombre de personnes impliquées… Les chiffres de ventes sont sans doute plus fiables (mais pas encore publiques avec Steam, on peut se rabattre sur les Humble Bundle pour avoir une meilleure idée), en attendant mieux vaut ne rien dire que d’écrire des bêtises..
Mozilla publie la version finale de son langage de développement Rust
Le 19/05/2015Le 19/05/2015 à 15h 46
Le 19/05/2015 à 15h 27
Le 19/05/2015 à 15h 25
Le 19/05/2015 à 13h 05
J’ai parlé de ‘finalité’ grand public, pour être précis.. Et je maintiens, tout le monde ne peut pas se reposer sur un Unity, ca n’existe pas dans tous les domaines ou ca peut ne pas coller avec le business model. Exemple trivial qui explose tes 1% : l’écrasante majorité des applis iPhone était codée jusqu’il y peu en objective-c, un langage.. compilé. Ca représente du monde, iOS
Autre exemple
Le 19/05/2015 à 12h 45
le code c++ serait quasi-exactement le même évidemment..
Le 19/05/2015 à 12h 44
Ah mais je ne suis pas contre Python, au contraire, je l’utilise beaucoup. Comme je le disais plus tôt, il faut de tout pour faire un monde, ca dépend vraiment des applications cherchées.
@brazomyna : tu y gagnerais quand même à voir ce qu’il se passe à l’extérieur de ton secteur d’activité.. “1% de code réellement contraint par le temps réel”, c’est assez risible pour le coup, je ne sais même pas si ca vaut le coup de réagir.. Je bosse ici, et le C++ est un peu utile par exemple, alors que la finalité est relativement simple / grand public. On est nombreux dans ce cas… (le code était initialement en C#, encore utilisé parfois pour prototyper, la différence de perfs avec C++ doit être dans les 10x et on est contraints par le CPU dans pas mal de scénarios…)
Le 19/05/2015 à 12h 13
Le 19/05/2015 à 11h 41
ca dépend complètement de ton application, le fait de se foutre des perfs. Si la valeur ajoutée de ta boîte est dans une fonction cpu-limited ou power-limited, alors les langages tels que le c++ ont tout leur sens. Dire que c’est marginal comme domaine, c’est un peu rapide… Certains domaines n’ont pas de middleware qui font le sale boulot, comme unity, et dans ce cas il n’y a pas le choix, il faut mettre les mains dans le cambouis. Il faut de tout pour faire un monde :)
Le 19/05/2015 à 11h 38
ca dépend de la taille de la base de code.. Je ne doute pas que C puisse être super rapide si tu fais tout à la main (par définition, au pire tu prends ce que sort le compilo, au mieux tu améliore, donc globalement tu améliores forcément), mais en pratique tu as des limites en temps de développement et en nombre de personnes impliquées. C’est aussi ce à quoi Rust tente de répondre : faire du code rapide en temps limité, avec une équipe limitée. Les problèmes en temps infini, ce n’est pas super intéressant…
Du coup je suis curieux de ce benchmark : si c’est sur des trucs classiques (algos de tri, ..) alors le c++ peut très bien être aussi optimisé que le c, en y passant du temps (le c est plus ou moins inclus dans le c++, donc par définition tu peux faire aussi rapide) . Si ce n’est pas sur des trucs si classiques que ca, avec une grosse base de code, alors je suis curieux de voir les détails.
Le 19/05/2015 à 10h 52
Il y a quand même une bonne différence de perfs, on n’est pas prêts de passer sur Rust dans ma boîte dans ces conditions… Je suis surpris de voir c++ plus lent que c par contre
Le 19/05/2015 à 10h 49
+1 globalement, mais pas forcément dans les détails..
l’impact du code managé sur les perfs doit être plus ou moins constant en pourcentage, pas du tout en valeur absolue. Si le processeur est tel que tu n’as besoin que d’une fraction de ses perfs, alors effectivement tu te fous que le code soit managé ou pas. Si tu es dans une situation CPU-limited (super courant sur du mobile par exemple), alors les 10% que te bouffe le code managé fait mal aux fesses. C’est pas pour rien que les moteurs de jeux sont en c++, ou plus globalement les applications temps réel qui touchent à l’image par exemple.
Globalement je pense que ca converge de toute facons :
La grosse différence est surtout que dans un cas l’optimisation est offline (la compile) ou online (la VM), sachant que même ca peut être un peu flou (genre Android ART et compile AOT)
Le 19/05/2015 à 10h 40
Thanks !
Le 19/05/2015 à 09h 47
intéressé, un peu curieux de voir à quel point c’est rapide et sûr. C++ c’est quand même bien amélioré question rapidité de codage avec les derniers /11 et /14, mais j’imagine bien qu’il est possible de faire mieux. Un peu surpris qu’il soit possible de faire aussi rapide que c++ sans jouer avec les pointeurs, j’attends des benchmarks :) (quelqu’un a testé ?)
GCC 5.0 prochainement disponible avec de nombreuses améliorations
Le 07/04/2015Le 08/04/2015 à 08h 12
Pas d’accord, je pense comme @HarmattanBlow que c’est déconnecté de la réalité, l’open source a fait ses preuves sur des gros projets. Dans les technos web même pas la peine d’en parler tellement c’est évident, l’open source est la règle, mais même dans des trucs c++ un peu plus bas niveau, des libs comme boost, thrust ou opencv sont largement utilisées (dans mon champ de compétences en tout cas). Je suis dans une grosse startup (15 personnes), heureusement qu’on utilise de l’open source. La garantie microsoft sur les produits, je ne suis pas sûr que ce soit vraiment un facteur de décision, à part peut être pour quelques vieux DSI restés en 1980
Le 07/04/2015 à 15h 35
Hmm, j’avais regardé Rust il y a quelques temps, c’est bien le truc qui n’est toujours pas fini ? Je ne dis pas qu’il n’y a pas mieux que c++11, mais il a le mérite d’exister :) Sinon le threading a l’air assez facile, mais le problème c’est aussi le contenu : tu fais quoi avec Rust ? Il existe des libs ? C’est aussi le souci avec ces nouveaux languages, sympa mais c’est rare que tu refasses tout de zéro, tu prends aussi des libs existantes dans la vraie vie. Plus facile d’innover aussi quand tu te fous de la compatibilité ascendante..
Le 07/04/2015 à 15h 11
ok pour hpx sinon, je ne connaissais pas, mais c’est une lib ? je vais regarder ca, merci pour l’info, on dirait du boost en plus digeste