Ce qu’il faut prendre en compte c’est l’ampleur de l’infection (+/- 200 000) qui pese statistiquement, le nombre de pays touché permettant une collaboration plus aisée, et la connaissance des IP et des timestamps sources.
Après pour être capable de répondre mathématiquement si oui ou non c’est possible il faudrait plus d’information sur notamment la fréquence d’utilisation de TOR par le malware, combien de noeuds ont pu avoir leurs logs de connexions saisies.
La question de la volumetrie de data n’est pour moins pas une problématique.
Je ne comprends pas pourquoi. Meme s’il y a 6 couches de chiffrement et N relays, il y a eu connexion avec les metadatas associés. Donc la possibilité statistique sur 10min si tu possèdes tous les logs de connexion de toutes les machines de calculer des proba des sources/targets reste possibles.
Peut etre que pour une target avec un nombre de connexion faible c’est peu probable d’avoir des chiffres probants. Je rejoints, NetworkSecExpert, une attaque de cette taille avec les logs associés doit necessairement augmenter la surface de detection pour trouver les cibles.
En passant, 1TB de metadata/semaine pour une machine, on ne parle meme pas encore de big data.
Les chiffres n’expriment pas un “mécontentement” mais un pronostique sur la possibilité de rentabiliser un investissement.
Ce n’est pas un jugement sur la santé ou l’avenir de l’entreprise.
Le pronostique reste un jugement lié à une analyse.
Le cours d’une action tient autant du subjectif que de l’objectif. L’offre et la demande sont à l’oeuvre, l’offre d’actions a augmenté suite à cette annonce. Tu peux traduire cela par un pronostique mais c’est simpliste car cela peut être très temporaire car tombant dans le subjectif lié à l’annonce (peur…).
je prends ta réponse comme un troll, car dire que ruby ou python ce sont des petits langages dont les profs raffolent c’est fort :)
Note en passant, WebAssembly n’est qu’un langage de bas niveau qui n’a pas vocation à être utilisé par le developpeur. Cela passera par du C/C++ ou autre compilé en WASM
Sauf que quand c’est que quand c’est du côté “front” que ça rame, il ne suffit pas de rajouter des serveurs.
Et une mauvaise expérience utilisateur se traduit par une perte de fréquentation…
Quand on a une idée de l’overhead qui découle des caractéristiques dynamiques d’un langage, on comprends pourquoi certains rêvent de mieux que Javascript.
Et le fait d’empiler les framework sur un langage lent ne fait qu’amplifier le problème…
JS n’est pas plus un “langage lent” que python ou ruby. Au contraire même, les moteurs JS ont fait d’importants progrès. Mais bien entendu, certaines constructions rendront difficile une compilation native efficace.
L’overhead n’est vraiment pas l’argument principal qui font que certains revent mieux que JS.
Mon experience est toute autre. Avoir un mix html / js autant coté serveur que coté client trouve rapidement ses limites à mesure que l’application grossi au temps au niveau du développement que pour l’expérience de utilisateur. La logique applicative se retrouve distribuée au niveau du serveur et au niveau du client avec des mixes qui peuvent être peu joyeux pour pallier au limite de l’approche serveur.
le problème est justement que la grande majorité des applications ne prend pas en charge ce qui est au dessus de 4cpu… car developper pour que l’allocation des ressources se fasse au dessus, coute de l’argent… depenser de l’argent pour environ 1.5% du parc informatique actuel…. c’est useless. donc aujourd’hui les studios de dev vont au plus court avec de l’optimisation bidon en te disant ah bein ça tourne pas sur ton i3 dual core? sur un i5 ça tournera bien… donc vla la consommation cpu.
sur console c’est un peu different.. alors certes ils developent pour X cores ou X gpu ou X what ever… toutes fois ils le font une seule fois sans se soucier de rien d’autre puisque la plateforme est uniformisée et qu’en plus ils ont un DEV KIT prévu justement pour cette config spécifique a leur disposition.
Développer pour une cible particulière de CPU et les paradigmes de la programmation concurrente sont deux choses différentes.
Mon propos porte sur le deuxième point. Le tiens sur le premier.
Ca je suis d’accord, mais ce n’était pas mon propos initial.
Pour entrer dans ton propos, qu’elle est la différence de fonctionnement entre un jeu fonctionnant au minimum sur 2 cores et de manières optimale sur 4 cores? Et la différence pour le même jeu fonctionnant sur une console à 8 cores mais dont les perfs au core sont inférieures à celle du core de la config minimale?
ça revient toujours au même débat qu’Android VS IOS…
d’un coté t’as une plateforme uniformisée et standardisée avec un kit de developpement dédié qui te permet tirer profit au maximum de toute la plaferme.
de l’autre coté t’as une plateforme complètement dispersée avec 50’0000’000 d’exceptions…. donc tu dois developer en t’appuiant sur des specs requises minimales a fin que ça marche partout.
en gros tu compares des vaches et des cochons….
As tu bien lu à quoi je répondais ?
La question n’est pas plateforme uniformisé / standardisé contre un parc hétérogène mais le sujet exploitation de coeurs multiples qui est déjà largement intégrée.
Tu associes ce sujet à l’architecture des consoles proches de celle d’un “PC” et au portage multi plateforme…
Ce n’est pas qu’ils l’exploitent très mal. C’est qu’ils ne cherchent pas à l’exploiter.
Pas de vrai 8 cœur abordable jusqu’à maintenant = pas de marché.
Détrompe toi, il y a quantité de choses qu’un éditeur de jeu peut faire avec des coeurs de CPU sans trop se fatiguer : Gestion physique, Parallélisation du rendu pour ne citer que les plus courants.
Le problème, c’est que le CPU touche plus au gameplay que le GPU et qu’il est difficile de concevoir un jeu pour un CPU 8 cores qui tournera correctement avec seulement 2.
Les éditeurs sont logiquement obligés de tenir compte du fait que d’un côté les CPU 8 coeurs sont inexistants sur le marché grand public et que de l’autre, Intel vends encore des cargaisons entières de dual cores, dont certains estampillés “core i7” (pour les portables).
La PS4 et la One ont 8 cores. Ces CPU ne sont pas bien entendu comparable au sujet de l’article, mais les capacités déployées sont la…
La presse ne semble pas prendre beaucoup de précautions sur les annonces de performances d’AMD. C’est un indicateur fort à mon sens, que ce n’est pas juste un effet d’annonce ;)
C’est une standardisation du principe et un gain pour le développeur qu’ils viennent de C++/Java/C# ou d’ailleurs. Il n’y a pas d’opposition ni de rigidité…
Non, ils n’ont pas vraiment hésité. Quand Google a racheté Android, il était déjà complètement dépendant de Java. Ils se sont juste posés la question de si c’était possible de changer ça, mais sont vite arrivé à la conclusion que, ça prendrait beaucoup trop de temps.
Ils pourraient si vraiment c’était un problème où si cela le devenait. Apple l’a fait.
J’avais lu je ne sais plus où qu’à l’époque ils hésitaient entre Java et .NET et que Java avait été retenu. Ils doivent s’en mordre les doigts en voyant ce qu’est devenu le second aujourd’hui avec .NET Core et Roslyn " />
A voir ce qu’aurait fait Microsoft dans pareil cas… Et je n’en serais pas aussi sur sur le fait que c’est une décision qu’isl regrettent…
Ben oui, c’est ce qu’il dit : pas de certificate pinning = l’app acceptait tout les certif. (edit : je dis peut-etre une bêtise et que ce n’est pas lié au fait que le certif soit épinglé ou non).
Mais de toute façon, il faut considérer que le MiTM est toujours possible (modification de l’APK / Android bidouillé etc.) et protéger l’API en conséquence. Chose qui ne l’était pas.
Pas de certificate pinning = l’application accepte tous les certificats tant qu’ils sont signés par les CA (certificate authorities) présents sur le device. Cela ne veut pas dire qu’elle accepte même les certificats auto signé car la c’est d’un autre niveau niveau négligence.
D’après la video, c’est surtout possible après le détournement DNS. Par contre il ne dit pas comment il fait pour avoir un certificat valide sur le domain détourné. A moins que l’app accepte les certificats self signed, ce qui serait quand même étonnant.
Architecte cela ne veut rien dire seul, cela peut être un architecte solution, technique généraliste, web, mobile, infra… En soit, ce n’est pas le role de l’architecte d’être un expert securité. Il y a des rôles pour cela, notamment l’officier de sécurité.
J’aimerai à penser que le secteur bancaire est suffisament reglementé pour imposer des audits de sécurités.
233 millions d’actions sous le sabot d’un cheval. 35% c’est l’augmentation finale du cours de l’action suite à l’achat. Il a surement du passer par la case démarchage des portefeuilles d’actions.
L’intérêt me semble clair : dans le monde actuel, un système qui ne tourne que sur x86 et pas sur ARM se prive des trois quarts des machines de la planète. Il faut être présent sur ARM.
Windows RT n’a pas marché parce qu’il était trop fermé. Avec quelque chose de plus ouvert, capable de faire tourner la vaste palette d’applications Windows existantes (c’est le seul intérêt de Windows par rapport aux autres systèmes, même sur x86), ça devrait mieux marcher.
A quoi cela sert d’être présent sur ARM quand ces 3⁄4 de machines ne pourront pas faire tourner ces appli car l’eco systeme de Microsoft est fermé? Et sur le premier quart Apple pourrait tres bien être sur une autre archi que cela ne changerait pas grand chose pour eux.
Comme un certain nombre de personnes l’ont déjà dit, le vent tourne du coté d’ARM (prix, conso, perf…) sur au moins la mobilité et Microsoft l’a bien senti
Le atom pas cher sera moins performant que le SD 820. Dans cet exercice Microsoft s’associe surtout à Qualcomm en utilisant l’image d’un SoC highend mettant en valeur leurs technos.
Les intégrateurs auront surement ensuite la liberté d’intégrer le SoC de leurs choix.
895 commentaires
Le 25/08/2017 à 10h24
+1,
A noter que la convention en question date d’avant l’entrée de l’Irlande dans l’UE (CEE à l’époque)
Le 09/08/2017 à 12h13
Et si on veut aller se reposer dans une baie privée quelles alternatives on a?
" />
Le 03/08/2017 à 13h32
Et le joueur humain il joue combien de partie de manière consciente et inconsciente?
Le 02/08/2017 à 12h52
> avec la crainte qu’une « perte de contrôle » signifie « folie » du logiciel.
" />
" />
un humain qui ecrase une fourmi est il fou ?
Le 30/06/2017 à 13h23
si tu n’en es pas à ta 10ème startup à 8 ans tu as loupé ta vie!!
Puis retraite à 40 ans.
Le 30/06/2017 à 13h02
> « En créant quelque chose d’aussi fort, on pousse toute personne
intéressée à regarder et on crée une ambiance qui donne envie à des
jeunes de se lancer dans l’entrepreneuriat » affirmait hier Xavier Niel à France Inter.
Lors de l’interview il n’avait que ce mot la à la bouche jeune, jeune, jeune… Il aime la jeunesse
Le 18/05/2017 à 15h36
Merci pour ces précisions :)
Le 18/05/2017 à 15h00
Et quelle est la proba que le fournisseur du serveur logs les connexions?
Le 18/05/2017 à 09h43
Merci pour cette réponse.
Ce qu’il faut prendre en compte c’est l’ampleur de l’infection (+/- 200 000) qui pese statistiquement, le nombre de pays touché permettant une collaboration plus aisée, et la connaissance des IP et des timestamps sources.
Après pour être capable de répondre mathématiquement si oui ou non c’est possible il faudrait plus d’information sur notamment la fréquence d’utilisation de TOR par le malware, combien de noeuds ont pu avoir leurs logs de connexions saisies.
La question de la volumetrie de data n’est pour moins pas une problématique.
Le 18/05/2017 à 07h26
Je ne comprends pas pourquoi. Meme s’il y a 6 couches de chiffrement et N relays, il y a eu connexion avec les metadatas associés. Donc la possibilité statistique sur 10min si tu possèdes tous les logs de connexion de toutes les machines de calculer des proba des sources/targets reste possibles.
Peut etre que pour une target avec un nombre de connexion faible c’est peu probable d’avoir des chiffres probants. Je rejoints, NetworkSecExpert, une attaque de cette taille avec les logs associés doit necessairement augmenter la surface de detection pour trouver les cibles.
En passant, 1TB de metadata/semaine pour une machine, on ne parle meme pas encore de big data.
Le 15/05/2017 à 10h04
A qualifier ce que serait les règles de ce marché libre pour éviter que l’histoire se repete
Wikipedia
Le 15/05/2017 à 08h34
Ha oui, vu comme cela, c’est sur que l’on comprend mieux comment cela pourrait bien fonctionner.
" />
Il suffit de ne pas faire une libéralisation stupide…
Le 15/05/2017 à 08h33
Je n’ai pas dis cela.
Ce n’est pas une solution qui répond à tous les problèmes. La libéralisation entraine une concurrence accrue
et une difficulté plus importante pour faire son salaire.
Le 15/05/2017 à 07h51
Une libéralisation n’est pas la solution miracle. Tu te retrouveras avec
des chauffeurs qui roule 17h/jour pour sortir un SMIC mais qui n’enverront pas 20% de leurs revenus à une société étrangère ne payant ni impôt
Le 15/05/2017 à 07h45
Et on repart dans un cycle:
Le 11/05/2017 à 12h47
Le 28/03/2017 à 15h43
je prends ta réponse comme un troll, car dire que ruby ou python ce sont des petits langages dont les profs raffolent c’est fort :)
Note en passant, WebAssembly n’est qu’un langage de bas niveau qui n’a pas vocation à être utilisé par le developpeur. Cela passera par du C/C++ ou autre compilé en WASM
Le 28/03/2017 à 06h53
Le 27/03/2017 à 12h22
Le lien de material pour Angular 2 est: https://material.angular.io/
Il est encore en phase beta.
Le 24/03/2017 à 14h31
Mon experience est toute autre. Avoir un mix html / js autant coté serveur que coté client trouve rapidement ses limites à mesure que l’application grossi au temps au niveau du développement que pour l’expérience de utilisateur. La logique applicative se retrouve distribuée au niveau du serveur et au niveau du client avec des mixes qui peuvent être peu joyeux pour pallier au limite de l’approche serveur.
Le 24/03/2017 à 13h30
GWT, AngularJS et Angular sont toujours supportés…
Le 24/03/2017 à 11h10
“la génération de cartes des sources”
" />
il m’a fallu 2s pour faire le rapprochement avec les sourcemaps
Le 28/02/2017 à 11h55
Le 28/02/2017 à 09h55
Ca je suis d’accord, mais ce n’était pas mon propos initial.
Pour entrer dans ton propos, qu’elle est la différence de fonctionnement entre un jeu fonctionnant au minimum sur 2 cores et de manières optimale sur 4 cores? Et la différence pour le même jeu fonctionnant sur une console à 8 cores mais dont les perfs au core sont inférieures à celle du core de la config minimale?
Le 28/02/2017 à 09h38
Le 28/02/2017 à 08h48
Le 27/02/2017 à 13h41
La presse ne semble pas prendre beaucoup de précautions sur les annonces de performances d’AMD. C’est un indicateur fort à mon sens, que ce n’est pas juste un effet d’annonce ;)
Le 24/02/2017 à 08h22
C’est une standardisation du principe et un gain pour le développeur qu’ils viennent de C++/Java/C# ou d’ailleurs. Il n’y a pas d’opposition ni de rigidité…
Le 13/02/2017 à 16h16
Le 13/02/2017 à 16h03
Le 30/01/2017 à 09h52
+1, avec un extrait de compte à l’appui et la carte d’ID de tous les admins pour faire oeuvre de bonne foi!!
Le 10/01/2017 à 11h52
Ils sont pas professionnelles et pourtant ils veulent prendre des décisions de professionnelles :)
Le 29/12/2016 à 17h17
Le 29/12/2016 à 17h12
Le 29/12/2016 à 13h29
D’après la video, c’est surtout possible après le détournement DNS. Par contre il ne dit pas comment il fait pour avoir un certificat valide sur le domain détourné. A moins que l’app accepte les certificats self signed, ce qui serait quand même étonnant.
Le 29/12/2016 à 13h16
Architecte cela ne veut rien dire seul, cela peut être un architecte solution, technique généraliste, web, mobile, infra… En soit, ce n’est pas le role de l’architecte d’être un expert securité. Il y a des rôles pour cela, notamment l’officier de sécurité.
J’aimerai à penser que le secteur bancaire est suffisament reglementé pour imposer des audits de sécurités.
Le 23/12/2016 à 12h06
C’est un service standard des clouds providers, et en plus cela leurs coutent
 http://securityaffairs.co/wordpress/54659/digital-id/signal-domain-fronting.html
Domain fronting leverages a CDN that have to receive the request and
forward it to the domain in the HTTP host header, or a service that
provides similar functionality, like Google’s App Engine.
Such services typically have a cost that according to the paper
ranges from $0.10–0.25 per GB using a service like Google App Engine,
Amazon CloudFront, Microsoft Azure, Fastly, and CloudFlare. This may
explain why Signal isn’t making domain fronting a default everywhere.
Due to this cost, Signal isn’t providing domain fronting by default.
Le 23/12/2016 à 11h58
google renvoit la requete car cela doit être un service google clouds, d’où la disponibilité du service sur les plateforms clouds.
Je ne sais pas si le parallèle à bloquer google.com est pertinent. Cela voudrait dire qu’il partage le même ensemble d’ip.
Le 16/12/2016 à 14h16
Bon 50% des actions sont flottantes soit 600 millions. Il n’a eu effectivement qu’à ce baisser
Le 16/12/2016 à 13h58
233 millions d’actions sous le sabot d’un cheval. 35% c’est l’augmentation finale du cours de l’action suite à l’achat. Il a surement du passer par la case démarchage des portefeuilles d’actions.
Le 16/12/2016 à 13h41
Uun poil quand même, il faut les trouver ces actions.
Le 15/12/2016 à 10h02
Surtout la vitamine B12 il me semble.
Le 12/12/2016 à 08h56
Ou qualcomm va baisser son 820 et mettre le 835 au prix du 820…
Ou le prix de 70€, c’est un prix unitaire, voir même un prix très hypothétique…
Mais si Microsoft se lance la dedans c’est bien qu’il y a un avantage justifiant l’investissement par rapport à du x86.
Le 09/12/2016 à 20h53
Et pourquoi le pro n’ira jamais sur de l’ARM?
Le 09/12/2016 à 15h23
Le 08/12/2016 à 21h28
Le atom pas cher sera moins performant que le SD 820. Dans cet exercice Microsoft s’associe surtout à Qualcomm en utilisant l’image d’un SoC highend mettant en valeur leurs technos.
Les intégrateurs auront surement ensuite la liberté d’intégrer le SoC de leurs choix.
Le 16/11/2016 à 21h28
Je connais Beelink, Rikomagic, mais juste de nom car il passe sur le forum freaktab. Voir ce fil
Le 16/11/2016 à 12h02
La gageure est de trouver une box avec du support autre que la bonne volonté de la communauté ;)
Le 15/11/2016 à 15h19
Je n’ai pas dit le contraire
" />
Le 15/11/2016 à 14h43