Si Google ne peut plus payer pour être le moteur de recherche par défaut, Mozillla perd 90% de son financement, non ? Cette décision ne signe-t-elle pas la mort de Firefox ?
Le protocole U2F est pas si répandu que ça, au moins pour les applications/services grand public.
D’où l’intérêt de le mettre sur France Connect… Les 7 sites en profitent d’un coup, sans changement de leur côté.
Le
05/09/2022 à
18h
02
J’avais déjà des comptes sur ameli, impots, et d’autres, avant que France Connect ne soit créé. Je ne dois pas être le seul. Le facteur de risque n’est peut-être pas multiplié par 7 car personne n’a un login ur chacun des 7 sites, mais quand même. Si un seul des sites sur lesquels j’ai un mdp ne fait pas correctement son boulot pour bloquer les brute force et autres attaques, tous les autres sites sont mis en risque. Et ils n’ont aucun moyen de voir qu’il y a eu 10000 échecs d’auth avant le login réussi. Ils n’ont probablement même pas les logs pour investiguer. Tous ces services ne sont peut-être pas aussi bien financées que les impots. Certains doivent être obligés de transiger avec les bonnes pratiques. Je trouve ça risqué.
Je persiste à penser que France Connect devrait être un IDP avec un unique set de login/mdp qui lui serait propre. Une équipe dédiée, un financement dédié. Et ils peuvent travailler à rendre ça plus robuste. On pourrait même imaginer utiliser la CNI version carte à puce pour de l’auth sécurisée.
Le
02/09/2022 à
09h
00
Ca me semble être un problème général avec France Connect. On peut s’authentifier sur tous les sites administratifs avec les login/mdp de n’omporte lequel des 7 sites embarqués sur France Connect. Ca fait 7 fois plus de chances de réussir un credential stuffing. France Connect devrait avoir ses propres login/mdp, avec MFA (et pas que de l’OTP, des trucs plus modernes comme WebAuthn et Passkeys).
Tout à fait. En plus ça fait un fil rouge sur plusieurs semaines. Le format est super.
Le
05/07/2022 à
18h
31
gathor a dit:
Le problème de la rédaction au fil de l’eau étant qu’il est plus difficile de se concentrer sur des articles de fonds, on serait trop souvent « coupé ».
Et pourquoi pas le traiter 2x par jour, avec des publications planifiées (un article toutes les xx minutes) ?
Vous savez aussi bien que moi que le SEO est aussi une question de volume.
Dans ce cas il faudrait peut-être saucissonner un peu les articles les plus longs. En l’état c’est triplement contre-productif: 1/ beaucoup de temps passé à rédiger un unique article plutôt que d’en avoir fait plusieurs sur plusieurs sujets, 2/ beaucoup de gens ne lisent pas l’article car ils n’ont que 5 minutes, 3/ perte de SEO.
Dans la même veine, faudrait-il publier LeBrief en temps réel ? Faire venir les gens plus souvent leur donnerait l’impression que le site leur est plus utile. Ils auraient peut-être plus tendance à s’abonner (je rêve peut-être).
la tentation sera souvent de remplacer les sécurités existantes par les nouvelles, issues de cette architecture, avant que ces nouvelles protections ne soient suffisamment déployées et éprouvées. Exemple : on enlève les firewall périmétriques parce qu’on fait du Zero Trust. Selon moi, le Zero Trust devrait compléter les architectures existantes
Tout à fait d’accord, le zéro trust, c’est un peu du périmétrique avec autant de périmètres que d’applications (voire plus). Si on n’est pas capable de faire du périmétrique sur un seul périmètre, ça ne va pas mieux marcher en multipliant le travail par un facteur 100+.
Le homedir sous MacOS est automatiquement monté en SSHFS comme homedir sous Linux. Ca marche super bien. Par contre, je crois que c’est de la ligne de commande seulement.
Cet incident devrait aussi aller dans le sens de ceux qui vantent une approche multi-cloud : n’importe quel hébergeur peut rencontrer un problème grave, il faut donc assurer une redondance à travers l’un de ses concurrents pour réduire les problèmes potentiels. Mais là aussi, cela dépendra du budget prévu et de votre capacité à tolérer une panne.
Passer au multi-cloud n’est pas qu’un problème de budget. Le faire revient à se restreindre au plus petit dénominateur commun entre les fournisseurs. On se prive alors du bénéfice des milliard de dollars/euros investis annuellement dans la R&D par les hyperscalers.
De plus, le multi-cloud augmente la complexité des déploiements. Et l’expérience montre que plus de complexité va de pair avec moins de disponibilité et moins de sécurité.
Part curiosité, qu’est-ce que tu as de différent par rapport à:
traknar a dit:
J’ai un A avec mon domaine chez Zoho. DNSSEC: activé MX: 3 serveurs chez 2 hébergeurs différents (mx*.zoho.eu) SPF: strict avec 1800 IP autorisées DKIM: présent DMARC: quarantaine avec reporting Autoconfig:
conf pour Thunderbird, incluant TLS sur POP et SMTP
conf pour Exchange (non analysée)
Le
08/09/2021 à
19h
09
fdorin a dit:
Pour les prestataires, c’est juste impensable. Sinon, une simple recherche et hop, on a la liste de leur clients
En théorie, s’il est possible d’avoir plusieurs enregistrements PTR, en pratique, je n’ai pas vu de possibilité de configurer plusieurs enregistrements sur mes différents hébergements. Peut être que certains le permette.
Si tu peux importer un fichier de conf au format de Bind, c’est faisable. Il me semble que ça marche chez Gandi, par exemple.
Quoi qu’il en soit, c’est un comportement “indéterminé” (dans le sens non spécifié par la RFC). Du coup, beaucoup de logiciels font l’hypothèse une IP = un PTR. S’il y en a plusieurs, on risque des comportements plus qu’aléatoire (quel enregistrement est pris ? Un au hasard ? Est-ce que le logiciel crash ?).
Je suis curieux de savoir ce que des spécialistes du mail conseilleraient : plusieurs PTR, ou bien un PTR qui ne match pas.
Bref, faut se méfier de la théorie ;) En théorie, plusieurs PTR ça marche, en pratique…
Ça résume beaucoup de chose en informatique et ailleurs :-)
Le
07/09/2021 à
19h
06
J’ai un A avec mon domaine chez Zoho.
Si ça peut aider: DNSSEC: activé MX: 3 serveurs chez 2 hébergeurs différents (mx*.zoho.eu) SPF: strict avec 1800 IP autorisées DKIM: présent DMARC: quarantaine avec reporting Autoconfig:
conf pour Thunderbird, incluant TLS sur POP et SMTP
conf pour Exchange (non analysée)
Le
07/09/2021 à
18h
59
J’ai fait le test. Il y a juste un aspect qui m’a paru très étonnant !
Votre reverse DNS ne correspond pas avec votre domaine d’envoi.
Aujourd’hui, si la présence d’un reverse DNS est effectivement vérifiée, la valeur ne l’est normalement pas. En effet, on ne peut attribuer qu’un seul domaine par IP, et cela sera juste infaisable avec les domaines perso dès lors que l’on utilise un prestataire (gmail, office365, etc…).
Tu peux vérifier aussi auprès de mxtoolbox si ton serveur n’est pas blacklisté. Ils utilisent un plus grand nombre de liste, et il suffit d’être blacklisté sur une seule pour avoir des soucis. Parfois, c’est juste que ton serveur est dans une plage blacklistée même si la configuration est bonne (c’était mon cas).
On peut mettre plusieurs enregistrements PTR sur une même IP, mais c’est vrai que je n’irais pas jusqu’à en mettre plusieurs milliers. Donc on peut aligner reverse DNS et domaine d’envoi, mais dans certaines limites seulement.
il s’agit de permettre à un organisme de gestion collective de représenter non seulement les membres, mais aussi des titulaires de droits non adhérents dès lors que l’organisme de gestion collective est représentatif des œuvres et objets concernés
Donc on peut monter un organisme de gestion collective des musiques d’attente de téléphone, qui représentera par défaut tous les auteurs/artistes/interprètes de ces musiques, décider d’un barème à la con avec une méthode aussi scientifique que celle de Copie France, puis réclamer de l’argent à tous les organismes de gestion de droits d’auteurs/voisins, tous les ministères, tous les sièges de partis politique, toutes les mairies, toutes les permanences de députés et sénateurs, puis les attaquer en justice quand ils ne paient pas ?
Sinon non je n’envisage pas la possibilité de me faire voler mon PC portable, simplement parce que ça n’arrive pas et au pire on ne trouvera pas grand chose dedans de personnel, comme dans mon smartphone d’ailleurs. Je ne comprend pas cette lubie de mettre tant de données personnelles que cela dans des objets pouvant être volés.
Pas grand-chose de personnel? Vraiment ? Il n’y a aucun mot de passe sauvegardé dans ton navigateur ? Aucun cookie de session toujours valide permettant d’accéder à ta boite mail, et par là de prendre le contrôle de tes comptes sur tous les services que tu utilises (reset du mdp par email) ?
Un chiffrement de disque 100% transparent, avec un impact minimal sur les perfs, pourquoi s’en passer ?
“de telles données relatives à l’identité civile des utilisateurs ne fournissent pas d’autres informations sur la vie privée des internautes.”
Est-ce toujours vrai après que Mircom a associé ces données aux noms des fichiers et des œuvres ? Tiens, un homme qui ne télécharge que du gay porn ; que peut-on inférer ? Il me semble que le RGPD considère l’orientation sexuelle comme une donnée non seulement personnelle, mais surtout sensible…
1- Le taux d’utilisation du chèque n’atteindra jamais 100%, donc il peuvent prétendre compenser alors que ce n’est pas le cas. 2- Le chèque est payé par nos impôts. La RCP n’est pas une taxe/impôt. Le chèque compense la RCP. Ça permet de financer l’industrie musicale avec nos impôts tout en prétendant financer l’économie circulaire. Un magnifique greenwashing. Tu le vois mieux l’intérêt ?
Qui perçoit? Qui touche la manne? 15% sur quoi? Parce que, si c’est sur les bénéfices, quand on voit comment les bénéfices annuels sont systématiquement proches de zéro voire, déclaration de comptes déficitaires comme Amazon, on est bien parti pour faire une multiplication par zéro…
Je trouve plutôt vertueux qu’une entreprise qui réinvestit tous ses bénéfices dans la R&D ne soit pas taxée. Si Sanofi avait fait ça sur les 10 dernières années, on aurait peut-être eu un vaccin anti-Covid français… Troll mis à part, les investissements de R&D d’aujourd’hui sont les profits de demain et des salaires aujourd’hui, qui sont taxés. Taxons plutôt les rachats d’actions et autres malpratiques financières.
La Commission note enfin que des traces, tant systèmes qu’applicatives, sont générées par le traitement et conservées pour une durée de cinq ans. Or, sa recommandation sur la gestion des traces et des journaux techniques est de limiter la durée de conservation de six mois
On conserve les données des citoyens pendant 15 ans et celles des force de l’ordre doivent être jetées après 6 mois ? Ne devraient-ils n’avoir “rien à cacher” eux non plus ?
Il me semble qu’il y a maintenant un nouvel acteur à prendre en compte. Donc il faut réformer la commission: 12 ayant droit, 6 consommateurs, 6 industriels du neuf, ET 6 industriels du reconditionnement. Sur un malentendu, ça pourrait passer :-)
On fera cependant remarquer qu’en dépit d’une large communication sur le respect de la vie privée par Apple et ses efforts pour paraitre aussi vertueuse que possible, l’utilisateur n’aura finalement que la parole de l’entreprise sur la gestion des adresses IP envoyées à ses serveurs.
Entre les mises à jour système, les mises à jour d’applications, la télémétrie, iCloud, les emails @me.com, les validation d’applications à leur lancement (cf. l’actualité récente quand le système est tombé en panne), etc., Apple a déjà les adresses IP. Donc ils ne gagnent pas grand-chose à ajouter cette “collecte”.
S’ils font proxy correctement, Apple ne peut observer le contenu de la requête*, et Google ne connait pas son origine. Donc ni Apple ni Google n’ont l’info complète. C’est plutôt astucieux.
*Dans mes souvenirs il s’agit d’un hash de tout ou partie de l’URL, mais on doit bien pouvoir inférer des choses: Google crawl tout l’internet régulièrement, ils peuvent précalculer une quantité de hash.
Le chemin de compromission n’est pas connu. Le logiciel ne semble donc pas avoir été backdoré comme SolarWinds. Et on ne sait donc pas si l’attaquant utilise une faille dans le logiciel, ou bien s’il a pris le contrôle des serveurs par un autre moyen et utilise Centreon pour se déplacer latéralement. C’est une cible de choix pour cette activité, comme tout autre solution de gestion centralisée de parc : serveurs de déploiement de patchs, scanners de vulnerabilités, serveurs Puppet/Ansible/Chef, software d’inventaire IT, ordonnanceurs de batch, contrôleurs de domaine, et aussi serveurs de CICD type GitLab ou Jenkins (surtout quand toute l’infra est déployée en l’infrastructure-as-code).
Côté versions, on n’a observé de compromission qu’avec des versions de Centreon inférieures ou égales à la 2.5.2, mais ce n’est qu’une somme d’observations, pas des conclusions : impossible de conclure tant qu’on ne connait pas le chemin de compromission.
Pas étonnant de la part de google, vu qu’on peut pas installer adblock sur une PWA…
Mais ils n’y prennent pas 30% de la vente…
En tous cas Firefox aurais pu être le champion qui permet les extensions sur les PWA, et ainsi pousser toute l’industrie à les supporter. Ce ne sera pas le cas.
L’article 25 existe déjà : droit pour les policiers de porter leur arme en dehors du service, dans les établissements accueillant du public, et non-opposable (contrairement aux US).
Bizarrement, le peu de fois où je sors de chez moi, tout le monde a un masque, et ça fait des mois que ça dure, ça n’empêche pas que les lits en réanimations arrivent à saturation. Pour moi les masques ne servent pas à grand chose …
Moi aussi, tout le monde ou presque a le masque. Mais beaucoup l’ont à la main, sous le menton, ou sous le nez. La barrette métallique n’est pas pincée, laissant un bel espace autour du net pour laisser l’air. Et c’est sans compter sur ceux avec qui tu t’engueule pour qu’ils ne se mettent pas à moins de 50cm de toi sans leur masque dans la file d’attente. Ils ne se lavent sûrement jamais les mains non plus. Et puis tous ceux qui pense que ceci n’est qu’un complot pour mieux contrôler la population… Pas étonnant que le virus se répande.
Petite plaisanterie, si on est senior après 4 ans d’expérience, il ne reste plus beaucoup de marge non ?
Bienvenu chez les SSII ESN françaises… On comprend pourquoi on voit passer des fiches de postes demandant 3 ans d’expérience, mais des connaissances d’une variété et d’une profondeur qui ne s’acquièrent qu’avec 10 ou 15 cumulés.
Surtout que le site Microsoft en question l’acceptait à une certaine époque. Je ne t’explique pas les problèmes quand tu ne peux plus te logguer à cause de ça…
Charge ensuite à chaque business de décider du niveau de sécurité qu’il veut. Si une banque préfère rembourser des phishings qui lui coûtent 10000€ par victime, c’est son problème. Quand un fournisseur grand public ne gère pas à l’entrée, elle rembourse la victime et ne peut ni améliorer sa sécurité ni se retourner contre le fournisseur.
Implémenter DMARC en mode quarantine ou strict sur les emails sortants est extrêmement compliqué. C’est trivial pour un micro business, ou si ça a été fait dès la création de l’entreprise, mais quand tu arrives après 20 ans d’existence en ligne, avec des centaines de BU qui ont chacune plusieurs (dizaines de) fournisseurs qui envoient des emails en leur nom, le chantier est colossal.
Donc autant je comprends que les gros FAI français ont du mal à implémenter DMARC sur les emails sortants, autant sur l’entrant il est inadmissible qu’ils ne l’aient pas fait plus tôt.
Le
02/07/2020 à
11h
00
Appliquer DMARC sur les emails entrants est très important chez un fournisseur de mail grand public : ça protège leurs clients des emails usurpant le domaine de leur banque, des imports, de la CAF, de leur plateforme de commerce en ligne où leur carte bancaire est préenregistrée.
Bref, ça protège leur clients d’un très grand nombre d’arnaques qui peuvent leur faire perdre gros.
Après, quand ils reçoivent un mail de [email protected], ce n’est peut-être pas tatie Danièle qui leur parle. La belle affaire.
Aucune idée. Je travaillais pour une banque de détail. Nos clients avaient donc en majorité des adresses chez un GAFAM ou chez un FAI français, et je ne me souviens pas avoir vu passer des adresses pro issues de boites américaines.
Cela m’énervait au plus haut point de voir que les FAI français ne faisaient pas le taf. Surtout que l’intérêt principal de DMARC n’est pas seulement d’appliquer une politique antispam, mais aussi de faire du reporting vers le propriétaire du domaine usurpé : on obtient des stats agrégées de qui envoie quel volume de mail en notre nom, et on obtient des copie des emails frauduleux en même temps que les clients les reçoivent. Le premier permet d’identifier plein de shadow IT. Le second permet de recevoir des échantillons des mails de phishing, et donc lancer un takedown sur un site de phishing quelques minutes après que le fraudeur a lancé son mailing de masse. Le pied !
Le
17/06/2020 à
11h
12
Lorsque j’avais déployé SPF/DKIM/DMARC dans une grande entreprise (jusqu’il y a 1 an), j’avais des retours des stats DMARC de tous les gros fournisseurs américains (Google, Microsoft), de petites entreprises françaises (même un CHU), mais les FAI français étaient aux abonnés absents. Donc nos clients qui avaient une adresse email chez Gmail & Co étaient protégés des phishings qui usurpaient notre domaine, ceux chez Orange et Free se faisaient bananer. Merci les FAI. Des entreprises minuscules peuvent déployer le reporting DMARC, des entreprises immenses le peuvent, mais ceux qui seraient en charge de protéger le citoyen, souvent avec des délégations de service public, laissent les gens dans la merde.
Il est intéressant de noter que même si WSL2 est basé sur de la virtualisation et que Windows Home ne permet pas de lancer des VMs Hyper-V, on pourra quand même utiliser WSL2 sur Windows Home.
Bon, je viens de passer quelques heures à creuser un peu plus la question.
J’ai configuré une
sauvegarde HyperBackup (outil natif de Synology) vers Scaleway, lancé quelques sauvegardes, puis ai changé manuellement (petit script à base de s3cmd) la classe de stockage des fichiers de données pour les passer en glacier. A première vue, ça marche. HyperBackup peut faire de nouvelles sauvegardes dont les fichiers viennent s’ajouter aux fichiers existants. Il peut aussi vérifier l’intégrité de la sauvegarde (seuls les fichiers d’index sont accédés, et eux sont restés en stockage standard). Mais…
Tout marche très bien jusqu’à ce
qu’HyperBackup tente de supprimer un ancien backup (rétention d’une sauvegarde par heure pendant 24h, une par jour pendant 30 jours, etc.). Catastrophe. A ce moment-là, le logiciel a
besoin d’accéder en lecture aux blocs contenant des données à supprimer, pour les compacter
(HyperBackup agrège les fichiers par blocs de 50 Mo) et les remplacer par un
nouveau bloc avec juste les fichiers qui sont toujours dans le lifecycle
de la sauvegarde. Ça plante au premier bloc à compacter. Pas d’option pour ne pas
compacter. HyperBackup semble définitivement incompatible avec tout support de stockage à froid.
L’application Glacier Backup native sur Synology ne permet pas de choisir d’autre fournisseur qu’AWS. J’ai l’impression qu’il n’y a vraiment aucune bonne option de ce côté.
En espérant que ce retour d’expérience puisse servir à d’autres.
Le
20/05/2020 à
14h
57
En effet Glacier est une app à part sur mon Syno. Mais vu les tarif incompréhensibles d’AWS, et les très mauvaises expériences de certains (ex:https://medium.com/@karppinen/how-i-ended-up-paying-150-for-a-single-60gb-download-from-amazon-glacier-6cb77b288c3e#.w582hjycu, j’ai vu pire mais je ne retrouve plus) j’évite leur services. L’imprédictibilité des factures est bien connue chez les utilisateurs d’AWS.
Il n’y a pas d’app (sur Syno) qui soit aware des lifecycles à froid chez d’autres fournisseurs. L’app de backup standard ne sait vraiment pas gérer. Peut-être peut-on configurer le lifecycle du stockage cloud pour ne pas casser l’app ? Par exemple : lifecycle appliqué uniquement au répertoire data, pas à l’index, et désactivation de la vérification d’intégrité périodique. Je n’ai pas poussé mes essais jusque là. De plus, si on veut s’assurer que le backup est efficace, il faut le tester manuellement au moins une fois par an. On doit pouvoir faire du sampling et ne pas tout restaurer pour limiter les coûts. A intégrer dans les coûts d’exploitation.
Note: j’utilise mon NAS comme backup local de mes appareils, pour des copies ponctuelles d’images d’appareils de ma famille (ils sont bien contents de ne pas tout perdre quand leur PC crash), et comme stockage principal des données moins importantes. Il y en a pour quasi 6 To au total. Le stockage cloud vient comme backup du NAS (stratégie: une copie live, plus une copie locale rapidement accessible, plus une copie distante en cas de désastre). Pour la partie Cloud, j’ai utilisé alternativement HubiC et Amazon Drive (l’offre illimité à 70€/an), mais ce ne sont plus des options aujourd’hui (Amazon a changé sa grille de prix, HubiC ne fonctionne plus avec les Syno et est en fin de vie).
Je suis donc curieux du setup de ceux qui ont réussi à exploiter efficacement le stockage à froid.
Le
20/05/2020 à
14h
21
La grande question est “comment exploite-t-on les stockages à froid ?”. Si on utilise un outil de backup compatible S3 et qu’on active les fonctionnalités de lifecycle sur le stockage S3, alors au bout de quelques jours les blocs/fichiers non modifiés vont être archivés. L’outil de backup ne pourra alors plus y accéder, ce qui fera échouer les backups si leur accès en lecture est nécessaire. Et même problème en pire pour une restauration : ces outils ne listeront pas les fichiers qu’il faut réchauffer. Il planteront lamentablement au premier fichier froid nécessaire. On le réchauffe manuellement, on attend 10min, 1h, 12h, on relance, ça plante sur le second, etc. Alternative : on réchauffe tout et on en paye le prix, ça augmente le prix de la restauration.
Il semble que le workflow standard pour utiliser le stockage à froid, et d’avoir en permanence un backup chaud (au prix du chaud, donc) et d’en faire régulièrement des snapshots froids. On paye 2 fois.
Qu’y a-t-il comme bon outil pour exploiter intelligemment le stockage à froid ?
Ils payent leurs avocats avec les 25% censés être utilisés « à la diffusion du spectacle vivant, au développement de l’éducation artistique et culturelle et à des actions de formation des artistes »…
Monsieur Jérôme Letier, directeur de l’Agence Nationale des Titres Sécurisés, ferait mieux de s’attaquer aux margoulins qui squattent le mot clef “ANTS” sur Adwords et compagnie, pour arnaquer les gens qui cherchent d’urgence à déclarer volés les papiers d’identité qu’ils viennent de se faire dérober. Il y en a deux à l’heure où j’écris… Leurs pubs sont gentiment affichées au-dessus du résultat naturel (ants.gouv.fr), avec un look tout à fait similaire aux résultats normaux. Maman Michu s’y est faite prendre la semaine dernière. Grrr.
Pourquoi les banques et le eCommerce font-ils ce nettoyage mais pas l’ANTS ? Ça éviterait plus de fraude que de mettre toute son énergie dans des solutions hightech qui ne servent qu’à faire bander les starteupeurs d’état de Macronie : avant d’authentifier les gens avec 50 facteurs, il faut déjà s’assurer qu’ils arrivent sur le bon site !
PC INpact, puis Next INpact, c’est mon petit plaisir quotidien, ma principale source d’information sur l’actualité techno sous toutes ses facettes. Matériel, logiciel, services en ligne, législation, tout y passe. Du journalisme, pas des publireportages. Continuez comme ça !
54 commentaires
Moteurs de recherche : Google viole la loi américaine sur les monopoles
06/08/2024
Le 06/08/2024 à 13h 04
Si Google ne peut plus payer pour être le moteur de recherche par défaut, Mozillla perd 90% de son financement, non ? Cette décision ne signe-t-elle pas la mort de Firefox ?Le fisc se met au webscrapping, fuzzymatching et au datamining
03/11/2022
Le 04/11/2022 à 20h 36
C’est quand même dingue de devoir en passer par du scraping pour obtenir les données d’autres pays de l’UE…
FranceConnect déconnecte Ameli en raison de problèmes de sécurité informatique
02/09/2022
Le 05/09/2022 à 18h 04
D’où l’intérêt de le mettre sur France Connect… Les 7 sites en profitent d’un coup, sans changement de leur côté.
Le 05/09/2022 à 18h 02
J’avais déjà des comptes sur ameli, impots, et d’autres, avant que France Connect ne soit créé. Je ne dois pas être le seul. Le facteur de risque n’est peut-être pas multiplié par 7 car personne n’a un login ur chacun des 7 sites, mais quand même. Si un seul des sites sur lesquels j’ai un mdp ne fait pas correctement son boulot pour bloquer les brute force et autres attaques, tous les autres sites sont mis en risque. Et ils n’ont aucun moyen de voir qu’il y a eu 10000 échecs d’auth avant le login réussi. Ils n’ont probablement même pas les logs pour investiguer. Tous ces services ne sont peut-être pas aussi bien financées que les impots. Certains doivent être obligés de transiger avec les bonnes pratiques. Je trouve ça risqué.
Je persiste à penser que France Connect devrait être un IDP avec un unique set de login/mdp qui lui serait propre. Une équipe dédiée, un financement dédié. Et ils peuvent travailler à rendre ça plus robuste. On pourrait même imaginer utiliser la CNI version carte à puce pour de l’auth sécurisée.
Le 02/09/2022 à 09h 00
Ca me semble être un problème général avec France Connect. On peut s’authentifier sur tous les sites administratifs avec les login/mdp de n’omporte lequel des 7 sites embarqués sur France Connect. Ca fait 7 fois plus de chances de réussir un credential stuffing. France Connect devrait avoir ses propres login/mdp, avec MFA (et pas que de l’OTP, des trucs plus modernes comme WebAuthn et Passkeys).
Le fonctionnement de la rédaction de Next INpact, les évolutions à venir
05/07/2022
Le 06/07/2022 à 19h 41
Tout à fait. En plus ça fait un fil rouge sur plusieurs semaines. Le format est super.
Le 05/07/2022 à 18h 31
Et pourquoi pas le traiter 2x par jour, avec des publications planifiées (un article toutes les xx minutes) ?
Next INpact est en réel danger de mort
01/07/2022
Le 05/07/2022 à 12h 24
Dans ce cas il faudrait peut-être saucissonner un peu les articles les plus longs. En l’état c’est triplement contre-productif: 1/ beaucoup de temps passé à rédiger un unique article plutôt que d’en avoir fait plusieurs sur plusieurs sujets, 2/ beaucoup de gens ne lisent pas l’article car ils n’ont que 5 minutes, 3/ perte de SEO.
Dans la même veine, faudrait-il publier LeBrief en temps réel ? Faire venir les gens plus souvent leur donnerait l’impression que le site leur est plus utile. Ils auraient peut-être plus tendance à s’abonner (je rêve peut-être).
#Flock cherche la petite bête… et la trouve !
11/06/2022
Le 11/06/2022 à 12h 09
Contrepèterie parfaitement placée dans le dernier. GG
Zero Trust : les pistes du Cigref pour une sécurité renouvelée
09/02/2022
Le 11/02/2022 à 20h 22
Tout à fait d’accord, le zéro trust, c’est un peu du périmétrique avec autant de périmètres que d’applications (voire plus). Si on n’est pas capable de faire du périmétrique sur un seul périmètre, ça ne va pas mieux marcher en multipliant le travail par un facteur 100+.
Multipass 1.8 : comment lancer simplement un Ubuntu virtualisé sur un Mac M1
19/11/2021
Le 19/11/2021 à 19h 25
Tu as Lima qui marche plutôt bien: GitHub.
Le homedir sous MacOS est automatiquement monté en SSHFS comme homedir sous Linux. Ca marche super bien. Par contre, je crois que c’est de la ligne de commande seulement.
OVHcloud coupé du monde (en IPv4) : retour sur une panne à l’échelle mondiale
13/10/2021
Le 13/10/2021 à 20h 43
Passer au multi-cloud n’est pas qu’un problème de budget. Le faire revient à se restreindre au plus petit dénominateur commun entre les fournisseurs. On se prive alors du bénéfice des milliard de dollars/euros investis annuellement dans la R&D par les hyperscalers.
De plus, le multi-cloud augmente la complexité des déploiements. Et l’expérience montre que plus de complexité va de pair avec moins de disponibilité et moins de sécurité.
Paris 2024 : des J.O. en France, le cloud chez le chinois Alibaba
15/09/2021
Le 15/09/2021 à 18h 53
Je doute qu’on puisse acheter un Pepsi sur place, et je ne ne serais pas surpris que les bouteilles/cannettes soient filtrées à l’entrée comme au cinéma, “par sécurité”. En tous cas les t-shirts Pepsi ne passent pas : https://www.challenges.fr/sport/aux-jo-mieux-vaut-ne-pas-porter-un-t-shirt-pepsi_5095
SPF, DKIM et (DM)ARC dans les emails : Free au top, Orange ne tient pas ses promesses
07/09/2021
Le 08/09/2021 à 19h 11
Part curiosité, qu’est-ce que tu as de différent par rapport à:
Le 08/09/2021 à 19h 09
Il y a d’autres moyens pour ça :
https://securitytrails.com/list/cname/aspmx.l.google.com
Si tu peux importer un fichier de conf au format de Bind, c’est faisable. Il me semble que ça marche chez Gandi, par exemple.
Je suis curieux de savoir ce que des spécialistes du mail conseilleraient : plusieurs PTR, ou bien un PTR qui ne match pas.
Ça résume beaucoup de chose en informatique et ailleurs :-)
Le 07/09/2021 à 19h 06
J’ai un A avec mon domaine chez Zoho.
Si ça peut aider:
DNSSEC: activé
MX: 3 serveurs chez 2 hébergeurs différents (mx*.zoho.eu)
SPF: strict avec 1800 IP autorisées
DKIM: présent
DMARC: quarantaine avec reporting
Autoconfig:
Le 07/09/2021 à 18h 59
On peut mettre plusieurs enregistrements PTR sur une même IP, mais c’est vrai que je n’irais pas jusqu’à en mettre plusieurs milliers. Donc on peut aligner reverse DNS et domaine d’envoi, mais dans certaines limites seulement.
Concours Next INpact de rentrée : qui sont les gagnants ?
13/09/2021
Le 07/09/2021 à 18h 49
Avec un peu de chance…
Licence collective étendue, enseignement, fouille de textes… le projet d’ordonnance de transposition
30/06/2021
Le 01/07/2021 à 19h 19
Donc on peut monter un organisme de gestion collective des musiques d’attente de téléphone, qui représentera par défaut tous les auteurs/artistes/interprètes de ces musiques, décider d’un barème
à la conavec une méthode aussi scientifique que celle de Copie France, puis réclamer de l’argent à tous les organismes de gestion de droits d’auteurs/voisins, tous les ministères, tous les sièges de partis politique, toutes les mairies, toutes les permanences de députés et sénateurs, puis les attaquer en justice quand ils ne paient pas ?Chiche !
Windows 11 a tout à prouver
25/06/2021
Le 25/06/2021 à 21h 40
Pas grand-chose de personnel? Vraiment ? Il n’y a aucun mot de passe sauvegardé dans ton navigateur ? Aucun cookie de session toujours valide permettant d’accéder à ta boite mail, et par là de prendre le contrôle de tes comptes sur tous les services que tu utilises (reset du mdp par email) ?
Un chiffrement de disque 100% transparent, avec un impact minimal sur les perfs, pourquoi s’en passer ?
Le P2P et le copyright troll devant la justice européenne
18/06/2021
Le 19/06/2021 à 12h 00
Est-ce toujours vrai après que Mircom a associé ces données aux noms des fichiers et des œuvres ? Tiens, un homme qui ne télécharge que du gay porn ; que peut-on inférer ? Il me semble que le RGPD considère l’orientation sexuelle comme une donnée non seulement personnelle, mais surtout sensible…
Copie privée : le gouvernement réfléchit à un chèque « reconditionné » de 10 euros
09/06/2021
Le 10/06/2021 à 19h 35
1- Le taux d’utilisation du chèque n’atteindra jamais 100%, donc il peuvent prétendre compenser alors que ce n’est pas le cas.
2- Le chèque est payé par nos impôts. La RCP n’est pas une taxe/impôt. Le chèque compense la RCP. Ça permet de financer l’industrie musicale avec nos impôts tout en prétendant financer l’économie circulaire. Un magnifique greenwashing. Tu le vois mieux l’intérêt ?
Les pays du G7 s’accordent sur un taux d’imposition minimal de 15 % sur les sociétés
07/06/2021
Le 07/06/2021 à 10h 50
Je trouve plutôt vertueux qu’une entreprise qui réinvestit tous ses bénéfices dans la R&D ne soit pas taxée. Si Sanofi avait fait ça sur les 10 dernières années, on aurait peut-être eu un vaccin anti-Covid français… Troll mis à part, les investissements de R&D d’aujourd’hui sont les profits de demain et des salaires aujourd’hui, qui sont taxés. Taxons plutôt les rachats d’actions et autres malpratiques financières.
Signify : l’application Philips Hue « reconstruite à partir de zéro », avec de nouvelles fonctionnalités
04/06/2021
Le 04/06/2021 à 11h 05
Toujours pas de version Windows ou MacOS. Dommage…
Tester du matériel « Pro » en France, c’est parfois compliqué
17/05/2021
Le 17/05/2021 à 11h 07
Merci pour tout votre travail. Le pari est réussi : le ton est vraiment unique, et très intéressant. Continuez comme ça !
La CNIL retoque (encore) le méga-fichier biométrique des « gens honnêtes »
17/03/2021
Le 17/03/2021 à 19h 55
On conserve les données des citoyens pendant 15 ans et celles des force de l’ordre doivent être jetées après 6 mois ? Ne devraient-ils n’avoir “rien à cacher” eux non plus ?
Lettre ouverte et pétition contre la redevance Copie privée sur le reconditionné
17/02/2021
Le 19/02/2021 à 19h 16
Il me semble qu’il y a maintenant un nouvel acteur à prendre en compte. Donc il faut réformer la commission: 12 ayant droit, 6 consommateurs, 6 industriels du neuf, ET 6 industriels du reconditionnement. Sur un malentendu, ça pourrait passer :-)
Apple va servir de proxy à Google Safe Browsing dans Safari
17/02/2021
Le 19/02/2021 à 19h 08
Entre les mises à jour système, les mises à jour d’applications, la télémétrie, iCloud, les emails @me.com, les validation d’applications à leur lancement (cf. l’actualité récente quand le système est tombé en panne), etc., Apple a déjà les adresses IP. Donc ils ne gagnent pas grand-chose à ajouter cette “collecte”.
S’ils font proxy correctement, Apple ne peut observer le contenu de la requête*, et Google ne connait pas son origine. Donc ni Apple ni Google n’ont l’info complète. C’est plutôt astucieux.
*Dans mes souvenirs il s’agit d’un hash de tout ou partie de l’URL, mais on doit bien pouvoir inférer des choses: Google crawl tout l’internet régulièrement, ils peuvent précalculer une quantité de hash.
Alerte de l’ANSSI : Centreon ciblé par des pirates, « plusieurs entités françaises » compromises
16/02/2021
Le 16/02/2021 à 12h 17
Le chemin de compromission n’est pas connu. Le logiciel ne semble donc pas avoir été backdoré comme SolarWinds. Et on ne sait donc pas si l’attaquant utilise une faille dans le logiciel, ou bien s’il a pris le contrôle des serveurs par un autre moyen et utilise Centreon pour se déplacer latéralement. C’est une cible de choix pour cette activité, comme tout autre solution de gestion centralisée de parc : serveurs de déploiement de patchs, scanners de vulnerabilités, serveurs Puppet/Ansible/Chef, software d’inventaire IT, ordonnanceurs de batch, contrôleurs de domaine, et aussi serveurs de CICD type GitLab ou Jenkins (surtout quand toute l’infra est déployée en l’infrastructure-as-code).
Côté versions, on n’a observé de compromission qu’avec des versions de Centreon inférieures ou égales à la 2.5.2, mais ce n’est qu’une somme d’observations, pas des conclusions : impossible de conclure tant qu’on ne connait pas le chemin de compromission.
Mozilla confirme : Firefox pour ordinateur ne gèrera pas les Progressive Web Apps
29/01/2021
Le 01/02/2021 à 11h 42
Mais ils n’y prennent pas 30% de la vente…
En tous cas Firefox aurais pu être le champion qui permet les extensions sur les PWA, et ainsi pousser toute l’industrie à les supporter. Ce ne sera pas le cas.
Le 01/02/2021 à 08h 07
Ils font ça pile au moment où Chrome fait l’inverse : il devient possible d’enregistrer une PWA comme cible de Web Share sur desktop.
https://blog.chromium.org/2021/01/chrome-89-beta-advanced-hardware.html?m=1
Sécurité globale : une commission indépendante chargée de réécrire l’article 24, les députés LREM court-circuités
27/11/2020
Le 27/11/2020 à 12h 27
L’article 25 existe déjà : droit pour les policiers de porter leur arme en dehors du service, dans les établissements accueillant du public, et non-opposable (contrairement aux US).
http://www.slate.fr/story/197492/loi-securite-globale-article-24-25-controverse-polemique-port-arme-police-forces-ordre-etats-unis
Les utilisateurs de macOS Big Sur pistés par Apple ? Ce n’est pas aussi simple…
17/11/2020
Le 17/11/2020 à 22h 05
Firefox distribue de manière proactive une CRL agrégeant toutes les CRL de toutes les CA (https://blog.mozilla.org/security/2020/01/21/crlite-part-3-speeding-up-secure-browsing/). Apple pourrait s’en inspirer s’ils le voulaient…
Vers une interdiction du Black Friday ?
09/11/2020
Le 09/11/2020 à 12h 42
Moi aussi, tout le monde ou presque a le masque. Mais beaucoup l’ont à la main, sous le menton, ou sous le nez. La barrette métallique n’est pas pincée, laissant un bel espace autour du net pour laisser l’air. Et c’est sans compter sur ceux avec qui tu t’engueule pour qu’ils ne se mettent pas à moins de 50cm de toi sans leur masque dans la file d’attente. Ils ne se lavent sûrement jamais les mains non plus. Et puis tous ceux qui pense que ceci n’est qu’un complot pour mieux contrôler la population… Pas étonnant que le virus se répande.
Identité numérique : Alicem a le seum
28/10/2020
Le 28/10/2020 à 20h 32
Bienvenu chez les
SSIIESN françaises… On comprend pourquoi on voit passer des fiches de postes demandant 3 ans d’expérience, mais des connaissances d’une variété et d’une profondeur qui ne s’acquièrent qu’avec 10 ou 15 cumulés.Hébergeons (gratuitement) un site statique avec accès sécurisé
19/09/2020
Le 19/09/2020 à 13h 12
Je prends beaucoup de plaisir à lire ces articles qui nous mettent le pied à l’étrier sur un sujet. Merci beaucoup NI !
Mailo : un webmail français riche en fonctions, en manque de modernité
04/09/2020
Le 05/09/2020 à 21h 53
Surtout que le site Microsoft en question l’acceptait à une certaine époque. Je ne t’explique pas les problèmes quand tu ne peux plus te logguer à cause de ça…
Chez Bouygues Telecom et SFR, DKIM et DMARC ne concernent que les emails entrants
02/07/2020
Le 02/07/2020 à 13h 33
Charge ensuite à chaque business de décider du niveau de sécurité qu’il veut. Si une banque préfère rembourser des phishings qui lui coûtent 10000€ par victime, c’est son problème. Quand un fournisseur grand public ne gère pas à l’entrée, elle rembourse la victime et ne peut ni améliorer sa sécurité ni se retourner contre le fournisseur.
Implémenter DMARC en mode quarantine ou strict sur les emails sortants est extrêmement compliqué. C’est trivial pour un micro business, ou si ça a été fait dès la création de l’entreprise, mais quand tu arrives après 20 ans d’existence en ligne, avec des centaines de BU qui ont chacune plusieurs (dizaines de) fournisseurs qui envoient des emails en leur nom, le chantier est colossal.
Donc autant je comprends que les gros FAI français ont du mal à implémenter DMARC sur les emails sortants, autant sur l’entrant il est inadmissible qu’ils ne l’aient pas fait plus tôt.
Le 02/07/2020 à 11h 00
Appliquer DMARC sur les emails entrants est très important chez un fournisseur de mail grand public : ça protège leurs clients des emails usurpant le domaine de leur banque, des imports, de la CAF, de leur plateforme de commerce en ligne où leur carte bancaire est préenregistrée.
Bref, ça protège leur clients d’un très grand nombre d’arnaques qui peuvent leur faire perdre gros.
Après, quand ils reçoivent un mail de [email protected], ce n’est peut-être pas tatie Danièle qui leur parle. La belle affaire.
Protection contre le phishing et le spoofing d’email via SPF et DKIM : une faillite française
17/06/2020
Le 17/06/2020 à 22h 21
Aucune idée. Je travaillais pour une banque de détail. Nos clients avaient donc en majorité des adresses chez un GAFAM ou chez un FAI français, et je ne me souviens pas avoir vu passer des adresses pro issues de boites américaines.
Cela m’énervait au plus haut point de voir que les FAI français ne faisaient pas le taf. Surtout que l’intérêt principal de DMARC n’est pas seulement d’appliquer une politique antispam, mais aussi de faire du reporting vers le propriétaire du domaine usurpé : on obtient des stats agrégées de qui envoie quel volume de mail en notre nom, et on obtient des copie des emails frauduleux en même temps que les clients les reçoivent. Le premier permet d’identifier plein de shadow IT. Le second permet de recevoir des échantillons des mails de phishing, et donc lancer un takedown sur un site de phishing quelques minutes après que le fraudeur a lancé son mailing de masse. Le pied !
Le 17/06/2020 à 11h 12
Lorsque j’avais déployé SPF/DKIM/DMARC dans une grande entreprise (jusqu’il y a 1 an), j’avais des retours des stats DMARC de tous les gros fournisseurs américains (Google, Microsoft), de petites entreprises françaises (même un CHU), mais les FAI français étaient aux abonnés absents. Donc nos clients qui avaient une adresse email chez Gmail & Co étaient protégés des phishings qui usurpaient notre domaine, ceux chez Orange et Free se faisaient bananer. Merci les FAI. Des entreprises minuscules peuvent déployer le reporting DMARC, des entreprises immenses le peuvent, mais ceux qui seraient en charge de protéger le citoyen, souvent avec des délégations de service public, laissent les gens dans la merde.
Sous-système Linux (WSL 2) de Windows 10 : comment l’installer et l’utiliser
02/06/2020
Le 02/06/2020 à 11h 49
Pas pour WSL2: Microsoft
Le 02/06/2020 à 10h 54
Il est intéressant de noter que même si WSL2 est basé sur de la virtualisation et que Windows Home ne permet pas de lancer des VMs Hyper-V, on pourra quand même utiliser WSL2 sur Windows Home.
Stockage en ligne, compatible S3, archivage : quel prix pour la conservation de vos données ?
20/05/2020
Le 21/05/2020 à 20h 08
Bon, je viens de passer quelques heures à creuser un peu plus la question.
J’ai configuré une
sauvegarde HyperBackup (outil natif de Synology) vers Scaleway, lancé quelques sauvegardes, puis ai changé manuellement (petit script à base de s3cmd) la classe de stockage des fichiers de données pour les passer en glacier. A première vue, ça marche. HyperBackup peut faire de nouvelles sauvegardes dont les fichiers viennent s’ajouter aux fichiers existants. Il peut aussi vérifier l’intégrité de la sauvegarde (seuls les fichiers d’index sont accédés, et eux sont restés en stockage standard). Mais…
Tout marche très bien jusqu’à ce
qu’HyperBackup tente de supprimer un ancien backup (rétention d’une sauvegarde par heure pendant 24h, une par jour pendant 30 jours, etc.). Catastrophe. A ce moment-là, le logiciel a
besoin d’accéder en lecture aux blocs contenant des données à supprimer, pour les compacter
(HyperBackup agrège les fichiers par blocs de 50 Mo) et les remplacer par un
nouveau bloc avec juste les fichiers qui sont toujours dans le lifecycle
de la sauvegarde. Ça plante au premier bloc à compacter. Pas d’option pour ne pas
compacter. HyperBackup semble définitivement incompatible avec tout support de stockage à froid.
L’application Glacier Backup native sur Synology ne permet pas de choisir d’autre fournisseur qu’AWS. J’ai l’impression qu’il n’y a vraiment aucune bonne option de ce côté.
Hors de l’écosystème Syno, Duplicati dispose d’une option pour ne pas compacter et être compatible avec des stockages à froid de type Glacier. Reste à voir si on peut le déployer sur un Syno ARMv7.
En espérant que ce retour d’expérience puisse servir à d’autres.
Le 20/05/2020 à 14h 57
En effet Glacier est une app à part sur mon Syno. Mais vu les tarif incompréhensibles d’AWS, et les très mauvaises expériences de certains (ex:https://medium.com/@karppinen/how-i-ended-up-paying-150-for-a-single-60gb-download-from-amazon-glacier-6cb77b288c3e#.w582hjycu, j’ai vu pire mais je ne retrouve plus) j’évite leur services. L’imprédictibilité des factures est bien connue chez les utilisateurs d’AWS.
Il n’y a pas d’app (sur Syno) qui soit aware des lifecycles à froid chez d’autres fournisseurs. L’app de backup standard ne sait vraiment pas gérer. Peut-être peut-on configurer le lifecycle du stockage cloud pour ne pas casser l’app ? Par exemple : lifecycle appliqué uniquement au répertoire data, pas à l’index, et désactivation de la vérification d’intégrité périodique. Je n’ai pas poussé mes essais jusque là. De plus, si on veut s’assurer que le backup est efficace, il faut le tester manuellement au moins une fois par an. On doit pouvoir faire du sampling et ne pas tout restaurer pour limiter les coûts. A intégrer dans les coûts d’exploitation.
Note: j’utilise mon NAS comme backup local de mes appareils, pour des copies ponctuelles d’images d’appareils de ma famille (ils sont bien contents de ne pas tout perdre quand leur PC crash), et comme stockage principal des données moins importantes. Il y en a pour quasi 6 To au total. Le stockage cloud vient comme backup du NAS (stratégie: une copie live, plus une copie locale rapidement accessible, plus une copie distante en cas de désastre). Pour la partie Cloud, j’ai utilisé alternativement HubiC et Amazon Drive (l’offre illimité à 70€/an), mais ce ne sont plus des options aujourd’hui (Amazon a changé sa grille de prix, HubiC ne fonctionne plus avec les Syno et est en fin de vie).
Je suis donc curieux du setup de ceux qui ont réussi à exploiter efficacement le stockage à froid.
Le 20/05/2020 à 14h 21
La grande question est “comment exploite-t-on les stockages à froid ?”. Si on utilise un outil de backup compatible S3 et qu’on active les fonctionnalités de lifecycle sur le stockage S3, alors au bout de quelques jours les blocs/fichiers non modifiés vont être archivés. L’outil de backup ne pourra alors plus y accéder, ce qui fera échouer les backups si leur accès en lecture est nécessaire. Et même problème en pire pour une restauration : ces outils ne listeront pas les fichiers qu’il faut réchauffer. Il planteront lamentablement au premier fichier froid nécessaire. On le réchauffe manuellement, on attend 10min, 1h, 12h, on relance, ça plante sur le second, etc. Alternative : on réchauffe tout et on en paye le prix, ça augmente le prix de la restauration.
Il semble que le workflow standard pour utiliser le stockage à froid, et d’avoir en permanence un backup chaud (au prix du chaud, donc) et d’en faire régulièrement des snapshots froids. On paye 2 fois.
Qu’y a-t-il comme bon outil pour exploiter intelligemment le stockage à froid ?
La SACD réclame de l’État 1M€/mois pour la diffusion en ligne des pièces de théâtre
29/04/2020
Le 29/04/2020 à 11h 12
Ils payent leurs avocats avec les 25% censés être utilisés « à la diffusion du spectacle vivant, au développement de l’éducation artistique et culturelle et à des actions de formation des artistes »…
Alicem : l’ANTS veut rassurer sur les risques liés au code à 6 chiffres et au clonage des téléphones
12/11/2019
Le 12/11/2019 à 23h 38
Monsieur Jérôme Letier, directeur de l’Agence Nationale des Titres Sécurisés, ferait mieux de s’attaquer aux margoulins qui squattent le mot clef “ANTS” sur Adwords et compagnie, pour arnaquer les gens qui cherchent d’urgence à déclarer volés les papiers d’identité qu’ils viennent de se faire dérober. Il y en a deux à l’heure où j’écris… Leurs pubs sont gentiment affichées au-dessus du résultat naturel (ants.gouv.fr), avec un look tout à fait similaire aux résultats normaux. Maman Michu s’y est faite prendre la semaine dernière. Grrr.
Pourquoi les banques et le eCommerce font-ils ce nettoyage mais pas l’ANTS ? Ça éviterait plus de fraude que de mettre toute son énergie dans des solutions hightech qui ne servent qu’à faire bander les starteupeurs d’état de Macronie : avant d’authentifier les gens avec 50 facteurs, il faut déjà s’assurer qu’ils arrivent sur le bon site !
Boutique de goodies : nouveau pack, nouveaux tarifs, les produits INpact Hardware sont là !
17/11/2018
Le 17/11/2018 à 12h 17
Toujours pas de tasse 2001 l’Odyssée du Geek par Flock… Sniff, j’en voulais une :-)
Concours des 15 ans : il vous reste jusqu’à demain soir pour participer et tenter votre chance
13/07/2018
Le 05/07/2018 à 19h 22
PC INpact, puis Next INpact, c’est mon petit plaisir quotidien, ma principale source d’information sur l’actualité techno sous toutes ses facettes. Matériel, logiciel, services en ligne, législation, tout y passe. Du journalisme, pas des publireportages. Continuez comme ça !