Bah ça fait un serveur SMTP uniquement joignable en IPv4 dans ce cas. C’est déjà mieux que chez les autres ISP (même si ça serait cool que ça fonctionne également en IPv6 en 2023…)
Le
06/10/2023 à
14h
30
fate1 a dit:
J’avais lu je ne sais où que le reverse DNS est indispensable concernant Gmail. Sans rDNS, tu es sûr de finir en spam.
Pas que chez GMail, beaucoup des fournisseurs de mails sont très méfiants des mails provenant de serveurs sans reverse-DNS, et à juste titre. Donc soit il faut utiliser un hébergeur compétent, qui permet de personnaliser le reverse de ses serveurs (Online le fait très bien), soit être chez Free (qui permet de personnaliser le reverse de sa Freebox) si on veut héberger à la maison (encore que beaucoup se méfient des blocs d’IP appartenant à des ISP grand public, encore une fois à juste titre)
Le
06/10/2023 à
12h
28
Tu as probablement raison. Il y a bien 15 ans que j’ai monté mon premier serveur mail, et déjà à l’époque, il était précisé un peu partout de bien enregistrer le reverse pour le serveur afin que le celui-ci ne rencontre pas de problème de livraison des mails, donc je pensais que c’est une règle établie.
Le
06/10/2023 à
11h
47
Les pires de pire sont Microsoft et ceux qui utilisent leur technologie (coucou yahoo). T’es plus ou moins obligé de payer pour pas que tes mails arrivent en spam chez eux, même si tu configures tout bien et que ton IP est clean…. Des vautours.
Bizarre, je n’ai jamais eu de réel souci avec les mails vers MS pour ma part. Ils fournissent même des outils plutôt efficaces pour diagnostiquer les causes si jamais souci il y a… Et j’aimerai bien savoir ce que tu serais censé payer pour que tes mails passent ? Je n’ai encore jamais entendu parler d’une telle option ;-)
Alors, c’est pas l’absence de reverse DNS qui va déclencher une inscription sur une blacklist. Par contre, il me semble que le reverse DNS est effectivement obligatoire pour un serveur SMTP pleinement fonctionnel (j’arrive pas à retrouver la RFC, si quelqu’un la connait 😕)
Le
06/10/2023 à
09h
28
Malheureusement leur algo désapprend aussi très vite. J’avais demandé à plusieurs personnes ayant une adresse gmail de marquer mes mails en “pas un spam” et ça à résolu le souci, mes mails étaient acceptés sur n’importe quelle adresse gmail. Le hic, c’est qu’avec mon serveur qui envoi 3 mails par an à Gmail cette solution est temporaire. Au bout d’un mois, tous mes mails finissaient de nouveau en spam chez Gmail.
Ce n’est pas un problème que j’ai constaté pour ma part. Depuis 2-3 ans je n’héberge plus mes mails moi-même, mais avant ça je l’ai fait pendant plus de 10 ans, et avec SPF et DKIM correctement configuré, mes mails n’ont fini en spam qu’extrêmement rarement, et je ne pense pas que j’envoie beaucoup plus de mails que toi 😅
Le
06/10/2023 à
08h
24
En même temps c’est normal. Ne pas avoir DKIM de configuré en 2023…
Et la doc de MS sur le sujet est très bien. La partie la plus longue du processus c’est la propagation des enregistrements DNS 😅
Le
06/10/2023 à
08h
15
Comme dit cyp, c’est pas aussi simple. J’ai eu serveur chez OneProvider (IP sur aucune liste noire) pendant des années sur lequel tournait un serveur mail, configuré comme il faut. 100% de mes mails finissaient dans les spam chez gmail et j’ai tout essayé pour solutionner ce problème mais rien n’y a fait. Yahoo et Hotmail acceptaient 100% de mes mails. Il y a quelque mois je suis passé chez OVH et j’ai rapatrié mon serveur mail sur mon serveur OVH. Même config (copié/collé des fichiers de conf), même nom de domaine, seule l’IP a changé. Depuis gmail accepte 100% de mes mails. Ma théorie c’est que Google a une liste noire interne et si tu es dans cette liste, tu finiras toujours en spam, quelque soit la configuration de ton serveur. Au final, il faut juste du bol (“bonne” IP ou “mauvaise” IP) pour ne pas finir en spam chez Gmail…
Oui, les subnets des hébergeurs peu regardant sur ce qu’ils hébergent (et qui donc hébergent beaucoup de spammeurs) vont être plus facilement classés comme spam. Mais si les destinataires récupèrent le mail dans leurs spams, et cliquent sur le bouton pour indiquer à Google que ce n’est pas du spam, leur filtre apprend assez vite.
Le
06/10/2023 à
08h
05
Mon expérience perso c’est que dès que SPF, DKIM et DMARC sont correctement configurés, les mails ne finissent (quasiment) plus jamais en spam chez Google.
Et il y a un gros bouton “Report not Spam” en haut de tous les mails classés comme spam. Je ne vois pas ce que tu veux de plus.
De part le mode déploiement, c’est pas demain qu’on aura le fichier teams2.0.msi :o
Y’a pas de MSI, mais tu peux trouver l’EXE sur cette page ;-) Microsoft
Oui bien sûr tu peux forcer Win11 à s’installer sur des ordis pas officiellement compatibles. Après dans la boite, même sous Windows 10 la règle c’est Bitlocker obligatoire. Et sans TPM, Bitlocker c’est chiant au boot…
Le
06/10/2023 à
12h
56
Il y a des CPU qui intègrent la gestion du TPM mais qui ne sont pas dans la liste de comptabilité pour Win11 établie par Microsoft
Oui et ? A quel moment ai-je parlé de CPU ? Mais effectivement, tu peux avoir le TPM dans le PC (que ce soit une puce spécifique, ou un fTPM intégré au CPU), si le CPU ne gère pas MBEC, il est incompatible, c’est vrai. Mais dans le cas des PC dont je parlais, les CPU sont compatibles ;-)
Le
06/10/2023 à
12h
32
Après il faut faire gaffe pour la soit-disant incompatibilité avec WIn11, au bureau ils ont failli bazarder des PC car ils n’avaient pas de puce TPM, alors qu’il “suffisait” d’aller l’activer dans le BIOS…
Si j’ai bien compris, l’exigence n’est pas de divulguer publiquement toutes les failles dès qu’on les trouve, mais plutôt de les signaler immédiatement aux instances publiques (par exemple l’ANSSI en France).
C’est la DGSI et la DGSE qui doivent être contente d’un tel texte
le vrai problème c’est que les logiciels pour les faire ne sont pas libres d’accès
En même temps, si n’importe qui peut appairer des pièces entre elles, quel est l’intérêt d’avoir le système à la base ?
Encore heureux que n’importe qui ne peut pas changer les capteurs biométriques d’un iPhone…
Le
26/09/2023 à
07h
16
De nombreux ateliers de réparation indépendants ont des modèles économiques qui sont menacés par la pratique d’appariement des pièces d’Apple
Après c’est cet appariement des pièces qui permet d’éviter que quelqu’un viennent brancher un capteur biométrique menteur pour déverrouiller votre téléphone sans votre accord, ou qui empêche qu’un téléphone volé soit revendu pour pièces, vu que ces pièces sont inutilisables… Donc ça n’a pas que des désavantages.
Ta comparaison est bonne mais des chaussures à 100€ que tu gardes 15 ans ça n’existe pas ^^ ou alors tu comptes les 13 années où tu continues à les utiliser pour faire le jardin.
Aujourd’hui on est plutôt sur des chaussures à 100 balles que tu gardes 2 ans.
Pour garder des chaussures plus longtemps il faut mettre bien plus et surtout il faut entretenir les chaussures régulièrement, ce qui prend du temps et de l’argent, et alterner au moins deux paires au quotidien.
J’avais essayé d’investir un peu et de faire durer mes chaussures mais j’avoue que j’ai laissé tomber ce combat, j’ai pas envie de vivre une vie où je dois faire attention à ne pas abîmer mes chaussures.
Alors si on parle de chaussures de fashion victim comme des AirMax, oui, t’as rien pour 100€, et même pour 200€ ça ne tient pas dans le temps.
Si on parle de chaussures de ville en cuir, pour 100€ tu en as, et à condition de nourrir le cuir de temps en temps (après une bonne pluie par exemple), ça tient très bien dans le temps. J’ai une paire de chaussures qui va sur ses 15 ans, en dehors d’un ressemelage après environ 8 ans (~20€ de mémoire), rien à signaler.
Le
14/09/2023 à
11h
47
Alors, si tu prends le temps de lire mes commentaires précédents, tu verras que je suis tout à fait d’accord avec toi. Juste par honnêteté intellectuelle, je préfère quand on compare ce qui est comparable ;-)
les Gammes A et F de chez Samsung A23 (Avril 2023). A noter que l’effort de Samsung est louable de mettre de l’USB 3, appuyé par sa fonction DEX (qui a bien murit partait-il).
En fait un packet de téléphones, de l’entrée comme du milieu de gamme android.
Après on va éviter de comparer du bas de gamme avec des téléphones à 1000€ 😅
C’est pas parce que je comprend tout à fait la décision d’Apple vu ce que ça aurait nécessité pour avoir l’USB3 sur les modèles non Pro, que je ne suis pas un tout petit peu déçu que ce soit toujours de l’USB 2 (même si ça ne m’aurait jamais servi, soyons honnêtes).
Je suis beaucoup plus gêné par l’absence de support hardware de l’AV1 par exemple, ça c’est quelque chose qui peut avoir un réel impact d’ici 2-3 ans…
Le
13/09/2023 à
21h
46
Ouais t’as raison, ils font grave reculer la tech… S’ils n’étaient encore jamais passé à l’USB 3, c’est que ça fait des années qu’ils misent sur le tout sans fil. C’est les premiers à avoir vraiment misé sur le WiFi à l’époque (ouais ça remonte). Les bornes Airport de 1999 étaient pas parfaites, mais elles avaient le mérite d’exister, dans un monde quasi 100% filaire.
Ha et j’ai aussi oublié de préciser : qui a adopté et démocratisé l’USB en premier ? C’est pas l’iMac par hasard ?
Le
13/09/2023 à
21h
33
Matthieu26 a dit:
Une montre classique n’a pas d’obsolescence et réalise parfaitement la tâche demandée.
Donc tu sais quelle tâches je demande de ma montre ? Pour info, ce n’est pas lire l’heure. Avant de passer à l’Apple Watch, ça faisait des années que je ne portais plus de montre.
Le
13/09/2023 à
21h
31
L’année dernière ils utilisaient encore des cables lightning tous pourris qu’ils vendaient super cher et sur lesquels ils margeait comme des gros sales. Sauf que les cables lightning, ils savent faire passer que de l’USB 2.0.
Je déteste Apple et la philosophie associée. C’est une entreprise qui fait plus de mal au monde de la tech qu’elle ne le fait avancer selon moi. A minima, la société devrait être pointée du doigt par tout le monde pour faire une transition USB 2.0 vers USB 3 en 2023…
La limitation présentée est juste logique par rapport aux specs techniques et aux choix de composants.
Ouais t’as raison, ils font grave reculer la tech… S’ils n’étaient encore jamais passé à l’USB 3, c’est que ça fait des années qu’ils misent sur le tout sans fil. C’est les premiers à avoir vraiment misé sur le WiFi à l’époque (ouais ça remonte). Les bornes Airport de 1999 étaient pas parfaites, mais elles avaient le mérite d’exister, dans un monde quasi 100% filaire.
Le
13/09/2023 à
21h
20
Mouais, autant j’adhère pas à tout le greenwashing d’Apple, autant l’obsolescence programmée qu’on nous ramène à chaque fois qu’on parle d’Apple, je ne la vois pas dans les faits.
Ma première Apple Watch, une Series2 (sortie en 2016), fonctionne toujours. Elle en est à son troisième propriétaire et n’a aucun souci. Ok, aux dernières nouvelles, la batterie devient un peu faiblarde et ne tient plus que la journée en utilisation normale, il va falloir la changer (la batterie, pas la montre). Mon Apple Watch actuelle une Series 4 (sortie en 2018 donc), fonctionne parfaitement également, et va normalement fonctionner encore des années; à moins de la casser bien entendu, mais vu ce que je lui ai fait déjà subir, et qu’elle est toujours en parfait état, je ne m’inquiète pas trop.
Je me focalise sur la Watch, car c’est le produit qu’ils présentent comme étant “carbon neutral”, mais je fais les mêmes observations sur les iPhones.
Le
13/09/2023 à
21h
08
Wosgien a dit:
Le débit USB 2.0 est déjà très bon.
Alors là je suis pas d’accord. L’USB 3 est largement plus rapide (10Gbps contre 480Mbps…).
Et les iPhone ont pas un stockage eMMC ultra lent, ils seraient capables d’augmenter substantiellement les débits de transfert avec l’USB3.
Mais c’est pas pour autant que ça justifiait de refaire un SoC alors qu’ils en avaient déjà un qui fait le job.
Cqoicebordel a dit:
Source ?
Ma source c’est les chiffres de vente des iPhone alors qu’ils n’ont toujours eu que de l’USB2. Et aussi le fait que connaissant quand même du monde avec des iPhone, aucun ne le branche pour autre chose que le charger.
Le
13/09/2023 à
21h
03
Tu racontes tellement n’importe quoi. Aucun sens en quoi ? Cela a plus de sens d’avoir ENCORE de l’USB 2.0 en 2023⁄2024 ??? L’USB 3.0 c’est de 2008 hein.
Sinon avec ton argumentaire incohérent, pourquoi ne pas laisser de l’USB 2.0 sur le dernier SOC ? Si tout le monde s’en fout, fallait garder en legacy ce truc.
Pourquoi parler de fanboy Android alors que tu es de toute évidence un fanboy Apple ? Regarde toi dans une glace.
Note: c’est ma dernière réponse, je te laisse planer sur ta planète. Adios et bienvenu dans ma blacklist.
Oui, ce soir je suis un fanboy Apple, et demain dans d’autres commentaires, on m’étiquettera de fanboy Microsoft, et dans quelques jours je serais un suppôt de Stallman…
Ça ne fait aucun sens car ils ont déjà le SoC, ils en ont déjà tout un stock de produit, et les chaînes de productions si besoin de plus (les masques de photolithographie c’est ultra simple à faire, par exemple !) S’ils partaient de zéro, bien sûr que partir sur de l’USB2 serait totalement con. C’est d’ailleurs pour ça que l’A17 a un contrôleur USB3. Mais là, vu qu’ils réutilisent le SoC du Pro de l’année dernière (comme depuis des années), il serait stupide de perdre du temps et de l’argent pour un truc donc tout le monde se fout.
Le
13/09/2023 à
20h
43
Pour pas avoir l’air con et proposer de l’USB-C avec un débit USB 2.0 ? On parle d’une entreprise loin d’être pauvre, qui maitrise son SOC et son design interne, et qui vend l’iPhone 15 avec USB 2.0 à… 800€.
Mais continue de trouver des excuses à ce petit artisan.
Mais ce que tu n’as pas l’air de comprendre, c’est que même si c’était sûrement techniquement possible, ça ne fait absolument aucun sens !
Pourquoi perdre du temps et de l’argent pour faire évoluer un SoC pour lui ajouter une fonctionnalité dont la TRÈS grande majorité des utilisateurs se contrefout ? Les seuls qui s’y intéressent réellement ce sont les fanboys Androïd car ça leur fait une cartouche facile, mais ils ne sont pas clients, donc on s’en moque, en fait.
Le
13/09/2023 à
20h
32
C’est un de leur cœur de métier maintenant. Complexe ou pas c’est à eux de s’en occuper. Cette segmentation forcé est de toute évidence un coup marketing plus qu’un problème d’ingénierie.
Et encore une fois tu arrêtes pas de parler du SOC mais sans prouver que c’est lui qui gère l’USB. Si t’as un lien partage.
Bah regarde la conférence Apple, y’a un schéma du SoC sur un des slides, avec le controleur USB mis en évidence.
Et pourquoi ils dépenseraient des thunes à designer un nouveau SoC juste pour rajouter de l’USB3 qui ne sera utiliser que par une infime partie des utilisateurs ? Pour ensuite devoir produire en même temps les deux SoC (Pro et non Pro), alors que là les A16 que tu as dans les iPhone 15 de base, ils sont produits depuis longtemps. Dépenser des sommes folles pour un truc qui ne servirait pas à grand chose, c’est ça qui serait stupide.
Le
13/09/2023 à
20h
21
Cela justifie rien du tout. Apple serait incapable de changer un bout du SOC pour le rendre compatible USB 3 ? Que ce soit une puce externe interfacé sur le SOC ou le SOC lui-même c’est hors sol, surtout à ce prix.
En tout cas je cherche quelqu’un qui aurait décortiqué le fonctionnement d’un PCB d’iPhone 14 pour piger le niveau de foutage de gueule. Si quelqu’un a ça sous la main.
Tu as raison, modifier un SOC aussi complexe ça se fait juste en claquant des doigts, les ingénieurs chez Apple ils sont vraiment trop bêtes…
Le
13/09/2023 à
20h
19
Désolé de te le dire, mais tu fais partie de la minorité. C’est quand même beaucoup plus simple de pousser directement toutes les photos vers vers le backup dès qu’elles sont prises, via WiFi et/ou 4G/5G.
C’est pas les options qui manquent : Les options GAFAM (iCloud, GDrive, Onedrive, …), les alternatifs (MEGA, Cozy, Leviia, HiDrive, …), le self-hosted (NextCloud, le NAS à la maison, …).
Plus simple que de devoir régulièrement brancher le tel pour transférer vers un DD externe, et pas de risque de perte de données entre chaque sauvegarde.
Après, chacun fait comme il veut, et c’est sûr que pour ceux qui font comme toi, l’USB3 aurait été appréciable. Mais il va arriver l’année prochaine quand l’iPhone 16 utilisera l’A17 ;-)
Le
13/09/2023 à
20h
06
Alors, oui, c’est cher. Mais c’est malhonnête je trouve de comparer le prix d’un objet que tu peux garder sans problème 4 ans (je sais, certains les changent plus souvent, mais honnêtement ça peut se garder bien plus que 4 ans), à un unique mois de salaire.
En partant sur un amortissement sur 48 mois, ça donne: iPhone 15……….. 20,19 €/mois iPhone 15 Plus…… 23,31 €/mois iPhone 15 Pro……. 25,60€/mois iPhone 15 Pro Max… 30,81 €/mois Smic mensuel Net…. 1383 €
Et c’est valable pour tous type d’objets, pas que les smartphones. D’ailleurs, quand tu prends tes décisions d’achat en prenant en compte la durée de vie prévisible de l’objet, tu prends rarement l’entrée de gamme. Il vaut mieux acheter 100€ une paire de chaussures qui va durer 15 ans, que 10€ une paire qui tiendra à peine l’année. Malheureusement quand on prend l’entrée de gamme, c’est rarement par choix 😓 Wikipedia
Le
13/09/2023 à
16h
41
Et ils ont sortis ce SoC l’année dernière. Qui, en 2022, vendait encore de l’USB 2.0 ?
C’était ridicule l’année dernière, ça l’est encore plus cette année.
Ca me fait marrer tous les gens aujourd’hui qui sont en mode “Quoi ! Pas d’USB 3 sur les iPhone de Base 😱” 🤣
Je suis certains qu’ils sont tous sur Android et n’achèteraient pas d’iPhone même s’il y avait l’USB3
Personne ne fait des transferts filaires depuis un iPhone, et ce depuis des années. Tout est sans-fil, et c’est tant mieux
Pour les quelques personnes pour qui ça fait sens, il y a la gamme Pro (les seuls à pouvoir générer des fichiers assez gros pour que le passage à des transferts filaires en USB3 fasse sens, avec des fichiers vidéo ProRAW)
Si vous n’aimez pas, achetez pas. Enfin comme dit au point 1. je suis certains que ceux qui crient au scandale n’achèteraient pas un iPhone quoi qu’il arrive.
Merci. J’aurais pensé que l’antenne (du réseau) était capable de dire au mobile qu’elle le capte mal et qu’il doit augmenter sa puissance d’émission, par exemple. Une vision naïve du fonctionnement choisi, c’est comme si on criait plus fort quand on n’entend pas bien son interlocuteur (peut-être que certains font ça au téléphone remarque :-) ).
Après, c’est basé sur des cours que j’ai suivi il y a plus de 15 ans, portant sur une technologie (GSM) qui avait déjà quasiment 20 ans, donc les probabilités que je me souvienne mal, ou que le fonctionnement avec les normes actuelles (4G/5G) a changé, sont non nulles 😅
Le
14/09/2023 à
16h
54
OlivierJ a dit:
Même question quand tu parles de “pousser le niveau d’émission” alors que la réception est mauvaise.
Alors si je me souviens bien de mes cours de télécoms (ça date, on étudiais la norme GSM à l’époque), en conditions de faible réception, le modem augmente son gain sur la réception (jusqu’à se retrouver avec trop de bruit, moment où on perd la connexion), et émet également plus fort. C’est ce qui explique que nos téléphones se déchargent plus vite quand on capte mal.
Le
13/09/2023 à
12h
42
Plus probablement des instances de contrôles sous-financées qui n’ont pas la capacité de faire correctement leur boulot.
Et potentiellement, même si ce n’est qu’une supposition de ma part, un peu de complaisance vis-à-vis d’Apple sur ce coup là :-/
Le
13/09/2023 à
09h
13
Donc baisser la puissance max de la puce modem va augmenter la conso ? Je veux bien que tu m’expliques la logique.
C’est surtout que dans des conditions de mauvaise réception, où l’iPhone aurait poussé son niveau d’émission mais aurait continué à être connecté, tu n’auras tout simplement pas de réseau.
(quote:2152663:alex.d.) Je n’ai jamais essayé, mais avec mon laptop Dell qui refuse de booter s’il n’a pas authentifié correctement le bloc d’alimentation, ça doit être comique si on le met sur un dock HP.
J’utilise régulièrement mon laptop Dell pro avec le chargeur de mon Lenovo perso, et je n’ai jamais eu de souci. Et autant je n’ai pas testé un dock HP connecté au Dell, autant je peux t’assurer que le dock Dell WD19 fonctionne sur un HP.
EDIT : Si il y a un souci : le Dell se plaint que le chargeur Lenovo est pas assez puissant (il ne fait que 60W), mais il charge quand même, juste plus lentement.
Le
13/09/2023 à
20h
46
Ha, et autres avantages (en tout cas sur les WD19 que j’utilise) : si tu casses le câble, tu peux juste changer le câble. Alors que les stations d’accueil à l’ancienne, fallait changer toute la station.
Le
13/09/2023 à
20h
29
C’était vraiment de la merde les “vraies stations d’accueil” ouais…
Déjà même au sein d’une même marques, c’était pas compatible avec tous les modèles, alors entre marques je ne t’en parle même pas ! Ensuite c’était pas si robuste que ça, car parfois ça s’insérait mal, donc t’avais toujours un idiot pour forcer et hop, suffit de casser un petit bout de plastoc et après aucun PC ne tient en place sur le dock.
Au moins avec les docks USB-C/TB c’est à peu près compatible entre toutes les marques (mes stations Dell fonctionne sans souci avec du Dell, Lenovo et HP, et sûrement les autres, mais testé qu’avec ces trois marques.
Le
13/09/2023 à
12h
00
Vous pouvez compter un quatrième dans les rangs : entre les vrais faux contacts, la fausse réversibilité (dans certains câbles ou certains “hôtes” j’ai découvert par hasard que les connecteurs ne sont que dans un sens du coup genre une partie d’un hub ne fonctionne pas si je mets pas dans le “bon”, génial, quel “progrès”), le bordel absolu du standard officiel prévu pour un câble et le support des fonctionnalités au sein de chaque standard sur l’hôte…
Jamais un “standard” n’aura autant divisé et créé de bazar…
Pour ma part, je touche du bois, je n’ai aucun souci avec mon portable Dell et mes stations d’accueil WD19 (une version USB-C au bureau, une TB à la maison). Bon après ça ne fait qu’un an que je les ai, on verra dans 2 ans dans quel état c’est.
Le
13/09/2023 à
11h
56
Chainer des écrans ? (de mémoire HDMI 2.1 a un débit de 48Gbps) Connecter un GPU externe (PCI-E 4.0 16x ça fait combien de bande passante ? ) Connecter une station d’accueil, sur laquelle tu vas avoir plein de périphériques (écran 4K, SSD externe, …)
C’est pas utile à tout le monde, mais il y a clairement des usages pour un tel débit.
Je ne retrouve plus l’article, mais de mémoire, parmi tous ces signalements provenant de Google et Meta, une part non négligeable du contenu détecté comme CSAM est généré par les enfants eux-même. Ils ont même un terme pour ça : “Self-generated CSAM”.
Donc si un couple d’ados de 15 ans sextote via WhatsApp, si je comprend bien, il est tout à fait possible que leurs photos soient détectées comme CSAM, passent entre les mains de la modération de Meta, et envoyé à une asso, qui va fournir tout ça aux autorités ?
Certes SpaceX a et continue de bénéficier de financements de la NASA (comme c’est le cas pour le Starship avec son inclusion à Artemis, et précédemment pour Crew Dragon) mais la proportion est différente.
Dans tous les cas, personnellement je considère toujours SpaceX comme étant l’exception et non la règle. La visibilité médiatique de l’entreprise créé un effet de loupe sur elle qui semble dire comment le secteur spatial est. Or, c’est le seul acteur à avoir su atteindre une telle cadence de tirs et de réutilisation de ses lanceurs. Aucun autre acteur ne leur arrive à la cheville pour le moment, donc ça reste une comparaison très biaisée.
Dès qu’on se met dans une vue plus globale, le secteur spatiale européen est moins mort que les portraits réquisitoires peuvent le laisser entendre.
Sans les contrats de la NASA, et surtout ceux de l’armée US, SpaceX serait morte depuis bien bien longtemps…
La grosse question à répondre : L’opérationnel ou la sécurité d’abord ?
Avoir un inventaire (tenu à jour) de ses actifs
Avoir un processus de gestion du risque (analyses de risques régulières, et traitement des risques trouvés)
Définir des politiques de sécurité, notamment une politique sur les patch, qui va définir des délais maximum entre publication d’une vuln et l’application d’un patch en fonction de sa criticité. Ces politiques définiront également les processus de gestion des exceptions
Assurer une veille sécurité, et des scans automatisés réguliers des infras pour détecter les vulnérabilités
Appliquer les politiques et procédures définies en amont, lorsqu’une vuln est trouvée
Avoir défini un processus de gestion de crise au cas où
Normalement, en appliquant ça, on est censé se retrouver avec un système qui répond aux besoins, avec une juste balance entre opérationnel et sécurité. Il faut bien sûr garder à l’esprit qu’aucun système n’est parfait (ni stable à 100%, ni sécurisé à 100%).
Le
28/08/2023 à
08h
05
Il peut exister des vulnérabilités dans les systèmes qui s’exploitent sans s’authentifier. Donc oui, il ne faut pas avoir les mêmes accès pour l’admin de l’infra de prod que pour la bureautique, mais c’est une mesure parmi tant d’autres. C’est ce que les anglophones appelle le Swiss Cheese Modèle ( je ne sais pas si ça a un nom en français).
J’adore la manière dont les sujets et propos sont déformés petit à petit pour correspondre aux arguments de gens qui ne veulent pas avoir tort. A la base tout ce sujet est parti d’un commentaire concernant les postes de travail, et même si je ne vois pas plus de souci que ça pour inclure également les serveurs si ça te fait plaisir, je ne vois pas pourquoi s’y limiter. Pour ma part j’ai déjà vu un admin sys qui avait sa machine pro sous Arch, même si je dois bien reconnaitre que ce n’est pas commun; mais ce n’est pas le sujet. Si tu souhaites définir “grosse distro” par “distro massivement utilisé en datacenter” c’est ton droit, personnellement je considère Arch comme une distro majeure.
Et bien sûr que les entreprises souhaitent la sécurité, mais pas au détriment de la stabilité. Ça leur fait une belle jambe une machine patchée qui ne fonctionne pas. Ils préfèrent largement avoir une machine vulnérable mais fonctionnelle, toutes les mesures en amont permettant d’abaisser le niveau du risque (pare-feu, segmentation réseau, WAF, …). Parce que bon, c’est vrai qu’on n’a jamais vu le moindre patch de sécurité casser des choses… Sans oublier que pour se prémunir d’une vulnérabilité, le patch n’est pas la seule et unique solution. Souvent les vulnérabilités ne sont exploitables que dans certaines configuration, et les Security Advisories indiquent les mesures de mitigations pour réduire au maximum les risques d’exploitation avant que le(s) patch(s) soi(en)t disponibl(s)e et déployé(s). Après si la machine ne fonctionne pas suite à un patch, c’est sûr que c’est bien sécurisé vu que personne ne peut plus y accéder…
Le
27/08/2023 à
17h
04
Poste de travail ou serveur, même combat : les distributions utilisent peu ou prou les mêmes composants. Si un de ces composants est troué, il y a risque pour le SI. Et le principe d’un 0 day, c’est de l’exploiter aussi longtemps que possible avant qu’elle ne soit dévoilée.
Il faut définitivement arrêter de considérer que la sécurité informatique peut reposer sur la croyance que X, Y ou Z est moins risqué parce que pas majoritaire ou que sais-je. C’est une posture au mieux stupide. Désolé d’être sec, mais c’est franchement lassant après 20 ans de Linux de toujours lire ce genre d’ânerie. Je ne sais pas de quels “faits” tu parles, mais si c’est juste une expérience perso, je trouve ça très faible vis à vis de l’actualité IT qui fait régulièrement état d’attaques incluant tout systèmes.
La sécurité IT, c’est du concret : de l’audit, des études, du hardening, des tests de vulnérabilité, de la proactivité, de la réactivité, du suivi, de la gouvernance, etc. Pas une marque ou un produit. Jamais.
Perso je préfère considérer le poste de travail comme étant vulnérable, peu importe le truc machin sur lequel il tourne et mettre les protections en conséquence pour éviter qu’il n’emporte le reste du SI avec lui en cas de vérole.
TNZfr a dit:
Vérifie les dates du dirtypipe et après on cause. A moins que le risque d’avoir tort te fasses dire des tas de bêtises histoire de garder la face. Et pour info, je ne mélange pas la conception et le déploiement.
Donc les gars ils ont déployé un patch qui n’existait pas, c’est ce que tu essayes de me dire ?
TNZfr a dit:
T’es tu posé la question pourquoi certaines entreprises payent des gens pour maintenir du logiciel libre ? … Coeur de business garçon. Si le logiciel libre n’existait pas, ce genre d’entreprises n’existeraient pas non plus.
Bien évidemment que s’ils y consacrent des ressources c’est parce qu’ils en retirent un profit, je n’ai jamais dit le contraire. Ce sont des entreprises, pas des œuvres de charité. Faudrait lire mes messages avant de rétorquer n’importe quoi, car je n’ai jamais essayé de dire que ces entreprises font ça par pure bonté. Allez, je te laisse relire le message pour essayer de déterminer mon propos.
TNZfr a dit:
Tes chiffres n’amènent rien à la discussion, cela pollue le sujet de départ : sécurité des postes de travail.
C’est pas moi qui ait amené la conversation sur le terrain de entreprises vs. bénévoles hein…
(quote:2149084:alex.d.) Debian est la seule grosse distrib à ne pas être portée par une boîte privée, et pourtant ils sont les plus réactifs pour intégrer les correctifs de sécurité.
Par ce commentaire tu montres ta méconnaissance. Je suis sûr qu’en réfléchissant plus de 30 secondes tu peux me ressortir quelques grosses distro Linux, qui ne sont pas non plus portées par des entreprises (Arch par exemple, après j’imagine que tu vas me sortir que ce n’est pas une distro suffisamment grosse ?). Et ta méconnaissance de ce qu’attendent les clients des distros “professionnelles” comme RHEL.
Patch a dit:
Normal, je ne peux pas être partout en même temps.
🤣🤣🤣
wanou2 a dit:
Je connais suffisamment bien Debian pour savoir qu’ils ne publient pas des correctifs sans un minimum de contrôle pour éviter de tout casser.
Je connais probablement moins le fonctionnement de Debian que toi, mais je ne pense pas me tromper en disant qu’ils contrôlent moins que les gars de Red Hat. Mais encore une fois, ce n’est pas une mauvaise chose. Les clients de RHEL cherchent la stabilité avant tout.
OlivierJ a dit:
Le problème a beau se situer en partie entre la chaise et le clavier, encore en 2023 on évite beaucoup de problèmes (quasiment tous en pratique) si on a une infrastructure sans Windows sur les postes de travail
Par expérience professionnelle, je peux t’assurer que c’est faux. Même avec un poste de travail sous Linux un utilisateur est susceptible de se faire phisher, ou de lancer un malware (oui, il y a des malwares pour Linux…)
Tout à fait d’accord. La défense en profondeur est cruciale.
Le
25/08/2023 à
21h
42
Sais-tu seulement comment fonctionne Debian ? As-tu déjà participé à une DebConf pour voir un peu la faune qui y traîne ?
Et ça donne quoi Debian sans le kernel, sans GNU, sans toutes les briques qui composent une distribution moderne ?
Et pour reprendre ton exemple d’OpenSSL : https://www.openssl.org/blog/blog/2023/07/17/who-writes-openssl/ 82.6% des commits ont été réalisés par des gens payés pour travailler sur OpenSSL, soit directement par OpenSSL (qui est financé comment déjà ?), soit par des entreprises.
Alors oui, c’est du boulot de tout empaqueter proprement (et côté Debian c’est très bien fait, mais ce ne sont pas les seuls), mais il faut avoir quelque chose à empaqueter.
EDIT : je rajoute le dernier paragraphe de l’article, traduit, pour que tout le monde puisse en profiter :
En conclusion, nous avons constaté que 87 % des contributions non triviales à OpenSSL au cours des 12 derniers mois provenaient de 56 personnes payées par leur employeur pour travailler sur OpenSSL. Ce résultat ne devrait pas être trop surprenant, car les projets Open Source tels qu’OpenSSL dépendent d’organisations commerciales qui offrent le temps de leurs employés pour survivre.
C’est les gens d’OpenSSL qui le disent.
EDIT2 : je ne doit pas compter comme eux, j’ai 82.6%, ils ont 87%. Dans l’idée c’est pareil, mais bon… EDIT3 : j’ai trouvé, ils font leur pourcentage sur les commits “non-triviaux”, j’ai calculé sur l’ensemble…
Le
25/08/2023 à
17h
45
Il a pourtant raison (et je suis souvent en désaccord avec lui) : s’il y a un bug dans le noyau, c’est un développeur du noyau qui va le corriger et mettre la correction dans le git du noyau.
Ensuite seulement, le développeurmainteneur Debian va mettre à jour la distribution à partir de la correction faite par le développeur du noyau et la fournir aux utilisateurs.
Faut pas briser ses rêves comme ça, s’il a envie d’y croire au fait qu’un système comme le Linux qu’on a aujourd’hui peut émerger comme ça juste avec quelques dizaines de personnes qui y consacrent leur week-ends gracieusement ! 🤣
1407 commentaires
Suivez en direct la naissance du nouveau « Next », à partir de 19 h
16/10/2023
Le 06/10/2023 à 16h 22
Ha, le premier désavantage à avoir quitté la région parisienne, je ne pourrai pas être des vôtres 😭
Gmail impose de nouvelles exigences aux gros expéditeurs
06/10/2023
Le 06/10/2023 à 16h 09
Bah ça fait un serveur SMTP uniquement joignable en IPv4 dans ce cas. C’est déjà mieux que chez les autres ISP (même si ça serait cool que ça fonctionne également en IPv6 en 2023…)
Le 06/10/2023 à 14h 30
Pas que chez GMail, beaucoup des fournisseurs de mails sont très méfiants des mails provenant de serveurs sans reverse-DNS, et à juste titre. Donc soit il faut utiliser un hébergeur compétent, qui permet de personnaliser le reverse de ses serveurs (Online le fait très bien), soit être chez Free (qui permet de personnaliser le reverse de sa Freebox) si on veut héberger à la maison (encore que beaucoup se méfient des blocs d’IP appartenant à des ISP grand public, encore une fois à juste titre)
Le 06/10/2023 à 12h 28
Tu as probablement raison. Il y a bien 15 ans que j’ai monté mon premier serveur mail, et déjà à l’époque, il était précisé un peu partout de bien enregistrer le reverse pour le serveur afin que le celui-ci ne rencontre pas de problème de livraison des mails, donc je pensais que c’est une règle établie.
Le 06/10/2023 à 11h 47
Bizarre, je n’ai jamais eu de réel souci avec les mails vers MS pour ma part. Ils fournissent même des outils plutôt efficaces pour diagnostiquer les causes si jamais souci il y a…
Et j’aimerai bien savoir ce que tu serais censé payer pour que tes mails passent ? Je n’ai encore jamais entendu parler d’une telle option ;-)
Alors, c’est pas l’absence de reverse DNS qui va déclencher une inscription sur une blacklist.
Par contre, il me semble que le reverse DNS est effectivement obligatoire pour un serveur SMTP pleinement fonctionnel (j’arrive pas à retrouver la RFC, si quelqu’un la connait 😕)
Le 06/10/2023 à 09h 28
Ce n’est pas un problème que j’ai constaté pour ma part. Depuis 2-3 ans je n’héberge plus mes mails moi-même, mais avant ça je l’ai fait pendant plus de 10 ans, et avec SPF et DKIM correctement configuré, mes mails n’ont fini en spam qu’extrêmement rarement, et je ne pense pas que j’envoie beaucoup plus de mails que toi 😅
Le 06/10/2023 à 08h 24
En même temps c’est normal. Ne pas avoir DKIM de configuré en 2023…
Et la doc de MS sur le sujet est très bien. La partie la plus longue du processus c’est la propagation des enregistrements DNS 😅
Le 06/10/2023 à 08h 15
Oui, les subnets des hébergeurs peu regardant sur ce qu’ils hébergent (et qui donc hébergent beaucoup de spammeurs) vont être plus facilement classés comme spam. Mais si les destinataires récupèrent le mail dans leurs spams, et cliquent sur le bouton pour indiquer à Google que ce n’est pas du spam, leur filtre apprend assez vite.
Le 06/10/2023 à 08h 05
Mon expérience perso c’est que dès que SPF, DKIM et DMARC sont correctement configurés, les mails ne finissent (quasiment) plus jamais en spam chez Google.
Et il y a un gros bouton “Report not Spam” en haut de tous les mails classés comme spam. Je ne vois pas ce que tu veux de plus.
Le nouveau Teams plus rapide disponible pour Windows et macOS
06/10/2023
Le 06/10/2023 à 14h 18
Y’a pas de MSI, mais tu peux trouver l’EXE sur cette page ;-) Microsoft
Oui bien sûr tu peux forcer Win11 à s’installer sur des ordis pas officiellement compatibles. Après dans la boite, même sous Windows 10 la règle c’est Bitlocker obligatoire. Et sans TPM, Bitlocker c’est chiant au boot…
Le 06/10/2023 à 12h 56
Oui et ? A quel moment ai-je parlé de CPU ? Mais effectivement, tu peux avoir le TPM dans le PC (que ce soit une puce spécifique, ou un fTPM intégré au CPU), si le CPU ne gère pas MBEC, il est incompatible, c’est vrai. Mais dans le cas des PC dont je parlais, les CPU sont compatibles ;-)
Le 06/10/2023 à 12h 32
Après il faut faire gaffe pour la soit-disant incompatibilité avec WIn11, au bureau ils ont failli bazarder des PC car ils n’avaient pas de puce TPM, alors qu’il “suffisait” d’aller l’activer dans le BIOS…
Orange propose sa Livebox 7 avec son forfait Max Fibre : débits et tarifs en hausse, remise en baisse
05/10/2023
Le 06/10/2023 à 12h 41
Là le port 10G sur la Livebox 7 est en RJ45 apparemment, pas en SFP+ comme sur la Freebox Delta.
Cyber-résilience : une lettre ouverte s’inquiète de l’obligation de divulgation des vulnérabilités
05/10/2023
Le 05/10/2023 à 08h 16
Si j’ai bien compris, l’exigence n’est pas de divulguer publiquement toutes les failles dès qu’on les trouve, mais plutôt de les signaler immédiatement aux instances publiques (par exemple l’ANSSI en France).
C’est la DGSI et la DGSE qui doivent être contente d’un tel texte
iFixit démonte l’iPhone 15 Pro Max et lui donne 4/10, soit autant que la nouvelle note de l’iPhone 14
26/09/2023
Le 26/09/2023 à 09h 04
En même temps, si n’importe qui peut appairer des pièces entre elles, quel est l’intérêt d’avoir le système à la base ?
Encore heureux que n’importe qui ne peut pas changer les capteurs biométriques d’un iPhone…
Le 26/09/2023 à 07h 16
Après c’est cet appariement des pièces qui permet d’éviter que quelqu’un viennent brancher un capteur biométrique menteur pour déverrouiller votre téléphone sans votre accord, ou qui empêche qu’un téléphone volé soit revendu pour pièces, vu que ces pièces sont inutilisables… Donc ça n’a pas que des désavantages.
Changement à la tête de Blue Origin
26/09/2023
Le 26/09/2023 à 07h 19
Dave Limp à la tête d’une société qui fabrique des phallus ?! 🤣
Sortie de 48 h de garde à vue pour la journaliste de Disclose Ariane Lavrilleux
22/09/2023
Le 22/09/2023 à 08h 03
Et puis derrière on est tranquille pour faire pipus !
Apple : quatre iPhone 15 (USB-C), Watch Series 9 et Ultra 2 et des produits « neutres en carbone »
13/09/2023
Le 15/09/2023 à 12h 21
Alors si on parle de chaussures de fashion victim comme des AirMax, oui, t’as rien pour 100€, et même pour 200€ ça ne tient pas dans le temps.
Si on parle de chaussures de ville en cuir, pour 100€ tu en as, et à condition de nourrir le cuir de temps en temps (après une bonne pluie par exemple), ça tient très bien dans le temps.
J’ai une paire de chaussures qui va sur ses 15 ans, en dehors d’un ressemelage après environ 8 ans (~20€ de mémoire), rien à signaler.
Le 14/09/2023 à 11h 47
Alors, si tu prends le temps de lire mes commentaires précédents, tu verras que je suis tout à fait d’accord avec toi. Juste par honnêteté intellectuelle, je préfère quand on compare ce qui est comparable ;-)
Le 13/09/2023 à 23h 01
Après on va éviter de comparer du bas de gamme avec des téléphones à 1000€ 😅
C’est pas parce que je comprend tout à fait la décision d’Apple vu ce que ça aurait nécessité pour avoir l’USB3 sur les modèles non Pro, que je ne suis pas un tout petit peu déçu que ce soit toujours de l’USB 2 (même si ça ne m’aurait jamais servi, soyons honnêtes).
Je suis beaucoup plus gêné par l’absence de support hardware de l’AV1 par exemple, ça c’est quelque chose qui peut avoir un réel impact d’ici 2-3 ans…
Le 13/09/2023 à 21h 46
Ha et j’ai aussi oublié de préciser : qui a adopté et démocratisé l’USB en premier ? C’est pas l’iMac par hasard ?
Le 13/09/2023 à 21h 33
Donc tu sais quelle tâches je demande de ma montre ? Pour info, ce n’est pas lire l’heure. Avant de passer à l’Apple Watch, ça faisait des années que je ne portais plus de montre.
Le 13/09/2023 à 21h 31
Ouais t’as raison, ils font grave reculer la tech… S’ils n’étaient encore jamais passé à l’USB 3, c’est que ça fait des années qu’ils misent sur le tout sans fil. C’est les premiers à avoir vraiment misé sur le WiFi à l’époque (ouais ça remonte). Les bornes Airport de 1999 étaient pas parfaites, mais elles avaient le mérite d’exister, dans un monde quasi 100% filaire.
Le 13/09/2023 à 21h 20
Mouais, autant j’adhère pas à tout le greenwashing d’Apple, autant l’obsolescence programmée qu’on nous ramène à chaque fois qu’on parle d’Apple, je ne la vois pas dans les faits.
Ma première Apple Watch, une Series2 (sortie en 2016), fonctionne toujours. Elle en est à son troisième propriétaire et n’a aucun souci. Ok, aux dernières nouvelles, la batterie devient un peu faiblarde et ne tient plus que la journée en utilisation normale, il va falloir la changer (la batterie, pas la montre).
Mon Apple Watch actuelle une Series 4 (sortie en 2018 donc), fonctionne parfaitement également, et va normalement fonctionner encore des années; à moins de la casser bien entendu, mais vu ce que je lui ai fait déjà subir, et qu’elle est toujours en parfait état, je ne m’inquiète pas trop.
Je me focalise sur la Watch, car c’est le produit qu’ils présentent comme étant “carbon neutral”, mais je fais les mêmes observations sur les iPhones.
Le 13/09/2023 à 21h 08
Alors là je suis pas d’accord. L’USB 3 est largement plus rapide (10Gbps contre 480Mbps…).
Et les iPhone ont pas un stockage eMMC ultra lent, ils seraient capables d’augmenter substantiellement les débits de transfert avec l’USB3.
Mais c’est pas pour autant que ça justifiait de refaire un SoC alors qu’ils en avaient déjà un qui fait le job.
Ma source c’est les chiffres de vente des iPhone alors qu’ils n’ont toujours eu que de l’USB2.
Et aussi le fait que connaissant quand même du monde avec des iPhone, aucun ne le branche pour autre chose que le charger.
Le 13/09/2023 à 21h 03
Oui, ce soir je suis un fanboy Apple, et demain dans d’autres commentaires, on m’étiquettera de fanboy Microsoft, et dans quelques jours je serais un suppôt de Stallman…
Ça ne fait aucun sens car ils ont déjà le SoC, ils en ont déjà tout un stock de produit, et les chaînes de productions si besoin de plus (les masques de photolithographie c’est ultra simple à faire, par exemple !)
S’ils partaient de zéro, bien sûr que partir sur de l’USB2 serait totalement con. C’est d’ailleurs pour ça que l’A17 a un contrôleur USB3. Mais là, vu qu’ils réutilisent le SoC du Pro de l’année dernière (comme depuis des années), il serait stupide de perdre du temps et de l’argent pour un truc donc tout le monde se fout.
Le 13/09/2023 à 20h 43
Mais ce que tu n’as pas l’air de comprendre, c’est que même si c’était sûrement techniquement possible, ça ne fait absolument aucun sens !
Pourquoi perdre du temps et de l’argent pour faire évoluer un SoC pour lui ajouter une fonctionnalité dont la TRÈS grande majorité des utilisateurs se contrefout ? Les seuls qui s’y intéressent réellement ce sont les fanboys Androïd car ça leur fait une cartouche facile, mais ils ne sont pas clients, donc on s’en moque, en fait.
Le 13/09/2023 à 20h 32
Bah regarde la conférence Apple, y’a un schéma du SoC sur un des slides, avec le controleur USB mis en évidence.
Et pourquoi ils dépenseraient des thunes à designer un nouveau SoC juste pour rajouter de l’USB3 qui ne sera utiliser que par une infime partie des utilisateurs ? Pour ensuite devoir produire en même temps les deux SoC (Pro et non Pro), alors que là les A16 que tu as dans les iPhone 15 de base, ils sont produits depuis longtemps. Dépenser des sommes folles pour un truc qui ne servirait pas à grand chose, c’est ça qui serait stupide.
Le 13/09/2023 à 20h 21
Tu as raison, modifier un SOC aussi complexe ça se fait juste en claquant des doigts, les ingénieurs chez Apple ils sont vraiment trop bêtes…
Le 13/09/2023 à 20h 19
Désolé de te le dire, mais tu fais partie de la minorité. C’est quand même beaucoup plus simple de pousser directement toutes les photos vers vers le backup dès qu’elles sont prises, via WiFi et/ou 4G/5G.
C’est pas les options qui manquent : Les options GAFAM (iCloud, GDrive, Onedrive, …), les alternatifs (MEGA, Cozy, Leviia, HiDrive, …), le self-hosted (NextCloud, le NAS à la maison, …).
Plus simple que de devoir régulièrement brancher le tel pour transférer vers un DD externe, et pas de risque de perte de données entre chaque sauvegarde.
Après, chacun fait comme il veut, et c’est sûr que pour ceux qui font comme toi, l’USB3 aurait été appréciable. Mais il va arriver l’année prochaine quand l’iPhone 16 utilisera l’A17 ;-)
Le 13/09/2023 à 20h 06
Alors, oui, c’est cher. Mais c’est malhonnête je trouve de comparer le prix d’un objet que tu peux garder sans problème 4 ans (je sais, certains les changent plus souvent, mais honnêtement ça peut se garder bien plus que 4 ans), à un unique mois de salaire.
En partant sur un amortissement sur 48 mois, ça donne:
iPhone 15……….. 20,19 €/mois
iPhone 15 Plus…… 23,31 €/mois
iPhone 15 Pro……. 25,60€/mois
iPhone 15 Pro Max… 30,81 €/mois
Smic mensuel Net…. 1383 €
Et c’est valable pour tous type d’objets, pas que les smartphones. D’ailleurs, quand tu prends tes décisions d’achat en prenant en compte la durée de vie prévisible de l’objet, tu prends rarement l’entrée de gamme. Il vaut mieux acheter 100€ une paire de chaussures qui va durer 15 ans, que 10€ une paire qui tiendra à peine l’année. Malheureusement quand on prend l’entrée de gamme, c’est rarement par choix 😓 Wikipedia
Le 13/09/2023 à 16h 41
Ca me fait marrer tous les gens aujourd’hui qui sont en mode “Quoi ! Pas d’USB 3 sur les iPhone de Base 😱” 🤣
Exposition aux ondes : l’ANFR demande le retrait temporaire de l’iPhone 12, Apple a 15 jours pour corriger le tir
13/09/2023
Le 15/09/2023 à 08h 12
Après, c’est basé sur des cours que j’ai suivi il y a plus de 15 ans, portant sur une technologie (GSM) qui avait déjà quasiment 20 ans, donc les probabilités que je me souvienne mal, ou que le fonctionnement avec les normes actuelles (4G/5G) a changé, sont non nulles 😅
Le 14/09/2023 à 16h 54
Alors si je me souviens bien de mes cours de télécoms (ça date, on étudiais la norme GSM à l’époque), en conditions de faible réception, le modem augmente son gain sur la réception (jusqu’à se retrouver avec trop de bruit, moment où on perd la connexion), et émet également plus fort. C’est ce qui explique que nos téléphones se déchargent plus vite quand on capte mal.
Le 13/09/2023 à 12h 42
Plus probablement des instances de contrôles sous-financées qui n’ont pas la capacité de faire correctement leur boulot.
Et potentiellement, même si ce n’est qu’une supposition de ma part, un peu de complaisance vis-à-vis d’Apple sur ce coup là :-/
Le 13/09/2023 à 09h 13
Donc baisser la puissance max de la puce modem va augmenter la conso ? Je veux bien que tu m’expliques la logique.
C’est surtout que dans des conditions de mauvaise réception, où l’iPhone aurait poussé son niveau d’émission mais aurait continué à être connecté, tu n’auras tout simplement pas de réseau.
Intel annonce le Thunderbolt 5, avec des débits jusqu’à 120 Gb/s
13/09/2023
Le 13/09/2023 à 21h 37
J’utilise régulièrement mon laptop Dell pro avec le chargeur de mon Lenovo perso, et je n’ai jamais eu de souci. Et autant je n’ai pas testé un dock HP connecté au Dell, autant je peux t’assurer que le dock Dell WD19 fonctionne sur un HP.
EDIT : Si il y a un souci : le Dell se plaint que le chargeur Lenovo est pas assez puissant (il ne fait que 60W), mais il charge quand même, juste plus lentement.
Le 13/09/2023 à 20h 46
Ha, et autres avantages (en tout cas sur les WD19 que j’utilise) : si tu casses le câble, tu peux juste changer le câble. Alors que les stations d’accueil à l’ancienne, fallait changer toute la station.
Le 13/09/2023 à 20h 29
C’était vraiment de la merde les “vraies stations d’accueil” ouais…
Déjà même au sein d’une même marques, c’était pas compatible avec tous les modèles, alors entre marques je ne t’en parle même pas !
Ensuite c’était pas si robuste que ça, car parfois ça s’insérait mal, donc t’avais toujours un idiot pour forcer et hop, suffit de casser un petit bout de plastoc et après aucun PC ne tient en place sur le dock.
Au moins avec les docks USB-C/TB c’est à peu près compatible entre toutes les marques (mes stations Dell fonctionne sans souci avec du Dell, Lenovo et HP, et sûrement les autres, mais testé qu’avec ces trois marques.
Le 13/09/2023 à 12h 00
Pour ma part, je touche du bois, je n’ai aucun souci avec mon portable Dell et mes stations d’accueil WD19 (une version USB-C au bureau, une TB à la maison). Bon après ça ne fait qu’un an que je les ai, on verra dans 2 ans dans quel état c’est.
Le 13/09/2023 à 11h 56
Chainer des écrans ? (de mémoire HDMI 2.1 a un débit de 48Gbps)
Connecter un GPU externe (PCI-E 4.0 16x ça fait combien de bande passante ? )
Connecter une station d’accueil, sur laquelle tu vas avoir plein de périphériques (écran 4K, SSD externe, …)
C’est pas utile à tout le monde, mais il y a clairement des usages pour un tel débit.
Le GP Explorer2 bat des records d’audience sur Twitch
12/09/2023
Le 12/09/2023 à 16h 07
“Bah ouais, on l’aime bien Dédé ! Sacré Dédé !”
YouTube
Apple a renoncé à détecter les contenus pédocriminels pour éviter la surveillance de masse
04/09/2023
Le 04/09/2023 à 15h 46
Je ne retrouve plus l’article, mais de mémoire, parmi tous ces signalements provenant de Google et Meta, une part non négligeable du contenu détecté comme CSAM est généré par les enfants eux-même. Ils ont même un terme pour ça : “Self-generated CSAM”.
Donc si un couple d’ados de 15 ans sextote via WhatsApp, si je comprend bien, il est tout à fait possible que leurs photos soient détectées comme CSAM, passent entre les mains de la modération de Meta, et envoyé à une asso, qui va fournir tout ça aux autorités ?
L’ESA réussit la mise à feu statique de l’étage supérieur d’Ariane 6
04/09/2023
Le 04/09/2023 à 08h 52
Sans les contrats de la NASA, et surtout ceux de l’armée US, SpaceX serait morte depuis bien bien longtemps…
Un hébergeur danois victime d’un ransomware : « la majorité de nos clients ont donc perdu toutes leurs données »
25/08/2023
Le 28/08/2023 à 12h 09
100% d’accord
Normalement, en appliquant ça, on est censé se retrouver avec un système qui répond aux besoins, avec une juste balance entre opérationnel et sécurité. Il faut bien sûr garder à l’esprit qu’aucun système n’est parfait (ni stable à 100%, ni sécurisé à 100%).
Le 28/08/2023 à 08h 05
Il peut exister des vulnérabilités dans les systèmes qui s’exploitent sans s’authentifier. Donc oui, il ne faut pas avoir les mêmes accès pour l’admin de l’infra de prod que pour la bureautique, mais c’est une mesure parmi tant d’autres. C’est ce que les anglophones appelle le Swiss Cheese Modèle ( je ne sais pas si ça a un nom en français).
J’adore la manière dont les sujets et propos sont déformés petit à petit pour correspondre aux arguments de gens qui ne veulent pas avoir tort. A la base tout ce sujet est parti d’un commentaire concernant les postes de travail, et même si je ne vois pas plus de souci que ça pour inclure également les serveurs si ça te fait plaisir, je ne vois pas pourquoi s’y limiter. Pour ma part j’ai déjà vu un admin sys qui avait sa machine pro sous Arch, même si je dois bien reconnaitre que ce n’est pas commun; mais ce n’est pas le sujet. Si tu souhaites définir “grosse distro” par “distro massivement utilisé en datacenter” c’est ton droit, personnellement je considère Arch comme une distro majeure.
Et bien sûr que les entreprises souhaitent la sécurité, mais pas au détriment de la stabilité. Ça leur fait une belle jambe une machine patchée qui ne fonctionne pas. Ils préfèrent largement avoir une machine vulnérable mais fonctionnelle, toutes les mesures en amont permettant d’abaisser le niveau du risque (pare-feu, segmentation réseau, WAF, …). Parce que bon, c’est vrai qu’on n’a jamais vu le moindre patch de sécurité casser des choses…
Sans oublier que pour se prémunir d’une vulnérabilité, le patch n’est pas la seule et unique solution. Souvent les vulnérabilités ne sont exploitables que dans certaines configuration, et les Security Advisories indiquent les mesures de mitigations pour réduire au maximum les risques d’exploitation avant que le(s) patch(s) soi(en)t disponibl(s)e et déployé(s).
Après si la machine ne fonctionne pas suite à un patch, c’est sûr que c’est bien sécurisé vu que personne ne peut plus y accéder…
Le 27/08/2023 à 17h 04
Donc les gars ils ont déployé un patch qui n’existait pas, c’est ce que tu essayes de me dire ?
Bien évidemment que s’ils y consacrent des ressources c’est parce qu’ils en retirent un profit, je n’ai jamais dit le contraire. Ce sont des entreprises, pas des œuvres de charité. Faudrait lire mes messages avant de rétorquer n’importe quoi, car je n’ai jamais essayé de dire que ces entreprises font ça par pure bonté. Allez, je te laisse relire le message pour essayer de déterminer mon propos.
C’est pas moi qui ait amené la conversation sur le terrain de entreprises vs. bénévoles hein…
Par ce commentaire tu montres ta méconnaissance. Je suis sûr qu’en réfléchissant plus de 30 secondes tu peux me ressortir quelques grosses distro Linux, qui ne sont pas non plus portées par des entreprises (Arch par exemple, après j’imagine que tu vas me sortir que ce n’est pas une distro suffisamment grosse ?). Et ta méconnaissance de ce qu’attendent les clients des distros “professionnelles” comme RHEL.
🤣🤣🤣
Je connais probablement moins le fonctionnement de Debian que toi, mais je ne pense pas me tromper en disant qu’ils contrôlent moins que les gars de Red Hat. Mais encore une fois, ce n’est pas une mauvaise chose. Les clients de RHEL cherchent la stabilité avant tout.
Par expérience professionnelle, je peux t’assurer que c’est faux. Même avec un poste de travail sous Linux un utilisateur est susceptible de se faire phisher, ou de lancer un malware (oui, il y a des malwares pour Linux…)
Tout à fait d’accord. La défense en profondeur est cruciale.
Le 25/08/2023 à 21h 42
Et ça donne quoi Debian sans le kernel, sans GNU, sans toutes les briques qui composent une distribution moderne ?
Et pour reprendre ton exemple d’OpenSSL : https://www.openssl.org/blog/blog/2023/07/17/who-writes-openssl/
82.6% des commits ont été réalisés par des gens payés pour travailler sur OpenSSL, soit directement par OpenSSL (qui est financé comment déjà ?), soit par des entreprises.
Alors oui, c’est du boulot de tout empaqueter proprement (et côté Debian c’est très bien fait, mais ce ne sont pas les seuls), mais il faut avoir quelque chose à empaqueter.
EDIT : je rajoute le dernier paragraphe de l’article, traduit, pour que tout le monde puisse en profiter :
C’est les gens d’OpenSSL qui le disent.
EDIT2 : je ne doit pas compter comme eux, j’ai 82.6%, ils ont 87%. Dans l’idée c’est pareil, mais bon…
EDIT3 : j’ai trouvé, ils font leur pourcentage sur les commits “non-triviaux”, j’ai calculé sur l’ensemble…
Le 25/08/2023 à 17h 45
Faut pas briser ses rêves comme ça, s’il a envie d’y croire au fait qu’un système comme le Linux qu’on a aujourd’hui peut émerger comme ça juste avec quelques dizaines de personnes qui y consacrent leur week-ends gracieusement ! 🤣