Pris 2-3 photo des petits à ski, batterie à 29%, pris une 4ème photo et l’iPhone s’est éteint. Tout ça en l’espace de 10min à tout casser. Jamais pu le rallumer.
Pas vraiment un défaut, c’est un comportement “classique” d’appareil sur batterie lithium-ion dont la charge s’est mal passée (mauvais chargeur, mauvais cable, mauvais jour, téléphone branché en continu) ou alors un problème de condensation.
L’indication de la charge est quelque part entre une info physique (la tension aux bornes de la batterie par exemple: 100%=4,2V, 30%=3,2V, 50%=4V) et un info mémorisée par le téléphone car une batterie peut monter très rapidement à 4V sous un courant très fort, sans être réellement chargée en puissance.
Pour info, j’ai eu un cas de tablette qui ramait, s’éteignait régulièrement avec 30% de batterie. Je n’y ai pas vraiment prêté attention tout de suite. Un jour elle ne s’est plus allumée. Il a fallu shunter un transistor pour qu’elle reparte (elle se considérait en mode sécurité batterie avec 3,9V dans la batterie).
En cause: le cable USB. Les enfants utilisaent le cable le plus long (2m). Je l’ai rechargée avec un cable ultra-court (15cm) (si si, 15cm c’est court… pour un cable USB)
Et les chargeurs trop rapides, pas cher, les chargeurs de voitures peuvent mener à des situation du même genre quelque soit la marque de l’appareil.
Connaissant Apple (et n’étant pas fanboy Apple), et surtout de l’époque de la conception du 5, je ne reprocherait rien à l’électronique de charge. C’était au moins parmi les meilleures de l’époque.
Le
04/03/2020 à
06h
07
WereWindle a écrit :
ça serait intéressant de voir si la prolongation de la vie du produit grâce à la batterie compense le surplus de temps passé en utilisation à cause d’un SoC ralenti… " />
Vu que l’iPhone redémarrait si on ne limitait pas la conso, et vu le temps de redémarrage d’un téléphone (plus d’une minute avant d’être utilisable très souvent), le temps est gagné.
Hugues1337 a écrit :
Cependant ça ne corrige pas le fait que des gens ont acheté des iPhone plus récent car ils avaient des ralentissements.
Ne pas ralentir = coupure de l’iPhone pendant des traitements un peu long ou autonomie catastrophique. Ils auraient changé d’iPhone de toutes façons.
Le problème c’est de l’expliquer aux gens, perso je le fais de moi-même depuis des années sur les ordis, si je pouvais le faire sur le téléphone je le ferais.
Et beaucoup de gens sautent sur le moindre petit défaut de leur téléphone pour justifier un changement, alors que souvent il n’y a pas de vrai problème ou même de vraie gêne.
Pour rappel, on a déjà du bol de pouvoir avoir des téléphones/ordis qui fonctionnent aussi vite sur batterie que sur secteur. Je me rappelle bien quand les ordis portables fonctionnaient à moitié de leur vitesse sur batterie, sans pour autant le dire! (Pentium 2, IBM G4)
Le
03/03/2020 à
15h
00
Tout cela pour un quasi non évènement. Apple a péché par orgueil en ne communiquant pas et en choisissant pour les utilisateurs. Il n’y a pas eu de lésé au final. Apple paie pour préserver son image de marque et que cela soit oublié.
Ce n’est pas non plus de l’obsolescence programmée puisqu’au final le choix d’Apple permet d’utiliser plus longtemps son téléphone.
Disons le tout net, l’explosion des ventes de SUV est une belle connerie. Si certains peuvent en bénéficier réellement, je reste convaincu que la majorité des acheteurs auraient pu se contenter d’une voiture faisant 400kg de moins (du type C1)
Malheureusement, il y a un ressenti derrière. Plein de gens se sentent d’autant plus en sécurité qu’ils sont dans une grande voiture.
Mais c’est parce qu’ils voient surtout leur sécurité.
Un SUV qui croise des vélos, c’est super dangereux, déjà parce que la plupart des conducteurs de SUV n’arrivent pas à estimer les proportions réelles du véhicule et mangent beaucoup trop la route en face.
Moi j’adore les petites voitures (et pourtant je roule en logan break), mais prêtez moi une C1, c’est mon rêve (ou une saxo 16 soupapes…)
Pour moi les grandes voitures c’est comme les hypermarchés: c’est totalement has been.
Je préfère d’ailleurs parler de véhicules électriques que de voitures, pour éviter qu’on compare un tweezy à une RCZ.
J’ai besoin de 7 places donc j’ai la logan (soit dit en passant elle se gare dans des endroits impossibles avec les SUV) mais je culpabilise de rouler “à vide”. Malheureusement personne ne veut covoiturer avec moi (horaires trop larges). Mais si on commençait à taxer les places vides dans les voitures, je dirais bravo immédiatement.
fate1 a écrit :
Sur ces routes tu peux quand même atteindre les 60-70 km/h (j’en emprunte régulièrement), alors se retrouver à une sortie de virage derrière un pot de yaourt qui se traîne à 45 km/h, je trouve ça, comme Lyaume, assez dangereux.
Question de population sur la route. Avec l’explosion des mobilités douces, on doit de toutes façons se méfier en permanence de nouveaux occupants de la route plus ou moins bien visible (" /> vélos couchééééés)
Le
28/02/2020 à
13h
40
Lyaume a écrit :
Non, non et non !
Tu as déjà essayé de conduire ‘en sécurité’ sur une route limitée à 80km/h à une vitesse de 45km/h ?
Cette limitation du “sans permis” est vraiment un problème sur les gros axes routiers.
Je parlais autour de chez moi. On ne croise pas toujours des voitures sur 15km. Et on croise aussi des tracteurs. Je suis bien d’accord que 45km/h autour de villes où les gens sont frustrés d’être limités à 80 Au lieu de 90 (ce qui sur le trajet final représente une moyenne de 54km/h au lieu de 55…), c’est chaud. Maintenant, je pense que la limitation à 80 améliore la situation par rapport au 90.
Et chez moi, on croise aussi des chevaux, des vélos, des grand-mères avec leur caddy, et le pire: le vélo couché (50km/h facilement, et tout petit petit…). Toute conduite trop rapide est facilement sanctionnée par la mort d’autrui…
Le
28/02/2020 à
10h
12
fate1 a écrit :
Y a quand même un truc que je ne comprends pas. Le public visé est les citadins, citadins qui vivent en majorité en appartement, avec une grosse proportion sans garage, et même ceux ayant un garage n’ont pas forcément l’électricité dedans (je vois dans ma résidence, aucun garage n’a l’électricité).
Après, elle aura du succès aussi en campagne (on a l’air de recycler les tweezy ici). Donner de l’autonomie aux enfants en campagne, mais en 4 roue, c’est intéressant (on a 7 aller-retours à faire par semaine pour les activités, entre 10 et 15km de chez nous - et le vélo de nuit ou par temps de pluie, fort vent, neige, c’est pas sécurisant).
Sans compter tous les gamins en apprentissage dans le coin qui ont un sac pour aller travailler totalement inadapté aux deux roues.
Je ne suis pas tatillon. On chiffre, si on a la clé on déchiffre, et si on ne l’a pas on décrypte. On ne crypte jamais
" />
Je ferai attention désormais… Surtout que c’est pas la première fois que tu m’épingles sur mes écarts de langage dans le domaine du cryptement/de la chiffro " />
Le
24/02/2020 à
13h
54
Tu es tatillon. Ca me fais “cryer”.
Le
24/02/2020 à
13h
35
Ler van keeg a écrit :
Ben à part part payer la rançon…
Il n’y a aucune garantie que payer la rançon te rendra tes données. Il n’y a pas de moyen de vérifier si les hackers ont la possibilité de fournir un décrypteur et s’il n’y avait pas de bug dans leur virus.
Le
24/02/2020 à
10h
48
Urtok a écrit :
Ce genre d’attaque peut aussi toucher des machines qui n’ont pas les droits d’admins ?
Oui, en général le logiciel va crypter tout ce qu’il trouve accessible à l’utilisateur:
les fichiers de l’utilisateurs
les fichiers partagés en écriture avec l’utilisateur (par exemple un collègue qui a partagé tous ses fichiers en lecture/écriture à tout son service) (ou ton NAS)
Si l’utilisateur a des synchros en écriture vers le cloud, les fichiers seront cryptés localement puis le logiciel de synchro enverra tout vers le cloud.
Si le logiciel n’arrive à rien, il essaie d’aller ailleurs, soit via la messagerie interne et avec l’annuaire local, soit autrement (failles).
De plus, ils testent souvent des failles d’élévation de privilège (notamment les failles SMBv1, les failles des outils tiers genre les panneaux de contrôle Nvidia, AMD, carte son, souvent installés mais jamais mis à jour en entreprise alors qu’ils ont parfois la main sur le système) afin d’aller plus loin. Enfin, ces logiciels vont chercher des charges de travail (des plugins) avec d’autres méthodes d’attaque sur internet…
D’habitude on les reçoit vers 11h30, 16h30, les veilles de jour fériés ou de pont, pendant les ponts, et aux retours de vacances (plein de courrier à trier –> on ne fait pas attention à tout)
Le principe est quasi toujours le même: un fichier PDF, un fichier Word ou ZIP vérolé, l’utilisateur ouvre, rien ne se passe ou un message d’erreur apparaît, et l’utilisateur passe à autre chose. En fait, le virus est lancé, se décompresse, va chercher sur internet un contenu à exécuter et l’exécute.
Le plus radical il y a 2 ans, c’était d’empêcher Windows d’exécuter quoique ce soit depuis les répertoires utilisateurs et depuis c:\Windows\Temp. Mais ça bloque des logiciels tout à fait normaux et la plupart des install.
“Enfin, le disjoncteur différentiel, s’il est de 30mA au lieu de 2 pour
une SDB il me semble,
Bien fait de mettre il me semble. J’ai fumé, le 30mA est partout dans la maison y compris SDB. Et bien sûr pas de 2mA, ça sauterait tout le temps.
Le
12/02/2020 à
10h
56
Carpette a écrit :
En revanche la donne change à 220/110V CA. Et là il faut faire attention. D’ailleurs même en 12 volts avec des mains très mouillées il faut faire gaffe, message à destination des mécanos.
Une batterie de voiture, capable de sortir des courants de l’ordre de plusieurs dizaine d’ampères, ça tue.
Mais effectivement, c’est la puissance qui tue, et elle s’élève au carré de l’intensité, qui elle croît à tension constante avec la diminution de la résistance.
En gros, un corps de résistance 2x inférieur recevra à tension identique une puissance 4x supérieure (cours de collège).
Comme j’ai résumé et certainement déformé: le cours est ici: electroboom (merci les LIDD pour me l’avoir fait découvrir à l’époque, je reste fan depuis " />, et mes enfants aussi)
Le
12/02/2020 à
10h
51
Vous faites peur tous à ne pas comprendre.
Les 5V, c’est à la sortie du chargeur, entre les deux fils du chargeur.
Mais la différence entre la main de l’utilisatrice (qui touche le téléphone, le bout du fil du chargeur) et la prise est potentiellement quelque part entre 0 et 220-5 = 215V…
Les chargeurs sont isolés dans des conditions normales donc le courant de sortie est séparé “magnétiquement” du courant d’entrée (il arrive qu’on sente des chatouillis avec des ordis et des téléphones métalliques, du fait de fuites de courant via le sol par exemple).
Mais une salle de bains humide n’est pas une condition normale. De la condensation peut faire un chemin à l’électricité, mettant le fil de charge et le téléphone sur un potentiel de la prise de courant.
Et là, c’est le drame.
On ajoute que si l’électricité passe de la tête ou la main au reste immergé du corps mouillé:
elle passe par les organes
le corps mouillé résiste peu au courant, le courant est très fort (U=R*I, R faible)
Enfin, le disjoncteur différentiel, s’il est de 30mA au lieu de 2 pour une SDB il me semble, laisse passer un écart entre 10 et 30mA (seuils de perte de contrôle musculaire et seuil de paralysie respiratoire). Quand on est bloqué dans une baignoire sans contrôler ses muscles, ça peut être fatal.
C’est pour cela que les appareils électriques dédiés aux salles de bain sont dits à double isolation (les radiateurs et sèche serviettes notamment)
Du coup les impôts que je paye ne servent pas à ça ?
Et si les automobilistes arrêtent de commettre des infractions il n’y aura plus de fric pour entretenir les routes ?
Je ne suis pas sûr que nous payions suffisamment d’impôt pour entretenir toutes nos routes. Du coup, là ça permet d’entretenir les routes où il y a les accidents, donc celles qui sont utilisées… C’est pas si bête en fait.
Le
10/02/2020 à
12h
50
aldwyr a écrit :
Ce qui me perturbe en fait, c’est que le premier argument qu’il met en avant quand à la disparition des radars, c’est la perte des recettes engendrées par l’état… alors que normal, ce n’est pas sensé servir pour la sécurité routière ?
L’argent des contraventions est un fond tenu par la préfecture à destination des collectivités pour financer des aménagements de voirie.
Donc ces millions en moins, c’est surtout pour permettre de construire des barrières, dos d’ânes, chicanes, mais aussi refaire des revêtements, retracer une courbe, refaire une route qui part de travers, élargir un trottoir, faire une dépose-minute sécurisé près d’une école…
Mais si on dit ça haut et fort, il y a moins de raison de râler, donc on ne le dit pas.
Bref, pour un routeur inclu dans l’offre, ca apporte pas mal de fonction. Personnelement, je n’ai jamais eu de bug avec cette box (bon ok, en mode bridge, elle ne fait pas grand chose).
Je comprends pour le mode bridge.
Pour les fonctionnalités en NAT… Je n’ai plus aucune confiance, la box m’ayant même “trahi” sur les enregistrements TV: la place est occupée sur la clé USB, mais ils ne sont plus listés par la box.
Le freewifi ne marche plus depuis que je suis NATé sur 1⁄4 des ports (visiblement comme plusieurs box ont la même IP, leur site ne plus plus en identifier une pour modifier le mot de passe). Le Wifi guest aurait été bien, si le Wifi marchait tout court. Le server bittorrent sur ADSL, merci mai quand l’upload est saturé, le download l’est aussi…
Après, je reconnais que free est presque le dernier opérateur sur lequel on arrive à maintenir un accès IPv4 depuis l’extérieur pour de vieux appareils qui ne dépendent d’aucun serveur central.
Je pense surtout que ayant un NUC qui me fait un peu tout (et qui consomme à vide à peu près ce que semble consommer le femto), je suis assez vite déçu des “fonctionnalités” promises par la box, tant au niveau des possibilités de paramétrage que de la stabilité (couper le Wifi toutes les nuits faisait planter le player mini 4K toutes les nuits au début - mais du coup je l’ai vite rangé).
J’ai surtout eu l’impression qu’à trop vouloir en faire, ils n’ont pas su faire stable et n’ont pas réussi à suivre quand il y avait des bugs.
Maintenant, la mini 4K a un intérêt essentiel pour moi: l’offre est 12€ moins cher que toute la concurrence en ADSL et est dégroupée chez moi - le débit serait le 1⁄3 pour plus cher chez la concurrence.
Le
05/02/2020 à
10h
08
Patch a écrit :
J’ai l’impression que tu parles d’une autre box que celle que j’ai connue " />
Celle dont je me souviens c’était non pas une box, mais un bug géant. La seule box qui provoquait de serie des erreurs CRC en masse, en plus de surchauffer (sa température extérieure c’était celle d’une mini avec femtocell activé, durant la canicule et en plein soleil)…
Idem, c’est pas celle que j’ai connue. A part sa manie de se mettre en mode “performance” à chaque mise à jour (je mettais sur un mode “connexion stable”), je ne suis jamais intervenu dessus. Et personne ne râlait.
Avec la 4K, j’ai l’impression de l’avoir rebooté 1 jour sur 3, et les autres utilisateurs de la maison râlaient parce que le internet n’était pas stable (perte de connexion pendant les devoirs, impossibilité de lancer steam,perte de saisie sur un interface web, de commandes en cours, pings atroces de plus de 1000ms en local…). Tout cela est arrivé avec la 4K et parti depuis que j’ai mis des bornes. Le tout à 4-8m de la box en ligne directe au travers d’une simple plaque de plâtre.
D’ailleurs entre-temps, le NUC a servi de borne WIFI et un NUC (le N2820), posé sur le NAS, au ras du sol, sous une étagère croulant sous les papiers, avait un Wifi bien plus stable et performant que celui de la box (posée et orientée correctement - dégagée).
Bref, la M4K ne dépasse pas les bornes.
Le
05/02/2020 à
09h
24
Patch a écrit :
Malheureusement oui…
Avec toujours obligation de passer par le panneau de la facade du server pour le désactiver, bien entendu.
Je confirme. Depuis des travaux ce mois-ci: température + 7°C, problèmes WIfi majeurs et au final: Femtocell réactivé dans mon dos.
Justement, ça m’a fait craquer et mettre un autre Wifi tellement ça devenait insupportable (chaque fois qu’un nouvel appareil se connecte, tout le monde perdait le Wifi pendant quelques dizaines de secondes, on voyait un “trou” dans les stats de la freebox mais elle n’avait pas redémarré complètement)
ForceRouge a écrit :
Franchement, je trouve que cette box est la moins pourri des box opérateurs, elle est petite, avec pas mal de fonctionnalité pour ceux qui s’en servent en mode NAT.
Quelles fonctionnalités tu lui trouves qui sont intéressantes?
Perso je regrette la NB6: plus petite, discrète, faible conso, jamais un problème (OK, pas de fonctionnalités particulières - mais je n’utilise pas grand chose de la M4K, par peur que ce soit aussi stable que le Wifi)
Le
04/02/2020 à
11h
12
Ils ont corrigé les problèmes d’alimentation et d’interférences en tout genres?
En fait, si je ne coupe pas le femtocell, le Wifi est quasi inopérant (et la température supérieure de 7°C dans le boitier)
Si je télécharge depuis internet, c’est à peu près OK, si je télécharge depuis le NAS, le Wifi reboot.
Si on télécharge trop, le téléphone ne sonnera pas, si le téléphone sonne, il y a coupure du Wifi.
L’afficheur meurt au fur et à mesure… Free m’a changé la box non pas pour les problèmes Wifi, mais parce que l’afficheur ne fonctionnait plus et que du coup je ne pouvais plus renouveler mon mot de passe FreeWifi.
Cette box est une CATASTROPHE. Elle offre des débits supérieurs à la concurrence, ok, mais impossible d’activer tous les services sauf à lui brancher une vraie alim (12.3V, 5A) - cela corrige effectivement les problèmes, mais c’est mon alim de labo, c’est pas pour alimenter la box H24!
Le player est inutilisable. Il plante chaque jour et il faut le démarrer 3x pour qu’il se rappelle du code Wifi.
Sauf bien sûr à mettre un vrai Wifi à la place de la box. Là, ça marche.
Les alims “netbits” fournies par free semblent être fabriquées à partir de composants biodégradables. Elles meurent doucement les unes après les autres (free ne les reprenant pas, et ayant eu deux players et deux box, là je finis la 4ème alim…)
Mes voisins ont les mêmes symptômes. En bref, ils peuvent annoncer ce qu’ils veulent, pour moi Free c’est pas cher et tu en as pour ton argent, point.
Ils ont aussi fait une panne sharepoint pour certificats (3h sans aucun affichage de Sharepoint)
“A certificate issue within ourthird-party CDN provider resulted in impact to SharePoint Online, OneDrive forBusiness and Project Online Classic UI page rendering.”
Les scripts javascripts ne pouvaient plus être chargés car le site static.sharepoint.com n’avait plus de certificat (le certificat ne s’appliquait pas sur des sous-serveurs visiblement).
Il y a 2 semaines, on ne pouvait plus ajouter de pièces jointes aux mails.
Après la panne de plusieurs jours de Novembre (problème de cache sur un proxy) qui a perturbé sharepoint et onedrive (avec parfois des pertes de données, les synchro onedrive écrasant des fichiers qui avaient été modifiés entre temps), j’avoue adorer l’infra cloud de Microsoft.
Sur l’année glissante, la disponibilité n’est peut-être pas meilleure qu’avec du on premise. En considérant une dispo sur les heures de bureau, on est déjà au-delà de 0,1% de temps d’indisponibilité d’un service.
J’ai utilisé ce clavier pendant un mois. J’ai arrêté pour le moment car:
Le clavier en lui-même est bas de gamme et franchement gênant pour ma façon de taper.
Travaillant sur portable et en RTC je bloquais mes comptes régulièrement (genre taper le mot de passe sur le portable alors que la nouvelle disposition était active…)
Pendant l’utilisation, j’ai trouvé:
Que ça se prenait rapidement en main (une après-midi de documentation suffit largement)
Pour l’utilisateur final, c’est très classe
Pour le dev, c’est mitigé (touche =, _ et touche $)
Sinon, pour la hotline: on peut faire trois types de traits différents (underscore, moins, trait d’union) - super pour les login/mail et mots de passe utilisateurs
Enfin, eh bien après une semaine sur clavier normal, la disposition Azerty+ me manque en fait.
Par définition, le RAID crée de la fragmentation (que ce soit le stripping ou le RAID 5 ou 6). Mais ce n’est pas forcément un problème si les données sont lues linéairement, un RAID 5 ça délivre plus de bande passante qu’un disque isolé.
Et c’est là que le bât blesse: avec tous les niveaux de virtualisation (OS, datastore, SAN), c’est linéaire mais à “trous”: les datastores sont stockés sur des pistes dans l’ordre, mais pas consécutives. Pire encore avec le thin provisioning sur les VM: les trous sont multipliés. Par exemple, un cas pourri serait si une appli est stockée sur le même volume SAN que le serveur BDD, et que tout soit en provisionnement à l’écriture:
* l’appli reçoit une charge de travail fichier -> provisionnement d’une piste
* la BDD enregistre des données -> provisionnement d’une piste
-> la BDD est stockée une piste sur 2
Après, si tu as du tiering, c’est potentiellement masqué/temporaire.
Le
30/01/2020 à
21h
51
Je ne te suis pas, c’est quoi ton histoire de tranches ?
Et en pratique, sur des baies pas ridicules (genre EMC), accédées par plein de VM, on a de très beaux débits en linéaire sur les RAID.
Les tranches, c’est l’histoire de l’allocation dynamique des volumes SAN sur les disques. J’ai travaillé sur deux SAN (Storwize) configurés pour allouer lors de la première écriture, par pistes (track) de 128 ou 256ko de mémoire.
Le résultat, c’est que si on a plusieurs VM sur des volumes stockés sur le même RAID, on crée une fragmentation.
Je suis arrivé après coup, et sans formation, donc j’ai compris cela un peu tard… Déjà il m’a fallu réagir que le SAN était sur alloué (plus de taille de volume déclarée que de place disque réelle) - ça a failli nous exploser à la figure…
Pour les débits, je suis bien d’accord, j’ai vu un server SQL qui tenait le coup uniquement grâce au SAN (serveur 32 bits, 2Go de RAM pour SQL server, mais un volume transféré avec le SAN de plus de 60Go par jour, pour 10Go de base de données gérées…). Le 300Mo soutenu en lecture, c’était largement possible. Mais pas tout le temps et uniquement sur les disques rapides et le cache SSD, pas sur la partie lente. Et comme on ne contrôle pas directement où sont stockées les données…
Le
30/01/2020 à
10h
25
Inodemus a écrit :
Donc en cas de panne d’une carte, je n’ai apparemment qu’à racheter le modèle actuellement en vente de ce constructeur pour retrouver mon RAID,
Il faut juste vérifier de temps en temps que le constructeur n’a pas coulé…
Dans le même constructeur, ça se tient avec ce que j’évoquais plus haut. Le hic, c’est si ton constructeur est racheté aussi, notamment par IBM ou autre.
Chez IBM tout est taggé: sache que tu ne mets pas dans un SAN IBM un disque qui ne fasse pas partie des modèles reconnus et des firmwares reconnus de ce modèle. Le disque est rejeté. La mise à jour des disques et firmwares reconnus est dans les mises à jour que tu n’obtiens que si tu payes toujours la maintenance.
Le
30/01/2020 à
07h
41
Shadowman_2k3 a écrit :
C’est un peu comme le principe d’avoir un NAS avec un RAID5, si tu perds un hdd, tu gères, si tu crames la carte mère du NAS, tu perds tout …
Kazer2.0 a écrit :
FreeNAS (qui utilises aussi ZFS d’ailleurs) si ta carte mère lâche, tu fout les disques dans une vieille tour, tu boots et tu importes le pool, c’est ultra rapide.
Les NAS clé en main sont souvent construits sur du Linux (y compris les SAN à 30k€, qui sont des PC à l’intérieur, de bons gros i5/i7). Donc du moment qu’il n’y a pas de cryptage physique lié à la CM, tu as des chances de remonter le NAS sur un linux/BSD standard…
Mais attention: il y a parfois des différences dans la prise en charge de la géométrie par les RAID des CM. En gros, un FreeNAS monté sur un RAID physique Intel redémarrera certainement sur un RAID physique Intel d’à peu près la même année/gamme. Et c’est déjà un import, la CM va normalement râler que le RAID ne vient pas de son système. Il y aura certainement une vérification au démarrage à minimum, peut-être une reconstruction.
Et l’importer sur un RAID d’une carte fille ou d’une carte mère avec contrôlleur RAID supplémentaire ou pour ARM/AMD ne sera pas forcément possible.
Si le RAID est logiciel, c’est moins risqué pour la récupération (risque quasi nul je pense).
Le
30/01/2020 à
07h
25
crg a écrit :
La plaie pour faire comprendre à un monsieur michu que c’est plus cher qu’un disque USB 2 To de supermarché.
Exact. Il n’y a que quand tu gère/a géré du stockage que tu comprend pourquoi on n’alloue pas 1To par serveur. A 300€ le disque + l’augmentation du coût de maintenance annuelle + le fait que souvent tu doivent augmenter non pas 1 mais 3-6 disques pour étendre le stockage…
Les admins passent pour des pingres mais heureusement qu’ils sont là pour faire des garde-fous. Mais c’est vrai que quand tu accordes 50Go et qu’on te dit “c’est à peine 1⁄4 de mon iPhone” “comment on peut bosser avec aussi peu”, tu dois garder ton calme tant que tu n’as pas raccroché le combiné.
Juju251 a écrit :
Vous savez le fameux : “Non-recoverable read errors per bits read” (je peux détailler plus au besoin) …
Je ne l’avais pas celle là …
Juju251 a écrit :
Et je ne parle même pas du fait que si une seconde unité tombe pendant la reconstruction, cela peut véritablement tourner à la catastrophe …
C’est tabou. On n’évoque pas cela. On fait des messes noires et des sacrifices pour ça n’arrive pas. On est donc paré.
Le
29/01/2020 à
22h
08
KP2 a écrit :
Un HDD entreprise, ça monte facile à 250-300Mo/s aujourd’hui mais bon, ça fait toujours un paquet d’heures de copie…
Même quand tu atteins les limites du cache? Même en accès aléatoire?
J’ajoute que parfois on ajoute couche sur couche (SAN-RAID-Datastore de VM) et qu’au final, le système d’exploitation voit un beau disque tout lisse alors que derrière c’est tout un spaghetti, et l’OS a beau se croire hyper intelligent il fait tout de travers pour le SAN en bout de chaîne.
Imaginons une VM avec un disque en thin provisionning dans un datastore, lui-même servi sur un volume de SAN en dynamique qui alloue par tranche de 256k sur un RAID partagé, et qui a été écrit la 1ère fois en parallèle d’une machine au comportement similaire… Ben on se retrouve avec une espèce de fragmentation niveau SAN, que l’OS est totalement incapable de voir.
Et là, vive le tiering avec le SSD en tête pour rattraper la situation!
D’ailleurs, sur les grosses baies on est en tiering, ce qui fait que toute une grosse partie des données (les moins fréquemment utilisées) sont sur les disques lents.
C’est d’ailleurs un phénomène existant à plus faible échelle: quand on restaure de grosses bases (compta, RH), souvent la restauration est longue car le SAN dépose beaucoup sur le tier lent. Et la compta reste lente tant que le SAN ne passe pas un max de données vers le tier SSD (en cache SSD), soit souvent … une fois par semaine…
Le
29/01/2020 à
16h
10
WereWindle a écrit :
ça laisse songeur comme chiffre. Une idée de pourquoi c’est si lent (mode dégradé ou truc du genre) ?
Je ne sais pas si c’est la lecture ou l’écriture qui pose problème.
D’après l’article ils ont cherché une solution pour restaurer sans “scanner l’intégralité du pool”. Donc ce n’est pas une simple lecture - il ya avait un traitement lourd.
Ensuite, suivant le type de RAID, il y a des contraintes. JE vais illustrer sur ce que j’ai le plus pratiqué: RAID-5.
RAID-5 est très utilisé car économique en coût d’achat et ayant un bon compromis pour les perfs et la sécurité, mais en écriture il est mauvais: écrire sur 1 disque revient à écrire sur au moins 2 disques (selon le nombre de disques de parité) tout en lisant sur TOUS les disques de données (car la parité est calculée à partir de tous les disques).
Principe de raid 5:
parité = XOR entre tous les secteurs de données de même position
une donnée = XOR entre tous les secteurs de données (hormis le disque de la donnée) de même position et la parité
C’est basique, c’est simple, c’est génial.
En pratique, quand on écrit une donnée on doit écrire la parité, qui elle découle de la lecture de tous les disques de données. Même avec des disques durs 15000 tours, ça fait beaucoup d’opération disque à attendre. De plus, il faut systématiquement attendre une lecture parallèle et 2 écritures (parallélisables aussi)
Alors OK, les baies sont bourrées d’optimisations, de caches.. Mais les files d’écritures ont une longueur limite et les caches en cas d’écriture sont divisés par le nombre de disques (puisqu’ils lisent tous), donc en écriture soutenue, un RAID-5 s’écroule assez rapidement. Si en plus on lui demande de lire en parallèle pour contrôler quelque chose, c’est la cata. Et quand on a des baies, du SAN, on n’a pas forcément dédié une baie à un espace de stockage, donc on partage les ressources (un SAN, c’est comme un hyperviseur mais pour le stockage)
Le problème de mon point de vue, c’est surtout la granularité de la sauvegarde: la sauvegarde de tout un système en même temps c’est simple, mais sans pouvoir restaurer morceaux par morceaux, cela force tous les utilisateurs à attendre que toute la sauvegarde soit restaurée pour continuer.
Maintenant, on avait sans doute plus de possibilité de ne pas économiser du silicium avec un SMT au rabais sur une architecture plus récente et mieux conçue
Ca touche aussi des coeurs ARM
Ce n’est pas au niveau du x86 mais du microcode
Franchement, quand on regarde comment ça marche (tenter de faire faire un truc pas prévu au CPU, trouver un moyen de lire le cache sans en avoir l’air), oui c’est un bug, mais avec la une vague idée que j’ai de comment cela se traduit au niveau des transistors du CPU, je comprends que l’optimisation a été faite à ce coût et que certaines chemin ne sont pas prévus.
Pour le moment, on exploite toujours la même idée sur les Intel Core. Si quelqu’un trouve le chemin d’instruction capable de faire sortir rapidement des octets d’un cache Zen, on aura la même déferlante de problèmes chez AMD.
Je ne dis pas que Intel n’a rien à se reprocher, je dis juste qu’aucune architecture qui partage un tant soit peu son cache entre plusieurs thread n’est pas à risque… Et le fait que ce soit Intel fait un méga buzz, le jour où c’est un freescale, ça paraîtra dans de la presse plus spécialisée et peu de gens ici se sentiront concernés.
Sinon, un exemple d’exploit (non testé moi même) tente à montrer que les skylake sont plus performants pour déclencher les problèmes, que Haswell sans HT limite énormément l’impact et que AMD sur un A8 est touché, mais dans des proportions très inférieures (exploit)
Le
28/01/2020 à
15h
14
Gawked a écrit :
Haswell abandonné :(
Après, si c’est pour ralentir le CPU… Mais si ça continue, mon 4702MQ va passer devant le 8250u du boulot :) (c’est déjà le cas sur des calculs longs…TDP oblige)
Après, mon fixe est un 3570K, (non hyper threadé), au temps de spectre/meltdown, d’après un papier il avait un débit de 86 octets/min dans la faille, un Skylake allait plus de 1000x plus vite, Intel avait vraiment bien optimisé ces failles :)
Le
28/01/2020 à
15h
10
En plus des CVE sur la partie graphique (CVE-2019-14615)
La chance et opportunité d AMD sur les serveurs est clairement le cloud avec la tendances des entreprises de délaisser leurs serveurs sur site (on prem) vers des services dans le cloud.
La limite est toujours la même. Pour une entreprise qui souhite aller sur le cloud mais en conservant des logiciels comme Windows, Oracle, SQL Server, en maintenant ses licences, que ce soit du Intel ou du AMD ne change pas grand chose: on va rarement demander une machine de plus de 4 coeurs.
Pour une entreprise qui gère des infra cloud, avec ses propres logiciels, et revend ensuite une prestation à une entreprise/un utilisateur final, ça a du sens de limiter le nombre de serveurs en allant vers du AMD.
Il faut bien voir que la majorité des serveurs sont utilisés en moyenne sur la journée moins de 10% de temps en CPU. Le stockage est bien plus sous tension que le CPU.
Quelques serveurs de calcul, BDD peuvent bénéficier d’une évolution vers AMD, mais finalement les calculs sont plutôt en prestation et l’archi derrière a peu d’importance.
Même en infra à distance et cloud hébergé, quand on cherche un peu on s’aperçoit qu’on est en instance partagée sur des serveurs en Sandy bridge…
Le
24/01/2020 à
22h
08
GuiTheGuy a écrit :
On a donc trouvé LE gars qui parle sans avoir suivi le CES. Ces chiffres sont l’arbre qui cache la forêt, la tendance actuelle va aller en s’accentuant sur les laptops. (et sur le HEDT et les serveurs où le changement de tendance est bien réel aussi)
Des tendances, c’est pas du réel. La on parle de ce qui s’est passé, pas de ce qui va se passer.
Dr. Klein a écrit :
“Sur l’informatique mobile, AMD a stablisié avec les 3xxx, mais qui sont une génération en retard et ça se voit. ”
C’est pas non plus un écrasement total. Même sur le graphisme le 4800H qui semble être le haut de gamme égalise le nouvel intel. Il faut donc voir avec l’autonomie et ce qu’apporte les chipsets. C’est pas la révolution qu’est Ryzen sur le desktop pour le moment.
gg40 a écrit :
“même avec des outils opensource, la maintenance augmente avec le nombre de CPU souvent”
Je comprend pas, ou alors tu parles de mainframe ?
C’est pas parce que c’est opensource que tu ne payes rien. La maintenance est payée pour ne pas avoir à tout devoir gérer. Et assez souvent, l’opensource se calque sur le propriétaire: paiement au volume de données, au nombre de coeurs…
Le pire que j’ai vu, c’est l’opensource en cloud complètement fermé…
Le
24/01/2020 à
10h
21
dylem29 a écrit :
Avec autant de chiffres, Intel est en PLS face à AMD niveau techno. " />
Sur le desktop surtout qui n’est pas actuellement la vache aux oeufs d’or.
Sur l’informatique mobile, AMD a stablisié avec les 3xxx, mais qui sont une génération en retard et ça se voit. Leurs APU sont entre deux eaux: mieux que les Intel, mais ça permet juste de jouer mieux aux jeux auxquels on peut jouer sur Intel.
Et en version haut de gamme, le dernier Intel mobile (sur les i7 G7) place la barre bien plus haut.
Reste la partie serveur (là aussi c’est un marché poule à lait) où le match est compliqué: AMD peut faire du gros et moyen serveur, mais sur ces serveurs ce qui coûte, ce n’est pas tant le matériel que les licences et la maintenance.
Ce que propose AMD avec plus de coeurs n’est pas applicable sur les petits serveurs, là ça fait exploser le coût des licences ou de la maintenance (même avec des outils opensource, la maintenance augmente avec le nombre de CPU souvent)
Et le renouvellement ne se fait pas en claquant des doigts: 6ans pour les serveurs et ordis, qui tend sur les 8-10 pour les serveurs moins utilisés (on peut encore facilement trouver des serveurs sous Windows 2003 32 bits)
Et tous les petits autres marchés où Intel est.
AMD révolutionne le desktop et sincèrement relance le marché avec un réel engouement, mais c’est un pied dans la porte. Voire un orteil.
J’ai déjà «intercepté» un chargeur qui était en train de fondre sur place.
J’ai aussi eu une tablette dont la batterie a faillit mourrir définitivement à cause d’un couple chargeur + câble trop long: pour la relancer, à part court-circuiter le circuit de sécurité de la batterie pour autoriser la charge, j’ai surtout dû change rle cable pour un ultra-court (10cm).
Dernier cas en date: un chargeur USB 2A, qui marche très bien normalement, mais qui est détecté par un des nouveaux téléphones (Xiaomi Note 7) comme un chargeur rapide: le Xiaomi le «vide» toutes les secondes: c’est le même effet que si je m’acharnais à brancher et débrancher en boucle le téléphone…
Bref, c’est la jungle.
Du coup, je recharge les téléphones surtout sur les ordis et je cherche des stations de charge et de branchement (genre un truc qui me donne 4x12V séparés pour alimenter la box, le NAS, le NUC et la borne Wifi)
En même des locataires non acteur porno ont aussi une probabilité non nulle de faire du sexe sur ton canapé / lit / endroit de leur choix et t’en aura pas la moindre preuve
Bref, cela pour dire que l’IA est pour le moment aussi bête qu’une huître (encore que l’intelligence d’une huître pour survivre dans son milieu aquatique est sûrement plus développée que la plus développée des IA existantes actuellement).
J’espère être plus intelligent qu‘une huître, mais je dois admettre que dans le domaine de la survie en milieu aquatique, j’ai aussi beaucoup à apprendre.
Ceci dit, sortir de ma coquille pour dire çà… Finalement, je me prosterne devant les huîtres.
Avec le projet, il faudrait donner son identité réelle, ça serait limitant (plus d’anonymat) et traçable… perte de libertés…
En quoi est-ce limitant et liberticide? Pour moi la liberté est encadrée, mais elle existe.
La seule différence, c’est d’assumer ou non ses actes et d’être prêt à assumer aussi leurs conséquences.
Certaines «libertés» existent sur internet dans les faits car les gens se croient couverts par l’anonymat. Elles ne sont peut-être pas reconnues en tant que telles par la loi. Ces dernières années, on assiste à un rattrapage: on peut se sentir «privé» d’une liberté que l’on s’était octroyée dans certaines circonstances.
Pour illustrer: tu as toujours la possibilité de rouler à 170 sur une route départementale, mais c’est puni par la loi (de façon aussi à donner une limite raisonnable à une liberté afin de protéger tout le monde)
Pour ceux que ça intéresse (ou qui seront contraint une fois que l’update sera passée automatiquement), voici ce qu’il faut pour faire la config de Ms Edge dans l’AD dans les GPO (l’admx est assez complet) :
J’attends surtout beaucoup de ce Edge en entreprise, car on peut déclencher le moteur de rendu IE de façon «seamless» sur les sites choisis.
On pourra enfin donner à nos directeurs un choix pour le «navigateur unique». Ou pas.
(oui, je sais que Chrome Enterprise permettait déjà cela, mais Chrome mangeait tellement de RAM à l’époque où je l’avais évalué par rapport à la RAM présente dans les ordis que je n’avais pas pu le recommander)
chapeau à Microsoft pour avoir supporté 7 aussi longtemps, c’est comme si apple patchait ios4 et google android 1.6 …
Nan, on ne dit pas ça si on est «geek».
En tout cas, la faille crypto semble franchement sérieuse, peut-être dure à exploiter, mais elle vaut le coût: pouvoir faire passer un code comme légitime et vérifié, c’est énorme…
mais c’est surtout celui de la non-destruction des invendus qui me parait couillu vu le consumérisme ambiant. Bon, après l’amende n’est que 15 000 € (Amazon va donc continuer à cramer ses invendus tranquillou)
Surtout, Amazon va reporter cette amendes sur les vendeurs qui prendront un peu plus de soin à calibrer leurs stocks. Faut pas tout mettre sur le dos d’Amazon: les vendeurs et les clients sont (ir)responsables aussi.
SebGF a écrit :
Ca dépend des gens évidemment. Après si un réparateur à 40€/heure(*) met la demi journée à remplacer la pièce, c’est 160€ de frais rien qu’en main d’oeuvre.
Changer un écran, la durée est variable selon le modèle. Mais c’est généralement moins d’une heure. Après, il faut compter le risque de casse et le chiffrer.
Je fais peu de téléphone mais souvent des ordis, et la plupart des gens trouvent que c’est magique (changement d’écran, nettoyage de clavier, repâtage thermique) - ça redonne facilement deux ans de vie supplémentaires aux ordis!
Enfin, j’ai testé plusieurs services clients:
* Focal +++ (vraiment pas cher pour le changement d’un tweeter au bout de 10 ans)
* Roomba +++ (2x moins cher sur les pièces que ebay)
* Dyson +++ (forfait 100€ pour changer le moteur d’un aspi de 7 ans, avec prêt d’un aspi en attendant!)
* Garmin/Nintendo: pas encore d’avis…
Perso je trouve que les grandes marques assurent encore un service client après-vente. Si les petites marques se conforment à cette nouvelle loi, la différence de prix risque de se resserrer.
Historique des fichiers Windows pour les petits tracas du quotidien + Sauvegarde sur le NAS (donc malheureusement en double…)
Envoi quotidien vers internet et copie sur 2 disques externes à chaque départ en vacances (je pars avec une copie et laisse l’autre au boulot)
La NAS est juste en RAID 1, mais j’envisage d’enlever le RAID, voire le NAS (j’ai un NUC qui chapeaute un peu tout). De toutes façons à quoi sert-il chez moi? Le NAS est déjà une copie centralisée, elle-même recopiée sur internet. Je n’ai pas besoin de RAID du coup. Un disque externe sur le NUC fera le TAF (un peu moins vite peut-être)
La même sincérité qui fait passer de 2 lignes mineures à 3 pages selon qu’on soit sur un centre CT ou un autre, tu veux dire?
Au moins sur les défauts critiques (la sécurité) ils n’ont pas beaucoup de possibilité de triche (à part la substitution de véhicule).
Pour les défauts mineurs, il y a un biais, selon la tolérance et parfois les petits «arrangements » humains… Mais qu’y faire pour le moment?
En tout cas, je suis d’accord avec toi: certains CT ne vont quasi rien noter en défaut mineurs, et d’autres tout te lister. Si on n’a pas le temps de discuter, on ne sait pas si c’est du mineur «mineur» ou du mineur «ça urge».
Le
09/01/2020 à
13h
26
Patch a écrit :
Le CT ne sert en l’état en rien : la voiture est strictement dans le même état à l’entrée et à la sortie, et rien n’est prévu pour arranger ce qui ne va pas. Et en prime, la personne qui regarde ne comprend 99% du temps même pas ce qu’elle regarde. Exactement comme un hotliner 1er niveau en nearshore, il ne fait que lire un script préétabli.
Justement, tu pointes l’intérêt du contrôle technique: séparer celui qui diagnostique de celui qui répare, afin de garantir (ou au moins améliorer) l’indépendance et la sincérité du diagnostique.
C’est pour cela que même si quelqu’un a une formation de mécano, il n’a pas le droit d’exercer ce métier s’il travaille dans un centre de contrôle technique.
Et nous avons besoin du contrôle technique pour assurer que les voitures sont conformes aux exigences de sécurité.
Pour le moment, je ne vois pas de meilleur moyen.
Sans cette séparation, on se retrouve avec les travers de certains centre de réparation rapide très “commerciaux”, où tu amènes ta voiture pour changer un amortisseur qui fuit et tu sors avec «mais mon bon monsieur moi je ne roulerait pas là-dedans. Elle ne passera pas le CT, il y a presque 1000€ de réparations. Mais on vous fait un prix». Raté, la seule chose qui ne passait pas c’était cet amortisseur. Et en partant, j’ai entendu le «conseiller-vendeur» sortir exactement le même discours au client suivant…
Bref, à défaut de mieux, je suis pour le CT. Et je ne vois pas de problème à verbaliser son absence par vidéo, au même titre que le défaut d’assurance (qui quand on n’a pas le CT, est quasi la même chose dans les faits), mais quid de celui qui amène une vieille voiture au CT pour la remettre en circulation?
Le
08/01/2020 à
21h
34
Ptitl0u a écrit :
Euh dans le cas où le contrôle technique est fait avant une vente entre particuliers, je suis plutôt rassuré que le vendeur ne puisse pas refiler un véhicule dont le moteur puisse être sujet à la casse.
Que le voyant moteur soit en remarque mineure, ça ne me dérangerait pas.
Mais c’est un anomalie critique maintenant, donc CT non valide.
Et vu le nombre de personnes que je connais qui ont ce voyant qui s’allume pour un oui ou pour un non… Ou qui reste allumé depuis des années…
Je n’ai toujours aucune confiance dans l’électronique des voitures pour diagnostiquer. Dernier message en date: “anomalie système électronique”, 2 semaines et 1 page de compte-rendu de test plus tard (et changement du calculateur central, de faisceaux et de je ne sais quoi d’autre), c’était une panne sur un capteur ABS arrière. Pas une panne de l’ABS, qui fonctionnait bien d’après le garagiste, mais du composant électronique qui sert à vérifier que ça marche…
[Edit] Avant que l’on ne me dise que mon garagiste me roulait dans la farine, la voiture était dans sa dernière semaine de garantie quand je l’ai déposée. Donc tout a été aux frais de Citroën
Le
08/01/2020 à
14h
59
Furanku a écrit :
Je ne partage pas la même expérience et pour un véhicule beaucoup plus récent :)
Pour ma part c’était pneus usés qu’il fallait changer asap, ce que j’avais prévu de faire le mois suivant.
Le joint SPI. les fuites diverses, c’est un risque de casse moteur, le CT n’est pas là pour ça. C’est notifié. il faut le prendre juste comme un service qu’on te rend pour faire rouler ta voiture plus longtemps.
L’usure des pneus, c’est de la sécurité, donc contre-visite.
Ce qui est déconnant, c’est une contre-visite pour allumage du voyant défaut moteur. Là c’est un vrai mélange des genres.
C’est tellement commun de sacrifier des tests pour vendre à Noël…
Tout comme le fait de prendre l’équipe qui n’a que faire des aléas du réseau et qui va développer un truc qui ne sait pas gérer/reprendre sur réseau «instable».
Tous les appareils semblent conçus maintenant sans considération que internet n’est pas dispo H24, que l’on peut choisir d’arrêter régulièrement les appareils et que les appareils ne sont pas seuls sur le réseau et pas prioritaires.
Le problème de faire tourner dans des conteneurs, c’est que Windows y perd son ADN: la possibilité (via COM) de faire marcher des applis dans les applis, de faire des appels plutôt performants entre applis, de partager les composants…
Plusieurs applis ont besoin de COM par exemple pour leurs propres extensions (filtres et autres).
Comme ce que l’on combat/contourne depuis des années avec l’exécution de l’environnement x64 à côté de x86 mais sans passerelle entre les deux (ceux qui gèrent des postes en entreprise avec des logiciels 32 et 64 mais une seule suite office possible comprennent), mais cette fois-ci pour chaque appli.
La disposition est pas mal en fait. On s’y fait très vite, bien que le matin ça reprenne toujours quelques minutes pour s’y refaire.
Il faut bien penser à changer les mots de passe avant de fermer sa session la première fois!
En programmation, c’est assez sympa. Beaucoup de touches sont plus directes.
De même, je trouve ce clavier plus facile à expliquer aux enfants et débutants. Il y a peu de caractères «communs» qui sont accessibles uniquement en «AltGr+touche», et les gens sont émerveillés de pouvoir accéder à de nouveaux caractères!
Pour moi, le problème de cette norme, c’est l’adoption: facile sur fixe, mais sur portable on n’y est pas. Et aussi l’inversion «,/.», c’est de la torture.
Par contre, le clavier LDLC est vraiment “cheap”. C’est bien pour se familiariser, mais je ne l’utiliserai pas longtemps. Il est bruyant, le toucher est assez bof et je me suis habitué aux claviers avec de l’espace entre les touches. Avec celui-ci j’ai tendance à parfois appuyer sur plusieurs touches à la fois et à ne pas avoir les caractères qui s’affiche dans le bon ordre si je tape rapidement.
3763 commentaires
iPhone ralentis : Apple aurait accepté de payer 500 millions de dollars aux États-Unis
03/03/2020
Le 05/03/2020 à 05h 45
Le 04/03/2020 à 06h 07
Le 03/03/2020 à 15h 00
Tout cela pour un quasi non évènement. Apple a péché par orgueil en ne communiquant pas et en choisissant pour les utilisateurs. Il n’y a pas eu de lésé au final. Apple paie pour préserver son image de marque et que cela soit oublié.
Ce n’est pas non plus de l’obsolescence programmée puisqu’au final le choix d’Apple permet d’utiliser plus longtemps son téléphone.
Citroën lance Ami, sa voiture électrique rechargeable sur une prise classique, sans permis
28/02/2020
Le 28/02/2020 à 13h 54
Le 28/02/2020 à 13h 40
Le 28/02/2020 à 10h 12
La région Grand Est victime d’un rançongiciel
24/02/2020
Le 24/02/2020 à 15h 16
Le 24/02/2020 à 13h 54
Tu es tatillon. Ca me fais “cryer”.
Le 24/02/2020 à 13h 35
Le 24/02/2020 à 10h 48
Smartphone en charge dans la salle de bain : suite à des décès, la DGCCRF alerte sur les dangers
12/02/2020
Le 12/02/2020 à 19h 14
Le 12/02/2020 à 10h 56
Le 12/02/2020 à 10h 51
Vous faites peur tous à ne pas comprendre.
Les 5V, c’est à la sortie du chargeur, entre les deux fils du chargeur.
Mais la différence entre la main de l’utilisatrice (qui touche le téléphone, le bout du fil du chargeur) et la prise est potentiellement quelque part entre 0 et 220-5 = 215V…
Les chargeurs sont isolés dans des conditions normales donc le courant de sortie est séparé “magnétiquement” du courant d’entrée (il arrive qu’on sente des chatouillis avec des ordis et des téléphones métalliques, du fait de fuites de courant via le sol par exemple).
Mais une salle de bains humide n’est pas une condition normale. De la condensation peut faire un chemin à l’électricité, mettant le fil de charge et le téléphone sur un potentiel de la prise de courant.
Et là, c’est le drame.
On ajoute que si l’électricité passe de la tête ou la main au reste immergé du corps mouillé:
Enfin, le disjoncteur différentiel, s’il est de 30mA au lieu de 2 pour une SDB il me semble, laisse passer un écart entre 10 et 30mA (seuils de perte de contrôle musculaire et seuil de paralysie respiratoire). Quand on est bloqué dans une baignoire sans contrôler ses muscles, ça peut être fatal.
C’est pour cela que les appareils électriques dédiés aux salles de bain sont dits à double isolation (les radiateurs et sèche serviettes notamment)
1 000 radars détruits
10/02/2020
Le 10/02/2020 à 13h 43
Le 10/02/2020 à 12h 50
La Freebox mini 4K passe au Wi-Fi 5 (1,7 Gb/s)
04/02/2020
Le 07/02/2020 à 07h 26
Le 05/02/2020 à 10h 08
Le 05/02/2020 à 09h 24
Le 04/02/2020 à 11h 12
Ils ont corrigé les problèmes d’alimentation et d’interférences en tout genres?
En fait, si je ne coupe pas le femtocell, le Wifi est quasi inopérant (et la température supérieure de 7°C dans le boitier)
Si je télécharge depuis internet, c’est à peu près OK, si je télécharge depuis le NAS, le Wifi reboot.
Si on télécharge trop, le téléphone ne sonnera pas, si le téléphone sonne, il y a coupure du Wifi.
L’afficheur meurt au fur et à mesure… Free m’a changé la box non pas pour les problèmes Wifi, mais parce que l’afficheur ne fonctionnait plus et que du coup je ne pouvais plus renouveler mon mot de passe FreeWifi.
Cette box est une CATASTROPHE. Elle offre des débits supérieurs à la concurrence, ok, mais impossible d’activer tous les services sauf à lui brancher une vraie alim (12.3V, 5A) - cela corrige effectivement les problèmes, mais c’est mon alim de labo, c’est pas pour alimenter la box H24!
Le player est inutilisable. Il plante chaque jour et il faut le démarrer 3x pour qu’il se rappelle du code Wifi.
Sauf bien sûr à mettre un vrai Wifi à la place de la box. Là, ça marche.
Les alims “netbits” fournies par free semblent être fabriquées à partir de composants biodégradables. Elles meurent doucement les unes après les autres (free ne les reprenant pas, et ayant eu deux players et deux box, là je finis la 4ème alim…)
Mes voisins ont les mêmes symptômes. En bref, ils peuvent annoncer ce qu’ils veulent, pour moi Free c’est pas cher et tu en as pour ton argent, point.
Microsoft Teams était inaccessible à cause d’un certificat non renouvelé
04/02/2020
Le 04/02/2020 à 11h 21
Ils ont aussi fait une panne sharepoint pour certificats (3h sans aucun affichage de Sharepoint)
“A certificate issue within ourthird-party CDN provider resulted in impact to SharePoint Online, OneDrive forBusiness and Project Online Classic UI page rendering.”
Les scripts javascripts ne pouvaient plus être chargés car le site static.sharepoint.com n’avait plus de certificat (le certificat ne s’appliquait pas sur des sous-serveurs visiblement).
Il y a 2 semaines, on ne pouvait plus ajouter de pièces jointes aux mails.
Après la panne de plusieurs jours de Novembre (problème de cache sur un proxy) qui a perturbé sharepoint et onedrive (avec parfois des pertes de données, les synchro onedrive écrasant des fichiers qui avaient été modifiés entre temps), j’avoue adorer l’infra cloud de Microsoft.
Sur l’année glissante, la disponibilité n’est peut-être pas meilleure qu’avec du on premise. En considérant une dispo sur les heures de bureau, on est déjà au-delà de 0,1% de temps d’indisponibilité d’un service.
Clavier AZERTY+ de LDLC : notre bilan après un mois d’utilisation
28/01/2020
Le 31/01/2020 à 16h 05
J’ai utilisé ce clavier pendant un mois. J’ai arrêté pour le moment car:
Pendant l’utilisation, j’ai trouvé:
Sinon, pour la hotline: on peut faire trois types de traits différents (underscore, moins, trait d’union) - super pour les login/mail et mots de passe utilisateurs
Enfin, eh bien après une semaine sur clavier normal, la disposition Azerty+ me manque en fait.
Gandi revient sur sa longue panne de début janvier, qui rappelle l’importance des sauvegardes
29/01/2020
Le 31/01/2020 à 13h 23
Le 30/01/2020 à 21h 51
Je ne te suis pas, c’est quoi ton histoire de tranches ?
Et en pratique, sur des baies pas ridicules (genre EMC), accédées par plein de VM, on a de très beaux débits en linéaire sur les RAID.
Les tranches, c’est l’histoire de l’allocation dynamique des volumes SAN sur les disques. J’ai travaillé sur deux SAN (Storwize) configurés pour allouer lors de la première écriture, par pistes (track) de 128 ou 256ko de mémoire.
Le résultat, c’est que si on a plusieurs VM sur des volumes stockés sur le même RAID, on crée une fragmentation.
Je suis arrivé après coup, et sans formation, donc j’ai compris cela un peu tard… Déjà il m’a fallu réagir que le SAN était sur alloué (plus de taille de volume déclarée que de place disque réelle) - ça a failli nous exploser à la figure…
Pour les débits, je suis bien d’accord, j’ai vu un server SQL qui tenait le coup uniquement grâce au SAN (serveur 32 bits, 2Go de RAM pour SQL server, mais un volume transféré avec le SAN de plus de 60Go par jour, pour 10Go de base de données gérées…). Le 300Mo soutenu en lecture, c’était largement possible. Mais pas tout le temps et uniquement sur les disques rapides et le cache SSD, pas sur la partie lente. Et comme on ne contrôle pas directement où sont stockées les données…
Le 30/01/2020 à 10h 25
Le 30/01/2020 à 07h 41
Le 30/01/2020 à 07h 25
Le 29/01/2020 à 22h 08
Le 29/01/2020 à 16h 10
Intel bouche de nouvelles failles sur ses processeurs, à partir des Core de 6e génération
28/01/2020
Le 29/01/2020 à 09h 13
Le 28/01/2020 à 15h 14
Le 28/01/2020 à 15h 10
En plus des CVE sur la partie graphique (CVE-2019-14615)
Intel est en forme : « record historique » du chiffre d’affaires 2019 avec 72 milliards de dollars
24/01/2020
Le 25/01/2020 à 13h 59
Le 24/01/2020 à 22h 08
Le 24/01/2020 à 10h 21
L’UFC-Que Choisir teste des chargeurs de smartphones : plus d’un sur deux est dangereux
23/01/2020
Le 23/01/2020 à 10h 35
J’ai déjà «intercepté» un chargeur qui était en train de fondre sur place.
J’ai aussi eu une tablette dont la batterie a faillit mourrir définitivement à cause d’un couple chargeur + câble trop long: pour la relancer, à part court-circuiter le circuit de sécurité de la batterie pour autoriser la charge, j’ai surtout dû change rle cable pour un ultra-court (10cm).
Dernier cas en date: un chargeur USB 2A, qui marche très bien normalement, mais qui est détecté par un des nouveaux téléphones (Xiaomi Note 7) comme un chargeur rapide: le Xiaomi le «vide» toutes les secondes: c’est le même effet que si je m’acharnais à brancher et débrancher en boucle le téléphone…
Bref, c’est la jungle.
Du coup, je recharge les téléphones surtout sur les ordis et je cherche des stations de charge et de branchement (genre un truc qui me donne 4x12V séparés pour alimenter la box, le NAS, le NUC et la borne Wifi)
Film porno tourné dans un Airbnb : la propriétaire poursuit la plateforme
22/01/2020
Le 22/01/2020 à 10h 51
Une pétition affirme que des Tesla accéléreraient toutes seules, le fabricant dément catégoriquement
21/01/2020
Le 21/01/2020 à 13h 26
Protection des mineurs : télécharger la charte anti-porno
17/01/2020
Le 17/01/2020 à 14h 07
Le nouvel Edge est disponible pour Windows et macOS
15/01/2020
Le 16/01/2020 à 14h 21
Le 16/01/2020 à 08h 36
J’attends surtout beaucoup de ce Edge en entreprise, car on peut déclencher le moteur de rendu IE de façon «seamless» sur les sites choisis.
On pourra enfin donner à nos directeurs un choix pour le «navigateur unique». Ou pas.
(oui, je sais que Chrome Enterprise permettait déjà cela, mais Chrome mangeait tellement de RAM à l’époque où je l’avais évalué par rapport à la RAM présente dans les ordis que je n’avais pas pu le recommander)
Patch Tuesday : derniers correctifs pour Windows 7, énorme faille dans Windows 10
15/01/2020
Le 15/01/2020 à 10h 56
Les dix mesures-clés de la future loi « anti-gaspillage »
09/01/2020
Le 13/01/2020 à 15h 31
Quelles solutions utilisez-vous pour protéger vos données ?
13/01/2020
Le 13/01/2020 à 15h 01
Historique des fichiers Windows pour les petits tracas du quotidien + Sauvegarde sur le NAS (donc malheureusement en double…)
Envoi quotidien vers internet et copie sur 2 disques externes à chaque départ en vacances (je pars avec une copie et laisse l’autre au boulot)
La NAS est juste en RAID 1, mais j’envisage d’enlever le RAID, voire le NAS (j’ai un NUC qui chapeaute un peu tout). De toutes façons à quoi sert-il chez moi? Le NAS est déjà une copie centralisée, elle-même recopiée sur internet. Je n’ai pas besoin de RAID du coup. Un disque externe sur le NUC fera le TAF (un peu moins vite peut-être)
Absence de contrôle technique : vers une verbalisation « à la volée », par caméra ?
08/01/2020
Le 09/01/2020 à 13h 34
Le 09/01/2020 à 13h 26
Le 08/01/2020 à 21h 34
Le 08/01/2020 à 14h 59
Quand Xiaomi se mélange les pinceaux dans les flux vidéos des Mi Home Security Camera
07/01/2020
Le 07/01/2020 à 09h 39
C’est tellement commun de sacrifier des tests pour vendre à Noël…
Tout comme le fait de prendre l’équipe qui n’a que faire des aléas du réseau et qui va développer un truc qui ne sait pas gérer/reprendre sur réseau «instable».
Tous les appareils semblent conçus maintenant sans considération que internet n’est pas dispo H24, que l’on peut choisir d’arrêter régulièrement les appareils et que les appareils ne sont pas seuls sur le réseau et pas prioritaires.
Core OS : le plan de Microsoft pour migrer les développeurs de Win32 vers les Windows Apps
23/12/2019
Le 23/12/2019 à 13h 44
Le problème de faire tourner dans des conteneurs, c’est que Windows y perd son ADN: la possibilité (via COM) de faire marcher des applis dans les applis, de faire des appels plutôt performants entre applis, de partager les composants…
Plusieurs applis ont besoin de COM par exemple pour leurs propres extensions (filtres et autres).
Comme ce que l’on combat/contourne depuis des années avec l’exécution de l’environnement x64 à côté de x86 mais sans passerelle entre les deux (ceux qui gèrent des postes en entreprise avec des logiciels 32 et 64 mais une seule suite office possible comprennent), mais cette fois-ci pour chaque appli.
Claviers LDLC : vers plus de modèles AZERTY amélioré, du bépo et une version solaire
23/12/2019
Le 23/12/2019 à 10h 21
Bon, me voilà sur un clavier «Azerty+»
La disposition est pas mal en fait. On s’y fait très vite, bien que le matin ça reprenne toujours quelques minutes pour s’y refaire.
Il faut bien penser à changer les mots de passe avant de fermer sa session la première fois!
En programmation, c’est assez sympa. Beaucoup de touches sont plus directes.
De même, je trouve ce clavier plus facile à expliquer aux enfants et débutants. Il y a peu de caractères «communs» qui sont accessibles uniquement en «AltGr+touche», et les gens sont émerveillés de pouvoir accéder à de nouveaux caractères!
Pour moi, le problème de cette norme, c’est l’adoption: facile sur fixe, mais sur portable on n’y est pas.
Et aussi l’inversion «,/.», c’est de la torture.
Par contre, le clavier LDLC est vraiment “cheap”. C’est bien pour se familiariser, mais je ne l’utiliserai pas longtemps. Il est bruyant, le toucher est assez bof et je me suis habitué aux claviers avec de l’espace entre les touches. Avec celui-ci j’ai tendance à parfois appuyer sur plusieurs touches à la fois et à ne pas avoir les caractères qui s’affiche dans le bon ordre si je tape rapidement.