J’ai jamais utilisé Shadow mais je suppose que selon la connexion tu dois avoir un peu d’input lag et d’artefacts de compression. Autant pour jouer le cerveau s’adapte, autant pour bosser j’imagine pas supporter ça. Surtout que je suppose que ce sont des métiers où t’apprécies d’avoir une définition élevée et/ou plusieurs grands écrans.
Et si tes salariés sont plusieurs dizaines à bosser au bureau en même temps, c’est pas avec une connexion fibre que tu t’en sortiras.
Je suis pas trop convaincu non plus sur l’intérêt financier. Certes il y’a des métiers où les machines sont chères mais elles sont déjà largement amorties. Une machine à 3 ou 10k€ coûte deja des ordres de grandeur moins cher que le salarié qui va l’utiliser pendant des années. Du coup on est sur du grattage de miettes.
En plus de cela tu rends ton activité dépendante d’une bonne connexion internet et donc plus personne ne peut bosser au moindre coup de pelleteuse sur la fibre de ta rue. Et donc il te faut une connexion de backup capable d’encaisser des dizaines de flux vidéo en haute définition.
Je ne dis pas qu’il n’existe pas des usages où c’est intéressant, mais sûrement pas assez selon moi pour que l’offre soit rentable pour Shadow. Alors je ne doute pas qu’ils arrivent à s’en sortir avec une bonne équipe commerciale, mais je doute que beaucoup de boîtes y aient un intérêt réel.
On parle de fichiers qui réagissent en quelques secondes sur de bonnes machines, pas de document word qu’on fait défiler. L’utilisateur s’adaptera s’il gagne plusieurs minutes/dizaines de minutes par heure (oui oui). Parfois, même de la 4G suffira tellement le côté “bureau à distance qui ne merde pas en cas de coupure réseau” est confortable: pas de fichier de 1go à re-télécharger, par exemple.
Quand ta machine te coûte de 3 à 10K, c’est hors coûts d’entretien, électricité, climatisation, m² au sol, gestion de la nuisance sonore, etc… Je connais des gens qui mettent des baies 19” entre les bureaux pour isoler leurs postes, c’est à dire des serveurs 2U (un par architecte). Ces gens-là font partie de la cible de Shadow.
Je n’ai jamais dit TOUT miser dessus. Rien ne t’empêche d’avoir un poste de travail sympa sans plus et du Shadow a côté. Pas de Shadow ? En local.
Bref, c’est une solution comme une autre: un bon choix, mais qui ne doit pas être exempt de solution de repli ;)
Le
24/11/2022 à
06h
08
Prends un pc portable pour faire du plan de bâtiments ou de machines outils ou de la 3d et tu comprendras l’intérêt d’un shadow sur une tablette ou un ultra-portable. Ça donne de la mobilité à des machines qui coûtent entre 3000 et 10000€. Les outils ? Autocad, solidworks, blender, spaceclaim, cinema4d,…
Règle de base, prendre la licence par socket, pas par core
vSphere est limité à 32 coeurs par socket pour les licences socket. On peut monter en cumulant les licences. Windows est limité à 16 coeurs par licence, on peut monter en cumulant les licences.
Oui j’ai mal lu la partie du lieu où ils acceptent que ça soit là où le client le veux, même chez lui.
Même si tu veux que ton centre de données soit en vase clos, ça ne le sera pas complètement: OVH doit le superviser et aura donc la main dessus. Ils ont dit déconnecté d’internet, pas complètement déconnecté.
Et personnellement, je préfère le multicloud privé protégé par clef de chiffrement. Aucune dépendant au prestataire infrastructure / réseau, une connexion sécurisée, le meilleur des 2 mondes.
Le
08/11/2022 à
20h
15
Pourquoi enfin? Ca fait bien longtemps qu’on peut utiliser le matériel OVH en étant une extension du LAN et non sur Internet… La seule différence, c’est que là c’est marquété.
Les lois fiscales ont très peu changées … Tu es sensé déclaré ce que tu possèdes et ce que tes revenus (rente / salaire / honoraire / loyer / dividendes / plue values).
Le principe ici est de chercher l’argent qui ne circule pas via les banques, l’argent liquide remonte des anomalies.
Pour avoir travailler dans ce genre de systèmes, quand la loi va changer et l’accès fb/insta & co sera dispo ca va flamber sévère, et on ne parle même pas d’IA
Je le sais, mais les subtilités ont bien changé. Quid des cryptomonnaies ? Quid de la revente d’objets d’occasions pour ses propres besoins mais de manière intensive (j’en connais qui font de l’achat / revente sur vinted à grand rythme car elles adorent changer de fringues) ? Quant aux règles pour les abris de jardins ?
De plus, le résultat des algorithmes du FISC vont-ils être exploitables par d’autres caisses ? Si oui, automatiquement ? Si oui, quels en seront les contrôles ? Etc…
Le problème est “comment cet algorithme va-t-il retourner les informations sans orienter le jugement de la personne en charge du contrôle”.
ps: je suis pour ce genre de système, tant qu’il est encadré.
Le
03/11/2022 à
10h
51
(reply:2102465:Vin Diesel)
Les optimiseurs sont dans la loi, malgré leur amusement avec ses limites. Les fraudeurs stupides ont du souci à se faire, ainsi que les mythomanes qui étalent leur pseudo-vie sur les réseaux sociaux. Le vrai problème est la dérive de la part de l’Etat, pour les gens qui se pensent dans les clous. L’Etat changeant souvent ses règles, et en se cachant derrière le fameux “nul n’est censé ignorer la loi”, ça peut parfois être compliqué.
Sinon dans le bios, il y a parfois le “power on on AC” qui permet d’allumer dès que l’alimentation est branchée. Ainsi, on allume l’écran, ça démarre le pc
Le
28/10/2022 à
09h
21
Latitude série 7000 en i7 U, etn 13, 14 ou 15 pouces. Compatible Linux et Windows.
Pour moi, le 14 est le meilleur choix.
Le
27/10/2022 à
20h
19
Exact… Prisme de mon utilisation où une prise n’est jamais bien loin. Pourquoi ne pas proposer une dalle 1920x1080 OLED qui elle consommera moins qu’en IPS dans ce cas? Vraiment mon analyse ne reflète rien de professionnel, mais il me semble que quand on a goutté à de l’OLED, la différence est flagrante et que pour un portable proposé “à partir” de 1300€, ça me parait dommage.
Je peux peut être me tromper, mais je crois que les OLED sont des matrices “pentile”, ce qui fait que le nombre de pixels affichés et le nombre de pixel simulés est différents. De plus, OLED = plus-value, haute résolution = plus-value, donc les 2 = combo pepettes pour vendre plus cher.
Pour ma part, je ne suis pas le public ciblé car je veux un rafraichissement à minima à 90hz.
Oui et non. Oui Microsoft a immergé un (ou des) conteneurs contenant une salle serveur complète et fonctionnelle. Non, le support technique n’était pas en tenue de plongée. Le conteneur était scellé et les pannes restaient des pannes jusqu’à la maintenance complète du conteneur. Je crois qu’ils pariaient sur un taux de panne fixe pour ne sortir le conteneur qu’au bout de 3 ou 5 ans…
Joli sarcasme mais non, c’est un onduleur qui a mit le feu aux poudres à Strasbourg. Même avec tous les liquides du monde pour les serveurs, ça ne change pas le problème….
Si c’est ça, ils ont intérêt à bien contrôler la température processeur Parce que même si le watercooling est indépendant, il ne faudrait pas qu’il y ait un point de chaleur…
Le très haut de gamme, pour pro, c’est 8K€. Le haut de gamme, pour semi pro + gamer trop friqué, c’est 1000-2000€. Pour le gamer normal, le budget n’a pas changé, tant qu’il ne met pas tout en ultra.
ps: pour info, Cyberpunk détails moyens sur une P2000 (équivalent 1060) castrée à 75W (au leu de 160W), ça fonctionne très bien et est jouable en QHD. Et c’est suffisamment joli.
Arrêtez de pleurer, sérieux.
Le
21/09/2022 à
14h
04
La question n’est pas de qui pourra se la payer mais de l’augmentation qu’ils sont en train de nous envoyer en pleine fasse quel que soit la gamme !! Ma EVGA GeForce RTX 3080 FTW3 ULTRA GAMING je l’ai payé aux alentours de 870 € à sa sortie et c’était déjà pas une période pas facile pour acheter une cg j’ai bien galéré pour l’avoir. Et là je devrais payer le double pour une Founder Edition en plus ? Mais elles vont être à combien les custom ? Qu’est-ce qui justifie qu’on double un tarif, tu m’explique ?
Regarde la différence entre les prix en France cette fois :
Et pourquoi la RTX 4080 12 Go est une 4070 ? Je sais pas regarde les specs c’est clairement une carte en dessous de la 4080 16 Go et pas qu’un peu. C’est flagrant qu’ils l’ont appelé 4080 12 Go juste pour faire style “oh vous avez vu on a pas autant augmenté le tarif que ca”. Si on suit ta logique pourquoi la RTX 3080 12G et 8G n’ont que très peu de différences que la quantité de ram ? Et encore la version 12Go est sortie 2 ans après pas au lancement. Regarde les specs ca se voit que c’est une fausse 4080.
Sérieusement ils ont fumé pour doubler les tarifs, et toi on dirait que tu veux leur donner raison.
On n’achète pas une gamme, on achète un besoin. Avant d’acheter ta 3080, as-tu testé une 3070? Une 3060 ? Tu serais surpris de leurs capacités…
Et c’est drôle, mais pourquoi la 4080 16go ne serait pas une Ti et la 12go une normale ? Ce n’est que ton idée de la gamme, ce qui est donc complètement biaisé.
Tu as bien eu de la chance de l’avoir à un tarif pareil. Pendant 18 mois, ça a été à milles lieues d’être la norme.
Ps: oui, je leur donne raison, et tu vas voir que je ne suis pas le seul… parce que j’achète un besoin ;)
Le
21/09/2022 à
11h
12
Pour NVENC, youhou ! A voir ce que donne l’encodage AV1 matériel, vs du CPU only (en terme de qualité)
Je crois qu’à l’époque, tu n’as pas essayé d’acheter une 3070. Hormis quelques chanceux, rares sont ceux qui l’ont payée ce prix. D’autre part, les gens qui vont acheter une 4090 vont être ravis à ce prix Les pros devaient bien souvent payer des cartes à 4-5000€… Et puis je ne vois pas ce qui te permet de dire que la 4080 12go est une 4070.
Bref, à chaque chose son public.
D’autre part, l’augmentation est de 26%, pas de 126% ;)
(reply:2094439:Fab’z)
On a besoin de trucs pour que la consommation ne soit pas proportionnelle aux tailles d’écrans.. sinon ça devient ingérable.
Même si on a des trucs type Dell MD1400 qui renvoient juste les disques, la plupart des baies SAN que j’ai vu sont d’un niveau d’abstraction bien plus élevé (RAID, souvent volumes logiques, snapshot, réplication, tiering…) Mais si j’ai vu des cartes RAID gérant le NVME, je n’ai pas vu de baies SAN élaborées sortant en NVMEoF. Bon, ce ne serait de toutes façons pas dans les moyens de là où je travaille.
Les DELL Powerstore ? Elles font du NVMe-oF over FC et TCP. Et leur prix d’entrée a baissé avec le changement de nom, depuis les Compelent d’il y a quelques années.
L’hôpital annonce publiquement qu’il ne paiera pas. C’est pour les journalistes, c’est ce que veux entendre le grand public, mais ce qui va se passer en pratique, nous ne le saurons jamais.
Si, ça sera écrit dans le rapport financier de l’hôpital. Il n’est pas forcément publié mais bon.
Je me permets de te conseiller d’utiliser LVM, qui a une excellente intégration avec MDADM. Ca permet de faire du RAID par partition: pour ma part, je mets 32Go en RAID10+spare(1 ou 2), puis le reste du disque en RAID6. Ça fonctionne et c’est éprouvé.
Le
10/08/2022 à
16h
36
Globalement, sur un usage serveur, mets un flux d’air permanent pour tous les composants un peu calorifique. Mets tous les spots de ventilation possible en vitesse idle, et roule ma poule.
Le
09/08/2022 à
20h
46
Prends un contrôleur SAS éprouvé et colle des câbles 1XSAS->4XSATA type du lsi d’occasion ou une sas3008, une perc330
Le plus chiant, c’est si t’as une carte qui ne fait pas jbod, ben tu fais autant de raid un disque que nécessaire…
Ça va te coûter entre 100 et 200e et franchement, tu seras tranquille.
J’arrête mon HS là en te soulignant que ça vaut le coup d’essayer. Faites un test avec un Silver Peak (racheté par Aruba/HPE) et constatez (et si vous testez, je veux bien un MP ^^ )
Le
10/08/2022 à
20h
53
(reply:2088054:Fab’z)
Avec du sdwan de qualité, la 4g est plutôt bien. Si tu veux un backup sinon y’a starlink ou du faisceau hertzien.
Je ne parle pas “predictive failure” qui est le meilleur des cas. Je parle décès de disque, point. Ton disque meurt (100% inaccessible), une reconstruction qui se déclenche puis une erreur de tête (10^14) dans une donnée critique lors de la reconstruction. Ben tu l’as dans le cul. La probabilité est donc de la lecture uniquement, puisque l’autre disque est déjà mort. Ca s’appelle avoir les fesses qui claquent pendant la reconstruction.
Et exagéré…. Tu verras bien le jour où t’y auras droit…
Le
04/08/2022 à
18h
50
Le problème c’est la seconde erreur: celle qui suit celle qui n’a pas été prévisible. Il faut tout faire pour l’éviter. Le RAID6 (double parité) permet une seconde chance, et c’est la troisième qui devient critique. En RAID6 triple parité ou en RAID1 double miroir, c’est la 4ième qui le devient.
Si le problème apparait dans une section de données critiques, c’est le logiciel qui se plante. Un Windows qui râle, on s’en fout. Une base de données qui se crashe, c’est pas la même… En pleine journée, une base de données de production à restaurer, c’est que la production est arrêtée ! Et ça ça ne doit pas arriver, ça coût des dizaines de milliers d’euros par heure sans…. (si ce n’est plus)
Le
03/08/2022 à
08h
27
Un bit mal lu, c’est une erreur disque pour le contrôleur, qui retourne lui-même une erreur de lecture à l’OS si la redondance ne fait pas son taff. Si tu l’as sur un espace libre d’après l’OS, aucun souci. Si tu remplis tes disques toujours comme un salaud, les probabilités sont là.
Sauf les problèmes budgétaires
Il est facile de juger à postériori ;)
Les seules personnes qui faisaient du RAID60 font désormais du raid logiciel en ZFS/LVM/WSS ou du S3: ils faisaient ça parce qu’ils avait au moins 30 disques par serveur. En RAID6, à partir de 6 disques, tu es gagnant par rapport au RAID10/01 en capacité (N-3: 2 disques de parité et un de hotspare). Surtout que sur des données critiques, on fait du RAID10 double miroir: 33% de l’espace disque utilisable.
Aujourd’hui, le seul cas où on fait du RAID5 sans sourciller, c’est en cas de clusters de serveurs où on veut limiter la maintenance. Vu qu’ils se répliquent en live, on estime à raison que c’est fiable et qu’on peut se permettre de baisser la fiabilité de la LUN de chaque serveur. Par exemple, pour Exchange, Microsoft préconise même un JBOD ou RAID0 de 3 serveurs répliqués.
Le
02/08/2022 à
22h
13
C’est compté en disques pleins, pas en milliard d’octets (oui flemme). Ca permet de se rendre compte de la probabilité d’une erreur irrécupérable sur un disque. Sachant que :
10^14 = soupe pour pc de bureau.
10^15 = WD Gold / HC / Seagate moyen.
10^16 = Seagate bon et peut être quelques WD (hors catalogue, spécial DELL/HP/NETAPP). La plupart des disques 2”5 10K/15K également (<1.2TB). SSD entreprises
10^17 = SSD Entreprises haut de gamme. Quelques rares HDDs hors de prix. Et qu’on multiplie par le nombre de disques dans la grappe ^_^
To / Taux d’erreur 10^14 10^15 10^16 10^17 2 To 17,59% 1,76% 0,18% 0,02% 4 To 35,18% 3,52% 0,35% 0,04% 6 To 52,78% 5,28% 0,53% 0,05% 8 To 70,37% 7,04% 0,70% 0,07% 10 To 87,96% 8,80% 0,88% 0,09% 12 To 105,55% 10,56% 1,06% 0,11% 14 To 123,15% 12,31% 1,23% 0,12% 16 To 140,74% 14,07% 1,41% 0,14% 18 To 158,33% 15,83% 1,58% 0,16%
Moi je refuse toujours le RAID5. Cette techno n’existe pas à mes yeux.
Je ne choisi pas ce que je dépanne…. Moi je les aurais mis en RAID01 double miroir: un RAID 0 de 4 groupes de RAID1 de 3 disques (en plus ça donne plus de patate hihihi), ou au pire en RAID6 avec un hotspare.
Les LOGs sont tout aussi critiques que la BDD:
Le moteur de base de données traite la transaction
Il écrit dans les logs les modifications à venir
Il vérifie l’écriture des modifications dans les logs
Il effectue les modifications dans la base de données.
C’est d’ailleurs pour ça que normalement, on fait 2 LUNs: une pour les logs, une pour la base (pour des raisons de performances).
Tant mieux si tu es passé entre les mailles du filet de Murphy.
Franchement, un disque dur entreprise en environnement entreprise, il n’a pas de défaut autre que sa fiche technique. Température, hygrométrie, ventilation… Tout cela est stable et contrôlé. Et on les arrête jamais. Du coup, y’a que le Taux moyen de retour et taux d’erreur incorrigibles qui influencent le choix. On s’en fout de savoir lequel des 2 est responsable de la panne. Tout ce qu’on sait, c’est qu’on doit mathématiquement minimiser le risque. Et dans tous les cas, on sauvegarde au moins une fois par jour
Après ça n’est que mon avis, et il n’engage que moi ;)
Le
02/08/2022 à
20h
39
Tu me comprendras quand tu auras eu une LUN RAID 5 12 disques qui a eu la corruption en plein fichier de base de données…. : moteur crashé, VM en vrac, etc…. Ca s’appelle une mauvaise journée ^_^ (moi ça allait, j’étais le dépanneur hihihi)
Ces NAS gèrent le scrubbing pour lutter contre la corruption silencieuse, mais tu as eu de la chance si toutes tes reconstructions en 8 disques supérieurs à 2To ce sont toutes faites en Raid5. Sans scrubbing, elles auraient toutes chié.
On ne mets pas du RAID10 pour les mêmes raisons. D’ailleurs, en général, c’est du RAID01: un RAID0 de RAID1 (2 ou 3 disques selon le degré de parano): seuls 2⁄3 disques sont utilisés, ce qui permet un taux de réponse accru par rapport aux RAID5/6 qui nécessitent que la grappe complète soit prête. Pour optimiser cela, on fait aussi du RAID50/60 sur de grosses grappes (supérieures à 50 disques). Ca permet de taper les 1/2Go/s avec des disques durs 15Ktpm, et 6-7Go/s en SSD (oui, merci le cache contrôleur).
Les serveurs de bases de données Oracle / SQL Server gros modèles sont typiquement ainsi (on parle de 40 coeurs / 500Go+ de ram).
Oui, le RAID Logiciel existe. ZFS, LVM & Windows Storage Spaces en sont. Par contre, tu as intérêt à ne pas avoir de gros besoins en performances si tu as de petites configurations: les canaux SATA/SAS sont saturés, la pile de gestion rends les autres process léthargiques, etc… Bien dimensionné, ça marche, mais il faut dédier ces machines au stockage et rien d’autres, quelque-soit leur puissance (j’ai rendu anémique une machine à 30K€HT avec LVM ou Storage Spaces et une trentaine de disques).
Le
02/08/2022 à
14h
37
Mais attention au RAID5 à fuir comme la peste avec les disques durs supérieurs à 2To: la probabilité d’une erreur de lecture incorrigible (donnée fournie pour chaque disque, de 10^14 à 10^17 pour les meilleurs) est de plus de 30% (sur 6 disques) ! C’est terrible, car ça annule le bloc et là, on prie pour la localisation du bloc (sachant que souvent les contrôleurs disent “fuck you”).
C’est moins pareil avec les SSDs, mais ça craint quand même parfois du cul.
Ma sœur a un HP Spectre x360 14 OLED, et son problème ressemble clairement à une grille provenant de la matrice pour le stylet (screendoor effect en anglais). Peut-être que c’est la combinaison des deux, puisque cet effet ne serait visible que sur les modèles à écran OLED. Je suppose que d’autres laptops avec écran OLED à arrangement pentile n’ont pas ce problème.
Merci :)
Le
25/07/2022 à
19h
33
Si le problème que tu avais est le même dont se plaignent beaucoup de gens, ce n’est pas le pentile le problème, mais la grille du digitizer pour la saisie précise par stylet.
Franchement je ne suis pas sûr que ce soit la grille du stylet. Je n’avais même pas vu qu’on pouvait s’en servir d’un. Je suis ultra sensible au pentile… J’ai appris la leçon, je reste à l’IPS. Pour l’exemple, HP Spectre x360 14 Oled
Je dirais 1⁄20 ou 1⁄30 pour des pcs dont la vie est supérieure à 6 ans. Après la machine a des mécanismes pour isoler la partie défectueuse mais bon… quand tu vois que tu résous 100% des écrans bleus avec une barrette de ram à 30 balles, ça fait des pcs qui durent encore longtemps
(reply:2085512:dvr-x)
L’upgrade parce qu’on change de besoin ou que les applications sont plus gourmandes. Les gens l’oublient trop ça….
Le
25/07/2022 à
13h
03
ça ne m’a pas sauté aux yeux ici et vu le temps passé à essayer d’écrire dessus (et m’agaçer), j’aurais vu ce problème de “masque”
Cool, c’est déjà ça. Merci :)
(reply:2085413:dvr-x)
C’est surtout la condamnation d’un pc. Au bout de 5-6 ans, y’a des problèmes de RAM qui apparaissent… ça bousille la seconde ou troisième vie d’un pc si tu ne peux pas la changer :(
Le
25/07/2022 à
11h
47
La vraie question: l’écran OLED est-il un fichu pentile ? J’ai eu un HP Spectre OLED et je l’ai renvoyé au bout d’une semaine parce que l’écran, pentile, était insupportable: sous les traitements de textes, le fond était tacheté de micro point de couleur.
et pour servir la soupe à McKinsey, Ursula et Schwab… alors qu’en parallèle, en freelance, tu te fais 300-500€/j si t’es pas trop mauvais à Paris, et 800-1200/j si t’es pas trop mauvais à Genève ou Munich.
500€, c’est mal payé / bien payé si t’es pas bon. Les bons, c’est 900-1100€/j, 22 jours par mois… (j’suis entre les 2 ^^ mais en province)
C’est le problème avec les gens qui n’ont rien à perdre: ils peuvent aller très loin. Et clairement, la CIA a à y perdre, contrairement à lui dont sa vie est garantie par son existence publique.
J’ai un Alienware, qui fonctionne sur USB-C ou Alimentation DELL, de 65 à 240W. La puissance de l’ordi s’adapte à la puissance de l’alimentation fournie, avec les profils d’alimentation que j’ai fait.
Alimentation 240W: mode patate Alimentation 130W USB-C par dock Dell: mode standard Alimentation 65W USB-C: économie d’énergie Batterie externe 65W USB-C DELL: économie d’énergie
Bref, c’est tout bénef’, et je ne suis jamais en rade de courant / dock avec ce pc.
Le
08/06/2022 à
13h
42
Switch = USB-C Power Delivery
Pour ceux qui se posent la question pour l’électroportatif, un adaptateur USB-C Power Delivery –> Connectique de la perceuse pourrait tout à fait être envisageable… Si l’ampérage est suffisant :)
C’est ça, du moment que la société conserve une certaine autonomie par rapport à son propriétaire (comme GitHub par exemple qui reste assez autonome vis à vis de Microsoft bien que très intégré dans son écosystème en reposant sur Azure) ce n’est pas spécialement un problème.
D’ailleurs l’exemple que j’ai cité présente deux cas intéressants où auparavant en rachetant la division mobile de Nokia et en l’intégrant totalement, Microsoft a fait un carnage et un véritable gâchis de compétences et d’image de marque tandis qu’avec GitHub qui est resté relativement autonome, l’entreprise continue de se développer.
Si tu savais le nombre de boite que Microsoft a racheté APRES Nokia, et qui ont gardé leur autonomie somme toute relative, qui s’occupent désormais de produits estampillés Microsoft, mais de manière quasi indépendante…. Je crois que Microsoft a compris la leçon de leur précédent gâchis.
Je dirais déploiement dans les lieux de travail nomade, gares, cafés, espaces de “co working” etc. principalement et éventuellement dans certaines institutions culturelles pour speeder les compagnons de visite et/ou permettre des installations éphémères connectées/interractives.
Dans l’espace public à moins d’interdire la pluie et de couper tous les arbres ça me semble foireux
Ca permettra aussi de la vidéosurveillance de qualité déployable à pas cher bien sûr, big brother n’est jamais loin.
Pour la vidéosurveillance, ils s’en foutent: ils font du wifi avec ou sans pont, déjà.
L’intérêt réside dans l’isolation: ton invité a accès au réseau opérateur, pas à ton réseau.
ps: la pluie c’est 1,4ghz la fréquence en or. Toutes les autres fréquences sont de la merde, mais surtout en cas de brume épaisse. La correction de protocole corrige très bien en cas de pluie battante.
Il suffit de faire passer le signal par la fibre ;)
Le
20/04/2022 à
15h
01
C’est exactement la cible du 26ghz. On s’en fout des débits de malade: plus de bande passante = plus de capacité pour accueillir les clients = moins de clients à accueillir sur les bandes à faible capacité = désengorgement de tous les réseaux hertziens par effet boule de neige.
Avoir une bonne voiture récente change dramatiquement vis à vis de l’insonorisation de mon vieux cabriolet
Le
06/04/2022 à
09h
22
Je te confirme que si tu n’entends pas la différence SBC/AptX, tu ne feras pas la différence CD/MP3 hihihi
Le MP3 écrase, détruit la dynamique. D’autres codecs tout autant compresseurs sont apparus avec le temps, genre OGG, et sont moins méchants: il devient plus compliqué de les distinguer du Lossless.
Mais perso, mes morceaux fétiches, je fais bien la différence… Au point que je suis en train de me faire un raspberrypi+spotify+ios serial control+dac pour la voiture
Le
05/04/2022 à
09h
12
Copain Klipsch :)
C’est surtout le MP3/pas MP3 qu’on différencie, avec l’écrasement des basses/aigus….
Perso, je me sers de Autosync - File Sync & Backup, de Metactrl, sous Android. La synchro est très bien même si android fait chier à désactiver les applications d’arrière plan.
2729 commentaires
Shadow Drive disponible (20 Go gratuits), client pour Raspberry Pi, offres pour les pros avec BYOL à venir
23/11/2022
Le 24/11/2022 à 10h 53
On parle de fichiers qui réagissent en quelques secondes sur de bonnes machines, pas de document word qu’on fait défiler. L’utilisateur s’adaptera s’il gagne plusieurs minutes/dizaines de minutes par heure (oui oui). Parfois, même de la 4G suffira tellement le côté “bureau à distance qui ne merde pas en cas de coupure réseau” est confortable: pas de fichier de 1go à re-télécharger, par exemple.
Quand ta machine te coûte de 3 à 10K, c’est hors coûts d’entretien, électricité, climatisation, m² au sol, gestion de la nuisance sonore, etc… Je connais des gens qui mettent des baies 19” entre les bureaux pour isoler leurs postes, c’est à dire des serveurs 2U (un par architecte). Ces gens-là font partie de la cible de Shadow.
Je n’ai jamais dit TOUT miser dessus. Rien ne t’empêche d’avoir un poste de travail sympa sans plus et du Shadow a côté. Pas de Shadow ? En local.
Bref, c’est une solution comme une autre: un bon choix, mais qui ne doit pas être exempt de solution de repli ;)
Le 24/11/2022 à 06h 08
Prends un pc portable pour faire du plan de bâtiments ou de machines outils ou de la 3d et tu comprendras l’intérêt d’un shadow sur une tablette ou un ultra-portable.
Ça donne de la mobilité à des machines qui coûtent entre 3000 et 10000€.
Les outils ? Autocad, solidworks, blender, spaceclaim, cinema4d,…
AMD dévoile ses processeurs EPYC 9004 (Genoa)
11/11/2022
Le 14/11/2022 à 21h 03
vSphere est limité à 32 coeurs par socket pour les licences socket. On peut monter en cumulant les licences.
Windows est limité à 16 coeurs par licence, on peut monter en cumulant les licences.
EcoEx : OVHcloud va proposer des « datacenters déconnectés » et mise sur l’open source
08/11/2022
Le 09/11/2022 à 10h 28
Oui j’ai mal lu la partie du lieu où ils acceptent que ça soit là où le client le veux, même chez lui.
Même si tu veux que ton centre de données soit en vase clos, ça ne le sera pas complètement: OVH doit le superviser et aura donc la main dessus.
Ils ont dit déconnecté d’internet, pas complètement déconnecté.
Et personnellement, je préfère le multicloud privé protégé par clef de chiffrement. Aucune dépendant au prestataire infrastructure / réseau, une connexion sécurisée, le meilleur des 2 mondes.
Le 08/11/2022 à 20h 15
Pourquoi enfin? Ca fait bien longtemps qu’on peut utiliser le matériel OVH en étant une extension du LAN et non sur Internet…
La seule différence, c’est que là c’est marquété.
Le fisc se met au webscrapping, fuzzymatching et au datamining
03/11/2022
Le 03/11/2022 à 14h 43
Je le sais, mais les subtilités ont bien changé.
Quid des cryptomonnaies ?
Quid de la revente d’objets d’occasions pour ses propres besoins mais de manière intensive (j’en connais qui font de l’achat / revente sur vinted à grand rythme car elles adorent changer de fringues) ?
Quant aux règles pour les abris de jardins ?
De plus, le résultat des algorithmes du FISC vont-ils être exploitables par d’autres caisses ? Si oui, automatiquement ? Si oui, quels en seront les contrôles ? Etc…
Le problème est “comment cet algorithme va-t-il retourner les informations sans orienter le jugement de la personne en charge du contrôle”.
ps: je suis pour ce genre de système, tant qu’il est encadré.
Le 03/11/2022 à 10h 51
Les optimiseurs sont dans la loi, malgré leur amusement avec ses limites.
Les fraudeurs stupides ont du souci à se faire, ainsi que les mythomanes qui étalent leur pseudo-vie sur les réseaux sociaux.
Le vrai problème est la dérive de la part de l’Etat, pour les gens qui se pensent dans les clous. L’Etat changeant souvent ses règles, et en se cachant derrière le fameux “nul n’est censé ignorer la loi”, ça peut parfois être compliqué.
Dell XPS 13 et XPS 13 Plus : et s’il ne devait en rester qu’un ?
27/10/2022
Le 01/11/2022 à 16h 51
Sinon dans le bios, il y a parfois le “power on on AC” qui permet d’allumer dès que l’alimentation est branchée.
Ainsi, on allume l’écran, ça démarre le pc
Le 28/10/2022 à 09h 21
Latitude série 7000 en i7 U, etn 13, 14 ou 15 pouces.
Compatible Linux et Windows.
Pour moi, le 14 est le meilleur choix.
Le 27/10/2022 à 20h 19
Je peux peut être me tromper, mais je crois que les OLED sont des matrices “pentile”, ce qui fait que le nombre de pixels affichés et le nombre de pixel simulés est différents.
De plus, OLED = plus-value, haute résolution = plus-value, donc les 2 = combo pepettes pour vendre plus cher.
Pour ma part, je ne suis pas le public ciblé car je veux un rafraichissement à minima à 90hz.
#Flock est taquin
22/10/2022
Le 23/10/2022 à 07h 54
Genre le mec il s’essaie à l’humour
Hybrid Immersion Liquid Cooling d’OVHcloud : une baie 48U avec des serveurs watercoolés et immergés
13/10/2022
Le 15/10/2022 à 08h 05
Oui et non.
Oui Microsoft a immergé un (ou des) conteneurs contenant une salle serveur complète et fonctionnelle.
Non, le support technique n’était pas en tenue de plongée. Le conteneur était scellé et les pannes restaient des pannes jusqu’à la maintenance complète du conteneur.
Je crois qu’ils pariaient sur un taux de panne fixe pour ne sortir le conteneur qu’au bout de 3 ou 5 ans…
Joli sarcasme mais non, c’est un onduleur qui a mit le feu aux poudres à Strasbourg. Même avec tous les liquides du monde pour les serveurs, ça ne change pas le problème….
Si c’est ça, ils ont intérêt à bien contrôler la température processeur
Parce que même si le watercooling est indépendant, il ne faudrait pas qu’il y ait un point de chaleur…
It not classified as flammable, but will burn at temperatures over 200 to 244°F/90 to 120°C.
Source: https://www.shell.com/business-customers/chemicals/safe-product-handling-and-transportation/product-stewardship-summaries/_jcr_content/par/expandablelist/expandablesection_1815106617.stream/1525709608519/f9c57aec7f6036a27fb997157740957c77fccf43/mpg-pss-december-2017.pdf
NVIDIA dévoile Ada Lovelace, ses GeForce RTX 4080/4090, RTX 6000 et L40 : ce qu’il faut en retenir
21/09/2022
Le 21/09/2022 à 17h 56
Le très haut de gamme, pour pro, c’est 8K€.
Le haut de gamme, pour semi pro + gamer trop friqué, c’est 1000-2000€.
Pour le gamer normal, le budget n’a pas changé, tant qu’il ne met pas tout en ultra.
ps: pour info, Cyberpunk détails moyens sur une P2000 (équivalent 1060) castrée à 75W (au leu de 160W), ça fonctionne très bien et est jouable en QHD. Et c’est suffisamment joli.
Arrêtez de pleurer, sérieux.
Le 21/09/2022 à 14h 04
On n’achète pas une gamme, on achète un besoin.
Avant d’acheter ta 3080, as-tu testé une 3070? Une 3060 ? Tu serais surpris de leurs capacités…
Et c’est drôle, mais pourquoi la 4080 16go ne serait pas une Ti et la 12go une normale ? Ce n’est que ton idée de la gamme, ce qui est donc complètement biaisé.
Tu as bien eu de la chance de l’avoir à un tarif pareil. Pendant 18 mois, ça a été à milles lieues d’être la norme.
Ps: oui, je leur donne raison, et tu vas voir que je ne suis pas le seul… parce que j’achète un besoin ;)
Le 21/09/2022 à 11h 12
Pour NVENC, youhou ! A voir ce que donne l’encodage AV1 matériel, vs du CPU only (en terme de qualité)
Je crois qu’à l’époque, tu n’as pas essayé d’acheter une 3070. Hormis quelques chanceux, rares sont ceux qui l’ont payée ce prix.
D’autre part, les gens qui vont acheter une 4090 vont être ravis à ce prix Les pros devaient bien souvent payer des cartes à 4-5000€…
Et puis je ne vois pas ce qui te permet de dire que la 4080 12go est une 4070.
Bref, à chaque chose son public.
D’autre part, l’augmentation est de 26%, pas de 126% ;)
On a besoin de trucs pour que la consommation ne soit pas proportionnelle aux tailles d’écrans.. sinon ça devient ingérable.
OpenFlex Data24 de Western Digital : 6x 100 Gb/s et 154 To de SSD NVMe-oF dans 2U
12/09/2022
Le 13/09/2022 à 07h 35
Les DELL Powerstore ? Elles font du NVMe-oF over FC et TCP. Et leur prix d’entrée a baissé avec le changement de nom, depuis les Compelent d’il y a quelques années.
Rançongiciel : les négociateurs du GIGN appelés à la rescousse de l’hôpital
29/08/2022
Le 29/08/2022 à 09h 29
Si, ça sera écrit dans le rapport financier de l’hôpital. Il n’est pas forcément publié mais bon.
Gigabyte MC12-LE0 : analyse d’une carte mère AM4 (B550) avec IPMI/BMC, pensée pour les serveurs
23/08/2022
Le 23/08/2022 à 19h 22
Un GPU est intégré à la puce de management Aspeed. C’est lui qui fait la récupération de domaine.
Si tu mets un GPU, l’OS une fois booté peut passer sur le GPU externe ou rester sur le GPU Aspeed.
Stockage : on grimpe d’un cran avec les RAID 6, 10, 50, 60…
09/08/2022
Le 14/08/2022 à 11h 15
Je me permets de te conseiller d’utiliser LVM, qui a une excellente intégration avec MDADM.
Ca permet de faire du RAID par partition: pour ma part, je mets 32Go en RAID10+spare(1 ou 2), puis le reste du disque en RAID6. Ça fonctionne et c’est éprouvé.
Le 10/08/2022 à 16h 36
Globalement, sur un usage serveur, mets un flux d’air permanent pour tous les composants un peu calorifique. Mets tous les spots de ventilation possible en vitesse idle, et roule ma poule.
Le 09/08/2022 à 20h 46
Prends un contrôleur SAS éprouvé et colle des câbles 1XSAS->4XSATA
type du lsi d’occasion ou une sas3008, une perc330
Le plus chiant, c’est si t’as une carte qui ne fait pas jbod, ben tu fais autant de raid un disque que nécessaire…
Ça va te coûter entre 100 et 200e et franchement, tu seras tranquille.
Le plan de fermeture du réseau cuivre d’Orange inquiète
10/08/2022
Le 11/08/2022 à 08h 50
J’arrête mon HS là en te soulignant que ça vaut le coup d’essayer. Faites un test avec un Silver Peak (racheté par Aruba/HPE) et constatez (et si vous testez, je veux bien un MP ^^ )
Le 10/08/2022 à 20h 53
Avec du sdwan de qualité, la 4g est plutôt bien.
Si tu veux un backup sinon y’a starlink ou du faisceau hertzien.
Stockage : c’est quoi un RAID et comment ça marche
02/08/2022
Le 05/08/2022 à 07h 20
Je ne parle pas “predictive failure” qui est le meilleur des cas. Je parle décès de disque, point.
Ton disque meurt (100% inaccessible), une reconstruction qui se déclenche puis une erreur de tête (10^14) dans une donnée critique lors de la reconstruction. Ben tu l’as dans le cul. La probabilité est donc de la lecture uniquement, puisque l’autre disque est déjà mort. Ca s’appelle avoir les fesses qui claquent pendant la reconstruction.
Et exagéré…. Tu verras bien le jour où t’y auras droit…
Le 04/08/2022 à 18h 50
Le problème c’est la seconde erreur: celle qui suit celle qui n’a pas été prévisible. Il faut tout faire pour l’éviter. Le RAID6 (double parité) permet une seconde chance, et c’est la troisième qui devient critique. En RAID6 triple parité ou en RAID1 double miroir, c’est la 4ième qui le devient.
Si le problème apparait dans une section de données critiques, c’est le logiciel qui se plante. Un Windows qui râle, on s’en fout. Une base de données qui se crashe, c’est pas la même… En pleine journée, une base de données de production à restaurer, c’est que la production est arrêtée ! Et ça ça ne doit pas arriver, ça coût des dizaines de milliers d’euros par heure sans…. (si ce n’est plus)
Le 03/08/2022 à 08h 27
Un bit mal lu, c’est une erreur disque pour le contrôleur, qui retourne lui-même une erreur de lecture à l’OS si la redondance ne fait pas son taff. Si tu l’as sur un espace libre d’après l’OS, aucun souci. Si tu remplis tes disques toujours comme un salaud, les probabilités sont là.
Sauf les problèmes budgétaires
Il est facile de juger à postériori ;)
Les seules personnes qui faisaient du RAID60 font désormais du raid logiciel en ZFS/LVM/WSS ou du S3: ils faisaient ça parce qu’ils avait au moins 30 disques par serveur.
En RAID6, à partir de 6 disques, tu es gagnant par rapport au RAID10/01 en capacité (N-3: 2 disques de parité et un de hotspare). Surtout que sur des données critiques, on fait du RAID10 double miroir: 33% de l’espace disque utilisable.
Aujourd’hui, le seul cas où on fait du RAID5 sans sourciller, c’est en cas de clusters de serveurs où on veut limiter la maintenance. Vu qu’ils se répliquent en live, on estime à raison que c’est fiable et qu’on peut se permettre de baisser la fiabilité de la LUN de chaque serveur.
Par exemple, pour Exchange, Microsoft préconise même un JBOD ou RAID0 de 3 serveurs répliqués.
Le 02/08/2022 à 22h 13
C’est compté en disques pleins, pas en milliard d’octets (oui flemme).
Ca permet de se rendre compte de la probabilité d’une erreur irrécupérable sur un disque.
Sachant que :
Et qu’on multiplie par le nombre de disques dans la grappe ^_^
To / Taux d’erreur 10^14 10^15 10^16 10^17
2 To 17,59% 1,76% 0,18% 0,02%
4 To 35,18% 3,52% 0,35% 0,04%
6 To 52,78% 5,28% 0,53% 0,05%
8 To 70,37% 7,04% 0,70% 0,07%
10 To 87,96% 8,80% 0,88% 0,09%
12 To 105,55% 10,56% 1,06% 0,11%
14 To 123,15% 12,31% 1,23% 0,12%
16 To 140,74% 14,07% 1,41% 0,14%
18 To 158,33% 15,83% 1,58% 0,16%
Moi je refuse toujours le RAID5. Cette techno n’existe pas à mes yeux.
Je ne choisi pas ce que je dépanne….
Moi je les aurais mis en RAID01 double miroir: un RAID 0 de 4 groupes de RAID1 de 3 disques (en plus ça donne plus de patate hihihi), ou au pire en RAID6 avec un hotspare.
Les LOGs sont tout aussi critiques que la BDD:
C’est d’ailleurs pour ça que normalement, on fait 2 LUNs: une pour les logs, une pour la base (pour des raisons de performances).
Tant mieux si tu es passé entre les mailles du filet de Murphy.
Franchement, un disque dur entreprise en environnement entreprise, il n’a pas de défaut autre que sa fiche technique. Température, hygrométrie, ventilation… Tout cela est stable et contrôlé. Et on les arrête jamais.
Du coup, y’a que le Taux moyen de retour et taux d’erreur incorrigibles qui influencent le choix.
On s’en fout de savoir lequel des 2 est responsable de la panne. Tout ce qu’on sait, c’est qu’on doit mathématiquement minimiser le risque.
Et dans tous les cas, on sauvegarde au moins une fois par jour
Après ça n’est que mon avis, et il n’engage que moi ;)
Le 02/08/2022 à 20h 39
Tu me comprendras quand tu auras eu une LUN RAID 5 12 disques qui a eu la corruption en plein fichier de base de données…. : moteur crashé, VM en vrac, etc…. Ca s’appelle une mauvaise journée ^_^ (moi ça allait, j’étais le dépanneur hihihi)
Ces NAS gèrent le scrubbing pour lutter contre la corruption silencieuse, mais tu as eu de la chance si toutes tes reconstructions en 8 disques supérieurs à 2To ce sont toutes faites en Raid5. Sans scrubbing, elles auraient toutes chié.
On ne mets pas du RAID10 pour les mêmes raisons. D’ailleurs, en général, c’est du RAID01: un RAID0 de RAID1 (2 ou 3 disques selon le degré de parano): seuls 2⁄3 disques sont utilisés, ce qui permet un taux de réponse accru par rapport aux RAID5/6 qui nécessitent que la grappe complète soit prête. Pour optimiser cela, on fait aussi du RAID50/60 sur de grosses grappes (supérieures à 50 disques). Ca permet de taper les 1/2Go/s avec des disques durs 15Ktpm, et 6-7Go/s en SSD (oui, merci le cache contrôleur).
Les serveurs de bases de données Oracle / SQL Server gros modèles sont typiquement ainsi (on parle de 40 coeurs / 500Go+ de ram).
Oui, le RAID Logiciel existe. ZFS, LVM & Windows Storage Spaces en sont.
Par contre, tu as intérêt à ne pas avoir de gros besoins en performances si tu as de petites configurations: les canaux SATA/SAS sont saturés, la pile de gestion rends les autres process léthargiques, etc…
Bien dimensionné, ça marche, mais il faut dédier ces machines au stockage et rien d’autres, quelque-soit leur puissance (j’ai rendu anémique une machine à 30K€HT avec LVM ou Storage Spaces et une trentaine de disques).
Le 02/08/2022 à 14h 37
Mais attention au RAID5 à fuir comme la peste avec les disques durs supérieurs à 2To: la probabilité d’une erreur de lecture incorrigible (donnée fournie pour chaque disque, de 10^14 à 10^17 pour les meilleurs) est de plus de 30% (sur 6 disques) ! C’est terrible, car ça annule le bloc et là, on prie pour la localisation du bloc (sachant que souvent les contrôleurs disent “fuck you”).
C’est moins pareil avec les SSDs, mais ça craint quand même parfois du cul.
Une vaste campagne de phishing contre des clients Microsoft 365 contourne l’authentification multifacteurs
04/08/2022
Le 04/08/2022 à 19h 46
Je ne suis pas sûr que le schéma ne soit pas reproductible avec de l’U2F.
Asus Zenbook Pro 14 Duo (UX8402) : un portable avec deux écrans et plein de possibilités
25/07/2022
Le 27/07/2022 à 09h 52
Merci :)
Le 25/07/2022 à 19h 33
Franchement je ne suis pas sûr que ce soit la grille du stylet. Je n’avais même pas vu qu’on pouvait s’en servir d’un.
Je suis ultra sensible au pentile… J’ai appris la leçon, je reste à l’IPS.
Pour l’exemple, HP Spectre x360 14 Oled
Je dirais 1⁄20 ou 1⁄30 pour des pcs dont la vie est supérieure à 6 ans.
Après la machine a des mécanismes pour isoler la partie défectueuse mais bon… quand tu vois que tu résous 100% des écrans bleus avec une barrette de ram à 30 balles, ça fait des pcs qui durent encore longtemps
L’upgrade parce qu’on change de besoin ou que les applications sont plus gourmandes. Les gens l’oublient trop ça….
Le 25/07/2022 à 13h 03
Cool, c’est déjà ça. Merci :)
C’est surtout la condamnation d’un pc. Au bout de 5-6 ans, y’a des problèmes de RAM qui apparaissent… ça bousille la seconde ou troisième vie d’un pc si tu ne peux pas la changer :(
Le 25/07/2022 à 11h 47
La vraie question: l’écran OLED est-il un fichu pentile ?
J’ai eu un HP Spectre OLED et je l’ai renvoyé au bout d’une semaine parce que l’écran, pentile, était insupportable: sous les traitements de textes, le fond était tacheté de micro point de couleur.
Rufus 3.19 permet de contourner le compte Microsoft obligatoire dans Windows 11 22H2
28/06/2022
Le 28/06/2022 à 05h 50
C’est le cas, avec un Windows Entreprise, seul client à la licence VDA….
Ce que révèlent les offres d’emploi de la DGSE
27/06/2022
Le 27/06/2022 à 16h 47
500€, c’est mal payé / bien payé si t’es pas bon.
Les bons, c’est 900-1100€/j, 22 jours par mois…
(j’suis entre les 2 ^^ mais en province)
Le support d’Internet Explorer se termine définitivement demain
14/06/2022
Le 14/06/2022 à 09h 52
J’ai l’impression que c’est une timebomb… j’ai eu l’effet de bord chez un de mes clients :/
La cyber-guéguerre des hackers de la CIA vire au délire (2/2)
10/06/2022
Le 10/06/2022 à 19h 23
C’est le problème avec les gens qui n’ont rien à perdre: ils peuvent aller très loin.
Et clairement, la CIA a à y perdre, contrairement à lui dont sa vie est garantie par son existence publique.
Bref, ce mec joue son va-tout, et le fait bien.
Chargeur universel : accord européen en faveur du port USB-C
08/06/2022
Le 10/06/2022 à 09h 19
J’ai un Alienware, qui fonctionne sur USB-C ou Alimentation DELL, de 65 à 240W.
La puissance de l’ordi s’adapte à la puissance de l’alimentation fournie, avec les profils d’alimentation que j’ai fait.
Alimentation 240W: mode patate
Alimentation 130W USB-C par dock Dell: mode standard
Alimentation 65W USB-C: économie d’énergie
Batterie externe 65W USB-C DELL: économie d’énergie
Bref, c’est tout bénef’, et je ne suis jamais en rade de courant / dock avec ce pc.
Le 08/06/2022 à 13h 42
Switch = USB-C Power Delivery
Pour ceux qui se posent la question pour l’électroportatif, un adaptateur USB-C Power Delivery –> Connectique de la perceuse pourrait tout à fait être envisageable… Si l’ampérage est suffisant :)
Broadcom veut racheter VMware pour 61 milliards de dollars, un accord a été trouvé
27/05/2022
Le 27/05/2022 à 10h 53
Si tu savais le nombre de boite que Microsoft a racheté APRES Nokia, et qui ont gardé leur autonomie somme toute relative, qui s’occupent désormais de produits estampillés Microsoft, mais de manière quasi indépendante….
Je crois que Microsoft a compris la leçon de leur précédent gâchis.
Shadow : Power à 45 euros, nouveau client, Drive (NextCloud) et offre dédiée aux professionnels
19/05/2022
Le 20/05/2022 à 14h 14
Ca flingue leur offre, complètement.
J’ai fait mon calcul, j’ai préféré me payer un pc portable de bonne facture. Au moins il est dispo H24.
Sur Linux, le module kernel du pilote NVIDIA est désormais open source !
12/05/2022
Le 12/05/2022 à 08h 36
L’un dépend de l’autre mais l’autre n’a pas besoin de l’un.
La partie noyau est la plus proche du matériel des 2. C’est donc elle la plus critique.
De la 5G à la 6G : révolution des ondes millimétriques et des surfaces intelligentes
20/04/2022
Le 21/04/2022 à 10h 04
Pour la vidéosurveillance, ils s’en foutent: ils font du wifi avec ou sans pont, déjà.
L’intérêt réside dans l’isolation: ton invité a accès au réseau opérateur, pas à ton réseau.
ps: la pluie c’est 1,4ghz la fréquence en or. Toutes les autres fréquences sont de la merde, mais surtout en cas de brume épaisse. La correction de protocole corrige très bien en cas de pluie battante.
Il suffit de faire passer le signal par la fibre ;)
Le 20/04/2022 à 15h 01
C’est exactement la cible du 26ghz. On s’en fout des débits de malade: plus de bande passante = plus de capacité pour accueillir les clients = moins de clients à accueillir sur les bandes à faible capacité = désengorgement de tous les réseaux hertziens par effet boule de neige.
Musique Lossless et Hi-Res : enfin le retour du bon son (même en streaming)
05/04/2022
Le 06/04/2022 à 14h 58
Avoir une bonne voiture récente change dramatiquement vis à vis de l’insonorisation de mon vieux cabriolet
Le 06/04/2022 à 09h 22
Je te confirme que si tu n’entends pas la différence SBC/AptX, tu ne feras pas la différence CD/MP3 hihihi
Le MP3 écrase, détruit la dynamique. D’autres codecs tout autant compresseurs sont apparus avec le temps, genre OGG, et sont moins méchants: il devient plus compliqué de les distinguer du Lossless.
Mais perso, mes morceaux fétiches, je fais bien la différence… Au point que je suis en train de me faire un raspberrypi+spotify+ios serial control+dac pour la voiture
Le 05/04/2022 à 09h 12
Copain Klipsch :)
C’est surtout le MP3/pas MP3 qu’on différencie, avec l’écrasement des basses/aigus….
Google condamnée à 2 millions d’euros : la décision du tribunal de commerce de Paris
30/03/2022
Le 30/03/2022 à 15h 55
La conséquence chez Google? Une chasse d’eau de moins par an pour amortir la prune…
On a testé Storage Share, l’instance NextCloud d’Hetzner à prix serré
22/02/2022
Le 22/02/2022 à 10h 12
Perso, je me sers de Autosync - File Sync & Backup, de Metactrl, sous Android. La synchro est très bien même si android fait chier à désactiver les applications d’arrière plan.