votre avatar Premium

stratic

est avec nous depuis le 2 septembre 2014 ❤️

635 commentaires

Merci, j'étais passé à côté. Celui-là, c'est une pépite.

d'autant plus que l'Ångström n'est plus une unité de longueur officiel, mais bon les USA ne sont pas à ça prêt avec les unités de poids et mesures :)

l'Ångström n'est plus une unité de longueur officielle
L'unité de mesure n'a aucune importance, vu que, le chiffre annoncé pour la finesse de gravure ne correspond plus à aucune une mesure. 😆

Tu pourras voir ça dans un tas de vidéo sur YT. On parle souvent de la fiat 500 électrique. Sur la centrale on trouve facilement cette voiture, à moins de 5 ans (2022-2023) pour 9~15k€. Neuve elle fait normalement entre 30k€ et 40k€. Une décote qui clash un peu.

En bref une batterie. Que cela soit une pile rechargeable ou un module bien plus gros et massif qu'on met dans ces packs (car il s'agit bien de pack), il faut compter avec une fiabilité qui décline inexorablement. On parle de nombre de cycles de charge en général. Plus on recharge plus on perd en autonomie.


Pour nos piles de tous les jours cela ne se voit pratiquement pas. Nos appareils (télécommande, pèse personne, etc.) n'étant pas très gourmand, on les recharge occasionnellement.

Pour une voiture c'est bien plus souvent. On extrapole souvent l'autonomie fois le nombre de cycles donnés par le constructeur. Cela donne en fonction de son usage (ex : nombre de Km à l'année) la durée de vie de la batterie en Km... et donc de la voiture.

Il y a aussi le problème que la voiture peut dormir dehors (donc une amplitude thermique jour/nuit). Ça n'aide pas les voitures électriques.

On parle souvent de 10 à 15K€ pour changer une batterie d'un véhicule. Que cela soit en électrique pure ou en hybride.

Bref si tu fais du Km comme un commercial. Une voiture électrique représente un budget. Éventuellement d'être vu comme une voiture jetable. Si on ne fait qu'aller chercher le pain et des courses à moins de 50km (genre sédentaire retraité) ça ira à peu près.

Avant d'en parler, il faudrait tout de même se renseigner. Ou, à minima indiquer la durée de vie réelle des batteries en pratique. En moyenne, une batterie dure plus longtemps (en kms parcourus) qu'un moteur thermique. Comme pour le thermique, la durée de vie varie en fonction de la catégorie de véhicule (citadine ou grande routière par exemple). Comme pour les thermiques une batterie peu avoir un défaut et lâcher prématurément, mais c'est très rare et ça intervient généralement au début, alors que qu'elles sont encore sous garanties. Garanties qui, contrairement à un moteur thermique sont extrêmement longues. On trouve des choses comme 8 ans et 192 000 kms sur la propulsion (moteurs + batterie) chez Tesla par exemple. La durée de garantie est donc déjà égale, voire supérieure à la durée de vie espérée de beaucoup de moteurs thermiques. En pratique, la durée de vie est très supérieure à celle de la garantie. On dépasse la durée de vie du diesel, avec un entretien quasi inexistant.

Le calcul de la durée de vie à partir du nombre de cycles de charge annoncé par les fabricants est juste en théorie, mais complètement faux en pratique. Ce nombre de cycles theorique est donné pour des cycles de charge complets, allant de 0 à 100%. Chose qui n'arrive jamais en pratique. Hors, c'est lorsque le niveau de charge descend trop bas ou, et surtout, qu'il monte haut que qu'une batterie s'use le plus. En usage normal, on conserve un niveau de charge compris entre 20 et 80%. Pour un nombre de km parcourus identique, l'usure engendrée est très inferieure à celle correspondant au nombre de cycles complets donné par le fabricant. Ce chiffre présente un intérêt pour comparer la résistance à l'usure de deux batteries entre elles. Elle n'a en revanche aucun intérêt pour estimer le nombre de kms qui pourra être parcouru par le vehicule, qui est toujours très supérieur.

De plus les constructeurs (sérieux) ajoutent des buffers (le 0 n'est pas un vrai 0, et le 100 n'est pas non plus un vrai 100%), afin ne jamais faire travailler la batterie dans des limites extrêmes, là où elle se degraderait plus vite. Les données des fabricants de batteries sont des données brutes, avec des cycles complets, sans buffers. D'autre part, le nombre de cycles annoncés l'est pour maintenir une capacité minimale annoncée qui est, suivant les cas, située entre 70 et 80%. C'est à dire que lorsque le nombre cde cycles theorique, annoncé est atteint, la batterie est toujours parfaitement fonctionnelle. Sa capacité est juste ramenée à environ 75% de sa capacité initiale. Comme une thermique, dont la capacité du réservoir aurait diminué de 25%, mais dont les autres caractéristiques seraient restées identiques au neuf.

La décote est supérieure au thermique pour deux raisons évidentes. La première, c'est ce genre de croyances infondées qui sont colportées. La seconde, c'est l'évolution technologique qui fait que, contrairement au thermique, il y a un écart significatif entre les caractéristiques de la voiture d'il y a 5 ans et celle d'aujourd'hui. D'autant plus qu'on annonce, en permanence, que celle de demain sera encore mieux. Cette perte de valeur est donc purement psycologique. A part pour quelques véhicules pseudo électriques bricolés par des constructeurs qui ont loupé le train de l'électrique et proposent des thermiques déguisées (la 208 est l'exemple type), la décote n'a aucune justification rationnelle.

Si on taxe Meta, ça veut dire que Meta vendra son produit (les utilisateurs) plus cher à ses clients (les annonceurs). Est-ce que ses clients pour le marché français sont tous français ? Je ne pense pas. Si le coût de l'utilisateur français augmente, est-ce que Meta va dire à ses clients que c'est un produit différent des autres et qu'il coûte plus cher, ou est-ce que ça sera répercuté sur tous les utilisateurs ? Et le client (annonceur), lui, va-t-il décider de répercuter uniquement sur ses clients français ?

Tout ça pour dire que ça pourrait être un peu plus compliqué, et ça pourrait avoir un effet positif pour la France. Je me dois toutefois de souligner le conditionnel...

C'est vrai, quand le consommateur n'est pas (directement) celui qui paye, il y a probablement un effet de dilution au niveau international. C'est inévitable pour ce qui est basé sur la publicité, si la gestion n'est pas segmentée par pays. Le coût de la pub, se retrouve inclu dans le prix des produits correspondants. Comme pour le principe de l'assurance, on se met cependant le doigt dans l'œil, en pensant que ce sont les autres (ou autres pays) qui payent la taxe, vu que tout le monde tient le même raisonnement...

On ne peut effectivement qu'employer le conditionnel. C'est tellement bien dilué, qu'en fin de chaîne, la taxe ne laisse pas de traces (dans les esprits).

L'avantage quand les taxes sont payées en France, c'est que ce sont des rentrées supplémentaires ce qui n'est pas à négliger actuellement.

Ce sont bien des taxes, prélevées en France, dont je parlais. Les "rentrées" supplémentaires pour l'état, c'est toujours nous qui les finançons par l'augmentation résultante du montant de nos factures. Ce qui "rentre" en supplément, ce n'est que ce qui est sorti, en supplément, de notre poche. Le bilan étant nul, ce sont des rentrées pour l'état, mais pas pour la France. C'est juste une façon indirecte d'augmenter la contribution des citoyens, en leur laisant croire que l'on fait payer des sociétés.

Sauf creation de situation concurrentielle, croire qu'un fournisseur va diminuer sa marge afin d'absorber une taxe ou un impôt, c'est juste un doux rêve. D'un point de vue économique, ça n'a aucun sens pour lui. Augmenter proportionnellement ses tarifs est en revanche une solution naturelle et évidente.

C'est d'autant plus facile, s'il s'agit de produits dont le consommateur a du mal à se passer. Par exemple, récemment, Spotify a répercuté les taxes sur ses tarifs, sans y laisser de plumes, et en l'affichant clairement. Sur une plus longue période, ces 20 dernières années, l'industrie du tabac a vu les taxes spécifiques augmenter un peu partout dans le monde, la consommation a diminué. Pourtant, sur la même période, ses benefices ont augmenté de 77%. Le seul qui finance les taxes c'est le consommateur. Pour le fournisseur, la taxation ne fait que justifier l'augmentation des tarifs, avec un coupable tout designé : l'état. Sur des produits dont l'utilisateur ne sait pas se passer, les taxes peuvent même, paradoxalement, devenir un levier permettant l'augmentation des bénéfices, Le seul couillon de l'histoire, c'est le consommateur.
MicOz aurait effectivement été parfait, pour un assistant qui fait des trucs magiques quand on lui parle. :mdr2:
Peu importe où les taxes sont prélevées, dans tous les cas, en fin de chaîne, c'est nous qui payons.
C'est tellement improbable, qu'au départ, j'ai lu "256 Go". C'est, en lisant les réactions, que j'ai réalisé que c'était l'unité était To et non pas Go :mad2:

Ha non mais clairement, avoir déjà la suite de l'histoire c'est indispensable pour les opérateurs. Et les évolutions du hardware grand public participent à celle des réseaux internes.

En revanche, j'ai un doute qu'on en arrive vraiment à consommer nos 10Gbits domestiques au point que ce soit vraiment un point limitant dans le foyer lui-même (ça change sur les arbres qui irriguent ces lignes individuelles, évidemment).

J'ai l'impression qu'on a une hausse globale du taux d'utilisation moyen de la ligne, mais qu'on est très très loin d'avoir des problèmes de saturation sur les pics, en tout cas pas sur les lignes individuelles de particuliers.

Pour moi, sur les sujets technos je vois en orientations possibles :
- Soit on va continuer à partir dans le full Cloud/Streaming et on ne générera plus rien en physique, dans ce cas là tu pourras avoir des lunettes VR avec dans chaque œil des flux 300Mbits pour fournir du 8K 60fps HDR à 4 membres du foyer que ça fera pas flancher une ligne sur du XGS-PON : tu consommes 2,4Gbs constants, mais au final ça passe quasiment sur un forfait Sosh premier prix actuel.

- Soit on va au contraire revenir à la production physique et se mettre à tout héberger "on device", en particulier pour l'IA, mais même ça c'est du genre à demander des transferts très réguliers mais de volumes assez modérés de données. Même la BDD de ChatGPT pesait 570Go en 2023, soit moins d'une heure de transfert pour récupérer le full en 1Gb, et on sait quand même faire de l'incrémental. A moins qu'on se mette à tous faire son propre entrainement de modèle à domicile, mais ça semble peu probable.

Les entreprises sont un autre sujet, évidemment, par la multiplication des utilisateurs simultanés que ça représente. Je compare ça plutôt au problème de l'arbre réseau qu'à la ligne du foyer.

En revanche, j'ai un doute qu'on en arrive vraiment à consommer nos 10Gbits domestiques au point que ce soit vraiment un point limitant dans le foyer lui-même
Le jour où on arrivera à les consommer, il faudra se poser de sérieuses questions sur la façon dont on utilise les ressources et sur notre santé mentale.
Réclamation au près de la rédaction : J'ai constaté que la lecture du sous-titre provoque des douleurs abdominales.
Il faudra pourtant bien que tu t'y habitue, quand la puce permettant l'affichage sera greffée dans ton iris.
Ce n'est pas Free (comme pour les autres opérateurs) qui rend la VoLTE active sur un modèle en particulier. C'est le constructeur du téléphone qui le fait, en intégrant le réseau de l'opérateur, et ses paramètres spécifiques, à la liste de ceux répertoriés comme supportant la VoLTE. Seule une mise à jour de l'OS du téléphone peut donc en permettre l'activation.

Si, sur certains modèles, la VoLTE n'est pas supportée sur le réseau Free, alors qu'elle l'est pour d'autres opérateurs, c'est parce que Free a tardé à mettre la VoLTE en place. Les paramètres correpondants ont donc été communiqués tardivement. Pour les téléphones les plus anciens, les informations sont parvenues aux fabricants, après la fin de la periode de publication de mises à jour. Ainsi, on trouve des téléphones qui supportent certains opérateurs en VoLTE et pas d'autres. La raison est purement logicielle, à cause de quelques paramètres manquants dans un liste embarquée dans l'OS. Dans ce cas, la solution est de remplacer l'OS du fabricant par un autre encore maintenu et supportant ce modèle de téléphone (LineageOS par exemple).
Nous n'avons vraiment pas la même expérience. Les seules latences exécrables avec Free Mobile, pour moi, c'est uniquement en itinérance Orange. Sinon en 4 et 5g, la couverture est plutôt bonne, voir très bonne, comme les débits et, la latence reste raisonnable, proche de celle de l'ADSL. Le nombre d'antennes déployées est aujourd'hui assez proche de celui de la concurrence, ça n'a donc rien d'étonnant. Quand je vois certains commentaires, j'ai l'impression que certains sont restés sur le bashing ambiant des debuts du réseau Free Mobile. Apres, il est possible que l'expérience varie en fonction des zones géographiques. Cependant, je me déplaçais en permanence ces dernières années, presque toutes les semaines. Autant que je me souvienne, je ne me suis servi que deux fois de la carte SIM SFR que je garde sous la main en cas d'indisponibilité du réseau Free. La connectivité et les débits sont essentiels pour mon activité pro. Si le service n'était pas bon, il y a longtemps que j'aurais changé d'opérateur principal.

Pour ce qui est de leur approche pour le déploiement 5g, qui a consisté à déployer en priorité du 700 MHz puis du 3500 dans un second temps, je trouve qu'elle était plus seine que celle des autres. En privilégiant dans un premier temps la qualité du maillage et la pénétration indoor par rapport aux débits, ils avaient un socle solide auquel les fréquences supérieures sont venues s'ajouter ensuite. Une 5g rare, limitée aux zones denses et peu pénétrante dans les bâtiments avait peu d'intérêt, pour la majorité des utilisateurs (faute d'accès). Pour les opérateurs, l'intérêt d'une telle stratégie etait surtout médiatique, en communicant sur un débit maximal (uniquement). Ça a d'ailleurs fini par laisser croire à certains que sans 3 500 MHz, ce n'était pas de la vraie 5g.

À présent, les stratégies se croisent. Pour avoir une 5g réellement disponible sur le territoire, les autres la déploient aujourd'hui en masse sur les basses fréquences. Pendant que Free ameliore le débit de son réseau, déjà en place, là où des fréquences plus élevés ont du sens (quelque soit l'opérateur, en rase campagne, il est inutile d'espérer voir du 3 500 MHz arriver).

Blâmer les utilisateurs qui préfèreraient garder leurs habitudes n'est ni pertinent ni productif, de même qu'il n'est pas pertinent de blâmer le libre parcequ'il ne s'inscrit pas prioritairement dans une poursuite à tout prix du contentement de ces utilisateurs.

Depuis deux décennies on voit régulièrement des distributions apparaître pour essayer d'appâter l'utilisateur avec des interfaces dérivées de Windows... et le résultat est très mitigé.

Personnellement je pense que les environnements GNU/Linux ne peuvent réellement séduire qu'avec des environnements matures qui n'essayent pas d'imiter mais qui proposent une cohérence propre et solide, et à ce titre, le parcours de Gnome est vraiment remarquable.

J'étais complètement d'accord avec les propos, avant la fin de la dernière phrase :
à ce titre, le parcours de Gnome est vraiment remarquable
Là, j'ai faillit l'étrangler. De par mon expérience personnelle, quand c'est écrit Gnome, le truc part plutôt avec un handicap. Que ce soit d'un point de vue technique ou ergonomique, je trouve le moule inconfortable. Peut être qu'après un séjour prolongé dans le sarcophage on peut s'y habituer, voir même lui trouver des qualités.
Les amendes, ils y sont habitués dans la pâtisserie.
Si, ils y sont allés, et ont éduqué Grok. C'est bien là tout le problème. Grok peut à tout instant sortir n'importe quelle vérité, sans en avoir "conscience".

Remplacer complètement Wikipedia par Grokpedia est indispensable. Ça permettra à Grok de continuer à progresserer afin d'atteindre le summum de l'IA par le biais de l'auto entraînement, en s'auto alimentant de fakenews, fakefacts, et de construire un modèle de "fake knowledge", sans jamais être pollué par les sentiments humains, la science ou la vérité.
Dans le cas présent, j'ai l'impression que le problème n'est pas le nombre de chiffres mais plutôt le signe qui les précède ou la pente sur laquelle ils sont engagés.
C'est un vote du conseil qui décide lors d'une assemblée générale. La détention d'actions octroie des droits de votes correspondants. Sauf dispositions particulières dans les status de la société (types d'actions ou clauses particulières), ces droits sont proportionnels à la quotité d'actions détenues. Quand le conseil a soumis au vote la proposition de son remplacement, le "oui" a obtenu la majorité des voix. Elle s'est donc fait éjecter.

Le fait qu'elle detienne un nombre important d'actions ni change rien, tout le temps qu'elle ne détient pas plus de 50% des droits de vote (seuil pouvant être definit à une valeur différente dans les status, pour certains sujets), ou bien qu'elle n'arrive pas à rallier suffisamment d'actionnaires pour constituer une majorité lors du vote.

Après une, ou plusieurs levées de fonds, il est rare que les fondateurs détiennent individuellement la majorité des droits de vote.

De plus, lors d'une levée de fonds, les status de la société sont souvent révisés afin de protéger les intérêts des investisseurs. Sur certaines natures de décisions, ou seuils financiers, les fondateurs ou actionnaires historiques peuvent alors se retrouver avec moins de poids sur certaines décisions lors des votes, ou se voir opposer un véto.

Depuis 2015 c'est "Do the right thing" le slogan de Google, plus "Don't be evil"

Depuis 2015 c'est "Do the right thing" le slogan de Google, plus "Don't be evil"
C'est pour ça que, depuis 2015, à chaque annonce, on se pose la question "the right thing, for whom ?"
Moi, la seule chose que je trouverais vraiment bien, c'est un agent IA qui se chargerai d'expurger la pub et les cookies parasites. :D
Je n'ai pas saisi l'intérêt de rappeller des dates et événements dans la barre d'adresse. Personnellement, je perçois ça comme de la pollution. Pour ça j'ai un agenda.

Oui pareil. Je trouve très pernicieux que la "non exploitation" soit un critère pour réduire l'urgence d'une faille. En effet, quand on observe qu'une faille n'est pas exploitée, cela veut juste dire qu'on n'a pas encore constaté qu'elle l'était... ce qui ne veut pas dire qu'elle n'est pas utilisée, au contraire : on n'a pas détecté son utilisation. C'est très différent. Par contre, une fois qu'on a détecté un usage, on n'a plu de doute. Là, on laisse un boulevard ouvert aux malwares/hackers tant qu'ils savent rester "discrets" par exemple par ce qu'ils ciblent peu de machines, et ne se laissent pas détecter par une protection logicielle.

Qui a parlé d'exploitation ?

Quand c'est déjà exploité, c'est qu'il est déjà trop tard.

Là, on parle d'évaluation du risque (d'exploitation et d'incidence). Personnellement, sur le principe, ça me paraît plutôt censé, et plus efficient. Les fabriquants mettent beaucoup (trop) de temps à valider et sortir leurs versions correctives. En ne se concentrant que sur ce qui est réellement dangereux à court terme, ça allègera le contenu des versions correctives. Ça permettrait à celles-ci de sortir beaucoup plus rapidement, et donc de réduire la fenêtre de tir d'exploitation des failles. Bien entendu, ça supose que le risque d'exploitation soit correctement évalué en entrée. Vu que, pour l'instant, l'intégration des correctifs est beaucoup trop lent, en pratique, les utilisateurs auraient tout à y gagner. Ce qui compte avant tout, c'est de réduire le nombre d'exploitations et leur incidence. Par rapport à leur clients (et leur image), les fabriquants mettent en balance le risque de corriger trop tard et celui d'introduire des défauts de fonctionnement ou des plantages. Ils s'imposent donc un processus plutôt lourd et contraignant pour tenter de garder tout sous contrôle. Dans un tel cadre, du point de vue de la sécurité, vouloir absolument tout corriger va, paradoxalement, à l'encontre du but recherché.

De toute façon, les failles les plus dangereuses sont celles dont les développeurs n'ont pas encore connaissances. Pour celles-là, quelque soit le processus d'intégration des correctifs, il sera toujours trop tard.
La seule chose qui ne soit pas en chute libre chez Gandi, c'est le prix des renouvellements.
Je connais assez bien le traitement de l'image, de la captation à la restitution sur écran. Je n'ai, en revanche, qu'une connaissance assez limitée de celui du son.

Par analogie, je m'interroge sur le fait qu'il soit possible d'utiliser de l'IA, en faisant comme certaines cartes graphiques ou logiciels avec l'image. C'est à dire de reconstituer, lors de la lecture, l'information manquante, perdue par le biais de la compression, ou par le choix d'échantillonnage. Bien entendu, ça ne recrée pas l'information perdue de façon exacte, mais ça en restitue une version probable, assez proche de l'original et en haute fidélité. Ça reviendrait à restituer une source Mp3 avec une qualité equivalente à celle obtenue avec un encodage en Flac. Ce serait, comme regarder une source 720p ou 1080p sur un écran 4K, sans artefacts et avec un niveau élevé de details, sans pour autant dénaturer l'image.

Peut être, qu'il y a un obstacle que je ne perçois pas, ou bien que je suis passé à côté de l'info, mais je n'ai vu aucune démarche allant dans ce sens concernant le son.
Pour améliorer la pertinence des filtres sur la notion de spam, il faudrait que ceux-ci s'adaptent au profil de chaque utilisateur, Ce qui supose de profiler ce dernier, et soulève d'autres problèmes...
Vu que nos deux projets de production de batteries s'avèrent être de magnifiques échecs industriels (prix non compétitifs , technos d'hier, désengagement de constructeurs), eux aussi montés à grand coup de subventions, que va t'on faire de ce Lithium ?

La similitude entre les projets souverains de batteries au lithium et ceux de moteurs de recherche est navrante. Les mêmes schémas de décision, sous une impulsion politique et de grandes annonces, reproduident inlassablement les mêmes erreurs. On n'apprend donc jamais ?

Avec les moteurs de recherche, sans aucune innovation, uniquement à coup de subventions, à fonds perdus, on essayait de faire aussi bien que l'existant. La seule chose qui fut couronnée de succès, c'est la consommation des crédits alloués.

Là c'est la même chose, mais sur un projet industriel, où la competitivité relève de la performance des produits et de leur prix de revient. Techniquement, on retient des solutions classiques existant depuis longtemps dont on sait qu'elles sont plutôt en fin de vie. Pour l'aspect disruptif, c'est loupé. Économiquement, on produit avec un processus, lui aussi, tout à fait classique et dans un contexte où les prix de revient sont plus élevés que ceux de la concurrence. Pour l'aspect économique, c'est donc loupé aussi. À part un fiasco, qu'espére t'on ? Quand un constructeur comme Renault, qui s'était engagé sur sa gamme Alpine (donc sur un volume restreint), a déjà dû quitter le navire est revenu vers la "concurrence", on se dit que le naufrage a déjà commencé, avant même que le navire ne soit à flot...
Non, Trump n'a pas encore décrété que les actionnaires doivent percevoir une fraction du chiffre d'affaires proportionnelle aux actions détenues :mdr2:

complètement d’accord, je ne compte plus combien j’ai créé d’alias ces 10 dernières années.

Bonne occasion de compter : 856 alias :eeek2:

Ça fait longtemps que je pratique...

Mangeons 15% de moins de sucre, et le « problème » est réglé. En plus, on améliorera la santé globale de nos concitoyens.

Mangeons 15% de moins de sucre, et le « problème » est réglé
Ce n'est pas un problème de quantité. C'est un problème de prix de revient, donc de compétitivité.

Ceci dit, pour notre santé, manger moins de sucres est effectivement une des meilleures choses que nous puissions faire.
Elsa serait basée sur le modèle Claude d'Anthropic et développée par le cabinet de conseil Deloitte (entreprise qui finançait déjà l'investiture de Donald Trump en 2017)
Il n'y a donc rien d'étonnant à ce que le modèle hallucine en s'appuyant sur des fake news.

au lieu "d'algoryithme."
Il n'y a pas de y à algorithme.

Il n'y a pas de y à algorithme.
Oui, mais c'est le seul moyen qu'il ait trouvé pour prouver que son commentaire était bien posté par un humain.
l'Autorité de la concurrence semble être un excellent investissement pour l'État !

Un outil pas à jour indiquera juste qu'il ne sait pas gérer le png.
C'est justement la partie confusante car ces outils savent "gérer le PNG".
Mais ils ne fonctionneront pas avec certains fichier PNG.
Et là faudra se souvenir que "ah oui, ca doit être des 'nouveaux' PNG".
:(

Ce n'est pas le cas avec ces évolutions du format PNG. Le nouveau standard est rétrocompatible. Les images peuvent toujours être lues avec une ancienne version.

Certaines fonctionnalités le sont de façon transparente. Dans ce cas la valeur ajoutée de la nouvelle version est juste absente du rendu fait avec une version précédente. Leur positionnement dans le format fait que, n'en ayant pas connaissance, cette dernière ne cherche pas à les interpréter.

Sinon, pour les autres cas, le format permet à l'encodeur d'opter pour une génération d'image rétrocompatible. Dans ce cas, l'image restituée reste fidèle et l'augmentation de la taille du fichier reste minime. Ce qui aurait pu être apporté par la nouvelle version en est juste absent du rendu fait avec un lecteur plus ancien (le HDR par exemple).

Si, lors de l'encodage, la retrocompatibilité n'est pas activée l'image est toujours lisible par les anciennes versions, le fichier fait quelques octets de moins mais, le rendu est alors altéré. J'imagine que l'idée est d'utiliser la génération compatible dans un premier temps puis d'introduire progressivement ce mode au fur et à mesure de la disparition des anciennes versions.
Quelle déception en lisant le corps de l'article :pleure:. À la lecture du titre, j'avais cru, un instant, que la POE avait fait un bond phénoménal en autorisant des tensions plus élevées.

:inpactitude2:
Non, la longueur du câble n'est pas précisée. Il est juste indiqué que, dans la cabine, son extrémité arrivait à 30 cm du sol.
Oui, vu que, pour obtenir un visa:
* Tout doit être public sur les réseaux sociaux.
* Publication existante suggèrant "Trump=Caca": visa refusé
* Publication future suggérant "Trump=Caca" : visa révoqué
* Résultat : Liberté d'expression oui, sauf pour ceux pensant "Trump=Caca"
le délégué général de l’APPS assure que « tout sera mis en place » pour éviter les « risques de surblocage ».
Je suis curieux de connaitre sa méthode. Cette promesse est pire que celle d'un politique. Là on sait déjà que c'est impossible et qu'il y aura souvent plus de dégâts collatéraux que de tirs cadrés.
À aucun moment l'article ne laisse supposer ça. Le dernier paragraphe implique d'ailleurs le contraire.
Pour répondre aux interrogations autour du "fair use", Trump a utilisé sa doctrine personnelle, un peu plus radicale : le "fire use".

Déjà le "wokisme", ça n'existe pas sous la forme que l'on connait, c'est un terme repris pour accuser/dégrader un groupe, souvent la gauche, c'est comme "extrême", ou "communiste" utilisé à toute les sauces par la droite pour "insulter" la gauche (qui elle utilisé facho ou nazi à tord et à travers, d'où même là ou c'est justifié ça n'a plus de valeur). Que ce soit repris par des gens cherchant déjà à comprendre montre bien que ça marche, l'inversion du sens des mots et des valeurs (Orwell tout ça).

A l'origine, être "woke" c'est un compliment, voulant indiquer d'une personne qu'elle est "éveillé"/"consciente" des problématique d'égalité sociale et raciale (en gros qu'elle a compris les enjeux systémique de la lutte pour l'égalité des chances).
Je n'ai d'ailleurs jamais compris le principe de ce type d'insulte, c'est comme insulter avec ce qui est en réalité un compliment, genre tu vois un type de gauche, tu le traite de "sale intelligent" et tu t'en vas le torse bombé, WTF ?

Je n'ai d'ailleurs jamais compris le principe de ce type d'insulte, c'est comme insulter avec ce qui est en réalité un compliment, genre tu vois un type de gauche, tu le traite de "sale intelligent" et tu t'en vas le torse bombé, WTF ?
Ça sans doute du sens, mais uniquement pour ceux qui ne sont pas trop éveillés...
Je n'ai jamais constaté de limitations à la prise de contrôle directe de périphériques USB depuis VirtualBox. Ce n'est pas intuitif, mais c'est possible. Qu'entends-tu exactement par "émulation de clés USB" ?
"accélérer activement le progrès humain" : Avec X, la régression serait plus appropriée que le progrès.

Mais pour un fichier local file:/// les 3 slash sont bien obligatoires ?

Seul le dernier slash est réellement utile dans ce cas. Il signale le début du path. L'absence de host avant ce premier slash implique qu'il s'agit d'une ressource locale.
Jean-Marc ne voit pas d'utilité pour l'IA générative. Moi, je trouve que, au contraire, elle est très utile pour Jean-Marc. Quand un article Next est signé "Jean-Marc Manach", j'ai recours à l'IA générative, au travers de la fonction "Résumé" d'Inoreader, pour réussir à prendre connaissance du contenu en un temps raisonnable.

C'est mon seul cas d'usage de cette fonction. Jean-Marc, à lui seul, la justifie. :copain::humour::pastaper:

Appareil ...
ça dépend si tu parles du point d'accès ou du client, après entre pas configuré et pas disponible, il y a une marge.

Point d'accès ou client, peu importe. Ce n'est pas une question de type de materiel, ni de configuration non plus.

La norme n'est pas disponible gratuitement, mais l'information est disponible depuis différentes sources faisant référence. Par exemple, dans le "Wi-Fi 7 (802.11be) Technical Guide" de Cisco, il est dit:
320 MHz Channel Width (at 6 GHz) - The max channel width is doubled to 320 MHz when compared to 160 MHz in Wi-Fi 6. With 1200 MHz spectrum space available in the 6 GHz band, it’s possible to achieve 3x 320 MHz wide channels LPi Mode. For countries with 500 MHz spectrum, it’s restricted to 1x 320 MHz wide channel. This is an optional feature for Wi-Fi 7 certification.
Sur ce point c'est un peu comme les fréquences 3,5 Ghz de la 5g. C'est l'option offrant les performances maximales qui est mise en avant par les organismes de normalisation, par les fabricants et par la presse. Ça fini par être assimilé comme étant la caractéristique déterminante du standard alors que, dans les faits, il n'en est rien. Même la WiFi Alliance communique sur le 320 MHz comme étant la grosse evolution, en oubliant de préciser que, dans le cadre de la certification Wifi 7, le support de la largeur de bande 320 MHz est définit comme étant quelques chose de facultatif.
Par contre, c'est vrai que les répéteurs Free ne méritent pas le terme wifi 7 en n'utilisant pas la bande 6 Ghz, donc pas la largeur de canal de 320 Mhz, il va falloir qu'ils les remplacent rapidement ou qu'ils les gardent pour la pop.
Même si elle est souvent mise en avant, la largeur de canal de 320 MHz est explicitement désignée comme étant optionnelle en Wifi 7. Un appareil peut donc être certifié Wifi 7 sans pour autant la supporter.
Qu'est ce que c'est beau la liberté d'expression !

Quand ce sont ses plus grands défenseurs qui gouvernent, alors c'est là que ça prend vraiment tout son sens, non ?
Une liste d'attente pour ceux qui ne savent pas ce qu'ils attendent, ça c'est une sacrée idée !
Moi c'est pour éviter de me prendre des pleins phare dans la gueule.
Fais comme moi, n'utilises que les codes ou les veilleuses, en fonction de la luminosité ambiante. Personnellement, je trouve la lecture plus agréable et reposante sur fond blanc que sur fond noir. Évidement, si j'allume les phares, ça devient vite génant.

La différence principale, c'est surtout que, concernant la fatigue visuelle, un mauvais réglage de luminosité est plus vite perceptible sur fond blanc que sur fond noir. C'est ce qui donne l'impression que le fond noir est moins fatiguant, quand on ne prend pas la peine d'ajuster correctement la luminosité.

La fatigue est provoquée uniquement par l'ecxès ou le manque de lumière. Si un fond noir reduisait la fatigue, les livres seraient probablement imprimés depuis longtemps en blanc sur papier noir. Ce n'est pas le cas. Ils sont plus confortables à lire tels qu'ils sont. La seule différence avec un écran, c'est que le livre est presque toujours lu avec la lumière ambiante. Celle à laquelle nos yeux sont habitués. Exposés à une luminosité excessive,ou insuffisante, tout comme avec un écran mal réglé, la lecture sur papier devient elle aussi vite fatiguante.

L'usage d'un fond noir ne résoud nullement le problème. Il permet juste de mieux le dissimuler. Dans tous les cas, fond d'écran noir ou blanc, c'est l'exès de luminosité de l'écran qui provoque la fatigue. On s'en aperçois plus facilement dans un cas que dans l'autre. Avec une luminosité réglée correctement, quelle que soit la couleur de fond d'écran, on fatiguera beaucoup moins vite.