Tu peux développer, je ne connais pas ce type de modèle ?
Un "petit modèle" tournant en local qui ne sert qu'à te suggérer la fin de ta ligne. Je dirais qu'il me donne de bonnes réponses dans 50% des cas. Il invente des trucs (on voit qu'il n'utilise pas les données venant des AST, il me propose des réponses qui utilisent de champs qui n'existent pas sur des objets)
Et pour te trouver une source, je viens de tomber sur ça : https://blog.jetbrains.com/ai/2024/11/jetbrains-ai-assistant-integrates-google-gemini-and-local-llms/ (modèle large hébergé en local, je ne sais pas ce que ça vaut)
Et ce dont je parlais : https://blog.jetbrains.com/blog/2024/04/04/full-line-code-completion-in-jetbrains-ides-all-you-need-to-know/
Le
21/11/2024 à
14h
05
Il devrait au moins rester les modèles locaux "une ligne à la fois" comme chez JetBrains.
Que faire pour se protéger ? (question sérieuse) Pour ma part, j'ai très rarement la localisation d'activée, et très peu d'applis qui y ont accès.
Après vérification, 4 applis qui ont le droit d'accéder à ma localisation "pendant qu'elles s'exécutent" (2 applis de navigation hors ligne, 1 de test satellites, 1 qui fait du Bluetooth et réclame la permission de localisation alors que plus nécessaire depuis Android 12, ceci dit elle n'a pas accès au réseau).
Pour les rares cas où je veux faire tourner une appli qui exige ma position mais que je ne souhaite pas la communiquer, j'utilise un "simulateur de position".
Une idée du risque que j'ai de faire partie de leurs jeux de données ?
Oui, je suis d'accord sur le principe avec vous. Si ça devait être fait, il faut sans doute y aller par étapes et en laissant le choix de quelque chose de certes contraignant, mais qui laisse la possibilité de plusieurs stratégies d'adaptations et d'offres pour les entreprises.
J'ai oublié une option... Y'a aussi la standardisation de l'interface... Plus besoin de pilotes dédiés, juste des "pilotes de classe" comme avec l'USB, ça semble plutôt bien fonctionner (... Avec 25+ ans de recul)
Le
18/11/2024 à
15h
53
Concernant le fait que les mises à jour sont déjà quasiment toutes possibles, en indiquant qu'il est déjà possible de mettre à jour tout un tas de choses, je ne suis pas d'accord.
Quand c'est techniquement possible, ce n'est déjà pas le cas car l'entreprise a simplement abandonné le support (voir mon exemple plus haut sur mon ancien switch), d'où mon idée de drivers/firmware au moins en partie open source et au moins quand l'entreprise abandonne le support. Et quand c'est techniquement impossible, c'est parce que trop de choses ont été gravées dans le silicium pour rendre une mise à jour critique possible ET/OU, lorsque cela implique de mettre à jour trop de noeuds réseau en cascades et donc lorsque cela peut impliquer un crash du réseau. Le dernier exemple me semble assez probable lorsque la mise à jour se trouve dans la couche réseau. Je pense à l'exemple commun de l'IPV6 qui peine à être implanté (en parallèle et non en mise à jour) depuis 20 ans.
Donc, à mon sens, il faut forcément que les nouveaux protocoles réseau locaux ou globaux, soient pensés pour pouvoir être mis à jour assez facilement et indépendamment de la volonté des constructeurs de ces matériels réseaux. Sinon, cela veut parfois vouloir dire effectivement changer de protocole lorsqu'il y a une faille de sécurité.
Enfin ce n'est que mon avis, mais bon, c'est sûr que c'est moins vendeur que de vouloir aller sur Mars.
J'ai juste dit que c'est possible. Personnellement je serais pour offrir 3 options : - support du matériel pour x ans (10?) - sinon drivers open source (avec licences pour modifier ?) - sinon doc complète de la puce.
J'ai aussi l'impression que beaucoup de choses sont faites vites, dans les protocoles, notamment au niveau sécurité.
Le
18/11/2024 à
15h
49
Le droit n'est pas ma spécialité, mais le législateur légifère sur tout un tas de choses. Par exemple, traverser en dehors des passages cloutés est illégal, ecrire un texte officiel en écriture inclusive rend le texte caduque, et au niveau européen, produire des pommes trop grosses ou trop petites est illégal (enfin si j'ai bien compris). J'imagine qu'il faudrait écrire quelque chose comme "en dehors des motifs impérieux listés dans l'article X, il est interdit de commercialier une nouvelle version d'un protocol réseau local sans fil, si la version précédente a moins de 10 ans, tout en rajoutant les éxigences techniques qui définissent ce qu'est un bon protocol du point de vue du législateur.
Mais bon, je pousse pas mordicus à ça, car c'est toujours mieux s'il y a auto régulation. Concernant votre remarque sur la charge financière que devrait supporter les entreprises du fait de ces choix politiques, il n'est pas interdit de supporter financièrement ce qu'une entreprise n'a pas à supporter toute seule. Le montage financier pour être sous la forme d'une association qui a une mission de service publique et financée par plusieurs états, au moins au niveau européen. Les entreprises productrices de puces seraient pourquoi pas obligées de produire une interface avec un driver open souce intégré dans l'appareil, et ce drivers pourrait être mise à jour via d'autres entités, notamment des entités avec financement publique citées plus haut, afin de ne pas pénaliser des entreprises par une politique extérieure à la leur.
Edit : quelques corrections
Ça reste compliqué... Il suffirait d'avoir un nouveau Wifi tous les 10 ans et un nouveau OuiFi 5 ans après le Wifi, tous les 10 ans. Et les puces wifi sont compatibles OuiFi.
Le
16/11/2024 à
17h
19
Et sauf erreur de ma part ces fréquences ne sont ouvertes qu'à une utilisation en intérieur non ? ;)
Le
16/11/2024 à
17h
18
Justement, dans mon propos développé plus haut, j'intègre bien l'idée d'avoir la possibilité de mettre à jour le protocole en cas de faille. Ce qui n'est pas prévu ici. D'où mon désarroi, et la critique de ce qui se fait actuellement. Pour moi les fonds R&D devrait surtout aller sur ces questions de modularité, soit pour des questions de faille de sécurité à corriger le cas échéant, soit pour des questions de dysfonctionnement technique et/ou juridique (juridique car tous les pays n'autorisent pas les mêmes fréquences).
Et donc in fine, on en reviens toujours au même. La durabilité en informatique et en télécommunication est liée à la possibilité de réaliser des mises à jour logicielles.
Comme indiqué par intrépide, une bonne partie de tout ça est d'ores et déjà géré en logiciel (ce qui peut être au niveau firmware, ou carrément exécuté sur le cpu). C'est donc possible de changer (pas forcément pour toutes les puces), mais c'est un coût pour le constructeur... Donc si pas de punition des utilisateurs (boycott) et pas de loi, pas de raison de dépenser plus.
Le
16/11/2024 à
17h
11
Je ne suis pas sûr de comment légiférer. C'est un consortium privé. Personne ne te force à utiliser du wifi en 2.4 Ghz (comprendre : tu peux utiliser d'autres protocoles). Pour 5 et 6 Ghz je ne sais pas. Même chose pour la GSMA. Je ne sais pas si les US sont encore en CDMA.
Le
16/11/2024 à
17h
07
On s'approche de ces performances... Un switch 48 ports GB a typiquement 96 Gb/s de débit. (2 Gb par Port, même sje doute que ça monte souvent à 2 Gb sur les 48 ports) Donc à voir les usages, mais par exemple pour un bureau, je ne crois pas qu'on en soit encore à l'equivalence.
Franchement, vu le contenu des vidéos, les transformer en texte serait déjà énorme. Ca me gagnerait tellement de temps! Et 1080: on pourrait aller plus loin encore.
Perso, je préfèrerais bannir les vidéos et les remplacer par des animations scriptées (Flash en quelque sorte) si c'est pour avoir un pantin qui débite du texte, et des captures d'écran illisibles pendant une formation.
Oué enfin avec des idées comme ça c'est la des tutos de 10 minutes sur YouTube et on revient à la page avec 4 paragraphes et une image ! (Qui prend 2 minutes à lire)
Attention, la prise TIC du Linky, c’est pas du TTL 5V, mais un truc chelou en 25V AC. L’optocoupleur sert de redresseur d’ailleurs. Ça devrait tenir un peu plus de distance que du TTL 5V standard.
Wahoo OK... Par contre un truc m'étonne : brancher 25 VAC sur un optocoupleur, je doute que la diode survive.
Le
09/11/2024 à
09h
44
Attention : je ne suis pas un expert.
Il y a forcément une longueur maximale, mais elle dépend de pas mal de facteurs. Ça parle de TTL donc jusqu'à 5V, mais il est possible de descendre jusqu'à 2V pour un signal "haut".
Faut voir combien le récepteur consommerait en énergie, et faire un petit calcul...
Si tu voulais une bonne distance, avec une alimentation (potentiellement fournie par le linky), il serait sûrement préférable de passer en RS422 ou RS485.
"actualiser l'OS sans le sortir de la boîte" Là j'avoue avoir été assez sur le quand j'ai appris ça...
Je me demande si c'est un ingé Apple tout seul qui y a pensé, et si ça avait dit durant une réunion Brainstorming et tous les autres ingé autour de la table ont commencé à bien se foutre de sa gueul...
Mais non, ça c'est fait !
Après, ça doit potentiellement entraîner plus de "surface d'attaque" pour des gens malveillants..., certains qui vont essayer de chercher à exploiter cette fonctionnalité, fonctionnalité avant tout créée pour faciliter la vie des gens... (je parle au subjonctif ici...mais dès qu'il y a la moindre occasion de trouver une faille/faiblesse/erreur en face, la nature humaine c'est bien quand même de l'exploiter personnellement pour son propre profit, non ?)
Bref, bien triste tout ça...
En fait pas forcément de rapport avec le truc de mise à jour, ou du moins j'ai pas trouvé en vitesse : Ars Technica
Le
08/11/2024 à
17h
00
Oui mais le 64 bits l'a rendue moins efficace. (Sauf erreur, Windows ne plantait pas)
Le
08/11/2024 à
16h
56
"actualiser l'OS sans le sortir de la boîte" Là j'avoue avoir été assez sur le quand j'ai appris ça...
Je me demande si c'est un ingé Apple tout seul qui y a pensé, et si ça avait dit durant une réunion Brainstorming et tous les autres ingé autour de la table ont commencé à bien se foutre de sa gueul...
Mais non, ça c'est fait !
Après, ça doit potentiellement entraîner plus de "surface d'attaque" pour des gens malveillants..., certains qui vont essayer de chercher à exploiter cette fonctionnalité, fonctionnalité avant tout créée pour faciliter la vie des gens... (je parle au subjonctif ici...mais dès qu'il y a la moindre occasion de trouver une faille/faiblesse/erreur en face, la nature humaine c'est bien quand même de l'exploiter personnellement pour son propre profit, non ?)
Bref, bien triste tout ça...
4% de batterie donc je vais te laisser chercher. De mémoire y'a déjà eu des exploits, avec articles sur le sujet ici. En 2023 ou 2024 je dirais.
Je n'étais pas aussi expert... Et jamais essayé ou pensé aussi à downgrader en 3.3, toujours resté sur LA 5.0 , qui à l'époque était LA star et version majeure et qui a finit par enfoncer ou défoncer plutôt toute autre forme de concurrence...
Ensuite la 6.0 a finit le taff en s'asseyant définitivement dessus sur tous les moribons qui respiraient encore un peu... Bye Bye Digital Research...
Nous on a commencé sur 3.3 donc le downgrade était assez facile. Je crois qu'on est passé direct au 6, le 5 on l'a eu plus tard. Et 6.22 était une motivation majeure pour booter sur 3.3, il utilisait pas mal de RAM.
DR-DOS ? Je dois toujours avoir la boîte du 8 quelque part, on a eu PC-DOS 7 aussi, jamais trop vu la DIFFÉRENCE. Wikipedia dit qu'il n'y en avait pas vraiment.
Ceci dit MS-DOS est le seul sur lequel j'ai programmé je crois, même si je pense que les autres devaient avoir une int 21 compatible autant que possible.
Le
06/11/2024 à
15h
50
Désolé, je me suis mal exprimé en écrivant
"286@16Mhz !!??"
Je voulais dire : " non, argh pas possible !!? ? Toi aussi t'avais un 286 comme mon meilleur pote au lycée !!"
et le jeu entre nous qui consistait à celui qui avait écrit le meilleur autoexec.bat pour dépasser 610Ko de RAM dispo...(la séquence dans le fichier avait son importance...)
Que des heures perdues pour ce qui est des futilités qui n'ont plus aucun sens maintenant... mais c'était marrant... quand on est jeune...
Juste pour remettre en perspective, un jour on avait essayé de lancer un jeu de simulation d'hélicoptère sur son 286. Le programme a planté juste avant de s'exécuter. Le message d'erreur, même à l'époque, nous avait fait bien rigoler quand même :
"Not enough memory, 1KB extra required"
1KB de libre qui manquait dans les 640KB
et maintenant on ne compte même plus en KB, même en MB mais en GB de RAM...
Gordon Moore (en plus de sa célèbre loi) avait dit aussi (milieu des années 90 déjà):
"Si l'industrie automobile avait évoluée aussi rapidement que celle des semi-conducteurs, vous auriez une voiture qui roule à 2000km/h, coûterait quelques US dollars seulement et tous les soirs en rentrant chez vous, vous jeteriez votre voiture à la casse pour en racheter une meilleure le lendemain matin..."
C'était quoi ce jeu ? Comanche ? Je faisais des autoexec/config.sys à menu pour avoir plusieurs configs, mais s'il fallait vraiment de la mémoire, c'était disquette de boot Ms-Dos 3.3 avec clavier en qwerty.
Le
04/11/2024 à
15h
20
Je vois qu’il y a un connaisseur ici.
2 fois (déposer - récupérer) un Samedi après-midi, mes parents ont dû m’emmener et faire 2 x 2 x 40km (~ 3h pour un 1 aller-retour porte à porte) pour aller au magasin qui était en plein centre-ville d’une grande ville pour faire réparer la (revenez dans 15 jours) ces p"tains de soudures de ports joystick d’un ATARI 520 STE… (à cause d’un design tout pourri et aussi car les joysticks lâchaient trop souvent et rapidement au passage, brancher-débrancher…).
En récupérant l’engin réparé, ils m’ont offert 2 petites rallonges de 10cm de long… Pas bien longues les rallonges mais largement suffisantes pour eux pour ne perdre encore plus tard 2 Samedi Après-midi « pour rien », surtout vu la tête de mon père : « - C’est quoi un port DB9 de joystick ? Et c’est vraiment utile ça ? »
« - Ben oui évidemment Papa !!! ».
(C’était il y a 35 ans environ déjà... quand j'avais 15 ans )
Des rallonges ? Je me trompe ou c'est pour faire moins de cycles connexions/deconnexion sur le port ? Je commence à faire avec l'USB-C, en préventif.
Le
04/11/2024 à
15h
17
286@16Mhz !!??
Un de mes amis de lycée (et toujours mon meilleur pote depuis cette époque là) avait lui un Kinetec (la boîte est morte elle aussi), donc un PC Kinetec 286@16Mhz et son PCSHELL à lui, il avait une grosse grosse patate, comparé à nous autres, en trotinette 8086/8088...
La vache... P'tain ! C'était y a 35 ans déjà !
Oui... D'ailleurs je ne suis plus sûr... 12 ou 16 ? Avec un soft qui permettait (je ne sais pas comment, de toute évidence par contrôle du hard) de booster la fréquence (sûrement de 12 à 16).
Ceci dit il avait quand même 2 Mo de RAM (pas d'origine) hein ! (Assez inutiles en général, à part pour himem.sys et essayer de charger un max de trucs au dessus des 640 ko)
Les choses ont changé en 35 ans ! Pas toujours en mieux d'après moi ("obligation" d'écrire du code efficace vs énorme gaspillage par des programmes écrits avec les pieds)
Le
03/11/2024 à
10h
28
"à la limite un peu de programmation"
Un peu mais pas trop ? C'est où la limite entre "un peu" et "ça c'est trop ?"
Heureusement que les développeurs / programmeurs n'ont pas attendu un CPU 4 coeurs@4Ghz pour faire de la programmation...
Je me rappelle d'une caricature @ la Flock il y a une vingtaine d'années: Un programmeur de jeu vidéo, plus que lui tout seul dans les bureaux, dans le noir, les yeux explosés @ 3h du mat, toujours devant son écran et qui finit par gueuler :
" Et puis merde à la fin, le matériel suivra bien " (ou pas des fois...)
A mon époque, l' IDE de TurboPascal de Borland (Integrated Development Environment) tournait très bien sur un 386DX@33Mhz, pas 4000Mhz, 33Mhz...
Il parait aussi que Bill Gates avait piqué une grave crise de nerf sur son CTO (Chief Technological Officer) à l'époque (véridique) :
Bill: "- Pourquoi notre Pascal à nous, il rame autant !?? "
CTO: "- Ben chez Borland, ils ont tout écrit en Assembleur de A à Z aussi..."
Borland est mort depuis bien longtemps, Microsoft par contre est la 2nde-3ieme valorisation financière la plus importante dans le monde, mais tous les 2 dont le job/la mission est (était) de pondre du code. Juste pas les mêmes choix stratégiques.
Tout comme le CP/M était technologiquement largement plus en avance que le DOS... (Multi-Users & Multi-Tasking... en 1984... sur un PC !) Le CP/M, il est mort lui aussi... d'ailleurs ainsi que son créateur, dans une chute d'escalier dans un bar, portant ce soir là un blouson en cuir de motard "Harley-Davidson", détail pour pourrait expliquer sa chute "accidentelle" mais jamais prouvé malgré certains indices de la Police).
Bill Gates lui avait rendu hommage d'ailleurs peu après ( et aussi après avoir repompé un max de ses idées pour son PC/DOS...) Bref... digression... désolé).
Il tournait aussi sur mon 286 @ 16 Mhz... IDE très rapide, la compilation, bah, difficile de comparer. Peut-être plus rapide que Turbo-C je ne me souviens plus.
Une discussion qui revient régulièrement ici... on a juste des softs de plus en plus lourds (éventuellement sur des VM de plus en plus lourdes, Java, .NET, tout ce qui fait tourner du JS...)
Le
03/11/2024 à
10h
24
C'est juste que j'aimerai contrôler la luminosité directement de mon moniteur sans aller dans les menus OSD avec le bouton à l'arrière pas pratique et 3 niveaux de menu avant d'y arriver et en même pouvoir profiter du 60Hz sur le bureau (en 2024, 60Hz c'est pas demander grand chose).
Non... Impossible... soit l'un soit l'autre... Il faut choisir sa prise HDMI...
Sinon j'ai cherché, rien trouvé sur "MCSS" ... mais uniquement sur le protocole DCC (Display Data Channel) ici.
J'imagine que c'est en fait la même chose. .
Ton lien Wikipedia parle de MCSS (dans la section DDC/CI). MCSS passe par DDC. La spec la plus récente que j'ai est celle-ci : https://milek7.pl/ddcbacklight/mccs.pdf
Tu pourrais essayer de brancher les 2 entrées à ton PC, et essayer divers options (ne pas utiliser, étendre, mirroir...). Du coup tu utiliserais l'entrée 60 Hz sur ton écran et tu enverrais les commandes à l'autres entrée.
NirSoft a un logiciel qui permet d'explorer ce que ton écran supporte de MCSS/VCP, peut-être qu'il pourrait faire mieux que ton autre logiciel.
Le
02/11/2024 à
15h
49
Exact !! Mea Culpa...
Oui le cas des portables en effet. La liaison physique Ecran - CM se fait en général par du LVDS (Low-voltage differential signaling) et non pas avec du HDMI ou DP (ou peut-être en surcouche logicielle par dessus, je ne sais pas).
J'utilise au quotidien du PC Desktop depuis quelques années déjà avec du moniteur externe donc j'avais zappé - oublié le cas du laptop et de sa liaison interne & directe.
Mais je pense quand même, que vu que sur un de mes 2 ports HDMI de mon écran externe, un logiciel spécialisé n'y arrive même pas, je doute que Windows lui y arrive... pour de l'externe.
Par exemple, changer la luminosité quand on regarde un film sur une TV branchée à un HTPC, soit dans le player ou dans les paramètres Windows, ce n'est que changer artificiellement la valeur "luminosité" des infos/ pixels qui envoyées à la TV, et non pas la luminosité des LED qui sont dans la TV (comme le ferait une télécommande par contre).
Pour info et pour l'avoir mesuré moi même, sur ma TV 55" LCD (2016) entre :
1 - Luminosité Min (on voit quasi plus rien) et - Luminosité Max (le soir, ça , ça explose les yeux),
on passe de 25W à 125W à la prise soit x5 plus d'énergie consommée pour le même appareil...
Bon je vais faire des tests ce weekend au wattmètre et en utilisant seulement les options de réglages de Windows pour les 2 ports HDMI de mon monitor Samsung... Je serai bien fixé.
Ils ont du faire l'impasse du support VCP/MCSS sur ton 2ème port je pense. Je n'ai jamais trop essayé je me sers rarement de plusieurs ports, j'ai juste utilisé du VCP pour changer l'entrée d'un écran pour me rendre compte que je ne pouvais plus changer ça quand l'écran était sur l'autre port (oui il faudrait envoyer la commande depuis l'autre PC).
Je suis passé de 3xTN + 3XIPS qui tiraient au total plus de 120W à 6xIPS qui consommaient 60W au total y'a pas loin de 10 ans. Cette année je suis passé à 1 seul 40" qui consomme... 20W. D'après ses specs il doit consommer 80W typique 88W max. La plupart du temps c'est luminosité 0 et contraste 30.
Pour regarder des films, c'est 50 contraste, 100 luminosité. On peut utiliser les mêmes réglages pour bosser, c'est ce que j'appelle le mode "bronzage". Jusqu'à mon dernier écran, tous les écrans que j'ai acheté étaient livrés en mode bronzage.
Le
01/11/2024 à
06h
14
A ma connaissance, le changement de luminosité dans Windows est purement logiciel (comme dans un player de movies ou un logiciel photo) et non pas matériel du type OSD comme tu le mentionnes aussi en effet. .
Sur portable windows envoie de ordres à l'écran pour changer de luminosité. Quand j'utilise mes memes touches avec un écran externe, ça ne fait rien (mon écran interne est éteint, il est possible que Windows décide que ces touches ne doivent fonctionner qu'avec lui).
Comme il est dit il faut que l'écran supporte MCSS. C'est le cas des miens. Mais c'est vraiment hardware, si supporté. Sur certains écrans on peut même simuler les touches de l'OSD.
Ceci dit je ne sais pas comment Windows gère le multi écran (à part "pas"), mon logiciel est fait pour changer la luminosité d'un écran choisi à l'avance, ou de celui où se trouve le curseur souris.
Le
01/11/2024 à
06h
09
Je vois vraiment pas à quoi tu fais référence, parce que j'ai jamais vu Windows me proposer de changer la luminosité pour un écran externe.
Sur le PC fixe, le bouton n'existe pas, et sur les PC portables branchés à un écran externe, le bouton est grisé quand je suis sur l'écran externe.
Y'a une icône dans la barre à droite sur les portables, et sur les portables, le changement de luminosité est maintenant en général géré en software, c'est à dire que les touches sont "lues" par l'OS qui envoie des ordres pour changer la luminosité.
Pareil pour la fonction "écran externe", mes portables récents ne supportent même plus l'affichage sur écran externe par exemple dans l'UEFI. Mes PC de bureau ont eu divers comportement mais ça doit venir des cartes graphiques... Affichage sur tous les écrans, affichage sur un ou deux...
Le
01/11/2024 à
06h
05
Quand je boot mon ordi (tout éteint avant) sur le HDMI 2, impossible de régler la luminosité mais du 60Hz @ 4K pour le bureau Windows. pour le port 1, il est bien bridé à 30Hz en 4K (confirmé sur des forums).
Mesquin et p'tit bras...
Ça me fait penser qu'ils n'ont implémenté VCP que sur un port, mesquin en effet.
Le
31/10/2024 à
01h
39
D’ailleurs c’est très bien que tu mentionnes les fréquences d’affichage et j'aimerai montrer la mesquinerie absolue de certains constructeurs pour gagner encore plus de pognon au détriment de leurs clients.
J’utilise depuis 4-5 ans un Samsung 4K U28E590 avec 3 ports : DP, HDMI1, HDMI2 (écran de moyenne gamme). Ma CM n'a pas de DP, seulement du HDMI.
J’utilise aussi ClickMonitorDDC@Windows qui permet de contrôler directement un écran, cad de changer la luminosité comme si on le faisait avec les menus OSD (On-Screen-Display) avec les doigts, plus pratique avec une souris, ainsi que accessoirement la mise en veille et l' extinction (comme avec les doigts aussi).
Windows lui ne le fait qu’artificiellement pour la luminosité (ça se voit à la conso à la prise), mise en veille & extinction : oui par contre... Il envoie l'instruction. Bref...(Hors sujet).
Je me suis rendu compte assez rapidement (et confirmé sur des forums) que :
- Port HDMI N° 1 derrière l'écran: permet le contrôle DCC mais le rafraichissement limité à 30 Hz seulement car HDMI 1.4 (et sur le bureau Windows, oui ça se voit à l'oeil nu la fluidité du pointeur).
- Port HDMI N° 2 : ne permet PAS le contrôle DCC mais le rafraichissement est par contre à 60 Hz car HDMI 2.0.
Donc je débranche un coup sur 2 de prise HDMI pour changer de port si je regarde soit un film ou bien soit que je fasse de la bureautique ?
Même la spec technique officielle bien sûr ne le précise pas. Juste « 2 x HDMI » . Seulement quelques commentaires (et pas évident à trouver la réponse) dans des forums spécialisés IT qui donnent enfin la réponse au pourquoi.
Quand on achète un produit, on se base avant tout sur les spécifications techniques officielles de la fiche produit, comme pour 98% des acheteurs, non ? On ne passe pas 1/4h – 1/2h à fouiller dans des forums assez techniques de Geeks à vérifier le type de version de CHACUN des 2 ports HDMI à l’arrière l’écran ? Même pour des geeks… parce qu'un port HDMI, c'est un port HDMI, numéroté 1 ou numéroté 2 derrière l'écran, et puis tant ça rentre bien dedans par derrière, c'est tout bon, non ?
Qui dans l’ensemble de la population va creuser les specs et connait les différences techniques entre HDMI v1.4 vs v2.0/2.1 ?
= > 0,05% ? mais le marketing ne s'est pas privé de communiquer cette info "vitale" aux designers et surtout aux services Achats du groupe.
Bref, au final combien Samsung a économisé de $$ sur chaque écran vendu avec cette pauvre ARNARQUE à 2 balles ? Bien sûr 99,95% des clients n'ont absolument rien remarqué...
Les specs techniques détaillées (interne) sont dispo à la FNAC et chez Boulanger en magasin ? Non... En ligne ? Non plus...
Honnêtement c'est juste du PUR Mensonge par omission ici.
SAMSUNG… Juste 100% minable ici… .
Wahoo interessant ces fréquences différentes sur les ports !
Ton problème avec le DDC pourrait être que, dans mon expérience, DDC/VCP/MCSS ne marche que depuis le port actif.
Je ne suis pas sûr pour le changement de luminosité "artificiel" sous Windows. Je n'ai rien dans l'UI pour changer ça, par contre quand j'utilise l'API pas de problème, ça change comme dans l'OSD. Pas besoin de drivers. Et quand je monte trop haut l'OSD apparaît pour me dire que là ça va consommer plus.
Oui désolé. En effet, dans des longs tapis roulants, un peu comme les toasters dans les hôtels, ça rentre d'un côté et ça sort de l'autre... C'est ça ? Et on règle la vitesse pour adapter le profil thermique quand ça passe dans le tunnel ?
Même si j'ai passé quelques années à acheter du composant électronique (passif) à coup de gros fichiers Excel en fait, j'avoue que j'ai été rarement voir sur les lignes de prod comment on les "collait" sur le PCB...
Mais je me rappelle quand même que les machines de pose CMS sur les PCB, ce sont des vraies tueuses ces bêtes là. Hallucinant de vitesse et de précision.
Pas sûr qu'on utilise la vitesse du tapis pour le profil thermique du tout. Tu as le profil thermique pour ça ;)
C'est moi où on se rapproche enfin d'être payé pour regarder des pubs ? Ça pourrait remplacer le revenu universel (Non ne m'expliquez pas pourquoi économiquement ça serait stupide)
Moi ça me conviendrait parfaitement, tant que les bloqueurs de pubs fonctionnent.
Je confirme! En 2004, je me retrouve au travail avec un lecteur zip Iomega, et des disquettes de 750 mb!! Comparé au cd réinscriptible, je trouvais ça génial, et je voulais en prendre un pour moi… Jusqu'à ce que je vois le prix! D'ailleurs, ce lecteur doit toujours trainer au fond d'un des tiroirs de mon bureau, avec également un lecteur de disque Iomega REV!
Le REV n'avait plus grand chose à voire avec les disquettes :) 35 Go (j'ai eu la 1ère version) pour les backups c'était le... Rêve ;) Un peu cher mais largement plus abordable qu'un lecteur de bande. J'ai lu des commentaires sur divers soucis, jamais eu avec les miens.
Le
26/10/2024 à
04h
59
j'en avait un de ZIP100 ! de mémoire, les premiers étaient chiants ET galère à installer car ils utilisaient le port COM (la version USB était sortie bien plus tard), et en général, les PC n'avaient qu'un seul port COM, souvent utilisé pour le scanner (et le port LPT pour l'imprimante)
Oui plutôt le port LPT car débit bien meilleur.
Le
25/10/2024 à
17h
53
Et en gardant le format, y'a eu le LS120. Y'a aussi eu les ZIP. Je suppose que leur succès moyen (oe tout le monde n'avait pas de ZIP ou de LS120 à l'époque) était lié au prix.
Le
25/10/2024 à
17h
52
J'ai fait acheter ça récemment (plus en préventif qu'autre chose). Des machines industrielles un peu vielles mais qui font encore le boulot (un 486 en l'occurrence)
Ok pour l'usage de créer et fabriquer des puces custom, mais ça ne répond toujours pas à comment/pourquoi ARM pourrait casser un contrat déjà existant avec Qualcomm...
Tant bien même la licence NUVIA ne serait pas valable, Qualcomm aurait "juste" perdu sa mise si il comptait se lancer dans la conception de puce ARM, mais je ne vois pas le rapport avec le contrat de Qualcomm "actuel" qui lui permet de vendre ses SnapDragon...
Ça pourrait être parce que le contrat stipule qu'il peut être cassé sous des conditions qu'ARM estime remplie. Exemple : "en cas de non respect d'une clause par une société du groupe du client, ce contrat peut être terminé". Sans avoir le conteat, dur de juger. Pas sûr que ça soit plus simple en ayant le contrat, on peut raisonnablement supposer que les 2 parties l'ont et ne sont pourtant pas d'accord sur son interprétation ;)
Effectivement la nvidia qui tournait en permanence, donc ventilo audible, châssis du laptop anormalement chaud, et pour couronner le tout, via xrandr j'avais remarqué que la nvidia traitait un écran imaginaire... Chose que l'on peut contourner (trouvé grâce au wiki de fedora à l'époque).
Chez moi manjaro n'a jamais fais mieux, en faite aucune distribution, c'était du gros bidouillage pour avoir un truc à peu près correct. Depuis je suis passé sous un laptop sans gpu dédié et c'est vachement mieux.
Pour avoir un OS 100% libre et zéro blob non-free au sens brut de gnu.org, il faudrait un pc 100% libre lui aussi, avec aucune marque de grande renommée, partir d'une feuille blanche. Sauf que la communauté du libre prône souvent la diversité, là ce serait restreint à une machine type, ce qui en déplairait + d'un.
Perso j'aime utiliser les alternatives libres quand elles existent, et offrent un confort qui ne me pénalise pas à l'extrême. Mais qu'il y ait des blobs non-free dans certains packages, ou + généralement sur mon OS, ça m'importe peu, du moment que le pc fonctionne correctement, et qu'il ne soit pas amputé de trop de fonctions. Savoir faire des sacrifices pour un vrai confort, sans être extrémiste.
Purism Librem peut-être ? Je ne sais pas s'ils ont des blobs.
Il n'est pas forcément trop tard. ARM ne domine pas encore, et je suppose que le but c'est d'éviter d'en arriver là. Même si c'est pour faire en gros du 50-50 c'est mieux pour eux.
Garder le modèle actif en permanence risque d'avoir un effet certain sur la batterie, et sur les performances pour les autres usages IA.
C'était une blague, mais je continue : c'est pour ça qu'il faut des NPUs, pour que ça ne consomme pas trop ;)
Le
14/10/2024 à
16h
10
"Il faut également garder en tête la question de la proportionnalité : s’il était possible d’écouter tout le monde, tout le temps, l’opération serait-elle rentable ? Non, d’autant qu’elle serait immédiatement visible. Car un flux audio permanent se manifesterait par une activité réseau certaine."
Ah ben heureusement qu'ils ajoutent des capacités IA à toutes les puces, comme ça la transcription live va pouvoir se généraliser. Ensuite on envoie de temps en temps au serveur ce qui a été dit dans les x dernières minutes, heures...
Donc si je comprends bien, pour envahir l'intimité de quelqu'un il sera judicieux d'attendre que la personne ait fini de lister les applis à blacklister pour ensuite les delister ? Ou y'aura une protection sur les réglages de la chose aussi ?
Ah ça m'intéresse c'est quoi ces 2 addons ? (Ou le paramètre dans about config )
uBlock Origin et le bien nommé "Video Background Play Fix". Apparemment about:config a été retiré de la version Android.
Le
23/09/2024 à
17h
11
Youtube ce n'est pas simplement la pub. C'est aussi un accès à Youtube Music une lecture "fenetrée" sur tablette et mobiles quand on utilise d'autres applis la lecture même écran éteint, pratique pour un mode "podcast"
(et on ne peut pas comparer YT avec un service de VOD)
Sur mobile, Firefox et un petit add-on ou un paramètre dans about:config pour activer la lecture en fond. Et l'addon pour les pubs.
[Mode Complot mondial On] T'inquiètes pas, tout est prévu avec des antennes dissimulées dans chaque lampadaire :-) [Mode Complot mondial Off]
Non non, les antennes relais sont implantées dans les nouveaux nés (et dans les nouveaux nez) et utilisent la bio-énergie.
Le
17/09/2024 à
17h
27
J'apprends donc qu'en cryptant les sauvegardes, plus besoin de les envoyer ailleurs. Elles résistent aux incendies, aux inondations et autres cambriolages. Juste magique !
Je pense que ça dépend de la conception de ta crypte.
Les modèles des constructeurs réputés pour leur fiabilité sont un peu plus de 500€ plus chers, mais admettons.
Quel consommateur serait prêt à payer une voiture 39500€ avec de la pub s'il peut avoir la même sans pub pour 40000€ ? Quel constructeur serait prêt à écorner son image pour gagner 500€ sur une voiture ?
Quand ça permet d'économiser 50% sur une abonnement Netflix ou 100% sur un abonnement Facebook, je comprends la démarche (même si je n'approuve pas, à titre personnel). Mais pour gagner 1% sur le prix d'une voiture, c'est beaucoup d'emmerdes pour économiser peanuts.
Bientôt un constructeur de maison qui te fera payer 299500€ au lieu de 300000€ si tu acceptes de la pub chez toi ?
Logiquement, ce que ça leur rapporte est fonction du temps passé dans la voiture (et de la suggestibilité ?). Du coup soit ils font une estimation de la moyenne, soit ils t'affichent de la pub pour une station service sur ta route où tu auras une réduction (réduction fonction du temps passé dans la voiture )
Le
12/09/2024 à
15h
28
Les rumeurs (qui semblent confirmées) sur les smartphone espionnant nos conversations pour de la pub ciblée.
Tu as une source ? Parce que ça invaliderait cette partie du brevet de Ford pour antériorité.
Je dis ça, mais je n'ai pas lu ce brevet et comme j'ai vu la dernière fois l’écart entre la brève de Next et le brevet, je reste prudent ici.
Pas smartphone mais appli, y'a eu un article ici sur une société US qui admettant utiliser les conversations autour du smartphone.
Le
12/09/2024 à
15h
25
C'est justement à Toyota que je pensais. Souvent, il y a vraiment plus de 500€ de différence avec les concurrents.
500 € de différence sur le coût ne veut pas forcément dire 500 € de plus sur le prix de vente...
609 commentaires
À Bordeaux, IA et productivité au cœur des discussions chez les développeurs
21/11/2024
Hier à 16h 46
Et pour te trouver une source, je viens de tomber sur ça : https://blog.jetbrains.com/ai/2024/11/jetbrains-ai-assistant-integrates-google-gemini-and-local-llms/
(modèle large hébergé en local, je ne sais pas ce que ça vaut)
Et ce dont je parlais : https://blog.jetbrains.com/blog/2024/04/04/full-line-code-completion-in-jetbrains-ides-all-you-need-to-know/
Le 21/11/2024 à 14h 05
Il devrait au moins rester les modèles locaux "une ligne à la fois" comme chez JetBrains.ADINT : les marchands de pub vendent aussi les données GPS de militaires et d’espions
22/11/2024
Hier à 16h 40
Que faire pour se protéger ? (question sérieuse)Pour ma part, j'ai très rarement la localisation d'activée, et très peu d'applis qui y ont accès.
Après vérification, 4 applis qui ont le droit d'accéder à ma localisation "pendant qu'elles s'exécutent" (2 applis de navigation hors ligne, 1 de test satellites, 1 qui fait du Bluetooth et réclame la permission de localisation alors que plus nécessaire depuis Android 12, ceci dit elle n'a pas accès au réseau).
Pour les rares cas où je veux faire tourner une appli qui exige ma position mais que je ne souhaite pas la communiquer, j'utilise un "simulateur de position".
Une idée du risque que j'ai de faire partie de leurs jeux de données ?
Le Wi-Fi 8 (802.11bn) se prépare : même débit, mais « fiabilité ultra élevée »
15/11/2024
Le 19/11/2024 à 13h 22
Le 18/11/2024 à 15h 53
- support du matériel pour x ans (10?)
- sinon drivers open source (avec licences pour modifier ?)
- sinon doc complète de la puce.
J'ai aussi l'impression que beaucoup de choses sont faites vites, dans les protocoles, notamment au niveau sécurité.
Le 18/11/2024 à 15h 49
Et les puces wifi sont compatibles OuiFi.
Le 16/11/2024 à 17h 19
Et sauf erreur de ma part ces fréquences ne sont ouvertes qu'à une utilisation en intérieur non ? ;)Le 16/11/2024 à 17h 18
Le 16/11/2024 à 17h 11
Je ne suis pas sûr de comment légiférer. C'est un consortium privé. Personne ne te force à utiliser du wifi en 2.4 Ghz (comprendre : tu peux utiliser d'autres protocoles). Pour 5 et 6 Ghz je ne sais pas.Même chose pour la GSMA. Je ne sais pas si les US sont encore en CDMA.
Le 16/11/2024 à 17h 07
On s'approche de ces performances... Un switch 48 ports GB a typiquement 96 Gb/s de débit. (2 Gb par Port, même sje doute que ça monte souvent à 2 Gb sur les 48 ports)Donc à voir les usages, mais par exemple pour un bureau, je ne crois pas qu'on en soit encore à l'equivalence.
Des pistes pour anticiper un Internet « dégradé », avec une disponibilité limitée
12/11/2024
Le 12/11/2024 à 14h 50
#Nextpresso LiXee TIC-DIN : récupérer en USB les données de Linky sur Raspberry Pi
08/11/2024
Le 11/11/2024 à 15h 21
Le 09/11/2024 à 09h 44
Attention : je ne suis pas un expert.Il y a forcément une longueur maximale, mais elle dépend de pas mal de facteurs.
Ça parle de TTL donc jusqu'à 5V, mais il est possible de descendre jusqu'à 2V pour un signal "haut".
Faut voir combien le récepteur consommerait en énergie, et faire un petit calcul...
https://www.omnicalculator.com/physics/voltage-drop
Après y'a le soucis du bruit.
En gros la réponse est "c'est compliqué".
Si tu voulais une bonne distance, avec une alimentation (potentiellement fournie par le linky), il serait sûrement préférable de passer en RS422 ou RS485.
Des iPhone saisis par les forces de l’ordre redémarrent mystérieusement
08/11/2024
Le 08/11/2024 à 17h 09
Le 08/11/2024 à 17h 00
Oui mais le 64 bits l'a rendue moins efficace. (Sauf erreur, Windows ne plantait pas)Le 08/11/2024 à 16h 56
Fuite chez Free : la folle histoire des données vendues… ou pas
06/11/2024
Le 07/11/2024 à 03h 14
Je pense que le formulaire est pour porter plainte pour usurpation ou autre, pas pour le manque de protection des données.Apple annonce sa puce M4 Pro et de nouveaux Mac mini (12,7 cm de côté)
29/10/2024
Le 07/11/2024 à 01h 19
DR-DOS ? Je dois toujours avoir la boîte du 8 quelque part, on a eu PC-DOS 7 aussi, jamais trop vu la DIFFÉRENCE. Wikipedia dit qu'il n'y en avait pas vraiment.
Ceci dit MS-DOS est le seul sur lequel j'ai programmé je crois, même si je pense que les autres devaient avoir une int 21 compatible autant que possible.
Le 06/11/2024 à 15h 50
Je faisais des autoexec/config.sys à menu pour avoir plusieurs configs, mais s'il fallait vraiment de la mémoire, c'était disquette de boot Ms-Dos 3.3 avec clavier en qwerty.
Le 04/11/2024 à 15h 20
Le 04/11/2024 à 15h 17
Ceci dit il avait quand même 2 Mo de RAM (pas d'origine) hein ! (Assez inutiles en général, à part pour himem.sys et essayer de charger un max de trucs au dessus des 640 ko)
Les choses ont changé en 35 ans ! Pas toujours en mieux d'après moi ("obligation" d'écrire du code efficace vs énorme gaspillage par des programmes écrits avec les pieds)
Le 03/11/2024 à 10h 28
IDE très rapide, la compilation, bah, difficile de comparer. Peut-être plus rapide que Turbo-C je ne me souviens plus.
Une discussion qui revient régulièrement ici... on a juste des softs de plus en plus lourds (éventuellement sur des VM de plus en plus lourdes, Java, .NET, tout ce qui fait tourner du JS...)
Le 03/11/2024 à 10h 24
La spec la plus récente que j'ai est celle-ci : https://milek7.pl/ddcbacklight/mccs.pdf
Tu pourrais essayer de brancher les 2 entrées à ton PC, et essayer divers options (ne pas utiliser, étendre, mirroir...).
Du coup tu utiliserais l'entrée 60 Hz sur ton écran et tu enverrais les commandes à l'autres entrée.
NirSoft a un logiciel qui permet d'explorer ce que ton écran supporte de MCSS/VCP, peut-être qu'il pourrait faire mieux que ton autre logiciel.
Le 02/11/2024 à 15h 49
Je suis passé de 3xTN + 3XIPS qui tiraient au total plus de 120W à 6xIPS qui consommaient 60W au total y'a pas loin de 10 ans. Cette année je suis passé à 1 seul 40" qui consomme... 20W. D'après ses specs il doit consommer 80W typique 88W max. La plupart du temps c'est luminosité 0 et contraste 30.
Pour regarder des films, c'est 50 contraste, 100 luminosité.
On peut utiliser les mêmes réglages pour bosser, c'est ce que j'appelle le mode "bronzage".
Jusqu'à mon dernier écran, tous les écrans que j'ai acheté étaient livrés en mode bronzage.
Le 01/11/2024 à 06h 14
Mon soft utilise cette fonction : Microsoft
Comme il est dit il faut que l'écran supporte MCSS. C'est le cas des miens. Mais c'est vraiment hardware, si supporté. Sur certains écrans on peut même simuler les touches de l'OSD.
Ceci dit je ne sais pas comment Windows gère le multi écran (à part "pas"), mon logiciel est fait pour changer la luminosité d'un écran choisi à l'avance, ou de celui où se trouve le curseur souris.
Le 01/11/2024 à 06h 09
Pareil pour la fonction "écran externe", mes portables récents ne supportent même plus l'affichage sur écran externe par exemple dans l'UEFI. Mes PC de bureau ont eu divers comportement mais ça doit venir des cartes graphiques... Affichage sur tous les écrans, affichage sur un ou deux...
Le 01/11/2024 à 06h 05
Le 31/10/2024 à 01h 39
Ton problème avec le DDC pourrait être que, dans mon expérience, DDC/VCP/MCSS ne marche que depuis le port actif.
Je ne suis pas sûr pour le changement de luminosité "artificiel" sous Windows. Je n'ai rien dans l'UI pour changer ça, par contre quand j'utilise l'API pas de problème, ça change comme dans l'OSD. Pas besoin de drivers. Et quand je monte trop haut l'OSD apparaît pour me dire que là ça va consommer plus.
Intel va revenir aux barrettes de mémoires sur ses prochains CPU pour portables
04/11/2024
Le 04/11/2024 à 15h 12
Qwant lance un programme de fidélité, en attendant sa future techno de recherche
23/10/2024
Le 26/10/2024 à 06h 15
C'est moi où on se rapproche enfin d'être payé pour regarder des pubs ? Ça pourrait remplacer le revenu universel (Non ne m'expliquez pas pourquoi économiquement ça serait stupide)Moi ça me conviendrait parfaitement, tant que les bloqueurs de pubs fonctionnent.
Les disquettes font de la résistance dans des systèmes critiques
25/10/2024
Le 26/10/2024 à 05h 01
35 Go (j'ai eu la 1ère version) pour les backups c'était le... Rêve ;) Un peu cher mais largement plus abordable qu'un lecteur de bande. J'ai lu des commentaires sur divers soucis, jamais eu avec les miens.
Le 26/10/2024 à 04h 59
Le 25/10/2024 à 17h 53
Et en gardant le format, y'a eu le LS120. Y'a aussi eu les ZIP. Je suppose que leur succès moyen (oe tout le monde n'avait pas de ZIP ou de LS120 à l'époque) était lié au prix.Le 25/10/2024 à 17h 52
J'ai fait acheter ça récemment (plus en préventif qu'autre chose). Des machines industrielles un peu vielles mais qui font encore le boulot (un 486 en l'occurrence)Coup de tonnerre dans la mobilité : Arm menace Qualcomm de retirer sa licence
23/10/2024
Le 25/10/2024 à 05h 25
Sans avoir le conteat, dur de juger. Pas sûr que ça soit plus simple en ayant le contrat, on peut raisonnablement supposer que les 2 parties l'ont et ne sont pourtant pas d'accord sur son interprétation ;)
Du code propriétaire dans le projet GNU Boot, les difficultés du libre face au matériel courant
21/10/2024
Le 22/10/2024 à 12h 45
Intel et AMD s’associent pour piloter l’avenir de l’architecture x86
16/10/2024
Le 17/10/2024 à 02h 31
Il n'est pas forcément trop tard. ARM ne domine pas encore, et je suppose que le but c'est d'éviter d'en arriver là. Même si c'est pour faire en gros du 50-50 c'est mieux pour eux.Le 17/10/2024 à 02h 29
VIA ?Les smartphones nous espionnent-ils ? Oui, mais pas comme vous le pensez
14/10/2024
Le 16/10/2024 à 15h 13
Le 14/10/2024 à 16h 10
"Il faut également garder en tête la question de la proportionnalité : s’il était possible d’écouter tout le monde, tout le temps, l’opération serait-elle rentable ? Non, d’autant qu’elle serait immédiatement visible. Car un flux audio permanent se manifesterait par une activité réseau certaine."Ah ben heureusement qu'ils ajoutent des capacités IA à toutes les puces, comme ça la transcription live va pouvoir se généraliser. Ensuite on envoie de temps en temps au serveur ce qui a été dit dans les x dernières minutes, heures...
Avec son Robotaxi, Tesla mise gros sur la conduite autonome
11/10/2024
Le 12/10/2024 à 14h 21
Microsoft présente un nouveau Recall désinstallable, avec une sécurité largement revue
30/09/2024
Le 30/09/2024 à 16h 53
Donc si je comprends bien, pour envahir l'intimité de quelqu'un il sera judicieux d'attendre que la personne ait fini de lister les applis à blacklister pour ensuite les delister ? Ou y'aura une protection sur les réglages de la chose aussi ?Le prix de YouTube Premium s’envole dans certains pays
23/09/2024
Le 25/09/2024 à 05h 08
Le 23/09/2024 à 17h 11
Bernard Arnault interdit à ses employés de parler aux journalistes d’investigation indépendants
18/09/2024
Le 18/09/2024 à 15h 45
Donc si on a un ami ou un membre de sa famille qui est journaliste pour l'un de ces organes, c'est une faute grave ?6G : une « puce » permet de rayonner des ondes térahertz à 360°
17/09/2024
Le 17/09/2024 à 17h 29
Le 17/09/2024 à 17h 27
Le brevet de Ford pour un système publicitaire qui écoute les conversations à bord
12/09/2024
Le 12/09/2024 à 15h 31
Du coup soit ils font une estimation de la moyenne, soit ils t'affichent de la pub pour une station service sur ta route où tu auras une réduction (réduction fonction du temps passé dans la voiture )
Le 12/09/2024 à 15h 28
Le 12/09/2024 à 15h 25