Rien donc d’illégal dans tout çà, mais on ne peut pas faire n’importe quoi.
Tout à fait. Un fichier client est un bien de l’entreprise (ou du commercial si c’est un VPC) et fait partie de sa valeur en cas de racaht/cession (c’est le cas aussi de la patientèle pour les cabinets médicaux)
Intéressant de voir l’application dans ce cas: cela permet de réduire les clients aux seuls clients actifs.
Par contre, le rgpd ne doit pas empêcher la valorisation du fichier client (qu’un VPC qui quitte une entreprise peut revendre)
(Pour ceux qui croeient que c’est haut perché, ça concerne aussi un coiffeur qui quitte un salon pour en rejoindre un autre)
Y’avait une part d’ironie dans la question où de nos jours, pour développer un jeu comme ça, il faudrait un Unreal Engine 5 et un PC à 3000€ pour le faire tourner
Pas forcément un pc à 3000€, mais un mode esport, des skins de raquette payants et un partage des résultats sur reausés sociaux
Le
05/12/2022 à
16h
42
SebGF a dit:
Y’a pas un remake sur Unreal Engine 5 pour l’occasion ?
Pong: The Next Level est sorti en 1999 et est un excellent jeu (à deux).
Peut-on vraiment comparer LUbuntu et Ubuntu en conso mémoire et en déduire que LxQT est “meilleur”? Ne vaudrait-il pas comparer Ubuntu dont on repasse le desktop en LxQT ou l’inverse?
Déjà il y a quelques années on nous serinait avec des articles “XFCE consomme moins” “LxDE consomme moins”…
Sauf que dans les faits, ces DE consomment moins pour deux raisons:
Un seul type de librairie est chargé
Les fonctionnalités avancés sont désactivées
Par exemple: XFCE n’était pas basé sur Qt. Il suffisait de lancer une appli Qt depuis XFCE, et la conso mémoire de XFCE était alors à peut près la même que celle de KDE, puisqu’il avait du charger et initialiser l’environnement Qt.
Donc oui, les environnement “légers” peuvent réduire l’empreinte mémoire, mais cela nécessite de choisir les applis lancées dans celles de l’environnement (ici, lancer du Qt) ou des applis ne dépendant pas d’un environnement.
Un exemple concret, c’était libreoffice, dont le backend par défaut est Qt, et donc qui se retrouvait sous LxDE à faire consommer pas mal de RAM…
(quote:2108097:speedy-px) si il est aussi pourri que les crânes de cristal …
Je l’ai trouvé chouette le 4. Plutôt bien indiana Jones dans son âme: amusant, décalé, quelques bons trucs de fan service (“c’est intolérable”), et une séquence “effets spéciaux ratés”, comme dans chaque.
A titre perso j’utilise rarement mon smartphone pour surfer, et malgré le bloqueur de contenus de Vivaldi, je comprends pourquoi je ne le fais pas en dehors d’un réel besoin
Tout à fait d’accord. Je ne consomme pas 1Go sur mon forfait mensuel alors que les mises à jour sont en auto.
brunchto a dit:
d’autant plus qu’on paye l’affichage de ces pubs sur un téléphone. ça consomme de la bande passante que l’utilisateur paye au travers de son forfait. 10Ko d’info, 6Mo de pub
10ko d’info, 6Mo de pub, 12Mo d’images, CSS, javascripts inutiles
Le
30/11/2022 à
15h
54
RuMaRoCO a dit:
Le simple fait de respirer transforme du O2 en CO2. (A oui pour les experts ça ne compte pas car il y déjà des arbres qui font le cycles inverses donc vous voyez ça compense…)
Je rappelle ma proposition toute bête qui est le principe de compensation: toute production de CO2 par un individu lors d’une action doit être compensée par ce même individu qui devra retenir sa respiration jusqu’à avoir éviter le rejet par sa personne de l’équivalent CO2 de son action.
Là je retiens déjà ma respiration pour compenser l’écriture de ce message sur un ordinateur.
Je n’ai pas eu de palm, j’ai eu un Psion. L’un ou l’autre, c’était de très bonnes machines, très bien conçues. Vraiment du design durable, certains devraient y retourner plutôt que de doubler la taille des batteries pour conserver une autonomie correcte…
Ce n’est pas parce que tu ne l’as jamais vu que cela n’existe pas ;) VMWare Horizon et Teradici PCoIP sont gourmands et s’adaptent. On monte à bien plus de 50mbps en crête.
Effectivement, il faut pouvoir ingurgiter les 50mb/s-250Mb/s en crête sur ces protocoles Après, c’est une estimation en crête pour du 30-60ips.
Les exemples sont intéressants (avec une vidéo 4K sur du 60Mb/s, et un facteur x2 entre la qualité à 80 et la qualité à 90, facteur x10 entre qualité à 60 et qualité à 90)
D’expérience de l’époque sur RDP, bien que si on joue à bouger la souris partout ou pendant des scrolls il y a des artefacts, ils disparaissent très vite quand l’affichage se stabilise et on arrive à voir où on en est malgré les artefacts.
Par contre, regarder des sites comme google map/géoportail était lourdingue, et un outil comme google earth était inutilisable (mais le serveur n’avait pas de carte 3D et les clients étaient des clients léger)
Le
25/11/2022 à
13h
13
inpactcarglass a dit:
même question, je ne vois pas trop l’intérêt d’un windows server qui se coupe en cas d’inactivité de l’utilisateur à moins que ce ne soit pas comme les offres grand public sur ce point?
Deux arguments: le licensing en VM (certaines licences sont très compétitives puisqu’on paye au coeur du serveur une fois, et après on déploie autant de Windows qu’on veut) et les technos de Windows Server pour le déport d’affichage (Windows Server a toutes les briques pour déporter l’affichage et le son, les briques de Windows 10 sont un peu allégées)
Le
25/11/2022 à
13h
10
patos a dit:
Un poste virtuel est un flux vidéo modifié: il faut 3 à 6mbps pour que ça fonctionne au moins. En réalité il faut plus pour que ce soit parfait, très ressemblant au pc lui-même (et je parle pas s’il y a deux écrans etc…).
Jamais vu cela. 3/6mb/s, c’est de la visio HD. Les protocoles de poste à distance (RDP, NX, …) sont bien plus légers. Des extensions permettent de coder les mouvements rapides soit via le protocole général (citrix), soit en envoyant le flux vidéo et en délégant le décodage vidéo au client sur une partie, plusieurs parties ou tout l’écran (citrix et d’autres).
A l’époque lointaine où j’ai géré ce genre de truc, Citrix était énorme, mais avec l’évolution du web (les pubs vidéos), les serveurs n’étaient pas dimensionnés pour décoder et réencoder plusieurs mini-flux vidéos x32 utilisateurs :)
Comme c’était il y a 7 ans, et qu’on trainait un citrix limité aux vieilles technos à cause de nos clients légers antédiluviens, j’espère bien que les technos de 2017 fonctionnent toujours (la délégation vidéo) et que d’autres produit les ont inclus (ou alors ils faut qu’ils se renseignent: déjà en 2012 c’était du standard prêt à déployer)
Le
25/11/2022 à
13h
04
jpaul a dit:
Justement, la grosse différence c’est le problème de latence. Sur un flux vidéo où la latence n’a pas d’importance, tu peux te permettre de faire du buffering pour prendre de l’avance, du CRC pour avoir une image propre ….
Tout à fait d’accord. Mais je compare bien de l’ADSL 512k/RNIS et il n’y avait pas de latence perceptible.
De plus le RDP n’envoie pas un flux vidéo mais des informations plus simples,
Oui et non. C’était vrai avec les vieilles applis. Ca ne l’est plus avec les applis actuelles basées sur des rendus type “web” bourrés de dégradés, images de fond, dessinées au pixel et pas en utilisant les primitives (trait/rectangle/curseur) de l’OS.
Actuellement, RDP se défend plutôt bien, avec un système de cache de bitmap notamment. Avoir un RDP qui diffuse une vidéo/un teams est lent, saccadé pour la partie vidéo, mais l’interface réagit bien sur le reste (menu, ouverture/fermeture de fenêtre, glissement de petits éléments).
Le
25/11/2022 à
10h
30
jpaul a dit:
J’ai jamais utilisé Shadow mais je suppose que selon la connexion tu dois avoir un peu d’input lag et d’artefacts de compression. Autant pour jouer le cerveau s’adapte, autant pour bosser j’imagine pas supporter ça.
Il y a des années, le RDP par-dessus l’ADSL 512k c’était bien, par-dessus l’ADSL 1mo c’était parfait pour bosser - sauf la navigation web à distance quand les navigateurs sont passés sur du rendu “GPU”/en tout cas du rendu pixel par pixel.
Netflix, sans prendre en compte la latence, ça passe super méga crème sur 30Mb/s en FHD.
En fait, pour bosser, on considère qu’une session RDP moyenne prend 30kb/s (sans son), avec des pointes parfois agaçantes (quand tout le monde reçoit une notif et que Windows 10 fait défiler le panneau de notif vers le haut, x20 personnes :)
Mais en gros, on faisait du RDP graphique en 2007 sur du RNIS pour 5-10 pers sans latence particulière et sans gros problème graphique, donc j’imagine qu’avec les tuyaux actuels et l’amélioration de la compression “subjective”, on est bien pour du 4k.
Ce qui me tue quand même dans le cas de boîtes comme Meta et Amazon, c’est qu’elles font des bénéfices colossaux (certains diraient indécent) mais vont licencier plusieurs pourcents de leur masse salariale, tout ça afin de continuer à faire des bénéfices colossaux…
Business is business. Ce ne sont pas des oeuvres de charité, et ils doivent préparer l’avenir (= confrontation avec les géants chinois?)
Ca date de Windows 98/Windows 2000. A l’époque, Windows n’avait pas de gestion différente des disques amovibles et fixes (sauf les disquettes, mais elles n’étaient considérées comme des disques) et le support USB était nouveau. Pour rappel, une clé USB a un protocole proche des disques SCSI. Donc on passait par la partie de gestion des disques dur pour les clés USB, sans hotplug.
Par défaut, l’écriture sur les disques durs était différée pour améliorer les perfs…
Jusqu’à Windows XP, qui a désactivé PAR DEFAUT l’écriture différée sur les clés et disques amovibles!
Donc ce n’est plus d’actualité depuis 2001⁄2002 environ … 20 ans de retard, comme les remarques sur la sécu….
yl a dit:
Certes, mais cela ne fait que garantir que le boulot est fait côte OS. Pour ce qui est de savoir si derrière le contrôleur de la clef (une machine à lire/écrire des LBA, comme un bon vieux HDD, bien loin de la complexe gestion d’une mémoire flash) c’est effectivement arrivé dans la flash, mieux vaut ne pas l’extraire dans les qq centaines de ms qui suivent tout de même!
Ca c’est au matériel de ne pas mentir. Quand on active le cache d’écriture, l’OS n’attend pas l’écriture et répond au programme “c’est fait”. Quand on le désactive, l’OS attend que le matériel lui dise “c’est fait” pour le dire au programme.
Il y a 3 cas:
Le matériel est bien fait et synchrone: on sait que c’est fait
Le matériel est mal fait et répond au hasard: il faut le jeter
Le matériel est ultra bien fait et gère son propre cache (carte de serveur avec mémoire+pile intégrée, SSD avec un cache SLC ou RAM + condo en cas de coupure): le matériel garanti quand même qu’une relecture va donner la “bonne” donnée, même si elle n’est pas encore physiquement sur le disque.
Par exemple, ce simple changement sur un Raspberry PI tournant 24⁄7 à gérer la barraque et sur batterie tampon (donc jamais de coupure de courant, permettant de mettre des temps de commit de 120s donc >> 5s par défaut, de mémoire), niveau /etc/sysctl.conf, me permet d’éviter de rincer les cartes SD si on laisse les logs dessus (on peut les mettre aussi dans un tmpfs en ram mais sur reboot c’est perdu): vm.dirty_ratio=60 vm.dirty_expire_centisecs=120000
Bien vu! Sous Windows on en a rarement le besoin car on l’utilise peu depuis une carte SD. Il y a aussi des paramètres.
Le
10/11/2022 à
17h
44
TNZfr a dit:
Sécurité Windows : Quand tu es passé sur le SDK16, puis le SDK32, puis sur les MFC et enfin le .NET, ben nan, la sécurité Windows est moisie. Les vieux problèmes sont masqués mais pas corrigés. Va voir par toi même, tu vas être surpris.
MFC et .Net n’avaient pas à corriger la sécu. Les vieux problèmes ont été corrigés, ou alors cite un exemple concret. Exemple de correction: sous Win95, on pouvait lister les fenêtres et ajouter un timer dessus, qui déclenchait une routine définie avec les droits du process parent de la fenêtre. Il n’y avait pas de vérification des droits -> on pouvait utiliser l’icône de l’antivirus pour déclencher sa routine avec les droits de l’antivirus. On ne peut plus depuis Windows 2000.
Autre exemple: sous Windows, seul un utilisateur peut modifier son fond d’écran, son de démarrage ou son imprimante par défaut (sauf GPO). Même si tu es administrateur du poste, tu ne pourras pas passer outre.
Je peux te citer plusieurs “légendes urbaines” sur l’informatique (et le plus souvent windows), qui ont été résolues il y a 20 ans (comme le fait de cliquer sur “éjecter” avant de retirer une clé USB)…
C’est assez navrant de voir que les gens ne se mettent pas à jour, et continuent de comparer Windows en tant qu’OS et DE, et Linux uniquement niveau noyau. Si on compare Windows et Linux, autant comparer Windows Server Core et Linux server, ce sera plus proche.
(au fait, je ne défends pas la qualité des outils Microsoft en ligne: O365 et sharepoint, onedrive, teams sont bourrés de bugs, problèmes navrants et autres incongruités ou irritants - mais par contre, ce sont les moins chers du marché … et ayant administré du Windows, je dois avouer que c’est un OS sérieux, très bien documenté et transparent, là où pour Linux ça dépend de la distro et la doc est très en-deça pour beaucoup de parties)
Le
10/11/2022 à
17h
31
yl a dit:
Cela a progressé, mais il ne faut pas nier qu’un système parti mono-utilisateur et donc sans besoin d’une gestion des droits day 1… puis construit sur une compatibilité ascendante et binaire… eh bien il aura toujours des trous. Les Unices étaient multi-utilisateurs (+tâches) plus de 10 ans avant le 1er PC. Et déjà traversés par la stack réseau. Tout ce qui n’est arrivé chez Microsoft que sous forme de surcouche malpropre avec windows 3.11 (for workgroups) encore plus de 10 ans après.
Si on parle au niveau du noyau, je dirais non. Quand à l’historique Windows 3.11, il n’y a pas grand chose de commun entre le noyau NT actuel et le Windows 3.11 de l’époque (déjà pas un NT, et effectivement avec une stack ajoutée rapidement).
On n’est plus à l’époque de Windows 95 et de loin.
Soit un truc de cochon avec plus de 20 ans de retard! Et qui pèse toujours sur les versions actuelles.
La partie réseau actuelle hérite de celle de XP, mais surtout de celle de Vista.
Quand à la sécurité de Linux et des unix, elle dépend, comme celle de Windows, des bonnes pratiques des utilisateurs et des programmes.
Exemple: l’affichage graphique. Linux a commencé avec un serveur X “classique”: serveur en utilisateur privilégié et client sous le login utilisateur, et communication via la couche réseau. Ensuite pour satisfaire aux besoins de 3D et parce que c’était plus simple, on a permis d’afficher dans le client des éléments fournis sous le login root. Maintenant on abandonne carrément la partie X pour mimer ce que Windows fait - avec tous les risques de sécu qui arrivent si quelqu’un fait une erreur dans un programme…
X avait une architecture sécurisée. Wayland, je ne trouve pas.
Le
10/11/2022 à
13h
50
TNZfr a dit:
Ben , je t’invite à refaire une passe sur ce qu’il se fait aujourd’hui, Un linux se gère tout à la souris … même par des non techniciens.
Non. Même Windows, ça se gère en ligne de commande, sinon c’est une perte de temps phénoménale.
Pour le WSL, essaie le, mesures en la productivité, le temps passé à le configurer … ainsi que le temps passé à ré-ajuster ton application lors des 1ers tests sur serveur Linux. Et après on cause.
Ca je suis à peu près d’accord, mais c’est pas WSL, c’est le problème de passer d’un Linux à l’autre sans se soucier des dépendances -> il faut toujours maîtriser ses dépendances ou se coller à un standard type flatpack.
Le
10/11/2022 à
13h
48
TNZfr a dit:
Je rebondis pour la partie Linux : les couches de sécurité sont beaucoup plus efficientes sur un Linux que sur Windows. La sécurité est hard-codée dans le noyau Unix de base … dans Windows, les premières briques d’identification sont arrivées avec Windows 3.11 for workgroups. Elles ont évoluées au fil des versions DOS et ont été conservées sur les versions NT. En gros, dans les noyaux NT tu vas trouver des mécanismes de sécurité issus d’Unix ET d’OpenVMS. Mais ces derniers ne sont que très peu utilisés en raison de l’approche applicative héritée des versions DOS.
Grand fou rire. Windows en lui-même est très bien sécurisé. Le problème de Windows avec les applis (de bureau), c’est effectivement un très lointain héritage de l’époque où l’on avait confiance dans le PC car il était en quasi vase clos. Mais c’est vraiment l’exception maintenant et depuis plusieurs longues années.
Franchement, le plus gros écart entre linux et windows, c’est le fait que sous linux un admin peut se faire passer pour n’importe quel utilisateur sans connaître son mot de passe, pas sous windows (il faut que l’admin modifie le mot de passe). A part cela, ils sont équivalents en terme de sécurité niveau noyau
Les clients légers sont basés sur l’utilisation d’un navigateur internet en html … Les applications industrielles ne sont pas en client léger, la gestion de l’évènementiel / temps réel exige une réactivité et une fiabilité que les clients légers (même techniquement détournés) ne peuvent fournir. (dans les mécanismes système recréés, les interruptions logicielles par exemple sont toujours absentes : signaux Unix, AST OpenVMS … )
La plupart des clients légers que j’ai déployés sont sur un principe d’écran déporté: soit en telnet/ssh, soit en VNC, soit en RDP ou citrix. Et j’en ai déployé en industriel (RDP sur des terminaux mobiles en Wifi type “scanner” avec écran en 320x240). C’est impécable.
Et j’ai l’impression que tu mélange (a)synchrone et connecté. Le HTML n’est justement pas un système connecté: chaque requête ignore la précédente. Ce qui n’est pas le cas de protocoles type VT/RDP/X
Quand à la capacité d’un client léger à gérer le temps réel - vu qu’on faisait tu temps réel sur des terminaux à 1MHz, je pense qu’on peut toujours le faire - mais il faut savoir ce que temps réel veut dire, et comment se donner les moyens que ça fonctionne.
Le
10/11/2022 à
13h
23
ragoutoutou a dit:
Il y a plein d’entreprises qui le font pour des tas de sujets. Rien de choquant à ça dans le monde pro. Maintenant, si tu veux t’offrir entièrement à Microsoft, libre à toi, mais ne te prévaut pas d’une vision long terme sur le sujet,
Ms reste très bon marché, malheureusement. Je serais content de tout baser sur de l’alfresco, du jitsi, du onlyoffice et un stokage cloud nextcloud… Mais ça demanderait plus de compétence, de personnel, et le coût de maintenance serait très supérieur à Ms.
Le
09/11/2022 à
13h
42
pamputt a dit:
Oui, on en revient à un manque de vision à long terme. Un exemple de à quoi conduit de mettre tous ses oeufs dans le même panier : Le Figaro
J’attends de voir le bazar que sera de ne pas mettre ses oeufs dans le même panier:
Payer un presta pour le maintien de l’OS
Payer un autre pour le support Libre office
Payer un troisième pour le support de la visio
Payer un autre pour l’identifiant unique/SSO
Payer l’hébergement des documents + sauvegarde … Payer les formations à tout le monde …
Le
09/11/2022 à
10h
15
pamputt a dit:
Ou alors, tu compiles à partir des sources si le paquet officiel ne te convient pas. Ça prend moins de place sur ton disque et ça ne fait pas des systèmes parallèles d’applications sur ton système.
Oulà! Si à la fin tu peux avoir une chance de prendre moins de place sur le disque (qui en général n’est pas à cours de place à causes applis mais plutôt à cause des données), pour pouvoir compiler il va te falloir jusqu’à 10x la taille du fichier final!
Entre les sources, les sources des dépendances, les fichiers objets, les fichiers de symboles et autres méta données de compilation/débogage… utiliser 4Go pour compiler 250Mo d’exécutables , c’est pas si rare.
Pour compiler une ROM android de 4Go, il me faut de mémoire 100Go (et je prune bien les sources)
Justement Winderly, je dis l’inverse. Aujourd’hui tout le monde veux tout, tout de suite et en illimité. On reviendrait 30 ans en arrière mais une méthode serait de dire stop on limite la bande passante ou on fait du forfait au GO, comme sur les mobiles en fin de compte. Ce n’est évidemment pas mon choix. :)
Et visiblement pas le choix des opérateurs. J’imagine que les petits consommateurs comme moi qui n’arrivent même pas à utiliser 10Go les gros mois (en utilisant le tel pour mettre à jour un PC) leur permettent d’être compétitifs sur les plus gros forfaits.
Je m’interroge depuis quelques années sur le bien fondé des offres illimitées. A une époque, c’était tout bénef, mais maintenant, je pense que certains paieraient moins cher en payant internet à la minute que d’avoir un forfait ADSL/Fibre à 40€ juste pour le tel et le boncoin.
brupala a dit:
Faut pas exagérer :
C’est bien son point: si on avait des forfait internet limités y compris sur le fixe on pourrait expliquer aux clients qu’ils consomment trop. Les Français ont souvent été détesté dans les parties réseau WAN car ils ont accès en illimité, ce qui n’est pas le cas d’autres pays - et du coup certains étaient AFK régulièrement en squattant une session au lieu de la laisser à d’autres qui galéraient pour trouver une place sur une partie.
Le
05/11/2022 à
17h
56
carbier a dit:
Tu sous loues donc ton réseau à l’ensemble de tes voisins et augmentes la capacité de celui-ci à hauteur de leur consommation ? Félicitations.
Merci
Le
05/11/2022 à
17h
56
Pinailleur a dit:
Effectivement, mais du 4K pour un partage de connexion vers un laptop 15 pouces 4K ça a du sens. Et quand bien même, si on part d’un abonnement 50 Go, à raison d’une heure de YouTube 1080p par jour en plus de l’utilisation classique d’un téléphone (navigation + messages [données, pas SMS]), tu brûles ton forfait presque après 20 jours. Pourtant c’est pas une utilisation abusée non plus.
Ben prend un plus gros forfait … Moi je ne crame pas 40Go (en fait, je ne crame pas 20Go).
Jodoigne a dit:
Si les FAI voudraient des économies. Ils pourraient s’entendre avec Netflix pour avoir un gros serveur Netflix chez eux.
C’est déjà fait. Free refusait de le faire mais ils ont craqué. Et de nouveau, je pense que leur demande ne porte pas sur le lie FAI-> Netflix mais sur le fait que les liens FAI->abonnés arrivent à saturation.
Ceci dit, en proposant de la fibre jusqu’à 2G/s à tout le monde alors que 100/200mb/s suffisent amplement à la majorité des gens, forcément ils font des promesses marketing intenables (il est difficile d’atteindre le 1G/s en continu, on ne peut pas le faire sur une seul site en général)
Le
05/11/2022 à
17h
50
Pinailleur a dit:
Pas certain de comprendre ton raisonnement. Quand tu vas sur Google/YouTube, c’est “YouTube <- Internet -> Client”, à aucun moment ton trafic ne passe chez un FAI,
Non: si je vais chez YT, le chemin c’est YT<->Bon gros cable<->mon FAI<->chez moi Ou même, s’il y a un cache, le stockage sera chez mon FAI (voir avec la 5G: au pied de l’antenne si j’ai bien suivi). Donc pour un film Netflix en vogue, le chemin c’est mon FAI <-> chez moi.
Et je pense que la demande porte bien sur le lien mon FAI<->chez moi
Le
04/11/2022 à
19h
20
Pinailleur a dit:
Est-ce mon point est plus clair ?
Oui, c’était clair. Et toujours le même avis pour moi: si on parle du lien “google <-> FAI”, alors il y a matière à discuter mais c’est le peering et ça ne me paraît pas du tout le sujet.
Pour moi on parle du lien “FAI<->client” et là je ne vois pas en quoi la demande est recevable: les gafam ne sont pas responsable de la saturation du lien, c’est l’équilibre conso client/coût d’infra chez le FAI et ce n’est pas l’affaire de google mais du FAI.
Le FAI peut agir par la tarification, la QOS, ou l’éducation des utilisateurs.
Le
04/11/2022 à
19h
10
appotheos a dit:
J’ai personnellement une borne wifi qui fait aussi switch réseau chez moi. Puis-je m’ajouter à la plainte ?
Pareil. Mon réseau souffre, et j’aurais bien besoin d’une subvention des gafam pour passer au Wifi 6 ou 7, histoire de recevoir toutes mes pubs en 4K stéréoscopique Dolby 7.1
Le
04/11/2022 à
13h
08
Pinailleur a dit:
Justement non, les GAFAM ne payent pas leur part, du moins pas tout, c’est pour ça qu’ils travaillent avec des partenaires publicitaires / annonceurs.
En gros, tu dis que les consommateurs payent leur part de débit internet mais pas les GAFAM qui produisent le contenu, c’est cela?
J’entends l’argument: faire transiter un paquet, qu’il vienne d’un bout ou de l’autre du tuyau, c’est de la charge pour l’opérateur.
Mais dans ce cas, ils font payer deux fois le service, non?
Le
04/11/2022 à
13h
08
brupala a dit:
Dans les accords de peering, c’est toujours la différence entre l’envoi des deux qui est facturée, non ? Le gros problème c’est la vidéo en streaming, surtout sur le réseau mobile, où elle n’a rien à faire. Tant qu’on a que des données échangées, pas de souci de neutralité, ça reste assez équilibré. Pour moi il faudrait différencier les chaines télé du reste des données et les facturer à part,
Le peering, c’est entre opérateurs, pas sur la partie de l’opérateur au client final qui est le sujet de la news il me semble. Donc ici le peering n’entre pas en ligne de compte d’après ce que je comprends.
Quand à la séparation TV/reste, là tu attaques le périmètre de la neutralité du net en essayant d’extraire le flux vidéo du reste. Mais du coup il n’y aura plus de neutralité globale, uniquement une neutralité data. D’autre part, avec le HTTPS, la séparation vidéo/data sera au bon vouloir de l’émetteur.
Et pour rappel, on parle juste de vidéo préenregistrée qui bénéficie déjà de cache chez les opérateurs… le problème va se corser encore si on fait du jeu en streaming ou de la VR en streaming sur le metaverse (une partie des arguments qui me font penser que le metaverse ne peut pas être universel).
Je pense aussi que le fair use est une solution acceptable. Ou un double Wifi sur les box: un limité en volume, l’autre en débit…
Le
04/11/2022 à
10h
39
(quote:2102691:alex.d.) Même pas : regarde comment se décompose la somme. C’est essentiellement pour les réseaux mobiles, précisément là où les forfaits ne sont pas illimités en data.
Donc ils n’ont qu’à augmenter le tarif des forfaits ou baisser le volume data: on doit pas être loin d’avoir les moins chers d’Europe.
Le
04/11/2022 à
10h
28
Tandhruil a dit:
Les camions payent plus cher.
C’était bien mon point :)
Comparer la neutralité du net aux autoroutes peut mener à des déconvenues :)
Pinailleur a dit:
Si les GAFAM change leur fonctionner pour armortir leurs coûts, pourquoi s’indigner quand les opérateurs font pareil (alors qu’eux ne l’imputent même pas à l’utilisateur !) ?
Demander aux GAFAM de payer pour leurs usagers ne paraît pas la logique la plus directe: une autre logique serait d’arrêter d’avoir de l’illimité en France pour faire payer au Go consommé ou alors avoir un fair use.
Du point de vue GAFAM (et du mien), c’est l’opérateur de réseau qui a un coût qui doit le faire payer à ses usagers.
Là ils tentent juste de faire payer un autre pour que leur service ne s’écroule pas parce que les usagers usent sans limite les ressources, au lieu de faire en sorte que l’usager soit conscient des ressources et aient un impact sur le fait d’en consommer “trop”.
Des tonnes de solutions existent côté utilisateur: limiter la qualité vidéo, télécharger la vidéo d’avance mais à bas débit, regarder les nouveautés (car elles ont des chances d’être en cache)…
Le
04/11/2022 à
08h
55
(quote:2102629:GérardMansoif) Si je comprends bien, c’est comme si une société qui exploite une autoroute demandait à une marque de voiture de payer une redevance annuelle pour que les voitures de sa marque puisse circuler sur son réseau?
Non, c’est plutôt comme si les camions devaient payer plus cher sur l’autoroute.
Ou plutôt, comme si on faisait payer les camions mais pas les voitures.
(quote:2103178:skankhunt42 ) En fait ce qui nous fait moins marrer c’est que le gouvernement ne peut comprendre qu’il faut avoir l’aquarium avant d’avoir des poissons. Les transport en commun son archaïques dans la plupart des villes.
Et d’un autre côté personne ne sait vraiment comment les dimensionner pour ingurgiter tous les automobilistes.
Le
07/11/2022 à
10h
54
Il y a plein de pays qui ont ce genre de choses. A Londres le péage urbain automatique doit dater de 2005. En Norvège ils peuvent flasher ta voiture et tu reçois la facture à la maison, en France.
C’est très efficace.
En France on a failli avoir un truc du genre mais les bonnets rouges ont manifesté…
En fait, en France on accuse un retard sur ce sujet de l’autofacturation/autoamende assez conséquent, juste par ce que les gens ne veulent rien changer.
(quote:2102555avid.C) Psychologiquement, c’est 5xx € si tu regarde rapidement. Ça marche, sinon ils ne le feraient plus. Ce n’est pas parce que nous faisont gaffe, que tout le monde fait pareil.
Les abonnement spotify, apple store, xbox, … font pareil.
carbier a dit:
En 2022 au niveau high tech tous les prix se terminent par un 9, jamais par un zéro: soit au niveau des unités, soit au niveau des centimes suivant le constructeur.
Ca fait partie de ce que je perçois comme un mépris total du consommateur: caler un prix (toujours à 1c d’un prix rond à l’€ près) - pour des abonnements, ça fleure la fainéantise du marketing à chercher à fournir une offre au juste prix. On devrait avoir plus de prix à 7,20€, 5,60€ dans les abonnements, ça me donnerait plus confiance.
Le
03/11/2022 à
09h
18
bad10 a dit:
penser qu’une boite est plus sérieuse juste parcequ’elle n’affiche pas des prix en centimes, c’est un peu con non ?
En tout cas, ça la rend vieille. Je suis d’accord avec @Witcher - maintenant que des enseignes assument depuis longtemps des prix ronds, les prix en xxx9.99 font tache et ne me semblent plus tromper personne. Ca fait juste vieille marque qui se fout de la gueule des gens.
Et tu noteras que moi je n’ai lancé aucune idée, j’ai juste souligné ta tournure de phrase. Après libre à toi de partir de n’importe quelle direction.
Justement, ma tournure était de mettre le point sur le terme “obsolescence programmée”: on ne peut pas l’utiliser à tout va. Il est plus que mal utilisé y compris par les associations, et cela les décrédibilise.
Et il n’y a même pas une ligne franche: quand Apple a réduit la vitesse des iPhone parce que la batterie était trop faible, certains ont crié à l’obsolescence programmée, perso j’étais de l’autre camp: Apple avait justement prolongé la durée de vie utile de ses téléphones.
Actuellement, je ne crois pas à l’obsolescence programmée dans la plupart des cas. On était dans une conjoncture où le renouvellement et l’achat étaient limite compulsifs, pas besoin de se casser la tête à imaginer des stratagèmes.
Ces prochaines années, on verra certainement des cas bien concrets par contre.
Le
03/11/2022 à
14h
01
Pinailleur a dit:
Donc comme je disais, dans un cadre juridique, tu dois avoir des preuves, dans les autres cadres, comme ici, rien n’empêche les soupçons / affirmations.
Pour avoir une obsolescence programmée, il faut que la durée d’utilisation du produit soit limitée dans le temps, par avance.
Les (non) mises à jour de sécurité n’impactent pas la durée de vie du produit.
Avoir un terminal à jour est limite un luxe (quoique les mises à jour, comme déjà discuté ailleurs pour Androïd, ne concernent pas toujours le système et les pilotes mais aussi des parties “haut niveau” comme le store et autres composants logiciels qui sont peut-être mis à jour par un autre moyen/canal - aucune idée sous iOS).
Sinon pour lancer des idées en l’air entre haters et s’auto convaincre que le monde nous en veut et regrette notre naissance, il y a d’autres lieux sur internet (qui deviennent payant par contre)
Le
03/11/2022 à
09h
21
pamputt a dit:
Peut-on parler obsolescence programmée ?
Je ne pense pas.
L’appareil reste utilisable, il n’y a pas de fonctionnalité en moins. De base, c’est un téléphone, donc tant qu’il émet/reçoit des coups de fils, des SMS, est compatible 2G/3G/4G, que les fonctions basiques livrées avec (mail, photo) ne sont pas supprimées, je ne vois pas comment prouver l’obsolescence programmée.
C’est à cause de l’anglicisme, ou parce qu’il y a “ma teub” dans le nom ?
C’est que ça sonnait mal lors de la présentation aux directeurs quand un directeur parlait du projet “demat’hub”. Ca sonnait mal. On m’a prévenu qu’il fallait changer le nom mais sans me dire clairement pourquoi - juste “démat’hub’, ça la fout mal” :) …
Le
25/10/2022 à
09h
47
Witcher a dit:
Je propose, de la même manière que “mail” est accepté en “mél” en français, que “hub” soit “heub” en français, normalement l’académie française devrait valider comme pour “mél”.
On m’a fait retirer le nom “démat’hub” d’un projet au boulot.
On peut utiliser quoi comme protection? avant on utilisait des pellicules photos, on en avait tous, mais maintenant ….
Soit du milar (toujours dispo chez les opticiens), soit projeter l’image obtenue par des jumelles, un télescope sur une feuille de papier (fortement conseillé par moi-même)
Mouahahahahahahahahah ! Toi t’as du étudier les livres d’histoire un paquet de temps pour pouvoir nous documenter ça
Il ne faut pas résumer le moyen-âge aux années où ça avait dérapé. Les impôts tels que la dîme par exemple étaient une assurance: en mettant au grenier 10% des récoltes, on assurait qu’une année sans récolte n’était pas une bérézina totale. Les pirates avaient inventé une sécurité sociale (versement d’argent à ceux qui ont été trop blessés pour remonter sur un bâteau).
Les seigneurs étaient à l’origine responsable de la protection et du bien-être de leur population.
La protection du plus faible a toujours existée - les religions (qui ne sont que des règles pour une vie en communauté harmonieuse - donc ce que doivent être les lois) la promeuve déjà.
La centralisation autour du roi a pas mal pourri la situation, les seigneurs se trouvant alors “à la solde” du pouvoir central et en abusant (c’est pas moi, c’est le roi, je fais cela au nom du roi …)
C’est toujours la même rengaine: il faut un exercice du pouvoir, mais quand le pouvoir est trop loin de la population, le pouvoir plus local se déresponsabilise et en même temps peu commettre des abus “au nom de”. Sans compter la différence entre la vision et la stratégie globale et la perception locale (pour le bien du plus grand nombre).
Ce ne sera un échec qui si ça coule complètement. Vu que certains ont pas mal investi, peut-être que ça se transformera doucement en réussite.
Mais je pense que ce sera clivant - en fait je n’y vois pas d’intérêt et j’y vois un gâchis de ressources phénoménal, en même temps qu’une preuve que le financier a parfois perdu complètement le lien avec la réalité du moment.
J’y vois aussi un potentiel gros clash financier qui va peut-être mettre en évidence que l’argent doit redonner de la valeur au matériel plus qu’à l’immatériel.
La méthanisation est un exemple fort du green washing, que tu l’acceptes ou non. On utilise pour l’alimenter des invendus alimentaires qui feraient le bonheur des banques alimentaires,
Petit grain de sel: pour connaître ceux qui récupère ce que les banques alimentaires ne prennent pas, je peux vous dire que les banques alimentaires gardent essentiellement ce qui n’a pas de DLUO et qui est en sachet. Tout ce qui se cuisine, tout ce qui est brut (hors pâtes et riz), tout ce qui est frais est jeté/donné par la banque alimentaire car refusé par les “clients” des banques alimentaire et pas gérable.
Sinon, je suis d’accord avec les deux:
Le premier but est d’économiser l’énergie et les ressources, pas de remplacer par du soit-disant moins polluant, dont on ne saura que dans longtemps si le choix est bon
Il y a déjà des solutions envisageables, à différentes échelles, pour être un peu moins polluant - mais à priori rien de magique et non polluant
et il y a beaucoup d’esbrouffe…
C’est un peu comme tout: on nous promet 30% d’économie, mais les meilleures solutions finissent par un mieux de 1à 5%, et encore avec l’effet que les gens y prêtent plus attention qu’avant (quand en plus la nouvelle solution n’est pas pire)
3768 commentaires
Le fichier clients de Camaïeu ne sera finalement pas vendu aux enchères
06/12/2022
Le 06/12/2022 à 09h 09
Tout à fait. Un fichier client est un bien de l’entreprise (ou du commercial si c’est un VPC) et fait partie de sa valeur en cas de racaht/cession (c’est le cas aussi de la patientèle pour les cabinets médicaux)
Intéressant de voir l’application dans ce cas: cela permet de réduire les clients aux seuls clients actifs.
Par contre, le rgpd ne doit pas empêcher la valorisation du fichier client (qu’un VPC qui quitte une entreprise peut revendre)
(Pour ceux qui croeient que c’est haut perché, ça concerne aussi un coiffeur qui quitte un salon pour en rejoindre un autre)
Pong a 50 ans
05/12/2022
Le 06/12/2022 à 08h 57
Pas forcément un pc à 3000€, mais un mode esport, des skins de raquette payants et un partage des résultats sur reausés sociaux
Le 05/12/2022 à 16h 42
Pong: The Next Level est sorti en 1999 et est un excellent jeu (à deux).
On se penche sur LXQt, les nouveautés de la version 1.2.0 et son installation sur Lubuntu 22.04
02/12/2022
Le 02/12/2022 à 15h 10
Peut-on vraiment comparer LUbuntu et Ubuntu en conso mémoire et en déduire que LxQT est “meilleur”? Ne vaudrait-il pas comparer Ubuntu dont on repasse le desktop en LxQT ou l’inverse?
Déjà il y a quelques années on nous serinait avec des articles “XFCE consomme moins” “LxDE consomme moins”…
Sauf que dans les faits, ces DE consomment moins pour deux raisons:
Par exemple: XFCE n’était pas basé sur Qt. Il suffisait de lancer une appli Qt depuis XFCE, et la conso mémoire de XFCE était alors à peut près la même que celle de KDE, puisqu’il avait du charger et initialiser l’environnement Qt.
Donc oui, les environnement “légers” peuvent réduire l’empreinte mémoire, mais cela nécessite de choisir les applis lancées dans celles de l’environnement (ici, lancer du Qt) ou des applis ne dépendant pas d’un environnement.
Un exemple concret, c’était libreoffice, dont le backend par défaut est Qt, et donc qui se retrouvait sous LxDE à faire consommer pas mal de RAM…
C’est un peu l’effet ‘vista’ finalement…
Première bande-annonce pour Indiana Jones (5) et le cadran de la destinée
02/12/2022
Le 02/12/2022 à 08h 29
Je l’ai trouvé chouette le 4. Plutôt bien indiana Jones dans son âme: amusant, décalé, quelques bons trucs de fan service (“c’est intolérable”), et une séquence “effets spéciaux ratés”, comme dans chaque.
Un côté film série B, c’était fidèle.
L’affichage des pubs en ligne consomme énormément d’énergie
30/11/2022
Le 01/12/2022 à 14h 23
Tout à fait d’accord. Je ne consomme pas 1Go sur mon forfait mensuel alors que les mises à jour sont en auto.
10ko d’info, 6Mo de pub, 12Mo d’images, CSS, javascripts inutiles
Le 30/11/2022 à 15h 54
Je rappelle ma proposition toute bête qui est le principe de compensation: toute production de CO2 par un individu lors d’une action doit être compensée par ce même individu qui devra retenir sa respiration jusqu’à avoir éviter le rejet par sa personne de l’équivalent CO2 de son action.
Là je retiens déjà ma respiration pour compenser l’écriture de ce message sur un ordinateur.
Nouvel incident de sécurité chez LastPass, le deuxième cette année
01/12/2022
Le 01/12/2022 à 07h 28
Google met à jour Chrome pour colmater une brèche critique et déjà exploitée
29/11/2022
Le 29/11/2022 à 09h 58
Du coup EDGE aussi j’imagine …
… sauf que j’ai le rendu GPU désactivé, alors je suis vulnérable ou pas???
Palm et Palm Pilot débarquent sur Internet Archive plus de 500 applications et jeux
28/11/2022
Le 28/11/2022 à 09h 44
Je n’ai pas eu de palm, j’ai eu un Psion.
L’un ou l’autre, c’était de très bonnes machines, très bien conçues. Vraiment du design durable, certains devraient y retourner plutôt que de doubler la taille des batteries pour conserver une autonomie correcte…
Shadow Drive disponible (20 Go gratuits), client pour Raspberry Pi, offres pour les pros avec BYOL à venir
23/11/2022
Le 27/11/2022 à 20h 13
Effectivement, il faut pouvoir ingurgiter les 50mb/s-250Mb/s en crête sur ces protocoles
Après, c’est une estimation en crête pour du 30-60ips.
Les exemples sont intéressants (avec une vidéo 4K sur du 60Mb/s, et un facteur x2 entre la qualité à 80 et la qualité à 90, facteur x10 entre qualité à 60 et qualité à 90)
D’expérience de l’époque sur RDP, bien que si on joue à bouger la souris partout ou pendant des scrolls il y a des artefacts, ils disparaissent très vite quand l’affichage se stabilise et on arrive à voir où on en est malgré les artefacts.
Par contre, regarder des sites comme google map/géoportail était lourdingue, et un outil comme google earth était inutilisable (mais le serveur n’avait pas de carte 3D et les clients étaient des clients léger)
Le 25/11/2022 à 13h 13
Deux arguments: le licensing en VM (certaines licences sont très compétitives puisqu’on paye au coeur du serveur une fois, et après on déploie autant de Windows qu’on veut) et les technos de Windows Server pour le déport d’affichage (Windows Server a toutes les briques pour déporter l’affichage et le son, les briques de Windows 10 sont un peu allégées)
Le 25/11/2022 à 13h 10
Jamais vu cela. 3/6mb/s, c’est de la visio HD. Les protocoles de poste à distance (RDP, NX, …) sont bien plus légers. Des extensions permettent de coder les mouvements rapides soit via le protocole général (citrix), soit en envoyant le flux vidéo et en délégant le décodage vidéo au client sur une partie, plusieurs parties ou tout l’écran (citrix et d’autres).
A l’époque lointaine où j’ai géré ce genre de truc, Citrix était énorme, mais avec l’évolution du web (les pubs vidéos), les serveurs n’étaient pas dimensionnés pour décoder et réencoder plusieurs mini-flux vidéos x32 utilisateurs :)
Comme c’était il y a 7 ans, et qu’on trainait un citrix limité aux vieilles technos à cause de nos clients légers antédiluviens, j’espère bien que les technos de 2017 fonctionnent toujours (la délégation vidéo) et que d’autres produit les ont inclus (ou alors ils faut qu’ils se renseignent: déjà en 2012 c’était du standard prêt à déployer)
Le 25/11/2022 à 13h 04
Tout à fait d’accord. Mais je compare bien de l’ADSL 512k/RNIS et il n’y avait pas de latence perceptible.
Oui et non. C’était vrai avec les vieilles applis. Ca ne l’est plus avec les applis actuelles basées sur des rendus type “web” bourrés de dégradés, images de fond, dessinées au pixel et pas en utilisant les primitives (trait/rectangle/curseur) de l’OS.
Actuellement, RDP se défend plutôt bien, avec un système de cache de bitmap notamment. Avoir un RDP qui diffuse une vidéo/un teams est lent, saccadé pour la partie vidéo, mais l’interface réagit bien sur le reste (menu, ouverture/fermeture de fenêtre, glissement de petits éléments).
Le 25/11/2022 à 10h 30
Il y a des années, le RDP par-dessus l’ADSL 512k c’était bien, par-dessus l’ADSL 1mo c’était parfait pour bosser - sauf la navigation web à distance quand les navigateurs sont passés sur du rendu “GPU”/en tout cas du rendu pixel par pixel.
Netflix, sans prendre en compte la latence, ça passe super méga crème sur 30Mb/s en FHD.
En fait, pour bosser, on considère qu’une session RDP moyenne prend 30kb/s (sans son), avec des pointes parfois agaçantes (quand tout le monde reçoit une notif et que Windows 10 fait défiler le panneau de notif vers le haut, x20 personnes :)
Mais en gros, on faisait du RDP graphique en 2007 sur du RNIS pour 5-10 pers sans latence particulière et sans gros problème graphique, donc j’imagine qu’avec les tuyaux actuels et l’amélioration de la compression “subjective”, on est bien pour du 4k.
Exposition aux ondes : Samsung écope d’une amende pour dépassements de DAS
21/11/2022
Le 21/11/2022 à 08h 14
7500€, ce n’est pas grand-chose pour leurs finances, mais pensez donc à leur amour-propre, qu’on assassine sur la place publique…
Après Meta et Twitter, Amazon devrait licencier 10 000 employés
15/11/2022
Le 15/11/2022 à 08h 44
Business is business. Ce ne sont pas des oeuvres de charité, et ils doivent préparer l’avenir (= confrontation avec les géants chinois?)
La PWA de Teams est « officiellement » disponible pour Linux, un cadeau empoisonné
09/11/2022
Le 14/11/2022 à 10h 48
Ca date de Windows 98/Windows 2000. A l’époque, Windows n’avait pas de gestion différente des disques amovibles et fixes (sauf les disquettes, mais elles n’étaient considérées comme des disques) et le support USB était nouveau. Pour rappel, une clé USB a un protocole proche des disques SCSI. Donc on passait par la partie de gestion des disques dur pour les clés USB, sans hotplug.
Par défaut, l’écriture sur les disques durs était différée pour améliorer les perfs…
Jusqu’à Windows XP, qui a désactivé PAR DEFAUT l’écriture différée sur les clés et disques amovibles!
Donc ce n’est plus d’actualité depuis 2001⁄2002 environ … 20 ans de retard, comme les remarques sur la sécu….
Ca c’est au matériel de ne pas mentir. Quand on active le cache d’écriture, l’OS n’attend pas l’écriture et répond au programme “c’est fait”.
Quand on le désactive, l’OS attend que le matériel lui dise “c’est fait” pour le dire au programme.
Il y a 3 cas:
Bien vu! Sous Windows on en a rarement le besoin car on l’utilise peu depuis une carte SD. Il y a aussi des paramètres.
Le 10/11/2022 à 17h 44
MFC et .Net n’avaient pas à corriger la sécu. Les vieux problèmes ont été corrigés, ou alors cite un exemple concret.
Exemple de correction: sous Win95, on pouvait lister les fenêtres et ajouter un timer dessus, qui déclenchait une routine définie avec les droits du process parent de la fenêtre. Il n’y avait pas de vérification des droits -> on pouvait utiliser l’icône de l’antivirus pour déclencher sa routine avec les droits de l’antivirus.
On ne peut plus depuis Windows 2000.
Autre exemple: sous Windows, seul un utilisateur peut modifier son fond d’écran, son de démarrage ou son imprimante par défaut (sauf GPO). Même si tu es administrateur du poste, tu ne pourras pas passer outre.
Je peux te citer plusieurs “légendes urbaines” sur l’informatique (et le plus souvent windows), qui ont été résolues il y a 20 ans (comme le fait de cliquer sur “éjecter” avant de retirer une clé USB)…
C’est assez navrant de voir que les gens ne se mettent pas à jour, et continuent de comparer Windows en tant qu’OS et DE, et Linux uniquement niveau noyau. Si on compare Windows et Linux, autant comparer Windows Server Core et Linux server, ce sera plus proche.
(au fait, je ne défends pas la qualité des outils Microsoft en ligne: O365 et sharepoint, onedrive, teams sont bourrés de bugs, problèmes navrants et autres incongruités ou irritants - mais par contre, ce sont les moins chers du marché … et ayant administré du Windows, je dois avouer que c’est un OS sérieux, très bien documenté et transparent, là où pour Linux ça dépend de la distro et la doc est très en-deça pour beaucoup de parties)
Le 10/11/2022 à 17h 31
Si on parle au niveau du noyau, je dirais non. Quand à l’historique Windows 3.11, il n’y a pas grand chose de commun entre le noyau NT actuel et le Windows 3.11 de l’époque (déjà pas un NT, et effectivement avec une stack ajoutée rapidement).
On n’est plus à l’époque de Windows 95 et de loin.
La partie réseau actuelle hérite de celle de XP, mais surtout de celle de Vista.
Quand à la sécurité de Linux et des unix, elle dépend, comme celle de Windows, des bonnes pratiques des utilisateurs et des programmes.
Exemple: l’affichage graphique. Linux a commencé avec un serveur X “classique”: serveur en utilisateur privilégié et client sous le login utilisateur, et communication via la couche réseau. Ensuite pour satisfaire aux besoins de 3D et parce que c’était plus simple, on a permis d’afficher dans le client des éléments fournis sous le login root.
Maintenant on abandonne carrément la partie X pour mimer ce que Windows fait - avec tous les risques de sécu qui arrivent si quelqu’un fait une erreur dans un programme…
X avait une architecture sécurisée. Wayland, je ne trouve pas.
Le 10/11/2022 à 13h 50
Non. Même Windows, ça se gère en ligne de commande, sinon c’est une perte de temps phénoménale.
Ca je suis à peu près d’accord, mais c’est pas WSL, c’est le problème de passer d’un Linux à l’autre sans se soucier des dépendances -> il faut toujours maîtriser ses dépendances ou se coller à un standard type flatpack.
Le 10/11/2022 à 13h 48
Grand fou rire. Windows en lui-même est très bien sécurisé. Le problème de Windows avec les applis (de bureau), c’est effectivement un très lointain héritage de l’époque où l’on avait confiance dans le PC car il était en quasi vase clos. Mais c’est vraiment l’exception maintenant et depuis plusieurs longues années.
Franchement, le plus gros écart entre linux et windows, c’est le fait que sous linux un admin peut se faire passer pour n’importe quel utilisateur sans connaître son mot de passe, pas sous windows (il faut que l’admin modifie le mot de passe). A part cela, ils sont équivalents en terme de sécurité niveau noyau
La plupart des clients légers que j’ai déployés sont sur un principe d’écran déporté: soit en telnet/ssh, soit en VNC, soit en RDP ou citrix.
Et j’en ai déployé en industriel (RDP sur des terminaux mobiles en Wifi type “scanner” avec écran en 320x240). C’est impécable.
Et j’ai l’impression que tu mélange (a)synchrone et connecté. Le HTML n’est justement pas un système connecté: chaque requête ignore la précédente. Ce qui n’est pas le cas de protocoles type VT/RDP/X
Quand à la capacité d’un client léger à gérer le temps réel - vu qu’on faisait tu temps réel sur des terminaux à 1MHz, je pense qu’on peut toujours le faire - mais il faut savoir ce que temps réel veut dire, et comment se donner les moyens que ça fonctionne.
Le 10/11/2022 à 13h 23
Ms reste très bon marché, malheureusement.
Je serais content de tout baser sur de l’alfresco, du jitsi, du onlyoffice et un stokage cloud nextcloud… Mais ça demanderait plus de compétence, de personnel, et le coût de maintenance serait très supérieur à Ms.
Le 09/11/2022 à 13h 42
J’attends de voir le bazar que sera de ne pas mettre ses oeufs dans le même panier:
… Payer les formations à tout le monde …
Le 09/11/2022 à 10h 15
Oulà! Si à la fin tu peux avoir une chance de prendre moins de place sur le disque (qui en général n’est pas à cours de place à causes applis mais plutôt à cause des données), pour pouvoir compiler il va te falloir jusqu’à 10x la taille du fichier final!
Entre les sources, les sources des dépendances, les fichiers objets, les fichiers de symboles et autres méta données de compilation/débogage… utiliser 4Go pour compiler 250Mo d’exécutables , c’est pas si rare.
Pour compiler une ROM android de 4Go, il me faut de mémoire 100Go (et je prune bien les sources)
Twitter licencie les équipes d’éthique en intelligence artificielle et celle des droits humains
07/11/2022
Le 07/11/2022 à 12h 59
C’est l’IA qui a dû lui indiquer qui virer :)
Les opérateurs télécoms réclament deux milliards d’euros à Amazon, Apple, Google, Meta Microsoft et Netflix
04/11/2022
Le 07/11/2022 à 12h 53
Et visiblement pas le choix des opérateurs. J’imagine que les petits consommateurs comme moi qui n’arrivent même pas à utiliser 10Go les gros mois (en utilisant le tel pour mettre à jour un PC) leur permettent d’être compétitifs sur les plus gros forfaits.
Je m’interroge depuis quelques années sur le bien fondé des offres illimitées. A une époque, c’était tout bénef, mais maintenant, je pense que certains paieraient moins cher en payant internet à la minute que d’avoir un forfait ADSL/Fibre à 40€ juste pour le tel et le boncoin.
C’est bien son point: si on avait des forfait internet limités y compris sur le fixe on pourrait expliquer aux clients qu’ils consomment trop.
Les Français ont souvent été détesté dans les parties réseau WAN car ils ont accès en illimité, ce qui n’est pas le cas d’autres pays - et du coup certains étaient AFK régulièrement en squattant une session au lieu de la laisser à d’autres qui galéraient pour trouver une place sur une partie.
Le 05/11/2022 à 17h 56
Merci
Le 05/11/2022 à 17h 56
Ben prend un plus gros forfait … Moi je ne crame pas 40Go (en fait, je ne crame pas 20Go).
C’est déjà fait. Free refusait de le faire mais ils ont craqué. Et de nouveau, je pense que leur demande ne porte pas sur le lie FAI-> Netflix mais sur le fait que les liens FAI->abonnés arrivent à saturation.
Ceci dit, en proposant de la fibre jusqu’à 2G/s à tout le monde alors que 100/200mb/s suffisent amplement à la majorité des gens, forcément ils font des promesses marketing intenables (il est difficile d’atteindre le 1G/s en continu, on ne peut pas le faire sur une seul site en général)
Le 05/11/2022 à 17h 50
Non: si je vais chez YT, le chemin c’est YT<->Bon gros cable<->mon FAI<->chez moi
Ou même, s’il y a un cache, le stockage sera chez mon FAI (voir avec la 5G: au pied de l’antenne si j’ai bien suivi).
Donc pour un film Netflix en vogue, le chemin c’est mon FAI <-> chez moi.
Et je pense que la demande porte bien sur le lien mon FAI<->chez moi
Le 04/11/2022 à 19h 20
Oui, c’était clair. Et toujours le même avis pour moi: si on parle du lien “google <-> FAI”, alors il y a matière à discuter mais c’est le peering et ça ne me paraît pas du tout le sujet.
Pour moi on parle du lien “FAI<->client” et là je ne vois pas en quoi la demande est recevable: les gafam ne sont pas responsable de la saturation du lien, c’est l’équilibre conso client/coût d’infra chez le FAI et ce n’est pas l’affaire de google mais du FAI.
Le FAI peut agir par la tarification, la QOS, ou l’éducation des utilisateurs.
Le 04/11/2022 à 19h 10
Pareil. Mon réseau souffre, et j’aurais bien besoin d’une subvention des gafam pour passer au Wifi 6 ou 7, histoire de recevoir toutes mes pubs en 4K stéréoscopique Dolby 7.1
Le 04/11/2022 à 13h 08
En gros, tu dis que les consommateurs payent leur part de débit internet mais pas les GAFAM qui produisent le contenu, c’est cela?
J’entends l’argument: faire transiter un paquet, qu’il vienne d’un bout ou de l’autre du tuyau, c’est de la charge pour l’opérateur.
Mais dans ce cas, ils font payer deux fois le service, non?
Le 04/11/2022 à 13h 08
Le peering, c’est entre opérateurs, pas sur la partie de l’opérateur au client final qui est le sujet de la news il me semble. Donc ici le peering n’entre pas en ligne de compte d’après ce que je comprends.
Quand à la séparation TV/reste, là tu attaques le périmètre de la neutralité du net en essayant d’extraire le flux vidéo du reste. Mais du coup il n’y aura plus de neutralité globale, uniquement une neutralité data.
D’autre part, avec le HTTPS, la séparation vidéo/data sera au bon vouloir de l’émetteur.
Et pour rappel, on parle juste de vidéo préenregistrée qui bénéficie déjà de cache chez les opérateurs… le problème va se corser encore si on fait du jeu en streaming ou de la VR en streaming sur le metaverse (une partie des arguments qui me font penser que le metaverse ne peut pas être universel).
Je pense aussi que le fair use est une solution acceptable. Ou un double Wifi sur les box: un limité en volume, l’autre en débit…
Le 04/11/2022 à 10h 39
Donc ils n’ont qu’à augmenter le tarif des forfaits ou baisser le volume data: on doit pas être loin d’avoir les moins chers d’Europe.
Le 04/11/2022 à 10h 28
C’était bien mon point :)
Comparer la neutralité du net aux autoroutes peut mener à des déconvenues :)
Demander aux GAFAM de payer pour leurs usagers ne paraît pas la logique la plus directe: une autre logique serait d’arrêter d’avoir de l’illimité en France pour faire payer au Go consommé ou alors avoir un fair use.
Du point de vue GAFAM (et du mien), c’est l’opérateur de réseau qui a un coût qui doit le faire payer à ses usagers.
Là ils tentent juste de faire payer un autre pour que leur service ne s’écroule pas parce que les usagers usent sans limite les ressources, au lieu de faire en sorte que l’usager soit conscient des ressources et aient un impact sur le fait d’en consommer “trop”.
Des tonnes de solutions existent côté utilisateur: limiter la qualité vidéo, télécharger la vidéo d’avance mais à bas débit, regarder les nouveautés (car elles ont des chances d’être en cache)…
Le 04/11/2022 à 08h 55
Non, c’est plutôt comme si les camions devaient payer plus cher sur l’autoroute.
Ou plutôt, comme si on faisait payer les camions mais pas les voitures.
Pollution de l’air : des caméras intelligentes pour contrôler et sanctionner les automobilistes en 2024
07/11/2022
Le 07/11/2022 à 12h 42
Et d’un autre côté personne ne sait vraiment comment les dimensionner pour ingurgiter tous les automobilistes.
Le 07/11/2022 à 10h 54
Il y a plein de pays qui ont ce genre de choses. A Londres le péage urbain automatique doit dater de 2005.
En Norvège ils peuvent flasher ta voiture et tu reçois la facture à la maison, en France.
C’est très efficace.
En France on a failli avoir un truc du genre mais les bonnets rouges ont manifesté…
En fait, en France on accuse un retard sur ce sujet de l’autofacturation/autoamende assez conséquent, juste par ce que les gens ne veulent rien changer.
PlayStation VR2 : le casque de réalité virtuelle de la PS5 arrivera le 22 février 2023 à 599,99 euros
03/11/2022
Le 04/11/2022 à 09h 07
Ca fait partie de ce que je perçois comme un mépris total du consommateur: caler un prix (toujours à 1c d’un prix rond à l’€ près) - pour des abonnements, ça fleure la fainéantise du marketing à chercher à fournir une offre au juste prix. On devrait avoir plus de prix à 7,20€, 5,60€ dans les abonnements, ça me donnerait plus confiance.
Le 03/11/2022 à 09h 18
En tout cas, ça la rend vieille. Je suis d’accord avec @Witcher - maintenant que des enseignes assument depuis longtemps des prix ronds, les prix en xxx9.99 font tache et ne me semblent plus tromper personne.
Ca fait juste vieille marque qui se fout de la gueule des gens.
Apple reconnaît ne pas mettre complètement à jour ses anciens systèmes
03/11/2022
Le 04/11/2022 à 09h 04
Justement, ma tournure était de mettre le point sur le terme “obsolescence programmée”: on ne peut pas l’utiliser à tout va. Il est plus que mal utilisé y compris par les associations, et cela les décrédibilise.
Et il n’y a même pas une ligne franche: quand Apple a réduit la vitesse des iPhone parce que la batterie était trop faible, certains ont crié à l’obsolescence programmée, perso j’étais de l’autre camp: Apple avait justement prolongé la durée de vie utile de ses téléphones.
Actuellement, je ne crois pas à l’obsolescence programmée dans la plupart des cas. On était dans une conjoncture où le renouvellement et l’achat étaient limite compulsifs, pas besoin de se casser la tête à imaginer des stratagèmes.
Ces prochaines années, on verra certainement des cas bien concrets par contre.
Le 03/11/2022 à 14h 01
Genre République FrançaiseL441-2 ?
Pour avoir une obsolescence programmée, il faut que la durée d’utilisation du produit soit limitée dans le temps, par avance.
Les (non) mises à jour de sécurité n’impactent pas la durée de vie du produit.
Avoir un terminal à jour est limite un luxe (quoique les mises à jour, comme déjà discuté ailleurs pour Androïd, ne concernent pas toujours le système et les pilotes mais aussi des parties “haut niveau” comme le store et autres composants logiciels qui sont peut-être mis à jour par un autre moyen/canal - aucune idée sous iOS).
Sinon pour lancer des idées en l’air entre haters et s’auto convaincre que le monde nous en veut et regrette notre naissance, il y a d’autres lieux sur internet (qui deviennent payant par contre)
Le 03/11/2022 à 09h 21
Je ne pense pas.
L’appareil reste utilisable, il n’y a pas de fonctionnalité en moins. De base, c’est un téléphone, donc tant qu’il émet/reçoit des coups de fils, des SMS, est compatible 2G/3G/4G, que les fonctions basiques livrées avec (mail, photo) ne sont pas supprimées, je ne vois pas comment prouver l’obsolescence programmée.
L’état ne peut plus utiliser le terme « Health data hub »
25/10/2022
Le 25/10/2022 à 09h 55
C’est que ça sonnait mal lors de la présentation aux directeurs quand un directeur parlait du projet “demat’hub”.
Ca sonnait mal. On m’a prévenu qu’il fallait changer le nom mais sans me dire clairement pourquoi - juste “démat’hub’, ça la fout mal” :) …
Le 25/10/2022 à 09h 47
On m’a fait retirer le nom “démat’hub” d’un projet au boulot.
Mardi prochain, une éclipse partielle du Soleil visible depuis la France
21/10/2022
Le 21/10/2022 à 11h 47
Soit du milar (toujours dispo chez les opticiens), soit projeter l’image obtenue par des jumelles, un télescope sur une feuille de papier (fortement conseillé par moi-même)
Microsoft licencie presque un millier de personnes
19/10/2022
Le 19/10/2022 à 08h 37
Il ne faut pas résumer le moyen-âge aux années où ça avait dérapé.
Les impôts tels que la dîme par exemple étaient une assurance: en mettant au grenier 10% des récoltes, on assurait qu’une année sans récolte n’était pas une bérézina totale.
Les pirates avaient inventé une sécurité sociale (versement d’argent à ceux qui ont été trop blessés pour remonter sur un bâteau).
Les seigneurs étaient à l’origine responsable de la protection et du bien-être de leur population.
La protection du plus faible a toujours existée - les religions (qui ne sont que des règles pour une vie en communauté harmonieuse - donc ce que doivent être les lois) la promeuve déjà.
La centralisation autour du roi a pas mal pourri la situation, les seigneurs se trouvant alors “à la solde” du pouvoir central et en abusant (c’est pas moi, c’est le roi, je fais cela au nom du roi …)
C’est toujours la même rengaine: il faut un exercice du pouvoir, mais quand le pouvoir est trop loin de la population, le pouvoir plus local se déresponsabilise et en même temps peu commettre des abus “au nom de”. Sans compter la différence entre la vision et la stratégie globale et la perception locale (pour le bien du plus grand nombre).
Le métavers de Facebook est un « monde vide (et) triste », et perd des milliards de dollars
19/10/2022
Le 19/10/2022 à 08h 29
Ce ne sera un échec qui si ça coule complètement. Vu que certains ont pas mal investi, peut-être que ça se transformera doucement en réussite.
Mais je pense que ce sera clivant - en fait je n’y vois pas d’intérêt et j’y vois un gâchis de ressources phénoménal, en même temps qu’une preuve que le financier a parfois perdu complètement le lien avec la réalité du moment.
J’y vois aussi un potentiel gros clash financier qui va peut-être mettre en évidence que l’argent doit redonner de la valeur au matériel plus qu’à l’immatériel.
Les voitures électriques moins polluantes ? Ça dépend selon l’ADEME…
17/10/2022
Le 18/10/2022 à 12h 22
Petit grain de sel: pour connaître ceux qui récupère ce que les banques alimentaires ne prennent pas, je peux vous dire que les banques alimentaires gardent essentiellement ce qui n’a pas de DLUO et qui est en sachet.
Tout ce qui se cuisine, tout ce qui est brut (hors pâtes et riz), tout ce qui est frais est jeté/donné par la banque alimentaire car refusé par les “clients” des banques alimentaire et pas gérable.
Sinon, je suis d’accord avec les deux:
C’est un peu comme tout: on nous promet 30% d’économie, mais les meilleures solutions finissent par un mieux de 1à 5%, et encore avec l’effet que les gens y prêtent plus attention qu’avant (quand en plus la nouvelle solution n’est pas pire)