J’ai jeté des zx81 et autre 286 parce que consommer 200W pour faire ce que peut faire un microcontrôleur avec 2W, c’est une hérésie, à part pour un musée.
Le Zx81 devait consommer moins de 10W, un 286, c’était pas plus de 40W (avec 2 disques durs de 32Mo)
Les alims de 200W pour moi sont sorties en masse pour les pentiums (de mémoire)
Les alims étaient plutôt de 75 à 120W avant le pentium (toujours de mémoire, je n’en n’ai plus sous la main).
Pour rappel quelques TDP ou consos:
- 80286: conso 2W (de mémoire) (alim 5V)
- 80386: conso 5W (de mémoire) (alim 5V)
–> normal, il n’y avait même pas de radiateur dessus!
- 80486: 5-15W
- Celeron 400: moins de 25W de TDP (mais attention, CPU seul, north et South bridges à part!).
Pour tout ce qui était en 5V, on pourrait se faire l’alim soi-même avec des régulateurs linéaires (bon, faut dissiper) tellement c’était peu sensible aux perturbations.
Dans les 286, les puces étaient quasiment toutes des DIL, on pouvait jouer du fer à souder.
C’est clair que c’est moins performant qu’un MCU (encore que le 386DX, il était pas mal) mais si ça marche…
La RAM consommait aussi énormément par rapport aux standards actuels.
Après, il y a aussi le rapport perfs/encombrement.
Remarque: on rencontre encore des Z80 ou dérivés dans des produits industriels. Chez moi, dans mes téléphones sans fil philips achetés il y a 2 ans.
Le
06/10/2017 à
10h
56
Les tests des CPU intel sont concluants, ça donnerait presque envie de changer. Mais ma config n’a pas encore 6 ans…
Cela étant, si on faisait des études sur le sujet, je ne serais pas étonné que la radio fasse légèrement augmenter le nombre d’accidents (à moins qu’elle le fasse diminuer en aidant à rester éveillé?).
L’étude dit: si tu comptes sur la radio pour te tenir éveillé, c’est que tu es déjà un danger.
Le
02/10/2017 à
14h
51
Et puis des radars pour les piétons aussi, si on ne voit pas lever leurs yeux avant et pendant qu’ils traversent, c’est une amende.
Le
02/10/2017 à
14h
49
trash54 a écrit :
Brouiller les passants OUI car bon quand on en voit qui marche/tranverse la tête dans leur écran … danger public
Pareil pour les conducteurs (et même ceux qui font du vélo…). Quand on est piéton, on voit régulièrement des gens qui consultent leur portable. Et j’ai déjà vu un cycliste le téléphone à la main (les coudes sur le guidon) faisant de gros écarts dans un virage sans visibilité…
Moi je plaide pour un permis d’avoir un portable et un retrait en cas d’infraction (par exemple le portable à table c’est retrait 6 mois).
Moi c’est simple, je n’ai pas pu ouvrir NXI derrière un pare-feu avec la 57. Tous les autres navigateurs (y compris FF 55 qui est mon principal) peuvent.
Pour ce qui est des perfs et de la mémoire, j’ai constaté un truc:
- pour les perfs, OK c’est mieux en général. Mais ça reste moins réactif que Edge je trouve, notamment sur vieilles bécanes (I5-2467m et C2D). A voir sous Linux où sur vieille bécane FF était déjà plus agréable que Chrome (en tout cas dès qu’on charge un peu la mule)
- pour la RAM… Quand il est tranquille, il ne consomme pas, mais pendant les chargements, d’autres process Firefox de 100-200Mo sont spawnés avant de disparaître. Quand la RAM est bien chargée, ces processus achèvent la machine qui se met à ramer le temps de chargement de la page, qui devient nettement plus long…
Je vois que beaucoup sont contents de leur Wifi. Perso j’ai tout bloqué en 802.11g car en 802.11n ou ac, j’ai toujours des problèmes: ralentissements, déconnexions, appareils qui n’accrochent pas. J’ai deux émetteurs: une freeboxmini et un NUC (carte Intel 7240). Par exemple sur la Freebox mini, si j’active les canaux 40MHz, j’ai énormément de perturbations.
Pour le moment ça ne me dérange pas, le Wifi est bien plus rapide que ma connexion internet, mais ça doit changer dans 2 mois…
Il y a d’autres personnes qui trouvent qu’en environnement avec de multiples appareils, le wifi est difficile à maintenir up&running 24⁄24? Surtout que je ne capte que très faiblement mon unique voisin…
J’ai quand même dans l’idée que le télétravail depuis la maison n’est pas forcément la meilleure formule. Par contre, des centres de télétravail bien équipés avec une personne qui le gère est peut-être un bon compromis.
Les plus:
* la personne est dans un établissement plus proche de son domicile
En bref, mon idée du télétravail, c’est des locaux plus petits, très proches du domicile et bien desservis (exemple: mairie ou locaux communaux, ancien petit magasin désaffecté, ancienne usine désaffectée), avec la fibre (parce que le télétravail par ADSL, c’est bien limité), des possibilités de contrôles et d’installation par des interlocuteurs un peu formés, … Afin de créer des pôles d’emplois viable avec un minimum d’investissement en zone rurale.
Quand on voit des bâtiments désaffectés, avec parking 40 places, plantés entre 2 NRA reliés par une fibre, entourés de villages avec des maison à vendre à moins de 80000€ pour 4 chambres, on se dit (depuis quelques années) que le télétravail permettrait de redynamiser un peu la zone.
S’il est vrai que la gestion de la mémoire est importante, c’est bien là que les langages managés sont bien plus intéressants. Il est beaucoup plus facile de détecter les fuites de mémoires et les corriger que dans du code natif.
D’expérience, je ne suis pas d’accord.
En code managé, la fuite mémoire a moins d’impact, mais elle existe. Les programmes sont plus résistants aux fuites mémoire, mais ça n’empêche pas d’en faire et d’avoir un impact différent (dans mon exemple: 50% de CPU soutenu dans le GC - toutes les x minutes)
Quand à les détecter…
Voici un exemple: une routine crée en boucle des chaînes de caractères.
Dans du code non managé, on finira certainement par créer un “out of memory”. On aura un dump “post mortem” représentatif
Dans du code managé, on constatera plutôt une occupation CPU liée au GC importante. Cela signifie aussi que le GC nettoie les preuves régulièrement. De plus, il se déclenche de façon non synchrone avec la routine que l’on cherche.
-> on passe par un dump et un analyseur, mais comme tout crée des chaînes de caractères, on ne sait pas toujours quoi chercher parmi les millions d’instanciations. Je passe sur les performances d’un analyseur et l’espace de données nécessaire pour collecter les infos, et le passage quasi systématique par WinDBG/SOS (en gros, revenir quasiment à l’assembleur pour déboguer du .Net), et le “bruit” généré par les appels à EntityFramework et les chargement de Datasets qui instancient énormément de chaînes de caractères…
Au final (attention, de mémoire donc pas trop de détails), le problème venait d’une initialisation de Datasets réalisé dans une boucle, au lieu de remettre à zéro le même à chaque itération. résultat: tous les datasets étaient maintenus en mémoire ainsi que leurs données. A cause d’un lien inutile ils étaient maintenus en vie pendant l’exécution de la routine (un gros truc qui faisait plein d’autres appels qui eux-mêmes créaient des datasets). Les datasets restaient suffisamment longtemps pour passer en génération 1 pour le GC. Et ainsi ils étaient récupérés plus tard, en cas de pression mémoire, lors d’un GC de génération 1. Le GC de génération 0 libérait toutes les chaînes de caractères liées aux Datasets.
-> Je pense que sans GC, ce type de problème est détecté lors de la libération mémoire “manuelle”.
Le
25/09/2017 à
07h
59
ashlol a écrit :
j’avais vu il y a longtemps qu’il y avait pas mal de différence entre du .net et du c++.
Sur de l’algo de calcul, je ne pense pas que .Net ait fait de gros progrès.
Les performances des langages recompilé à chaud dépendent souvent de multiples overhead ajoutés entre la plate-forme du langage et les API.
Là où les langages type java/.Net gagnent en perfs, c’est souvent sur les allocations mémoire … au détriment du temps nécessaire pour désallouer cette mémoire. Par contre ils ont l’avantage d’éviter (ou plutôt de repousser pour .Net) des problèmes de fragmentation mémoire (saturation de la mémoire par allocation de petits ensembles et désallocation sauvage).
Par ailleurs, parfois il faut raisonner en temps de réponse plutôt qu’en temps de calcul (par expl ne pas compter le temps de “garbage collect” qui suit la réponse). Tout dépend de la priorité du dev.
Pour la majeure partie des cas que j’ai pu traiter, .Net a fait le job, mais on a pu rencontrer des problèmes non prévus (exemple sous Windows 32 bits: la limite d’un process est bien de 2Go, mais ça fait environ 1.1Go de données pour une plate-forme .NET 1.1 qui a besoin de place pour le GC)
Une chose qui est différente entre C et .Net/Java: en C rien ne t’empêche de compiler du code qui va rechercher de la mémoire en dehors d’un tableau, .Net et Java vérifient systématiquement que tu n’es pas en dehors.
C’est sûr que c’est plus lourd, mais pour du dev en entreprise, c’est bien plus sécurisé.
ashlol a écrit :
pour la parallélisation en c++ c’est pas vraiment compliqué t’ouvres un/plusieurs thread de plus et avec des sémaphores pour la synchro des threads ça passe crème.
.Net a poussé le vice très très très loin je trouve avec la possibilité d’écrire des codes où chaque instruction “bloquante” peut laisser la place à une autre charge de travail, et ce, sans créer ses sémaphores.
Les points de passage de contrôle d’un thread à l’autre sont multipliés par rapport à un code C/C++ “classique”. De plus le programmeur est abstrait des notions de Thread. .Net gère.
Après j’avoue ne pas avoir suivi les évolutions C++ de ce côté.
ashlol a écrit :
Qu’entends tu par récupérer de n’importe quelle erreur ? Tout est testé automatiquement sans rien devoir écrire ? si oui ça doit quand même ajouté un paquet d’instruction et donc de temps d’exécution.
Comme tes souvenirs de différences de perfs entre C et .Net, moi j’ai des souvenirs de gestion des exceptions différentes et incompatibles entre 2 librairies C++ et d’une gestion “à la mano” du code d’erreur après chaque appel système en C.
Je préfère Java qui force à nommer les erreurs qui peuvent se produire, mais les Framework type .Net et java sont très bon pour une récupération sur erreur, là où les bibliothèques C++ m’ont parfois laissé dans des états impossibles à récupérer sans arrêt de l’appli.
Le
22/09/2017 à
14h
49
ashlol a écrit :
quel est l’ordre de grandeur de temps d’exécution entre ce bytecode et du code natif ?
Qu’entends-tu par code natif? Un algo compilé par le compilo standard ou un code de benchmark ultra optimisé développé aux petits oignons?
Le bytecode a fait d’énormes progrès, notamment lié à la limitation du nombre d’objets “intermédiaires” créés pour avant d’appeler du code “natif” (donc l’overhead).
Il est très efficace, pour peu qu’on sache l’utiliser (avoir un garbage collector ne signifie pas qu’on peut créer des millions d’objets en mémoire sans se soucier des conséquences).
Pour le calcul, il se débrouille, mais reste en deçà de ce que te fournirait un compilateur qui fait e fortes optimisations (notamment SIMD), mais ça reste une utilisation rare pour laquelle d’ailleurs on aura tendance à utiliser un GPU actuellement si on cherche des perfs.
Par ailleurs, .Net t’apporte des syntaxes de dingue (async/await) qui permettent de paralléliser un programme assez naturellement. Donc gain en réactivité que tu aurais du mal à obtenir en C/C++.
En clair: choisir le langage est surtout une question de cible de programme. Pour un programme qui doit tourner dans un temps fini, des ressources mémoire limitées et une faible contrainte de tolérance aux pannes, je préfère du C++ (encore que je peux y faire des entorses), pour un programme qui tourne à l’infini/qui doit récupérer d’un peu n’importe quelle erreur je préfère du .Net (ou autre chose avec un GC et une librairie qui est cohérente dans la gestion des erreurs).
Le
22/09/2017 à
09h
06
Très classe mais quel retard! C’est un peu ce qu’on pensait voir arriver à la sortie de Windows 10 ou peu après.
Testé sur trois petits projets (mais sous Windows seulement):
* ciblage en Core.Net plutôt simple (bon, j’ai recréé les projets et la solution et copié les fichiers sources)
* performance au moins identique à .Net 4.5 (souvent visiblement mieux sans besoin de bencher)
* idem pour la mémoire: ça monte moins vite et moins haut
Par ailleurs, le serveur web intégré est très léger
–> On voit bien que la cible des environnements type “docker” a été très travaillée.
Non, ça veut dire qu’ils n’auront pas de puissance de calcul à vendre l’été, pourquoi chercher une alternative ? On use pas le matériel si il est à l’arrêt donc même pas de “perte”.
Y’a plein d’emploi saisonniers après tout :p
Bah il suffit de faire le modèle pour chauffer les piscines. Watercooling!
Voir pour le ballon d’eau chaude, je suis carrément preneur! Eh oui, 300W toute la journée, ça fait économiser un peu sur les 2000W pendant 5h de la nuit.
Edit: arg, j’avais raté 2 pages. Idée déjà mentionnée. Dans tous les cas, ce serait plus logique que le “ballon d’eau chaude thermodynamique”
En fait, j’y pense depuis un moment à mettre ma freebox et mon NUC sous mon aquarium tropical… La Freebox ne chauffe pas assez pour un aquarium, mais du coup la résistance chaufferait moins souvent!
Et si on peut virer ses ventilo…
Et allons-y: préchauffage de l’huile pour les friteuses du macdo.
En fait, “toner” ça veut dire liquide, lotion ou encre, donc déjà dire “un toner” pour parler du contenant, ça n’a pas trop de sens, d’ailleurs les anglais disent “toner cartridge” (cartouche d’encre).
Toner de Brest!
D’un autre côté, toner est venue: “274. encre en poudre équivalent étranger: toner”
Le
19/09/2017 à
20h
19
Patch a écrit :
Ce n’est pas en regardant UN modèle de chaque, qu’on fait des analyses et des stats globales, ce ne sont que des successions de cas particuliers.
Tout à fait d’accord. Mais alors que les gens se plaignent d’obsolescence programmée, je trouve très peu de cas de casse mécanique voiture autour de moi. Une courroie dûe à un mauvais montage, et un embrayage lié à un cas d’utilisation extrême.
Pour le reste, rien qui me semble anormal dans les cas d’utilisation (des injecteurs sur moteur diesel qui fait 2x3km par jour, ça me paraît prévisible)
Patch a écrit :
Perso je me contrefous des chaînes de magasin. Je vais voir d’abord un magasin d’électroménager local, et s’il ne peut avoir la pièce ou s’il la fait à un prix abusif, je me tourne vers le Net. A part pour mon robot de cuisine à la marque inconnue (où là c’est moi le fautif d’avoir voulu prendre du 1er prix), j’ai toujours trouvé sans pb…
Les magasins d’électroménager local, il n’y en a plus chez moi. Ou alors ils n’ont pas envie de faire de la pièce détachée. Quand au
tarif des pièces détachées, si j’ai confiance dans la réparation,
j’achète même si ça paraît cher. Pour le moment ça a plutôt payé.
Patch a écrit :
Tout dépend de ce que l’on attend d’un SAV. Amazon a certainement le meilleur “Service Après-Vente” avec leur envoi immédiat du remplaçant.
Pour ce qui est des magasins, Darty ne fait pour ainsi dire plus grand-chose, ils n’ont même plus en stock permanent les pièces d’usure! (exemple: pas de brosse de roomba en magasin)
ElectroDepot ne fait pas de SAV, mais il vendent les pièces à part, et c’est une démarche qu’ils développent et que je trouve intéressante.
Le
19/09/2017 à
20h
04
OlivierJ a écrit :
Pour ta remarque sur le prix des cartouches qui s’envole, je n’y avais pas prêté attention, c’est depuis quand ?
Quand j’ai acheté ma précédente imprimante en 2006, le pack de cartouches noire+couleurs (5 couleurs) coûtait 30€.
3 ans plus tard, ça coûtait 45€, pour la nouvelle gamme de l’année: 30€
En 2012, je ne le trouvais plus à moins de 60€ et c’était l’exception, je trouvais surtout à 70€. Pour la gamme sortie 3 ans plus tard: 45€
Alors c’est peut-être qu’il y a moins de volume de vente sur ces vieux modèles… Ou que HP entretien la rareté des consommables sur les vieilles imprimantes…
Le
19/09/2017 à
14h
56
secouss a écrit :
L’obsolescence est partout… quelques exemples :
Pourquoi votre voiture tombe en panne, car la rentabilité d’un modèle est calculée aussi sur la vente de pièces détachées (courroies, galet tendeur, pneumatiques,…)
En éléctronique on sait qu’un composant X aura un taux de défaut qui suit une courbe très précise en utilisation, et comme par hasard cette courbe entraine un casse 10% avant 2 ans, 40% entre 2 et 3 ans, le reste supérieur à 3 ans.
Au final vous imaginez pas que les techniciens et ingénieurs sont cons ^^ notre boulot c’est de penser le produit, le comprendre, soit pour l’améliorer, soit pour le downgrader s’il est au dessus de l’objectif de durabilité…
De mon point de vue, vous n’êtes pas compétents alors. Mon électroménager a 14 ans et aucune panne, TV LCD: 8 ans, mon premier ordi fonctionne toujours (32 ans), la dernière voiture que j’ai revendue avait 387 000km, celles que je conduis actuellement 220 000 (je ne me prétends pas écolo).
Mon NAS précédent était devenu trop petit, mais le disque avait 6 ans et ne présente pas de signes de fatigue, mes gamins ont des tablettes de 2011 et 2012 dont une a encore plus de 4h d’autonomie en jeu…
Vélo PEUGEOT: 20ans, souris optique: 13ans, Lecteur 200 CD: 20 ans (il fatigue lui), lecteur DVD: 16ans
L’âge moyen des voitures arrivant à la casse n’arrête pas de s’allonger. La moitié des appareils arrivant à la déchetterie sont considérés comme en état de marche - aux pièces d’usure près (grille de four, clenche, lampes de plaques de cuisson).
Les gens se cachent derrière l’obsolescence programmée pour couvrir leurs achats compulsifs.
S’ils étaient écolo, ils répareraient ou entretiendraient leurs appareils.
A ce propos, quelle chaîne de magasin permet de commander des pièces de rechange dans l’électroménager (courroies, filtres, capot, clayette, …)?
* La FNAC -> NON (ils m’ont ri au nez)
* Boulanger? NON
* Darty? NON (enfin, à peine et rien en stock)
* Electro dépôt, OUI (et ils ajoutent vos références à leur catalogue)!
Par contre, dans le domaine des imprimantes, il y a de l’abus manifeste. Pourquoi changer le format des cartouches à chaque nouvelle gamme? Il y a vraiment une différence de fonctionnement qui fait qu’on ne peut pas garder le même format? L’encre a changé à ce point? Aucune mise à jour firmware ne peut changer les fréquences/tensions appliquées pour sortir les bulles/jet sur les anciens modèles pour être compatible avec les nouvelles cartouches? Et pourquoi le prix des cartouches s’envole (alors que les écrits des imprimantes ne restent pas si longtemps)?
Le
19/09/2017 à
07h
01
Ricard a écrit :
Sur une imprimante 2d aussi. Et les moteurs pas à pas sont les seuls moteurs utilisables dans ce cas là. Et les moteurs éléctriques les plus performants dans ces domaines (robotique, impression, modélisme…)
Quand on démonte les imprimantes, c’est surtout des moteurs CC liés à des roues codeuses optiques.
Pour les imprimantes je suis HP depuis des années. Le problème c’est le prix de la cartouche: 29€ au début, 70 à la fin. Mais la qualité est identique du début à la fin de vie. Et elles ne consomment pas trop d’encre (j’achète les versions “semi pro” avec le fax intégré)
Là j’ai souscrit à l’abonnement pour recevoir les cartouches à la maison. Surprise! Il semblerait que les cartouches livrées ont visiblement nettement plus d’encre, j’aurais dû les changer depuis longtemps mais elles ont toujours de l’encre!
Je ne peux pas me passer d’imprimante, et ma femme a besoin de la couleur + le scanner avec bac. Donc nous restons sur le jet d’encre.
Le
18/09/2017 à
21h
32
JoePike a écrit :
en fait ils nous font simplement jeter l’ancre
" />
Ca va faire couler beaucoup d’encre.
Mais ne jeter pas de l’encre sur le feu.
Dans tous les cas, ce que je trouve déplorable, c’est toutes les manies qu’ont les constructeurs de bloquer les cartouches “génériques” alors même qu’ils ne font plus le support de leurs appareils.
En matière de sécurité informatique, 2017 nous a appris que si Windows a vu grandement sa sécurité s’améliorer, il existe encore des failles, y compris des 0-days, impliquant qu’un ordinateur à jour, n’installant aucun logiciel suspect, peut aussi être vulnérable.
Tout à fait d’accord.
Mais je n’offre pas plus ma confiance dans les éditeurs “de confiance” qu’en Microsoft. Ayant vécu par exemple le virus qui utilise l’antivirus (qui lui est admin) pour détecter et infecter tous les exe (ok, ça fait au moins 17ans).
D’ailleurs, je me suis toujours méfié de Steam qui ne tourne pas sous mon login normal - et visiblement j’ai eu raison.
D’ailleurs, je suis revenu sur mon ancien système de sauvegarde, l’historique de fichiers Windows tournant sous le login de l’utilisateur et étant potentiellement modifiable par un virus “userspace”.
Maintenant, qui a raison entre la sécurité “passive” et la sécurité “active” … Ca dépend de la menace.
Entre temps, tu arrives encore à utiliser ton ordi?
Et tu n’as pas peur en utilisant tous ces logiciels de te retrouver avec un autre spyware?
En tout cas, je n’utilise pas CCleaner. L’outil miracle qui toutes les semaines te dit qu’il te libère 600Mo… tu peux attendre 2 mois, il te libère toujours 600Mo, c’est un “fond de roulement” de fichiers temporaires, ils réapparaissent au bout du 1er jour.
Jamais eu l’impression qu’il réussisse à corriger quoique ce soit (en tout cas depuis XP, avant j’avais un nettoyeur de base de registre, mais c’était nécessaire: quand ta base de registre fait 20Mo mais que tu as 8Mo de mémoire, il faut faire quelque chose…)
Bref, je doute de l’intérêt du soft. Sans compter que ceux qui me le montrent ont parfois de fausses versions. C’est comme le débat sur la défragmentation. Les gens utilisent des softs par habitude plus que par besoin.
Ensuite, c’est vrai que j’essaie d’avoir une vie clean: je ne suis pas admin de mon poste, pas de piratage, pas de téléchargement depuis “filehippo”??? ou autre truc bien louche bourré de pubs, j’utilise essentiellement des outils dispos sous forme de fichier zip (pas d’installation qui nécessite des droits admins).
Quand j’ai besoin d’un outil dispo uniquement sur des serveurs “tiers”, j’ai un ordi martyr qui me sert à tout ce qui est louche (comme rooter une tablette ou la nettoyer des virus). Connecté sur un autre Wifi, pas de lien avec le réseau de la maison (merci FreeWifi).
En matière de sécurité, je ne vois malheureusement pas comment on peut incriminer le constructeur actuellement, du moment qu’il travaille “dans les règles de l’art”.
C’est comme pour la fameuse “obsolescence programmée”.
Nos appareils ont des fonctionnalités. Il permettent par exemple de nous conduire d’un point A à un point B, de téléphoner, d’utiliser des appareils Bluetooth à proximité…
Tant que les fonctionnalités sont présentes et fonctionnelles, difficile d’attaquer le constructeur. L’appareil n’a pas la fonctionnalité “protégé de toute attaque malveillante connue ou inconnue à ce jour”.
Par contre, un constructeur devrait “réparer” un appareil dont le fonctionnement a été altéré suite à une malveillance qui n’est pas du ressort de l’utilisateur ou contre laquelle il ne pouvait se prémunir.
Peut-on attaquer une constructeur de voiture car on peut ouvrir les portières à l’aide d’un cintre? Alors pourquoi s’en prendre au constructeur parce que l’autoradio peut être hacké par le Bluetooth?
–> Les constructeurs mettent à jour les équipement uniquement par soucis de leur image de marque, pas pour une question de légalité.
Dump : clicher : je connaissais le terme d’empreinte mémoire (comme pour un “core dump” Unix), effectivement il s’agit d’une image de ce qui était en mémoire
Je ne l’avais pas remarqué. Mais pour moi clicher c’est un snapshot. Un dump c’est un “déversement”. Y’a une notion de violence dans dump qui ne transparaît pas dans cliché.
* pas sûr que le son ça pèse tant que cela…
* “Quand on sait que ces fichiers sont souvent laissés dans des formats non compressés pour limiter les calculs côté processeur” -> QUOI? sérieux pour ce que ça coûte au processeur de décompresser? On n’a plus des P100! Et l’infra audio ne sait pas décompresser toute seule?
A part les fainéants au RSA, qui a le temps et les moyens de regarder tout ça ?
Dans la vraie vie, je veux dire ?
Je plussoie. J’ai des DVD que je crevais d’envie de regarder qui sont encore sous blister depuis 3ans, car je veux les regarder d’un seul coup sans être dérangé et dans de bonnes conditions.
Je regarde des trucs sur Amazon Prime en faisant du sport, mais je ne regarde même pas d’un œil en fait…
Pour les productions confidentielles, VideoFutur en avait un rayon quand j’étais abonné, j’aimais bien.
Le
13/09/2017 à
14h
08
J’ai utilisé la SVOD un moment (2-3 ans), videofutur ou canalplay. C’est pas mal mais c’est pas non plus la panacée.
Comme il n’y a plus de videoclub, maintenant j’ai la technique “easycash”. Entre 1 et 3€ le DVD, et une petite ristourne si t’as pas aimé et que tu le ramènes…
Et j’oubliais: avec easyCash, pas de délai de visionnage contraignant genre (tu as 2h pour regarder ce film. Au fait, il fait 2h30).
Bref, c’est instructif, j’apprends que les carte microSD peuvent causer des soucis.
Les cartes microSD sont les supports avec lesquels j’ai eu le plus de problèmes (que ce soit la faute de l’équipement ou de la carte):
* Carte mourrue subitement
* Carte mourrue lentement (le pire et c’est TRES MAL géré une carte qui meurre)
* Carte qui a des faux contacts (trop fine)
* Carte très très lente sur un équipement, pas sur l’autre
Bien sûr, c’est surtout arrivé avec des cartes “livrées” avec les appareils ou des cartes bon marché.
Les cartes chères ne m’ont pas posé de problème pour le moment, elles se font oublier.
A ce propos dans ma tablette NVidia, la carte SD a quasiment le débit de la mémoire interne. Donc oui, on peut ajouter de la mémoire à un appareil Windows ou Android sans percevoir de ralentissement.
Et même si elles ne permettent pas d’enregistrer pas en 4K, autant réserver la mémoire interne à la vidéo et la SD aux applis. Mais non, l’iPhone tu dois toujours choisir à l’achat, il n’y a pas d’option sur la mémoire. C’est dommage pour nous, tant mieux pour Apple.
De toutes façons, plus les appareils sont chers, plus ils sont fermés maintenant. Tablettes avec un seul port qui sert à l’USB et à la charge, PC avec un ou deux ports, iPhone sans prise casque… Je ne me sens plus du tout attiré par les flagships.
Le
13/09/2017 à
14h
16
KP2 a écrit :
De toute facon, pour ajouter assez de batterie pour que ca se ressente concrètement, faut quand meme mettre un peu d’epaisseur car y’a pas de magie de nos jours…
Oui, vivement que l’on puisse brancher nos téléphones sur notre corps. Si on pouvait transférer l’énergie contenues dans les sandwiches à nos téléphones sans trop de perte, ça serait bien. sauf pour les problèmes de famine dans le 1⁄3 monde. Mais bon, à ce moment, ils pourront toujours manger nos anciennes batteries Liion.
Le
13/09/2017 à
12h
16
Cacao a écrit :
Apple n’a jamais été bon marché, certes.
Là on parle d’une inflation de 60% en 4 ans, soit 15% par an. L’iPhone flagship en 2013 (le 5S) coutait 699€ à la sortie. Jusqu’où vont-ils aller ?
Jusqu’à dégoûter les gens d’acheter pour ne proposer que de la location. Plus facile à gérer que d’encaisser de grosses sommes régulièrement.
Tu feras partie du monde Apple ou tu ne seras pas.
Le
13/09/2017 à
08h
34
PsychedeChed a écrit :
Les films les plus chers sur iTunes (les nouveautés en full HD) sont à 16,99€ lors de leur sortie. Dans la pratique, au bout de même pas un mois ça tombe plutôt à 11,99 ou 9,99.
Je veux pas dire de connerie mais c’est quand même beaucoup moins cher que les blu-ray.
Oui, mais c’est pas la même chose non plus:
Lady Komandeman a écrit :
Facile, question de débit. Par exemple, les versions 1080p des séries et films vendus sur l’iTunes Store sont affreuses, car le débit plafonne autour de 5000 kbps contre 4000 pour la 720p.
Et là, on parle de débit de 5Mb/s, soit une saturation totale de ma ligne internet (et je ne suis pas à plaindre dans mon coin).
Le débit d’un bluray, c’est 36MB/s. Le débit du DVD, c’est 10Mb/s (de mémoire) et la TNT HD, c’est aux alentour de 7Mb/s.
C’est pour cela que certains “bons” DVD ont une image moins brouillone que la VOD.
On peut compresser autant qu’on veut, que ce soit en MPEG2 ou MPEG4, quand ça bouge, il faut du débit. quand on compresse pour la taille, on gagne surtout sur les scènes fixes. Pour les scènes en mouvement, on dégrade notablement si on fixe le débit.
Le
13/09/2017 à
08h
23
neointhematrix a écrit :
Oh oui, je vais vite claquer un mois de salaire dans ce petit bijou de la technologie !
Chacun ses centres d’intérêts. C’est clair que 1000€, c’est pour moi 12ans de budget téléphone (et encore, si je regarde sur les 12 dernières années, … 1000€ c’est plutôt 30ans de mon budget téléphone)
Mais ne critiquons pas, je suis capable de mettre le double ou triple dans de la hifi. Mais bon, tous les 12ans aussi.
Pour le reste, je pars en vacances, et de là bas, j’envoie des messages aux copains qui ont du matos Apple ou Samsung pour les aider à les rentabiliser" />
J’imagine que ce ralentissement très sensible ne se produit qu’après des semaines d’activité, au moins. Ton cas a l’air un peu “violent” quand même. C’est même difficile à comprendre, étant donné que les exécutables de Windows (ou des applications qui se lancent au démarrage) ne bougent pas au cours du temps, en tous cas n’ont aucune raison de fragmenter.
C’est après plusieurs mois (années…) -> oui c’est extrême.
Fait un test avec contig: les mises à jour Windows fragmentent c:\windows et c:\windows\system32. Le problème de Windows n’est pas NTFS, mais le défragmenteur Windows qui ne laisse jamais de place à la fin de c:\windows et c:\windows\system32 (entre autre). Tout est contigu, donc le moindre nouveau fichier se retrouve à la fin du disque.
Une fois que tu as commencé à défragmenter, tu ne peux plus t’en passer, non pas parce que tu es accro, mais parce que le défragmenteur à tout tassé -> le moindre fichier/répertoire sera fragmenté.
C’est surtout un problème quand on modifie des gros fichiers, quand on a des répertoires compressés (la compression est championne de la fragmentation) ou quand on recompile de gros programmes. Mais c’est d’habitude peu visible sur les perfs, notamment avec de gros disques qui ne sont pas pleins ou des raids, et c’est sans conséquence sur un SSD.
Les 800000 fichiers, malheureusement, ils n’étaient pas sur un belle baie, mais un vieux truc donc le cache était très limité, et la batterie défaillante.
Le
12/09/2017 à
08h
16
OlivierJ a écrit :
Je ne comprends toujours pas cette obsession pour la fragmentation des Windowsien. On n’est plus en FAT les gars, mais en NTFS, qui est mieux conçu et n’a plus besoin de défragmentation (à supposer que c’était toujours très utile en FAT, c’était surtout pour faire joli quand le mec du service info débarquait sur ton PC).
C’est toujours utile.
Si je désactive mon cache SSD, je me retrouve sur un disque dur totalement fragmenté (Windows de défragmente plus un disque dur s’il est derrière un cache SSD).
Au premier démarrage, je peux prendre plus d’une minute pour démarrer, et TOUT rame. Je défragmente, tout devient plus “souple” le démarrage prend 30-40s, et le bruit du disque est bien moins désagréable.
Par ailleurs, sur un répertoire de 800000 fichiers, sans défragmentation c’est 3minutes pour lister les fichiers. Après défragmentation de la MFT (vive contig.exe), 15s.
Maintenant soyons clairs: NTFS fragmente, tout comme ext2, ext3, ext4, …
Sur un serveur, que ce soit du Windows ou du Linux, il y a souvent peu de changements sur la structure du disque –> peu de fragmentation.
Sur un PC de particulier, beaucoup de fichier sont créés, supprimés, agrandis, … La fragmentation arrive.
Faites le test sur un Linux:
* déposez 10000 fichiers images, rebootez.
*Testez les perfs de lecture des fichiers images. Créez des répertoires, compilez un peu, utilisez l’ordi, relevez les mails, allez sur Youtube, facebook pour remplir le cache internet, puis changez les méta données des 10000 fichiers image (ajoutez un mot-clé).
* Rebootez. Testez les perfs de lecture des fichiers images et voyez si elles n’ont pas changé.
–> je doute que rien n’ai changé (même si ce n’est pas énorme, si c’est reproductible ça existe) (PS: sous Windows ce n’est pas énorme non plus)
Bref, je ne vois pas pourquoi on casse du sucre sur NTFS qui a son âge et ses défauts, mais qui a aussi des avantages comme la compression depuis des années, les snapshots depuis des années, les flux de métadonnées depuis des années, la défragmentation en ligne alors que ext4 ne semble pas l’avoir, le fsck partiel en ligne aussi, et la possibilité de limiter la défragmentation (certains outils permettent de réserver de l’espace libre à la suite d’un répertoire pour qu’il ne se fragmente pas lors de l’ajout de fichiers)
Quand à la fiabilité, je n’ai jamais eu de problème avec NTFS, ext2 ou UFS (alors que j’ai perdu des données il y a longtemps avec Reiser)
Le
11/09/2017 à
09h
26
gomi a écrit :
Moi je fais un snapshot VSS tous les soirs.
vshadow -p -scsf e:
" />
Sans vshadow, j’utilise PowerShell depuis … longtemps …
Pour enfoncer le clou: les snapshots sont dispos sous Windows depuis XP. Simplement, pour pourvoir les utiliser confortablement, il faut séparer le stockage des données utilisateur du système. Et c’est facile “seulement” depuis Vista avec la réduction de la partition depuis le système.
Le
11/09/2017 à
09h
19
TheKillerOfComputer a écrit :
Je coince lors de la copie par clonage. Je vois l’intéret mais ça me fait franchement peur. Admettons que je fasse un clone B et qu’après je change le fichier A, est-ce que B qui est donc un clone partiel en souffre ?
Non. Dès que tu vas modifier A, A sera réenregistré ailleurs. Le risque, c’est si tu as un secteur (une cellule) défectueuse et que tu perds les infos de A, tu perds aussi les infos des clones.
Le problème par contre, c’est le comptage d’espace disque libre. Ca peut être confus pour un utilisateur lambda si c’est mal fait.
Le
08/09/2017 à
07h
45
Bon, après, je m’aperçois que peu de gens semblent connaître VSS sous Windows.
Ce VSS sert surtout à figer le système de fichier pendant des copies pour éviter de faire des copies “partiellement correctes” de fichiers en cours d’écriture. C’est notamment utilisé pour les sauvegarde sur d’autres supports.
Mais c’est aussi utilisable en interne (clichés instantanés)
Vous pouvez prendre des snapshots “volume” (si vous avez un disque dur pour les données et un SSD pour le système, c’est parfait). On peut le déclencher tout les X temps. Vous avez alors un historique qui coûte peu de place (copy on write).
Le
07/09/2017 à
13h
01
AxelTerizaki a écrit :
Et on sait où ça en est la relève de NTFS chez Microsoft? Je crois que ça s’appelle WinFS…
Il existe ReFS, pour l’instant plus pour les entreprises.
Les contrôles parentaux peuvent être déjoués par les gamins, du moins en ce qui concerne les listes de sites autorisés et les listes de sites interdits. Ils leur suffit de rentrer les bons mots-clés pour passer outre les contrôles parentaux.
J’estime qu’à un certain âge, les contrôles parentaux ne sont plus nécessaires. Je situe cet âge au alentour de 13 ans. Je pense qu’il arrive un moment où le dialogue entre les parents et leurs enfants doit suppléer les contrôles parentaux. A partir de 13 ans, un enfant est en âge de comprendre les explications de ses parents. Encore faut-il que ces derniers sachent dialoguer avec leurs rejetons et là, c’est une autre affaire.
1-> D’où la nécessité du proxy (plus firewall et DNS local)
2-> A 13 ans, un enfant est en âge de comprendre les explications… disons qu’il les comprend mieux, et qu’il ressemble de plus en plus à un adulte. Et sans contrôle, les adultes c’est pas mieux que les enfants.
Par ailleurs, même si ton enfant a un comportement “sain” sur un ordi d’habitude, c’est pas plus mal de continuer à filtrer les sites ultra violents, les pornos, le streaming et les sites que s’il les consulte juste par curiosité, c’est toi qui finit en prison.
En fait, je suis moi-même derrière le proxy/firewall pour vérifier le “contrôle parental”. Il faut dire qu’il bloque les pubs.
Petite anecdote: si tu bloques l’âge à 7+ sur une tablette Android, que tu installes un jeu type “Tom le chat”, les pubs que reçois le gamin ne sont pas filtrées: images de jeux pour 16+ en journée, filles dévêtues à partir de 23h. D’où le filtrage des pubs au niveau du proxy - tout en ne bloquant pas le jeu(et là, il faut suivre car ça se modifie régulièrement)
Le
11/09/2017 à
12h
18
cyril8 a écrit :
Par exemple un bébé qui sait utiliser le tactile d’une tablette ne sera pas plus à l’aise qu’un autre pour faire du dévelo.
Et ne parlons pas de comprendre pourquoi le Wifi “ne fonctionne pas”, ou de comprendre la différence entre mode Wifi et 4G. Ou de réaliser que sans connexion internet les jeux ne marchent pas sur le téléphone. Ni même pour certains d’admettre qu’internet n’est pas disponible partout.
Le
11/09/2017 à
12h
15
skankhunt42 a écrit :
Je part du principe que le gamin doit toujours être au lit avant les parents et qu’au maximum la porte de la chambre doit être ouverte, ça permet de surveiller un minimum le gamin.
Je pars du principe qu’il ne doit pas y avoir d’écran dans une chambre. Le téléphone c’est sur la tablette de l’entrée la nuit et les ordis dans le placard. Ils n’ont droit à leur écran “à soi tout seul” que quand on trouve qu’ils ont mûri. Et avant, on leur souligne bien tout comportement inapproprié qui montre qu’ils sont accros.
N’empêche que comme on n’est pas toujours là, le contrôle parental est activé.
Le
11/09/2017 à
09h
30
D’expérience, le temps d’activité devant écran (Windows) est OK, mais le temps passé par appli est faux.
Pour le filtrage, je passe par un proxy qui couvre aussi le Wifi des téléphones et tablettes.
Remarque: on peut aussi mettre un contrôle parental sur les compte locaux de l’ordinateur, du moment que vous vous être connecté en tant qu’admin sur l’ordi et qu’il fait partie de vos périphériques.
Mais aucune idée de comment il faut créer ces comptes, ils étaient là avant Windows 10…
Avant qu’une majorité du parc, y compris les machines portables qui plafonnent à 4 coeurs, arrive à 6 coeurs, on a le temps. Et puis bon, ça n’aura d’intérêt que dans les tâches lourdes et multithreadées, qui ne représentent pas forcément le gros des utilisation d’une machine pour la plupart des utilisateurs.
Je crains surtout une débauche de “fonctionnalités” sur le web (pub plus interactives, mise en forme plus complexe).
C’est surtout le web sur lequel on voit que les ordis un peu vieux rament.
Le
08/09/2017 à
10h
02
Ca y est mon I5 3570K a des perfs d’entrée de gamme?
C’est un vrai coup que porte AMD à Intel, forcé à monter toutes ses gammes en nombre de cœurs.
Je me demande si cela ne va pas du même coup créer une fracture entre les anciennes machines et les nouvelles.
On pouvait toujours utiliser couramment une Core 2 Duo sans trop de problème (à part les sites internet bourrés de pub). Mais c’était surtout parce que les dev qui testent sur leurs portables avaient 2 “vrais cœurs” et les dev bureau 4 vrais cœurs. Si maintenant ils ont 4 et 6⁄8 respectivement, le gap avec les machines des utilisateurs sera plus sensible, et les logiciels vont commencer à méchamment ramer.
Je passe en entreprise sur ceux qui font des fichiers Excel qui se mettent à jour en 30s sur un 8 cœurs -> au mieux 2 min sur un 2 cœurs. Ce qui est la différence entre “c’est lent mais bon” et “ça marche pas et j’ai déjà passé 4 coups de fils à la hotline et à mon chef pour me plaindre”.
Bref, de nouveau une évolution notable en termes de performance des ordinateurs? Une petite relance du marché?
Le MP3 est lu partout, donc MP3. Si la différence de qualité est négligeable et que le gain de place est faible (mais existe), et qu’il est en faveur du format le plus répandu, pourquoi s’en priver. Et encore, c’est en admettant que le mp3 de bonne qualité soit effectivement aussi gros que le fichier encodé sans pertes.
Le MP3 haute qualité est plus petit, mais pas beaucoup vu le prix du stockage.
Ce qu’il faudrait, c’est avoir le MP3 haute qualité et A COTE la différence entre le signal d’origine et le rendu du MP3 (si on peut garantir le même rendu partout) pour obtenir un lossless. De totues façon, certains formats lossless font plus ou moins cela (compression avec perte, détection des écarts et compression lossless des écarts).
Le
04/09/2017 à
19h
16
Grebz a écrit :
Parce que personne n’est capable de faire la différence entre un mp3 (bien encodé à la qualité maximum, bien entendu)
Du coup la différence de taille entre un FLAC et un MP3 “haute qualité” ne vaut plus de risquer de perdre en qualité.
Je suis assez dubitatif sur la valeur ajoutée de ce genre de trucs par rapport à une mini interro en début de cours pour le QCM, et l’exo au tableau pour la tablette à chaque élève
Disons que c’est moins formel que l’interro qui fait trembler, et ça permet de repérer les élèves qui ont décroché et qui n’oseront jamais le dire. C’est aussi infiniment plus rapide puisque le smartphone affiche quasi instantanément les résultats. Corriger une interro, ça prend du temps!
Ca permet aussi au prof de voir s’il n’a vraiment pas été clair.
Le
30/08/2017 à
11h
53
tpeg5stan a écrit :
Le problème c’est la formation.
J’ai vu « en vrai » les profs qui ont fait 30 ans de tableau vert et craie blanche devoir perdre 10 minutes à chaque début de cours pour charger les supports, ne pas savoir lancer une vidéo correctement, passer plus d’attention sur le tableau blanc interactif qu’à voir si les élèves ont compris…
Oui, car il existe des outils très bien faits visiblement. Le TBI peut être parfaitement exploité. Le smartphone aussi (avec des espèces de plaques individuelles qui permettent de poser une QCM à 4 choix à toute la classe, les élèves lève leur plaque et immédiatement l’instit/le prof sait combien ont répondu, combien juste, qui a faux …) –> permet d’interroger TOUTE la classe et de faire un bilan de compréhension de CHAQUE élève (c’est pas magique non plus, c’est que des QCM…)
Au collège, ils ont des tablettes identiques dont la gestion est centralisée dans une malette qui contient un serveur+borne Wifi. Le prof prépare sa session à la maison, et au collège il distribue les tablette et les allume, elle reçoivent les exercices et support de la session. Mais ça reste limité par le réseau.
Le
30/08/2017 à
11h
35
AltreX a écrit :
Dans l’idéal du tout numérique je verrais plus du full cloud avec session perso par élève
Ca serait beau. Mais là déjà le lien réseau ne tient plus.
Pour rappel, l’ADSL c’est beau quand tu as 1Mb/s en upload.
Si tu as 100 élèves, ça fait 10kb/s en upload soit 1ko/s. d’upload.
-> engorgement des requêtes sortantes.
Et j’ai même pas besoin de voir les requêtes entrantes.
J’ajoute que beaucoup de bornes wifi ont encore une limite à 30 périphériques connectés simultanés visiblement. Donc il faut plus d’une borne par classe.
3758 commentaires
Coffee Lake : Intel nous confirme la faible disponibilité, AMD baisse ses prix
06/10/2017
Le 09/10/2017 à 09h 32
Le 06/10/2017 à 10h 56
Les tests des CPU intel sont concluants, ça donnerait presque envie de changer. Mais ma config n’a pas encore 6 ans…
Le gouvernement prévoit un « épisode 2 » pour le plan numérique à l’école
05/10/2017
Le 05/10/2017 à 17h 00
Contre le téléphone au volant, un sénateur plaide pour des brouilleurs d’ondes
02/10/2017
Le 02/10/2017 à 14h 53
Le 02/10/2017 à 14h 51
Et puis des radars pour les piétons aussi, si on ne voit pas lever leurs yeux avant et pendant qu’ils traversent, c’est une amende.
Le 02/10/2017 à 14h 49
Firefox 57 Quantum : la bêta disponible, un profond remaniement interne
27/09/2017
Le 27/09/2017 à 20h 07
Moi c’est simple, je n’ai pas pu ouvrir NXI derrière un pare-feu avec la 57. Tous les autres navigateurs (y compris FF 55 qui est mon principal) peuvent.
Pour ce qui est des perfs et de la mémoire, j’ai constaté un truc:
- pour les perfs, OK c’est mieux en général. Mais ça reste moins réactif que Edge je trouve, notamment sur vieilles bécanes (I5-2467m et C2D). A voir sous Linux où sur vieille bécane FF était déjà plus agréable que Chrome (en tout cas dès qu’on charge un peu la mule)
- pour la RAM… Quand il est tranquille, il ne consomme pas, mais pendant les chargements, d’autres process Firefox de 100-200Mo sont spawnés avant de disparaître. Quand la RAM est bien chargée, ces processus achèvent la machine qui se met à ramer le temps de chargement de la page, qui devient nettement plus long…
Ne dites plus « darknet » mais « l’Internet clandestin », « dark web » mais « toile profonde »
26/09/2017
Le 26/09/2017 à 14h 06
Ne dites plus “Rage quit” mais “Je bois pour oublier que je perds”
Ne dites plus “Windows” mais “Ecranbleu”
Ne dites plus “Apple” mais “Pompafric”
Ne dites plus “Android” mais “Hémorroïde”
Ne dites pas “Oracle” mais “Odesespoir”
Ne dites plus “NextInpact” mais “Prochaine cible”
(la premier, il faut le lire “rage cuite” pour ceux qui n’ont pas compris)
Wi-Fi : tout ce qu’il faut savoir des différentes normes et technologies
22/09/2017
Le 25/09/2017 à 14h 57
Je vois que beaucoup sont contents de leur Wifi. Perso j’ai tout bloqué en 802.11g car en 802.11n ou ac, j’ai toujours des problèmes: ralentissements, déconnexions, appareils qui n’accrochent pas. J’ai deux émetteurs: une freeboxmini et un NUC (carte Intel 7240). Par exemple sur la Freebox mini, si j’active les canaux 40MHz, j’ai énormément de perturbations.
Pour le moment ça ne me dérange pas, le Wifi est bien plus rapide que ma connexion internet, mais ça doit changer dans 2 mois…
Il y a d’autres personnes qui trouvent qu’en environnement avec de multiples appareils, le wifi est difficile à maintenir up&running 24⁄24? Surtout que je ne capte que très faiblement mon unique voisin…
La réforme du télétravail entre en vigueur : ce qui va changer
25/09/2017
Le 25/09/2017 à 12h 45
J’ai quand même dans l’idée que le télétravail depuis la maison n’est pas forcément la meilleure formule. Par contre, des centres de télétravail bien équipés avec une personne qui le gère est peut-être un bon compromis.
Les plus:
* la personne est dans un établissement plus proche de son domicile
* tiers qui peut attester des horaires
* meilleures possibilités d’équipement (notamment réseau)
Les moins:
* c’est pas sur le lieu du domicile
En bref, mon idée du télétravail, c’est des locaux plus petits, très proches du domicile et bien desservis (exemple: mairie ou locaux communaux, ancien petit magasin désaffecté, ancienne usine désaffectée), avec la fibre (parce que le télétravail par ADSL, c’est bien limité), des possibilités de contrôles et d’installation par des interlocuteurs un peu formés, … Afin de créer des pôles d’emplois viable avec un minimum d’investissement en zone rurale.
Quand on voit des bâtiments désaffectés, avec parking 40 places, plantés entre 2 NRA reliés par une fibre, entourés de villages avec des maison à vendre à moins de 80000€ pour 4 chambres, on se dit (depuis quelques années) que le télétravail permettrait de redynamiser un peu la zone.
.NET Core 2.0 : vague de fond sur le développement multiplateforme chez Microsoft
22/09/2017
Le 25/09/2017 à 08h 27
Le 25/09/2017 à 07h 59
Le 22/09/2017 à 14h 49
Le 22/09/2017 à 09h 06
Très classe mais quel retard! C’est un peu ce qu’on pensait voir arriver à la sortie de Windows 10 ou peu après.
Testé sur trois petits projets (mais sous Windows seulement):
* ciblage en Core.Net plutôt simple (bon, j’ai recréé les projets et la solution et copié les fichiers sources)
* performance au moins identique à .Net 4.5 (souvent visiblement mieux sans besoin de bencher)
* idem pour la mémoire: ça monte moins vite et moins haut
Par ailleurs, le serveur web intégré est très léger
–> On voit bien que la cible des environnements type “docker” a été très travaillée.
Qarnot utilise des Ryzen 7 Pro pour son « radiateur intelligent » Q.rad et nous explique pourquoi
21/09/2017
Le 22/09/2017 à 09h 21
La première plainte pour obsolescence programmée vise les fabricants d’imprimantes
18/09/2017
Le 20/09/2017 à 12h 23
Le 19/09/2017 à 20h 19
Le 19/09/2017 à 20h 04
Le 19/09/2017 à 14h 56
Le 19/09/2017 à 07h 01
Le 18/09/2017 à 21h 32
L’outil CCleaner a distribué un malware pendant un mois
18/09/2017
Le 19/09/2017 à 20h 08
Le 19/09/2017 à 06h 50
BlueBorne : huit failles critiques dans le Bluetooth, des correctifs déjà déployés
14/09/2017
Le 15/09/2017 à 14h 20
En matière de sécurité, je ne vois malheureusement pas comment on peut incriminer le constructeur actuellement, du moment qu’il travaille “dans les règles de l’art”.
C’est comme pour la fameuse “obsolescence programmée”.
Nos appareils ont des fonctionnalités. Il permettent par exemple de nous conduire d’un point A à un point B, de téléphoner, d’utiliser des appareils Bluetooth à proximité…
Tant que les fonctionnalités sont présentes et fonctionnelles, difficile d’attaquer le constructeur. L’appareil n’a pas la fonctionnalité “protégé de toute attaque malveillante connue ou inconnue à ce jour”.
Par contre, un constructeur devrait “réparer” un appareil dont le fonctionnement a été altéré suite à une malveillance qui n’est pas du ressort de l’utilisateur ou contre laquelle il ne pouvait se prémunir.
Peut-on attaquer une constructeur de voiture car on peut ouvrir les portières à l’aide d’un cintre? Alors pourquoi s’en prendre au constructeur parce que l’autoradio peut être hacké par le Bluetooth?
–> Les constructeurs mettent à jour les équipement uniquement par soucis de leur image de marque, pas pour une question de légalité.
–> Ca va finir par poser de gros problèmes.
850 termes officiellement francisés dans le secteur des nouvelles technologies
15/09/2017
Le 15/09/2017 à 12h 04
Avec Intelligent Delivery, Microsoft veut réduire l’espace occupé par les jeux Xbox
15/09/2017
Le 15/09/2017 à 10h 05
Deux choses:
* pas sûr que le son ça pèse tant que cela…
* “Quand on sait que ces fichiers sont souvent laissés dans des formats non compressés pour limiter les calculs côté processeur” -> QUOI? sérieux pour ce que ça coûte au processeur de décompresser? On n’a plus des P100! Et l’infra audio ne sait pas décompresser toute seule?
La Hadopi veut que les sites de e-commerce chassent les box Kodi trop dédiées au piratage
13/09/2017
Le 14/09/2017 à 09h 49
Le 13/09/2017 à 14h 08
J’ai utilisé la SVOD un moment (2-3 ans), videofutur ou canalplay. C’est pas mal mais c’est pas non plus la panacée.
Comme il n’y a plus de videoclub, maintenant j’ai la technique “easycash”. Entre 1 et 3€ le DVD, et une petite ristourne si t’as pas aimé et que tu le ramènes…
Et j’oubliais: avec easyCash, pas de délai de visionnage contraignant genre (tu as 2h pour regarder ce film. Au fait, il fait 2h30).
L’iPhone X avec Face ID à 1 159 euros, l’Apple TV passe à la 4K, les iPhone et Watch mis à jour
12/09/2017
Le 14/09/2017 à 07h 04
Le 13/09/2017 à 14h 16
Le 13/09/2017 à 12h 16
Le 13/09/2017 à 08h 34
Le 13/09/2017 à 08h 23
APFS : plongée dans le nouveau système de fichiers d’Apple
07/09/2017
Le 12/09/2017 à 10h 14
Le 12/09/2017 à 08h 16
Le 11/09/2017 à 09h 26
Le 11/09/2017 à 09h 19
Le 08/09/2017 à 07h 45
Bon, après, je m’aperçois que peu de gens semblent connaître VSS sous Windows.
Ce VSS sert surtout à figer le système de fichier pendant des copies pour éviter de faire des copies “partiellement correctes” de fichiers en cours d’écriture. C’est notamment utilisé pour les sauvegarde sur d’autres supports.
Mais c’est aussi utilisable en interne (clichés instantanés)
Vous pouvez prendre des snapshots “volume” (si vous avez un disque dur pour les données et un SSD pour le système, c’est parfait). On peut le déclencher tout les X temps. Vous avez alors un historique qui coûte peu de place (copy on write).
Le 07/09/2017 à 13h 01
Contrôle parental de Windows 10 : comment le configurer et l’utiliser
11/09/2017
Le 12/09/2017 à 06h 58
Le 11/09/2017 à 12h 18
Le 11/09/2017 à 12h 15
Le 11/09/2017 à 09h 30
D’expérience, le temps d’activité devant écran (Windows) est OK, mais le temps passé par appli est faux.
Pour le filtrage, je passe par un proxy qui couvre aussi le Wifi des téléphones et tablettes.
Remarque: on peut aussi mettre un contrôle parental sur les compte locaux de l’ordinateur, du moment que vous vous être connecté en tant qu’admin sur l’ordi et qu’il fait partie de vos périphériques.
Mais aucune idée de comment il faut créer ces comptes, ils étaient là avant Windows 10…
Que valent les Ryzen 3 d’AMD face aux Pentium et Core i3/i5 d’Intel ?
07/09/2017
Le 08/09/2017 à 13h 52
Le 08/09/2017 à 10h 02
Ca y est mon I5 3570K a des perfs d’entrée de gamme?
C’est un vrai coup que porte AMD à Intel, forcé à monter toutes ses gammes en nombre de cœurs.
Je me demande si cela ne va pas du même coup créer une fracture entre les anciennes machines et les nouvelles.
On pouvait toujours utiliser couramment une Core 2 Duo sans trop de problème (à part les sites internet bourrés de pub). Mais c’était surtout parce que les dev qui testent sur leurs portables avaient 2 “vrais cœurs” et les dev bureau 4 vrais cœurs. Si maintenant ils ont 4 et 6⁄8 respectivement, le gap avec les machines des utilisateurs sera plus sensible, et les logiciels vont commencer à méchamment ramer.
Je passe en entreprise sur ceux qui font des fichiers Excel qui se mettent à jour en 30s sur un 8 cœurs -> au mieux 2 min sur un 2 cœurs. Ce qui est la différence entre “c’est lent mais bon” et “ça marche pas et j’ai déjà passé 4 coups de fils à la hotline et à mon chef pour me plaindre”.
Bref, de nouveau une évolution notable en termes de performance des ordinateurs? Une petite relance du marché?
Les majors du disque en passe d’obtenir la fermeture du convertisseur YouTube-MP3
04/09/2017
Le 05/09/2017 à 06h 32
Le 04/09/2017 à 19h 16
Le plan pour le numérique à l’école va-t-il finir au placard ?
30/08/2017
Le 30/08/2017 à 14h 27
Le 30/08/2017 à 11h 53
Le 30/08/2017 à 11h 35