votre avatar Abonné

Wosgien

est avec nous depuis le 18 mars 2003 ❤️

3763 commentaires

Le 17/06/2020 à 11h 57







Patch a écrit :



Je pense que tu n’as pas compris la connerie de TF <img data-src=" />



Là, désolé, mais c’est la lose.

Tu vas pas être dans leurs petits papiers.

&nbsp;



transit facilité a écrit :









piwi82 a écrit :



<img data-src=" /><img data-src=" />


Le 16/06/2020 à 13h 23







bad10 a écrit :



ça tombe bien c’est pas un pc mais une console

et un zen 2 8 cores à 3.5GHz, 16Go de ram (partagés certe) et l’équivalent d’une 5700 XT pour 500€ max, on est loin de l’esclafade



Je parlais de l’archi d’avant (les bobcat de chez AMD). Les nouvelles sur consoles sur Zen, je pense que c’est la 1ère fois depuis longtemps que des consoles vont sortir avec une archi à la fois puissante ET maîtrisée dès le début.



bad10 a écrit :



justement si, c’est ce qui est proposé ici pour MS (Sony n’a pas (encore?) fait d’annonce la dessus, autre que la rétrocompatibilité qui est un autre sujet)



Je précise ma phrase: je disais qu’ils ne vont pas transférer les licences existantes, seulement les nouveaux achats.

Avant, quand j’achetais mon gameboy advance, tous mes jeux GP fonctionnaient day one y compris ceux achetés des années avant.

Là, les nouveaux achats seront dispo sur la nouvelle console, mais pas les anciens de ce que je comprends. Donc si tu revends ton ancienne console il te manquera des jeux.



bad10 a écrit :



&nbsp;la seule console (de salon) sony sans la rétro c’est la ps4 (PS2 rétro PS1, et PS3 (uniquement la fat par contre) rétrop PS2+PS1))&nbsp;



&nbsp;Oui, aussi, ça m’avait échappé. La PS2 avait une liste de jeux compatibles car archi très différente. Mais pour la PS3 c’est comme ici ça ressemble plus à du portage que de la rétro compatibilité. ET au départ ça concernait peu de jeux, je ne sais pas si ça a grossi beaucoup après.


Le 16/06/2020 à 11h 55







jpaul a écrit :



C’est bien franchement. Nintendo devrait en prendre de la graine un peu



Ben chez Nintendo dès qu’ils ont pu le faire ils l’ont fait:





  • Compatibilité des jeux GB -&gt; GBC -&gt; GBA

  • Compatibilité Nintendo DS -&gt; DSi -&gt; 3DS

  • Gamecube -&gt; Wii&nbsp;



    Donc quand l’architecture est la même ou proche, c’est proposé. SONY a changé de CPU/GPU à chaque fois, donc c’était impossible. De même pour Ms, qui a commencé en x86 pour passer en powerpc avant de revenir en x86.

    &nbsp;

    Aujourd’hui Ms et SONY partent d’une archi (anémique - on m’aurait proposé ça en PC de jeu j’aurais ri) à son successeur direct (et là en version musclée) dans la même marque (AMD), donc c’est la première fois qu’ils peuvent annoncer une telle compatibilité en masse. Mais j’imagine qu’ils ne vont pas proposer de suite un transfert sur les nouvelles consoles des anciennes licence à 0€ pour ne pas contrarier les éditeurs.



    Si par contre dans 5 ans on parle de consoles en ARM/NVidia, il faudra oublier.



    &nbsp;Pour Nintendo, on ne sait pas où ils vont aller mais je pense qu’ils vont rester en ARM s’il refont une console, mais pas sûr qu’ils restent en NVidia vu que AMD pointe son nez et que Adreno s’en tire bien. De plus en empêchant NVidia de créer son marché en vendant des tablettes, NVidia n’a plus de produit de démo technologique mobile comme il avait avec la shield tablette.


Le 12/06/2020 à 13h 03







stratic a écrit :



C’est d’ailleurs tellement facile à vérifier que personne ne s’y risquerait…



Bon, c’est vieux:&nbsphttps://blog.sucuri.net/2014/04/joomla-plugin-constructor-backdoor.html

https://www.zdnet.com/article/open-source-proftpd-hacked-backdoor-planted-in-source-code/&nbsp;Bien sûr, rien ne prouve que celle-ci soit volontaire, mais j’ai pas mal tické dessus:

&nbsp;https://www.qualys.com/2020/01/28/cve-2020-7247/lpe-rce-opensmtpd.txt?_ga=2.17815610.2036283185.1591966859-1210278302.1591966859


Le 12/06/2020 à 08h 25







MilesTEG1 a écrit :



Tu parles d’office pour le web là. (idem aussi sur les applis iOS et je suppose Android).

Parce que sinon, tu dis n’importe quoi, Office 365 ce sont les applications ordinateurs, et là tu as bien les macros, le publipostage, etc…



Mais Ms confronte Office365 et google docs par exemple. En mélangeant allègrement les possibilités client et online sans le dire.

De plus, il est compliqué de partager un fichier quand on mélange les différentes licences (online + client lourd, online only) puisqu’il faut faire attention aux fonctionnalités utilisées.

&nbsp;

En ajoutant l’absence TOTALE de support efficace en cas de bug: en général, la réponse est “mettez à jour votre Windows 10 à la dernière version” “utilisez un autre navigateur” “désactivez l’antivirus”, ce que tu ne peux pas faire en entreprise et qui n’a en plus souvent aucun rapport avec le bug.

&nbsp;

On peut aussi évoquer les fonctionnalités qui sautent en fonction des mises à jour Windows et des versions de navigateur (comme ouvrir directement un fichier en client lourd depuis le navigateur qui ne fonctionne correctement qu’avec IE ou l’ancien EDGE, le nouveau ayant tendance à ouvrir le fichier comme chrome)



Il y a énormément de déception/mécontentement légitime par rapport à ce que présente Ms. Et qui rend de mon point de vue totalement envisageable les alternatives. plus simple.


Le 11/06/2020 à 12h 46

Pour ceux qui rétorquent que les suites office alternatives ne sont pas compatibles avec les macros et les fonctionnalités avancées de Ms Office, sachez que Office 365 ne l’est pas non plus. Sous 365, on s’assied sur:





  • les macros

  • le publipostage

  • les grands tableaux croisés dynamiques

  • les mises à jour/recalcul instatanés

  • la mise en page Wysiwig sous Word

  • …. et plein d’autres bonnes surprises :-)



Le 11/06/2020 à 08h 15







zempa a écrit :



Et dans le cas de Flatpak,&nbsp; la notion de runtimes permet de partager des bibliothèques. On se retrouve alors dans la même problématique avec des retards & bogues ?&nbsp;



&nbsp;Je n’ai pas de notion de flatpack, ou même de comment Linux gère les libs (pas eu à y toucher depuis … quelque part avant 2010…)

Par contre sous PC-BSD avec les PBI, je peux dire comment on pouvait s’y retrouver:



Imaginons 2 softs A et B, dépendants de la lib LIB1.0 sous le nom “LIB”. On se retrouve à l’install avec 2 répertoires:





  • /lib: contient LIB1.0

  • A: contient un lien vers LIB -&gt; /lib/LIB1.0

  • B: contient un lien vers LIB -&gt; /lib/LIB1.0



    Lors d’un mise à jour, B pointe vers la version LIB1.1:



  • /lib: contient LIB1.0 et LIB1.1

  • A: contient un lien vers LIB -&gt; /lib/LIB1.0

  • B: contient un lien vers LIB -&gt; /lib/LIB1.1



    &nbsp;Un peu comme si sous Windows toutes les DLL étaient partagées si même version et dupliquées sinon.



    A l’époque j’avais fait un script pour faire cela avec les 1ère versions, car quand on a 128Mo de RAM, on fait en sorte que les librairies soient lues une seule fois et partagées dès qu’on peut…


Le 10/06/2020 à 11h 40

PC-BSD à son époque avait aussi le même type d’approche avec les fichiers PBI.

Le 10/06/2020 à 08h 04







yl a écrit :



&nbsp;Le PPC n’a jamais manqué de division.



Effectivement, c’est plutôt ARM. Le PPC, c’était le passage de la virgule flottante aux entiers et inversement qui passait mal (un article de Carmack à l’époque), je pense que c’était entre PPC et Altivec fasse à x86/FPU et surtout x86/SSE



&nbsp;





yl a écrit :



Les Atom premiers du nom consommaient peu mais archi in-order renvoyant 15 ans en arrière à leur sortie et mal compensée par l’HT, les netbooks ont (hélas, ca a tué ces petites machines au format bien pratique) été vite dépassés car le moindre débilophone sous ARM était plus réactif.&nbsp;



&nbsp;Les avis divergent. Et ayant encore des atom sous la main (N230/N270/z8300), le problème de l’atom c’est surtout le multitâches: cache limité et threads limités. Il rattrape la plupart des cartes ARM grâce à la vitesse de traitement et la vitesse de la RAM.



&nbsp;&nbsp;



yl a écrit :



&nbsp;Sur PPC, passer de 32 à 64 bits, à part la taille des registres rien n’a changé. Et vu qu’on était dès le départ à 1 instruction/cycle en moyenne on se foutait d’avoir des instructions de boucle et autres: Du simple et efficace, se lisant facilement même compilé (taille instruction fixe).&nbsp;



&nbsp;Le PPC est clairement un design propre. Mais les compilos ont traîné à optimiser pour éviter les “décrochages” sur PPC - il avait de l’out-of-order, de la prédiction de branche et a essuyé les plâtres côté grand public dans ce domaine.

Sur PC, fin 90 il y avait ce fameux WatcomC qui compilait en optimisant très fortement (et en créant des bugs) mais qui arrivait à presser le code comme un citron pour extraire la dernière goutte de perf (et donc en sortant bien salement les noyaux en même temps :( ).



&nbsp;

Donc pour la lecture facile du code compilé, justement ce n’était pas ce qu’on mettait en avant pour le PPC, les compilos ajoutant plein de trucs et mélangeant les instructions. D’ailleurs, le PPC était plutôt présenté comme le CPU de haut niveau, celui où on ne touche pas à l’assembleur.

&nbsp;

Maintenant on s’en fiche, de toutes façon il faut faire du code qui plaise à l’étage de branchement prédictif quelque soit le CPU (pour les courageux qui râlent sur les optimisations: lire le chapitre 4 pour appréhender ce qu’un CPU moderne pose comme problème - et là sans considération du multitâche:&nbsp;https://cr.yp.to/2005-590/powerpc-cwg.pdf). Quelque soit le CPU actuel, faire ça à la main sur de grands segments de code, c’est du délire.

&nbsp;

&nbsp;Les instructions de boucle du 8086 font par contre franchement 70s 80s: pour ceux qui faisaient de l’assembleur, c’était un certain soulagement (surtout avec aussi peut de registres). Mais qui fait ce genre d’assembleur maintenant?


Le 09/06/2020 à 11h 51







OlivierJ a écrit :



Conceptuellement, et en tant que “technicien/ingénieur”, ça me chagrine, car c’est comme pour MS, c’est la victoire du marketing sur la technique.



Bien sûr, mais n’est-ce pas justement la victoire du “libre”? Le x86 s’est démocratisé parce que le IBM PC (cloné) s’est démocratisé. Là où les autres constructeurs jouaient sur une fermeture de la machine, IBM s’est fait prendre à son propre jeu, propulsant Intel et Ms au sommet.



Perso, j’ai le même avis face à javascript/python: ce ne sont pas des langages propres ou bien pensés, ils sont diffusés simplement parce qu’ils sont accessibles.


Le 09/06/2020 à 10h 15







OlivierJ a écrit :



Du coup on se tape des processeurs avec un lourd héritage, un jeu d’instruction un peu tordu (pour ceux qui ont fait de l’assembleur x86 et du 68000 ou du 6502 avant, ils voient de quoi je parle), et un coût en silicium qui va avec. On est loin de l’élégance des PowerPC, ou d’autres CPU des années 90.&nbsp;



Perso j’avais cet avis au moment du P4. Maintenant, j’ai pas mal évolué sur le sujet.





  • L’ARM, le PowerPC ont été créé en RISC, avec au départ des limitations sur les protections ou lal’absence d’opérations telles que la division

  • En tout cas, à part les articles de Carmack avant 200x où il a totalement abandonné le PPC, une énorme démonstration de PowerPC, c’est la gamecube, qui en moins de 20W fait des effets graphiques impressionnants

  • Toutefois: si le PC se traîne de vieilles instructions, intel a su intégrer de nouveaux paradigme plus “propres” SSE/AVX et autres, qui sont les plus important pour le gain de perf

  • L’intérieur d’un x86 est de toutes façon plus ou moins RISC après le décodage

  • Le nombre de transistors et la taille du silicium d’un CPU est surtout lié au cache et/ou au GPU.



    Pour rappel, un 80386 consommait moins de 5W, certaines puces de portable actuelles consomment plus (en pointe). Si l’assembleur 68000 était intéressant, le 8086 malgré ses faibles registres avait des instructions de boucle (les LOOP/REPs) que je ne connais pas ailleurs et qui permettent de faire des traitements en quelques lignes. Il y avait aussi des trucs zarbis comme le reste de la division qui se retrouvait dans un autre registre - utilisé rarement par les compilateurs haut niveau.



    Intel a aussi fait la démo des Atom qui ont montré que à puissance “comparable”, intel savait faire des CPU qui consommaientt à peu près pareil que des ARM (dans des domaines où l’écran consomme encore plus que le CPU).



    Bref, j’ai été impressionné de voir comment le X86 a pu être décliné (y compris dans des PDA, des calculettes!) alors qu’on lisait partout qu’il n’était adapté à rien d’autre que le Desktop lourd et le serveur.

    &nbsp;

    Et puis maintenant, on parle surtout de RISC-V pour le futur.





    yro a écrit :



    Je pense que le soucis est avant tout dans la base installé, que dans les avantages techniques. Un peu comme les échecs de Windows sur téléphone, ou Firefox OS.&nbsp;



    Surtout que le prix des PC descendait en flèche, difficile de vendre des ordis à 20000F quand on en trouvait des pas mal à 5000F. Plus le fait que les ventes grand public suivaient les ventes pro, les gens achetant pareil que ce qu’ils avaient au boulot souvent. Et il était difficile de percer le marché pro.

    Actuellement, c’est différent, depuis l’iPad à peu près, le marché est tiré par le grand public - ce que je déplore côté pro, puisque les outils pro perdent … leur côté pro.


Le 08/06/2020 à 13h 25







Tandhruil a écrit :



Question à ceux qui sont pour le traçage.

Sachant que ces dernières années le nombre d’IST a explosé, vous êtes pour où contre un stop VIH ou un stop Gonocoque ?



Non seulement cela, mais je milite pour monter un “fuckpal”: un tiers de confiance sur lequel deux personnes consentantes s’enregistrent avant tout rapport pour confirmer qu’elle sont consentantes.



&nbsp;Une notif un peu plus tard permet de noter la qualité du rapport avec publication facebook.



Sinon, sérieusement, j’ai installé et activé stop covid, en espérant qu’ils pourront le mettre au point et en tirer quelque chose si l’épidémie reprend.


Le 08/06/2020 à 08h 37







patos a écrit :



Ils n’émulent rien du tout, ils lisent simplement la chaine de boot de manière plus judicieuse dans la séquence d’initialisation, parfois après avoir lancé un pilote ou deux en plus.



Le chargement du pilote (qu’on a parfois extrait du BIOS d’un autre ordi comme dans mon cas…) c’est une tâche du BIOS/UEFI, non? Donc au moins ils le “complètent”. Quelle partie en reste ensuite en RAM? (j’ai vraiment pas étudié le problème. Je connais les principes du BIOS et à partie de quand un OS se base sur lui ou pas, mais l’UEFI je suis pour le moment complètement passé à côté)


Le 08/06/2020 à 08h 21







Arcy a écrit :



J’étais tenté de l’utiliser il y a un temps (Korben en avait parlé dans un de ses articles) mais il semblerait que l’outil excite certains antivirus …



C’est à dire qu’on approche du rootkit là. Ces loaders remplacent le BIOS/UEFI en émulant un nouvel EFI il me semble. Ca pourrait mener loin j’imagine.


Le 08/06/2020 à 08h 19

J’ai utilisé pour autre chose “Clover” et “Duet” qui permettent non seulement de faire du multiboot, mais aussi de booter sur des périphériques non bootables pour cause de BIOS trop ancien/bridé (c’était pour booter sur un SSD nvme alors que seul le SATA était reconnu au boot).

Le 04/06/2020 à 13h 29

Il faut brûler internet.

Le 03/06/2020 à 08h 35







Perfect Slayer a écrit :



Enfin moi tout ce que je veux savoir si c’est activer Hyper-V pour tester WSL (quelque soit l’usage que j’en ai) aura des conséquences sur les performances de VirtualBox.&nbsp;&nbsp;



Perso pour de la petite compil, j’ai même tendance à trouver Hyper-V plus rapide. Mais tu es plus limité dans les options de VM (plugins, matériel émulé).

&nbsp;En tout cas, une fonctionnalité que je ne vois pas dans WSL mais que tu as dans VirtualBox: mettre en pause ta VM quand tu éteins pour reprendre le lendemain!


Le 03/06/2020 à 08h 04







Perfect Slayer a écrit :



Quand tu compiles 30Go de code source en plusieurs heures, si tu perds même 10% de performances, tu le regrettes assez vite…



Je suis partagé. Quand les jobs de compil durent plusieurs heures, on n’attend pas forcément après. Je conçois WSL comme un moyen pratique de passer d’un environnement à l’autre, de façon assez intégrée, et plus léger que la VM. Je ne le vois pas pour héberger un gitlab - là je passe au serveur.

Et j’aimerais pouvoir lancer les conteneurs linux sur serveur de cette façon.



En tout cas, pour les infra “full Ms”, c’est un pas en avant puisqu’on peut espérer utiliser/déployer des solutions en docker linux. Mine de rien, certaines infra sont bien sécurisées avec les outils Ms, et intégrer des Linux c’est à chaque fois faire une rupture - sans compter que les prestas mettent leurs distro préférées toutes différentes et ne mettent rien à jour



Par contre je suis de plus en plus perdu sur la cible à privilégier pour les dev…&nbsp;


Le 03/06/2020 à 07h 56







bad10 a écrit :



Mais on ne peut toujours pas choisir les mises à jours à appliquer au cas par cas, non ?

On ne peux toujours pas virer complètement Cortana et d’autres apps ?

On ne peut toujours pas choisir non plus ce qu’on transmet à MS ? (on peux bien décocher des trucs mais pas tout enlever il me semble)



vraies questions.

Si je pouvais avoir un windows 10 avec juste le minimum pour jouer, je suis preneur.







  • Pour les mises à jour: WSUS est ton ami (en entreprise … mais tu peux aussi mettre le rôle WSUS sur Windows hyper-v server il me semble. C’est pas légal, mais ça marche

  • Sinon: proxy filtrant à la maison

  • Pour cortana:&nbsp;https://www.thewindowsclub.com/disable-turn-off-cortana-windows-10/

  • Pour la télémétrie:&nbsp;docs.microsoft.com Microsoft

  • Pour les apps: un script au démarrage de l’ordi:&nbsp;



    Get-AppxPackage -AllUsers | where-object {\(\_.name –notlike “*store*”} | Remove-AppxPackageGet-appxprovisionedpackage –online | where-object {\)_.packagename –notlike “store”} | Remove-AppxProvisionedPackage -online



    Windows se configure très bien en ligne de commande. Et les lignes de commandes de XP fonctionnent encore souvent (celles de Vista/7 très souvent). Et l’architecture mise en place en 2006 avec Vista prouve qu’on peut faire des images de l’OS, le démarrer sur le réseau (il y a des démos d’images Windows 10 &lt; 1Go), le faire démarrer sur un VHD pour qu’à chaque reboot il soit propre, snapshoter le FS, injecter des drivers et apps offline pour un déploiement, scripter une création de disque, gérer les espaces de stockages (équivalent à LVM de Linux, avec le RAID, le caching, le tiering)



    Exemple de tiering (je n’ai pas testé, mais je pourrais juste pour confirmer que ça marche sous Windows 10)

    &nbsp;https://nils.schimmelmann.us/post/153541254987/intel-smart-response-technology-vs-windows-10

    &nbsp;

    Bref, tout n’est pas parfait, mais on s’y retrouve bien. Par contre, certaines fonctionnalités sont liées à la licence.


Le 02/06/2020 à 21h 13







Citan666 a écrit :



Merci pour l’astuce. C’est juste dommage de devoir passer par un soft tiers, m’enfin…



Je précise aussi que les stratégie locale et de groupe Windows, c’es tle gros plus de windows par rapport à Linux: on peut y configurer Windows, les composants Ms, les composants tiers, pousser par exemple la config de Chrome pour tous les postes de l’entreprise… Tout cela à un seul endroit (enfin, j’idéalise un peu, mais ça marche). Je n’ai pas vu d’équivalent sous Linux ou ailleurs qui centralise à la fois le paramétrage du système, de l’interface et des applis et souvent avec autant de finesse.

Cela dit, c’est juste une interface pour pousser des mises à jour de la base de registre, des copies de fichier ou des scripts, selon des critères sur la machine cible.





Citan666 a écrit :



Cette liste est parfaitement à jour. T’es bien mignon mais je bosse sous linux depuis avant l’an 2000. J’ai vécu tous les Windows depuis 1995.




 Windows reste toujours un OS moisi par défaut, qu'il faut passer des heures à configurer (si tant est que tu puisses trouver une doc fiable) pour en faire quelque chose de potable.&nbsp; Et jusqu'à windows 10, c'était sans la moindre garantie qu'ils ne changent pas tout de fond en comble.&nbsp;      

En t'imposant toujours LEUR vision, LEURS contraintes.&nbsp;





&nbsp;Euh… Linux peut-être, mais les distros… Linux est certainement l’OS qui me prend le plus de temps à réinstaller car tout change tout le temps. Les scripts pour monter les interfaces réseaux, maintenant les commandes pour les ponts (brctl obsolète, merci de passer par iptables2 … qui n’a plus tout à fait les mêmes tables visiblement). Systemd qui remplace sysinit, apparmor installé par défaut… Bref, l’impression de réinventer la roue tout le temps, de patauger sur des trucs qui fonctionnaient nickel avant… Genre où je dois mettre le montage de l’interface réseau? Ben ça dépend de la distro…

&nbsp;

Sous Windows, j’ai quasiment le même script netsh depuis Windows XP, la plupart des commandes wmi fonctionnent toujours et powershell a une couverture très complète. Administrer un ou plusieurs postes est quasiment identique si on fait quelques efforts. J’ai les snapshots intégrés depuis XP, la recherche dans les fichiers depuis 2000, la commande vocale (en Anglais) depuis 1999 (un de mes premiers programmes utiles en delphi 3).

Quand à la doc, vu que j’ai grandi avec celle de Windows je m’y repère très bien. Sous Linux je vais à la pèche en permanence, j’ai l’impression de détricoter tout en permanence (du man de l’outil vers le man du fichier de conf, avec les scripts de la distro et les fichiers de conf imprimés et stabilotés à côté).

&nbsp;

Par exemple, j’ai fait de l’OpenVMS, je peux comparer… doc nickel, un outil ligne de commande ou menu terminal par fonctionnalité (réseau/audit/sécurité/disques). Ras, c’est puissant, plein de fonctionnalités, et les bonnes. C’était du vieil OpenVMS (de 1996), mais à l’époque créer un cluster était simple et ça marchait, un point c’est tout.



Chaque OS a ses avantages, mais surtout, chacun ses habitudes. Quelque soit l’OS, il faut se documenter et planifier avant de se lancer. C’est d’ailleurs mon tort dans Linux: l’utilisant surtout à la maison ou de force au travail dans des VM packagées et fournies par des prestas, ça manque cruellement d’organisation et de cohérence.


Le 02/06/2020 à 15h 06







NiKKrO_70 a écrit :



J’ai pas vraiment la réponse mais je pense que toutes les VMs VirtualBox passent pas la couche Hyper-V une fois que celui là est installé. Après est-ce que c’est vraiment visible comme impact ?



Pour la question d’utiliser Hyper-V, 2 raisons:




  • portabilité des VMs. Pour avoir tenté plusieurs fois de passer d’Hyper-V sur autre chose avec des collègues je laisse tomber.&nbsp;

  • fonctionne pas sur l’édition famille à la maison



  • VirtualBox: les VM passent par Hyper-V, la première conséquence c’est que certains plugins ne fonctionnent plus.

  • Portabilité des VM: il y a des outils de conversion, je n’ai jamais eu de problème particulier de Hyper-V -&gt; VMWare

  • Edition Famille: Il faut absolument maintenant activer VT-x/VT-d dans le BIOS et avoir une CPU compatible SLAT (c’est pour cela que j’ai remplacé ma tablette i5-2467m).

    Je confirme que Hyper-V fonctionne sur un PC en i3 4010U/Windows Home (pour faire tourner Android)&nbsp;


Le 02/06/2020 à 13h 48







trexmaster a écrit :



WSL c’est bien tant que tu bosses pas sur la partie infra, après il te faut de la bonne vieille VM. Cela dit WSL c’est cool (et Terminal aussi).&nbsp;



Oui, WSL c’est plus pour le dev pour moi. Dès qu’on touche à des choses trop bas niveau, tu dois paramétrer la VM est c’est fichu pour WSL.



Citan666 a écrit :



&nbsp;&nbsp;

1/ Tes données restent exploitées sur un système de fichiers Windows, avec un noyau Windows.

Outre les problèmes de sécurité et confidentialité “as a feature” (configuration moisie pour les utilisateurs multiples, mouchards intégrés), tu ne peux pas profiter de tout ce que te proposes Linux sur la base d’un savoir-faire extensible et portable (ACL, LVM, chiffrement, choix d’un filesystem parmi une dizaine pour avoir qqchose collant au plus à ton cas d’usage, outils gratuits et performants dans les rares cas où il t’arrive qqchose au niveau hardware / partition).&nbsp;



&nbsp;Mais ça contribue à bien séparer le dev de la partie infra. Car ces fonctionnalités, Windows les a.



&nbsp;



Citan666 a écrit :





  • Obfuscation de l’information système : sous Windows, quand tu observes le moniteur de ressources, tu n’as jamais accès à toute l’information. Typiquement, j’ai 8 Go de RAM, je lance le moniteur avec les privilèges système histoire de, je vois ~“50%” affichés (mettons qu’il indique “3800 Go utilisés”),&nbsp;&nbsp;



    &nbsp;Tu dois regarder la plage de travail privée j’imagine, mais du coup tu ne vois pas l’espace mémoire partagé. Et l’espace mémoire partagé ne se somme pas forcément (puisqu’il est partagé avec d’autres…)


Le 02/06/2020 à 10h 11

Pas de VMWare, donc tout marche sur Hyper-V j’imagine.

Dommage, on aurait pu ajouter des conteneur linux (fournis par les presta) sous nos serveurs Windows (préconisés par les infras)

Le 02/06/2020 à 12h 03







DanLo a écrit :



On peut parfaitement changer et choisir son navigateur.

Pour le reste je ne peux qu’être d’accord, bien que certains points restent très relatifs/discutables (comme le premier point qui est très flou ou le second point qui dépend surtout de la personne en face du smartphone).



Pour le navigateur, j’avais cru que Android appliquait la même politique que Apple (les autres navigateurs doivent utiliser le moteur interne sur iOS)

Pour le second point (surtout référence à CVE-2020-096 qui est excellent), bonne nouvelle il y a des patchs qui arrivent. Mauvaise nouvelle: pour aucun des téléphones qui sont chez moi (Android 7/8/One). Et franchement même moi je pourrais facilement me faire avoir (si l’appli “téléphone” me demande de pouvoir téléphoner, je risque de dire oui au premier abord, en rageant contre Android et ASUS…)


Le 02/06/2020 à 10h 26

Je ne comprends pas pourquoi il n’y a pas de Android bashing comme il y a du Windows bashing.



Ms se fait encore descendre pour de vieux trucs corrigé depuis près de 20 ans, google les aligne avec Android et tout le monde applaudit.



Android est vraiment le nouveau Windows 95.





  • &nbsp;Mal pensé (ou pas jusqu’au bout), mal réalisé (ou pas jusqu’au bout)

  • bonne intentions détournée par plein de virus (comme une des dernières faille s’appuyant sur les demandes d’autorisation pour piéger les utilisateurs - pas de correctif en vue et de toutes façons pas installable)

  • bouffe de la mémoire à mort (un Smartphone 3Go peine tout le temps, là où un vieux PC sous Windows 10 avec 2Go fait du multitâche sans trop broncher)

  • démarre en plus d’1min30 là où un PC de daube sous Windows 10 (Atom 8300) démarre en 30s sur une emmc

  • se targue de nouveautés futiles ou tombant tellement sous le sens que c’est une honte d’avoir dû attendre pour avoir ces fonctionnalités

  • pas possible de le mettre à jour sur 8090% des terminaux

  • pas de choix de navigateur possible

  • obligation de créer un compte google avec un mail chez google (chez Ms, le mail peut être ailleurs)





  • Encore un produit qui s’est retrouvé partout pour des questions de coût final. C’est la pierre angulaire de l’ “obsolescence programmée”.&nbsp;

Le 30/05/2020 à 19h 10







fofo9012 a écrit :



Maintenant la donne a changé, le télétravail est un droit et l’exception le refus&nbsp;: Ne pas fournir les moyens n’est pas un motif de refus, c’est l’employeur qui doit justifier son refus (avec le risque de devoir les justifier devant les prud’homme !)



L’employeur ne refuse pas les moyens, mais il peut refuser le télétravail - refus qui doit être motivé mais qui peut l’être relativement facilement si les conditions de télétravail ne sont pas compatibles avec le travail ou si l’employeur ne peut pas assurer la sécurité de l’employé (bâtiment pas aux normes)…

Le télétravail peut être conditionné par des notions d’ancienneté, de grade, et bien sûr de type de travail.


Le 29/05/2020 à 08h 10







fofo9012 a écrit :



A aucun moment tu ne dois être obligé d’utiliser ton matos (attention à ne pas confondre pouvoir et devoir :) ) : notamment tel perso ou PC portable.



De base le télétravail est “volontaire” et j’étais resté là dessus. En gros, je considérais uniquement le télétravail “régulier” (quand ton poste est défini comme étant en télétravail), et donc que le télétravail actuel n’était pas encadré par la loi.

Mais effectivement en relisant L1222-10, dans le cadre d’une épidémie “la mise en œuvre du télétravail peut être considérée comme un aménagement du poste de travail rendu nécessaire” -&gt; On rentre de fait dans le cadre prévu par la loi

-&gt; Tout s’applique, on est bien dans le cadre du télétravail en tant qu’outil de l’entreprise et l’employeur doit fournir ce qu’il faut pour travailler

-&gt; Remarque: il doit aussi donner le cadre du télétravail et les règles d’acceptation

-&gt; Autre remarque: le refus de télétravail ne permet pas de licencier un employé, il suffit donc de refuser le télétravail, pas besoin de mettre la pression sur les équipes techniques pour leur rejeter la faute







Jean-du-Léon a écrit :



Sauf dans l’Éducation nationale où tu dois tout fournir à part les photocopies que tu peux faire au collège…



Non, on te fourni quand même un tableau et des élèves. Et un feutre de chaque couleur pour tableau blanc par an. Et les photocopies sont comptées.

&nbsp;



jeje07bis a écrit :



c’était il y a 5 ans…

de l’eau a coulé sous les ponts depuis



Effectivement: jamais eu de problème de mise à jour avec Windows 10 ou de problème de pilotes… Jusqu’à cette mise à jour:





  • Sur les 2 PCs testés hier: le service d’indexation mange plein de CPU après l’install (je pense qu’il a tout reconstruit) -&gt; autonomie en berne encore ce matin + ventilo qui souffle.

  • Sur 1 PC (le portable):

  • Retour de mise en veille: écran noir, obligé de tuer explorer et de le relancer à chaque fois, pas possible de reconnecter la sourie en bluetooth

  • Lourdeur lors du lancement d’applis sur un PC (jusqu’à 3s avant que l’appli ne s’affiche alors qu’avant c’était presque instantané)

  • PC qui ne s’éteint plus complètement (j’avais pas eu ça depuis Win98!): écran noir, plus d’activité mais ventilo qui tourne (et PC dans la sacoche bien sûr)




Le 28/05/2020 à 15h 20







Z-os a écrit :



Il me semblait que c’était dans la loi, je ne retrouve pas l’info. J’ai rêvé ou cela a sauté ?



Je n’ai rien trouvé dans les textes de loi pour le moment. Les conditions sont à négocier par un accord entre l’employeur et l’employé (accord à réalisé par n’importe quel moyen …).



En règle générale: l’employeur va fournir le matériel, surtout s’il est gros, car c’est son intérêt (sécurité, homogénéité du parc).

Mais on peut accepter qu’un télétravailleur utilise son propre matériel.



Et c’est bien que la loi n’impose rien, ça serait certainement bien trop restrictif.


Le 28/05/2020 à 11h 11







noks a écrit :



elle nous demande de tout lui fournir&nbsp;



Vous ne savez simplement pas reconnaître la chance que vous avez qu’elle accepte de travailler avec vous&nbsp;<img data-src=" />.


Le 28/05/2020 à 10h 11







plop97 a écrit :



L’entreprise est censé fournir le matériel pour le télétravail



? Tu sors ça d’où?

Les entreprises ont le choix de permettre le télétravail depuis les PC persos ou pas, mais n’a pas d’obligation de fournir du matériel. C’est plus une facilité pour administrer le réseau et garantir la sécurité.



Le télétravail est censé être une possibilité offerte, pas une obligation, et l’entreprise peut indiquer des conditions que l’employé doit remplir pour télétravailler (comme disposer d’une pièce isolée dédiée - ça c’est sûr qu’elle ne va pas le fournir :) )


Le 29/05/2020 à 21h 16







tmtisfree a écrit :



La courbe des nouveaux cas ne ressemble pas à une épidémie qui débute ou qui se prolonge

Mais on peut jouer sur les mots indéfiniment, il y a d’autres spécialistes ici.&nbsp;



Rien à dire, c’est vrai.

&nbsp;



tmtisfree a écrit :



Il ne me « convient », c’est juste plus simple de comparer à un maximum vu l’hystérie vis à vis du virus chinois et l’ambiance de fin du monde des 3 derniers mois. Le nombre (maximum) de 650 k provient de l’OMS.&nbsp;



&nbsp;Oui, mais sans confinement, c’est difficile à comparer.



&nbsp;



tmtisfree a écrit :



Le seuil épidémique de la grippe est un nombre de cas d’infection, pas de décès.&nbsp;



&nbsp;Je n’avais vraiment pas compris que tu parlais du seuil épidémique. Il est officiellement de 10/100k pour le coronavirus, 170/100k pour la grippe. Donc le coronavirus est considéré comme extrêmement contagieux.





tmtisfree a écrit :



Ce chiffre de 18 k varie du simple au double selon les sources [1]. La grippe a un vaccin, pas le virus chinois, et donc cette mortalité serait bien plus élevée sans vaccin.



&nbsp;Oups, j’ai vraiment répondu vite vite vite. Ma phrase était complètement mélangée. La mortalité dû à la grippe est estimée à 9k/an. En 2014-2015, c’est la surmortalité qui est double, mais sans lien avéré à la grippe.



Bref, mon post était nul, j’aurais dû le faire au calme.



Mais je continue à trouver que tes comparaisons grippe/covid ne permettent pas de conclure que le covid est une gripette. Le nombre d’hospitalisations en état grave montrerait plutôt une grippette sans vaccin, situation relativement rare et grave.

Pour le moment, je ne tire aucune conclusion sur l’action d’un gouvernement ou l’autre (enfin, si, le Brésil) et de toute façon quoique fasse un gouvernement, on peu l’attaquer soit pour en avoir trop fait soit pas assez… Sans compter les milliers de “on vous l’avait bien dit” en embuscade. Bien sûr que sur 70M de Français, plusieurs milliers étaient convaincus de ce qui va se produire, tout comme d’autres millions se seront trompés…


Le 29/05/2020 à 14h 07







tmtisfree a écrit :



Elle est terminée (0,5 cas / 100 k en France, contre 180 pour la grippe). La mortalité mondiale de la grippe peut atteindre 650 k. Le virus chinois a tué 360 k.



Fact-check?

&nbsp;&nbsp;Les 3 premiers mots “elle est terminée”:&nbsp; Peut-être as-tu raison, peut-être pas. On ne peut pas encore dire que c’est fini.

&nbsp;Mortalité de la grippe “peut atteindre”: tu donnes les chiffres qui te conviennent. Ca commence à 290k si tu as la même source que moi (John Hopkins Hospital il me semble)



Ensuite: 0,5 cas / 100k: on est actuellement grosses mailles à 30k/60M =&gt; 50 décès par 100k habitants. Donc loin des 0,5cas. On ne connait d’ailleurs pas le nombre de cas. La grippe saisonnière a fait exceptionnellement 18k morts en France en 20182019, sinon c’est plutôt de l’ordre de 10k mais sans confinement, donc c’est difficilement comparable puisqu’on n’a pas laissé le virus se propager.



Tandem brevis…

&nbsp;


Le 29/05/2020 à 13h 49

Dites, faudrait pas censurer tous les commentaires qui comportent le mot en “g”? Parce que c’est un terme qui semble stigmatiser une minorité, j’ai peur que ce soit interprétable comme des propos racistes.

Le 29/05/2020 à 07h 41







SeigneursCoconuts a écrit :



&nbsp;il n’y a plus de vérité.





Le concept de vérité sur les réseaux sociaux est de toutes façon très “local”.


Le 29/05/2020 à 09h 57







Esod a écrit :



Est-ce-que le Benchmark sur la lecture/écriture de la clé USB est bon au moins ?





Pas assez de place libre pour benchmarker.


Le 29/05/2020 à 08h 28


brazomyna a dit:


je vois pas l’intérêt du truc. Le pi à la base était bon pour des projets embarqués, sa faible conso, sa petute taille, son intégrabilité. Et quand on prend tout en compte: carte sd, boitier, alim, ça devient ridicule le coùt total.


Je suis plutôt d’accord: la RPI perd énormément d’intérêt vu sa conso actuelle (> Atom x5 sous Windows 10).
La rpi c’est pour bidouiller rapidement, mais au final je n’en n’ai jamais mis “en prod”. C’est pas assez tout-terrain, ça demande toujours un shield de plus aussi cher que l’équivalent en USB et quand on utilise les ports USB elle s’étouffe (bon ce n’est plus le cas, OK). Et la misère le positionnement des ports, c’est tout de suite le bazar!




Obidoub a dit:


Par contre je suis pas sûr que la comparaison avec Intel Atom soit flatteuse. Ces CPU sont extrêmement mauvais, surtout que z3850 si je dis pas de bêtises c’est un processeur de smartphone


C’est surtout pas flatteur pour la pi sur plein de points! Le x5 8300 est enfin battu par la RPi4 en CPU, mais sur les applis le z8300 la bat la plupart du temps (bench SAMBA, Serveur, …). Le Wifi/ethernet de la Pi est nettement en dessous je pense.
Même en 3D sur les émulateurs le Z8300 semble plus constant dans le framerate.



Et en charge un miniPC z8300 consomme moins. Et il est fanless, pas vraiment la Pi 4.



Mais en général, je passe encore un cran au-dessus et j’utilise des NUC 2820 ou 3050 - en serveur ils sont encore infiniment supérieurs à une Pi (y compris 4) - notamment par la présence du SATA, de bons transferts Wifi/ethernet /USB qui n’impactent pas le CPU, des fréquences largement au-dessus qui permettent de finir le taf simple bien plus vite, et je pense un bus mémoire très supérieur. Le tout pour une conso proche et un prix (à l’occas) souvent comparable.

Le 28/05/2020 à 09h 44







secouss a écrit :



Il est juste tout pas content et tout vexé de se faire taper sur les doigts par Twitter qui au demeurant s’en fout,&nbsp;



Je ne pense pas qu’ils soient bien dans leurs souliers quand même. Trump a un certain pouvoir et une certaine méthode pour détruire ce qui lui nuit.&nbsp;

Et twitter est quand même l’outil majeur de Trump pour orienter l’opinion/désarçonner ses opposants en mettant en évidence ce qui le fait briller (le compte twitter de trump est rempli en permanence de messages positifs (à comparer avec le compte twitter de notre président, purement dénigré à chaque twitt).

Mais disons que dans quelques jours, Trump va twitter un gros truc qui ne déclenchera pas de fact check ou autre et cela appuiera d’autant plus ce twitt. Ou alors il va demander un fact checking sur des twitts de Obama, Biden ou un autre opposant en soulignant qu’on le dénigre. Bref, il tournera cela à son avantage de toutes façon tout en écrasant twitter qui doit maintenant être “a bad social network”, tout comme les journalistes qui lui posent des questions peuvent devenir de “bad journalists”.&nbsp;


Le 27/05/2020 à 12h 39

Et on critique Windows Update… Si ça avait existé sur Android dès le début, on craindrait moins!

Le 27/05/2020 à 06h 59







Gilrain a écrit :



Avant d’en arriver à la redevance sur la bêtise, voici quelques idées :




  • les imprimantes et les ramettes de papiers

  • les écrans (TVs, moniteurs…)

  • les claviers

    Etc.





    Les sonotones.


Le 26/05/2020 à 10h 08

Tout à fait d’accord. Si c’est pour avoir un x86 opensource, je prends du Intel en CG (et du ralink en Wifi)

&nbsp;





Trit’ a écrit :



Bah, en gros, depuis l’arrivée des Ryzen 2, tout le monde s’accorde pour dire qu’AMD a juste explosé Intel,&nbsp;



Certains joueurs ne sont pas convaincus car 140FPS &gt; 120FPS (mais ça reste pareil à mes yeux).

Pour le reste, Intel se défend quand même et a encore quelques victoires (bientôt évincées?) sur les portables.



La situation me rappelle la période des Pentium4: jouer et encoder son et vidéo était plus rapide sur P4, mais les autres processeurs (Athlon et Pentium-M) étaient tellement plus “lisses” dans les perfs… Et Intel se battait à coups de GHz, AMD à coup d’unités de virgule flottante.



La différence actuellement, c’est qu’on ne voit pas d’avantage sur la stabilité/fiabilité de l’une ou l’autre des archi (en 2000, les archi AMD chauffaient terriblement et étaient parfois affublée de chipset douteux)



C’est tout de même un extraordinaire retour d’AMD sur les CPU avec une archi qui depuis 3 ans, coup sur coup, enfonce le clou.

Mais au final, aucune des archis n’est vraiment mauvaise face à l’autre. C’est selon le besoin. Et on voit aussi que si AMD gagne des part de marchés, le marché est saturé et il faudra encore plusieurs années de pénétration pour voir fréquemment de l’AMD.



Et pendant ce temps-là sur la planète RISC-V…


Le 26/05/2020 à 06h 07







wackyseb a écrit :



Réflexion à 2 balles: vu que certains n’ont pas la 4G ou la 3G, ça serait pas intéressant de commencer le déploiement de la 5G chez eux.

Pour une fois hein 😳



Non, c’est ridicule en fait, car les équipements 5g sont chers et pas légion. Et s’ils nous pondent des répartitions de fréquence à la 4g, les zones blanches vont encore se retrouver avec des fréquences inconnues des terminaux et d’autres qu’on capte au pied de l’antenne.

Sans compter le temps de ROI sur des zones non denses


Le 25/05/2020 à 11h 12







kgersen a écrit :



C’est un peu daté tout ça a l’heure des services Coud ou des fois la notion même de fichier n’a plus trop lieu.&nbsp;



Pardon? Si le service n’est pas sauvegardable/exportable, il ne doit pas contenir de données critiques. Sinon, il faut changer de service!


Le 23/05/2020 à 14h 20







letter a écrit :



SQL Server sur Linux ne doit pas avoir beaucoup de Win32…





En même temps, ton SQL Server Linux ne pourra pas intégrer certaines fonctionnalités réservées du coup à SQL Windows, notamment dans les traitements SSIS…


Le 22/05/2020 à 08h 41







tazvld a écrit :



je ne comprends pas, win32 c’était pas le truc que MS cherché à éliminer à terme (à isoler pour l’instant) dans windows core OS (windows 10X) ?&nbsp;



Win32, c’est le “truc” que Ms essaie de remplacer depuis des années, mais qui reste toujours à la base de leurs applis (Office en client lourd, Visual Studio, SQL Server, tous en dépendent plus ou moins largement).

Bref, entre le fait que les solutions de remplacement étaient non abouties, moins bien documentés/connues, nécessitait de former les développeurs, et le fait que Ms fait du “faites ce que je dis, pas ce que je fais”, rien n’a jamais bougé réellement.



Ms a toujours été à 2 doigts d’unifier tout (.Net entre les plateformes, OS, …) mais ça n’a jamais réussi, ou alors trop tard (Windows 10 Phone?)


Le 20/05/2020 à 11h 37

L’autre video plus détaillée et le papier sont dispos sur&nbsp;https://francozappa.github.io/project/bias/&nbsp;

Ca a l’air “relativement” simple et clean. Il faut pouvoir communiquer avec le périphérique bluetooth et l’hôte avant de pouvoir se faire passer pour l’un ou l’autre, mais ça marche d’après eux quasiment partout (windows/android/linux) car ils se basent sur le standard bluetooth.

Le 20/05/2020 à 09h 20


Etre_Libre a dit:


Le prix au Go promet éventuellement, par contre en PLC le temps de reconstruction du RAID5, ouch :francais:


Tout dépend comment ton contrôleur gère les SSD et de quel SSD tu utilises. Un SSD écrit par pages (fréquemment de 16ko) et si plus de pages ne sont dispos par bloc (4Mo).
Selon ton contrôleur RAID, le RAID gère des blocs de 512 octets (ancien), 4ko (mieux) ou dynamique (le top).
Lors de la reconstruction, même un RAID qui gère du 4k écrit au moins 4 fois sur le SSD (et 32 fois s’il est en 512). Avec les disques durs de maintenant, calés sur 4K, le RAID en 4K fait une écriture (et la catastrophe: 8 en 512).
Si le RAID est bien rempli, l’écriture sur le SSD peut nécessiter le TRIM, qui est souvent très lent (mais normalement réalisé en tâche de fond).



J’ai vu des articles à une époque ou je gérais du SAN sur ce problème de configuration assez basique mais pas toujours possible.
L’article montrait à la fois combien un RAID non modifié pour une grosse taille de bloc pouvait amplifier les écritures, à quel point un SSD “consumer” pouvait être à la traîne face à un SSD prévu pour les SAN, l’impact sur le hit ratio des caches (car la taille de bloc peut influer sur la gestion du cache dans le contrôleur) et le problème de mixer des SSD de taille de bloc différents (donnée qui est rarement facile à trouver - si disponible!).



A l’époque ça parlait SLC et MLC, un peu TLC, pas de QLC à l’horizon.



De toutes façons, on parle encore beaucoup de technos ajustées à l’ancien monde (les disques durs et leurs bloc/plateaux/secteurs), il faut voir les SSD via les bus NVMe et les technos comme Optane à mon avis. Mettre des SSD “à la place” des disques durs n’est pas le mieux - il faut trouver des chaînes de technos complètement adaptées aux SSD: systèmes de fichiers, contrôleurs, cache et bus…

Le 19/05/2020 à 09h 48

Bon, ok, c’est pour faire fonctionner leur truc pro qui fait 16 devices en parallèle.

Comme les vieilles tours de gravure.

Le 19/05/2020 à 09h 32







Freud a écrit :



Deux ou trois mots sur ce que fait balenaEtcher ne seraient pas de trop… Une image depuis une URL ? On pense à une image jpeg ou similaire.&nbsp;



&nbsp;Pareil, j’ai rien compris sur le coup. Après j’ai vu que c’est juste pour télécharger et mettre sur disque une image d’OS.



Par ailleurs, qui sont les tordus qui font ce genre d’appli en elecron??? J’ai des applis de ce genre, elles pèsent moins d’un Mo. Quand je ne le fait pas avec les commandes de l’OS.



Remarque: ils l’ont appelé “balena”.


Le 18/05/2020 à 18h 31

&nbsp;







sscrit a écrit :



pour eviter de payer des batteries et de les changer tous les 45 ans,

il y a la solution supercondensateur durée de vie de 15 ans et cycle

recharge &gt;1000&nbsp;&nbsp; et c’est plus légé :), avec le gain de poids on peut

en mettre plus .



Les supercondos, c’est rigolo mais ça ne remplace pas une batterie.&nbsp;

Ils sont intéressants:





  • en tant qu’espèce de ballast pour décharger une énorme quantité d’énergie d’un coup, là où la batterie est limitée (et donc en complément)

  • pour emmagasiner de toutes petites quantités d’énergie jusqu’à avoir un minimum utilisable (par exemple pour charger une batterie).

  • Mais ça ne tient pas longtemps la charge

  • Les cycles de charge/décharge sont nettement surestimés en cas de décharge violente (normal, on en tier des centaines d’ampères si on veut!)

  • Ils ont une tension de 2V souvent, il en faut beaucoup pour les rendre utiles, mais les mettre en série (enfin si, mais on perd en capacité!)







    sscrit a écrit :



    de nos jours avec les led, l’eclairage en 12V efficace et peu consomateur ca devient très facile. reste le rpi, le routeur et le wifi, avec la cuisine au gaz ca passe.





    Y a pas le gaz chez moi et pas envie de mettre du fioul. Je chauffe au bois (cheminée). Mais la conso électrique, c’est le ballon d’eau chaude, la cuisine et les appareils de lavage (nous sommes 5).

    Les ampoules, c’est le pouième rigolo.


Le 18/05/2020 à 09h 32







brazomyna a écrit :





  • éviter la conversion en 230v et ne s’en servir que pour alimenter certains équipements triés sur le volet, avec un besoin de tension continue continue (style 12 volts), et une charge relativement constante. Typiquement une armoire réseau (de 100 watts h 24).&nbsp;



    &nbsp;J’y ai réfléchi, mais j’ai des doutes. Car le courant sera plus fort dans les cables, donc ce n’est valable que pour de petits appareils. Il faut s’équipper avec du matériel de caravane!



    &nbsp;



    Anardude a écrit :



    &nbsp;- De préférence des batteries solaires(lifepo4 ou plomb) qui durent 10 a 30 ans&nbsp;





    Et en batterie nickel fer? Ca a l’air intéressant si on a la place.



    &nbsp;



    Anardude a écrit :



    Celui qui veut juste réduire ses factures peut plutôt mettre 4 panneaux&nbsp; de 300 Wc en autoconsommation + un routeur chauffe eau et il réduira sa facture de 50% pour un investissement bien moindre.





    +1

    Utiliser du solaire, c’est surtout changer ses habitudes - comme faire la lessive en journée quand il y a du soleil.



    Perso, j’y réfléchi depuis un moment, j’attends linky pour avoir des mesures de conso plus correctes. Mon projet est d’avoir de la batterie pour garantir la circulation d’air chaud (75W) en hiver + 1 repas chaud. LE reste en auto consommation.



    Et ce uniquement pour garantir un minimum vital chez moi - je n’ai aucune confiance dans l’alimentation électrique de mon quartier - et surtout je ne vise aucune économie pécunière.