votre avatar Abonné

Wosgien

est avec nous depuis le 18 mars 2003 ❤️

3763 commentaires

Le 12/08/2020 à 05h 49


(quote:48575:flamme-demon)
C’est moi ou tous le monde va perdre en connaissance, ce qui risque de créer des dépendances encore plus grandes ?


Un jour (2011-2012) pour une migration, j’ai expliqué qu’on n’apprenait pas “ASP.Net MVC”: on devait apprendre en fait une dizaine de technos et langages: C#, Razor, HTML, JS, CSS, Entity Framework, le comportement d’un serveur web, la programmation par état et sans connection, les injections de dépendances, et un contrôle de code source.
Tout cela pour une équipe qui connaissait surtout VB.Net, Winforms et SQL Server.



Passer du client/serveur au web a été pour moi un calvaire (surtout avec JS et CSS): c’était un retour de 20 ans en arrière sur les outils de dev (et je pèse mes mots: en même temps je faisais encore du fortran sur un VAX de 1996, dont les outils de débogages étaient largement plus efficaces).



Donc ce genre de package tout fait peut aider à sortir une appli rapidement, du moment qu’on est capable de lister les fonctionnalités désirées, de développer la glue dans son coin et d’assembler tout correctement.



Downside plus loin…




patos a dit:


Je ne pense pas que les gens vont perdre en connaissances, par contre ils vont perdre l’occasion de gagner en compétences…


Mouais. Pour utiliser ce genre de services depuis un moment, le problème c’est qu’on n’a pas une compétence par API: on en a par API/version. C’est dingue comme des frameworks/API ont tendance à casser les fonctionnalités existantes ou les modifier de façon qu’on passe notre temps à combler les trous par ce que notre appli dépend de services instables dans leur définition.
Ca me rappelle une équipe de la dinum qui a dit “Nos applis n’ont pas de maintenance. Elles évoluent en continu.”
Ben rejoignez donc la vie réelle des gens qui n’ont pas un deux ou trois projets en portefeuille mais plutôt entre 20 et 50 à faire vivre et maintenir en vie en même temps.



Les “compétences” côté web (API ou framework), à part sur les très grands domaines (react et consorts, AWS) sont très très très volatiles.

Le 07/08/2020 à 15h 13







skankhunt42 a écrit :



Je note qu’il y à beaucoup de fait divers à propos de l’alcool en ce moment et beaucoup trop de promotion dans certains médias… Comme quoi entre la théorie et la pratique il y à un gouffre ! 





Moi je suis choqué des promos et de la pub concernant des promos pour l’alcool, y compris du “50% reversé sur la carte fidélité” si on achète vodka/whisky/… en gros panneau à l’entrée du magasin (le panneau pour la rentrée des classes est juste à côté, en plus petit).

Resultat: les gens achètent de l’alcool (avec les enfants), puis reviennent le lendemain (sans les enfants) dépenser l’argent cumulé sur la carte pour les fournitures scolaires. Vivement le rush de la prime de rentrée!


Le 07/08/2020 à 15h 08







gjdass a écrit :



Lol, je savais pas qu’on avait des exigences de publicités plus pertinentes <img data-src=" />&nbsp;



&nbsp;En tout cas, ici il y a une radio FM locale avec uniquement des publicités locales, j’avoue ne plus du tout me sentir concerné par les pubs des radios nationales (déjà que je n’y suis pas sensibles, mais là j’ai l’impression que je ne suis même pas le public visé)


Le 07/08/2020 à 15h 05







spidermoon a écrit :



On part de qques centaines de Ko de source, puis une bonne centaines de Mo de modules à condition d’avoir pris soin de bien gérer les paquets pour finir avec 300Mo d’image Docker, qui installée sur 60 serveur, nous donne un joli 18Go à chaque mise à jour.

Et on nous demande d’être éco-responsable et d’éviter les pièces jointes de 1Mo et plus dans les courriels <img data-src=" />



Il y a … longtemps … en Delphi 3 on faisait des petites applis en moins d’1Mo (genre 300ko tout inclut, aucune DLL). Déjà à l’époque Ms poussait à utiliser des DLL de quelques Mo.



Mais déjà à l’époque, je ne connaissais que l’assembleur pour produire un exécutable plus petit que les sources.



Actuellement, les applis Android, pour afficher parfois quelques messages (moins de 1000 caractères…) pèsent 50Mo, mis à jour régulièrement (plus régulièrement que les coms de la mairie).



&nbsp;Maintenant, en environnement serveur, rien ne t’empêche de partager le support et d’avoir une seule fois 300Mo d’image plus des disques de différence, non? (déjà fait avec Windows: 1 image Windows de 20Go et x serveurs “légers”&nbsp; qu’on remplace après un certain nombre de màj)


Le 06/08/2020 à 11h 31


Charly32 a dit:


Compenser des mauvais usages par une augmentation des capacités, c’est pas une bonne idée. C’est vrai qu’à court terme, c’est plus simple qu’éduquer. En revanche. à long terme, on se retrouve avec de bêtes sites internets qui peuvent te pomper allègrement des centaines de Mo de RAM.


On peut aussi réapprendre aux programmeurs à travailler sur des espaces mémoires inférieurs à la taille des programmes+données…
Les programmes capables d’ouvrir des fichiers + grands que la RAM sont rares maintenant. Alors qu’ouvrir un fichier (et même parfois le modifier) 4x plus grand que la RAM était faisable / limite courant en 1995.



Bref, perso je suis fan de faire tourner des progs en 32bits sur un x64, histoire que chacun ne puisse dépasser ses 2Go.

Le 06/08/2020 à 11h 28


june a dit:


Qu’est-ce qu’il ne faut pas lire… Pour une utilisation basique (web, office, mail, multimédia…), 4 Go sont largement suffisants. Ces machines ne sont pas faites pour plus de toutes façons.


A ne pas négliger: dans le passé, j’ai eu à tenter d’améliorer un AMD E1.
Il annonçait seulement 2,1Go d’utilisable sur les 4Go! A priori la partie graphique réservait plus d’1 Go de RAM.
Même avec 8Go de RAM, seuls 6Go et des poussières étaient dispo.



Si ça n’a pas été changé, c’est la cata.

Le 03/08/2020 à 15h 46

Au fait, pour comparer au NUC, ces mini PC ont-ils le SPDIF et l’infrarouge?

Le 03/08/2020 à 15h 40


june a dit:


J’avais hésité à l’acheter il y a quelques mois, j’aimais bien le fait qu’il soit passif… Jusqu’à ce que je m’aperçoive que son port Ethernet est limité à 100 Mb/s. Rédhibitoire dans mon cas. J’ai aussi quelques doutes sur les températures.


C’est un port gbit partout o ù je regarde les specs (grilled).



Sinon, 6W en passif, ça nécessite quand même du refroidissement. Hors, en fanless, il faut trouver un moyen de forcer le flux d’air, sinon la chaleur s’accumule indéfiniment car les plaques de refroidissement n’optimise pas la convection à plat (problème des atom Z8300 dans les ordis “fixes”, qu’on trouve moins dans les tablettes - car elles sont utilisées de travers).



Pour ce genre d’ordi, je conseille de les mettre debout ou de les incliner, sans boucher les orifices du dessous, on y gagne souvent un peu …



En tout cas, le WIFI M2 est une excellente nouvelle, j’ai galéré avec le WIFI intégré aux Z8300, il est connecté sur un port “SDIO”, il faut trouver les bons pilotes, le bon ordre, et même déposer un fichier .txt lié à la machine dans c:\dinws\system32!



Là, ça se rapproche plus du NUC (notamment de ceux à base de N3050/N3150).

Le 03/08/2020 à 08h 51


ForceRouge a dit:


Pourquoi aujourd‘hui on a du x86_64 dans les PC et de l’ARM partout ailleurs?


Rétro compatibilité essentiellement.



Historiquement, la plate-forme x86 d‘IBM a permis la création de clones moins chers, pendant que les autres plate-formes étaient verrouillées par leur contructeur (Commodore faisant de l’Amiga, Atari du ST, ARM ayant déjà coulé dans sa branche ordis de bureau, Apple du macintosh) - le marché des PC x86 a été envahi avec une rude concurrence, en même temps ils faisaient très pro &quot;pro&quot; donc ça a innondé le marché pro.
Les gens ont acheté des PC comme au bureau, et les PC ont évolué à une vitesse hyper rapide, car beaucoup d‘équipes y travaillaient, là où les autres types d’ordi n‘avaient pas autant de moyens humains mis à dispo.



Ensuite, Intel/AMD ont pris un gros leadership (mérité ou non, c’est selon) grâce a des montées en puissance rapide, des capacités de production et de distribution, et du marketing (RIP Cyrix, IDT et Transmeta).
En face, les 68000, les PPC, les MIPS, les SH-5, les ARM avaient du mal. ARM s‘est distingué en ne vendant que la licence (il y a eu un moment des ARM fabriqués chez Intel), donc on pouvait faire des puces ARM spécialisées (comme les ATLAS spécialisées GPS) mais n’arrivaient à survivre que dans un marché basse conso, basses perfs et basses marges. Après les PDA et les GPS qui ont duré quelques années, les smartphones ont enfin créé un vrai gros marché durable pour les puces mobiles. ARM a achevé d‘écraser les autres architecture du type. Quelques MIPS survivent, PPC ne survit que dans les gros calculateurs.



Actuellement, ARM abandonne l’IOT et cherche à se faire un place dans les PC et les serveurs, car le marché mobile est saturé et que plein de concurrents vont les perturber pendant au moins quelques années, avec possibilité de renverser la vapeur: les RISC-5. C‘est comme ARM, mais sans payer de licence, sans dépendance aux US, et ça plaît énormément à tout le monde: Chine, Russie, mais aussi l’Europe pour l‘indépendance. Ils ne sont pas encore tout à fait prêts, mais ça ne saurait tarder et ARM s’y prépare.



Mais ARM a tout à prouver sur les marchés serveurs et PC, car même si on montre des ARM ayant les mêmes perfs, ils ne consomment pas forcément moins (voire beaucoup plus) que les PC de même prix. Et Intel revient avec des idées ARM pour reconquérir le marché mobile, pendant que des démos avec AMD montrent des perfs intéressantes sans refroidissement actif…



Bref, la guerre n‘est pas finie, et les apriori concernant l’une ou l‘autre des architectures (perf pur les x86, basse conso pour les ARM) tendent à être démentis…

Le 03/08/2020 à 08h 23

J‘utilise de temps en temps Geforce now depuis un moment sur ma tablette (puisque c’est intégré).
Je dois dire que c‘est assez convaincant, même si on a souvent de petits lags ou des artefacts de couleur (si branché à la TV).
Surtout que ça permet de garder une utilité à cette tablette achetée en 2016: même si les perfs &quot;locales&quot; sont toujours bonnes, vu ce qu’elle consomme en batterie, l‘âge de cette dernière, et le peu de place dispo (16Go), le jeu occasionnel en streaming est cool et sans prise de tête.



Je vais tester ce lien avec la bibliothèque steam, ça m’intéresse: comme cela je pourrais jouer de temps en temps en laissant l‘ordi de jeu dispo pour les enfants, tout en profitant de la synchronisation des sauvegardes.

Le 30/07/2020 à 13h 02

Ce qui est énorme, c’est que de toutes façon les supports de copie diminuent puisque tout le monde est dans le cloud.

Il ne voudraient pas taxer les stockage iCloud/Onedrive par hasard? Ou une taxe sur les abonnements Netflix/Deezer/Spotify?

Là ça aurait du sens.

Le 27/07/2020 à 15h 02







Tandhruil a écrit :



Franchement ? Tu arrives à faire des soudures en remplacement de celles réalisées par des robots sur des cartes multicouches ?&nbsp;



On est bien d’accord: j’ai pas dit que je réparais les ordis/téléphone au fer à souder. Au mieux, j’ai ressoudé une prise USB sur une mini caméra, un bouton poussoir ou une prise d’alim sur un ordi. Et j’ai galéré et je n’étais pas fier du résultat. Mon beau-père a changé les condos de sa carte mère sur un AMD de mi-2000 (il a même pas pris les mêmes valeurs - mais ça a marché). On peut réparer la partie alim et la connectique simple sur certaines TV, démodulateurs Sat, lecteurs DVD/blu-ray, BOX internet…&nbsp;

Mais le gros des dépenses des ménages, c’est pas les téléphones et les ordis. C’est les cafetières, les aspirateurs, les lave-linge, lave-vaisselle, friteuses, plancha, radios, … Indépendemment, ces appareils coûtent moins cher que les ordis, mais on en a beaucoup plus par foyer, et ils sont souvent considérés comme plus importants que le matériel info.

Et je répète, le gros des “réparations” que je fais à l’occas, c’est du dépoussiérage, du grattage de contact et de la soudure sèche.


Le 27/07/2020 à 13h 24







skankhunt42 a écrit :



Ha si c’était si simple…&nbsp;&nbsp;



&nbsp;C’est très souvent si simple.



Quand je dis aux gens de ne pas jeter tout de suite: entre les cas où c’est le vieux fusible dissimulé qui a sauté (ou la resistance-fusible, grrrrr), le bouton marche/arrêt qui ne fait plus contact, la cosse à resserrer (qu’on voit par ce que tout est noir autour du fait des étincelles), sans oublier les filtres jamais nettoyés des aspirateurs ou des lave-linges,&nbsp; lave-vaisselles…

&nbsp;

Première note prévue: l’explication de l’utilisation et de l’entretien: les gens ne lisent plus les modes d’emploi et les oublient, mais l’entretien permet de conserver longtemps les machines. On devrait mettre des éco-amendes à ceux qui jettent sans avoir relu le manuel.

&nbsp;

Je ne compte plus le nombre de fois ou en passant une heure maxi sur un appareil j’ai pu le rendre fonctionnel de nouveau sans aucune pièce détachée (et la plupart tournent encore). Ca me désole même, j’aime bien faire le kéké avec mon fer à souder et tout démonter de fond en comble.



J’interviens parfois à un “repair café”, on répare 1 appareil sur deux ou trois, ça paraît pas beaucoup mais on est sur un coin de table, en quelques minutes, sans équipement autre que les tournevis, pinces et fer à souder, et surtout sans stock de pièces.


Le 24/07/2020 à 19h 29







js2082 a écrit :



En matière de tels, portables et audio, c’est clairement eux qui ont lancé le mouvement. (cf messages précédents)

&nbsp; &nbsp;



Il faut revenir encore plus en arrière. Dans les années 80, on avait encore souvent au moins des points de contrôles de la carte électronique, ou carrément le schéma quand on achetait une radio.

Ca a disparu et du coup les réparation devenaient plus compliquées … bien avant de voir tout en composants CMS.


Le 24/07/2020 à 12h 10







skankhunt42 a écrit :



&nbsp;Mais après t’a vu je fait un minimum de maintenance en nettoyant régulièrement les filtre.&nbsp;



Tout à fait d’accord. Les appareils on un peu de nettoyage/maintenance à faire. Quand un TV tombe en panne mais que toute l’alim est noyée dans la poussière, je ne vais pas accuser le fabricant…



Triton a écrit :



D’un autre côté, je pense qu’on est tous d’accord pour dire que celui qui verrouille le bootloader et ne fourni pas de mises à jour doit avoir une note pourrave, non ?



Oui, ça c’est mesquin. Autant on peut critiquer Apple sur le matos, sur le soft ils sont réglos. C’est pas le cas d’au moins 80% des Andouyids


Le 24/07/2020 à 12h 04







js2082 a écrit :



Le mouvement ayant justement été lancé par Apple avec son 1er iphone.



Vu le nombre d’appareil que j’ai réparé (écrans, CM, condos parfois, …), je ne suis absolument pas d’accord. Dans la plupart des budgets, les téléphones ne pèsent pas lourd. Il n’y a pas que les téléphones et les ordis.

Et mêmes les téléphones, ça se démonte et ça se répare encore.



Quand à accuser Apple, pas convaincu que ce soit le premier à avoir voulu que le démontage soit difficile. Nintendo avait beaucoup d’avance, et d’autres encore.


Le 24/07/2020 à 11h 46







Zaril_Zorndal a écrit :



Vu le prix, c’est comme si tu en avais acheté deux d’un seul coup aussi faut dire…





Eh eh! Sauf que c’était dans un forfait “réparation moteur” pour 100€, sur un Dyson de 78 ans. A moins cher, j’aurais dû acheter 2 aspirateurs entre temps…


Le 24/07/2020 à 10h 32







loser a écrit :



Les produits réparables c’est bien. Mais le coût de la main d’oeuvre est tel que souvent, il est économiquement plus rentable de racheter à neuf…



Tout à fait d’accord. Les gens ne cherchent même plus à réparer, car une bonne partie des appareils sont réparables.

Et les grandes marques ont encore un SAV qui fonctionne (d’expérience: iRobot, Focal, Dyson, Seb…) et les pièces détachées sont souvent moins chères quand on les commande chez le fabricant que sur ebay/amazon/cdiscount.

Chez Dyson, ils prêtent même un aspirateur pendant l’immobilisation du sien.


Le 24/07/2020 à 21h 23


David_L a dit:


Le comportement des &quot;T&quot; est le suivant : fréquence maximale élevée, mais basse sur plusieurs threads pour limiter le TDP, selon différents paliers. Cela correspond à des besoins particuliers, c‘est d’ailleurs pour ça que ce sont plutôt des CPU proposés en intégration.


Donc au final leurs perfs moins prédictibles sont certainement un cas de throttling, que je vois souvent parce que j‘utilise des CPU dans un environnement difficile à refroidir (car ces petits PC ont tendance à être bien cachés) - mais cela n’a rien à voir en fait avec le TDP qui est une donnée technique.



Le seul rapport (qui n‘est pas vraiment de cause à effet), c’est que dans ces petits PC seuls les CPU à TDP 35W sont trouvables.



Bref, je suis un peu indulgent avec les constructeurs quand je trouve excusable une baisse de perf avec l‘augmentation de la T° extérieure…



Avant, je considérais comme &quot;throttling&quot; surtout les périodes où les CPU sont en-dessous des fréquences de base pendant de longues périodes (exemple: un i5 2467m dans une tablette samsung qui boostait à 2.6GHz quelques minutes pour tourner ensuite à 100% mais à 0,9GHz encore plus longtemps - vraiment juste de quoi passer le bench à 2.6GHz). Comme mes CPU actuels affichent une fréquence aux alentours ou supérieure de leur fréquence de base, ça ne m’inquiétait pas.



Je reste tout de même sur mon constat: les Intel ont vraiment des périodes de ralentissement fort (encore vu aujourd‘hui) là où l’AMD (je n‘en n’ai qu‘un) est vraiment très lissé (faible ralentissement, mais plus long je pense). Mais je n’ai pas d‘Intel aussi récent pour comparer.

Le 23/07/2020 à 11h 31


David_L a dit:


Je ne vois pas ce que le throttling vient faire là dedans. Un CPU qui throttle, c‘est qu’il surchauffe (température de jonction atteinte). C‘est juste que pour les CPU (AMD comme Intel, même si le fonctionnement concret diffère), le TDP est une limite.


Je me trompe peut-être de terme, mais pour moi le throttling c’est le fait que le CPU soit limité en perfs par rapport à sa température. Le CPU ne performe pas au top, mais ça ne veut pas dire qu‘il sous-performe. On le voit par exemple sur des sites comme notebookcheck, sur des Ryzen portables: certains benchs étaient lancés plusieurs fois avec une dégradation des perfs par rapport au premier jet.



Je pense que les modes &quot;turbos&quot; où l’on permet au CPU de monter en fréquence sont limités par la température -> quand ça a déjà chauffé, le turbo n‘est plus ce qu’il était.
Donc à TDP limité, on sent plus les changements de condition de T°.



J‘ai plein d’exemples pour illustrer: montage vidéo, compression vidéo, apprentissage…
J‘ai recompressé toute ma bibliothèque musicale, le 8250U (15W - 1.6->3.4GHz) a mis plus de temps que le 4702MQ (35W - 2.2->3.2GHz) au final. Alors qu’au premier abord il était plus rapide sur les premières musiques.



Par contre, pour 95% des utilisations non intensives d‘un ordinateur, comme les traitements sont courts il n’y a aucune différence de perfs entre un PC en 35W et 65W, puisque l‘ordi peut refroidir entre 2 traitements (rafraîchissement Excel, compilation de projets plus sobres).



Je ne crois pas par contre que le refroidissement soit &quot;mauvais&quot;: on parle d’ordis très compacts, le refroidissement est un compromis entre la performance, l‘espace et les nuisances sonores. J’imagine bien qu‘avec un ventirad classique, ça fonctionnerait.



Et effectivement ce n’est pas un &quot;throttling&quot; dans le sens péjoratif habituel: j‘ai eu un Core-m3, 3,5W, là il y a du throttling, le mauvais genre: un moment où le CPU ne monte même plus à sa fréquence nominale pour refroidir après un pic de conso. Et 400MHz maxi, de nos jours, c’est extrêmement lourd pour bosser sous Office.



Donc mon point, c‘était que les perfs d’un 9700T sont proches d‘un 9600K dans les benchs, mais est-ce le cas sur la durée?

Le 23/07/2020 à 08h 15


(quote:48321:Miles Prower)
Le TDP chez AMD est calculé avec une formule… un peu étrange : TDP (Watts) = (tCase°C - tAmbient°C)/(HSF θca


Je la trouve plutôt lisible cette formule. Un TDP qui se calcule en fonction des T° max de fonctionnement préconisées, c‘est plutôt bon signe!



Après, c’est un peu comme la construction béton: tu choisis dans quel sens tu souhaites calculer tes contraintes, tu dimensionnes et tu vérifies dans l‘autre sens. Il faut bien commencer par une formule compréhensible, dimensionner, et ensuite vérifier que ça marche avec une autre formule si on a un doute ou une criticité.




SomeDudeOnTheInternet a dit:


OUn Core i7-9700T se rapproche plus d’un Core i5-9600K, avec un TDP 2.7x plus faible.


Attention: les benchs sont parfois menteurs. Les perfs d‘un modèle T (ou pire un U) sont comparables à un modèle desktop … jusqu’au throttling.
Exemple: un 8250U de chez intel (15W) est > 4702MQ (35W) … pendant 10 minutes. Après, le 8250U s‘essouffle et le 4702MQ reprend la tête.



Remarque: ayant un 3400GE, je reconnais qu’AMD a fait un super boulot: sur un 7500T le throttling (ou plutôt, le non turbo si trop chaud) est assez sensible quand on fait des tâches lourdes (avec de grosses pertes de perfs sur des temps longs - ça &quot;saccade&quot;), sur le 3400GE c‘est très lissé: ça ralenti, mais pas par saccades, ce qui le rend plus agréable.
Les 8250U, c’est la misère par contre: après une heure de boulot, ça souffle et la fréquence ne décolle plus vraiment longtemps. Ca rame. Sur les deux modèles que j‘utilise (HP et Lenovo)

Le 22/07/2020 à 08h 05


Salamandar a dit:


Vraiment je ne comprends rien aux TdP des dernières gammes AMD. Un r7 4750GE à 35W mais un Athlon 3150G à 65W ? Des Athlon 24 cpu/threads à 35W ? … ils y gagneraient à donner d‘autres chiffres que juste 35/65/95W.


Il faut garder les valeurs actuelles de 35/65/95 pour correspondre au marché. Si AMD sortait un 45W, certains PC seraient à revoir.
Exemple: j’ai des PC &quot;tiny&quot; de chez Lenovo. Le fait que depuis des années (au moins 7) les CPU sont &quot;35W&quot; quelque soit la marque fait que le format du boitier et le refroidissement ont très lentement évolués.



Quand au fait que des Athlons soient 65W … D‘expérience c’est plus statistique qu‘autre chose. Je pense qu’il prennent des coeurs en périphérie des Wafer et savent qu‘à ce niveau de fréquence, ces coeurs vont chauffer. Par exemple chez Intel certains CPU &quot;54W&quot; consommaient à peine 40W à priori (tout le PC tournait en moins de 60W pendant les benchs)…



Ce qui m’impresionne, c‘est les benchs de ces Ryzen 4000. Il n’y a pas tant de différence entre un Ryzen 3 et un 5 sur plein de résultats &quot;mainstream&quot;.



J‘ai un peu l’impression que AMD garde ces CPU pour les OEM pour ne pas cannibaliser les ventes de ses stocks. Ou alors parce que quelque chose n‘est pas encore tout à fait au point…

Le 22/07/2020 à 07h 55


Citan666 a dit:


La raison principale pour laquelle AMD met autant de temps à arriver et est encore largement minoritaire en termes de portables, c‘est entre autres parce que les constructeurs sont liés par des contrats de fourniture de longue durée (voilà bien un champ d’investigation propice pour un journaliste ;)).
… En l‘occurence AMD démonte Intel en rapport qualité prix depuis la première génération de Ryzen et le schéma se répète à chaque génération, donc l’aspect image c‘est réglé.


Le temps de conversion à AMD est long, c’est vrai, et les premiers portables AMD grand public Ryzen n‘étaient pas convaincant (autonomie très aléatoire … sur le même PC!). Nouveaux design, et grosse frilosité à prendre le risque de perdre une certaine expérience acquise chez intel + une réputation bien pourrie depuis de très nombreuses années pour AMD dans le mobile. Qui se vérifiait encore un peu: la conso à vide des modèles AMD restait supérieure à celle des intel (sans même aller chercher les PC &quot;bijoux&quot; dans ce domaine qui sont sous les 3W à vide avec le Wifi et l’affichage)



D‘autre part, pour regarder à perfs &quot;équivalentes&quot;, les prix sont souvent proches sur le mainstream. AMD a de nombreux atouts, Intel en a toujours aussi (purée, optane, c’est classe!). De mon point de vue, la marge d‘AMD existe, mais elle n’est pas si importante que cela.



Intel a l‘air de patauger, mais ça reste de bon produits. Quand AMD pataugeait avec les A4-A10, on voyait bien que leur archi tirait une langue jusqu’à terre pour suivre. De loin.
Ils ont dominer largement pendant un moment, se sont perdus sur plein de pistes abandonnées, maintenant ils mangent leur chapeau … mais ça reste une boîte excellente avec de très bons ingénieurs et commerciaux qui font leur taf. Ils découvrent juste la concurrence.



D‘un point de vue d’enthousiaste informatique: j‘aime bien avoir un Ryzen 5 avec plein de threads pour faire mumuse avec mes projets. Et j’applaudis les victoires successives d‘AMD sur tous les tableaux (ce ryzen 3 qui fait tourner un jeu sans aucun refroidissement présage de bons produits y compris dans les tablettes).
D’un point de vue pragmatique: un i3 8145U est un sacré CPU pour un ordi personnel de tous les jours, capable de donner de la patate un certain temps pour 95% des tâches quotidiennes/hebdo/mensuelles. De même pour les joueurs, les Intel ont des résultats plus constants et la majorité du temps supérieurs à tarif équivalent.



Quand aux failles de sécurité, il y en aura bien sur AMD va.



Bref, c‘est un super redressement d’AMD, mais pourquoi faudrait-il cracher sur le second?
Surtout quand on arrive enfin à du BIG.little sur PC et un nouveau chip graphique.



Enfin, je ne vois pas en quoi l‘article a un ton doux. Je le trouve neutre, comme il se doit pour une info. C’est pas un article d‘analyse.

Le 21/07/2020 à 09h 47







sybylle a écrit :



&nbsp;Traduction de l’immense majorité des boîtes: PAS de télétravail (ben oui, on les a pas forcés) MEME là où c’est faisable et justifié (10 dev obligés de venir au bureau pour aucune plus value, si ce n’est de les avoir sous les yeux).&nbsp;&nbsp;



&nbsp;Pas d’accord, l’énorme majorité des gens que je connais a fait du télétravail, quelque soit le poste et l’entreprise/organisation.

Pour beaucoup le télétravail restera (voir deviendra parfois le mode principal).



Le gouvernement peut difficilement “obliger”, non seulement chaque fois qu’il impose quelque chose on entend que les mécontents s’exprimer, mais en plus plus il “impose” plus il peut se faire retoquer (et donc se décrédibiliser).



&nbsp;



Tholar a écrit :



Les réseaux sociaux, c’est une sorte d’accélérateur de particules, un moyen de faire tomber nos vieilles démocraties, tellement faibles et vérolées que des mouvements populistes et/ou dangereux y entrent comme dans du beurre.&nbsp;&nbsp;&nbsp;&nbsp;



Tout à fait d’accord. Mais pas que.



Mettons à part les personnes en mal de reconnaissance qui cherchent à faire le plus de consultations possible avec le slogan le plus alarmiste/putaclic possible.



Des gens de bonne volonté voient dans les réseaux sociaux à la fois un moyen populaire et libre d’échanger des idées et de fédérer les bonnes volontés. Ils aimeraient que ce soit pris en compte dans les débats et les décisions.



Mais… c’est perdre de vue que les réseaux “sociaux” sont très communautaires: on y crée des groupes qui ont les mêmes tendances et idées. Donc il n’y a pas de confrontation/débat réel dans les réseaux sociaux. On a souvent des groupes soit de personnes qui sont toutes d’accord, soit de personnes qui sont toutes pas d’accord avec le sujet. Dans les deux cas, les participants qui ont un autre avis sont souvent décontenancés et ne participent plus.

–&gt; chaque groupe d’un réseau social, même avec 10000 adhérents, n’est pas un reflet de la population. Et même si on se prétend “influenceur”



Par ailleurs intégrer les réseaux sociaux permet de faire s’exprimer les gens librement et de trouver des pistes/idées qui sont souvent intéressantes et légitimes.

Mais … lors de la décision, les gens ont du mal à comprendre/admettre que leurs idées puissent ne pas être retenues pour des contraintes temporelles, légales ou budgétaires, ou pire, que d’autres idées du groupe d’en face puissent avoir été perçues comme meilleures. Au final, après avoir rallier des bonnes volontés à un projet, on se construit des opposants farouches et revanchards, et ceci en toute bonne foi. Car même si on réfléchit aux propositions des gens, souvent on préfère assurer le résultat avec ce qu’on avait déjà planifié, reportant à plus tard les bonnes suggestions. C’est plutôt humain comme fonctionnement.



Je passe le problème de groupe créé en parallèle parce que les règles/les participants du groupe officiel ne leur plaisent pas…



Les réseaux sociaux dans le débat démocratique, c’est comme une cour d’école élémentaire avec des adultes.



Alors comparer les réseaux sociaux à Vichy, ça va trop loin. Par contre, être méfiant, désarmé, maladroit face à ces mouvements rapides et parfois violents quand on doit prendre des décisions politique (dans le sens: décision avec un objectif à atteindre à terme selon une trajectoire qu’on a imaginé), je le comprends et je l’excuse facilement.



Pour le moment, je n’ai pas vu de personne capable de gérer cela de bout en bout sur des sujets clivant.


Le 06/07/2020 à 12h 37

Sur Edge, je n’ai pas le problème. Sur Chrome… c’est&nbsp; freeze sur freeze (Nvidia Shield K1).

&nbsp;

Le 03/07/2020 à 14h 56







FrDakota a écrit :



Sachant que Claire Chazal et Jean-Michel Jarre se verraient bien ministre de la culture ça fait peur.&nbsp;<img data-src=" />





En quoi ça fait peur? Je n’ai vraiment aucun à priori sur les gens qui prennent ces fonctions. Aucun, d’aucun bord, ne peut briller. On est tous trop scindés en France, quelque soit le parti qui a le pouvoir, il a 75% de la population contre lui.



Et personne ne semble se dire “on va tenter d’aller dans son sens, histoire qu’un projet aboutisse”. Non, on freine. C’est comme si on devait choisir à 4 de partir en Vacances depuis Paris: 1 propose le Nord, 1 l’Est, 1 le Sud et 1 l’Ouest.

C’est le mec du Sud qui a un petit avantage -&gt; il a proposé Montpellier, tout le monde se retrouve à Fontainebleau et ça pète. On change de cap, plutôt Nord, on arrive à Beauvais… et après 3 changement de direction, tout le monde a passé de très mauvaises vacances. Alors que certainement une majorité aurait pu s’adapter à Montpellier…


Le 01/07/2020 à 11h 26







wanou2 a écrit :



C’est pas 24,99 pour ADSL+mobiles illimités chez sosh ?





Et d’ailleurs c’est 21€ chez RED avec la NB6. C’est vrai que ça fait réfléchir (c’est 43€ chez SFR)


Le 01/07/2020 à 11h 19







wanou2 a écrit :



C’est pas 24,99 pour ADSL+mobiles illimités chez sosh ?





Visiblement c’est 29,99€&nbsp; &nbsp;bien 24,99,&nbsp; mais avec un débit estimé divisé par plus de 2 par rapport au réel actuel (malgré qu’ils indiquent bien le VDSL2).

&nbsp;Pour 8€, je ne vais pas changer (surtout que j’utilise le forfait mobile à 0€ associé à la box pour dépanner).


Le 01/07/2020 à 10h 50

Le 8 c’est pour un lancement le 8ème jour de la semaine.



J’attends de voir si elle mérite son nom de pop, et sinon si de nouveau comme pour les dernières annonces ça fait pschhhh…



&nbsp;





Righall a écrit :



Les oubliés, ceux qui sont loin de leur DSLAM et qui ne verront (i.e. de leur vivant) pas la fibre dans leur habitation, dont je fais partie, sont -quasi- devenus des indésirables pour Free.&nbsp;



&nbsp;Tout le contraire pour moi. Seul free me dégroupe et me permet d’avoir un abo sous les 45€ (32 d’ailleurs, avec l’option d’appel illimité vers téléphones mobiles - pas de concurrence niveau prix chez moi)


Le 01/07/2020 à 11h 16


Nerg34 a dit:


Intel reste une drôle de boîte. Ils ont des moyens colossaux mais ont complètement foire sur le mobile et sont maintenant mis à mal par AMD…Je serai curieux de savoir où est parti tout leur fric…


Comme dit dans l‘article: investissements et abandons, recrutement hors de prix certainement…
Je ne leur crache pas dessus, ils ont déjà la rançon de la gloire: les failles qui s’enchaînent (enfin, surtout des nouvelles façons d‘exploiter les mêmes), les quitter devient un argument marketing (avant cette annonce d’Apple, n‘oublions pas Windows 10 sur PC/tablette en ARM), et leur réputation est au plus bas (ce que je trouve disproportionné - leurs processeurs restent très performants)



D’ailleurs, c‘est dommage pour Atom: c’était fiable, pas cher, suffisamment performant et peu consommateur. Mais on ne les a pas retrouvé dans les bons produits!



Enfin, avec l‘arrivée de &quot;BIG.little&quot; chez Intel, on peut s’attendre à se rapprocher des promesses d‘ARM mais avec les PC (quand Windows sera prêt :) ).



Ceci dit, je fais confiance aussi à Apple pour produire de la puce qui finira par arracher, surtout que maîtrisant le silicone, l’OS et le soft, ils vont bien réussir à montrer des softs spécifiquement développé, sans équivalent réel, et aux perfs incomparables.

Le 01/07/2020 à 10h 54







Witcher a écrit :



En même temps ils se ressemblent beaucoup, honnêtement.

Peut-être que la reconnaissance faciale ne devrait donc être appliquée qu’aux blancs.



En fait, on s’aperçoit que si on n’a pas l’habitude de certaines caractéristiques du visage, on ne distingue pas les gens entre eux. Je n’ai pas de problème avec les blancs, mais pour moi les asiatiques (et les noirs dans une certaine mesure) sont difficiles à distinguer.

Tout comme apprendre le Français à un grec est difficile car il a du mal à faire la différence entre les sons é,è,a, …



Donc si la reconnaissance est utilisée sur les noirs, c’est peut-être que les utilisateurs ne les fréquentent pas suffisamment pour les distinguer correctement. C’est plus un problème de communautarisme que de racisme?


Le 01/07/2020 à 06h 30

Ca manquait. Les gros à stéroïdes on ne les voit plus depuis que les salles de sport sont fermées

Le 30/06/2020 à 21h 06







Magyar a écrit :



Ha merci pour le retour. Je vais bientôt emménager et j’aurais a priori du VDSL2 à 50Mb et je me demandais si j’allais pas prendre une mini 4K mais du coup j’hésites





Je ne suis pas le seul de cet avis. Si tu comptes sur la mini 4K pour s’occuper du Wifi (surtout avec plein d’appareils), faire NAS ou sur le player 4K pour afficher quoique ce soit d’autre que la TV free, tu seras déçu.

Par contre, pour l’accès internet, RAS


Le 30/06/2020 à 14h 29







noks a écrit :



Bon article pour la partie commerciale, on pourrait aussi causer technique, et notamment l’état du réseau et de ses intercos avec les transitaires, qui posent problème assez régulièrement visiblement ….&nbsp;



&nbsp;Pas eu de problème depuis des mois (à part une coupure dans pendant 2 heures pendant le confinement).



Mais c’est vrai que s’il pouvait faire en sorte que ce qui vende est réellement fonctionnel, ce serait mieux.



&nbsp;J’ai une freebox mini 4K. Je ne peux pas dire qu’elle ne fonctionne pas, mais:




  • Si je ne coupe pas le femtocell à chaque redémarrage, le WIFI redémarrait plusieurs fois par jour

  • Maintenant, j’ai abandonné le Wifi déplorable (mon NUC 2820 faisait mieux en couverture et en débit, alors qu’il est enfermé)

  • Le boitier média est incompatible avec des tonnes d’applis, y compris en chromecasting (Amazon Prime par exemple qu’on ne peut pas caster)

  • Le boitier média ne détecte souvent pas le Wifi au démarrage et met plusieurs minutes avant d’être fonctionnel lors d’un redémarrage. Et qu’est-ce qu’il chauffe!!!

  • Les enregistrements de la TV directement sur la box on été perdus lors d’une mise à jour. Merci free!

  • Les alimentations fournies meurent les unes après les autres, obligé d’en acheter une bonne dédiée

  • Je ne peux pas activer le freewifi, il me dit que la freebox est inconnue ou un truc du genre. 3 tickets plus tard et un changement de box, ce n’est pas résolu



    Après, le tarif bat largement la concurence et je n’attendais rien de plus que l’accès internet et le téléphone fixe qui me conviennent très bien.

    Bref la liste de fonctionnalités à la Prévert me fait bien rire et je n’ai plus aucune confiance dans Free pour les fonctionnalités avancées. La NB6 était peut-être limitée, mais tout ce qui était annoncé fonctionnait parfaitement et elle consommait pas loin du tiers de la conso de la freebox mini.


Le 29/06/2020 à 14h 03

Dans vice-président il y a …

Le 29/06/2020 à 09h 12

Il y avait un jeu sur Daria? Même le DVD c’est de l’abandonware. J’ai passé des années à l’attendre, j’ai dû l’acheter au Mexique et pour le lire j’ai acheté un lecteur externe exprès pour le dézoner.

Mais ça valait le coup: cette série est géniale (quoique le niveau d’Anglais soit souvent un peu trop haut pour moi).



J’utilise souvent abandonware-france, mais surtout par flemme, car j’ai plein de jeux achetés en disquettes (5.25, 3.5) et en CD, mais pour y jouer c’est souvent la croix et la bannière - surtout à cause de DRM qui ne sont plus supportés sous Windows et ne le sont pas par Wine.

Le 29/06/2020 à 09h 05

Déjà dans le jardin: arrêter de tondre trop. Quand on garde de l’herbe de 10-20cm, le soir on a de l’humidité au sol pendant plusieurs jours, sans arroser. Et surtout près des plantes qu’on a planté dans l’année! Ca me semble idiot de désherber, les “mauvaises” herbes ne pompent pas énormément et protège les jeunes feuilles du Soleil.

&nbsp;

En Allemagne, ils ont tendance à planter les arbres (feuillus) devant les fenêtres: en hiver la lumière passe car les feuilles sont tombées, en été la lumière est bloquée.

&nbsp;

Et perso j’obligerais les gens à planter des arbres/arbustes dans leurs jardins à raison d’un certain nombre par m². Je ne comprends pas pourquoi certains s’acharnent à avoir 800m² de pelouse vide.&nbsp;&nbsp;Vus du ciel, certains quartiers résidentiels sont des déserts de pelouse sans arbres (sauf pour les clôtures).

Le 26/06/2020 à 07h 11







Argonaute a écrit :



Celui qui paie de l’illimité paie de l’illimité, où vois-tu une arnaque ?&nbsp;



&nbsp;

C’est surtout niveau téléphone/ADSL/Fibre.


Le 25/06/2020 à 15h 03







MisterDams a écrit :



Au contraire, le full 5G pourrait plutôt simplifier le réseau et éviter le doublon de technologies en mutualisant une infrastructure de qualité et en arrêtant les “patchs” localisés.



Mais comment? Il faut plus d’antennes en 5G, et pour rappel les opérateurs sont tenus de couvrir hors batiments. Donc il y aura de toutes façons des répéteurs (il y en a déjà), un par opérateur, dans les plus gros commerces et lieux de travail (les bâtiments basse conso ont tendance à bloquer toute la 3G/4G à l’intérieur)

Par ailleurs, la 3G/4G/5G consomme plus d’énergie que le Wifi. Un téléphone sans carte SIM mais sur WIFI dure 8-10j sur batterie, 3j pour avec la carte.


Le 25/06/2020 à 10h 04

Perso j’ai toujours trouvé que l’illimité était une arnaque: si c’est illimité, c’est que certains client payent pour que d’autres consomment.

Autant je trouve normal de lisser l’accès de base, autant je pense que si ils peuvent fournir 30Go par mois sans prendre de risque, avec les 5-6Go que je consomme maxi je devrais pouvoir payer un peu moins cher, non?



Quand au fair use, autant dire qu’une fois en faire use on n’a plus de connexion: tous les logiciels tombent en timeout à 128k. Aucune page ne charge. Rien ne fonctionne.

Le 24/06/2020 à 15h 32







wanou2 a écrit :



C’est vrai… je les avais complètement zappé. Mais c’était quand même assez anecdotique&nbsp;&nbsp;



&nbsp;Sauf que ARM ça signifiait justement Acorn Risc Machine au départ. Donc ces ordis étaient désignés comme les ARM par analogie avec leur CPU.

Et ils ont été jusqu’à sortir un portable (le A4) réputé plus rapide qu’un 486 de la même époque.



Puis Acorn a coulé, ARM a été crée pour les licences, et une vague de PDA sous ARM, puis de GPS, de lecteurs MP3 (de Gameboy Advance) a déferlé avant de revoir ARM dans une archi plus “sérieuse” dans les tablettes (quoique les PDA étaient intéressant, ayant eu un PSION).



D’ailleurs Intel avait une licence ARM et fabriquait les XScale, qui se défendaient bien niveau perfs.


Le 24/06/2020 à 11h 55







Citan666 a écrit :



Mais dire que le seul ensemble matériel + système, hors question de goût, est “meilleur”&nbsp; que PC ou “bon rapport qualité prix” c’est être extrêmement biaisé, voire de mauvaise foi. &nbsp;&nbsp;&nbsp;



Seul argument où je suis d’accord, puisque Apple s’est souvent arrangé pour avoir des versions en avant-première voire exclusives de CPU/GPU.

Donc difficile de comparer.



Le Mac a un avantage sur le PC: il n’y a pas de mauvais modèle. Sur PC les modèles bas de gamme sont souvent bien trop cher par rapport au service rendu.

&nbsp;

A une époque (Windows 7 et avant), le Mac avait un avantage sur le PC: l’autonomie.&nbsp; Avec Windows 10, j’ai plusieurs PC qui ont eu un regain d’autonomie (Probook G1, Fujitsu e754, X240). Dépassant allègrement l’autonomie annoncée au départ par le constructeur (sauf le X240, qui l’a retrouvée mais avec une vieille batterie). Et là j’ai l’impression qu’on peut remercier AMD et les modes turbos pour que Windows travaille à charger 1 seul CPU, histoire de ne pas monter tous les coeurs en fréquence (avis perso).



&nbsp;

J’ai quasi uniquement des PC de gammes pro - ils sont généralement bien comparables aux Apple, et sincèrement à l’achat neuf pour un particulier, un Apple est au même prix ou moins cher. Pour la durabilité, les pièces de rechanges, le maintien à flot des années durant par le système, je préfère les PC (je peux encore installer et lancer Windows 10 sur un Core Solo à 1.7GHz de 2006).

Si on veut comparer Apple-to-apples, il faudrait comparer aux Dell XPS et Microsoft Notebook. Là l’avantage est souvent chez Apple. Mais dans tous les cas on a les mêmes limitations (extensibilité, réparabilité).Ces ordis sont trop beaux pour pouvoir avoir 8Go de RAM supplémentaires - ou alors il faut payer le double du prix d’une barrette pour des puces soudées.

&nbsp;

&nbsp;

A l’usage out of the box, le Mac est meilleur. La faute à Microsoft (qui a dû prendre peur des procès): sous Vista on avait pas exemple movie maker et une appli de gallerie de photos intégrées. Elle ont été sorties du système pour Windows 7 (programmes Ms Live!). Maintenant quand on installe un Windows 10, les outils intégrés ressemblent à des exemples basiques de programmation du SDK.

Bref, on ne fait rien avec un PC sous Windows 10 sorti du carton. Avec un Mac on peut faire plein de choses multimédia qui font plaisir.





Enfin pour le prix des Apple: Apple offre de reprendre 10% du prix d’achat d’origine de l’ancien appareil pour en acheter un nouveau. C’est commercial, mais écolo aussi.


Le 24/06/2020 à 11h 35







wanou2 a écrit :



Je suis assez ouvert sur l’évolution que ça pourra prendre, je suis curieux. Il y a des PC arm depuis bientôt 15 ans&nbsp; et des propositions sérieuses depuis environ 56 ans (chromebook)&nbsp;



Sauf si on compte les archimedes et autres Acron: des PC en ARM depuis 1987…


Le 23/06/2020 à 08h 42







revker a écrit :



&nbsp;Et en plus, ils décident de leur obsolescence. C’est une marque immonde.&nbsp;



Trollesque. Apple maintient les télphones x années, bien au-delà de la plupart des constructeurs Android. Et tous sont mis à jour.

Quand à l’obsolescence d’un ordi, c’est l’utilisateur qui en décide. Ce n’est pas parce que tu n’a plus de mises à jour que ton ordi s’arrête de fonctionner.

Par contre je te rejoins sur un point: si Apple savait se démarquer intelligemment avant et avait des ordis très durables, non seulement maintenant leurs ordis n’ont rien de spécialement intéressant à part l’écran (que la concurrence dépasse), mais en plus ils sont enclin à tomber plus en panne qu’avant (dixit un ami fan d’Apple qui a eu plus de 2x plus de pannes avec les Apple acheté ces 3 dernières années, passant nettement en taux de panne devant les lenovo qu’il gère à côté).

Par contre leur réparabilité est au niveau des PC de la même gamme (les fins tout soudé).



Et c’est pas le passage en Arm qui va changer quoique ce soit à part leur marges. Un bon PC a une autonomie, une réactivité et un temps de démarrage à froid équivalent/meilleurs que les tablettes y compris iPad pro si on en fait la même utilisation. Les x86 (surtout intel avant) ont largement amélioré leur conso à vide et à faible régime (8h d’autonomie avec moins de 40Wh de batterie sur un x240 de 2015), et les Arm ont largement augmenté leur conso à plein régime pour approcher les perfs des PC. On s’aperçoit que sur un système mobile, la conso CPU est liée au nombre de transistors et à la fréquence. Hors le nombre de transistors est très lié à la mémoire cache, qui représente souvent 50% du nombre. Comme il n’y a pas de secret particulier dans les caches, 4Mo de cache sur un i5 consomme autant que 4Mo de cache sur un Arm.


Le 23/06/2020 à 12h 54







dvr-x a écrit :



&nbsp;Et ce que les gens sont prêt à payer plus pour faire travailler en France = Non. C’est relativement simple comme problème.&nbsp;



+1

Quand on demande aux gens “vous préférez le prix ou la qualité?”, ils répondent la qualité. Dans les faits, nous sommes tous hypocrites, et c’est le prix qui prime.


Le 23/06/2020 à 08h 23

“Martin Bouygues était sur la même longueur d’onde”<img data-src=" />

Le 22/06/2020 à 14h 04







Goupil74 a écrit :



Le nouvel Edge ne supprime pas à mon expérience IE qui reste installé par défaut





C’est d’ailleurs cool car Edge Chromium a repris cette fonctionnalité de Chrome entreprise qui permet d’ouvrir des sites avec IE mais depuis Edge.

Très utile en entreprise, très utile…


Le 22/06/2020 à 14h 02

Faut regarder le résultat de l’Islande sur l’alcool :) Pour ça qu’ils prenaient l’avion pour boire en Angleterre il y a quelques années?



Et pour repondre en chanson aussi:

“C’est pour ça, moi la dernière fois, j’ai voté contestataireAu moins lui, il tient ses promesses, il a les épaules sur terreAvec lui l’Europe elle sera française, et chacun sera chez soiIl a promis qu’il augmenterait le pouvoir des chats”

Le 22/06/2020 à 10h 12

D’après l’étude, c’est général en France, que ce soit l’habillement, la nourriture, les transports…

La question c’est: quelle part de taxe, quelle part de salaire (puisque j’imagine que le prix de gros ne change pas beaucoup), quelle part de marge?

Un économiste avait souligné il y a peu que sur les 40 dernières années, la progression de productivité en France s’était répercutée sur les salaires, contrairement à beaucoup de pays où elle s’est retrouvée dans lé bénéfices.