votre avatar Abonné

ForceRouge

est avec nous depuis le 11 mai 2008 ❤️

3028 commentaires

Le 04/08/2020 à 13h 05


DoWnR a dit:


J’en ai un complet en état de fonctionnement au grenier mais c’est pas la fête niveau conso, il doit tirer par loin de 200W en idle, bon OK c’est un C2Q Q9450 couplé à une GTX570, ça n’aide certainement pas :D À noter aussi qu’il souffre en décodage vidéo avec les codecs récents


Sans écran et avec un stockage normal (autrement dit, pas 20 HDD), tu dois être à 40W idle je pense.



J’ai pas mal de vieux matos qui pourrait re-servir en NAS, DNS, Plex, etc… le problème, c’est que ca consomme de trop donc je n’utilise plus.



Actuellement, j’ai une carte mère J3455 Asrock fanless dans un boitier Antec Mini ITX avec 16 Go de RAM + 2 SSD + Proxmox.



Avec Plex (dans un container Proxmox LXC), il gère (testé et validé) 3 encodage H264 1080p Haute définition de source H265 4k HDR sans problème (peut être plus, mais pas testé), pour une conso de 10/12W en Idle.



Après, c’est pas le même tarif, 100€ la mobo, 70€ le boitier, 60€ de RAM + le prix du stockage.

Le 04/08/2020 à 10h 47







Winderly a écrit :



C’est donc de ça que tu parlais à propos de réalité.

Tu pourrais pour moi être explicite dès le début.

Je parlais de la réalité officielle de l’engin, qui est bien différente.

De plus, contrairement à toi, j’ai du mal à considérer ce but comme atteint.

Le jour où la hadopi attrapera des gros poissons, je changerai peut être d’avis.

 

Je viens de relire 3 fois, je ne comprend pas mieux.







C’est pas hadopi qui met les amendes mais ce sont eux qui initient les transferts au parquets, donc même si techniquement ils ne mettent pas d’amende, c’est quand même eux qui déclenchent la procédure.


Le 04/08/2020 à 10h 07







Winderly a écrit :



Lorsque Marc écrit :

“Ce qui est reproché au titulaire de l’abonnement n’est pas le « piratage

» d’œuvres, mais de n’avoir su empêcher, malgré plusieurs

avertissements, que sa ligne ne serve à mettre à disposition ces

contenus. C’est la persistance d’une défaillance, le défaut de

sécurisation de l’accès Internet, qui devient éligible à une

contravention de 1 500 euros maximum, infligée par le tribunal de

police.”

Il ment aussi ?



 



Ça ne risque pas d’arriver parce que ce n’est pas le travail de la hadopi.

C’est la réalité.









Winderly a écrit :



Lorsque Marc écrit :

“Ce qui est reproché au titulaire de l’abonnement n’est pas le « piratage

» d’œuvres, mais de n’avoir su empêcher, malgré plusieurs

avertissements, que sa ligne ne serve à mettre à disposition ces

contenus. C’est la persistance d’une défaillance, le défaut de

sécurisation de l’accès Internet, qui devient éligible à une

contravention de 1 500 euros maximum, infligée par le tribunal de

police.”

Il ment aussi ?



 



Ça ne risque pas d’arriver parce que ce n’est pas le travail de la hadopi.

C’est la réalité.







J’ai pas dit que toi ou Marc mentait, j’ai dit que tu te mentais à toi même. Si derrière cette loi, t’as pas compris que c’est les ayants droits qui sont aux manettes et que le but de la hadopi est de réduire le piratage de films et musiques depuis maintenant 10 ans, je ne peux rien pour toi.



Quant à qui inflige les amendes et met en prison, je pense que tout le monde, y compris toi, a compris le sens de ce que je veux dire, pas la peine de venir sortir ta science.


Le 04/08/2020 à 10h 00







la_hyene a écrit :



cet avis me fait penser aux personnes qui ne vont rien faire pour la lutte pour le climat et contre la pollution. Moi tout seul à mon niveau, quoique je fasse ça ne fera pas de bien au climat. Commence par arrêter de faire du mal. Comme on nous encourage à éteindre les lumières, changer les joints des robinets, pourquoi économiser ?

Moi tout seul je n’y ferai rien. Et en plus LA crise économique la dessus, lâcher les milliards.

Je ne suis pas Cassandre , mais il faudra payer !







Rien à voir, la perte de pognon dans hadopi n’influ pas sur le climat. Je m’en tape que l’état ait claqué 80M dans hadopi alors que je reprends mes enfants quand ils oublient d’éteindre la lumière des chiottes.


Le 04/08/2020 à 08h 17







Winderly a écrit :



Non, nxi avait publié une actu sur ce sujet.

 



Quel rapport avec le défaut de protection de l’accès Internet ?

 

<img data-src=" />



 

Alors tout va bien. <img data-src=" />







Le problème est que tu te mens tout autant que hadopi le fait. Le but de la hadopi n’a jamais été de protéger les accès internet des gens. Moi je te parle de la réalité.



Les gens (je me base sur mon cercle de connaissance et moi même) ne téléchargent plus en P2P, ont quasiment tous des abonements Netflix, une bonne partie utilise un spotify like pour la musique, et pour un truc non dispo sur netflix, bah on demande à celui qui sait.



Donc je persiste, beaucoup sont passé à l’offre légal. Est ce que la hadopi a aidé ou c’est juste l’effet des netflix and co qui sont apparu entre temps, je ne sais pas. Mais ce qui est sure, c’est que personne n’a payé d’amende, ni été en prison pour avoir télécharger.


Le 03/08/2020 à 15h 50

Franchement faut pas cracher dans la soupe, avec la Hadopi, les ayants droits sont contents, les gens ont effectivement moins téléchargé (j’ai plusieurs exemple dans mon entourage ayant arrêté après la première lettre) et ça n’empêche pas les motivés (mais ne représentant qu’une petite minorité) de continuer.



Un juste milieu pour tout le monde. Et 80M en 10 ans… même si c’est beaucoup, c’est clairement une goute d’eau dans l’océan du gaspillage public.

Le 04/08/2020 à 10h 39







ForceRouge a écrit :



Le truc bien, comme un contrat est considéré nul si inscrit à bloctel, c’est qu’à partir du moment où on est sur bloctel, on va pouvoir souscrire à tout et ne rien payer. Il faut taper la ou ça fait mal, le portefeuille.



Moi j’aimerai bien 4km2 de panneau solaire et 24 assurances, sans oublier mes 13 forfaits mobiles et 4 piscines.







Sans oublier le changement des 350 fenêtres de mon château :)


Le 04/08/2020 à 10h 38

Le truc bien, comme un contrat est considéré nul si inscrit à bloctel, c’est qu’à partir du moment où on est sur bloctel, on va pouvoir souscrire à tout et ne rien payer. Il faut taper la ou ça fait mal, le portefeuille.



Moi j’aimerai bien 4km2 de panneau solaire et 24 assurances, sans oublier mes 13 forfaits mobiles et 4 piscines.

Le 04/08/2020 à 10h 34







Winderly a écrit :



“remplace l’opt-in par l’opt-out”

Je suis déçu.







Clairement, il suffit de créer une société par semaine et basta, appel illimité et impossibilité de se desinscrire efficacement.



A côté de ça, je suis sur bloctel et je ne reçois pas d’appel de prospection. Donc semble plutôt efficace (pour moi tout du moins)



Le 04/08/2020 à 08h 02


(quote:48437:brice.wernet)
Rétro compatibilité essentiellement.Historiquement, la plate-forme x86 d’IBM a permis la création de clones moins chers, pendant que les autres plate-formes étaient verrouillées par leur contructeur (Commodore faisant de l’Amiga, Atari du ST, ARM ayant déjà coulé dans sa branche ordis de bureau, Apple du macintosh) - le marché des PC x86 a été envahi avec une rude concurrence, en même temps ils faisaient très pro “pro” donc ça a innondé le marché pro. Les gens ont acheté des PC comme au bureau, et les PC ont évolué à une vitesse hyper rapide, car beaucoup d’équipes y travaillaient, là où les autres types d’ordi n’avaient pas autant de moyens humains mis à dispo.Ensuite, Intel/AMD ont pris un gros leadership (mérité ou non, c’est selon) grâce a des montées en puissance rapide, des capacités de production et de distribution, et du marketing (RIP Cyrix, IDT et Transmeta). En face, les 68000, les PPC, les MIPS, les SH-5, les ARM avaient du mal. ARM s’est distingué en ne vendant que la licence (il y a eu un moment des ARM fabriqués chez Intel), donc on pouvait faire des puces ARM spécialisées (comme les ATLAS spécialisées GPS) mais n’arrivaient à survivre que dans un marché basse conso, basses perfs et basses marges. Après les PDA et les GPS qui ont duré quelques années, les smartphones ont enfin créé un vrai gros marché durable pour les puces mobiles. ARM a achevé d’écraser les autres architecture du type. Quelques MIPS survivent, PPC ne survit que dans les gros calculateurs.Actuellement, ARM abandonne l’IOT et cherche à se faire un place dans les PC et les serveurs, car le marché mobile est saturé et que plein de concurrents vont les perturber pendant au moins quelques années, avec possibilité de renverser la vapeur: les RISC-5. C’est comme ARM, mais sans payer de licence, sans dépendance aux US, et ça plaît énormément à tout le monde: Chine, Russie, mais aussi l’Europe pour l’indépendance. Ils ne sont pas encore tout à fait prêts, mais ça ne saurait tarder et ARM s’y prépare.Mais ARM a tout à prouver sur les marchés serveurs et PC, car même si on montre des ARM ayant les mêmes perfs, ils ne consomment pas forcément moins (voire beaucoup plus) que les PC de même prix. Et Intel revient avec des idées ARM pour reconquérir le marché mobile, pendant que des démos avec AMD montrent des perfs intéressantes sans refroidissement actif…Bref, la guerre n’est pas finie, et les apriori concernant l’une ou l’autre des architectures (perf pur les x86, basse conso pour les ARM) tendent à être démentis…


Merci pour cette réponse!

Le 29/07/2020 à 12h 00

Ca serait possible de faire une news sur x86_64 vs ARM ? Pourquoi aujourd‘hui on a du x86_64 dans les PC et de l’ARM partout ailleurs? La modularité? la rétro-compatibilité? La puissance? Les PCIe ?

Le 03/08/2020 à 16h 02







Jarodd a écrit :



millions







Pardon, mon cerveau à fait le raccourci:



« Millions » et « dollars » =&gt; milli-ars.



Pour le coup, ca me trouble cul de le dire, mais je me positionne plutôt du côté de Trump…



Pour la collecte des données dont fait part le redditer, on sait si c’est Android et/ou iPhone ? Je sais que Apple réduit de plus en plus les API permettant l’identification des personnes et téléphones, ça me semble étrange qu’iOS laisse la liste des SSID dispo aux applis.


Le 03/08/2020 à 11h 04

D’un côté, amende de 5 milliards, puis rachat par une boîte US… ça me rappel Alstom. =&gt; Les US sont encore une fois des enflures



D’un autre côté, y a eu quelques travaux sur TikTok et c’est une usine à aspiration de donnée (Tout ce que l’appli arrive à pomper du téléphone) avec obfuscation avancé du code. =&gt; Les US ont raison de bannir l’appli



Si quelqu’un a plus d’info…

Le 01/08/2020 à 19h 37

Pour avoir testé pendant la phase gratuite, je pense que cette solution a plus d‘avenir que Shadow, déjà Nvidia est à la barre, donc on des GPU qui tiennent la route et sont à jour. Et coté tarif, 5€, c’est rien du tout comparé à un PC gaming avec un gros GPU.

Le 01/08/2020 à 19h 32


Arcy a dit:


Oui et non. Le copinage sous-entend qu‘il y a un arrangement (on privilégie les potes, etc …), ici c’est juste profiter de l‘actionnariat.C’est comme si TF1 voulait faire construire un studio / local / …, c‘est Bouygues Construction qui l’aurait géré et pas un concurrent (ça aurait fait con).Et puis passer par 2CSRI, ça permet de réinjecter l‘argent de ton actionnaire chez lui pour bénéficier de matériel, ça renforce le lien. En passant par OVH, le message aurait été du style &quot;OK, je sais faire le boulot, je sais comment fonctionne Shadow mais on confie ça à une autre boite, bonjour la confiance …&quot;.


Je suis malheureusement pour eux, d’accord avec toi…



Perso, j‘ai résilié il y a bien longtemps. La boite n’est pas dirigé par la technique, mais part une bande de banquier qui rêve de la mine d‘or alors qu’ils ont a peine acheté les pelles.

Le 30/07/2020 à 06h 43







Idiogène a écrit :



Je ne critique absolument pas ton choix personnel de choisir un macbook pour l’usage que tu en as.



Je ne fabule pas. Si tu as 900 Francs Suisses tu peux lire ça :https://webstore.iec.ch/publication/4024



Moi, sans avoir besoin de 900CHF je lis



Donc mes approximations ne sont pas plus déconnantes que de ranger par une norme un PC portable dans une norme qui admet des équipements qui peuvent aller jusqu’à 600 Volts.



Ensuite la norme CE est applicable aux équipements domestiques comme professionnels.

Donc je ne citais pas le code du travail pour rien. Je n’ai pas non plus besoin d’un texte sain pour te dire que tu es clairement de mauvaise foi.



Maintenant tu peux rester là dessus et défendre Apple et ton aluminium chauffant ou celui que j’ai rangé il y a bien longtemps pour bien mieux.



Ma méthodologie correspond à celle des bench qui sont la seule manière de comparer des éléments subjectifs en les confrontant à des expériences reproductibles.



Tu peux donc lancer une vidéo de la résolution native de l’écran si tu le souhaites, mais tu ne pourras pas comparer ton test perso ultra subjectif du digital mouillé à un portable vendu à un prix similaire car sa résolution sera certainement supérieure à celle du macbook air.



Je continue ?









Idiogène a écrit :



Je ne critique absolument pas ton choix personnel de choisir un macbook pour l’usage que tu en as.



Je ne fabule pas. Si tu as 900 Francs Suisses tu peux lire ça :https://webstore.iec.ch/publication/4024



Moi, sans avoir besoin de 900CHF je lis



Donc mes approximations ne sont pas plus déconnantes que de ranger par une norme un PC portable dans une norme qui admet des équipements qui peuvent aller jusqu’à 600 Volts.



Ensuite la norme CE est applicable aux équipements domestiques comme professionnels.

Donc je ne citais pas le code du travail pour rien. Je n’ai pas non plus besoin d’un texte sain pour te dire que tu es clairement de mauvaise foi.



Maintenant tu peux rester là dessus et défendre Apple et ton aluminium chauffant ou celui que j’ai rangé il y a bien longtemps pour bien mieux.



Ma méthodologie correspond à celle des bench qui sont la seule manière de comparer des éléments subjectifs en les confrontant à des expériences reproductibles.



Tu peux donc lancer une vidéo de la résolution native de l’écran si tu le souhaites, mais tu ne pourras pas comparer ton test perso ultra subjectif du digital mouillé à un portable vendu à un prix similaire car sa résolution sera certainement supérieure à celle du macbook air.



Je continue ?







Non c’est bon arrête, ça fait 3 fois que je t’explique mais tu comprends toujours pas ce que je dis.



Je te laisse labourer ton champs avec ta Ferrari ou faire les 24 h du Mans en tracteur.


Le 29/07/2020 à 13h 10

[/quote]







Idiogène a écrit :



Des normes qui sont faites sur la base de taux forfaitaires applicables à trop de produits et de scénarios d’usage pour n’en sélectionner que celui de portable. Ou alors j’exige la norme pour l’Europe… t’as une source  pour corroborer ton champion?







Tu fabules, et ensuite tu exige que je fasse un travail de recherche? lol







Idiogène a écrit :



Ce qui démontre que le choix de conception est celui du passif. Comme pour les Iphone ou les Ipad. Mais on a toujours pas démontré qu’on ne dépassait pas une valeur de préhension déterminée par une norme. 43° je te dis que c’est trop pour des gosses. Même avec une norme qui dirait, au doigt mouillé, dans les 50°.







Bah ouais, le passif c’est ce que je recherche, et si j’avais pas pris mon MacBook Air actuel, j’aurais pris le MacBook 12” passif -&gt; 0dB et j’en ai rien a faire qu’il throttle quand je lance un cinebench au bout de 10mn, car je n’utilise pas cinebench…



Ouais, au doigt mouillé, comme tout ce que tu racontes depuis le début.







Idiogène a écrit :



Sachant qu’il n’existe pas de valeur dans le code du travail… moi je dis qu’Apple, ou les autres, se foutent bien de la gueule du monde avec cette petite phrase.







Ah ouais, le code du travail maintenant, tu vas aller jusqu’où après? Comme je suis sympa, je vais t’aider. Ni dans la Bible, ni dans le Coran, il n’y a d’indication de température maximum d’un châssis alu d’un ordinateur portable équipé d’un processeur en charge posé sur les genoux à 28°C de température ambiante.







Idiogène a écrit :



Je pense que tu fais un beau raccourci en énonçant implicitement qu’aucun ordinateur portable ne peut être alimenté et fonctionner à 100 % de sa puissance sans sa batterie. Tu crois réellement que les ingénieurs d’Apple dorment bien la nuit en se disant qu’un client ne pourra pas utiliser son macbook sur secteur quand la batterie est à plat ?



Faisons donc l’inventaire :




  • écran = n W

  • HDD/SSD = n W

  • batterie = n W

  • (…)

  • (…)

  • ah oui, j’oubliais le processeur…



    Sur un chargeur de 45W tu me diras combien il t’en reste pour charger ta batterie lorsque tu utilises le portable… autrement dit, les watts qui ne sont pas émis par la lumière de l’écran c’est soit de la tension sur la batterie, soit de la perte thermique par effet joule. Vue la durée de vie des éléments au lithium mieux vaut les charger à 0,5C. Donc dans le meilleur des cas tu as les 45 de ces 45W qui partent en fumée pour ton usage.



    Il existe des mini-radiateurs de 50W sur allume cigare… soit dit en passant.

    Mais c’est vrai que techniquement je fais peur…







    blablabla qui ne vaut rien étant donné le nombre d’approximation que tu vomis depuis le début, et en vrai, on s’en fou totalement, je sais même pas quel est la capacité du chargeur de mon MacBook Air, mais ce dont je suis sure, c’est qu’il charge l’ordi pendant que je m’en sers.



    Par contre, je remarque que tu ne prouves rien du tout de ce que t’annonce.







    Idiogène a écrit :



    Il fait 28° par chez moi. Autant dire que sans lancer une vidéo 4K voire deux, ton avis est sans intérêt.







    Tu m’explique l’interêt de lancer 2 vidéos 4k sur un écran qui n’est lui même pas 4k?



    Ah oui, comme l’interêt de lancer un cinébench sur un ordinateur qui n’est complètement pas adapté à ça et dire “voyez messieurs-dame, ça throttle”.



    Tu veux faire un bench d’un MacBook Air, faut le faire sur des critères lié à l’utilisation d’un ultraportable, comme comparer la qualité de l’écran, le temps de sortie de mise en veille, la batterie au repos, la batterie en veille, le temps de recharge 50% -&gt; 100%, le poids, la chaleur dissipé, la solidité du châssis, le nombre de ports USB, … mais en aucun cas la puissance du CPU dans un bench de rendu 3D, c’est complètement ridicule.



    C’est comme faire un bench d’autonomie d’un PC fixe, ou comparer le poids de tel ou tel tour. Aucun interêt.


Le 29/07/2020 à 11h 44







Idiogène a écrit :



C’est pourtant facile, tu prends la puissance en watts sur le chargeur… il n’y a pas que le CPU comme je l’ai dit !



Et oui j’ai déjà utilisé un macbook au quotidien. Donc je sais très bien ce que représente un châssis en alu à 45° sur mes genoux… au delà de 10 minutes tu te brûles.



Et je n’invente rien sur le problème :

support.apple.com AppleIdiogène a écrit :



Des doigts d’enfant oui. Va faire un tour dans une crèche, mets tes mains sous l’eau chaude, sur les surfaces vitrées ou cherche les radiateurs en fonte apparents… bon courage pour te brûler.



Il y une norme pour tout maintenant, ton ironie est donc déplacée.







La première phrase du lien que tu m’as envoyé (que visiblement, tu n’as même pas pris le temps de lire):



“Mac notebooks comply with all temperature limits that are set in national and international safety standards.”







Ensuite, les recommandations données sont valables pour n’importe quel ordinateur portable. Et encore plus pour la grande majorité des ordinateurs portable non-mac étant donné que les MacBook Air et Pro n’ont pas besoin d’aération sous le châssis. Contrairement à la totalité des autres ordinateurs portables que j’ai eu qui ont toujours eu des ouvertures pour la RAM ou autres entrée d’air.



Pour la puissance du chargeur, bah c’est aussi pour recharger la batterie… On parle actuellement de chargeur 100W pour mobile permettant de recharger 50% d’une batterie en 2mn. Tu penses qu’un Snapdragon a besoin de 100W pour fonctionner? Tes connaissances techniques font peur et tu te permets de remettre en cause le travail des ingés Apple.



Et pour finir, j’utilise un MacBook Air tous les jours, actuellement posé sur un lit où j’écris ces lignes. Il est allumé depuis 30mn, l’alu du châssis (y compris en dessous) est froid et le ventilateur ne tourne pas (ou est inaudible, j’en sais rien et en vrai, je m’en fou vu que le résultat est le même).


Le 29/07/2020 à 06h 45







Idiogène a écrit :



Bah l’air extrait est à la même température que le CPU… il y a donc saturation thermique du cuivre. Le radiateur est sous-dimensionné et ne sert qu’à extraire le peu de chaleur qu’il peut du boîtier. CQFD…… <img data-src=" />



Tu démontres toi-même par cet exemple que le système est bancal.



Les ventilateurs de portables “gamer” sont à + de 2000tr/min pour cette raison : le débit d’air compense la faible surface d’échange thermique du cuivre pour que la température de l’air extrait ne soit jamais au dessus de la température du CPU. Auquel cas le facteur de convection est presque nul.







Pic de charge qu’il ne gère même pas… 100° en 2 minutes, pas 30… et dans les 45° avec la conduction de l’aluminium c’est juste impraticable pour les mains. Et dangereux pour les enfant. Enfin bref.







Dangereux pour les enfants, rien que ca… Il paraît même qu’on peut faire cuire des pâtes sur le MacBook Air…



Au fait, pour en parler aussi bien, t’as déjà utilisé un MacBook au quotidien?


Le 29/07/2020 à 06h 44







Idiogène a écrit :



On dit seulement que l’air extrait doit être beaucoup moins chaud que la température du CPU pour fonctionner correctement.



Personne n’a dit que c’était la vérité absolue. On te dit juste que cela ne sert à rien de défendre une marque qui fait une fois de temps en temps sort quelque chose de techniquement abouti et dans le reste des cas passe à côté.

N’importe qui d’un peu sensé peut très bien comprendre que faire des boîtiers petits pour extraire la chaleur d’un demi grille pain est une connerie, de base, sans avoir besoin de sortir de Saint-Cyr… <img data-src=" />







un grille pain avec un TDP de 9W…


Le 29/07/2020 à 06h 40







TexMex a écrit :



Colorimétrie ??? Un calibrage colorimétrique se fait en fonction de

l’environnement lumineux. C’est bien du foutage de gueule ça. Pourquoi crois tu

qu’on ait inventé les moniteurs pro auto calibrant ? Parce que c’est une

plaie à faire et que même dans un endroit fixe (pas comme pour un téléphone)

la course du soleil change la donne tout le temps (pour peu qu’on ait des fenêtres). Calibrage pour un téléphone… Surtout pour regarder le téléphone au travers des traces de doigt dans des conditions lumineuses type métro ou néon de supermarché. Lamentable.



 Je ne vois pas pourquoi une batterie Apple montée dans un Apple store

et une batterie Apple montée dans une autre enseigne donnerai un résultat

différent. Tu essais de faire passer tous les réparateurs pour des

filous car ils n’ont pas le logo Apple. C’est malhonnête.



 En plus tu parles de téléphone restons dans le sujet. Va créer une panne sur un Macbook et va faire un devis chez Apple. Même pas en fait. Plein l’on

fait avant toi et on posté les vidéos. Certes ce sont des pratiques un peu différentes suivant les pays mais bon Apple aime bien vendre du neuf dira-t-on. Et malheureusement ce sont des cas qu’on ne peut plus qualifier d’exception.



Et de toutes les façons même de remplacer une batterie Apple avec une Apple dans un Iphone récent donne une alerte. Loufoque à souhait.



  

Dans ton PC il y a un ventilateur pour l’alimentation, un pour le CPU, et un pour le boîtier pour le confort. Si tu as regardé un boîtier récent c’est plus du grillage qu’autre chose (un bon boîtier bien sur). Le besoin d’un ventilateur boîtier n’est pas très grand. Dans le cas ou tu n’aurai  qu’un seul ventilateur de disponible le plus sage est de le coller au CPU. Dans le cas d’un portable aussi. Sauf que cela empêche de faire plus plat. C’est pas très “trendy”.



Je n’ai pas dit que cela ne fonctionnait pas (un peu). J’ai dit “pas optimum”. Et vu qu’il n’est pas très difficile de trouver des informations sur les Macbook “braindead syndrome”. Je dirai qu’il y a quand même matière à s’en soucier.



Tu fais des raccourcis grossiers qui t’arrangent et déforme le propos des gens. 



Nauséabond.







https://www.lesnumeriques.com/accessoire-photo/prise-en-main-sonde-pour-etalonna…



https://www.igen.fr/iphone/2017/03/voila-la-machine-remplacer-les-ecrans-diphone…


Le 28/07/2020 à 17h 14







TexMex a écrit :



Ensuite si un gars du marketing déboule voir les ingénieurs en lançant “c’est trendy d’avoir 4 ventilos !”. Y’a des chance que cela arrive. Je le dit en rigolant mais vu ce qu’ils ont déjà fait… je ne peux pas m’empêcher de penser que cela arriverait.

 



En une recherche je trouve cela:

https://blogs.systweak.com/macbook-pro-overheating/



En gros leur solution c’est de ne pas utiliser le potentiel de l’ordinateur…

 

Et c’est un autre problème. Faire une conception (que ce soit Micosoft/surface ou Apple) qui dit qu’on a mis tout plein de truc géniaux sous le capot mais qu’en réalité, il ne faut pas trop s’en servir pour ne pas le casser… Tu vois ou je veux en venir.



 

Ces nouvelles générations d’ordinateur comme les Surface et plus généralement les ultra plats (/léger) ne peuvent pas se défaire des lois de la physique. Et on retrouve les mêmes problèmes de chauffe et de performances. Le pire étant les PC portable de gamer qui se mettent à ventiler comme des aspirateurs dès qu’on passe les 20% de charge CPU. Donc du Macbook qui chauffe un peu trop du fait d’un ventilo pas très bien placé doit pouvoir se trouver.

 



 Tu dis que ce mec est un buzz ambulant en ayant vu une ou deux vidéos. C’est une opinion. Moi je pense qu’il est folklorique mais qu’il n’a pas du tout tord sur le fond. Et c’est cela le plus important.







Petit cerise:

https://www.forbes.com/sites/brookecrothers/2020/06/27/apple-just-killed-the-mac…







Tu changes de sujet, on parle du MacBook Air, pas du Pro.


Le 28/07/2020 à 17h 03







TexMex a écrit :



Le programmes de réparateur affilié d’Apple… En fait c’est du foin. C’est tout simplement qu’ils ont leur propre comptoir à tondre les moutons. Tu peux aisément comprendre leur intérêt. Il ne vont pas investir dans un truc qui tuerai leur usine à tondre autrement qu’en y étant forcé.



Tu peux regarder l’historique d’Apple sur le sujet. Apple vient à peine de s’y mettre au regard de son histoire. Considérant l’ancienneté de la boite… C’est du foutage de gueule. Et c’est pour une raison simple. Le gouvernement US a déjà entamé le volet de la réparabilité des objets. Bien avant l’Europe. En gros Apple fait bonne figure mais sans plus. Ce sera pareil pour Microsoft (qui s’est tapé de bien sales notes sur Ifixit) et consort. Histoire que les Apple Mongers ne me taxent pas de Apple basher.



 Si tu avais suivi la chaîne de ce gars ainsi que d’autres tu verrais qu’au début il était bien plus explicatif que cela. Jusqu’à commenter des communications officielles avec Apple. Donc ce qu’il faut comprendre c’est qu’il n’y a pas de réparateur affilié mais un comptoir Apple qui ne répare pas vraiment. Il fait des devis à hauteur de prix d’un nouveau MacBook (sinon plus :) ). Et le pauvre client se casse renouveler sont matériel s’il décide de rester chez Apple.



 



 

Le Macbook peut rester allumé capot ouvert sans se logger que cela ne fera pas monter en charge du CPU. Ce n’est pas parce que c’est allumé que cela dépasse les limites de chauffe. Bien loin de la. En fait c’est de le faire tourner capot fermé qui sera plus néfaste. Ironique non ?



 Les plans que tu considère mal cadrés viennent du fait que ce n’est pas une caméra mais un microscope monté sur bras avec une caméra en plus.  Donc ça gigote, rebondi etc. Enfin tu ne vas pas dire que tu ne voyais pas les soudures quand même ?

 



 

Concernant l’exemple du ventilateur, je considère que de mettre un radiateur relativement éloigné d’un ventilateur n’est pas optimum. Et dans le cas de cette vidéo on a pas l’impression qu’il y a un conduit les reliant. Le ventilateur est tout même présent pour “transporter” la chaleur. Un ventilateur a qui tu doit “apporter” la chaleur pour l’extraire ensuite… c’est con car c’est son boulot à la base.



Enfin je veux dire cela fait 30 ou 40 ans qu’on met des ventilateurs collés sur les CPUs. On va pas réinventer la soupe. Dans un portable il y a peu de place. Donc les courants d’air ne sont pas nombreux et il est préférable de ne pas avoir trop de “trous” non plus. Cela complique les choses. Donc faire des choses qui ne sont pas optimum… bref.







Dans un Apple store, tu changes ton écran, il te recalibre le téléphone en fonction de la colorimétrie réel de l’écran, t’as ça chez phone house? non. Quand tu changes ta batterie dans un Apple store, t’es sure qu’ils vont te mettre une de qualité. T’as ça chez phone house? non.



Alors si t’aime bien démonter ton téléphone pour le plaisir (quand c’est possible d’ailleurs) et te faire pigeonner une fois sur 2 avec une batterie de merde, c’est cool pour toi. Moi perso, je préfère lâcher 49€ et être sure du résultat en 1h main d’oeuvre comprise.



Ensuite, ta théorie scientifique sur les ventilateur est encore bidon, sinon à quoi ça sert de mettre des ventilo de boitier? Un boitier de PC, ça chauffe pas pour info, c’est juste de la ferraille inerte. Donc que le ventilo soit collé ou non, ça fonctionne quand même. Dans une différente mesure, mais ça fonctionne. A partir du moment ou de l’air chaud est expulsé, c’est qu’il sert.



Que t’aime ou pas la façon de faire d’Apple, c’est une chose. On a le droit de ne pas être d’accord, moi le premier. Mais aller dans le sens d’une vidéo complètement pas objective, qui raconte des mensonges pour vendre sa soupe (attiré le chaland sur sa chaine YouTube et dans son magasin), c’est limite de l’escroquerie.


Le 28/07/2020 à 16h 50







Idiogène a écrit :



La réponse est simple, il faut faut faire le calcul d’échange thermique utile cuivre-air (la surface du radiateur quoi). En watts/débit d’air ms-1. Puis comparer cette valeur avec le nombre de watts transmis par le CPU (TDP). C’est assez simple… tout le monde sera d’accord ensuite. <img data-src=" />







Y a plus simple, si l’air expulsé est chaud, c’est que le blower sert à quelquechose. Et bizarrement, même sans avoir mi ma main devant l’air expulsé, je pense que j’ai raison.


Le 28/07/2020 à 16h 49







Idiogène a écrit :



C’est mal parti…

youtu.be YouTubeCe test ne sert à rien, le heatsink et le blower, c’est pour gérer un pic de charge, pas un bench pendant plusieurs minutes… Si tu veux lancer un PC qui gère les kikimeter pour savoir qui à la plus grosse, y a des PC gamers core i7 de 3Kg avec écran 17” qui soufflent comme des malades a peine allumé… Lancer un rendering sur un pauvre core i3 de portable… franchement ridicule.



Alors oui, on peut mettre du caloduc, mais c’est plus gros. Et perso, sur mon portable, je n’ai que faire de la puissance. Par contre je veux un truc léger avec une bonne autonomie. Pour jouer j’ai un fixe Ryzen 7, et pour bosser j’ai un laptop Dell 4C/8T du taff qui souffle dès qu’on l’allume. Pour ce qui est de la mobilité, de mon canapé devant la TV, jusqu’aux vacances, je prends mon MacBook Air de début 2014 qui n’a aucun problème de perf, et qui tient encore au moins 5h de batterie.



Le 28/07/2020 à 14h 23







TexMex a écrit :



1/ La mise sous tension ne signifie pas un CPU en pleine charge. Simplement le lancement de la séquence de POST qui sera loin de demander de la puissance. Un POST ne fera jamais griller des composants comme cela. Ou alors il est complètement foutu avant qu’on ouvre la boite.



 Donc il ne lance qu’une séquence de démarrage (et non boot) dont il a besoin pour vérifier que les éléments démarrent et qu’il obtiendra les bonnes tensions sur les points de contrôle qui garantissent que la séquence est bien arrivée à son terme dans des conditions acceptables et que l’ordinateur peut amorcer la suite: booter sur le SSD.

 

Donc le CPU n’a besoin pas besoin de refroidissement durant l’opération, à plus forte raison si la carte mère est sortie du châssis. Ça risque pas de chauffer beaucoup.





2/ Ce gars a un business qui fait entre autre du MacBook. Il y a aussi le “data recovery” et du mobile. Bref tu aurais tu chercher une information plus complète sur “ce gars là”.

 

Effectivement il est remonté contre Apple pour ses pratiques assez vilaines envers les réparateurs indépendants. Mais bon qui ne le serait pas? Si tu avais plus suivi ses vidéos (et celles d’autres “réparateur”) tu aurais peut être une autre idée sur la question.



 Les réparateurs ont vraiment de quoi faire la gueule et ce n’est pas par manque de business. C’est plutôt le manque de moyens (rétention des plans et j’en passe) pour faire ce business. Business que le comptoir Apple ne fait pas tellement le devis décourage le client. Il préfèrent te vendre un nouveau truc. Il te sera facile de trouver une vidéo caméra cachée au comptoir d’Apple qui montre les scandale que c’est.









Faux, le MacBook est allumé pendant quasiment toute la vidéo, pas juste quelques secondes de boot. Et ce gars la, c’est un Youtubeur. Ses gros plans mal cadrés, sa fausse improvisation, ses réactions, c’est calculé hein, rien n’est fait au hasard. Le but, c’est de faire du buzz, de l’apple bashing. Le gars, il achète une caméra de malade capable de filmer en basse lumière avec un max de détail, et il est pas capable de cadrer même à l’arrache sa vidéo? Tu le sens le gros conflit d’intérêt la ?

A ce niveau de notoriété, ça ne m’étonnerais même pas que le matériel ai été mis HS juste pour un buzz de plus.



De plus, tu le dis toi même, les réparateurs sont rageux, à juste titre, du fait qu’Apple fasse de la rétention d’info pour que seul les réparateurs agrées puisse réparer des iTrucs. Donc le gars, même dans l’hypothèse qu’il soit sincère avec ses réactions, n’est pas objectif.



Franchement, ouvrir l’ordi et dire que le blower ne sert à rien… rien que ça, c’est faux. Et comme justification “It’s just Apple”. Sérieux? et y a des gens qui croient ça? Apple met des blower pour faire joli dans ses MacBook Air ? Un peu de pensée critique serait le bienvenu pour ne pas gober la bouche grande ouverte ce que dit ce gars la sans réfléchir…


Le 28/07/2020 à 14h 04







Idiogène a écrit :



Un overclocker dira également que le throttling est le mal du siècle. Le client un peu consciencieux qu’il paye un processeur haut de gamme qu’il ne peut exploiter pleinement faute de dimensionnement du boîtier et du système de refroidissement selon la valeur du TDP fournie par Intel.



Les caloducs bien conçus ne bougent absolument pas. Ceux d’Apple (et oui il y en a !) sont seulement en deçà des préconisations d’Intel… d’où les réglages logiciels pour compenser les défauts de l’affinement du châssis. Et des performances en deçà d’un autre montage plus convenable…



Donc franchement le problème n’est pas le savoir technique d’Apple mais leur volonté de tout aplatir. Si ils pensent à tout passer sur ARM c’est aussi pour se passer des contraintes connues du monde du PC qui ne sont pas compatibles en pratique électronique courante, avec le monde du PC.



Ce New-yorkais ne fait que constater l’idéologie anti-technique de la marque jusqu’à omettre l’élémentaire et je pense qu’il a raison dans la mesure ou le repoussoir des années 50 ne tient plus vu les progrès de la concurrence (qui eux se font au bon rythme et ne produisent pas des circuits conçus à l’emporte pièce…).







Le problème, c’est que tu veux tout, pour rien.



Le MacBook Air, c’est quoi?




  • un ordinateur portable ultra léger

  • autonomie record, d’autant plus au regard du poids

  • écran rétina



    La airflow de ce MacBook, c’est prévu pour refroidir le CPU quand il tourne au minimum, c’est à dire pour de la consultation web, Facebook, word/excel, emails, regarder ses photos/videos, faire ses comptes, ssh, git, développement, …

    Et cette configuration permet de tenir un boost de quelques secondes lorsqu’il y a besoin comme lancer une appli, exécuter le gros code javascript de gmail, etc…



    Si tu cherche un PC ultra fin, léger, avec 11h d’autonomie capable de tenir un TDP de 35W h24, bah scoop, ça n’existe pas.

    Sans même rentrer dans les specs techniques, tu te doutes bien que si tu comptes compiler du code 8h par jour, lancer 10 VMs ou faire du rendering h265 à longueur de journée, c’est pas ce type de config qu’il faut…



    Si t’as besoin de puissance sur un ordi portable, ça existe, mais ça ressemble pas à un MacBook, et rien que le chargeur fera le poids du MacBook Air.



    Et pour finir, le TDP des CPU Intel mobile est configurable, si le proc est setup pour tourner sur 12W maximum, c’est en aucun cas un problème de design d’apple, mais une fonctionnalité du CPU pour tenir dans des configuration type MacBook Air.



    ark.intel.com Intel


Le 27/07/2020 à 21h 21







FrDakota a écrit :



Le MacBook Air 2020 est clairement un appareil conçu pour tomber en panne.

&nbsp;

Louis opens new Macbook Air, immediately loses mind.



The horrible truth about Apple’s repeated engineering failures.&nbsp;







Tant de mauvaise fois sur la première vidéo… (j’ai pas regardé la 2ème)



Sincèrement, y a des gens ici qui croient qu’Apple installe des blower dans leur MacBook juste pour faire joli? Sérieusement?



Le CPU du MacBook est undervolté avec une limitation du TDP. Y a pas besoin d’avoir une usine de refroidissement pour refroidir ce MacBook. L’airflow de ce MacBook est fait de tel sorte que l’air aspiré par le blower passe par le radiateur et d’autres pièces afin de les refroidir toutes en même temps.



En plus, un CPU Intel, ça crame pas à cause de sa température, y a un throttling automatique interne au CPU. N’importe quel overclocker vous le dira.



Les caloducs dans les pc portables, ça bouge avec le temps et les contraintes matériel et au final détériore le pad thermique. S’en passer, c’est ce qu’il y a de mieux pour augmenter la longévité d’un équipement. Simplicité = fiabilité bien souvent.



Et pour finir sur la prestation de ce soit disant expert, ouvrir et allumer comme un gros débile ce MacBook, c’est priver le CPU de son système de refroidissement par airflow. Et venir juste derrière dire que le blower ne sert à rien… pathétique.



Ce gars là, son business, c’est l’Apple bashing hein. Donc forcément qu’il ne va pas en dire si bien. C’est comme demander à un vendeur d’arme ce qu’il pense de la guerre…



Les anti Apple sont aussi ridicule que les fan boys…


Le 23/07/2020 à 16h 10







maverick78 a écrit :



Ou alors on arrête de troller et on apprend à faire du cloud correctement en utilisant des services avec Bring Your Own Key.







lol et tu la mets où ta clé privée pour qu’AWS process tes datas sans les voirs?


Le 19/07/2020 à 06h 58







SebGF a écrit :



Mon propos était plutôt sur la causalité. Nous sommes tous les deux d’accord sur le fait que la conception est discutable.



Ce qui me faisait tiquer, c’est le fait que tu estimes que ce n’est pas un incident mais un défaut de conception. Un défaut de conception peut être fonctionnel sans provoquer d’incident. Ce qui n’empêche pas de le corriger aussi avant qu’il n’en provoque. (l’erreur est humaine, constater l’ano avant qu’elle ne provoque des dégâts et dresser un plan d’action pour la corriger est la bonne démarche… L’inverse serait une bêtise par contre)

C’est sur ce lien de causalité que ma remarque portait, ou alors j’ai mal interprété.







Ah si si, il y a bien un incident, j’ai pas été très clair en faite. Ce que je dis, c’est que ce n’est pas juste un incident, c’est un vrai problème de design.



Ce que je veux dire, c’est que si le design est fait correctement, il ne peut pas y avoir d’incident autre qu’une erreur humaine sur une action d’admin ou bug logiciel. Dans le cas présent, le problème, c’est que by-design, l’architecture était vouée a avoir un incident, c’était juste une question de temps pour savoir quand est-ce que ça allait arriver.



Je viens de vérifier avec un mtr sur un domaine que j’ai chez eux en “live dns” et c’est toujours le cas. J’ai exactement la même latence et le même traceroute sur les trois serveurs… Peut être que les IPs sont maintenant annoncées depuis des serveurs différents, mais en cas de problème local sur le datacenter, un truc un peu batard comme de la grosse perte de paquet ou alors que la session BGP reste UP alors que les applis sont down,… ca peut retomber. Alors qu’avoir des DNS répartie sur plusieurs datacenter (ce qu’ils ont en plus), ca permet de se prémunir d’un problème local au datacenter.


Le 18/07/2020 à 18h 34

Je dis erreur de design, tu dis erreur de conception. Pour moi c’est la même chose hein :)

Le 17/07/2020 à 11h 43

La transparence du post morten est a saluer.



Cependant, pour l’incident, ça montre un manque de connaissance. Le design, qui est fait a tête reposé en amont de l’implémentation, est clairement mal fait:




  • L’anycasting BGP, c’est pour qu’une IP soit toujours dispo. Ca protège d’une merde “niveau 1” locale, comme un serveur qui crash par exemple, le copain a coté prend le relai.

  • Si on met plusieurs plusieurs NS pour un domaine, c’est pour couvrir une merde niveau 2, c’est à dire, quand on n’a mal gérer la merde de niveau 1 au niveau local, ou qu’on perd un datacenter. Le client sait qu’il peut taper sur un second serveur.



    Anycaster les 3 IPs depuis un même serveur, et je dirais même, depuis une même zone géographique, c’est une faute de design, pas un incident.



    Le DNS, c’est l’une des rangés de parpaing qui fait parti des fondations de l’Internet. Si ca tombe, y a juste plus rien qui fonctionne. Le DNS est justement un protocole super simple et basique, qui le rend donc super robuste pour cette raison. Vouloir faire de l’over-ingénieurie au dessus, c’est le fragiliser, et voilà ce qui arrive.

Le 18/07/2020 à 23h 13


patos a dit:


Je t‘invite à arrêter la divination alors.Ce n’est pas une histoire d‘équation, juste tu lis ce que tu as envie. Un contrôleur SAS discute avec un expander (composant de base d’une baie DAS) SAS, voir un sous expander. C‘est à travers le câblage final vers le disque qu’il y a du SATA qui est un sous-ensemble de fonctions du SAS. Sans SAS, il n‘y a pas de SATA.Pour rappel, penser à l’avenir, c‘est bien. Effacer le passé, c’est naze. Quand t‘as des vieux softs qui te coutent 100K€ à changer, ben tu fais pas de l’objet, tu fais du DAS ou du local, même si la machine virtuelle de cette bécane tu la sauvegardera sur de l‘objet.Bref, je te laisse dans ton avenir et tes docs SATA.


En faite, soit je m’exprime mal, soit tu comprends ce que t‘as envi de comprendre.



Cryogen dit que les DISQUES SAS sont plus pratiques, et j’ai répondu que DISQUES SAS ou DISQUES SATA, ca ne change rien au hot-plug. Et j‘en ai profité pour dire ce qui différencie un disque SAS d’un disque SATA.



Ensuite j‘explique que les DISQUES SAS sont en voie de disparition au profit des DISQUE SATA, bien moins cher, ou du NVME, suivant les besoins.



Que le SATA soit un sous ensemble de SAS, ca me fait une belle jambe, moi je parle de l’addition au final. Les DISQUES SAS (qui coutent une blinde) n‘apportent rien dans les technologie de stockage en 2020, que ce soit pour du SAN (maintenant en full flash), ou pour de l’object (qui se contente de disque SATA).



Voilà.



Et pour les vieux soft à refaire. Chaque boite aura sa stratégie, mais croire que laisser pourrir un truc dans un coin ne coute rien, c‘est se fourrer le doigt dans l’œil bien profondément. Y a qu’à voir le tarif des NAS redondé + support VS des solutions de stockage répartie sur du comodity hardware, voire même de la facturation à la conso comme Amazon S3.



Maintenant, si tu penses que l‘avenir, c’est la VNX d‘EMC ou les FAS de chez NetAPP, j’ai pas de soucis avec ca. Mais perso, c‘est clairement pas là où je mettrais mes euros.

Le 18/07/2020 à 19h 39


patos a dit:


Euh pardon? SAS et SATA sont intimement liés: c‘est le panel de fonctions avancées qui fait la différence. Si l’un des deux devait disparaitre, ce serait le SATA ! Qui, pour rappel n‘existe encore uniquement parce les contrôleurs de carte mère n’intègrent pas le SAS (qui est compatible SATA sur les disques). Le SAS permet une configuration à N avec adressage des disques: 65000 disques sont agrègables via les expanders. ce qui permet de faire des armoires réseaux de plusieurs TO, et cela avec des débits excellents puisqu‘on bloque à 12G tous disques cumulés, donc sans goulot d’étranglement dû à la latence. Et je ne parle pas des fonctions avancées comme le full duplex, l‘envoi de deux commandes simultanés, le support de deux contrôleurs différents en même temps pour la redondance, les chemins en boucle depuis le même contrôleur pour la redondance également, …Si tu veux vraiment faire du SATA pas cher en stockage, tu le fais sur du contrôleur SAS JBOD avec des expanders puis ensuite des disques SATA.Puis il n’y a pas que le stockage objet dans la vie… Le hobby des deux dernières années ne peuvent pas satisfaire les exigences de logiciels plus vieux, hors de prix, traditionnels et cruciaux pour de nombreuses entreprises.Alors vive le RAID, le SATA, le SAS, le JBOD, le NVME, mais à chacun son usage.


Je ne suis pas devin, donc on verra dans l‘avenir.



Mais la tu mélanges un peu tout. Si quand tu dis &quot;baie SAS&quot;, tu parles des châssis de disque qu’on plug au cul d‘un contrôleur SAS, alors en vrai, ca s’appelle une baie DAS, et ça supporte le SAS et le SATA. Et l’intérêt d’un tel chassis, avec des disques double path, c‘est dans les anciens SAN ou les NAS de disques avec le double controleur pour la redondance interne. Et ce type de chassis, c’est en train de disparaitre. Les SAN avec du disque et les NAS sont en train de vivre leurs derniers instant.



Le stockage en 2020, c‘est:




  • Donnée structuré => baie de stockage full-flash => NVME ou en cours de migration vers NVME

  • Donnée non structuré => stockage objet => Erasure coding avec du sto pas cher => SATA. Ca peut etre du SPIN ou du SSD, mais en SATA.



Dans ton équation, t’as oublié le prix d‘un disque SAS vs SATA. Je dis pas qu’il n‘y a pas de contrôleur SAS coté serveur parce que c’est plus pratique, mais les disques et le protocole de communication, c‘est du SATA.



Je te laisse lire les doc d’implémentation de minio ou scality par exemple, ils recommandent du SATA. Non pas parce que c‘est mieux, mais parce que le SAS n’apporte rien de plus. La redondance se faisant au niveau des nodes, et non au niveau des disques. https://min.io/resources/docs/CPG-MinIO-implementation-guide.pdf



Alors on trouvera encore du SAS dans les serveurs dans 20 ans, mais ca sera complètement négligeable. Si on en a encore aujourd‘hui, c’est:




  • parce qu‘on fait comme ca depuis des années et on a peur de changer… Mais plus personne (en tout cas j’espère) ne met de base de donnée sur du disque rotatif en local… pas non plus besoin de disque SAS pour booter un hyperviseur.

  • parce qu‘on a encore un vieu truc qui tourne et qu’on ne veut pas le redévelopper.



Pour répondre à &quot;il n‘y a pas que le stockage objet dans la vie…&quot;. Bah en faite si.




  • Tous les softs de backup stockent sur du S3, quand c’est pas l‘application elle même qui se backup sur le S3.

  • Les fileserver NFS/SMB, c’est fini. Coté poste de travail (Onedrive, Dropbox, Gdrive, Nextcloud) et coté serveur (Amazon S3, glacier, C14 cold storage) … tout ca, c‘est du stockage objet. Et tout ca, ca tourne sur du SATA. Quant au stockage réparti type CEPH par exemple, il ne recommande que du SSD (SATA ou NVME).

  • Coté dev, c’est tellement plus simple d‘utiliser les API de stockage objet, plutôt que de se faire chier a gérer du filesystem…



Bref, je persiste, le SAS c’est fini. Il en restera toujours dans 20 ans, comme du vieux code turbo pascal, mais la grande majorité sera, et est déjà, sur du SATA et NVME.

Le 17/07/2020 à 19h 35


CryoGen a dit:


La connectique SAS est quand même plus pratique (pour le moment) pour tout ce qui est baie de stockage SAN/NAS ou même façade serveur. Je ne pense pas que ca va disparaitre de si tôt du coup. Il faut penser aussi au contrôleur hba/raid …


Ce que je vais dire sort du fin fond de ma tête, donc à vérifier pour être sure.



La connectique SAS et SATA, c‘est la même, les deux gèrent le hot-plug. Il n’y a pas de &quot;plus pratique&quot;.



La différence entre les deux, c‘est le protocole sur lequel il est basé:




  • S-ATA: Serial ATA

  • SAS: Serial SCSI



En SAS, tu dois avoir un contrôleur SCSI coté disque. Ce contrôleur permet d’ajouter une couche de communication n-tier, alors qu‘en S-ATA, c’est du 1-1.



Alors la question, à quoi ca sert? Ca permet deux configurations possibles:




  • 1 connexion double path à 12 Gb/s (bon, complètement useless au dela du cache vu que derrière, c‘est un pauvre disque qui tourne)

  • 2 connexion simple path à 6 Gb/s qui permet d’avoir deux contrôleur pour gérer 1 disque. Ca sert par exemple dans un NAS ou un SAN avec 2 contrôleurs pour la redondance. Les deux contrôleurs voient tous les disques, mais se partagent l‘accès. Si un contrôleur tombe, le second à juste à reprendre le rôle de gestion, les disques étant déjà attaché.



Pour revenir à la news, tout ça pour dire qu’avec le stockage objet, l‘erasure coding a remplacé le RAID. La redondance ne se base plus sur la redondance disque à l’intérieur d‘un serveur, mais sur la redondance des serveurs entre eux. Chaque serveur est devenu un élément jetable, on veut qu’il coute le moins cher possible, d‘où l’intérêt du disque classique SATA single path pas cher.

Le 16/07/2020 à 21h 38


patos a dit:


Quand tu sais que le SMR utilise les mêmes fonctions que les SSDs c‘est à dire le TRIM, tu te dis que les différents types de stockages peuvent cohabiter. Le SATA a de beaux jours, avec le SAS, pour mixer SSD & HDD dans le milieu du stockage hiérarchisé.


Clairement, les HDD les plus rapides tournant autour de 200Mo/s, vitesse stagnante depuis un paquet d’année maintenant, aucune raison d‘aller plus vite et de devoir utiliser des puces plus couteuse. L’avenir du S-ATA et du disque dur classique, c‘est le stockage massif pas cher.



Pour le SAS, je suis par contre plus mitigé, ou alors il faut que les contrôleurs (serveurs et disque) descendent au prix du S-ATA. Quand on voit le tarif des disques SAS, la fiabilité, l’encombrement, le poids, etc… ils n‘ont vraiment plus aucun intérêt face au SSD NVME et même S-ATA. On trouve par-ci par-la des SSD SAS, mais je pense que ça va bientôt disparaitre.

Le 16/07/2020 à 17h 55

Le S-ATA continue son chemin d‘origine dans le stockage basé sur du disque dur.



La flash n’ayant été S-ATA que le temps de définir les specs du NVME.

Le 14/07/2020 à 16h 52







linkin623 a écrit :



Y a un code de la route spécial pour la moto ?







Évidement, ça l’a toujours été, et au moins maintenant, c’est officiel.



Globalement, tu ajoutes +100 aux limites de vitesse, c’est à dire 230 sur l’autoroute, 190 sur une national.



Les boitiers qui font des photos par l’avant au bord des routes sont réservé aux véhicules à 4 roues.



<img data-src=" />


Le 14/07/2020 à 16h 35

C’est marant, depuis une dizaine d’année, les navigateurs et developpeurs font tout pour qu’un maximum de travail soit déporté coté navigateur (application javascript coté client, founiture de data via API coté serveur) et maintenant on s’étonne que ca consomme de la batterie. Allons nous passer les 10 prochaines années à refaire machine arrière?

Le 10/07/2020 à 20h 16

Vivement qu’on ne soit plus qu’un numéro, comme ca ca sera réglé. Ou pas en faite, on véra des gens, qui viendront se plaindre d’être pair ou impair, d’être supérieur ou inférieur a 500000. Bref…

Le 10/07/2020 à 20h 08







Xetolone a écrit :



Non, je ne parle pas de taxe, juste de payer à la consommation. Mais je ne dis pas que le prix doit être exorbitant. C’est juste que de cette façon il y aura un intérêt à moins abuser de la bande passante. Je connaissais des gens qui pour arrêter de regarder la TV par ADSL éteignaient la télé mais pas la box, et laissaient donc le flux en permanence.



 

Je suis plutôt pro nucléaire pour cette raison. Mais à l’échelle de l’Europe (ou du monde) la majeur partie de l’électricité vient de sources carbonées. L’électricité sera, je pense,de plus en plus rare ou chère. Pour moi, toutes les mesures permettant de diminuer la consommation sont bonnes à prendre.







Sincèrement, Internet, c’est bien le loisir qui carbone le moins hein.



C’est rien du tout comparativement à quasiment tout autre loisir, a part jouer au échec avec son voisin. Internet, ca évite au gent d’utiliser leur bagnoles et de cramer du mazout.


Le 09/07/2020 à 21h 18


Uther a dit:


Bon après, je vois bien que parler comme ça sur le forum de inpact hardware, c‘est un peu le type qui vient parler d’économie de carburant à une convention de 4x4.Mais la freebox, c‘est justement un outil de masse pas de spécialiste.


Non non, je te rejoins sur pas mal de point. Cette période Covid force un peu le fait de prendre conscience que bah en 3 mois de confinement planétaire, ça s’est plutôt bien passé. Moins de consommation à outrance. On a tous réussi à bouffer et à survivre, et pourtant, j‘ai pas eu besoin de prendre ma bagnole ni d’aller a 50 bornes de chez moi pour taper sur un clavier pour &quot;produire des besoins&quot; dont vous ne pourrez plus vous passer plus tard. Bref, je m‘éparpille.



Pour revenir sur sujet des évolutions et à la news, je sais bien que les technos successives, au début, on ne voit pas l’intérêt, et quelques années plus tard, on ne peut plus s’en passer. Mais c‘est de moins en moins vrai.



Qu’est ce qui a toujours poussé l‘évolution en informatique? Le multimédia, c’est à dire, jeux vidéos, téléchargement de films, plateforme de streaming (YT, Netflix, …), le porn, la VR (qui ne prend pas au passage)…



Le fait est qu‘on a toujours été bridé par la connexion Internet jusqu’à peu. Aujourd‘hui, dans un foyer, même si toute la famille de 10 personne regarde un film en 2 x 8k en VR avec chacun son casque, bah une connexion 1Gb/s suffit. Et plus on avance, plus les codec sont efficace et réduisent la bande passante nécessaire, on parle déjà de h.266 qui serait 2 fois plus efficace que le h.265, qui est lui même 2 fois plus efficace que le h.264, etc…
En 8k sur un écran de taille abusif (85&quot;), on n’arrive déjà à la limite de la perception humaine et on n‘est déjà plus capable de distinguer les pixels. On est arrivé au bout de la techno.



Coté jeux vidéos, c’est peut être la que ca risque de pousser un peu plus. Avec des jeux de plus en plus gros, CoD, GTA, qui n‘ont pas honte de taper dans les 100Go de donnée à télécharger (15mn à 1Gb/s). Mais aussi peut être le jeu en streaming, qui aujourd’hui ne fonctionne pas pour tous les jeux nerveux à cause du temps d‘encodage/décodage induisant de la latence. Peut être qu’on pourra diffuser la vidéo en &quot;RAW&quot; directement sans passer par la phase d‘encodage/décodage.

Le 08/07/2020 à 18h 38


LordZurp a dit:


ouais, ben faudrait déjà faire un peu de ménage dans le TB3 …j‘ai un XPS15 au taf, un MB16 à la maison, et impossible de trouver un dock qui fonctionne sur les 2 ! dernier en test, le G2 de HP : pas de vidéo sur les 2 ordis \o/si vous avez un modèle qui just work, faites signe :smack:


La même histoire chez moi. J’ai un laptop Dell et un Dock Dell qui marchent a peu près bien ensemble. Par contre le Dock, je peux rien brancher dessus. Mon ex-Galaxy S9 voyait une carte réseau, mais pas d‘affichage, la Nintendo Switch, il se passe rien, même pas la recharge. Par contre sur le PC, j’arrive à faire marcher l‘adaptateur USB-C/hdmi-usb-usb-c que j’ai acheté pour la Switch.



Bref, on est encore très très loin d‘un standard unique et universel :)

Le 08/07/2020 à 14h 35

Thunderbolt, également appelé &quot;la backdoor PCIe&quot;. Même si comme dit dans l‘article, ça commence à se sécuriser un peu.

Le 07/07/2020 à 16h 32







dyox a écrit :



Si et même pour 20€ (comprendre le forfait mobile)









Ouais enfin tu vas pas en Gb/s, t’as pas d’IP fixe et t’as pas de latence de 5ms partout en France.



Je parle d’une vrai connexion internet. Pas d’un truc de dépannage.


Le 07/07/2020 à 16h 15

Et sinon, une offre sans box? juste Internet pour 30 balles ils savent pas faire?

Le 07/07/2020 à 16h 30

C’est peut être évident pour certain, où j’ai raté un épisode. Ils sont convoqués pourquoi en faite?

Le 02/07/2020 à 19h 30


kgersen a dit:


c‘est quoi cette arnaque ?!ils vendent une licence logicielle tarifée facon CA/IBM des années 80&90 au nombre de cores cpuEt en plus ca n’est en rien une offre ‘cloud’ dans le sens ou ils ne mettent a disposition aucune infrastructure cloud eux-meme. Ils ont zéro OPEX et CAPEX de fonctionnement et veulent une rente uniquement sur du logiciel…fallait oser quand même. surtout a ce prix.


Souhaitons leur &quot;bon courage&quot; :)

Le 30/06/2020 à 20h 33

En espérant que l’article soit une prémonition. C’est à dire, un accès Internet, point.





  • Vitesse: 1Gb/s, 2,5Gb/s, 10Gb/s

  • Avec un simple DHCP au bout de la fibre (pas d’encapsulation bizarre ou de requête DHCP avec des tag QOS)

  • Prefix delegation pour l’IPv6

  • Personnalisation ou délégation des reverse DNS v4 et v6

  • Éventuellement une connexion “premium” avec GTR ou priorité en cas d’incident (coucou la démocratisation du télétravail)

Le 27/06/2020 à 16h 39


bilbonsacquet a dit:


Pour VS, je ne pense pas que ça pose soucis surtout que Microsoft va sortir une version ARM pour mac de MS Office (dès le lancement ?), je ne pense pas qu‘ils fassent le dév avec TextEdit ;)Concernant Java, le principe même est de tourner sur de multiples plateformes, OpenJDK tourne parfaitement sur un Raspberry Pi qui a un proc ARM.Me concernant, ce sont effectivement les jeux qui vont poser soucis, Blizzard ne va probablement plus porter de jeux sur Mac, hormis WoW probablement car il rapporte pas mal… Final Fantasy XIV risque de ne pas être porté sur ARM vu que la version Mac est déjà la version Windows via &quot;Wine&quot;… Ça serait bien que ces jeux sortent &quot;officiellement&quot; sous Nux pour que je puisse changer sereinement de machine (les comptes de joueurs jouant via Wine sous linux se font souvent bloquer pour utilisation de logiciel de &quot;triche&quot;… )


C’est sure que pour les jeux, c‘est pas prêt d’arriver sur Mac ARM. Les consoles viennent déjà juste de passer au x86… A moins qu‘il y ai des frameworks multiplateforme (unreal?)