J’en ai un complet en état de fonctionnement au grenier mais c’est pas la fête niveau conso, il doit tirer par loin de 200W en idle, bon OK c’est un C2Q Q9450 couplé à une GTX570, ça n’aide certainement pas À noter aussi qu’il souffre en décodage vidéo avec les codecs récents
Sans écran et avec un stockage normal (autrement dit, pas 20 HDD), tu dois être à 40W idle je pense.
J’ai pas mal de vieux matos qui pourrait re-servir en NAS, DNS, Plex, etc… le problème, c’est que ca consomme de trop donc je n’utilise plus.
Actuellement, j’ai une carte mère J3455 Asrock fanless dans un boitier Antec Mini ITX avec 16 Go de RAM + 2 SSD + Proxmox.
Avec Plex (dans un container Proxmox LXC), il gère (testé et validé) 3 encodage H264 1080p Haute définition de source H265 4k HDR sans problème (peut être plus, mais pas testé), pour une conso de 10/12W en Idle.
Après, c’est pas le même tarif, 100€ la mobo, 70€ le boitier, 60€ de RAM + le prix du stockage.
C’est donc de ça que tu parlais à propos de réalité.
Tu pourrais pour moi être explicite dès le début.
Je parlais de la réalité officielle de l’engin, qui est bien différente.
De plus, contrairement à toi, j’ai du mal à considérer ce but comme atteint.
Le jour où la hadopi attrapera des gros poissons, je changerai peut être d’avis.
Je viens de relire 3 fois, je ne comprend pas mieux.
C’est pas hadopi qui met les amendes mais ce sont eux qui initient les transferts au parquets, donc même si techniquement ils ne mettent pas d’amende, c’est quand même eux qui déclenchent la procédure.
Le
04/08/2020 à
10h
07
Winderly a écrit :
Lorsque Marc écrit :
“Ce qui est reproché au titulaire de l’abonnement n’est pas le « piratage
» d’œuvres, mais de n’avoir su empêcher, malgré plusieurs
avertissements, que sa ligne ne serve à mettre à disposition ces
contenus. C’est la persistance d’une défaillance, le défaut de
sécurisation de l’accès Internet, qui devient éligible à une
contravention de 1 500 euros maximum, infligée par le tribunal de
police.”
Il ment aussi ?
Ça ne risque pas d’arriver parce que ce n’est pas le travail de la hadopi.
C’est la réalité.
Winderly a écrit :
Lorsque Marc écrit :
“Ce qui est reproché au titulaire de l’abonnement n’est pas le « piratage
» d’œuvres, mais de n’avoir su empêcher, malgré plusieurs
avertissements, que sa ligne ne serve à mettre à disposition ces
contenus. C’est la persistance d’une défaillance, le défaut de
sécurisation de l’accès Internet, qui devient éligible à une
contravention de 1 500 euros maximum, infligée par le tribunal de
police.”
Il ment aussi ?
Ça ne risque pas d’arriver parce que ce n’est pas le travail de la hadopi.
C’est la réalité.
J’ai pas dit que toi ou Marc mentait, j’ai dit que tu te mentais à toi même. Si derrière cette loi, t’as pas compris que c’est les ayants droits qui sont aux manettes et que le but de la hadopi est de réduire le piratage de films et musiques depuis maintenant 10 ans, je ne peux rien pour toi.
Quant à qui inflige les amendes et met en prison, je pense que tout le monde, y compris toi, a compris le sens de ce que je veux dire, pas la peine de venir sortir ta science.
Le
04/08/2020 à
10h
00
la_hyene a écrit :
cet avis me fait penser aux personnes qui ne vont rien faire pour la lutte pour le climat et contre la pollution. Moi tout seul à mon niveau, quoique je fasse ça ne fera pas de bien au climat. Commence par arrêter de faire du mal. Comme on nous encourage à éteindre les lumières, changer les joints des robinets, pourquoi économiser ?
Moi tout seul je n’y ferai rien. Et en plus LA crise économique la dessus, lâcher les milliards.
Je ne suis pas Cassandre , mais il faudra payer !
Rien à voir, la perte de pognon dans hadopi n’influ pas sur le climat. Je m’en tape que l’état ait claqué 80M dans hadopi alors que je reprends mes enfants quand ils oublient d’éteindre la lumière des chiottes.
Le
04/08/2020 à
08h
17
Winderly a écrit :
Non, nxi avait publié une actu sur ce sujet.
Quel rapport avec le défaut de protection de l’accès Internet ?
" />
Alors tout va bien. " />
Le problème est que tu te mens tout autant que hadopi le fait. Le but de la hadopi n’a jamais été de protéger les accès internet des gens. Moi je te parle de la réalité.
Les gens (je me base sur mon cercle de connaissance et moi même) ne téléchargent plus en P2P, ont quasiment tous des abonements Netflix, une bonne partie utilise un spotify like pour la musique, et pour un truc non dispo sur netflix, bah on demande à celui qui sait.
Donc je persiste, beaucoup sont passé à l’offre légal. Est ce que la hadopi a aidé ou c’est juste l’effet des netflix and co qui sont apparu entre temps, je ne sais pas. Mais ce qui est sure, c’est que personne n’a payé d’amende, ni été en prison pour avoir télécharger.
Le
03/08/2020 à
15h
50
Franchement faut pas cracher dans la soupe, avec la Hadopi, les ayants droits sont contents, les gens ont effectivement moins téléchargé (j’ai plusieurs exemple dans mon entourage ayant arrêté après la première lettre) et ça n’empêche pas les motivés (mais ne représentant qu’une petite minorité) de continuer.
Un juste milieu pour tout le monde. Et 80M en 10 ans… même si c’est beaucoup, c’est clairement une goute d’eau dans l’océan du gaspillage public.
Le truc bien, comme un contrat est considéré nul si inscrit à bloctel, c’est qu’à partir du moment où on est sur bloctel, on va pouvoir souscrire à tout et ne rien payer. Il faut taper la ou ça fait mal, le portefeuille.
Moi j’aimerai bien 4km2 de panneau solaire et 24 assurances, sans oublier mes 13 forfaits mobiles et 4 piscines.
Sans oublier le changement des 350 fenêtres de mon château :)
Le
04/08/2020 à
10h
38
Le truc bien, comme un contrat est considéré nul si inscrit à bloctel, c’est qu’à partir du moment où on est sur bloctel, on va pouvoir souscrire à tout et ne rien payer. Il faut taper la ou ça fait mal, le portefeuille.
Moi j’aimerai bien 4km2 de panneau solaire et 24 assurances, sans oublier mes 13 forfaits mobiles et 4 piscines.
Le
04/08/2020 à
10h
34
Winderly a écrit :
“remplace l’opt-in par l’opt-out”
Je suis déçu.
Clairement, il suffit de créer une société par semaine et basta, appel illimité et impossibilité de se desinscrire efficacement.
A côté de ça, je suis sur bloctel et je ne reçois pas d’appel de prospection. Donc semble plutôt efficace (pour moi tout du moins)
(quote:48437:brice.wernet) Rétro compatibilité essentiellement.Historiquement, la plate-forme x86 d’IBM a permis la création de clones moins chers, pendant que les autres plate-formes étaient verrouillées par leur contructeur (Commodore faisant de l’Amiga, Atari du ST, ARM ayant déjà coulé dans sa branche ordis de bureau, Apple du macintosh) - le marché des PC x86 a été envahi avec une rude concurrence, en même temps ils faisaient très pro “pro” donc ça a innondé le marché pro. Les gens ont acheté des PC comme au bureau, et les PC ont évolué à une vitesse hyper rapide, car beaucoup d’équipes y travaillaient, là où les autres types d’ordi n’avaient pas autant de moyens humains mis à dispo.Ensuite, Intel/AMD ont pris un gros leadership (mérité ou non, c’est selon) grâce a des montées en puissance rapide, des capacités de production et de distribution, et du marketing (RIP Cyrix, IDT et Transmeta). En face, les 68000, les PPC, les MIPS, les SH-5, les ARM avaient du mal. ARM s’est distingué en ne vendant que la licence (il y a eu un moment des ARM fabriqués chez Intel), donc on pouvait faire des puces ARM spécialisées (comme les ATLAS spécialisées GPS) mais n’arrivaient à survivre que dans un marché basse conso, basses perfs et basses marges. Après les PDA et les GPS qui ont duré quelques années, les smartphones ont enfin créé un vrai gros marché durable pour les puces mobiles. ARM a achevé d’écraser les autres architecture du type. Quelques MIPS survivent, PPC ne survit que dans les gros calculateurs.Actuellement, ARM abandonne l’IOT et cherche à se faire un place dans les PC et les serveurs, car le marché mobile est saturé et que plein de concurrents vont les perturber pendant au moins quelques années, avec possibilité de renverser la vapeur: les RISC-5. C’est comme ARM, mais sans payer de licence, sans dépendance aux US, et ça plaît énormément à tout le monde: Chine, Russie, mais aussi l’Europe pour l’indépendance. Ils ne sont pas encore tout à fait prêts, mais ça ne saurait tarder et ARM s’y prépare.Mais ARM a tout à prouver sur les marchés serveurs et PC, car même si on montre des ARM ayant les mêmes perfs, ils ne consomment pas forcément moins (voire beaucoup plus) que les PC de même prix. Et Intel revient avec des idées ARM pour reconquérir le marché mobile, pendant que des démos avec AMD montrent des perfs intéressantes sans refroidissement actif…Bref, la guerre n’est pas finie, et les apriori concernant l’une ou l’autre des architectures (perf pur les x86, basse conso pour les ARM) tendent à être démentis…
Merci pour cette réponse!
Le
29/07/2020 à
12h
00
Ca serait possible de faire une news sur x86_64 vs ARM ? Pourquoi aujourd‘hui on a du x86_64 dans les PC et de l’ARM partout ailleurs? La modularité? la rétro-compatibilité? La puissance? Les PCIe ?
Pour le coup, ca me trouble cul de le dire, mais je me positionne plutôt du côté de Trump…
Pour la collecte des données dont fait part le redditer, on sait si c’est Android et/ou iPhone ? Je sais que Apple réduit de plus en plus les API permettant l’identification des personnes et téléphones, ça me semble étrange qu’iOS laisse la liste des SSID dispo aux applis.
Le
03/08/2020 à
11h
04
D’un côté, amende de 5 milliards, puis rachat par une boîte US… ça me rappel Alstom. => Les US sont encore une fois des enflures
D’un autre côté, y a eu quelques travaux sur TikTok et c’est une usine à aspiration de donnée (Tout ce que l’appli arrive à pomper du téléphone) avec obfuscation avancé du code. => Les US ont raison de bannir l’appli
Pour avoir testé pendant la phase gratuite, je pense que cette solution a plus d‘avenir que Shadow, déjà Nvidia est à la barre, donc on des GPU qui tiennent la route et sont à jour. Et coté tarif, 5€, c’est rien du tout comparé à un PC gaming avec un gros GPU.
Oui et non. Le copinage sous-entend qu‘il y a un arrangement (on privilégie les potes, etc …), ici c’est juste profiter de l‘actionnariat.C’est comme si TF1 voulait faire construire un studio / local / …, c‘est Bouygues Construction qui l’aurait géré et pas un concurrent (ça aurait fait con).Et puis passer par 2CSRI, ça permet de réinjecter l‘argent de ton actionnaire chez lui pour bénéficier de matériel, ça renforce le lien. En passant par OVH, le message aurait été du style "OK, je sais faire le boulot, je sais comment fonctionne Shadow mais on confie ça à une autre boite, bonjour la confiance …".
Je suis malheureusement pour eux, d’accord avec toi…
Perso, j‘ai résilié il y a bien longtemps. La boite n’est pas dirigé par la technique, mais part une bande de banquier qui rêve de la mine d‘or alors qu’ils ont a peine acheté les pelles.
Donc mes approximations ne sont pas plus déconnantes que de ranger par une norme un PC portable dans une norme qui admet des équipements qui peuvent aller jusqu’à 600 Volts.
Ensuite la norme CE est applicable aux équipements domestiques comme professionnels.
Donc je ne citais pas le code du travail pour rien. Je n’ai pas non plus besoin d’un texte sain pour te dire que tu es clairement de mauvaise foi.
Maintenant tu peux rester là dessus et défendre Apple et ton aluminium chauffant ou celui que j’ai rangé il y a bien longtemps pour bien mieux.
Ma méthodologie correspond à celle des bench qui sont la seule manière de comparer des éléments subjectifs en les confrontant à des expériences reproductibles.
Tu peux donc lancer une vidéo de la résolution native de l’écran si tu le souhaites, mais tu ne pourras pas comparer ton test perso ultra subjectif du digital mouillé à un portable vendu à un prix similaire car sa résolution sera certainement supérieure à celle du macbook air.
Je continue ?
Idiogène a écrit :
Je ne critique absolument pas ton choix personnel de choisir un macbook pour l’usage que tu en as.
Donc mes approximations ne sont pas plus déconnantes que de ranger par une norme un PC portable dans une norme qui admet des équipements qui peuvent aller jusqu’à 600 Volts.
Ensuite la norme CE est applicable aux équipements domestiques comme professionnels.
Donc je ne citais pas le code du travail pour rien. Je n’ai pas non plus besoin d’un texte sain pour te dire que tu es clairement de mauvaise foi.
Maintenant tu peux rester là dessus et défendre Apple et ton aluminium chauffant ou celui que j’ai rangé il y a bien longtemps pour bien mieux.
Ma méthodologie correspond à celle des bench qui sont la seule manière de comparer des éléments subjectifs en les confrontant à des expériences reproductibles.
Tu peux donc lancer une vidéo de la résolution native de l’écran si tu le souhaites, mais tu ne pourras pas comparer ton test perso ultra subjectif du digital mouillé à un portable vendu à un prix similaire car sa résolution sera certainement supérieure à celle du macbook air.
Je continue ?
Non c’est bon arrête, ça fait 3 fois que je t’explique mais tu comprends toujours pas ce que je dis.
Je te laisse labourer ton champs avec ta Ferrari ou faire les 24 h du Mans en tracteur.
Le
29/07/2020 à
13h
10
[/quote]
Idiogène a écrit :
Des normes qui sont faites sur la base de taux forfaitaires applicables à trop de produits et de scénarios d’usage pour n’en sélectionner que celui de portable. Ou alors j’exige la norme pour l’Europe… t’as une source pour corroborer ton champion?
Tu fabules, et ensuite tu exige que je fasse un travail de recherche? lol
Idiogène a écrit :
Ce qui démontre que le choix de conception est celui du passif. Comme pour les Iphone ou les Ipad. Mais on a toujours pas démontré qu’on ne dépassait pas une valeur de préhension déterminée par une norme. 43° je te dis que c’est trop pour des gosses. Même avec une norme qui dirait, au doigt mouillé, dans les 50°.
Bah ouais, le passif c’est ce que je recherche, et si j’avais pas pris mon MacBook Air actuel, j’aurais pris le MacBook 12” passif -> 0dB et j’en ai rien a faire qu’il throttle quand je lance un cinebench au bout de 10mn, car je n’utilise pas cinebench…
Ouais, au doigt mouillé, comme tout ce que tu racontes depuis le début.
Idiogène a écrit :
Sachant qu’il n’existe pas de valeur dans le code du travail… moi je dis qu’Apple, ou les autres, se foutent bien de la gueule du monde avec cette petite phrase.
Ah ouais, le code du travail maintenant, tu vas aller jusqu’où après? Comme je suis sympa, je vais t’aider. Ni dans la Bible, ni dans le Coran, il n’y a d’indication de température maximum d’un châssis alu d’un ordinateur portable équipé d’un processeur en charge posé sur les genoux à 28°C de température ambiante.
Idiogène a écrit :
Je pense que tu fais un beau raccourci en énonçant implicitement qu’aucun ordinateur portable ne peut être alimenté et fonctionner à 100 % de sa puissance sans sa batterie. Tu crois réellement que les ingénieurs d’Apple dorment bien la nuit en se disant qu’un client ne pourra pas utiliser son macbook sur secteur quand la batterie est à plat ?
Faisons donc l’inventaire :
écran = n W
HDD/SSD = n W
batterie = n W
(…)
(…)
ah oui, j’oubliais le processeur…
Sur un chargeur de 45W tu me diras combien il t’en reste pour charger ta batterie lorsque tu utilises le portable… autrement dit, les watts qui ne sont pas émis par la lumière de l’écran c’est soit de la tension sur la batterie, soit de la perte thermique par effet joule. Vue la durée de vie des éléments au lithium mieux vaut les charger à 0,5C. Donc dans le meilleur des cas tu as les 4⁄5 de ces 45W qui partent en fumée pour ton usage.
Il existe des mini-radiateurs de 50W sur allume cigare… soit dit en passant.
Mais c’est vrai que techniquement je fais peur…
blablabla qui ne vaut rien étant donné le nombre d’approximation que tu vomis depuis le début, et en vrai, on s’en fou totalement, je sais même pas quel est la capacité du chargeur de mon MacBook Air, mais ce dont je suis sure, c’est qu’il charge l’ordi pendant que je m’en sers.
Par contre, je remarque que tu ne prouves rien du tout de ce que t’annonce.
Idiogène a écrit :
Il fait 28° par chez moi. Autant dire que sans lancer une vidéo 4K voire deux, ton avis est sans intérêt.
Tu m’explique l’interêt de lancer 2 vidéos 4k sur un écran qui n’est lui même pas 4k?
Ah oui, comme l’interêt de lancer un cinébench sur un ordinateur qui n’est complètement pas adapté à ça et dire “voyez messieurs-dame, ça throttle”.
Tu veux faire un bench d’un MacBook Air, faut le faire sur des critères lié à l’utilisation d’un ultraportable, comme comparer la qualité de l’écran, le temps de sortie de mise en veille, la batterie au repos, la batterie en veille, le temps de recharge 50% -> 100%, le poids, la chaleur dissipé, la solidité du châssis, le nombre de ports USB, … mais en aucun cas la puissance du CPU dans un bench de rendu 3D, c’est complètement ridicule.
C’est comme faire un bench d’autonomie d’un PC fixe, ou comparer le poids de tel ou tel tour. Aucun interêt.
Le
29/07/2020 à
11h
44
Idiogène a écrit :
C’est pourtant facile, tu prends la puissance en watts sur le chargeur… il n’y a pas que le CPU comme je l’ai dit !
Et oui j’ai déjà utilisé un macbook au quotidien. Donc je sais très bien ce que représente un châssis en alu à 45° sur mes genoux… au delà de 10 minutes tu te brûles.
Des doigts d’enfant oui. Va faire un tour dans une crèche, mets tes mains sous l’eau chaude, sur les surfaces vitrées ou cherche les radiateurs en fonte apparents… bon courage pour te brûler.
Il y une norme pour tout maintenant, ton ironie est donc déplacée.
La première phrase du lien que tu m’as envoyé (que visiblement, tu n’as même pas pris le temps de lire):
“Mac notebooks comply with all temperature limits that are set in national and international safety standards.”
Ensuite, les recommandations données sont valables pour n’importe quel ordinateur portable. Et encore plus pour la grande majorité des ordinateurs portable non-mac étant donné que les MacBook Air et Pro n’ont pas besoin d’aération sous le châssis. Contrairement à la totalité des autres ordinateurs portables que j’ai eu qui ont toujours eu des ouvertures pour la RAM ou autres entrée d’air.
Pour la puissance du chargeur, bah c’est aussi pour recharger la batterie… On parle actuellement de chargeur 100W pour mobile permettant de recharger 50% d’une batterie en 2mn. Tu penses qu’un Snapdragon a besoin de 100W pour fonctionner? Tes connaissances techniques font peur et tu te permets de remettre en cause le travail des ingés Apple.
Et pour finir, j’utilise un MacBook Air tous les jours, actuellement posé sur un lit où j’écris ces lignes. Il est allumé depuis 30mn, l’alu du châssis (y compris en dessous) est froid et le ventilateur ne tourne pas (ou est inaudible, j’en sais rien et en vrai, je m’en fou vu que le résultat est le même).
Le
29/07/2020 à
06h
45
Idiogène a écrit :
Bah l’air extrait est à la même température que le CPU… il y a donc saturation thermique du cuivre. Le radiateur est sous-dimensionné et ne sert qu’à extraire le peu de chaleur qu’il peut du boîtier. CQFD…… " />
Tu démontres toi-même par cet exemple que le système est bancal.
Les ventilateurs de portables “gamer” sont à + de 2000tr/min pour cette raison : le débit d’air compense la faible surface d’échange thermique du cuivre pour que la température de l’air extrait ne soit jamais au dessus de la température du CPU. Auquel cas le facteur de convection est presque nul.
Pic de charge qu’il ne gère même pas… 100° en 2 minutes, pas 30… et dans les 45° avec la conduction de l’aluminium c’est juste impraticable pour les mains. Et dangereux pour les enfant. Enfin bref.
Dangereux pour les enfants, rien que ca… Il paraît même qu’on peut faire cuire des pâtes sur le MacBook Air…
Au fait, pour en parler aussi bien, t’as déjà utilisé un MacBook au quotidien?
Le
29/07/2020 à
06h
44
Idiogène a écrit :
On dit seulement que l’air extrait doit être beaucoup moins chaud que la température du CPU pour fonctionner correctement.
Personne n’a dit que c’était la vérité absolue. On te dit juste que cela ne sert à rien de défendre une marque qui fait une fois de temps en temps sort quelque chose de techniquement abouti et dans le reste des cas passe à côté.
N’importe qui d’un peu sensé peut très bien comprendre que faire des boîtiers petits pour extraire la chaleur d’un demi grille pain est une connerie, de base, sans avoir besoin de sortir de Saint-Cyr… " />
un grille pain avec un TDP de 9W…
Le
29/07/2020 à
06h
40
TexMex a écrit :
Colorimétrie ??? Un calibrage colorimétrique se fait en fonction de
l’environnement lumineux. C’est bien du foutage de gueule ça. Pourquoi crois tu
qu’on ait inventé les moniteurs pro auto calibrant ? Parce que c’est une
plaie à faire et que même dans un endroit fixe (pas comme pour un téléphone)
la course du soleil change la donne tout le temps (pour peu qu’on ait des fenêtres). Calibrage pour un téléphone… Surtout pour regarder le téléphone au travers des traces de doigt dans des conditions lumineuses type métro ou néon de supermarché. Lamentable.
Je ne vois pas pourquoi une batterie Apple montée dans un Apple store
et une batterie Apple montée dans une autre enseigne donnerai un résultat
différent. Tu essais de faire passer tous les réparateurs pour des
filous car ils n’ont pas le logo Apple. C’est malhonnête.
En plus tu parles de téléphone restons dans le sujet. Va créer une panne sur un Macbook et va faire un devis chez Apple. Même pas en fait. Plein l’on
fait avant toi et on posté les vidéos. Certes ce sont des pratiques un peu différentes suivant les pays mais bon Apple aime bien vendre du neuf dira-t-on. Et malheureusement ce sont des cas qu’on ne peut plus qualifier d’exception.
Et de toutes les façons même de remplacer une batterie Apple avec une Apple dans un Iphone récent donne une alerte. Loufoque à souhait.
Dans ton PC il y a un ventilateur pour l’alimentation, un pour le CPU, et un pour le boîtier pour le confort. Si tu as regardé un boîtier récent c’est plus du grillage qu’autre chose (un bon boîtier bien sur). Le besoin d’un ventilateur boîtier n’est pas très grand. Dans le cas ou tu n’aurai qu’un seul ventilateur de disponible le plus sage est de le coller au CPU. Dans le cas d’un portable aussi. Sauf que cela empêche de faire plus plat. C’est pas très “trendy”.
Je n’ai pas dit que cela ne fonctionnait pas (un peu). J’ai dit “pas optimum”. Et vu qu’il n’est pas très difficile de trouver des informations sur les Macbook “braindead syndrome”. Je dirai qu’il y a quand même matière à s’en soucier.
Tu fais des raccourcis grossiers qui t’arrangent et déforme le propos des gens.
Ensuite si un gars du marketing déboule voir les ingénieurs en lançant “c’est trendy d’avoir 4 ventilos !”. Y’a des chance que cela arrive. Je le dit en rigolant mais vu ce qu’ils ont déjà fait… je ne peux pas m’empêcher de penser que cela arriverait.
En gros leur solution c’est de ne pas utiliser le potentiel de l’ordinateur…
Et c’est un autre problème. Faire une conception (que ce soit Micosoft/surface ou Apple) qui dit qu’on a mis tout plein de truc géniaux sous le capot mais qu’en réalité, il ne faut pas trop s’en servir pour ne pas le casser… Tu vois ou je veux en venir.
Ces nouvelles générations d’ordinateur comme les Surface et plus généralement les ultra plats (/léger) ne peuvent pas se défaire des lois de la physique. Et on retrouve les mêmes problèmes de chauffe et de performances. Le pire étant les PC portable de gamer qui se mettent à ventiler comme des aspirateurs dès qu’on passe les 20% de charge CPU. Donc du Macbook qui chauffe un peu trop du fait d’un ventilo pas très bien placé doit pouvoir se trouver.
Tu dis que ce mec est un buzz ambulant en ayant vu une ou deux vidéos. C’est une opinion. Moi je pense qu’il est folklorique mais qu’il n’a pas du tout tord sur le fond. Et c’est cela le plus important.
Tu changes de sujet, on parle du MacBook Air, pas du Pro.
Le
28/07/2020 à
17h
03
TexMex a écrit :
Le programmes de réparateur affilié d’Apple… En fait c’est du foin. C’est tout simplement qu’ils ont leur propre comptoir à tondre les moutons. Tu peux aisément comprendre leur intérêt. Il ne vont pas investir dans un truc qui tuerai leur usine à tondre autrement qu’en y étant forcé.
Tu peux regarder l’historique d’Apple sur le sujet. Apple vient à peine de s’y mettre au regard de son histoire. Considérant l’ancienneté de la boite… C’est du foutage de gueule. Et c’est pour une raison simple. Le gouvernement US a déjà entamé le volet de la réparabilité des objets. Bien avant l’Europe. En gros Apple fait bonne figure mais sans plus. Ce sera pareil pour Microsoft (qui s’est tapé de bien sales notes sur Ifixit) et consort. Histoire que les Apple Mongers ne me taxent pas de Apple basher.
Si tu avais suivi la chaîne de ce gars ainsi que d’autres tu verrais qu’au début il était bien plus explicatif que cela. Jusqu’à commenter des communications officielles avec Apple. Donc ce qu’il faut comprendre c’est qu’il n’y a pas de réparateur affilié mais un comptoir Apple qui ne répare pas vraiment. Il fait des devis à hauteur de prix d’un nouveau MacBook (sinon plus :) ). Et le pauvre client se casse renouveler sont matériel s’il décide de rester chez Apple.
Le Macbook peut rester allumé capot ouvert sans se logger que cela ne fera pas monter en charge du CPU. Ce n’est pas parce que c’est allumé que cela dépasse les limites de chauffe. Bien loin de la. En fait c’est de le faire tourner capot fermé qui sera plus néfaste. Ironique non ?
Les plans que tu considère mal cadrés viennent du fait que ce n’est pas une caméra mais un microscope monté sur bras avec une caméra en plus. Donc ça gigote, rebondi etc. Enfin tu ne vas pas dire que tu ne voyais pas les soudures quand même ?
Concernant l’exemple du ventilateur, je considère que de mettre un radiateur relativement éloigné d’un ventilateur n’est pas optimum. Et dans le cas de cette vidéo on a pas l’impression qu’il y a un conduit les reliant. Le ventilateur est tout même présent pour “transporter” la chaleur. Un ventilateur a qui tu doit “apporter” la chaleur pour l’extraire ensuite… c’est con car c’est son boulot à la base.
Enfin je veux dire cela fait 30 ou 40 ans qu’on met des ventilateurs collés sur les CPUs. On va pas réinventer la soupe. Dans un portable il y a peu de place. Donc les courants d’air ne sont pas nombreux et il est préférable de ne pas avoir trop de “trous” non plus. Cela complique les choses. Donc faire des choses qui ne sont pas optimum… bref.
Dans un Apple store, tu changes ton écran, il te recalibre le téléphone en fonction de la colorimétrie réel de l’écran, t’as ça chez phone house? non. Quand tu changes ta batterie dans un Apple store, t’es sure qu’ils vont te mettre une de qualité. T’as ça chez phone house? non.
Alors si t’aime bien démonter ton téléphone pour le plaisir (quand c’est possible d’ailleurs) et te faire pigeonner une fois sur 2 avec une batterie de merde, c’est cool pour toi. Moi perso, je préfère lâcher 49€ et être sure du résultat en 1h main d’oeuvre comprise.
Ensuite, ta théorie scientifique sur les ventilateur est encore bidon, sinon à quoi ça sert de mettre des ventilo de boitier? Un boitier de PC, ça chauffe pas pour info, c’est juste de la ferraille inerte. Donc que le ventilo soit collé ou non, ça fonctionne quand même. Dans une différente mesure, mais ça fonctionne. A partir du moment ou de l’air chaud est expulsé, c’est qu’il sert.
Que t’aime ou pas la façon de faire d’Apple, c’est une chose. On a le droit de ne pas être d’accord, moi le premier. Mais aller dans le sens d’une vidéo complètement pas objective, qui raconte des mensonges pour vendre sa soupe (attiré le chaland sur sa chaine YouTube et dans son magasin), c’est limite de l’escroquerie.
Le
28/07/2020 à
16h
50
Idiogène a écrit :
La réponse est simple, il faut faut faire le calcul d’échange thermique utile cuivre-air (la surface du radiateur quoi). En watts/débit d’air ms-1. Puis comparer cette valeur avec le nombre de watts transmis par le CPU (TDP). C’est assez simple… tout le monde sera d’accord ensuite. " />
Y a plus simple, si l’air expulsé est chaud, c’est que le blower sert à quelquechose. Et bizarrement, même sans avoir mi ma main devant l’air expulsé, je pense que j’ai raison.
Le
28/07/2020 à
16h
49
Idiogène a écrit :
C’est mal parti…
YouTubeCe test ne sert à rien, le heatsink et le blower, c’est pour gérer un pic de charge, pas un bench pendant plusieurs minutes… Si tu veux lancer un PC qui gère les kikimeter pour savoir qui à la plus grosse, y a des PC gamers core i7 de 3Kg avec écran 17” qui soufflent comme des malades a peine allumé… Lancer un rendering sur un pauvre core i3 de portable… franchement ridicule.
Alors oui, on peut mettre du caloduc, mais c’est plus gros. Et perso, sur mon portable, je n’ai que faire de la puissance. Par contre je veux un truc léger avec une bonne autonomie. Pour jouer j’ai un fixe Ryzen 7, et pour bosser j’ai un laptop Dell 4C/8T du taff qui souffle dès qu’on l’allume. Pour ce qui est de la mobilité, de mon canapé devant la TV, jusqu’aux vacances, je prends mon MacBook Air de début 2014 qui n’a aucun problème de perf, et qui tient encore au moins 5h de batterie.
Le
28/07/2020 à
14h
23
TexMex a écrit :
1/ La mise sous tension ne signifie pas un CPU en pleine charge. Simplement le lancement de la séquence de POST qui sera loin de demander de la puissance. Un POST ne fera jamais griller des composants comme cela. Ou alors il est complètement foutu avant qu’on ouvre la boite.
Donc il ne lance qu’une séquence de démarrage (et non boot) dont il a besoin pour vérifier que les éléments démarrent et qu’il obtiendra les bonnes tensions sur les points de contrôle qui garantissent que la séquence est bien arrivée à son terme dans des conditions acceptables et que l’ordinateur peut amorcer la suite: booter sur le SSD.
Donc le CPU n’a besoin pas besoin de refroidissement durant l’opération, à plus forte raison si la carte mère est sortie du châssis. Ça risque pas de chauffer beaucoup.
2/ Ce gars a un business qui fait entre autre du MacBook. Il y a aussi le “data recovery” et du mobile. Bref tu aurais tu chercher une information plus complète sur “ce gars là”.
Effectivement il est remonté contre Apple pour ses pratiques assez vilaines envers les réparateurs indépendants. Mais bon qui ne le serait pas? Si tu avais plus suivi ses vidéos (et celles d’autres “réparateur”) tu aurais peut être une autre idée sur la question.
Les réparateurs ont vraiment de quoi faire la gueule et ce n’est pas par manque de business. C’est plutôt le manque de moyens (rétention des plans et j’en passe) pour faire ce business. Business que le comptoir Apple ne fait pas tellement le devis décourage le client. Il préfèrent te vendre un nouveau truc. Il te sera facile de trouver une vidéo caméra cachée au comptoir d’Apple qui montre les scandale que c’est.
Faux, le MacBook est allumé pendant quasiment toute la vidéo, pas juste quelques secondes de boot. Et ce gars la, c’est un Youtubeur. Ses gros plans mal cadrés, sa fausse improvisation, ses réactions, c’est calculé hein, rien n’est fait au hasard. Le but, c’est de faire du buzz, de l’apple bashing. Le gars, il achète une caméra de malade capable de filmer en basse lumière avec un max de détail, et il est pas capable de cadrer même à l’arrache sa vidéo? Tu le sens le gros conflit d’intérêt la ?
A ce niveau de notoriété, ça ne m’étonnerais même pas que le matériel ai été mis HS juste pour un buzz de plus.
De plus, tu le dis toi même, les réparateurs sont rageux, à juste titre, du fait qu’Apple fasse de la rétention d’info pour que seul les réparateurs agrées puisse réparer des iTrucs. Donc le gars, même dans l’hypothèse qu’il soit sincère avec ses réactions, n’est pas objectif.
Franchement, ouvrir l’ordi et dire que le blower ne sert à rien… rien que ça, c’est faux. Et comme justification “It’s just Apple”. Sérieux? et y a des gens qui croient ça? Apple met des blower pour faire joli dans ses MacBook Air ? Un peu de pensée critique serait le bienvenu pour ne pas gober la bouche grande ouverte ce que dit ce gars la sans réfléchir…
Le
28/07/2020 à
14h
04
Idiogène a écrit :
Un overclocker dira également que le throttling est le mal du siècle. Le client un peu consciencieux qu’il paye un processeur haut de gamme qu’il ne peut exploiter pleinement faute de dimensionnement du boîtier et du système de refroidissement selon la valeur du TDP fournie par Intel.
Les caloducs bien conçus ne bougent absolument pas. Ceux d’Apple (et oui il y en a !) sont seulement en deçà des préconisations d’Intel… d’où les réglages logiciels pour compenser les défauts de l’affinement du châssis. Et des performances en deçà d’un autre montage plus convenable…
Donc franchement le problème n’est pas le savoir technique d’Apple mais leur volonté de tout aplatir. Si ils pensent à tout passer sur ARM c’est aussi pour se passer des contraintes connues du monde du PC qui ne sont pas compatibles en pratique électronique courante, avec le monde du PC.
Ce New-yorkais ne fait que constater l’idéologie anti-technique de la marque jusqu’à omettre l’élémentaire et je pense qu’il a raison dans la mesure ou le repoussoir des années 50 ne tient plus vu les progrès de la concurrence (qui eux se font au bon rythme et ne produisent pas des circuits conçus à l’emporte pièce…).
Le problème, c’est que tu veux tout, pour rien.
Le MacBook Air, c’est quoi?
un ordinateur portable ultra léger
autonomie record, d’autant plus au regard du poids
écran rétina
La airflow de ce MacBook, c’est prévu pour refroidir le CPU quand il tourne au minimum, c’est à dire pour de la consultation web, Facebook, word/excel, emails, regarder ses photos/videos, faire ses comptes, ssh, git, développement, …
Et cette configuration permet de tenir un boost de quelques secondes lorsqu’il y a besoin comme lancer une appli, exécuter le gros code javascript de gmail, etc…
Si tu cherche un PC ultra fin, léger, avec 11h d’autonomie capable de tenir un TDP de 35W h24, bah scoop, ça n’existe pas.
Sans même rentrer dans les specs techniques, tu te doutes bien que si tu comptes compiler du code 8h par jour, lancer 10 VMs ou faire du rendering h265 à longueur de journée, c’est pas ce type de config qu’il faut…
Si t’as besoin de puissance sur un ordi portable, ça existe, mais ça ressemble pas à un MacBook, et rien que le chargeur fera le poids du MacBook Air.
Et pour finir, le TDP des CPU Intel mobile est configurable, si le proc est setup pour tourner sur 12W maximum, c’est en aucun cas un problème de design d’apple, mais une fonctionnalité du CPU pour tenir dans des configuration type MacBook Air.
Tant de mauvaise fois sur la première vidéo… (j’ai pas regardé la 2ème)
Sincèrement, y a des gens ici qui croient qu’Apple installe des blower dans leur MacBook juste pour faire joli? Sérieusement?
Le CPU du MacBook est undervolté avec une limitation du TDP. Y a pas besoin d’avoir une usine de refroidissement pour refroidir ce MacBook. L’airflow de ce MacBook est fait de tel sorte que l’air aspiré par le blower passe par le radiateur et d’autres pièces afin de les refroidir toutes en même temps.
En plus, un CPU Intel, ça crame pas à cause de sa température, y a un throttling automatique interne au CPU. N’importe quel overclocker vous le dira.
Les caloducs dans les pc portables, ça bouge avec le temps et les contraintes matériel et au final détériore le pad thermique. S’en passer, c’est ce qu’il y a de mieux pour augmenter la longévité d’un équipement. Simplicité = fiabilité bien souvent.
Et pour finir sur la prestation de ce soit disant expert, ouvrir et allumer comme un gros débile ce MacBook, c’est priver le CPU de son système de refroidissement par airflow. Et venir juste derrière dire que le blower ne sert à rien… pathétique.
Ce gars là, son business, c’est l’Apple bashing hein. Donc forcément qu’il ne va pas en dire si bien. C’est comme demander à un vendeur d’arme ce qu’il pense de la guerre…
Les anti Apple sont aussi ridicule que les fan boys…
Mon propos était plutôt sur la causalité. Nous sommes tous les deux d’accord sur le fait que la conception est discutable.
Ce qui me faisait tiquer, c’est le fait que tu estimes que ce n’est pas un incident mais un défaut de conception. Un défaut de conception peut être fonctionnel sans provoquer d’incident. Ce qui n’empêche pas de le corriger aussi avant qu’il n’en provoque. (l’erreur est humaine, constater l’ano avant qu’elle ne provoque des dégâts et dresser un plan d’action pour la corriger est la bonne démarche… L’inverse serait une bêtise par contre)
C’est sur ce lien de causalité que ma remarque portait, ou alors j’ai mal interprété.
Ah si si, il y a bien un incident, j’ai pas été très clair en faite. Ce que je dis, c’est que ce n’est pas juste un incident, c’est un vrai problème de design.
Ce que je veux dire, c’est que si le design est fait correctement, il ne peut pas y avoir d’incident autre qu’une erreur humaine sur une action d’admin ou bug logiciel. Dans le cas présent, le problème, c’est que by-design, l’architecture était vouée a avoir un incident, c’était juste une question de temps pour savoir quand est-ce que ça allait arriver.
Je viens de vérifier avec un mtr sur un domaine que j’ai chez eux en “live dns” et c’est toujours le cas. J’ai exactement la même latence et le même traceroute sur les trois serveurs… Peut être que les IPs sont maintenant annoncées depuis des serveurs différents, mais en cas de problème local sur le datacenter, un truc un peu batard comme de la grosse perte de paquet ou alors que la session BGP reste UP alors que les applis sont down,… ca peut retomber. Alors qu’avoir des DNS répartie sur plusieurs datacenter (ce qu’ils ont en plus), ca permet de se prémunir d’un problème local au datacenter.
Le
18/07/2020 à
18h
34
Je dis erreur de design, tu dis erreur de conception. Pour moi c’est la même chose hein :)
Le
17/07/2020 à
11h
43
La transparence du post morten est a saluer.
Cependant, pour l’incident, ça montre un manque de connaissance. Le design, qui est fait a tête reposé en amont de l’implémentation, est clairement mal fait:
L’anycasting BGP, c’est pour qu’une IP soit toujours dispo. Ca protège d’une merde “niveau 1” locale, comme un serveur qui crash par exemple, le copain a coté prend le relai.
Si on met plusieurs plusieurs NS pour un domaine, c’est pour couvrir une merde niveau 2, c’est à dire, quand on n’a mal gérer la merde de niveau 1 au niveau local, ou qu’on perd un datacenter. Le client sait qu’il peut taper sur un second serveur.
Anycaster les 3 IPs depuis un même serveur, et je dirais même, depuis une même zone géographique, c’est une faute de design, pas un incident.
Le DNS, c’est l’une des rangés de parpaing qui fait parti des fondations de l’Internet. Si ca tombe, y a juste plus rien qui fonctionne. Le DNS est justement un protocole super simple et basique, qui le rend donc super robuste pour cette raison. Vouloir faire de l’over-ingénieurie au dessus, c’est le fragiliser, et voilà ce qui arrive.
Je t‘invite à arrêter la divination alors.Ce n’est pas une histoire d‘équation, juste tu lis ce que tu as envie. Un contrôleur SAS discute avec un expander (composant de base d’une baie DAS) SAS, voir un sous expander. C‘est à travers le câblage final vers le disque qu’il y a du SATA qui est un sous-ensemble de fonctions du SAS. Sans SAS, il n‘y a pas de SATA.Pour rappel, penser à l’avenir, c‘est bien. Effacer le passé, c’est naze. Quand t‘as des vieux softs qui te coutent 100K€ à changer, ben tu fais pas de l’objet, tu fais du DAS ou du local, même si la machine virtuelle de cette bécane tu la sauvegardera sur de l‘objet.Bref, je te laisse dans ton avenir et tes docs SATA.
En faite, soit je m’exprime mal, soit tu comprends ce que t‘as envi de comprendre.
Cryogen dit que les DISQUES SAS sont plus pratiques, et j’ai répondu que DISQUES SAS ou DISQUES SATA, ca ne change rien au hot-plug. Et j‘en ai profité pour dire ce qui différencie un disque SAS d’un disque SATA.
Ensuite j‘explique que les DISQUES SAS sont en voie de disparition au profit des DISQUE SATA, bien moins cher, ou du NVME, suivant les besoins.
Que le SATA soit un sous ensemble de SAS, ca me fait une belle jambe, moi je parle de l’addition au final. Les DISQUES SAS (qui coutent une blinde) n‘apportent rien dans les technologie de stockage en 2020, que ce soit pour du SAN (maintenant en full flash), ou pour de l’object (qui se contente de disque SATA).
Voilà.
Et pour les vieux soft à refaire. Chaque boite aura sa stratégie, mais croire que laisser pourrir un truc dans un coin ne coute rien, c‘est se fourrer le doigt dans l’œil bien profondément. Y a qu’à voir le tarif des NAS redondé + support VS des solutions de stockage répartie sur du comodity hardware, voire même de la facturation à la conso comme Amazon S3.
Maintenant, si tu penses que l‘avenir, c’est la VNX d‘EMC ou les FAS de chez NetAPP, j’ai pas de soucis avec ca. Mais perso, c‘est clairement pas là où je mettrais mes euros.
Le
18/07/2020 à
19h
39
patos a dit:
Euh pardon? SAS et SATA sont intimement liés: c‘est le panel de fonctions avancées qui fait la différence. Si l’un des deux devait disparaitre, ce serait le SATA ! Qui, pour rappel n‘existe encore uniquement parce les contrôleurs de carte mère n’intègrent pas le SAS (qui est compatible SATA sur les disques). Le SAS permet une configuration à N avec adressage des disques: 65000 disques sont agrègables via les expanders. ce qui permet de faire des armoires réseaux de plusieurs TO, et cela avec des débits excellents puisqu‘on bloque à 12G tous disques cumulés, donc sans goulot d’étranglement dû à la latence. Et je ne parle pas des fonctions avancées comme le full duplex, l‘envoi de deux commandes simultanés, le support de deux contrôleurs différents en même temps pour la redondance, les chemins en boucle depuis le même contrôleur pour la redondance également, …Si tu veux vraiment faire du SATA pas cher en stockage, tu le fais sur du contrôleur SAS JBOD avec des expanders puis ensuite des disques SATA.Puis il n’y a pas que le stockage objet dans la vie… Le hobby des deux dernières années ne peuvent pas satisfaire les exigences de logiciels plus vieux, hors de prix, traditionnels et cruciaux pour de nombreuses entreprises.Alors vive le RAID, le SATA, le SAS, le JBOD, le NVME, mais à chacun son usage.
Je ne suis pas devin, donc on verra dans l‘avenir.
Mais la tu mélanges un peu tout. Si quand tu dis "baie SAS", tu parles des châssis de disque qu’on plug au cul d‘un contrôleur SAS, alors en vrai, ca s’appelle une baie DAS, et ça supporte le SAS et le SATA. Et l’intérêt d’un tel chassis, avec des disques double path, c‘est dans les anciens SAN ou les NAS de disques avec le double controleur pour la redondance interne. Et ce type de chassis, c’est en train de disparaitre. Les SAN avec du disque et les NAS sont en train de vivre leurs derniers instant.
Le stockage en 2020, c‘est:
Donnée structuré => baie de stockage full-flash => NVME ou en cours de migration vers NVME
Donnée non structuré => stockage objet => Erasure coding avec du sto pas cher => SATA. Ca peut etre du SPIN ou du SSD, mais en SATA.
Dans ton équation, t’as oublié le prix d‘un disque SAS vs SATA. Je dis pas qu’il n‘y a pas de contrôleur SAS coté serveur parce que c’est plus pratique, mais les disques et le protocole de communication, c‘est du SATA.
Je te laisse lire les doc d’implémentation de minio ou scality par exemple, ils recommandent du SATA. Non pas parce que c‘est mieux, mais parce que le SAS n’apporte rien de plus. La redondance se faisant au niveau des nodes, et non au niveau des disques. https://min.io/resources/docs/CPG-MinIO-implementation-guide.pdf
Alors on trouvera encore du SAS dans les serveurs dans 20 ans, mais ca sera complètement négligeable. Si on en a encore aujourd‘hui, c’est:
parce qu‘on fait comme ca depuis des années et on a peur de changer… Mais plus personne (en tout cas j’espère) ne met de base de donnée sur du disque rotatif en local… pas non plus besoin de disque SAS pour booter un hyperviseur.
parce qu‘on a encore un vieu truc qui tourne et qu’on ne veut pas le redévelopper.
Pour répondre à "il n‘y a pas que le stockage objet dans la vie…". Bah en faite si.
Tous les softs de backup stockent sur du S3, quand c’est pas l‘application elle même qui se backup sur le S3.
Les fileserver NFS/SMB, c’est fini. Coté poste de travail (Onedrive, Dropbox, Gdrive, Nextcloud) et coté serveur (Amazon S3, glacier, C14 cold storage) … tout ca, c‘est du stockage objet. Et tout ca, ca tourne sur du SATA. Quant au stockage réparti type CEPH par exemple, il ne recommande que du SSD (SATA ou NVME).
Coté dev, c’est tellement plus simple d‘utiliser les API de stockage objet, plutôt que de se faire chier a gérer du filesystem…
Bref, je persiste, le SAS c’est fini. Il en restera toujours dans 20 ans, comme du vieux code turbo pascal, mais la grande majorité sera, et est déjà, sur du SATA et NVME.
Le
17/07/2020 à
19h
35
CryoGen a dit:
La connectique SAS est quand même plus pratique (pour le moment) pour tout ce qui est baie de stockage SAN/NAS ou même façade serveur. Je ne pense pas que ca va disparaitre de si tôt du coup. Il faut penser aussi au contrôleur hba/raid …
Ce que je vais dire sort du fin fond de ma tête, donc à vérifier pour être sure.
La connectique SAS et SATA, c‘est la même, les deux gèrent le hot-plug. Il n’y a pas de "plus pratique".
La différence entre les deux, c‘est le protocole sur lequel il est basé:
S-ATA: Serial ATA
SAS: Serial SCSI
En SAS, tu dois avoir un contrôleur SCSI coté disque. Ce contrôleur permet d’ajouter une couche de communication n-tier, alors qu‘en S-ATA, c’est du 1-1.
Alors la question, à quoi ca sert? Ca permet deux configurations possibles:
1 connexion double path à 12 Gb/s (bon, complètement useless au dela du cache vu que derrière, c‘est un pauvre disque qui tourne)
2 connexion simple path à 6 Gb/s qui permet d’avoir deux contrôleur pour gérer 1 disque. Ca sert par exemple dans un NAS ou un SAN avec 2 contrôleurs pour la redondance. Les deux contrôleurs voient tous les disques, mais se partagent l‘accès. Si un contrôleur tombe, le second à juste à reprendre le rôle de gestion, les disques étant déjà attaché.
Pour revenir à la news, tout ça pour dire qu’avec le stockage objet, l‘erasure coding a remplacé le RAID. La redondance ne se base plus sur la redondance disque à l’intérieur d‘un serveur, mais sur la redondance des serveurs entre eux. Chaque serveur est devenu un élément jetable, on veut qu’il coute le moins cher possible, d‘où l’intérêt du disque classique SATA single path pas cher.
Le
16/07/2020 à
21h
38
patos a dit:
Quand tu sais que le SMR utilise les mêmes fonctions que les SSDs c‘est à dire le TRIM, tu te dis que les différents types de stockages peuvent cohabiter. Le SATA a de beaux jours, avec le SAS, pour mixer SSD & HDD dans le milieu du stockage hiérarchisé.
Clairement, les HDD les plus rapides tournant autour de 200Mo/s, vitesse stagnante depuis un paquet d’année maintenant, aucune raison d‘aller plus vite et de devoir utiliser des puces plus couteuse. L’avenir du S-ATA et du disque dur classique, c‘est le stockage massif pas cher.
Pour le SAS, je suis par contre plus mitigé, ou alors il faut que les contrôleurs (serveurs et disque) descendent au prix du S-ATA. Quand on voit le tarif des disques SAS, la fiabilité, l’encombrement, le poids, etc… ils n‘ont vraiment plus aucun intérêt face au SSD NVME et même S-ATA. On trouve par-ci par-la des SSD SAS, mais je pense que ça va bientôt disparaitre.
Le
16/07/2020 à
17h
55
Le S-ATA continue son chemin d‘origine dans le stockage basé sur du disque dur.
La flash n’ayant été S-ATA que le temps de définir les specs du NVME.
C’est marant, depuis une dizaine d’année, les navigateurs et developpeurs font tout pour qu’un maximum de travail soit déporté coté navigateur (application javascript coté client, founiture de data via API coté serveur) et maintenant on s’étonne que ca consomme de la batterie. Allons nous passer les 10 prochaines années à refaire machine arrière?
Vivement qu’on ne soit plus qu’un numéro, comme ca ca sera réglé. Ou pas en faite, on véra des gens, qui viendront se plaindre d’être pair ou impair, d’être supérieur ou inférieur a 500000. Bref…
Non, je ne parle pas de taxe, juste de payer à la consommation. Mais je ne dis pas que le prix doit être exorbitant. C’est juste que de cette façon il y aura un intérêt à moins abuser de la bande passante. Je connaissais des gens qui pour arrêter de regarder la TV par ADSL éteignaient la télé mais pas la box, et laissaient donc le flux en permanence.
Je suis plutôt pro nucléaire pour cette raison. Mais à l’échelle de l’Europe (ou du monde) la majeur partie de l’électricité vient de sources carbonées. L’électricité sera, je pense,de plus en plus rare ou chère. Pour moi, toutes les mesures permettant de diminuer la consommation sont bonnes à prendre.
Sincèrement, Internet, c’est bien le loisir qui carbone le moins hein.
C’est rien du tout comparativement à quasiment tout autre loisir, a part jouer au échec avec son voisin. Internet, ca évite au gent d’utiliser leur bagnoles et de cramer du mazout.
Bon après, je vois bien que parler comme ça sur le forum de inpact hardware, c‘est un peu le type qui vient parler d’économie de carburant à une convention de 4x4.Mais la freebox, c‘est justement un outil de masse pas de spécialiste.
Non non, je te rejoins sur pas mal de point. Cette période Covid force un peu le fait de prendre conscience que bah en 3 mois de confinement planétaire, ça s’est plutôt bien passé. Moins de consommation à outrance. On a tous réussi à bouffer et à survivre, et pourtant, j‘ai pas eu besoin de prendre ma bagnole ni d’aller a 50 bornes de chez moi pour taper sur un clavier pour "produire des besoins" dont vous ne pourrez plus vous passer plus tard. Bref, je m‘éparpille.
Pour revenir sur sujet des évolutions et à la news, je sais bien que les technos successives, au début, on ne voit pas l’intérêt, et quelques années plus tard, on ne peut plus s’en passer. Mais c‘est de moins en moins vrai.
Qu’est ce qui a toujours poussé l‘évolution en informatique? Le multimédia, c’est à dire, jeux vidéos, téléchargement de films, plateforme de streaming (YT, Netflix, …), le porn, la VR (qui ne prend pas au passage)…
Le fait est qu‘on a toujours été bridé par la connexion Internet jusqu’à peu. Aujourd‘hui, dans un foyer, même si toute la famille de 10 personne regarde un film en 2 x 8k en VR avec chacun son casque, bah une connexion 1Gb/s suffit. Et plus on avance, plus les codec sont efficace et réduisent la bande passante nécessaire, on parle déjà de h.266 qui serait 2 fois plus efficace que le h.265, qui est lui même 2 fois plus efficace que le h.264, etc… En 8k sur un écran de taille abusif (85"), on n’arrive déjà à la limite de la perception humaine et on n‘est déjà plus capable de distinguer les pixels. On est arrivé au bout de la techno.
Coté jeux vidéos, c’est peut être la que ca risque de pousser un peu plus. Avec des jeux de plus en plus gros, CoD, GTA, qui n‘ont pas honte de taper dans les 100Go de donnée à télécharger (15mn à 1Gb/s). Mais aussi peut être le jeu en streaming, qui aujourd’hui ne fonctionne pas pour tous les jeux nerveux à cause du temps d‘encodage/décodage induisant de la latence. Peut être qu’on pourra diffuser la vidéo en "RAW" directement sans passer par la phase d‘encodage/décodage.
ouais, ben faudrait déjà faire un peu de ménage dans le TB3 …j‘ai un XPS15 au taf, un MB16 à la maison, et impossible de trouver un dock qui fonctionne sur les 2 ! dernier en test, le G2 de HP : pas de vidéo sur les 2 ordis \o/si vous avez un modèle qui just work, faites signe
La même histoire chez moi. J’ai un laptop Dell et un Dock Dell qui marchent a peu près bien ensemble. Par contre le Dock, je peux rien brancher dessus. Mon ex-Galaxy S9 voyait une carte réseau, mais pas d‘affichage, la Nintendo Switch, il se passe rien, même pas la recharge. Par contre sur le PC, j’arrive à faire marcher l‘adaptateur USB-C/hdmi-usb-usb-c que j’ai acheté pour la Switch.
Bref, on est encore très très loin d‘un standard unique et universel :)
Le
08/07/2020 à
14h
35
Thunderbolt, également appelé "la backdoor PCIe". Même si comme dit dans l‘article, ça commence à se sécuriser un peu.
c‘est quoi cette arnaque ?!ils vendent une licence logicielle tarifée facon CA/IBM des années 80&90 au nombre de cores cpuEt en plus ca n’est en rien une offre ‘cloud’ dans le sens ou ils ne mettent a disposition aucune infrastructure cloud eux-meme. Ils ont zéro OPEX et CAPEX de fonctionnement et veulent une rente uniquement sur du logiciel…fallait oser quand même. surtout a ce prix.
Pour VS, je ne pense pas que ça pose soucis surtout que Microsoft va sortir une version ARM pour mac de MS Office (dès le lancement ?), je ne pense pas qu‘ils fassent le dév avec TextEdit ;)Concernant Java, le principe même est de tourner sur de multiples plateformes, OpenJDK tourne parfaitement sur un Raspberry Pi qui a un proc ARM.Me concernant, ce sont effectivement les jeux qui vont poser soucis, Blizzard ne va probablement plus porter de jeux sur Mac, hormis WoW probablement car il rapporte pas mal… Final Fantasy XIV risque de ne pas être porté sur ARM vu que la version Mac est déjà la version Windows via "Wine"… Ça serait bien que ces jeux sortent "officiellement" sous Nux pour que je puisse changer sereinement de machine (les comptes de joueurs jouant via Wine sous linux se font souvent bloquer pour utilisation de logiciel de "triche"… )
C’est sure que pour les jeux, c‘est pas prêt d’arriver sur Mac ARM. Les consoles viennent déjà juste de passer au x86… A moins qu‘il y ai des frameworks multiplateforme (unreal?)
3028 commentaires
Chuwi HeroBox : qu’attendre d’un mini PC (Celeron N4100, 8 Go) sous Windows 10 à prix cassé ?
03/08/2020
Le 04/08/2020 à 13h 05
Sans écran et avec un stockage normal (autrement dit, pas 20 HDD), tu dois être à 40W idle je pense.
J’ai pas mal de vieux matos qui pourrait re-servir en NAS, DNS, Plex, etc… le problème, c’est que ca consomme de trop donc je n’utilise plus.
Actuellement, j’ai une carte mère J3455 Asrock fanless dans un boitier Antec Mini ITX avec 16 Go de RAM + 2 SSD + Proxmox.
Avec Plex (dans un container Proxmox LXC), il gère (testé et validé) 3 encodage H264 1080p Haute définition de source H265 4k HDR sans problème (peut être plus, mais pas testé), pour une conso de 10/12W en Idle.
Après, c’est pas le même tarif, 100€ la mobo, 70€ le boitier, 60€ de RAM + le prix du stockage.
Hadopi : 82 millions d’euros de subventions publiques, 87 000 euros d’amendes
03/08/2020
Le 04/08/2020 à 10h 47
Le 04/08/2020 à 10h 07
Le 04/08/2020 à 10h 00
Le 04/08/2020 à 08h 17
Le 03/08/2020 à 15h 50
Franchement faut pas cracher dans la soupe, avec la Hadopi, les ayants droits sont contents, les gens ont effectivement moins téléchargé (j’ai plusieurs exemple dans mon entourage ayant arrêté après la première lettre) et ça n’empêche pas les motivés (mais ne représentant qu’une petite minorité) de continuer.
Un juste milieu pour tout le monde. Et 80M en 10 ans… même si c’est beaucoup, c’est clairement une goute d’eau dans l’océan du gaspillage public.
La DGCCRF dessine les contours du futur Bloctel
04/08/2020
Le 04/08/2020 à 10h 39
Le 04/08/2020 à 10h 38
Le truc bien, comme un contrat est considéré nul si inscrit à bloctel, c’est qu’à partir du moment où on est sur bloctel, on va pouvoir souscrire à tout et ne rien payer. Il faut taper la ou ça fait mal, le portefeuille.
Moi j’aimerai bien 4km2 de panneau solaire et 24 assurances, sans oublier mes 13 forfaits mobiles et 4 piscines.
Le 04/08/2020 à 10h 34
Zen 4 en 5 nm, RDNA 2 et CDNA (2) : AMD dans les temps
29/07/2020
Le 04/08/2020 à 08h 02
Merci pour cette réponse!
Le 29/07/2020 à 12h 00
Ca serait possible de faire une news sur x86_64 vs ARM ? Pourquoi aujourd‘hui on a du x86_64 dans les PC et de l’ARM partout ailleurs? La modularité? la rétro-compatibilité? La puissance? Les PCIe ?
Trump veut interdire TikTok, Microsoft joue au chevalier blanc
03/08/2020
Le 03/08/2020 à 16h 02
Le 03/08/2020 à 11h 04
D’un côté, amende de 5 milliards, puis rachat par une boîte US… ça me rappel Alstom. => Les US sont encore une fois des enflures
D’un autre côté, y a eu quelques travaux sur TikTok et c’est une usine à aspiration de donnée (Tout ce que l’appli arrive à pomper du téléphone) avec obfuscation avancé du code. => Les US ont raison de bannir l’appli
Si quelqu’un a plus d’info…
GeForce Now de NVIDIA se renforce, la synchronisation Steam est là
31/07/2020
Le 01/08/2020 à 19h 37
Pour avoir testé pendant la phase gratuite, je pense que cette solution a plus d‘avenir que Shadow, déjà Nvidia est à la barre, donc on des GPU qui tiennent la route et sont à jour. Et coté tarif, 5€, c’est rien du tout comparé à un PC gaming avec un gros GPU.
PC dans le cloud Shadow : encore du retard… et du non-dit
31/07/2020
Le 01/08/2020 à 19h 32
Je suis malheureusement pour eux, d’accord avec toi…
Perso, j‘ai résilié il y a bien longtemps. La boite n’est pas dirigé par la technique, mais part une bande de banquier qui rêve de la mine d‘or alors qu’ils ont a peine acheté les pelles.
Comment sera déterminé l’indice de réparabilité des TV, smartphones et PC portables
24/07/2020
Le 30/07/2020 à 06h 43
Le 29/07/2020 à 13h 10
[/quote]
Le 29/07/2020 à 11h 44
Le 29/07/2020 à 06h 45
Le 29/07/2020 à 06h 44
Le 29/07/2020 à 06h 40
Le 28/07/2020 à 17h 14
Le 28/07/2020 à 17h 03
Le 28/07/2020 à 16h 50
Le 28/07/2020 à 16h 49
Le 28/07/2020 à 14h 23
Le 28/07/2020 à 14h 04
Le 27/07/2020 à 21h 21
Stockage objet : OVHcloud se paie le français OpenIO
23/07/2020
Le 23/07/2020 à 16h 10
Gandi revient sur sa panne DNS d’hier
17/07/2020
Le 19/07/2020 à 06h 58
Le 18/07/2020 à 18h 34
Je dis erreur de design, tu dis erreur de conception. Pour moi c’est la même chose hein :)
Le 17/07/2020 à 11h 43
La transparence du post morten est a saluer.
Cependant, pour l’incident, ça montre un manque de connaissance. Le design, qui est fait a tête reposé en amont de l’implémentation, est clairement mal fait:
Anycaster les 3 IPs depuis un même serveur, et je dirais même, depuis une même zone géographique, c’est une faute de design, pas un incident.
Le DNS, c’est l’une des rangés de parpaing qui fait parti des fondations de l’Internet. Si ca tombe, y a juste plus rien qui fonctionne. Le DNS est justement un protocole super simple et basique, qui le rend donc super robuste pour cette raison. Vouloir faire de l’over-ingénieurie au dessus, c’est le fragiliser, et voilà ce qui arrive.
Le Serial ATA 3.5 finalisé, sans grands bouleversements
16/07/2020
Le 18/07/2020 à 23h 13
En faite, soit je m’exprime mal, soit tu comprends ce que t‘as envi de comprendre.
Cryogen dit que les DISQUES SAS sont plus pratiques, et j’ai répondu que DISQUES SAS ou DISQUES SATA, ca ne change rien au hot-plug. Et j‘en ai profité pour dire ce qui différencie un disque SAS d’un disque SATA.
Ensuite j‘explique que les DISQUES SAS sont en voie de disparition au profit des DISQUE SATA, bien moins cher, ou du NVME, suivant les besoins.
Que le SATA soit un sous ensemble de SAS, ca me fait une belle jambe, moi je parle de l’addition au final. Les DISQUES SAS (qui coutent une blinde) n‘apportent rien dans les technologie de stockage en 2020, que ce soit pour du SAN (maintenant en full flash), ou pour de l’object (qui se contente de disque SATA).
Voilà.
Et pour les vieux soft à refaire. Chaque boite aura sa stratégie, mais croire que laisser pourrir un truc dans un coin ne coute rien, c‘est se fourrer le doigt dans l’œil bien profondément. Y a qu’à voir le tarif des NAS redondé + support VS des solutions de stockage répartie sur du comodity hardware, voire même de la facturation à la conso comme Amazon S3.
Maintenant, si tu penses que l‘avenir, c’est la VNX d‘EMC ou les FAS de chez NetAPP, j’ai pas de soucis avec ca. Mais perso, c‘est clairement pas là où je mettrais mes euros.
Le 18/07/2020 à 19h 39
Je ne suis pas devin, donc on verra dans l‘avenir.
Mais la tu mélanges un peu tout. Si quand tu dis "baie SAS", tu parles des châssis de disque qu’on plug au cul d‘un contrôleur SAS, alors en vrai, ca s’appelle une baie DAS, et ça supporte le SAS et le SATA. Et l’intérêt d’un tel chassis, avec des disques double path, c‘est dans les anciens SAN ou les NAS de disques avec le double controleur pour la redondance interne. Et ce type de chassis, c’est en train de disparaitre. Les SAN avec du disque et les NAS sont en train de vivre leurs derniers instant.
Le stockage en 2020, c‘est:
Dans ton équation, t’as oublié le prix d‘un disque SAS vs SATA. Je dis pas qu’il n‘y a pas de contrôleur SAS coté serveur parce que c’est plus pratique, mais les disques et le protocole de communication, c‘est du SATA.
Je te laisse lire les doc d’implémentation de minio ou scality par exemple, ils recommandent du SATA. Non pas parce que c‘est mieux, mais parce que le SAS n’apporte rien de plus. La redondance se faisant au niveau des nodes, et non au niveau des disques. https://min.io/resources/docs/CPG-MinIO-implementation-guide.pdf
Alors on trouvera encore du SAS dans les serveurs dans 20 ans, mais ca sera complètement négligeable. Si on en a encore aujourd‘hui, c’est:
Pour répondre à "il n‘y a pas que le stockage objet dans la vie…". Bah en faite si.
Bref, je persiste, le SAS c’est fini. Il en restera toujours dans 20 ans, comme du vieux code turbo pascal, mais la grande majorité sera, et est déjà, sur du SATA et NVME.
Le 17/07/2020 à 19h 35
Ce que je vais dire sort du fin fond de ma tête, donc à vérifier pour être sure.
La connectique SAS et SATA, c‘est la même, les deux gèrent le hot-plug. Il n’y a pas de "plus pratique".
La différence entre les deux, c‘est le protocole sur lequel il est basé:
En SAS, tu dois avoir un contrôleur SCSI coté disque. Ce contrôleur permet d’ajouter une couche de communication n-tier, alors qu‘en S-ATA, c’est du 1-1.
Alors la question, à quoi ca sert? Ca permet deux configurations possibles:
Pour revenir à la news, tout ça pour dire qu’avec le stockage objet, l‘erasure coding a remplacé le RAID. La redondance ne se base plus sur la redondance disque à l’intérieur d‘un serveur, mais sur la redondance des serveurs entre eux. Chaque serveur est devenu un élément jetable, on veut qu’il coute le moins cher possible, d‘où l’intérêt du disque classique SATA single path pas cher.
Le 16/07/2020 à 21h 38
Clairement, les HDD les plus rapides tournant autour de 200Mo/s, vitesse stagnante depuis un paquet d’année maintenant, aucune raison d‘aller plus vite et de devoir utiliser des puces plus couteuse. L’avenir du S-ATA et du disque dur classique, c‘est le stockage massif pas cher.
Pour le SAS, je suis par contre plus mitigé, ou alors il faut que les contrôleurs (serveurs et disque) descendent au prix du S-ATA. Quand on voit le tarif des disques SAS, la fiabilité, l’encombrement, le poids, etc… ils n‘ont vraiment plus aucun intérêt face au SSD NVME et même S-ATA. On trouve par-ci par-la des SSD SAS, mais je pense que ça va bientôt disparaitre.
Le 16/07/2020 à 17h 55
Le S-ATA continue son chemin d‘origine dans le stockage basé sur du disque dur.
La flash n’ayant été S-ATA que le temps de définir les specs du NVME.
Cdiscount se lance dans… le permis de conduire
08/07/2020
Le 14/07/2020 à 16h 52
Chrome : Google va s’occuper de la consommation de mémoire et d’énergie sur les Mac
13/07/2020
Le 14/07/2020 à 16h 35
C’est marant, depuis une dizaine d’année, les navigateurs et developpeurs font tout pour qu’un maximum de travail soit déporté coté navigateur (application javascript coté client, founiture de data via API coté serveur) et maintenant on s’étonne que ca consomme de la batterie. Allons nous passer les 10 prochaines années à refaire machine arrière?
Mastercard : True Name arrive en Europe, pour « refléter sa véritable identité sur ses cartes de paiement »
10/07/2020
Le 10/07/2020 à 20h 16
Vivement qu’on ne soit plus qu’un numéro, comme ca ca sera réglé. Ou pas en faite, on véra des gens, qui viendront se plaindre d’être pair ou impair, d’être supérieur ou inférieur a 500000. Bref…
Environnement et numérique : le CNNum va plus loin que le Sénat, évoquant la fin des forfaits illimités… sur le fixe
10/07/2020
Le 10/07/2020 à 20h 08
2,5 Gb/s dans la Freebox Pop : une aubaine pour certains constructeurs
09/07/2020
Le 09/07/2020 à 21h 18
Non non, je te rejoins sur pas mal de point. Cette période Covid force un peu le fait de prendre conscience que bah en 3 mois de confinement planétaire, ça s’est plutôt bien passé. Moins de consommation à outrance. On a tous réussi à bouffer et à survivre, et pourtant, j‘ai pas eu besoin de prendre ma bagnole ni d’aller a 50 bornes de chez moi pour taper sur un clavier pour "produire des besoins" dont vous ne pourrez plus vous passer plus tard. Bref, je m‘éparpille.
Pour revenir sur sujet des évolutions et à la news, je sais bien que les technos successives, au début, on ne voit pas l’intérêt, et quelques années plus tard, on ne peut plus s’en passer. Mais c‘est de moins en moins vrai.
Qu’est ce qui a toujours poussé l‘évolution en informatique? Le multimédia, c’est à dire, jeux vidéos, téléchargement de films, plateforme de streaming (YT, Netflix, …), le porn, la VR (qui ne prend pas au passage)…
Le fait est qu‘on a toujours été bridé par la connexion Internet jusqu’à peu. Aujourd‘hui, dans un foyer, même si toute la famille de 10 personne regarde un film en 2 x 8k en VR avec chacun son casque, bah une connexion 1Gb/s suffit. Et plus on avance, plus les codec sont efficace et réduisent la bande passante nécessaire, on parle déjà de h.266 qui serait 2 fois plus efficace que le h.265, qui est lui même 2 fois plus efficace que le h.264, etc…
En 8k sur un écran de taille abusif (85"), on n’arrive déjà à la limite de la perception humaine et on n‘est déjà plus capable de distinguer les pixels. On est arrivé au bout de la techno.
Coté jeux vidéos, c’est peut être la que ca risque de pousser un peu plus. Avec des jeux de plus en plus gros, CoD, GTA, qui n‘ont pas honte de taper dans les 100Go de donnée à télécharger (15mn à 1Gb/s). Mais aussi peut être le jeu en streaming, qui aujourd’hui ne fonctionne pas pour tous les jeux nerveux à cause du temps d‘encodage/décodage induisant de la latence. Peut être qu’on pourra diffuser la vidéo en "RAW" directement sans passer par la phase d‘encodage/décodage.
Thunderbolt 4 : Intel détaille l’avenir de sa connectique ultra-rapide
08/07/2020
Le 08/07/2020 à 18h 38
La même histoire chez moi. J’ai un laptop Dell et un Dock Dell qui marchent a peu près bien ensemble. Par contre le Dock, je peux rien brancher dessus. Mon ex-Galaxy S9 voyait une carte réseau, mais pas d‘affichage, la Nintendo Switch, il se passe rien, même pas la recharge. Par contre sur le PC, j’arrive à faire marcher l‘adaptateur USB-C/hdmi-usb-usb-c que j’ai acheté pour la Switch.
Bref, on est encore très très loin d‘un standard unique et universel :)
Le 08/07/2020 à 14h 35
Thunderbolt, également appelé "la backdoor PCIe". Même si comme dit dans l‘article, ça commence à se sécuriser un peu.
À la découverte des nouvelles offres Freebox : Pop, Delta modulaire, Mini 4K et Révolution
07/07/2020
Le 07/07/2020 à 16h 32
Le 07/07/2020 à 16h 15
Et sinon, une offre sans box? juste Internet pour 30 balles ils savent pas faire?
Audition de Jeff Bezos, Mark Zuckerberg, Sundar Pichai et Tim Cook le 27 juillet au Congrès américain
07/07/2020
Le 07/07/2020 à 16h 30
C’est peut être évident pour certain, où j’ai raté un épisode. Ils sont convoqués pourquoi en faite?
QNAP lance son QuTScloud : dès 9 dollars par mois ou 90 dollars par an
02/07/2020
Le 02/07/2020 à 19h 30
Souhaitons leur "bon courage" :)
Freebox Pop (v8) : comment Free devrait faire évoluer son offre
30/06/2020
Le 30/06/2020 à 20h 33
En espérant que l’article soit une prémonition. C’est à dire, un accès Internet, point.
Apple vante ses SoC ARM, leurs fonctionnalités et la restauration de ses prochains Mac
26/06/2020
Le 27/06/2020 à 16h 39
C’est sure que pour les jeux, c‘est pas prêt d’arriver sur Mac ARM. Les consoles viennent déjà juste de passer au x86… A moins qu‘il y ai des frameworks multiplateforme (unreal?)