Connexion
Abonnez-vous

SoC Apple M1 : un Mac Mini (799 €), des MacBook Air (1 149 €) et Pro (1 449 €)

Un trio pour tout changer

SoC Apple M1 : un Mac Mini (799 €), des MacBook Air (1 149€) et Pro (1 449 €)

Le 10 novembre 2020 à 18h44

Apple a tenu ce soir l'une des conférences de presse les plus attendues de l'année. La société a dévoilé ses premiers Mac exploitant des SoC Apple Silicon, sans processeur Intel. Elle a apporté quelques réponses aux nombreuses questions soulevées.

On le sait depuis quelques mois, Apple s'est donné deux ans pour abandonner Intel et ses processeurs Core/Xeon au profit de ses propres puces à architecture ARM maison. Elles étaient déjà utilisées dans les différents produits mobiles, ainsi que l'Apple TV. Elles sont désormais jugées assez matures pour l'être dans des ordinateurs.

SoC M1 : 16 milliards de transistors et autant de superlatifs

Au centre de ces nouvelles machines, le SoC M1. Composé de 4 + 4 cœurs CPU, il intègre tous les composants qui étaient jusqu'à maintenant éclatés au sein de différentes puces. Bonne nouvelle, Thunderbolt 3 est de la partie, avec le support (d'ores et déjà) de l'USB4. Les premiers périphériques compatibles sont attendus l'année prochaine.

Pourra-t-on brancher un GPU externe par ce biais ou faudra-t-il faire avec l'absence de pilotes ? On repassera aussi sur les détails concernant le TDP ou les fréquences de ce processeur gravé en 5 nm par TSMC. 

Apple M1Apple M1

Apple ne manque pas d'enthousiasme pour évoquer son SoC qui est présenté comme le plus performant, le plus efficace et doté du meilleur GPU (8 unités de calcul) du marché. Pour le moment, aucune précision n'a été donnée sur les détails de ces chiffres. On sait juste que le M1 intègre 16 milliards de transistors.

Pour rappel, un APU Renoir d'AMD (8 cœurs et GPU Vega 8) compte 9,8 milliards de transistors « seulement ».

MacBook Air et Mac Mini avec Apple M1

La première machine à l'intégrer est le MacBook Air, dont le tarif reste de 999 dollars (1 129 euros). La configuration de base intègre 8 Go de mémoire et 256 Go de stockage. La connectique se compose de deux ports Thunderbolt 3 (format Type-C) et un jack. L'écran IPS de 13,3" (P3, True Tone) affiche une définition de 2 560 x 1 600 pixels.

Le refroidissement est passif, la machine garde le format de cette gamme. Son autonomie est donnée pour 15 heures en navigation web, 18 heures en vidéo (49,9 Wh). Un chargeur 30 watts est fourni. Attention, le modèle de base n'a que 7 cœurs GPU, contre 8 cœurs GPU sur celui vendu 1 399 euros. C'est le seul modèle traité ainsi.

Apple vante les améliorations apportées grâce à l'intégration de sa puce pour justifier un tarif stable. Notamment les meilleures performances, que ce soit pour l'expérience au quotidien ou les jeux vidéo. Même si là encore, peu de détails ont été donnés. Il faudra attendre de premiers tests pour mettre des chiffres précis sur ces avancées. 

Apple MacBook Air M1Apple Mac Mini M1

Bonne nouvelle pour ceux qui attendaient un nouveau Mac Mini, il y en a bien un de prévu. Son tarif de base est de 699 dollars, mais 799 euros en France. Pour ce prix on aura droit à 8 Go de mémoire et 256 Go de stockage, qui peuvent bien entendu être complétés. Apple annonce une consommation maximale continue de 150 watts.

Ce tarif, qui reste abordable pour une machine Apple, et s'explique notamment par une connectique assez limitée. L'entreprise précise que, doté d'un ventilateur, cet ordinateur affichera des performances supérieures puisque sa puce M1 pourra mieux s'y exprimer. Il se destine donc à des usages plus « lourds » (développement, vidéo, 3D, etc.)

Un MacBook Pro comme cerise sur le gâteau

Comme on pouvait s'y attendre, le MacBook Pro est aussi mis à jour. Il bénéficie lui aussi d'une ventilation active et donc de meilleures performances, avec une autonomie renforcée : 17 et 20 heures via une batterie de 58,2 Wh. Le tarif de départ est de 1 299 dollars, soit 1 449 euros en France pour ce modèle de 13,3". La connectique ou l'écran n'évoluent pas. Pas plus que la connectique ou les 8/256 Go. Un chargeur 61 watts est cette fois fourni.

Il n'était pour le moment pas question des nouveaux Mac avec processeur Intel. Ils seront sans doute annoncés plus discrètement dans un second temps. Pas non plus de MacBook à plus de 13,3" ou de Mac Pro qui arriveront sans doute l'année prochaine. Pour le moment, ils se « contenteront » des puces x86.

Apple MacBook Pro M1Apple MacBook Pro M1

Toutes les machines annoncées seront disponibles à la commande dès ce soir. Elles seront livrées à partir de la semaine prochaine. MacOS 11 (Big Sur) sera diffusé à compter de ce jeudi 12 novembre. C'est ce dernier qui fera toute la différence, puisque les développeurs devront s'en saisir pour ne pas décevoir les utilisateurs.

Car tout le pari d'Apple sur ses puces maison ne fonctionnera que si la transition n'est pas trop douloureuse. La volonté de garder des tarifs stables s'explique certainement du fait que les débuts risquent d'être déstabilisants pour les habitués de l'écosystème Apple et de macOS. Un sujet que nous suivrons avec attention.

Nous reviendrons plus en détail sur ces différentes annonces une fois tous les détails publiés par Apple. Le replay de la conférence est disponible par ici.

Commentaires (181)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar
votre avatar

200£ pour passer de 256Go a 512 et encore 200 pour passer de 8 a 16 :incline: :incline: :incline:

votre avatar

Si un possesseur de Mac trouve le prix des extension de mémoire Xbox exagérément chers…



Je serais curieux les comparatif à des machines x86 (quand la comparaison a du sens bien entendu)

votre avatar

Les bench on en a, mais ils ne sont pas indépendants ;)



Apple a communiqué sur le boost de perf par rapport au Mac Intel correspondant. Bah l’émulation passera crême si on en croit Apple ;)

votre avatar

Marrant les slides présentées me font penser à la page d’accueil de e-commerce 😁



Sinon j’ai hâte de voir les premier retours sur leur cpu.



Avec Nvidia qui se rapproche d’atom. Ca sent le bouleversements dans les années à venir.

votre avatar

Pas mieux, le sites de eCommerce pour le matos info.

votre avatar

misterB a dit:


200£ pour passer de 256Go a 512 et encore 200 pour passer de 8 a 16 :incline: :incline: :incline:


Oui je me suis fais la même remarque. Maintenant qu’il n’y a plus que le même processeur, Apple segmente à fond sur l’option stockage, avec des tarifs délirants (mais pas inhabituels chez eux…). Mais bon pas le choix puisque c’est encore indémontable tout ça….

votre avatar

Difficile de se faire une idée dans l’immédiat: Peu d’info concrète, sur les performances (comme la conso en pratique).
La seule chose qu’on sait , c’est le prix … lol



A mon avis, les perfs ne seront pas si géniales que ça; sinon, ils auraient donné du concret.
Mais attendons de voir ce que ça donnera.
A quand les benchs ? …

votre avatar

Le souci des bench c’est qu’il faudra des apps natives disponibles pour faire des mesures… pas gagné. C’est un des soucis qu’on a avec Windows 10 on ARM. Mais bon, la puce compte 60% plus de transistors que le dernier APU d’AMD, on ne peut pas dire qu’Apple y soit allé avec le dos de la cuillère. Hâte de voir le détail du die, les fréquences et le TDP de la bête.

votre avatar

Dans le SoC de la xbox x series il y a 15,3 milliards de transistors, et combien dans cezanne ?

votre avatar

l’APU d’AMD a également la mémoire intégrée à la puce ? ça augmente de manière non négligeable le nombre de transistors.



Quoi qu’il en soit, l’approche semble intéressante et les premiers tests “sérieux” aideront à mieux comprendre les avantages et inconvénient. Il y a tant d’éloges sur leur nouvelle puce par rapport à la concurrence, mais d’un autre coté le haut de la gamme des MBAir, Mini et Pro est toujours équipé des i5/i7.

votre avatar

Tu verras des éléments de réponse dans le dernier CanardPC Hardware mais si, les perfs sont excellentes. Par contre acheter un ordi complètement fermé qui sera obsolète dans 7 ans sans autre solution que d’en changer parce qu’il n’y aura plus de support logiciel ni de possibilité d’installer un système alternatif, non merci.

votre avatar

exactement: autant le support d Apple est très bon pendant les 5 à 7 ans de durée de vie d’un produit Apple, autant c’est le néant une fois le produit obsolète.
Ces Mac ressemblent ainsi aux iPhone et iPad, non seulement avec un SoC Apple maison mais aussi en effet avec le cadre logiciel très fermé.



Il suffirait pourtant de pas grand chose - une simple décision d’Apple - pour ouvrir un peu ses appareils et laisser par ex ici un Win10 ARM ou Linux ARM64 tourner sur ces Mac M1.

votre avatar

Obsolète ?
Mon MBA de 2013 fonctionne toujours parfaitement et tu sais quoi ? Il devrait recevoir Big Sur !

votre avatar

Mon MBP de mi-2012 ne le recevra pas.

votre avatar

Ca ne le rend pas obsolète pour autant !

votre avatar

J’en sais rien, mais les gars d’Anandtech sont assez confiants sur les performances. Je vous invite à lire leur dernier article sur le sujet, c’est assez intéressant.

votre avatar

Oui alors attention à comparer ce qui est comparable : la Xbox n’a pas de problématique taille, de refroidissement ni de consommation.



Apple n’a pas inventé le processeur le plus puissant du moment mais plutôt (d’après leurs dires) le processeur le meilleur ratio performances / consommation-chaleur.



Il sera intéressant de voir si par hasard l’évolution du rapport performance/prix ne rendrait pas en fait ces MacBooks plus attractifs qu’à première vue.



J’ai aussi assez hâte de voir ce qu’ils peuvent faire dans un Mac Pro correctement refroidi.



Tout ça est assez excitant techniquement. Mais aussi assez triste : le Mac quitte définitivement le monde des OS alternatifs. Même sur PowerPC on pouvait faire tourner Linux.



Là ça me semble mal barré alors que l’état actuel de nos ressources planétaires devrait nous inciter à faire des machines « déverrouillables ».



J’adore mon MacBook actuel et de même pour OSX, mais jamais je ne l’aurai acheté si je ne savais pas au fond de mon petit cœur que le jour où Apple le lâchera (ou me gonflera), je pourrai lui installer une petite distribution Linux qui le suivra jusqu’à la mort.

votre avatar

Oui. Vu ton commentaire et celui de @David_L, je pense que la pomme a fait le choix d’implémenter le plus de choses possibles en HW : décodage et encodage matériel des vidéos, secure enclave, probablement chiffrement, et une pléthore d’autres fonctionnalités. Ca bouffe du die, mais au final, ils y gagnent sur le TDP, ce qui est un avantage non négligeable sur le mobile.



Bref, effectivement, faudra voir :)

votre avatar

Et Big Sur : il arrive quand ? :fumer:

votre avatar

Ce vendredi apparemment.

votre avatar

misterB a dit:


200£ pour passer de 256Go a 512 et encore 200 pour passer de 8 a 16 :incline: :incline: :incline:


Sans pour autant pouvoir dépasser 16 Go max, peut-être une limite technique

votre avatar

Possible, surtout que la mémoire est embarquée sur le Die si j’ai bien compris. Donc la doubler doit pas de faire en claquant des doigts s’il faut redessiner complètement la puce.



Pas d’inquiétude, ils ne pourront pas lancer des iMacs et MBP 16 sans plus de RAM ou ils se feraient lapider en place de grève.



Perso j’ai toujours pensé que la RAM n’était pas aussi utile que ça pour la majorité des usages surtout quand on voit la vitesse des SSD d’aujourd’hui (et ils viennent de doubler celle des macs) le SWAP est complètement invisible, mais bon dire ça c’est se faire traiter d’hérétique.



J’ai déjà travailler sur des PSD plus lourds que ma dotation mémoire, ca swappait sur un disque à plateau, c’était l’enfer, mais c’était il y a 12 ans :D

votre avatar

La ram c’est le premier truc que j’ai regardé sur ces nouvelles configs. Mon prochain Mac aura 64 go sinon rien !
Les fichiers toshop de 40 gigas avec un foutoire de calques me rendent dingo

votre avatar

A première vue leur lancement peut sembler peu innovant, mais en y regardant de plus près cela semble assez prometteur.




  • Leur processeur semble extrêmement rapide en monocoeur (bobo intel & amd)

  • Pour leur version M1 ils ont l’air de s’arrêter à une conso de env. 10W. (re bobo)

  • Les trois ordis sortis aujourd’hui ont des processeur quasi identiques, pas de variations en fréquences ou d’itérations prévues à ce stade, bon signal.

  • Les gains en autonomie sont vraiment abyssaux sans rien changer d’autres dans les machines, c’est quand même dingue.



En gros la marge de progression est maboule, car ils ne se sont attaqués qu’au processeurs intel à petit TDP. Ils pourraient faire immédiatement une version 16 cores qui ratatinerait le MBP 16’, même en ne considérant que l’emulation.



D’ailleurs c’est un peu le but, avec un booster CPU de 300% ils s’assurent un gain de vitesse MÊME en émulation ce qui serait vraiment vraiment impressionnant.



Je pense que leur gros problème est en GPU.
Ils ne veulent pas dépendre d’AMD ou Nvidia à nouveau, surtout que s’en passer leur ferait gagner beaucoup d’argent.
Les puissances annoncées en GPU sont de X5, c’est super face à un iris pourri, mais encore trop faible pour tenir tète à des GPU dédiés.



Je pense que quand ils s’occuperont l’an prochain des gammes à CG (iMac, MBP 16’) ca risque de plafonner un peu en GPU surtout avec le design tout en un présenté aujourd’huie (TDP, chauffe localisée, …)



La plus grosse question sur la pérennité de leur nouvelle architecture sera levée l’an prochain en fonction de leurs scores en GPU. Pourront-ils offrir des performances sur un seul die ? vont-ils faire une seconde puce pour permettre un meilleur rafraîchissement ? Vont ils simplement doubler / tripler le nombre de coeurs ?
L’autre grosse interrogation est justement l’emulation sur la partie graphique, j’attends de voir.



Sinon pour leur machines, ont peut noter un prix en baisse et SURTOUT la disparition des options CPU/GPU qui faisaient monter artificiellement le prix du panier.



Bon par contre la baisse de prix rends le surcout RAM/SSD encore plus visible et honteux et vu que c’est soudé (voir même intégré maintenant ) …

votre avatar

L’absence de variation en fréquence c’est en trompe l’œil. Quand tu modifies le TDP de ta puce, tu varies de fait ses fréquences de fonctionnement et ses performances. C’est juste que tu donnes pas la moindre info à ton client (surtout quand tu n’explicites pas ledit TDP)

votre avatar

Oui bien sûr, je voulais dire qu’ils ne se lançaient pas dans des sous-versions vendues au boost de MHz comme intel et amd, c’est toujours ça de gagné en options payantes et en clarté de gamme.



D’ailleurs j’ai dit une connerie, le TDP du M1 serait d’environ 18w mais tout tout compris (même Ram)

votre avatar

touitboy a dit:


Je pense que leur gros problème est en GPU. Ils ne veulent pas dépendre d’AMD ou Nvidia à nouveau,


Vu que nvidia est propriétaire d’ARM, si, ils dépendent furieusement de nvidia.

votre avatar

Pas encore ;)

votre avatar

regaber a dit:


La ram c’est le premier truc que j’ai regardé sur ces nouvelles configs. Mon prochain Mac aura 64 go sinon rien ! Les fichiers toshop de 40 gigas avec un foutoire de calques me rendent dingo


Si tu bosses avec des fichiers de 40Go ces machines ne sont pas faites pour toi, pour bosser avec des psb il faut en effet plus de patates

votre avatar

pour faire le même genre de boulot, j’ai un mac mini i7 avec 64Go de RAM,512Go de stockage et une cible iscsi sur synology… c’est TRES performant… et en plus je mets les écrans que je veux… en fait le mac mini EST la machine indiquée pour ce genre d’usages… (et on peut toujours y ajouter un eGPU si on le souhaite…) clairement, la nouvelle machine est très tentante sauf sur 2 points : seulement 2 ports USBC/Thunderbolt et le max à 16Go de RAM….

votre avatar

Même si l’année prochaine ils proposent les options 32 / 64 GB de ram, ça va faire mal niveau tarif, comparé aux machines qu’on peut encore upgrader à la main aujourd’hui comme l’iMac 27.



D’ailleurs je me demande comment ils vont faire pour le Mac Pro. Peut-être que d’ici 2 / 3 ans ils vont développer une ram externe et un support GPU externe / eGPU…

votre avatar

Apple garde le Mac Intel justement à cause de cela. L’ARM est argent et le Intel gris sidéral ;)

votre avatar

un 3eme point noir vient de s’ajouter : non support des eGPUs….. (enfin pour cette première version du soc maison apple)

votre avatar

touitboy a dit:


Oui bien sûr, je voulais dire qu’ils ne se lançaient pas dans des sous-versions vendues au boost de MHz comme intel et amd, c’est toujours ça de gagné en options payantes et en clarté de gamme.



D’ailleurs j’ai dit une connerie, le TDP du M1 serait d’environ 18w mais tout tout compris (même Ram)


Comment ça des sous-versions et des options payantes ?



Pourquoi le TDP de la puce M1 intégrait la RAM ?



Le 5nm de TSMC aide bien aussi

votre avatar

Parce que la RAM est dans le SoC M1?

votre avatar

Techniquement, un SoC peut intégrer la RAM, ça serait possible, ce qui expliquerait peut-être les 16 milliard de transistor.

votre avatar

Et pourquoi pas des dies stackées?
Parce que si on compte 1transistor par point mémoire, avec 16 milliard de Tr ils ont tout bouffé pour la RAM, plus de CPU.
:mad2:

votre avatar

Une caméra en 720p sur ces modèles …
Franchement….

votre avatar

misterB a dit:


200£ pour passer de 256Go a 512 et encore 200 pour passer de 8 a 16 :incline: :incline: :incline:


Si c’est soudé sur la carte mère, ce n’est pas déconnant. Les petites versions vont bénéficier de remises de volume que n’auront pas les autres versions: coût de stockage, différences de production, … Bien sûr dans le tas, y’a la marge Apple, faut pas déconner :D




Leum a dit:


Les bench on en a, mais ils ne sont pas indépendants ;)



Apple a communiqué sur le boost de perf par rapport au Mac Intel correspondant. Bah l’émulation passera crême si on en croit Apple ;)


Si je ne me trompes pas, y’a “juste” l’objective-c & les apis comme cocoa qui sera à optimiser sur ARM, et non x86. C’est une sacré différence je trouve… Y’a vachement moins à émuler d’un coup: cocoa sera natif.



En tout cas, ce que j’aime, ce sont les gens qui hurlent au génie d’apple contre intel et amd, alors qu’ils vont se trouver avec une machine encore plus verrouillée qu’avant.




joel_ec a dit:


un 3eme point noir vient de s’ajouter : non support des eGPUs….. (enfin pour cette première version du soc maison apple)


En même temps, le jour où ils supportent les eGPUs, ce sera les leurs ou vendu sous leur nom, car il faut redévelopper les pilotes :D

votre avatar

Sur une machine que tu achètes et qui peut durer 7 ans sans problèmes, voire même 10 ans, et que tu vas utiliser au quotidien, franchement une large majorité des utilisateurs s’en moquent complètement que la machine soit verrouillée ou pas, du moment qu’elle répond bien aux besoins.
Ca reste toujours mieux que des PCs bas de gamme qui vont tomber en rade au bout de 3 ans et pour lesquels tu pourras pas trouver de pièce pour les réparer.
Après si l’ouverture est un critère pour toi je pense que ça fait déjà bien longtemps que tu ne te tournes plus vers les gammes d’Apple.

votre avatar

Bah écoute si tu te balade sur le site d’Apple, tu as des bench officielles sur des logiciels tel que Shadow of Tomb Raider, Affinity Photo ou Lightroom et pas seulement sur des softs made in Apple… Mais quand c’est le cas c’est Final Cute Pro, XCode et Logic Pro…. même pour le MacBook Air.



Évidemment c’est une comparaison avec les Mac Intel équivalents et ça n’est pas un test indépendant… Mais quand tu annonces que ta machine est 4 fois plus rapide dans Shadow of Tomb Raider c’est pas pour que Inpact Hardware vienne dire “ah en fait non c’est 20% plus lent”, ça ser plutôt 3,7 au lieu de 4 fois ;)

votre avatar

Je suis assez surpris qu’Intel leur ait laché la licence Thunderbolt.



Au vu du nombre de transistor, je suis curieux de voir ce qu’il y a dans leur SoC.




Nerg34 a dit:


Marrant les slides présentées me font penser à la page d’accueil de e-commerce 😁



Sinon j’ai hâte de voir les premier retours sur leur cpu.



Avec Nvidia qui se rapproche d’atom. Ca sent le bouleversements dans les années à venir.


Je pense plutôt à Lakefield d’Intel qui va faire des SoC et non des CPU/APU. En soit un SoC c’est un putain gain de place et de consommation : tout l’ordinateur se trouve sur la même puce.




(quote:1836562:alex.d.)
Vu que nvidia est propriétaire d’ARM, si, ils dépendent furieusement de nvidia.


AMD est dépendant d’Intel pour la licence X86 aussi.

votre avatar

Intel a laché une licence thunderbolt par ce qu’intel a développé thunderbolt en collaboration avec… Apple.

votre avatar

touitboy a dit:


Oui bien sûr, je voulais dire qu’ils ne se lançaient pas dans des sous-versions vendues au boost de MHz comme intel et amd, c’est toujours ça de gagné en options payantes et en clarté de gamme.


Apple n’a que lui même pour client, sur trois produit et se fout d’informer ses clients sur les specs précises. Disons que ça facilite pas mal de choses ;) Sur le fond, ce qui compte c’est le nombre de puces physiques existantes, il n’y en a qu’une, ce qui est autant une bonne nouvelle (c’est simple) qu’une mauvaise (pas de déclinaison de prix possible).



Mais bon, la segmentation par le TDP doit leur permettre de faire avec les différentes qualités de puce et capacités à monter en fréquences (et comme on a pas de détails de toutes façons…).




tazvld a dit:


Je suis assez surpris qu’Intel leur ait laché la licence Thunderbolt.


Thunderbolt a été libéré il y a quelques années, Apple a travaillé avec Intel sur le produit à l’époque de la création du projet qui a donné lieu à cette norme. USB4 est d’aileurs une implémentation “libre” de TB3 (il y a un lien dans l’article, il faut en profiter ;))

votre avatar

Techniquement il y a deux références pour la puce M1 non? Puisqu’il y la 8Go de RAM dont les versions défectueuses sont mises dans le MacBook Air de base et la version 16Go dispo en option.

votre avatar

Va savoir si ça se trouve toutes les puces sont les mêmes, ils désactivent juste un bloc de dram sur la version 8 gb

votre avatar

Tu as l’air de dire que la RAM est incluse dans le SoC. Je n’ai pas trouvé de source le laissant supposer et la présentation vidéo ne le dit pas. Il y a bien une image qui peut laisser penser cela, mais en fait, elle représente la puce M1 + la RAM. Toutes les autre images représentent le M1 intégrant différentes fonctionnalités (CPU,GPU, IA, et secure enclave et le reste de la “logique”) mais pas la RAM.



Ce serait assez surprenant qu’elle soit intégrée vu que la quantité de RAM est un des éléments qui varie avec la mémoire de stockage.
De manière traditionnelle, la RAM reste à ajouter à un Soc en fonction des besoins.

votre avatar

Si la RAM est incluse, alors il y a plus que 16 milliards de transistors… S’il faut 1 transistor par bit, 16 milliards de transistors, ça stocke au mieux 2 GO…

votre avatar

C’est inquiétant pour la suite, si c’est pour que les constructeurs suivent le pas et qu’on se retrouve dans l’état qu’est le marché mobile…. Il n’y a pas que la puissance et la consommation qui compte…

votre avatar

(quote:1836541:jeff.110)
A mon avis, les perfs ne seront pas si géniales que ça; sinon, ils auraient donné du concret. Mais attendons de voir ce que ça donnera. A quand les benchs ? …


Apple ne donne jamais de chiffres techniques de perfs dans ses confs… Ils donnent des % ou des facteurs multiplicateurs moyens comme ils ont fait là.
Sinon ils donneraient quoi de toute facon ? des scores geekbench qui ne veulent pas dire grand chose ?




tiret a dit:


Par contre acheter un ordi complètement fermé qui sera obsolète dans 7 ans sans autre solution que d’en changer parce qu’il n’y aura plus de support logiciel ni de possibilité d’installer un système alternatif, non merci.


Si tu ne touches pas un PC pendant 7 ans et que tu veux l’upgrade, t’es bon pour tout changer sauf le boitier… donc bon, c’est kifkif




cmoileena a dit:


Une caméra en 720p sur ces modèles … Franchement….


Je ne comprends pas pourquoi ils restent bloqués là dessus… ça n’a aucun sens…
Peut-être qu’ils ont des limitations physiques liées à l’épaisseur des écrans de macbook ?
C’est vraiment bizarre…




patos a dit:


En tout cas, ce que j’aime, ce sont les gens qui hurlent au génie d’apple contre intel et amd, alors qu’ils vont se trouver avec une machine encore plus verrouillée qu’avant.


C’est pas le même public entre ceux qui achètent un mac et ceux qui veulent du bricolable (du moins, ça ne l’est plus depuis au moins 10 ans…)
Si tu achètes un mac, le verrouillage matériel ne te gène pas évidemment. Après, la concurrence fait quoi de mieux à ce niveau sur les ultra-compacts ? pas grand chose de fou.
Le “problème” n’est pas tellement Apple, c’est surtout le format des machines.




tazvld a dit:


Au vu du nombre de transistor, je suis curieux de voir ce qu’il y a dans leur SoC.


+1
On le saura vite. Les machines seront livrées dès la semaine pro…




Leum a dit:


Techniquement il y a deux références pour la puce M1 non? Puisqu’il y la 8Go de RAM dont les versions défectueuses sont mises dans le MacBook Air de base et la version 16Go dispo en option.


pourquoi seraient-elles “défectueuses” ?? :ooo:

votre avatar

Certes mais le PC tu peux le mettre à jour (hormis pour les ultraportables et les machines en LPDDR), pas le Mac.

votre avatar

Leum a dit:


Bah écoute si tu te balade sur le site d’Apple, tu as des bench officielles sur des logiciels tel que Shadow of Tomb Raider, Affinity Photo ou Lightroom et pas seulement sur des softs made in Apple… Mais quand c’est le cas c’est Final Cute Pro, XCode et Logic Pro…. même pour le MacBook Air.



Évidemment c’est une comparaison avec les Mac Intel équivalents et ça n’est pas un test indépendant… Mais quand tu annonces que ta machine est 4 fois plus rapide dans Shadow of Tomb Raider c’est pas pour que Inpact Hardware vienne dire “ah en fait non c’est 20% plus lent”, ça ser plutôt 3,7 au lieu de 4 fois ;)


Toutes les comparaisons sont écrites en bas de la page:



“Tests réalisés par Apple en octobre 2020 sur des prototypes de MacBook Pro 13 pouces équipés de la puce Apple M1 et sur des MacBook Pro 13 pouces prêts à la commercialisation équipés d’un processeur Intel Core i7 quadricœur à 1,7 GHz et d’une carte graphique Intel Iris Plus Graphics 645, tous configurés avec 16 Go de RAM et un SSD de 2 To. Tests réalisés avec Shadow of the Tomb Raider version 1.0.1 en utilisant le banc d’essai intégré, à une résolution de 1 440 x 900, avec une qualité d’image moyenne. Les tests de performances sont conduits sur des ordinateurs spécifiques et ne donnent qu’une indication approximative des performances du MacBook Pro.”



Donc on constate déjà qu’ils ne testent pas à la résolution maximum de l’écran qu’ils fournissent. C’est peu être un aveux d’échec que ni l’ancien, ni le nouveau macbook était capable de bien faire tourner Shadow of tomb raider…
Sinon, la comparaison est faite par rapport à un i3 ou i7 quadri coeur selon ce qu’ils comparent et le produit (mini ou macbook pro). Je pense que si aujourd’hui, ils ne remplacent que le bas de gamme, c’est qu’ils sont incapable de rivaliser avec les cpu / gpu intel+amd du haut de gamme au niveau des perfs.

votre avatar

Leum a dit:


Bah écoute si tu te balade sur le site d’Apple, tu as des bench officielles sur des logiciels tel que Shadow of Tomb Raider, Affinity Photo ou Lightroom et pas seulement sur des softs made in Apple… Mais quand c’est le cas c’est Final Cute Pro, XCode et Logic Pro…. même pour le MacBook Air.



Évidemment c’est une comparaison avec les Mac Intel équivalents et ça n’est pas un test indépendant… Mais quand tu annonces que ta machine est 4 fois plus rapide dans Shadow of Tomb Raider c’est pas pour que Inpact Hardware vienne dire “ah en fait non c’est 20% plus lent”, ça ser plutôt 3,7 au lieu de 4 fois ;)


Ce qui est marrant c’est que Apple ne mentionne jamais FCP pendant la présentation, les « bench » sont soit sur iMovie pour le air, soit Da Vinci pour le pro.
Apple aurait il du retard sur le dev de la version ARM de FCP ?

votre avatar

Question: a t’on idée du support de linux ARM (voir même windows arm)et si c’est pas dispo tout de suite, si ça se fera un jour ?



Histoire d’avoir un plan de secours le jour où le mac fonctionne encore mais où on ne pourra ni installer windows classique, ni installer linux classique

votre avatar

Mais pourquoi diable un Linux ne fonctionnerait-il pas sur un ARM Apple ? Linux est disponible sur la majorité des machines équipées en ARM, que ce soit un Raspberry Pi ou toute la clique des “compatibles”. Amazon Web Services propose de hoster sur des machines ARM avec un … Linux.

votre avatar

(reply:1836604:33A20158-2813-4F0D-9D4A-FD05E2C42E48)


Pour que Linux fonctionne, il faut que :




  • le boot le permette

  • que l’on puisse écrire des drivers pour le M1, donc, il faut des specs ou pouvoir faire du reverse engineering.




(reply:1836605:33A20158-2813-4F0D-9D4A-FD05E2C42E48)


Oui, j’avais aussi pensé à cet argument massue et j’ai oublié de l’écrire.

votre avatar

Faut effectivement prier pour qu’on découvre un jailbreak… Quant au driver, le M1 reste quand-même essentiellement un ARM, donc (encore avec un brin d’intervention divine) les registres d’archicture sont les mêmes que sur les autres puces comparables…

votre avatar

Sachant que Linux tourne sur ps4 contre la volonté de Sony, je suis a peu près certain que quelqu’un finira par faire un support de Linux pour ce SOC. La question est surtout de savoir combien de temps ça prendra(de quelques mois a quelques années)

votre avatar

touitboy a dit:




  • Les gains en autonomie sont vraiment abyssaux sans rien changer d’autres dans les machines, c’est quand même dingue.


Alors, si, il y a beaucoup de choses qui changent en interne. La puce intégrant quasiment tout (y compris la ram) ça leur permet de faire un design de carte mère beaucoup plus compact (ils sont bien aidés par leur expérience avec les téléphones dans ce domaine) résultat, comme on le vois bien dans les quelques images dévoilées, ils peuvent caser beaucoup plus de batterie, et donc augmenter l’autonomie.



Bref, la consommation de la puce joue, mais ce n’est pas ce qui entraine une telle augmentation

votre avatar

Alors oui sur le papier mais les modèles présentés n’ont pas du tout changé de capacité de batterie par rapport à leur version intel malgré les possibilité de gains en interne.



Soit la carte mère n’a pas été optimisée, soit ils ont laissé du “vide” (ça c’est déjà vu par le passe)



J’imagine donc qu’on verra un gain de batterie ou une baisse du gabarit au prochain changement de form factor.

votre avatar

Arka_Voltchek a dit:


La puce intégrant quasiment tout (y compris la ram)


Non, elle n’est pas incluse : voir ici pourquoi.

votre avatar

Arka_Voltchek a dit:




  • Les gains en autonomie sont vraiment abyssaux sans rien changer d’autres dans les machines, c’est quand même dingue.



Alors, si, il y a beaucoup de choses qui changent en interne. La puce intégrant quasiment tout (y compris la ram) ça leur permet de faire un design de carte mère beaucoup plus compact (ils sont bien aidés par leur expérience avec les téléphones dans ce domaine) résultat, comme on le vois bien dans les quelques images dévoilées, ils peuvent caser beaucoup plus de batterie, et donc augmenter l’autonomie.



Bref, la consommation de la puce joue, mais ce n’est pas ce qui entraine une telle augmentation


Faut surtout attendre les test pour ce faire une idée et même avec ça l’autonomie annoncé n’a rien d’impressionnante en 2020, j’avais vu passer des test en condition réelle sur des ultraportable Asus qui passait les 30h en lecture vidéo et tenait autour de 20h en utilisation courante.

votre avatar

barlav a dit:


Et pourquoi pas des dies stackées? Parce que si on compte 1transistor par point mémoire, avec 16 milliard de Tr ils ont tout bouffé pour la RAM, plus de CPU. :mad2:


Effectivement, mais c’est quoi ce “unified memory architecture” ? Parce que 16G transistor c’est quand même beaucoup.




coco74 a dit:


Question: a t’on idée du support de linux ARM (voir même windows arm)et si c’est pas dispo tout de suite, si ça se fera un jour ?



Histoire d’avoir un plan de secours le jour où le mac fonctionne encore mais où on ne pourra ni installer windows classique, ni installer linux classique


Il me semble que pour Windows, c’était annoncé comme non supporté (pas de bootcamp). Sinon dans les 2 cas, comme dit plus haut, il faut que le bootloader permette et que les drivers existent. Il suffit de voir à quel point c’est la galère pour les smartphones de faire et d’installer des ROM alternatives pour comprendre que ça ne sera pas une partie de plaisir pour faire ça sur ces Macs.



ARM est à la base fait pour de l’embarqué, une construction modulaire et personnalisable du SoC pour répondre à un besoin précis. Le PC répond à la base à l’inverse, une conception stricte et normé (l’architecture compatible PC), pour répondre à des besoins génériques.

votre avatar

Unified memory architecture signifie que le CPU et le GPU utilisent la même RAM.

votre avatar

(reply:1836604:33A20158-2813-4F0D-9D4A-FD05E2C42E48)


On sait pas, peu être qu’il y a des limitations apple à la noix.



Là où un os x86 s’installe à peu près partout, il faut une version spécifique à chaque device en arm non ?
Un peu comme sur android. Du coup je pense que si il y a des spécificités made in apple, ça pourrait rendre un portage plus compliqué.
Après ce n’est que des hypothèses, je ne m’y connais pas assez en os pour arm.

votre avatar

KP2 a dit:


Si tu ne touches pas un PC pendant 7 ans et que tu veux l’upgrade, t’es bon pour tout changer sauf le boitier… donc bon, c’est kifkif


J’ai acheté mon PC perso actuel en 2011. Je viens d’ajouter de la RAM, et j’ai hésité un peu à changer le CPU - je suis sur un Core i3, on trouve encore des Core i5 compatibles pour une soixantaine d’euros. Je ne l’ai pas fait, pas envie de faire un upgrade qui sera de toute façon à la ramasse (pour la RAM c’était utile, 8Go, ça commençait à faire vraiment peu pour mon usage)
Par contre, hors quelques titres Android via BlueStack, je ne fais pas de jeu.

votre avatar

(reply:1836604:33A20158-2813-4F0D-9D4A-FD05E2C42E48)


C’est l’aboutissement de la stratégie Apple : il y aura sûrement un firmware signé, comme sur les iPhone et consorts, donc jailbreak obligatoire pour faire tourner du code arbitraire…



Ça a commencé avec GateKeeper, et c’était plus ou moins plié dès le début : le but d’Apple est de ne pas permettre d’installer quoi que ce soit qui ne vient pas de leur store. On y va doucement mais sûrement.



Le rêve d’Apple : contrôler tout ce qui tourne sur ses machines (car non, elles n’appartiennent pas vraiment à ceux qui les ont achetées).

votre avatar

La RAM est stackée (montée dessus) sur la puce M1 : https://images.anandtech.com/doci/16226/2020-11-10%2019_08_48.jpg, d’où la faible latence et les bonnes perfs

votre avatar

(quote:1836604:33A20158-2813-4F0D-9D4A-FD05E2C42E48)
Mais pourquoi diable un Linux ne fonctionnerait-il pas sur un ARM Apple ? Linux est disponible sur la majorité des machines équipées en ARM, que ce soit un Raspberry Pi ou toute la clique des “compatibles”. Amazon Web Services propose de hoster sur des machines ARM avec un … Linux.


C’est compliqué de lancer un OS sur une machine… y’a plein de choses qui entrent en jeu et qui vont bien au dela de l’architecture du CPU.
Le boot, les drivers, les enclaves chiffrées, etc toussa peut être de sacrés freins.
Par exemple, les firmwares Android alternatifs sont quasiment fabriqués et compilés modèles de téléphone par modèles de téléphones. On est très loin d’un support universel.




Meewan a dit:


Sachant que Linux tourne sur ps4 contre la volonté de Sony, je suis a peu près certain que quelqu’un finira par faire un support de Linux pour ce SOC. La question est surtout de savoir combien de temps ça prendra(de quelques mois a quelques années)


A ma connaissance, il n’y a pas de Linux qui tourne sur iPhone… Si Apple met les mêmes moyens (et il va le faire), faudra pas en espérer plus…

votre avatar

“Le refroidissement est passif, la machine garde le format de cette gamme. Son autonomie est donnée pour 15 heures en navigation web, 18 heures en vidéo avec une batterie de 49,9 Wh. Un chargeur 30 watts est fourni.”



Qu’on aime Apple ou pas, 15h d’autonomie, et 17-20h pour le MacBook Pro, sans vouloir troller, c’est quand même une révolution dans le monde de l’ultraportable, voire même dans le monde du pc portable en général.

votre avatar

Il y a pas mal de machines qui ont des autonomies dans ces ordres de grandeurs. Ce qui est vraiment important à mon sens c’est que la machine qu’on choisit soit à même de répondre à ses besoins.

votre avatar

KP2 a dit:


A ma connaissance, il n’y a pas de Linux qui tourne sur iPhone… Si Apple met les mêmes moyens (et il va le faire), faudra pas en espérer plus…


C’est encore très expérimental (et ne dépassera probablement jamais ce stade à mon avis), mais si, ça existe.



https://www.phonandroid.com/installer-android-ou-linux-sur-iphone-est-desormais-possible-en-beta.html

votre avatar

Franchement je me fait absolument aucun film sur le support de Linux sur ces Mac ARM.



Il n’y a qu’à voir l’état de la scène jailbreak sur iOS: c’est le calme plat depuis pas loin d’une décennie.



Il y a eu quelques jailbreaks untethered (donc sans pétage du boot loader) immédiatement patchés. Ensuite il y a eu checkm8te qui lui exploite une faille hardware qui n’existe plus sur les iPhones après le X.



Donc ça vivote, mais la communauté de devs derrière ça est devenue anémique : à quoi bon développer pour iPhone jailbreak quand celui ci n’est possible que quelques semaines sur quelques devices tous les deux ou 3 ans ?



J’ai aucun doute qu’un hacker fasse tourner un Linux sur un Mac ARM un jour ou l’autre. Par contre je voit aucun espoir qu’une réelle communauté se mette à développer des drivers et encore moins qu’une distrib supporte la machine tout en sachant qu’Apple est déjà en train de corriger la faille.



Du coup ça n’aura aucun autre intérêt que l’exploit technique et personne n’achètera un Mac en se disant qu’il installera Linux dessus.



Et je parle même pas de l’installer à l’achat : le mien passera sous Linux quand j’en aurai plein de derche de la mentalité Apple ou qu’elle arrêtera de le mettre à jour. En attendant je suis très heureux sous OSX.



Mais je sais que ma machine va pas s’arrêter d’être à jour du jour au lendemain.

votre avatar

C’est ce que je pense et craint aussi.



Comme je ne compte pas m’acheter de mac ou d’iphone dans les 210 prochaines années, je m’en fiche un peu, mais je craint également qu’une ARMomanie s’empare du marché des ordinateurs personnels dans sa globalité, et que les constructeurs finissent par revenir en majorité sur l’ouverture du PC telle qu’on la connait depuis le laissé allé un peu involontaire d’IBM à son entrée dans le domaine de la micro informatique*. Au nom de la “sécutité” et de la “simplicité”, évidement.



La communauté du LL est un contre pouvoir qu’il va falloir soutenir, car même ceux qui veulent rester pépère avec leur windows, leur office et leur photoshop (et je les comprend aussi) risquent de déchanter à plus ou moins long terme, à mon avis.



*“ce nom, il me semble venir d’outre tombe…”

votre avatar

Je dirai qu’on devrait être safe tant que Windows et ses contraintes de rétrocompatibilité à l’extrême existent.



De toutes façons je pense que le véritable destin de l’industrie c’est la disparition du PC de “maison” : un iPad fait déjà largement le job pour n’importe quel particulier sans usages pros avec un rapport qualité prix du matos sans équivalent. Un iPad à 390€ met la rouste à n’importe quel PC Windows du même prix quel que soit l’usage et surtout bouge pas d’un mm avec le temps.



Le bon vieux PC avec son clavier et sa souris n’a encore de sens que dans le monde pro qui devrait encore être friand assez longtemps d’une architecture un poil modulaire (réparations, indépendance d’un constructeur, upgrade …).

votre avatar

Le marché grand public est à peu près aussi varié que le nombre d’individu qui le compose. Même si ce phénomène existe, j’en connais aussi quelques uns qui finissent par laisser l’iPad au placard parce que finalement trop limitée, et reviennent sur un petit laptop pas cher qui reste quand même bien plus confortables sur pas mal de critères.

votre avatar

xillibit a dit:


Pourquoi le TDP de la puce M1 intégrait la RAM ?
On le voit sur la illustration: le chip du CPU, et 2 chips de RAM sur le support.
C’est d’ailleurs assez logique qu’ils arrivent à tirer les meilleures perfs en associant tout: j’imagine qu’ils ont simplifié le contrôleur mémoire pour avoir un réel


Les 16M de transistors me font penser à un super cache (genre l’eDRAM de certains Core I5/I7, cf l’article de Anandtech il n’y a pas longtemps sur les perfs du i7 5775C vs des processeurs récents - on voit que 128Mo de eDRAM permettent à un CPU de 2016 de rester au niveau d’un CPU de 2020 dans beaucoup de cas.
C’est d’ailleurs ce qui explique en partie les perfs des Ryzen: un sacré cache, maintenant unifié.




(quote:1836604:33A20158-2813-4F0D-9D4A-FD05E2C42E48)
Mais pourquoi diable un Linux ne fonctionnerait-il pas sur un ARM Apple ?
Contrairement au PC, il n’y a aucune base de compatibilité avec un ARM dans les domaines de la séquence de démarrage, les linux sont donc différents par carte mère. De plus, il n’y a pas de “règle” concernant la liste/l’accès aux périphériques d’un SOC (il peut y avoir par exemple des adresses mémoires réservées en fixe. Chaque SOC a son noyau…
-> l’ARM est une bête noire pour l’open source en fait.



Meewan a dit:


Sachant que Linux tourne sur ps4 contre la volonté de Sony, je suis a peu près certain que quelqu’un finira par faire un support de Linux pour ce SOC.


C’est une base PC quand même, c’est bien plus “simple”.




tazvld a dit:


Techniquement, un SoC peut intégrer la RAM, ça serait possible, ce qui expliquerait peut-être les 16 milliard de transistor.
16 milliards n’est pas assez pour de la RAM: il faut compter je crois 6 transistors par bit soit pour 1Go 48G transistors.


votre avatar

Détail intéressant, sur le site d’Apple, il est précisé que les comparaisons de performances sont par rapport aux MacBook Air i7, MacBook Pro 2 ports i7 et Mac mini i3. le tout à 16G de RAM et 2To de SSD.



Donc le MacBook Air passif, “3x plus puissant” l’est bien par rapport à un i7 quad core et non par rapport au i3 bi core. On est vraiment pas à l’abri d’avoir des perfs rosetta 2 meilleurs qu’en natif intel avec la génération précédente !



Vivement les tests.

votre avatar

Cashiderme a dit:


C’est encore très expérimental (et ne dépassera probablement jamais ce stade à mon avis), mais si, ça existe.



https://www.phonandroid.com/installer-android-ou-linux-sur-iphone-est-desormais-possible-en-beta.html


Je n’ai pas bien compris comment ça marche… J’ai l’impression que c’est basé sur de la virtualisation ou de l’émulation ?
En tout cas, au vu de ce qu’il y a sur le github, ça me parait très léger pour être un OS bootable directement sur le matos et il n’y a aucune procédure d’install (et c’est bloqué a l’iPhone 7 d’après leur site).
Soit il en manque un (gros) bout, soit c’est fumeux…



On a déjà vu des gars dire qu’ils avaient mis Windows sur iPhone mais c’était juste du VNC d’un PC

votre avatar

KP2 a dit:


Je n’ai pas bien compris comment ça marche… J’ai l’impression que c’est basé sur de la virtualisation ou de l’émulation ? En tout cas, au vu de ce qu’il y a sur le github, ça me parait très léger pour être un OS bootable directement sur le matos et il n’y a aucune procédure d’install (et c’est bloqué a l’iPhone 7 d’après leur site). Soit il en manque un (gros) bout, soit c’est fumeux…



On a déjà vu des gars dire qu’ils avaient mis Windows sur iPhone mais c’était juste du VNC d’un PC


Non le système est bien natif et installé sur une partition de l’iPhone, par contre en l’état l’exploit ne permet pas de modifier la séquence de boot natif donc il faut relancer l’exploit et booter manuellement l’iphone à chaque fois depuis le mode de maintenance du firmware (DFU en gros c’est l’équivalent du fastboot sur Android).

votre avatar

Loeff a dit:


l’APU d’AMD a également la mémoire intégrée à la puce ? ça augmente de manière non négligeable le nombre de transistors.


Comme déjà dit, la mémoire RAM est placée sur le CPU M1 (https://images.anandtech.com/doci/16226/2020-11-10%2019_08_48.jpg), mais ne fait pas parti du total de transistors du CPU. Chez AMD à part certains GPU qui intégraient de la mémoire HBM dans le même package, il n’y en a pas dans les APU

votre avatar

Oui j’ai vu ça après coup, trop tard pour éditer mon message :chinois:

votre avatar

Leum a dit:


Apple garde le Mac Intel justement à cause de cela. L’ARM est argent et le Intel gris sidéral ;)


a mon avis ils viennent surtout d’annoncer le “mac mini pro” surement avec soc M2 qui lui aura les 4 thunderbolt, le 10GbE et beaucoup plus de ram…

votre avatar

cyp a dit:


Non le système est bien natif et installé sur une partition de l’iPhone, par contre en l’état l’exploit ne permet pas de modifier la séquence de boot natif donc il faut relancer l’exploit et booter manuellement l’iphone à chaque fois depuis le mode de maintenance du firmware (DFU en gros c’est l’équivalent du fastboot sur Android).


Mouais, c’est pas ce qu’ils disent là : “We would not have been able to port Android nearly so quickly, if at all, without relying on Corellium’s revolutionary mobile device virtualization platform.”



Enfin bon, sur leur site, y’a quand même pas mal de buzzword à la limite du bullshit donc c’est difficile de comprendre concrètement comment ça fonctionne.
Bref, quoiqu’il en soit, j’ai vu aussi une vidéo qui présente une install. Ils partent d’un jailbreak Chekm8 pour accéder à un terminal, copier un gros zip et exécuter un script d’install pour démarrer Android par la suite.
Ça reste quand même assez flou pour moi et j’ai vraiment pas l’impression qu’ils soient en mesure ne serait-ce que d’afficher qqch sur l’écran sans iOS dessous.
Ça reste aussi étonnant que les efforts ne soient pas poursuivi au vu du résultat très prometteur… on a vu des projets avec bcp moins d’interêt être bien mieux soutenus par les passionnés.



[edit] en regardant mieux la vidéo, ça semble quand même bien booter dessus… donc je vois pas pourquoi ils parlent de virtualisation dans la déscription de leur soft ?[/edit]

votre avatar

Leum a dit:


Bah écoute si tu te balade sur le site d’Apple, tu as des bench officielles sur des logiciels tel que Shadow of Tomb Raider, Affinity Photo ou Lightroom et pas seulement sur des softs made in Apple… Mais quand c’est le cas c’est Final Cute Pro, XCode et Logic Pro…. même pour le MacBook Air.



Évidemment c’est une comparaison avec les Mac Intel équivalents et ça n’est pas un test indépendant… Mais quand tu annonces que ta machine est 4 fois plus rapide dans Shadow of Tomb Raider c’est pas pour que Inpact Hardware vienne dire “ah en fait non c’est 20% plus lent”, ça ser plutôt 3,7 au lieu de 4 fois ;)


Ce que je veux dire, ce n’est pas parce que la puce est puissante que l’émulation sera efficace. Elle est efficace parce qu’apple a finalement très peu à porter, et que les programmes n’ont qu’à être recompilés en changeant la cible cpu. Les autres seront émulés, mais avec une api portée d’où des performances dingues.



Ca fait des années qu’on crache sur l’x86 au profit de l’arm… hors hormis les mondes fermés (smartphone, apple, …) l’arm ne réussi pas à virer l’x86 dans le monde des pcs. Peut être à cause d’un écosystème complètement dingue par son amplitude?




KP2 a dit:


C’est pas le même public entre ceux qui achètent un mac et ceux qui veulent du bricolable (du moins, ça ne l’est plus depuis au moins 10 ans…) Si tu achètes un mac, le verrouillage matériel ne te gène pas évidemment. Après, la concurrence fait quoi de mieux à ce niveau sur les ultra-compacts ? pas grand chose de fou. Le “problème” n’est pas tellement Apple, c’est surtout le format des machines.


Oué enfin j’en ai marre de tenter de réparer ses merdes et de devoir jeter des machines à plus de 1000€… alors que les pcs sont réparables, même si certains ont des verrues :D Bref, ils se démerdent maintenant ;)

votre avatar

patos a dit:


Ce que je veux dire, ce n’est pas parce que la puce est puissante que l’émulation sera efficace.


Ca aide quand meme…
Mais CanardPC a fait des tests sur le Kit de migration Apple basé sur une puce A12 et certains softs tournaient mieux en émulation qu’en natif.
Donc il semblerait que, même si ce n’est pas une preuve absolue, que l’émulation ne soit pas dégueu totu de même…




Elle est efficace parce qu’apple a finalement très peu à porter, et que les programmes n’ont qu’à être recompilés en changeant la cible cpu. Les autres seront émulés, mais avec une api portée d’où des performances dingues.


“finalement”, yaka, yzonka, toussa c’est facile… moui…




Ca fait des années qu’on crache sur l’x86 au profit de l’arm… hors hormis les mondes fermés (smartphone, apple, …) l’arm ne réussi pas à virer l’x86 dans le monde des pcs. Peut être à cause d’un écosystème complètement dingue par son amplitude?


L’écosystème Windows est dingue par l’amplitude, oui certainement. Dingue par son inertie aussi…
Et ce n’est pas du tout aidé par MS qui, même encore aujourd’hui, évite quand même de trop secouer le mammouth pour pas le fâcher.




Oué enfin j’en ai marre de tenter de réparer ses merdes et de devoir jeter des machines à plus de 1000€… alors que les pcs sont réparables, même si certains ont des verrues :D Bref, ils se démerdent maintenant ;)


Tu ferais mieux de laisser Apple s’en charger comme tous les gens raisonnables. Après, je te mets au défi de “réparer” n’importe quel PC ultrabook. Tu auras les mêmes problèmes globalement (pour un prix équivalent à qq pétouilles près)

votre avatar

Je ne suis pas certain que ce soit Microsoft qui freine autant que les utilisateurs de Windows…

votre avatar

Minarey a dit:


Détail intéressant, sur le site d’Apple, il est précisé que les comparaisons de performances sont par rapport aux MacBook Air i7, MacBook Pro 2 ports i7 et Mac mini i3. le tout à 16G de RAM et 2To de SSD.


Oui, j’attends de voir, car beaucoup de tests cités sont dépendants du GPU et beaucoup de la com s’appuie sur métal et le GPU.
Donc s’ils comparent leur GPU à un HD620, c’est déjà très bien de faire X3, mais c’est aussi ce qu’intel propose en GPU sur les nouveaux DG1 (enfin, X2 et plus d’après les tests).
De plus, avec une mémoire totalement unifiée, c’est peut-être plus facile à atteindre.
Attention, je ne nie pas les perfs certainement hors du commun pour une plateforme ARM, mais c’est au prix de ne plus pouvoir augmenter la RAM je pense et d’une fermeture de l’ordi au niveau de la fermeture d’un iPhone.

votre avatar

en GPU ils annoncent des performances non pas x3 mais x5 :fumer:
Moi j’attends de voir la qualité de la virtualisation sur les taches GPU malgré tout.



Mais en natif ca va laminer les puces intel en CPU ET GPU sans aucun doute.

votre avatar

(quote:1836652:brice.wernet)Attention, je ne nie pas les perfs certainement hors du commun pour une plateforme ARM, mais c’est au prix de ne plus pouvoir augmenter la RAM je pense et d’une fermeture de l’ordi au niveau de la fermeture d’un iPhone.


Bah, c’est déjà le cas actuellement donc bon…
Un mac récent (<= 2 ou 3 ans), tout est soudé…

votre avatar

tazvld a dit:


semble que pour Windows, c’était annoncé comme non supporté (pas de bootcamp). Sinon dans les 2 cas, comme dit plus haut, il faut que le bootloader permette et que les drivers existent. Il suffit de voir à quel point c’est la galère pour les smartphones de faire et d’installer des ROM alternatives pour comprendre que ça ne sera pas une partie de plaisir pour faire ça sur ces Macs.


La perte d’utilisateurs va se faire sentir si ils ne portent pas bootcamp.

votre avatar

KP2 a dit:


[edit] en regardant mieux la vidéo, ça semble quand même bien booter dessus… donc je vois pas pourquoi ils parlent de virtualisation dans la déscription de leur soft ?[/edit]


Aucune idée, en vrai je me suis surtout intéressé à l’install de Linux et la procédure est assez clair




  • préparation d’une image personnalisé avec un kernel patché

  • boot en dfu et utilisation de l’exploit pour accéder au shell de maintenance de l’iphone

  • flash de l’image sur une partition et lancement du boot de l’OS sur cette dernière



https://wiki.postmarketos.org/wiki/Apple_iPhone_77%2B_(apple-iphone7)
https://blog.project-insanity.org/2020/04/22/linux-with-wayland-is-now-running-on-iphone-7/

votre avatar

KP2 a dit:


Tu ferais mieux de laisser Apple s’en charger comme tous les gens raisonnables. Après, je te mets au défi de “réparer” n’importe quel PC ultrabook. Tu auras les mêmes problèmes globalement (pour un prix équivalent à qq pétouilles près)


Mêmes problèmes mais pas les mêmes solutions économiques non plus !
Il y a tout un foin sur les portables Apple, même des modèles complètement dépassés coûtent un bras, ce n’est pas le cas pour les PC.

votre avatar

KP2 a dit:


Ca aide quand meme… Mais CanardPC a fait des tests sur le Kit de migration Apple basé sur une puce A12 et certains softs tournaient mieux en émulation qu’en natif.


J’ai pas trouvé sur internet pour confirmer le mieux qu’en natif (hormis quand ça utilise le GPU - qui semble être très bon face à un intel intégré). Par contre, une remarque m’a surprise de la part de CanardPC: “rosetta 2 ne semble avoir accès qu’à 4 CPU sur les 8” -> c’est normal en big.LITTLE: un processus tourne soit sur les 4 coeurs rapides, soit sur les 4 coeurs lents, mais pas sur les 2. En théorie, on peut voir des processus sur les 4 coeurs lent en même temps que d’autres sur les 4 coeurs rapides, mais d’après quelques lectures, des implémentations se font en basculant complètement de rapide à lent et de lent à rapide - j’imagine que c’est plus simple à gérer.



J’aime bien aussi ls comparaisons avec les modèle en i5 “Y” en 5/7W…



Mais une remarque me semble très importante: la comparaison à prix égal - clairement Apple va placer ses M1 à un rapport perf/prix bien meilleur que les Intel.

votre avatar

DacK1 a dit:


Je ne suis pas certain que ce soit Microsoft qui freine autant que les utilisateurs de Windows…


J’ai pas dit qu’il freine, j’ai dit qu’il n’aide pas…




cyp a dit:


Aucune idée, en vrai je me suis surtout intéressé à l’install de Linux et la procédure est assez clair


En fait, je crois que tout repose sur ce fameux mode DFU. Je connaissais pas avant qu’on en parle ici et j’ai du mal a trouver de l’info sur ce que c’est et sur ce qu’il permet concrètement (mais j’ai pas cherché 2 plombes non plus…)
J’ai quand même l’impression que ça ressemble à une sorte de mode sans echec. Soit en étant un mode spécifique très réduit d’iOS, soit en étant un firmware limité indépendant d’iOS mais avec assez de drivers pour permettre un accès a une bonne partie du matos ?
Si mon hypothèse est bonne alors j’imagine que ça pourrait faire tourner un hyperviseur basique et démarrer une VM sans nécessiter de galérer avec les drivers et le bootloader… Fatalement, ça aide pas mal mais c’est quand même pas comme démarrer un OS nativement.




(quote:1836660:Idiogène)
Mêmes problèmes mais pas les mêmes solutions économiques non plus ! Il y a tout un foin sur les portables Apple, même des modèles complètement dépassés coûtent un bras, ce n’est pas le cas pour les PC.


Oui donc c’est juste une question d’argent en vrai… Le reste c’est pareil…

votre avatar

DacK1 a dit:


Je ne suis pas certain que ce soit Microsoft qui freine autant que les utilisateurs de Windows…


Non, ce qui peut être vu comme un problème (ça dépend de quel coté tu regardes), c’est que MS fait le choix de la compatibilité. Typiquement, si MS avait interdit les installer en .exe (si tu laisse un porte de sortie, ça ne servira à rien) et obligé l’utilisation de MSI ou même des nouveau format (par exemple celui qu’il utilise pour les package sur son store), il aurait été bien plus plus simple de mettre en place de centraliser l’installation, l’update, et la désinstallation des programmes.




(quote:1836656:Idiogène)
La perte d’utilisateurs va se faire sentir si ils ne portent pas bootcamp.


A priori, il n’y aura pas de bootcamp sur MacOS ARM.

votre avatar

Il faut aussi arrêter de regarder Windows par le bout de la lorgnette qui ne montre que les applications horizontales. Un nombre impressionnant de machines Windows sert à du contrôle de processus voire pilote du matériel spécialisé.



Je vois mal un constructeur d’instruments d’analyse médicale comme Abbott ou Roche accepter que l’installation du logiciel de contrôle de leur appareil d’hématologie passe par un store qui dicte ce qu’ils peuvent faire ou pas avec la machine… En faire une obligation linuxifie dans l’année toute cette gamme d’applications. Et, même si quantitativement c’est infime par rapport à Word, quand les utilisateurs constateront que le Linux sur la machine qu’ils utilisent au labo est aussi facile d’utilisation que leur Windows, c’est un premier pied dans la porte.

votre avatar

touitboy a dit:


en GPU ils annoncent des performances non pas x3 mais x5 :fumer: Moi j’attends de voir la qualité de la virtualisation sur les taches GPU malgré tout.


Ils annoncent x5 en bench GPU pur et x3 en perfs applicative, mais la plupart de leurs benchs applicatif sont basés sur le GPU.



Pour le natif, il y aura certainement du très bon et du moins très bon. Les x64 ont de très bonnes capacités en desktop et grosse dissipation, les ARM viennent du mobile et ont un bon rapport perf/énergie dans la basse conso. Mais quand on augmente les perfs, la conso monte en flèche: les serveurs ARM ont rarement un meilleur rendement net que les serveurs x64, y compris à 64 coeurs vs 20, sur des benchs applicatifs…



Maintenant, une autre question se pose: qui a besoin d’autant de perfs que peut fournir un Ryzen 57? Hors jeu ultra balèze, les CPU de 2016 tiennent encore largement le coup pour le quidam.
Le produit d’Apple me semble très bien placé niveau performances/perfs/“agréabilité” (= échauffement, bruit, autonomie). Et ils ont travaillé les perfs sur leurs produits “fer de lance” (montage/photoshop like). Bref, avec leur maîtrise de bout en bout, ils peuvent placer un produit qui répond au besoin, face à des PC qui surrépondent à des besoins particuliers…

votre avatar

(quote:1836670:brice.wernet)
Ils annoncent x5 en bench GPU pur et x3 en perfs applicative, mais la plupart de leurs benchs applicatif sont basés sur le GPU.


Pour comparaison
Niveau spec les derniers macbook air embarquait un i5 1030NG7 avec un GPU Iris Plus G7 donné pour un peux plus de 1Tflops.
Le M1 est annoncé à un peux plus de 2,5Tflops ce qui égale a peux près les GPU Xe embarqué dans les nouveau cpu mobile Intel.
Bref jolie progrès x2,5 en perfs pur et certainement pas dur de trouver les x5 dans des situations ou l’ancien GPU était saturé.
Pour autant le gain aurait été le même en faisant évoluer la gamme avec les nouveaux modèles Intel et ça reste très loin des GPU haut de gamme (qui fleurte avec les 30Tflops maintenant).
Bref c’est loin d’être la révolution à ce niveau surtout que pour s’exprimer le matériel reste limité aux API imposé par Apple et pas beaucoup supporté pour le moment.

votre avatar

Bon s’ils ont réussi à mettre un GPU de 2,5Tflops dans un SoC de 18-20W, chapeau!
C’est plus qu’une PS4.



Par contre les 30 TFlops des GPU de bureau, faut pas oublier qu’ils tirent 250W à eux tout seuls…

votre avatar

cyp a dit:


Pour autant le gain aurait été le même en faisant évoluer la gamme avec les nouveaux modèles Intel et ça reste très loin des GPU haut de gamme


Oui, c’est bien mon point de vue.

votre avatar

Arona a dit:


Bon s’ils ont réussi à mettre un GPU de 2,5Tflops dans un SoC de 18-20W, chapeau! C’est plus qu’une PS4.



Par contre les 30 TFlops des GPU de bureau, faut pas oublier qu’ils tirent 250W à eux tout seuls…


Oui mais c’est bien d’avoir des ordres de grandeur, entre les deux il y a aussi les GPU mobiles dédié comme la 5600M qu’on trouvait sur les Macbook pro et qui montait à plus de 5Tflops.
Ça donne une idée plus précise de où vient se placer le M1 dans sa forme actuelle et on comprend qu’Apple va avoir besoin de déclinaison plus puissante pour prétendre remplacer l’ensemble de ses modèles (haut de gamme mobile, desktop…).
Ça sera intéressant de voir ce qu’Apple propose, rester sur un GPU intégré boosté (ce qui serait une performance si il concurrençait les GPU dédié) ou sortir un GPU dédié (ça serait funky aussi avec Intel en train de se lancer également l’année 2021 serait mouvementé sur le secteur).

votre avatar

(quote:1836670:brice.wernet)



Pour le natif, il y aura certainement du très bon et du moins très bon. Les x64 ont de très bonnes capacités en desktop et grosse dissipation, les ARM viennent du mobile et ont un bon rapport perf/énergie dans la basse conso. Mais quand on augmente les perfs, la conso monte en flèche: les serveurs ARM ont rarement un meilleur rendement net que les serveurs x64, y compris à 64 coeurs vs 20, sur des benchs applicatifs…


cadeau:
https://www.mac4ever.com/actu/130974_arm-est-plus-rentable-que-des-cpu-intel-gratuits-dit-cloudflare

votre avatar

barlav a dit:


cadeau: https://www.mac4ever.com/actu/130974_arm-est-plus-rentable-que-des-cpu-intel-gratuits-dit-cloudflare


Sauf que le type dit nawak. Il dit juste qu’il “pense” que passer sous ARM blablabla. :mdr:
Certains de nos politiques pensent qu’OpenOffice fait un très bon pare-feu aussi. Ou que la VR et Stadia c’est le turfu du jeu vidéo.



M’enfin bon, je trouve ça drôle, à chaque fois qu’il y a une news sur l’univers Apple, hop ça déchaîne les passions. Un peu comme StarCitizen. Deux trucs trop chers pour ce qu’ils sont (okayyyyy là je troll. Un peu).

votre avatar

clouflare est passé sous des serveurs arm parce que leurs besoins sont particuliers:
ils ont besoin de beaucoup de BP en IO et de peu de calcul.
Et à ce boulot ils disent que même gratuits les CPU intel vont défoncer le budget avec leur conso pour ce travail spécifique de cache local.
Pour certains usages, intel est contre-productif on dirait.
On s’éloigne de la news on dirait, mais dans certains cas ton affirmation est fausse.
Juste un clein d’oeuil à ton affirmation…
:fumer:

votre avatar

barlav a dit:


clouflare est passé sous des serveurs arm parce que leurs besoins sont particuliers: ils ont besoin de beaucoup de BP en IO et de peu de calcul. Et à ce boulot ils disent que même gratuits les CPU intel vont défoncer le budget avec leur conso pour ce travail spécifique de cache local.


C’était résumé dans l’article que tu avais mis par “That may not be true for every data center, but ARM is a good fit for Cloudflare’s workload.”



J’écrivais effectivement sur le cas général d’un serveur un peu “à tout faire”.



Bref, bien sûr qu’il y a des marchés sur lesquels il vaut mieux du bon ARM qu’un Intel. Sinon on aurait de l’Intel partout. Dans les réseaux et parfois le stockage, Intel est overkill… (démonte un SAN Lenovo, et surprise! Ca tourne avec un i5 des familles - mais une CM complètement custom, bon comme à l’époque où j’ai fait ça on stockait sur disque dur, la conso du CPU elle passe complètement inaperçu face à la conso globale de la baie)



Et tu aurais aussi pu parler du supercalculateur fujitsu sur ARM - mais à priori il consomme pas moins que les Intel.

votre avatar

KP2 a dit:


Tu ferais mieux de laisser Apple s’en charger comme tous les gens raisonnables. Après, je te mets au défi de “réparer” n’importe quel PC ultrabook. Tu auras les mêmes problèmes globalement (pour un prix équivalent à qq pétouilles près)


Au moins, un ultrabook de bonne marque te permettera de changer: la batterie, la ram, le/les SSD, la norme wifi (carte m2), le ventilo cpu…
Ce n’est pas le cas d’apple. Ne serait ce qu’en cas d’upgrade de la ram ou ssd, ce n’est pas possible alors que c’est d’une simplicité incroyable sur un pc.



Globalement ce qui “plante” le plus sur un ordi portable c’était les disques durs, et les ventilo de CPU et batteries. J’ai jamais vu de CPU/GPU mobile mourir, les écrans c’est plus quand l’utilisateur n’est pas soigneux.



Bref, quand on se pointe devant un apple où on a une carte mère avec tout soudé dessus, b’ah soit c’est réparable par apple, tant mieux, soit c’est poubelle.

votre avatar

coco74 a dit:


Bref, quand on se pointe devant un apple où on a une carte mère avec tout soudé dessus, b’ah soit c’est réparable par apple, tant mieux, soit c’est poubelle.


c’est toujours réparable… ça dépend de ton budget.
On en revient toujours à la même chose : la principale (pour pas dire seule) critique contre Apple est que ça coute cher.

votre avatar

+1
Et je trouve cette critique discutable quand on en fait une utilisation pro
Perso, bossant forcément sur portable, dans le design, un MBP est mon meilleur choix prix / service rendu

votre avatar

Non, je dirais que le prix est moins un problème que la non réparabilité.



Franchement,
Une batterie marque fournisseur, c’est max 150 euros,
1 to de ram c’est moins de 150 euros
un ventilateur de CPU, c’est max 30 euros
des vis un peu spécifiques c’est max 30 euros



Autant il y a des fabriquants qui comme apple soudent tout, autant dire qu’un pc c’est cher à réparer, c’est discutable.



Apple fait du haut de gamme et du luxe, normal que ça soit cher. C’est moins normal que ça soit obselete quand apple le choisis ou non réparable/upgradable.

votre avatar

regaber a dit:


+1
Et je trouve cette critique discutable quand on en fait une utilisation pro
Perso, bossant forcément sur portable, dans le design, un MBP est mon meilleur choix prix / service rendu


Ben ouais mais c’est difficilement entendable pour bcp…

votre avatar

tazvld a dit:


Techniquement, un SoC peut intégrer la RAM, ça serait possible, ce qui expliquerait peut-être les 16 milliard de transistor.


Un CPU intègre de la SRAM (via ses caches), mais de la DRAM je ne crois pas, ou alors sur un module externe (dans le même “package”), la DRAM ayant besoin d’être rafraîchie (pas sûr que ce soit la raison mais possible).




(quote:1836605:33A20158-2813-4F0D-9D4A-FD05E2C42E48)
Si la RAM est incluse, alors il y a plus que 16 milliards de transistors… S’il faut 1 transistor par bit, 16 milliards de transistors, ça stocke au mieux 2 GO…


Tout à fait, et en plus il faut compter avec l’électronique de contrôle (pour accéder à la mémoire, y lire et y écrire, et le rafraîchissement), dans la pratique une puce mémoire de 16 Gb a un peu plus de 16 G transistors.




(quote:1836635:brice.wernet)
16 milliards n’est pas assez pour de la RAM: il faut compter je crois 6 transistors par bit soit pour 1Go 48G transistors


Là tu parles de SRAM (Static RAM), qui n’a pas besoin de rafraîchissement et qui est le type de mémoire intégrée au CPU, dans les caches internes (L1 et suivants).
Et de mémoire le temps d’accès à la SRAM est meilleur qu’à la DRAM ; et anecdote, me souviens d’une époque lointaine (années 90) où quelqu’un s’était amusé à mettre une extension mémoire en SRAM sur un Amiga, pour voir.

votre avatar

(reply:1836693:33A20158-2813-4F0D-9D4A-FD05E2C42E48)


Je ne parle donc même pas de store à proprement parlé, je parle d’une gestionnaire de logiciel au moins en local.



En effet, l’installeur en “.exe” n’est qu’un simple programme. Il est codé pour copier des fichiers à certains endroit, modifier d’autre, modifier des config… tout ça c’est l’éditeur qui détermine comment ça serait fait. Il n’a aucune règle particulière qui régit un installer en “.exe”, de comment installer, comment déclarer l’installation, où installer… aucune interface pour réaliser ces opérations. Tu donnes juste les droits admins et tu fait confiance pour qu’il ne te foute pas le boxon (c’est quand tu as besoin d’un autre exe pour désinstaller un logiciel que l’on se rend compte que c’est un peu partie en vrille).



De l’autre coté, les MSI/MSP/MSIX… sont des paquets (de manière simplifié) contenant les fichiers et un manifest déclarant tout ce qu’il faut pour que l’installer de windows puissent réaliser les opération d’installation, de désinstallation et d’update.



Sinon, pour tout ce qui est gestionnaire packet avec dépot, regarde du coté de OneGet et tout ce qui est NuGet et les outils comme WinGet ou Chocolatey.



(sinon, j’ai pas compris ton histoire de “premier pied dans la porte”, si l’utilisateur n’utilise pas linux, ils n’y a aucune raison qu’ils soient en l’état de faire une quelconque comparaison. Surtout dans le monde pro, ce n’est pas les utilisateur qui installent les logiciels.)



C’est un SoC, de ce que j’ai compris, on est capable de foutre la quasi intégralité des puces d’un ordinateur dans un seul SoC, la mémoire semble faire partie des truc que l’on peut y inclure.



Mais sinon, oui, 16G transistor ne peut pas contenir 16Go de RAM

votre avatar

Tu parles à un spécialiste de InnoSetup, là :-)



En pratique, l’installateur de notre logiciel doit à un moment vérifier qu’Oracle est correctement installé, accessible et configuré. En pratique tu peux danser sur ta tête, c’est impossible à faire avec les primitives de l’installateur et tu te retrouves à écrire un script customisé qui fait ce qu’il doit faire (c’est-à-dire accéder à d’autres applications, à leur registry, etc.). Ceci indépendemment du fait que ce soit un EXE ou un MSI.



Si par contre tu imposes un modèle en “silos” comme sur le store où une application ne peut en aucun cas sortir de son silo pour en configurer une autre, tu forces les applications qui en ont réellement besoin à ne pas utiliser ton écosystème.



Quant au pied dans la porte: si le vendeur installe un poste de travail Linux pour contrôler sa machine-outil, les utilisateurs constateront qu’il arrivent à faire correctement leur boulot, y compris même aller sur leur webmail, etc. Ils pourraient ainsi comparer avec la machine qu’ils ont à la maison, et commencer à se dire que Linux pour le poste de travail, c’est finalement pas si abominable que Steve Ballmer le prétend.

votre avatar

cmoileena a dit:


Une caméra en 720p sur ces modèles … Franchement….



KP2 a dit:


Je ne comprends pas pourquoi ils restent bloqués là dessus… ça n’a aucun sens… Peut-être qu’ils ont des limitations physiques liées à l’épaisseur des écrans de macbook ? C’est vraiment bizarre…


Pas sûr que ce lié à une limitation d’épaisseur, vu la résolution délirante qu’on a dans certains téléphones mobiles.
Je pense plutôt que c’est un choix pour avoir une meilleure qualité, sachant qu’une webcam c’est souvent pas très qualitatif, vu la taille minuscule des capteurs. Perso une webcam 720p de qualité me va très bien, je ne vois pas trop l’intérêt d’avoir plus.
Apple fait le même choix dans ses mobiles, avec des appareils photos qui ont des résolutions déjà élevées, mais pas délirantes comme d’autres qui vont au-delà des 12 MP pour atteindre parfois plus de 20 et plus.

votre avatar

coco74 a dit:


C’est moins normal que ça soit obselete quand apple le choisis ou non réparable/upgradable.


C’est réparable ! La seule différence est que “l’unité” réparable de base est le bloc électronique complet plutôt qu’au niveau de certains composants, voilà tout.
Mais ça, c’est un choix technique et stratégique d’Apple, ça se discute pas vraiment… Tu prends en l’état ou pas mais y’a pas à chipoter 3h là dessus.
A une époque, les cartes son étaient indépendantes de la carte mère et ça a couiné quand ça a été intégré. Qui s’intéresse encore à ce sujet de nos jours ? Il y aurait même bien plus de résistance si on devait revenir en arrière…



Quand au coté upgradable, c’est surtout le format de machine qui veut ça plus qu’autre chose. Le fait qu’Apple se soit lancé à 100% dans les ultraportables est aussi un choix stratégique. La concurrence produit aussi des tanks ? Grand bien leur fasse… mais si tu compares 2 ultrabooks, tu as grosso modo les mêmes limitations d’upgrade.
Et puis bon, sans vouloir polémiquer, la possibilité d’upgrade, pour moi, c’est un peu comme les gouts et les couleurs. Tout le monde y met un peu ce qu’il veut et c’est quasi impossible de discuter de cela rationnellement.
Le prob est que tu trouveras toujours qqn pour dire que c’est jamais suffisant…



Bref, tout ça pour dire qu’il faut arrêter de plaquer le vieux modèle du PC tour sur les équipements informatiques actuels qui sont ultra intégrés. Ce modèle a effectivement plein d’avantages sur la bidouillabilité mais c’est carrément pas une fin en soi pour énormément de gens à coté du prix, de la compacité ou des perfs pures.
La bidouillabilité, c’est bien pour les geeks qui veulent bricoler mais ça ne s’adresse pas aux autres. C’est un marché de niche aujourd’hui et il va bien falloir l’accepter un jour…

votre avatar

L’argument du “pc tank” c’est fini ça, il y a pleins d’ultra book fins, avec mémoire, ssd, carte wifi, ventirad, batterie très très facilement démontables et changeables.



La difference,c’est qu’une réparation apple, ça va être des frais pour trouver la panne, puis plus ou moins 800-1000 euros au moins pour changer toute la carte mère.



Un ultrabook dell xps par exemple, c’est aussi fin qu’un mac, un ssd ou ram morte, ça coutera pas le prix d’un demi macbook neuf. Après je supose que si les clients d’apple sont prêt à mettre aussi cher dans un mac, ils sont prêts à le réparer ou changer dès qu’il y a quelque chose qui merde.



Faudra pas oublier le greenwashing d’apple: on recycle, on fait des produits recyclables, mais par contre, on fait pas des produits facilement réparables, faut pas pousser mémé dans les ortilles.



Du coup, le passage de x86 à ARM ne marque pas de changement concernant la réparabilité des mac. Il y aura juste une impossibilité d’utiliser un autre OS quand le device sera considéré comme obsolète.

votre avatar

Je suis pas certain que tu aies déjà vu un XPS et un MacBook Pro côte à côte. Ce sont exactement les deux machines que j’ai sur mon bureau. Le MacBook Pro est bien plus fin et surtout plus léger que l’XPS.



Le MacBook Air (que je ne possède pas mais que j’ai déjà eu entre les mains) est bien plus fin et léger que le Pro.

votre avatar

OlivierJ a dit:


Pas sûr que ce lié à une limitation d’épaisseur,


Hum je sais pas… si on regarde bien, une cam haute def fait toute l’épaisseur du tél (voire déborde un peu parfois) et c’est bcp plus épais qu’un écran de mac…

votre avatar

Je n’ai pas vu d’infos à ce sujet… mais par défaut, comment se passera la compatibilité pour tous les jeux ? Faudra-t-il une conversion explicite par chaque éditeur (donc non compatible par défaut), ou une émulation s’enclenchera automatiquement dans le pire des cas (donc compatible par défaut) ?



Et si je comprends bien, on peut même espérer de ne pas avoir de grosses baisses de perfs même en émulation ?

votre avatar

D’ici une grosse semaine on aura des tests poussés sur tous ces cas de figure, mais je pense qu’il faut s’attendre à ce que tous les jeux fonctionnent (en émulation bien sûr), avec des baisses de perf plus ou moins importantes selon les cas. En même temps j’imagine que quelqu’un qui joue sur Mac est habitué à faire des concessions.

votre avatar

KP2 a dit:


La bidouillabilité, c’est bien pour les geeks qui veulent bricoler


Le problème c’est que les mecs mettent pas mal en avant le fait de pouvoir rajouter de la ram très facilement sur un mac. Du coup ce nouvel argument passe un peu moins bien. Par contre sur pc rajouter de la ram, c’est légèrement plus compliqué.



Reste à définir si pouvoir rajouter de la ram dans une machine est un besoin essentiel ou non… Je dirais que oui car c’est un des éléments primordial qui permet d’allonger la durée de vie. En général les applications demandent d’abord plus de ram et ensuite plus de cpu.



Quand tu veut avoir l’appellation “pro” je pense qu’il est important de pouvoir faire ce genre manip. Le pro à besoin de ça machine en permanence, si tu dois passer par un SAV c’est un peu mort.



Bon après il y à une autre vision des choses :



T’a une “carte mère” avec CPU + RAM + GPU ce qui permet d’optimiser la production et donc de faire baisser les couts. Si au niveau de la connectique tu est en mode “easy” tu peut très bien imaginer une upgrade de cette “carte mère”. Il te suffit de respecter le form factor.



Concrètement ça voudrais dire que tu pourrais débarquer avec ton mac book pro et demander une upgrade d’une carte M1 16 GO à une carte M2 16 go. Et que ton ancienne carte M1 pourrais finir dans le remplacement d’un mac mini M1 8 go.



Dans ce genre de solution tout le monde serais gagnant, et le bas de la chaine pourrais dans l’absolu récupérer des machines “à pas cher”.



Mais bon, à mon avis connaissant apple ils vont juste faire les crevard… Tu paiera plein pots une nouvelle machine, et eux tenteront de refourguer l’ancienne à un bon prix. Niveau réparation à mon avis aussi il feront payer plein pots.




Hum je sais pas… si on regarde bien, une cam haute def fait toute l’épaisseur du tél (voire déborde un peu parfois) et c’est bcp plus épais qu’un écran de mac…


Les caméra selfie sont très fines, mais avoir une caméra “ de merde ” leur permet de tenter de vendre une webcam dédiée à 200 boules. Vu que t’a déjà lâcher un bras, t’est plus à ça prêts.

votre avatar

(quote:1836772:skankhunt42 )
[…]Concrètement ça voudrais dire que tu pourrais débarquer avec ton mac book pro et demander une upgrade d’une carte M1 16 GO à une carte M2 16 go. Et que ton ancienne carte M1 pourrais finir dans le remplacement d’un mac mini M1 8 go.[…]


J’adorerais que l’on puisse faire ça, mais en effet c’est pas trop le style d’Apple.

votre avatar

regaber a dit:


En même temps j’imagine que quelqu’un qui joue sur Mac est habitué à faire des concessions.


Oui de base les prérequis matériels y sont bien plus élevés, je suppose que c’est dû à des conversions non-optimisées des versions Windows…



En revanche je redoute un retour de l’époque PowerPC où très très peu de jeux étaient disponibles.

votre avatar

(quote:1836772:skankhunt42 )
Le problème c’est que les mecs mettent pas mal en avant le fait de pouvoir rajouter de la ram très facilement sur un mac.


C’est fini depuis longtemps…




Reste à définir si pouvoir rajouter de la ram dans une machine est un besoin essentiel ou non… Je dirais que oui car c’est un des éléments primordial qui permet d’allonger la durée de vie. En général les applications demandent d’abord plus de ram et ensuite plus de cpu.
Quand tu veut avoir l’appellation “pro” je pense qu’il est important de pouvoir faire ce genre manip. Le pro à besoin de ça machine en permanence, si tu dois passer par un SAV c’est un peu mort.


C’est une bonne question. Je pense que ça dépend pas mal de la clientèle visée… Et je suis sûr qu’Apple connait très bien sa clientèle donc si il se permet ce genre de chose, c’est qu’il sait que ça va passer globalement.
Et quand bien même il perd qq % de clients lorsqu’il fait un choix tranché de ce genre, il sait aussi qu’il va en récuperer d’autres pour les mêmes raisons.




Bon après il y à une autre vision des choses :



T’a une “carte mère” avec CPU + RAM + GPU ce qui permet d’optimiser la production et donc de faire baisser les couts. Si au niveau de la connectique tu est en mode “easy” tu peut très bien imaginer une upgrade de cette “carte mère”. Il te suffit de respecter le form factor.



Concrètement ça voudrais dire que tu pourrais débarquer avec ton mac book pro et demander une upgrade d’une carte M1 16 GO à une carte M2 16 go. Et que ton ancienne carte M1 pourrais finir dans le remplacement d’un mac mini M1 8 go.


“il suffit de…”
Ouais “il suffit de” quand t’as un boitier desktop d’1m³ dans lequel tu peux tout te permettre. Sauf qu’Apple propose des machines ultra compactes et donc ultra intégrées. Et y’a pas 1cm² de perdu et chaque chose à une et une seule place.
Et c’est bien cette intégration qui est la grande force d’Apple aujourd’hui




Mais bon, à mon avis connaissant apple ils vont juste faire les crevard… Tu paiera plein pots une nouvelle machine, et eux tenteront de refourguer l’ancienne à un bon prix. Niveau réparation à mon avis aussi il feront payer plein pots.


Pourquoi dire “crevard” ?
C’est une boite comme une autre qui tient un bon filon et qui gagne du blé avec… tu ferais pareil à leur place.




Les caméra selfie sont très fines, mais avoir une caméra “ de merde ” leur permet de tenter de vendre une webcam dédiée à 200 boules. Vu que t’a déjà lâcher un bras, t’est plus à ça prêts.


Ouais sauf qu’ils ne vendent pas de cam externe donc l’argument est un peu foireux…

votre avatar

Overnumerousness a dit:


Je n’ai pas vu d’infos à ce sujet… mais par défaut, comment se passera la compatibilité pour tous les jeux ? Faudra-t-il une conversion explicite par chaque éditeur (donc non compatible par défaut), ou une émulation s’enclenchera automatiquement dans le pire des cas (donc compatible par défaut) ?


Les éditeurs devront, dans le meilleur des cas, recompiler leur jeu (et le proposer en Universal Binaries). Dans le pire des cas, en patcher une partie pour que ça tourne.
Y’a peu de chances que les vieux jeux soient mis à jour donc il faudra prier pour que Rosetta 2 les fasse tourner correctement ou alors espèrer que la virtualisation soit assez potable pour les faire tourner.
Après, beaucoup de jeux utilisent des framework dédiés (genre Unity) donc ça devrait simplifier leur boulot de portage.




Et si je comprends bien, on peut même espérer de ne pas avoir de grosses baisses de perfs même en émulation ?


Apple a fait des démos de jeux qui tournaient très très bien en émulation donc c’est pas perdu… reste à voir au cas par cas

votre avatar

KP2 a dit:


C’est fini depuis longtemps…


Alors concrètement demain j’achète un mac pro avec mettons, 16 go de ram. Comment je passe à 32 / 64 go dans mettons, 5 ans ? Au passage j’ai tapé “changer ram mac” sur google, le premier lien pointe chez apple avec une doc très détaillée.




Et y’a pas 1cm² de perdu et chaque chose à une et une seule place.


Si tu part du principe qu’a chaque génération les composants prennent moins de place alors tu pourra toujours avoir des machines de plus en plus fine. Au pire t’aura juste de la place en trop lors d’une upgrade.




Pourquoi dire “crevard” ? C’est une boite comme une autre qui tient un bon filon et qui gagne du blé avec… tu ferais pareil à leur place.


Non, je ne ferais pas pareil, comme beaucoup… Je tenterais de viser deux types de clientèle, le geek et le non geek du matos. D’ailleurs je vais te dire, je laisserais peut être même tomber mac os.



Ha si j’étais apple…



Je laisserais surement tomber mac os pour switcher sur windows… Ça me permettrait de toucher les gamers. Ensuite je tenterais “à la nintendo” de sortir du matos + software “qui va bien”. Parce que bon le gaming pc ça fait 20 ans que ça n’a pas évolué…



Oui oui, souris laser sans fil au lieu d’une boule. M’enfin bon, elle vibre toujours pas la souris, et ne gère pas la rotation dans les jeux. Et pourquoi pas un retour de force ? Pareil pour les clavier.



Au passage je “convertirais” mes logiciels mac pour windows comme final cut. Après tout si c’est si bon, pourquoi tout le monde ne pourrais pas y gouter ?



Quand au domaine pro je proposerais des machines optimisée mais qui ne coutent pas un bras.



Face à ça, l’actuel apple est “crevard”.




Ouais sauf qu’ils ne vendent pas de cam externe donc l’argument est un peu foireux…


Ha bon ? Et ça ? ( lien )… 200 boules la webcam. D’où le choix d’un milieu de gamme dans leur machine.

votre avatar

(reply:1836791:33A20158-2813-4F0D-9D4A-FD05E2C42E48)


Théoriquement et optimalement, ça devrait passer par des interfaces prévu pour. Dans le yakafocon, Oracle devrait proposer ainsi une interface pour accéder à sa configuration (ou au moins ce qu’il veut bien montrer).



Pareil, dans le modèle en sillos, accéder et configurer une autre application pourrait être une API qui demande des droits spécifiques (de la même manière que l’on doit demander le géolocalisation pour accéder au GPS…).



Mais je suis totalement conscient, que ça c’est le monde bisounours où tout le monde fait son travail, fait les mises à jours nécessaire de ses logiciels, écoutent sa communauté… Et c’est pour ça que je reconnais que ça serait bien, mais que ça aussi ses limites dans un environnement Windows avec un lourd historique et une communauté d’éditeurs tiers très large qui ont leur propres intérêts.



Toujours pour le pied dans la porte : au final, ça n’a rien à voir avec la façon d’installer un logiciel.

votre avatar

jpaul a dit:



De toutes façons je pense que le véritable destin de l’industrie c’est la disparition du PC de “maison” : un iPad fait déjà largement le job pour n’importe quel particulier sans usages pros avec un rapport qualité prix du matos sans équivalent. Un iPad à 390€ met la rouste à n’importe quel PC Windows du même prix quel que soit l’usage et surtout bouge pas d’un mm avec le temps.


Je pense qu’ont devrais directement passer à l’étape suivante ou une tablette ne devrait même pas avoir d’os et être juste un simple terminal. Car un iphone à 600€ est au moins aussi puissant qu’un ipad. Pourquoi avoir des doublons ?



Autant balancer un flux video > iphone ipad, ou bien pc de bureau > ipad.



ps : N’oublie pas que le télétravail doit devenir plus ou moins une norme et donc ces fameux ipad ne servent pas à grand chose, à moins de leur caler un véritable OS.

votre avatar

jpaul a dit:



De toutes façons je pense que le véritable destin de l’industrie c’est la disparition du PC de “maison” : un iPad fait déjà largement le job pour n’importe quel particulier sans usages pros


Tu peux le répéter en face de parents d’élèves au collège/lycée pour voir :)
Ou à ceux qui souhaitent imprimer des documents quand ils veulent?
Ou à ceux qui veulent accéder à des sites comme les labos d’analyse pour avoir leurs résultats?
Sans parler de ceux qui se sont acheté des iPhone/iPad et ont plus de 128Go de photos et ne peuvent les consulter que connectés au cloud et doivent payer un abo… (ça c’est pour le rapport qualité/prix dans le coût total de possession…)



J’aime beaucoup le matos Apple, il a la classe, il est solide. Mais il ne faut consommer que Apple pour ne jamais avoir de problèmes. Sinon, on a les mêmes qu’Android ou presque.

votre avatar

KP2 a dit:


Pourquoi dire “crevard” ? C’est une boite comme une autre qui tient un bon filon et qui gagne du blé avec… tu ferais pareil à leur place.



Ouais sauf qu’ils ne vendent pas de cam externe donc l’argument est un peu foireux…


Ce genre de langage (“crevard”) ça montre le haut niveau d’analyse… :roll:
En plus d’être un emploi inapproprié du terme, Apple vise un marché et se porte bien, en faisant plutôt de la qualité dans un monde informatique où c’est assez variable.




(quote:1836815:skankhunt42 )
Ha si j’étais apple…
Je laisserais surement tomber mac os pour switcher sur windows…


Drôle d’idée, MacOS c’est quand même autre chose que Windows, et ça motive le passage d’un certain nombre de gens à Apple.



Mon père, retraité, est ravi d’avoir fait l’effort de passer de Windows à Mac, entre la qualité globale de son MacBook, et la qualité et la fiabilité du logiciel (ou des logiciels). En prime il a pris le support et il en est content, il a eu 2 soucis en 2-3 ans et ils ont été bien.
(je suis pur linuxien donc je ne prêche pas ici pour ma préférence)




Parce que bon le gaming pc ça fait 20 ans que ça n’a pas évolué…


Curieux de savoir comment on peut dire un truc pareil…




jpaul a dit:


De toutes façons je pense que le véritable destin de l’industrie c’est la disparition du PC de “maison” : un iPad fait déjà largement le job pour n’importe quel particulier sans usages pros avec un rapport qualité prix du matos sans équivalent. Un iPad à 390€ met la rouste à n’importe quel PC Windows du même prix quel que soit l’usage et surtout bouge pas d’un mm avec le temps.


Je suis assez d’accord, pour beaucoup, une tablette répond très bien à leurs besoins, et c’est propre et net. Anecdote perso, ma mère avait beaucoup de mal avec un portable Windows donné par mon père, elle n’aimait pas attendre pour les mises à jour (d’autant plus longues qu’elle l’allumait peu souvent), et puis elle ne trouvait pas ça très pratique globalement. On lui a offert un iPad et ça a été l’adoption au-delà de ce que j’imaginais.




Cashiderme a dit:


Le marché grand public est à peu près aussi varié que le nombre d’individu qui le compose. Même si ce phénomène existe, j’en connais aussi quelques uns qui finissent par laisser l’iPad au placard parce que finalement trop limitée, et reviennent sur un petit laptop pas cher qui reste quand même bien plus confortables sur pas mal de critères.


Je pense que ça dépend de ce qu’on faisait déjà sur un ordinateur. Évidemment pour moi, rien que de taper sur un vrai clavier me rend la tablette peu agréable, et puis en tant que geek et ex-programmeur je me sens limité sur une tablette, j’aime mes logiciels multi-fenêtres + clavier + souris (ou trackpad), et même un peu de terminal (Linux) :-) .

votre avatar

(quote:1836880:brice.wernet)
Tu peux le répéter en face de parents d’élèves au collège/lycée pour voir :) Ou à ceux qui souhaitent imprimer des documents quand ils veulent? Ou à ceux qui veulent accéder à des sites comme les labos d’analyse pour avoir leurs résultats?


Je n’en ai pas l’expérience, c’est compliqué d’imprimer depuis une tablette ? (je ne vois pas la raison)
Et pour les sites des labos d’analyse, quel est le souci ?

votre avatar

(quote:1836815:skankhunt42 )
Alors concrètement demain j’achète un mac pro avec mettons, 16 go de ram. Comment je passe à 32 / 64 go dans mettons, 5 ans ? Au passage j’ai tapé “changer ram mac” sur google, le premier lien pointe chez apple avec une doc très détaillée.


On parle de mac ARM et donc de portables… Les mac pro ne sont pas concernés encore et on a aucune idée des choix techniques que fera Apple à leur sujet.




Si tu part du principe qu’a chaque génération les composants prennent moins de place alors tu pourra toujours avoir des machines de plus en plus fine. Au pire t’aura juste de la place en trop lors d’une upgrade.


Non je pars du principe que chaque génération a son propre design spécifique pour 1000 raisons qui peuvent aller de la gestion de la perf, l’intégration de nouveautés ou les contraintes de production




Non, je ne ferais pas pareil, comme beaucoup… Je tenterais de viser deux types de clientèle, le geek et le non geek du matos. D’ailleurs je vais te dire, je laisserais peut être même tomber mac os.
Ha si j’étais apple…



Je laisserais surement tomber mac os pour switcher sur windows… Ça me permettrait de toucher les gamers. Ensuite je tenterais “à la nintendo” de sortir du matos + software “qui va bien”. Parce que bon le gaming pc ça fait 20 ans que ça n’a pas évolué…
Oui oui, souris laser sans fil au lieu d’une boule. M’enfin bon, elle vibre toujours pas la souris, et ne gère pas la rotation dans les jeux. Et pourquoi pas un retour de force ? Pareil pour les clavier.
Au passage je “convertirais” mes logiciels mac pour windows comme final cut. Après tout si c’est si bon, pourquoi tout le monde ne pourrais pas y gouter ?


Tu aurais fait d’Apple d’un assembleur chinois sans aucun interet avec une stratégie pareille et tu l’aurais coulé en 2 ans.




Quand au domaine pro je proposerais des machines optimisée mais qui ne coutent pas un bras.


Comme HP ? wow ! l’ambition…
Tu m’aurais dit que tu aurais développé une gamme de produits pas trop chers pour toucher un public moins fortuné car c’est ce qui manque à Apple actuellement, j’aurais compris mais ce que tu proposes est de transformer Apple en assembleur de PC sans interet comme tous les autres…
D’une boite qui se démarque grâce à une grande spécificité sur un marché excessivement homogène, tu l’aurais juste fait revenir dans le moule des dizaines d’autres constructeurs qui font déjà tous pareil.




Face à ça, l’actuel apple est “crevard”.


Ouais donc, pour toi, crevard = hors du rang…




Ha bon ? Et ça ? ( lien )… 200 boules la webcam. D’où le choix d’un milieu de gamme dans leur machine.


C’est une cam logitech…

votre avatar

(quote:1836861:skankhunt42 )
Je pense qu’ont devrais directement passer à l’étape suivante ou une tablette ne devrait même pas avoir d’os et être juste un simple terminal. Car un iphone à 600€ est au moins aussi puissant qu’un ipad. Pourquoi avoir des doublons ?



Autant balancer un flux video > iphone ipad, ou bien pc de bureau > ipad.



ps : N’oublie pas que le télétravail doit devenir plus ou moins une norme et donc ces fameux ipad ne servent pas à grand chose, à moins de leur caler un véritable OS.


En théorie (je sais, je sais) le télétravail se fait avec une machine pro, fournie par l’employeur.



Mais même plus globalement, je pense que l’officialisation de la scission iOS/iPadOS va justement aller dans ce sens. Aujourd’hui elle n’apporte rien, mais c’est clairement le signal qu’Apple va vouloir rendre iPadOS plus “productif”.



Si l’on fait complètement abstraction de toutes les restrictions dues uniquement à l’OS (qu’iPadOS pourra faire sauter en s’affranchissant du support des téléphones), l’iPad est techniquement capable de devenir l’outil principal de n’importe quelle profession en dehors des professions “techniques” (en gros l’immense majorité des gens qui utilise un ordinateur comme un outil parmi d’autres et non comme son principal outil de production).

votre avatar

Bonjour,
Avez-vous des infos concernant Bootcamp ? sera-t’il possible d’installer windows 10 en dual boot et y a t’il des benchs sur ça ? cordialement

votre avatar

(quote:1836880:brice.wernet)
Tu peux le répéter en face de parents d’élèves au collège/lycée pour voir :) Ou à ceux qui souhaitent imprimer des documents quand ils veulent? Ou à ceux qui veulent accéder à des sites comme les labos d’analyse pour avoir leurs résultats? Sans parler de ceux qui se sont acheté des iPhone/iPad et ont plus de 128Go de photos et ne peuvent les consulter que connectés au cloud et doivent payer un abo… (ça c’est pour le rapport qualité/prix dans le coût total de possession…)


Oui je peux le répéter. Je parle bien du futur de l’industrie, pas du présent. Imprimer depuis un iPad c’est largement possible et je suis à peu près certain qu’Apple va laisser tomber leur politique “AirPrint only”. Les labos d’analyse qui ont des sites de merde vont bien devoir faire redévelopper leurs sites quand plus personne ne pourra y accéder… etc.



Je suis pas en train de défendre un modèle ou un autre ni de te vendre la suprématie de l’iPad. Je constate juste qu’autour de moi, les gens “non technique” renouvellent de moins en moins leur PC low cost par un autre PC low cost quand au même prix ils peuvent avoir un bel iPad qui fait le même job en mieux.



Et petit aparté sur le stockage mais si t’es ric rac avec 128Go sur un iPad sans solution de secours, c’est que t’as clairement un problème de stratégie de sauvegarde de tes données perso (ou que t’as des dizaines de Go de données inutiles à virer).

votre avatar

KP2 a dit:


Tu aurais fait d’Apple d’un assembleur chinois sans aucun interet avec une stratégie pareille et tu l’aurais coulé en 2 ans.
[…]
C’est une cam logitech…


J’avoue rigoler un peu en lisant tes réponses :D
(faut dire que notre ami est coutumier de commentaires avec une certaine dose de fantaisie)

votre avatar

(quote:1836861:skankhunt42 )
Je pense qu’ont devrais directement passer à l’étape suivante ou une tablette ne devrait même pas avoir d’os et être juste un simple terminal.
[..]
ps : N’oublie pas que le télétravail doit devenir plus ou moins une norme et donc ces fameux ipad ne servent pas à grand chose, à moins de leur caler un véritable OS.


Faudrait savoir, il leur faut un OS ou pas ?



Pour ton info, l’iPad a un OS, et un vrai




jpaul a dit:


Si l’on fait complètement abstraction de toutes les restrictions dues uniquement à l’OS (qu’iPadOS pourra faire sauter en s’affranchissant du support des téléphones), l’iPad est techniquement capable de devenir l’outil principal de n’importe quelle profession


Oui, c’est juste l’interface graphique et l’absence de certains outils (dont un explorateur de fichier pratique, un terminal, des réglages plus fins) qui change par rapport à un OS de bureau classique.

votre avatar

OlivierJ a dit:


Je n’en ai pas l’expérience, c’est compliqué d’imprimer depuis une tablette ? (je ne vois pas la raison) Et pour les sites des labos d’analyse, quel est le souci ?


Si elle est wifi, non c’est simple, je viens d’ailleurs de retrouver une page web qui a été mise en ligne il y a 8 ans, qui montre à quel point c’était déjà facile :D

votre avatar

jpaul a dit:


Les labos d’analyse qui ont des sites de merde vont bien devoir faire redévelopper leurs sites quand plus personne ne pourra y accéder… etc.
Tu y va fort: les sites ne sont pas totalement daubés, ils marchent avec quasiment tout le reste sauf IE.
Safari, c’est à peine 15% de parts de marché. Pas une priorité malheureusement. Apple n’a qu’à accepter le moteur de chrome sur iOS et c’est réglé



Et petit aparté sur le stockage mais si t’es ric rac avec 128Go sur un iPad sans solution de secours, c’est que t’as clairement un problème de stratégie de sauvegarde de tes données perso (ou que t’as des dizaines de Go de données inutiles à virer).


Je n’ai plus d’Apple, je ne connais pas les solutions de secours envisageables quand on n’a qu’un iPhone, pas d’ordi, pas d’ADSL/fibre, juste le téléphone et l’iPad pour tout faire. Mais je veux bien savoir, on m’a posé la question et hormis un ordi, je ne vois pas comment faire mettre en sécurité les photos/vidéos de presque 10ans d’utilisation d’iPhone.




OlivierJ a dit:


Je n’en ai pas l’expérience, c’est compliqué d’imprimer depuis une tablette ? (je ne vois pas la raison) Et pour les sites des labos d’analyse, quel est le souci ?


Pour l’impression, c’est variable: hors PDF jpeg, c’est un peu la jungle.Comme ta tablette ne sait pas toujours ouvrir le document, tu dois envoyer (souvent c’est dans ton dos) à un serveur chez HP (par exemple) qui interprète le document et l’envoie à ton imprimante (les imprimantes HP ont une adresse email pour cela).
Tu t’en aperçois quand un directeur veut imprimer depuis sa tablette et que bizarrement seulement certains documents passent, les autres non et tu les retrouves dans le proxy…



Pour les sites de labos et d’exercies des collèges, c’est par expérience: j’ai quelqu’un dans mon entourage qui n’a que iPhone et iPad, et il fait certaines choses chez moi depuis mon PC car ça ne marche pas sur ses appareils (notamment la connexion)



Bon, j’arrête, on est loin du M1…



Mais bon, c’était il y a 4 ans, ça a du bouger.

votre avatar

jpaul a dit:


Donc ça vivote, mais la communauté de devs derrière ça est devenue anémique : à quoi bon développer pour iPhone jailbreak quand celui ci n’est possible que quelques semaines sur quelques devices tous les deux ou 3 ans ?


C’est dû uniquement au fait qu’ils restent sur iOS et qu’Apple a donc la possibilité de proposer des mises à jour qui corrigeront la faille.



Maintenant, si on remplace macOS par du Linux, il n’y aura plus de mises à jour Apple et ton Linux ne devrait pas bouger. Je ne pense donc pas que la situation soit comparable.

votre avatar

Anandtech a une article sur le M1: https://www.anandtech.com/show/16226/apple-silicon-m1-a14-deep-dive
C’est un peu le bourinage de AMD mais version ARM; 12Mo de cache pour les 4 coeurs hautes perf, et un out of order sur plus de 600 instructions.
Quelque part, le out of order large me rappelle … les transmeta début 2000 dans leur réorganisation “VLIW”.
L’interface mémoire est un énorme point fort (logique, sinon à quoi bon) et les résultat en bench placent du coup le A14 entre Intel (10900K) et AMD (Zen3), surtout lorsque la mémoire est sollicitée.



Ca en fait un excellent processeur consumer à priori, car on ne sait pas trop si les perfs peuvent se dégrader sur de longs traitements.



Ca montre la capacité, avec un haut niveau d’intégration, à avoir de meilleures perfs, au prix de l’évolutivité de la plate-forme.

votre avatar

FNK a dit:


Obsolète ? Mon MBA de 2013 fonctionne toujours parfaitement et tu sais quoi ? Il devrait recevoir Big Sur !


Un jour ton MBA 2013 arrêtera de recevoir les updates d’OSX. Personne reproche à Apple de pas supporter les updates ad vitam.



La différence entre ton mac Intel et un Mac ARM, c’est que quand ce jour arrivera, tu pourras installer un Linux ou un Windows sur ton MBA 2013.



Sur ton MBA ARM 2020, tu pourras juste rester à vie sur une version non patchee de MacOS. C’est là qu’on saura si la puce M1 se débrouille bien en tant que cryptominer.

votre avatar

Tout cela me fait penser à la bataille RISC vs CISC des années 90.
Les processeurs RISC écrasaient les CISC sur certaines tâches, mais c’est la polyvalence du CISC qui leur a permis de s’imposer sur de nombreux segments.



Aujourd’hui, avec des taches qui sont relativement cernées (Web, Video, productivité tout celà dans un univers logiciel contrôle par Apple), cette architecture pourrait connaître un nouvel age d’or sur le segment grand publique.



Après, de là à devenir hégémonique il y a un pas, le grand test se fera non pas sur les quelques logiciels Apple optimisés pour l’architecture, mais sur la capacité de cette nouvelle famille à pouvoir sortir de l’écosystème captif d’Apple.

votre avatar

(quote:1836974:Master Of Bandwidth)
Tout cela me fait penser à la bataille RISC vs CISC des années 90. Les processeurs RISC écrasaient les CISC sur certaines tâches, mais c’est la polyvalence du CISC qui leur a permis de s’imposer sur de nombreux segments.


Pour info, le R de ARM veut dire RISC 🙂
Je ne suis pas franchement convaincu par ton pont de vue mais ça se défend




OlivierJ a dit:


J’avoue rigoler un peu en lisant tes réponses :D (faut dire que notre ami est coutumier de commentaires avec une certaine dose de fantaisie)


Tu es drôlement poli en utilisant le terme fantaisie 🤣

votre avatar

Et le R de RISC veut dire Reduced (Instruction Set Computing)
Le jeu d’instruction d’un ARM serie A n’a plus rien de réduit … Ni dans le nombre d’instructions, ni dans son architecture. :mad2:

votre avatar

KP2 a dit:


Bah, c’est déjà le cas actuellement donc bon… Un mac récent (<= 2 ou 3 ans), tout est soudé…


Je suis bien content d’avoir pu passer mon mac mini 2018 de 16 à 32Go de ram un an après son achat (suite à l’utilisation de quelques logiciels que je n’avais pas prévu au moment de l’achat)



Perso j’avais évité le mac mini 2014 justement à cause de ça (même si ça n’avait aucun intérêt venant d’ un 2012)



je comprends que sur un macbook ce soit impossible à upgrader vu que c’est une course à la finesse mais sur un mac mini, je l’accepte moins.

votre avatar

Je sais que mon avis ne fera pas l’unanimité, mais je pense vraiment que la RAM est un faux problème pour 99% des utilisateurs.
Nous avons le réflexe de vouloir rajouter de la RAM parce que nous sommes vieux et qu’à l’époque la ram était un goulet d’étranglement.



Aujourd’hui je pense vraiment que ce n’est plus le cas, même dans les usages les plus intenses. Le SWAP si l’on possède un SSD est devenu presque transparent, a fortiori avec les SSD NVMe aux débits hallucinants qui ont des bandes passantes quasi équivalentes à celles de la RAM.



Idem pour les processeurs, toutes les applications ne sont pas extrêmement performantes en multithreading et l’importance des performances en single core sont complètement sous-estimées (et éclipsées par les fabricants qui voient dans la multiplication des cœurs le seul moyen d’afficher une progression des performances)



Je travaille sur des machines de puissance et configurations (stockage, RAM) différentes avec des logiciels pro assez lourds.
Honnêtement quand je passe à une machine avec 8Go de Ram je souffre moins que sur une machine avec un disque à plateau ou un processeur anémique.



Je ne nie pas les besoins ponctuels que certains peuvent avoir en RAM, mais je dis que pour 99% des utilisateurs, même ici, 8go ou 32go c’est complètement transparent.
J’encourage elles sceptiques à débrancher leur barrettes de ram une semaine, ils seront surpris.



Donc en gros je pense que devoir changer sa RAM manuellement n’a plus autant d’intérêt en 2020 qu’avant. Après Les machines en M1 ont visiblement une limitation matérielle concernant le nombre de ports et la RAM et ce sera réglé l’an prochain pour ceux qui en veulent plus



Il n’empêche, avec un SSD 2x plus rapide et un proco. qui en monocoeur qui écrase tous les processeurs du marché, on peut s’attendre à ce que les machines présentées mercredi soient absolument monstrueuses en terme de performances réelles.
Le MacBook AIR serait d’après les premiers benchs plus rapide que le processeur i9 8 cœurs des MacBook Pro (et il le lapide en score monocoeur !!!)



SUR LE AIR, une machine de 1kg sans ventilateur avec 18 heures d’autonomie.



Je pense que certains ici sous-estiment le changement de paradigme dont on parle. Multiplier les perfs par trois en un seul bond, à prix égal voir inférieur on n’a pas vu ça depuis plus de 15 ans.



Je pense que si Apple n’avait pas encore la moitié de sa gamme en x86 ils auraient littéralement crucifié intel dans leur présentation.

votre avatar

jpaul a dit:


En théorie (je sais, je sais) le télétravail se fait avec une machine pro, fournie par l’employeur.


Reste à définir ce qu’est une machine pro… Certains sont en télétravail et n’ont pas besoin d’application métier gourmande, juste d’un éco système cohérent




OlivierJ a dit:


Faudrait savoir, il leur faut un OS ou pas ?


L’avantage d’un véritable os facilite la mobilité mais fait exploser les couts + batterie la ou un terminal permet de faire baisser les couts et la batterie et d’augmenter la puissance de calcul.




Pour ton info, l’iPad a un OS, et un vrai


Tu ne peut pas être un véritable os si la seule source d’installation est un store…




KP2 a dit:


On parle de mac ARM et donc de portables… Les mac pro ne sont pas concernés encore et on a aucune idée des choix techniques que fera Apple à leur sujet.


Tu veut dire que personne ne travaille avec un mac book pro ? Et qu’un aucun moment ils n’auront besoin d’une upgrade mémoire ? LOl ?




Non je pars du principe que chaque génération a son propre design spécifique pour 1000 raisons qui peuvent aller de la gestion de la perf, l’intégration de nouveautés ou les contraintes de production


En théorie mais en pratique quasiment chaque génération à le même form factor et tend vers la miniaturisation.

votre avatar

Moi ce qui m’inquiète c’est les performances sous roseta 2, je ne pense vraiment pas que cela sera aussi rapide et transparent qu’annoncé, c’est pourquoi je ne switcherais pas avant au moins 2 ans.

votre avatar

(quote:1836974:Master Of Bandwidth)
Tout cela me fait penser à la bataille RISC vs CISC des années 90. Les processeurs RISC écrasaient les CISC sur certaines tâches, mais c’est la polyvalence du CISC qui leur a permis de s’imposer sur de nombreux segments.


C’est aussi le parc installé et la capacité de créer des clones de machines et la maîtrise du PC, là où le RISC avait tendance à révolutionner un peu trop souvent les conceptions - bref, l’inertie du marché et des fabricants.



Par ailleurs, CISC vs RISC c’est un peu has been: en interne les CISC et les RISC traitent les instructions un peu de la même manière, les CISC doivent juste les “casser” en instructions plus simples. Ensuite, qu’est-ce que RISC? C’est juste la partie “+, -, * , /, if then else”, à côté tous les CPU ont des unités supplémentaires pour améliorer tel ou tel traitement…



Enfin, dans les années 90, la “religion” RISC tendait à dire que tout était dans le compilateur. Au final, on voit bien que les CPU “RISC” actuels ont les mêmes concepts que les CISC pour “palier” aux aléas de l’exécution et du compilateur: réorganisation des instructions, renommage des registres…




touitboy a dit:


Je sais que mon avis ne fera pas l’unanimité, mais je pense vraiment que la RAM est un faux problème pour 99% des utilisateurs. Nous avons le réflexe de vouloir rajouter de la RAM parce que nous sommes vieux et qu’à l’époque la ram était un goulet d’étranglement.


8Go est le minimum sur ordi (en ce moment). Après, c’est du confort. Sauf sur Android que je ne comprend pas: comment on peut manquer de RAM sur un téléphone avec 4Go de RAM, et des applis immensément moins évoluées que sur Windows ou Linux???



Par contre, vu l’énorme quantité de RAM à disposition actuellement, les développeurs ne travaillent plus à faire des programmes qui marchent avec de la RAM inférieure à la taille des données. Dans les années 90, un travail de photo scannée de 180Mo se faisait sur 8Mo de RAM - sans trop de problèmes. Sous Win95, Excel.exe pouvait peser 8Mo et pourtant se charger sur 4Mo sans swapper.



Toutefois avec des ordis limités à 8Go de RAM (partagée avec le GPU en plus), Apple prend un risque sur le futur. A quand l’annonce d’Apple d’arrêter le support Javascript/CSS pour une techno à eux parce que ça consomme trop?




Idem pour les processeurs, toutes les applications ne sont pas extrêmement performantes en multithreading et l’importance des performances en single core sont complètement sous-estimées


Complètement d’accord. En grand public, les gens ne font en gros qu’une tâche à la fois: il vaut mieux leur rendre vite le résultat que leur permettre d’en lancer plusieurs en parallèle.
Par contre un intérêt d’avoir plein de coeurs sous Windows: l’analyse par l’antivirus a moins d’impact sur les perfs.




Je travaille sur des machines de puissance et configurations (stockage, RAM) différentes avec des logiciels pro assez lourds


Le truc qui surprend les stagiaires c’est quand je leur dis que le serveur de prod sera moins performant que leur machine (niveau CPU, RAM). En environnement virtualisé, on a beaucoup de serveur avec 1, 2, 4 coeurs maxi, 4-6Mo de RAM. 8 coeurs c’est spécifique. Et ça tourne bien. D’ailleurs, mettre plus de coeurs peut souvent être contre productif.




Je pense que certains ici sous-estiment le changement de paradigme dont on parle. Multiplier les perfs par trois en un seul bond, à prix égal voir inférieur on n’a pas vu ça depuis plus de 15 ans.


Là je reste dubitatif sur leurs benchs. Je pense que leur CPU/GPU fait jeu à peu près égal avec de bons CPU Intel/AMD - mais pas plus pour les applis dépendantes du CPU. Ils comparent visiblement les résultats de leur GPU à l’ancien GPU Intel, et beaucoup de leurs benchs sont dépendants du GPU.



LA question, c’est quand même le multitâche: 4 coeurs rapides bourins et 4 coeurs lents (moins du tiers/du 4 des perfs visiblement) - que se passe-t-il pendant un calcul lourd?

votre avatar

XXC a dit:


Et le R de RISC veut dire Reduced (Instruction Set Computing) Le jeu d’instruction d’un ARM serie A n’a plus rien de réduit … Ni dans le nombre d’instructions, ni dans son architecture. :mad2:


Ca c’est clair… :D

votre avatar

touitboy a dit:


Je sais que mon avis ne fera pas l’unanimité, mais je pense vraiment que la RAM est un faux problème pour 99% des utilisateurs. […]


Je suis assez d’accord avec tout ça…
Perso, je recherche des portables avec énormément de RAM car je travaille avec bcp de VM en local (8 ou 10, c’est pas rare). Mais je me considère comme un cas très particulier même pour un informaticien.
Je pense aussi qu’on est pas loin d’un plateau dans les besoins en RAM. Peut-être que 8, c’est encore un peu juste (après ça dépend aussi pas mal de l’OS… quand celui ci réclame déjà 4 voire 6Go comme windows, ça aide pas) mais une fois qu’on aura tous 16 voire 32Go, est-ce que les besoins en RAM continueront d’augmenter ?
On le voit déjà avec le stockage local… elles sont rares les machines vendues avec plus de 1To actuellement et le marché ne semble pas vraiment chercher à aller au delà pour l’instant.
Les plateaux existent en informatique, reste à savoir a combien il se situe…




touitboy a dit:


Moi ce qui m’inquiète c’est les performances sous roseta 2, je ne pense vraiment pas que cela sera aussi rapide et transparent qu’annoncé, c’est pourquoi je ne switcherais pas avant au moins 2 ans.


Moi, c’est la virtualisation qui m’inquiète.
Je suis content d’avoir acheté le dernier Macbook Pro 13” en Intel de la gamme… Il me laissera le temps d’observer comment évolue Apple ainsi que la concurrence…

votre avatar

(quote:1837040:skankhunt42 )
Tu veut dire que personne ne travaille avec un mac book pro ? Et qu’un aucun moment ils n’auront besoin d’une upgrade mémoire ? LOl ?


Mais tu parles des mac pro, ensuite des macbook pro ! Arrete de changer de sujet constamment…




En théorie mais en pratique quasiment chaque génération à le même form factor et tend vers la miniaturisation.


Aucune CM n’est identique d’une génération de mac à l’autre. Absolument aucune.
Donc, non, la réalité montre que la réutilisation de design n’est pas pour demain.

votre avatar

touitboy a dit:


Je sais que mon avis ne fera pas l’unanimité, mais je pense vraiment que la RAM est un faux problème pour 99% des utilisateurs. Nous avons le réflexe de vouloir rajouter de la RAM parce que nous sommes vieux et qu’à l’époque la ram était un goulet d’étranglement. [..]
Idem pour les processeurs, toutes les applications ne sont pas extrêmement performantes en multithreading et l’importance des performances en single core sont complètement sous-estimées (et éclipsées par les fabricants qui voient dans la multiplication des cœurs le seul moyen d’afficher une progression des performances)


Je fais partie de ceux qui ne sont intéressés quasiment que par la perf mono-coeur, car l’usage courant d’un ordi c’est plutôt du mono-coeur (démarrer, lancer une application, ouvrir une page Web, etc).
Je préférais un processeur mono-coeur à 12 GHz qu’un quadri-coeur à 3 GHz, le ressenti serait une fluidité et rapidité géniale.




Je ne nie pas les besoins ponctuels que certains peuvent avoir en RAM, mais je dis que pour 99% des utilisateurs, même ici, 8go ou 32go c’est complètement transparent. J’encourage elles sceptiques à débrancher leur barrettes de ram une semaine, ils seront surpris.


Pas faux, cela dit quand je vois la place mémoire toujours plus importante nécessitée par les navigateurs Web, il reste utile de pouvoir augmenter la RAM au bout de quelques années. J’ai fini par passer mon mini-PC de salon de 4 G (ce qui était déjà beaucoup pour un mini-PC) à 8 G juste pour pouvoir naviguer plus confortablement et sans devoir arrêter et relancer Firefox régulièrement (faute de quoi la machine finissait par partir en vrille).




Le MacBook AIR serait d’après les premiers benchs plus rapide que le processeur i9 8 cœurs des MacBook Pro (et il le lapide en score monocoeur !!!) [..]
Je pense que si Apple n’avait pas encore la moitié de sa gamme en x86 ils auraient littéralement crucifié intel dans leur présentation.


C’est un peu ridicule cette utilisation de terme outrancier “lapide”, “crucifié” ; le nouveau CPU est nettement plus performant que les bons Intel, ce n’est pas non plus le jour et la nuit.

votre avatar

(quote:1837052:brice.wernet)
Là je reste dubitatif sur leurs benchs. Je pense que leur CPU/GPU fait jeu à peu près égal avec de bons CPU Intel/AMD - mais pas plus pour les applis dépendantes du CPU. Ils comparent visiblement les résultats de leur GPU à l’ancien GPU Intel, et beaucoup de leurs benchs sont dépendants du GPU.



LA question, c’est quand même le multitâche: 4 coeurs rapides bourins et 4 coeurs lents (moins du tiers/du 4 des perfs visiblement) - que se passe-t-il pendant un calcul lourd?


Les chiffres que donnent Apple au niveau GPU c’est en compute mais pas en FPS



Je pense qu’un Samsung Exynos avec NAVI fera mieux

votre avatar

OlivierJ a dit:


Je fais partie de ceux qui ne sont intéressés quasiment que par la perf mono-coeur, car l’usage courant d’un ordi c’est plutôt du mono-coeur (démarrer, lancer une application, ouvrir une page Web, etc).


Que tu ne lances qu’une seule tâche à la fois ne signifie pas que l’OS n’en exécute qu’une seule à la fois (il suffit de regarder le gestionnaire des tâches pour s’en convaincre).




Je préférais un processeur mono-coeur à 12 GHz qu’un quadri-coeur à 3 GHz, le ressenti serait une fluidité et rapidité géniale.


Tu veux dire que tu préfères un truc qui surchauffe à mort (à la mode du Pentium 4) et qui sera potentiellement moins performant qu’un optimisé à conso raisonnable?
Et le multicoeur apporte de la fluidité justement, même quand on ne lance qu’une appli à la fois… Ca s’est largement vu quand on est passé des CPU monocoeurs aux multicoeurs.

votre avatar

Patch a dit:


Que tu ne lances qu’une seule tâche à la fois ne signifie pas que l’OS n’en exécute qu’une seule à la fois (il suffit de regarder le gestionnaire des tâches pour s’en convaincre).


Mais la plupart des tâches ne font quasiment rien normalement, sauf le programme que tu exécutes ou lances.




Tu veux dire que tu préfères un truc qui surchauffe à mort (à la mode du Pentium 4) et qui sera potentiellement moins performant qu’un optimisé à conso raisonnable?


Je te rappelle que les fréquences des CPU sont passées de 1 MHz à 3-4 GHz sans que ça ne pose problème ; ça n’a pas continué parce qu’on n’arrive pas à dépasser une certaine fréquence depuis des années (ou à la marge ou en surcadençant pour les geeks, mais là aussi la limite ne bouge pas trop), car ça coûterait moins cher de faire un coeur à 12 GHz que 4 à 3 GHz.




Et le multicoeur apporte de la fluidité justement, même quand on ne lance qu’une appli à la fois… Ca s’est largement vu quand on est passé des CPU monocoeurs aux multicoeurs.


Alors non, la fluidité n’a rien à voir avec le multicoeur, un Amiga 500 était très fluide avec un 68000 à sa sortie, ça s’appelle le multitâche et ça a été inventé bien avant l’Amiga 500. Évidemment il faut un multitâche (OS) efficace. Ce que n’était pas Windows pendant longtemps.



Donc en résumé, je rêve bel et bien que la poursuite de la montée en fréquence des processeurs ait pu continuer, et qu’un monocoeur à 12 GHz (ou plus évidemment) existe. Peut-être dans d’autres techniques que le silicium un jour. Ou alors un monocoeur d’une archi quelconque à N GHz mais qui a la puissance d’un X86 à 12 GHz ou plus.

votre avatar

OlivierJ a dit:

>Je te rappelle que les fréquences des CPU sont passées de 1 MHz à 3-4 GHz sans que ça ne pose problème ; ça n’a pas continué parce qu’on n’arrive pas à dépasser une certaine fréquence depuis des années (ou à la marge ou en surcadençant pour les geeks, mais là aussi la limite ne bouge pas trop), car ça coûterait moins cher de faire un coeur à 12 GHz que 4 à 3 GHz.


Je te rappelle que les P4 devaient monter jusqu’à 10GHGz (voire plus), et qu’ils ont à peine réussi à dépasser le tiers, avec difficultés.




car ça coûterait moins cher de faire un coeur à 12 GHz que 4 à 3 GHz.


Tu devrais faire valoir ton expertise auprès d’Intel, AMD ou ARM. Je suis sûr qu’ils seront très intéressés pour t’embaucher, vu le nombre de bras cassés qui ne font qu’augmenter régulièrement le nombre de coeurs au lieu de rester à un seul dans leurs équipes…

votre avatar

Quand tu auras dessaoulé, tu pourras relire la fin de mon commentaire d’avant, je le remets ici vu que t’as du mal à lire et à comprendre :



Donc en résumé, je rêve bel et bien que la poursuite de la montée en fréquence des processeurs ait pu continuer, et qu’un monocoeur à 12 GHz (ou plus évidemment) existe. Peut-être dans d’autres techniques que le silicium un jour. Ou alors un monocoeur d’une archi quelconque à N GHz mais qui a la puissance d’un X86 à 12 GHz ou plus.

votre avatar

Patch a dit:


Je te rappelle que les P4 devaient monter jusqu’à 10GHGz (voire plus), et qu’ils ont à peine réussi à dépasser le tiers, avec difficultés.


Oui je sais bien qu’ils voulaient aller plus loin, et alors ? Le rapport avec ce que je dis ?
(et du coup ils sont repartis avec une autre archi plus efficace - “Core” - avec laquelle ils ont également monté en fréquence jusqu’à une limite un peu supérieure avec les années. Tous les constructeurs montaient en fréquence régulièrement à cette époque)




Tu devrais faire valoir ton expertise auprès d’Intel, AMD ou ARM. Je suis sûr qu’ils seront très intéressés pour t’embaucher, vu le nombre de bras cassés qui ne font qu’augmenter régulièrement le nombre de coeurs au lieu de rester à un seul dans leurs équipes…


N’importe quoi ton commentaire, ça sert à quoi je jouer au con ? :roll:
J’explique qu’on n’a pas d’autre solution que de multiplier les coeurs pour gagner en puissance totale, vu qu’on ne peut plus gagner en mono-coeur comme lors des décennies précédentes (à part à la marge via l’amélioration de l’IPC).

votre avatar

OlivierJ a dit:


Alors non, la fluidité n’a rien à voir avec le multicoeur, un Amiga 500 était très fluide avec un 68000 à sa sortie, ça s’appelle le multitâche et ça a été inventé bien avant l’Amiga 500. Évidemment il faut un multitâche (OS) efficace. Ce que n’était pas Windows pendant longtemps.


Ce qui rend une machine fluide c’est sa puissance brut et l’optimisation de l’os ET des programmes. Tu peut avoir la machine la plus puissante du monde et avoir un os finis avec les pied qui rame ou alors une véritable patate très fluide .



C’est pourquoi depuis plus de 2 mois maintenant j’utilise un PI comme media center. Je le reboot une fois par mois et il met environ 15 seconde à reboot. Si je prend mon laptop qui est théoriquement 4 fois plus puissant il met pourtant 2 minutes à boot et n’est jamais 100% fluide.



Par contre une fois dispo mon laptop peut très bien lancer blender avec une scène un peu lourde la ou mon pi va surement freeze ou crash.

votre avatar

KP2 a dit:


Mais tu parles des mac pro, ensuite des macbook pro ! Arrete de changer de sujet constamment…


Désolé j’ai oublié le mot book dans mon premier commentaire. Mais je supposais que tu aurais compris vu que la news est sur les books.



Je pense que tu à compris mais que tu te sert de ça pour volontairement ne pas répondre à ma question et si tu veut je peut la poser de manière plus générique :



J’ai un “mac book pro” je me sert pour travailler et qui permet d’étendre la ram. La prochaine génération ne proposera plus cette option, comment faire pour avoir donc davantage de ram à un moment donné ?



D’ailleurs, peut t’on encore avoir l’appellation “pro” en ne plus pouvant faire ce genre de manip ?




KP2 a dit:


Aucune CM n’est identique d’une génération de mac à l’autre. Absolument aucune. Donc, non, la réalité montre que la réutilisation de design n’est pas pour demain.


Alors autant je veut bien reconnaitre que je peut être fantaisiste pour certain mais tu devra aussi reconnaitre que tu est extrêmement binaire. Cette pensée binaire de limite et j’aurais tendance à dire que apple s’en sert pas mal pour enfermer les acheteurs. Une fois qu’une personne est enfermée, tu en fait ce que tu veut…



Le danger c’est de créer un courant et qu’ensuite d’autre fassent pareil.




Donc, non, la réalité montre que la réutilisation de design n’est pas pour demain.


Je me demande comment il feront pour réussir à zéro émission de co2 d’ici 2030… Parce que plus l’offre est grande et plus la déclinaison devrait être importante vu que le cpu + gpu + ram sera fait d’une seule “pièce”.



Si je me base sur l’offre actuel mac book pro en choix c’est 2 cpu, 3 de ram et 3 de gpu. Ça leur fait donc 18 chip M1 “ carte mère” différents à produire… Ils ont vraiment intérêt à correctement sizer l’offre.



ps : Ça permet également de ne plus commander de ram chez un “concurrent”.

votre avatar

OlivierJ a dit:



C’est un peu ridicule cette utilisation de terme outrancier “lapide”, “crucifié” ; le nouveau CPU est nettement plus performant que les bons Intel, ce n’est pas non plus le jour et la nuit.


Ben si C’EST le jour et la nuit.
Le M1 permettrait de dépasser les perfs du MEILLEUR processeur pour portables intel avec une consommation inférieure à leurs modèles anémiques pour ultraportables.



Et Il se paye le luxe d’être plus puissant en monocore que tous les processeurs marché (y compris Desktop !!! )



Sur les 20 dernières années l’informatique grand public je ne crois pas me rappeller d’un seul progrès de performances (à plateforme identique) aussi significatif. Et même si j’en oublie, ce gain est vraiment vraiment phénoménal.
Mais nous verrons bien, seul le temps nous dira si mes termes étaient si outranciers ;)



Si 75% de la gamme Mac n’était pas encore sur intel, Apple aurait été bien plus cruel avec intel dans leur conférence, car pour le coup ils ont complètement sous vendu leurs processeurs.



J’aimerais croire que c’est qu’ils ont appris de leurs erreurs mais je pense plutôt qu’ils veulent juste continuer à vendre des MacBook Pro 16 et des iMacs.
Je suis même prêt à parier que la réutilisation des form-factor précédent est temporaire le temps de rompre avec intel et qu’ils feront des changements plus lourds juste après avoir fini la transition.

votre avatar

OlivierJ a dit:


Mais la plupart des tâches ne font quasiment rien normalement, sauf le programme que tu exécutes ou lances.


Petit cours technique: quand ton coeur change de contexte (en passant d’un process à l’autre), il est aveugle: aucune entrée n’est prise en compte. Avec le multicoeur, le problème disparait car l’os s’arrange pour ne pas avoir tous ses coeurs en changement de contexte.
Quand tu as plusieurs threads et pas de coeurs, tes coeurs commutent encore et encore.. entrées usb ratés, irq manquées, etc..
L’hypertheading permet de diviser le phénomène par 2.
C’est le même phénomène qui crame une infrastructure si tu suralloues tes machines virtuelles pour chaque coeur de processeur.



C’est entre autre ce que te garanti un OS temps réel: il n’en rate aucune et réagit en temps.



documentation sur ce phénomène: en.wikipedia.org Wikipedia




OlivierJ a dit:


Donc en résumé, je rêve bel et bien que la poursuite de la montée en fréquence des processeurs ait pu continuer, et qu’un monocoeur à 12 GHz (ou plus évidemment) existe. Peut-être dans d’autres techniques que le silicium un jour. Ou alors un monocoeur d’une archi quelconque à N GHz mais qui a la puissance d’un X86 à 12 GHz ou plus.


5Ghz et quelque est une limite physique qu’ils n’arrivent même pas à compenser par un refroidissement de fou sur les meilleurs puces du wafer. Ils ne s’arrêtent pas par plaisir.

votre avatar

patos a dit:


Petit cours technique: quand ton coeur change de contexte (en passant d’un process à l’autre), il est aveugle: aucune entrée n’est prise en compte. Avec le multicoeur, le problème disparait car l’os s’arrange pour ne pas avoir tous ses coeurs en changement de contexte.


Mais ça ne change rien en pratique, le changement de contexte était déjà “invisible” pour l’utilisateur sur un Amiga avec un 68000 à 7 MHz ; et j’ai oublié combien ça prend sur un ordinateur de maintenant, mais même à l’époque ça prenait bien moins qu’une milliseconde.



Sont marrants les gens (déjà toi et un autre) avec leurs idées originales sur le multitâche ou le multicoeur :-) . Même dans un milieu geek ça m’étonne.




C’est entre autre ce que te garanti un OS temps réel: il n’en rate aucune et réagit en temps.


L’aspect “temps réel” n’a rien à voir avec la rapidité globale de la machine, ou le sentiment de réactivité.




5Ghz et quelque est une limite physique qu’ils n’arrivent même pas à compenser par un refroidissement de fou sur les meilleurs puces du wafer. Ils ne s’arrêtent pas par plaisir.


Merci Captain Obvious. C’est drôle de venir me dire ça après que j’en ai parlé en connaissance de cause.
(je crois d’ailleurs que les records les plus élevés obtenus par des geeks, avec l’aide d’azote liquide, est vers 8 GHz sur certains processeurs)
(PS : wikipedia dit que le record toutes catégories confondues est actuellement tenu par Andre Yang avec 8794.33 Mhz sur un AMD FX-8350, invaincu depuis 2012)

votre avatar

OlivierJ a dit:


Mais ça ne change rien en pratique, le changement de contexte était déjà “invisible” pour l’utilisateur sur un Amiga avec un 68000 à 7 MHz ; et j’ai oublié combien ça prend sur un ordinateur de maintenant, mais même à l’époque ça prenait bien moins qu’une milliseconde.


Le problème n’est pas le temps que ça prends, mais que ce temps là rends le coeur aveugle. Un OS moderne c’est plusieurs dizaines de processeurs minimum.




OlivierJ a dit:


Sont marrants les gens (déjà toi et un autre) avec leurs idées originales sur le multitâche ou le multicoeur :-) . Même dans un milieu geek ça m’étonne.


Non, c’est juste logique. Après, la logique ne plait pas à tout le monde ;) A croire que le monde s’est bien adapté à la logique du multicoeur puisque les combinaisons de coeurs hétérogènes ou homogènes sont variées et toutes efficaces.




OlivierJ a dit:


L’aspect “temps réel” n’a rien à voir avec la rapidité globale de la machine, ou le sentiment de réactivité.


Parfait, c’est exactement ce que j’ai dit ;)




OlivierJ a dit:


Merci Captain Obvious. C’est drôle de venir me dire ça après que j’en ai parlé en connaissance de cause. (je crois d’ailleurs que les records les plus élevés obtenus par des geeks, avec l’aide d’azote liquide, est vers 8 GHz sur certains processeurs) (PS : wikipedia dit que le record toutes catégories confondues est actuellement tenu par Andre Yang avec 8794.33 Mhz sur un AMD FX-8350, invaincu depuis 2012)


De rien. Mais un record c’est fait pour jouer à qui à la plus grosse. Après il y’a la réalité de la vie. Perso, si un processeur ne sort pas dans le commerce à une fréquence donnée, j’estime qu’elle n’existe pas: à quoi bon gagner quelques mhz pour cramer son matos 2 ou 3 ans avant? C’est mon petit côté écolo (j’essaie de le renier mais ça marche pas trop).

votre avatar

patos a dit:


Petit cours technique: quand ton coeur change de contexte (en passant d’un process à l’autre), il est aveugle: aucune entrée n’est prise en compte.


Quelle drôle d’idée de masquer les Interruptions tout le temps qu’un changement de contexte ! Quand on a qu’un seul cœur c’est généralement inutile pour changer de process et on ne le fait qu’un temps très court quand on traite une interruption.




Avec le multicoeur, le problème disparait car l’os s’arrange pour ne pas avoir tous ses coeurs en changement de contexte.
Quand tu as plusieurs threads et pas de coeurs, tes coeurs commutent encore et encore.. entrées usb ratés, irq manquées, etc..


Heureusement que l’on n’a pas attendu des processeurs multicœurs pour ne pas perdre d’IT et traiter à temps les E/S, qu’on a eu des systèmes temps réels avant d’avoir des multicœurs, sinon, je me demande ce que j’aurais fait, moi qui ait quasiment tout le temps travaillé sur des systèmes temps réel.



Mais bon, on savait concevoir un système en fonction de ce qu’il devait traiter, on utilisait des DMA pour que les E/S fonctionnent en chargeant le moins possible les processeurs, on minimisait le temps de masquage des IT au minimum afin de pouvoir prendre en compte une autre IT de priorité plus élevée, Des IT ou des entrées perdues, j’en n’ai jamais vues une fois qu’on avait débuggé le système.




L’hypertheading permet de diviser le phénomène par 2. C’est le même phénomène qui crame une infrastructure si tu suralloues tes machines virtuelles pour chaque coeur de processeur.



C’est entre autre ce que te garanti un OS temps réel: il n’en rate aucune et réagit en temps.



documentation sur ce phénomène: en.wikipedia.org Wikipedia


Cet article est plutôt mal foutu et me semble daté. Et il ne dit rien de ce que tu avances.

votre avatar

fred42 a dit:


Quelle drôle d’idée de masquer les Interruptions tout le temps qu’un changement de contexte !


Les interruptions risquent très fort de faire un changement de contexte dans un OS multitâche protégé: si on est dans un process utilisateur, il va falloir repartir sur un niveau driver/noyau –> changement de contexte pour quelqu’un.




Heureusement que l’on n’a pas attendu des processeurs multicœurs pour ne pas perdre d’IT et traiter à temps les E/S, qu’on a eu des systèmes temps réels …
Mais bon, on savait concevoir un système en fonction de ce qu’il devait traiter, on utilisait des DMA pour que les E/S fonctionnent en chargeant le moins possible les processeurs, on minimisait le temps de masquage des IT au minimum afin de pouvoir prendre en compte une autre IT de priorité plus élevée


… Ce que l’on fait toujours. Mais l’ancien temps ou l’embarqué ne se soucie pas de la sécurité ,encore moins du multicoeurs.
C’est sûr que sur un monocoeur, passer d’un tâche à l’autre se résume presque à changer le pointeur d’instruction puisque rien d’autre ne peut altérer le système si on ne s’en occupe pas.
Avec le multicoeurs … c’est un poil différent.



Mais les DMA existe toujours, les interruptions masquable/non masquables subsistent, le partage mémoire entre processus, …
La différence c’est qu’on a des POC sur le piratage de données via la mémoire des cartes graphiques, donc sur un ordi même quand on passe d’un processus à l’autre, on doit assurer que la mémoire graphique est protégée (ou … vidée, bonjour le temps de context switch)



Pour info, quelqu’un m’a expliqué que début 2000, dans les caméra embarquées pour de la reconnaissance de forme, les processeurs utilisés étaient parfois des équivalents 386DX… Donc on a déjà su faire du traitement vidéo sur 386 aussi.




touitboy a dit:


Ben si C’EST le jour et la nuit. Le M1 permettrait de dépasser les perfs du MEILLEUR processeur pour portables intel avec une consommation inférieure à leurs modèles anémiques pour ultraportables.


Presque OK pour les perfs (le meilleur dépend de ce qu’on souhaite faire), pour la conso, j’attends.




Sur les 20 dernières années l’informatique grand public je ne crois pas me rappeller d’un seul progrès de performances (à plateforme identique) aussi significatif.


D’accord. Surtout qu’il place ces performances qui semblent amplement suffisantes pour la plupart du public (hors joueurs) à un niveau de prix “normal”.




OlivierJ a dit:


Mais ça ne change rien en pratique, le changement de contexte était déjà “invisible” pour l’utilisateur sur un Amiga avec un 68000 à 7 MHz ; et j’ai oublié combien ça prend sur un ordinateur de maintenant, mais même à l’époque ça prenait bien moins qu’une milliseconde.


Comme dit au-dessus: on n’a pas du tout les mêmes contraintes, surtout en monocoeur puisque à part une interruption mal gérée, on n’a besoin de se protéger de rien. On sauvegarde les registres et on passe le pointeur.
Sur un PC, on sauvegarde tous les registres de toutes les unités du coeur (CPU, FPU/MMX, AVX j’imagine), et on doit basculer les tables de mappage mémoire. On vide aussi les différent buffer d’instruction en attente, on donne le signal d’abandonner je pense aux ALU… Je n’ai pas relu, je cite de mémoire et de ce que j’imagine, car avec les différentes failles, on en a ajouté.

votre avatar

(quote:1837191:skankhunt42 )
J’ai un “mac book pro” je me sert pour travailler et qui permet d’étendre la ram. La prochaine génération ne proposera plus cette option, comment faire pour avoir donc davantage de ram à un moment donné ?


Ca fait deja plusieurs génération que c’est le cas pour info.
Si tu achetes un portable mac, tu ne peux pas étendre ses capacités. Voilà.
Si ça ne te convient pas, t’en achetes pas… c’est pas la concurrence qui manque.
Y’a pas de solution idéale.




D’ailleurs, peut t’on encore avoir l’appellation “pro” en ne plus pouvant faire ce genre de manip ?


Bonne question.
Le problème dans cette appellation “pro” est qu’elle regroupe des profils tellement variés qu’elle ne veut rien dire…
Si on parle de pros de l’informatique, on peut imaginer qu’ils changent assez régulièrement de machine donc ce n’est peut-être pas tant un problème que ca.
Si on parle de pros du commerce qui manipulent plutot des tableaux excel et un ERP en Saas, le fait d’avoir 8 Go est amplement suffisant même dans 10 ans.
Si on parle de pros de l’image, on peut aussi imaginer qu’ils changent régulièrement de machine car y’a pas que la ram qui est importante pour eux, le GPU et le stockage le sont tout autant.
Si on parle d’un pro de la comptabilité/RH/que sais-je, on est sur des besoins techniques plus faibles que les particuliers donc, idem, l’upgrade de la machine peut se faire tranquillement lorsque son immobilisation sera finie ou quand elle crèvera…
Bref, tout ça pour dire que changer de la RAM voire même n’importe quelle pièce d’un portable est loin d’être l’alpha et l’omega de la machine du “pro”. J’ai longtemps travaillé en entreprise dans un service IT, je peux t’assurer qu’on a jamais upgradé une machine (quelle soit en desktop ou en portable). Au moindre problème, on la changeait directement avec un modèle récent en stock et roulez jeunesse. Si l’ancienne était réparable, on appelait le support constructeur qui se débrouillait avec et on la gardait dans un coin au cas où mais voilà… C’est ça les “pros”… on bricole pas…
Le bricolage, c’est un truc de particulier. Et de particulier très geek.




Alors autant je veut bien reconnaitre que je peut être fantaisiste pour certain mais tu devra aussi reconnaitre que tu est extrêmement binaire. Cette pensée binaire de limite et j’aurais tendance à dire que apple s’en sert pas mal pour enfermer les acheteurs. Une fois qu’une personne est enfermée, tu en fait ce que tu veut…


Si tu le dis… :roll:




Le danger c’est de créer un courant et qu’ensuite d’autre fassent pareil.


Ah c’est ça le problème pour toi : Apple est un leader qui pousse les autres à faire pareil…
Moi, je vois surtout qu’Apple trace SA voie car il n’a pas peur de faire différemment et les autres constructeurs suivent comme des moutons quand ils voient que les clients achètent et sont contents. Apple est un leader car il innove, pas parce qu’il possède une aura magique particulière.
Et Apple se vautre régulièrement, ça fait les gros titres et tout le monde se fout de sa gueule. C’est le lot des audacieux…



De plus, les moutons ne sont pas les clients… Au contraire, j’ai jamais considéré qu’une personne qui achète un produit très spécifique et en décalage avec la majorité du reste du marché puisse être un “mouton”. Pour moi, un mouton, c’est une personne qui a peur de choisir un truc différent et qui va aller acheter un PC Asus à la Fnac/Darty/Boulanger/Whatever comme tout le monde.




Je me demande comment il feront pour réussir à zéro émission de co2 d’ici 2030… Parce que plus l’offre est grande et plus la déclinaison devrait être importante vu que le cpu + gpu + ram sera fait d’une seule “pièce”.


Il “semblerait” (note les guillemets) que la RAM ne soit pas directement attachée au SoC.
Ca serait un montage à plusieurs niveaux. Un bloc RAM sur lequel est installé le SoC. Le tout dans un boitier unique et scellé. Pour le client, c’est un bloc unique mais d’un point de vue industriel, c’est bcp plus souple.
Et puis, si ils sortent 1 SoC par an avec juste une déclinaison RAM. Ca va faire seulement 3 ou 4 références… C’est peanuts a coté des dizaines de références chez Intel ou Amd.




Si je me base sur l’offre actuel mac book pro en choix c’est 2 cpu, 3 de ram et 3 de gpu. Ça leur fait donc 18 chip M1 “ carte mère” différents à produire… Ils ont vraiment intérêt à correctement sizer l’offre.


What ?
Apple n’a pas 3 GPU et actuellement, il n’a qu’un seul M1. Donc la question se pose pas.




ps : Ça permet également de ne plus commander de ram chez un “concurrent”.


Apple ne vend plus de RAM lui-même depuis plus de 10 ou 15 ans… et ça ne fait “que” 4 ou 5 ans qu’il soude la RAM donc il a bien laissé pendant 5 à 10 ans les clients aller chez un “concurrent” sans aucun problème…

votre avatar

touitboy a dit:




  • Les trois ordis sortis aujourd’hui ont des processeur quasi identiques, pas de variations en fréquences ou d’itérations prévues à ce stade, bon signal.


Je ne serais pas si affirmatif. Le fait que le Macbook Air dispose d’un refroidissement passif (fanless) alors que celui du MacBook Pro est actif (ventilé), et que le GPU du MacBook Air soit décliné en deux versions (7 ou 8 cœurs) indique qu’il y a des différences notables certainement liées au TDP (puisque la fréquence doit segmenter la gamme Air/Pro).



Vivement qu’on ait un peu plus de précisions sur la fiche technique de ce processeur.

votre avatar

Non non, c’est le même processeur pour le Air et le Pro, et il y a déjà un excellent article d’Anandtech qui détaille beaucoup de choses.



La seule variation c’est qu’ils écoulent les puces avec 1GPU défectueux sur les Air d’entrée de gamme (comme ils le faisaient déjà sur les ipad)



Le terme pro n’est que du marketing. Si Apple n’était pas obstiné à nous vendre leur touchbar pourrie ils n’auraient sorti que le Air (avec éventuellement un ventilo comme avant) qui aurait couvert les deux segments.
mais leur but n’est pas (encore) de révolutionner leur gamme.



Le air et le pro se distinguent uniquement par le formfactor (compris batterie & ventilo ou non) et la Touchbar c’est tout … pour 320 € le air est une super affaire.



Vu les premiers benchs, je pense qu’on sera surpris par le faible écart de perfs que le processeur soit ventilé ou non. Reste le throttling mais il sera sans doute très très faible vu le faible dégagement thermique.

votre avatar

patos a dit:


Petit cours technique: quand ton coeur change de contexte (en passant d’un process à l’autre), il est aveugle: aucune entrée n’est prise en compte. Avec le multicoeur, le problème disparait car l’os s’arrange pour ne pas avoir tous ses coeurs en changement de contexte. Quand tu as plusieurs threads et pas de coeurs, tes coeurs commutent encore et encore.. entrées usb ratés, irq manquées, etc.. L’hypertheading permet de diviser le phénomène par 2.


Tu racontes n’importe quoi.
Tout ce que le multicoeur apporte c’est plus de puissance par rapport à un seul coeur, c’est tout.




C’est entre autre ce que te garanti un OS temps réel: il n’en rate aucune et réagit en temps.


Un OS pas temps réel ne “rate” rien non plus. Je rêve de lire des trucs pareils.
Le multitâche ça fonctionne très bien depuis des décennies et ça a été inventé sur mono-coeur :windu: .




patos a dit:


Le problème n’est pas le temps que ça prends, mais que ce temps là rends le coeur aveugle. Un OS moderne c’est plusieurs dizaines de processeurs minimum.


N’importe quoi dans les 2 phrases.




Non, c’est juste logique. Après, la logique ne plait pas à tout le monde ;) A croire que le monde s’est bien adapté à la logique du multicoeur puisque les combinaisons de coeurs hétérogènes ou homogènes sont variées et toutes efficaces.


Heu, hein ?




De rien. Mais un record c’est fait pour jouer à qui à la plus grosse. Après il y’a la réalité de la vie. Perso, si un processeur ne sort pas dans le commerce à une fréquence donnée, j’estime qu’elle n’existe pas: à quoi bon gagner quelques mhz pour cramer son matos 2 ou 3 ans avant


Oui merci un record c’est un record…
Et je ne surcadence pas mes CPU, je n’y vois pas d’intérêt.




fred42 a dit:


Quelle drôle d’idée de masquer les Interruptions tout le temps qu’un changement de contexte ! Quand on a qu’un seul cœur c’est généralement inutile pour changer de process et on ne le fait qu’un temps très court quand on traite une interruption.


Je rêve quand je lis ce qu’il raconte. Enfin ici on a à la fois des gens experts et des drôles de zigottos dont je me demande d’où ils sortent leurs idées.




Heureusement que l’on n’a pas attendu des processeurs multicœurs pour ne pas perdre d’IT et traiter à temps les E/S, qu’on a eu des systèmes temps réels avant d’avoir des multicœurs, sinon, je me demande ce que j’aurais fait, moi qui ait quasiment tout le temps travaillé sur des systèmes temps réel.


:chinois:

votre avatar

(quote:1837244:brice.wernet)
… Ce que l’on fait toujours. Mais l’ancien temps ou l’embarqué ne se soucie pas de la sécurité ,encore moins du multicoeurs. C’est sûr que sur un monocoeur, passer d’un tâche à l’autre se résume presque à changer le pointeur d’instruction puisque rien d’autre ne peut altérer le système si on ne s’en occupe pas. Avec le multicoeurs … c’est un poil différent.


Au niveau de chaque CPU, en multicoeur c’est presque pareil. La différence majeure c’est pour si 2 CPU accèdent au même emplacement mémoire, car ils ont des caches (L1 et L2 sont locaux à chaque coeur) ; il y a donc des mécanismes de cohérence de cache.



Après tu nous sors un laïus sur la sécurité mais ça n’a rien à voir avec les performances du multitâche en mono-coeur. Et rien compris à l’histoire du 386 et de la vidéo, quel rapport ?




Comme dit au-dessus: on n’a pas du tout les mêmes contraintes, surtout en monocoeur puisque à part une interruption mal gérée, on n’a besoin de se protéger de rien. On sauvegarde les registres et on passe le pointeur. Sur un PC, on sauvegarde tous les registres de toutes les unités du coeur (CPU, FPU/MMX, AVX j’imagine)


Mais qu’on soit en mono-coeur ou pas c’est pareil. Et on sauvegardait aussi des registres avec des processeurs en 1980. Actuellement on en sauvegarde plus, sauf qu’on est dans les GHz au lieu des MHz, ce qui fait que le temps de changement de contexte reste négligeable.



Bon sang les gars… L’informatique ça n’est pas né en 2000 (oui je suis né au 20e siècle à l’époque où il n’existait même pas les micro-ordinateurs, et j’ai fait de l’assembleur 8 bits et j’ai vu tous les progrès informatiques depuis plusieurs décennies).

votre avatar

patos a dit:


Le problème n’est pas le temps que ça prends, mais que ce temps là rends le coeur aveugle. [..]



(quote:1837244:brice.wernet)
Les interruptions risquent très fort de faire un changement de contexte dans un OS multitâche protégé [..]


Pour info, un changement de contexte ça prend environ 1 µs (micro-seconde) sur un Ubuntu : https://unix.stackexchange.com/questions/506564/how-long-time-does-a-context-switch-take-in-linux-ubuntu-18-04 . L’article cité en réponse indique 400 000 changements de contexte par seconde…




fred42 a dit:


[..] Heureusement que l’on n’a pas attendu des processeurs multicœurs pour ne pas perdre d’IT et traiter à temps les E/S, qu’on a eu des systèmes temps réels avant d’avoir des multicœurs


(l’article pourrait t’intéresser même si tu as l’air de pas mal connaître)

votre avatar

OlivierJ a dit:


Au niveau de chaque CPU, en multicoeur c’est presque pareil. La différence majeure c’est pour si 2 CPU accèdent au même emplacement mémoire, car ils ont des caches (L1 et L2 sont locaux à chaque coeur) ; il y a donc des mécanismes de cohérence de cache.


La différence majeure dans les context-switch, c’est surtout protection mémoire ou non. Si on change de context, on est censé changer le mapping mémoire (TLB sur les PC). Ca peut coûter aussi. Quand je parlais de multitâche “monocoeur”, je voulais surtout parler des anciens OS monocoeur/monoutilisateur (quelqu’un parlait de l’Amiga).




Actuellement on en sauvegarde plus, sauf qu’on est dans les GHz au lieu des MHz, ce qui fait que le temps de changement de contexte reste négligeable.


1µs x 400000, c’est 4% d’occupation en monocoeur. Certains crient au scandale dans ce cas.



Mais concernant la sécurité, autre source: “With all of the mitigations on earlier CPUs, the context switch time went from commonly around 150 clocks upwards to 600~800”



Le temps de context switch était complètement négligeable il y a 3 ans sur la plupart des PC…




Bon sang les gars… L’informatique ça n’est pas né en 2000 (oui je suis né au 20e siècle à l’époque où il n’existait même pas les micro-ordinateurs, et j’ai fait de l’assembleur 8 bits et j’ai vu tous les progrès informatiques depuis plusieurs décennies).
C’est ce que je dis tout le temps: rien d’inventer quasiment depuis les années 70.


Mais une évolution nette dans les habitudes et les paradigmes: d’OS où les applis étaient ouvertes entre elles (mémoire partagée, ODBC, DDE, ActiveX pour la sphère Ms), on arrive à des conteneurs où rien ne peut communiquer autrement que par des protocoles ultra lourds.



Les moyens et les contraintes ont changés.

votre avatar

KP2 a dit:


Si ça ne te convient pas, t’en achetes pas…


Sauf quand tu est pro, car si ça touche pas au hardware, ça touche pas au software non plus…




Le problème dans cette appellation “pro” est qu’elle regroupe des profils tellement variés


A mon avis le plus simple pour définir pro est machine qui reste allumée entre 6 et 10 heures par jours. Donc surement que ça doit au moins tenir en mode batterie, avec un minimum de tache possible.



Par contre dans du spécifique :




Apple n’a pas 3 GPU et actuellement, il n’a qu’un seul M1. Donc la question se pose pas.


Les anciens mac book pro, il y avait plusieurs déclinaisons. Certains ont besoin plus de ram. C’est 16 go max sur les M1 et 32 go sur les anciens. faut voir aussi pendant combien de temps les soft seront maintenant pour du x86.

votre avatar

(quote:1837309:skankhunt42 )
faut voir aussi pendant combien de temps les soft seront maintenant pour du x86.
Vu les pratiques de Apple qui aime vers dans la douceur, si le M1 ne perce pas, ils vont nous sortir un Rosetta3 qui traduit le ARM en x86 et forcer tout le monde à compiler en ARM seulement “parce que c’est mieux”


votre avatar

Bonne nouvelle pour se dégager de l’infra x86… Ceci dit, ça viens un peu tard et suite a un plantage régulier de mon Mac Mini 2017 (suis à la 3eme carte mère avec, a chaque fois pertes des données, sinon ça ne serait pas drôle vu que tout est soudé…), je vais donc arrêter de donner mes €€€ a Apple pour passer sur… un RPI 4 avec 8Go…. Au moins j’en aurais pour mon fric et ça marchera (n’ayant pas trouvé de vrais solutions alternatives au RPI… satisfaisante).
Même si ce nouveau mac est une bonne nouvelle, pour Apple ça sera sans moi. J’en ai marre de perdre du temps avec des choses qui ont baissé en qualité et aussi en terme de réparabilité.
Car oui en effet tout sur une carte c’est bien, c’est simple. Mais dès qu’un élément déconne : carte poubelle (bravo le GROS déchet électronique) et impossibilité de le réparer…
Finalement très déçu de la tendance au tout proprio…

SoC Apple M1 : un Mac Mini (799 €), des MacBook Air (1 149 €) et Pro (1 449 €)

  • SoC M1 : 16 milliards de transistors et autant de superlatifs

  • MacBook Air et Mac Mini avec Apple M1

  • Un MacBook Pro comme cerise sur le gâteau

Fermer