Connexion
Abonnez-vous

Apple annonce sa puce M4 Pro et de nouveaux Mac mini (12,7 cm de côté)

Apple annonce sa puce M4 Pro et de nouveaux Mac mini (12,7 cm de côté)

La marque à la pomme lance son nouveau Mac mini avec plusieurs déclinaisons de puces M4. Au modèle déjà connu, s'ajoute le SoC M4 Pro qui peut monter jusqu'à 14 cœurs CPU et 20 cœurs GPU.

Le 29 octobre à 17h44

Après les nouveaux iMac avec une puce M4, Apple continue de faire évoluer ses gammes de produits et lance son nouveau Mac mini. Ses mensurations sont de 12,7 x 12,7 x 5 cm (soit 7 cm de moins en largeur et en longueur, mais 1,42 cm de plus en hauteur), pour un poids de 670 à 730 grammes suivant les versions. Apple annonce « une surface réduite de plus de 50 % par rapport au modèle précédent ».

Voici la nouvelle puce M4 Pro

La machine peut être équipée d’un SoC M4 ou d’une nouvelle déclinaison baptisée M4 Pro. Le SoC M4 Pro monte jusqu’à 14 cœurs CPU (10P + 4E) là où le M4 se limite à 10 cœurs (4P + 6E), la différence devrait donc être notable sur les performances, avec 2,5x fois plus de cœurs « Performance ». Les cœurs E sont pour rappel ceux avec une plus grande efficacité énergétique.

Le GPU fait un bond en avant avec un maximum de 20 cœurs, contre 10 pour son grand frère. Sans surprise, le fabricant annonce que « le GPU de la puce M4 Pro est jusqu’à deux fois plus puissant que le GPU de la puce M4 », normale avec deux fois plus de cœurs.

Jusqu’à 64 Go de mémoire unifiée, 273 Go/s de bande passante

Apple annonce que sa puce « M4 Pro prend en charge jusqu’à 64 Go de mémoire unifiée et 273 Go/s de bande passante mémoire […] et prend également en charge le Thunderbolt 5 ». La M4 se limite pour rappel respectivement à 32 Go, 120 Go/s et Thunderbolt 4. Dans tous les cas, le Neural Engine dispose de 16 cœurs, il ne devrait donc pas y avoir de changement entre les M4 et M4 Pro.

Attention, ce sont les caractéristiques techniques maximales, le Mac mini en M4 Pro n’en profite pas toujours. Apple met en avant deux configurations sur sa boutique en ligne : avec 12 ou 14 cœurs CPU et 16 ou 20 cœurs GPU. La mémoire unifiée varie entre 24 et 64 Go sur les versions M4 Pro.

Apple Intelligence, « premier Mac neutre en carbone »

Bien évidemment, on n’y coupe pas : « Le nouveau Mac mini est également conçu pour Apple Intelligence, le système d’intelligence personnelle ». Apple annonce aussi qu’il « s’agit du premier Mac neutre en carbone, avec une réduction de plus de 80 % des émissions de gaz à effet de serre induites par ses matériaux, sa fabrication, son transport et son utilisation ».

La connectique est la même : deux USB Type-C en façade avec une prise jack de 3,5", un port Ethernet (1 Gb/s par défaut, 10 Gb/s en option), une sortie vidéo HDMI et trois Thunderbolt 4 ou 5 suivant le SoC. On retrouve toujours du Wi‑Fi 6E et du Bluetooth 5.3.

Dès 699 euros en M4 ou 1 649 euros en M4 Pro

Le nouveau Mac mini est en précommande dès maintenant et sera disponible à partir du 8 novembre. Comptez au minimum 699 euros pour la version de base (M4 avec 10 cœurs CPU et 10 cœurs GPU, 16 Go de mémoire et 256 Go de SSD), contre 1 649 euros minimum pour profiter de la nouvelle puce M4 Pro. L’addition grimpe à 1 879 euros pour la puce M4 Pro au maximum de ses capacités (14 cœurs CPU et 20 cœurs GPU).

Commentaires (65)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar
Pas de version à 20 cœurs donc ...
votre avatar
Si si : avec un petit billet de plus, en configuration personnalisée.
votre avatar
A voir ce qu'en dira iFixit.
Un Mac sans écran ni batterie, ça me va!
Reste que le ticket d'entrée pour 16Go de RAM et un disque de 256Go, c'est… outch!
votre avatar
Je te laisse regarder le surcoût pour un SSD de 8To sur la version M4 Pro :transpi:
votre avatar
Outch! J'ai le bouton du col qui vient de se planter dans le mur à l'autre bout de la pièce.
Déjà quasi 1.000EUR pour l'upgrade 2To sur l'entrrée de gamme.
C'est probablement leur meilleur geste écolo: inciter à ne pas consommer!
votre avatar
1000€ pour un SSD un peu plus gros ça doit te faire dans les 100 000 € la tonne de carbone évitée.
votre avatar
Neutral Carbon™
votre avatar
Bah pour iFixit il y aura toujours trop de soudé/collé, n’en doutons pas trop. Sur ce genre de format de surcroît, c’est attendu je dirais.
votre avatar
Pour avoir démonté mon vieux Mac Mini pas plus tard qu'hier, il n'y a tout simplement pas de colle. Pour les versions plus récente en Apple Silicone je ne sais pas par contre.
votre avatar
La génération de produit finis aux joints de silicone :p
votre avatar
115€ le port gigabit... Et 5444€ tout pile au maximum des capacités matériel.
votre avatar
Le gigabit est inclus dans le prix non ? Les 115€ c'est pour passer en 10 Gbit/s.
votre avatar
Effectivement
votre avatar
Et c'est toujours la douille pour la version HDMI et la vitesse du ssd entre M4 et M4 pro ? Sur mon M2, impossible d'avoir une fréquence d'affichage correcte en 1600p à cause du HDMI 2.0 (2.1 sur M2 pro), et un ssd bridé à 50% de la vitesse de celui du M2 pro (mais là, même mon ssd externe est plus rapide qu'un ssd interne de M2 pro, pour la moitié du "prix"...)
votre avatar
Pour régulièrement regarder des films en 2160p en HDMI 1.4 , ça passe mais bon en 4K@60fps on est au maxx de la norme 1.4 mais fluide.

Je pense que c'est surtout le SSD qui pêche. Après on peut rajouter du buffer (pris sur la RAM ) sur certains players... et comme un film, ce n'est pas 100% de l'action sans arrêt du début à la fin, le bitrate se calme un peu des fois et le buffer essaye de tenir le coup.
votre avatar
Je voulais parler de fréquence d'affichage, j'ai corrigé mon message.

Le problème est qu'en HDMI, j'ai seulement 30Hz ou un 75Hz bâtard à 1600p, et DaVinci Resolve ne supporte pas ces fréquences et pète un plomb (et mon écran) en quelques minutes.
Et j'utiliserais bien le DP via USB4 mais j'ai qu'un port DP sur l'écran et j'aimerais le garder pour mon PC de jeux 😕

Pour la RAM, mon banquier m'a bien dit : "pas plus de 16Go ou je coupe tout !", donc bof pour le buffer 😂 Mais avec un bon boitier externe, j'arrive à 3000Gb/s en lecture écriture, ça compense le ssd pourri du M2 😅
votre avatar
Est-ce-que tu as essayé de modifier le EDID pour rajouter des fréquence personnalisées ?

Vu que le 75Hz est disponible, il n'y a aucun risque à rajouter du 60Hz.

Sinon il y a peut-être moyen avec un "hub USB-C" pas trop cher d'utiliser les ports USB-C en mode DP mais d'avoir une sortie HDMI quand même. Ça te donnera peut-être accès à d'autres fréquences d'affichage.
votre avatar
Est-ce-que tu as essayé de modifier le EDID pour rajouter des fréquence personnalisées ?
On sait faire ça sur MacOS ????? :ooo:

Pour les achats par contre, j'ai assez donné, entre les câbles HDMI premium, le convertisseur USB4-DP, le KVM DP qui comprends pas le DP via USB4 donc inutile... 😅 Tout ça pour un MacMini 😂😂
votre avatar
C'est MacOS, pas iOS, donc je suppose que ça doit quand même exister un petit software de bricolage pour le faire.
Un tour rapide sur Bing m'envoie vers ça.

Pour la suggestion du hub USB-C, oui je comprends la frustration de l'achat supplémentaire, je mentionnais juste ça parce que ça coute pas très cher (20~30€), et que ça fait bien le boulot pour mes appareils en USB-C (Windows/Linux/Android), et qu'au pire si ça marche pas pour ce cas précis, ça reste un gadget utile à avoir sous la main (c'est compact, donc ça fait très bien mini-dock de voyage).
votre avatar
D’ailleurs c’est très bien que tu mentionnes les fréquences d’affichage et j'aimerai montrer la mesquinerie absolue de certains constructeurs pour gagner encore plus de pognon au détriment de leurs clients.

J’utilise depuis 4-5 ans un Samsung 4K U28E590 avec 3 ports : DP, HDMI1, HDMI2 (écran de moyenne gamme). Ma CM n'a pas de DP, seulement du HDMI.

J’utilise aussi ClickMonitorDDC@Windows qui permet de contrôler directement un écran, cad de changer la luminosité comme si on le faisait avec les menus OSD (On-Screen-Display) avec les doigts, plus pratique avec une souris, ainsi que accessoirement la mise en veille et l' extinction (comme avec les doigts aussi).

Windows lui ne le fait qu’artificiellement pour la luminosité (ça se voit à la conso à la prise), mise en veille & extinction : oui par contre... Il envoie l'instruction.
Bref...(Hors sujet).

Je me suis rendu compte assez rapidement (et confirmé sur des forums) que :

- Port HDMI N° 1 derrière l'écran: permet le contrôle DCC mais le rafraichissement limité à 30 Hz seulement car HDMI 1.4 (et sur le bureau Windows, oui ça se voit à l'oeil nu la fluidité du pointeur).

- Port HDMI N° 2 : ne permet PAS le contrôle DCC mais le rafraichissement est par contre à 60 Hz car HDMI 2.0.

Donc je débranche un coup sur 2 de prise HDMI pour changer de port si je regarde soit un film ou bien soit que je fasse de la bureautique ?

Même la spec technique officielle bien sûr ne le précise pas. Juste « 2 x HDMI » . Seulement quelques commentaires (et pas évident à trouver la réponse) dans des forums spécialisés IT qui donnent enfin la réponse au pourquoi.

Quand on achète un produit, on se base avant tout sur les spécifications techniques officielles de la fiche produit, comme pour 98% des acheteurs, non ? On ne passe pas 1/4h – 1/2h à fouiller dans des forums assez techniques de Geeks à vérifier le type de version de CHACUN des 2 ports HDMI à l’arrière l’écran ? Même pour des geeks… parce qu'un port HDMI, c'est un port HDMI, numéroté 1 ou numéroté 2 derrière l'écran, et puis tant ça rentre bien dedans par derrière, c'est tout bon, non ?

Qui dans l’ensemble de la population va creuser les specs et connait les différences techniques entre HDMI v1.4 vs v2.0/2.1 ?

= > 0,05% ? mais le marketing ne s'est pas privé de communiquer cette info "vitale" aux designers et surtout aux services Achats du groupe.

Bref, au final combien Samsung a économisé de $$ sur chaque écran vendu avec cette pauvre ARNARQUE à 2 balles ?
Bien sûr 99,95% des clients n'ont absolument rien remarqué...

Les specs techniques détaillées (interne) sont dispo à la FNAC et chez Boulanger en magasin ? Non... En ligne ? Non plus...

Honnêtement c'est juste du PUR Mensonge par omission ici.

SAMSUNG… Juste 100% minable ici… :embarassed::cartonrouge::cartonrouge::cartonrouge::cartonrouge::cartonrouge:
.
votre avatar
Wahoo interessant ces fréquences différentes sur les ports !

Ton problème avec le DDC pourrait être que, dans mon expérience, DDC/VCP/MCSS ne marche que depuis le port actif.

Je ne suis pas sûr pour le changement de luminosité "artificiel" sous Windows. Je n'ai rien dans l'UI pour changer ça, par contre quand j'utilise l'API pas de problème, ça change comme dans l'OSD. Pas besoin de drivers. Et quand je monte trop haut l'OSD apparaît pour me dire que là ça va consommer plus.
votre avatar
Quand je boot mon ordi (tout éteint avant) sur le HDMI 2, impossible de régler la luminosité mais du 60Hz @ 4K pour le bureau Windows.
pour le port 1, il est bien bridé à 30Hz en 4K (confirmé sur des forums).

Mesquin et p'tit bras...
:fumer:
votre avatar
Ça me fait penser qu'ils n'ont implémenté VCP que sur un port, mesquin en effet.
votre avatar
A ma connaissance, le changement de luminosité dans Windows est purement logiciel (comme dans un player de movies ou un logiciel photo) et non pas matériel du type OSD comme tu le mentionnes aussi en effet.
.
votre avatar
Je vois vraiment pas à quoi tu fais référence, parce que j'ai jamais vu Windows me proposer de changer la luminosité pour un écran externe.

Sur le PC fixe, le bouton n'existe pas, et sur les PC portables branchés à un écran externe, le bouton est grisé quand je suis sur l'écran externe.
votre avatar
Y'a une icône dans la barre à droite sur les portables, et sur les portables, le changement de luminosité est maintenant en général géré en software, c'est à dire que les touches sont "lues" par l'OS qui envoie des ordres pour changer la luminosité.

Pareil pour la fonction "écran externe", mes portables récents ne supportent même plus l'affichage sur écran externe par exemple dans l'UEFI. Mes PC de bureau ont eu divers comportement mais ça doit venir des cartes graphiques... Affichage sur tous les écrans, affichage sur un ou deux...
votre avatar
Sur portable windows envoie de ordres à l'écran pour changer de luminosité. Quand j'utilise mes memes touches avec un écran externe, ça ne fait rien (mon écran interne est éteint, il est possible que Windows décide que ces touches ne doivent fonctionner qu'avec lui).

Mon soft utilise cette fonction : learn.microsoft.com Microsoft

Comme il est dit il faut que l'écran supporte MCSS. C'est le cas des miens. Mais c'est vraiment hardware, si supporté. Sur certains écrans on peut même simuler les touches de l'OSD.

Ceci dit je ne sais pas comment Windows gère le multi écran (à part "pas"), mon logiciel est fait pour changer la luminosité d'un écran choisi à l'avance, ou de celui où se trouve le curseur souris.
votre avatar
Exact !! Mea Culpa... :yes:

Oui le cas des portables en effet. La liaison physique Ecran - CM se fait en général par du LVDS (Low-voltage differential signaling) et non pas avec du HDMI ou DP (ou peut-être en surcouche logicielle par dessus, je ne sais pas).

J'utilise au quotidien du PC Desktop depuis quelques années déjà avec du moniteur externe donc j'avais zappé - oublié le cas du laptop et de sa liaison interne & directe.

Mais je pense quand même, que vu que sur un de mes 2 ports HDMI de mon écran externe, un logiciel spécialisé n'y arrive même pas, je doute que Windows lui y arrive... pour de l'externe.

Par exemple, changer la luminosité quand on regarde un film sur une TV branchée à un HTPC, soit dans le player ou dans les paramètres Windows, ce n'est que changer artificiellement la valeur "luminosité" des infos/ pixels qui envoyées à la TV, et non pas la luminosité des LED qui sont dans la TV (comme le ferait une télécommande par contre).

Pour info et pour l'avoir mesuré moi même, sur ma TV 55" LCD (2016) entre :

1 - Luminosité Min (on voit quasi plus rien)
et
- Luminosité Max (le soir, ça , ça explose les yeux),

on passe de 25W à 125W à la prise soit x5 plus d'énergie consommée pour le même appareil...

Bon je vais faire des tests ce weekend au wattmètre et en utilisant seulement les options de réglages de Windows pour les 2 ports HDMI de mon monitor Samsung... Je serai bien fixé.
:fumer:
votre avatar
Ils ont du faire l'impasse du support VCP/MCSS sur ton 2ème port je pense. Je n'ai jamais trop essayé je me sers rarement de plusieurs ports, j'ai juste utilisé du VCP pour changer l'entrée d'un écran pour me rendre compte que je ne pouvais plus changer ça quand l'écran était sur l'autre port (oui il faudrait envoyer la commande depuis l'autre PC).

Je suis passé de 3xTN + 3XIPS qui tiraient au total plus de 120W à 6xIPS qui consommaient 60W au total y'a pas loin de 10 ans. Cette année je suis passé à 1 seul 40" qui consomme... 20W. D'après ses specs il doit consommer 80W typique 88W max. La plupart du temps c'est luminosité 0 et contraste 30.

Pour regarder des films, c'est 50 contraste, 100 luminosité.
On peut utiliser les mêmes réglages pour bosser, c'est ce que j'appelle le mode "bronzage".
Jusqu'à mon dernier écran, tous les écrans que j'ai acheté étaient livrés en mode bronzage.
votre avatar
C'est juste que j'aimerai contrôler la luminosité directement de mon moniteur sans aller dans les menus OSD avec le bouton à l'arrière pas pratique et 3 niveaux de menu avant d'y arriver et en même pouvoir profiter du 60Hz sur le bureau (en 2024, 60Hz c'est pas demander grand chose).

Non... Impossible... soit l'un soit l'autre... Il faut choisir sa prise HDMI...

Sinon j'ai cherché, rien trouvé sur "MCSS" ... mais uniquement sur le protocole DCC (Display Data Channel) ici.

J'imagine que c'est en fait la même chose.
.
votre avatar
Ton lien Wikipedia parle de MCSS (dans la section DDC/CI). MCSS passe par DDC.
La spec la plus récente que j'ai est celle-ci : https://milek7.pl/ddcbacklight/mccs.pdf

Tu pourrais essayer de brancher les 2 entrées à ton PC, et essayer divers options (ne pas utiliser, étendre, mirroir...).
Du coup tu utiliserais l'entrée 60 Hz sur ton écran et tu enverrais les commandes à l'autres entrée.

NirSoft a un logiciel qui permet d'explorer ce que ton écran supporte de MCSS/VCP, peut-être qu'il pourrait faire mieux que ton autre logiciel.
votre avatar
Je n'ai qu'une seule sortie HDMI sur ma CM car pas de carte graphique mais un simple Ryzen 5700G (et je l'aime ce 5700G).

Je n'ai pas testé le DP. J'ai bien un adaptateur HDMI < = > DP et donc pouvoir connecter le port HDMI-CM sur le DP-SAMSUNG mais la logique voudrait que ça ne doit pas résoudre le problème.

Il faudrait que j'aille quand même finir par m'acheter un câble DP < = > DP pour test.

(oui je sais, un peu neuneu là dessus, la flemme, peut-être, sans doute, sûrement en fait...)
:fumer:
votre avatar
Oh oui en bas de l'article, c'est bien mentionné... :yes:

Lu trop vite...:incline:
votre avatar
Ha oui mais si on commence à rentrer dans ces mesquineries marketing, on n'a pas fini ! Apple est bien connue pour ça, mais ça n'empêche pas qu'énormement de boites profitent du moindre petit truc a gratter, tant que la majorité s'en fout tout va bien 😁
votre avatar
apple.com Apple dans la section "Affichage".

Il y a une feinte avec le TB4/TB5 qui fait du DisplayPort 1.4 ou 2.1, mais le HDMI à l'air identique.
votre avatar
Oui lu et relu, mais si je veux aller en HDMI sur mon écran (un seul DP disponible pour mon PC de jeux), c'est mort, sauf si j'avais pris un M2 pro 😕
votre avatar
J'ai vraiment hâte de voir les tests poussés par ce que cette partie m'interroge aussi
votre avatar
579€ pour les étudiants, imbattable.
D'après la communication d'Apple, il est 6x plus rapide en montage vidéo qu'un PC au même prix.
votre avatar
Pas sûr qu'énormément d'étudiants fassent du montage à donf...
.
votre avatar
un pc de même taille je suppose ?
car pour 600€ on a des PC avec un GPU dédié, donc en montage vidéo il doit être bien devant.
votre avatar
Non, ils comparaient à un PC tout court.
l
votre avatar
Surtout les softs de montage à 98% sont des bouffeurs de ram (seulement 1 ou 2 softs pro sont capable d'utiliser la puissance de la carte graphique).
votre avatar
6x plus vite que celui-ci? https://www.lenovo.com/fr/fr/configurator/cto/index.html?bundleId=12RQCTO1WWFR1

C'est le même prix. Que Apple soit plus rapide, pas de soucis. Mais je continuerai à prendre ce genre de machine plutôt (le prix peut être baissé en supprimant l'OS: -60€).

Sans compter que j'imagine que pour avoir le 6x plus rapide en montage, il faut adobe premiere, pas shotcut ou openshot ... Ca change aussi un poil le prix.
votre avatar
Et encore, il faudra comparer avec les zen 5.
votre avatar
Effectivement c'était *jusqu'à 6 fois plus rapide

La config en question :

"Tests réalisés par Apple en septembre et octobre 2024 sur des prototypes de Mac mini équipés de la puce Apple M4 avec CPU 10 cœurs, GPU 10 cœurs, 16 Go de RAM et un SSD de 256 Go ainsi que sur des PC prêts à la commercialisation équipés d’un processeur Intel Core i7 avec carte graphi­que Intel UHD Graphics 770, 16 Go de RAM et un SSD de 512 Go, et de la toute dernière version de Windows 11 Famille disponible au moment des tests. Performances de la fréquence d’images du jeu No Man’s Sky (Build ID 13259642) testées à une réso­lution de 2 640 x 1 440 en mode Qualité Standard avec MetalFX réglé sur Performance et la fréquence d’images limitée à 240. Affinity Photo 2 v2.5.4 testé à l’aide du banc d’essai intégré version 25000. Adobe Lightroom Classic 13.5 testé à l’aide d’une image de 89,2 Mo. Adobe Premiere Pro 2024 v24.6.1 testé avec Détection du montage de scène à l’aide d’un projet de 3 minutes et 27 secondes avec des ressour­ces H.264 à une réso­lution de 3 840 x 2 160 et une fréquence de 30 images par seconde. MotionMark 1.3.1 testé avec une préversion de Safari 18.1 sur macOS Sequoia. PC de bureau le plus vendu dans la même gamme de prix selon des données commerciales rendues publiques au cours des douze derniers mois."
votre avatar
Par contre, si espaces & paragraphes pour éviter un GROS bloc morceau de texte à lire...

Appréciable... :yes::bravo:
votre avatar
AMD Ryzen 3 8300GE : 13846 sur PassMark
Apple M4 10 Core : 25080

iGPU 3x plus performant.
Connectique Thunderbolt 4
Sortie casque haute indépendance
Boitier aluminium
Alimentation intégrée
Totalement silencieux

C'est le jour et la nuit entre ces deux machines.

Le Mac Mini permet de faire de l'éditing vidéo en 4K et de la retouche photo sans broncher, le tout dans un silence total. Le Lenovo est suffisant pour de la bureautique, à la limite un peu de programmation, mais pas plus.

Certes, la majorité des acheteurs n'exploitera pas la toute puissance du M4, mais qui peut le plus peut le moins.
votre avatar
"AMD Ryzen 3 8300GE : 13846 sur PassMark"
Le lien n'a pas gardé la config. POur être sur le même prix (699€) j'avais choisi un 8500GE - passmark: 22195, c'est déjà plus proche.
Sur cinebench il reste 30% sous le M4 en single et multi.

Pour un peu plus cher que le M4, le 8600GE est un meilleur choix (avec IA).

"Le Mac Mini permet de faire de l'éditing vidéo en 4K et de la retouche photo sans broncher, le tout dans un silence total. Le Lenovo est suffisant pour de la bureautique, à la limite un peu de programmation, mais pas plus."

Je ne nie pas que le M4 soit une bête, et un ordi très silencieux et très classe. Qu'il soit 6x plus rapide - en comparant à un Intel HD770 sur de la photo/vidéo certainement pas mal basé sur le GPU, je n'en doute pas.

Vu ce que je fais avec un 4650GE, je pense qu'on dépasse la bureautique de base :) (jeu, dev, rendu 3D et montage). Ayant eu un NUC avant, les NUC sont très limités face à ces PC qui sont en perf généralement beaucoup plus proches de la tour que d'un portable.

Et le mac mini n'est pas cher, mais il est totalement dans les eaux de ces mini PC qui ont aussi plein d'avantages: extensibilité (le mien a 1To de stockage en second disque et 16Go de RAM supplémentaires ajoutés après, 6 ports USB, 3 sorties vidéo avec la carte à 15€), garanti 3 ans de base - intervention à la maison (testé).

Bref, c'est cool d'avoir le choix, mais je ne panse pas du tout que les mac mini mettent tous les PC indéniablement au placard. C'est juste que la concurrence PC est assez peu connue.
votre avatar
"à la limite un peu de programmation"

Un peu mais pas trop ? C'est où la limite entre "un peu" et "ça c'est trop ?"

Heureusement que les développeurs / programmeurs n'ont pas attendu un CPU 4 coeurs@4Ghz pour faire de la programmation...

Je me rappelle d'une caricature @ la Flock il y a une vingtaine d'années:
Un programmeur de jeu vidéo, plus que lui tout seul dans les bureaux, dans le noir, les yeux explosés @ 3h du mat, toujours devant son écran et qui finit par gueuler :

" Et puis merde à la fin, le matériel suivra bien " (ou pas des fois...)


A mon époque, l' IDE de TurboPascal de Borland (Integrated Development Environment) tournait très bien sur un 386DX@33Mhz, pas 4000Mhz, 33Mhz...

Il parait aussi que Bill Gates avait piqué une grave crise de nerf sur son CTO (Chief Technological Officer) à l'époque (véridique) :

Bill: "- Pourquoi notre Pascal à nous, il rame autant !?? "

CTO: "- Ben chez Borland, ils ont tout écrit en Assembleur de A à Z aussi..."

Borland est mort depuis bien longtemps, Microsoft par contre est la 2nde-3ieme valorisation financière la plus importante dans le monde, mais tous les 2 dont le job/la mission est (était) de pondre du code. Juste pas les mêmes choix stratégiques.

Tout comme le CP/M était technologiquement largement plus en avance que le DOS... (Multi-Users & Multi-Tasking... en 1984... sur un PC !)
Le CP/M, il est mort lui aussi... d'ailleurs ainsi que son créateur, dans une chute d'escalier dans un bar, portant ce soir là un blouson en cuir de motard "Harley-Davidson", détail pour pourrait expliquer sa chute "accidentelle" mais jamais prouvé malgré certains indices de la Police).

Bill Gates lui avait rendu hommage d'ailleurs peu après ( et aussi après avoir repompé un max de ses idées pour son PC/DOS...)
Bref... digression... désolé).
:fumer:
votre avatar
Il tournait aussi sur mon 286 @ 16 Mhz...
IDE très rapide, la compilation, bah, difficile de comparer. Peut-être plus rapide que Turbo-C je ne me souviens plus.

Une discussion qui revient régulièrement ici... on a juste des softs de plus en plus lourds (éventuellement sur des VM de plus en plus lourdes, Java, .NET, tout ce qui fait tourner du JS...)
votre avatar
286@16Mhz !!??

Un de mes amis de lycée (et toujours mon meilleur pote depuis cette époque là) avait lui un Kinetec (la boîte est morte elle aussi), donc un PC Kinetec 286@16Mhz et son PCSHELL à lui, il avait une grosse grosse patate, comparé à nous autres, en trotinette 8086/8088...

La vache... P'tain ! C'était y a 35 ans déjà !

:pleure::pleure::pleure:
votre avatar
Oui... D'ailleurs je ne suis plus sûr... 12 ou 16 ? Avec un soft qui permettait (je ne sais pas comment, de toute évidence par contrôle du hard) de booster la fréquence (sûrement de 12 à 16).

Ceci dit il avait quand même 2 Mo de RAM (pas d'origine) hein ! (Assez inutiles en général, à part pour himem.sys et essayer de charger un max de trucs au dessus des 640 ko)

Les choses ont changé en 35 ans ! Pas toujours en mieux d'après moi ("obligation" d'écrire du code efficace vs énorme gaspillage par des programmes écrits avec les pieds)
votre avatar
Désolé, je me suis mal exprimé en écrivant

"286@16Mhz !!??"

Je voulais dire : " non, argh pas possible !!? ? Toi aussi t'avais un 286 comme mon meilleur pote au lycée !!"
:yes:

et le jeu entre nous qui consistait à celui qui avait écrit le meilleur autoexec.bat pour dépasser 610Ko de RAM dispo...(la séquence dans le fichier avait son importance...)

Que des heures perdues pour ce qui est des futilités qui n'ont plus aucun sens maintenant... mais c'était marrant... quand on est jeune...

Juste pour remettre en perspective, un jour on avait essayé de lancer un jeu de simulation d'hélicoptère sur son 286.
Le programme a planté juste avant de s'exécuter.
Le message d'erreur, même à l'époque, nous avait fait bien rigoler quand même :

"Not enough memory, 1KB extra required"

1KB de libre qui manquait dans les 640KB

et maintenant on ne compte même plus en KB, même en MB mais en GB de RAM...

Gordon Moore (en plus de sa célèbre loi) avait dit aussi (milieu des années 90 déjà):

"Si l'industrie automobile avait évoluée aussi rapidement que celle des semi-conducteurs, vous auriez une voiture qui roule à 2000km/h, coûterait quelques US dollars seulement et tous les soirs en rentrant chez vous, vous jeteriez votre voiture à la casse pour en racheter une meilleure le lendemain matin..."
:fumer:
votre avatar
C'était quoi ce jeu ? Comanche ?
Je faisais des autoexec/config.sys à menu pour avoir plusieurs configs, mais s'il fallait vraiment de la mémoire, c'était disquette de boot Ms-Dos 3.3 avec clavier en qwerty.
votre avatar
P'tain !!! MAIS OUI !!! C'était celui là !!!

La vache !! Ça met revenu instantanément en mémoire en lisant ta réponse !!!

CHAPEAU BAS !!!!

:incline::incline::incline::incline:
votre avatar
Je n'étais pas aussi expert... Et jamais essayé ou pensé aussi à downgrader en 3.3, toujours resté sur LA 5.0 , qui à l'époque était LA star et version majeure et qui a finit par enfoncer ou défoncer plutôt toute autre forme de concurrence...

Ensuite la 6.0 a finit le taff en s'asseyant définitivement dessus sur tous les moribons qui respiraient encore un peu...
Bye Bye Digital Research...
:fumer:
votre avatar
Nous on a commencé sur 3.3 donc le downgrade était assez facile. Je crois qu'on est passé direct au 6, le 5 on l'a eu plus tard. Et 6.22 était une motivation majeure pour booter sur 3.3, il utilisait pas mal de RAM.

DR-DOS ? Je dois toujours avoir la boîte du 8 quelque part, on a eu PC-DOS 7 aussi, jamais trop vu la DIFFÉRENCE. Wikipedia dit qu'il n'y en avait pas vraiment.

Ceci dit MS-DOS est le seul sur lequel j'ai programmé je crois, même si je pense que les autres devaient avoir une int 21 compatible autant que possible.
votre avatar
Je t'invite à lire les 2 liens en fin de mon post.

Moi je connaissais pas vraiment, je l'ai découvert juste il y a une dizaine années, et comme tu es aussi de cette époque apparemment, ça devrait t'intéresser :

l'histoire du CP/M et de son créateur :
Gary Kildall.

Si il avait fait l'effort de négocier un peu plus "cool" avec IBM en 1981, le monde de l'informatique serait sûrement très différent en 2024, avec une boîte qui s'appelait Microsoft morte et disparue depuis déjà bien longtemps. Mais à $250 contre $50 un MS-DOS, quasiment personne n'a acheté malgré une comptabilité multi plateforme.

Le système pouvait faire du multi user & multi tasking sur un simple PC en 1984 ! (64Ko mini).

Gary Kildall était clairement plusieurs niveaux au dessus de Bill Gates ( Williams Gates III qui lui a pourtant obtenu 600/600 à l'examen du SAT... environ seulement 300 étudiants par an aux US arrivent à atteindre un 600/600).

Kildall est le 1er programmeur a avoir écrit un dé-assembleur,- en plus du CP/M qu'il a écrit quasiment tout seul-, un dé -assembleur est mathématiquement complexe car il n'y a de bijection parfaite entre du code assembleur & du code de plus haut niveau...

Quand Gary Kildall est décédé à 52 ans, apparemment à cause d'une altercation dans un bar, Bill Gates lui a rendu hommage quelques jours plus tard , reconnaissant qu'il était réellement LE génie de la micro informatique de son époque.

Des fois on se prend à rêver au Multiverse de Marvel quand on lit ce genre d 'histoire...

Dommage...

CP/M

Gary Kildall

:pleure:
votre avatar
Oui, ils auraient dû la mettre dessous aussi.
Edit: Je veux dire: un peu comme les prises manettes de l'atari ST.
Edit2: Bien sûr que c'est une blague à tiroir, on est Jeudredi.
votre avatar
Je vois qu’il y a un connaisseur ici. :yes: :tchintchin:

2 fois (déposer - récupérer) un Samedi après-midi, mes parents ont dû m’emmener et faire 2 x 2 x 40km (~ 3h pour un 1 aller-retour porte à porte) pour aller au magasin qui était en plein centre-ville d’une grande ville pour faire réparer la (revenez dans 15 jours) ces p"tains de soudures de ports joystick d’un ATARI 520 STE… (à cause d’un design tout pourri et aussi car les joysticks lâchaient trop souvent et rapidement au passage, brancher-débrancher…).

En récupérant l’engin réparé, ils m’ont offert 2 petites rallonges de 10cm de long… Pas bien longues les rallonges mais largement suffisantes pour eux pour ne perdre encore plus tard 2 Samedi Après-midi « pour rien », surtout vu la tête de mon père :
« - C’est quoi un port DB9 de joystick ? Et c’est vraiment utile ça ? »

« - Ben oui évidemment Papa !!! ».

(C’était il y a 35 ans environ déjà... quand j'avais 15 ans )
:pleure: :pleure:
votre avatar
Des rallonges ? Je me trompe ou c'est pour faire moins de cycles connexions/deconnexion sur le port ? Je commence à faire avec l'USB-C, en préventif.
votre avatar
Oui, exactement pour ça. Pour éviter de brancher - débrancher les joysticks dont les prises étaient sous l'ordi dans un renfoncement, et comme on ne voyait rien de ce que l'on faisait (sauf à tout débrancher & retourner l'ordi à chaque fois) , et bien on tatonnait & on bourrinait pour que ça finisse par rentrer... sauf que les soudures sur la CM... à la fin... HS...

Bref un design pas vraiment intelligent...

D'ailleurs après, sur les modèles suivants, ATARI avait rajouté 2 ports joystick supplémentaires mais cette fois ci sur... le côté de l'ordi... là où on voit bien comment les brancher, cad en pleine lumière...
:fumer:
votre avatar
La plupart des utilisateurs doivent utiliser des casques à brancher/débrancher plutôt que des enceintes, d'où ce choix.
votre avatar
Pour le jack qui est derrière, ben le fil de mes écouteurs, ben il est trop court... Donc design vs practicalité...

De toute façon, pas grave, j'ai enlevé le boitier de la tour, retourné la carte mère vers moi, le tout posé sur un vieux tapis de souris et maintenant ça prend beaucoup moins de place et ça respire beaucoup mieux aussi...

Après certaines sociétés - ou certains gurus - ne supportent pas de voir un port de connexion enlaidir le design pur et unique de leurs produits et ont exigé de le cacher et masquer.
Exemple : sur certaines souris « haut de gamme », le port USB a été relégué EN-DESSOUS de la souris… (comme sur un ATARI ST mais en pire...)

« -Mais on fait comment pour bosser quand ça recharge ? »

« -On va prendre 20min de pause à la machine à café car plus de souris, mais attention, seulement une fois par mois pour la recharge d’après le manuel...
(pas pour un pause-café 1 fois par mois seulement, heureusement ! )

Steve J. l' avait exigé comme ça... Donc bon...
:fumer:

Apple annonce sa puce M4 Pro et de nouveaux Mac mini (12,7 cm de côté)

  • Voici la nouvelle puce M4 Pro

  • Jusqu’à 64 Go de mémoire unifiée, 273 Go/s de bande passante

  • Apple Intelligence, « premier Mac neutre en carbone »

  • Dès 699 euros en M4 ou 1 649 euros en M4 Pro

Fermer