Connexion
Abonnez-vous

SPOILER : une nouvelle faille sur les processeurs Intel, depuis l’architecture Core

SPOILER : une nouvelle faille sur les processeurs Intel, depuis l'architecture Core

Le 06 mars 2019 à 09h45

Depuis la découverte et la publication des brèches Meltdown et Spectre, d'autres variantes ont régulièrement fait surface. Aujourd'hui c'est au tour de SPOILER (Speculative Load Hazards Boost Rowhammer and Cache Attacks) de faire parler d'elle. Son principe est détaillé par sept chercheurs du Worcester Polytechnic Institute (États-Unis) et de l'université de Lübeck (Allemagne) dans ce document.

SPOILER est décrit comme « une nouvelle approche permettant d'obtenir des informations sur les adresses mémoires physiques en exploitant une nouvelle fuite d'informations due à une exécution spéculative ». Elle ouvre ainsi la voie à d'autres attaques comme le martèlement de mémoire.

« Les failles décrites dans le présent document permettent aux pirates de lancer des attaques existantes plus efficacement ou d'en concevoir de nouvelles », expliquent les chercheurs dans leur publication.

Tous les processeurs Intel depuis la première génération Core seraient impactés selon l'équipe à l'origine de cette découverte. Ils ont mené des tests sur des CPU Kaby Lake, Skylake, Haswell, Ivy Bridge, Sandy Bridge, Nehalem et Core. Par contre, les « processeurs ARM et AMD analysés ne présentent pas un comportement similaire ».

Intel a été prévenu le 1er décembre et en a accusé réception, mais visiblement sans donner de suite. « Nous nous attendons à ce que les logiciels puissent être protégés contre de tels problèmes en utilisant des méthodes de développement résistantes aux attaques par canal auxiliaire », explique aujourd'hui le fondeur à Phoronix.

Le 06 mars 2019 à 09h45

Commentaires (25)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar

« Nous nous attendons à ce que les logiciels puissent être protégés

contre de tels problèmes en utilisant des méthodes de développement

résistantes aux attaques par canal auxiliaire »



Traduction:



“On préférerais que les développeurs implémentent de lourdes solutions logicielles à nos problèmes de matériel, comme ça au moins ça ralentira aussi si vous tournez le soft sur un processeur AMD, ce qui nous arrangerait pas mal commercialement.”

votre avatar

C’est clairement ça… :/



Cela dit c’est assez effrayant toutes ces failles de conceptions.

Je me demande ce qui a pu changer pour que les ingénieurs arrivent maintenant subitement à trouver toutes ces failles? :??:

votre avatar







Burn2 a écrit :



C’est clairement ça… :/



Cela dit c’est assez effrayant toutes ces failles de conceptions.

Je me demande ce qui a pu changer pour que les ingénieurs arrivent maintenant subitement à trouver toutes ces failles? :??:





Procure toi le CanardPC Hardware avec le dossier sur Intel, ça va t’apporter des réponses…



L’archi Core a sauvé Intel d’une faillite technique atteinte avec Nahalem. Mais cette évolution s’est faite en boostant notamment les prédictions de branchement et les registres OOO. D’après ma maigre culture CPU, les archi actuelles sont performantes en partie grâce au moyens d’anticiper les calculs et les résultats.



Mais ça introduit nécessairement des failles quand tu as quelqu’un qui va “spoofer” et bluffer le CPU en lui envoyant des instruction spéciales, et au lieu de planter/bloquer/ignorer l’instruction, il va répondre des données d’un autre process ou d’une mémoire non accessible au processus…


votre avatar







ragoutoutou a écrit :



« Nous nous attendons à ce que les logiciels puissent être protégés

contre de tels problèmes en utilisant des méthodes de développement

résistantes aux attaques par canal auxiliaire »



Traduction:



“On préférerais que les développeurs implémentent de lourdes solutions logicielles à nos problèmes de matériel, comme ça au moins ça ralentira aussi si vous tournez le soft sur un processeur AMD, ce qui nous arrangerait pas mal commercialement.”





Bon résumé.


votre avatar

Moi qui regarde en ce momment pour une nouvelle config, je pense que je vais regarder du coté AMD malgrès leur dégagement calorifique un peu trop élevé à mon goût.

votre avatar







choukky a écrit :



Moi qui regarde en ce momment pour une nouvelle config, je pense que je vais regarder du coté AMD malgrès leur dégagement calorifique un peu trop élevé à mon goût.







Franchement sur les derniers proco intel, le dégagement calorifique ne me parait pas meilleur du tout, notamment sur le haut du paquet ( 9700k et 9900k ). J’ai un R7 2700X, j’ai appliquer un offset de -0.1V  vu qu’AMD est apparemment trop généreux en voltage pour assurer la stabilité.  Ca tourne comme une horloge !



Du coup même avec un ventirad d’origine ça ne chauffe pas, et le XFR2 est bien plus efficace pour booster les fréquences quand y’a besoin.


votre avatar

La prédiction de branchement est un mécanisme assez ancien, avec une bonne littérature scientifique et des algorithmes de référence. Malheureusement, pour aller plus vite, Intel  n’a pas  implémenté certaines parties des algorithmes relatifs à la protection de mémoire, pour booster l’IPC.

votre avatar







linkin623 a écrit :



Procure toi le CanardPC Hardware avec le dossier sur Intel, ça va t’apporter des réponses…





C’est dans quel numéro s’il-te-plaît ?


votre avatar

Est-ce que c’est la même chose pour AMD?



Si mes souvenirs sont bons, leurs CPUs étaient vulnérables à Spectre…



(de toute façon, je passe à Zen 2 dés que c’est dispo, hein <img data-src=" />)

votre avatar







ragoutoutou a écrit :



La prédiction de branchement est un mécanisme assez ancien, avec une bonne littérature scientifique et des algorithmes de référence. Malheureusement, pour aller plus vite, Intel  n’a pas  implémenté certaines parties des algorithmes relatifs à la protection de mémoire, pour booster l’IPC.





Grosse boulette de la part d’Intel. On le paye cash aujourd’hui.


votre avatar

Merci pour l’explication car je l’ai comprise

votre avatar







linkin623 a écrit :



Procure toi le CanardPC Hardware avec le dossier sur Intel, ça va t’apporter des réponses…





+1000



Un excellent article qui explique comment le bateau Intel prend l’eau de toutes parts dans un marché où la concurrence fourbissait silencieusement sa réplique…

M’est avis que le commandant de bord Brian&nbsp;Krzanich, s’est très bien arrangé sa sortie laissant son ‘Concordia’ sombrer dans les récifs…


votre avatar

le numéro 31 ?

votre avatar







durthu a écrit :



le numéro 31 ?





Yep !edit : arf ! grilled, je n’avais pas vu ton lien.&nbsp;<img data-src=" />


votre avatar

Amd a un peu moins pris des raccourcis, mais ils se font aussi rattraper sur certains points.



Le gros problèmes de l’industrie est que pendant des décennies elle&nbsp; a considéré que la sécurité était principalement un problème logiciel.



Pour info, le problème technique d’interférence par rangée sur la mémoire est connu depuis plusieurs décennies, et a été exploité pour la première fois sur de la&nbsp; DDR3 en 2014…



Nous ne sommes pas face à un nouveau problème, juste un ancien problème qui continue à dégénérer faute de volonté de certains acteurs à considérer que c’est leur problème.



Étape suivante un patch noyau qui ralentis les opérations mémoire pouvant provoquer des problèmes d’interférence électrique… à défaut de régler le problème au niveau du contrôleur.

votre avatar







Gilbert_Gosseyn a écrit :



Grosse boulette de la part d’Intel. On le paye cash aujourd’hui.





Boulette? Oui et non vu que l’archi core existe depuis 2006 et que les failles sont découvertes que maintenant.

C’est plutôt le fait qu’intel tire l’archi core en longueur qui est gênant car si intel avait déjà remplacé l’archi, ce qui n’aurait pas été absurde après autant d’années, on n’entendrait peut être pas parler de ces problèmes.


votre avatar

<img data-src=" /> C’est pas faux. Je vais regarder ça d’un peu plus près. <img data-src=" />

votre avatar







mightmagic a écrit :



Boulette? Oui et non vu que l’archi core existe depuis 2006 et que les failles sont découvertes que maintenant.

C’est plutôt le fait qu’intel tire l’archi core en longueur qui est gênant car si intel avait déjà remplacé l’archi, ce qui n’aurait pas été absurde après autant d’années, on n’entendrait peut être pas parler de ces problèmes.





Si c’est une grosse boulette car les machines (surtout serveurs) ne sont pas remplacées avant plusieurs années. Va dire à l’entreprise moyenne “oh ben en fait, vous allez rigoler, on vous a vendu des trucs buggués en 2018-2019 et faut tout remplacer pour votre sécurité et celle de vos données” …


votre avatar







Gilbert_Gosseyn a écrit :



Si c’est une grosse boulette car les machines (surtout serveurs) ne sont pas remplacées avant plusieurs années. Va dire à l’entreprise moyenne “oh ben en fait, vous allez rigoler, on vous a vendu des trucs buggués en 2018-2019 et faut tout remplacer pour votre sécurité et celle de vos données” …





Ben non ce n’est pas une boulette parce des bugs dans les cpus, il en existe depuis toujours.

Ces problèmes de sécurité ont été trouvés que récemment par des boites spécialisés dans le domaine donc c’était peu probable qu’intel puisse savoir que ça en soit un il y a 15 ans quand ils travaillaient sur l’architecture. une boulette c’est quelque chose que tu peux éviter. Là, c’est clairement un truc inévitable car sinon toutes les boites travaillant sur les problèmes de sécurité auraient trouvé ces failles depuis longtemps.



Et puis, va dire ça à tous les ordis qui se trimballent windows depuis 30 ans et qui continue d’avoir des mises à jours de sécurité chaque mois quand&nbsp; ce n’est impossible vu que l’os n’a plus de support.&nbsp; Idem pour mac os et linux.



Ce sont des problèmes oui mais pas des boulettes. Les problèmes en informatique, ça existera toujours car un programme, un cpu ou tout appareil qui sort sans bugs ou problème, cela n’existera jamais malheureusement.



Les entreprises le savent bien, rien de nouveau là dedans.


votre avatar







choukky a écrit :



Moi qui regarde en ce momment pour une nouvelle config, je pense que je vais regarder du coté AMD malgrès leur dégagement calorifique un peu trop élevé à mon goût.





A titre personnel je reste sur de l’Intel, surtout pour ce qui est petites machines légères et silencieuses, ils restent imbattables sur le ratio puissance/consommation ; et les failles CPU ne me concernent pas vu mon usage.



Et à mon avis, les failles Windows que tout le monde se tape sont bien plus concrètes (et facile à exploiter) que certains problèmes des CPU qui demandent des attaques plus ou moins complexes pour y arriver.

(et je suis sous Linux donc l’esprit tranquille)







noks a écrit :



Franchement sur les derniers proco intel, le dégagement calorifique ne me parait pas meilleur du tout, notamment sur le haut du paquet ( 9700k et 9900k ).





C’est pas difficile, il suffit de regarder les specs et surtout les tests, Intel est nettement devant AMD sur l’efficacité énergétique.







ragoutoutou a écrit :



La prédiction de branchement est un mécanisme assez ancien, avec une bonne littérature scientifique et des algorithmes de référence. Malheureusement, pour aller plus vite, Intel  n’a pas  implémenté certaines parties des algorithmes relatifs à la protection de mémoire, pour booster l’IPC.





Quelles parties des algorithmes en question ?



(on parle quand même de certains bugs subtils, découverts au bout de plus de 10 ans)







Gilbert_Gosseyn a écrit :



Si c’est une grosse boulette





Même question qu’au-dessus.


votre avatar







Vekin a écrit :



C’est dans quel numéro s’il-te-plaît ?









durthu a écrit :



le numéro 31 ?





<img data-src=" /><img data-src=" /><img data-src=" />


votre avatar







ragoutoutou a écrit :



La prédiction de branchement est un mécanisme assez ancien, avec une bonne littérature scientifique et des algorithmes de référence. Malheureusement, pour aller plus vite, Intel  n’a pas  implémenté certaines parties des algorithmes relatifs à la protection de mémoire, pour booster l’IPC.









ragoutoutou a écrit :



La prédiction de branchement est un mécanisme assez ancien, avec une bonne littérature scientifique et des algorithmes de référence. Malheureusement, pour aller plus vite, Intel  n’a pas  implémenté certaines parties des algorithmes relatifs à la protection de mémoire, pour booster l’IPC.





<img data-src=" /> Tout à fait, l’archi core 2 est sortie après de multiples retards et sous la pression chez Intel.



Une fois le succès remporté (et les vendeurs achetés à coup de milliards de dollars), les failles originelles sont restées.


votre avatar

<img data-src=" /> de rien

votre avatar







OlivierJ a écrit :



Quelles parties des algorithmes en question ?



(on parle quand même de certains bugs subtils, découverts au bout de plus de 10 ans)





Je n’ai plus le nom exacte, j’avais vu çamais ce qu’ils ont viré c’est la partie “évaluer l’état de protection de l’adresse mémoire avant de charger le contenu de l’adresse et de lancer la prédiction de branche”, ce qui rend le travail très facile à meltdown


votre avatar







OlivierJ a écrit :



C’est pas difficile, il suffit de regarder les specs et surtout les tests, Intel est nettement devant AMD sur l’efficacité énergétique.







Sur le papier peut-être, dans les faits et dans les tests surtout, le 9900K @ stock monte à des températures assez dingues à moins d’y coller un gros watercooling. Ce qui n’est pas le cas d’un 2700X avec son ventirad stock …



Intel est clairement partit chercher le bout du bout avec les derniers I7.


SPOILER : une nouvelle faille sur les processeurs Intel, depuis l’architecture Core

Fermer