votre avatar

Bejarid

est avec nous depuis le 5 mai 2008 ❤️

2545 commentaires

Le 25/09/2018 à 01h 30







Jeanprofite a écrit :



Il n’y aura peut-être pas de correctif = il faut utiliser un autre logiciel (respectant peut-être plus ses clients).





JET est passé en mode “support” et non “en développement” il y a des années. Cela fait bien longtemps que les clients sont encouragés à changer de DB. Sauf que contrairement à ce qui se fait dans le libre et certains concurrent, où certains projets meurt du jour au lendemain, chez MS les clients continuent à avoir un truc qui marche pendant 10 ans, même après que ça soit déclaré comme “mort” (car remplacé par mieux : SQLCompact, SQLite…). Et cette faille ne remet pas ça en cause, car en local elle ne pause pas de problème, et même en remote l’ASLR en bloque l’exploitation.



Qui est respectueux ici du coup ?


Le 24/09/2018 à 12h 47







barthous a écrit :



Si au moins ils avaient publié un moyen de s’en protéger en attendant le patch officiel, ça serait logique. Mais là non, c’est juste idiot.





“Crafted data in a database file can trigger a write past the end of an allocated buffer.” Je connais pas d’utilisation d’une base JET pour y mettre des données externes (dans le temps, c’était fait pour y sauvegarder les données locales de formulaires ACCESS). Et si une entreprise s’est amusé à faire ça, je crois que les failles de sécu de la DB sont le derniers de ses soucis, sans compter que les buffer overflow ne sont plus très efficace non plus avec l’ASLR, surtout que les bases JET tourne en espace utilisateur, donc même ainsi, y a pas vraiment de risque.

 



 Cette faille est d'une importance aussi faible que l'envie de NXi a faire du buzz avec du vent en mettant "FAILLE" et "WINDOWS" dans le titre est forte. C'est dire à quel point on s'en fout. Ceux qui utilise encore JET ont qu'a faire un petit effort et dev un truc un peu plus sérieux, au moins basé sur SQLite.   





En vrai, le patch risque de mettre des années à sortir car faut déjà que MS arrive à retrouver des devs compétents dessus en maison de retraite !


Le 24/09/2018 à 09h 48







Dude76 a écrit :



En quoi ça aurait dérangé d’attendre 15j de plus la publication planifiée du correctif ?



  Qu'on en arrive à publier une faille lorsque l'éditeur fait la sourde oreille, ok, mais là...








  Quand un éditeur n'a pas réagit en 120 jours, on considère qu'il fait la sourde oreille (rien ne garanti à 100% que le correctif sera bien là pour le tuesday patch d'octobre, après tout il ne l'était pas pour celui de septembre). Donc en soit, c'est logique que ça soit publié.      






 Mais c'est plus la raison du temps de développement de ce patch qui est intéressante. Y a plusieurs domaine où, oui, 120 jours c'est trop court pour faire un patch, car rien que les tests de non régression peuvent prendre plus de temps (Windows était déployé dans un gros nombre de situation, elles se font parfois en entreprise, car la config ne saurait en sortir pour des raisons de sécurité). Et là, ça pourrait devenir idiot d'avoir publié la faille...    





Dans ce cas précis, vu que ça ne touche que Jet (base de donnée d’Access, pas de Windows qui ne l’utilise pas), je pense que c’est surtout parce que MS s’en fout un peu <img data-src=" />


Le 22/09/2018 à 08h 25







111 a écrit :



Faut que le constructeur adopte Treble. Le OnePlus 6 qui est compatible Treble est sous Android 9.





Ah, c’est au constructeur d’en faire la démarche, ce n’était pas automatique pour tout ceux qui avaient fait la mise à jour Android 8 ? Bon bah j’ai rien compris alors, my bad.



Mais du coup, on fait comment quand on veut acheter un téléphone pour savoir si il est basé là-dessus ? J’ai regardé à l’instant le OnePlus 6 pour exemple, et ni le site officiel ni les tests que j’ai pu trouver n’en parle. Y a un site qui les répertorie peut-être ?



Parce que là, si demain j’achète un Android, j’ai 99% de chance de me faire niquer et d’en avoir un obsolète un mois après sa sortie.


Le 21/09/2018 à 14h 07







Yannouch a écrit :



La même chose a été répétée à chaque version d’Android (au moins depuis la 7).





Sauf qu’avec P, ils avaient fait tout un foin en disant que l’architecture commune des drivers était la même qu’avec la version précédente, et donc il n’y pas ou peu de changement à faire pour faire fonctionner la nouvelle version.



Au final, y a qu’une ROM alternative qui a essayé d’utilisé cette architecture commune, et elle ne supporte qu’une dizaine de modèles (sur les centaines qui sortent chaque année…) et les retours sont que ça plante beaucoup.



Tout ça m’a l’air d’une vaste fumisterie, c’est quand même étonnant que Google se satisfasse de la fragmentation croissante de son système, ça va rapidement nuire à Android ça !


Le 21/09/2018 à 12h 00

Du coup, si on a toujours pas droit à Android 9 sur les nouveaux téléphones, comme les anciens, c’est que ou ce n’est pas plus facile qu’avant de faire la migration, et donc Google a échoué a rendre ça plus simple, ou les constructeurs se foutent de nous, sans que Google n’y fasse quoi que ce soit.



C’est chiant que l’écosystème Android soit toujours aussi pourri. Même les appareils à plusieurs centaines d’euros n’arrivent pas à être à jour, sans parler de ceux qui mettent de la pub ou font planter les applis (EMUI…) avec leur surcouche fait à la truelle.



Désespérant.

Le 20/09/2018 à 09h 52

Attention, le nombre de bug connu sur cette version est hallucinant (certains jeux, logiciel ou setup qui plantent ou ont des artefactes).

Le 19/09/2018 à 00h 12

Euh… Je crois que y a un problème sur les chiffres données dans la news. 85°C sur un 6700K c’est pour ainsi dire impossible car il se met a throttle dès 64°C (c’est son Tcase, dès qu’il l’atteint le proc ralentit automatiquement pour ne pas griller).



Dans la source de l’article, la plus haute température annoncé est de 66°C pour le CPU, ce qui est déjà plus logique, même si ça sous entend que leur test à pleine charge n’est pas bon car la charge est limité pour ne pas grillé, donc en fait il tourne peut-être qu’a 1GHz le processeur.



Bref, si la solution est élégante elle semble ne pas fonctionner en l’état, puisque le proco se fait chauffer par le GPU (qui lui peut monter à 90°C sans soucis) au delà de sa température de fonctionnement, le bridant irrémédiablement.

Le 16/09/2018 à 12h 53







DoWnR a écrit :



Je viens de vérifier, via l’interface ce n’est pas clair, je n’ai pas un switch ou autre qui permet de voir si c’est activé ou pas, mais en vérifiant dans les fichiers de config (%LOCALAPPDATA%\ProjectLambda\Saved\Config\WindowsNoEditor\GameUserSettings.ini), j’ai un bien “bUseVSync=False”. Et à priori, le v-sync devrait de toute façon être à 60Hz, pas à 30.





Certains V-Sync cap une première fois à 30, puis recap à 60. C’est le cas par exemple dans path of exile, mais ça dépend de l’implémentation, oui. Moi perso j’atteins pas les 30 Fps sur cette scène 3D (car on peut même pas appeler ça une démo si la config minimum c’est une 1080Ti <img data-src=" />).


Le 16/09/2018 à 09h 03







DoWnR a écrit :



C’est pas de toute façon limité à 30fps ? En UHD avec tout au max, j’ai entre 15 et 30fps et si je mets en 1080p, c’est 30fps fixe et ça bouge pas d’un poil.





Tu as désactivé la V-Sync ? (qui tachera d’atteindre les 30 FPS, puis y restera tant qu’elle n’atteint pas les 60 FPS, puis y restera définitivement).


Le 13/09/2018 à 12h 40







JCLB a écrit :



Leur boulot est de créer des objets texturés détaillés, et il semblerait que là tout est très détaillé, du coup pas facile à rendre. L’optimisation de map est un vrai travail, qui vient après le level design, sans ce travail la plupart des jeux Valve Source/Unreal/CryEngine seraient injouables.





C’est assez étonnant comment cette démo consomme &lt;10% de CPU, aucun compute GPU, et reste en dessous de 1Go de RAM.



Par contre le circuit 3D est surchargé, je me demande quelle carte le mec a utilisé pour faire sa vidéo.


Le 13/09/2018 à 11h 16

Bon bah test pas concluant.



Avec un i5 4GHz/8Go RAM/GT 970 (ce qui permet de faire tourner la majorité des jeux au max en 1080), j’arrive pas à atteindre les 30Fps sauf à mettre les réglage au minimum… ce qui enlève tout l’intérêt puisqu’on se retrouve avec HL1.



J’ai l’impression qu’ils sont passé à coté de l’optimisation.

Le 13/09/2018 à 09h 36

La séquence d’intro est encore plus longue que dans l’original, mais elle est tellement bien faite… Ils se sont donnés, j’vais tester ça de suite !

Le 13/09/2018 à 17h 51







Karl Moonferon a écrit :



&nbsp;et que beaucoup de gens achètent car ils pensent qu’un autre ne marchera pas.





Et comme il n’y a aucun mécanisme permettant de certifier les adaptateurs/chargeurs lightning (car Apple l’empêche, contrairement à l’USB où c’est facile à obtenir) ils n’ont pas tort, car ils n’ont aucun moyen de savoir si ce qu’ils achètent fait suffisamment attention à la tension qu’il envoie, ou pas. C’est vraiment vicieux, mais malheureusement efficace :(


Le 13/09/2018 à 16h 23







Jiyuu_Hashi a écrit :



Jamais, vu que le chargeur est conforme.



 &nbsp;       

Il faudrait un jour arrêter la désinformation.








  Ça tombe bien, j'ai parlé d'interdire les iPhones, pas les chargeurs. Et les iPhones ne sont pas conformes, cela ne fait pas débat.   






 Il faudrait un jour arrêter de lire ce qu'on veut lire et non ce qui est écrit.

Le 13/09/2018 à 15h 29







Der Weise a écrit :



La charge sans fil est juste un moyen de gaspiller de l’énergie.





Dans certains environnement ça se conçoit (poussières…), mais clairement sur la table de nuit c’est juste cramer 20% d’électricité pour rien, c’est déplorable.


Le 13/09/2018 à 15h 27







frikakwa a écrit :



Tu marques un point… ils devraient tout du moins donner le dongle USB-C adapter pour être en règle.





Oui si il était fournit ça pourrait se défendre, mais on pourrait toujours arguer que ça fait plus de déchet pour rien (lightning n’apporte rien par rapport à USB3-C sur un phone)… Ça serait cacher une connerie par une bêtise.



Mais comme Apple a clairement signifié à la Commission qu’ils ne changeront rien tant qu’ils se feront pas interdire de vente, ben faut attendre que la Commission accepte le cout politique de bloquer les ventes d’iPhones. Qui sait, peut-être après les élections l’année prochaine le Parlement arrivera à faire bouger les choses ?


Le 13/09/2018 à 09h 25

A quand une interdiction des iPhones pour non respect de la directive contre le gâchis de chargeurs ?

Le 13/09/2018 à 10h 31







v1nce a écrit :



Ca reste quand même bien moins intrusif que le nouveau délire de MS.





Toi tu as pas vu certaines intégrations… Je m’en rappelle d’une, je crois que c’était Java mais pas sur, où il y avait un écran de l’installateur dédie à Chrome, et en faite si on faisait Suivant ça installait Chrome, du coup il fallait faire Annuler. Et quand on cliquait dessus, ça faisait un message similaire à celui annonçant le rollback de l’installation. Sauf qu’en faite non, l’installateur reprenait après… Difficile de deviner que Chrome était facultatif ! Hors si on le dit pas, ça sert à rien que dans les fait ça le soit, vu que peu de monde va le tester.



Et évidemment, il y avait les cases en cocher en police minuscule, en gris sur gris clair, qu’il fallait deviner (impossible à lire), beaucoup plus commune.



Non, sérieux, y a eu un paquet d’intégration qui était honteuse, ce n’est pas pour rien que tout le monde criais dessus, comme tu le dis ;)


Le 13/09/2018 à 10h 18

J’ai du réfléchir pendant au moins 30 secondes avant de trouvé une réponse aussi idiote que la tienne, mais j’en ai trouvé une !



Google n’avait qu’a pas retirer “Don’t be Evil” de leur description.



Mouahahahah <img data-src=" />

Le 13/09/2018 à 10h 15







v1nce a écrit :



Faut croire que ça doit être vrai vu le nombre de personnes qui le répètent mais, perso, je n’ai jamais vu un seul programme qui installerait chrome subrepticement.






CCleaner le faisait, Java aussi (et le fait toujours je crois), après j'ai pas d'autres exemple en tête. J'ai fait en sortent de trouver des alternatives qui me faisait moins chié pendant l'install (et java est maintenant embarqué par les applis qui en ont besoin maintenant donc...), mais pendant un temps (un an environ, au alentour de la sortie de Win8) c'était difficile de pas se les tapper. Depuis, comme ils ont gagné, ils le font plus (ça coute cher faut dire). Comme les pub dans le métro, ça a durée à peine un an.

Le 13/09/2018 à 10h 08

Vu la façon dont Google fait du forcing pour installer Chrome (intégration trompeuse dans l’installation d’autres programmes n’ayant rien à voir) rajouter une confirmation me semble une réponse logique. Encore faut-il qu’elle soit correctement faite, mais ça j’imagine qu’ils vont l’affiné.



Après c’est dommage que FF et cie soit pris dans le feu, et surtout ça arrive bien trop tard, Chrome ayant déjà 80%+ de part de marché en France. Il fallait faire ça à la sortie de Win10 au plus tard, c’est à dire y a des années…

Le 13/09/2018 à 10h 26

Oui, c’était juste pour noter que Brave eux-même avouaient que ce qu’ils faisaient était lourd de conséquence.



Et les journaux américains ont menacé d’aller en justice il y a deux an (le monde) mais ont à priori renoncé. Je me demande pourquoi… Convaincu de perdre ?

Le 13/09/2018 à 09h 54

Au niveau légale, c’est pas attaquable ce que fait Brave ?



Après tout ils modifient les pages internets, qui comme toute œuvre de l’esprit peuvent être protégé, sans accord de leur auteurs et à des fins lucratives.



Aucune boite n’a essayé de les faire couler/interdire comme ça ? Surtout qu’ils se sont engagé à reverser 70% des revenus aux sites, bien conscient de la violence de ce qu’ils font, choses qu’ils n’ont au final pas respecté à ce que j’en sais.

Le 13/09/2018 à 10h 01

Je comprend pas comment 32 cœurs au lieu de 16 peuvent poser problème autant à AMD qu’à NVidia.



Les pilotes graphiques sont intriqués à ce point avec les CPUs ? Encore, qu’avec une nouvelle archi CPU ça déconne je veux bien, mais qu’un doublement du nombre de coeur sur une même archi pose des problèmes d’installation ou de perf divisé par 2 chez tous les constructeurs, je comprend pas du tout.

Le 10/09/2018 à 20h 17







Radithor a écrit :



&nbsp;Une vente à la découpe, c’est quand même plus hardcore que de chercher de nouveaux partenaires au capital.





Ici il est question de vendre 51%+ de l’infra de SFR, pas d’une augmentation de capital ou je sais quoi.



Et sans infra, tu deviens un MVNO. On sait que ce que ça a donné les MVNO en France, ils ont tous été racheté.



Donc oui, si cette vente se fait et se répand à toute l’infra (pas que la FTTH, mais aussi la backbone, les antennes…), pour moi le reste suivra inéluctablement et on aura bien eu une vente à la découpe.



Wait & see, mais c’est qui est promis par cette annonce.


Le 10/09/2018 à 12h 16

C’est pour ça qu’il racheté SFR ? Pour le revendre en morceau derrière ? Étonnant !





&nbsp;

Ou pas, les LBO finissant presque toujours comme ça.

Le 10/09/2018 à 12h 46







TriEdge a écrit :



Bah alors ya plus personne qui vérifie les apps avant de les validés ? <img data-src=" />





En vrai c’est ingérable comme truc. Suffit qu’ils l’introduisent en douce sous forme de plusieurs bouts de code innocents dispatché dans plusieurs mise à jours, et tu verras jamais rien, même si te regarde ce que tu mets sur ton store (ce qu’ils font pas vraiment…).



T’es obligé de faire confiance à l’éditeur dans une certaine mesure :(


Le 10/09/2018 à 12h 36







Ramaloke a écrit :



-Tuer un serveur WSUS, sérieusement ? Va falloir apprendre à cadencer(à patcher par vague) et à dimensionner correctement ses serveurs.





MS a tout de même avoué que chez ses très grands clients, les serveurs WSUS étaient trop gourmands avec des clients Win10. En tout cas plus que Win7. Mais c’est sensé être résolu avec la sortie de WS 2019 et cette nouvelle mouture de Win10, à voir donc, perso j’ai jamais admin de parc à 10k+ clients ^^



Sur le reste je suis d’accord, on est tous (entreprise comme particulier) réticent à faire l’entretien pourtant nécessaire. Mon chauffe-eau qui a lâché faute de nettoyage annuel pourra te le confirmer…


Le 10/09/2018 à 12h 22







odoc a écrit :



Désolé :s





Pas de soucis, c’est toujours très compliqué ces histoires de gros chiffres (le sens commun n’a plus court avec autant de zéro). Moi je me rabats à chaque fois sur les rapports de l’OCDE, ils donnent un vision globale des choses assez clair je trouve. Mais ça reste casse gueule.


Le 10/09/2018 à 11h 57







odoc a écrit :



Les investissements fait dans la recherche et l’ESR sont ridicules vu justement les capacités de notre pays






Bah on est deuxième en Europe quoi... C'est sur que comparé à l'Allemagne c'est compliqué (je vais pas rentrer dans les détails, mais leur excédent budgétaire à 6% ils ne l'ont pas sans sacrifice), mais on peut pas dire qu'on est ridicule. Et si on a des labos, c'est bien qu'on y met de l'argent non ? Si on les finançait pas, ils auraient fermé il me semble.  Et ATOS ne ferait pas son beurre en HPC public non plus.   





Ton propos me semble incohérent. Peut-être que l’argent n’est pas déployé comme tu le souhaiterais, mais il est bien là.


Le 10/09/2018 à 11h 35







odoc a écrit :



&nbsp;(et ne parlons pas de la France :s)





D’un point de vue scientifique, y a guère que l’Allemagne et l’Italie qui rivalise avec la France en Europe. Et ça vaut aussi pour pour la recherche en informatique. Donc je comprend pas ta remarque…


Le 06/09/2018 à 22h 06

Y a du niveau dans ces commentaires dites-donc !

Le 31/08/2018 à 15h 33







yope7 a écrit :



Si on réfléchit deux minutes ça fait écho au côté “fantôme” de ce métier





T’as pas trouvé que le moyen employé pour faire naitre ce sentiment était mal maitrisé ? Que le réalisateur a eu la main un petit peu beaucoup trop lourde ? ^^


Le 31/08/2018 à 09h 10

Perso j’ai pas pu le regarder ce docu. Non pas à cause des images, mais à cause du montage. J’ai l’impression que + de 50% du temps, on a une personne à l’écran en train de taper au clavier, sans rien dire. Y a un gros problème de rythme. Je demande pas un film d’action, et les moments de pause peuvent être utile, mais là c’est burlesque : il se passe rien ni se dit rien pendant la majorité du temps ! Du coup le docu dure une heure et demi… Il aurait pu faire moins d’une heure sans rien couper de ce que j’ai vu.



J’ai pas compris ce qu’a essayé de faire le réalisateur.

Le 31/08/2018 à 09h 21

Un passage dans les “issue” du projet GitHub donne une bonne idée de la fiabilité de cette étude.



Ce qui est drôle c’est qu’un coup d’oeil au “site” avec les graphiques rendait ça prévisible : pas de légende, échelle temporelle bancale (et forcément à l’avantage de… oui, c’est évident). Dommage car ça part d’un bon sentiment, mais c’est fait à la zeub, autant à la collecte qu’a la représentation graphique.

Le 30/08/2018 à 14h 56







Freeben666 a écrit :



(et c’est normal)





Entre incrémenter un compteur journalier et tout historiser y a une marge quand même, ça pourrait être séparé.


Le 29/08/2018 à 13h 50







xillibit a écrit :



Il n’y a pas que Zen2 qui sera en 7nm et produit chez TSMC mais toute la gamme GPU et CPU d’AMD : Epyc, Vega 20…





EPYC est une des gammes de produit (comme Ryzen), elle n’est pas dépendante de l’architecture utilisé (Zen2) ou de la puce réellement gravé (ici c’est Rome). Oui je pinaille, mais si on fait pas attention on finit par ne plus rien comprendre !



Pour la Vega 20, on verra quand ça se précisera, apparemment cette archi ne concernera que certains usages particuliers (IA ?), pas les GPU classiques (3D, remote desktop…) qui eux resteront en 12 nm (ce que Glofo compte bien produire à plein). Le volume serait donc faible.


Le 29/08/2018 à 12h 09







xillibit a écrit :



AMD a autre problème à l’horizon c’est que GlobalFoundries n’est pas au point sur le 7nm donc AMD doit faire produire tous ses produits en 7nm chez TSMC. Mais avec tous les clients/commandes que TSMC a déjà sur le 7nm pas sur qu’AMD aura suffisamment de puces.





GloFo a surtout abandonné ses recherches sur le 7nm. Après, on sait pas trop si ils vont rien faire sur le sujet pendant des années, ou si ça veut simplement dire qu’ils seront exécutant d’IBM/TSMC, qui eux développent la techno.



Cela dit, rien ne dit que TSMC n’aura pas les capacité de prod pour absorbé la charge Zen2, pour l’instant personne s’en inquiète.


Le 28/08/2018 à 13h 39







jaguar_fr a écrit :



FF 52.7.2 ESR 32 bits du boulot :(





Bah demande la mise à jour vers la nouvelle ESR (60) et ça marchera :)


Le 27/08/2018 à 20h 44







Gersho a écrit :



Autant je suis d’accord sur le reste (même si c’est un paris risqué vu le nombre d’apps déjà en service sur du matos exotique), mais insérer la pub dans le flux j’y crois pas une seconde car ils perdraient la posibilité de faire de la pub ciblée (ou alors refaire toute l’infra et/ou repenser la gestion des pubs (un peu comme ceux qui host leur pub pour ne pas etre bloqué, mais bon l’echelle est pas la même))





Oui, ils seraient perdant (même si ils pourraient quand même la cibler un minimum, l’infra étant partiellement localisé pour faciliter le peering avec les FAI) mais comme les utilisateurs ne pourraient pas éviter la pub en perturbant le fonctionnement du site, ben ils ne prendront plus la peine de le faire. Du coup ce mode dégradé sera rarement affiché en faite. Il sera plus là pour ne pas tenter les gens (de toute façon ils n’y couperont pas, donc ils laisseront le ciblage se faire).


Le 27/08/2018 à 14h 26

Faites pas trop les malin avec vos lecteurs tiers, il suffit que Twitch mettent des DRM sur le flux pour obliger l’exécution dans son site, voir insère des pubs par défaut sur le flux original pour limiter toute modif local, et vous n’y échapperez plus.



Pour l’instant ils sont cool, mais Amazon peut serrer la vis quand il voudra plus financer cette boite à perte.

Le 20/08/2018 à 14h 28







David_L a écrit :



Pour rappel, le TDP est en soi un concept fumeux qui ne permet aucune comparaison honnête. Qu’on rajoute une couche de mauvaise foi ne change rien à ce fait de départ ;)






 Le TDP c'est un arrangement entre les constructeurs et Intel. Je suis ni fondeur ni intégrateur, donc je me garderais bien de juger la validité du TDP quand on construit son système de dissipation.      






Ce qui est problématique avec le TDP, c'est qu'il est utilisé n'importe comment. Par ARM par exemple, ce que j'essayais de dire dans on premier commentaire. Et ma remarque sur l'absence de commentaires là dessus me vaut un "lis d'abord l'article et arrête de faire de l'acrobranche", puis un "D'façon c'est fumeux, osef".      






S'pa ouf, si je puis me permettre :(

Le 20/08/2018 à 10h 22







David_L a écrit :



lire le papier avant de commenter, ça évite d’avoir à se raccrocher aux branches ;)





J’ai bien lu le papier, et j’ai bien vu que vous aviez taché de l’analyser. Mais pour moi vous n’avez mentionné que les points discutables, pas le gros mensonge.



Après, si vous trouvez que ce que je dis avec cette comparaison “conso 1 coeur” vs “TDP 4 coeurs” est faux ou pas important, très bien, au moins c’est dit :)


Le 20/08/2018 à 10h 04







latlanh a écrit :



C’est grosso modo ce qui est dis ici non : “ mais attention aux conditions.




ARM précise en effet qu'il s'agit du test SPEC CINT2006 sur un seul cœur. Les mesures pour le Core i5-7300U proviennent de chez Intel, tandis qu'elles sont pour le moment estimées pour le Cortex-A76. Enfin, et c'est toujours regrettable, le graphique des performances n'est pas à l'échelle." ??








C'est même pas une question de condition : c'est du foutage de gueule dans toutes les conditions. Même sans GPU, et même avec un test qui serait favorable à ARM, c'est quand même des conneries.    





C’est le genre de pratique qu’il faut dénoncer, et non juste contextualiser. ARM a fait exprès de mélanger les choux et les carottes pour tromper son monde…

Une annonce pareil, où tu l’ignore où tu la clous au pilori, t’en fais pas une brève nuancée <img data-src=" />


Le 20/08/2018 à 09h 57

Vous devriez mieux lire les communiqué avant de les rapporter. Celui-ci est un énième exemple de mauvaise foi, puisque la consommation d’un cœur est comparé au dégagement thermique maximum à destination des constructeur, qu’il est de plus impossible d’atteindre avec un seul cœur sur 4 (le turbo core a ses limites).




Bref, c'est de l'enfumage d'ARM, dommage que vous lui donniez le crédit qu'il n'a pas.

Le 16/07/2018 à 14h 34







thomgamer a écrit :



C’est pas complétement une mauvaise idée mais y a plein de cas où le panneau pourrait s’allumer sans que l’utilisateur n’utilise son téléphone (changement d’antenne relais par exemple), bref un comme si on te mettait un radar pédagogique qui t’avertirait à 70 comme à 110 alors que la route est limité à 90 (bon maintenant c’est 80 sur certaines)





Je ne pense pas que les cas auxquels tu penses soient un problème. Un changement d’antenne par exemple créer un trafic très court et très peu dense, ça ne risque pas de déclencher une alerte.



Si c’est correctement fait ça a ses chances de marcher, et vu qu’ils prennent la peine de faire une période de test, ça semble parti pour. C’est plutôt cool comme initiative, tout comme les radar pédagogique en effet. Eux aussi ils pourraient se tromper (déformation de l’onde à cause de chaleur…) mais ils ne le font pas car ils sont correctement conçu ;)



Je comprend pas le négativisme de TOUS les commentaires. Au mieux, vous me paraissez un peu fous, au pire… :p


Le 14/07/2018 à 12h 01







thomgamer a écrit :



Sinon des conducteurs intelligents ça peut marcher aussi … Puis bon suffit que tu écoutes en streaming ou utilises le GPS pour que ça s’allume donc je sais pas si vraiment ça va être utile.






Le GPS ne nécessite pas une connexion permanente. Il peut y avoir des synchros (changement de route, maj trafic...) mais ce n'est pas permanent, contrairement à une conversation téléphonique. Ce cas ne déclenche probablement pas le système car trop peu de donnée et trop peu souvent sont échangé.     





Pour du streaming c’est possible aussi que ça soit géré car le téléchargement se fait par paquet de 20sec (en général), donc si t’as une bonne connexion tu n’as qu’un burst de temps en temps. Après si tu captes mal, ce burst peut être tellement long que y a quasi pas de temps mort, mais ça doit pas arriver souvent en pleine ville…







Guinnness a écrit :



J’ai pensé exactement à la même chose : avec le nombre de gens qui utilisent Waze ou équivalent sur leurs smartphones leurs panneaux vont rester allumé non stop.



Les panneaux sont peut être "intelligents" mais ceux qui ont eu cette idée nettement moins ...








Dans l'ensemble leur technique semble plausible, je sais pas sur quoi tu te bases pour dire que ses concepteurs ne sont pas intelligent. Tout le monde n'est pas aussi bête que toi tu sais ? :)

Le 14/07/2018 à 12h 25

Surtout que c’est une procès d’intention que la criminalisation de la consultation de site terroriste, car on se doute bien que c’est l’acte possiblement commis derrière qui est visé, en aucun cas la lecture de texte djihadiste qui est en soit difficilement condamnable (au contraire de leur publication, qui elle l’est déjà).




 Hors, pour autoriser les procès d'intention il faudrait réécrire toute une partie de la constitution (et pas juste ajouter un bout), se retirer de la déclaration des droits de l'homme (ce qui nous éjecterait de facto de l'UE) etc.       






 Clairement c'est un coup politique, il veut faire croire qu'il agit aux débilos trop idiots pour voir qu'il se fout de leur gueule et en fait en branle pas une (possiblement car il n'en a pas la capacité, m'enfin c'est pas sûr, ça se trouve il a caché toutes ces années qu'il avait un cerveau !).

Le 14/07/2018 à 11h 45

La 580 Pro 8Go coute 250€ seule.



Ajoutez un boitier (20€ ?), une mini alim (85W, clairement le GPU risque pas d’être OC avec ça… 20€ ?), un adaptateur lightning3 (facile, ça reste du PCIe3, 10€) et voilà, vous pouvez la vendre à 700€ !



En gros, mettre ce boitier en vente sur le site Apple coute 700 - 300 = 400€. Pas mal.