votre avatar

vampire7

est avec nous depuis le 19 janvier 2007 ❤️

1471 commentaires

Le 19/09/2013 à 20h 30







yeagermach1 a écrit :



L’utilisateur est prévenu et peut le changer. C’est tout sauf silencieux.



Les publicitaires ont pas eu besoin de l’“excuse” MS pour ne pas respecter le DNT, ils ne l’auraient de toute façon jamais fait.



MS a bien implémenté le draft (qui a l’époque ne disait pas que l’option devait être décoché par défaut), puis a bien implémenté le nouveau draft qui demande a ce que cela soit décoché par defaut. Le choix de la configuration rapide est totalement compatible avec le dernier draft vu que c’est la configuration rapide du système et non du navigateur.





Non, l’utilisateur n’est pas prévenu, c’est exactement ce que j’ai expliqué.



Et non, ce n’est pas seulement la “configuration rapide du système” puisqu’il y a aussi des paramètres de Internet Explorer tels que le DNT, ça apparait même directement sur l’image dont j’ai donné le lien. Un clic, c’est trop difficile ?


Le 19/09/2013 à 16h 06







Edtech a écrit :



Idem et même chose pour le préchargement (Windows 8.1). A croire que certains valident des messages sans les lire puis accusent MS de ne pas demander la permission…





Aurais-tu envisagé qu’on puisse aussi ne pas avoir ces messages sans être inattentif ou débile ?



Le DNT fait partie de l’interminable liste d’options que la plupart des installateurs évitent avec la “configuration rapide”. Ca revient donc bien à dire qu’il est configuré ainsi par défaut, puisque l’utilisateur qui achète un nouveau PC Windows 8.1 aura bien le DNT déjà activé.


Le 18/09/2013 à 19h 34

L’astuce pour mettre un raccourci, sur l’écran d’accueil, vers la version bureau de Internet Explorer ne fonctionne plus.

Cette astuce consistait à ajouter une espace insécable à la fin du nom du lien avant de l’épingler à l’écran d’accueil via un clic droit sur le raccourci.



Maintenant, il faut aussi modifier la cible du lien. On a le choix entre ajouter un argument, lequel sera utilisé comme adresse à ouvrir, ou bien tout simplement à remplacer

“C:\Program Files\Internet Explorer\iexplore.exe”

par

“%ProgramFiles%\Internet Explorer\iexplore.exe”

Le 18/09/2013 à 18h 19







nevroseman a écrit :



C’est demandé lors de l’installation de Windows.





Je viens de vérifier : c’est effectivement le cas, uniquement si on n’utilise pas la configuration rapide. Et dans ce cas, elle est même désactivée par défaut (alors qu’avec la configuration rapide, elle est activée par défaut).

Mais comme le dit Nerdebeu, les tâches planifiées demeurent présentes et actives, ce qui est à la fois douteux et consommateur de ressources.



Mais surtout, le problème ici est que la majorité des gens achète leur PC déjà installé, et que pour gagner du temps, les assembleurs utilisent certainement en majorité la configuration rapide.

Donc finalement, ça ne change rien : seuls les utilisateurs avancés auront connaissance de cette option, les autres passant leur temps à envoyer le détail de leurs actions à Microsoft sans le savoir.


Le 18/09/2013 à 14h 06







dargos a écrit :



En même temps, ils ont déjà mes infos CB, pour pouvoir me facturer mes achats d’applis… mais l’envoi de données à Microsoft pour aider à la prédiction est surement soumis à accord du user dans les parametres. (ils demandent déjà si on veut aider à l’amélioration des produits pour plein de choses)





Non, comme je l’ai dit, c’est configuré par défaut. Il n’y a aucun accord, aucune information de l’utilisateur à ce sujet.



Au passage, le “Programme d’amélioration de l’expérience utilisateur” est également sur “Oui” par défaut, et pour ma part, la fenêtre de réglage ne s’est jamais affichée automatiquement, que ce soit sous 8.1 ou une version précédente.







dargos a écrit :



Sinon, pour IE11, il précharge les données dont on va potentiellement avoir besoin, comme la page suivante ou autres, et ca c’est cool ! par contre je sais pas encore si ce sera configurable (parce que quand on utilise une connexion limitée comme celle du tel, c’est mieux d’économiser)





Cool pour toi peut-être, mais ça signifie aussi de gros problèmes de confidentialité (transmission de l’IP à des sites que tu ne souhaites pas forcément visiter).

Bien sûr, ce n’est pas un souci pour ceux qui n’ont “rien à cacher”…


Le 18/09/2013 à 13h 09

Il parait que Windows 10 sera un OS 100% cloud. J’ai hâte (ou pas).

Et Windows 9 devrait sortir l’année prochaine. Pourquoi un tel empressement ? Pour avoir le contrôle total de nos données grâce à leur OS 100% cloud.



Enfin, quand on voit le peu de réaction que suscite le fait que Internet Explorer 11 est configuré par défaut pour envoyer tout votre historique à Microsoft, même si vous n’utilisez pas de compte Microsoft pour Windows 8.1 (voir url=http://windows.microsoft.com/nl-nl/internet-explorer/ie11-preview-privacy-statement]ici[/url] la partie “Flip ahead with page prediction”)…



“Information associated with the web address, such as search terms or data you entered in forms, might be included.”

-&gt; Entrez votre numéro de CB dans un champ, et hop, c’est envoyé direct chez Microsoft. <img data-src=" />

Le 18/09/2013 à 15h 20







Glyphe a écrit :



Ok donc si je passe security.tls.version.min à 1 et security.tls.version.max à 3 ça devrait être bon ?





Oui, sauf pour les sites qui ne supportent pas du tout TLS… Dans ce cas, il vaut peut-être mieux laisser security.tls.version.min à 0. J’ignore s’il y a encore beaucoup de sites dans ce cas.


Le 18/09/2013 à 14h 45







Glyphe a écrit :



En attendant, toujours aucun signe du support de TLS 1.2 sur Firefox …

Çà commence à être assez inquiétant je trouve. La sécurité était sensée être au cœur des préoccupation de Mozilla mais on dirait que c’est loin d’être une priorité pour eux.





Au contraire, elle vient d’être implémenté sur la version 24, mais l’option n’est pas activée par défaut.

Ce site permet ensuite de tester le résultat.


Le 18/09/2013 à 12h 19







NonMais a écrit :



oui mais là apparemment le périmètre c’est l’Europe, les US et l’Asie Pacifique. Bon ok ça doit être la grande grande majorité des internautes.

Et après internaute&lt;&gt; ip qui sert à savoir combien de pirate on a (à moins qu’ils aient demandé aux gens et pas compté les ip différentes…)

En gros, on ne sait pas trop à quoi correspondent ces 432 millions ni du coup quelle proportion de la population ça peut représenter.





On peut supposer que tous ces chiffres sont obtenus en multipliant le nombre d’abonnements ou IP par le nombre moyen de personnes par ménage pour chaque pays concerné, mais bon… <img data-src=" />

Et puis les 432 millions ne concernent qu’un mois, or beaucoup de gens ne récupèrent des fichiers que de manière très épisodiques. Je peux moi-même télécharger plusieurs centaines de Go de vidéo un mois, et rien le mois suivant (faut bien que je prenne le temps de regarder <img data-src=" />). Si on tiens compte de ça, alors le chiffre dépasse très probablement le milliard…

Et il est même alors probable qu’on dépasse les 50%, ce qui justifie ta remarque sur le fait que les lois sont censées représenter la volonté du peuple.


Le 18/09/2013 à 11h 18







NonMais a écrit :



432 millions sur combien d’abonnements? Non parce que si c’est 432 millions sur disons 600 millions d’abonnement… autant légaliser la chose hein… Je ne vois pas comment on peut rendre illégal (je rappelle que les lois sont sensées être votées par les représentants du peuple et donc établir en quelque sorte les règles de vie communes admises par la majorité des citoyens) ce qui est pratiqué par plus de 50% des gens.





“Fin 2011, on dénombrait près de 2,3 milliards d’internautes à travers le monde, soit près d’une personne sur trois.” (source)


Le 18/09/2013 à 10h 27







L’ermite a écrit :



C’est pourtant la première chose que j’ai essayée, mais en vain. La capacité reconnue était d’environ 750 Go au lieu des 2,73 To attendus.

C’est peut-être faute d’avoir activé le AHCI (ce que je ne peux de toute façon pas faire tant que garde mon volume RAID), ou une limitation bizarre de ma carte mère.

Le mystère va perdurer parce que même si je suis depuis revenu à Win 7, ce dernier ne veut plus du tout démarrer avec le disque de 3 To, sans doute à cause du partitionnement par Linux et le formatage en EXT4.





Il n’y a rien de bizarre à tout ça. Tu prends la taille d’un secteur de disque dur (512 octets), tu multiplies par le nombre de valeurs possibles sur 32 bits (dans les 4 milliards), et tu obtiens 2 Tio.



Passer cette limite nécessite que toute la chaine soit compatible :




  • que le protocole matériel permette plus de 32 bits (pour l’AHCI qui permet aussi des gains de perf grâce à d’autres fonctionnalités, c’est prévu pour, pour l’IDE, le LBA 48 bits doit être disponible)

  • que le disque soit partitionné d’une manière prévue pour (donc GPT, bien que Linux puisse utiliser du MBR de manière non standard pour outrepasser cette limite, mais pour le coup Windows n’est pas responsable)

  • éventuellement de l’EFI à la place du BIOS si tu veux démarrer dessus.

    Et bien sûr, que le système gère tout ça (pour Windows, Vista est requis dans tous les cas, et en version 64 bits pour démarrer dessus).


Le 17/09/2013 à 15h 33







Gui’S a écrit :



Non, avec 8.1 le noyau est passé en 6.3 <img data-src=" />





Oui, mais on peut aussi ajouter que les fonctions renvoient désormais 6.2 aux applications. En fait, ils ont foutu un gros bazar à la façon de déterminer la version du système…



Maintenant, on a donc un système qui ment à ses applications.



Autre problème technique majeur de Windows 8.1 que je n’ai pas encore vu relevé ici : les applications crashent maintenant silencieusement. A l’exception des programmes “console”, Windows ne renvoie donc plus de message d’erreur en cas de plantage. Si un programme écrit n’importe où dans la RAM, il est simplement arrêté, n’exécute donc plus la suite, et l’utilisateur n’en sait rien.


Le 17/09/2013 à 14h 09







flobo09 a écrit :



Sauf que Vista est devenu très bon au SP1.

Idem pour XP car à sa sortie, tout le monde disait que c’était de la merde, la moitié des gens préféraient 98 pour la compatibilité, l’autre 2000 pour la stabilité.



Et avant XP, avec 95 98 millenium et 2000, il n’y a encore une fois aucune règle du 12, c’est juste une légende urbaine pour s’auto-convaincre de passer à 7 quand on aime pas vista alors que l’un est la base de l’autre.





Bah, pas étonnant que cette “règle” du 12 soit si populaire en France. Ici, c’est un coup à droite, un coup à gauche… <img data-src=" />

Alors les gens ont l’impression que tout est mauvais la moitié du temps. <img data-src=" />


Le 17/09/2013 à 13h 03

Firefox Metro ? J’espère que ça ne va pas leur donner des “raisons” de dépouiller encore davantage la version Desktop…

Le 17/09/2013 à 12h 25







JCDentonMale a écrit :



Je répète encore, comme à chaque news sur le sujet : les FAI chinois modifient l’user-agent à la volée en plusieurs variantes de IE6 sous Windows XP, ce qui fausse bien évidemment les statistiques de la Chine. <img data-src=" /> Mis à part dans les salles de jeu en réseau, la plupart des nouveaux PC tourne sous Windows 7.





Ce qui ne change donc rien si les gens tardent à s’équiper, ce qui, vu le niveau de vie en Chine, est assez probable.


Le 14/09/2013 à 22h 59







Abdallah De Bourgogne a écrit :



je m’excuse par avance de casser la bonne humeur des lidds…





http://www.geekfaeries.fr/1/post/2013/09/annulation-des-geek-faries.html





Je ne connaissais pas. Encore une belle victoire de l’administration française…


Le 14/09/2013 à 16h 33







Liam a écrit :









Mon alim a 8 ans, et comme tu le vois, toujours aucun problème de rendement. <img data-src=" />

Je n’ai pas pris une telle puissance pour rien… Et même en y ayant claqué 160 euros, ça reste économique.

Le pire est que même le ventilo, toujours d’origine, reste parfaitement silencieux. <img data-src=" />



Pour le reste, je te conseille fortement d’investir dans un wattmètre. Si tu aimes les surprises, tu seras servi, et pas que pour le PC…


Le 14/09/2013 à 15h 56







Liam a écrit :









Bon d’accord, en fait moi aussi j’ai déliré. <img data-src=" />

Je viens de refaire une mesure : 62 W. C’est déjà plus en accord avec le lien fourni.

Je devais avoir confondu avec la consommation de mon écran…


Le 14/09/2013 à 15h 43







Liam a écrit :



Wait, what?? 40W en idle? A la prise en plus ?



Atta, atta… une carte mère desktop ATX standard, déjà en idle ça consomme 12W pour tourner… rajoutes deux ventilos 120mm au boîtier, deux disques durs, t’es déjà à 32W… à ce stade, on n’a pas encore ajouté de CPU ni de GPU ni de RAM. Deux barrettes c’est environ 4W, et les CPU et GPU, même en veille pour le GPU et en idle pour le CPU, c’est au moins 6W chacun d’après ce que j’ai pu lire… déjà à ce stade t’es à 48W à l’alim… tu rajoutes encore le clavier/souris en usb, et sans avoir le moindre périphérique supplémentaire, que ce soit en usb, en PCI ou en PCI-Ex, tu frôles déjà les 50W… à ce stade, ta conso étant très en dessous de la conso optimale pour une alim standard (qui a priori est rarement en dessous de 300W, tu es donc à 16-17% de ses capacités, et donc même pour une 80Plus Bronze tu rajoutes facile 20% d’overhead… ce qui t’amène déjà à 60W à la prise.



Pour un PC totalement idle, sans périphériques internes ni externes (autres que clavier/souris), et avec une alim 80Plus Bronze flambant neuve.





Soit tu ne nous dit pas tout (système totalement fanless ? CM micro-ATX ? un unique SSD pour tout stockage de masse ? alim certifiée 80Plus Titanium ?), soit les valeurs que tu obtiens à la prise sont aberrantes.





T’es en plein délire là. <img data-src=" />

Jette donc un coup d’oeil ici. Vu l’appareil qu’ils utilisent, les mesures sont également faites à la prise.

Pour ma part, j’ajouterai que j’ai 2 disques durs 5400t/m (3 W chacun), un SSD, et que ma RAM à 1,5 V est pratiquement froide (vu la température, je doute qu’on dépasse les 2 W pour l’ensemble des 4 barrettes). Et bien sûr, aucun overclock (ma carte-mère ne me permet pas un réglage précis des tensions).

J’ai aussi pu constater qu’en IDLE, la GTX 660 consomme moins que la 460 (je ne sais plus quelle différence, mais je me souviens avoir gagné quelques watts).

Quant à mon alimentation, c’est une vieille Seasonic S12 600W.

Bref, c’est une config pensée à la fois pour le silence et pour l’économie, tout en étant assez puissante en cas de besoin. Et même si je m’en sors bien, ça n’a rien d’extraordinaire.


Le 14/09/2013 à 13h 13







Liam a écrit :



190 en charge sur les gros jeux ?? Attends, tu tournes avec quoi comme CG ??



Une simple Radeon HD7850 consomme 130W (sans overclocking), et c’est tout de même pas une grosse consommatrice (une 7870 monte à 200W). Avec un calculateur de consommation électrique, mon PC milieu de gamme avec une HD7850 et un simple Core i5 consomme autour de 250W à 90% de charge, sans le moindre overclocking… et quand on sait que les alims n’ont pas un rendement de 100%, il faut rajouter encore au moins 10 ou 20% pour avoir la consommation réelle au tableau EDF. Et ça; c’est encore sans compter que plus une alim vieillit, moins elle est efficace, et qu’au bout d’un an déjà, elle consomme encore plus pour nourrir tout ce petit monde.



Au total, en load, sur un PC de bureau ordinaire de geek pas spécialement conçu pour faire serveur, les 300W au tableau EDF, tu les atteint largement.



Certes pas en idle, mais même en supposant que tu sois qu’à 100W en idle (ce qui me parait sous-dimensionné, mais mettons), en comparaison, un raspi, c’est 3,5W… jsais pas si tu vois un peu la différence, t’as juste une différence d’un facteur 28… <img data-src=" />





i7 2600k et GTX 660, en IDLE, relevé à la prise : environ 40 W.

C’est toujours beaucoup plus qu’un Raspberry Pi, mais tu sous-estimes largement les progrès qui ont été faits sur la gestion de l’énergie.


Le 11/09/2013 à 12h 33







Obelixator a écrit :



Soit c’est une boutade <img data-src=" /> … Soit j’ai loupé un épisode <img data-src=" />



Bref … <img data-src=" />





Voilà l’épisode que tu as loupé. <img data-src=" />


Le 11/09/2013 à 11h 42







Bball a écrit :



Houla, je savais pas qu’on faisait des disques durs ssd en pci express.





Et moi je ne savais pas qu’un SSD était fait avec des “disques”… <img data-src=" />


Le 10/09/2013 à 22h 11







zozolebo a écrit :



La multiplication des coeurs sera probablement la prochaine étape.





Les processeurs grand public d’il y a 6 ans avaient au maximum 4 coeurs. Et aujourd’hui ? 4 coeurs max pour les CPU grand public, malgré une gravure 3 fois plus fine. Alors ne t’emballe pas trop…


Le 10/09/2013 à 16h 01







MasterDav a écrit :



Parce que bien sûr ce sont les mecs de la team qui vont poster les releases sur tous les tk du monde <img data-src=" />





Release de Microsoft ou de team, il y a toujours les checksums pour vérifier, comme tu l’as rappelé toi-même.







MasterDav a écrit :



Ouais bah si t’arrives à faire des virus que les AV ne détectent pas, c’est bien pour toi mais dans la majorité des cas les AV détectent les malwares.





Sauf qu’un vrai malware aura d’abord été vérifié sur VirusTotal avant sa diffusion, justement pour s’assurer qu’il ne provoquera pas (ou pas trop) de positifs.

Bien sûr, cette simple affirmation est lourde de conséquences…


Le 10/09/2013 à 14h 53







MasterDav a écrit :



Un fichier avec le tag d’une scene team clean peut tout à fait contenir un paquet cadeau.





Mais dans ce cas, même pour un seul fichier, l’équipe perdrait immédiatement toute crédibilité.







MasterDav a écrit :



Pour les petits fichiers, virustotal est notre ami <img data-src=" />





Ou pas.

Pour développer un virus, ce site est au contraire un allié précieux : il permet de savoir très rapidement si le code sera détecté comme un virus ou pas. Il n’y qu’à modifier le code jusqu’à obtenir un score satisfaisant, et crois-moi, on y arrive toujours. Pour avoir fréquemment des paquets de fausses alertes avec le truc que je développe, je sais combien ça ne tient pas à grand-chose…



Un exemple : l’un de mes exécutables, un truc minuscule d’une dizaine de lignes, n’affiche rien, et certains antivirus trouvent ça suspect. Pas grave, ajoutons un appel à la fonction CreateWindow, même avec des paramètres qui ne peuvent que faire échouer l’appel, les antivirus n’y voient que du feu, mais à la seule condition que le nom de la classe utilisée en paramètre fasse un certain nombre de caractères. Et puis quelques temps après, j’ai découvert qu’en compilant le programme sans la CRT, ça marchait aussi. <img data-src=" />



Je pourrais en écrire des pages de ce style. Les méthodes de détection sont du pur délire. De ce fait, même avec VirusTotal, il est très difficile de savoir si tu as affaire à un code malicieux ou pas.


Le 09/09/2013 à 18h 32

On peut aussi se demander si le paquet de leaks qui traine n’aurait pas influencé leur choix…





Quant au message en question :



UPDATE 99 10:00am PST:



Based on the feedback from you and our partners, we’re pleased to announce that we will be making available our current Windows 8.1 and Windows 8.1 Pro RTM builds (as well as Windows Server 2012 R2 RTM builds) to the developer and IT professional communities via MSDN and TechNet subscriptions. The current Windows 8.1 Enterprise RTM build will be available through MSDN and TechNet for businesses later this month. For developers, we are also making available the Visual Studio 2013 Release Candidate, which you can download here. For more on building and testing apps for Windows 8.1, head on over to today’s blog post from Steve Guggenheimer.

Le 09/09/2013 à 14h 47

Sûrement pas aussi “advanced” que la V-NAND

Le 08/09/2013 à 12h 20







loser a écrit :



c’est surtout qu’il a plus de 15 ans. Et moi aussi d’ailleurs.





Alors je propose à Nil de faire une section “jeune”, et une section “vieux”. Comme ça, ça contentera tout le monde.

Ah, non, il y en aura encore pour dire que tel ou tel lien n’est pas dans la bonne section.



Si tu cherches de la “diversité culturelle” pour gens matures, alors relis le titre de cette page : tu n’es pas au bon endroit.

LIDD, ça ne veut pas dire “Liens Intelligents Du Dimanche”.

Les LIDD ne sont faits ni pour s’enrichir l’esprit, ni pour te faire oublier ta semaine de merde. Est-ce un problème ?


Le 08/09/2013 à 11h 27







inotoff a écrit :



Ils sont où les lidds ???

J’ai juste vu des videos de gars qui parlent tout seul devant leur caméra (et la plupart du temps en accéléré).

WHouuuaaahhhh la diversité culturelle d’internet est vraiment mise en avant ce dimanche <img data-src=" />





<img data-src=" />





Si tu trouves les liens idiots, alors tu es au bon endroit.

Pour la “diversité culturelle”, c’est par ici.



Et s’il n’y a plus rien qui t’amuse, alors… peut-être que ça ne vient pas des liens proposés.


Le 06/09/2013 à 19h 17







divide a écrit :



Je vais dans ton sens, effectivement en ouvrant le png dans un onglet à part et en zoomant on s’aperçoit qu’il n’y a pas de perte de détail, juste un contraste différent. Et la version HEVC se paye même le luxe d’être plus propre, cf par exemple le spot blanc en haut a droite qui est pourri d’artefacts dans la version h264, ou le dessous de tôle gris vert en bas a droite de l’image qui malgrés l’absence de détails dans les 2 cas, est bien plus propre/précis et moins délavé en HEVC qu’en h264.

C’est plutot très encourageant, le fichier HEVC est à la fois moins lourd et plus propre !





D’un autre côté, un contraste plus bas est plus facile à encoder…

Mais après avoir regardé plus attentivement, il faut reconnaitre qu’effectivement, l’image de gauche a des artefacts qui n’apparaissent pas sur l’image de droite.



En fait, ce qu’il manque vraiment pour se faire une idée, c’est l’image d’origine.


Le 06/09/2013 à 15h 55



… de la partie … de la partie … de la partie …



Une expression très à la mode chez les rédacteurs de PC INpact… un peu trop peut-être.

Le 06/09/2013 à 15h 28







loapinouminou a écrit :



d’après avira Antivir une des DLL comporterai un virus.



le fichier DivXStreamingSplitter.dll, contiendrait le virus TR/Crypt.XPACK.Gen, c’est peut etre un faux positif.





Et sur VirusTotal, ça donne quoi ?


Le 05/09/2013 à 19h 48

Ca ressemble beaucoup à la version GC sur Dolphin… <img data-src=" />

Le 05/09/2013 à 15h 46



Par exemple, lors du premier démarrage, le système réclame un compte Microsoft.



Seulement s’il y a une connexion internet.

Le 04/09/2013 à 18h 29







luxian a écrit :



Franchement, depuis 3 ans, je n’emploie plus que VBox et je garde VM player à tout hasard quand on me donne un vmdk en test (une version virtualisée de MacOS téléchargée de façon pas avouable par exemple) !





Virtualbox gère le VMDK sans problème…



VirtualBox also fully supports the popular and open VMDK container format that is used by many other virtualization products, in particular, by VMware.


Le 03/09/2013 à 16h 30







domFreedom a écrit :



Oui m’enfin y’a pas trop de différences entre la preview et la RTM… <img data-src=" />





Moi je vois au moins une différence majeure : dans le menu Win-X, l’invite de commande traditionnelle est revenue à la place de PowerShell (mais l’option est toujours là pour remplacer).

Et ça me convient très bien. <img data-src=" />



Oh mais au fait, c’est encore un pas en arrière de Microsoft… <img data-src=" />


Le 03/09/2013 à 16h 01







Drepanocytose a écrit :



Mais sinon, qui grogne en particulier ?

On peut les lire où, ces grognements ?





Ici par exemple.


Le 03/09/2013 à 15h 56

Internet est un flot tumultueux de données et de fichiers grâce auquel ce genre de problème n’en est pas vraiment un… <img data-src=" />

Le 03/09/2013 à 15h 26

Tiens, curieux… Selon les les précédents PDF, tous les RED ont 600000 cycles de chargement/déchargement.

Maintenant, alors que les références n’ont pas changé, ce chiffre est tombé à 300000 pour tous les WD*0EFRX (c’est-à-dire toutes les références d’avant).



Nouvelle arnaque sur les dénominations, ou “simple” ré-estimation ?

Le 03/09/2013 à 14h 07







gavroche69 a écrit :



Chez Intel ils doivent passer plus de temps à décliner des gammes à partir du même die silicium qu’à concevoir le die.

Rien qu’à voir les GPU sur les gammes Sandy et Ivy où on active ou désactive certaines fonctions juste pour pouvoir décliner une gamme, c’est impressionnant. <img data-src=" />





Il est vrai que désactiver des fonctionnalités déjà gravées est un peu stupide, mais au niveau des fréquences, il y a forcément des différences étant donné que la qualité d’un wafer est moindre à sa périphérie.

Donc des gammes, il y en aura forcément, au moins à ce niveau-là.


Le 01/09/2013 à 18h 20







patos a écrit :



Le GPU va moins vite (quasiment 2 fois) que chaque coeur. D’autre part, un GPU, c’est des dizaines de coeurs (même s’ils sont d’un type différents. Il est facile d’en graver plus que la normale et recaler ceux qui ont moins de coeurs GPU moins gravés.



Je te rappelle que si tu veux plus de coeurs, y’a toujours les Xeons hein ;-)





Je parle de faire des CPU plus performants au même tarif, pas la peine de me parler des Xeons.

Inutile aussi de me dire que le GPU va moins vite : il s’agit d’une architecture différente de celle d’un coeur de CPU, il est donc normal que la fréquence atteinte soit différente. C’est toujours donc sans rapport avec le coût.



Et puis si tu tiens à parler du coût, renseigne-toi un peu avant : s’il est difficile d’avoir des prix sur les toutes dernières technos produites, une petite recherche rapide permet quand même d’évaluer, grâce au prix d’un wafer et au nombre de CPU qu’on peut y produire, que le die d’un CPU revient à moins de 5 euros, ce qui coïncide assez bien avec le prix de vente final annoncé ici pour les Pentium G.

Alors je sais bien qu’il y a aussi les coûts de R&D, les investissements, etc., mais dire que le cache “coûte extrêmement cher”, c’est assez comique. Le doubler, sans rien enlever du reste, ne ferait monter le prix que de 2 ou 3 euros.



Bref, on a bien compris que tu n’avais pas besoin de plus de puissance, mais évite d’en faire une généralité.


Le 01/09/2013 à 17h 13







patos a écrit :



Sauf que ce même cache coûte extrêmement cher, et n’a donc pas sa place au milieu des i3.

Il ne faut pas oublier comment sont produits les processeurs et comment sont sélectionnés les modèles sous lesquels seront vendus les puces: par défaut de zone.





En quoi graver du cache sur un die couterait plus cher que de graver un GPU ? Sur cet exemple, tu as largement la place pour remplacer le GPU par 2 coeurs et le cache qui va avec.


Le 01/09/2013 à 16h 02







patos a écrit :



Sauf que plus de coeurs sans plus de bande passante mémoire, ça ne sert pas à grand chose





Tous les benchs montrent que l’impact de la vitesse de la RAM est très faible sur les machines récentes, et ce à cause du cache.

Et justement, ce cache est généralement augmenté en fonction du nombre de coeurs.


Le 01/09/2013 à 14h 10

Pourtant l’innovation serait facile : virer la grosse partie graphique et la remplacer par 2 ou 4 coeurs supplémentaires : on obtiendra des CPU beaucoup plus puissants sans augmenter la taille du die ni le TDP.

Et du coup, le prix de vente ne serait pas plus élevé. <img data-src=" />



Pour un peu, on pourrait croire que Intel ne vise plus que le marché des portables… <img data-src=" />

Le 30/08/2013 à 01h 38







zefling a écrit :



Marrant les midi ça passe pas, mais les XM, S3M, MOD, DMZ et co. ça passe. <img data-src=" />





C’est parce que tous ces formats embarquent leurs propres samples, contrairement aux MIDI. C’est pourquoi ces derniers (les MIDI) sont plus petits et qu’ils ne peuvent pas être joués si une banque de sons n’est pas installée sur le système.


Le 28/08/2013 à 23h 18







Reparateur a écrit :



mais bon KM player commence à plus trop être mis à jour …





La dernière version date d’avril 2013. VLC non plus n’est pas mis à jour tous les mois il me semble…


Le 29/08/2013 à 17h 45







patos a écrit :



Ben j’espère que tu n’es pas développeur alors parce que tu te jetterais par la porte fenêtre avec de telles conditions de travail.





Je le suis sur mon temps libre.







patos a écrit :



Tu t’offusques des termes employés en anglais, qui est genre la langue utilisée en informatique 99% du temps? Comprends-les d’abord, on verra après.





Je lis et j’écris de l’anglais pratiquement tous les jours. Mais je sais aussi que le français est bien assez riche, même pour parler d’informatique.







patos a écrit :



L’Alpha est une préversion jugée buguée, mais fonctionnant (je n’ai pas dit fonctionnelle).

La Bêta est une préversion jugée buguée mais fonctionnant et surtout suffisamment fonctionnelle (ce que chacun appréciera).





Ca c’est tes définitions. Sur Wikipédia on en trouve d’autres. Et encore d’autres ailleurs. Qui détient la vérité dans tout ça ?







patos a écrit :



Le développeur se sert toujours de la version la plus fraiche qu’il trouve, mais il fait avec ce qu’il a. Ses interfaces de programmation sont implémentées? Cool. Elles fonctionnent? Magnifique. Bon, fini l’extase, y’a du boulot !





Oui, du boulot agrémenté de documentations imprécises (je peux te trouver autant d’exemples que tu veux sur MSDN, à commencer par la confusion systématique entre le support commercial et le support réel par les systèmes, comme telle fonction qui serait supportée à partir de Windows XP alors qu’elle existe depuis 95), ou pas de documentation du tout, ce qui est pratique pour Microsoft pour changer ce qu’ils veulent au travers de quelques mises à jour, et donc entre une “RC” et une “RTM”…


Le 29/08/2013 à 16h 37







patos a écrit :



La RC sert l’utilisateur pressé, l’administrateur système, le développeur, etc…





Les 2 premiers oui, puisque toutes les fonctionnalités sont présentes. Le dernier non, puisque le développeur ne peut pas se contenter de connaitre les fonctionnalités.

Même dans une version finale d’un système, il y a encore un paquet de bizarreries. Alors se fier à un système déclaré ouvertement comme potentiellement bugué, pour moi c’est juste une blague.







patos a écrit :



Si tu crois que faire du sarcasme peut appuyer tes propos, je pense que tu te mets le pixel dans l’oeil <img data-src=" />





Pourtant, derrière ces sarcasmes, il y a des faits, souvent méconnus des plus jeunes.

Autre réflexion qui te paraitra sûrement comme un sarcasme : quand il n’y a pas de “manufacturer”, quel terme utiliser pour “RTM” ? “Finale” ? Mais dans ce cas, pourquoi ne pas l’utiliser dans le cas de Windows ?

Et une “nightly”, ça correspond à quoi ? Une alpha ? Une bêta ?



En fait, je crois surtout que derrière tout ça, il y a le fait que de ne pas utiliser de l’anglais pour parler d’informatique, ça fait “noob”.


Le 29/08/2013 à 13h 36







Lafisk a écrit :



Et bien non une RC est post béta, que tu veuilles troller sur le contraire, tant mieux pour toi, mais une RC est une RC pas une béta, il a y a toujours des correctifs à la sortie de Windows mais comme je l’ai dis, tu n’as pas très bien l’air de maitriser le concept de béta



Une béta est une version non finalisée d’un lgociel qui peut être amenée à être modifiée de façon plus ou moins grande. Une RC n’est aucunement grandement modifié mais elle peut être amené à être corrigé tout comme un OS déjà commercialisé peut l’être …





Etant donné le paquet de changements internes entre une RC et une RTM qui peuvent influer sur le comportement des logiciels, ça ne fait pratiquement aucune différence pour un développeur.

Les définitions des types de version changent avec le temps. Notamment, Internet a permis de diffuser rapidement et facilement une nouvelle version d’un logiciel, et c’est pourquoi avant ça, on ne parlait ni de RC, ni de alpha, beta ou autres.



Oh, les vilains chez Mozilla, ils ne respectent pas les définitions de Saint Microsoft Wikipédia.

Et pendant ce temps, chez Google, on cherche à faire disparaitre jusqu’au numéro de version.

Finalement, chacun a ses propres définitions, et je suis sûr que ça évoluera encore, qu’on introduira encore des “subtilités” en inventant des nouveaux termes, et surtout, que tu continueras d’utiliser les définitions de Saint Microsoft comme la référence absolue.

A ce propos, Millenium, c’était bien une version finale ? <img data-src=" />



Au fait, je croyais que tu m’avais bloqué. Je constate que ce n’est pas le cas… <img data-src=" />


Le 29/08/2013 à 12h 26







charon.G a écrit :



Quand Windows atteint la RC les fonctionnalités sont déja clos. Il peut rester quelques bugs. Mais si ton application marche sur la RC, elle marchera sur la finale.





C’est bien pour ça qu’on appelle ça une beta : les fonctionnalités pour l’utilisateur sont là, avec des bugs potentiels.

Regarde donc la liste des corrections qu’ils ont sorti peu de temps après la sortie de Windows 8 uniquement destinées à la compatibilité des logiciels…

Dès que ton logiciel compte un peu sur les comportements d’Explorer, tu peux trembler, puisque c’est l’une des choses les plus modifiées entre la beta et la finale.







patos a écrit :



RC = Release Candidate. C’est la dernière étape avant la RTM. Elle sert justement à ça, et ainsi qu’à la compatibilité du matériel.





C’est l’exact opposé : elle sert à celui qui fait la beta. Elle permet à Microsoft de débuguer, pas aux développeurs, puisque ces derniers peuvent voir des détails modifiés sur la finale.



Regarde les cracks de Windows : ils marchent dans la beta, et plus dans la finale. <img data-src=" />

Enfin, je suis pratiquement certain que je n’aurai rien à faire pour mes programmes, mais je n’approuve pas pour autant l’attitude de Microsoft à ce sujet (et je suis loin d’être le seul, voir les commentaires du lien d’arno53 sur le sujet).