votre avatar

HarmattanBlow

est avec nous depuis le 21 juin 2007 ❤️

5048 commentaires

Le 30/09/2014 à 14h 03







yl a écrit :



Et faire de tels bons outils, cela pourrait être un job plus utile pour un sec-guy qu’un article de blog assassin.





Le problème c’est que de tels outils sont limités par le langage. L’arithmétique de pointeurs en C++ ou l’introspection (reflexion) en Java/C# (Field.Set, FieldInfo.SetValue), ou le typage dynamique en JS & co tendent à empêcher les outils d’analyse de pouvoir faire leur boulot correctement.



Ça gêne également le compilateur et ça empêche en prime le développement de plusieurs sémantiques de haut niveau qui nécessiteraient de transformer en profondeur le code pour être efficace (contraintes déclaratives, invariants, sémantique de sériabilité, etc).



Le jour où un outil sera capable de circonvenir ces limitations, alors cet outil pourra écrire le code lui-même selon tes spécifications verbales et interactives. C’est pas demain la veille alors en attendant il va falloir changer de langages.


Le 30/09/2014 à 11h 20







Jed08 a écrit :



Le code de Bash a été écrit dans les années 80 avec les standards des années 80 et n’a jamais été modifié.

Dans cet article, on a une petite vision de ce qu’il ne va pas dans le code.





J’imagine déjà les articles de 2040 qui vilipenderont le code écrit aujourd’hui.





  • Le code est écrit en C++, un langage connu pour n’avoir à peu près aucun mécanisme de sécurité, rendant très difficile l’analyse de code et la détection de failles, et dont le système de types n’a pas été conçu avec la testabilité à l’esprit.



  • Le parsing des entrées et des messages réseau est fait à la main plutôt que de s’appuyer sur un parser.



  • Le recours à de la programmation dynamique interdit la séparation des pages de code et de données.



  • Les états sont gérés manuellement plutôt que d’avoir recours à des outils déclaratifs et réactifs, ou à un éditeur graphique d’automate. Il n’y a aucune trace de déclaration d’invariants ni même de mécanismes pour en déclarer et les faire vérifier automatiquement. Seul le paradigme impératif est utilisé et autorisé même lorsqu’il est inadapté.



  • La concurrence est gérée manuellement sans aucune sémantique dédiée de haut niveau pour automatiser l’implémentation et valider la cohérence.


Le 29/09/2014 à 21h 40







John Shaft a écrit :



Espérer trouver plus de Gordon Freeman dans leur rangs ?





Osef, on a déjà Will Smith pour sauver le monde des aliens.


Le 29/09/2014 à 20h 38







John Shaft a écrit :



Hmm, le mystère reste entier. Je penche pour la matière noire… ou des salles remplies de rats de laboratoire trimant sur des mini-vélos faisant tourner des dynamos <img data-src=" /> <img data-src=" />





A quoi crois-tu que servent tous ces thésards ?!


Le 26/09/2014 à 14h 31







Jean_Peuplus a écrit :



T’es plutôt PvP ou PvE IRL toi ?





Nan mais le pvp c’est fumé, à chaque fois que tu veux te faire une petite vieille tu as des gardes qui te tombent sur le râble. Tu réz au tribunal, tu zyeutes la nana en robe devant toi et si t’as pas de bol le compteur est à deux ans d’attente. Où est le fun ?!



On sent bien qu’ils essaient de concentrer le PVP sur les arènes (judo, boxe, …) et les champs de bataille (Irak, Afghanistan, …) mais sans le PVP sauvage y a plus de fun.


Le 26/09/2014 à 07h 31







Spidard a écrit :



On nous signale un foule de participants au ball-trap qui se massent sur la rive…





<img data-src=" />


Le 26/09/2014 à 07h 18







mirandir a écrit :



C’est Gnome donc c’est pas du Qt, c’est forcement du GTK. De plus le Shell est majoritairement écrit en Javascript / CSS.





Merci beaucoup. <img data-src=" />


Le 26/09/2014 à 06h 45

Depuis une poignée d’années le monde Linux a quand même de très belles UI. La start screen de Windows fait pâle figure en comparaison de la mosaïque de grandes icônes de la seconde image, si Windows avait fait de même ils auraient peut-être eu plus de succès.



Au passage, quelqu’un peut-il me dire ce qu’ils utilisent comme techno UI pour faire leurs anims svp ? Qt, Qt Quick ou une solution maison ? Je voudrais jeter un coup d’oeil.

Le 25/09/2014 à 17h 07







tass_ a écrit :



Y a contradiction là, certains disent que c’est interdit parce que c’est un espace public, toi tu dis que c’est une propriété privée.





Fumer la cigarette est interdit par la loi et les agents de la SNCF peuvent te coller une contravention (puisqu’ils ont des privilèges pour cela - une compagnie privée appellerait les flics)



Vapoter est interdit par le règlement de la SNCF et les agents de la SNCF peuvent seulement t’ordonner de quitter la gare ou appeler les flics pour t’y forcer, au motif que tu es sur leur propriété.



Je présume que c’est la réponse exacte - je ne suis pas juriste.


Le 25/09/2014 à 16h 00







Reznor26 a écrit :



les lois concernant les fumeurs seront irrémédiablement de plus en plus répressives, c’est le sens de l’histoire.





Oui, comme la surveillance de masse et la mise à mort de la démocratie par le néo-libéralisme.


Le 25/09/2014 à 15h 48







tass_ a écrit :



Parce qu’un message dans la gare fait office de loi ?





Il ne fait pas office de loi mais la loi autorise alors la SNCF à faire appel la force (y compris aux forces de l’ordre) pour t’expulser.



Les gares sont des propriétés privées et chacun est maître chez soi.


Le 25/09/2014 à 13h 05







amikuns a écrit :



Quand l’occulus rift sera accompagné de jeux ou il sera utile.<img data-src=" /><img data-src=" />





J’ai toujours trouvé que les équipages de Star Trek ne savaient pas profiter de leurs holodecks.







jethro a écrit :



T’en connais qui vapotent des pseudo aromes dégeulasse pour le plaisir et sans nicotine ?





C’est un peu comme s’injecter de l’eau en IV.

J’ai de la Vichy, c’est de la bonne.


Le 25/09/2014 à 13h 03







eliumnick a écrit :



Le problème c’est que absolument TOUT peut te rendre accro psychologiquement…





Oui enfin il y a une petite grosse différence entre un tic comportemental, par exemple, et un shoot de dopamine. L’un des deux rend nettement plus accro et il est nettement plus difficile de s’en désaccoutumer.


Le 25/09/2014 à 12h 58







eliumnick a écrit :



C’est faux! Enfin, il y a une légère dépendance physique, qui disparait en 48à 72h… n’importe quel médecin te le dira.





Oui, comme pour toutes les drogues, la dépendance physique disparaît très rapidement. Cette dépendance peut mettre en danger mais ce n’est pas le vrai problème.



Le problème c’est bel et bien la dépendance psychique : quand pendant des années tu as conditionné ton cerveau à avoir recours à ces doses importantes de dopamines et autres endorphines pour stimuler ton humeur et tes capacités de réflexion, l’arrêt te fait soudain plonger dans la dépression et le brouillard intellectuel pendant des semaines avec, cerise sur le gâteau, une obligation de restriction alimentaire permanente pour pallier le ralentissement du métabolisme (la cigarette dopait ta conso énergétique de 10% environ).



Par ailleurs la nicotine est loin d’être le seul addictif présent dans les cigarettes, je ne suis même pas sûr que ce soit le plus puissant.


Le 25/09/2014 à 14h 43

Pour ceux que le sujet intéresse, la MIT review avait publié un article intéressant sur les problèmes que Google doit encore résoudre.



En particulier l’article souligne (et laisse déviner sur certains points) à quel point Google compte utiliser sa puissance financière pour pallier les lacunes de l’IE via un travail intensif de relevés cartographiques.

Le 24/09/2014 à 15h 56







Konrad a écrit :



La News :



Ça ne sera donc pas dans les écoles, ça ne sera pas sur le temps de cours, et ça ne sera pas au même niveau que les maths ou l’anglais…





Cette citation est au présent, la ministre parlait du futur proche.


Le 24/09/2014 à 15h 49



« Le Conseil supérieur des programmes a bien évidemment ce sujet en tête pour la réforme des programmes, et nous souhaitons que ça puisse voir le jour dès que la réforme des programmes sera adoptée. C’est un sujet qui va pouvoir avancer rapidement »



Pffffff, bravo, les lobbies ont encore gagné.



Que des écoles fassent une initiation à la programmation sur les heures d’activités (pas sur les heures de cours), c’est intéressant. En faire un machin obligatoire et au même niveau que les langues étrangères c’est complètement con.



D’abord le français et le calcul. Ensuite l’anglais (ceux qui ne le parlent pas sont déjà des analphabètes dans nombre de domaines et avec l’UE ça va vite empirer - dans peu de décennies l’anglais sera plus important). Après et sur les heures d’activités, le reste : programmation, musique, dessin, etc, peu importe tant que ce sont des activités diversifiées avec lesquelles l’instit se sent à l’aise.

Le 24/09/2014 à 15h 18

Radioactive man a dores et déjà annoncé qu’il poursuivra Riot en justice.

Le 24/09/2014 à 09h 08







FunnyD a écrit :



Scorpions avec “The Wind of Change”





Mouais, j’aurais plutôt dit I need a hero de Bonnie Tyler.


Le 24/09/2014 à 08h 48

Windows 9 - The revenge of the start menu.

“He’s back and he’s gonna kick your ass.”

Le 24/09/2014 à 08h 45







Anna Lefeuk a écrit :



Blibli aura une “fin” à la Apple à mon avis: Du cash, une rente de jeux qui marchent mais plus d’idées novatrices.





Tu abuses, nous ne sommes que mercredi. <img data-src=" />











<img data-src=" />


Le 24/09/2014 à 08h 45

Le PDG a annoncé dans la foulée que les assets de Project Titan seraient recyclés dans un pack de mascottes vendu 250€.

Le 24/09/2014 à 08h 31







ouais a écrit :



je ne comprends pas cette histoire de tnt vitale.

qu’est ce qui les empêche de faire passer lci en gratuit via l’adsl sur les box des opérateurs???





a) La mauvaise qualité de réception de la TV adsl en maints endroits.

b) Le fait que beaucoup de gens n’ont pas branché la box ou ne vont pas regarder celle-ci à cause des manips supplémentaires.







Vilainkrauko a écrit :



Il semblerait que le châtelain ne veuille pas vendre a des romanos … comme c’est étrange ! <img data-src=" /> <img data-src=" /> <img data-src=" /><img data-src=" /><img data-src=" />





L’explication est belle mais je m’en méfie. Pour commencer le trio a annoncé qu’ils “pourraient formuler une offre de reprise”. Ça n’invite effectivement pas à les prendre au sérieux. Qu’ils mettent un prix sur la table. Tant que ce ne sera pas le cas, ce ne sont que des passes d’armes entre magnats des médias.


Le 23/09/2014 à 10h 47







John Shaft a écrit :



C’est mignon : le premier Curateur listé est TotalBiscuit. Le jeu qu’il recommande le plus est PlanetSide 2. On se demande bien pourquoi tiens <img data-src=" />





Allons, un peu de foi en l’espèce humaine, on peut très bien accepter un contrat de sponsoring et conserver son intégrité.



Au fait, vous ai-je parlé des chaussures Azidas 12000 ? J’ai testé mes nouvelles Azidas 12000 hier et je dois dire que j’ai été bluffé par leurs performances : j’ai carrément amélioré mon sprint de 0,5s !!! Et puis cette allure… Si une panthère me voyait avec mes Azidas 12000, elle s’enfuirait de peur. A titre personnel je recommande vivement les Azidas 12000, que vous soyez un sportif exigeant, un accro de la natation ou bien un randonneur du dimanche.


Le 23/09/2014 à 08h 27

Je viens de regarder ça, c’est plutôt intéressant du point de vue conception UI.



Première chose : c’est impressionnant de voir à quel point une boîte comme Valve avec de gros moyens techniques et tout un réseau social pour leur fournir des données peut être à côté de la plaque au niveau de leurs recommandations (du moins me concernant). Apparemment le big data c’est pas encore ça pour tout le monde. <img data-src=" />



Par contre leurs recommandations de pied de page sont plus intéressantes parce qu’elles sont argumentées (“parce que vous avez joué récemment à XYZ”) et qu’il y a trois copies d’écran.



Sinon le cadre “explorer” est franchement raté, pas pratique à utiliser, c’est du gâchis d’espace. Je ne suis pas fan non plus du cadre des curateurs mais ça doit être plus efficace, ça plaira sans doute à certains.



Enfin sur un plan plus perso on peut virer les early access et les utilitaires du cadre principal ! Formidable ! Et leurs recommandations puisqu’elles sont à la ramasse.

Le 23/09/2014 à 10h 40

On murmure qu’Adobe aurait fait une excellent affaire avec un prix estimé à moins de 65 milliards de dollars.

Le 22/09/2014 à 09h 37

Je pense qu’il faudrait appliquer un traitement différencié pour les petites communes : autant le conseil municipal d’une ville grande ou moyenne doit être diffusé sur Internet (et on devrait même contraindre la ville à le faire), autant il est déjà suffisamment galère de trouver du monde pour s’investir localement dans les petites villes sans qu’on vienne en plus les contraindre à se mettre à poil sur Internet.



L’exposition sur Internet peut aussi être une souffrance, alors ne l’imposons que là où l’exigence est forte. En l’occurrence dans les villes grandes et moyennes.

Le 22/09/2014 à 08h 44

Cela me réconforte de voir que cette longue tradition de clientélisme local se perpétue encore aujourd’hui aux frais de la république.



Merci à l’association Regards Citoyens de m’avoir permis de vérifier qui, dans ma circonscription, palpe le plus du député actuel.

Le 19/09/2014 à 16h 49







Adrian Shephard a écrit :



J’espère qu’ils vont se sortir les doigts de l’oignon un de ces 4 parce que là c’est clairement pas assez puissant pour la 4K: à l’heure qu’il est, aucune carte graphique mono-core n’est capable de faire tourner un jeu en 4K avec les mêmes détails et la même fluidité qu’une 480 est capable de le faire en Full HD. Ce qui veut dire qu’un passage en 4K natif va être un retour en arrière de 5 ans au niveau de la qualité du rendu! Pas glop du tout!!!





De toute façon c’est très simple : tu connais la loi de Moore ? Tous les dix-huit mois on double le nombre de transistors. Donc à architecture égale, au bout de trois ans on peut traiter quatre fois de pixels.



C’est pas une question de magie, de “se sortir les doigts” ou autres. C’est la loi de Moore (même si celle-ci implique des des gens se remuent, mais c’est ce qu’ils font sans discontinuer depuis des décennies).



En pratique la transition se fera sans doute sur plus longtemps que ça parce qu’à nombre égal de pixels la qualité d’image continuera aussi à augmenter, tout en étant rapidement accessible pour ceux qui mettront le prix. Mais pas besoin de se presser, ça se fera au rythme du marché et de Moore, ni plus vite, ni plus lentement.



Maintenant il y a des évolutions plus intéressantes comme la lithographie 3D et 2.5D, l’incorporation de la mémoire dans les CPU/GPU, les archis CPU/GPU unifiées (unifiées, pas seulement collées ensemble) et autres formes de parallélisme massif dans le CPU, avec une possible disparition des GPU grand public. A niveau-là les années à venir vont être plutôt cool après une décennie moribonde.


Le 18/09/2014 à 17h 00

En clair on se retrouve encore une fois avec AMD promouvant les standards, et NVidia tentant d’imposer sa solution. A mon avis NVidia débauche tous ses responsables marketing chez Apple.

Le 18/09/2014 à 13h 07







TontonLud a écrit :



Qu’ils demandent à Coca-Cola leur recette aussi !





Les algorithmes de Google ne sont pas un secret pour ses concurrents vu le nombre d’employés qui bossent ou ont bossé dessus, et le nombre d’algos ayant fait l’objet de publications ou d’ouverture du code.



De toute façon même si ces concurrents voulaient les copier (en supposant qu’ils n’en aient pas déjà de nombreux identiques - par hasard ou délibérément - ou supérieurs - sur certains points), d’ici à ce que ce soit fait ces algorithmes seraient déjà périmés et remplacés par d’autres.



Non, comme dit dans l’article le risque est plutôt que de nombreux sites bidouilleraient leurs pages pour remonter dans le classement.



De toute façon je ne pense pas que le type se rende vraiment compte de ce qu’il demande et il serait facile pour Google de mentir. Et à mon avis les interventions humaines dans le classement sont beaucoup plus nombreuses que ce qu’admet Google.







tmtisfree a écrit :



Tout montre qu’il ne l’est pas (*). Problem solved!



(*) Il existe des dizaines de concurrents et le marché est ouvert.





Ce n’est pas la définition d’un monopole et Google en est évidemment un sur le marché de la recherche en Europe.


Le 16/09/2014 à 20h 32

Joli pied-de-nez, bravo Marc.

Le 15/09/2014 à 12h 22

D’une part on a donc droit au bon gros flicage marketing, de l’autre le catalogue est loin d’être exhaustif (toujours ces jeux d’exclusivité et autres conneries), et enfin si j’ai bien compris le seul client Windows passe par Windows Store ?



Impossible par exemple d’avoir une fenêtre que l’on peut redimensionner et à laquelle s’ajusterait le flux vidéo (peut-être W9 si le flux se met à l’échelle) ? Ou de pouvoir passer du mode fenêtré au mode plein écran d’un simple double clic comme le font tous les lecteurs multimédias depuis presque deux décennies ?





J’ai trois bonnes raisons de rester sur le piratage. <img data-src=" />

Le 15/09/2014 à 12h 11

Prédiction de mouvement ou pas je ne crois pas un instant au confort de cette technologie.



En comparaison du jeu dans le navigateur à 60ips on pourra de toute façon en faire dans un avenir proche avec un rendu en local plutôt que sur un serveur.

Le 13/09/2014 à 11h 33







Ety a écrit :



J’avais posé la question sur un autre article en rapport avec la DDR4, actuellement la DDR4 fait du CAS 16 ou du 15…





Ouch ! Merci bien, ça va faire mal sur certaines applis au début.







sylvere a écrit :



les latences sont exprimées en nombre de cycles, comme la fréquence augmente les latences ne s’empirent pas vraiment en temps absolu.





Sauf que la fréquence ne bondit pas vraiment il me semble alors que la latence, oui.







kikoo26 a écrit :



Ça un gros INpact la vitesse de la RAM sur la rapidité du PC ?



Parce que sur tous les programmes que j’utilise, quand c’est lent, soit je vois que c’est le CPU avec un ou plusieurs cœurs à fond, soit c’est l’accès au données (SSD/HDD/réseau/internet) qui traine.





D’abord l’activité CPU inclut le temps passé à se tourner les pouces en attendant les données de la RAM. Tu ne peux donc pas voir ce genre de problèmes dans le gestionnaire des tâches.



Et, oui, la RAM joue beaucoup. En fait un des grands défis des CPU modernes est de les tenir occupés en leur filant plein de cache et des RAM de plus en plus rapides pour s’assurer qu’ils ont toujours les données nécessaires à la poursuite de l’exécution. Donc tu dois harmoniser ton CPU et ta RAM, les perfs seront dictées par le plus lent des deux (et augmenter l’autre n’aura aucun intérêt).



Pour te donner une idée un CPU peut mouliner en moyenne plusieurs instructions par nanoseconde. En comparaison un accès aux données depuis la RAM coûte plusieurs dizaines de nanosecondes. D’où ces caches énormes dans les processeurs.



Après pour choisir ta RAM, dans certains cas la fréquence est plus intéressante, dans d’autres c’est le rapport CAS/fréquence qui doit être le plus bas possible (latence), tout dépend si les accès sont séquentiels ou aléatoires. La plupart du temps ces derniers dominent.


Le 12/09/2014 à 17h 16

Par contre, qu’en est-il des latences ? Celles-ci sont-elles empirées, comme lors du passage de la DDR2 à la DDR3 ?



Sinon j’imagine que ce sera la dernière génération de RAM sous forme de barrettes (sauf serveurs). Après ça j’ai l’impression que la RAM intégrée au processeur va prendre le dessus. Quand les procédés de production seront au point ça peut permettre de belles avancées, surtout en termes de parallélisme.

Le 13/09/2014 à 11h 22

Je n’ai même plus la force de railler ces projets de lois tous plus liberticides et malfaisants les uns que les autres. Depuis deux décennies la démocratie et liberté ne cessent de subir des attaques en règles et le compte des victoires est bien mince au regard de celui des défaites.

Le 12/09/2014 à 17h 21



« le problème est celui de la réapparition du contenu puisque cela veut dire que les sites connaissent ce contenu. À réception de la notification, ils savent que c’est contrefaisant, une minute après, ils ne le savent plus. Ainsi brusquement, ils auraient une mémoire de poisson rouge ! ». Elle poursuivait : « arrêtons l’hypocrisie ! Techniquement c’est possible et la mise en œuvre d’un tel système n’est pas une montagne »



Vache ! Ça c’est de l’expertise technique !



Elle aurait ensuite déclaré que de toute façon ça fait longtemps qu’on sait faire des voitures à anti-gravité alimentées aux peaux de bananes, que c’est pas une montagne et qu’y faut arrêter l’hypocrisie. D’ailleurs la preuve c’est que si une voiture saute sur un tremplin ben elle vole, et puis quand elle a ratterri ben soudain elle peut plus voler ?! Comme quoi les vendeurs de voitures c’est vraiment des grosses feignasses.

Le 12/09/2014 à 16h 01







yl a écrit :



En devant déplacer les têtes d’un bout à l’autre en permanence? Soyons un peu sérieux…





A priori pas plus qu’avec une écriture non-fragmentée : la distance moyenne entre un point arbitraire et le plus grand espace disponible est statistiquement la même qu’entre les points de départ et d’arrivée de la défragmentation.



La défragmentation a contre elle le fait d’avoir en plus réalisé une écriture initiale fragmentée (nécessitant peu de chemin) et les quelques lectures avant défragmentation, mais elle a pour elle le fait que la défragmentation traite généralement plusieurs fichiers d’un coup…



Bref, il semble difficile de dire qu’elle ferait faire plus de chemin au disque. A priori je dirais plutôt moins mais ça dépend des cas de figure. En revanche la totalité des écritures sont plus rapides et la très grande majorité des lectures sont aussi rapides.



Il faut vraiment oublier ces décennies de trolls crasseux à propos de la fragmentation. Ce n’est pas sale, au contraire. Les algorithmes dits fainéants sont souvent très efficaces.


Le 12/09/2014 à 15h 39







bismarckiz a écrit :



punaise ça veut dire que parce que les gens adore leur habitudes, on ne peut utiliser qu’un volant classique sur une voiture volante ! Mince, heureusement que c’est faux … On utiliserait encore des charettes avec un nombre incalculable de chevaux devant pour pas changer les habitudes.





Personnellement je conduis toujours mes voitures avec un fouet à cheval. L’ennui c’est qu’il faut la décapoter en hiver.


Le 12/09/2014 à 13h 13







millman42 a écrit :



NTFS tien un journal comme ext4 pour éviter la fragmentation. cf wikipadia





Une table ou un journal ne sont pas un tas, ils demandent moins d’écritures sur le disque (pas de problème d’équilibrage). Et leur rôle n’est pas d’éviter la fragmentation. A ma connaissance NTFS ne stocke pas de tas (et il n’y pas de telle mention sur wikipedia).



De la même façon un tas ne remplace pas le journal ni la table des fichiers, tu dois écrire ces trois artefacts.


Le 12/09/2014 à 11h 09







yl a écrit :



Avec les SSD, la fragmentation peut avoir des avantages et on peut même la provoquer volontairement afin d’aligner les fichiers sur la taille d’un bloc d’erase.





Ça a un autre avantage, tout simple : tu n’as pas à maintenir un tas en mémoire et sur le disque.



Ce type de structure est nécessaire si tu veux éviter la fragmentation. NTFS n’en n’a pas besoin.





Tu me permettras de douter que microsoft fasse cela, quand tu vois qu’ils passent a côté d’un tas de choses bien moins futées!



Cette optimisation est négligeable, on parle de trois poils de mouche, à quoi bon concentrer des efforts là-dessus et pourrir le code ?



Ensuite j’adore ta formulation : “futé”. On croirait que ce sont des abrutis qui ne connaissent pas les super-astuces du monde Linux, ça me fait marrer. Pas du tout ridicule.



Tu sais pourquoi il y a tant de petites astuces dans le monde Linux ? Parce que les dévs préfèrent se palucher avec ces petites astuces plutôt que de contribuer à des choses vraiment utiles. Je sais de quoi je parle, je suis dév.





Autrement tu arrives à te retrouver avec des fichiers systèmes étalés partout, parfois même celui lié à la mémoire virtuelle, jusqu’en fin de disque ou les accès sont lents (cylindres extérieurs du HDD). C’est donc bien un problème.



C’est à ça que sert la défragmentation : elle repousse le paiement de la taxe d’écriture aux temps morts plutôt que de la payer lors de l’écriture elle-même. Si bien que tu finis avec des écritures rapides ET des lectures rapides.


Le 12/09/2014 à 10h 49







cronoskev a écrit :



Déjà qu’on se trimbale encore le FAT32 et le NTFS….









yl a écrit :



Pour NTFS, disons que le temps joue pour microsoft: On aura tous des SSD ou la fragmentation ne pose plus guère de problèmes qu’ils n’auront pas encore viré ce truc bien dégueu qui vous en éparpille aux 4 coins d’une partition en quelques utilisations!





Mais il est très bien NTFS, je ne vois pas le problème.



Et puis arrêtez avec la fragmentation : quand vous faîtes un système de fichiers vous avez le choix entre deux mauvaises solutions

* soit vous accélérez l’écriture au détriment de la lecture en écrivant au premier endroit venu (plus proche de la position actuelle donc accès plus rapide)

* soit vous accélérez la lecture au détriment de l’écriture en maintenant une grosse table des emplacements libres (qu’il faudra aussi mettre à jour) et en écrivant dans le plus grand espace libre (plus loin de la position actuelle).



Y a pas une solution meilleure que l’autre, seulement un choix à faire. Et avec le temps et les SSD la fragmentation n’a plus que des avantages, c’est clairement devenu le bon choix.


Le 12/09/2014 à 15h 01







Grumlyz a écrit :



Ce serait bien qu’un candidat crédible à la présidentielle (déjà c’est mal barré) fasse une belle réforme pour limiter voire supprimer la possibilité de ces “optimisations” fiscales.





Impossible à l’échelle française. Même à l’échelle Européenne et si nous étions tous d’accord (et les Luxembourgeois, entre autres, ne le sont évidemment pas), ce ne serait sans doute pas suffisant. Je ne vois que l’échelle mondiale pour résoudre le problème.



Et encore… Il serait toujours possible de magouiller, ce serait simplement dans une moindre ampleur.


Le 12/09/2014 à 09h 50







metaphore54 a écrit :



Oui par heure regarde la productivité sur un an on est loin derrière





Pas du tout ! Sais-tu que notre PIB nominal (i.e. sans tenir compte des disparités de pouvoir d’achat) par habitant est supérieur au leur ? Sais-tu que nos heures travaillées par salarié sont supérieures au leur ? Notre productivité est supérieure qu’elle soit par heure, par salarié et par an ou par euro investi. Et ce n’est pas un artefact statistique dû aux différences de chômage (ou au surplus de temps partiel, qui avantagerait l’Allemange), c’est bien réel.



Ils ont baissé les salaires et réduit leurs services publics, ils ont une stratégie de dumping par rapport à l’échelle Européenne. Certes ils ont aussi des industries innovantes (mais pas tant que ça) et positionnées sur de petites niches où ils sont indélogeables. Mais ça s’arrête là, c’est fondamentalement un pays moins productif que nous, moins solidaire que nous, avec de bas salaires et pas d’enfants : le reste est bon mais pas exceptionnel. Et l’EU encourage ce modèle low cost.







Aloyse57 a écrit :



Et toi le super salarié, ta paie ne suffira pas à payer les milices pour protéger ta baraque, ta voiture, ta vie, des hordes de gens affamés qui se précipiteront dès qu’ils pourront pour te les arracher et survivre.Temporaire, car une fois que tu auras de la concurrence prête à bosser non pas pour du fric mais pour de la bouffe, je ne donne pas cher de ton emploi.





Ce se voulait sarcastique, je ne prône pas ce modèle, je souhaite la destruction de l’EU.



Par contre je suis le patron et même si j’avais été salarié on ne m’aurait pas remplacé par un type bossant gratuitement.


Le 11/09/2014 à 20h 45







metaphore54 a écrit :



Le problème dans la zone euro comme on ne peut pas baissé la valeur de la monnaie et que nous sommes 18, les seules manières de se faire concurrence est la qualité de nos services publiques et les impôts. Le problème en France c’est qu’on paie beaucoup trop d’impôts par rapport au service rendu (l’efficacité par € dépensé).





Bien sûr que non, il y a d’autres façons : payer moins cher les employés, supprimer les retraites, faire en sorte que seuls les membres productifs ou fortunés puisent recevoir des soins, etc.



On n’a pas besoin des vieux et des improductifs pour avoir un marché efficace, ni de bien payer les employés (sauf ceux qu’on veut conserver). Le recul significatif de l’espérance de vie qui en résultera affectera certes négativement la consommation, mais cela sera très favorable pour la productivité et la compétitivité de nos entreprises et au final l’économie y gagnera. Surtout dans une Europe de plus en plus ouverte où les importations vont croissantes et la pression concurrentielle avec elles.



Et c’est exactement ce qui se passe. L’Allemagne a une productivité (par heure, par euro ou par salarié) inférieure à la nôtre mais ils ont aussi des salaires moins élevés. Et à côté de ça le fait de ne plus avoir fait d’enfants depuis vingt ans a considérablement réduit leurs dépenses d’éducation, de santé et familiales. Cela les affectera négativement d’ici dix ou vingt ans mais pour le moment ça les avantage.



Bref, la solution c’est donc tout simplement de baisser les salaires, de sucrer les allocations familiales, les allocations logement, les retraites, de réserver la sécu aux salariés et d’importer des diplômés. Et de prévoir plus de flics, avec un bon stock de balles.



Merci l’Europe !







coket a écrit :



C’est à nous de nous harmoniser; pour faire en sorte que les entreprises, les cadres sup, les riches, arrêtent de fuir la fiscalité la plus effrayante des pays civilisés…





Exactement, c’est ce que je disais : supprimons la moitié des recettes publiques et donc la moitié des services publics. C’est la solution européenne.



Merci l’Europe !


Le 11/09/2014 à 18h 08







tmtisfree a écrit :





  • Jean-Claude Juncker





    C’est bien ainsi que les choses fonctionnent (voir ISDS) mais je doute que la citation soit vraie. En tout cas je ne l’ai retrouvée sur aucun site digne de foi.


Le 11/09/2014 à 18h 04







zefling a écrit :



Et quelle langue ? l’allemand ? <img data-src=" />





Combien de sites professionnels ont-ils imposé l’anglais comme langue de travail ?

Combien de sites d’enseignement supérieur dispensent-ils des cours en anglais ?

Combien de chaînes proposent-elles des contenus en anglais ?

Combien de parlementaires européens et fonctionnaires européens s’expriment en privé et en public en anglais ?



Fais la même avec l’allemand et ça répondra à ta question.



Maintenant prends ces tendances croissantes, extrapole sur un siècle, ajoute une immigration européenne non-francophone croissante quand il deviendra possible de tout faire en France sans parler français et tu sauras quelle langue on parlera demain en Europe. Au singulier, le reste ayant la même place que le breton ou le corse aujourd’hui.


Le 11/09/2014 à 16h 55







Lion-Soul a écrit :



Exact.

Une Europe avec une TVA, un niveau de vie, un smic, une secu, des lois, et une fiscalité identique





Et tu prends le niveau de vie des Roumains ou des Français ? La laïcité à la française ou le quasi-catholicisme d’état à la polonaise ?



Niveau langage, tu l’harmonises rapidement à coups de fouet, ou bien tu attends une ou deux générations que tout le monde s’y soit mis ?


Le 11/09/2014 à 16h 53







tmtisfree a écrit :



7.7 Millions de trop d’un impôt anti-économique et anti-emploi, mais excellente nouvelle tout de même. Qui voudrait financer les politiques dispendieuses et anti-sociétales des bouffons incultes élus par quelque veau du même tonneau et qui pensent nous gouverner sans notre assentiment ?





Avec Google et l’EU, chacun pour soi et mort aux pauvres. Ça créera de l’emploi dans l’industrie du sapin.