Question a la con, vous confondriez pas applet (intégrée au navigateur) et JVM hors navigateur ?
Parce que arrêtez moi si je me trompe, mais a partir du moment ou on a le .jar, pourquoi lancer l’applet alors que l’appel d’une JVM externe qui est certainement plus à jour passerait aussi bien ?
Hormis la gestion réseau qui doit passer par un websock, pour rendre un .jar externe utilisable, je vois pas ou se situerait le soucis d’adapter une applet pour en sortir un standalone. L’affichage dédié au moteur de rendu du browser web ? Foutaise, ça fait bien longtemps que les moteurs type gecko, moz/mozdom et autre sont aussi standalone, du coup, le coût de migration serait quasi nul. Et a ma connaissance, il est toujours possible de demander un render web dans une JVM.
Enfin c’ptête parce que je vois ça d’un point de vue sys et pas dev.
Trop peu de personnes sur ces soit disant réseaux libertaires, voir liberticides de fait, pour que ça soit fiable.
J’aurai même plutôt le conseil inverse a faire actuellement : vous voulez passer inaperçu ? Ne cryptez pas, ou du moins pas grand chose.
Le cryptage n’as gagné sont droit d’exister que parce qu’il répondait a un besoin (celui de pouvoir effectuer des transactions raisonnablement sécurisées entre deux tiers, en toute confiance.) Philosophiquement et techniquement parlant, internet n’est qu’un moyen de communication(s), pas un endroit pour y placer sa vie.
J’ai besoin du cryptage pour pouvoir parler avec ma banque, communiquer avec des personnes éloignées de ma vie privée. Partant de ce principe, je n’utilise pas le cryptage, je ne vois pas en quoi il me servirait plus. HTTPS ? Pour quoi faire le S ? sachant par exemple que ce commentaire, qu’il soit en S ou pas, ne changera rien, il sera accessible sur le site, en clair.
Il y a donc bien un dévoiement des usages des canaux cryptés a la base. Et une sortie du contexte qui est dommageable et force a prendre de telles mesures. C’était aussi le point de vue de mecs comme Stallman a une époque pas si lointaine : dans les années 70, l’encouragement était de ne pas utiliser de mots de passes pour l’utilisation de services généralistes, et de ne pas partager sa vie privée, cloisonner, sur les réseaux électroniques pour justement ne pas avoir a avoir une telle montée en puissance dans les besoins. Sauf que … Et bien sauf qu’il a fallut en avoir toujours plus.
Il faut être pragmatique. D’accord, on a pas forcément envie d’avoir un procès d’intention quant a nos communications privées, mais ce besoin d’une telle débauche de moyens pseudos techniques (parce que soyons honnête, ils n’abordent pas le fond du problème techniquement, mais laissent une marge très important pour justement laisser le champ libre a une évolution du matériel hard et soft employé chez nos FAI et autre) de la part de nos administrations n’est-il pas du fait d’une envolée des discours alarmistes ? Ils ne sont pas seuls fautifs.
Yep, c’est grave, yep encore, c’est crasse (de part la possibilité des trous laissés, des manquements aux libertés peuvent être fait). Mais je ne vois très franchement pas d’autres solutions. Soyons francs, réinventé la roue, refaire internet, c’est impossible aujourd’hui. Le remettre d’aplomb et revoir l’utilisation qui en est fait, c’est pas impossible, et même salutaire : se rendre compte que la crypto pour utiliser facebook, ça sert a rien, rendrait les communications d’éventuels terroristes, plus “visible”. Arrêter d’utiliser des VPN pour communiquer avec sa banque, mais contribuer a faire du système de sécurité de celle ci (et donc signaler d’éventuels problèmes) plus intelligent. Ce ne doit plus être la fin qui doit dicter les moyens (qui seront de toutes façons de plus en plus dur, c’est la politique justement recherchée par toutes personnes désirant un ascendant sur d’autres) mais bien les moyens qui doivent déterminer si oui, ou non, on peut arriver a se qu’on désire.
Et je préférerait me priver d’un internet que d’arriver a vivre gouverné par d’éventuels fascistes sous pretexte que des gens utilisent des outils d’une certaine manière pour arriver a leurs fins. Il faudra juste a un moment se dire qu’il faut stopper l’escalade. Parce qu’actuellement nous sommes dans un cercle vicieux et avec une telle politique, ça ne fera que s’accentuer (et alors les terroristes, présumés ou non, auront vraiment gagné)
Le
01/02/2016 à
17h
28
Techniquement, TCP over IP permet de forger ses trames et donc de modifier les entête affichant les IP (puisque a ma connaissance aucunes RFC oblige d’avoir une IP valide.) Une fois la co établie, le VPN masque donc bien l’IP d’origine si tu suis les RFC a la lettre. Et se qui passe dans le tunnel reste donc encrypté.
Si tu spoof une ip sur un range totalement neutre, de fait, tu peut même faire croire a ton FAI que tu te co a partir de la Russie ou de la Pologne. Il faut descendre d’une couche pour avoir un truc a peut prêt fiable. Et dans les faits, c’est très certainement se qu’il risque de se passer : c’est plus facile d’avoir accès aux flux physiques, et donc brancher une carte sur le BAS qui va faire la jonction avec les identifiants format radius, que de relier des IP<=> méta.
Et je pense qu’ils s’intéressent plus a l’ATM/MPLS dans les backbone que l’identification ip<=>méta. C’est carrément plus fiable.
Il faudrait recréer un réseau sur le réseau pour être “couvert” contre ce genre de technologies, et nécessitant un backbone ailleurs (suggestion : routeurs MPLS de sorties situés sur ballons sondes, en zone inter, utiliser de la liaison longue distance encryptée genre radio amateur, j’en passe et des meilleurs …) et avoir un réseau sur le réseau se basant sur une masse assez critique pour rendre l’identification de paquet in et out impossible (confondre le traffic legit de celui qui ne l’est pas). Bref, tout se qu’un internaute moyen ne peut pas faire actuellement. Ou bien alors que les internautes eux même changent le paradigme d’internet actuellement et le transforment en support pur (mais dans ce cas, on deviendrait comme les multinationales et on aurait besoin d’une organisation équivalente a celle d’un gouvernement). Je vois mal comment, en pratique, réussir a passer outre ce genre de lois.
Testé aussi, mais ils ont arrêté rapidement avec une technique assez rudimentaire mais efficace.
Les call center sont équipés de robot de prénumérotation. Le robot numérote plusieurs appels en même temps et envoie les appels pour placer en liste d’attente. Le plus rapide a décrocher arrive sur un conseillé, les suivants sont placés en liste d’attente (se qui met une pression monstrueuse sur les conseillés en passant).
J’ai collé un décroché automatique sur ma ligne qui colle les gens eux même en attente et laisse sonner mon téléphone le temps que je réponde.
Pareil pour les robots call back (ceux qui font une sonnerie pour inciter au rappel, tout comme les répondeurs automatiques). Et avec les options de multi appel, je place ces appels là en liste “poubelle” : mon décroché décroche et m’envoie pas les appels. En gros, les call center bouffent plus de fric avec moi que je n’en rapporte, ou suis susceptible d’en rapporter.
Le
28/01/2016 à
18h
37
Ma technique anti démarchage : j’utilise les règles de bien séance téléphonique. A savoir que c’est a la personne qui appelle de se présenter en premier lieu et expliquer clairement la raison de son appelle.
Dernièrement, c’est les appels pour les mutuelles … Leurs rappeler que les mutuelles sont interdites de démarchage actif les calme bien (tout comme les professions d’assurances et autres notaires.) et que même a prétexter les changements de lois, c’est bidon, parce que si ma mutuelle veux m’informer, elle m’envoie un courrier.
L’option de dire clairement qu’on est au bout du fil pour leurs faire perdre du temps d’entrée de jeu vous vaut un rayage des listes assez rapidement aussi, parce qu’en principe, les personnes en call center sont formées pour ne jamais raccrocher les premiers. Et leurs faire perdre de manière effective du temps ensuite, encore plus rapidement.
L’option de dire qu’on est intéressé uniquement par des pizza, ou des services d’escort fonctionne bien. Déstabiliser la personne qui appelle est un bon moyen de se faire rayer des listes. Je dois n’avoir plus que grand maximum 1 appel/mois pour du démarchage non sollicité.
Je crois que vous oubliez un truc important quand vous parlez du transcodage. Ca ne sert pas seulement a réduire le bitrate, mais ça permet également d’avoir une lecture accélérée sur un client qui ne supporte pas nativement le format stocké.
Donc l’idéal c’est emby/plex en serveur, et kodi en client (qui s’intègre très bien avec une bibliothèque centralisée gérée par plex ou emby), y compris sur du Lan : que le format soit HEVC, truchmuche ou salade, a partir du moment ou le serveur supporte le transcodage a la volée, le client pourrait être un pentium MMX 233 que ça passerait quand même (si la cible est du dvix en 460i). Et ce, y compris en lan. D’ailleurs, c’est une notion totalement arbitraire le lan ou le hors lan, puisqu’un tunnel/VPN et hop …
La LF n’est pas l’employeur de Linus. C’est un sponsor. Et c’est politique comme dit dans mon message. Si la direction prise par son sponsor ne lui convient plus (et actuellement, vue les tensions avec Red Hat entre autres, la direction prise ne lui convient pas), je doute fort qu’il lui soit difficile de trouver un nouveau sponsor.
Alors après, c’est certain que le terme sponsor n’a pas le même impact chez nous que dans les autres pays. Pour nous, c’est certains qu’avoir une fiche de paye c’est la même chose que d’avoir un patron, mais pas aux U.S.A. ça peut même mener a quelques soucis de compréhension. Là, dans l’immédiat, la news, j’y vois plutôt du positif, ça empêchera certaines personnes nocives a titre individuels d’avoir un trop grand pouvoir sur l’orientation “politique” de Linux et par répercussion GNU/Linux, et surtout empêchera certains membres actuels (coucou Red Hat a nouveau) d’avoir plus de voix sur les décisions du conseil parce que leurs employés sont aussi inscrit individuellement.
Le
26/01/2016 à
16h
34
Le sextoy GAFA est dans le manchot. (ben ouai, un manchot, ça peut pas tenir un sextoy, puisqu’il est manchot … Pas de bras, pas de sextoy ! C’pour la correction du ver dans le fruit qui a été corrigé en ver dans le pingouin et dans le manchot ensuite …)
Plus sérieusement, la Linux Foundation n’a jamais été, et heureusement, directrice de quoi que se soit niveau orientation du kernel, et de se qu’est GNU/Linux. Ils peuvent, en tant que consortium être de foutus emmerdeurs sur certains points, mais ils n’ont aucuns pouvoirs. Faudra voir la réaction de Linus qui risque d’être un gros “fuck you” Linux Foundation.
Et La Linux Foundation n’est pas non plus la FSF (Free Software Foundation), qui sont eux, responsables (en principe) de GNU.
Les tensions sont d’ailleurs palpable entre certains membres de la LF et Linus (systemd fait partit du problème, entre autre choses, puisque c’est un cheval de troie concernant l’inclusion de binaires en kernel space et uid0. Je précise que ce n’est qu’un exemple parmi d’autres)
J’ai parlé des clés qui passent par les mandataire (clé publique donc, enfin ash de clé publique). J’ai bien dit que les clés privées ne transitent pas. Mais c’est bien vrai que le serveur envoie un sha. Je décrit le challenge sha/ash, qui est défaillant dans un sens mais pas dans l’autre. Relit, avec le doigt. :)
(et si tu crois que je vais donner la solution exacte, parce qu’on parle quand même d’intrusion dans un réseau, passible de prison même sur un pentest “pour rire” dans le cadre privé.)
Le
19/01/2016 à
23h
04
Si tu passe par un mandataire (proxy, reverse pour accéder a ta machine parce que pas d’ip fixe/DMZ merdique) c’est plausible que tes clés passent en clair, le tunnel ne commençant qu’une fois sur la zone WAN. La solution est de faire initier la connec par port knocking mais côté de ton serveur. Ta clé privé ne transitant pas dans ce cas. En gros, vaut mieux que ton serveur vérifie le ash, plutôt que tu lui envoie le sha.
M’enfin on entre dans des cas assez capilotractés pour le coup et sont difficile a réunir pour choper de la clé. (pas impossible mais difficile, faudrait t’inciter a te logger en passant sur un proxy pipoté. Possible a faire sur des bornes wifi publique, vue que ça broadcast a mort, mais pas déconnant de remplacer une antenne, ou installer un sniff sur une borne de sortie dans des endroits que tu aime bien utiliser.)
Et sinon, reste la solution de l’effraction chez toi et de te menacer avec un annuaire du 18e. Mais dans ce cas, y’a mieux que de poser ce genre de failles. Coller un VPN dans ta box est plus discret et moins détectable. " />
Le
19/01/2016 à
17h
53
Rappel : un accès “local” sous linux = accès a un shell, qu’il soit bash, sh, whatevershell, en ssh, ou accès clavier/souris, c’est la même chose, parce que rappel, Linux est multiseat, multiutilisateurs. En conséquence, je vais donner le bête exemple d’un xen mal sécurisé qui laisse accès a ses shells, ben c’est la même chose. Il faut avoir accès au shell, et les failles intrinsèques des shells sont suffisantes pour une élévation des privilèges d’un coté, et de l’autre exploiter cette faille (qui elle permet de modifier le comportement kernel pour masquer d’autres failles utilisées).
Le
19/01/2016 à
17h
28
L’accès “local” pour Linux est différent de l’accès “local” pour windows, un shell est un accès local. Si un attaquant a accès a un shell, il peut exploiter la faille.
Techniquement, en écriture cursive, non, il n’existe aucune majuscule accentuée. Ou alors faut que tu me trouve les lettres en cursif accentuées et je m’incline. Il n’y a qu’en écriture d’imprimerie et donc typographiée (^ù là effectivement ton exemple prend tout son sens) que les majuscules existent avec des modificateurs.
De fait, la langue française s’écrivant de manière cursive, logiquement les caractères en non cursif devraient respecter la même règle. Chose qui n’est pas le cas a cause des “grammar nazi”. Vous m’excuserez mais préférer un clavier a cause de ce genre de détails c’est très bof. Surtout qu’a ma connaissance, ce n’est ni le correcteur orthographique google ou microsoft qui gouverne la langue française.
La réponse est pourtant claire : on ne peut déterminer, ou non, l’usage des accents sur les majuscules dans la langue française. Ça dépend de la “cursivité” ou non de l’écriture.
J’attend les trolls spé clavier pour dire que blablabla telle ou telle disposition est mieux pour une écriture typographiée. Mais dites vous bien que dans tout les cas, une phrase commençant par un nom, ou autre est de toute manière mal formulée. Moralité : on peut largement se passer de ce genre de “recommandations”, le gouvernement a autre chose a foutre. (et je vous renvoie également aux lettres les plus utilisées dans le vocable francophone, aux statistique sur le nombre de mots maîtrisés par le francophone moyen, et au nombre de mots a utiliser pour être intelligible en langue française pour comprendre que ce genre de débats est en réalité totalement naze, nul, et carrément inutile. Qui plus est, pour les progr en herbe, les interpréteurs en ont rien a battre des accents, donc argument encore plus naze.)
Comparer Canonical et Red Hat à Apple… c’est déjà de la schizophrénie.
L'utilisateur de Red Hat Enterprise est très différent de l'ubuntuïste de base, du fedoriste, de l'utilisateur de Mageia ou Mint, et du branché Apple/Mac.
Alors pourquoi comparer l’utilisateur de windows ? Pas spécialement toi, hein, mais de manière générale, si la critique va bien dans un sens, pourquoi elle n’irait pas bien dans l’autre ?
paradise a écrit :
Ben, espérons-le, le contraire serait étonnant. " /> Il faut qu’on applaudisse, sans doute !
Compare le state of the art des autres OS disponibles. Tu comprendra qu’en conservant une compatibilité telle que décrite, y’a pas un seul OS qui lui arrive au niveau. Donc, oui, ça provoque des ratés. Mais a comparer a base d’utilisateur équivalente, ben carrément moins qu’un autre OS.
Et pour les failles. Y’a besoin que je te rappelle les failles SSL ? Leurs impact indirects et le temps qu’elles sont restées ? Non obstant la potentialité sur les services type bancaire ? Heartbleed ?
Donc, que l’ordinateur sous windows 10 de mme Michu soit vérolé, ça ne touche bel et bien que elle et les personnes dans son cas, généralement le temps de résolution d’une 0day sous windows se quantifie en jour (on peut avoir des exemples en mois, voir pas du tout résolus, certes) alors que dans le monde des OSS … Hum.
Généralement quand tu crack un compte sur un PC sous windows au pire tu va péter des photos de vacances, quelques infos sensibles. Quand tu crame un serveur sous nix/nux, c’est déjà moins drôle pour l’utilisateur (l’admin donc) et les clients finaux. (=indirectement impactés)
Le
07/01/2016 à
13h
41
D’un côté, je comprend Microsoft, qui veulent éviter que l’effet XP se répète et limiter au maximum les anciennes versions pour n’avoir plus ce parc a gérer, y compris pour du support contre les failles uniquement. Parce que c’est là le fond du problème selon moi avant toutes notions de récupération de données ou de se servir des infos client pour je ne sais quelles raisons.
Ben oui, avoir actuellement 4 kernels différents (7 SP1, 8, 8.1 et 10) a maintenir en permanence, je connais aucune autre boite assurant un tel support sur ses OS “end user”. La majorité des distro Linux maintiennent suivant l’upstream 1 version LTS avec backports, et une version current. Apple a réduit au maximum son support des anciens OSX (6 mois de support pour la dernière mise à jour a compté de la sortie d’une nouvelle version majeure me semble-t’il ? corrigez moi si je me trompe). C’est que ça en fait du dev’. Surtout quand ont sait que par engagement, ils essayent (pas toujours réussi mais difficilement blâmable quand on sait le boulot que ça représente) de conserver une compatibilité la plus large possible au niveau hard et du soft. Ca, ça génère des failles (un workaround pas propre pour faire fonctionner une imprimante sur un port USB et obligé de laissé un trou dans l’USB parce qu’elle arrive pas a bien s’annoncer, ou demande un accès en mode réel , et donc possibilité d’autoexe sans avis de l’utilisateur en mode kernel, avec tout les droits que çà implique ? L’exemple le plus con, mais le plus réel qui me viens a l’esprit, y’en a d’autres). C’est pas spécialement microsoft qu’il faut blâmer mais plus le fabriquant de matos qui n’assure pas, ou alors pour des raisons de coûts utilise un contrôleur/phy réputé pour avoir des drivers merdiques (coucou realtek ?).
Autant je ne comprend pas qu’ils ne donnent pas les vrais raisons. Je trouve leurs stratégie commerciale assez absurde. Je ne pense pas que leurs service marketing soit aussi vicieux que prétendu pour espionner tout le monde en permanence, v’là les ressources nécessaires a ça. Ni même qu’ils en aient réellement quelque chose a faire que le petit “Léon”, fils de mme Michu ai piraté le dernier game of throne. (noms donnés de manière totalement hasardeuse). Et même si leurs store et les infos metrics doivent leurs servir d’une manière ou d’une autre pour se justifier, je pense plus que c’est une histoire d’image de marque pour se vendre a des comptes plus juteux que le péquin moyen qui a obtenu sa licence en OEM, ou a acheté une version boite de 7 il y a 5 ans.
Ok c’est détestable d’être pisté, mais je ne pense pas que cet état de fait ou “sensation”, ressentit, soit uniquement du a microsoft, c’est un tout, une accumulation. (et ce pour des raisons plus ou moins valable).
Cela étant dit, quid de canonical ? Quid de Red Hat qui ont des politiques tout aussi pourries sur le suivis et le full cloud ? Apple ne sont pas non plus les derniers a pister les utilisateurs (je vous invite a sniffer un EFI d’un macos pour comprendre, Lenovo est un petit joueur en termes de logiciels installés via module firmware).
Bref, oui, c’est pas très honnête comme présentation, mais faut arrêter un peu la schizophrénie et comparer le comparable.
De se que j’en vois, depuis windows 2000, microsoft arrive a sortir des OS de plus en plus matures, assurer un suivis assez long que peu dans l’industrie peuvent se vanter de faire, avec des kernels monolithiques assez propre et, comparativement au nombre d’utilisateurs, ayant moins de failles que les copains (ben oui, donner un nombre de failles/OS c’est stupide, mais donner un nombre de failles découvertes/utilisateur l’est bien moins, puisque le principal avantage est, pour d’éventuels pirates, de toucher le plus d’utilisateurs possible, et pas le plus d’OS possible, et de ce point de vue, les failles sont plus grave côté open source, touchant moins d’utilisateurs de manière directe mais les impactant beaucoup plus niveau criticité et temps d’utilisation).
Sous Linux, c’est pas comme si mettre en place un jail non visible n’était pas possible. D’autant plus sous systemd ou la quasi totalité des distro tournent sous busybox pour l’init. Tu pipote le jail et hop, le tour est joué.
J’en viens donc au but de mon message qui n’était pas plus d’argumenter que d’amener ceci : l’accélération de se que tu appel la financiarisation fait que “le papier” (et ses chiffres ;) ) ont de moins en moins raison. Puisque les études récentes montrent qu’une diminution des évolutions est a prévoir dans les années a venir (je parlerai plus de stagnation que de recul. Certains y allant vraiment trop fort) et ne pourront donc soutenir la demande d’évolution (qui devient un produit comme un autre, alors qu’avant c’était une résultante).
Pour le reste même si je suis globalement d’accord, selon mon point de vue, ça reste une hypothèque sur les générations futures. Mais ça, on ne pourra pas le savoir avant d’y être puisqu’il n’y a aucuns modèle fiable capable de prédire les évolutions de notre société (tout ceux que j’ai pu voir, en big data ou manuel sont assez loin de la réalité, et heureusement parce que celui qui l’inventera, s’il existe un jour, sera le roi du monde :O)
Le
31/12/2015 à
14h
37
Surtout ce passage :
Concernant Apple, 200 miyards n’est que la partie émergée de l’iceberg. Quel est le montant de la valeur, dans le restant de l’économie, de l’ensemble des richesses qui ont été permises par les innovations d’Apple ? Rien que la somme de la valeur retirée personnellement par chaque individu ayant acheté un produit Apple est supérieur à son CA (sinon par définition les gens n’auraient pas acheté). Ce qui est caché est souvent bien plus vaste que ce qui est visible. D’où la répartition 2%-98%. Ok, de la valeur est crée, mais n’aurait-elle pas été crée de toutes manière sans les produits ? La répartition 2⁄98 est bonne si on prend l’aspect fiduciaire, mais en termes réels, l’investissement est juste inversé, le bénéfice de productivité est de 2%.C’est un peu un biais suivant la prise de vue, la relativité appliquée a l’économie. D’un point de vue brut, le train va plus vite que la personne qui le regarde, mais les deux vont infiniment plus rapidement a tel point que ça réduit le gain de productivité a néant. En gros, les innovations, tant qu’elles ne profitent pas a tous, restent socialement un gain nul. Maintenant, on va continuer dans la relativité : plus la masse fiduciaire augmente par rapport a la richesse réelle, plus le gain social ralentit. jusqu’à atteindre une masse critique qui fait que l’énergie dépensée par l’Homme ne pourra plus maintenir la masse financière.
Le
31/12/2015 à
08h
43
A créer de la pauvreté, et faire fonctionner la roue du capitalisme : La masse d’argent globale n’est pas infinie, elle est finie a un instant T. Une masse dormante nécessite l’augmentation de la masse global, ce faisant elle provoque de l’inflation et donc mécaniquement va dévaluer le “travail” global.
En dévaluant le “travail” tu créer de la pauvreté (si péquin moyen commence a lui aussi stocker, il ne pourra survivre, puisque sa richesse est insignifiante, même a 1 million d’euro par exemple), se faisant pour combler le trou les gens doivent travailler s’il veulent continuer a consommer.
La quantité d’argent en circulation n’étant plus gérée par les états … Je te laisse mesurer les dégâts.
Je précise que c’est grossier comme explication, on peut malheureusement pas faire dans la concision sur ce point là, mais ça reste un point de vue et une explication valable : la richesse n’est plus indexée sur la quantité globale du “travail” (qu’il soit humain où autre) ni sur quelque chose de tangible/palpable.
Y’a des dettes a éponger quand même. L’histoire reste assez complexe : en EMI reste proprio pour les droits d’enregistrement, anciens et nouveaux sur la trademark “beatles” mais c’est sony-ATV qui est proprio pour la radio diffusion etc … Incluant les droits pour Michael également (50% de la société était a MJ, et donc ses héritiers, l’autre a Sony). En 2014 la succession de MJ n’était toujours pas faite. (infos glanées ça et là, donc j’en sait rien pour 2015 et c’tout se que j’aurais a dire sur le sujet :O)
Le
23/12/2015 à
16h
09
darkbeast a écrit :
pour ce qui est de la rémunération, on va pas pleurer non plus Ringo et Paul ne sont pas à plaindre
Sauf que les ayants droits des beatles, c’est la famille Jackson. Ben oui, pourquoi Micheal même en banqueroute continuait a être banquable c’est parce qu’il était propriétaire de la totalité du catalogue des Beatles.
Je pense qu’il y a une chose que vous oubliez également. Là, on parle de la LOPPSI, pas d’une éventuelle loi sur le renseignement pour la lutte contre le terrorisme.
Cette loi est donc potentiellement applicable a tout crime ou délit. Il y a délit dans le tas, hein. Je crois que de fait internet devient le seul média surveillé pour des affaires uniquement délictuelles. Je ne minimise pas l’ampleur d’un délit, loin de là, mais en gros, cette loi met de facto au même niveau de surveillance un éventuel pirate/tipiakeur au même niveau de surveillance possible qu’un membre d’une faction du grand banditisme.
c’est une société civile à but non lucratif donc si par hasard ( humour inside) il y a trop de fric ( comme des profits ( humour inside) il suffit de se verser des salaires plus gros, ou des primes jusquà ce que les comptes s’équilibrent ( pas d’humour inside)
et toc
" />
Encore moins d’humour : en fait c’est pire. Il est impossible pour la SACEM de faire des profits puisqu’elle est déjà en déficit et pour cause : les salaires dépassent le budget. Donc, il faut équilibrer les comptes : ce en quoi ils justifient que la culture manque d’argent.
Méthode à la validité douteuse puisque seul les OEM ont le droit d’activer windows comme ça (et l’utilisateur final a la condition d’utiliser le gold de l’OEM correspondant) … En toute logique … Et il n’y a pas que les portables de concernés.
X.org a plus de 20ans et est une horreur a maintenir (personne ne comprend 100% du code) et les gens qui savent a peu pres comment ca fonctionne se compte sur les doigts d’une main.
Heuresement dans le cas de SteamOS, Steam se lance en headless et a une session X completement separe pour la partie desktop.
Beaucoup de gens attendent Wayland avec impatience et devrait arriver par defaut sur certaine grande distribution d’ici l’annee prochaine (prevu pour Fedora 24 ou 25 je crois).
C’pas l’inverse ? Steam en bigpicture normal et un x.org headless pour gnome ?
mirandir a écrit :
Ce lien n’a aucun rapport avec une comparaison nvidia / AMD. Il fait juste la comparaison avant / après l’ajout du support du PowerPlay dans le pilote AMDGPU. Et il montre - oh surprise - que quand les cartes peuvent modifier leur fréquence à la volée, elles sont plus performantes que quand elles sont bloquées à la fréquence minimale.
Et ce lien rappelle en même temps que malgré cet ajout, les performances restent laaaaaaargement en deçà des possibilités des cartes (However, it still shows that the Radeon R9 Fury on the open-source driver is still hitting some issue as while its performance is much faster with PowerPlay, it’s still multiple times slower compared to where this $500+ graphics card should be performing).
On a demandé de comparer Nvidia et AMD là ?
mirandir a écrit :
Clairement, il y a pas photo. Le pilote proprio nvidia est le pilote graphique le plus performant sous Linux à l’heure actuelle. Je ne vois pas où tu aurais pu voir des tests montrant l’inverse (mais je ne demande qu’à être surpris) !
On a demandé de comparer les pilotes. Et le fait est que le pilote RadeonSI/DRM libre est plus performant que le pilote Nvidia, et de loin. Si tu me crois pas, je te laisse admirer les latences entre deux frame render entre :
Et puis, faut savoir lire et faire toi même tes recherches, surtout que absolument tout les comparos sont dispo sur phoronix, sachant qu’il précise également que pour les générations d’avant les cartes Volcanic island, le gain est assez considérable.
C’est pas la panacée mais c’est déjà une grosse avancée.
Psst, ça, c’est clairement un troll a qui t’as répondu " />
Le
16/11/2015 à
15h
36
Le gros problème de perf viens de la pile graphique et de comment elle est prise en charge sur les deux OSes.
La comparaison aurait été valable entre W7 et une debian 8.2 + paquets testing qui vont bien + steam sans overlay et sans compositing (bureau switché headless et GPU dédié au jeu). Entre W10 et SteamOS 2, il y a 2 ans de décalage niveau prise en charge et optimisations.
Faut bien l’avouer, microsoft avec la mise en place des WDDM a juste … Enterré x.org. Faudra attendre un wayland sous vulkan like pour avoir des tests comparables. Ou alors compiler soit même Mesa + wayland avec llvm clang et debugger le kernel a la main.
Pour la guéguerre AMD/Nvidia sous linux, a mon avis, pour la plupart, soit vous trollez, soit vous suivez pas les derniers développements technologiques sur votre OS. Parce qu’a l’heure actuelle, AMD fait une migration vers un full opensource + blob firmware pour fonctionnalités avancées (du coup, si vous suivez un tant soit peu les actus, les pilotes libre sont a présent aussi performant, voir plus que les pilotes proprio, avec 1 mois de retard maximum sur la prise en charge du nouveau matos question gestion d’énergie, chose assez paradoxale, la 2D devient délaissée > cf http://www.phoronix.com/scan.php?page=article&item=amd-radeonsi-1315&…://www.phoronix.com/scan.php?page=article&item=amdgpu-powerplay-test&num=1 )
Du coup, la question des drivers devient un problème d’implémentation par les distributeurs (en gros, les mainteneurs de distro) pour AMD.
Quant à Nvidia, y’a pas a chier, ils ont la polio a utiliser du CPU sur leurs drivers (et le drivers opensource, j’en parle même pas de la bouse infâme que c’est)
Alors autant out of the box, je suis d’accord qu’en comparant AMD et Nvidia, l’avantage est a Nvidia (a condition d’installer les drivers proprio), mais une fois custom, y’a pas photo a qui est le plus performant. C’est une histoire de configuration quoi.
Bref, out of the box et stock, les différences de perfs m’étonnent même pas.
Il n’y a jamais eu une véritable isolation jusqu’à présent. Même avec tes mesures, de par la conception même de X.org, n’importe quel processus peut enregistrer les frappes clavier des autres applications, par exemple. Problème qui a été corrigé depuis avec Wayland, dont la sécurité a été pensée dès le départ.
Première nouvelle. Relit, et mieux.
Un jail, c’est un jail, je rappel quand même qu’un jail, t’embarque toutes les briques du userland pour les copier et faire ton chroot, ensuite l’isolation tu peux la faire kernel side via SELinux + cgroups. Sans oublier l’utilisation du nxbit et des kthreads isolés (+cgroups) qui existent depuis … Longtemps …
Busybox est une solution embedded (dans toute l’acceptation du terme, et pas seulement la partie “commerciale”), et pour le reste, c’est une question de dev qu’ont pas envie de se faire chier a coder des interfaces de communication bas niveau, mais les pipe file pour les transferts d’informations, c’est pas fait pour les animaux.
Se que tu décris, c’est un changement assez violent de paradigme dans le monde Linux, on passe d’un mode ou “everything is file” a de la grosse gestion binaire imbitable par autre chose que le mec qui a dev le module, ou le bout de programme. Précision : généralement.
Pour le coup des applications isolés, j’ai juste a te dire que les mecs qui disent ça, sont des gens qui comprennent rien a Linux et comment lancer des sessions différentes, le seul point problématique, avant, était de pouvoir envoyer des commandes de prise en main exclusive du matériel et souvent t’avais pas le switch, ou bien ça partait en kernel panic, mais il était parfaitement possible de changer les contextes et garder les état mémoire des sessions déchargées et ce, de manière isolée … Juste tricky.
Rendez moi mon bidon de pipe dans /dev en lieu et place du bloat induit par la capacité qu’ont les binaires de créer leurs propres process dans leurs espaces mémoires sans stack lisible.
Je remet pas en cause l’isolation, ou le principe philosophique derrière ça, je remet en principe la mise en place actuelle @Lennart. C’est pas une réussite.
Le
22/10/2015 à
18h
42
Vision super “end user centric”.
Le sandbox applicatif est né sur Linux, c’est pas une nouveauté, juste une interface qui est faite façon clickodrome (jail chroot, cgroups sont des moyens de sandboxer, SELinux est un patchset permettant de sandboxer, busybox …)
Les mises a jour atomique, ou le truc qui fait devenir Linux comme les autres OS : un pack entier a prendre ou a laissé, si t’as une merde, en temps qu’admin, le workaround est forcé. Perte du concept KiSS (pas en utilisation mais en termes de choix, t’es obligé de suivre l’upstream de ta distro, si, par choix politiques, le mec décide d’utiliser tel logiciel au lieu de tel autre, alors qu’il en existe de plus simples et sans bugs, t’es baisé.)
Bref : pourquoi réinventer la roue dans de nombreux cas ?
C’est pourtant simple, le gain, n’est pas de 100%, il est linéaire, certes, mais pas de 100% :
1 node = 100%
2 nodes = 99%
3 nodes = 99% de 99%
4 nodes = 99% de 99% de 99%
Je te laisse continuer, mais tu te rend compte que le gain devient assez mince rapidement. Les % ne sont pas exact, et j’ai donné l’exemple pour avoir l’image, puisque biensur, ça dépend du type de node qui est rajouté dans le système et du node le plus “puissant”.
Le
12/10/2015 à
20h
09
A ceci prêt que la scalabilité n’est pas de 100% et pas compté au node mais a X+1node rapport a X, se qui fait que plus tu ajoute de nodes, plus tu rajoute du payload sur TOUT. Donc au final, tu as une masse critique maximum au delà de laquelle le rendement s’effondre.
En gros, quand performance du système = X/2 brut, il est temps de rechanger le paradigme de ton infra.
Y’a clairement mieux comme approche (hybridation). Le full convergé, c’est juste de la poudre aux yeux pour pseudo DSI.
Tu crois que c’est du SAS là dessus ? Tu pense qu’on parle encore de “disques” ou de mono carte pour ce genre de machine ?
Plus sérieusement on commence a parler en termes de PPS, de taille de trame et de limitations de PCI-e/node et de baie type “jumbo” pour le volume :
-Baie sur expander SAS reliés a un node (160 disques/4U en nearline SAS)
-16 4U sur un controleur externe
-1 procos avec peu de coeurs, beaucoup de fréquence et une masse de ram
-ce genre de cartes pour transformer les burst aléatoire en données séquentielles
-Une carte fiber channel minimum, infiniband
Tu met le tout dans une baie, tu met un jolie firmware binaire locké et hop, t’as du netapp.
Si tu met un FS distribué typê mojette ou lustre tu exporte les meta sur des nodes en SSD pur.
Un troll, oui et non, dépend de l’argumentaire derrière. Et pourquoi pas créer le métier de youtubeur de toute pièce ?
Le
09/09/2015 à
09h
20
Tu oublie que le travail de webmaster a été dévoyé de son utilité première. A la base, un webmaster n’est pas un créateur, c’est un travailleur technique, qui doit mettre en place les serveurs et les maintenir.
Depuis, webmaster je l’ai vue a toute les sauces et surtout, il doit mettre en forme le contenu (=doit savoir pondre du code au kilo) voir, avoir un avis critique sur le contenu qu’on lui demande de mettre en forme.
La fiche de poste d’un webmaster entre maintenant et avant (1996) a été profondément modifiée. Elle n’a été modifier par besoin, mais bien par création artificielle. Et il a fallut vendre ce besoin aux utilisateurs.
Accès au métier Ce métier est accessible à partir d’un Bac +2 : BTS / DUT communication, marketing, publicité ou commerce.
Ce métier est accessible avec un Bac+3 :
- Licences pro Création multimédia, Multimédia et nouveaux métiers, Animateur des technologies de l’information et de l’Internet
- IUP Métiers de l’information et de la communication (options Multimédia ou Multimédia et technologies de l’information)La formation initiale peut être à dominante informatique (licence ou maîtrise), ou axée sur l’aspect créatif (Arts et technologies de l’image, par exemple).
La formation peut être complétée par un Bac+5 :- Masters pro Ingénierie du multimédia, Informatique, Réseaux multimédia-Internet- Ecole d’ingénieur (avec spécialisation en télécommunications ou en informatique ou multimedia)
Ce sont donc bien des métiers rentrant dans le cadre de la communication plus que l’informatique “dure” et ayant une définition toute récente.
Le
08/09/2015 à
16h
51
La réponse est très simple :
Se sont des gens formés pour créer du besoin (=faire la publicité d’un produit que les gens n’auraient pas forcément l’utilité, et savoir le vendre). Ils arriveront donc a créer le besoin par des techniques de communication vers les webmestres et/ou passionnés fondateurs de blogs.
L’un des arguments principaux est “vous pourriez en vivre”.
L’autre élément de réponse est qu’on a également créé un besoin en terme de social branding : on cherche a faire croire aux gens que sur internet, il faut que leurs nom soit une marque, ai un affichage énorme. Alors que de facto, et par référencement naturel (hors tout système de bonification d’un index) n’importe quel page http est “référençable” et donc potentiellement visible par des millions d’utilisateurs. S’est donc développé une sorte de synergie avec d’un côté l’alimentation au nombre de vues d’une page pour augmenter le page ranking, et donc une sorte de concurrence et un tracking de plus en plus poussé, pour cibler de mieux en mieux.
Les premiers clients des boites de pub sont elles mêmes et se sont les boites les plus rentables (associées avec les organismes de collecte de données et de gestion cloud/big data) pour cause d’informations “gratuites” et de vente facile : les rédacteurs etc … Ont récréés l’économie du minitel. Qui était celle de la télévision, et avant ça des journaux papier, seul le support a changé : on ne créer plus de contenu interactif, on abreuve le “client” final (le consommateur) d’un contenu préformaté avec des pubs qui sont déjà presque ciblé, y’a qu’a peaufiner.
Edit : achievement get : 16 pages de com’ assez intéressantes et sans trop de trolls ni attaques directes. " />
Le
08/09/2015 à
14h
33
J’utilise pas l’aspect “réseau social” du web. Si j’ai envie d’être en relation avec mes potes, je sort de chez moi et je vais boire un coup avec au bar, c’mieux que d’avoir des discussions digne du café du commerce sur facebook, et au moins, j’entretiens l’aspect discussion du café du commerce. " />
Le
08/09/2015 à
14h
09
Faire ton propre service et héberger toi même ton contenu : c’est ça internet. Tu payera, moins, tu favorisera la décentralisation de l’intelligence, fera un acte citoyen.
Il ne faut pas apprendre aux gens a utiliser youtube pour héberger leurs données mais apprendre au gens a déployer un tomcat ou nodejs + plex/whatever (se qui l’un dans l’autre est aussi compliqué a apprendre)
Le
08/09/2015 à
13h
56
Le drame dans tout ça c’est que bien avant d’en avoir eu l’idée, lycos et ses pages perso infestaient déjà de publicités les pages persos de leurs membres et putain se qu’avec un 56k ça ramait. (afk café le temps que la page se charge)
Et a l’époque, tu touchais peanuts pour ça. Donc non, j’ai jamais été intéressé parce que les hébergeurs s’en chargeaient déjà, et quand je voyais les sites des camarades d’a coté, ouch, ça donnait pas envie.
maestro321 a écrit :
L’erreur classique de l’illusion de la résistance à la publicité.
La force de la publicité (tout comme la propagande) c’est de jouer sur un certain nombre de facteurs non-conscient. Que tu acceptes ou non le message (consciemment) il est entré que tu le veuilles ou non.
-Carglass répare carglass…
-118 218
-etc..
C’est pas pour rien qu’il y a autant d’étude psychologiques qui sont menée par l’industrie de la pub (sur le neuromarketing par exemple).
Certains en sont tellement convaincu (de cette fausse résistance consciente) que même lorsque leurs médias (Internet, TV, journaux etc..) sont rempli de publicité (plus de pub que de contenu dans certain cas…) ils soutiennent quand même que ça ne les atteints pas." />
Il y a des gens qui sont câblés différemment au niveau du cerveau, se qui fait que même s’ils perçoivent la publicité, ça ne les atteins pas. Parce que ces personnes peuvent ne même pas avoir conscience de leurs inconscience où des mécanismes mis en place par leurs cerveau (de compensation généralement). Ca s’appelle des autistes.
Le
08/09/2015 à
13h
48
Moyen le troll. <_<
Je m’aime, moi, et c’est déjà pas mal.
Plus sérieusement : j’aime les anciens systèmes type BBS/newsgroup où l’information n’est pas accessible qu’en mode minitel ou kiosque, j’aime aller chercher mes propres informations a la source et généralement, j’indexe mes propres pages. Alors oui, ce n’est pas le cas de tout le monde, d’autant plus avec les générations “jeunes” (accès a internet post vague adsl). Y’a du consommateur pour votre contenu, tant mieux pour vous, mais bon, détourner un morceau d’un article sur un bug documenter pour en remettre une couche sur la publicité et les bloqueurs, je trouve que ça le fait moyen. ;)
Le
08/09/2015 à
13h
35
Ah mais tout a fait d’accord avec toi sur le principe. C’est vrai que ça coûte pas grand chose voir limite gratuit.
Mais y’a quand même des frais qui ne sont pas neutres.
Le
08/09/2015 à
13h
28
J’aime pas le système m’obligeant a avoir un compte pour désactiver des options.
196 commentaires
Le plugin Java deviendra obsolète avec la version 9
01/02/2016
Le 01/02/2016 à 21h 58
Question a la con, vous confondriez pas applet (intégrée au navigateur) et JVM hors navigateur ?
Parce que arrêtez moi si je me trompe, mais a partir du moment ou on a le .jar, pourquoi lancer l’applet alors que l’appel d’une JVM externe qui est certainement plus à jour passerait aussi bien ?
Hormis la gestion réseau qui doit passer par un websock, pour rendre un .jar externe utilisable, je vois pas ou se situerait le soucis d’adapter une applet pour en sortir un standalone. L’affichage dédié au moteur de rendu du browser web ? Foutaise, ça fait bien longtemps que les moteurs type gecko, moz/mozdom et autre sont aussi standalone, du coup, le coût de migration serait quasi nul. Et a ma connaissance, il est toujours possible de demander un render web dans une JVM.
Enfin c’ptête parce que je vois ça d’un point de vue sys et pas dev.
Les données de connexions accessibles aux services du renseignement
01/02/2016
Le 01/02/2016 à 19h 20
Trop peu de personnes sur ces soit disant réseaux libertaires, voir liberticides de fait, pour que ça soit fiable.
J’aurai même plutôt le conseil inverse a faire actuellement : vous voulez passer inaperçu ? Ne cryptez pas, ou du moins pas grand chose.
Le cryptage n’as gagné sont droit d’exister que parce qu’il répondait a un besoin (celui de pouvoir effectuer des transactions raisonnablement sécurisées entre deux tiers, en toute confiance.) Philosophiquement et techniquement parlant, internet n’est qu’un moyen de communication(s), pas un endroit pour y placer sa vie.
J’ai besoin du cryptage pour pouvoir parler avec ma banque, communiquer avec des personnes éloignées de ma vie privée. Partant de ce principe, je n’utilise pas le cryptage, je ne vois pas en quoi il me servirait plus. HTTPS ? Pour quoi faire le S ? sachant par exemple que ce commentaire, qu’il soit en S ou pas, ne changera rien, il sera accessible sur le site, en clair.
Il y a donc bien un dévoiement des usages des canaux cryptés a la base. Et une sortie du contexte qui est dommageable et force a prendre de telles mesures. C’était aussi le point de vue de mecs comme Stallman a une époque pas si lointaine : dans les années 70, l’encouragement était de ne pas utiliser de mots de passes pour l’utilisation de services généralistes, et de ne pas partager sa vie privée, cloisonner, sur les réseaux électroniques pour justement ne pas avoir a avoir une telle montée en puissance dans les besoins. Sauf que … Et bien sauf qu’il a fallut en avoir toujours plus.
Il faut être pragmatique. D’accord, on a pas forcément envie d’avoir un procès d’intention quant a nos communications privées, mais ce besoin d’une telle débauche de moyens pseudos techniques (parce que soyons honnête, ils n’abordent pas le fond du problème techniquement, mais laissent une marge très important pour justement laisser le champ libre a une évolution du matériel hard et soft employé chez nos FAI et autre) de la part de nos administrations n’est-il pas du fait d’une envolée des discours alarmistes ? Ils ne sont pas seuls fautifs.
Yep, c’est grave, yep encore, c’est crasse (de part la possibilité des trous laissés, des manquements aux libertés peuvent être fait). Mais je ne vois très franchement pas d’autres solutions. Soyons francs, réinventé la roue, refaire internet, c’est impossible aujourd’hui. Le remettre d’aplomb et revoir l’utilisation qui en est fait, c’est pas impossible, et même salutaire : se rendre compte que la crypto pour utiliser facebook, ça sert a rien, rendrait les communications d’éventuels terroristes, plus “visible”. Arrêter d’utiliser des VPN pour communiquer avec sa banque, mais contribuer a faire du système de sécurité de celle ci (et donc signaler d’éventuels problèmes) plus intelligent. Ce ne doit plus être la fin qui doit dicter les moyens (qui seront de toutes façons de plus en plus dur, c’est la politique justement recherchée par toutes personnes désirant un ascendant sur d’autres) mais bien les moyens qui doivent déterminer si oui, ou non, on peut arriver a se qu’on désire.
Et je préférerait me priver d’un internet que d’arriver a vivre gouverné par d’éventuels fascistes sous pretexte que des gens utilisent des outils d’une certaine manière pour arriver a leurs fins. Il faudra juste a un moment se dire qu’il faut stopper l’escalade. Parce qu’actuellement nous sommes dans un cercle vicieux et avec une telle politique, ça ne fera que s’accentuer (et alors les terroristes, présumés ou non, auront vraiment gagné)
Le 01/02/2016 à 17h 28
Techniquement, TCP over IP permet de forger ses trames et donc de modifier les entête affichant les IP (puisque a ma connaissance aucunes RFC oblige d’avoir une IP valide.) Une fois la co établie, le VPN masque donc bien l’IP d’origine si tu suis les RFC a la lettre. Et se qui passe dans le tunnel reste donc encrypté.
Si tu spoof une ip sur un range totalement neutre, de fait, tu peut même faire croire a ton FAI que tu te co a partir de la Russie ou de la Pologne. Il faut descendre d’une couche pour avoir un truc a peut prêt fiable. Et dans les faits, c’est très certainement se qu’il risque de se passer : c’est plus facile d’avoir accès aux flux physiques, et donc brancher une carte sur le BAS qui va faire la jonction avec les identifiants format radius, que de relier des IP<=> méta.
Et je pense qu’ils s’intéressent plus a l’ATM/MPLS dans les backbone que l’identification ip<=>méta. C’est carrément plus fiable.
Il faudrait recréer un réseau sur le réseau pour être “couvert” contre ce genre de technologies, et nécessitant un backbone ailleurs (suggestion : routeurs MPLS de sorties situés sur ballons sondes, en zone inter, utiliser de la liaison longue distance encryptée genre radio amateur, j’en passe et des meilleurs …) et avoir un réseau sur le réseau se basant sur une masse assez critique pour rendre l’identification de paquet in et out impossible (confondre le traffic legit de celui qui ne l’est pas). Bref, tout se qu’un internaute moyen ne peut pas faire actuellement. Ou bien alors que les internautes eux même changent le paradigme d’internet actuellement et le transforment en support pur (mais dans ce cas, on deviendrait comme les multinationales et on aurait besoin d’une organisation équivalente a celle d’un gouvernement). Je vois mal comment, en pratique, réussir a passer outre ce genre de lois.
La liste anti-démarchage téléphonique obligatoire pourrait être fonctionnelle à la fin juin
28/01/2016
Le 29/01/2016 à 04h 02
Testé aussi, mais ils ont arrêté rapidement avec une technique assez rudimentaire mais efficace.
Les call center sont équipés de robot de prénumérotation. Le robot numérote plusieurs appels en même temps et envoie les appels pour placer en liste d’attente. Le plus rapide a décrocher arrive sur un conseillé, les suivants sont placés en liste d’attente (se qui met une pression monstrueuse sur les conseillés en passant).
J’ai collé un décroché automatique sur ma ligne qui colle les gens eux même en attente et laisse sonner mon téléphone le temps que je réponde.
Pareil pour les robots call back (ceux qui font une sonnerie pour inciter au rappel, tout comme les répondeurs automatiques). Et avec les options de multi appel, je place ces appels là en liste “poubelle” : mon décroché décroche et m’envoie pas les appels. En gros, les call center bouffent plus de fric avec moi que je n’en rapporte, ou suis susceptible d’en rapporter.
Le 28/01/2016 à 18h 37
Ma technique anti démarchage : j’utilise les règles de bien séance téléphonique. A savoir que c’est a la personne qui appelle de se présenter en premier lieu et expliquer clairement la raison de son appelle.
Dernièrement, c’est les appels pour les mutuelles … Leurs rappeler que les mutuelles sont interdites de démarchage actif les calme bien (tout comme les professions d’assurances et autres notaires.) et que même a prétexter les changements de lois, c’est bidon, parce que si ma mutuelle veux m’informer, elle m’envoie un courrier.
L’option de dire clairement qu’on est au bout du fil pour leurs faire perdre du temps d’entrée de jeu vous vaut un rayage des listes assez rapidement aussi, parce qu’en principe, les personnes en call center sont formées pour ne jamais raccrocher les premiers. Et leurs faire perdre de manière effective du temps ensuite, encore plus rapidement.
L’option de dire qu’on est intéressé uniquement par des pizza, ou des services d’escort fonctionne bien. Déstabiliser la personne qui appelle est un bon moyen de se faire rayer des listes. Je dois n’avoir plus que grand maximum 1 appel/mois pour du démarchage non sollicité.
Kodi 16 (Jarvis) : la première Release Candidate est disponible
22/01/2016
Le 27/01/2016 à 08h 42
Je crois que vous oubliez un truc important quand vous parlez du transcodage. Ca ne sert pas seulement a réduire le bitrate, mais ça permet également d’avoir une lecture accélérée sur un client qui ne supporte pas nativement le format stocké.
Donc l’idéal c’est emby/plex en serveur, et kodi en client (qui s’intègre très bien avec une bibliothèque centralisée gérée par plex ou emby), y compris sur du Lan : que le format soit HEVC, truchmuche ou salade, a partir du moment ou le serveur supporte le transcodage a la volée, le client pourrait être un pentium MMX 233 que ça passerait quand même (si la cible est du dvix en 460i). Et ce, y compris en lan. D’ailleurs, c’est une notion totalement arbitraire le lan ou le hors lan, puisqu’un tunnel/VPN et hop …
La Linux Foundation crée la polémique autour de son conseil d’administration
26/01/2016
Le 26/01/2016 à 18h 41
La LF n’est pas l’employeur de Linus. C’est un sponsor. Et c’est politique comme dit dans mon message. Si la direction prise par son sponsor ne lui convient plus (et actuellement, vue les tensions avec Red Hat entre autres, la direction prise ne lui convient pas), je doute fort qu’il lui soit difficile de trouver un nouveau sponsor.
Alors après, c’est certain que le terme sponsor n’a pas le même impact chez nous que dans les autres pays. Pour nous, c’est certains qu’avoir une fiche de paye c’est la même chose que d’avoir un patron, mais pas aux U.S.A. ça peut même mener a quelques soucis de compréhension. Là, dans l’immédiat, la news, j’y vois plutôt du positif, ça empêchera certaines personnes nocives a titre individuels d’avoir un trop grand pouvoir sur l’orientation “politique” de Linux et par répercussion GNU/Linux, et surtout empêchera certains membres actuels (coucou Red Hat a nouveau) d’avoir plus de voix sur les décisions du conseil parce que leurs employés sont aussi inscrit individuellement.
Le 26/01/2016 à 16h 34
Le sextoy GAFA est dans le manchot. (ben ouai, un manchot, ça peut pas tenir un sextoy, puisqu’il est manchot … Pas de bras, pas de sextoy ! C’pour la correction du ver dans le fruit qui a été corrigé en ver dans le pingouin et dans le manchot ensuite …)
Plus sérieusement, la Linux Foundation n’a jamais été, et heureusement, directrice de quoi que se soit niveau orientation du kernel, et de se qu’est GNU/Linux. Ils peuvent, en tant que consortium être de foutus emmerdeurs sur certains points, mais ils n’ont aucuns pouvoirs. Faudra voir la réaction de Linus qui risque d’être un gros “fuck you” Linux Foundation.
Et La Linux Foundation n’est pas non plus la FSF (Free Software Foundation), qui sont eux, responsables (en principe) de GNU.
Les tensions sont d’ailleurs palpable entre certains membres de la LF et Linus (systemd fait partit du problème, entre autre choses, puisque c’est un cheval de troie concernant l’inclusion de binaires en kernel space et uid0. Je précise que ce n’est qu’un exemple parmi d’autres)
Le noyau Linux touché par une faille 0-day à partir de sa version 3.8
19/01/2016
Le 20/01/2016 à 15h 44
J’ai parlé de clés privé qui transitent ? " />
J’ai parlé des clés qui passent par les mandataire (clé publique donc, enfin ash de clé publique). J’ai bien dit que les clés privées ne transitent pas. Mais c’est bien vrai que le serveur envoie un sha. Je décrit le challenge sha/ash, qui est défaillant dans un sens mais pas dans l’autre. Relit, avec le doigt. :)
(et si tu crois que je vais donner la solution exacte, parce qu’on parle quand même d’intrusion dans un réseau, passible de prison même sur un pentest “pour rire” dans le cadre privé.)
Le 19/01/2016 à 23h 04
Si tu passe par un mandataire (proxy, reverse pour accéder a ta machine parce que pas d’ip fixe/DMZ merdique) c’est plausible que tes clés passent en clair, le tunnel ne commençant qu’une fois sur la zone WAN. La solution est de faire initier la connec par port knocking mais côté de ton serveur. Ta clé privé ne transitant pas dans ce cas. En gros, vaut mieux que ton serveur vérifie le ash, plutôt que tu lui envoie le sha.
M’enfin on entre dans des cas assez capilotractés pour le coup et sont difficile a réunir pour choper de la clé. (pas impossible mais difficile, faudrait t’inciter a te logger en passant sur un proxy pipoté. Possible a faire sur des bornes wifi publique, vue que ça broadcast a mort, mais pas déconnant de remplacer une antenne, ou installer un sniff sur une borne de sortie dans des endroits que tu aime bien utiliser.)
Et sinon, reste la solution de l’effraction chez toi et de te menacer avec un annuaire du 18e. Mais dans ce cas, y’a mieux que de poser ce genre de failles. Coller un VPN dans ta box est plus discret et moins détectable. " />
Le 19/01/2016 à 17h 53
Rappel : un accès “local” sous linux = accès a un shell, qu’il soit bash, sh, whatevershell, en ssh, ou accès clavier/souris, c’est la même chose, parce que rappel, Linux est multiseat, multiutilisateurs. En conséquence, je vais donner le bête exemple d’un xen mal sécurisé qui laisse accès a ses shells, ben c’est la même chose. Il faut avoir accès au shell, et les failles intrinsèques des shells sont suffisantes pour une élévation des privilèges d’un coté, et de l’autre exploiter cette faille (qui elle permet de modifier le comportement kernel pour masquer d’autres failles utilisées).
Le 19/01/2016 à 17h 28
L’accès “local” pour Linux est différent de l’accès “local” pour windows, un shell est un accès local. Si un attaquant a accès a un shell, il peut exploiter la faille.
Le ministère de la Culture veut un clavier AZERTY french touches
18/01/2016
Le 19/01/2016 à 09h 24
Techniquement, en écriture cursive, non, il n’existe aucune majuscule accentuée. Ou alors faut que tu me trouve les lettres en cursif accentuées et je m’incline. Il n’y a qu’en écriture d’imprimerie et donc typographiée (^ù là effectivement ton exemple prend tout son sens) que les majuscules existent avec des modificateurs.
De fait, la langue française s’écrivant de manière cursive, logiquement les caractères en non cursif devraient respecter la même règle. Chose qui n’est pas le cas a cause des “grammar nazi”. Vous m’excuserez mais préférer un clavier a cause de ce genre de détails c’est très bof. Surtout qu’a ma connaissance, ce n’est ni le correcteur orthographique google ou microsoft qui gouverne la langue française.
La réponse est pourtant claire : on ne peut déterminer, ou non, l’usage des accents sur les majuscules dans la langue française. Ça dépend de la “cursivité” ou non de l’écriture.
J’attend les trolls spé clavier pour dire que blablabla telle ou telle disposition est mieux pour une écriture typographiée. Mais dites vous bien que dans tout les cas, une phrase commençant par un nom, ou autre est de toute manière mal formulée. Moralité : on peut largement se passer de ce genre de “recommandations”, le gouvernement a autre chose a foutre. (et je vous renvoie également aux lettres les plus utilisées dans le vocable francophone, aux statistique sur le nombre de mots maîtrisés par le francophone moyen, et au nombre de mots a utiliser pour être intelligible en langue française pour comprendre que ce genre de débats est en réalité totalement naze, nul, et carrément inutile. Qui plus est, pour les progr en herbe, les interpréteurs en ont rien a battre des accents, donc argument encore plus naze.)
Windows 7, à utiliser « à vos risques et périls » selon Microsoft
07/01/2016
Le 07/01/2016 à 14h 45
Le 07/01/2016 à 13h 41
D’un côté, je comprend Microsoft, qui veulent éviter que l’effet XP se répète et limiter au maximum les anciennes versions pour n’avoir plus ce parc a gérer, y compris pour du support contre les failles uniquement. Parce que c’est là le fond du problème selon moi avant toutes notions de récupération de données ou de se servir des infos client pour je ne sais quelles raisons.
Ben oui, avoir actuellement 4 kernels différents (7 SP1, 8, 8.1 et 10) a maintenir en permanence, je connais aucune autre boite assurant un tel support sur ses OS “end user”. La majorité des distro Linux maintiennent suivant l’upstream 1 version LTS avec backports, et une version current. Apple a réduit au maximum son support des anciens OSX (6 mois de support pour la dernière mise à jour a compté de la sortie d’une nouvelle version majeure me semble-t’il ? corrigez moi si je me trompe). C’est que ça en fait du dev’. Surtout quand ont sait que par engagement, ils essayent (pas toujours réussi mais difficilement blâmable quand on sait le boulot que ça représente) de conserver une compatibilité la plus large possible au niveau hard et du soft. Ca, ça génère des failles (un workaround pas propre pour faire fonctionner une imprimante sur un port USB et obligé de laissé un trou dans l’USB parce qu’elle arrive pas a bien s’annoncer, ou demande un accès en mode réel , et donc possibilité d’autoexe sans avis de l’utilisateur en mode kernel, avec tout les droits que çà implique ? L’exemple le plus con, mais le plus réel qui me viens a l’esprit, y’en a d’autres). C’est pas spécialement microsoft qu’il faut blâmer mais plus le fabriquant de matos qui n’assure pas, ou alors pour des raisons de coûts utilise un contrôleur/phy réputé pour avoir des drivers merdiques (coucou realtek ?).
Autant je ne comprend pas qu’ils ne donnent pas les vrais raisons. Je trouve leurs stratégie commerciale assez absurde. Je ne pense pas que leurs service marketing soit aussi vicieux que prétendu pour espionner tout le monde en permanence, v’là les ressources nécessaires a ça. Ni même qu’ils en aient réellement quelque chose a faire que le petit “Léon”, fils de mme Michu ai piraté le dernier game of throne. (noms donnés de manière totalement hasardeuse). Et même si leurs store et les infos metrics doivent leurs servir d’une manière ou d’une autre pour se justifier, je pense plus que c’est une histoire d’image de marque pour se vendre a des comptes plus juteux que le péquin moyen qui a obtenu sa licence en OEM, ou a acheté une version boite de 7 il y a 5 ans.
Ok c’est détestable d’être pisté, mais je ne pense pas que cet état de fait ou “sensation”, ressentit, soit uniquement du a microsoft, c’est un tout, une accumulation. (et ce pour des raisons plus ou moins valable).
Cela étant dit, quid de canonical ? Quid de Red Hat qui ont des politiques tout aussi pourries sur le suivis et le full cloud ? Apple ne sont pas non plus les derniers a pister les utilisateurs (je vous invite a sniffer un EFI d’un macos pour comprendre, Lenovo est un petit joueur en termes de logiciels installés via module firmware).
Bref, oui, c’est pas très honnête comme présentation, mais faut arrêter un peu la schizophrénie et comparer le comparable.
De se que j’en vois, depuis windows 2000, microsoft arrive a sortir des OS de plus en plus matures, assurer un suivis assez long que peu dans l’industrie peuvent se vanter de faire, avec des kernels monolithiques assez propre et, comparativement au nombre d’utilisateurs, ayant moins de failles que les copains (ben oui, donner un nombre de failles/OS c’est stupide, mais donner un nombre de failles découvertes/utilisateur l’est bien moins, puisque le principal avantage est, pour d’éventuels pirates, de toucher le plus d’utilisateurs possible, et pas le plus d’OS possible, et de ce point de vue, les failles sont plus grave côté open source, touchant moins d’utilisateurs de manière directe mais les impactant beaucoup plus niveau criticité et temps d’utilisation).
ORWL : un mini PC sécurisé open source et open hardware
06/01/2016
Le 06/01/2016 à 11h 50
Sous Linux, c’est pas comme si mettre en place un jail non visible n’était pas possible. D’autant plus sous systemd ou la quasi totalité des distro tournent sous busybox pour l’init. Tu pipote le jail et hop, le tour est joué.
Apple consentirait à régler une ardoise de 318 millions d’euros au fisc italien
31/12/2015
Le 31/12/2015 à 18h 27
J’en viens donc au but de mon message qui n’était pas plus d’argumenter que d’amener ceci : l’accélération de se que tu appel la financiarisation fait que “le papier” (et ses chiffres ;) ) ont de moins en moins raison. Puisque les études récentes montrent qu’une diminution des évolutions est a prévoir dans les années a venir (je parlerai plus de stagnation que de recul. Certains y allant vraiment trop fort) et ne pourront donc soutenir la demande d’évolution (qui devient un produit comme un autre, alors qu’avant c’était une résultante).
Pour le reste même si je suis globalement d’accord, selon mon point de vue, ça reste une hypothèque sur les générations futures. Mais ça, on ne pourra pas le savoir avant d’y être puisqu’il n’y a aucuns modèle fiable capable de prédire les évolutions de notre société (tout ceux que j’ai pu voir, en big data ou manuel sont assez loin de la réalité, et heureusement parce que celui qui l’inventera, s’il existe un jour, sera le roi du monde :O)
Le 31/12/2015 à 14h 37
Surtout ce passage :
Concernant Apple, 200 miyards n’est que la partie émergée de l’iceberg. Quel est le montant de la valeur, dans le restant de l’économie, de l’ensemble des richesses qui ont été permises par les innovations d’Apple ? Rien que la somme de la valeur retirée personnellement par chaque individu ayant acheté un produit Apple est supérieur à son CA (sinon par définition les gens n’auraient pas acheté). Ce qui est caché est souvent bien plus vaste que ce qui est visible. D’où la répartition 2%-98%. Ok, de la valeur est crée, mais n’aurait-elle pas été crée de toutes manière sans les produits ? La répartition 2⁄98 est bonne si on prend l’aspect fiduciaire, mais en termes réels, l’investissement est juste inversé, le bénéfice de productivité est de 2%.C’est un peu un biais suivant la prise de vue, la relativité appliquée a l’économie. D’un point de vue brut, le train va plus vite que la personne qui le regarde, mais les deux vont infiniment plus rapidement a tel point que ça réduit le gain de productivité a néant. En gros, les innovations, tant qu’elles ne profitent pas a tous, restent socialement un gain nul. Maintenant, on va continuer dans la relativité : plus la masse fiduciaire augmente par rapport a la richesse réelle, plus le gain social ralentit. jusqu’à atteindre une masse critique qui fait que l’énergie dépensée par l’Homme ne pourra plus maintenir la masse financière.
Le 31/12/2015 à 08h 43
A créer de la pauvreté, et faire fonctionner la roue du capitalisme : La masse d’argent globale n’est pas infinie, elle est finie a un instant T. Une masse dormante nécessite l’augmentation de la masse global, ce faisant elle provoque de l’inflation et donc mécaniquement va dévaluer le “travail” global.
En dévaluant le “travail” tu créer de la pauvreté (si péquin moyen commence a lui aussi stocker, il ne pourra survivre, puisque sa richesse est insignifiante, même a 1 million d’euro par exemple), se faisant pour combler le trou les gens doivent travailler s’il veulent continuer a consommer.
La quantité d’argent en circulation n’étant plus gérée par les états … Je te laisse mesurer les dégâts.
Je précise que c’est grossier comme explication, on peut malheureusement pas faire dans la concision sur ce point là, mais ça reste un point de vue et une explication valable : la richesse n’est plus indexée sur la quantité globale du “travail” (qu’il soit humain où autre) ni sur quelque chose de tangible/palpable.
Juniper : la NSA connaissait l’existence de 13 failles depuis 2011
24/12/2015
Le 24/12/2015 à 14h 27
Orange n’utilise pas ScreenOS.
Les Beatles arrivent demain sur des plateformes de streaming
23/12/2015
Le 23/12/2015 à 16h 17
Y’a des dettes a éponger quand même. L’histoire reste assez complexe : en EMI reste proprio pour les droits d’enregistrement, anciens et nouveaux sur la trademark “beatles” mais c’est sony-ATV qui est proprio pour la radio diffusion etc … Incluant les droits pour Michael également (50% de la société était a MJ, et donc ses héritiers, l’autre a Sony). En 2014 la succession de MJ n’était toujours pas faite. (infos glanées ça et là, donc j’en sait rien pour 2015 et c’tout se que j’aurais a dire sur le sujet :O)
Le 23/12/2015 à 16h 09
L’État renouvelle son socle interministériel de logiciels libres
22/12/2015
Le 22/12/2015 à 11h 15
Toujours pas de parefeu openoffice ?
Un décret autorise les captations de données et de conversations Skype en temps réel
21/12/2015
Le 22/12/2015 à 00h 44
Je pense qu’il y a une chose que vous oubliez également. Là, on parle de la LOPPSI, pas d’une éventuelle loi sur le renseignement pour la lutte contre le terrorisme.
Cette loi est donc potentiellement applicable a tout crime ou délit. Il y a délit dans le tas, hein. Je crois que de fait internet devient le seul média surveillé pour des affaires uniquement délictuelles. Je ne minimise pas l’ampleur d’un délit, loin de là, mais en gros, cette loi met de facto au même niveau de surveillance un éventuel pirate/tipiakeur au même niveau de surveillance possible qu’un membre d’une faction du grand banditisme.
Il y a 25 ans, le premier site web était mis en ligne
21/12/2015
Le 21/12/2015 à 18h 02
/me online since 1996
La SACEM rêve d’une redevance copie privée étendue au cloud et à la planète
18/12/2015
Le 19/12/2015 à 17h 43
Contenus sponsorisés en ligne : une loi claire, que personne ne fait respecter
04/12/2015
Le 04/12/2015 à 17h 58
La plus longue pub du monde : Evolution qui n’est qu’une immense promotion pour head & shoulders ?
Ou encore les placements a peine voilés dans tout les films iron man pour oracle.
Internet est en train de devenir un média de consommation comme les autres médias. Alors qu’a la base, internet ce n’est pas ça.
DSDTestProvider, l’autre certificat auto-signé de Dell
26/11/2015
Le 27/11/2015 à 04h 49
Méthode à la validité douteuse puisque seul les OEM ont le droit d’activer windows comme ça (et l’utilisateur final a la condition d’utiliser le gold de l’OEM correspondant) … En toute logique … Et il n’y a pas que les portables de concernés.
SteamOS 2.0 : un premier test annonce des performances en deçà de Windows 10
16/11/2015
Le 16/11/2015 à 21h 17
Le 16/11/2015 à 18h 25
http://www.phoronix.com/scan.php?page=article&item=amdgpu-powerplay-test&num=1 peut être ? (mais bon, si le site bouffe la moitié des liens aussi, ça va pas aller :O )
Le 16/11/2015 à 17h 49
Psst, ça, c’est clairement un troll a qui t’as répondu " />
Le 16/11/2015 à 15h 36
Le gros problème de perf viens de la pile graphique et de comment elle est prise en charge sur les deux OSes.
La comparaison aurait été valable entre W7 et une debian 8.2 + paquets testing qui vont bien + steam sans overlay et sans compositing (bureau switché headless et GPU dédié au jeu). Entre W10 et SteamOS 2, il y a 2 ans de décalage niveau prise en charge et optimisations.
Faut bien l’avouer, microsoft avec la mise en place des WDDM a juste … Enterré x.org. Faudra attendre un wayland sous vulkan like pour avoir des tests comparables. Ou alors compiler soit même Mesa + wayland avec llvm clang et debugger le kernel a la main.
Pour la guéguerre AMD/Nvidia sous linux, a mon avis, pour la plupart, soit vous trollez, soit vous suivez pas les derniers développements technologiques sur votre OS. Parce qu’a l’heure actuelle, AMD fait une migration vers un full opensource + blob firmware pour fonctionnalités avancées (du coup, si vous suivez un tant soit peu les actus, les pilotes libre sont a présent aussi performant, voir plus que les pilotes proprio, avec 1 mois de retard maximum sur la prise en charge du nouveau matos question gestion d’énergie, chose assez paradoxale, la 2D devient délaissée > cf http://www.phoronix.com/scan.php?page=article&item=amd-radeonsi-1315&…://www.phoronix.com/scan.php?page=article&item=amdgpu-powerplay-test&num=1 )
Du coup, la question des drivers devient un problème d’implémentation par les distributeurs (en gros, les mainteneurs de distro) pour AMD.
Quant à Nvidia, y’a pas a chier, ils ont la polio a utiliser du CPU sur leurs drivers (et le drivers opensource, j’en parle même pas de la bouse infâme que c’est)
Alors autant out of the box, je suis d’accord qu’en comparant AMD et Nvidia, l’avantage est a Nvidia (a condition d’installer les drivers proprio), mais une fois custom, y’a pas photo a qui est le plus performant. C’est une histoire de configuration quoi.
Bref, out of the box et stock, les différences de perfs m’étonnent même pas.
Thecus annonce son NAS N5810 avec sortie HDMI, mais toujours sous ThecusOS 5
28/10/2015
Le 28/10/2015 à 13h 41
C’est totalement pas la même puissance ni le même usage.
Jonathan Riddell quitte Kubuntu, sans danger a priori
27/10/2015
Le 27/10/2015 à 16h 03
Le 27/10/2015 à 11h 48
Pas content de vos mainteneurs, marre de l’upstream ? Faites comme les vrais geeks : passez sur gentoo/funtoo.
Ubuntu 15.10 Wily Werewolf est disponible en version finale
22/10/2015
Le 23/10/2015 à 08h 59
Le 22/10/2015 à 18h 42
Vision super “end user centric”.
Le sandbox applicatif est né sur Linux, c’est pas une nouveauté, juste une interface qui est faite façon clickodrome (jail chroot, cgroups sont des moyens de sandboxer, SELinux est un patchset permettant de sandboxer, busybox …)
Les mises a jour atomique, ou le truc qui fait devenir Linux comme les autres OS : un pack entier a prendre ou a laissé, si t’as une merde, en temps qu’admin, le workaround est forcé. Perte du concept KiSS (pas en utilisation mais en termes de choix, t’es obligé de suivre l’upstream de ta distro, si, par choix politiques, le mec décide d’utiliser tel logiciel au lieu de tel autre, alors qu’il en existe de plus simples et sans bugs, t’es baisé.)
Bref : pourquoi réinventer la roue dans de nombreux cas ?
EK lance un waterblock pour… le SSD PCI Express 750 Series d’Intel
13/10/2015
Le 14/10/2015 à 08h 11
Pour ceux qui se posent la question : solution made in IBM http://www.techpowerup.com/167860/first-commercial-ibm-hot-water-cooled-supercom…
http://www.nar.ucar.edu/2008/CISL/2ci/images/2.1.2.node.jpg IBM toujours en cold water
coolit en intégré http://www.coolitsystems.com/phocadownload/coolit/marketing/771-00012 reva10_c…
Dell rachète EMC et 85 % de VMware pour 67 milliards de dollars
12/10/2015
Le 14/10/2015 à 06h 01
C’est pourtant simple, le gain, n’est pas de 100%, il est linéaire, certes, mais pas de 100% :
1 node = 100%
2 nodes = 99%
3 nodes = 99% de 99%
4 nodes = 99% de 99% de 99%
Je te laisse continuer, mais tu te rend compte que le gain devient assez mince rapidement. Les % ne sont pas exact, et j’ai donné l’exemple pour avoir l’image, puisque biensur, ça dépend du type de node qui est rajouté dans le système et du node le plus “puissant”.
Le 12/10/2015 à 20h 09
A ceci prêt que la scalabilité n’est pas de 100% et pas compté au node mais a X+1node rapport a X, se qui fait que plus tu ajoute de nodes, plus tu rajoute du payload sur TOUT. Donc au final, tu as une masse critique maximum au delà de laquelle le rendement s’effondre.
En gros, quand performance du système = X/2 brut, il est temps de rechanger le paradigme de ton infra.
Y’a clairement mieux comme approche (hybridation). Le full convergé, c’est juste de la poudre aux yeux pour pseudo DSI.
SSD Intel DC P3608 : NVM Express, PCIe 3.0 x8 et jusqu’à 5 Go/s
24/09/2015
Le 25/09/2015 à 00h 31
Tu crois que c’est du SAS là dessus ? Tu pense qu’on parle encore de “disques” ou de mono carte pour ce genre de machine ?
Plus sérieusement on commence a parler en termes de PPS, de taille de trame et de limitations de PCI-e/node et de baie type “jumbo” pour le volume :
-Baie sur expander SAS reliés a un node (160 disques/4U en nearline SAS)
-16 4U sur un controleur externe
-1 procos avec peu de coeurs, beaucoup de fréquence et une masse de ram
-ce genre de cartes pour transformer les burst aléatoire en données séquentielles
-Une carte fiber channel minimum, infiniband
Tu met le tout dans une baie, tu met un jolie firmware binaire locké et hop, t’as du netapp.
Si tu met un FS distribué typê mojette ou lustre tu exporte les meta sur des nodes en SSD pur.
Bienvenue dans l’air du “bigdata”.
Non, YouTube n’a pas déclaré la guerre aux bloqueurs de publicité
08/09/2015
Le 09/09/2015 à 10h 29
Un troll, oui et non, dépend de l’argumentaire derrière. Et pourquoi pas créer le métier de youtubeur de toute pièce ?
Le 09/09/2015 à 09h 20
Tu oublie que le travail de webmaster a été dévoyé de son utilité première. A la base, un webmaster n’est pas un créateur, c’est un travailleur technique, qui doit mettre en place les serveurs et les maintenir.
Depuis, webmaster je l’ai vue a toute les sauces et surtout, il doit mettre en forme le contenu (=doit savoir pondre du code au kilo) voir, avoir un avis critique sur le contenu qu’on lui demande de mettre en forme.
La fiche de poste d’un webmaster entre maintenant et avant (1996) a été profondément modifiée. Elle n’a été modifier par besoin, mais bien par création artificielle. Et il a fallut vendre ce besoin aux utilisateurs.
Pour information : Webmaster E1101/E1104
http://www.orientation-pour-tous.fr/metier/webmaster,14360.html
Accès au métier Ce métier est accessible à partir d’un Bac +2 : BTS / DUT communication, marketing, publicité ou commerce.
Ce métier est accessible avec un Bac+3 :
- Licences pro Création multimédia, Multimédia et nouveaux métiers, Animateur des technologies de l’information et de l’Internet
- IUP Métiers de l’information et de la communication (options Multimédia ou Multimédia et technologies de l’information)La formation initiale peut être à dominante informatique (licence ou maîtrise), ou axée sur l’aspect créatif (Arts et technologies de l’image, par exemple).
La formation peut être complétée par un Bac+5 :- Masters pro Ingénierie du multimédia, Informatique, Réseaux multimédia-Internet- Ecole d’ingénieur (avec spécialisation en télécommunications ou en informatique ou multimedia)
Ce sont donc bien des métiers rentrant dans le cadre de la communication plus que l’informatique “dure” et ayant une définition toute récente.
Le 08/09/2015 à 16h 51
La réponse est très simple :
Se sont des gens formés pour créer du besoin (=faire la publicité d’un produit que les gens n’auraient pas forcément l’utilité, et savoir le vendre). Ils arriveront donc a créer le besoin par des techniques de communication vers les webmestres et/ou passionnés fondateurs de blogs.
L’un des arguments principaux est “vous pourriez en vivre”.
L’autre élément de réponse est qu’on a également créé un besoin en terme de social branding : on cherche a faire croire aux gens que sur internet, il faut que leurs nom soit une marque, ai un affichage énorme. Alors que de facto, et par référencement naturel (hors tout système de bonification d’un index) n’importe quel page http est “référençable” et donc potentiellement visible par des millions d’utilisateurs. S’est donc développé une sorte de synergie avec d’un côté l’alimentation au nombre de vues d’une page pour augmenter le page ranking, et donc une sorte de concurrence et un tracking de plus en plus poussé, pour cibler de mieux en mieux.
Les premiers clients des boites de pub sont elles mêmes et se sont les boites les plus rentables (associées avec les organismes de collecte de données et de gestion cloud/big data) pour cause d’informations “gratuites” et de vente facile : les rédacteurs etc … Ont récréés l’économie du minitel. Qui était celle de la télévision, et avant ça des journaux papier, seul le support a changé : on ne créer plus de contenu interactif, on abreuve le “client” final (le consommateur) d’un contenu préformaté avec des pubs qui sont déjà presque ciblé, y’a qu’a peaufiner.
Edit : achievement get : 16 pages de com’ assez intéressantes et sans trop de trolls ni attaques directes. " />
Le 08/09/2015 à 14h 33
J’utilise pas l’aspect “réseau social” du web. Si j’ai envie d’être en relation avec mes potes, je sort de chez moi et je vais boire un coup avec au bar, c’mieux que d’avoir des discussions digne du café du commerce sur facebook, et au moins, j’entretiens l’aspect discussion du café du commerce. " />
Le 08/09/2015 à 14h 09
Faire ton propre service et héberger toi même ton contenu : c’est ça internet. Tu payera, moins, tu favorisera la décentralisation de l’intelligence, fera un acte citoyen.
Il ne faut pas apprendre aux gens a utiliser youtube pour héberger leurs données mais apprendre au gens a déployer un tomcat ou nodejs + plex/whatever (se qui l’un dans l’autre est aussi compliqué a apprendre)
Le 08/09/2015 à 13h 56
Le drame dans tout ça c’est que bien avant d’en avoir eu l’idée, lycos et ses pages perso infestaient déjà de publicités les pages persos de leurs membres et putain se qu’avec un 56k ça ramait. (afk café le temps que la page se charge)
Et a l’époque, tu touchais peanuts pour ça. Donc non, j’ai jamais été intéressé parce que les hébergeurs s’en chargeaient déjà, et quand je voyais les sites des camarades d’a coté, ouch, ça donnait pas envie.
Le 08/09/2015 à 13h 48
Moyen le troll. <_<
Je m’aime, moi, et c’est déjà pas mal.
Plus sérieusement : j’aime les anciens systèmes type BBS/newsgroup où l’information n’est pas accessible qu’en mode minitel ou kiosque, j’aime aller chercher mes propres informations a la source et généralement, j’indexe mes propres pages. Alors oui, ce n’est pas le cas de tout le monde, d’autant plus avec les générations “jeunes” (accès a internet post vague adsl). Y’a du consommateur pour votre contenu, tant mieux pour vous, mais bon, détourner un morceau d’un article sur un bug documenter pour en remettre une couche sur la publicité et les bloqueurs, je trouve que ça le fait moyen. ;)
Le 08/09/2015 à 13h 35
Ah mais tout a fait d’accord avec toi sur le principe. C’est vrai que ça coûte pas grand chose voir limite gratuit.
Mais y’a quand même des frais qui ne sont pas neutres.
Le 08/09/2015 à 13h 28
J’aime pas le système m’obligeant a avoir un compte pour désactiver des options.
Il vient de chez vous :O (red face is red)