votre avatar

yl

est avec nous depuis le 29 mai 2013 ❤️

4032 commentaires

Le 29/08/2013 à 08h 24







Droogs a écrit :



Ah si seulement le cône pouvait être le lecture multimedia par défaut des consoles next-gen… ça éviterai certaines vidéos non lisibles, les .mkv seraient enfin regardable…







C’est certain… Mais faut pas rêver: Entre microsoft qui va coller un remake de cette sombre m<img data-src=" /> de windows media player et Sony qui a une division édition audio/video importante et ne doit pas trouver d’un fol intérêt la lecture de tous les formats non commercialisés.



Bon, au moins sur la PS3 y’a ses encodages perso en m4v (format qui offre les mêmes apports que le mkv, avec support audio multiple, chapitrage etc…) et la plupart des avi (plus limité) qui passent bien, malgré qq restrictions (mieux vaut en général laisser l’audio DD inchangée, ca passe toujours bien. Mais onvertir le DTS en AC3/DD et éviter aussi les conversions AAC multicanal: Passe pas ou cause des ralentissements video en HD).


Le 29/08/2013 à 07h 26







sebtx a écrit :



sur Audacious j’adore le skin style Winamp à l’ancienne.







Egalement, cette bonne tête de d’analyseur de spectre du top de la chaine hifi des années 80, j’adore aussi!


Le 29/08/2013 à 06h 56







sebtx a écrit :



Et sinon est-ce que cette nouvelle version apporte enfin la lecture continue d’un album, sans pause entre les chansons ?



C’est ce qu’il manque cruellement à ce lecteur pour qu’il soit parfait, du coup j’utilise Audacious (sous XP).







VLC est avant tout le lecteur couteau suisse pour la video… Audacious, spécialisé audio, restera préférable pour l’audio.



Au delà du gapless, la qualité audio d’Audacious est également meilleure en sortie optique sur ampli hi-fi, sur des formats lossless comme le FLAC. Et pas que comparé à VLC, mais aussi à tous les autres lecteurs purement audio que j’ai pu essayer.


Le 27/08/2013 à 16h 40







statoon54 a écrit :



Les versions Server le peuvent après tout. Surtout depuis la version 2012 qui regroupe la plupart des services maintenables sous PowerShell c’est même largement accessible.



Maintenant on peut comprendre que l’objectif d’une version Desktop n’est pas d’être installé en noir et blanc avec un terminal.







La plupart? Si ce n’est pas tous c’est mort…



Sinon, à l’heure actuelle, l’environnement graphique pour les taches de base il peut souvent se limiter à un serveur web accessible via le réseau… Mais bon, on pourrait aussi avoir un serveur X utilisable seulement en distant. Là, sous windows c’est même pas en rêve!


Le 27/08/2013 à 13h 43







Konrad a écrit :



Sinon je peux aussi sortir que le noyau Linux sans aucun pilote peut bouffer moins de 8 Mo de RAM, mais ça n’intéressera pas grand monde…







Y’a surtout qu’un linux fonctionnel sans interface graphique (juste une console texte, éventuellement série si aucune carte graphique présente), c’est pas un problème… Je ne pense pas que windows soit capable de fonctionner sans un support graphique minimal.


Le 27/08/2013 à 13h 16







charon.G a écrit :



Lis ma citation. je sais plus exactement mais c’est une partie de la mémoire vidéo qui est adressée en RAM. Ca fait gonfler la mémoire prise par le système. C’est pour ca qu’ils disent de désactiver le driver graphique pour pouvoir se faire une idée. Ce fait est ignoré par beaucoup de monde.







Pour moi, un cache c’est un cache processeur (L1)/cluster (L2 en général) (ou plateforme/SoC, L3).



Si l’OS gère une bufferisation (parfois appelé “cache”, mais c’est un abus de langage) ailleurs, c’est fort probable (les gestionnaires de FS en sont friands), ce n’était pas mon propos et je ne connais pas assez le fonctionnement de windows pour en juger.


Le 27/08/2013 à 13h 10







charon.G a écrit :



Le gestionnaire de taches ne donne pas la réalite à cause des caches…







Je ne voit pas en quoi ce qui est dans les caches influerait sur la mémoire utilisée. Si c’est dans un cache, c’est forcément une donnée mappée et adressable. Sinon au prochain flush ca va être écran bleu.


Le 27/08/2013 à 13h 07







Konrad a écrit :



Justement j’écris depuis un Firefox sous Linux sur eeePC <img data-src=" />







Sur un 901 (SSD 16Go), j’ai fini par virer XP qui ramait à mort (parfois pas loin de 2mn pour remonter le réseau sans fil sur sortie de veille), laggait aléatoirement des dizaines de secondes avec le SSD pédalant dans la semoule… pour une Crunchbang (base Debian 7 avec un gestionnaire de bureau minimaliste).



Le jour et la nuit. Boot en qq secondes (passe autant de temps dans le bios qu’a démarrer l’OS!), réactif, tout supporté même les touches spéciales from scratch, sortie de veille instantanément utilisable…



Bon, faut un peu customiser l’interface vraiment minimaliste avec sa bite et son éditeur mais ca évite de remplir une poubelle sur un coup de rage de trop <img data-src=" />


Le 27/08/2013 à 12h 57







ledufakademy a écrit :



OS X (et c idem pour gnu/linux) c’est du code de plus de 20 à 10 ans qui tient toujours la route !!!







Pour OSX j’en sais rien… Mais pour Linux, il ne doit pas rester grand chose qui n’ait pas été revu de plus de 10 ans. Ca bouge tellement que cela en est difficile à suivre. Avec aussi ses erreurs et remises à plat, très fréquentes.



Comme le dit Torvalds lui-même, “Linux is evolution, not intelligent design”.



Un mode de fonctionnement lié au nb de contributeurs, mondialement répartis (avec leur langue et fuseau-horaire) via le réseau, qui résulte plus de la sélection naturelle que d’une réflexion collective impossible à mettre en oeuvre.



D’ou un code en constante mutation. Surtout niveau kernel/modules.


Le 27/08/2013 à 09h 45







atomusk a écrit :



Est ce que je dois aller dans l’Assembleur pour grappiller les quelques ko de mêmoire de plus au risque de…







Sur tout processeur moderne, le rendre paradoxalement moins optimisé! <img data-src=" />



Sur du out-of-order, l’optimisation marche mieux avec un compilateur qui exploitera mieux le parallélisme interne d’un core, entre unités d’execution, qu’avec une écriture directe en assembleur.



Pourquoi? Car la chaine de compilation prends en compte ce qui est fait avant/après afin d’optimiser l’ordonnancement des instructions. Chose impossible sur ce qui n’est pas pré-écrit dans un langage de plus haut niveau (enfin, pas trop non plus, du C quoi…).



D’ou un code ecrit en C toujours mieux optimisé qu’un code écrit en assembleur.



L’assembleur reste utilisé pour qq primitives bas niveau de configuration processeur (caches, MMU…) qui resteront toujours hors de portée d’un language évolué, même le C. Et pour le strict démarrage, jusqu’à avoir pu se configurer une pile qqpart (souvent avant même l’init de la DDR, y’a toujours un cache à exploiter temporairement qqpart en sram) et pouvoir empiler des paramètres ce qui permet d’appeler du C et d’y rester ensuite, pour l’essentiel.


Le 27/08/2013 à 09h 14







Lafisk a écrit :



lesquels de vendeur ? ceux qui préfèrent vendre du apple car la commission est meilleure ?







Bizarre, j’avais entendu que les marges revendeurs chez Apple étaient bien plus faibles qu’ailleurs (mac, ca devait tourner à 5% quand pour les PC c’était jamsia en dessous de 10, souvent proche de 20%)?



Pour le reste, un vendeur compétant arrivera à faire changer d’avis un client… mais s’il doit faire 30mn de formation en rayon pour ce faire… avec 10 autres qui se barrent lassés d’attendre… il paumera aussi des ventes au final.


Le 27/08/2013 à 09h 08







atomusk a écrit :



Si c’est pour dire “Win8 c’est moche”, ou “vista cay nul je vous l’avait bien dit”, je pense qu’on peux se passer de ton commentaire <img data-src=" />







J’ai écrit ça ou? <img data-src=" />


Le 27/08/2013 à 09h 05







Lafisk a écrit :



ça par exemple, c’est du troll de compète







Demande pourtant à n’importe quel vendeur de grande enseigne techno (Fnac…), il te dira clairement que ca pose un problème à une majorité de clients ou point de lui couter beaucoup de vente et causer beaucoup de retours pour ceux qui avaient mis direct le carton dans le caddie et découvert cela chez eux.



Ca n’est vu comme un troll que dans le contexte du lectorat de PCI.


Le 27/08/2013 à 09h 02







Lafisk a écrit :



Depuis qu’elle est sous W8, j’ai plus de demande à la con de comment on fait copier coller par exemple, chose que j’avais au moins une fois par semaine, alors qu’elle utilise un PC depuis des années, me demande pas pourquoi, quand ça veut pas rentrer …







Moi les miens sont sous Linux à +70 balais et le sélection/clic milieu sur un système qui a appris à utiliser une souris 3 boutons depuis longtemps, je n’ai jamais eu à répéter.



Ctrl-C/Ctrl-V ou devoir passer par le menu contextuel (clic-droit) ca fait partie des petits trucs vraiment agaçants de l’interface windows. C’est moins kicoolol à l’oeuil que des grosses icônes carrées mais c’est le genre de petit truc productif, demandant moins de synchronisation et de choses à retenir, que windows n’a jamais su développer.


Le 27/08/2013 à 08h 56







Soltek a écrit :



Mais non, ça a swordé pas mal là, ne soit pas mauvaise langue <img data-src=" />







Ca sword souvent sur des commentaires critiquant vertement la stratégie de microsoft et son manque de vision/innovation. Ce qui est drôle, c’est que l’autre sword qui fait tomber des têtes depuis presque 2 ans dans le management de microsoft, jusqu’en haut désormais, aurait tendance à justifier la validité de ces commentaires!



Un vrai cas de conscience! <img data-src=" />


Le 27/08/2013 à 08h 51







statoon54 a écrit :



J’aurai ajouté la sécurité aussi.







Je ne suis cependant pas certain qu’actuellement ils utiliseraient encore l’argument de la NSA ayant contribué à la sécurité de Vista!



Pas super porteur: Dans le genre la faille backdoor “it’s not a bug, it’s a feature”!


Le 27/08/2013 à 08h 44







Lafisk a écrit :



Mais bien sûr, c’est por ça que Ma mère utilisatrice lambda l’a pris en main en 2h …







Ce qui est déjà énorme, avec une utilisation sans doute très basique, pour un changement de version d’un même OS. Ca devrait être zéro.


Le 27/08/2013 à 08h 41







Kenshin83 a écrit :



Nintendo n’est pas dans une situation catastrophique, et sont bien mieux que Microsoft…







C’est certes pas encore la clef sous la porte, mais je pense que l’urgence à se reprendre est encore plus forte que chez Microsoft qui dans le domaine s’est trop recentré sur la plateforme comparé à l’édition. Nintendo est sur les deux, y’a juste que sortir une plateforme trop dépassée dès sa sortie les exclu d’entrée pour trop de titres.


Le 27/08/2013 à 08h 34







Nhaps a écrit :



Windows 8 est complexe au premier abord, une fois maîtriser, il cartonne.







C’est plutot qu’il est simple au 1er abord… au point de rendre toute tâche plus complexe qu’avant (plus de manipulations)! <img data-src=" />



Une vitrine à icones sur un truc mal branlé, une vraie tuile! <img data-src=" />


Le 27/08/2013 à 08h 32







Stargateur a écrit :



oh ça serait oublier les autres windows qui ont merdé ! <img data-src=" />







A peu près 1 sur 2…



C’est grâce à la vente liée que cette boite est toujours là. Avoir loupé la moitié de ses produits et le virage de la mobilité, ca aurait tué n’importe qui d’autres.



Même dans le jeu video il ne sont pas si bien. C’est pas Nintendo, mais je doute qu’en temps de crise imposer avec un bonus de 100€ sur la concurrence une console dont le controlleur imposé demande un salon vidé (ou de plus de 30m2) pour jouer soit l’idée du siècle. Chez Sony le move est un demi echec et ils semblent ne pas vouloir l’imposer.



Avoir laissé tomber sa division édition de jeu, malgré un marché désormais supérieur au cinéma, il y a qq temps (flight simulator, quand je pense que j’avais acheté une PS3 quand IL2 est venu dessus… j’aurais sans doute une Xbox si microsoft y avait collé FS et permis d’utiliser des controleurs issus des PC dignes de ce nom) est à mon sens une autre grossière erreur.


Le 27/08/2013 à 10h 54







nabalzbhf a écrit :



C’est censé etre beaucoup de donnée? L’ordre de grandeur c’est pas une centaine de flux 1080p? Si oui, c’est petit (genre quelques centaines de Mbs, peut etre un Gbs).







En satellitaire, c’est gros… surtout multiplié par le nb d’appareils, dont les temps de vol usuels sont de l’ordre de dizaines d’heures.



Quand on voit la pub qu’il faut pour payer cela sur qq heures de direct une fois par an, ca laisse rêveur sur les moyens de renseignements US.



De là à dire que traiter tout ce qui passe par un datacenter, quitte à avoir un peu de pré-tri sur place, ne peut pas leur poser de pb sur leur sol? C’est mon avis perso…


Le 27/08/2013 à 10h 35







nabalzbhf a écrit :



Uh, désolé mais j’ai rien compris… c’est quoi la bande passante du superbowl?







Ce qu’il faut aligner pour retransmettre ça:

fr.wikipedia.org Wikipedia


Le 27/08/2013 à 10h 24







darth21 a écrit :



c’est plutôt la NSA qui est venu voir google pour prendre des leçons <img data-src=" />







Nous n’avons pas participé à PRISM… Nous l’avons inspiré!

Rendre à Google ce qui est à Google, tout le travail d’un service com <img data-src=" />


Le 27/08/2013 à 10h 22







Dez a écrit :



récupérer le traffic mirroré d’un datacenter, bizarrement, j’y crois moyen. Surtout que le traffic généré ne serait pas vraiment transparent…







C’est pour cela que JB parlait de gros ordinateurs de la NSA… faisant le pré-tri/filtrage et permettant d’extraire ce qui a de l’intérêt?!

<img data-src=" />



Mais bon, quand tu vois qu’ils sont capables de mettre la bande passante satellite du superbowl sur chaque drone (dénué d’intelligence locale, toute l’imagerie/données senseurs y passe) volant dans le monde… sur terre d’un datacenter bien fibré il y a de quoi faire.


Le 27/08/2013 à 10h 14







HarmattanBlow a écrit :



Pendant ce temps on compte exactement zéro manifestation devant les ambassades américaines en Europe.







Pourquoi manifester? Ils ont une position marché via des entreprises stratégiques, l’architecture réseau mondial, leurs implantations dans le monde qui leur permet de la faire.



C’est pas des manifs qui vont changer le fait qu’un service de renseignements fasse son job au mieux. Vaudrait mieux manifester devant l’Elysée afin qu’on légifère de manière à leur compliquer la vie (relocalisation des données… comme cela c’est la DCRI qui ouvrira nos webmails!).


Le 27/08/2013 à 10h 07







jb a écrit :



J’adore le BSspeak… Mais franchement, avec le faisceau de circonstances, ils pensent vraiment qu’on va les croire?







C’est vraiment de la com catastrophe… En prime, j’ai pas vraiment l’impression que la NSA ait pu déterminer le périmètre des fuites: Sans doute les logs étaient volontairement incomplets sur ce que faisaient les administrateurs… a dessein. Ne pas être en mesure de tracer qui fait quoi quand on est en partie dans l’illégalité (utilisation versus citoyens US par exemple), c’est le ba-ba car cela a aussi l’inconvénient de fournir des preuves éventuelles.



Google en disant cela s’expose donc à voir de nouvelles fuites prouvant le contraire sortir dans le futur… et perdre encore plus gros niveau confiance.


Le 27/08/2013 à 07h 36







wrongillusion a écrit :



Un portable permet justement d’être joignable n’importe ou en cas d’urgence (concept qui semble abstrait pour les plus de 40ans).

(…)

de nos jour un smartphone permet de ne pas forcémeent être en ligne mais de recevoir des notifications ou autre messages écris sans forcément être en appel vocal (concept qui semble abstrait pour les plus de 40ans…).

(…)

sont con car en total décalage avec la réalité.

se battent pourquoi à part faire chier? lutter contre d’hypothétique cancer? alors qu’il roule certainement avec un véhicule thermique, voir pire un diesel alors que ça c’est prouvé que cela tue des dizaines de milliers de personnes chaque année en France…<img data-src=" />







Quelle fixette sur les plus de 40 ans qui avant le mobile savaient pas gérer les urgences… qui ne connaissent pas le SMS, surtout s’ils ont participés à implémenter le GSM dans leur début de carrière, ni le mail datant de leurs parents (milieu des 60’s)!



Mouarf!



Sinon je suis assez d’accord sur l’exagération de ces assoc. Néanmoins, il est prouvé qu’un mobile avec son antenne près de l’oreille réchauffe un peu le cerveau en face (les harmoniques vers la fréquence de résonnance de l’eau vers le haut du spectre sont bien filtrés, mais même un bon filtre en laisse un peu passer). Pour avoir bossé un temps dans les labo radio d’un équipementier mobile, quand qqun oubliait de mettre les atténuateurs sur un ampli de puissance sous test, rien que ce qui sortait par la connectique suffisait à donner mal au crane à ceux qui bossaient autour et à faire merder les autoradios jusqu’au 2ème sous-sol ou on entendait ce qui dégorgeait jusque sur la FM, de l’autre côté du spectre, des burst GSM de 577µs…



Alors que des gens vérifient ce que font les opérateurs et les niveaux d’expo, sans cautionner leur catastrophisme amha très exagéré, c’est une liberté qui reste saine.


Le 27/08/2013 à 07h 17

Pas dit que ca se réedite sur le trimestre en cours, vu comme la roupie s’effondre en ce moment les produits importés vont commencer à coûter cher…

Le 26/08/2013 à 16h 27



une obligation de discrétion interdirait Redmond d’en dire davantage





Tu m’étonnes… Plus que les données de leur cloud naissant, c’est l’avantage stratégique d’avoir une boite qui fournit des OS au monde qui intéresse la NSA! <img data-src=" />



Même chose à venir des fournisseurs d’antivirus, ayant tout les droits sur un système?!! <img data-src=" />

Le 25/08/2013 à 15h 58







Jiyuu_Hashi a écrit :



Vivement la mort de “coolspot”, nous serons libérés des commentaires de son cerveau verrouillé ^^;

Jobs, ne t’en déplaise, a permis d’avoir l’un des premiers micro-ordinateurs accessibles au grand public à moindre coût (relatif, vis-à-vis de l’époque, mais quand même).

En plus, la souris, l’interface graphique, sans lui, ce serait toujours dans les archives de Xerox, car non viable.

Tout comme cracher sur Microsoft, d’ailleurs.

MS a rendu populaire des micro-ordinateurs vendus plusieurs reins au départ grâce/à cause de sa politique de bas prix pour le constructeur (à l’époque, le seul, IBM).

Dans les années 80, nous avons eu le droit à de très nombreux OS, qui se battaient pour faire leur place au soleil, tous verrouillés sur leur marché (comme le sont actuellement Apple, Microsoft ou les distributions Linux).







Souhaiter la mort de qqun qui ne fait de mal à personne, ouvrant juste sa gueule et souvent à propos… Ca situe a qui on a affaire!



La suite confirme:

-Jobs? Un profiteur qui a exploité à fond une période super ouverte, sorti une machine de son garage… qui une fois le succès mondial acquis (de la récup des idées des autres) propose la gamme de machines la plus fermée sur le marché.

-Années 80: En 81 on a récupéré le DOS alors que Unix existait depuis plus de 10 ans, déjà construit autour de la stack TCP et du multiutilisateurs/multitâches quand il a fallu de l’autre côté attendre la surcouche graphique mal branlée de win3.1 for workgroups, plus de 10 ans après, pour que ce soit en partie (réseau, pseudo multitache coopératif débile qui n’a pris fin qu’avec NT) inclus comme verrue chez Microsoft. A se demander ce qui a pris à IBM (soit dit en passant, le véritable initiateur de la standardisation hardware du marché, condition de la baisse des tarifs) de choisir ce truc dès le départ?! Une volonté de segmentation de marché pour le personnal computer emergeant versus leurs gros systèmes sans doute. Anomalie depuis réparée par Linux, la nature a horreur du vide!


Le 24/08/2013 à 15h 43



Steve Ballmer s’en va, un personnage s’envole





Donc, désormais, les cons volent? Après un tel progrès, il est clair que voir leur chef d’escadrille sorti (avec un parachute si doré qu’il aura du mal à remplir son office?) est un crève-coeur pour certains! <img data-src=" />

Le 24/08/2013 à 06h 21







Bejarid a écrit :



Deux anonymes sortent un discours incohérent, dénué de tout chiffre, incendiaire contre MS…







Y’a rien d’incendiaire: Ils pointent les pb d’une grosse boite sclérosée assise sur son monopole et ne sait pas encourager les bonnes volontés (et promeut le plus souvent, comme partout, les lêcheurs de c..?) et a des pb de recrutements face à des google and co.



Pour les chiffres, voire le calme plat global de l’action microsoft depuis presque 15 ans. C’est significatif sur une décennie qui a vu internet (donc un ordinateur) arriver dans l’immense majorité des foyers.


Le 23/08/2013 à 16h 20







le-gros-bug a écrit :



Magnifique la photo ! Un air de chien battu avec un sourire constipé <img data-src=" />







Chien battu riche à milliards… Y’a pire quand même! Y’a pas que les actionnaires qui ont palpé du dividende chez microsoft…



Ceci dit, la fête semble bien se finir.


Le 23/08/2013 à 16h 17







millman42 a écrit :



Non le noyau NT est plus modulaire que Linux (c’est le principe de micro-noyau, hybride ou pas).







C’est d’ailleurs pour cela qu’on l’a retrouvé sur tout: Du microsystème au supercaculateur en passant par le PC de bureau! <img data-src=" /><img data-src=" /><img data-src=" />


Le 23/08/2013 à 16h 16







Shimaran a écrit :



Un film en préparation ? <img data-src=" />







Avec un bide encore plus monumental à prévoir! <img data-src=" />


Le 25/08/2013 à 05h 10

Les tarifs PS3 ne sont pas encore vraiment tombés… ca devrait bientôt arriver au vu de ceux de la Xbox360?!



Bon, un p’tit HDD de 1.5To… et un bon média center à pas cher!

Le 24/08/2013 à 15h 37







dmann a écrit :



Libre Office serait amplement suffisant pour ceux qui n’en ont pas vraiment l’utilités. Non?







La plupart des particuliers qui utilisent une suite Office pourraient même sans doute… se contenter d’Abiword.<img data-src=" />


Le 24/08/2013 à 14h 27







Aisyk a écrit :



L’UI en rubans d’Office depuis 2007 est décrié…







Je plussoie… Passé de 2003 à 2007… en 2012 (les grands groupes sont toujours friands de nouveauté), j’ai trouvé l’interface de office 2007 moins productive.



C’est + joli à l’oeuil, mais c’est pas ce qu’on demande. <img data-src=" />



Mais bon, avec ces docx et pptx qui se généralisent… Mais je regrette l’ancienne interface et c’est un sentiment largement partagé autour de moi.


Le 23/08/2013 à 06h 20







Idiot Proof a écrit :



l’intérêt des coffres forts digitaux c’est le raid 5 ou 6 donc exit les solutions 2 disques autant s’équiper a l’aide d’un usb enclosure <img data-src=" />







Le raid est une solution de disponibilité et/ou de performance, pas de sauvegarde. Tu fais quoi si un jour le contrôleur raid a une défaillance (directe ou indirecte: alim par exemple…) et jardine tous les HDD en parallèle?



Tu pleures… <img data-src=" />



En prime, les contrôleurs RAID hardware ont le fâcheuse manie d’organiser les données de manière propriétaire (=&gt; quasi irrécupérable en branchant les HDD en direct).


Le 22/08/2013 à 12h 34







uzak a écrit :



Dans l’os quoi !







Ou expertiser tout le code assemblé <img data-src=" />



Bon, y’a des possibilités de vérif par double compilation… mais ca reporte le pb, car il faut un compilateur sûr afin de comparer les binaires produits! Et en pratique sans doute un compilo sûr de même version (utilisé avec les mêmes options) que celui ayant servi à compiler le compilo dont l’intégrité est à vérifier: Un compilo produit toujours un code un peu différent selon les versions.



Bref, ca reste assez théorique et peu applicable en pratique. Sans doute fait pour du logiciel critique (souvent de taille limitée comparé à un OS et son applicatif) mais clairement pas dans les dépots Debian!


Le 22/08/2013 à 11h 50







uzak a écrit :



Plus sérieusement, faut faire confiance aux repositories debian pour avoir un exé propre.



Je sais pas si il y a des moyens de vérifier que le compilateur n’est pas vérolé. Ça a forcément été exploré cette piste. Je m’en rappelle même l’avoir entendue évoquée en cours…







http://cm.bell-labs.com/who/ken/trust.html


Le 22/08/2013 à 11h 49







uzak a écrit :



DSK s’est fait piégé par la NSA <img data-src=" />







Va savoir s’ils n’ont pas utilisé son coté queutard? Par exemple pour le mettre la l’écart du FMI avec ses sombres idées de monnaie mondiale (a la place du $)… et y placer une potiche qui avait fait allégeance, phraséologie SM incluse (“utilises moi…”), à “Sarko l’américain”


Le 22/08/2013 à 11h 42







Ricard a écrit :



On est là dans la téléphonie, pas sur le ternet.

(…)

Là, on est clairement plus dans la surveillance des réseaux, mais bel et bien dans un film de Xavier Berne Jason Bourne.<img data-src=" />







Aucune différence: La voix est numérisée, souvent de la VoIP circulant sur les mêmes backbones… et traitable tout autant automatiquement. Et les métadonnées étaient l’essentiel des abus donc a priori pas inintéressantes. Les données, c’est trop gros à analyser de manière systématique.



Un film? Pour la pute, peut-être (et encore!), mais en général c’est dès la douane de l’aéroport que ça peut se passer… Les problèmes c’est si courant que des machines de voyage systématiquement remastérisées avant chaque départ et configurées pour juste permettre de se connecter via le VPN du site local ou l’on se rends, cela devient le standard de toute boite sensible… en plus de formations de sensibilisation à ce risque et les conduites à tenir face aux autorités de certains riants pays (Chine, Israël…): En gros, filer le mdp et laisser pomper! Si les consignes précédentes ont été respectées c’est pas un problème et évite de moisir en taule (fou le nb de pays qui n’ont aucune législation sur la durée max d’une garde à vue!) .



Tiens, petit tuyau parmi d’autres: Depuis les JO de Pékin chaque taxi est sonorisé et relié à un central (avec moult traducteurs) pouvant tous les écouter discrètement à volonté. Comme il faut un visa et une adresse locale pour se rendre dans ce pays, facile de cibler quel tacot se rends à telle heure (arrivée avion) a tel endroit… avec probablement telle personne dedans. Gare a la tentation d’y faire une pré-réunion d’affaire! Mais dit toi qu’a l’hôtel c’est sans doute pire…


Le 22/08/2013 à 11h 16







Ricard a écrit :



Faut arrêter de croire la NSA aussi. Ce qui les intéresse, c’est aussi (et surtout) le contenu du mail. Faire gober que les meta-données c’est suffisant, c’est faire croire aux gens que le chiffrement n’est pas nécessaire







Le scandale des “fadettes” pour le téléphone démontre pourtant bien que c’est important: Pareil, c’est les métadonnée de l’appel (heure/durée/appelant-appelé/adresse ou géoloc approximative par la cellule en mobile) qui étaient visées en masse et non les conversations qui donnaient lieu au plus d’abus.



Ensuite, pour des cas ciblés (fleurons industriels etc…) il est clair que descendre plus bas peut avoir un intérêt. Mais savoir que tel dirigeant utilise son laptop de tel hotel à pétaouchnoc peut s’avérer bien plus intéressant pour aller en copier à l’heure du repas l’intégralité du contenu, voire lui foutre un call-girl dans le plumard (ayant laissé une caméra en tapant le HDD) pour lui faire chanter la clef de chiffrement du disque ensuite au besoin! <img data-src=" />



Le 22/08/2013 à 11h 25







Mack21 a écrit :



ca ressemble plus a un appel à l’aide qu’a une vision du future <img data-src=" />







C’est clair que moisir plus de 30 ans en taule (tarif préférentiel!) après des années cuisiné au secret, la perspective de passer des années (une vie?) terré dans une ambassade d’un pays d’amérique du sud…ou de devoir demander asile à Poutine… C’est tentant!



Pour ce dernier cas, notons que c’est un asile provisoire et garanti 1 an! Ensuite on aura pompé le cerveau du mec et on jette? Probable, Poutine en ex des services secrets doit pas trop apprécier la démarche même si elle lui profite…



Avis aux amateurs! <img data-src=" />


Le 21/08/2013 à 11h 40







127.0.0.1 a écrit :



C’est le même raisonnement que, parce qu’elle a mis une jupe, du coup les gens ont le droit de regarder ses jambes.







La NSA, qui regarde jusque sous la jupe, n’est donc au fond qu’une bouche de métro sous l’internet mondial! <img data-src=" />


Le 21/08/2013 à 11h 30

Mince, encore un bon site (dans son genre) qui ferme. Ceci dit, si elle recevait des infos sensibles elle pouvait aussi mettre à dispo un how-to de contact sécurisé, donnant une clef publique GPG…



Reste la partie métadonnées cependant permettant de relier potentiellement une info sensible publiée à une source via l’adresse utilisée, sauf à être vraiment prudent: Sans doute possible néanmoins dans son cadre d’activité de la légalité open-source.

Le 21/08/2013 à 06h 21







David_L a écrit :



Je pense que tu es un peu optimiste. C’est surtout qu’Asus voulait faire une machine à 300 € et qu’ils ont pris ce qu’ils avaient sous la main pour la période visée.







Peut-être, mais la stratégie de laisser pourrir la gamme Atom par Intel et de la brider à tout va par Microsoft… a au final fait un pont d’or aux tablettes Andoïd puis aux CB tandis qu’Intel et ses UltraBook faisait un ultraflop!



Je suis peut-être optimiste, mais il est permis de penser que l’erreur ait été comprise et qu’avant d’enclencher vraiment la marche arrière on teste un peu le marché en avance sur le renouveau des Atom. Justement car il n’est pas certain que la situation soit réversible maintenant que les tablettes ont fait leur trou?!



Les ventes de cette machine vont probablement être observées de près, pour savoir si on se lance sur des design tablettes avec les atom qui arrivent ou si on revient à un design netbook. Hybride pour ce tarif j’y crois pas: Un écran tactile et surtout la connectique (ou sans connectique et via BT, ce qui a aussi un cout et pomperait plus la batterie) sur charnière clavier/tablette-écran restera encore trop couteuse. Surtout pour une machine que les acheteurs voulant un clavier utiliseront essentiellement via ce dernier, sinon ils prendraient une pure tablette moins chère.


Le 21/08/2013 à 06h 03







brice.wernet a écrit :



Là où Windows 8 s’est amélioré mais pas au niveau de Linux, c’est sur le multitâche: XP ralentissait énormément (plus de réactivité) quand on sollicitait le CPU, Windows 8 c’est beaucoup moins sensible mais pas au niveau de Linux (rarement sensible).







C’est clair qu’un encodage en cours sous XP via Handbrake rendait la machine totalement inutilisable. Pas sous Linux. Seven semble déjà mieux de ce point de vue sur mon double boot, n’ayant pas de machine sous 8. Mais sans égaler la fluidité de ma Debian 7 (certes XFCE, qui donne l’impression de revenir 10 ans en arrière mais allergie à Gnome3 toussa…) actuelle ou des mes Ubuntu passées dans les mêmes conditions.







brice.wernet a écrit :



Quand au sujet de la news, le Temash 1GHz, ça paraît vraiment léger. Y a juste de quoi tuer les tablettes WinRT avec ce portable







Faut aussi limiter les watts à dissiper… Moi ce qui me gêne c’est que pour ce prix on ait peu de chances d’avoir un SSD mSata pour que ce soit comparable à un vrai netbook des origines.



Mais mon EeePC 901 pas mal trimbalé en presque 5 ans a son écran qui donne des signes de faiblesse et il va bien me falloir un remplaçant. J’espère au moins que cette machine aura ses entrailles accessibles (contrairement à un tas de machines Asus récentes de ce format) pour au moins remplacer le HDD 2.5” 7mm qui a des chances de s’y trouver par un SSD de ce format.


Le 21/08/2013 à 04h 51







GruntZ a écrit :



Je n’ai jamais constaté une baisse de performance en remplaçant Windows, que ce soit XP, 7 ou 8, par une Xubuntu ou une Frugalware, voire une Puppy dans les cas extrêmes (chip CPU Via).

Et pourtant, j’en ai fait des install party <img data-src=" />







A la prochaine install party sur une machine limitée, avant de virer windows installe donc ne serait-ce que Neverball dispo sur les 2 OS… et refait l’expérience sous Linux.



Sous win aucune saccade sur un Atom 1ère génération (N270) et son “GPU” chipset 945GME… Sous nunux, c’est pas fluide. Pour afficher plein écran en 1024x600.



Si y’a hélas une dfférence. Les vidéos flash sont un autre exemple sans rien devoir installer.



Sur un i3 3445 avec HD4000 plus moderne par contre ca semble plus proche, mais même sous World Of Padman, bien plus gourmand, on observe un poil moins de fluidité sous nux.